WO2007111377A1 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
WO2007111377A1
WO2007111377A1 PCT/JP2007/057019 JP2007057019W WO2007111377A1 WO 2007111377 A1 WO2007111377 A1 WO 2007111377A1 JP 2007057019 W JP2007057019 W JP 2007057019W WO 2007111377 A1 WO2007111377 A1 WO 2007111377A1
Authority
WO
WIPO (PCT)
Prior art keywords
distortion correction
image
area
lens
lens distortion
Prior art date
Application number
PCT/JP2007/057019
Other languages
English (en)
French (fr)
Inventor
Hideto Fujita
Yohei Ishii
Hitoshi Hongo
Original Assignee
Sanyo Electric Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co., Ltd. filed Critical Sanyo Electric Co., Ltd.
Priority to US12/294,829 priority Critical patent/US9308862B2/en
Priority to CN2007800114284A priority patent/CN101410868B/zh
Priority to EP07740457.2A priority patent/EP2009590B1/en
Publication of WO2007111377A1 publication Critical patent/WO2007111377A1/ja

Links

Classifications

    • G06T3/047
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T5/80
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration

Definitions

  • the present invention relates to a driving support device.
  • the visual camera includes (1) a rear camera that displays the rear image of the vehicle when reversing, (2) a front side camera that displays the image of the front wheel on the opposite side of the driver, and (3) a blind spot immediately before the vehicle. (4) Side blind cameras that display images of side blind spots that occur when starting from narrow alleys.
  • rear cameras account for 77% of visual cameras, and are mainstream.
  • In-vehicle cameras for visual recognition generally use a wide-angle optical system in order to reduce the blind spot as much as possible.
  • the horizontal plane exceeds 100 degrees.
  • a large “sag” distortion is generated in an image captured by an in-vehicle camera equipped with such an optical system. Due to this distortion, there is a problem that it becomes difficult for the driver to intuitively understand the sense of distance if the position of the obstacle in the image.
  • Non-Patent Documents 1 and 2 optical distortion correction can be realized by devising the configuration of the optical system such as using an aspheric lens.
  • Non-Patent Document 1 Free Encyclopedia “Wikipedia” Photo Lens
  • Non-Patent Document 2 State-of-the-art technology of digital cameras Chapter 4 Lens / Optical System Design Co., Ltd.
  • Technical Information Study Group Distortion increases in proportion to the cube of the angle of view and is used for in-vehicle cameras
  • the degree of correction is determined at the design stage of the optical system, and it is difficult to adjust the degree of distortion at the stage of use by the user.
  • aspherical lenses are produced using molds, there is a problem that the initial investment becomes large.
  • Non-Patent Documents 3 and 4 are often used to correct camera lens distortion by image processing.
  • This technique has also been proposed as a library implemented as a computer program (see Non-Patent Document 7) and can be used for distortion correction of the present invention.
  • Non-Patent Document 3 RY Tsai: A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV camera and lenses; IEEE Journal of Robotics and Automation, RA-3, 4, pp. 323-344 (1987). ..
  • Non-Patent Document 4 Computer Vision: Technical Review and Future Prospects June 1998 Naoki Asada
  • Non-Patent Document 5 Z. Zhang. "Flexible Camera Calibration By Viewing a Plane From Unknown Orientations, Proc. Of ICCV '99, pp666-673, 1999.
  • Non-Patent Document 6 Z. Zhang.” A Flexible New Technique for Camera
  • Non-Patent Document 7 OpenCV Reference Manual, 6 3D Reconstruction [Camera Calibration], pp6-1 ⁇ 6. 3.
  • a regular known pattern on the plane as shown in Fig. Four parameters (k !, k 2 , pi, p 2 ) for camera distortion correction are calculated using multiple images taken while changing the relative relationship of the planes. These parameters are parameters for controlling the distortion correction strength. The greater the value of these parameters, the greater the distortion correction strength.
  • the correspondence between the coordinate position (x,, y ') of the acquired image and the coordinate value (x, y) after distortion correction can be found using the following equation (1).
  • the coordinate position is expressed in a coordinate system with the center of the image as the origin, the X coordinate in the horizontal direction, and the y coordinate in the vertical direction.
  • r 2 X 2 + y 2 .
  • x ' x + x (k, r 2 + ka r 4 ) + 2 pixy + p 2 (r 2 + 2 x 2 )
  • y' y + y (kir 2 + k 2 r 4 ) + 2 pixy + p 2 (r 2 + 2 y 2 )
  • FIG. 2 (a), 2 (b), and 2 (c) A schematic diagram of an example of a distortion-corrected image using the above method is shown in Figs. 2 (a), 2 (b), and 2 (c).
  • Fig. 2 (a) shows the original image of the known pattern shown in Fig. 1
  • Fig. 2 (b) shows the entire distortion correction image
  • Fig. 2 (c) shows the distortion correction cut-out image.
  • a wide-angle camera When a wide-angle camera is used, a barrel-shaped distortion occurs as in the original image.
  • the image looks like a “whole distortion correction image” with four corners spread out.
  • the image size is larger than the original image because basically the transformation that widens the distortion part.
  • a “distortion-corrected whole image” is cut out from a rectangular area (area surrounded by a dashed rectangular frame in Fig. 2 (b)).
  • a “correctly cut image” is used for display.
  • the four corners of the widened image are discarded during distortion correction, so part of the information acquired in the original image Will not be displayed. Therefore, the visibility of the viewer may improve, but the amount of information in the entire image is reduced.
  • distortion correction or cropping may be accompanied by enlargement or reduction processing depending on the image resolution of the display system.
  • Patent Document 1 proposes that distortion correction is performed by a line memory and a two-pixel interpolation circuit by performing distortion correction in the horizontal direction.
  • Patent Document 2 the X-axis and Y-axis of an image are processed sequentially in two stages for the purpose of simplifying the configuration of the interpolation circuit and avoiding the lack of the four corners of the image caused by distortion correction. A method is proposed.
  • the main purpose is to simplify the circuit, and there is no idea of controlling the intensity of distortion correction in order to improve the observability of the user.
  • Patent Document 1 Japanese Patent No. 3 0 4 7 5 8 1 “Image Distortion Correction Method and Apparatus” Distortion Correction Using Line Memory ..
  • Patent Document 2 Japanese Patent No. 3 4 5 1 0 1 7 “Image Processing Method and Apparatus” Horizontal , Vertical two-stage complementary distortion correction
  • Digital distortion correction has also been proposed for the purpose of correcting distortion in digital cameras (see Non-Patent Document 8).
  • digital distortion correction it is possible to change the distortion intensity by changing distortion correction parameters and improve the accuracy of distortion correction.
  • the purpose here is to uniformly reduce the strain distributed symmetrically about the optical axis.
  • Non-Patent Document 8 “Image Correction Technology in Digital Cameras” Ricoh Technical Report No, 31 (Dec., 2005) http. '// www. Ricoh. Co. Jp / about / business overview / report / 31 / pdf / A31 l4.pdf
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2000-103-1 2 3 0 6 4 “Image Conversion Device and Imaging and / or Display Device Incorporating It” Patent Document 4 discloses a hitch for pulling a trailer.
  • Patent Document 4 Patent No. 3 4 8 3 1 4 3 Publication “Drive Assistance Device”
  • Patent Document 5 Japanese Patent No.
  • Patent Document 6 proposes to provide optically gentle distortion correction by using a prism-like optical member. is doing. This proposal also describes only changing the distortion gently, and there is no concept of changing the intensity of distortion correction by dividing the image into regions. In addition, since it is an optical distortion correction, the intensity of distortion correction cannot be changed after designing the optical system, and there is no concept of adjusting the correction intensity according to the state of installation in the vehicle. Patent Document 6: Japanese Patent No. 3 4 4 6 9 9 1 gazette “Monitoring Device” A method for virtually changing the position and angle of a camera has been proposed in order to make it easier to grasp the posture of the vehicle and the surrounding conditions. ing.
  • Patent Document 7 the mounting height of the rear camera of the vehicle is virtually converted to reduce the difference in appearance between the area close to the vehicle and the area far from the vehicle, and the mounting position of the camera in the front-rear direction is virtually determined.
  • a technique has been proposed to reduce the bumper image that is an unnecessary field of view by converting.
  • Patent Document 7 Japanese Patent No. 3 6 2 4 7 6 9 “Image conversion device for vehicle rear monitoring device”
  • Patent Document 8 which are used for the options of domestic automobile manufacturers, the positional relationship between the parking line on the road and the vehicle can be obtained by virtually pointing the camera vertically downward. Easy to display.
  • Non-Patent Document 9 Accessories for Suzuki Every Tsurugon Select View Bag Ayamemef http: //www.suzuki-accessory, jp / every / navi / 99020 ⁇ bl4.
  • Html Patent Document 8 Patent No. 3 2 8 6 3 0 6 Image generation device, image generation method]
  • the accuracy of camera mounting is also important for sophisticated cameras that perform image coordinate transformation as described above.
  • the method of adjusting and checking the camera mounting is also important.
  • Patent Document 9 whether the angle of the attached force mela is within the fine-tunable range by image conversion, or a reference test installed at a predetermined position in front of the vehicle to show the operator how to adjust the angle A method is proposed to compare the pattern and the judgment pattern to be displayed at a predetermined position in the captured image. This patent focuses only on the camera angle adjustment, and there is no concept of adjusting the distortion coefficient. Patent Document 9: Japanese Patent No.
  • Patent Document 10 Japanese Patent No.
  • the on-board camera has a large lens distortion because it uses a wide-angle optical system. As shown in Fig. 3, it is common to set the camera position so that the vehicle body can be seen in a part of the image so that the obstacle near the vehicle body and the vehicle can be grasped simultaneously. In the example of Fig. 3, the parking lot is photographed, but the rear bumper (shown as 100 in Fig. 3) is shown as part of the vehicle body. The car body needs to be partly visible. If the lens distortion is large, the car body will occupy many areas of the image. In addition to lens distortion, the camera's mounting position is often offset from the center of the car, making it more difficult to find the optimal force position.
  • Figure 4 shows the image after distortion correction. In this case, there is almost no distortion at the end of the vehicle body, and the difficulty that the vehicle body appears too large is eliminated. On the other hand, by solving the distortion, the diagonal information is lost.
  • Diagonal information refers to information on both sides of the upper field of view of the camera, and corresponds to the information in the upper right and upper left parts of Figure 3. For example, as shown by the broken line in FIG. 4, the vehicle information at the upper right in FIG. 3 is missing.
  • the diagonal field of view is important depends on the camera settings for the car body.
  • the angle of depression of the camera is large, the upper visual field of the camera captures the road surface. In this case, there is a possibility that there are obstacles such as people and cars that interfere with the host vehicle on the road surface, which is an important area. It is not preferable that diagonal information is lost due to distortion correction.
  • the depression angle of the camera is small, the upper field of view of the camera is above the road surface. In this case, the possibility of an obstacle interfering with the host vehicle is low, and it is usually possible for the driver to see directly. If this camera setting is used, the diagonal information Distortion correction can be applied with more emphasis on distortion.
  • An object of the present invention is to provide a driving support device that can divide an input image into a plurality of regions and change the distortion correction intensity for each region when performing lens distortion correction on the input image. Disclosure of the invention
  • the driving support device includes an imaging device that is mounted on a vehicle body and images a peripheral region of the vehicle body, a lens distortion correction unit that performs lens distortion correction on an input image captured by the imaging device, and A display for displaying the image obtained by the lens distortion correction unit is provided.
  • the lens distortion correction unit divides the input image into a plurality of areas, and performs lens distortion correction with different distortion correction intensities for each area. It is characterized by what it does.
  • an input image may be divided into a plurality of regions according to the distance from the vehicle body and / or the depression angle of the camera, and lens distortion correction may be performed with different distortion correction strength for each region. .
  • An area setting means for setting a plurality of areas and a distortion correction intensity determining means for determining a distortion correction intensity for each area set by the area setting means are provided, and the lens distortion correction means includes: Lens distortion correction according to the distortion correction strength for each area determined by the determining means may be performed on the input image.
  • Temporary setting means for temporarily setting a plurality of areas; Temporary distortion correction intensity determining means for temporarily determining distortion correction strength for each area temporarily set by the temporary area setting means; Temporary distortion correction intensity temporarily determining means The distortion correction effect according to the determined distortion correction intensity for each area is displayed on the display unit with a bold line, and the distortion correction intensity for each area temporarily determined by the distortion correction intensity temporary determination means is
  • This setting means is provided for setting this as the distortion correction strength for each area, and the lens distortion correction means is configured to input the lens distortion correction according to the distortion correction intensity for each area set by the setting means. You may make it carry out with respect to an image.
  • FIG. 1 is an explanatory diagram for explaining a method of correcting camera lens distortion by image processing.
  • FIGS. 2 (a), 2 (b) and 2 (c) are schematic diagrams showing examples of images subjected to lens distortion correction.
  • FIG. 3 is a schematic diagram showing an example of an image captured by the in-vehicle power mela.
  • FIG. 4 is a schematic diagram showing an image after lens distortion correction for the image of FIG.
  • FIG. 5 is a schematic diagram showing an example in which strong distortion correction is applied to the vehicle body part and the vehicle body vicinity, and lens distortion correction is applied so that the intensity of the correction decreases as the distance from the vehicle body increases.
  • FIG. 6 shows that strong lens distortion correction is applied to the vehicle body, lens distortion correction is applied so that the strength of the correction decreases as the distance from the vehicle increases, and lens distortion correction is not performed in the remote area.
  • FIG. 7 is a block diagram showing the configuration of the driving support device.
  • FIG. 8 is a schematic diagram for explaining the outline of the lens distortion correction method using the LUT 21.
  • FIG. 9 (a) and FIG. 9 (b) are schematic diagrams showing structural examples of the LUT 21.
  • FIG. FIG. 10 is a schematic diagram for explaining the interpolation calculation method.
  • FIG. 11 is a schematic diagram showing an example of a distortion correction intensity adjustment screen displayed on the PC 50 when the distortion correction intensity adjustment software is activated.
  • Fig. 12 is a schematic diagram showing the relationship between the boundary position u, s and the coefficient a (0 ⁇ ⁇ ⁇ 1) that controls the distortion correction strength parameter.
  • Figures 13 (a), 13 (b), and 13 (c) show the input image, the entire image obtained by distortion correction according to this example, and the image cut out for display, respectively. It is a schematic diagram shown. ..
  • Fig. 14 is a schematic diagram showing an example of a grid to simplify the distribution of distortion correction strength.
  • FIG. 6 is a schematic diagram showing an example of a dalid indicating each.
  • the image region is divided into a vehicle body portion, a vehicle body vicinity portion, and a remote portion region, and lens distortion correction is performed using a distortion correction strength parameter preset for each region.
  • Fig. 5 shows an example in which strong lens distortion correction is applied to the vehicle body part and the vicinity of the vehicle body, and the lens distortion correction is performed so that the intensity of the correction decreases as the distance from the vehicle body increases.
  • the car body and the vicinity of the car body are subjected to strong lens distortion correction, so the car body edge is displayed in a straight line.
  • the lens distortion correction is weak, so the lens information remains, but the amount of diagonal information is preserved.
  • Lens distortion correction as shown in Fig. 5 is used when diagonal information is not so important, such as when the camera's depression angle is small.
  • lens distortion correction As shown in Fig. 6, strong lens distortion correction is applied to the vehicle body, and lens distortion correction is applied to the vicinity of the vehicle so that the correction intensity decreases as the distance from the vehicle increases. Even if you do not make corrections. Lens distortion correction as shown in Fig. 6 is used when diagonal information is important, such as when the camera's depression angle is large.
  • Example 1 Figure 7 shows the configuration of the driving support device.
  • the driving support device includes a camera 1 for inputting an image, a lens distortion correction unit 2 and a monitor 3 for displaying an image.
  • the lens distortion correction unit 2 has a configuration independent of the camera 1 or the monitor 3, but may be configured to be integrated with the camera 1 or integrated with the monitor 3.
  • the camera 1 is a rear camera that captures a rear image of the vehicle.
  • a calibration PC 50 is used as a tool for adjusting the intensity of lens distortion correction.
  • the lens distortion correction unit 2 includes a CPU 22 that calculates a lens distortion correction image based on a lookup table (LUT) 21 and a LUT 21 that store the correspondence between the coordinates of the input image and the output image. .
  • an OSD (on-screen display) circuit 23 is provided for displaying the distribution of distortion correction intensity (the effect of lens distortion correction) in an easy-to-understand manner on an image.
  • the CP U22 is also responsible for the display instruction to the OSD circuit 23 and the interface with the PC 50.
  • Figure 8 shows an overview of the distortion correction method using LUT21.
  • the left side of FIG. 8 shows an input image (distortion image) 101
  • the right side of FIG. 8 shows an output image (distortion correction image) 102.
  • the origin (0, 0) is set to the lower left of the input image
  • the X coordinate is set on the horizontal axis and the y coordinate is set on the vertical axis.
  • the origin (0, 0) is set to the lower left of the output image
  • the i coordinate is set on the horizontal axis and the j coordinate is set on the vertical axis.
  • the pixel position P ′ (X, ⁇ ) of the original image that is referenced to obtain the pixel value at a pixel position P (i, j) in the output image 102 is stored in the form of a lookup table. .
  • Fig. 9 (a) and Fig. 9 (b) show an example of the structure of LUT 21.
  • FIG. 9 (a) and Fig. 9 (b) LUT is held for each of the X coordinate and y coordinate for each pixel position in the output image.
  • Figure 9 (a) shows a LUT that stores the x-coordinate of the input image corresponding to each pixel position (i, j) in the output image.
  • Figure 9 (b) shows the LUT that stores the y-coordinate of the input image corresponding to each pixel position (i,; i) in the output image.
  • the pixel value of the pixel at the position (0, 0) in the output image is (2
  • Pixel value at the position of 43, 7 The pixel value of the pixel at the position (2, 1) in the output image is the pixel value at the position (23.5, 44.2) in the input image.
  • the pixel position of the input image corresponding to each pixel position in the output image is obtained from a distortion correction conversion formula described later.
  • the pixel position of the input image is an integer value, there is actually no pixel whose X coordinate is 22.5. Therefore, the pixel value after conversion is calculated by performing a weighted average using this decimal part (Bi-Linear interpolation calculation). The interpolation operation will be described with reference to FIG.
  • the pixel value of the pixel at the position (2, 1) in the output image is the pixel value at the position (23.5, 44.2) of the input image.
  • X indicates a virtual pixel corresponding to the position (23.5, 44.2) in the input image.
  • A, B, C, and D in Fig. 10 are virtual pixel positions (2
  • 3.5, 44. 2 shows four adjacent pixels.
  • the positions of the A, B, C, and D pixels are (23, 45), (24, 45), (23, 44), and (23, 44), respectively.
  • p represents the absolute value of the difference between the X coordinates of the pixel D and the virtual pixel X
  • q represents the absolute value of the difference between the y coordinates of the pixel D and the virtual pixel X.
  • the pixel value of the virtual pixel X is calculated by the following equation (2) when the pixel values of the pixels A, B, C, and D are represented by A, B, C, and D, respectively.
  • X p q A + (1 1 p) q B + p (1-q) C + (1 1 1 p) (1- q) D
  • the distribution of strain correction strength needs to be changed according to the setting of the camera 1 to the vehicle body.
  • the distribution of distortion correction strength is set using a calibration PC 50.
  • Fig. 11 shows an example of the distortion correction intensity adjustment screen displayed on PC 50 when the distortion correction intensity adjustment software is started.
  • 2 0 1 indicates an image display area
  • 2 0 2 indicates an image capture button
  • 2 0 3 indicates a LUT data transfer button
  • 2 0 4 indicates an end button
  • 2 0 5 , 2 0 6 indicates a slide key.
  • the slide key 2 0 5 is a key for setting the boundary position u between the vehicle body and the vehicle body vicinity.
  • the slide key 2 06 is a key for setting the boundary position s between the vehicle body near part and the far part.
  • Figure 12 shows the relationship between the boundary positions u and s and the coefficient (0 ⁇ ⁇ ⁇ 1) that controls the distortion correction strength parameter.
  • the PC 50 is a LUT for converting the input image into a distortion-corrected image based on the boundary positions u and s set by the slide keys 2 0 5 and 2 0 6 and a distortion correction conversion formula described later.
  • De Data is generated, distortion correction is performed on the input image based on the generated LUT data, and the image after distortion correction is displayed in the image display area 201.
  • the operator sets the boundary positions u and s while confirming the effect of image conversion.
  • the operator presses the LUT data transfer button 203.
  • the LUT data created by the PC 50 is sent to the CPU 22 of the driving support device.
  • the CPU 22 sets the LUT data sent from the PC 5 ⁇ to the LUT 21 of the lens distortion correction unit 2.
  • the lens distortion correction unit 2 converts the input image into a distortion correction image using the coordinate correspondence set in the LUT 21 and displays the obtained image on the monitor 3.
  • the coordinate position ( ⁇ ′, y ′) of the input image and the coordinate value (X, y) after lens distortion correction are expressed by the following equation (3).
  • r 2 X 2 + y2 .
  • y' y + y (kir 2 + ka r 4 ) + 2 piy + p 2 ( r 2 + 2 y 2 )
  • x ' x + x (k' ir 2 + k '2 r 4 ) + 2 p' ix y + p ' 2 (r 2 + 2 x 2 )
  • y' y + y (k 'r 2 + k' 2 r 4 ) +2 p 'ix y + p' a (r 2 + 2 y 2 )
  • k'l, k'2, P't and P'2 are distortion correction parameters after correction, and their magnitudes change depending on the value of the string.
  • the lower part of the image is the bumper part and the upper part of the image is the rear of the vehicle (frontward in the case of a front camera). Considering the visibility of the driver, it is desirable to display the bumper as a straight line without distortion. On the other hand, it is desirable to display the rear of the vehicle at the top of the image (front in the case of a front camera) without compromising the amount of information acquired for the purpose of safety confirmation.
  • the reference pixel position held in the LUT is calculated using Eq. (6).
  • the distortion correction image maintaining the visibility is generated by changing the value of the string stepwise in the middle of the image.
  • FIG. 13 (a) shows the input image
  • FIG. 13 (b) shows the entire image resulting from the distortion correction according to this embodiment
  • FIG. 13 (c) shows the image cut out for display.
  • the reference pixel value recorded in the LUT is the size of the clipped image displayed.
  • the corresponding reference position may be recorded after adjustment (reduction).
  • the reference position of the image before cropping may be recorded in the LUT, and enlargement or reduction processing may be performed during display.
  • the user While confirming the effect on the adjustment screen on the PC 50, the user sets a boundary line u between the vehicle body and the vicinity of the vehicle, and a boundary line s between the vicinity of the vehicle and the far side of the vehicle. Each time u and s are set, LUT data is calculated and a distortion correction image for the input image is generated and displayed using the LUT data.
  • the LUT data generated by the PC 50 is sent to the CPU 22 in the lens distortion correction unit 2 of the driving support device and set in the LUT 21 in the lens distortion correction unit 2. Is done.
  • the lens distortion correction unit 2 uses the coordinate correspondence relationship set in the LUT 21 to perform distortion correction on the input image from the camera '1. Display the distortion-corrected image on monitor 3.
  • the calibration PC 50 is removed.
  • the driving support apparatus may have the same function as the distortion correction intensity adjustment function by the above-mentioned calibration PC 50.
  • Example 2 when the parameter adjustment for distortion correction is performed on the driving support device side, the effect can be confirmed by a simple calculation.
  • u and s are set on the operation support device side, and distortion correction intensity adjustment software for easily displaying on-screen the distribution of distortion correction intensity according to the set u and s is provided. Installed.
  • the CPU 22 of the driving support device does not calculate the input / output coordinates of the entire screen, that is, without calculating the LUT data, the set u, s
  • the distribution of the strain intensity corresponding to is represented by a dalid line.
  • Fig. 14 shows an example of a grid to simply show the distribution of distortion correction intensity.
  • the dalid line includes a curved shape of an ordinary straight dalid line.
  • FIG. 15 is an enlarged view of a portion indicated by S in FIG.
  • the amount of calculation can be reduced by limiting the area for pre-calculating the effect of distortion correction to the dalid.
  • OSD function By displaying the grid shape on the monitor using the OSD function, it is possible to predict the effect in advance before calculating LUT. Using this function, it is also possible to visually check the optical system variation during production and the operation of the distortion correction circuit.
  • the input image when lens distortion correction is performed on an input image, the input image can be divided into a plurality of areas, and the distortion correction intensity can be changed for each area.

Abstract

車体に搭載されかつ車体の周辺領域を撮像する撮像装置(1)、撮像装置(1)によって撮像された入力画像に対してレンズ歪み補正を行なうレンズ歪み補正手段(2)、およびレンズ歪み補正手段(2)によって得られた画像を表示するための表示器(3)を備えており、レンズ歪み補正手段(2)は、入力画像を複数の領域に分け、領域毎に異なる歪み補正強度でレンズ歪み補正を行なうものである。

Description

運転支援装置 技術分野
この発明は、 運転支援装置に関する。 明
背景技術
1 . 車载カメラ
自動車においては、 運転者からの死角を無くし視認性を向上させるカメラの装 備が一般的になりつつある。 2 0 0 6年度には視認用カメラの出荷台数は 2 0 0 万台を越えると言われている。 トラックを含めた国内の新車売上台数が年間 6 0 0万台弱であることから、 およそ 3台に 1台は視認用カメラを取り付けている計 算になる。
視認用のカメラには、 (1 ) 後退時に車両後方映像を表示するリアカメラ、 ( 2 ) 運転者と反対側の前輪部分の映像を表示するフロントサイ ドカメラ、 ( 3 ) 車両直前の死角を視認するフロントカメラ、 (4 ) 狭い路地などからの発進時に 発生する側方の死角の映像を表示するサイドブラインドカメラなどがある。 現在 は、 リァカメラが視認用カメラの 7 7 %を占め主流となっている。
視認用の車載カメラでは、 少しでも死角を小さくするため、 広角の光学系を用 いることが一般的である。 リアカメラでは、 水平面が 1 0 0度を越える。 このよ うな光学系を備えた車載カメラで撮像された画像には大きな" たる状" の歪曲収 差が発生する。 この歪みにより、 運転者にとって、 画像に写る障害物の位置ゃ距 離感が直感的に分かりにくくなる問題がある。
2 . 歪み補正
2 . 1 光学処理によるレンズ歪み補正手法
たる型の歪みを補正する方法として大きく 2つの方法がある。 1つは、 光学系 の構成を工夫することにより歪みを抑える方法であり、 2つめは、 画像撮影後に デジタル的な方法で画像を補正する方法である。
光学歪み補正は、 非特許文献 1、 2に示されるように、 非球面レンズを用いる など光学系の構成を工夫することにより補正が実現される。 非特許文献 1 : フリー百科事典 「ウイキぺディア(Wikipedia) 」 写真レンズ の項
非特許文献 2 :デジタルカメラの最先端技術 第 4章 レンズ ·光学系設計 (株) 技術情報研究会 し力 し、 歪曲収差は画角のほぼ 3乗に比例して増大し、 車載カメラに用いるよ うな広角の光学系になってくると、 光学系の工夫だけで、 完全に歪みを補正する ことは困難である。 また、 補正の程度は光学系の設計段階で決まってしまい、 ュ 一ザが使用する段階で、 歪みの程度を調整することは難しい。 さらに、 非球面レ ンズは金型を用いて生産するため、 初期投資が大きくなる問題もある。
2 . 2 画像処理によるレンズ歪み補正手法
画像処理によってカメラのレンズ歪みを補正する手法としては、 Tsaiの手法 (非特許文献 3、 4参照) や Zhengyou Zhangが提案したアルゴリズム (非特許 文献 5、 6参照) がよく用いられている。 本手法は、 コンピュータプログラムと して実装したライブラリとしても提案されており (非特許文献 7参照) 、 本発明 の歪み補正にも利用できる。 非特許文献 3 : R. Y. Tsai: A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV camera and lenses ; IEEE Journal of Robotics and Automation, RA - 3, 4, pp. 323- 344 (1987) . ..
非特許文献 4 : コンピュータビジョン:技術評論と将来展望 1998年 6月 浅田尚紀
非特許文献 5 : Z. Zhang. "Flexible Camera Calibration By Viewing a Plane From Unknown Orientations , Proc. of ICCV' 99, pp666 - 673, 1999. 非特許文献 6 : Z. Zhang. "A Flexible New Technique for Camera
Calibration" IEEE, PAMI 22(11), pp 1130-1134, 2000.
非特許文献 7 : OpenCV Reference Manual, 6 3D Reconstruction [Camera Calibration] , pp6― 1—6 3. 提供されているライブラリでは、 図 1に示すような平面上にある規則的な既知 パターンを、 カメラと平面の相対関係を変更しながら撮影した複数の画像を用い て、 カメラの歪み補正を行うための 4個のパラメータ (k! , k2 , pi , p2 ) を算出する。 これらのパラメータは、 歪み補正強度を制御するパラメータであ る。 これらのパラメータの値が大きいほど歪み補正強度が大きくなる。
これらのパラメータを用いて、 次式 (1) を用いて取得画像の座標位置 (x, , y' ) と歪み補正後の座標値 (x, y) の対応関係を求めることができる。 た だし、 座標位置は、 画像の中心を原点として、 水平方向に X座標を、 垂直方向に y座標をどった座標系で表されている。 式 (1) 中において、 r 2 = X 2 + y 2 である。 x ' = x + x (k, r 2 +ka r 4 ) + 2 p i x y + p2 ( r 2 + 2 x2 ) y ' = y + y (k i r 2 + k2 r 4 ) + 2 p i x y + p2 ( r 2 + 2 y 2 )
… (1) 上記手法を用いて、 歪み補正を行った画像の例の模式図を図 2 (a) 、 図 2 ( b) および図 2 (c) に示す。 図 2 (a) は図 1の既知パターンを撮影した原画 像を、 図 2 (b) は歪み補正全体画像を、 図 2 (c) は歪み補正切出し画像を示 している。 広角カメラを用いた場合には、 原画像のようにたる型の歪みが発生す ることが多く、 歪みを補正すると、 矩形の角の 4箇所が広がった 「歪み補正全体 画像」 のような画像となる。 また、 基本的には歪み部分を広げる変換を行うため 、 画像サイズは原画像よりも大きくなる。
一般には、 これらの画像は視認性が低下するとの判断により、 「歪み捕正全体 画像」 内から矩形領域 (図 2 ( b ) において破線の矩形枠で囲まれた領域) を切 出した 「歪みネ詹正切出画像」 を表示に用いることが多い。 「歪み補正全体画像」 から内部の矩形領域を切出す際には、 歪み補正の際広がつた画像の角の 4箇所部 分は破棄されるため、 原画像で取得していた情報の一部を表示しないことになる 。 そのため、 閲覧者の視認性は向上するかもしれないが、 画像全体の情報量は低 下している。 なお、 歪み補正や切出しの際には、 表示系の画像解像度に応じて、 拡大や縮小の処理を伴う場合がある。
歪み補正をハードウェアにより行う手段として、 予め補正前後のァドレスを対 応づけた補正テーブル (ルックアップテーブル) を準備し、 このルックアップテ 一ブルにしたがって、 画素のアドレスを変換する方法が考えられる。 歪みは 2次 元の形状を持つことと、 補正後の画素アドレスが必ずしも補正前の整数アドレス に対応しないことにより、 1画面分の入力画像を記憶するフレームメモリと、 画 素を補間する補間演算回路が必要となり回路規模が大きくなる問題がある。 特許文献 1では、 歪み補正を水平方向に対して行うことにより、 ラインメモリ と 2画素の補間回路で歪み補正を行うことが提案されている。 また、 特許文献 2 では、 補間回路の構成を簡略化することと歪み補正により発生する画像 4隅の欠 けを回避する目的で、 画像の X軸、 Y軸を 2段階に分けて順次処理する手法を提 案している。 これらの特許文献 1、 2では、 回路の簡素化が主目的であり、 ユー ザの可観測性を向上させるために、 歪み補正の強度を制御する考えはない。 特許文献 1 :特許第 3 0 4 7 5 8 1号公報 「画像歪み補正方法及び装置」 ラインメモリを用いた歪み補正 ..
特許文献 2 :特許第 3 4 5 1 0 1 7号公報 「画像処理方法及び装置」 水平 、 垂直の 2段階補歪み補正 デジタルカメラの歪みを補正する目的でも、 デジタル歪み補正が提案されてい る (非特許文献 8参照) 。 デジタル歪み補正では、 歪み補正のパラメータを変換 することで、 歪みの強度を変更すること、 歪み補正の精度を向上させることなど が可能である。 しかし、 ここでは、 光軸を中心に点対称に分布する歪みを一様に 減少させることが目的となっている。 非特許文献 8 : 「デジタルカメラにおける画像補正技術」 Ricoh Technical Report No, 31 (Dec., 2005) http .' //www. ricoh. co. jp/ about/business overview/report/31/pdf/A31 l4. pdf
3 . 車載カメラの歪み捕正 ·画像変換
車載用カメラでも、 運転者の視認を行いやすくするために、 様々な提案が行わ れている。
特許文献 3では、 歪みを完全に補正することが必ずしも運転者の認知性 (特に 距離感) 向上に有利でないとして、 縦おょぴ横方向に緩やかな歪みを与えること で距離感を保存するような歪み補正を提案している。 この提案では、 認知性の向 上に主眼がおかれ、 画角を保存するとの考えはない。 また、 歪みをゆるやかに変 換させることのみ記述され、 画像を領域に分けて歪み補正の強度を変更する概念 はない。 特許文献 3 :特開 2 0 0 3— 1 2 3 0 6 4号公報 「画像変換装置並びにそれ を組み込んだ撮像及び/又は表示装置」 特許文献 4では、 トレーラを牽引するためのヒ.ツチを持つ車両において、 ヒッ チ部分を抽出して拡大表示する手法が提案されている。 この提案では、 ヒッチ部 分と広範囲画像を同時に別々の画像として表示することが提案されており、 歪み 補正の強度を制御する概念はない。 特許文献 4 :特許第 3 4 8 3 1 4 3号公報 「運転支援装置」 特許文献 5では、 9 0度以上の広角を撮影するカメラにおいて、 注目領域の画 像を部分的に抜き出すと同時に、 歪みを補正する手法が提案されている。 この提 案では、 一律に歪み補正をかけた上で、 画像を抜き出すのと等価であり、 歪み補 正の強度を制御する概念はない。 特許文献 5 :特許第 3 4 4 6 2 7 7号公報 「車両用周囲状況表示装置」 特許文献 6では、 プリズム様の光学部材を用いることで光学的にゆるやかな歪 み補正を与えることを提案している。 この提案でも、 歪みをゆるやかに変化させ ることのみ記述され、 画像を領域に分けて歪み補正の強度を変更する概念はない 。 また、 光学式の歪み補正であるため光学系を設計後に歪み補正の強度を変更す ることはできず、 補正強度を車両への搭載状態に応じて調整する概念はない。 特許文献 6 :特許第 3 4 4 6 9 9 1号公報 「監視装置」 車両の姿勢や周囲の状況を把握しやすくする目的で、 カメラの位置や角度を仮 想的に変換する方法が提案されている。 特許文献 7では、 車両後方カメラの取り 付け高さを仮想的に変換することで、 車両に近い領域と遠い領域の見えの違いを 小さくすることや、 カメラの前後方向の取り付け位置を仮想的に変換することで 、 視界の不要領域となるバンパーの写りを小さくする手法が提案されている。 特許文献 7 :特許第 3 6 2 4 7 6 9号公報 「車両後方監視装置用画像変換装 置」 国内自動車メーカのォプションに採用されるバックカメラ (非特許文献 9参照 ) や特許文献 8では、 カメラを仮想的に鉛直下方に向けることで、 道路の駐車線 と自車の位置関係をわかりやすく表示している。 これらの提案では、 認知性の向 上に主眼がおかれ、 画角については犠牲になっている。 非特許文献 9 :スズキ エブリイヮゴン用アクセサリー セレクトビューバッ グアイカメフ http : //www. suzuki - accessory, jp/ every/ navi/99020 ― bl4. html 特許文献 8 :特許第 3 2 8 6 3 0 6号公報 「画像生成装置、 画像生成方法」 車幅延長線や進路予想線を正確に表示するには車体に対するカメラ取り付けの 精度が求められる。 また、 上記に記載したような画像の座標変換を行うような高 機能なカメラにおいてもカメラ取り付けの精度は重要である。 カメラの取り付け を調整し検查する手法も重要となってくる。
特許文献 9では、 取り付けた力メラの角度が画像変換による微調整可能範囲で あるかどう力 \ あるいは、 角度の調整方法を作業者に示すために、 車両前方の所 定位置に設置する基準テストパターンと、 撮影画像の所定位置に表示する判定パ • ターンを比較する手法を提案している。 この特許では、 カメラの角度調整にのみ 注目しており、 歪み係数を調整する概念はない。 特許文献 9 :特許第 3 5 6 5 7 4 9号公報 「車載力メラの撮像方向の検查方 法およびその検査装置」 特許文献 1 0では、 カメラの取り付け位置、 角度、 レンズ光軸のずれを補正す る目的で、 カメラ前の所定位置に設置するテストパターンと、 車両に対する設計 値として決まる基準位置から算出されるテストパターンの理想撮像位置を比較す る手法を提案している。 この特許では歪み係数を含めたカメラパラメータを、 テ ストパターンの実撮像位置と理想撮像位置のずれから算出することを提案してい るが、 歪み係数を調整するための提案はない。 特許文献 1 0 :特許第 3 6 3 2 5 6 3号公報 「映像位置関係補正装置、 該映 像位置関係補正装置を備えた操舵支援装置、 及び映像位置関係補正方法」 上述したように、 通常車载カメラは広角の光学系が用いられているため、 大き なレンズ歪みを持つ。 車体真近の障害物と自車を同時に把握できるように、 図 3 に示すように、 画像内の一部に車体が写るようにカメラ位置を設定するのが普通 である。 図 3の例は、 駐車場が撮影されているが、 車体の一部としてリアパンパ 一 (図 3に 1 0 0で示す) が写っている。 車体は、 一部が写っている必要がある 、 レンズ歪みが大きいと、 画像の多くの領域を車体が占めることになる。 レン ズ歪みに加え、 カメラの取付位置が車の中央からオフセットされることが多く、 最適な力メラポジションを探すことはさらに難しくなる。
デジタル方式の歪み補正では、 ほぼ完全にレンズ歪みを補正することが可能で ある。 図 4に歪み補正後の画像を示す。 この場合、 車体端の歪みがほとんどなく 、 車体が大きく写りすぎる難点は解消される。 し力 し、 一方で、 歪みを解決する ことにより、 対角の情報が欠落することになる。 対角の情報とはカメラの上側視 野の両側の領域の情報をいい、 図 3の右上おょぴ左上の部分の情報に相当する。 例えば、 図 4に破線で示すように、 図 3の右上の車両の情報が欠落する。
対角画角が重要であるかどうかは、 車体に対するカメラのセッティングにより 変わる。 カメラの俯角が大きい場合はカメラの上側視野が道路面を撮影する。 こ の場合、 道路面には人や車など、 自車に干渉する障害物がある可能性があり、 重 要な領域である。 歪み補正により、 対角情報が欠落することは好ましくない。 力 メラの俯角が小さい場合は、 カメラの上側視野が道路面より上になってくる。 こ の場合、 自車に干渉する障害物がある可能性は低..く、 また、 通常、 運転者から直 接視認が可能になる。 このようなカメラセッティングとなった場合は、 対角情報 よりも歪みを重視して歪み補正をかけることが可能になる。
この発明は、 入力画像に対してレンズ歪み補正を行なう場合に、 入力画像を複 数の領域に分け、 各領域別に歪み補正強度を変えることができる運転支援装置を 提供することを目的とする。 発明の開示
この発明による運転支援装置は、 車体に搭載されかつ車体の周辺領域を撮像す る撮像装置、 撮像装置によつて撮像された入力画像に対してレンズ歪み補正を行 なうレンズ歪み補正手段、 およびレンズ歪み補正手段によって得られた画像を表 示するための表示器を備えており、 レンズ歪み補正手段は、 入力画像を複数の領 域に分け、 領域毎に異なる歪み補正強度でレンズ歪み補正を行なうものであるこ とを特徴とする。
上記レンズ歪み補正手段としては、 例えば、 入力画像を車体からの距離および またはカメラの俯角に応じて複数の領域に分け、 領域毎に異なる歪み補正強度 でレンズ歪み補正を行なうものを用いてもよい。
複数の領域を設定するための領域設定手段および領域設定手段によつて設定さ れた領域毎に歪み補正強度を決定する歪み捕正強度決定手段を設け、 上記レンズ 歪み補正手段は、 歪み補正強度決定手段によって決定された領域毎の歪み補正強 度に応じたレンズ歪み補正を、 入力画像に対して行なうようにしてもよい。 複数の領域を仮設定するための領域仮設定手段、 領域仮設定手段によって仮設 定された領域毎に歪み補正強度を仮決定する歪み補正強度仮決定手段、 歪み補正 強度仮決定手段によつて仮決定された領域毎の歪み補正強度に応じた歪み補正の 効果をダリッド線で表示器に表示させる手段、 および歪み補正強度仮決定手段に よって仮決定された領域毎の歪み補正強度を、 本来の領域毎の歪み補正強度とし て本設定させる本設定手段を設け、 上記レンズ歪み補正手段は、 本設定手段によ つて本設定された領域毎の歪み補正強度に応じた.レンズ歪み補正を、 入力画像に 対して行なうようにしてもよい。 図面の簡単な説明
図 1は、 画像処理によってカメラのレンズ歪みを補正する手法を説明するため の説明図である。
図 2 (a) 、 図 2 (b) および図 2 (c) は、 レンズ歪み補正を行った画像の 例を示す模式図である。
図 3は、 車載力メラによつて撮像された画像の一例を示す模式図である。 図 4は、 図 3の画像に対するレンズ歪み補正後の画像を示す模式図である。 図 5は、 車体部および車体近傍部には強い歪み補正をかけ、 遠方部では車体か ら離れるほど補正の強度が弱くなるようにレンズ歪み補正をかけた例を示す模式 図である。
図 6は、 車体部においては強いレンズ歪み補正をかけ、 車体近傍部においては 、 車体から離れるほど補正の強度が弱くなるようにレンズ歪み補正をかけ、 遠方 部においてはレンズ歪み補正を行なわないようにした例を示す模式図である。 図 7は、 運転支援装置の構成を示すブロック図である。
図 8は、 LUT21によるレンズ歪み補正手法の概要を説明するための模式図 である。
図 9 (a) および図 9 (b) は、 LUT 21の構造例を示す模式図である。 図 10は、 補間演算方法を説明するための模式図である。
図 1 1は、 歪み補正強度調整ソフトが起動された場合に P C 50に表示される 歪み補正強度調整画面の例を示す模式図である。
図 12は、 境界位置 u, sと、 歪み補正強度パラメータを制御する係数 a (0 ≤α≤ 1) との関係を示す模式図である。
図 1 3 (a) 、 図 13 (b) および図 13 (c) は、 入力画像、 本実施例によ る歪み捕正を行った結果の全体の画像、 および表示用に切出した画像をそれぞれ 示す模式図である。 ..
図 14は、 歪み補正強度の配分を簡易的に示すためのグリッドの例を示す模式 図である。
図 1 5は、 画像全体に対して a = 1を設定した場合のグリッド上の座標値から αの設定値に応じて、 各々の対応点に相当する座標値を計算する方法を説明する ための模式図である。
図 1 6 ( a ) および図 1 6 ( b ) は、 歪み補正なしの場合 (α = 0 ) の場合の グリッドの一例と、 設定された u , sに基づいて作成された、 歪み強度の配分を 示すダリッドの一例とをそれぞれ示す模式図である。 発明を実施するための最良の形態
まず、 本願発明の基本的な考え方について説明する。 本願発明では、 画像領域 を車体部、 車体近傍部および遠方部の領域に分け、 領域毎に予め設定された歪み 補正強度パラメータを用いて、 レンズ歪み補正が行なわれる。
図 5は、 車体部および車体近傍部には強いレンズ歪み補正をかけ、 遠方部では 車体から離れるほど補正の強度が弱くなるようにレンズ歪み補正をかけた例を示 している。 車体部および車体近傍部には強いレンズ歪み補正をかけてるため、 車 体端が正しく直線に表示されている。 遠方部では、 レンズ歪み捕正が弱くなつて いるので、 レンズ歪みが残るものの、 対角の情報量は保存されている。 図 5のよ うなレンズ歪み補正は、 カメラの俯角が小さいなど、 対角情報がさほど重要でな い場合に用いられる。
なお、 図 6に示すように、 車体部においては強いレンズ歪み補正をかけ、 車体 近傍部においては、 車体から離れるほど補正の強度が弱くなるようにレンズ歪み 補正をかけ、 遠方部においてはレンズ歪み補正を行なわないようにしてもよレ、。 図 6のようなレンズ歪み捕正は、 カメラの俯角が大きいなど、 対角情報が重要な 場合に用いられる。
以下においては、 図 6に示すような、 歪み補正強度の分配で、 入力画像に対し てレンズ歪み補正を行なう場合の実施例について説明する。
〔1〕 実施例 1 図 7は、 運転支援装置の構成を示している。
運転支援装置は、 画像を入力するカメラ 1、 レンズ歪み補正部 2および画像を 表示するモニタ 3を備えている。 この例では、 レンズ歪み補正部 2はカメラ 1ま たはモニタ 3から独立した構成となっているが、 カメラ 1と一体をなす構成とし ても、 モニタ 3と一体となす構成としてもよレ、。 この例では、 カメラ 1としては 、 車両の後方映像を撮像するリアカメラが用いられている。 本実施例では、 レン ズ歪み補正の強度を調整するツールとして、 キャリブレーション用 PC 50を用 いている。
レンズ歪み補正部 2は、 入力画像と出力画像の座標の対応関係を記憶する LU T (ルックアツプテーブル) 21および LUT 21に基づいてレンズ歪みネ甫正画 像を計算する CPU 22を備えている。 また、 後述する実施例 2で説明するよう に、 歪み補正強度の配分 (レンズ歪み補正の効果) を画像上で分かりやすく表示 するための〇SD (オンスクリーンディスプレイ) 回路 23を備えている。 CP U22は、 O SD回路 23への表示指示、 PC 50とのインターフェースも受け 持つ。
図 8は、 LUT2 1による歪み補正手法の概要を示している。
図 8の左側は入力画像 (歪み画像) 101を示し、 図 8の右側は出力画像 (歪 補正画像) 102を示している。 入力画像に対しては、 原点 (0, 0) を入力画 像の左下にとり、 横軸に X座標、 縦軸に y座標を設定している。 出力画像に対し ては、 原点 (0, 0) を出力画像の左下にとり、 横軸に i座標、 縦軸に j座標を 設定している。 出力画像 102のある画素位置 P ( i, j ) における画素値を取 得するために参照する原画像の画素位置 P' (Xり, Υυ) を、 ルックアップテ 一ブルの形式で保持している。
図 9 (a) および図 9 (b) は、 LUT 21の構造例を示している。
図 9 (a) および図 9 ( b ) では、 出力画像における各画素位置に対して、 X 座標と y座標のそれぞれに対して LUTを保持している。 図 9 (a) は、 出力画 像における各画素位置 (i, j ) に対応する入力画像の x座標を記憶した LUT を示し、 図 9 (b) は、 出力画像における各画素位置 (i, ; i ) に対応する入力 画像の y座標を記憶した L U Tを示している。
例えば、 出力画像で (0, 0) の位置にある画素の画素値は、 入力画像の (2
2. 5, 43. 7) の位置の画素値となる。 また、 出力画像で (2, 1) の位置 にある画素の画素値は、 入力画像の (23. 5, 44. 2) の位置の画素値とな る。
出力画像における各画素位置に対応する入力画像の画素位置は、 後述する歪み 捕正変換式より求める。 し力 し、 入力画像の画素位置は整数値であるため実際に は X座標が 22. 5となるような画素は存在しない。 そこで、 この小数部分を用 いて加重平均を行うことで変換後の画素値を算出する (Bi- Linear補間演算) 。 図 10を用いて補間演算について説明する。
ここでは、 出力画像で (2, 1) の位置にある画素の画素値を求める場合につ いて説明する。 詳述したように、 出力画像で (2, 1) の位置にある画素の画素 値は、 入力画像の (23. 5, 44. 2) の位置の画素値と'なる。
図 10において、 Xは入力画像内における位置 (23. 5, 44. 2) に対応 する仮想の画素を示している。 図 10の A, B, C, Dは、 仮想の画素位置 (2
3. 5, 44. 2) に隣接する 4つの画素を示している。 A, B, C, Dの画素 の位置は、 それぞれ (23, 45) , (24, 45) , (23, 44) , (23 , 44) である。
図 10において、 pは画素 Dと仮想画素 Xとの X座標の差分の絶対値を示し、 qは画素 Dと仮想画素 Xの y座標の差分の絶対値を示している。 この例では、 p =0. 5, q = 0. 2となる。 仮想画素 Xの画素値は、 画素 A, B, C, Dの画 素値を A, B, C, Dで表すと、 次式 (2) によって算出される。 X= p q A+ (1一 p) q B + p (1 - q) C+ (1一 p) ( 1— q ) D
― … (2) ところで、 歪み捕正強度の配分は、 カメラ 1の車体へのセッティングに応じて 変更する必要がある。 この実施例では、 歪み補正強度の配分の設定は、 キヤリブ レーション用 P C 5 0を用いて行なわれる。
キヤリブレーション用 P C 5 0には、 歪み補正強度の配分の設定を行なうため の歪み補正強度調整ソフトがインストールされている。 キャリブレーション用 P C 5 0と運転支援装置の C P U 2 2とは通信ケーブルを介して接続されているも のとする。
図 1 1は、 歪み補正強度調整ソフトが起動された場合に P C 5 0に表示される 歪み補正強度調整画面の例を示している。
図 1 1において、 2 0 1は画像表示領域を示し、 2 0 2は画像取込ボタンを示 し、 2 0 3は L U Tデータ転送ボタンを示し、 2 0 4は終了ボタンを示し、 2 0 5、 2 0 6はスライ ドキーを示している。 スライドキー 2 0 5は車体部と車体近 傍部との境界位置 uを設定するためのキーである。 スライドキー 2 0 6は車体近 傍部と遠方部との境界位置 sを設定するためのキーである。
図 1 2は、 境界位置 u , sと、 歪み補正強度パラメータを制御する係数 ( 0 ≤ α≤ 1 ) との関ィ系を示している。
この実施例では、 画面下側から境界位置 uまでの領域 (車体部) においては歪 み補正強度を強くする。 つまり、 ひ = 1とする。
uと sの間の領域 (車体近傍部の領域) においては、 uからの距離が離れるに したがって、 歪み補正強度を弱くさせていく。 つまり、 uからの距離を tとする と、 a = I s - t I / I s - u I とする。
sから画面上側までの領域 (遠方部) においては、 歪み補正を行なわない。 つ まり、 ひ = 0とする。
画像取込ボタン 2 0 2を押すと、 カメラ 1で撮影された画像がキヤリブレーシ ヨン用 P C 5 0に転送され、 画像表示領域 2 0 1に表示される。 P C 5 0は、 ス ライドキー 2 0 5、 2 0 6によって設定された境界位置 u , sと後述する歪み補 正変換式とに基づいて、 入力画像を歪み補正後の画像に変換するための L U Tデ ータを作成し、 作成した LUTデータに基づいて、 入力画像に対して歪み補正を 行ない、 歪み捕正後の画像を画像表示領域 201に表示する。
操作者は、 画像変換の効果を確認しながら境界位置 u, sを設定する。 最適な 境界位置 u, sを設定した場合には、 操作者は、 LUTデータ転送ボタン 203 を押す。 これにより、 PC 50によって作成された LUTデータが、 運転支援装 置の CPU22に送られる。 CPU22は、 P C 5◦から送られてきた L U Tデ ータをレンズ歪み補正部 2の LUT 21にセットする。 レンズ歪み補正部 2は、 LUT 21にセットされた座標対応関係を使って入力画像を歪み補正画像に変換 し、 得られた画像をモニタ 3に表示させる。
LUTデータを作成する場合に用いられるレンズ歪み補正変換式について説明 する。 「背景技術」 の欄で説明したように、 入力画像の座標位置 (χ' , y ' ) とレンズ歪み捕正後の座標値 (X , y ) とは、 次式 (3) で表される。 式 (3) 中において、 r 2 = X 2 +y2 である。 ただし、 x y座標系は、 画像の中心を原 点とした座標系である。 ' = + X ( k 1 r 2 + k 2 r -1 ) + 2 p i x y + p a ( r 2 + 2 x2 ) y ' = y + y ( k i r 2 + ka r 4 ) + 2 p i y + p 2 ( r 2 + 2 y 2 )
… (3) 歪み補正強度を調整するために、 4個のパラメータ ki , k2, p i , ρ2 に 係数 α を乗算することによって、 上記式 (3) を、 式 (4) 、 (5) のように 修正する。 k' i= ct k 1
k 2= ct k 2
p ' i= a l ―
p, 2= a p (4) x ' = x + x ( k ' i r 2 + k ' 2 r 4 ) + 2 p' ix y + p'2 ( r 2 + 2 x2 ) y ' = y + y (k' r2 + k ' 2 r 4 ) +2 p' ix y + p' a ( r 2 + 2 y 2 )
… (5) k' l, k' 2, P' tおよび P' 2は、 修正後の歪み補正パラメータであり、 ひの 値によってその大きさが変化する。
本実施例で用いる座標系は、 図 8および図 9で説明したように、 画像の左下を 原点と'した X y座標系であるので、 入力画像の水平画素数を M、 垂直画像数を N とすると、
Figure imgf000018_0001
x +M/2, j = y + N/2となる。
したがって、 上記式 (5) は、 次式 (6) のように表現できる。 式 (6) では 、 r 2 = ( i -M/2) 2 + (j -N/2) 2 となる。
Figure imgf000018_0002
.+ k' a r 4 )
+ 2 p' i ( i -M/2) ( j -N/2) +p'2 { + 2 ( i -M/2) 2 } + M/2
( j -N/2) + ( j -N/2) ( k ' . r 2 + k ' a r -1 )
+ 2 p' i ( i -M/2) ( j -N/2) +p, 2 { r 2 + 2 ( j -N/2) 2 } +N/2 - - (6) 運転者の視覚をアシストする場合、 画像下部がバンパー部となり画像上部が車 両後方 (フロントカメラの場合には前方) となることが多い。 運転者の視認性を 考慮すると、 バンパー部は歪みが無い直線として表示されることが望ましい。 一 方、 画像上部となる車両後方 (フロントカメラの場合には前方) は、 安全確認と いう目的からできるだけ取得された画像の情報量を損なうことなく表示すること が望ましい。 そのため、 バンパー部に当たる画像下部 (実施例において、 歪み補正画像の縦 軸である jの値が uより小さい部分) においては、 歪み補正強度を大きく設定 ( α=1) し、 上記式 (4) および式 (6) を用いて LUTに保持する参照画素位 置を算出する。
また、 画像上部 (実施例において、 歪み補正画像の縦軸である jの値が sより 大きい部分) においては、 情報量を保存するため歪み補正強度を小さく設定 (ひ =0) し、 上記式 (4) および式 (6) を用いて LUTに保持する参照画素位置 を算出する。
中間部 (実施例において、 歪み補正画像の縦軸である jの値が uと sの間の t の部分) においては、 歪み補正強度を段階的に設定 (ひ=1 s - t IZI s— u
| ) し、 上記式 (4) および式 (6) を用いて LUTに保持する参照画素位置を 算出する。 これはひの値を極端に変動させた場合、 上部と下部で滑らかに画像を つなげることができず、 視認性が低下するためである。 本実施例では、 画像の中 間部ではひの値を段階的に変動させることで、 視認性を維持した歪み補正画像を 生成している。 このように αを設定することによって画像下部に対してはレンズ 歪み補正を強く行い、 画像上部に対してはレンズ歪み補正を行わない画像を生成 する。
図 13 (a) は入力画像を、 図 13 (b) は本実施例による歪み補正を行った 結果の全体の画像を、 図 13 (c) は表示用に切出した画像をそれぞれ示してい る。
画像の下部ではレンズ歪み補正を強く行うため、 画像の下部は入力画像の表示 領域よりも広がった状態となる。 一方、 画像の上部では、 レンズ歪み補正を行わ ないため、 入力画像と同じ画像サイズとなる。 歪み補正切出し画像を生成する際 には、 変換後の画像領域の内接領域を切出しているため、 横方向の画像サイズは 入力画像と同じであるが、 縦方向は入力画像よりもやや大きくなる。 そのため、 縦方向に縮小する必要があり、 やや画像の縦横比が変わるが、 視認性には大きく 影響しない。 LUTに記録する参照画素の値は、 切出した画像を表示画像サイズ に調整 (縮小) した後に対応する参照位置を記録すればよい。 また、 切出し前の 画像の参照位置を LUTに記録し、 表示の際に拡大や縮小の処理を行うように構 成してもよい。
利用者は、 PC 50上の調整画面で効果を確認しながら、 車体部と車両近傍と の境界線 u、 車両近傍と車両遠方との境界線 sを設定する。 u, sを設定する度 に、 LUTデータが計算され、 LUTデータを用いて入力画像に対する歪み捕正 画像が生成されて、 表示される。
利用者が LUTデータ転送ボタン 203を押すと、 PC 50で生成された LU Tデータが運転支援装置のレンズ歪み補正部 2内の CPU 22に送られ、 レンズ 歪み補正部 2内の LUT 21にセットされる。 LUT 21に LUTデータがセッ トされた後においては、 レンズ歪み補正部 2は LUT 21にセットされた座標対 応関係を使って、 カメラ' 1からの入力画像に対して歪み補正を行ない、 得られた 歪み補正画像をモニタ 3に表示させる。 なお、 LUTデータが LUT 21にセッ トされた後においては、 キヤブレーシヨン P C 50は取り外される。
なお、 上記キヤブレーシヨン P C 50による歪み補正強度調整機能と同じ機能 を、 運転支援装置側に持たせるようにしてもよい。
〔2〕 実施例 2
実施例 1のように、 歪み補正のパラメータ調整に PCを使う場合は、 PCの計 算能力により、 短時間 (P e n 4マシンで約 100msec) で入力画像と出力画像 の座標対応関係を計算可能で、 ほぼリアルタィムにレンズ歪み補正の効果を確認 することが可能である。 この計算を、 運転支援装置のレンズ歪み補正部 2に内蔵 するような比較的低い計算パワーの CPUで行おうとすると、 長い計算時間が必 要となる。
実施例 2では、 歪み補正のパラメータ調整を、 運転支援装置側で行なう場合に 、 簡単な演算で効果を確認できるようにするものである。 実施例 2では、 運転支 援装置側に u, sを設定するとともに、 設定され u, sに応じた歪み補正強度 の配分を簡易的にオンスクリーン表示させるための歪み補正強度調整ソフトがィ ンストールされている。
運転支援装置側に u , sが設定されると、 運転支援装置の C P U 22は、 全画 面の入出力座標を計算することなく、 つまり LUTデータを計算することなく、 設定された u, sに応じた歪み強度の配分をダリッド線で表すようにする。 そし て、 操作者が効果を確認した上で、 LUT作成指令を入力すると、 設定された u , sに応じた LUTデータを作成して、 LUT21にセットする。 LUTデータ の作成方法は、 実施例 1と同様である。
図 14は、 歪み補正強度の配分を簡易的に示すためのグリッドの例を示してい る。
図 14の実線は、 画像全体に対して ct = 1を設定した場合のグリッド線を示し ている。 図 14の破線は、 画像全体に対してひ =0 (歪み補正なし) に設定した 場合のダリッド線を示している。 ダリッド線には、 通常の直線状のダリッド線を 湾曲させた形状も含まれる。
画像全体に対して α =1を設定した場合のグリッド (格子パターン) を予め保 存しておく。 そして、 画像全体に対してひ = 1を設定した場合のダリッド上の座 標^:から ο:の設定値に応じて、 各々の対応点に相当する座標値を計算して表示す る。 対応点の計算方法について、 図 15を用いて説明する。 図 1 5は、 図 14の Sで示す部分の拡大図である。
図 1 5において、 α =1の場合におけるグリッド上の点の座標を (X I, Υ 1 ) 、 原画像 (入力画像) 上の参照点 ( (X I, Y1) の座標値として参照する原 画像上の点) の座標を (Χ0, Υ0) とする。 原画像上での参照点の座標値 (X 0, Υ0) は、 歪み補正を行なわない場合のグリッド (ひ =0の場合におけるグ リツド) 上の対応点と一致する。
0く αく 1の座標 (Xg, Yg) は、 次式 (7) で表される。
X g =X 0 + α (X 1 -X 0) 一
Yg=Y0 + a (Y1— YO) ··· (7) α= 1の場合におけるグリッド上の点を ( i, j ) で表すと、 座標値 (X 0, Y O) は、 上記式 (4) および式 (6) に α = 1を代入することにより、 次式 ( 8) で表される。
X 0 = ( i -M/2) + ( i一 M/ 2) (k i r 2 + k2 r ' )
+ 2 p ( i -M/ 2 ) ( j -N/2) + p2 { r 2 + 2 ( i -M/2)
+ M/2
Y 0 = ( j -N/2) + ( j -N/2) (k r 2 + k2 r
+ 2 p i ( i -M/2) ( j -N/2) + p2 { r + 2 ( j -N/2)
+ N/2 · (8) また、 座標値 (X I , Y D は、 ひ = 1の場合におけるダリッド上の点である ため、 次式 (9) が成り立つ。
X 1 = i
Y l = j … (9) 上記式 (8) および式 (9) を上記式 (7) に代入することにより、 次式 (1 0) が得られる。
X g = i + ( 1 - α ) 〔 ( i一 M/2) (k i r2 +k2 r 4 )
+ 2 p i ( i -M/2) ( j -N/2) + p2 { r 2 + 2 ( i -M/2) 2 } 〕 Y g = j + ( 1 - a) [ ( j -M/2) (k r 2 + k2 r 4 )
+ 2 p i ( i -M/2) ( j -N/2) + p 2 { r + 2 ( j 一 MZ 2 〕
… (1 0) 予め保存している a = 1の場合のグリッド線上の座標値を、 上記式 (1 0 ) を 用いることにより、 設定された α値に応じた座標値に変換することにより、 設定 された に応じた形状のダリッドを生成して、 オンスクリーン表示することがで きる。
図 1 6 ( a ) は、 歪み補正なしの場合 (α = 0 ) の場合のグリッドの一例示し 、 図 1 6 ( b ) は、 設定された u , sに基づいて作成された、 歪み強度の配分を 示すグリッドの一例を示している。 なお、 グリッド線の線種や色を変えることで 、 歪み補正の強度を表現することが可能である。
歪み補正の効果を事前計算する領域をダリッド上に限ることで、 計算量の削減 が可能となる。 グリッドの形状を O S D機能を使って、 モニタ上に表示すること で、 L U Tを計算する前に、 事前に効果を予測することが可能となる。 また、 こ の機能を使って、 生産時の光学系のばらつき、 歪み補正部の回路の動作を目視確 認することも可能になる。
上記実施例によれば、 カメラの車体へのセッティングに合わせて、 画像の歪み 感と対角情報のバランスのとれた画像を得ることが可能となる。 また、 様々な車 種に対して、 初期投資の必要な光学系の再設計を行わず、 データの変更のみで、 個別対応が可能となる。
この発明によれば、 入力画像に対してレンズ歪み補正を行なう場合に、 入力画 像を複数の領域に分け、 各領域別に歪み補正強度を変えることができるようにな る。

Claims

請 求 の 範 囲
1 . 車体に搭載されかつ車体の周辺領域を撮像する撮像装置、
撮像装置によつて撮像された入力画像に対してレンズ歪み補正を行なうレンズ 歪み補正手段、 および
レンズ歪み補正手段によって得られた画像を表示するための表示器を備えてお り、
レンズ歪み補正手段は、 入力画像を複数の領域に分け、 領域毎に異なる歪み補 正強度でレンズ歪み補正を行なうものであることを特徴とする運転支援装置。
2 . レンズ歪み補正手段は、 入力画像を車体からの距離および/またはカメラ の俯角に応じて複数の領域に分け、 領域毎に異なる歪み補正強度でレンズ歪み補 正を行なうものであることを特徴とする請求の範囲 1に記載の運転支援装置。
3 . 複数の領域を設定するための領域設定手段および領域設定手段によって設 定された領域毎に歪み補正強度を決定する歪み補正強度決定手段を備えており、 レンズ歪み: ¾正手段は、 歪み補正強度決定手段によって決定された領域毎の歪み 補正強度に応じたレンズ歪み補正を、 入力画像に対して行なうものであることを 特徴とする請求の範囲 1または 2のいずれかに記載の運転支援装置。
4 . 複数の領域を仮設定するための領域仮設定手段、 領域仮設定手段によって • 仮設定された領域毎に歪み補正強度を仮決定する歪み補正強度仮決定手段、 歪み 補正強度仮決定手段によって仮決定された領域毎の歪み補正強度に応じた歪み補 正の効果をダリッド線で表示器に表示させる手段、 および歪み補正強度仮決定手 段によって仮決定された領域毎の歪み補正強度を、 本来の領域毎の歪み補正強度 として本設定させる本設定手段を備えており、 レンズ歪み補正手段は、 本設定手 段によって本設定された領域毎の歪み補正強度に応じたレンズ歪み補正を、 入力 画像に対して行なうものであることを特徴とする請求の範囲 1または 2のいずれ かに記載の運転支援装置。
PCT/JP2007/057019 2006-03-27 2007-03-23 運転支援装置 WO2007111377A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/294,829 US9308862B2 (en) 2006-03-27 2007-03-23 Drive assistance device
CN2007800114284A CN101410868B (zh) 2006-03-27 2007-03-23 驾驶辅助装置
EP07740457.2A EP2009590B1 (en) 2006-03-27 2007-03-23 Drive assistance device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006086476A JP4104631B2 (ja) 2006-03-27 2006-03-27 運転支援装置
JP2006-086476 2006-03-27

Publications (1)

Publication Number Publication Date
WO2007111377A1 true WO2007111377A1 (ja) 2007-10-04

Family

ID=38541290

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/057019 WO2007111377A1 (ja) 2006-03-27 2007-03-23 運転支援装置

Country Status (5)

Country Link
US (1) US9308862B2 (ja)
EP (1) EP2009590B1 (ja)
JP (1) JP4104631B2 (ja)
CN (1) CN101410868B (ja)
WO (1) WO2007111377A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100295956A1 (en) * 2009-05-25 2010-11-25 Sony Corporation Imaging apparatus and shake correcting method

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009143722A (ja) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp 人物追跡装置、人物追跡方法及び人物追跡プログラム
JP5124835B2 (ja) * 2008-02-05 2013-01-23 富士フイルム株式会社 画像処理装置、画像処理方法、およびプログラム
JP5141960B2 (ja) * 2008-03-25 2013-02-13 株式会社メガチップス 画像処理装置
JP4840452B2 (ja) * 2009-01-22 2011-12-21 株式会社デンソー 車両周辺表示装置
JP4760923B2 (ja) 2009-02-03 2011-08-31 ソニー株式会社 画像処理装置、画像処理方法および撮像装置
JP5735227B2 (ja) 2010-07-16 2015-06-17 ルネサスエレクトロニクス株式会社 画像変換装置及び画像変換システム
JP5793975B2 (ja) * 2010-08-03 2015-10-14 株式会社リコー 画像処理装置、画像処理方法、プログラム、記録媒体
DE102010042248A1 (de) * 2010-10-11 2012-04-12 Robert Bosch Gmbh Verfahren und Vorrichtung zur optischen Darstellung einer Umgebung eines Fahrzeugs
TWI516119B (zh) * 2011-01-25 2016-01-01 華晶科技股份有限公司 電子裝置、影像擷取裝置及其方法
US9105090B2 (en) 2011-07-13 2015-08-11 Analog Devices, Inc. Wide-angle lens image correction
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
KR101428169B1 (ko) * 2012-07-09 2014-08-07 현대자동차주식회사 후방 카메라의 영상 왜곡 보정 장치 및 방법
JP6089767B2 (ja) * 2013-02-25 2017-03-08 株式会社リコー 画像処理装置、撮像装置、移動体制御システム及びプログラム
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle
JP6354425B2 (ja) * 2014-07-30 2018-07-11 株式会社デンソー 車載カメラの取り付け姿勢検出方法およびその装置
JP6316330B2 (ja) * 2015-04-03 2018-04-25 コグネックス・コーポレーション ホモグラフィの修正
JP5959684B2 (ja) * 2015-04-16 2016-08-02 ルネサスエレクトロニクス株式会社 画像変換システム
US10368067B2 (en) * 2016-06-15 2019-07-30 Mediatek Inc. Method and apparatus for selective filtering of cubic-face frames
US10148939B2 (en) * 2016-07-19 2018-12-04 Gopro, Inc. Mapping of spherical image data into rectangular faces for transport and decoding across networks
JP2018037855A (ja) * 2016-08-31 2018-03-08 アイシン精機株式会社 表示制御装置
KR101859045B1 (ko) * 2016-11-02 2018-05-17 엘지전자 주식회사 차량용 운전 보조 장치 및 차량
JP6819514B2 (ja) * 2017-08-28 2021-01-27 トヨタ自動車株式会社 画像処理装置及び撮像装置
JP2019186597A (ja) * 2018-04-02 2019-10-24 株式会社ザクティ 移動体の周辺確認システム
EP3832034B1 (en) 2018-07-31 2023-08-23 Sumitomo (S.H.I.) Construction Machinery Co., Ltd. Excavator
CN113015884B (zh) * 2018-11-20 2023-10-10 索尼半导体解决方案公司 图像处理装置和图像处理方法
DE102019108056A1 (de) * 2019-03-28 2020-10-01 Connaught Electronics Ltd. Bilderfassungssystem
JP7279526B2 (ja) * 2019-05-31 2023-05-23 富士通株式会社 解析プログラム、解析装置及び解析方法
CN112819725B (zh) * 2021-02-05 2023-10-03 广东电网有限责任公司广州供电局 一种径向畸变的快速图像校正方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07186833A (ja) * 1993-12-24 1995-07-25 Nissan Motor Co Ltd 車両用周囲状況表示装置
JP3047581B2 (ja) 1991-11-20 2000-05-29 日立プラント建設株式会社 電子消音システム
JP2002140703A (ja) * 2000-10-31 2002-05-17 Toyota Central Res & Dev Lab Inc 周辺状況表示装置
JP3286306B2 (ja) 1998-07-31 2002-05-27 松下電器産業株式会社 画像生成装置、画像生成方法
JP2003123064A (ja) 2001-08-07 2003-04-25 Toyota Central Res & Dev Lab Inc 画像変換装置並びにそれを組み込んだ撮像及び/又は表示装置
JP3451017B2 (ja) 1998-07-28 2003-09-29 富士写真フイルム株式会社 画像処理方法及び装置
JP2005311666A (ja) * 2004-04-21 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5369450A (en) * 1993-06-01 1994-11-29 The Walt Disney Company Electronic and computational correction of chromatic aberration associated with an optical system used to view a color video display
JP3446277B2 (ja) 1993-12-24 2003-09-16 日産自動車株式会社 車両用周囲状況表示装置
JP3156817B2 (ja) * 1994-03-14 2001-04-16 矢崎総業株式会社 車両周辺監視装置
JPH08116490A (ja) * 1994-10-14 1996-05-07 Olympus Optical Co Ltd 画像処理装置
JP3446991B2 (ja) 1997-07-15 2003-09-16 矢崎総業株式会社 監視装置
US6801334B1 (en) * 1998-05-28 2004-10-05 Fuji Photo Film Co., Ltd. Index print producing method, image processing system, image processing method and image processing device
US6704434B1 (en) * 1999-01-27 2004-03-09 Suzuki Motor Corporation Vehicle driving information storage apparatus and vehicle driving information storage method
CA2369648A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Limited Image processing device and monitoring system
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
JP3565749B2 (ja) 1999-09-22 2004-09-15 富士重工業株式会社 車載カメラの撮像方向の検査方法およびその検査装置
JP3624769B2 (ja) 1999-09-30 2005-03-02 株式会社豊田自動織機 車両後方監視装置用画像変換装置
JP3632563B2 (ja) * 1999-10-19 2005-03-23 株式会社豊田自動織機 映像位置関係補正装置、該映像位置関係補正装置を備えた操舵支援装置、及び映像位置関係補正方法
US7002589B2 (en) * 2000-03-17 2006-02-21 Sun Microsystems, Inc. Blending the edges of multiple overlapping screen images
EP1148461B1 (en) * 2000-04-05 2004-09-22 Matsushita Electric Industrial Co., Ltd. Driving operation assisting method and system
US6584287B2 (en) * 2000-10-18 2003-06-24 Fuji Photo Film Co., Ltd. Camera and image forming system using the camera
JP3804916B2 (ja) * 2001-02-09 2006-08-02 シャープ株式会社 撮像システムとその画像データ制御に用いられるプログラムおよびその撮像システムにおける撮像画像の歪み補正方法とその手順を記憶させた記憶媒体
JP3483143B2 (ja) * 2001-04-09 2004-01-06 松下電器産業株式会社 運転支援装置
CN100465995C (zh) * 2001-06-12 2009-03-04 奥普提克斯晶硅有限公司 一种将图像投射到屏幕表面的方法及系统
US7256799B2 (en) * 2001-09-12 2007-08-14 Sanyo Electric Co., Ltd. Image synthesizer, image synthesis method and computer readable recording medium having image synthesis processing program recorded thereon
US6717735B2 (en) * 2001-10-12 2004-04-06 Agilent Technologies, Inc. Lens structures for flux redistribution and for optical low pass filtering
US7596286B2 (en) * 2003-08-06 2009-09-29 Sony Corporation Image processing apparatus, image processing system, imaging apparatus and image processing method
JP4104571B2 (ja) * 2004-03-29 2008-06-18 三洋電機株式会社 歪曲補正装置及びこの歪曲補正装置を備えた撮像装置
EP1751970A4 (en) * 2004-05-01 2010-04-21 Eliezer Jacob DIGITAL CAMERA WITH NON-UNIFORM IMAGE RESOLUTION
JP4720214B2 (ja) * 2005-03-01 2011-07-13 コニカミノルタオプト株式会社 撮像レンズ
US7576639B2 (en) * 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
JP2009010730A (ja) * 2007-06-28 2009-01-15 Kyocera Corp 画像処理方法と該画像処理方法を用いた撮像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3047581B2 (ja) 1991-11-20 2000-05-29 日立プラント建設株式会社 電子消音システム
JPH07186833A (ja) * 1993-12-24 1995-07-25 Nissan Motor Co Ltd 車両用周囲状況表示装置
JP3451017B2 (ja) 1998-07-28 2003-09-29 富士写真フイルム株式会社 画像処理方法及び装置
JP3286306B2 (ja) 1998-07-31 2002-05-27 松下電器産業株式会社 画像生成装置、画像生成方法
JP2002140703A (ja) * 2000-10-31 2002-05-17 Toyota Central Res & Dev Lab Inc 周辺状況表示装置
JP2003123064A (ja) 2001-08-07 2003-04-25 Toyota Central Res & Dev Lab Inc 画像変換装置並びにそれを組み込んだ撮像及び/又は表示装置
JP2005311666A (ja) * 2004-04-21 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
"Digital Image Correcting Method for Digital Camera", RICOH TECHNICAL REPORT NO. 31, December 2005 (2005-12-01), Retrieved from the Internet <URL:www.ricoh.co.jp/about/business-overview/report/31/p df/A3114.pdf>
"Lens-Optical System Design", TECHNICAL INFORMATION INSTITUTE, CO., LTD., article "Advanced Technique of Digital Cameras"
COMPUTER VISION: TECHNICAL REVIEW AND FUTURE PROSPECTS, June 1998 (1998-06-01)
OPENCV REFERENCE MANUAL, pages 61 - 63
R. Y. TSAI: "A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV camera and lenses", IEEE JOURNAL OF ROBOTICS AND AUTOMATION, vol. RA-3, no. 4, 1987, pages 323 - 344
See also references of EP2009590A4
Z. ZHANG.: "A Flexible New Technique for Camera Calibration", IEEE, PAMI, vol. 22, no. 11, 2000, pages 1130 - 1134
Z. ZHANG: "Flexible Camera Calibration By Viewing a Plane from Unknown Orientations", PROC. OF ICCV, vol. 99, 1999, pages 666 - 673

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100295956A1 (en) * 2009-05-25 2010-11-25 Sony Corporation Imaging apparatus and shake correcting method
US8466969B2 (en) * 2009-05-25 2013-06-18 Sony Corporation Imaging apparatus and shake correcting method

Also Published As

Publication number Publication date
EP2009590A8 (en) 2009-03-18
JP4104631B2 (ja) 2008-06-18
EP2009590A4 (en) 2011-11-23
CN101410868A (zh) 2009-04-15
EP2009590B1 (en) 2018-12-19
EP2009590A1 (en) 2008-12-31
CN101410868B (zh) 2011-09-28
US20100165104A1 (en) 2010-07-01
JP2007264831A (ja) 2007-10-11
US9308862B2 (en) 2016-04-12

Similar Documents

Publication Publication Date Title
WO2007111377A1 (ja) 運転支援装置
JP4924896B2 (ja) 車両の周辺監視装置
JP5874920B2 (ja) 車両周囲確認用モニター装置
WO2009116327A1 (ja) 画像処理装置及び方法、運転支援システム、車両
JP4975592B2 (ja) 撮像装置
US10007853B2 (en) Image generation device for monitoring surroundings of vehicle
JP4758481B2 (ja) 車両用画像処理装置及び車両用画像処理プログラム
US10315570B2 (en) Image processing apparatus and image processing method
CN111559314B (zh) 深度与图像信息融合的3d增强全景环视系统及实现方法
JP2010103730A (ja) 車載カメラのキャリブレーション装置およびキャリブレーション方法
EP3326145B1 (en) Panel transform
JP2011105306A (ja) 車両用表示装置
CN104477097A (zh) 一种新型电子后视系统及控制逻辑
JP4934579B2 (ja) 運転支援装置
EP3326146B1 (en) Rear cross traffic - quick looks
KR101045143B1 (ko) 탑 뷰 영상 보정 시스템 및 그 방법
CN204367998U (zh) 一种新型电子后视系统
JP2012116400A (ja) コーナーポール投影装置
JP2009083744A (ja) 合成画像調整装置
JP4945315B2 (ja) 運転支援システム及び車両
JP5305750B2 (ja) 車両周辺表示装置およびその表示方法
WO2010007960A1 (ja) 車載用カメラの視点変換映像システム及び視点変換映像取得方法
JP5049304B2 (ja) 車両の周辺を画像表示するための装置
US20210170946A1 (en) Vehicle surrounding image display device
JP5047915B2 (ja) 車載用画像処理装置及びその画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07740457

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12294829

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200780011428.4

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007740457

Country of ref document: EP