WO2015029443A1 - 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム - Google Patents

舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム Download PDF

Info

Publication number
WO2015029443A1
WO2015029443A1 PCT/JP2014/004437 JP2014004437W WO2015029443A1 WO 2015029443 A1 WO2015029443 A1 WO 2015029443A1 JP 2014004437 W JP2014004437 W JP 2014004437W WO 2015029443 A1 WO2015029443 A1 WO 2015029443A1
Authority
WO
WIPO (PCT)
Prior art keywords
steering angle
steering
image
degree
unit
Prior art date
Application number
PCT/JP2014/004437
Other languages
English (en)
French (fr)
Inventor
貴裕 岡田
圭俊 中田
隆一 澤田
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013177189A external-priority patent/JP6023025B2/ja
Priority claimed from JP2013200569A external-priority patent/JP6023030B2/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US14/915,620 priority Critical patent/US9862417B2/en
Priority to EP14839821.7A priority patent/EP3040254B1/en
Publication of WO2015029443A1 publication Critical patent/WO2015029443A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • B62D15/0295Steering assistants using warnings or proposing actions to the driver without influencing the steering system by overlaying a vehicle path based on present steering angle over an image without processing that image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/021Determination of steering angle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Definitions

  • the present invention relates to a steering angle correction method, a steering angle correction device, an imaging device, and a steering angle correction system that correct the steering angle of a moving body.
  • An object of the present invention made in view of such circumstances is to provide a rudder angle correction method, a rudder angle correction device, an imaging device, and a rudder angle correction system that can correct the rudder angle by reducing the complexity of operation. is there.
  • the rudder angle correction method Obtaining a measurement image obtained by imaging a steered wheel and a steering angle of a moving body at the time of imaging the measurement image in association with each other; Calculating a degree of coincidence between the steered wheel on the measurement image and the steered wheel on a reference image obtained by imaging the steered wheel at a reference steering angle; Calculating a correction value for correcting the steering angle based on the degree of coincidence.
  • the rudder angle correction method includes: Acquiring a plurality of said measurement images at different steering angles; In the step of calculating the correction value, it is preferable to calculate the correction value based on the distribution of the degree of coincidence with respect to the steering angle.
  • the rudder angle correction method includes: Extracting at least the steering wheel on the measurement image by ellipse detection; In the step of calculating the degree of coincidence, it is preferable to calculate the degree of coincidence using a parameter of an ellipse to be detected.
  • the rudder angle correction method includes: In the step of calculating the degree of coincidence, it is preferable to calculate the degree of coincidence by assigning a greater weight to the parameter indicating at least one of the short side and the inclination of the ellipse than the other parameters.
  • the rudder angle correction method includes: In the step of calculating the degree of coincidence, it is preferable that a degree of correlation by image matching based on the measurement image and the reference image is calculated as the degree of coincidence.
  • the rudder angle correction method includes: Obtaining a set of images obtained by simultaneously imaging the left and right steered wheels and the steering angle of the moving body at the time of capturing the set of images in association with each other; Calculating the degree of symmetry of the left and right steered wheels on the set of images; Calculating a correction value for correcting the steering angle based on the degree of symmetry.
  • the rudder angle correction method includes: Acquiring the set of images at different steering angles; In the step of calculating the correction value, the correction value is preferably calculated based on the distribution of the symmetry with respect to the steering angle.
  • the rudder angle correction method includes: Extracting the left and right steered wheels on the set of images by ellipse detection; In the step of calculating the degree of symmetry, it is preferable to calculate the degree of symmetry using a parameter of an ellipse to be detected.
  • the rudder angle correction method includes: In the step of calculating the degree of symmetry, it is preferable to calculate the degree of symmetry by assigning more weight to the parameter indicating at least one of the short side and the inclination of the ellipse than the other parameters.
  • the rudder angle correction method includes: In the step of calculating the degree of symmetry, the degree of symmetry is preferably calculated using a degree of correlation based on image matching based on the set of images.
  • the rudder angle correction device In addition, the rudder angle correction device according to the present invention, An acquisition unit that acquires a measurement image obtained by imaging a steered wheel and a steering rudder angle of a moving object at the time of imaging; A calculation unit that calculates a correction value for correcting the steering angle based on a degree of coincidence between the steering wheel on the measurement image and the steering wheel on the reference image obtained by imaging the steering wheel at a reference steering angle; It is characterized by providing.
  • an imaging apparatus includes: An acquisition unit that acquires a measurement image obtained by imaging a steered wheel in association with a steering rudder angle of a moving object at the time of image capturing, the steered wheel on the measurement image, and a reference image obtained by photographing the steered wheel at a reference rudder angle
  • a steering angle correction device comprising: an arithmetic unit that calculates a correction value for correcting the steering angle based on the degree of coincidence with the steering wheel above; A first imaging unit for generating the measurement image; A second imaging unit for generating a peripheral image of the moving body; An image superimposing unit that superimposes an index on the peripheral image based on the correction value is provided.
  • a first imaging unit that generates a measurement image obtained by imaging the steering wheel;
  • An acquisition unit that acquires the measurement image in association with the steering angle of the moving body at the time of imaging;
  • a calculation unit that calculates a correction value for correcting the steering angle based on a degree of coincidence between the steering wheel on the measurement image and the steering wheel on a reference image obtained by imaging the steering wheel at a reference steering angle;
  • a second imaging unit for generating a peripheral image of the moving body;
  • An image superimposing unit that superimposes an index on the peripheral image based on the correction value;
  • a display unit that displays a peripheral image on which the index is superimposed.
  • the rudder angle correction device In addition, the rudder angle correction device according to the present invention, An acquisition unit that acquires a set of images obtained by simultaneously imaging the left and right steering wheels, and a steering angle of a moving body when the set of images is captured; And an arithmetic unit that calculates a correction value for correcting the steering angle based on the symmetry of the left and right steering wheels on the set of images.
  • an imaging apparatus includes: An acquisition unit that acquires a set of images obtained by simultaneously imaging the left and right steering wheels and a steering angle of the moving body at the time of imaging the set of images, and the left and right steering on the set of images
  • a rudder angle correction device comprising a calculation unit that calculates a correction value for correcting the rudder angle based on the degree of symmetry of the wheel;
  • a first imaging unit that generates the set of images;
  • An image superimposing unit that superimposes an index on the peripheral image based on the correction value is provided.
  • a first imaging unit that generates a set of images obtained by simultaneously imaging the left and right steering wheels;
  • An acquisition unit that associates and acquires the set of images and the steering angle of the moving body at the time of capturing the set of images;
  • An arithmetic unit that calculates a correction value for correcting the steering angle based on the symmetry of the left and right steering wheels on the set of images;
  • a second imaging unit for generating a peripheral image of the moving body;
  • An image superimposing unit that superimposes an index on the peripheral image based on the correction value;
  • a display unit that displays a peripheral image on which the index is superimposed.
  • the steering angle correction device According to the steering angle correction method, the steering angle correction device, the imaging device, and the steering angle correction system according to the present invention, the steering angle can be corrected while reducing the complexity of the operation.
  • FIG. 1 is a schematic diagram illustrating an arrangement of components of a steering angle correction system A according to the first embodiment on a moving body 10.
  • the moving body 10 is a vehicle, for example.
  • the steering angle correction system A includes an imaging device including a side camera 11 and a rear camera 12, and a display unit 13.
  • the side cameras 11 are disposed symmetrically on the left and right sides of the moving body 10.
  • the side camera 11 provided on the right side of the moving body 10 will be described unless otherwise specified.
  • the side camera 11 is arranged on the door mirror 15 so that the periphery of the moving body 10 including the steering wheel 14 of the moving body 10 can be imaged.
  • the rear camera 12 is arranged so that the rear periphery of the moving body 10 can be imaged.
  • the display part 13 is arrange
  • the side camera 11 includes an optical system 16, a side camera imaging unit (first imaging unit) 17, a steering angle determination unit 18, a side camera control unit 19, and a steering angle correction device 20. And comprising.
  • the optical system 16 has a plurality of lenses.
  • the optical system 16 forms a subject image.
  • the side camera imaging unit 17 is, for example, a CMOS imaging device, and generates an image obtained by imaging a subject image formed by an optical system as a measurement image.
  • the side camera 11 is disposed so as to be able to image the periphery of the moving body 10 including the steering wheel 14.
  • the measurement image may include images of the steered wheels 14 having various steered wheel steering angles ⁇ R.
  • the steered wheel steering angle ⁇ R is a turning angle of the steered wheel 14 with the steering angle neutral point in the steerable range of the steered wheel 14 being 0 °.
  • the steering wheel steering angle ⁇ R is increased by the rightward rotation of the steering.
  • FIG. 3 shows examples of measurement images at different steering wheel steering angles ⁇ R
  • FIG. R 30 °
  • the steering angle determination unit 18 obtains the steering angle ⁇ m detected by the steering angle sensor when the measurement image is captured, for example, via the in-vehicle network 100 such as CAN.
  • the steering angle ⁇ m is a steering angle where the steering angle neutral point in the steerable range of the steering is 0 °.
  • the steering angle ⁇ m detected by the steering angle sensor is increased by the clockwise rotation of the steering.
  • the steering angle ⁇ m and the steering wheel angle ⁇ R detected by the steering angle sensor have a one-to-one correspondence.
  • the side camera control unit 19 controls the operation of each part of the side camera 11. For example, the side camera control unit 19 causes the side camera imaging unit 17 to periodically generate measurement images. Further, the side camera control unit 19 transmits and receives information via the in-vehicle network 100.
  • the steering angle correction device 20 calculates a correction value for correcting the steering angle ⁇ m detected by the steering angle sensor so as to coincide with the actual steering angle ⁇ t of the steering. Details of the calculation of the correction value will be described later.
  • the steering angle correction device 20 includes an acquisition unit 21, a correction device storage unit 22, an extraction unit 23, and a calculation unit 24.
  • the acquisition unit 21 acquires from the side camera imaging unit 17 and the steering angle determination unit 18 in association with the measurement image and the steering angle ⁇ m detected by the steering angle sensor when the measurement image was captured.
  • the correction device storage unit 22 stores in advance an image (hereinafter referred to as a reference image) obtained by imaging the steered wheels 14 with the side steering imaging unit 17 in a state where the actual steering angle ⁇ t of the steering is the reference steering angle ⁇ 0 .
  • a reference image an image obtained by imaging the steered wheels 14 with the side steering imaging unit 17 in a state where the actual steering angle ⁇ t of the steering is the reference steering angle ⁇ 0 .
  • the reference rudder angle ⁇ 0 is described as 0 °, but may be any rudder angle.
  • the correction device storage unit 22 calculates the degree of coincidence between the steering wheel 14 on the measurement image calculated by the calculation unit 24 and the steering wheel 14 on the reference image by the steering angle sensor detected by the steering angle sensor when the measurement image is captured. Store in association with m . Further, the correction device storage unit 22 stores the correction value ⁇ a calculated by the calculation unit 24. Coincidence degree and will be described in detail later correction value theta a.
  • the extraction unit 23 extracts the steering wheel 14 on the measurement image and the steering wheel 14 on the reference image.
  • the extraction unit 23 extracts the steered wheels 14 on the image by edge detection and ellipse detection (approximation).
  • edge detection for example, an edge part on an image is detected using a canny filter.
  • ellipse detection for example, the Hough transform is used to calculate an ellipse shape approximating the steered wheel 14 and its ellipse parameters.
  • the ellipse parameters are the center coordinates (x, y) of the ellipse, the length a of the long side, the length b of the short side, and the inclination ⁇ formed by the horizontal axis on the image and the long axis of the ellipse.
  • the extraction unit 23 extracts the steering wheel 14 on the image in a predetermined region on the image where the steering wheel 14 can be included.
  • the predetermined region on the image in which the steering wheel 14 can be included may be determined in advance in consideration of, for example, variations in the mounting angle of the side camera 11, or may be automatically determined by the extraction unit 23 by an arbitrary method. .
  • FIG. 4 shows an example of an ellipse (thick line in FIG. 4) detected for measurement images at different steering wheel steering angles ⁇ R ,
  • FIG. 4 shows an example in which ellipse detection is performed on the wheel portion of the steered wheel 14.
  • ellipse detection may be performed on the tire portion of the steered wheel 14.
  • the wheel portion of the steered wheel 14 has a shape with a portion of the ellipse missing (see FIGS. 3B to 3D). Is detected (see FIGS. 4B-4D).
  • the shape of the detected ellipse differs depending on the steering wheel steering angle ⁇ R at the time of imaging. Specifically, in the detected ellipse, when the steering wheel steering angle ⁇ R increases, the inclination ⁇ formed by the horizontal axis on the image and the long axis of the ellipse decreases, and the short side length b increases. On the other hand, even if the steered wheel steering angle ⁇ R is increased, changes in other elliptical parameters, that is, the central coordinates (x, y) and the long side length a are relatively small (see FIG. 4).
  • the computing unit 24 calculates the degree of coincidence between the steered wheel 14 on the measurement image and the steered wheel 14 on the reference image.
  • the degree of coincidence is an index indicating the degree of coincidence of the shape of the steering wheel 14 on both images.
  • the calculation unit 24 performs image matching using the measurement image obtained by extracting the steered wheel 14 by the extraction unit 23 and the reference image, and calculates the degree of correlation of image matching as the degree of coincidence.
  • the calculation unit 24 corrects data that associates the calculated degree of coincidence (correlation degree) with the steering angle ⁇ m detected by the rudder angle sensor when the measurement image used for calculating the degree of coincidence is captured.
  • the data is stored in the storage unit 22.
  • the calculation unit 24 calculates a probability distribution of the degree of coincidence (correlation degree) with respect to the steering angle ⁇ m detected by the steering angle sensor, based on a plurality of data stored in the correction device storage unit 22 (FIG. 5). reference). Any probability distribution model can be used for the probability distribution. Further, the calculation unit 24 calculates the steering angle ⁇ p at the peak position of the calculated probability distribution. Preferably, the calculation unit 24 calculates the steering angle ⁇ p when data sufficient to calculate the probability distribution is accumulated.
  • the calculation unit 24 determines the steering angle ⁇ p May be calculated.
  • detection deviation a deviation (hereinafter referred to as detection deviation) exists between the steering angle ⁇ m detected by the steering angle sensor and the actual steering angle ⁇ t of the steering
  • the actual steering angle ⁇ t of the steering is 0 °.
  • the steering angle ⁇ m detected by the rudder angle sensor is equal to the detection deviation of the rudder angle sensor.
  • the calculation unit 24 calculates the detection deviation ⁇ of the steering angle sensor by the following equation.
  • the arithmetic unit 24 when the correcting device storage unit 22 has already stored the correction values theta a is the absolute value of a value obtained by subtracting the correction value theta a from detecting deviation ⁇ predetermined threshold th 3 or more At some time, the detected deviation ⁇ is updated as a new correction value ⁇ a and stored in the correction device storage unit 22. And the calculating part 24 transmits correction value (theta) a to another component via the vehicle-mounted network 100.
  • the rear camera 12 includes an optical system 25, a rear camera imaging unit (second imaging unit) 26, a rear camera storage unit 27, an image superimposing unit 28, and a rear camera control unit 29. .
  • the optical system 25 has a plurality of lenses, like the optical system 16 of the side camera 11, and forms a subject image.
  • the rear camera imaging unit 26 images (generates) a peripheral image formed by the optical system 25 in the same manner as the side camera imaging unit 17.
  • the rear camera storage unit 27 stores a correction value ⁇ a acquired from the side camera 11 via the in-vehicle network 100.
  • the image superimposing unit 28 acquires the steering angle ⁇ m detected by the steering angle sensor via the in-vehicle network 100. Further, the image superimposing unit 28 uses the correction value ⁇ a to correct the steering angle ⁇ m detected by the steering angle sensor, that is, the value obtained by subtracting the correction value ⁇ a from the steering angle ⁇ m , An index for driving support is superimposed on a predetermined position on the peripheral image captured by the rear camera imaging unit 26.
  • the indicator 30 for driving support is, for example, a vehicle width extension line 31 and a distance guide line 32 as shown in FIG.
  • the vehicle width extension line 31 is a trajectory passing through both ends of the moving body 10 during reverse travel, and the shape and the display position differ depending on the steering angle of the steering.
  • the distance reference line 32 indicates a predetermined distance from the current moving body 10, for example, a distance of 1 m and 3 m. The driver can recognize the predicted traveling direction when the mobile object 10 moves backward by the index 30.
  • the rear camera control unit 29 controls the operation of each part of the rear camera 12.
  • the rear camera control unit 29 transmits and receives information via the in-vehicle network 100.
  • correction value calculation processing executed by the steering angle correction system A according to the first embodiment will be described with reference to the flowchart of FIG. This process is executed, for example, when the moving body 10 starts traveling.
  • the side camera imaging unit 17 captures a peripheral image (measurement image) of the moving body 10 including the steered wheels 14 (step S100).
  • the rudder angle determination unit 18 acquires the steering rudder angle ⁇ m detected by the rudder angle sensor simultaneously with the imaging of the measurement image in step S100 via the in-vehicle network 100 (step S101).
  • the acquisition unit 21 acquires associates the steering angle theta m of measure images and step S101 in step S100 (step S102).
  • the extraction unit 23 performs edge detection on the measurement image in step S102 and the reference image stored in advance in the correction device storage unit 22 (step S103). In addition, when the side surface of the steered wheel 14 is not included in the measurement image, the extraction unit 23 uses the measurement image captured by the side camera 11 on the opposite side of the moving body 10.
  • the extraction unit 23 performs ellipse detection on the measurement image and the reference image for which edge detection has been performed in step S103 (step S104).
  • the calculation unit 24 calculates the degree of coincidence between the steering wheel 14 on the measurement image and the steering wheel 14 on the reference image (step S105). For example, the calculation unit 24 calculates the correlation degree of image matching as the coincidence degree.
  • the calculation unit 24 stores, in the correction device storage unit 22, data in which the degree of coincidence calculated in step S105 is associated with the steering angle ⁇ m detected by the steering angle sensor when the measurement image is captured (step S22). S106).
  • the calculation unit 24 calculates a probability distribution of the degree of coincidence (correlation degree) with respect to the steering angle ⁇ m detected by the steering angle sensor, based on the data stored in the correction device storage unit 22 in step S106 ( Step S107).
  • the computing unit 24 determines whether or not sufficient data has been accumulated to calculate the probability distribution (step S108). For example, when the number of data stored in the correction device storage unit 22 is equal to or greater than the predetermined threshold th 1 and the calculated probability distribution variance ⁇ 2 is less than the predetermined threshold th 2 In addition, it is determined that sufficient data has been accumulated. When sufficient data is accumulated (step S108—Yes), the process proceeds to step S109. On the other hand, when sufficient data is not accumulated (step S108-No), the process returns to step S100 to repeat the process and accumulate data.
  • step S108 when enough data has been accumulated (step S108-Yes), the arithmetic unit 24 calculates a steering angle theta p at the peak position of the probability distribution calculated in step S107 (step S109).
  • the calculation unit 24 calculates the absolute value of the detection deviation ⁇ calculated by subtracting the reference steering angle ⁇ 0 from the steering steering angle ⁇ p at the peak position of the probability distribution calculated in step S109 to be equal to or greater than a predetermined threshold th 3. It is determined whether or not (step S110).
  • step S110 the absolute value of the detection deviation ⁇ is equal to or greater than the threshold th 3 (step S110—Yes)
  • step S111 the absolute value of the detection deviation ⁇ is less than the threshold th 3 (step S110—No)
  • the process is terminated.
  • step S110 when the absolute value of the detected deviation ⁇ is the threshold value th 3 or more (step S110-Yes), the arithmetic unit 24 stores the correction device storing unit 22 detects deviation ⁇ as a correction value theta a (step S111 ).
  • the steering angle correction system of the first embodiment based on the coincidence of the measurement and reference images, calculates a correction value theta a. For this reason, for example, the steering rudder angle ⁇ m detected by the rudder angle sensor during the traveling of the moving body 10 can be automatically corrected, and the complexity of the operation by the operator can be reduced.
  • the correction value ⁇ a is calculated based on the probability distribution of the degree of coincidence with the steering rudder angle ⁇ m detected by the rudder angle sensor.
  • the steering angle ⁇ m detected by the steering angle sensor can be accurately estimated, and the calculation accuracy of the correction value ⁇ a can be improved. Further, it is possible to reduce the influence of the measurement error of the steering angle ⁇ m detected by the steering angle sensor and improve the calculation accuracy of the correction value ⁇ a .
  • the steering angle correction system of the first embodiment when sufficient data is calculated to calculate the probability distribution of the degree of coincidence with respect to the steering angle ⁇ m detected by the steering angle sensor, the probability distribution The steering angle ⁇ p at the peak position is calculated, and the correction value ⁇ a is calculated using ⁇ p .
  • the correction value ⁇ a is calculated using ⁇ p .
  • the absolute value of the deviation ⁇ between the steering angle ⁇ m detected by the steering angle sensor and the actual steering angle ⁇ t of the steering is greater than or equal to the threshold th 3. when it is, stores ⁇ as the correction value theta a. Therefore, to suppress the calculation and update of the correction value theta a by slight shift caused by the influence of the measurement error of the steering angle theta m which the steering angle sensor detects, it can improve the calculation accuracy of the correction value theta a.
  • the rudder angle correction system of the first embodiment since edge detection is performed on the measurement image and the reference image, changes in the environment such as weather and outside brightness during the traveling of the moving body 10 are performed. Can reduce the influence on the measurement image and improve the accuracy of calculating the degree of correlation by image matching.
  • the rudder angle correction apparatus 20 includes an acquisition unit 21, a correction device storage unit 22, an extraction unit 23, and a calculation unit 24, as in the first embodiment. Since the acquisition unit 21, the correction device storage unit 22, and the extraction unit 23 are the same as those in the first embodiment, description thereof is omitted.
  • the calculation unit 24 calculates the degree of coincidence between the steering wheel 14 on the measurement image and the steering wheel 14 on the reference image, as in the first embodiment.
  • the calculation unit 24 calculates the distance d on the parameter space calculated using the ellipse parameter as the degree of coincidence. At this time, generally, the smaller the value of the distance d, the higher the coincidence.
  • the calculation unit 24 calculates the degree of coincidence using values obtained by weighting a plurality of ellipse parameters.
  • the detected ellipse has a different shape depending on the steering wheel steering angle ⁇ R (see FIG. 4).
  • the change amount of the ellipse inclination ⁇ and the short side length b is large with respect to the change of the steered wheel steering angle ⁇ R
  • the other ellipse parameters that is, the center coordinates and the long side length are small.
  • the inclination ⁇ of the ellipse and the length b of the short side are highly sensitive to changes in the steering wheel steering angle ⁇ R.
  • At least one of the inclination ⁇ and the short side length b among the ellipse parameters is weighted more than the other parameters, that is, the coordinates (x, y) and the long side length a, and points on the parameter space t and point a are determined, and the distance d between the two points is calculated as the degree of coincidence.
  • the calculation unit 24 calculates the probability distribution of the degree of coincidence (distance d), and calculates the correction value ⁇ a based on the steering angle ⁇ p at the peak position of the calculated probability distribution. calculate.
  • distance d the distance on the parameter space calculated using the ellipse parameter is used as the degree of coincidence, the probability distribution peak appears downward (see FIG. 8).
  • the distance d on the parameter space calculated based on the ellipse parameters detected from the measurement image and the reference image is set to the steering wheel 14 on the measurement image.
  • the degree of coincidence with the steered wheel 14 on the reference image is calculated. For this reason, the processing load can be reduced as compared with the first embodiment in which the degree of coincidence is calculated by image matching.
  • the degree of coincidence calculation is improved, and the correction value It can be improved calculation accuracy of theta a.
  • the rudder angle correction device 20 includes an acquisition unit 21, a correction device storage unit 22, an extraction unit 23, and a calculation unit 24, as in the first embodiment. Since the acquisition unit 21 and the extraction unit 23 are the same as those in the first embodiment, description thereof is omitted.
  • the correction device storage unit 22 stores a reference image in advance. Further, the correction device storage unit 22 stores the correction value ⁇ a calculated by the calculation unit 24.
  • the calculation unit 24 calculates the degree of coincidence between the steering wheel 14 on the measurement image and the steering wheel 14 on the reference image.
  • any one of the degree of correlation by image matching or the distance d between two points on the ellipse parameter space may be adopted as the degree of coincidence.
  • the degree of correlation by image matching using the measurement image and the reference image is calculated will be described.
  • the computing unit 24 determines whether or not the shapes of the steered wheels 14 on the measurement image and the steered wheels 14 on the reference image match based on the calculated degree of coincidence (correlation degree).
  • the determination as to whether or not the shapes match is, for example, determined that the shapes match when the degree of correlation, which is the degree of matching, is equal to or greater than a predetermined threshold th 4 .
  • the calculation unit 24 determines that the shapes of the steered wheels 14 match, the deviation (detection deviation) between the steering rudder angle ⁇ m detected by the rudder angle sensor and the actual steering angle ⁇ t of the steering is calculated by the following formula. ) Calculate ⁇ .
  • ⁇ m ⁇ 0 (2)
  • ⁇ m a steering angle detected by the steering angle sensor when the measurement image used for calculating the degree of coincidence is captured
  • ⁇ 0 is a reference steering angle.
  • the calculation unit 24 stores the detection deviation ⁇ in the correction device storage unit 22 as a correction value ⁇ a.
  • the side camera imaging unit 17 captures a peripheral image (measurement image) of the moving body 10 including the steered wheels 14 (step S200).
  • the steering angle determination unit 18 acquires the steering angle ⁇ m detected by the steering angle sensor simultaneously with the imaging of the measurement image in step S200 via the in-vehicle network 100 (step S201).
  • the acquisition unit 21 acquires associates the steering angle theta m of measure images and step S201 in step S200 (step S202).
  • the extraction unit 23 performs edge detection on the measurement image in step S202 and the reference image stored in advance in the correction device storage unit 22 (step S203). In addition, when the side surface of the steered wheel 14 is not included in the measurement image, the extraction unit 23 uses the measurement image captured by the side camera 11 on the opposite side of the moving body 10.
  • the extraction unit 23 performs ellipse detection on the measurement image and the reference image that have been subjected to edge detection in step S203 (step S204).
  • the calculation unit 24 calculates the degree of coincidence between the steering wheel 14 on the measurement image and the steering wheel 14 on the reference image (step S205). For example, the calculation unit 24 calculates the correlation degree of image matching as the coincidence degree.
  • the calculation unit 24 determines whether or not the shapes of the steered wheels 14 on the measurement image and the steered wheels 14 on the reference image match (step S206). For example, the computing unit 24 determines that the shapes match when the degree of correlation, which is the degree of coincidence, is equal to or greater than a predetermined threshold th 4 . When it is determined that the shapes match (step S206—Yes), the process proceeds to step S207. On the other hand, when it is determined that the shapes do not match (step S206—No), the process returns to step S200.
  • step S206 when determining the shape match (step S206-Yes), the arithmetic unit 24, the detected shift ⁇ that is calculated by subtracting the reference steering angle theta 0 from the steering angle theta m in step S202 It is determined whether or not the absolute value is greater than or equal to a predetermined threshold th 3 (step S207).
  • the absolute value of the detection deviation ⁇ is greater than or equal to the threshold th 3 (step S207—Yes)
  • the process proceeds to step S208.
  • step S207—No when the absolute value of the detection deviation ⁇ is less than the threshold th 3 (step S207—No), the process is terminated.
  • step S207 when the absolute value of the detected deviation ⁇ is the threshold value th 3 or more (step S207-Yes), the arithmetic unit 24 stores the correction device storing unit 22 detects deviation ⁇ as a correction value theta a (step S208 ).
  • the steering angle correction system of the present modification each time the measurement image and the steering steering angle ⁇ m detected by the steering angle sensor are acquired in association with each other, the images on both images are calculated based on the calculated degree of coincidence. It is determined whether or not the shapes of the steered wheels 14 match. Then, when determining the shape match, the correction value is calculated theta a. For this reason, unlike the first embodiment, there is no need to store data in which the steering rudder angle ⁇ m detected by the rudder angle sensor is associated with the degree of coincidence in the correction device storage unit 22, and the data capacity to be stored is reduced. it can.
  • each component in the steering angle correction system can be divided and rearranged.
  • the steering angle correction system may further include a navigation device that supports the driver, and the navigation device may include the calculation unit 24 of the steering angle correction device 20 and the image superimposing unit 28 of the rear camera 12.
  • the correction device storage unit 22 stores a reference image in advance.
  • a reference image obtained by performing edge detection and ellipse detection on the reference image may be stored in advance.
  • the extraction unit 23 does not need to perform edge detection and ellipse detection on the reference image, and can reduce the processing load.
  • the steering angle correction device 20 stores the calculated correction value ⁇ a in the correction device storage unit 22, but transmits the correction value ⁇ a to the steering steering angle sensor, and the steering steering angle sensor.
  • the output value may be corrected.
  • the image superimposing unit 28 does not need to correct the steering angle obtained through the in-vehicle network 100, and thus the processing burden can be reduced.
  • the image superimposing unit 28 superimposes the index 30 on the captured image of the rear camera 12.
  • the image superimposing unit 28 superimposes the index 30 on the captured image of the front camera that captures the peripheral image in front of the moving body 10. May be.
  • the distance between two points on the parameter space based on the degree of correlation by image matching or the elliptic parameter is used as the degree of coincidence, but the steering wheel 14 on the measurement image and the steering wheel 14 on the reference image Any index can be adopted as long as it indicates the degree of coincidence of the shapes.
  • the side camera control unit 19 causes the side camera imaging unit 17 to periodically generate measurement images.
  • measurement is performed under predetermined conditions.
  • An image may be generated.
  • data at a wide range of steering angles can be used to calculate the probability distribution of the degree of coincidence, and the accuracy of calculating the correction value ⁇ a is improved by improving the accuracy of calculating the probability distribution of the degree of coincidence. it can.
  • the correction device storage unit 22 may store in advance the ellipse parameters detected from the reference image. In this case, the correction device storage unit 22 does not need to store the reference image, and can reduce the data capacity to be stored.
  • FIG. 10 is a schematic diagram showing the arrangement of the components of the steering angle correction system B according to the third embodiment on the moving body 10.
  • the moving body 10 is a vehicle, for example.
  • the two side cameras 111 of the steering angle correction system B are, for example, 45 ° from the center of the side surface of the steering wheel 115 toward the rear of the moving body 10 as viewed from the side of the moving body 10 with respect to the vertically upward direction (FIG. 10B). (Refer to FIG. 10C).
  • the mobile body 10 is disposed at a position that is 15 ° toward the left and right outer sides of the mobile body 10 when viewed from the rear.
  • the two side cameras 111 are respectively disposed on the left and right side mirrors 116, for example.
  • the left and right side cameras 111 can respectively image a peripheral area of the moving body 10 including one of the left and right steering wheels 115 of the moving body 10.
  • the rear camera 112 of the steering angle correction system B is arranged so as to be able to image the rear peripheral region of the moving body 10.
  • the steering angle correction device 113 of the steering angle correction system B is disposed at an arbitrary position of the moving body 10.
  • the display unit 114 of the steering angle correction system B is disposed at a position where it can be viewed from the driver's seat, and displays images output from the side camera 111 and the rear camera 112.
  • the steering angle correction system B includes a side camera 111, a rear camera 112, a steering angle correction device 113, and a display unit 114.
  • the side camera 111 includes an optical system 117, a side camera imaging unit (first imaging unit) 118, a steering angle determination unit 119, and a side camera control unit 120.
  • the optical system 117 includes a plurality of lenses and forms a subject image.
  • the side camera imaging unit 118 is, for example, a CMOS image sensor, and generates an image obtained by imaging a subject image formed by the optical system 117.
  • the left and right side cameras 111 are arranged so as to be able to image the peripheral area of the moving body 10 including one of the left and right steering wheels 115, and the generated images have various steering wheel steering angles.
  • An image of the steered wheel 115 that is ⁇ R may be included.
  • the steered wheel steering angle ⁇ R is a turning angle of the steered wheel 115 with the rudder angle neutral point in the steerable range of the steered wheel 115 being 0 °.
  • the steering wheel steering angle ⁇ R is increased by the rightward rotation of the steering.
  • the steered wheel steering angle ⁇ R becomes a positive value when the steering wheel rotates in the right direction from the steering angle neutral point, and becomes a negative value when the steering wheel rotates in the left direction from the steering angle neutral point.
  • the shape of the steered wheel 115 on the image varies depending on the steered wheel steering angle ⁇ R.
  • the shape of the steered wheel 115 on the image generated by the left side camera 111 varies depending on the steered wheel steering angle ⁇ R.
  • 13 shows examples of images generated by the right side camera 111 at different steering wheel steering angles ⁇ R
  • the steering angle determination unit 119 obtains the steering angle ⁇ m detected by the steering angle sensor during imaging by the side camera imaging unit 118 via the in-vehicle network 100 such as CAN, for example.
  • the steering angle ⁇ m is a steering angle where the steering angle neutral point in the steerable range of the steering is 0 °.
  • the steering angle ⁇ m detected by the steering angle sensor is increased by the clockwise rotation of the steering.
  • the steering angle ⁇ m and the steering wheel angle ⁇ R detected by the steering angle sensor have a one-to-one correspondence.
  • the side camera control unit 120 controls the operation of each part of the side camera 111.
  • the side camera control unit 120 causes each side camera imaging unit 118 of the left and right side cameras 111 to generate a set of images obtained by imaging the left and right steering wheels 115 at 30 fps periodically. Further, the side camera control unit 120 transmits and receives information via the in-vehicle network 100.
  • the rear camera 112 includes an optical system 121, a rear camera imaging unit (second imaging unit) 122, a rear camera storage unit 123, an image superimposing unit 124, and a rear camera control unit 125.
  • the optical system 121 includes a plurality of lenses and forms a subject image.
  • the rear camera imaging unit 122 images (generates) a peripheral image formed by the optical system 121 in the same manner as the side camera imaging unit 118.
  • Rear camera storage section 123 stores the correction values theta a to obtain the steering angle correction device 113. It will be described in detail later correction value theta a.
  • the image superimposing unit 124 acquires the steering angle ⁇ m detected by the steering angle sensor via the in-vehicle network 100. Further, the image superimposing unit 124 superimposes an index for driving assistance on a predetermined position on the peripheral image captured by the rear camera imaging unit 122 using the steering angle ⁇ m detected by the steering angle sensor. Preferably, the image superimposing unit 124 uses the steering angle ⁇ m detected by the steering angle sensor corrected by the correction value ⁇ a stored in the rear camera storage unit 123 to superimpose an indicator for driving assistance.
  • the indicator 30 for driving support is, for example, a vehicle width extension line 31 and a distance guide line 32 as shown in FIG.
  • the vehicle width extension line 31 is a trajectory passing through both ends of the moving body 10 during reverse travel, and the shape and the display position differ depending on the steering angle of the steering.
  • the distance reference line 32 indicates a predetermined distance from the current moving body 10, for example, a distance of 1 m and 3 m. The driver can recognize the predicted traveling direction when the mobile object 10 moves backward by the index 30.
  • the rear camera control unit 125 controls the operation of each part of the rear camera 112.
  • the rear camera control unit 125 is stored in the rear camera storage unit 123 receives the correction value theta a from the steering angle correction device 113.
  • the rear camera control unit 125 transmits and receives information via the in-vehicle network 100.
  • the steering angle correction device 113 calculates a correction value ⁇ a for correcting the steering angle ⁇ m detected by the steering angle sensor so as to coincide with the actual steering angle ⁇ t of the steering. It will be described in detail later calculation of the correction value theta a.
  • the steering angle correction device 113 includes an acquisition unit 126, a correction device storage unit 127, an extraction unit 128, and a calculation unit 129.
  • the acquisition unit 126 for example, a set of images obtained by simultaneously imaging the left and right steering wheels 115 from the left and right side cameras 111 via the in-vehicle network 100, and the steering rudder angle ⁇ m detected by the rudder angle sensor at the time of image capturing. Acquired in association.
  • the correction device storage unit 127 stores the degree of symmetry of the left and right steering wheels 115 on the set of images calculated by the calculation unit 129 in association with the steering angle ⁇ m detected by the steering angle sensor at the time of image capturing. Details of the degree of symmetry will be described later. In addition, the correction device storage unit 127 stores the correction value ⁇ a calculated by the calculation unit 129.
  • the extraction unit 128 extracts the steering wheel 115 on the set of images acquired by the acquisition unit 126.
  • the extraction unit 128 extracts the steering wheel 115 on the image by edge detection and ellipse detection (approximation).
  • edge detection for example, an edge part on an image is detected using a canny filter.
  • ellipse detection for example, an elliptical shape approximating the steered wheel 115 and an elliptical parameter thereof are calculated using Hough transform.
  • the ellipse parameters are the center coordinates (x, y) of the ellipse, the length a of the long side, the length b of the short side, and the inclination ⁇ formed by the horizontal axis on the image and the long axis of the ellipse.
  • the extraction unit 128 extracts the steering wheel 115 on the image in a predetermined region on the image where the steering wheel 115 can be included.
  • the predetermined area on the image in which the steered wheels 115 can be included may be determined in advance in consideration of, for example, variations in the mounting angle of the side camera 111, or may be automatically determined by the extraction unit 128 by any method. .
  • the wheel portion of the steered wheel 115 has a shape with a portion of the ellipse missing (see FIGS. 12B-12D), but the ellipse that fits the wheel portion of the steered wheel 115 by detecting the ellipse. Is detected (see FIGS. 14B-14D).
  • the shape of the detected ellipse differs depending on the steering wheel steering angle ⁇ R at the time of imaging. Specifically, in the detected ellipse, when the steering wheel steering angle ⁇ R increases from 0 °, the inclination ⁇ formed by the horizontal axis on the image and the long axis of the ellipse decreases, and the length b of the short side increases. To do. On the other hand, even if the steered wheel steering angle ⁇ R is increased, changes in other elliptical parameters, that is, the center coordinates (x, y) and the long side length a are relatively small (see FIG. 14).
  • the ellipse detected for the images generated by the left side camera 111 at different steering wheel steering angles ⁇ R is similar to the horizontal axis on the image and the major axis of the ellipse when the steering wheel steering angle ⁇ R decreases from 0 °. Is reduced, and the length b of the short side is increased.
  • the computing unit 129 calculates the symmetry degree of the left and right steered wheels 115 on a set of images.
  • the degree of symmetry is an index indicating the degree of left-right symmetry of the shape of the left and right steering wheels 115 on a set of images.
  • the degree of symmetry is the degree of correlation of image matching.
  • the calculation unit 129 performs image matching by horizontally inverting one of the set of ellipse images detected by the extraction unit 128, and calculates the degree of correlation of image matching as the degree of symmetry.
  • the calculation unit 129 associates the calculated degree of symmetry (correlation degree) with the steering angle ⁇ m detected by the steering angle sensor when the set of images used for calculating the degree of symmetry is captured, It is stored in the correction device storage unit 127.
  • the calculation unit 129 calculates a probability distribution of symmetry (correlation degree) with respect to the steering angle ⁇ m detected by the steering angle sensor based on a plurality of data stored in the correction device storage unit 127 (FIG. 5). reference). Any probability distribution model can be used for the probability distribution.
  • the calculation unit 129 calculates the steering angle ⁇ p at the peak position of the calculated probability distribution. Preferably, the calculation unit 129 calculates the steering angle ⁇ p at the peak position of the probability distribution when data sufficient to calculate the probability distribution is accumulated.
  • the calculation unit 129 determines the peak position of the probability distribution when the number of accumulated data is equal to or greater than the predetermined threshold th 1 and the calculated probability distribution variance ⁇ 2 is less than the predetermined threshold th 2. it may be configured to calculate the steering angle theta p in.
  • the steering angle ⁇ p at the peak position of the probability distribution calculated by the calculation unit 129 is estimated as the steering angle ⁇ m detected by the steering angle sensor when the actual steering angle ⁇ t of the steering is 0 °. Is done.
  • a deviation hereinafter referred to as detection deviation
  • the actual steering angle ⁇ t of the steering is 0 °.
  • the steering angle ⁇ m detected by the rudder angle sensor is equal to the detection deviation of the rudder angle sensor.
  • the computing unit 129 determines the steering angle ⁇ p at the peak position of the probability distribution as the detection deviation ⁇ of the steering angle sensor.
  • the arithmetic unit 129 detects a deviation between the steering angle ⁇ m detected by the steering angle sensor and the actual steering angle ⁇ t of the steering. big time, is stored in the correction device storage unit 127 detects deviation ⁇ as a correction value theta a.
  • the arithmetic unit 129 when the correcting device storage section 127 already stores the correction value theta a is the absolute value of a value obtained by subtracting the correction value theta a from detecting deviation ⁇ predetermined threshold th 3 or more At some time, the detection deviation ⁇ is updated as a new correction value ⁇ a and is stored in the correction device storage unit 127.
  • the calculation unit 129 transmits the correction value ⁇ a to other components via the in-vehicle network 100.
  • correction value calculation processing executed by the steering angle correction system B according to the third embodiment will be described with reference to the flowchart of FIG. This process is executed, for example, when the moving body 10 starts traveling.
  • the side camera imaging unit 118 of the left and right side cameras 111 generates a set of images obtained by simultaneously imaging the peripheral area of the moving body 10 including one of the left and right steering wheels 115 (step S300).
  • the rudder angle determination unit 119 acquires the steering rudder angle ⁇ m detected by the rudder angle sensor simultaneously with the capturing of a set of images in step S300 via the in-vehicle network 100 (step S301).
  • the acquisition unit 126 of the steering angle correction device 113 acquires the set of images in step S300 and the steering angle ⁇ m detected by the steering angle sensor in step S301 in association with each other via the in-vehicle network 100, for example. (Step S302).
  • the extraction unit 128 performs edge detection on the set of images in step S302 (step S303).
  • the extraction unit 128 performs ellipse detection on the set of images subjected to edge detection in step S303 (step S304).
  • the computing unit 129 calculates the degree of symmetry of the left and right steered wheels 115 on the set of images in step S302 (step S305). For example, the computing unit 129 performs image matching by horizontally inverting one of the set of images subjected to ellipse detection in step S304, and calculates the degree of correlation of image matching as the degree of symmetry.
  • the calculation unit 129 stores data in which the degree of symmetry calculated in step S305 and the steering angle ⁇ m detected by the steering angle sensor acquired in step S302 are associated with each other in the correction device storage unit 127 ( Step S306).
  • the calculation unit 129 calculates a probability distribution of symmetry (correlation degree) with respect to the steering angle ⁇ m detected by the steering angle sensor based on the data stored in the correction device storage unit 127 in step S306 ( Step S307).
  • the computing unit 129 determines whether or not sufficient data has been accumulated to calculate the probability distribution (step S308). For example, the calculation unit 129 has the number of data stored in the correction device storage unit 127 equal to or greater than a predetermined threshold th 1 and the variance ⁇ 2 of the probability distribution calculated in step S307 is less than the predetermined threshold th 2 When it is, it is determined that sufficient data has been accumulated. When sufficient data has been accumulated (step S308—Yes), the process proceeds to step S309. On the other hand, when sufficient data is not accumulated (step S308-No), the process returns to step S300 to repeat the process and accumulate data.
  • step S308 When sufficient data is accumulated in step S308 (step S308-Yes), the computing unit 129 calculates the steering angle ⁇ p at the peak position of the probability distribution calculated in step S307 (step S309).
  • the calculation unit 129 determines the steering angle ⁇ p at the peak position of the probability distribution calculated in step S309 as the detection deviation ⁇ . Further, the computing unit 129 determines whether or not the absolute value of the detection deviation ⁇ is greater than or equal to a predetermined threshold th 3 (step S310). When the absolute value of the detection deviation ⁇ is greater than or equal to the threshold th 3 (step S310—Yes), the process proceeds to step S311. On the other hand, when the absolute value of the detection deviation ⁇ is less than the threshold th 3 (step S310—No), the process is terminated.
  • step S310 the the absolute value of the detected deviation ⁇ is the threshold value th 3 or more (step S310-Yes), the arithmetic unit 129 is stored in the correction device storage unit 127 detects deviation ⁇ as a correction value theta a (step S311 ).
  • the correction value ⁇ a is calculated based on the symmetry of a set of images obtained by simultaneously imaging the left and right steering wheels 115. For this reason, for example, the steering rudder angle ⁇ m detected by the rudder angle sensor during traveling of the moving body 10 can be automatically corrected, and the complexity of the operation by the operator can be reduced. Further, for example, information in the initial state before the measurement deviation ⁇ occurs in the rudder angle sensor, such as the initial state, is not required.
  • the correction value ⁇ a is calculated based on the probability distribution of the symmetry with respect to the steering angle ⁇ m detected by the steering angle sensor,
  • the steering angle ⁇ m detected by the steering angle sensor when the angle ⁇ t is 0 ° can be accurately estimated, and the calculation accuracy of the correction value ⁇ a can be improved. Further, it is possible to reduce the influence of the measurement error of the steering angle ⁇ m detected by the steering angle sensor and improve the calculation accuracy of the correction value ⁇ a .
  • the steering angle correction system of the third embodiment when sufficient data is calculated to calculate the probability distribution of the symmetry with respect to the steering angle ⁇ m detected by the steering angle sensor, the probability distribution The steering angle ⁇ p at the peak position is calculated, and the correction value ⁇ a is calculated using ⁇ p .
  • the probability distribution The steering angle ⁇ p at the peak position is calculated, and the correction value ⁇ a is calculated using ⁇ p .
  • the absolute value of the deviation (detection deviation) ⁇ between the steering angle ⁇ m detected by the steering angle sensor and the actual steering angle ⁇ t of the steering is When it is equal to or greater than the threshold th 3 , the detection deviation ⁇ is stored as a correction value ⁇ a. Therefore, to suppress the calculation and update of the correction value theta a by slight shift caused by the influence of the measurement error of the steering angle theta m which the steering angle sensor detects, it can improve the calculation accuracy of the correction value theta a.
  • edge detection is performed on a set of images, so that, for example, due to changes in the environment such as weather and outside brightness while the mobile body 10 is traveling.
  • the influence on the measurement image can be reduced, and the calculation accuracy of the correlation degree by image matching can be improved.
  • the rudder angle correction apparatus 113 includes an acquisition unit 126, a correction device storage unit 127, an extraction unit 128, and a calculation unit 129, as in the third embodiment. Since the acquisition unit 126 and the correction device storage unit 127 are the same as those in the third embodiment, description thereof is omitted.
  • the extraction unit 128 extracts the steered wheels 115 on a set of images and calculates the ellipse parameters, as in the third embodiment.
  • the extraction unit 128 according to the fourth embodiment inverts one side of the set of images, extracts the steered wheels 115 on both images, and calculates the ellipse parameters.
  • the calculation unit 129 calculates the degree of symmetry of the left and right steering wheels 115 on a set of images, as in the third embodiment.
  • the computing unit 129 according to the fourth embodiment calculates the degree of symmetry using the ellipse parameter calculated by the extracting unit 128 through ellipse detection. Specifically, the calculation unit 129 calculates a point ⁇ on the five-dimensional parameter space determined by the elliptic parameter of the steered wheels 115 detected from one of the images reversed left and right by the extraction unit 128. Similarly, the calculation unit 129 calculates a point ⁇ on the five-dimensional parameter space determined by the elliptic parameter of the steering wheel 115 detected from the other image.
  • the calculation unit 129 calculates the distance d on the parameter space calculated using the ellipse parameter as the degree of symmetry. At this time, generally, the smaller the value of the distance d, the higher the symmetry.
  • the calculation unit 129 calculates the degree of symmetry using a value obtained by weighting a plurality of ellipse parameters.
  • the detected ellipse has a different shape depending on the steering wheel steering angle ⁇ R (see FIG. 14).
  • the change amount of the ellipse inclination ⁇ and the short side length b is large with respect to the change of the steered wheel steering angle ⁇ R
  • the other ellipse parameters that is, the center coordinates and the long side length are small.
  • the inclination ⁇ of the ellipse and the length b of the short side are highly sensitive to changes in the steering wheel steering angle ⁇ R.
  • At least one of the inclination ⁇ and the short side length b among the ellipse parameters is weighted more than the other parameters, that is, the coordinates (x, y) and the long side length a, and points on the parameter space a and b are determined, and the distance d between the two points is calculated as the symmetry.
  • the calculation unit 129 calculates a probability distribution of symmetry (distance d), and calculates the correction value ⁇ a based on the steering angle ⁇ p at the peak position of the calculated probability distribution. calculate.
  • distance d the distance between the ellipse parameter and the degree of symmetry.
  • the distance d on the parameter space calculated based on the ellipse parameters detected by inverting one of the images in the left-right direction is set as one set. Is calculated as the degree of symmetry of the left and right steering wheels 115 on the image. For this reason, the processing load can be reduced as compared with the third embodiment in which the degree of symmetry is calculated by image matching. Also, by calculating the degree of symmetry by placing a large weight on the elliptical parameter that is highly sensitive to changes in the steering wheel steering angle ⁇ R among the plurality of elliptical parameters, the accuracy of calculating the degree of symmetry is improved, and the correction value It can be improved calculation accuracy of theta a.
  • the rudder angle correction device 113 includes an acquisition unit 126, a correction device storage unit 127, an extraction unit 128, and a calculation unit 129, as in the third embodiment. Since the acquisition unit 126 and the extraction unit 128 are the same as those in the third embodiment, description thereof is omitted.
  • the correction device storage unit 127 stores the correction value ⁇ a calculated by the calculation unit 129.
  • the calculation unit 129 calculates the degree of symmetry of the left and right steering wheels 115 on a set of images, as in the third embodiment.
  • any one of the correlation degree by image matching or the distance d between two points on the ellipse parameter space may be adopted as the symmetry degree.
  • the degree of correlation by image matching between an image obtained by horizontally inverting one of a set of images and the other image is calculated and adopted as the degree of symmetry.
  • the calculation unit 129 determines whether the shape of the left and right steering wheels 115 on the set of images is left-right symmetric. For example, when the correlation degree, which is the degree of symmetry, is greater than or equal to a predetermined threshold th 4 , the shape is determined to be bilaterally symmetric.
  • the rudder angle sensor detects the steering rudder angle ⁇ m detected by the rudder angle sensor when capturing a set of images used to calculate the degree of symmetry.
  • the arithmetic unit 129 similarly to the third embodiment, when the absolute value of the determined detection deviation ⁇ is the predetermined threshold th 3 or more, the correction device storage unit 127 detects deviation ⁇ as a correction value theta a Remember.
  • the side camera imaging unit 118 of the left and right side cameras 111 generates a set of images obtained by simultaneously imaging the peripheral area of the moving body 10 including one of the left and right steering wheels 115 (step S400).
  • the rudder angle determination unit 119 acquires the steering rudder angle ⁇ m detected by the rudder angle sensor simultaneously with the capturing of a set of images in step S400 via the in-vehicle network 100 (step S401).
  • the acquisition unit 126 of the steering angle correction device 113 acquires the set of images in step S400 and the steering angle ⁇ m detected by the steering angle sensor in step S401 in association with each other via the in-vehicle network 100, for example. (Step S402).
  • the extraction unit 128 performs edge detection on the set of images in step S402 (step S403).
  • the extraction unit 128 performs ellipse detection on the set of images subjected to edge detection in step S403 (step S404).
  • the computing unit 129 calculates the degree of symmetry of the left and right steered wheels 115 on the set of images in step S402 (step S405).
  • the calculation unit 129 performs image matching by horizontally inverting one of the set of images subjected to ellipse detection in step S404, and calculates the degree of correlation of image matching as the degree of symmetry.
  • the calculation unit 129 determines whether or not the shapes of the left and right steering wheels 115 on the set of images in step S402 are bilaterally symmetric (step S406). For example, the calculation unit 129 determines that the shape is bilaterally symmetric when the degree of correlation, which is the degree of symmetry, is equal to or greater than a predetermined threshold th 4 . When it is determined that the shape is symmetrical (step S406—Yes), the process proceeds to step S407. On the other hand, when it is determined that the shape is not symmetric (step S406—No), the process returns to step S400.
  • step S406 when the shape is determined to symmetric (step S406-Yes), the arithmetic unit 129 determines the steering angle theta m which the steering angle sensor has detected in step S402 as detected shift [Delta] [theta], the detected shift [Delta] [theta] It is determined whether or not the absolute value is greater than or equal to a predetermined threshold th 3 (step S407).
  • the absolute value of the detection deviation ⁇ is equal to or greater than the threshold th 3 (step S407—Yes) the process proceeds to step S408.
  • step S407—No when the absolute value of the detection deviation ⁇ is less than the threshold th 3 (step S407—No), the process is terminated.
  • step S407 when the absolute value of the detected deviation ⁇ is the threshold value th 3 or more (step S407-Yes), the arithmetic unit 129 is stored in the correction device storage unit 127 detects deviation ⁇ as a correction value theta a (step S408 ).
  • each image is obtained based on the degree of symmetry calculated each time a set of images and the steering steering angle ⁇ m detected by the steering angle sensor are acquired in association with each other. It is determined whether the shape of the upper left and right steering wheels 115 is symmetrical. When the shape is determined to symmetrical calculates a correction value theta a. For this reason, unlike the third embodiment, it is not necessary to store data in which the steering angle ⁇ m detected by the steering angle sensor is associated with the degree of symmetry in the correction device storage unit 127, and the data capacity to be stored is reduced. it can.
  • each component in the steering angle correction system can be divided and rearranged.
  • the steering angle correction device 113 may be included in the imaging device.
  • the steering angle correction system may further include a navigation device that supports the driver, and the navigation device may include a calculation unit 129 of the steering angle correction device 113 and an image superimposing unit 124 of the rear camera 112. .
  • the acquisition unit 126 of the rudder angle correction device 113 acquires the image of the side camera 111 via the in-vehicle network 100, but may be configured to acquire it via a dedicated line.
  • a configuration may be provided in which it is determined whether the ellipse detected by the extraction unit 128 has correctly extracted the steering wheel 115. For example, it is conceivable to determine whether or not the steered wheels 115 are extracted using the color information of the image before performing edge detection within the detected ellipse on the image. In this way, the accuracy of calculating the correction value ⁇ a can be improved by improving the accuracy of calculating the degree of symmetry by improving the accuracy of extracting the steering wheel 115 on the image.
  • the rudder angle correction device 113 stores the calculated correction value ⁇ a in the correction device storage unit 127, but transmits the correction value ⁇ a to the steering rudder angle sensor and the steering rudder angle sensor. You may comprise so that an output value may be correct
  • the image superimposing unit 124 superimposes the index 30 on the captured image of the rear camera 112.
  • the image superimposing unit 124 may superimpose the index 30 on the captured image of the front camera that captures the peripheral image in front of the moving body 10. It may be configured.
  • the distance between two points on the parameter space based on the degree of correlation by image matching or the ellipse parameter is used as the degree of symmetry.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 操作の煩雑さを低減して舵角を補正する。 舵角補正方法は、操舵輪(14)を撮像した測定画像と測定画像の撮像時における移動体(10)のステアリング舵角とを対応付けて取得するステップと、測定画像上の操舵輪(14)と基準舵角において操舵輪(14)を撮像した基準画像上の操舵輪(14)との一致度を算出するステップと、一致度に基づいて前記ステアリング舵角を補正する補正値を算出するステップとを含む。

Description

舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム 関連出願へのクロスリファレンス
 本出願は、日本国特許出願2013-177189号(2013年8月28日出願)及び日本国特許出願2013-200569号(2013年9月26日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取込む。
 本発明は、移動体のステアリングの舵角を補正する舵角補正方法、舵角補正装置、撮像装置、および舵角補正システムに関する。
 従来、自動車等の移動体に車載カメラを設置して、撮像した移動体の周辺画像に運転を支援するための指標となる画像を重畳して表示する技術が知られている。このような指標を周辺画像に重畳するために、舵角センサ等により検出されるステアリング舵角が用いられる。検出されるステアリング舵角は、経年使用やステアリング交換等により実際の舵角とずれが生じる場合があるため、ステアリング舵角の中立点補正が行われる(例えば、特許文献1)。
特許第4323402号明細書
 しかしながら、従来技術では、ステアリング舵角を補正するためにステアリングを最大舵角又は最小舵角に正確に操作する必要がある。このように、ステアリング舵角の中立点補正には特別な工程が必要であり、操作が煩雑となっていた。
 かかる事情に鑑みてなされた本発明の目的は、操作の煩雑さを低減して舵角を補正可能な舵角補正方法、舵角補正装置、撮像装置、および舵角補正システムを提供することにある。
 上記課題を解決するために本発明に係る舵角補正方法は、
 操舵輪を撮像した測定画像と、前記測定画像の撮像時における移動体のステアリング舵角と、を対応付けて取得するステップと、
 前記測定画像上の前記操舵輪と、基準舵角において前記操舵輪を撮像した基準画像上の前記操舵輪と、の一致度を算出するステップと、
 前記一致度に基づいて前記ステアリング舵角を補正する補正値を算出するステップとを含むことを特徴とする。
 また、本発明に係る舵角補正方法は、
 異なるステアリング舵角において複数の前記測定画像を取得するステップを含み、
 前記補正値を算出するステップでは、ステアリング舵角に対する前記一致度の分布に基づいて前記補正値を算出することが好ましい。
 また、本発明に係る舵角補正方法は、
 少なくとも前記測定画像上の前記操舵輪を楕円検出により抽出するステップを含み、
 前記一致度を算出するステップでは、検出する楕円のパラメータを用いて前記一致度を算出することが好ましい。
 また、本発明に係る舵角補正方法は、
 前記一致度を算出するステップでは、楕円の短辺および傾きの少なくとも一方を示すパラメータに対して、他のパラメータよりも大きな重付けを施して前記一致度を算出することが好ましい。
 また、本発明に係る舵角補正方法は、
 前記一致度を算出するステップでは、前記測定画像および前記基準画像に基づく画像マッチングによる相関度を前記一致度として算出することが好ましい。
 また、本発明に係る舵角補正方法は、
 左右の操舵輪を同時にそれぞれ撮像した一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得するステップと、
 前記一組の画像上の前記左右の操舵輪の対称度を算出するステップと、
 前記対称度に基づいて前記ステアリング舵角を補正する補正値を算出するステップとを含む
 ことを特徴とする。
 また、本発明に係る舵角補正方法は、
 異なるステアリング舵角において前記一組の画像を取得するステップを含み、
 前記補正値を算出するステップでは、ステアリング舵角に対する前記対称度の分布に基づいて前記補正値を算出する
 ことが好ましい。
 また、本発明に係る舵角補正方法は、
 前記一組の画像上の前記左右の操舵輪を楕円検出により抽出するステップを含み、
 前記対称度を算出するステップでは、検出する楕円のパラメータを用いて前記対称度を算出する
 ことが好ましい。
 また、本発明に係る舵角補正方法は、
 前記対称度を算出するステップでは、楕円の短辺および傾きの少なくとも一方を示すパラメータに対して、他のパラメータよりも大きな重付けを施して前記対称度を算出する
 ことが好ましい。
 また、本発明に係る舵角補正方法は、
 前記対称度を算出するステップでは、前記一組の画像に基づく画像マッチングによる相関度を用いて前記対称度を算出する
 ことが好ましい。
 また、本発明に係る舵角補正装置は、
 操舵輪を撮像した測定画像と撮像時における移動体のステアリング舵角とを対応付けて取得する取得部と、
 前記測定画像上の前記操舵輪と、基準舵角において前記操舵輪を撮像した基準画像上の前記操舵輪と、の一致度に基づいて前記舵角を補正する補正値を算出する演算部とを備えることを特徴とする。
 また、本発明に係る撮像装置は、
 操舵輪を撮像した測定画像と撮像時における移動体のステアリング舵角とを対応付けて取得する取得部と、前記測定画像上の前記操舵輪と、基準舵角において前記操舵輪を撮像した基準画像上の前記操舵輪と、の一致度に基づいて前記舵角を補正する補正値を算出する演算部とを備える舵角補正装置と、
 前記測定画像を生成する第1の撮像部と、
 前記移動体の周辺画像を生成する第2の撮像部と、
 前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部とを備えることを特徴とする。
また、本発明に係る舵角補正システムは、
 操舵輪を撮像した測定画像を生成する第1の撮像部と、
 前記測定画像と撮像時における移動体のステアリング舵角とを対応付けて取得する取得部と、
 前記測定画像上の前記操舵輪と、基準舵角において前記操舵輪を撮像した基準画像上の前記操舵輪と、の一致度に基づいて前記舵角を補正する補正値を算出する演算部と、
 前記移動体の周辺画像を生成する第2の撮像部と、
 前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部と、
 前記指標を重畳した周辺画像を表示する表示部とを備えることを特徴とする。
 また、本発明に係る舵角補正装置は、
 左右の操舵輪を同時にそれぞれ撮像した一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得する取得部と、
 前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部とを備える
 ことを特徴とする。
 また、本発明に係る撮像装置は、
 左右の操舵輪を同時にそれぞれ撮像した一組の画像および前記一組の画像の撮像時における移動体のステアリング舵角を対応付けて取得する取得部と、前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部とを備える舵角補正装置と、
 前記一組の画像を生成する第1の撮像部と、
 前記移動体の周辺画像を生成する第2の撮像部と、
 前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部とを備える
 ことを特徴とする。
 また、本発明に係る舵角補正システムは、
 左右の操舵輪を同時にそれぞれ撮像した一組の画像を生成する第1の撮像部と、
 前記一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得する取得部と、
 前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部と、
 前記移動体の周辺画像を生成する第2の撮像部と、
 前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部と、
 前記指標を重畳した周辺画像を表示する表示部とを備える
 ことを特徴とする。
 本発明に係る舵角補正方法、舵角補正装置、撮像装置、および舵角補正システムによれば、操作の煩雑さを低減して舵角を補正可能となる。
本発明の第1の実施形態に係る舵角補正システムの構成要素の配置を示す概略図である。 本発明の第1の実施形態に係る舵角補正システムの概略構成を示す機能ブロック図である。 図1のサイドカメラの撮像画像の例を示す図である。 図3のサイドカメラの撮像画像に対し楕円検出を施した例を示す図である。 本発明の第1の実施形態に係る一致度の確率分布又は第3の実施形態に係る対称度の確率分布を示す図である。 図1の表示部に表示される画像の例を示す図である。 本発明の第1の実施形態に係る舵角補正システムの動作を説明するフローチャートである。 本発明の第2の実施形態に係る一致度の確率分布又は第4の実施形態に係る対称度の確率分布を示す図である。 本発明の第1及び第2の実施形態の変形例による舵角補正システムの動作を説明するフローチャートである。 本発明の第3の実施形態に係る舵角補正システムの構成要素の配置を示す概略図である。 本発明の第3の実施形態に係る舵角補正システムの概略構成を示す機能ブロック図である。 図10の右サイドカメラの撮像画像の例を示す図である。 図10の左サイドカメラの撮像画像の例を示す図である。 図12のサイドカメラの撮像画像に対し楕円検出を施した例を示す図である。 本発明の第3の実施形態に係る舵角補正システムの動作を説明するフローチャートである。 本発明の第3及び第4の実施形態の変形例による舵角補正システムの動作を説明するフローチャートである。
 以下、本発明の実施形態について、図面を参照して説明する。
(第1の実施形態)
 はじめに、本発明の第1の実施形態に係る舵角補正システムについて説明する。図1は、第1の実施形態に係る舵角補正システムAの構成要素の移動体10における配置を示す概略図である。移動体10は、例えば車両である。
 図1に示すように、舵角補正システムAは、サイドカメラ11およびリアカメラ12を含む撮像装置と、表示部13と、を備える。サイドカメラ11は、移動体10の左右両側にそれぞれ対称に配置される。以下においては、特に言及しない限り移動体10の右側に備えられるサイドカメラ11について説明する。サイドカメラ11は、例えばドアミラー15に、移動体10の操舵輪14を含む移動体10の周辺を撮像可能となるように配置される。また、リアカメラ12は、移動体10の後方周辺を撮像可能となるように配置される。表示部13は、運転席から視認可能な位置に配置され、サイドカメラ11およびリアカメラ12が出力する画像を表示する。
 次に、サイドカメラ11の構成について説明する。図2に示すように、サイドカメラ11は、光学系16と、サイドカメラ撮像部(第1の撮像部)17と、舵角判断部18と、サイドカメラ制御部19と、舵角補正装置20と、を備える。
 光学系16は、複数のレンズを有する。光学系16は、被写体像を結像させる。
 サイドカメラ撮像部17は、例えばCMOS撮像素子であって、光学系によって結像する被写体像を撮像した画像を、測定画像として生成する。前述のように、サイドカメラ11は、操舵輪14を含む移動体10の周辺を撮像可能となるように配置される。測定画像は、多様な操舵輪舵角θRである操舵輪14の画像を含み得る。ここで、操舵輪舵角θRとは、操舵輪14の操舵可能範囲における舵角中立点を0°とする操舵輪14の切れ角である。本実施形態では、ステアリングの右方向回転により操舵輪舵角θRが増加する。
 ここで、測定画像について説明する。測定画像上の操舵輪14は、操舵輪舵角θRによって形状が異なる。図3は、異なる操舵輪舵角θRにおける測定画像の例を示し、図3AはθR=0°、図3BはθR=10°、図3CはθR=20°、図3DはθR=30°、図3EはθR=-30°である。測定画像上の操舵輪14の側面は、操舵輪14の舵角中立点(θR=0°)において楕円形状である(図3A参照)。操舵輪舵角θRが増加すると、操舵輪14の側面の一部が移動体10の影に隠れ、楕円の一部が欠けた形状となる(図3B-3D参照)。一方、操舵輪舵角θRが減少すると、ある舵角以下で操舵輪14の側面は画像上に写らなくなる(図3E参照)。
 舵角判断部18は(図2参照)、例えばCAN等の車載ネットワーク100を介して、測定画像の撮像時に舵角センサが検出するステアリング舵角θmを取得する。ステアリング舵角θmは、ステアリングの操舵可能範囲における舵角中立点を0°とするステアリングの切れ角である。本実施形態では、ステアリングの右方向回転により舵角センサが検出するステアリング舵角θmが増加する。一般に、舵角センサが検出するステアリング舵角θmおよび操舵輪舵角θRは、一対一の対応関係を有する。
 サイドカメラ制御部19は、サイドカメラ11の各部位の動作を制御する。例えば、サイドカメラ制御部19は、サイドカメラ撮像部17に周期的に測定画像を生成させる。また、サイドカメラ制御部19は、車載ネットワーク100を介して情報の送受信を行う。
 舵角補正装置20は、舵角センサが検出するステアリング舵角θmをステアリングの実際の舵角θtと一致させるように補正するための補正値を算出する。補正値の算出の詳細については後述する。舵角補正装置20は、取得部21と、補正装置記憶部22と、抽出部23と、演算部24と、を備える。
 取得部21は、サイドカメラ撮像部17および舵角判断部18から、測定画像および測定画像撮像時に舵角センサが検出したステアリング舵角θmを対応付けて取得する。
 補正装置記憶部22は、ステアリングの実際の舵角θtが基準舵角θ0である状態における操舵輪14をサイドカメラ撮像部17により撮像した画像(以下、基準画像という)を予め記憶する。以下において、基準舵角θ0は0°として説明するが、任意の舵角であってもよい。また、補正装置記憶部22は、演算部24が算出する測定画像上の操舵輪14と基準画像上の操舵輪14との一致度を、測定画像撮像時に舵角センサが検出したステアリング舵角θmと対応付けて蓄積する。また、補正装置記憶部22は、演算部24が算出する補正値θaを記憶する。一致度および補正値θaの詳細については後述する。
 抽出部23は、測定画像上の操舵輪14および基準画像上の操舵輪14をそれぞれ抽出する。例えば、抽出部23は、エッジ検出および楕円検出(近似)により画像上の操舵輪14を抽出する。エッジ検出には、例えばcannyフィルタを用いて、画像上のエッジ部分を検出する。楕円検出には、例えばHough変換を用いて、操舵輪14を近似した楕円形状およびその楕円パラメータを算出する。楕円パラメータは、楕円の中心座標(x,y)、長辺の長さa、短辺の長さb、および画像上の水平軸と楕円の長軸とがなす傾きφである。好適には、抽出部23は、操舵輪14が含まれ得る画像上の所定領域において、画像上の操舵輪14を抽出する。操舵輪14が含まれ得る画像上の所定領域は、例えばサイドカメラ11の取付け角度のばらつきを考慮して予め決定してもよく、抽出部23が任意の方法により自動的に決定してもよい。
 ここで、楕円検出により検出される楕円について説明する。図4は、異なる操舵輪舵角θRにおける測定画像について検出する楕円(図4太線)の例を示し、図4AはθR=0°、図4BはθR=10°、図4CはθR=20°、図4DはθR=30°である。また、図4は、操舵輪14のホイール部分について楕円検出を施す例を示すが、例えば操舵輪14のタイヤ部分について楕円検出を施してもよい。θRが10°以上の例では、操舵輪14のホイール部分は楕円の一部が欠けた形状であったが(図3B-3D参照)、楕円検出により操舵輪14のホイール部分に適合する楕円が検出される(図4B-4D参照)。検出される楕円は、撮像時の操舵輪舵角θRによって形状が異なる。詳細には、検出される楕円は、操舵輪舵角θRが増加すると、画像上の水平軸と楕円の長軸とがなす傾きφが減少し、短辺の長さbが増加する。一方、操舵輪舵角θRが増加しても、他の楕円パラメータ、すなわち中心座標(x,y)および長辺の長さaの変化が比較的小さい(図4参照)。
 演算部24(図2参照)は、測定画像上の操舵輪14と基準画像上の操舵輪14との一致度を算出する。一致度は、両画像上の操舵輪14の形状の一致性の度合いを示す指標である。本実施形態において、演算部24は、抽出部23により操舵輪14を抽出した測定画像および基準画像を用いて画像マッチングを行ない、画像マッチングの相関度を一致度として算出する。また、演算部24は、算出した一致度(相関度)と、一致度の算出に用いた測定画像の撮像時に舵角センサが検出したステアリング舵角θmとを対応づけたデータを、補正装置記憶部22に記憶させる。
 また、演算部24は、補正装置記憶部22に記憶させた複数のデータに基づいて、舵角センサが検出したステアリング舵角θmに対する一致度(相関度)の確率分布を算出する(図5参照)。確率分布には、任意の確率分布モデルを用いることができる。また、演算部24は、算出した確率分布のピーク位置におけるステアリング舵角θpを算出する。好適には、演算部24は、確率分布を算出するのに十分なデータが蓄積されたときに、ステアリング舵角θpを算出する。例えば、演算部24は、蓄積したデータの数が所定の閾値th1以上であって、且つ、算出した確率分布の分散σ2が所定の閾値th2未満であるときに、ステアリング舵角θpを算出するようにしてもよい。
 ここで、演算部24が算出する確率分布のピーク位置におけるステアリング舵角θpは、ステアリングの実際の舵角θtが基準舵角θ0(=0°)であるときに舵角センサが検出するステアリング舵角θmの推定値である。舵角センサが検出するステアリング舵角θmとステアリングの実際の舵角θtとの間にずれ(以下、検出ずれという)が存在する場合には、ステアリングの実際の舵角θtが0°であるときに舵角センサが検出するステアリング舵角θmは、舵角センサの検出ずれに等しい。演算部24は、以下の式により、舵角センサの検出ずれΔθを算出する。
  Δθ=θp-θ0                     (1)
 演算部24は、算出した検出ずれΔθの絶対値が所定の閾値th3以上であるとき、すなわち、舵角センサが検出するステアリング舵角θmとステアリングの実際の舵角θtとのずれが大きいとき、検出ずれΔθを補正値θaとして補正装置記憶部22に記憶する。あるいは、演算部24は、補正装置記憶部22が既に補正値θaを記憶している場合には、検出ずれΔθから補正値θaを減算した値の絶対値が所定の閾値th3以上であるとき、検出ずれΔθを新たな補正値θaとして更新し、補正装置記憶部22に記憶する。そして、演算部24は、車載ネットワーク100を介して他の構成要素に補正値θaを送信する。
 次に、リアカメラ12の構成について説明する。図2に示すように、リアカメラ12は、光学系25と、リアカメラ撮像部(第2の撮像部)26と、リアカメラ記憶部27と、画像重畳部28と、リアカメラ制御部29と、を備える。
 光学系25は、サイドカメラ11の光学系16と同様に、複数のレンズを有し、被写体像を結像させる。
 リアカメラ撮像部26は、サイドカメラ撮像部17と同様に、光学系25によって結像する周辺画像を撮像(生成)する。
 リアカメラ記憶部27は、サイドカメラ11から車載ネットワーク100を介して取得する補正値θaを記憶する。
 画像重畳部28は、車載ネットワーク100を介して、舵角センサが検出するステアリング舵角θmを取得する。また、画像重畳部28は、補正値θaを用いて舵角センサが検出するステアリング舵角θmを補正した値、すなわちステアリング舵角θmから補正値θaを減算した値を用いて、リアカメラ撮像部26が撮像した周辺画像上の所定位置に運転支援のための指標を重畳する。
 運転支援のための指標30とは、例えば図6に示すように、車幅延長線31および距離目安線32である。車幅延長線31は、後進時の移動体10の両端の通過する軌跡であり、ステアリングの舵角に応じて形状および表示位置が異なる。距離目安線32は、現在の移動体10から所定の距離、例えば1mおよび3mの距離を示す。運転者は、指標30によって移動体10の後進時の予測進行方向を認識可能となる。
 リアカメラ制御部29(図2参照)は、リアカメラ12の各部位の動作を制御する。また、リアカメラ制御部29は、車載ネットワーク100を介して情報の送受信を行う。
 次に、第1の実施形態に係る舵角補正システムAが実行する補正値算出処理について、図7のフローチャートを用いて説明する。本処理は、例えば、移動体10が走行を開始したときに実行される。
 はじめに、サイドカメラ撮像部17は、操舵輪14を含む移動体10の周辺画像(測定画像)を撮像する(ステップS100)。
 舵角判断部18は、車載ネットワーク100を介して、ステップS100の測定画像の撮像と同時に舵角センサが検出したステアリング舵角θmを取得する(ステップS101)。
 次に、取得部21は、ステップS100の測定画像およびステップS101のステアリング舵角θmを対応付けて取得する(ステップS102)。
 次に、抽出部23は、ステップS102の測定画像、および補正装置記憶部22が予め記憶している基準画像に対してエッジ検出を施す(ステップS103)。また、抽出部23は、測定画像上に操舵輪14の側面が含まれないとき、移動体10の左右反対側のサイドカメラ11が撮像した測定画像を用いる。
 続いて、抽出部23は、ステップS103においてエッジ検出を施した測定画像および基準画像に対して楕円検出を行う(ステップS104)。
 次に、演算部24は、測定画像上の操舵輪14と基準画像上の操舵輪14との一致度を算出する(ステップS105)。例えば、演算部24は、画像マッチングの相関度を一致度として算出する。
 続いて、演算部24は、ステップS105で算出した一致度と、測定画像撮像時に舵角センサが検出したステアリング舵角θmとを対応づけたデータを、補正装置記憶部22に記憶させる(ステップS106)。
 続いて、演算部24は、ステップS106で補正装置記憶部22に記憶させたデータに基づいて、舵角センサが検出するステアリング舵角θmに対する一致度(相関度)の確率分布を算出する(ステップS107)。
 続いて、演算部24は、確率分布を算出するのに十分なデータが蓄積されたか否かを判定する(ステップS108)。例えば、演算部24は、補正装置記憶部22に記憶させたデータの数が所定の閾値th1以上であって、且つ、算出した確率分布の分散σ2が所定の閾値th2未満であるときに、十分なデータが蓄積されたと判定する。十分なデータが蓄積されたとき(ステップS108-Yes)、ステップS109に進む。一方、十分なデータが蓄積されていないとき(ステップS108-No)、ステップS100に戻って処理を反復し、データを蓄積する。
 ステップS108において、十分なデータが蓄積されたとき(ステップS108-Yes)、演算部24は、ステップS107で算出した確率分布のピーク位置におけるステアリング舵角θpを算出する(ステップS109)。
 続いて、演算部24は、ステップS109において算出した確率分布のピーク位置におけるステアリング舵角θpから基準舵角θ0を減算して算出する検出ずれΔθの絶対値が、所定の閾値th3以上であるか否かを判定する(ステップS110)。検出ずれΔθの絶対値が閾値th3以上であるとき(ステップS110-Yes)、ステップS111に進む。一方、検出ずれΔθの絶対値が閾値th3未満であるとき(ステップS110-No)、処理を終了する。
 ステップS110において、検出ずれΔθの絶対値が閾値th3以上であるとき(ステップS110-Yes)、演算部24は、検出ずれΔθを補正値θaとして補正装置記憶部22に記憶する(ステップS111)。
 このように、第1の実施形態の舵角補正システムによれば、測定画像および基準画像の一致度に基づいて、補正値θaを算出する。このため、例えば移動体10の走行中に舵角センサが検出するステアリング舵角θmの補正を自動的に行うことができ、操作者による操作の煩雑さを低減できる。
 また、第1の実施形態の舵角補正システムによれば、舵角センサが検出するステアリング舵角θmに対する一致度の確率分布に基づいて補正値θaを算出するため、ステアリングの実際の舵角θtが基準舵角θ0(=0°)であるときに舵角センサが検出するステアリング舵角θmを精度良く推定でき、補正値θaの算出精度を向上できる。また、舵角センサが検出するステアリング舵角θmの測定誤差の影響を低減し、補正値θaの算出精度を向上できる。
 また、第1の実施形態の舵角補正システムによれば、舵角センサが検出するステアリング舵角θmに対する一致度の確率分布を算出するのに十分なデータが蓄積されているとき、確率分布のピーク位置におけるステアリング舵角θpを算出し、θpを用いて補正値θaを算出する。このため、例えばデータ数が少ない場合や分散が大きい場合等、ピークを正しく検出できていない場合に補正値θaの算出・更新を抑制し、補正値θaの安定性を向上できる。
 また、第1の実施形態の舵角補正システムによれば、舵角センサが検出するステアリング舵角θmとステアリングの実際の舵角θtとの間のずれΔθの絶対値が閾値th3以上であるときに、Δθを補正値θaとして記憶する。このため、舵角センサが検出するステアリング舵角θmの測定誤差等の影響で生じる微小なずれによる補正値θaの算出・更新を抑制し、補正値θaの算出精度を向上できる。
 また、第1の実施形態の舵角補正システムによれば、測定画像および基準画像に対してエッジ検出を施すため、移動体10の走行中において、例えば天気や外の明るさ等の環境の変化による測定画像への影響を低減し、画像マッチングによる相関度の算出精度を向上できる。
(第2の実施形態)
 次に、本発明の第2の実施形態について説明する。第2の実施形態に係る舵角補正システムAの構成は第1の実施形態と同様であるが、舵角補正装置20が行う処理が異なる。
 第2の実施形態に係る舵角補正装置20は、第1の実施形態と同様に、取得部21と、補正装置記憶部22と、抽出部23と、演算部24と、を備える。取得部21、補正装置記憶部22、および抽出部23については、第1の実施形態と同様であるため、説明は省略する。
 演算部24は、第1の実施形態と同様に、測定画像上の操舵輪14と基準画像上の操舵輪14との一致度を算出する。ここで、第2の実施形態に係る演算部24は、抽出部23が楕円検出により算出した楕円パラメータを用いて、一致度を算出する。詳細には、演算部24は、測定画像から検出した操舵輪14の楕円パラメータにより定まる5次元パラメータ空間上の点tを算出する。同様に、演算部24は、基準画像から検出した操舵輪14の楕円パラメータにより定まる5次元パラメータ空間上の点aを算出する。パラメータ空間上の2点間の距離dは、d=|t-a|により算出される。ここで、測定画像から検出した楕円形状と基準画像から検出した楕円形状との相関が高いとき、各楕円パラメータは互いに近い値をとるため、距離dは小さな値となる。一方、2つの楕円形状の相関が小さいとき、各楕円パラメータは互いに異なる値をとるため、距離dは大きな値となる。したがって、演算部24は、楕円パラメータを用いて算出するパラメータ空間上の距離dを一致度として算出する。このとき、一般に、距離dの値が小さいほど一致性が高くなる。
 好適には、演算部24は、複数の楕円パラメータに対して重付けを行った値を用いて一致度を算出する。前述のように、検出される楕円は、操舵輪舵角θRによって異なる形状となる(図4参照)。ここで、操舵輪舵角θRの変化に対し、楕円の傾きφおよび短辺の長さbの変化量が大きく、他の楕円パラメータ、すなわち中心座標と長辺の長さは変化量が小さい。すなわち、楕円の傾きφおよび短辺の長さbは、操舵輪舵角θRの変化に対し感度が高い。例えば、楕円パラメータのうち傾きφおよび短辺の長さbの少なくとも一方に、他のパラメータ、すなわち座標(x,y)および長辺の長さaより大きな重付けを行ってパラメータ空間上の点tおよび点aを決定し、2点間の距離dを一致度として算出する。
 また、演算部24は、第1の実施形態と同様に、一致度(距離d)の確率分布を算出し、算出した確率分布のピーク位置におけるステアリング舵角θpに基づいて補正値θaを算出する。本実施形態において、楕円パラメータを用いて算出するパラメータ空間上の距離dを一致度として用いるため、確率分布のピークは下向きにあらわれる(図8参照)。
 このように、第2の実施形態の舵角補正システムによれば、測定画像および基準画像から検出した楕円のパラメータに基づいて算出するパラメータ空間上の距離dを、測定画像上の操舵輪14と基準画像上の操舵輪14との一致度として算出する。このため、画像マッチングにより一致度を算出する第1の実施形態と比較して処理負担を低減できる。また、複数の楕円パラメータのうち、操舵輪舵角θRの変化に対し感度が高い楕円パラメータに大きな重付けをして一致度を算出することにより、一致度の算出精度を向上し、補正値θaの算出精度を向上できる。
(第1及び第2の実施形態の変形例)
 次に、本発明の第1及び第2の実施形態の変形例に係る舵角補正システムについて説明する。本変形例に係る舵角補正システムAの構成は第1の実施形態と同様であるが、一致度の確率分布を算出せず、測定画像と基準画像が一致するときに補正値θaを算出する点が異なる。
 本変形例に係る舵角補正装置20は、第1の実施形態と同様に、取得部21と、補正装置記憶部22と、抽出部23と、演算部24と、を備える。取得部21および抽出部23については、第1の実施形態と同様であるため、説明は省略する。
 補正装置記憶部22は、基準画像を予め記憶する。また、補正装置記憶部22は、演算部24が算出する補正値θaを記憶する。
 演算部24は、測定画像上の操舵輪14と基準画像上の操舵輪14との一致度を算出する。本変形例において、画像マッチングによる相関度又は楕円パラメータ空間上の2点間距離dの何れを一致度として採用してもよい。以下においては、測定画像および基準画像を用いた画像マッチングによる相関度を算出する例について説明する。
 演算部24は、算出した一致度(相関度)に基づいて、測定画像上の操舵輪14および基準画像上の操舵輪14の形状が一致しているか否かを判定する。形状が一致しているか否かの判定は、例えば、一致度である相関度が所定の閾値th4以上であるとき、形状が一致していると判定する。演算部24は、操舵輪14の形状が一致すると判定するとき、以下の式により、舵角センサが検出するステアリング舵角θmとステアリングの実際の舵角θtとの間のずれ(検出ずれ)Δθを算出する。
  Δθ=θm-θ0                     (2)
 ここで、θmは一致度の算出に用いた測定画像撮像時に舵角センサが検出したステアリング舵角、θ0は基準舵角である。また、演算部24は、第1の実施形態と同様に、算出した検出ずれΔθの絶対値が所定の閾値th3以上であるとき、検出ずれΔθを補正値θaとして補正装置記憶部22に記憶する。
 次に、本変形例に係る舵角補正システムAが実行する補正値算出処理について、図9のフローチャートを用いて説明する。
 はじめに、サイドカメラ撮像部17は、操舵輪14を含む移動体10の周辺画像(測定画像)を撮像する(ステップS200)。
 舵角判断部18は、車載ネットワーク100を介して、ステップS200の測定画像の撮像と同時に舵角センサが検出したステアリング舵角θmを取得する(ステップS201)。
 次に、取得部21は、ステップS200の測定画像およびステップS201のステアリング舵角θmを対応付けて取得する(ステップS202)。
 次に、抽出部23は、ステップS202の測定画像、および補正装置記憶部22が予め記憶している基準画像に対してエッジ検出を施す(ステップS203)。また、抽出部23は、測定画像上に操舵輪14の側面が含まれないとき、移動体10の左右反対側のサイドカメラ11が撮像した測定画像を用いる。
 続いて、抽出部23は、ステップS203においてエッジ検出を施した測定画像および基準画像に対して楕円検出を施す(ステップS204)。
 次に、演算部24は、測定画像上の操舵輪14と基準画像上の操舵輪14との一致度を算出する(ステップS205)。例えば、演算部24は、画像マッチングの相関度を一致度として算出する。
 続いて、演算部24は、測定画像上の操舵輪14および基準画像上の操舵輪14の形状が一致しているか否かを判定する(ステップS206)。例えば、演算部24は、一致度である相関度が所定の閾値th4以上であるとき、形状が一致していると判定する。形状が一致していると判定するとき(ステップS206-Yes)、ステップS207に進む。一方、形状が一致していないと判定するとき(ステップS206-No)、ステップS200に戻る。
 ステップS206において、形状が一致していると判定するとき(ステップS206-Yes)、演算部24は、ステップS202のステアリング舵角θmから基準舵角θ0を減算して算出する検出ずれΔθの絶対値が、所定の閾値th3以上であるか否かを判定する(ステップS207)。検出ずれΔθの絶対値が閾値th3以上であるとき(ステップS207-Yes)、ステップS208に進む。一方、検出ずれΔθの絶対値が閾値th3未満であるとき(ステップS207-No)、処理を終了する。
 ステップS207において、検出ずれΔθの絶対値が閾値th3以上であるとき(ステップS207-Yes)、演算部24は、検出ずれΔθを補正値θaとして補正装置記憶部22に記憶する(ステップS208)。
 このように、本変形例の舵角補正システムによれば、測定画像と舵角センサが検出するステアリング舵角θmとを対応付けて取得するたび、算出する一致度に基づいて両画像上の操舵輪14の形状が一致しているか否かを判定する。そして、形状が一致していると判定するとき、補正値θaを算出する。このため、第1の実施形態と異なり、舵角センサが検出するステアリング舵角θmと一致度とを対応付けたデータを補正装置記憶部22に蓄積する必要がなく、記憶するデータ容量を低減できる。
 本発明を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。
 例えば、舵角補正システムにおける各構成要素は、分割および再配置が可能である。例えば、舵角補正システムは、運転者を支援するナビゲーション装置を更に備え、ナビゲーション装置が舵角補正装置20の演算部24や、リアカメラ12の画像重畳部28を備える構成であってもよい。
 また、抽出部23が検出した楕円が正しく操舵輪14を抽出しているか否かを判別する構成を備えてもよい。例えば、測定画像上の楕円内において、エッジ検出を施す前の測定画像の色情報を用いて操舵輪14を抽出しているか否か判断することが考えられる。このようにして、測定画像上の操舵輪14の抽出精度を向上して一致度の算出精度を向上することにより、補正値θaの算出精度を向上できる。
 また、上述の実施形態において、補正装置記憶部22は基準画像を予め記憶するが、基準画像に対してエッジ検出および楕円検出を施した基準画像を予め記憶するようにしてもよい。この場合、抽出部23は、基準画像に対してエッジ検出および楕円検出を施す必要がなく、処理負担を軽減できる。
 また、上述の実施形態において、舵角補正装置20は、算出した補正値θaを補正装置記憶部22に記憶させるが、ステアリング舵角センサに補正値θaを送信し、ステアリング舵角センサの出力値を補正するようにしてもよい。この場合、画像重畳部28は、車載ネットワーク100を介して取得するステアリング舵角を補正する必要がないため、処理負担を軽減できる。
 また、上述の実施形態において、画像重畳部28はリアカメラ12の撮像画像に指標30を重畳するが、例えば、移動体10の前方の周辺画像を撮像するフロントカメラの撮像画像に重畳するようにしてもよい。
 また、上述の実施形態において、画像マッチングによる相関度又は楕円パラメータに基づくパラメータ空間上の2点間距離を一致度として用いたが、測定画像上の操舵輪14と基準画像上の操舵輪14との形状の一致性の度合いを示す指標であれば任意の指標を採用可能である。
 また、第1の実施形態において、サイドカメラ制御部19は、サイドカメラ撮像部17に周期的に測定画像を生成させるようにしたが、周期的な撮像に加え又は替えて、所定の条件で測定画像を生成してもよい。例えば、舵角センサが検出するステアリング舵角θmが所定の舵角となったときに測定画像を生成することが考えられる。このようにして、一致度の確率分布を算出するのに広域な舵角におけるデータを用いることができ、一致度の確率分布の算出精度を向上することにより、補正値θaの算出精度を向上できる。
 また、第2の実施形態において、補正装置記憶部22は、基準画像から検出した楕円のパラメータを予め記憶してもよい。この場合、補正装置記憶部22は、基準画像を記憶する必要がなく、記憶するデータ容量を低減できる。
(第3の実施形態)
 次に、本発明の第3の実施形態に係る舵角補正システムについて説明する。図10は、第3の実施形態に係る舵角補正システムBの構成要素の移動体10における配置を示す概略図である。移動体10は、例えば車両である。
 舵角補正システムBの2つのサイドカメラ111は、例えば、操舵輪115の側面中心から、鉛直上向きに対して、移動体10の側方からみて移動体10の後方に向かって45°(図10B参照)、後方からみて移動体10の左右外側に向かって15°となる位置に、移動体10の左右対称に配置される(図10C参照)。また、2つのサイドカメラ111は、例えば左右のサイドミラー116にそれぞれ配置される。左右のサイドカメラ111は、移動体10の左右の操舵輪115の一方を含む移動体10の周辺領域をそれぞれ撮像可能である。舵角補正システムBのリアカメラ112は、移動体10の後方周辺領域を撮像可能となるように配置される。舵角補正システムBの舵角補正装置113は、移動体10の任意の位置に配置される。舵角補正システムBの表示部114は、運転席から視認可能な位置に配置され、サイドカメラ111およびリアカメラ112が出力する画像を表示する。
 次に、舵角補正システムBの構成および機能を、図11を用いて詳細に説明する。図11に示すように、舵角補正システムBは、サイドカメラ111、リアカメラ112、舵角補正装置113、および表示部114を備える。
 サイドカメラ111は、光学系117と、サイドカメラ撮像部(第1の撮像部)118と、舵角判断部119と、サイドカメラ制御部120と、を備える。
 光学系117は、複数のレンズを含んで構成され、被写体像を結像させる。
 サイドカメラ撮像部118は、例えばCMOS撮像素子であって、光学系117によって結像する被写体像を撮像した画像を生成する。前述のように、左右のサイドカメラ111は、左右の操舵輪115の一方を含む移動体10の周辺領域をそれぞれ撮像可能となるように配置され、生成される画像は、多様な操舵輪舵角θRである操舵輪115の画像を含み得る。ここで、操舵輪舵角θRとは、操舵輪115の操舵可能範囲における舵角中立点を0°とする操舵輪115の切れ角である。本実施形態では、ステアリングの右方向回転により操舵輪舵角θRが増加する。操舵輪舵角θRは、舵角中立点からステアリングの右方向回転により正の値、舵角中立点からステアリングの左方向回転により負の値となる。
 ここで、サイドカメラ111が生成する画像について説明する。画像上の操舵輪115は、操舵輪舵角θRによって形状が異なる。図12は、異なる操舵輪舵角θRにおいて右サイドカメラ111が生成する画像の例を示し、図12AはθR=0°、図12BはθR=10°、図12CはθR=20°、図12DはθR=30°、図12EはθR=-30°である。画像上の操舵輪115の側面は、操舵輪115の舵角中立点(θR=0°)において楕円形状である(図12A参照)。操舵輪舵角θRが0°から増加すると、操舵輪115の側面の一部が移動体10の影に隠れ、楕円の一部が欠けた形状となる(図12B-12D参照)。一方、操舵輪舵角θRが0°から減少すると、ある舵角以下で操舵輪115の側面は画像上に写らなくなる(図12E参照)。
 左サイドカメラ111の生成する画像上の操舵輪115も同様に、操舵輪舵角θRによって形状が異なる。図13は、異なる操舵輪舵角θRにおいて右サイドカメラ111が生成する画像の例を示し、図13AはθR=0°、図13BはθR=-30°、図13CはθR=30°である。操舵輪舵角θRが0°から減少すると、操舵輪115の側面の一部が移動体10の影に隠れ、楕円の一部が欠けた形状となる(図13B参照)。一方、操舵輪舵角θRが0°から増加すると、ある舵角以上で操舵輪115の側面は画像上に写らなくなる(図13C参照)。操舵輪舵角θR=0°であるとき、左右のサイドカメラ111がそれぞれ生成する画像上の操舵輪115は左右対称となる(図12A及び図13A参照)。
 舵角判断部119は(図11参照)、例えばCAN等の車載ネットワーク100を介して、サイドカメラ撮像部118による撮像時に舵角センサが検出するステアリング舵角θmを取得する。ステアリング舵角θmは、ステアリングの操舵可能範囲における舵角中立点を0°とするステアリングの切れ角である。本実施形態では、ステアリングの右方向回転により舵角センサが検出するステアリング舵角θmが増加する。一般に、舵角センサが検出するステアリング舵角θmおよび操舵輪舵角θRは、一対一の対応関係を有する。
 サイドカメラ制御部120は、サイドカメラ111の各部位の動作を制御する。例えば、サイドカメラ制御部120は、左右のサイドカメラ111の各サイドカメラ撮像部118に、周期的に、例えば30fpsで、左右の操舵輪115を同時にそれぞれ撮像した一組の画像を生成させる。また、サイドカメラ制御部120は、車載ネットワーク100を介して情報の送受信を行う。
 リアカメラ112は、光学系121と、リアカメラ撮像部(第2の撮像部)122と、リアカメラ記憶部123と、画像重畳部124と、リアカメラ制御部125と、を備える。
 光学系121は、サイドカメラ111の光学系117と同様に、複数のレンズを含んで構成され、被写体像を結像させる。
 リアカメラ撮像部122は、サイドカメラ撮像部118と同様に、光学系121によって結像する周辺画像を撮像(生成)する。
 リアカメラ記憶部123は、舵角補正装置113から取得する補正値θaを記憶する。補正値θaの詳細については後述する。
 画像重畳部124は、車載ネットワーク100を介して、舵角センサが検出するステアリング舵角θmを取得する。また、画像重畳部124は、舵角センサが検出するステアリング舵角θmを用いて、リアカメラ撮像部122が撮像した周辺画像上の所定位置に運転支援のための指標を重畳する。好適には、画像重畳部124は、リアカメラ記憶部123が記憶する補正値θaにより補正した舵角センサが検出するステアリング舵角θmを用いて、運転支援のための指標を重畳する。
 運転支援のための指標30とは、例えば図6に示すように、車幅延長線31および距離目安線32である。車幅延長線31は、後進時の移動体10の両端の通過する軌跡であり、ステアリングの舵角に応じて形状および表示位置が異なる。距離目安線32は、現在の移動体10から所定の距離、例えば1mおよび3mの距離を示す。運転者は、指標30によって移動体10の後進時の予測進行方向を認識可能となる。
 リアカメラ制御部125(図11参照)は、リアカメラ112の各部位の動作を制御する。例えば、リアカメラ制御部125は、舵角補正装置113から補正値θaを受信してリアカメラ記憶部123に記憶させる。また、リアカメラ制御部125は、車載ネットワーク100を介して情報の送受信を行う。
 舵角補正装置113は、舵角センサが検出するステアリング舵角θmをステアリングの実際の舵角θtと一致させるように補正するための補正値θaを算出する。補正値θaの算出の詳細については後述する。舵角補正装置113は、取得部126と、補正装置記憶部127と、抽出部128と、演算部129と、を備える。
 取得部126は、例えば車載ネットワーク100を介して、左右のサイドカメラ111から、左右の操舵輪115を同時にそれぞれ撮像した一組の画像および画像撮像時に舵角センサが検出したステアリング舵角θmを対応付けて取得する。
 補正装置記憶部127は、演算部129が算出する一組の画像上の左右の操舵輪115の対称度を、画像撮像時に舵角センサが検出したステアリング舵角θmと対応付けて蓄積する。対称度の詳細については後述する。また、補正装置記憶部127は、演算部129が算出する補正値θaを記憶する。
 抽出部128は、取得部126が取得した一組の画像上の操舵輪115を抽出する。例えば、抽出部128は、エッジ検出および楕円検出(近似)により画像上の操舵輪115を抽出する。エッジ検出には、例えばcannyフィルタを用いて、画像上のエッジ部分を検出する。楕円検出には、例えばHough変換を用いて、操舵輪115を近似した楕円形状およびその楕円パラメータを算出する。楕円パラメータは、楕円の中心座標(x,y)、長辺の長さa、短辺の長さb、および画像上の水平軸と楕円の長軸とがなす傾きφである。
 好適には、抽出部128は、操舵輪115が含まれ得る画像上の所定領域において、画像上の操舵輪115を抽出する。操舵輪115が含まれ得る画像上の所定領域は、例えばサイドカメラ111の取付け角度のばらつきを考慮して予め決定してもよく、抽出部128が任意の方法により自動的に決定してもよい。
 ここで、楕円検出により検出される楕円について説明する。図14は、異なる操舵輪舵角θRにおいて右サイドカメラ111が生成する画像について検出する楕円(図14太線)の例を示し、図14AはθR=0°、図14BはθR=10°、図14CはθR=20°、図14DはθR=30°である。また、図14は、操舵輪115のホイール部分について楕円検出を施す例を示すが、例えば操舵輪115のタイヤ部分について楕円検出を施してもよい。θRが10°以上の例では、操舵輪115のホイール部分は楕円の一部が欠けた形状であったが(図12B-12D参照)、楕円検出により操舵輪115のホイール部分に適合する楕円が検出される(図14B-14D参照)。
 検出される楕円は、撮像時の操舵輪舵角θRによって形状が異なる。詳細には、検出される楕円は、操舵輪舵角θRが0°から増加すると、画像上の水平軸と楕円の長軸とがなす傾きφが減少し、短辺の長さbが増加する。一方、操舵輪舵角θRが増加しても、他の楕円パラメータ、すなわち中心座標(x,y)および長辺の長さaの変化が比較的小さい(図14参照)。また、異なる操舵輪舵角θRにおいて左サイドカメラ111が生成する画像について検出する楕円も同様に、操舵輪舵角θRが0°から減少すると、画像上の水平軸と楕円の長軸とがなす傾きφが減少し、短辺の長さbが増加する。
 演算部129(図11参照)は、一組の画像上の左右の操舵輪115の対称度を算出する。対称度は、一組の画像上の左右の操舵輪115の形状の左右対称性の度合いを示す指標である。例えば、本実施形態において、対称度は、画像マッチングの相関度である。演算部129は、抽出部128が検出した一組の楕円画像のうち一方を左右反転させて画像マッチングを行い、画像マッチングの相関度を対称度として算出する。また、演算部129は、算出した対称度(相関度)と、対称度の算出に用いた一組の画像の撮像時に舵角センサが検出したステアリング舵角θmとを対応づけたデータを、補正装置記憶部127に記憶させる。
 また、演算部129は、補正装置記憶部127に記憶させた複数のデータに基づいて、舵角センサが検出したステアリング舵角θmに対する対称度(相関度)の確率分布を算出する(図5参照)。確率分布には、任意の確率分布モデルを用いることができる。また、演算部129は、算出した確率分布のピーク位置におけるステアリング舵角θpを算出する。好適には、演算部129は、確率分布を算出するのに十分なデータが蓄積されたときに、確率分布のピーク位置におけるステアリング舵角θpを算出する。例えば、演算部129は、蓄積したデータの数が所定の閾値th1以上であって、且つ、算出した確率分布の分散σ2が所定の閾値th2未満であるときに、確率分布のピーク位置におけるステアリング舵角θpを算出するように構成してもよい。
 ここで、演算部129が算出する確率分布のピーク位置におけるステアリング舵角θpは、ステアリングの実際の舵角θtが0°であるときに舵角センサが検出するステアリング舵角θmと推定される。舵角センサが検出するステアリング舵角θmとステアリングの実際の舵角θtとの間にずれ(以下、検出ずれという)が存在する場合には、ステアリングの実際の舵角θtが0°であるときに舵角センサが検出するステアリング舵角θmは、舵角センサの検出ずれに等しい。演算部129は、確率分布のピーク位置におけるステアリング舵角θpを舵角センサの検出ずれΔθとして決定する。
 演算部129は、決定した検出ずれΔθの絶対値が所定の閾値th3以上であるとき、すなわち、舵角センサが検出するステアリング舵角θmとステアリングの実際の舵角θtとのずれが大きいとき、検出ずれΔθを補正値θaとして補正装置記憶部127に記憶させる。あるいは、演算部129は、補正装置記憶部127が既に補正値θaを記憶している場合には、検出ずれΔθから補正値θaを減算した値の絶対値が所定の閾値th3以上であるとき、検出ずれΔθを新たな補正値θaとして更新し、補正装置記憶部127に記憶させる。演算部129は、車載ネットワーク100を介して、他の構成要素に補正値θaを送信する。
 次に、第3の実施形態に係る舵角補正システムBが実行する補正値算出処理について、図15のフローチャートを用いて説明する。本処理は、例えば、移動体10が走行を開始したときに実行される。
 はじめに、左右のサイドカメラ111のサイドカメラ撮像部118は、左右の操舵輪115の一方を含む移動体10の周辺領域をそれぞれ同時に撮像した一組の画像を生成する(ステップS300)。
 次に、舵角判断部119は、車載ネットワーク100を介して、ステップS300の一組の画像の撮像と同時に舵角センサが検出したステアリング舵角θmを取得する(ステップS301)。
 次に、舵角補正装置113の取得部126は、例えば車載ネットワーク100を介して、ステップS300の一組の画像およびステップS301の舵角センサが検出したステアリング舵角θmを対応付けて取得する(ステップS302)。
 次に、抽出部128は、ステップS302の一組の画像に対してエッジ検出を施す(ステップS303)。
 続いて、抽出部128は、ステップS303においてエッジ検出を施した一組の画像に対して楕円検出を施す(ステップS304)。
 次に、演算部129は、ステップS302の一組の画像上の左右の操舵輪115の対称度を算出する(ステップS305)。例えば、演算部129は、ステップS304において楕円検出を施した一組の画像のうち一方を左右反転させて画像マッチングを行ない、画像マッチングの相関度を対称度として算出する。
 続いて、演算部129は、ステップS305で算出した対称度と、ステップS302において取得した舵角センサが検出したステアリング舵角θmとを対応づけたデータを、補正装置記憶部127に記憶させる(ステップS306)。
 続いて、演算部129は、ステップS306において補正装置記憶部127に記憶させたデータに基づいて、舵角センサが検出するステアリング舵角θmに対する対称度(相関度)の確率分布を算出する(ステップS307)。
 続いて、演算部129は、確率分布を算出するのに十分なデータが蓄積されたか否かを判定する(ステップS308)。例えば、演算部129は、補正装置記憶部127に記憶させたデータの数が所定の閾値th1以上であって、且つ、ステップS307で算出した確率分布の分散σ2が所定の閾値th2未満であるときに、十分なデータが蓄積されたと判定する。十分なデータが蓄積されたとき(ステップS308-Yes)、ステップS309に進む。一方、十分なデータが蓄積されていないとき(ステップS308-No)、ステップS300に戻って処理を反復し、データを蓄積する。
 ステップS308において、十分なデータが蓄積されたとき(ステップS308-Yes)、演算部129は、ステップS307で算出した確率分布のピーク位置におけるステアリング舵角θpを算出する(ステップS309)。
 続いて、演算部129は、ステップS309において算出した確率分布のピーク位置におけるステアリング舵角θpを検出ずれΔθとして決定する。さらに、演算部129は、検出ずれΔθの絶対値が、所定の閾値th3以上であるか否かを判定する(ステップS310)。検出ずれΔθの絶対値が閾値th3以上であるとき(ステップS310-Yes)、ステップS311に進む。一方、検出ずれΔθの絶対値が閾値th3未満であるとき(ステップS310-No)、処理を終了する。
 ステップS310において、検出ずれΔθの絶対値が閾値th3以上であるとき(ステップS310-Yes)、演算部129は、検出ずれΔθを補正値θaとして補正装置記憶部127に記憶させる(ステップS311)。
 このように、第3の実施形態の舵角補正システムによれば、左右の操舵輪115を同時にそれぞれ撮像した一組の画像の対称度に基づいて、補正値θaを算出する。このため、例えば移動体10の走行中に舵角センサが検出するステアリング舵角θmの補正を自動的に行うことができ、操作者による操作の煩雑さを低減できる。また、例えば初期状態など、舵角センサに測定ずれΔθが発生する前の初期状態における情報を必要としないため、舵角補正システムを移動体10に搭載する時期によらず補正が可能である。
 また、第3の実施形態の舵角補正システムによれば、舵角センサが検出するステアリング舵角θmに対する対称度の確率分布に基づいて補正値θaを算出するため、ステアリングの実際の舵角θtが0°であるときに舵角センサが検出するステアリング舵角θmを精度良く推定でき、補正値θaの算出精度を向上できる。また、舵角センサが検出するステアリング舵角θmの測定誤差の影響を低減し、補正値θaの算出精度を向上できる。
 また、第3の実施形態の舵角補正システムによれば、舵角センサが検出するステアリング舵角θmに対する対称度の確率分布を算出するのに十分なデータが蓄積されているとき、確率分布のピーク位置におけるステアリング舵角θpを算出し、θpを用いて補正値θaを算出する。このため、例えばデータ数が少ない場合や分散が大きい場合等、ピークを正しく検出できていない場合に補正値θaの算出・更新を抑制し、補正値θaの安定性を向上できる。
 また、第3の実施形態の舵角補正システムによれば、舵角センサが検出するステアリング舵角θmとステアリングの実際の舵角θtとの間のずれ(検出ずれ)Δθの絶対値が閾値th3以上であるときに、検出ずれΔθを補正値θaとして記憶する。このため、舵角センサが検出するステアリング舵角θmの測定誤差等の影響で生じる微小なずれによる補正値θaの算出・更新を抑制し、補正値θaの算出精度を向上できる。
 また、第3の実施形態の舵角補正システムによれば、一組の画像に対してエッジ検出を施すため、移動体10の走行中において、例えば天気や外の明るさ等の環境の変化による測定画像への影響を低減し、画像マッチングによる相関度の算出精度を向上できる。
(第4の実施形態)
 次に、本発明の第4の実施形態について説明する。第4の実施形態に係る舵角補正システムBの構成は第3の実施形態と同様であるが、舵角補正装置113が行う処理が異なる。
 第4の実施形態に係る舵角補正装置113は、第3の実施形態と同様に、取得部126と、補正装置記憶部127と、抽出部128と、演算部129と、を備える。取得部126および補正装置記憶部127については、第3の実施形態と同様であるため、説明は省略する。
 抽出部128は、第3の実施形態と同様に、一組の画像上の操舵輪115を抽出して楕円パラメータを算出する。第4の実施形態に係る抽出部128は、一組の画像のうち一方を左右反転させて、両画像上の操舵輪115を抽出し、楕円パラメータをそれぞれ算出する。
 演算部129は、第3の実施形態と同様に、一組の画像上の左右の操舵輪115の対称度を算出する。ここで、第4の実施形態に係る演算部129は、抽出部128が楕円検出により算出した楕円パラメータを用いて、対称度を算出する。詳細には、演算部129は、抽出部128が左右反転させた一方の画像から検出した操舵輪115の楕円パラメータにより定まる5次元パラメータ空間上の点αを算出する。同様に、演算部129は、他方の画像から検出した操舵輪115の楕円パラメータにより定まる5次元パラメータ空間上の点βを算出する。パラメータ空間上の2点間の距離dは、d=|α-β|により算出される。ここで、両画像からそれぞれ検出した楕円形状の相関が高いとき、各楕円パラメータは互いに近い値をとるため、距離dは小さな値となる。一方、2つの楕円形状の相関が小さいとき、各楕円パラメータは互いに異なる値をとるため、距離dは大きな値となる。演算部129は、楕円パラメータを用いて算出するパラメータ空間上の距離dを対称度として算出する。このとき、一般に、距離dの値が小さいほど対称性が高くなる。
 好適には、演算部129は、複数の楕円パラメータに対して重付けを行った値を用いて対称度を算出する。前述のように、検出される楕円は、操舵輪舵角θRによって異なる形状となる(図14参照)。ここで、操舵輪舵角θRの変化に対し、楕円の傾きφおよび短辺の長さbの変化量が大きく、他の楕円パラメータ、すなわち中心座標と長辺の長さは変化量が小さい。すなわち、楕円の傾きφおよび短辺の長さbは、操舵輪舵角θRの変化に対し感度が高い。例えば、楕円パラメータのうち傾きφおよび短辺の長さbの少なくとも一方に、他のパラメータ、すなわち座標(x,y)および長辺の長さaより大きな重付けを行ってパラメータ空間上の点aおよび点bを決定し、2点間の距離dを対称度として算出する。
 また、演算部129は、第3の実施形態と同様に、対称度(距離d)の確率分布を算出し、算出した確率分布のピーク位置におけるステアリング舵角θpに基づいて補正値θaを算出する。本実施形態において、楕円パラメータを用いて算出するパラメータ空間上の距離dを対称度として用いるため、確率分布のピークは下向きにあらわれる(図8参照)。
 このように、第4の実施形態の舵角補正システムによれば、一組の画像のうち一方を左右反転させて検出した楕円のパラメータに基づいて算出するパラメータ空間上の距離dを、一組の画像上の左右の操舵輪115の対称度として算出する。このため、画像マッチングにより対称度を算出する第3の実施形態と比較して処理負担を低減できる。また、複数の楕円パラメータのうち、操舵輪舵角θRの変化に対し感度が高い楕円パラメータに大きな重付けをして対称度を算出することにより、対称度の算出精度を向上し、補正値θaの算出精度を向上できる。
(第3及び第4の実施形態の変形例)
 次に、本発明の第3及び第4の実施形態の変形例に係る舵角補正システムについて説明する。本変形例に係る舵角補正システムBの構成は第3の実施形態と同様であるが、対称度の確率分布を算出せず、一組の画像が左右対称であるときに補正値θaを算出する点が異なる。
 本変形例に係る舵角補正装置113は、第3の実施形態と同様に、取得部126と、補正装置記憶部127と、抽出部128と、演算部129と、を備える。取得部126および抽出部128については、第3の実施形態と同様であるため、説明は省略する。
 補正装置記憶部127は、演算部129が算出する補正値θaを記憶する。
 演算部129は、第3の実施形態と同様に、一組の画像上の左右の操舵輪115の対称度を算出する。本変形例において、画像マッチングによる相関度又は楕円パラメータ空間上の2点間距離dの何れを対称度として採用してもよい。以下においては、一組の画像のうち一方を左右反転させた画像と他方の画像との画像マッチングによる相関度を算出し、対称度として採用する例について説明する。
 演算部129は、算出した対称度(相関度)に基づいて、一組の画像上の左右の操舵輪115の形状が左右対称か否かを判定する。左右対称か否かの判定は、例えば、対称度である相関度が所定の閾値th4以上であるとき、形状が左右対称と判定する。演算部129は、操舵輪115の形状が左右対称と判定するとき、対称度の算出に用いた一組の画像の撮像時に舵角センサが検出したステアリング舵角θmを、舵角センサが検出するステアリング舵角θmとステアリングの実際の舵角θtとの間のずれ(検出ずれ)Δθとして決定する。また、演算部129は、第3の実施形態と同様に、決定した検出ずれΔθの絶対値が所定の閾値th3以上であるとき、検出ずれΔθを補正値θaとして補正装置記憶部127に記憶する。
 次に、本変形例に係る舵角補正システムBが実行する補正値算出処理について、図16のフローチャートを用いて説明する。
 はじめに、左右のサイドカメラ111のサイドカメラ撮像部118は、左右の操舵輪115の一方を含む移動体10の周辺領域をそれぞれ同時に撮像した一組の画像を生成する(ステップS400)。
 次に、舵角判断部119は、車載ネットワーク100を介して、ステップS400の一組の画像の撮像と同時に舵角センサが検出したステアリング舵角θmを取得する(ステップS401)。
 次に、舵角補正装置113の取得部126は、例えば車載ネットワーク100を介して、ステップS400の一組の画像およびステップS401の舵角センサが検出したステアリング舵角θmを対応付けて取得する(ステップS402)。
 次に、抽出部128は、ステップS402の一組の画像に対してエッジ検出を施す(ステップS403)。
 続いて、抽出部128は、ステップS403においてエッジ検出を施した一組の画像に対して楕円検出を施す(ステップS404)。
 次に、演算部129は、ステップS402の一組の画像上の左右の操舵輪115の対称度を算出する(ステップS405)。例えば、演算部129は、ステップS404において楕円検出を施した一組の画像のうち一方を左右反転させて画像マッチングを行ない、画像マッチングの相関度を対称度として算出する。
 続いて、演算部129は、ステップS402の一組の画像上の左右の操舵輪115の形状が左右対称か否かを判定する(ステップS406)。例えば、演算部129は、対称度である相関度が所定の閾値th4以上であるとき、形状が左右対称と判定する。形状が左右対称と判定するとき(ステップS406-Yes)、ステップS407に進む。一方、形状が左右対称でないと判定するとき(ステップS406-No)、ステップS400に戻る。
 ステップS406において、形状が左右対称と判定するとき(ステップS406-Yes)、演算部129は、ステップS402の舵角センサが検出したステアリング舵角θmを検出ずれΔθとして決定し、検出ずれΔθの絶対値が、所定の閾値th3以上であるか否かを判定する(ステップS407)。検出ずれΔθの絶対値が閾値th3以上であるとき(ステップS407-Yes)、ステップS408に進む。一方、検出ずれΔθの絶対値が閾値th3未満であるとき(ステップS407-No)、処理を終了する。
 ステップS407において、検出ずれΔθの絶対値が閾値th3以上であるとき(ステップS407-Yes)、演算部129は、検出ずれΔθを補正値θaとして補正装置記憶部127に記憶させる(ステップS408)。
 このように、本変形例の舵角補正システムによれば、一組の画像と舵角センサが検出するステアリング舵角θmとを対応付けて取得するたび、算出する対称度に基づいて両画像上の左右の操舵輪115の形状が左右対称か否かを判定する。そして、形状が左右対称と判定するとき、補正値θaを算出する。このため、第3の実施形態と異なり、舵角センサが検出するステアリング舵角θmと対称度とを対応付けたデータを補正装置記憶部127に蓄積する必要がなく、記憶するデータ容量を低減できる。
 本発明を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。
 例えば、舵角補正システムにおける各構成要素は、分割および再配置が可能である。例えば、舵角補正装置113を撮像装置に包含させてもよい。また例えば、舵角補正システムは、運転者を支援するナビゲーション装置を更に備え、ナビゲーション装置が舵角補正装置113の演算部129や、リアカメラ112の画像重畳部124を備える構成であってもよい。
 また、上述の実施形態において、舵角補正装置113の取得部126は、車載ネットワーク100を介してサイドカメラ111の画像を取得するが、専用線を介して取得するように構成してもよい。
 また、抽出部128が検出した楕円が正しく操舵輪115を抽出しているか否かを判別する構成を備えてもよい。例えば、画像上の検出した楕円内において、エッジ検出を施す前の画像の色情報を用いて操舵輪115を抽出しているか否か判断することが考えられる。このようにして、画像上の操舵輪115の抽出精度を向上して対称度の算出精度を向上することにより、補正値θaの算出精度を向上できる。
 また、上述の実施形態において、舵角補正装置113は、算出した補正値θaを補正装置記憶部127に記憶させるが、ステアリング舵角センサに補正値θaを送信し、ステアリング舵角センサの出力値を補正するように構成してもよい。この場合、画像重畳部124は、車載ネットワーク100を介して取得するステアリング舵角を補正する必要がないため、処理負担を軽減できる。
 また、上述の実施形態において、画像重畳部124はリアカメラ112の撮像画像に指標30を重畳するが、例えば、移動体10の前方の周辺画像を撮像するフロントカメラの撮像画像に重畳するように構成してもよい。
 また、上述の実施形態において、画像マッチングによる相関度又は楕円パラメータに基づくパラメータ空間上の2点間距離を対称度として用いたが、一組の画像上の左右の操舵輪115の形状の対称性の度合いを示す指標であれば任意の指標を採用可能である。
 10  移動体
 11  サイドカメラ
 12  リアカメラ
 13  表示部
 14  操舵輪
 15  ドアミラー
 16  光学系
 17  サイドカメラ撮像部
 18  舵角判断部
 19  サイドカメラ制御部
 20  舵角補正装置
 21  取得部
 22  補正装置記憶部
 23  抽出部
 24  演算部
 25  光学系
 26  リアカメラ撮像部
 27  リアカメラ記憶部
 28  画像重畳部
 29  リアカメラ制御部
 30  指標
 31  車幅延長線
 32  距離目安線
 100 車載ネットワーク
 111  サイドカメラ
 112  リアカメラ
 113  舵角補正装置
 114  表示部
 115  操舵輪
 116  サイドミラー
 117  光学系
 118  サイドカメラ撮像部
 119  舵角判断部
 120  サイドカメラ制御部
 121  光学系
 122  リアカメラ撮像部
 123  リアカメラ記憶部
 124  画像重畳部
 125  リアカメラ制御部
 126  取得部
 127  補正装置記憶部
 128  抽出部
 129  演算部

Claims (16)

  1.  操舵輪を撮像した測定画像と、前記測定画像の撮像時における移動体のステアリング舵角と、を対応付けて取得するステップと、
     前記測定画像上の前記操舵輪と、基準舵角において前記操舵輪を撮像した基準画像上の前記操舵輪と、の一致度を算出するステップと、
     前記一致度に基づいて前記ステアリング舵角を補正する補正値を算出するステップとを含む
     ことを特徴とする舵角補正方法。
  2.  請求項1に記載の舵角補正方法であって、
     異なるステアリング舵角において複数の前記測定画像を取得するステップを含み、
     前記補正値を算出するステップでは、ステアリング舵角に対する前記一致度の分布に基づいて前記補正値を算出する
     ことを特徴とする舵角補正方法。
  3.  請求項1に記載の舵角補正方法であって、
     少なくとも前記測定画像上の前記操舵輪を楕円検出により抽出するステップを含み、
     前記一致度を算出するステップでは、検出する楕円のパラメータを用いて前記一致度を算出する
     ことを特徴とする舵角補正方法。
  4.  請求項3に記載の舵角補正方法であって、
     前記一致度を算出するステップでは、楕円の短辺および傾きの少なくとも一方を示すパラメータに対して、他のパラメータよりも大きな重付けを施して前記一致度を算出する
     ことを特徴とする舵角補正方法。
  5.  請求項1に記載の舵角補正方法であって、
     前記一致度を算出するステップでは、前記測定画像および前記基準画像に基づく画像マッチングによる相関度を前記一致度として算出する
     ことを特徴とする舵角補正方法。
  6.  左右の操舵輪を同時にそれぞれ撮像した一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得するステップと、
     前記一組の画像上の前記左右の操舵輪の対称度を算出するステップと、
     前記対称度に基づいて前記ステアリング舵角を補正する補正値を算出するステップとを含む
     ことを特徴とする舵角補正方法。
  7.  請求項6に記載の舵角補正方法であって、
     異なるステアリング舵角において前記一組の画像を取得するステップを含み、
     前記補正値を算出するステップでは、ステアリング舵角に対する前記対称度の分布に基づいて前記補正値を算出する
     ことを特徴とする舵角補正方法。
  8.  請求項6に記載の舵角補正方法であって、
     前記一組の画像上の前記左右の操舵輪を楕円検出により抽出するステップを含み、
     前記対称度を算出するステップでは、検出する楕円のパラメータを用いて前記対称度を算出する
     ことを特徴とする舵角補正方法。
  9.  請求項8に記載の舵角補正方法であって、
     前記対称度を算出するステップでは、楕円の短辺および傾きの少なくとも一方を示すパラメータに対して、他のパラメータよりも大きな重付けを施して前記対称度を算出する
     ことを特徴とする舵角補正方法。
  10.  請求項6に記載の舵角補正方法であって、
     前記対称度を算出するステップでは、前記一組の画像に基づく画像マッチングによる相関度を用いて前記対称度を算出する
     ことを特徴とする舵角補正方法。
  11.  操舵輪を撮像した測定画像と撮像時における移動体のステアリング舵角とを対応付けて取得する取得部と、
     前記測定画像上の前記操舵輪と、基準舵角において前記操舵輪を撮像した基準画像上の前記操舵輪と、の一致度に基づいて前記舵角を補正する補正値を算出する演算部とを備える
     ことを特徴とする舵角補正装置。
  12.  請求項11に記載の舵角補正装置と、
     前記測定画像を生成する第1の撮像部と、
     前記移動体の周辺画像を生成する第2の撮像部と、
     前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部とを備える
     ことを特徴とする撮像装置。
  13.  操舵輪を撮像した測定画像を生成する第1の撮像部と、
     前記測定画像と撮像時における移動体のステアリング舵角とを対応付けて取得する取得部と、
     前記測定画像上の前記操舵輪と、基準舵角において前記操舵輪を撮像した基準画像上の前記操舵輪と、の一致度に基づいて前記舵角を補正する補正値を算出する演算部と、
     前記移動体の周辺画像を生成する第2の撮像部と、
     前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部と、
     前記指標を重畳した周辺画像を表示する表示部とを備える
     ことを特徴とする舵角補正システム。 
  14.  左右の操舵輪を同時にそれぞれ撮像した一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得する取得部と、
     前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部とを備える
     ことを特徴とする舵角補正装置。
  15.  請求項14に記載の舵角補正装置と、
     前記一組の画像を生成する第1の撮像部と、
     前記移動体の周辺画像を生成する第2の撮像部と、
     前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部とを備える
     ことを特徴とする撮像装置。
  16.  左右の操舵輪を同時にそれぞれ撮像した一組の画像を生成する第1の撮像部と、
     前記一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得する取得部と、
     前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部と、
     前記移動体の周辺画像を生成する第2の撮像部と、
     前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部と、
     前記指標を重畳した周辺画像を表示する表示部とを備える
     ことを特徴とする舵角補正システム。
PCT/JP2014/004437 2013-08-28 2014-08-28 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム WO2015029443A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/915,620 US9862417B2 (en) 2013-08-28 2014-08-28 Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system
EP14839821.7A EP3040254B1 (en) 2013-08-28 2014-08-28 Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013177189A JP6023025B2 (ja) 2013-08-28 2013-08-28 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム
JP2013-177189 2013-08-28
JP2013200569A JP6023030B2 (ja) 2013-09-26 2013-09-26 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム
JP2013-200569 2013-09-26

Publications (1)

Publication Number Publication Date
WO2015029443A1 true WO2015029443A1 (ja) 2015-03-05

Family

ID=52586031

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/004437 WO2015029443A1 (ja) 2013-08-28 2014-08-28 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム

Country Status (3)

Country Link
US (1) US9862417B2 (ja)
EP (1) EP3040254B1 (ja)
WO (1) WO2015029443A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9683861B2 (en) * 2013-09-27 2017-06-20 Nissan Motor Co., Ltd. Estimated route presentation apparatus and estimated route presentation method
JP6447060B2 (ja) * 2014-11-28 2019-01-09 アイシン精機株式会社 車両周辺監視装置
US20160353049A1 (en) * 2015-05-27 2016-12-01 Caterpillar Inc. Method and System for Displaying a Projected Path for a Machine
US20200041304A1 (en) * 2018-07-31 2020-02-06 GM Global Technology Operations LLC High resolution virtual wheel speed sensor
WO2020157683A1 (en) * 2019-01-29 2020-08-06 Aptiv Technologies Limited Electric power steering torque compensation
EP3719696A1 (en) 2019-04-04 2020-10-07 Aptiv Technologies Limited Method and device for localizing a sensor in a vehicle
JP7234968B2 (ja) * 2020-02-17 2023-03-08 トヨタ自動車株式会社 転舵装置
US11808578B2 (en) * 2020-05-29 2023-11-07 Aurora Flight Sciences Corporation Global positioning denied navigation
HUP2100215A1 (hu) 2021-06-07 2022-12-28 Vie Tech Europe Kft Javított eljárás és rendszer kerekek figyelésére
DE102021211326A1 (de) 2021-10-07 2023-04-13 Zf Friedrichshafen Ag Verfahren und Steuereinheit zum Erfassen einer Radstellung mindestens eines Rades eines Fahrzeugs und Fahrzeug
CN114771657A (zh) * 2022-06-02 2022-07-22 安徽安凯汽车股份有限公司 一种方向轮转角检测系统
US20230410527A1 (en) 2022-06-20 2023-12-21 Steering Solutions Ip Holding Corporation Roadwheel angle estimation based on camera input

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6015270A (ja) * 1983-07-06 1985-01-25 Toyota Motor Corp 車両の操舵角検出装置
JP2005001667A (ja) * 2000-01-14 2005-01-06 Aisin Seiki Co Ltd 舵角補正装置
JP2006208199A (ja) * 2005-01-28 2006-08-10 Nissan Motor Co Ltd 操舵角検出装置
JP2012224248A (ja) * 2011-04-20 2012-11-15 Isuzu Motors Ltd ステアリング制御装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4023311B2 (ja) 2002-12-20 2007-12-19 松下電器産業株式会社 車両周辺監視装置
JP4235026B2 (ja) * 2003-04-28 2009-03-04 トヨタ自動車株式会社 駐車支援装置
US7382913B2 (en) * 2003-08-22 2008-06-03 Hunter Engineering Company Method and apparatus for guiding placement of vehicle service fixtures
JP4900460B2 (ja) * 2009-12-14 2012-03-21 株式会社デンソー 操舵装置用車輪把持検出装置、プログラム
DE102011082364A1 (de) * 2010-09-09 2012-03-22 Continental Teves Ag & Co. Ohg Lenkwinkelbestimmung für ein Kraftfahrzeug
JP2012185808A (ja) * 2011-02-17 2012-09-27 Panasonic Corp 画像処理装置、画像処理方法、及びコンピュータプログラム、並びに撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6015270A (ja) * 1983-07-06 1985-01-25 Toyota Motor Corp 車両の操舵角検出装置
JP2005001667A (ja) * 2000-01-14 2005-01-06 Aisin Seiki Co Ltd 舵角補正装置
JP4323402B2 (ja) 2000-01-14 2009-09-02 アイシン精機株式会社 舵角補正装置
JP2006208199A (ja) * 2005-01-28 2006-08-10 Nissan Motor Co Ltd 操舵角検出装置
JP2012224248A (ja) * 2011-04-20 2012-11-15 Isuzu Motors Ltd ステアリング制御装置

Also Published As

Publication number Publication date
US9862417B2 (en) 2018-01-09
EP3040254A4 (en) 2017-04-05
EP3040254B1 (en) 2019-11-20
US20160251030A1 (en) 2016-09-01
EP3040254A1 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
WO2015029443A1 (ja) 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
EP3416368B1 (en) Calibration system
KR101787304B1 (ko) 교정 방법, 교정 장치 및 컴퓨터 프로그램 제품
JP5091902B2 (ja) 車載カメラの校正に用いられる校正指標と、当該校正指標を用いた車載カメラの校正方法と、システムと、当該システムのためのプログラム
US20120314073A1 (en) Apparatus and Method for Detecting Posture of Camera Mounted on Vehicle
US9202106B2 (en) Eyelid detection device
JP4670528B2 (ja) 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置
JP6377970B2 (ja) 視差画像生成装置及び視差画像生成方法
CN112489136B (zh) 标定方法、位置确定方法、装置、电子设备及存储介质
JP2017188738A (ja) 車載カメラの取付角度検出装置、取付角度較正装置、取付角度検出方法、取付角度較正方法、およびコンピュータープログラム
CN108376384B (zh) 视差图的矫正方法、装置及存储介质
JP6669182B2 (ja) 乗員監視装置
JP4397573B2 (ja) 画像処理装置
JP6407596B2 (ja) 画像処理装置、及び、運転支援システム
JP5561469B2 (ja) ヨーレート補正装置、及びその方法
JP2014195170A (ja) 運転支援装置
JP6023030B2 (ja) 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム
JP6023025B2 (ja) 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム
JP2018136739A (ja) キャリブレーション装置
US11295429B2 (en) Imaging abnormality diagnosis device
US20190259179A1 (en) Image processing device and image processing method
JP2008042759A (ja) 画像処理装置
JP4040620B2 (ja) 車両周辺監視装置
JP2009264759A (ja) オフセット補正装置およびオフセット補正方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14839821

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014839821

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14915620

Country of ref document: US

Ref document number: 2014839821

Country of ref document: EP