WO2021070814A1 - 同期装置、同期方法、同期プログラム - Google Patents

同期装置、同期方法、同期プログラム Download PDF

Info

Publication number
WO2021070814A1
WO2021070814A1 PCT/JP2020/037853 JP2020037853W WO2021070814A1 WO 2021070814 A1 WO2021070814 A1 WO 2021070814A1 JP 2020037853 W JP2020037853 W JP 2020037853W WO 2021070814 A1 WO2021070814 A1 WO 2021070814A1
Authority
WO
WIPO (PCT)
Prior art keywords
synchronization
image
reflected wave
external light
wave image
Prior art date
Application number
PCT/JP2020/037853
Other languages
English (en)
French (fr)
Inventor
龍介 大畠
潤 湖上
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to JP2021551661A priority Critical patent/JP7140291B2/ja
Priority to CN202080070199.9A priority patent/CN114556157A/zh
Publication of WO2021070814A1 publication Critical patent/WO2021070814A1/ja
Priority to US17/658,073 priority patent/US20220229184A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4918Controlling received signal intensity, gain or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Definitions

  • This disclosure relates to synchronous processing technology.
  • Patent Document 1 discloses a technique for adding time information to each acquired image in order to synchronize the radar sensor and the external camera in such a vehicle.
  • the first aspect of the present disclosure is In a vehicle equipped with a radar sensor that acquires a reflected wave image corresponding to the reflected wave obtained by irradiating an electromagnetic wave and an external light image that acquires an external light image corresponding to the external light sensed from the outside world, the radar sensor And a synchronization device that performs synchronization processing for external cameras.
  • a synchronization prediction unit that predicts the synchronization shift time between the radar sensor and the external camera, A change amount calculation unit that calculates the time change amount of the reflected wave image between the shutter frames of the external camera, An image estimation unit that estimates the reflected wave image at the synchronization timing that the synchronization deviation time predicted by the synchronization prediction unit deviates from the start timing of the shutter frame based on the time change amount calculated by the change amount calculation unit.
  • a difference extraction unit that extracts the difference between the reflected wave image at the synchronization timing estimated by the image estimation unit and the external light image by comparing them with each other. It is provided with a processing determination unit that determines whether or not to remand the synchronization processing until the synchronization deviation time is predicted by the synchronization prediction unit based on the difference calculated by the difference extraction unit.
  • the second aspect of the present disclosure is In a vehicle equipped with a radar sensor that acquires a reflected wave image corresponding to the reflected wave obtained by irradiating an electromagnetic wave and an external light image that acquires an external light image corresponding to the external light sensed from the outside world, the radar sensor And a synchronization method that performs synchronization processing for external cameras.
  • a prediction process that predicts the synchronization shift time between the radar sensor and the external camera
  • a calculation process that calculates the amount of time change of the reflected wave image between the shutter frames of the external camera
  • An estimation process that estimates the reflected wave image at the synchronization timing that the synchronization deviation time predicted by the prediction process deviates from the start timing of the shutter frame based on the time change amount calculated by the calculation process.
  • An extraction process that extracts the difference between the reflected wave image at the synchronization timing estimated by the estimation process and the external light image by comparing them with the external light image. It includes a determination process that determines whether or not to remand the synchronization process until the prediction of the synchronization deviation time by the prediction process is performed based on the difference extracted by the extraction process.
  • the third aspect of the present disclosure is In a vehicle equipped with a radar sensor that acquires a reflected wave image corresponding to the reflected wave obtained by irradiating an electromagnetic wave and an external light image that acquires an external light image corresponding to the external light sensed from the outside world, the radar sensor And a synchronization program that is stored in a storage medium and contains instructions to be executed by a processor to perform synchronization processing for an outside world camera.
  • the instruction is A prediction process that predicts the synchronization shift time between the radar sensor and the external camera, A calculation process that calculates the amount of time change of the reflected wave image between the shutter frames of the external camera, An estimation process in which the reflected wave image at a synchronization timing deviated from the shutter frame start timing by the synchronization deviation time predicted by the prediction process is estimated based on the time change amount calculated by the calculation process. An extraction process that extracts the difference between the reflected wave image at the synchronization timing estimated by the estimation process and the external light image by comparing them. It includes a determination process in which it is determined based on the difference extracted by the extraction process whether or not the synchronization process is returned to the prediction of the synchronization deviation time by the prediction process.
  • the reflected wave image at the synchronization timing in which the synchronization shift time between the radar sensor and the outside world camera deviates from the start timing of the shutter frame in the outside world camera is the reflected wave between the same frames. It is estimated based on the amount of time change of the image.
  • the difference extracted by comparing the reflected wave image at this synchronization timing with the external light image becomes smaller as the prediction of the synchronization deviation time is accurate. Therefore, whether or not to remand the synchronization process until the synchronization shift time is predicted is determined based on the difference between the reflected wave image and the external light image. Therefore, the synchronization process is performed until the synchronization shift time is accurately predicted. Can be repeated. Therefore, it is possible to synchronize the radar sensor and the external camera with high accuracy.
  • the synchronization device 1 As shown in FIG. 1, the synchronization device 1 according to the first embodiment is mounted on the vehicle 3.
  • the vehicle 3 is, for example, an advanced driving support vehicle or an autonomous driving vehicle, which travels based on the result of motion estimation such as self-position estimation.
  • the lateral direction and the front-rear direction of the vehicle 3 on the horizontal plane are simply referred to as the lateral direction and the front-rear direction, respectively.
  • the vertical direction of the vehicle 3 on the horizontal plane is simply referred to as the vertical direction.
  • the sensor system 2 is mounted on the vehicle 3 together with the synchronization device 1. As shown in FIGS. 1 and 2, the sensor system 2 includes at least an inertial sensor 20, a radar sensor 22, and an external camera 24.
  • the inertial sensor 20 is a so-called IMU (Inertial Measurement Unit) that acquires inertial information Ib that can be used for estimating the motion of the vehicle 3, for example.
  • the inertial sensor 20 acquires at least one type of inertial information Ib around three axes of the vehicle 3 in the front-rear direction, the lateral direction, and the vertical direction, for example, an angle, an angular velocity, and an angular acceleration. Therefore, the inertial sensor 20 includes at least one of, for example, a gyro and an acceleration sensor.
  • the radar sensor 22 of the first embodiment is a so-called LIDAR (Light Detection and Ringing / Laser Imaging Detection and Ringing) that acquires a reflected wave image Ir that can be used for motion estimation of a vehicle 3, for example.
  • the radar sensor 22 acquires a reflected wave image Ir corresponding to the reflected wave obtained by irradiating the outside world of the vehicle 3 with an electromagnetic wave.
  • the radar sensor 22 includes a laser element 220, an image pickup element 221 and an image pickup circuit 222.
  • the image pickup circuit 222 has a pulse beam shape in which infrared laser light (hereinafter, simply referred to as laser light) as an electromagnetic wave directed from the laser element 220 to the outside world of the vehicle 3 is intermittently formed according to a change in the beam steering angle in the lateral direction. In addition, irradiation control is performed. Along with this laser beam irradiation, the image pickup circuit 222 sequentially arranges a single row or a plurality of rows of vertical pixel rows in the horizontal direction in the constituent pixels of the image pickup element 221 for each scanning line corresponding to the beam steering angle driven in the horizontal direction. A rolling shutter that performs exposure and sequential scanning is realized.
  • laser light infrared laser light
  • the image pickup circuit 222 sets the distance value of the reflected light sensed as a reflected wave for each exposed pixel of the image pickup element 221 to the reflection point of the reflected light according to the arrival time from the time of laser beam irradiation.
  • the reflected wave image Ir is acquired by associating it with the corresponding beam steering angle for each and converting it into data.
  • the brightness value corresponding to the intensity of the reflected light as the reflected wave sensed for each exposed pixel of the image sensor 221 is converted into data by the image pickup circuit 222 in association with the beam steering angle corresponding to each pixel. Therefore, it may be included in the reflected wave image Ir.
  • the image pickup device 221 may be provided with a function of taking an image according to the outside light sensed from the outside world of the vehicle 3 during the interval of intermittent laser light irradiation. In this case, the brightness value corresponding to the intensity of the external light sensed for each exposed pixel of the image sensor 221 is converted into data by the image pickup circuit 242 in association with the beam steering angle corresponding to each pixel. It may be included in the reflected wave image Ir.
  • the external camera 24 is a so-called in-vehicle camera that acquires an external light image Io that can be used for estimating the motion of the vehicle 3, for example.
  • the outside world camera 24 acquires an outside light image Io corresponding to the outside light sensed from the outside world of the vehicle 3.
  • the external camera 24 has an image sensor 241 and an image pickup circuit 242.
  • the image pickup circuit 242 realizes a global shutter in which a plurality of rows of vertical pixel rows in the horizontal direction of the constituent pixels of the image pickup element 241 are collectively exposed and collectively scanned by the corresponding scanning lines.
  • the image pickup circuit 242 associates the brightness value corresponding to the intensity of the outside light sensed for each exposed pixel of the image pickup element 241 with the pixel angle corresponding to each pixel, and converts the outside light image Io into data. To get.
  • the global shutter frame Fo in which all scanning lines are scanned by the external camera 24 has a short frame period and a close start timing with respect to the rolling shutter frame Fr in which all scanning lines are scanned by the radar sensor 22. , Is set. Therefore, when the start timings of the frames Fo and Fr are accurately synchronized as shown in FIG. 3, the reflected wave image Ir is apparently that of the vehicle 3 as shown in FIG. 4 as compared with the external light image Io. It is compressed on the side opposite to the traveling side, and the outside world is observed and acquired by the amount of the compression. Note that FIG. 4 schematically shows the range of the outside world reflected in each image Ir, Io, not the images Ir, Io itself.
  • the synchronization device 1 of the first embodiment has each component 20, 22, of the sensor system 2 via, for example, at least one of a LAN (Local Area Network), a wire harness, an internal bus, and the like. It is connected to 24.
  • the synchronization device 1 includes at least one dedicated computer.
  • the dedicated computer that constitutes the synchronization device 1 may be an ECU (Electronic Control Unit) of a locator that estimates the self-position of the vehicle 3.
  • the dedicated computer constituting the synchronization device 1 may be an ECU that controls advanced driving support or automatic driving of the vehicle 3.
  • the dedicated computer constituting the synchronization device 1 may be an ECU that controls communication between the vehicle 3 and the outside world.
  • the synchronization device 1 has at least one memory 10 and one processor 12 by being configured to include such a dedicated computer.
  • the memory 10 stores a computer-readable program and data non-temporarily, for example, at least one type of non-transitory tangible storage medium such as a semiconductor memory, a magnetic medium, and an optical medium.
  • the processor 12 includes, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a RISC (Reduced Instruction Set Computer) -CPU, and the like as a core.
  • the processor 12 executes a plurality of instructions included in the synchronization program stored in the memory 10.
  • the synchronization device 1 constructs a plurality of functional blocks for performing synchronization processing with respect to the radar sensor 22 and the outside world camera 24 as shown in FIG.
  • the synchronization process for the radar sensor 22 and the external camera 24 is simply referred to as a synchronization process.
  • the plurality of functional blocks constructed by the synchronization device 1 include an error correction block 100, a motion compensation block 110, a change amount calculation block 120, an image estimation block 130, a difference extraction block 140, a processing determination block 160, and a synchronization prediction block 180. included.
  • the latest inertial information Ib acquired by the inertial sensor 20 at time k is input to the error correction block 100.
  • the latest bias error B estimated with respect to the time k by at least one of various navigation operations is input to the error correction block 100.
  • the time k represents the start timing of the global shutter frame Fo (see FIG. 3).
  • the error correction block 100 corrects the latest bias error B with respect to the latest inertial information Ib. This correction is realized by subtracting the bias error B from the inertia information Ib.
  • the latest reflected wave image Ir acquired by the radar sensor 22 is input to the motion compensation block 110 in the global shutter frame Fo whose start timing is time k.
  • the latest reflected wave image Ir has a distance value Lr [k, i, j] and a beam steering angle ⁇ r [k, i, j] and ⁇ r [k, for each pixel for each scanning line. i, j] is included as the latest data value.
  • [k, i, j] is the latest data value Lr, depending on the time k, the scanning number i representing the arrangement order and scanning order for each scanning line, and the pixel number j representing each pixel for each scanning line. It is an index that specifies ⁇ r and ⁇ r. That is, Lr [k, i, j], ⁇ r [k, i, j] and ⁇ r [k, i, j] are the latest for each scanning line with the time h (see FIG. 3) of the following equation 1 as the scanning timing. It is input to the motion compensation block 110 as a data value.
  • ⁇ r [k, i, j] refers to the laser light that is irradiated by the laser element 220 and then sensed at time h by the specific pixels at the numbers i and j of the image sensor 221. It represents the beam steering angle in the vertical direction.
  • ⁇ r [k, i, j] is beam-steering in the lateral direction with respect to the laser light that is irradiated by the laser element 220 and then sensed at time h by the specific pixels at the numbers i and j of the image sensor 221. It represents a corner.
  • the motion compensation block 110 corrects the movement amount due to the motion of the vehicle 3 (see FIG. 3) in the global shutter frame Fo with respect to the latest data value of the reflected wave image Ir, and the bias error B is corrected. Compensation is made based on the inertial information Ib. Specifically, the motion compensation block 110 uses at least one of various navigation calculations based on the corrected inertia information Ib of the bias error B to obtain the self-position P [k, i] of the vehicle 3 at time k and the direction cosine matrix. Calculate C [k, i].
  • [k, i] is an index that identifies the calculation results P and C based on the time k and the scanning number i. That is, P [k, i] and C [k, i] are commonly calculated among the pixels of the same scanning line. Therefore, the motion compensation block 110 has a scan number i in the global shutter frame Fo for the latest data values Lr [k, i, j], ⁇ r [k, i, j] and ⁇ r [k, i, j]. The amount of movement of the vehicle 3 that changes to is compensated by the following equation 2 using the calculation results P [k, i] and C [k, i].
  • the motion compensation block 110 calculates the following three-dimensional polar coordinates R [k, i, j] for each pixel of each scanning line.
  • the calculated three-dimensional polar coordinates R [k, i, j] are stored in the memory 10 in association with the time k as the latest data value of the reflected wave image Ir in which the movement amount of the vehicle 3 is compensated.
  • the amount of movement of the vehicle 3 within the global shutter frame Fo is simply referred to as the amount of movement of the vehicle.
  • the change amount calculation block 120 shown in FIG. 2 the latest and previous reflected wave images Ir stored in the memory 10 after the vehicle movement amount is compensated by the motion compensation block 110 are input (that is, read out).
  • the change amount calculation block 120 calculates the time change amount ⁇ R [k, i, j] of the reflected wave image Ir between the global shutter frames Fo.
  • the change amount calculation block 120 displays the latest and previous reflected wave images Ir acquired in the global shutter frame Fo before and after the start timing by the following three-dimensional polar coordinates R having a common index other than the time. Contrast with Equation 3.
  • the change amount calculation block 120 calculates the time change amount ⁇ R [k, i, j], which is the latest differential value at time k, for each pixel.
  • the above equation 3 is the coordinates R [k, i, j] in the global shutter frame Fo starting at the time k this time and the coordinates R [k-1, i] in the global shutter frame Fo starting at the previous time k-1.
  • J] is used to define the amount of change ⁇ R [k, i, j] by the difference between those coordinates. Therefore, the change amount calculation block 120 is the three-dimensional polar coordinates R [k, i, j] and R [k-1, i, calculated by the correction and compensation in the blocks 100 and 110 prior to the synchronization processing of this time and the previous time. j] is used.
  • the change amount calculation block 120 is calculated in the three-dimensional polar coordinates R [k-1] after the correction and compensation in the blocks 100 and 110 before the first time, only in the first synchronization processing from the start of the running of the started vehicle 3. , I, j] is used together with the first three-dimensional polar coordinates R [k, i, j].
  • the latest time change amount ⁇ R [k, i, j] calculated by the change amount calculation block 120 is input to the image estimation block 130 shown in FIG.
  • the latest reflected wave image Ir stored in the memory 10 after the vehicle movement amount is compensated by the motion compensation block 110 is input (that is, read out) to the image estimation block 130.
  • the latest synchronization shift time T stored in the memory 10 by being predicted by the synchronization prediction block 180 is input (that is, read out) to the change amount calculation block 120 as described in detail later.
  • the image estimation block 130 sets the start timing of the global shutter frame Fo as the time k, and sets the timing at which the latest synchronization shift time T deviates from the time k in the direction of the code (that is, the time k + T).
  • the synchronization timing ts is set as shown in FIG. Note that FIG. 7 schematically shows the external world range reflected in the reflected wave image Ir itself when the sign of the synchronization shift time T is plus (+). Therefore, the image estimation block 130 estimates the reflected wave image Ir at the synchronization timing ts based on the time change amount ⁇ R [k, i, j] at the time k.
  • the image estimation block 130 uses the following number 4 using the time change amount ⁇ R [k, i, j] and the synchronization shift time T to obtain the three-dimensional polar coordinates R [k, i, in the latest reflected wave image Ir. j] is converted. As a result, the image estimation block 130 calculates the estimated polar coordinates Rp [k, i, j] of the reflected wave image Ir at the synchronization timing ts for each pixel.
  • the above equation 4 is the coordinates R [k, i, j] in the global shutter frame Fo starting at the time k this time, the amount of change ⁇ R [k, i, j] at the same time k, and the synchronization shift time T.
  • the coordinates Rp [k, i, j] at the synchronization timing ts are estimated using the frame period ⁇ k of the same frame Fo. Therefore, the image estimation block 130 generates a reflected wave image Ir including the estimated polar coordinates Rp [k, i, j] as the estimated data value at the synchronization timing ts.
  • the difference extraction block 140 is a sub-block 142 and 144 for preprocessing the reflected wave image Ir and the external light image Io, respectively, and a sub-block 146 for comparing the preprocessed images Ir and Io with each other. And have.
  • the sub-block 142 in the difference extraction block 140 has the self-position P [k] of the self-position P [k, i] calculated by the motion compensation block 110 and the direction cosine matrix C [k, i] corresponding to the time k. , 1] and the direction cosine matrix C [k, 1] are input.
  • the reflected wave image Ir at the synchronization timing ts estimated by the image estimation block 130 is input to the sub-block 142.
  • the sub-block 142 compensates the reflected wave image Ir for the deviation from the time k, which is the start timing of the global shutter frame Fo. Specifically, the sub-block 142 sets the estimated polar coordinates Rp [k, i, j] of each pixel calculated by the image estimation block 130 as the estimated data value of the reflected wave image Ir at the synchronization timing ts to the third order of the following equation 5. Convert to the original Cartesian coordinates Rr [k, i, j] respectively.
  • the above equation 5 is the transposed matrix CT [k, 1] of the direction cosine matrix C [k, 1] at the time k, which is the start timing of the global shutter frame Fo, and the estimated polar coordinates Rp [k] in the same frame Fo. , I, j] are used to define the three-dimensional Cartesian coordinates Rr [k, i, j]. Therefore, the sub-block 142 further sets the deviation from the time k at the time h with respect to the three-dimensional Cartesian coordinates Rr [k, i, j] of each pixel, which is the latest data value of the coordinate-converted reflected wave image Ir. , Compensation is made by the following equation 6 using the self-position P [k, 1] at time k.
  • the sub-block 142 calculates the relative orthogonal coordinates x, y, z of the following equation 6 as relative position information when the laser light reflection point corresponding to each pixel is viewed from the vehicle 3 at time k. ..
  • the sub-block 142 further converts the calculated relative orthogonal coordinates x, y, z of each pixel by the following numbers 7 to 9. As a result, the sub-block 142 shifts the distance value Lr [k, i, j] from the beam steering angles ⁇ r [k, i, j] and ⁇ r [k, i, j] in accordance with the time k. It is calculated as the latest data value of the compensated reflected wave image Ir.
  • the sub-block 144 has a beam steering angle ⁇ r [k, i, j] and ⁇ r [k, i, among the latest data values of the reflected wave image Ir calculated by the sub-block 142. j] is input.
  • the latest external light image Io acquired by the external camera 24 is input to the subblock 144 in the global shutter frame Fo whose start timing is time k.
  • the latest external light image Io has a luminance value So [k, m, n] and pixel angles ⁇ o [k, m, n] and ⁇ o [k, m] for each pixel for each scanning line. , N] is included as the latest data value.
  • [k, m, n] is the latest data value So, ⁇ o, ⁇ o depending on the time k, the scanning number m indicating the order of arrangement for each scanning line, and the pixel number n representing each pixel for each scanning line. It is an index that identifies.
  • the maximum value of the scan number m with respect to the external light image Io is larger than the maximum value of the scan number i with respect to the reflected wave image Ir
  • the maximum value of the pixel number n with respect to the external light image Io is with respect to the reflected wave image Ir. It is larger than the maximum value of the pixel number j. That is, the external light image Io is generated in high definition with a larger number of pixels than the reflected wave image Ir.
  • ⁇ o [k, m, n] represents the pixel angle in the vertical direction with respect to the external light sensed at time k by the specific pixels at the numbers m and n of the image sensor 241.
  • ⁇ o [k, i, j] represents the pixel angle in the lateral direction with respect to the external light sensed at time k by the specific pixels at the numbers m and n of the image sensor 241.
  • the sub-block 144 interpolates the high-definition side of the reflected wave image Ir and the external light image Io according to the low-definition side. That is, the sub-block 144 matches the external light image Io on the high-definition side with the reflected wave image Ir on the low-definition side by interpolation.
  • the sub-block 144 has an index pixel angle ⁇ o and an index that satisfies the following equations 10 and 11, respectively, with respect to the beam steering angles ⁇ r [k, i, j] and ⁇ r [k, i, j] in each pixel. Search for ⁇ o as shown in FIG.
  • the indexes of pixels that are adjacent to each other in the horizontal direction are expressed as [k, m, n] and [k, m + 1, n].
  • the above number 10 defines a search condition for the beam steering angle ⁇ r [k, i, j] using ⁇ o [k, m, n] and ⁇ o [k, m + 1, n]. ing.
  • the indexes of the pixels that are adjacent to each other in the vertical direction are expressed as [k, m, n] and [k, m, n + 1].
  • the above number 11 uses the pixel angles ⁇ o [k, m, n] and ⁇ o [k, m, n + 1] to determine the search condition for the beam steering angle ⁇ r [k, i, j]. It is defined. From these facts, the sub-block 144 has a brightness value So [k] of coordinates corresponding to the beam steering angles ⁇ r [k, i, j] and ⁇ r [k, i, j] in each pixel on the external light image Io. , I, j] is calculated by interpolation (see FIG. 8) of the following equations 12 to 14.
  • the indexes of pixels that are adjacent to each other in the horizontal direction are expressed as [k, m, n] and [k, m + 1, n].
  • the above number 12 has pixel angles ⁇ o [k, m, n] and ⁇ o [k, m + 1, n], and corresponding luminance values So [k, m, n] and So [k, respectively.
  • M + 1, n] and the beam steering angle ⁇ r [k, i, j] are used to define the variable S1.
  • the indexes of the pixels that are adjacent to each other in the vertical direction are expressed as [k, m, n] and [k, m, n + 1]. Further, the above number 13 is the latter [k, m + 1, n] when the indexes of pixels adjacent to each other in the horizontal direction are expressed as [k, m, n] and [k, m + 1, n]. Pixels are the indexes of pixels adjacent to each other in the vertical direction as [k, m + 1, n + 1] (see FIG. 8).
  • the above number 13 is the latter [k, 1, n + 1] when the indexes of pixels adjacent to each other in the vertical direction are expressed as [k, m, n] and [k, m, n + 1]. ] Pixels can be said to indicate the indexes of pixels adjacent in the horizontal direction as [k, m + 1, n + 1] (see FIG. 8). Under these notations, the number 13 corresponds to the pixel angles ⁇ o [k, m, n + 1] and ⁇ o [k, m + 1, n + 1], respectively, and the corresponding luminance values So [k, m, n.
  • the variable S2 is defined by using [+1] and So [k, m + 1, n + 1] and the beam steering angle ⁇ r [k, i, j].
  • the indexes of the pixels that are adjacent to each other in the vertical direction are described as [k, m, n] and [k, m, n + 1].
  • the number 14 includes pixel angles ⁇ o [k, m, n] and ⁇ o [k, m, n + 1], variables S1 and S2 of numbers 12 and 13, and a beam steering angle ⁇ r [. Using k, i, j], the brightness value So [k, i, j] of the interpolated external light image Io is defined.
  • the distance value Lr [k, i, j] is input to the subblock 146 as the latest data value of the reflected wave image Ir calculated by the subblock 142.
  • the sub-block 146 extracts an edge in the latest reflected wave image Ir by at least one of various filtering processes for the distance value Lr [k, i, j].
  • the sub-block 146 sets the difference in the distance values Lr [k, i, j] between the pixels that are adjacent to each other in the horizontal or vertical direction with respect to the pixels corresponding to the extracted edges, and the edge image value Lre [. It is calculated as k, i, j].
  • the brightness value So [k, i, j] is input to the sub-block 146 as the latest data value of the external light image Io interpolated by the sub-block 144.
  • the sub-block 146 extracts an edge in the latest external light image Io by at least one of various filtering processes for the luminance value So [k, i, j].
  • the sub-block 146 sets the difference in the brightness values So [k, i, j] between the pixels that are adjacent to each other in the horizontal or vertical direction with respect to the pixels corresponding to the extracted edges, and sets the edge image value Soe [. It is calculated as k, i, j].
  • the sub-block 146 compares the reflected wave image Ir and the external light image Io for each pixel corresponding to each other with respect to the calculated edge image values Lre [k, i, j] and Soe [k, i, j]. By doing so, the difference E [k, i, j] of those images Io and Ir is extracted. Specifically, the sub-block 146 normalizes the edge image values Lre [k, i, j] and Soe [k, i, j] having the same index according to their respective variation ranges, and then compares them according to the following number 15. The difference E [k, i, j] between these image values is calculated.
  • the sub-block 146 normalizes the image values Lre [k, i, j] and Soe [k, i, j] relating to the edge between the reflected wave image Ir and the external light image Io according to their respective variation ranges, and then normalizes them. The comparison between these edges and the difference extraction are performed.
  • the first term on the right side of the above equation 15 sets the maximum and minimum values of the edge image values Lre [k, i, j] in the reflected wave image Ir to Lremax [k, i, j] and Lremin [k, respectively. It is written as i, j].
  • the first term on the right side of the above equation 15 is the edge image value Lre [k,] according to the variation range obtained by subtracting the minimum value Lremin [k, i, j] from the maximum value Lremax [k, i, j].
  • i, j] is normalized (that is, dimensionless).
  • the second term on the right side of the above equation 15 sets the maximum and minimum values of the edge image values Soe [k, i, j] in the external light image Io to Soemax [k, i, j] and Soemin [k, respectively. It is written as i, j].
  • the first term on the right side of the above equation 15 is the edge image value Soe [k,] according to the variation range obtained by subtracting the minimum value Soemin [k, i, j] from the maximum value Soemax [k, i, j].
  • i, j] is normalized (that is, dimensionless).
  • the processing determination block 160 shown in FIG. 2 the difference E [k, i, j] between the latest images Io and Ir extracted by the sub-block 146 of the difference extraction block 140 is input. Upon receiving this input, the processing determination block 160 determines whether or not to remand the synchronization processing until the synchronization shift time T is predicted by the synchronization prediction block 180 based on the difference E [k, i, j].
  • the processing determination block 160 determines that remand is unnecessary.
  • the synchronization shift time T when it is determined that the remand is unnecessary is realized to synchronize the radar sensor 22 with the external camera 24 when used for, for example, motion estimation of the vehicle 3.
  • the sum of squares of the difference E [k, i, j] for each pixel is simply referred to as the sum of squares of the difference E [k, i, j].
  • Block 160 drops.
  • the synchronization shift time T when it is determined that the remand is necessary is repredicted to a value different from the latest value stored in the memory 10 by the synchronization prediction block 180 described in detail later.
  • the permissible range serving as the determination standard of the synchronization prediction block 180 may be set to a numerical range equal to or less than the threshold value with the upper limit of the value that can be determined to be accurate as the difference E [k, i, j] as the threshold value. ..
  • the permissible range may be set to a numerical range less than the threshold value with the lower limit of the value to be judged to be inaccurate as the difference E [k, i, j] as the threshold value.
  • the initial value of the synchronization deviation time T stored in the memory 10 is input in accordance with the determination that the first synchronization processing is required from the start of traveling of the started vehicle 3. (That is, it is read).
  • the synchronization prediction block 180 tentatively predicts the latest synchronization deviation time T at time k to an initial value and stores it in the memory 10.
  • the initial value of the synchronization shift time T may be a preset fixed value.
  • the initial value of the synchronization shift time T may be a variable value predicted by the past synchronization processing.
  • the synchronization deviation time T of the inaccurate prediction is input (that is, read out) from the memory 10 when the processing determination block 160 determines that the remand is necessary.
  • the synchronization prediction block 180 repredicts the latest synchronization deviation time T at time k by adding the deviation adjustment value to the synchronization deviation time T of the inaccurate prediction, and stores it in the memory 10.
  • the synchronization prediction block 180 is based on the sign and the initial value of the deviation adjustment value according to the increase / decrease result between the sum of squares of the difference E [k, i, j] extracted in the current and previous synchronization processing. Adjust the variable amount of.
  • the initial value of the deviation adjustment value stored in the memory 10 is also input (that is, read) to the synchronization prediction block 180.
  • the initial value of the deviation adjustment value may be a preset fixed value.
  • the initial value of the deviation adjustment value may be a variable value predicted by the past synchronization processing.
  • the motion compensation block 110 corresponds to the “motion compensation unit”
  • the change amount calculation block 120 corresponds to the “change amount calculation unit”
  • the image estimation block 130 corresponds to the “image estimation unit”.
  • the difference extraction block 140 corresponds to the "difference extraction unit”
  • the processing determination block 160 corresponds to the "processing determination unit”
  • the synchronization prediction block 180 corresponds to the "synchronization prediction unit”.
  • each "S" means a plurality of steps executed by a plurality of instructions included in the synchronization program. Furthermore, the notation of the index is omitted in the following description.
  • the synchronization prediction block 180 temporarily sets the synchronization deviation time T generated between the radar sensor 22 and the external camera 24 at the time k when the global shutter frame Fo starts as an initial value stored in the memory 10. Predict and store in memory 10.
  • the error correction block 100 corrects the latest bias error B with respect to the latest inertial information Ib acquired at time k by the inertial sensor 20.
  • the motion compensation block 110 compensates for the amount of vehicle movement within the frame Fo with respect to the latest reflected wave image Ir acquired by the radar sensor 22 in the global shutter frame Fo started at time k. .. The compensation at this time is based on the inertial information Ib corrected by the bias error B by S102.
  • the change amount calculation block 120 calculates the change amount ⁇ R between the latest and previous image Irs compensated for the vehicle movement amount as the time change amount ⁇ R of the reflected wave image Ir between the global shutter frames Fo. Before the execution of this flow, which executes the first synchronization process from the start of traveling of the started vehicle 3, the same correction as S101 and the same compensation as S102 are executed once, respectively, in the first time. The three-dimensional polar coordinates R required for the time change amount ⁇ R are calculated.
  • the image estimation block 130 shifts the latest synchronization shift time T minutes predicted immediately before by S101 or S110 described later from the start timing of the global shutter frame Fo at time k, and the reflected wave image Ir at the synchronization timing ts. To estimate.
  • the image estimation at this time is based on the time change amount ⁇ R calculated by S104.
  • the sub-block 142 of the difference extraction block 140 compensates for the deviation from the time k, which is the start timing of the global shutter frame Fo, for the reflected wave image Ir at the synchronization timing ts estimated by S105.
  • the sub-block 144 of the difference extraction block 140 converts the latest external light image Io acquired by the external camera 24 into the global shutter frame Fo started at time k into the reflected wave image Ir compensated for by shifting by S106. In addition, interpolate. The interpolation at this time matches the external light image Io on the high-definition side with the reflected wave image Ir on the low-definition side.
  • the sub-block 146 of the difference extraction block 140 extracts the difference E by comparing the reflected wave image Ir offset by S106 and the external light image Io interpolated by S107.
  • the contrast and difference extraction at this time are executed for the edges after the image values Lre and Soe relating to the edges of the reflected wave image Ir and the external light image Io are normalized by their respective variation ranges.
  • the processing determination block 160 determines whether or not to remand the synchronization processing until the prediction of the synchronization deviation time T is based on the difference E extracted by S108. As a result, if it is determined that the remand is unnecessary, this flow ends.
  • the synchronization prediction block 180 repredicts the synchronization deviation time T at time k in S110, stores it in the memory 10, and then executes S102 again.
  • the re-prediction at this time is to adjust the variable amount of the deviation adjustment value to be added to the synchronization deviation time T of the inaccurate prediction according to the increase / decrease result between the differences E extracted in the current and previous synchronization processing. It will be realized.
  • S101 and S110 correspond to the "prediction process”
  • S103 corresponds to the "compensation process”
  • S104 corresponds to the "calculation process”.
  • S105 corresponds to the "estimation process”
  • S106, S107, and S108 correspond to the "extraction process”
  • S109 corresponds to the "determination process”.
  • the reflected wave image Ir at the synchronization timing ts in which the synchronization shift time T between the radar sensor 22 and the outside world camera 24 deviates from the start timing of the global shutter frame Fo in the outside world camera 24 is the same. It is estimated based on the time change amount ⁇ R of the reflected wave image Ir between frames Fo.
  • the difference E extracted by comparing the reflected wave image Ir at the synchronization timing ts with the external light image Io becomes smaller as the prediction of the synchronization shift time T becomes more accurate.
  • the reflected wave image Ir according to the first embodiment is compared with the external light image Io after the deviation from the start timing of the global shutter frame Fo is compensated. According to this, the reflected wave image Ir acquired in the global shutter frame Fo can be compensated so as to be an image acquired together with the external light image Io at the start timing of the frame Fo. That is, since the compensated reflected wave image Ir can be simulated as being acquired substantially at the same time as the external light image Io, the difference E is accurately extracted by comparing the images Ir and Io, and the radar sensor 22 and the external camera 24 And can be synchronized with high accuracy.
  • the amount of vehicle movement within the frame Fo is compensated for the reflected wave image Ir.
  • the time change amount ⁇ R after compensating for the changing vehicle movement amount is calculated in the frame Fo of the global shutter (specifically, for each frame Fr of the rolling shutter). Therefore, the difference E from the external light image Io is accurately extracted from the reflected wave image Ir of the synchronization timing ts predicted based on the time change amount ⁇ R, and the radar sensor 22 and the external camera 24 are highly accurate. It becomes possible to synchronize.
  • the reflected wave image Ir and the external light image Io according to the first embodiment are compared after being interpolated with the high-definition side aligned with the low-definition side. According to this, the difference E can be accurately extracted by comparison after eliminating the unmatching between the images Ir and Io due to the difference in definition, so that the radar sensor 22 and the external camera 24 can be accurately extracted. It becomes possible to synchronize.
  • edges of the reflected wave image Ir and the external light image Io according to the first embodiment are contrasted with each other. According to this, since it becomes easy to accurately extract the difference E from the edges that can be easily compared with each other, it is possible to synchronize the radar sensor 22 and the external camera 24 with high accuracy.
  • the reflected wave image Ir and the external light image Io according to the first embodiment are compared after the image values Lre and Soe are normalized according to their respective variation ranges. According to this, the difference E can be accurately extracted by comparing the image values Lre and Soe scaled as a result of the normalization, so that the radar sensor 22 and the external camera 24 are synchronized with high accuracy. It becomes possible.
  • the second embodiment is a modification of the first embodiment.
  • the radar sensor 2022 of the second embodiment is a so-called imaging radar that acquires a reflected wave image Ir that can be used for, for example, motion estimation of a vehicle 3.
  • the radar sensor 2022 acquires a reflected wave image Ir corresponding to the reflected wave obtained by irradiating the millimeter wave (radio wave) as an electromagnetic wave from the outside world of the vehicle 3.
  • the radar sensor 2022 has a transmitting antenna 2220, a receiving antenna 2221, and an imaging circuit 2222.
  • the imaging circuit 2222 controls irradiation of millimeter waves in the form of a pulse beam as electromagnetic waves directed to the outside world of the vehicle 3 from a plurality of transmitting antennas 2220 arranged in an array. Along with this millimeter wave irradiation, the imaging circuit 2222 scans a plurality of vertical pixel rows in the horizontal direction for each corresponding scanning line in the constituent pixels corresponding to the plurality of receiving antennas 2221 arranged in an array. The image pickup circuit 2222 converts the distance value to the reflection point of the reflected wave according to the arrival time of the sensed reflected wave from the time of millimeter wave irradiation into data in association with the beam steering angle corresponding to each pixel. Then, the reflected wave image Ir is acquired.
  • a sub-block 2145 for preprocessing the external light image Io is added to the difference extraction block 2140 of the second embodiment.
  • the external light image Io interpolated by the subblock 144 is input to the subblock 2145.
  • the subblock 2145 extracts a specific target having a high object capture rate by the radar sensor 2220 from the interpolated external light image Io.
  • the specific target with a high object capture rate by the radar sensor 2220 ideally means a corner portion of the object portion in the outside world that is recessed in the depth direction when viewed from the vehicle 3.
  • the sub-block 2145 extracts both the concave corner portion and the convex corner portion of the object portion in the outside world from the external light image Io.
  • the difference extraction block 2140 of the second embodiment has a subblock 2146 that performs contrast processing between the preprocessed images Ir and Io in place of the subblock 146 of the first embodiment.
  • the luminance value So [k, i, j] is input to the subblock 2146 as the latest data value which is the feature amount of the specific target extracted from the external light image Io by the subblock 2145.
  • the sub-block 2146 realizes the same functions as the sub-block 146 of the first embodiment.
  • the contrast between the reflected wave image Ir and the external light image Io is realized with respect to the specific target, that is, the corner portion reflected in the images Ir and Io.
  • S2110 and S2111 are sequentially executed instead of S108 of the first embodiment.
  • the sub-block 2146 of the difference extraction block 2140 extracts a specific target having a high object capture rate by the radar sensor 2220 from the external light image Io interpolated by S107.
  • the sub-block 2146 of the difference extraction block 2140 extracts the difference E by comparing the reflected wave image Ir corrected by S106 with the specific target of the external light image Io extracted by S2110.
  • the edges are used. Will be executed.
  • the difference extraction blocks 140 and 2140 correspond to the “difference extraction unit”
  • S106, S107, S2110 and S2111 correspond to the "extraction process”.
  • a radar sensor 2022 in which the electromagnetic wave is a millimeter wave is used instead of the radar sensor 22 of the first embodiment in which the electromagnetic wave irradiating the outside world of the vehicle 3 is an infrared laser beam.
  • a radar sensor 2022 in which the electromagnetic wave is a millimeter wave is used instead of the radar sensor 22 of the first embodiment in which the electromagnetic wave is an infrared laser beam.
  • the electromagnetic wave is a millimeter wave
  • the synchronization device 1 in the modified example may be a dedicated computer configured to include at least one of a digital circuit and an analog circuit as a processor.
  • digital circuits include, for example, ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), SOC (System on a Chip), PGA (Programmable Gate Array), CPLD (Complex Programmable Logic Device), and the like. Of these, at least one.
  • a digital circuit may include a memory for storing a program.
  • the error correction blocks 100 and S102 in the modified example may be omitted.
  • the vehicle movement amount may be compensated based on the latest inertial information Ib acquired at time k by the inertial sensor 20.
  • the deviation from the time k in the reflected wave image Ir may be compensated in the external light image Io.
  • the reflected wave image Ir in the modified example may have a higher definition than the external light image Io.
  • the reflected wave image Ir on the high-definition side may be interpolated in accordance with the external light image Io on the low-definition side.
  • the luminance value or the intensity value included in the reflected wave image Ir in association with the distance value Lr is the said. It may be used instead of the distance value Lr.
  • the distance value Lr of the reflected wave image Ir and the brightness value So of the external light image Io are used as image values for comparison and difference extraction. May be done.
  • one of the reflected wave image Ir and the external light image Io is normalized to match the other, and then the comparison and the difference extraction are performed. May be offered to.
  • the radar sensor 22 in the modified example may be configured to acquire the reflected wave image Ir by the global shutter.
  • blocks 100, 110, 142 and S102, S103, S106 may be omitted.
  • the high-definition side of the latest images Ir and Io acquired in the global shutter frame Fo is interpolated according to the low-definition side.
  • the latest images Ir and Io acquired are compared with each other in the global shutter frame Fo.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

同期装置(1)は、レーダセンサ(22)及び外界カメラ(24)間の同期ずれ時間(T)を予測する同期予測部(180)と、外界カメラ(24)のシャッタフレーム(Fo)間での反射波画像(Ir)の時間変化量(ΔR)を算出する変化量算出部(120)と、シャッタフレーム(Fo)の開始タイミングから同期ずれ時間(T)がずれた同期タイミング(ts)での反射波画像(Ir)を、時間変化量(ΔR)に基づき推定する画像推定部(130)と、同期タイミング(ts)での反射波画像(Ir)と外光画像(Io)とを対比することにより差分(E)を抽出する差分抽出部(140)と、同期ずれ時間(T)の予測まで同期処理を差し戻すか否かを、差分(E)に基づき判定する処理判定部(160)とを備える。

Description

同期装置、同期方法、同期プログラム 関連出願の相互参照
 この出願は、2019年10月8日に日本に出願された特許出願第2019-185388号を基礎としており、基礎の出願の内容を、全体的に、参照により援用している。
 本開示は、同期処理技術に関する。
 近年の車両には、電磁波の照射により得られる反射波に応じた反射波画像を取得するレーダセンサと、外界から感知する外光に応じた外光画像を取得する外界カメラとが、共に搭載されている。こうした車両においてレーダセンサと外界カメラとを同期させるため、各々の取得画像に時刻情報を付加する技術が、特許文献1に開示されている。
特許第3920769号公報
 しかし、特許文献1の開示技術では、レーダセンサ及び外界カメラと、同期処理を遂行する処理回路との間の経路にて、画像信号の遅延が生じる。その結果、処理回路が画像信号を受けて付加した時刻情報は、レーダセンサ及び外界カメラのそれぞれが実際に画像を取得した正規時刻からの誤差を、含んでしまうおそれがあった。
 本開示の課題は、レーダセンサと外界カメラとを高精度に同期させる同期装置を、提供することにある。本開示の別の課題は、レーダセンサと外界カメラとを高精度に同期させる同期方法を、提供することにある。本開示のさらに別の課題は、レーダセンサと外界カメラとを高精度に同期させる同期プログラムを、提供することにある。
 以下、課題を解決するための本開示の技術的手段について、説明する。
 本開示の第一態様は、
 電磁波を照射することにより得られる反射波に応じた反射波画像を取得するレーダセンサと、外界から感知する外光に応じた外光画像を取得する外界カメラと、を搭載した車両において、レーダセンサ及び外界カメラに対する同期処理を遂行する同期装置であって、
 レーダセンサ及び外界カメラ間の同期ずれ時間を予測する同期予測部と、
 外界カメラのシャッタフレーム間における反射波画像の時間変化量を算出する変化量算出部と、
 同期予測部により予測される同期ずれ時間がシャッタフレームの開始タイミングからずれた同期タイミングでの反射波画像を、変化量算出部により算出される時間変化量に基づき推定する画像推定部と、
 画像推定部により推定される同期タイミングでの反射波画像と、外光画像とを対比することにより、それら画像の差分を抽出する差分抽出部と、
 同期予測部による同期ずれ時間の予測まで同期処理を差し戻すか否かを、差分抽出部により算定される差分に基づき判定する処理判定部と、を備える。
 本開示の第二態様は、
 電磁波を照射することにより得られる反射波に応じた反射波画像を取得するレーダセンサと、外界から感知する外光に応じた外光画像を取得する外界カメラと、を搭載した車両において、レーダセンサ及び外界カメラに対する同期処理を遂行する同期方法であって、
 レーダセンサ及び外界カメラ間の同期ずれ時間を予測する予測プロセスと、
 外界カメラのシャッタフレーム間における反射波画像の時間変化量を算出する算出プロセスと、
 予測プロセスにより予測される同期ずれ時間がシャッタフレームの開始タイミングからずれた同期タイミングでの反射波画像を、算出プロセスにより算出される時間変化量に基づき推定する推定プロセスと、
 推定プロセスにより推定される同期タイミングでの反射波画像と、外光画像とを対比することにより、それら画像の差分を抽出する抽出プロセスと、
 予測プロセスによる同期ずれ時間の予測まで同期処理を差し戻すか否かを、抽出プロセスにより抽出される差分に基づき判定する判定プロセスと、を含む。
 本開示の第三態様は、
 電磁波を照射することにより得られる反射波に応じた反射波画像を取得するレーダセンサと、外界から感知する外光に応じた外光画像を取得する外界カメラと、を搭載した車両において、レーダセンサ及び外界カメラに対する同期処理を遂行するために記憶媒体に格納され、プロセッサに実行させる命令を含む同期プログラムであって、
 命令は、
 レーダセンサ及び外界カメラ間の同期ずれ時間を予測させる予測プロセスと、
 外界カメラのシャッタフレーム間における反射波画像の時間変化量を算出させる算出プロセスと、
 予測プロセスにより予測される同期ずれ時間がシャッタフレームの開始タイミングからずれた同期タイミングでの反射波画像を、算出プロセスにより算出される時間変化量に基づき推定させる推定プロセスと、
 推定プロセスにより推定される同期タイミングでの反射波画像と、外光画像とを対比させることにより、それら画像の差分を抽出させる抽出プロセスと、
 予測プロセスによる同期ずれ時間の予測まで同期処理を差し戻すか否かを、抽出プロセスにより抽出される差分に基づき判定させる判定プロセスと、を含む。
 これら第一~第三態様の同期処理によると、外界カメラにおけるシャッタフレームの開始タイミングからレーダセンサ及び外界カメラ間の同期ずれ時間がずれた同期タイミングでの反射波画像は、同フレーム間における反射波画像の時間変化量に基づき推定される。この同期タイミングでの反射波画像が外光画像と対比されることにより抽出される差分は、同期ずれ時間の予測が正確なほど、小さくなる。そこで、同期ずれ時間の予測まで同期処理を差し戻すか否かが、反射波画像と外光画像との差分に基づき判定されることによれば、同期ずれ時間が正確に予測されるまで同期処理が繰り返され得る。故に、レーダセンサと外界カメラとを高精度に同期させることが可能である。
第一実施形態による同期装置の全体構成を示すブロック図である。 第一実施形態による同期装置の詳細構成を示すブロック図である。 第一実施形態による外界カメラ(a)及びレーダセンサ(b)を説明するための模式図である。 第一実施形態による外界画像(a)及び反射波画像(b)を説明するための模式図である。 第一実施形態による運動補償ブロックを説明するための模式図である。 第一実施形態による運動補償ブロックを説明するための模式図である。 第一実施形態による変化量算出ブロック及び画像推定ブロックを説明するための模式図である。 第一実施形態による差分抽出ブロックを説明するための模式図である。 第一実施形態による差分抽出ブロックを説明するための模式図である。 第一実施形態による同期方法を示すフローチャートである。 第二実施形態による同期装置の詳細構成を示すブロック図である。 第二実施形態による同期方法を示すフローチャートである。
 以下、複数の実施形態を図面に基づき説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことで、重複する説明を省略する場合がある。また、各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。さらに、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。
 (第一実施形態)
 図1に示すように第一実施形態による同期装置1は、車両3に搭載される。車両3は、自己位置推定といった運動推定の結果に基づき走行する、例えば高度運転支援車又は自動運転車等である。尚、以下の説明では、水平面上における車両3の水平方向のうち横方向及び前後方向をそれぞれ単に、横方向及び前後方向という。また、以下の説明では、水平面上における車両3の鉛直方向を単に、鉛直方向という。
 車両3には、同期装置1と共に、センサ系2が搭載される。図1,2に示すようにセンサ系2は、慣性センサ20とレーダセンサ22と外界カメラ24とを少なくとも含んで、構成される。
 慣性センサ20は、例えば車両3の運動推定等に活用可能な慣性情報Ibを取得する、所謂IMU(Inertial Measurement Unit)である。慣性センサ20は、車両3の前後方向と横方向と鉛直方向との三軸まわりにおける、例えば角度、角速度及び角加速度等のうち少なくとも一種類を、慣性情報Ibとして取得する。そこで慣性センサ20は、例えばジャイロ及び加速度センサ等のうち少なくとも一種類を含んで、構成される。
 第一実施形態のレーダセンサ22は、例えば車両3の運動推定等に活用可能な反射波画像Irを取得する、所謂LIDAR(Light Detection and Ranging / Laser Imaging Detection and Ranging)である。レーダセンサ22は、車両3の外界へ電磁波を照射することで得られる反射波に応じた反射波画像Irを、取得する。図2に示すようにレーダセンサ22は、レーザ素子220、撮像素子221及び撮像回路222を有している。
 撮像回路222は、レーザ素子220から車両3の外界へ向かう電磁波としての赤外線レーザ光(以下、単にレーザ光という)を、横方向でのビームステアリング角の変化に応じて断続的となるパルスビーム状に、照射制御する。このレーザ光照射に伴って撮像回路222は、撮像素子221の構成画素において横方向に単列又は複数列の縦画素列を、横方向に駆動されるビームステアリング角に対応した走査ライン毎に順次露光並びに順次走査する、ローリングシャッタを実現する。撮像回路222は、撮像素子221の露光された画素毎に反射波として感知される反射光の、レーザ光照射時点からの到達時間に応じた当該反射光の反射点までの距離値を、それら画素毎に対応したビームステアリング角と関連付けてデータ化することで、反射波画像Irを取得する。
 ここで、撮像素子221の露光された画素毎に感知される反射波としての反射光の強度に応じた輝度値が、それら画素毎に対応したビームステアリング角と関連付けて撮像回路222によりデータ化されることで、反射波画像Irに含まれていてもよい。また撮像素子221には、断続的なレーザ光照射のインターバル中に車両3の外界から感知する外光に応じて、撮像する機能が備えられていてもよい。この場合、撮像素子221の露光された画素毎に感知される外光の強度に応じた輝度値が、それら画素毎に対応したビームステアリング角と関連付けて撮像回路242によりデータ化されることで、反射波画像Irに含まれていてもよい。
 外界カメラ24は、例えば車両3の運動推定等に活用可能な外光画像Ioを取得する、所謂車載カメラである。外界カメラ24は、車両3の外界から感知する外光に応じた外光画像Ioを、取得する。外界カメラ24は、撮像素子241及び撮像回路242を有している。
 撮像回路242は、撮像素子241の構成画素において横方向に複数列の縦画素列を、それぞれ対応する走査ラインで一括露光並びに一括走査する、グローバルシャッタを実現する。撮像回路242は、撮像素子241の露光された画素毎に感知される外光の強度に応じた輝度値を、それら画素毎に対応した画素角と関連付けてデータ化することで、外光画像Ioを取得する。
 外界カメラ24において全ての走査ラインが走査されるグローバルシャッタフレームFoには、レーダセンサ22において全ての走査ラインが走査されるローリングシャッタフレームFrに対して、短いフレーム期間と、近接した開始タイミングとが、設定されている。そこで、図3に示すようにフレームFo,Frの開始タイミングが正確に同期されている場合に、外光画像Ioと比べて反射波画像Irは、図4に示すように見かけ上、車両3の走行側とは逆側に圧縮且つ当該圧縮分だけ余分に外界を観測して、取得されることになる。尚、図4は、各画像Ir,Ioそのものではなく、各画像Ir,Ioに映る外界範囲を模式的に示している。
 図1に示すように第一実施形態の同期装置1は、例えばLAN(Local Area Network)、ワイヤハーネス及び内部バス等のうち少なくとも一種類を介して、センサ系2の各構成要素20,22,24に接続されている。同期装置1は、少なくとも一つの専用コンピュータを含んで構成される。同期装置1を構成する専用コンピュータは、車両3の自己位置を推定するロケータのECU(Electronic Control Unit)であってもよい。同期装置1を構成する専用コンピュータは、車両3の高度運転支援又は自動運転を制御するECUであってもよい。同期装置1を構成する専用コンピュータは、車両3と外界との間の通信を制御するECUであってもよい。
 同期装置1は、こうした専用コンピュータを含んで構成されることで、メモリ10及びプロセッサ12を、少なくとも一つずつ有している。メモリ10は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に記憶する、例えば半導体メモリ、磁気媒体及び光学媒体等のうち少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。プロセッサ12は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)及びRISC(Reduced Instruction Set Computer)-CPU等のうち少なくとも一種類を、コアとして含む。プロセッサ12は、メモリ10に記憶された同期プログラムに含まれる複数の命令を、実行する。これにより同期装置1は、レーダセンサ22と外界カメラ24とに対する同期処理を遂行するための複数の機能ブロックを、図2に示すように構築する。尚、以下の説明では、レーダセンサ22及び外界カメラ24に対する同期処理を単に、同期処理という。
 同期装置1により構築される複数の機能ブロックには、誤差補正ブロック100、運動補償ブロック110、変化量算出ブロック120、画像推定ブロック130、差分抽出ブロック140、処理判定ブロック160及び同期予測ブロック180が含まれる。
 誤差補正ブロック100には、時刻kにて慣性センサ20により取得された最新の慣性情報Ibが、入力される。それと共に誤差補正ブロック100には、各種の航法演算のうち少なくとも一種類により時刻kに関して推定された最新のバイアス誤差Bが、入力される。ここで時刻kは、グローバルシャッタフレームFoの開始タイミング(図3参照)を表している。
 こうした入力を受けて誤差補正ブロック100は、最新の慣性情報Ibに対して、最新のバイアス誤差Bを補正する。この補正は、慣性情報Ibからバイアス誤差Bを減算することで、実現される。
 図2に示す運動補償ブロック110には、誤差補正ブロック100によりバイアス誤差Bの補正された時刻kでの慣性情報Ibが、入力される。それと共に運動補償ブロック110には、時刻kを開始タイミングとするグローバルシャッタフレームFo内にレーダセンサ22により取得された最新の反射波画像Irが、入力される。図5に示すように最新の反射波画像Irは、走査ライン毎の各画素に関して、距離値Lr[k,i,j]と、ビームステアリング角θr[k,i,j]及びψr[k,i,j]とを、最新データ値として含む。
 ここで[k,i,j]は、時刻kと、走査ライン毎の並び順且つ走査順を表す走査番号iと、走査ライン毎の各画素を表す画素番号jとにより、最新データ値Lr,θr,ψrを特定するインデックスである。即ちLr[k,i,j],θr[k,i,j]及びψr[k,i,j]は、下記数1の時刻h(図3参照)を走査タイミングとする走査ライン毎の最新データ値として、運動補償ブロック110へ入力される。
Figure JPOXMLDOC01-appb-M000001
 ここで上記数1は、フレームFo,Frの開始タイミング間での同期ずれ時間Tを加味した時刻hを、時刻kと走査番号iと走査ライン間での時間間隔Δh(図5参照)とを用いて近似的に定義している。そこで図6に示すようにθr[k,i,j]は、レーザ素子220により照射されてから撮像素子221のうち番号i,jでの特定画素により時刻hにて感知されるレーザ光に関して、鉛直方向におけるビームステアリング角を表している。一方でψr[k,i,j]は、レーザ素子220により照射されてから撮像素子221のうち番号i,jでの特定画素により時刻hにて感知されるレーザ光に関して、横方向におけるビームステアリング角を、表している。
 こうした入力を受けて運動補償ブロック110は、反射波画像Irの最新データ値に対して、グローバルシャッタフレームFo内での車両3の運動(図3参照)による移動量を、バイアス誤差Bの補正された慣性情報Ibに基づき、補償する。具体的に運動補償ブロック110は、バイアス誤差Bの補正された慣性情報Ibに基づく各種の航法演算のうち少なくとも一種類により、時刻kにおける車両3の自己位置P[k,i]及び方向余弦行列C[k,i]を算出する。
 ここで[k,i]は、時刻kと走査番号iとにより、算出結果P,Cを特定するインデックスである。即ちP[k,i]及びC[k,i]は、同一走査ラインの画素同士では共通に算出される。そこで運動補償ブロック110は、最新データ値Lr[k,i,j]、θr[k,i,j]及びψr[k,i,j]に対して、グローバルシャッタフレームFo内では走査番号i毎に変化する車両3の移動量を、算出結果P[k,i]及びC[k,i]を用いた下記数2により補償する。その結果として運動補償ブロック110は、走査ライン毎の各画素に関して、下記数2の三次元極座標R[k,i,j]を算出する。このとき、算出された三次元極座標R[k,i,j]は、車両3の移動量が補償された反射波画像Irの最新データ値として、時刻kと関連付けてメモリ10に記憶される。尚、以下の説明では、グローバルシャッタフレームFo内での車両3の移動量を単に、車両移動量という。
Figure JPOXMLDOC01-appb-M000002
 図2に示す変化量算出ブロック120には、運動補償ブロック110により車両移動量を補償されてメモリ10に記憶された最新及び前回の反射波画像Irが、入力される(即ち、読み出される)。この入力を受けて変化量算出ブロック120は、グローバルシャッタフレームFo間における反射波画像Irの時間変化量ΔR[k,i,j]を、算出する。具体的に変化量算出ブロック120は、開始タイミングの前後するグローバルシャッタフレームFoにそれぞれ取得された最新及び前回の反射波画像Irを、時刻以外のインデックスが共通の三次元極座標R同士にて、下記数3により対比する。その結果として変化量算出ブロック120は、時刻kでの最新の微分値となる時間変化量ΔR[k,i,j]を、各画素に関して算出する。
Figure JPOXMLDOC01-appb-M000003
 ここで上記数3は、今回時刻kに開始のグローバルシャッタフレームFoにおける座標R[k,i,j]と、前回時刻k-1に開始のグローバルシャッタフレームFoにおける座標R[k-1,i,j]とを用いて、それら座標間の差分により変化量ΔR[k,i,j]を定義している。そこで変化量算出ブロック120は、今回及び前回の同期処理にて先立つブロック100,110での補正及び補償により算出された三次元極座標R[k,i,j]及びR[k-1,i,j]を、用いる。但し、始動した車両3の走行開始から初回の同期処理に限って変化量算出ブロック120は、当該初回前にブロック100,110での補正及び補償を経て算出される三次元極座標R[k-1,i,j]を、当該初回の三次元極座標R[k,i,j]と共に用いる。
 図2に示す画像推定ブロック130には、変化量算出ブロック120により算出された最新の時間変化量ΔR[k,i,j]が、入力される。それと共に画像推定ブロック130には、運動補償ブロック110により車両移動量を補償されてメモリ10に記憶された最新の反射波画像Irが、入力される(即ち、読み出される)。さらに変化量算出ブロック120には、後に詳述するように同期予測ブロック180により予測されることでメモリ10に記憶された最新の同期ずれ時間Tが、入力される(即ち、読み出される)。
 こうした入力を受けて画像推定ブロック130は、グローバルシャッタフレームFoの開始タイミングを時刻kとして、最新の同期ずれ時間Tがその符号の向きに時刻kからずれたタイミング(即ち、時刻k+T)を、図7に示す如く同期タイミングtsに設定する。尚、図7は、同期ずれ時間Tの符号がプラス(+)の場合の反射波画像Irそのものではなく、当該画像Irに映る外界範囲を模式的に示している。そこで画像推定ブロック130は、この同期タイミングtsにおける反射波画像Irを、時刻kでの時間変化量ΔR[k,i,j]に基づき推定する。具体的に画像推定ブロック130は、時間変化量ΔR[k,i,j]と同期ずれ時間Tとを用いた下記数4により、最新の反射波画像Irにおける三次元極座標R[k,i,j]を変換する。その結果として画像推定ブロック130は、同期タイミングtsにおける反射波画像Irの推定極座標Rp[k,i,j]を、各画素に関して算出する。
Figure JPOXMLDOC01-appb-M000004
 ここで上記数4は、今回時刻kに開始のグローバルシャッタフレームFoにおける座標R[k,i,j]と、同時刻kでの変化量ΔR[k,i,j]及び同期ずれ時間Tと、同フレームFoのフレーム期間Δkとを用いて、同期タイミングtsでの座標Rp[k,i,j]を推定している。そこで画像推定ブロック130は、同期タイミングtsでの推定データ値として、推定極座標Rp[k,i,j]を含む反射波画像Irを、生成するのである。
 図2に示すように差分抽出ブロック140は、反射波画像Ir及び外光画像Ioをそれぞれ前処理するサブブロック142,144と、それら前処理された画像Ir,Io同士を対比処理するサブブロック146とを、有している。
 差分抽出ブロック140におけるサブブロック142には、運動補償ブロック110により算出された自己位置P[k,i]及び方向余弦行列C[k,i]のうち、時刻kに対応する自己位置P[k,1]及び方向余弦行列C[k,1]が、入力される。それと共にサブブロック142には、画像推定ブロック130により推定された同期タイミングtsでの反射波画像Irが、入力される。
 こうした入力を受けてサブブロック142は、グローバルシャッタフレームFoの開始タイミングである時刻kからのずれ分を、反射波画像Irに対して補償する。具体的にサブブロック142は、同期タイミングtsでの反射波画像Irの推定データ値として画像推定ブロック130により算出された各画素の推定極座標Rp[k,i,j]を、下記数5の三次元直交座標Rr[k,i,j]へそれぞれ変換する。
Figure JPOXMLDOC01-appb-M000005
 ここで上記数5は、グローバルシャッタフレームFoの開始タイミングである時刻kでの方向余弦行列C[k,1]の転置行列CT[k,1]と、同フレームFo内の推定極座標Rp[k,i,j]とを用いて、三次元直交座標Rr[k,i,j]を定義している。そこでサブブロック142は、座標変換された反射波画像Irの最新データ値となる各画素の三次元直交座標Rr[k,i,j]に対してさらに、時刻hにおける時刻kからのずれ分を、時刻kでの自己位置P[k,1]を用いた下記数6により補償する。その結果としてサブブロック142は、各画素に対応するレーザ光反射点を時刻kに車両3から観た場合の相対的な位置情報として、下記数6の相対直交座標x,y,zを算出する。
Figure JPOXMLDOC01-appb-M000006
 サブブロック142はさらに、算出した各画素の相対直交座標x,y,zを、下記数7~9により変換する。その結果としてサブブロック142は、距離値Lr[k,i,j]と、ビームステアリング角θr[k,i,j]及びψr[k,i,j]とを、時刻kに合わせてずれの補償された反射波画像Irの最新データ値として、算出する。
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
 図2に示す差分抽出ブロック140においてサブブロック144には、サブブロック142により算出された反射波画像Irの最新データ値のうちビームステアリング角θr[k,i,j]及びψr[k,i,j]が、入力される。それと共にサブブロック144には、時刻kを開始タイミングとするグローバルシャッタフレームFo内に外界カメラ24により取得された最新の外光画像Ioが、入力される。図8に示すように最新の外光画像Ioは、走査ライン毎の各画素に関して、輝度値So[k,m,n]と、画素角θo[k,m,n]及びψo[k,m,n]とを、最新データ値として含む。
 ここで[k,m,n]は、時刻kと、走査ライン毎の並び順を表す走査番号mと、走査ライン毎の各画素を表す画素番号nとにより、最新データ値So,θo,ψoを特定するインデックスである。ここで、外光画像Ioに関する走査番号mの最大値は、反射波画像Irに関する走査番号iの最大値よりも大きく、また外光画像Ioに関する画素番号nの最大値は、反射波画像Irに関する画素番号jの最大値よりも大きい。即ち外光画像Ioは、反射波画像Irよりも多い画素数にて高精細に生成される。
 また、図9に示すようにθo[k,m,n]は、撮像素子241のうち番号m,nでの特定画素により時刻kにて感知される外光に関して、鉛直方向における画素角を表している。一方でψo[k,i,j]は、撮像素子241のうち番号m,nでの特定画素により時刻kにて感知される外光に関して、横方向における画素角を表している。
 こうした入力を受けてサブブロック144は、反射波画像Irと外光画像Ioとのうち、高精細側を低精細側に合わせて補間する。即ちサブブロック144は、高精細側の外光画像Ioを低精細側の反射波画像Irに対して、補間によりマッチングさせる。具体的にサブブロック144は、各画素でのビームステアリング角θr[k,i,j]及びψr[k,i,j]に対して、それぞれ下記数10,11を満たすインデックスの画素角θo及びψoを、図8の如く探索する。
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
 ここで上記数10は、横方向に相互隣接する画素のインデックスを、[k,m,n]及び[k,m+1,n]と表記している。この表記下にて上記数10は、θo[k,m,n]及びθo[k,m+1,n]を用いて、ビームステアリング角θr[k,i,j]の探索条件を定義している。一方で上記数11は、鉛直方向に相互隣接する画素のインデックスを、[k,m,n]及び[k,m,n+1]と表記している。この表記下にて上記数11は、画素角θo[k,m,n]及びθo[k,m,n+1]を用いて、ビームステアリング角ψr[k,i,j]の探索条件を定義している。これらのことからサブブロック144は、各画素でのビームステアリング角θr[k,i,j]及びψr[k,i,j]に外光画像Io上にて該当する座標の輝度値So[k,i,j]を、下記数12~14の内分補間(図8参照)により算出する。
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000014
 ここで上記数12は、横方向に相互隣接する画素のインデックスを、[k,m,n]及び[k,m+1,n]と表記している。この表記下にて上記数12は、画素角θo[k,m,n]及びθo[k,m+1,n]と、それぞれ対応する輝度値So[k,m,n]及びSo[k,m+1,n]と、ビームステアリング角θr[k,i,j]とを用いて、変数S1を定義している。
 一方で上記数13は、鉛直方向に相互隣接する画素のインデックスを、[k,m,n]及び[k,m,n+1]と表記している。また上記数13は、横方向に相互隣接する画素のインデックスを[k,m,n]及び[k,m+1,n]と表記した場合に、後者[k,m+1,n]の画素とは鉛直方向に隣接する画素のインデックスを[k,m+1,n+1]と表記している(図8参照)。換言すれば上記数13は、鉛直方向に相互隣接する画素のインデックスを[k,m,n]及び[k,m,n+1]と表記した場合に、後者[k,1,n+1]の画素とは横方向に隣接する画素のインデックスを[k,m+1,n+1]と表記しているともいえる(図8参照)。これらの表記下にて上記数13は、画素角θo[k,m,n+1]及びθo[k,m+1,n+1]と、それぞれ対応する輝度値So[k,m,n+1]及びSo[k,m+1,n+1]と、ビームステアリング角θr[k,i,j]とを用いて、変数S2を定義している。
 さらに上記数14は、鉛直方向に相互隣接する画素のインデックスを、[k,m,n]及び[k,m,n+1]と表記している。この表記下にて上記数14は、画素角ψo[k,m,n]及びψo[k,m,n+1]と、上記数12,13の変数S1,S2と、ビームステアリング角ψr[k,i,j]とを用いて、補間された外光画像Ioの輝度値So[k,i,j]を定義している。
 図2に示す差分抽出ブロック140においてサブブロック146には、サブブロック142により算出された反射波画像Irの最新データ値として、距離値Lr[k,i,j]が入力される。この入力を受けてサブブロック146は、距離値Lr[k,i,j]に対する各種のフィルタ処理のうち少なくとも一種類により、最新の反射波画像Irにおけるエッジを抽出する。その結果としてサブブロック146は、抽出したエッジに対応する各画素に関して、横方向又は鉛直方向に相互隣接する画素同士での距離値Lr[k,i,j]の差を、エッジ画像値Lre[k,i,j]として算出する。
 サブブロック146には、サブブロック144により補間された外光画像Ioの最新データ値として、輝度値So[k,i,j]が入力される。この入力を受けてサブブロック146は、輝度値So[k,i,j]に対する各種のフィルタ処理のうち少なくとも一種類により、最新の外光画像Ioにおけるエッジを抽出する。その結果としてサブブロック146は、抽出したエッジに対応する各画素に関して、横方向又は鉛直方向に相互隣接する画素同士での輝度値So[k,i,j]の差を、エッジ画像値Soe[k,i,j]として算出する。
 サブブロック146は、こうした算出されたエッジ画像値Lre[k,i,j]及びSoe[k,i,j]に関して、互いに対応する各画素毎に反射波画像Irと外光画像Ioとを対比することで、それら画像Io,Irの差分E[k,i,j]を抽出する。具体的にサブブロック146は、インデックスの同じエッジ画像値Lre[k,i,j]及びSoe[k,i,j]同士を、それぞれのバラツキ範囲により正規化してから対比する下記数15により、それら画像値間の差分E[k,i,j]を算出する。即ちサブブロック146は、反射波画像Irと外光画像Ioとのエッジに関する画像値Lre[k,i,j]及びSoe[k,i,j]同士をそれぞれのバラツキ範囲により正規化してから、それらエッジ同士の対比並びに差分抽出を実行する。
Figure JPOXMLDOC01-appb-M000015
 ここで上記数15の右辺第一項は、反射波画像Irにおけるエッジ画像値Lre[k,i,j]の最大値及び最小値を、それぞれLremax[k,i,j]及びLremin[k,i,j]と表記している。この表記下にて上記数15の右辺第一項は、最大値Lremax[k,i,j]から最小値Lremin[k,i,j]を差し引いたバラツキ範囲により、エッジ画像値Lre[k,i,j]を正規化(即ち、無次元化)している。
 一方で上記数15の右辺第二項は、外光画像Ioにおけるエッジ画像値Soe[k,i,j]の最大値及び最小値を、それぞれSoemax[k,i,j]及びSoemin[k,i,j]と表記している。この表記下にて上記数15の右辺第一項は、最大値Soemax[k,i,j]から最小値Soemin[k,i,j]を減算したバラツキ範囲により、エッジ画像値Soe[k,i,j]を正規化(即ち、無次元化)している。
 図2に示す処理判定ブロック160には、差分抽出ブロック140のうちサブブロック146により抽出された最新の画像Io,Ir同士における差分E[k,i,j]が、入力される。この入力を受けて処理判定ブロック160は、同期予測ブロック180による同期ずれ時間Tの予測まで同期処理を差し戻すか否かを、差分E[k,i,j]に基づき判定する。
 このとき、互いに対応するエッジ同士の各画素毎に差分E[k,i,j]を2乗和した値が許容範囲内にある場合には、同期ずれ時間Tの予測が正確であるとして、差し戻しは不要との判定を処理判定ブロック160が下す。差し戻し不要との判定が下された場合の同期ずれ時間Tは、例えば車両3の運動推定等に活用される際に、レーダセンサ22と外界カメラ24との同期が実現される。尚、以下の説明では、各画素毎に差分E[k,i,j]を2乗和した値を単に、差分E[k,i,j]の2乗和という。
 これに対して、差分E[k,i,j]の2乗和が許容範囲外にある場合には、同期ずれ時間Tの予測が不正確であるとして、差し戻しを要するとの判定を処理判定ブロック160が下す。差戻し要との判定が下された場合の同期ずれ時間Tは、後に詳述する同期予測ブロック180により、メモリ10に記憶の最新値とは異なる値へ予測し直される。
 ここで、同期予測ブロック180の判定基準となる許容範囲は、差分E[k,i,j]として正確と判断可能な値の上限を閾値として、当該閾値以下の数値範囲に設定されてもよい。許容範囲は、差分E[k,i,j]としては不正確と判断すべき値の下限を閾値として、当該閾値未満の数値範囲に設定されてもよい。
 図2に示す同期予測ブロック180には、始動した車両3の走行開始から初回の同期処理要との判断に伴って、メモリ10に記憶されている同期ずれ時間Tの初期値が、入力される(即ち、読み出される)。この入力を受けて同期予測ブロック180は、時刻kにおける最新の同期ずれ時間Tを初期値に仮予測して、メモリ10に記憶する。ここで同期ずれ時間Tの初期値は、予め設定された固定値であってもよい。同期ずれ時間Tの初期値は、過去の同期処理にて予測された可変値であってもよい。
 同期予測ブロック180には、処理判定ブロック160により差し戻し要との判定が下された場合に、不正確予測の同期ずれ時間Tがメモリ10から入力される(即ち、読み出される)。この入力を受けて同期予測ブロック180は、不正確予測の同期ずれ時間Tにずれ調整値を加算することで、時刻kにおける最新の同期ずれ時間Tを再予測して、メモリ10に記憶する。このとき同期予測ブロック180は、今回及び前回の同期処理にて抽出された差分E[k,i,j]の2乗和間での増減結果に応じて、ずれ調整値の符号及び初期値からの可変量を調整する。そこで同期予測ブロック180には、差し戻し要との判定が下された場合に、メモリ10に記憶されているずれ調整値の初期値も、入力される(即ち、読み出される)。ここでずれ調整値の初期値は、予め設定された固定値であってもよい。ずれ調整値の初期値は、過去の同期処理にて予測された可変値であってもよい。
 以上より第一実施形態では、運動補償ブロック110が「運動補償部」が相当し、変化量算出ブロック120が「変化量算出部」に相当し、画像推定ブロック130が「画像推定部」が相当する。さらに第一実施形態では、差分抽出ブロック140が「差分抽出部」に相当し、処理判定ブロック160が「処理判定部」に相当し、同期予測ブロック180が「同期予測部」に相当する。
 ここまで説明した機能ブロック100,110,120,130,140,160,180の共同により、同期装置1が同期処理を遂行して実現される同期方法のフローを、図10に従って以下に説明する。尚、本フローは、始動した車両3の走行開始後に繰り返されるグローバルシャッタフレームFo毎に、実行される。また、本フローにおいて各「S」とは、同期プログラムに含まれた複数命令により実行される複数ステップを、それぞれ意味する。さらに、以下の説明においてインデックスの表記は、省略されている。
 S101において同期予測ブロック180は、グローバルシャッタフレームFoの開始される時刻kにてレーダセンサ22と外界カメラ24との間に生じている同期ずれ時間Tを、メモリ10に記憶された初期値に仮予測して、メモリ10に記憶する。
 S102において誤差補正ブロック100は、慣性センサ20により時刻kに取得された最新の慣性情報Ibに対して、最新のバイアス誤差Bを補正する。S103において運動補償ブロック110は、時刻kに開始されたグローバルシャッタフレームFo内にレーダセンサ22により取得された最新の反射波画像Irに対して、同フレームFo内での車両移動量を、補償する。このときの補償は、S102によりバイアス誤差Bの補正された慣性情報Ibに、基づく。
 S104において変化量算出ブロック120は、グローバルシャッタフレームFo間における反射波画像Irの時間変化量ΔRとして、車両移動量の補償された最新及び前回画像Ir間の変化量ΔRを算出する。尚、始動した車両3の走行開始から初回の同期処理を遂行する本フローの実行前には、S101と同様な補正及びS102と同様な補償がそれぞれ一回ずつ実行されることで、当該初回における時間変化量ΔRに必要な三次元極座標Rが算出されている。
 S105において画像推定ブロック130は、時刻kにおけるグローバルシャッタフレームFoの開始タイミングから、S101又は後述のS110により直前に予測された最新の同期ずれ時間T分をずらした同期タイミングtsでの反射波画像Irを、推定する。このときの画像推定は、S104により算出された時間変化量ΔRに、基づく。
 S106において差分抽出ブロック140のサブブロック142は、S105により推定された同期タイミングtsでの反射波画像Irに対して、グローバルシャッタフレームFoの開始タイミングである時刻kからのずれ分を、補償する。
 S107において差分抽出ブロック140のサブブロック144は、時刻kに開始されたグローバルシャッタフレームFo内に外界カメラ24により取得された最新の外光画像Ioを、S106によりずれ補償された反射波画像Irに合わせて、補間する。このときの補間は、高精細側の外光画像Ioを低精細側の反射波画像Irに合わせて、マッチングさせる。
 S108において差分抽出ブロック140のサブブロック146は、S106によりずれ補償された反射波画像Irと、S107により補間された外光画像Ioとを、対比することで差分Eを抽出する。このときの対比並びに差分抽出は、反射波画像Irと外光画像Ioとのエッジに関する画像値Lre,Soeがそれぞれのバラツキ範囲により正規化されてから、それらエッジ同士に対して実行される。
 S109において処理判定ブロック160は、同期ずれ時間Tの予測まで同期処理を差し戻すか否かを、S108により抽出された差分Eに基づき、判定する。その結果、差戻し不要との判定が下された場合、本フローが終了する。
 一方で差し戻し要との判定が下された場合、S110において同期予測ブロック180は、時刻kでの同期ずれ時間Tを再予測してメモリ10に記憶してから、再度S102を実行させる。このときの再予測は、今回及び前回の同期処理にて抽出された差分E間での増減結果に応じて、不正確予測の同期ずれ時間Tに加算するずれ調整値の可変量を調整することで、実現される。
 以上より第一実施形態では、S101,S110が「予測プロセス」に相当し、S103が「補償プロセス」に相当し、S104が「算出プロセス」に相当する。また第一実施形態では、S105が「推定プロセス」に相当し、S106,S107,S108が「抽出プロセス」に相当し、S109が「判定プロセス」に相当する。
 (作用効果)
 以上説明した第一実施形態の作用効果を、以下に説明する。
 第一実施形態の同期処理によると、外界カメラ24におけるグローバルシャッタフレームFoの開始タイミングからレーダセンサ22及び外界カメラ24間の同期ずれ時間Tがずれた同期タイミングtsでの反射波画像Irは、同フレームFo間における反射波画像Irの時間変化量ΔRに基づき推定される。この同期タイミングtsでの反射波画像Irが外光画像Ioと対比されることにより抽出される差分Eは、同期ずれ時間Tの予測が正確なほど、小さくなる。そこで、同期ずれ時間Tの予測まで同期処理を差し戻すか否かが、反射波画像Irと外光画像Ioとの差分Eに基づき判定されることによれば、同期ずれ時間Tが正確に予測されるまで同期処理が繰り返され得る。故に、レーダセンサ22と外界カメラ24とを高精度に同期させることが可能である。
 第一実施形態による反射波画像Irは、グローバルシャッタフレームFoの開始タイミングからのずれ分を補償されてから、外光画像Ioと対比される。これによれば、グローバルシャッタフレームFo内に取得された反射波画像Irは、同フレームFoの開始タイミングにて外光画像Ioと共に取得された画像となるように、補償され得る。即ち、補償された反射波画像Irは、外光画像Ioと実質同時に取得と擬制され得ることから、それら画像Ir,Ioの対比により正確に差分Eを抽出して、レーダセンサ22と外界カメラ24とを高精度に同期させることが可能となる。
 第一実施形態によると、グローバルシャッタのフレームFo間における反射波画像Irの変化量算出に先立って、同フレームFo内での車両移動量が反射波画像Irに対して補償される。これによれば、グローバルシャッタのフレームFo内に(具体的にはローリングシャッタのフレームFr毎に)、変化する車両移動量を補償した上での時間変化量ΔRが、算出されることになる。故に、そうした時間変化量ΔRに基づき予測される同期タイミングtsの反射波画像Irからは、外光画像Ioとの差分Eを正確に抽出して、レーダセンサ22と外界カメラ24とを高精度に同期させることが可能となる。
 第一実施形態による反射波画像Irと外光画像Ioとは、高精細側を低精細側に合わせて補間されてから、対比される。これによれば、精細度の違いによる画像Ir,Io同士のアンマッチングを解消した上で対比により、正確に差分Eを抽出することができるので、レーダセンサ22と外界カメラ24とを高精度に同期させることが可能となる。
 第一実施形態による反射波画像Irと外光画像Ioとは、エッジ同士を対比される。これによれば、対比の容易なエッジ同士からは差分Eを正確に抽出し易くなるので、レーダセンサ22と外界カメラ24とを高精度に同期させることが可能となる。
 第一実施形態による反射波画像Irと外光画像Ioとは、画像値Lre,Soe同士をそれぞれのバラツキ範囲により正規化されてから、対比される。これによれば、正規化の結果としてスケール合わせされた画像値Lre,Soe同士の対比により、正確に差分Eを抽出することができるので、レーダセンサ22と外界カメラ24とを高精度に同期させることが可能となる。
 (第二実施形態)
 図11に示すように第二実施形態は、第一実施形態の変形例である。
 第二実施形態のレーダセンサ2022は、例えば車両3の運動推定等に活用可能な反射波画像Irを取得する、所謂イメージングレーダである。レーダセンサ2022は、車両3の外界から電磁波としてのミリ波(電波)の照射により得られる反射波に応じた反射波画像Irを、取得する。レーダセンサ2022は、送信アンテナ2220、受信アンテナ2221及び撮像回路2222を有している。
 撮像回路2222は、アレイ状に配置される複数の送信アンテナ2220から、車両3の外界へ向かう電磁波として、ミリ波をパルスビーム状に照射制御する。このミリ波照射に伴って撮像回路2222は、アレイ状に配置される複数の受信アンテナ2221に対応した構成画素において横方向に複数列の縦画素列を、それぞれ対応する走査ライン毎に走査する。撮像回路2222は、ミリ波照射時点からの、感知した反射波の到達時間に応じた、当該反射波の反射点までの距離値を、画素毎に対応したビームステアリング角と関連付けてデータ化することで、反射波画像Irを取得する。
 第二実施形態の差分抽出ブロック2140には、外光画像Ioを前処理するサブブロック2145が、追加されている。サブブロック2145には、サブブロック144により補間された外光画像Ioが、入力される。この入力を受けてサブブロック2145は、補間された外光画像Ioから、レーダセンサ2220による物体捕捉率の高い特定物標を、抽出する。
 ここで、レーダセンサ2220による物体捕捉率の高い特定物標とは、理想的には、外界の物体部分のうち、車両3から視て奥方向に凹んだコーナ部分を、意味する。但し、外光画像Ioからは、外界の物体部分のうち、車両3から視て奥方向に凹んだコーナ部分と、車両3から視て手前方向に凸のコーナ部分とを、判別することが難しい。そこでサブブロック2145は、外界の物体部分のうち凹んだコーナ部分と凸のコーナ部分との両方を、外光画像Ioから抽出する。
 第二実施形態の差分抽出ブロック2140は、第一実施形態のサブブロック146に代えて、前処理された画像Ir,Io同士を対比処理するサブブロック2146を、有している。サブブロック2146には、サブブロック2145により外光画像Ioから抽出された特定物標の特徴量である最新データ値として、輝度値So[k,i,j]が入力される。
 この入力以外の機能についてサブブロック2146は、第一実施形態のサブブロック146と同様の機能を実現する。その結果、反射波画像Irと外光画像Ioとの対比は、それら画像Ir,Ioに映る特定物標、即ちコーナ部分に関して実現される。
 第二実施形態による同期装置1のフローでは、図12に示すように、第一実施形態のS108に代えて、S2110,S2111が順次実行される。S2110において差分抽出ブロック2140のサブブロック2146は、S107により補間された外光画像Ioから、レーダセンサ2220による物体捕捉率が高い特定物標を、抽出する。
 S2111において差分抽出ブロック2140のサブブロック2146は、S106によりずれ補償された反射波画像Irと、S2110により抽出された外光画像Ioの特定物標とを、対比することで差分Eを抽出する。このときの対比並びに差分抽出は、反射波画像Irと外光画像Ioとの特定物標同士のエッジに関する画像値Lre,Soeがそれぞれのバラツキ範囲により正規化されてから、それらエッジ同士に対して実行される。
 以上より第二実施形態では、差分抽出ブロック140,2140が「差分抽出部」に相当し、S106,S107,S2110,S2111が「抽出プロセス」に相当する。
 ここまで説明した第二実施形態によると、車両3の外界へ照射する電磁波が赤外線レーザ光となる第一実施形態のレーダセンサ22に代えて、当該電磁波がミリ波となるレーダセンサ2022を用いても、第一実施形態と同様の作用効果を発揮することが可能となる。
 (他の実施形態)
 以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
 変形例における同期装置1は、デジタル回路及びアナログ回路のうち少なくとも一方をプロセッサとして含んで構成される、専用のコンピュータであってもよい。ここで特にデジタル回路とは、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを格納したメモリを、備えていてもよい。
 変形例における誤差補正ブロック100及びS102は、省略されてもよい。この場合における運動補償ブロック110及びS103では、慣性センサ20により時刻kに取得された最新の慣性情報Ibに基づき、車両移動量が補償されてもよい。
 変形例における差分抽出ブロック140,2140のサブブロック142及びS106では、反射波画像Irにおける時刻kからのずれ分が、外光画像Ioにおいて補償されてもよい。変形例における反射波画像Irは、外光画像Ioよりも高精細であってもよい。この場合における差分抽出ブロック140,2140のサブブロック144及びS107では、高精細側の反射波画像Irが低精細側の外光画像Ioに合わせて補間されてもよい。
 変形例における差分抽出ブロック140,2140のサブブロック142,146,2146及びS106,S108,S2111では、反射波画像Irの距離値Lrと関連付けて同画像Irに含まれる輝度値又は強度値が、当該距離値Lrに代えて用いられてもよい。変形例における差分抽出ブロック140,2140のサブブロック146,2146及びS108,S2111では、反射波画像Irの距離値Lrと外光画像Ioの輝度値Soがそのまま画像値として、対比並びに差分抽出へ供されてもよい。変形例における差分抽出ブロック140,2140のサブブロック146,2146及びS108,S2111では、反射波画像Irと外光画像Ioとのうち、一方が他方に合わせて正規化されてから、対比並びに差分抽出へ供されてもよい。
 変形例におけるレーダセンサ22は、グローバルシャッタにより反射波画像Irを取得する構成であってもよい。この場合のさらなる変形例では、ブロック100,110,142及びS102,S103,S106が省略されてもよい。ここで、さらなる変形例のサブブロック144及びS107では、グローバルシャッタフレームFo内に取得の最新画像Ir,Ioのうち、高精細側が低精細側に合わせて補間されるとよい。また、さらなる変形例のサブブロック146及びS108では、グローバルシャッタフレームFo内に取得の最新画像Ir,Io同士が対比されるとよい。
 

Claims (18)

  1.  電磁波を照射することにより得られる反射波に応じた反射波画像(Ir)を取得するレーダセンサ(22,2022)と、外界から感知する外光に応じた外光画像(Io)を取得する外界カメラ(24)と、を搭載した車両(3)において、前記レーダセンサ及び前記外界カメラに対する同期処理を遂行する同期装置(1)であって、
     前記レーダセンサ及び前記外界カメラ間の同期ずれ時間(T)を予測する同期予測部(180)と、
     前記外界カメラのシャッタフレーム(Fo)間における前記反射波画像の時間変化量(ΔR)を算出する変化量算出部(120)と、
     前記同期予測部により予測される前記同期ずれ時間が前記シャッタフレームの開始タイミングからずれた同期タイミング(ts)での前記反射波画像を、前記変化量算出部により算出される前記時間変化量に基づき推定する画像推定部(130)と、
     前記画像推定部により推定される前記同期タイミングでの前記反射波画像と、前記外光画像とを対比することにより、それら画像の差分(E)を抽出する差分抽出部(140,2140)と、
     前記同期予測部による前記同期ずれ時間の予測まで前記同期処理を差し戻すか否かを、前記差分抽出部により算定される前記差分に基づき判定する処理判定部(160)と、を備える同期装置。
  2.  前記差分抽出部は、前記反射波画像に対して前記シャッタフレームの前記開始タイミングからのずれ分を補償してから、前記反射波画像を前記外光画像と対比する請求項1に記載の同期装置。
  3.  前記変化量算出部による前記時間変化量の算出に先立って、前記シャッタフレーム内での前記車両の運動による移動量を、前記反射波画像に対して補償する運動補償部(110)を、さらに備える請求項2に記載の同期装置。
  4.  前記差分抽出部は、前記反射波画像と前記外光画像とのうち高精細側を低精細側に合わせて補間してから、それら画像を対比する請求項1~3のいずれか一項に記載の同期装置。
  5.  前記差分抽出部は、前記反射波画像と前記外光画像とのエッジ同士を対比する請求項1~4のいずれか一項に記載の同期装置。
  6.  前記差分抽出部は、前記反射波画像と前記外光画像との画像値(Lre,Soe)同士を、それぞれのバラツキ範囲により正規化してから、対比する請求項1~5のいずれか一項に記載の同期装置。
  7.  電磁波を照射することにより得られる反射波に応じた反射波画像(Ir)を取得するレーダセンサ(22)と、外界から感知する外光に応じた外光画像(Io)を取得する外界カメラ(24)と、を搭載した車両(3)において、前記レーダセンサ及び前記外界カメラに対する同期処理を遂行する同期方法であって、
     前記レーダセンサ及び前記外界カメラ間の同期ずれ時間(T)を予測する予測プロセス(S101,S110)と、
     前記外界カメラのシャッタフレーム(Fo)間における前記反射波画像の時間変化量(ΔR)を算出する算出プロセス(S104)と、
     前記予測プロセスにより予測される前記同期ずれ時間が前記シャッタフレームの開始タイミングからずれた同期タイミング(ts)での前記反射波画像を、前記算出プロセスにより算出される前記時間変化量に基づき推定する推定プロセス(S105)と、
     前記推定プロセスにより推定される前記同期タイミングでの前記反射波画像と、前記外光画像とを対比することにより、それら画像の差分(E)を抽出する抽出プロセス(S106,S107,S108,S2110,S2111)と、
     前記予測プロセスによる前記同期ずれ時間の予測まで前記同期処理を差し戻すか否かを、前記抽出プロセスにより抽出される前記差分に基づき判定する判定プロセス(S109)と、を含む同期方法。
  8.  前記抽出プロセスは、前記反射波画像に対して前記シャッタフレームの前記開始タイミングからのずれ分を補償してから、前記反射波画像を前記外光画像と対比する請求項7に記載の同期方法。
  9.  前記算出プロセスによる前記時間変化量の算出に先立って、前記シャッタフレーム内での前記車両の運動による移動量を、前記反射波画像に対して補償する補償プロセス(S103)を、さらに含む請求項8に記載の同期方法。
  10.  前記抽出プロセスは、前記反射波画像と前記外光画像とのうち高精細側を低精細側に合わせて補間してから、それら画像を対比する請求項7~9のいずれか一項に記載の同期方法。
  11.  前記抽出プロセスは、前記反射波画像と前記外光画像とのエッジ同士を対比する請求項7~10のいずれか一項に記載の同期方法。
  12.  前記抽出プロセスは、前記反射波画像と前記外光画像との画像値(Lre,Soe)同士を、それぞれのバラツキ範囲により正規化してから、対比する請求項7~11のいずれか一項に記載の同期方法。
  13.  電磁波を照射することにより得られる反射波に応じた反射波画像(Ir)を取得するレーダセンサ(22)と、外界から感知する外光に応じた外光画像(Io)を取得する外界カメラ(24)と、を搭載した車両(3)において、前記レーダセンサ及び前記外界カメラに対する同期処理を遂行するために記憶媒体(10)に格納され、プロセッサ(12)に実行させる命令を含む同期プログラムであって、
     前記命令は、
     前記レーダセンサ及び前記外界カメラ間の同期ずれ時間(T)を予測させる予測プロセス(S101,S110)と、
     前記外界カメラのシャッタフレーム(Fo)間における前記反射波画像の時間変化量(ΔR)を算出させる算出プロセス(S104)と、
     前記予測プロセスにより予測される前記同期ずれ時間が前記シャッタフレームの開始タイミングからずれた同期タイミング(ts)での前記反射波画像を、前記算出プロセスにより算出される前記時間変化量に基づき推定させる推定プロセス(S105)と、
     前記推定プロセスにより推定される前記同期タイミングでの前記反射波画像と、前記外光画像とを対比させることにより、それら画像の差分(E)を抽出させる抽出プロセス(S106,S107,S108,S2110,S2111)と、
     前記予測プロセスによる前記同期ずれ時間の予測まで前記同期処理を差し戻すか否かを、前記抽出プロセスにより抽出される前記差分に基づき判定させる判定プロセス(S109)と、を含む同期プログラム。
  14.  前記抽出プロセスは、前記反射波画像に対して前記シャッタフレームの前記開始タイミングからのずれ分を補償させてから、前記反射波画像を前記外光画像と対比させる請求項13に記載の同期プログラム。
  15.  前記命令は、
     前記算出プロセスによる前記時間変化量の算出に先立って、前記シャッタフレーム内での前記車両の運動による移動量を、前記反射波画像に対して補償させる補償プロセス(S103)を、さらに含む請求項14に記載の同期プログラム。
  16.  前記抽出プロセスは、前記反射波画像と前記外光画像とのうち高精細側を低精細側に合わせて補間させてから、それら画像を対比させる請求項13~15のいずれか一項に記載の同期プログラム。
  17.  前記抽出プロセスは、前記反射波画像と前記外光画像とのエッジ同士を対比させる請求項13~16のいずれか一項に記載の同期プログラム。
  18.  前記抽出プロセスは、前記反射波画像と前記外光画像との画像値(Lre,Soe)同士を、それぞれのバラツキ範囲により正規化させてから、対比させる請求項13~17のいずれか一項に記載の同期プログラム。
     
PCT/JP2020/037853 2019-10-08 2020-10-06 同期装置、同期方法、同期プログラム WO2021070814A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021551661A JP7140291B2 (ja) 2019-10-08 2020-10-06 同期装置、同期方法、同期プログラム
CN202080070199.9A CN114556157A (zh) 2019-10-08 2020-10-06 同步装置、同步方法、同步程序
US17/658,073 US20220229184A1 (en) 2019-10-08 2022-04-05 Synchronization device, synchronization method, and synchronization program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019185388 2019-10-08
JP2019-185388 2019-10-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/658,073 Continuation US20220229184A1 (en) 2019-10-08 2022-04-05 Synchronization device, synchronization method, and synchronization program

Publications (1)

Publication Number Publication Date
WO2021070814A1 true WO2021070814A1 (ja) 2021-04-15

Family

ID=75437520

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/037853 WO2021070814A1 (ja) 2019-10-08 2020-10-06 同期装置、同期方法、同期プログラム

Country Status (4)

Country Link
US (1) US20220229184A1 (ja)
JP (1) JP7140291B2 (ja)
CN (1) CN114556157A (ja)
WO (1) WO2021070814A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114217665A (zh) * 2021-12-21 2022-03-22 清华大学 一种相机和激光雷达时间同步方法、装置及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102615478B1 (ko) * 2019-10-24 2023-12-19 현대모비스 주식회사 자동차용 센서 통합 모듈

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0763861A (ja) * 1993-08-30 1995-03-10 Nippon Telegr & Teleph Corp <Ntt> 並列計算型降雨レーダ画像予測装置
WO2019039279A1 (ja) * 2017-08-22 2019-02-28 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム
US20190163198A1 (en) * 2017-11-29 2019-05-30 Qualcomm Incorporated Radar aided visual inertial odometry initialization

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10160835A (ja) * 1996-11-29 1998-06-19 Sumitomo Electric Ind Ltd 先行車両認識方法
JP7005392B2 (ja) 2017-03-14 2022-01-21 株式会社トプコン 涙液層厚み測定装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0763861A (ja) * 1993-08-30 1995-03-10 Nippon Telegr & Teleph Corp <Ntt> 並列計算型降雨レーダ画像予測装置
WO2019039279A1 (ja) * 2017-08-22 2019-02-28 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム
US20190163198A1 (en) * 2017-11-29 2019-05-30 Qualcomm Incorporated Radar aided visual inertial odometry initialization

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MASIH, S. ET AL.: "Synchronizing Multiple Data Streams by Time For Vehicle Control", 2018 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV, 22 October 2018 (2018-10-22), pages 1686 - 1691, XP033423369, DOI: 10.1109/IVS.2018.8500470 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114217665A (zh) * 2021-12-21 2022-03-22 清华大学 一种相机和激光雷达时间同步方法、装置及存储介质

Also Published As

Publication number Publication date
JP7140291B2 (ja) 2022-09-21
CN114556157A (zh) 2022-05-27
JPWO2021070814A1 (ja) 2021-04-15
US20220229184A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
US10200638B2 (en) Stereo assist with rolling shutters
WO2021070813A1 (ja) 誤差推定装置、誤差推定方法、誤差推定プログラム
EP2500748B1 (en) Stereo camera apparatus and method of obtaining image
EP2722646B1 (en) Distance measurement device and environment map generation apparatus
CN111899282B (zh) 基于双目摄像机标定的行人轨迹跟踪方法及装置
US10484665B2 (en) Camera parameter set calculation method, recording medium, and camera parameter set calculation apparatus
US9940725B2 (en) Method for estimating the speed of movement of a camera
US11082633B2 (en) Method of estimating the speed of displacement of a camera
US7149346B2 (en) Three-dimensional database generating system and method for generating three-dimensional database
WO2021070814A1 (ja) 同期装置、同期方法、同期プログラム
JP7173373B2 (ja) 同期装置、同期方法、および同期プログラム
US20140286537A1 (en) Measurement device, measurement method, and computer program product
JP2006322795A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20240183963A1 (en) 3d vision system with automatically calibrated stereo vision sensors and lidar sensor
US20220284608A1 (en) Optical data processing apparatus, optical data processing method and optical data processing program
EP3832600A1 (en) Image processing device and three-dimensional measuring system
CN117523086A (zh) 一种多模态数据三维场景重建方法及装置
KR102195040B1 (ko) 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법
CN111260538B (zh) 基于长基线双目鱼眼相机的定位及车载终端
NL2016718B1 (en) A method for improving position information associated with a collection of images.
EP3748395B1 (en) Method and apparatus for compensating stray light caused by an object in a scene that is sensed by a time-of-flight camera
CN111260698B (zh) 双目图像特征匹配方法及车载终端
JP2003346144A (ja) 建物外形抽出方法およびシステム
Broggi et al. Handling rolling shutter effects on semi-global matching in automotive scenarios
US20220283272A1 (en) Optical data processing apparatus, optical data processing method and optical data processing program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20874390

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021551661

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20874390

Country of ref document: EP

Kind code of ref document: A1