WO2016152807A1 - 衝突余裕時間算出装置及び衝突回避システム - Google Patents

衝突余裕時間算出装置及び衝突回避システム Download PDF

Info

Publication number
WO2016152807A1
WO2016152807A1 PCT/JP2016/058793 JP2016058793W WO2016152807A1 WO 2016152807 A1 WO2016152807 A1 WO 2016152807A1 JP 2016058793 W JP2016058793 W JP 2016058793W WO 2016152807 A1 WO2016152807 A1 WO 2016152807A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
time
series data
unit
condition
Prior art date
Application number
PCT/JP2016/058793
Other languages
English (en)
French (fr)
Inventor
崇弘 馬場
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2016152807A1 publication Critical patent/WO2016152807A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a collision margin time (TIME-TO-COLLISION) calculation device and a collision avoidance system.
  • the technique described in the conventional patent document 1 acquires an image around the host vehicle using an image sensor. And this technique recognizes a target (for example, another vehicle, a pedestrian, etc.) in the acquired image, and judges whether the recognized target and the own vehicle may collide. The above technique performs a process for avoiding a collision when it is determined that the recognized target and the own vehicle may collide.
  • a target for example, another vehicle, a pedestrian, etc.
  • the target may not be accurately recognized from the image around the host vehicle depending on the positional relationship between the target and the host vehicle or the environment around the host vehicle.
  • One embodiment of the present invention has been made in view of these problems, and an object thereof is to provide a collision margin time calculation device and a collision avoidance system for dealing with the above problems.
  • the collision margin time calculating apparatus is an image acquisition unit that acquires an image ahead of a vehicle, a whole body dictionary having a plurality of feature patterns of the entire target target, and the target.
  • a target recognition unit that recognizes at least a part of the target target in the acquired image using a partial dictionary having a plurality of feature patterns of a predetermined part of the target, and the recognized target on the acquired image
  • a size acquisition unit for acquiring the size of at least a part of the target, a time series data generation unit for generating time series data relating to the size of at least a part of the recognized target target, and the time series data At least a part of the target target whose time series data created by the creation unit is recognized using the whole body dictionary Based on the target target recognized using the partial dictionary, and based on the result of the determination, the time series data generation unit generates the target target.
  • a frequency range for attenuating the time series data, an attenuation unit for attenuating data in the determined frequency range in the time series data, and the magnitude using the time series data after the attenuation An enlargement ratio calculating unit that calculates an enlargement ratio, and a collision allowance time calculating unit that calculates a collision allowance time for at least a part of the target target of the vehicle based on the enlargement ratio.
  • the collision margin time calculation apparatus According to the configuration of the collision margin time calculation apparatus according to the first exemplary embodiment, even when a partial dictionary is used for creating time-series data, a frequency range for attenuation suitable for using the partial dictionary is determined. And data within the determined frequency range in the time series data can be attenuated. For this reason, even when a partial dictionary is used for creating time-series data, it is possible to accurately calculate the collision allowance time for the target target, which is calculated using the time-series data.
  • the collision avoidance system includes a collision margin time calculating apparatus according to the first exemplary aspect and the target target of the vehicle when the collision margin time satisfies a predetermined condition.
  • a collision avoidance device that executes a collision avoidance process for avoiding a collision with at least a part of the system.
  • the collision margin time calculating device includes a condition setting unit that sets the condition.
  • the condition setting unit is a predetermined condition as the condition.
  • a second condition that is stricter than the first condition is set as the condition.
  • the collision avoidance system According to the collision avoidance system according to the second exemplary embodiment of the present invention, it is possible to suppress the unnecessary execution of the collision avoidance process due to the use of the partial dictionary for the time series data creation.
  • the collision margin time calculating apparatus includes an image acquisition unit that acquires an image ahead of a vehicle, a target recognition unit that recognizes a target as a target in the acquired image, and the acquired image.
  • a size acquisition unit for acquiring the size of at least a part of the recognized target target, and time series data for generating time series data relating to the size of at least a part of the recognized target target.
  • a creation unit a brightness acquisition unit that acquires brightness around the vehicle, and whether or not the brightness acquired by the brightness acquisition unit exceeds a predetermined threshold, and based on the result of this determination Determining a frequency range in which the time series data created by the time series data creation unit is attenuated, and the time series data in the time series data Based on an attenuation unit for attenuating data within a defined frequency range, an enlargement factor calculation unit for calculating an enlargement factor in the magnitude using the time-series data after the attenuation, and the enlargement factor, A collision margin time calculating unit that calculates a collision margin time for at least a part of the target target of the vehicle.
  • the attenuation is suitable for the recognition state. Can be determined, and data in the determined frequency range in the time-series data can be attenuated. For this reason, even when at least a part of the target target is recognized in a dark state around the host vehicle, the collision margin time with respect to the target target, which is calculated using the time series data, is accurately calculated. be able to.
  • a collision avoidance system includes a collision margin time calculating device according to the third exemplary aspect and the target target of the vehicle when the collision margin time satisfies a predetermined condition.
  • a collision avoidance device that performs a collision avoidance process for avoiding a collision with at least a part of the collision margin time calculation device, and the collision margin time calculation device includes a condition setting unit that sets the condition.
  • the condition setting unit sets a first condition having a predetermined severity as the condition, and acquires the brightness
  • a second condition that is stricter than the first condition is set as the condition.
  • the collision avoidance system 1 is an in-vehicle system mounted on the vehicle V.
  • the vehicle V on which the collision avoidance system 1 is mounted is referred to as the host vehicle V.
  • the collision avoidance system 1 includes an image sensor 3, a control ECU 5, and a brake ECU 7.
  • the image sensor 3 captures a landscape in front of the host vehicle V (for example, a frame image having a predetermined size), and generates image data corresponding to the frame image of the captured landscape in front.
  • the control ECU 5 is a known computer including a CPU 5a, a memory 5b including RAM and / or ROM, and necessary peripheral devices.
  • Control ECU5 (CPU5a) performs the process mentioned later by the program memorize
  • the CPU 5a in the control ECU 5 functionally includes an image acquisition unit 9, a target recognition unit 11, a size acquisition unit 13, a time series data creation unit 15, a filtering unit 17, an enlargement rate calculation unit 19, and a TTC (collision margin time).
  • a calculation unit 21 and a condition setting unit 23 are provided. The function of each unit will be described later.
  • the brake ECU 7 is a known computer including a CPU, a memory including a RAM and / or a ROM, and necessary peripheral devices.
  • the brake ECU 7 has a function of braking the host vehicle V as an example of a collision avoidance process when a TTC calculated by the control ECU 5 described later satisfies a predetermined condition C.
  • the condition C is that the number of TTCs whose values are less than a predetermined threshold among the TTCs acquired by the control ECU 5 a predetermined number of times (for example, 10 times) within a predetermined time, which will be described later, is N or more. (N is set to a natural number of 1 or more and 10 or less, for example).
  • the control ECU 5 is an example of a collision allowance time calculation device.
  • the brake ECU 7 is an example of a collision avoidance device. Applying a brake to the host vehicle V is an example of a collision avoidance process.
  • TTC Calculation Process Performed by Collision Avoidance System 1 The TTC calculation process repeatedly executed by the collision avoidance system 1 (particularly the CPU 5a of the control ECU 5) every predetermined time will be described with reference to FIGS. 2 to 5B.
  • the image acquisition unit 9 in the control ECU 5 acquires a frame image (image data) of the scenery in front of the host vehicle V captured by the image sensor 3 from the image sensor 3.
  • step S2 the target recognition unit 11 in the control ECU 5 recognizes the frame image acquired in step S1 (hereinafter referred to as an acquired image) using the whole body dictionary in a plurality of dictionaries stored in the memory 5b. It is determined whether or not a target target to be included is included in the acquired image. When it is determined that the target image is included in the acquired image, the target recognition unit 11 recognizes the target target.
  • the process for recognizing the target target is a well-known image recognition process.
  • each dictionary is expressed by data (feature data) representing patterns of a large number of features in the target target to be recognized.
  • the control ECU 5 holds a plurality of dictionaries prepared for each target target in advance, for example, in the memory 5b.
  • the plurality of dictionaries are a whole body dictionary (whole-body dictionary) relating to the entire corresponding target target, and an upper body dictionary (upper half dictionary, upper-side) relating to the upper half (upper half) of the corresponding target target. body dictionary) and the lower body dictionary (lower half dictionary) for the lower body (lower half) of the corresponding target target.
  • the feature quantity patterns (multiple feature patterns) of the target target represented by the whole body dictionary are data representing the overall characteristics of the target target.
  • each of the many feature patterns of the target target represented by the whole body dictionary may be data representing a contour shape.
  • the multiple feature patterns of the target target represented by the entire dictionary may each be position data of a plurality of points representing the entire outline of the target target in the corresponding frame image.
  • each of the large number of feature patterns of the target target represented by the whole body dictionary is a corresponding frame image or an area (window) smaller than the frame image, and an area including the entire target target (hereinafter referred to as “the target target”). It may be a calculated value (for example, an average value) in the target area obtained by performing a predetermined calculation on the pixel value in the target area, a histogram of the gradient of the pixel value in the target area, or the like. .
  • the many feature quantity patterns (multiple feature patterns) of the target target represented by the upper body dictionary are data representing the features of the upper body that are part of the target target.
  • An example of many feature patterns of a target target represented by the upper body dictionary is the same as many feature patterns of a target target represented by the whole body dictionary.
  • a large number of feature quantity patterns (multiple feature patterns) of a target target represented by the lower body dictionary are data representing features of the lower half that are part of the target target.
  • An example of many feature patterns of a target target represented by the lower body dictionary is the same as many feature patterns of a target target represented by the whole body dictionary.
  • FIG. 3A schematically shows a pedestrian feature pattern included in a whole body dictionary in a plurality of pedestrian dictionaries used for recognition of a pedestrian that is an example of a target target.
  • FIG. 3B schematically shows an example of a pedestrian feature pattern included in the upper body dictionary in a plurality of dictionaries used for pedestrian recognition, which is an example of a target target.
  • FIG. 3C schematically illustrates an example of a pedestrian feature pattern included in a lower body dictionary in a plurality of dictionaries used for pedestrian recognition, which is an example of a target target.
  • the target targets include a number of targets such as various vehicles other than the host vehicle V (hereinafter referred to as other vehicles), roadside objects, road surface display markers, and the like.
  • a dictionary used for recognizing the target target that is, a whole body dictionary, an upper body dictionary, and a lower body dictionary, is prepared and stored in advance in, for example, the memory 5b in the control ECU 5.
  • step S2 when it is determined in step S2 that the entire target target is included in the acquired image, the target recognition unit 11 recognizes the target target using the corresponding whole body dictionary. On the other hand, if it is determined in step S2 that the entire target target is not included in the acquired image but partially included, the TTC calculation process proceeds to step S3.
  • step S3 the target recognition unit 11 in the control ECU 5 recognizes a target target partially included in the acquired image using the upper body dictionary or the lower body dictionary in the acquired image acquired in step S1. .
  • step S3 the target recognition unit 11 recognizes a portion of the target target having a portion that does not fit in the acquired image using the upper body dictionary or the lower body dictionary corresponding to the portion. To do.
  • step S4 the size acquisition unit 13 in the control ECU 5 acquires the size S of the target target recognized in step S2 or step S3.
  • the size S is the size (for example, recognized) of the target target (represented by reference numeral 27) recognized on the acquired image (represented by reference numeral 24) acquired in step S1.
  • the target target is partially recognized by the upper body dictionary or the lower body dictionary in step S3, the part included in the acquired image of the target target, that is, the corresponding half body dictionary of the target target.
  • the size of the recognized part is the size S recognized in step S4.
  • step S5 the time-series data creation unit 15 in the control ECU 5 creates time-series data regarding the size S of the target target.
  • the time series data is data in which the sizes S repeatedly acquired for the same target target are arranged in the order of the acquisition times T as shown in FIG. 5A.
  • the time-series data creation unit 15 performs steps S2 and S4 for each of a predetermined number of acquired images captured by the image sensor 3 and acquired in time series by the process of step S1 of the image acquisition unit 9.
  • the size S for each acquired image acquired in time series is arranged in time series to create time series data.
  • This time-series data of size S varies with the passage of time, and can be said to be data in which various periodic variation components, that is, frequency components, are synthesized.
  • the time series data creation unit 15 holds the created time series data in the storage space in the memory 5b.
  • step S6 the time-series data creation unit 15 determines whether or not the time-series data created in step S5 is time-series data for the target target recognized using the whole body dictionary.
  • step S6 when it is determined that the time series data is about the target target recognized using the whole body dictionary (YES in the determination in step S6), the TTC calculation process proceeds to step S7.
  • step S11 when it is determined that the time series data is about the target target recognized using the upper body dictionary or the lower body dictionary (NO as a result of the determination in step S6), the TTC calculation process proceeds to step S11.
  • step S7 the filtering unit 17 in the control ECU 5 filters the time series data created in step S5 using the first low-pass filter.
  • the first low-pass filter is a filter that selectively attenuates a high-frequency component in a predetermined range in time-series data (a short-cycle component of periodic fluctuations of the magnitude S with time). For example, when the first low-pass filter is used to filter time-series data having a fluctuation of the size S in a short period (having a high frequency component) as shown in FIG. 5A, the result is shown in FIG. 5B. As described above, time series data in which the fluctuation of the magnitude S in a short cycle is suppressed (high frequency components are attenuated) is obtained.
  • the frequency range to be attenuated (hereinafter referred to as the first frequency attenuation range) is the frequency range to be attenuated in the second low-pass filter described later (hereinafter referred to as the second frequency attenuation range). It is narrower on the low frequency side than In other words, the lower limit value in the first frequency attenuation range of the first low-pass filter is set higher than the lower limit value in the second frequency attenuation range of the second low-pass filter.
  • step S8 the condition setting unit 23 in the control ECU 5 sets a first condition C1 as a condition C for determining whether or not the brake ECU 7 brakes the host vehicle V.
  • the first condition C1 is a condition that the number of TTC values that are less than a predetermined threshold among the TTC values acquired by the past 10 processes in step S10 described later is N1 or more. is there.
  • N1 is a natural number of 1 to 9, for example, and is smaller than N2 described later.
  • step S9 the enlargement factor calculation unit 19 in the control ECU 5 calculates the enlargement factor in the size S using the time-series data after being filtered by the first low-pass filter. Specifically, the enlargement rate calculation unit 19 executes an enlargement rate calculation process shown below. As shown in FIG. 5B, the enlargement ratio calculation unit 19 sets two times t1 and t2 in the time series data held in the memory 5b, for example (t1 ⁇ t2). Note that the time difference between time t1 and time t2 is ⁇ t.
  • the enlargement ratio calculation unit 19 calculates ⁇ S as the increase amount of the magnitude S at time t2 with respect to the magnitude S at time t1, and calculates the enlargement ratio ⁇ S / ⁇ t by dividing the obtained increase amount ⁇ S by the time difference ⁇ t. .
  • the time-series data used for the process in step S9 is time-series data after the filtering when the first low-pass filter is used in step S7.
  • the time-series data used for the processing in step S9 is the time-series data after being filtered by the second low-pass filter. is there.
  • step S10 the TTC calculation unit 21 calculates TTC for the target target based on the enlargement ratio of the size S of the target target calculated in step S9. Specifically, the TTC calculation unit 21 calculates the TTC for the target target in the following procedure, for example.
  • the above-described enlargement ratio of the target target size S is a parameter corresponding to the relative speed of the target target with reference to the host vehicle V at 1: 1.
  • the control ECU 5 stores, in advance, information that defines the relationship between the enlargement ratio of each target target to be recognized and the relative speed between the host vehicle V and each target target to be recognized in the memory 5b as a map M, for example. keeping.
  • step S10 the TTC calculation unit 21 extracts the value of the relative speed corresponding to the enlargement rate of the target target size S calculated in step S9 from the map M, thereby calculating the relative speed of the target target. calculate.
  • step S10 the TTC calculation unit 21 determines the own vehicle V based on at least one of the positions (vertical position and horizontal position) of the target target in the vertical direction (vertical direction) and the horizontal direction (horizontal direction) of the acquired image. The distance from the target to the target is calculated. Then, in step S10, the TTC calculation unit 21 calculates the TTC for the target target using the relative speed and distance of the target target calculated as described above with respect to the host vehicle V.
  • step S11 the filtering unit 17 performs filtering using the second low-pass filter on the time-series data created in step S5.
  • the filtering process in step S11 is basically the same as the filtering process in step S7, but differs from the filtering process in step S7 in that a second low-pass filter is used as the low-pass filter.
  • the second low-pass filter is a filter that selectively attenuates a high-frequency component in a predetermined range in the time-series data.
  • the second low-pass filter is a filter whose second frequency attenuation range extends to a lower frequency side than the first frequency attenuation range of the first low-pass filter.
  • the lower limit value of the second frequency attenuation range of the second low-pass filter is set lower than the lower limit value of the first frequency attenuation range of the first low-pass filter.
  • step S12 the condition setting unit 23 sets a second condition C2 as a condition C for determining whether or not to brake the host vehicle V by the brake ECU 7.
  • the second condition C2 is a condition that the number of TTC values that are less than a predetermined threshold among the TTC values acquired by the past 10 processes in step S10 is N2 or more.
  • N2 is a natural number of 2 or more and 10 or less, and is a value larger than N1 described above.
  • step S12 After the process of step S12 is completed, the enlargement ratio calculation unit 19 performs the enlargement ratio calculation process of step S9, and the TTC calculation unit 21 performs the TTC calculation process of step S10.
  • step S10 the TTC calculation unit 21 transmits the TTC for the calculated target target and the corresponding first condition C1 or second condition C2 to the brake ECU 7.
  • the brake ECU 7 includes the first condition C1 or the second condition C2 corresponding to the number of TTC values that are less than a predetermined threshold in the TTC values for the past 10 times including the TTC sent this time.
  • the process of determining whether or not is satisfied is executed as the process of the determination unit 7a.
  • the number of TTC values that are less than a predetermined threshold in the TTC values for the past 10 times including the TTC sent this time satisfies the corresponding first condition C1 or second condition C2. If so, the brake ECU 7 executes a process of braking the host vehicle V as a process of the brake unit 7b.
  • the collision avoidance system 1 Since the feature amount in each feature pattern of the upper body dictionary or the lower body dictionary is smaller than the feature amount in each feature pattern of the whole body dictionary, it is calculated from the target target recognized using the upper body or lower body dictionary.
  • the target target size S is lower in accuracy than the target target size S calculated from the target target recognized using the whole body dictionary. Therefore, the time series data of the size S of the target target S created for the target target recognized using the upper body or lower body dictionary is the time series data of the target target recognized using the whole body dictionary.
  • the variation of the size S in a short time interval that is, a large fluctuation component in a short cycle may be included.
  • the enlargement ratio calculation accuracy becomes low, and the calculation is based on this enlargement ratio.
  • the accuracy of calculating the TTC is also lowered.
  • control ECU 5 in the collision avoidance system 1 recognizes the target object recognized using the whole body dictionary when time series data is created for the target object recognized using the upper body or lower body dictionary.
  • the frequency component region (frequency range) to be attenuated by filtering in the frequency components of the corresponding time-series data is made wider, that is, expanded to the lower frequency side than when time-series data is created for the mark.
  • the fluctuation component of the short period in the time series data for the target target recognized using the upper body or lower body dictionary is further suppressed, and the calculation is performed based on the suppressed time series data. And the accuracy of calculating the TTC calculated based on the enlargement rate.
  • control ECU 5 in the collision avoidance system 1 of the first embodiment recognizes using the whole body dictionary when the target target whose TTC is calculated is the target target recognized using the upper body or lower body dictionary.
  • the condition C for determining whether or not to brake the host vehicle V by the brake ECU 7 is set to be stricter, that is, the condition C is set so as not to be satisfied than when the target target is the target target.
  • the collision avoidance system 101 includes a control ECU 105.
  • the control ECU 105 is a known computer including a CPU 105a, a memory 105b including a RAM and / or a ROM, and necessary peripheral devices.
  • Control ECU105 (CPU105a) performs the process mentioned later by the program memorize
  • the CPU 105a in the control ECU 105 functionally includes a brightness acquisition unit 25 in addition to the functions of the control ECU 5 in the first embodiment.
  • the brightness acquisition unit 25 is based on the frame image of the scene in front of the host vehicle V acquired by the image sensor 3, that is, the brightness (luminance) in the acquired image, in other words, based on the light intensity. It has a function to estimate the brightness of.
  • TTC Calculation Process Performed by Collision Avoidance System 101 A TTC calculation process repeatedly executed by the collision avoidance system 101 (particularly, the CPU 105a of the control ECU 105) every predetermined time will be described with reference to FIG. Note that, in the following TTC calculation process, the description of the same part as the TTC calculation process shown in FIG. 2 is partially simplified.
  • the image acquisition unit 9 acquires a frame image (image data) of the scenery in front of the host vehicle V captured by the image sensor 3 from the image sensor 3 as an acquired image.
  • step S22 the target recognition unit 11 should recognize using the whole body dictionary, upper body dictionary, or lower body dictionary in a plurality of dictionaries stored in the memory 5b in the acquired image acquired in step S21. It is determined whether or not the target target is included in the acquired image. When it is determined that the target image is included in the acquired image, the target recognition unit 11 recognizes the target target.
  • step S23 the brightness acquisition unit 25 estimates the brightness around the host vehicle V from the brightness in the acquired image acquired in step S21.
  • step S24 the size acquisition unit 13 acquires the size S of the target target recognized in step S22.
  • step S25 the time-series data creation unit 15 performs step S22 on each of a predetermined number of acquired images captured by the image sensor 3 and acquired in time series by the process of step S21 of the image acquisition unit 9.
  • step S24 and S24 the size S for each acquired image acquired in time series is arranged in time series to create time series data.
  • step S26 the filtering unit 17 determines whether or not the brightness estimated in step S23 exceeds a preset threshold value. If the estimated brightness exceeds the threshold, the TTC calculation process proceeds to step S27. On the other hand, if the estimated brightness is less than or equal to the threshold value, the process proceeds to step S31.
  • step S27 the filtering unit 17 filters the time-series data created in step S25 using a first low-pass filter.
  • step S28 the condition setting unit 23 sets the first condition C1 as the condition C.
  • step S29 the enlargement ratio calculation unit 19 calculates the enlargement ratio at the size S using the time-series data after being filtered by the first low-pass filter.
  • the time-series data used for the process of step S29 is time-series data after the filtering when the first low-pass filter is used for filtering in step S27.
  • the time-series data used for the processing in step S29 is the time-series data after being filtered by the second low-pass filter. is there.
  • step S30 the TTC calculation unit 21 calculates the TTC for the target target based on the enlargement ratio of the target target size S calculated in step 29.
  • step S31 the filtering unit 17 filters the time series data created in step S25 using a second low-pass filter.
  • step S32 the condition setting unit 23 sets a second condition C2 as a condition C for determining whether or not to brake the host vehicle V by the brake ECU 7.
  • step S32 After the process of step S32, the enlargement ratio calculation unit 19 performs the enlargement ratio calculation process of step S29, and the TTC calculation unit 21 performs the TTC calculation process of step S30.
  • step S30 the TTC calculation unit 21 transmits the TTC for the calculated target target and the corresponding first condition C1 or second condition C2 to the brake ECU 7.
  • the brake ECU 7 includes the first condition C1 or the second condition C2 corresponding to the number of TTC values that are less than a predetermined threshold in the TTC values for the past 10 times including the TTC sent this time.
  • the process of determining whether or not is satisfied is executed as the process of the determination unit 7a.
  • the number of TTC values that are less than a predetermined threshold in the TTC values for the past 10 times including the TTC sent this time satisfies the corresponding first condition C1 or second condition C2. If so, the brake ECU 7 executes a process of braking the host vehicle V as a process of the brake unit 7b.
  • the size S of the target target calculated from the target target recognized when the surrounding of the host vehicle V is dark indicates that the target is recognized when the surrounding of the host vehicle V is bright.
  • the accuracy is lower than the size S of the target target calculated from the target. Therefore, the time series data of the size S of the target target S created for the target target recognized when the surrounding of the host vehicle V is dark is the target object recognized when the surrounding of the host vehicle V is bright.
  • the time-series data of the size S of the target target S created for the target there is a possibility that the variation of the size S in a short time interval, that is, a fluctuation component in a short cycle is included.
  • the enlargement ratio calculation accuracy becomes low, and the calculation is based on this enlargement ratio.
  • the accuracy of calculating the TTC is also lowered.
  • control ECU 105 in the collision avoidance system 101 of the second embodiment attenuates by filtering the frequency components of the corresponding time series data when the surroundings of the host vehicle V are darker than when the surroundings of the host vehicle V are bright.
  • the frequency component region (frequency range) to be generated is made wider, that is, expanded to the low frequency side.
  • the short-cycle fluctuation component in the time-series data for the target target recognized when the surrounding of the host vehicle V is dark is further suppressed, and based on the suppressed time-series data. It is possible to improve the enlargement ratio calculated in this manner and the TTC calculation accuracy calculated based on the enlargement ratio.
  • the control ECU 105 in the collision avoidance system 101 of the second embodiment when the target target for which the TTC is calculated is a target target recognized when the surrounding of the host vehicle V is dark,
  • the condition C for determining whether or not to brake the host vehicle V by the brake ECU 7 is stricter, that is, it is difficult to satisfy the condition C than when the target is recognized when the surroundings are bright. Set.
  • the first and second conditions C1 and C2 may be as follows.
  • the first condition C1 is a condition that the value of TTC calculated in step S10 is equal to or less than a predetermined first threshold value L1.
  • the second condition C2 is a condition that the value of TTC calculated in step S10 is equal to or less than a predetermined second threshold L2.
  • the first and second threshold values L1 and L2 are positive numbers, and L1> L2.
  • the collision avoidance system 101 is connected to the control ECU 105 and may include an illuminance meter 30 that measures the illuminance around the host vehicle V (see a virtual line in FIG. 6).
  • the brightness acquisition unit 25 may measure the brightness (luminance) around the host vehicle V based on the illuminance measured by the illuminometer 30.
  • the illuminometer can be installed at any place in the host vehicle V.
  • the low-pass filter used in the time-series data filtering process includes a first low-pass filter having a predetermined first frequency attenuation range, and the first frequency attenuation range.
  • the second low-pass filter having a wide second frequency attenuation range on the low frequency side is included, but the present invention is not limited to this configuration.
  • condition C for applying the brake is the first condition C1 that imposes a predetermined severity for performing the braking operation, and the condition C for applying the braking operation.
  • the second condition C2 that imposes a stricter condition than the strictness of the first condition is included, but the present invention is not limited to this configuration.
  • condition C for applying the brake includes first to Nth conditions (N is an integer of 3 or more) conditions C (1) to C (N) having a plurality of levels of strictness with respect to the brake operation. Also good.
  • the degree of severity of the first to Nth conditions C (1) to C (N) is made to become increasingly severe from the first condition C (1) to the Nth condition C (N). Is set.
  • step S6 the time series data generation unit 15 uses the brightness acquisition unit 25 in addition to the determination process regarding the use of the whole body dictionary (hereinafter referred to as the first determination process). You may perform the process (henceforth 2nd determination process) which judges whether the brightness around the estimated own vehicle V exceeds the preset threshold value.
  • the filtering unit 17 performs the first and second determinations.
  • a process for selecting which of the first to Mth low-pass filters to use for filtering the time series data created in step S5 and the brake ECU 7
  • the condition C for determining whether to apply the brake it is possible to execute a process of selecting any of the first to Nth conditions C (1) to C (N).
  • step S6 it is determined in step S6 that the whole body dictionary is used as a result of the first determination process, and the brightness around the vehicle V exceeds the threshold value as a result of the second determination process.
  • the filtering unit 17 selects the first low-pass filter with the narrowest frequency attenuation range from the first to M-th low-pass filters, and uses this first low-pass filter.
  • time-series data filtering processing can be performed.
  • the condition setting unit 23 selects the first condition C (1), which is the most lenient condition among the first to Nth conditions C (1) to C (N), that is, the condition that facilitates the brake process. Can be selected.
  • step S6 as a result of the first determination process, it is determined that the upper body or lower body dictionary is used, and as a result of the second determination process, it is determined that the brightness around the vehicle V is less than or equal to the threshold value.
  • the filtering unit 17 selects the M-th low-pass filter having the widest frequency attenuation range from the first to M-th low-pass filters, and uses this M-th low-pass filter for time series. Data filtering processing can be performed. Further, the condition setting unit 23 selects the Nth condition C (N) which is the most severe condition among the first to Nth conditions C (1) to C (N). Can be selected.
  • the filtering unit 17 selects the first and second low pass filters from the first to Mth low-pass filters.
  • One desired low-pass filter other than the M low-pass filter can be selected, and the time-series data can be filtered using the selected low-pass filter.
  • the condition setting unit 23 can select one desired condition other than the first and Nth conditions from the first to Nth conditions C (1) to C (N).
  • the brake ECU 7 instead of the brake ECU 7 or in addition to the brake ECU 7, other collision avoidance processing (for example, automatic steering for automatically steering the steering wheel of the vehicle V to avoid the collision).
  • An ECU for executing a warning process for outputting a warning for steering or collision avoidance to the driver of the vehicle V visually and / or by voice may be provided.
  • this ECU includes the first number corresponding to the number of TTC values that are less than a predetermined threshold in the TTC values for the past 10 times including the TTC sent by the processing of step S10 or S30. When it is determined that the condition C1 or the second condition C2 is satisfied, the corresponding collision avoidance process is executed.
  • the collision avoidance systems 1 and 101 may have a configuration capable of measuring the distance from the host vehicle V to the target target, such as a millimeter wave sensor.
  • the control ECU 5 in each of the collision avoidance systems 1 and 101 can also calculate the TTC for the target target based on the distance from the own vehicle V acquired by the above configuration to the target target.
  • the upper body dictionary relating to the upper half of the target target and the lower body dictionary relating to the lower half of the corresponding target target are used as partial dictionaries.
  • the present invention is not limited to this. Absent.
  • a partial dictionary that holds a large number of feature patterns in which some features such as a face in the target target are represented may be used.
  • each of the first and second embodiments may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of each of the first and second embodiments may be replaced with a known configuration having a similar function. Moreover, you may abbreviate
  • the present invention is realized as the collision margin time calculation device and the collision avoidance system in each of the first and second embodiments described above, but the present invention is not limited to this realization method.
  • the present invention can be realized in various forms such as a program for causing a computer to function as a collision allowance time calculation device or a collision avoidance device, a medium storing this program, a collision allowance time calculation method, a collision avoidance method, and the like. it can.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

 衝突余裕時間算出装置における減衰ユニットは、時系列データ作成ユニットにより作成された時系列データが全身辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものであるか、あるいは部分辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものであるかを判断し、この判断の結果に基づいて、前記時系列データ作成ユニットにより作成された時系列データを減衰させる周波数範囲を決定し、当該時系列データにおける前記決定された周波数範囲内のデータを減衰させる。

Description

衝突余裕時間算出装置及び衝突回避システム
 本発明は、衝突余裕時間(TIME‐TO‐COLLISION)算出装置及び衝突回避システムに関する。
 従来の特許文献1に記載された技術は、画像センサを用いて自車両周囲の画像を取得する。そして、この技術は、取得した画像において物標(例えば他の車両、歩行者等)を認識し、認識した物標と自車両とが衝突する可能性があるか否か判断する。上記技術は、認識した物標と自車両とが衝突する可能性があると判断した場合に、衝突を回避するための処理を行う。
特開2014-178971号公報
 上記技術では、物標と自車両との位置関係や、自車両の周囲の環境等によっては、自車両周囲の画像から物標を正確に認識できない場合がある。この場合、上記技術では、物標と自車両とが衝突する可能性を適切に判断することは困難になる。本発明の一態様は、こうした問題にかんがみてなされたものであり、上記の問題に対して対処するための衝突余裕時間算出装置及び衝突回避システムを提供することを目的としている。
 本発明の第1の例示態様に関わる衝突余裕時間算出装置は、車両前方の画像を取得する画像取得ユニットと、ターゲットとなる物標の全体の複数の特徴パターンを有する全身辞書及び前記ターゲットとなる物標の所定部分の複数の特徴パターンを有する部分辞書を用いて、前記取得画像において前記ターゲット物標の少なくとも一部を認識する物標認識ユニットと、前記取得画像上における、前記認識されたターゲット物標の少なくとも一部の大きさを取得する大きさ取得ユニットと、前記認識されたターゲット物標の少なくとも一部の大きさに関する時系列データを作成する時系列データ作成ユニットと、前記時系列データ作成ユニットにより作成された時系列データが前記全身辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものであるか、あるいは前記部分辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものであるかを判断し、この判断の結果に基づいて、前記時系列データ作成ユニットにより作成された時系列データを減衰させる周波数範囲を決定し、当該時系列データにおける前記決定された周波数範囲内のデータを減衰させる減衰ユニットと、前記減衰された後の時系列データを用いて前記大きさにおける拡大率を算出する拡大率算出ユニットと、前記拡大率に基づいて、前記車両の前記ターゲット物標の少なくとも一部に対する衝突余裕時間を算出する衝突余裕時間算出ユニットと、を備えている。
 前記第1の例示態様に関わる衝突余裕時間算出装置の構成によれば、時系列データ作成に部分辞書が用いられた場合でも、その部分辞書を用いたことに適した減衰用の周波数範囲を決定することができ、当該時系列データにおける前記決定された周波数範囲内のデータを減衰させることができる。このため、時系列データ作成に部分辞書が用いられた場合でも、前記時系列データを用いて算出される、前記ターゲット物標に対する衝突余裕時間を精度よく算出することができる。
 本発明の第2の例示態様に関わる衝突回避システムは、前記第1の例示態様に関わる衝突余裕時間算出装置と、前記衝突余裕時間が所定の条件を充足する場合、前記車両の前記ターゲット物標の少なくとも一部に対する衝突を回避する衝突回避処理を実行する衝突回避装置と、を備えている。この衝突回避システムにおいて、前記衝突余裕時間算出装置は、前記条件を設定する条件設定ユニットを備えている。
 そして、前記条件設定ユニットは、前記時系列データ作成ユニットにより作成された時系列データが前記全身辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものである場合、前記条件として所定の厳しさを有する第1の条件を設定し、前記時系列データ作成ユニットにより作成された時系列データが前記部分辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものである場合、前記条件として第1の条件よりも厳格な第2の条件を設定する。
 本発明の第2の例示態様に関わる衝突回避システムによれば、前記時系列データ作成に部分辞書が用いられたことに起因する不必要な衝突回避処理の実行を抑制することができる。
 本発明の3の例示態様に関わる衝突余裕時間算出装置は、車両前方の画像を取得する画像取得ユニットと、前記取得画像において、ターゲットとなる物標を認識する物標認識ユニットと、前記取得画像上における、前記認識されたターゲット物標の少なくとも一部の大きさを取得する大きさ取得ユニットと、前記認識されたターゲット物標の少なくとも一部の大きさに関する時系列データを作成する時系列データ作成ユニットと、前記車両周囲の明るさを取得する明るさ取得ユニットと、前記明るさ取得ユニットにより取得された明るさが所定の閾値を超えているか否かを判断し、この判断の結果に基づいて、前記時系列データ作成ユニットにより作成された時系列データを減衰させる周波数範囲を決定し、当該時系列データにおける前記決定された周波数範囲内のデータを減衰させる減衰ユニットと、前記減衰された後の前記時系列データを用いて前記大きさにおける拡大率を算出する拡大率算出ユニットと、前記拡大率に基づいて、前記車両の前記ターゲット物標の少なくとも一部に対する衝突余裕時間を算出する衝突余裕時間算出ユニットと、を備えている。
 前記第3の例示態様に関わる衝突余裕時間算出装置の構成によれば、自車両の周囲が暗い状態で前記ターゲット物標の少なくとも一部が認識された場合でも、その認識状態に適した減衰用の周波数範囲を決定することができ、当該時系列データにおける前記決定された周波数範囲内のデータを減衰させることができる。このため、自車両の周囲が暗い状態で前記ターゲット物標の少なくとも一部が認識された場合でも、前記時系列データを用いて算出される、前記ターゲット物標に対する衝突余裕時間を精度よく算出することができる。
 本発明の第4の例示態様に関わる衝突回避システムは、前記第3の例示態様に関わる衝突余裕時間算出装置と、前記衝突余裕時間が所定の条件を充足する場合、前記車両の前記ターゲット物標の少なくとも一部に対する衝突を回避する衝突回避処理を実行する衝突回避装置と、を備えており、前記衝突余裕時間算出装置は、前記条件を設定する条件設定ユニットを備えている。
 そして、条件設定ユニットは、前記明るさ取得ユニットにより取得された明るさが前記所定の閾値を超えている場合、前記条件として所定の厳しさを有する第1の条件を設定し、前記明るさ取得ユニットにより取得された明るさが前記所定の閾値以下である場合、前記条件として第1の条件よりも厳格な第2の条件を設定する
 本発明の第4の例示態様に関わる衝突回避システムによれば、前記自車両の周囲が暗い状態で前記ターゲット物標の少なくとも一部が認識されたことに起因する不必要な衝突回避処理の実行を抑制することができる。
本発明の第1の実施形態に関わる衝突回避システムの全体構成の一例を表すブロック図である。 図1に示す制御ECUが実行するTTC算出処理の一例を概略的に表すフローチャートである。 は、ターゲット物標の一例である歩行者の認識に使用する複数の歩行者用辞書における全身辞書に含まれた歩行者の特徴パターンを模式的に示す図である。 は、ターゲット物標の一例である歩行者の認識に使用する複数の辞書における上半身辞書に含まれた歩行者の特徴パターンの一例を模式的に示す図である。 は、ターゲット物標の一例である歩行者の認識に使用する複数の辞書における下半身辞書に含まれた歩行者の特徴パターンの一例を模式的に示すである。 図1に示す画像センサにより取得された画像上でのターゲット物標の大きさの一例を表す図である。 は、フィルタリング処理が施される前の時系列データの一例を表す説明図である。 は、フィルタリング処理が施された後の時系列データの一例を表す説明図である。 本発明の第2の実施形態に関わる衝突回避システムの全体構成の一例を表すブロック図である。 図6に示す制御ECUが実行するTTC算出処理の一例を概略的に表すフローチャートである。
 本発明の実施形態を図面に基づき説明する。
<第1の実施形態>
 1.衝突回避システム1の構成
 第1の実施形態に関わる衝突回避システム1の構成を図1に基づき説明する。衝突回避システム1は、車両Vに搭載される車載システムである。以下では、衝突回避システム1を搭載する車両Vを自車両Vとする。衝突回避システム1は、画像センサ3、制御ECU5、及びブレーキECU7を備える。
 画像センサ3は、自車両Vの前方の風景を、(例えば、所定の大きさのフレーム画像)として撮影し、撮影した前方の風景のフレーム画像に対応する画像データを生成する。
 制御ECU5は、CPU5a、RAMおよび/またはROMを含むメモリ5b、および必要な周辺機器を備える公知のコンピュータである。制御ECU5(CPU5a)は、例えばROMに記憶されたプログラムにより、後述する処理を実行する。
 制御ECU5におけるCPU5aは、機能的に、画像取得ユニット9、物標認識ユニット11、大きさ取得ユニット13、時系列データ作成ユニット15、フィルタリングユニット17、拡大率算出ユニット19、TTC(衝突余裕時間)算出ユニット21、及び条件設定ユニット23を備える。各ユニットの機能は後述する。
 ブレーキECU7は、CPU、RAMおよび/またはROMを含むメモリ、および必要な周辺機器を備える公知のコンピュータである。ブレーキECU7は、後述する、制御ECU5が算出したTTCが所定の条件Cを充足した場合、衝突回避処理の一例として、自車両Vにブレーキをかける機能を有する。前記の条件Cとは、後述する、制御ECU5が所定時間内に所定回数(例えば10回)取得したTTCのうち、値が予め決められた閾値未満であるTTCの数が、N以上であるという条件である(Nは、例えば、1以上、10以下の自然数に設定されている)。
 なお、制御ECU5は衝突余裕時間算出装置の一例である。ブレーキECU7は衝突回避装置の一例である。自車両Vにブレーキをかけることは衝突回避処理の一例である。
 2.衝突回避システム1が実行するTTC算出処理
 衝突回避システム1(特に制御ECU5のCPU5a)が所定時間ごとに繰り返し実行するTTC算出処理を図2~図5Bに基づき説明する。
 図2のステップS1では、制御ECU5における画像取得ユニット9が、画像センサ3により撮像された自車両Vの前方の景色のフレーム画像(画像データ)を、画像センサ3から取得する。
 ステップS2では、制御ECU5における物標認識ユニット11が、前記ステップS1で取得されたフレーム画像(以下、取得画像とする)において、メモリ5bに記憶された複数の辞書おける全身辞書を用いて、認識すべきターゲット物標が上記取得画像に含まれているか否かを判断する。そして、上記取得画像にターゲット物標が含まれていると判断した場合、物標認識ユニット11は、ターゲット物標を認識する。このターゲット物標を認識する処理は、周知の画像認識処理である。
 ここで、各辞書とは、認識すべきターゲット物標における多数の特徴量のパターンを表したデータ(特徴量データ)によって表現されるものである。上述したように、制御ECU5は、予め例えばメモリ5bに、あるターゲット物標毎に用意された複数の辞書を保持している。本実施形態では、複数の辞書は、対応するターゲット物標全体に関する全身辞書(全体辞書、whole-body dictionary)、対応するターゲット物標の上半身(上半分)に関する上半身辞書(上半分辞書、upper-body dictionary)、および対応するターゲット物標の下半身(下半分)に関する下半身辞書(下半分辞書、lower-body dictionary)を含んでいる。
 全身辞書が表すターゲット物標の多数の特徴量のパターン(多数の特徴パターン)は、それぞれ、当該ターゲット物標の全体の特徴が表されたデータである。例えば、全身辞書が表すターゲット物標の多数の特徴パターンは、それぞれ、輪郭形状を表すデータであってもよい。また、例えば、全体辞書が表すターゲット物標の多数の特徴パターンは、それぞれ、対応するフレーム画像における当該ターゲット物標の全体の輪郭を表す複数の点の位置データであってもよい。さらに、全身辞書が表すターゲット物標の多数の特徴パターンは、それぞれ、対応するフレーム画像、あるいは該フレーム画像よりも小さい領域(ウインドウ)であり、ターゲット物標の全体が含まれた領域(以下、ターゲット領域とする)における画素値に対して所定演算を施すことによって得られる該ターゲット領域内の算出値(例えば平均値)や、該ターゲット領域内の画素値の勾配のヒストグラム等であってもよい。
 上半身辞書が表すターゲット物標の多数の特徴量のパターン(多数の特徴パターン)は、それぞれ、当該ターゲット物標の一部である上半身の特徴が表されたデータである。上半身辞書が表すターゲット物標の多数の特徴パターンの例については、全身辞書が表すターゲット物標の多数の特徴パターンと同様である。
 同様に、下半身辞書が表すターゲット物標の多数の特徴量のパターン(多数の特徴パターン)は、それぞれ、当該ターゲット物標の一部である下半分の特徴が表されたデータである。下半身辞書が表すターゲット物標の多数の特徴パターンの例については、全身辞書が表すターゲット物標の多数の特徴パターンと同様である。
 例えば、図3Aは、ターゲット物標の一例である歩行者の認識に使用する複数の歩行者用辞書における全身辞書に含まれた歩行者の特徴パターンを模式的に示す。図3Bは、ターゲット物標の一例である歩行者の認識に使用する複数の辞書における上半身辞書に含まれた歩行者の特徴パターンの一例を模式的に示す。図3Cは、ターゲット物標の一例である歩行者の認識に使用する複数の辞書における下半身辞書に含まれた歩行者の特徴パターンの一例を模式的に示す。
 ターゲット物標には、歩行者以外に、自車両V以外の各種の車両(以下、他車両とする)、路側物、路面表示マーカ等の多数の物標が含まれており、これらのターゲット物標それぞれに対し、当該ターゲット物標の認識に使用される辞書、すなわち、全身辞書、上半身辞書、および下半身辞書が用意されており、制御ECU5における例えばメモリ5bに予め保持されている。
 すなわち、ステップS2において、ターゲット物標の全体が取得画像に含まれていると判断した場合、物標認識ユニット11は、該ターゲット物標を、対応する全身辞書を用いて認識する。
 一方、ステップS2において、ターゲット物標の全体が取得画像に含まれていないが、部分的には含まれていると判断した場合、TTC算出処理は、ステップS3に進む。
 ステップS3では、制御ECU5における物標認識ユニット11は、前記ステップS1で取得した取得画像において、上半身辞書あるいは下半身辞書を用いて、該取得画像に部分的に含まれているターゲット物標を認識する。
 すなわち、ターゲット物標の全体が取得画像内に収まりきらず、ターゲット物標の一部が取得画像の外にある場合には、全身辞書を用いてそのターゲット物標を認識することは困難である。ステップS3では、物標認識ユニット11は、取得画像内に収まりきらない部分を有するターゲット物標のうち、該取得画像内にある部分を、その部分に対応する上半身辞書あるいは下半身辞書を用いて認識する。
 ステップS4では、制御ECU5における大きさ取得ユニット13が、前記ステップS2あるいはステップS3で認識したターゲット物標の大きさSを取得する。
 大きさSとは、図4に示すように、前記ステップS1で取得した取得画像(符号24で示す)上において認識されたターゲット物標(符号27で表す)の大きさ(例えば、認識されたターゲット物標の面積、認識されたターゲット物標の取得画像における水平方向の長さ、および/または認識されたターゲット物標の取得画像における垂直方向の長さ)である。なお、ステップS3にて、上半身辞書、あるいは下半身辞書によりターゲット物標が部分的に認識された場合においては、ターゲット物標における取得画像に含まれる部分、すなわち、ターゲット物標における対応する半身辞書により認識された部分の大きさが、ステップS4で認識される大きさSである。
 ステップS5では、制御ECU5における時系列データ作成ユニット15が、ターゲット物標の大きさSに関する時系列データを作成する。
 時系列データとは、図5Aに示すように、同一のターゲット物標について繰り返し取得された大きさSを、それらの取得時刻Tの順番に配列されたデータである。
 すなわち、時系列データ作成ユニット15は、画像センサ3により撮像され、画像取得ユニット9のステップS1の処理により時系列に取得された、予め定められた枚数の取得画像それぞれに対してステップS2およびS4、あるいはステップS3およびS4の処理を実行することにより、前記時系列に取得された取得画像毎の大きさSを、時系列に配列して、時系列データを作成する。
 この大きさSの時系列データは、時間の経過とともに変動しており、様々な周期的変動成分、すなわち周波数成分、が合成されたデータと言える。
 例えば、時系列データ作成ユニット15は、作成した時系列データをメモリ5b内の記憶スペース内に保持する。
 ステップS6では、時系列データ作成ユニット15は、前記ステップS5で作成した時系列データが、全身辞書を用いて認識したターゲット物標についての時系列データであるか否かを判断する。
 ステップS6において、全身辞書を用いて認識したターゲット物標についての時系列データであると判断された場合には(ステップS6の判断の結果YES)、TTC算出処理はステップS7に進む。一方、上半身辞書あるいは下半身辞書を用いて認識したターゲット物標についての時系列データであると判断された場合には(ステップS6の判断の結果NO)、TTC算出処理はステップS11に進む。
 ステップS7では、制御ECU5におけるフィルタリングユニット17が、前記ステップS5で作成した時系列データに対し、第1のローパスフィルタを用いてフィルタリングを行う。
 第1のローパスフィルタは、時系列データにおける所定の範囲の高周波数成分(時間の経過に対する大きさSの周期的な変動のうち、短周期の成分)を選択的に減衰させるフィルタである。例えば、図5Aに示すような、短周期での大きさSの変動がある(高周波数成分がある)時系列データに対し、第1のローパスフィルタを用いてフィルタリングを行うと、図5Bに示すように、短周期での大きさSの変動が抑制された(高周波数成分が減衰した)時系列データが得られる。
 なお、第1のローパスフィルタは、その減衰させる周波数範囲(以下、第1の周波数減衰範囲とする)が、後述する第2のローパスフィルタにおける減衰させる周波数範囲(以下、第2の周波数減衰範囲とする)よりも、低周波数側において狭くなっている。言い換えれば、第1のローパスフィルタの第1の周波数減衰範囲における下限値は、第2のローパスフィルタの第2の周波数減衰範囲における下限値よりも高く設定されている。
 ステップS8では、制御ECU5における条件設定ユニット23が、ブレーキECU7により自車両Vにブレーキをかけるか否かを判断するための条件Cとして、第1の条件C1を設定する。第1の条件C1とは、後述するステップS10の過去10回の処理により取得されたTTCの値の内、予め決められた閾値未満であるTTCの値の数が、N1以上であるという条件である。ここで、N1は、例えば、1以上9以下の自然数であって、後述するN2より小さい値である。
 ステップS9では、制御ECU5における拡大率算出ユニット19が、第1のローパスフィルタでフィルタリングされた後の時系列データを用いて、大きさSにおける拡大率を算出する。
 具体的には、拡大率算出ユニット19は、以下に示す拡大率算出処理を実行する。図5Bに示すように、拡大率算出ユニット19は、例えばメモリ5b内に保持された時系列データにおいて、2つの時刻t1、t2を設定する(t1<t2)。なお、時刻t1と時刻t2との時間差をΔtとする。拡大率算出ユニット19は、時刻t1における大きさSに対する、時刻t2における大きさSの増加量をΔSを求め、求めた増加量ΔSを時間差Δtで割ることにより、拡大率ΔS/Δtを算出する。
 上記ステップS9の処理に用いられる時系列データは、前記ステップS7で第1のローパスフィルタを用いてフィルタリングを行った場合は、そのフィルタリングされた後の時系列データである。一方、後述するステップS11で第2のローパスフィルタを用いてフィルタリングを行った場合は、上記ステップS9の処理に用いられる時系列データは、第2のローパスフィルタによりフィルタリングされた後の時系列データである。
 ステップS10では、TTC算出ユニット21が、前記ステップS9で算出された、ターゲット物標の大きさSの拡大率に基づき、該ターゲット物標に対するTTCを算出する。
 具体的には、TTC算出ユニット21は、例えば、以下の手順でターゲット物標に対するTTCを算出する。
 上述したターゲット物標の大きさSの拡大率は、自車両Vを基準とするターゲット物標の相対速度に1:1で対応するパラメータである。制御ECU5は、予め、認識すべき各ターゲット物標の拡大率と、自車両Vおよび認識すべき各ターゲット物標間の相対速度との関係を規定する情報を、例えばマップMとしてメモリ5b内に保持している。
 ステップS10において、TTC算出ユニット21は、ステップS9で算出された、ターゲット物標の大きさSの拡大率に対応する相対速度の値をマップMから抽出することにより、ターゲット物標の相対速度を算出する。また、ステップS10において、TTC算出ユニット21は、取得画像の上下方向(垂直方向)および左右方向(水平方向)におけるターゲット物標の位置(縦位置および横位置)の少なくとも一方に基づき、自車両Vからターゲット物標までの距離を算出する。そして、TTC算出ユニット21は、ステップS10において、上記のように算出したターゲット物標の自車両Vに対する相対速度及び距離を用いて、該ターゲット物標に対するTTCを算出する。
 一方、ステップS6で否定判断された場合には、ステップS11において、フィルタリングユニット17は、前記ステップS5で作成した時系列データに対し、第2のローパスフィルタを用いてフィルタリングを行う。
 このステップS11におけるフィルタリング処理は、基本的には前記ステップS7のフィルタリング処理と同様であるが、ローパスフィルタとして、第2のローパスフィルタを用いている点が前記ステップS7のフィルタリング処理と異なる。
 第2のローパスフィルタも、第1のローパスフィルタと同様に、時系列データにおける所定の範囲の高周波数成分を選択的に減衰させるフィルタである。特に、第2のローパスフィルタは、その第2の周波数減衰範囲が、第1のローパスフィルタの第1の周波数減衰範囲よりも低周波数側にまで広がっているフィルタである。言い換えれば、第2のローパスフィルタの第2の周波数減衰範囲の下限値は、第1のローパスフィルタの第1の周波数減衰範囲の下限値よりも低く設定されている。
 ステップS12では、条件設定ユニット23が、ブレーキECU7により自車両Vにブレーキをかけるか否かを判断するための条件Cとして、第2の条件C2を設定する。第2の条件C2とは、ステップS10の過去10回の処理により取得されたTTCの値の内、予め決められた閾値未満であるTTCの値の数が、N2以上であるという条件である。ここで、N2は、2以上10以下の自然数であって、前述したN1より大きい値である。
 ステップS12の処理終了後、拡大率算出ユニット19が上記ステップS9の拡大率算出処理を行い、TTC算出ユニット21が上記ステップS10のTTC算出処理を行う。
 ステップS10において、TTC算出ユニット21は、算出されたターゲット物標に対するTTCと、対応する第1の条件C1あるいは第2の条件C2とをブレーキECU7に送信するようになっている。
 このとき、ブレーキECU7は、今回送られてきたTTCを含む現在から過去10回分のTTCの値における所定の閾値未満であるTTCの値の数が対応する第1の条件C1あるいは第2の条件C2を満足するか否か判断する処理を、判断部7aの処理として、実行する。この判断の結果、今回送られてきたTTCを含む現在から過去10回分のTTCの値における所定の閾値未満であるTTCの値の数が対応する第1の条件C1あるいは第2の条件C2を満足すると判断した場合、ブレーキECU7は、自車両Vにブレーキをかける処理を、ブレーキ部7bの処理として実行する。
 3.衝突回避システム1が奏する効果
 上半身辞書あるいは下半身辞書の各特徴パターンにおける特徴量は、全身辞書の各特徴パターンにおける特徴量よりも少ないため、上半身あるいは下半身辞書を用いて認識されたターゲット物標から算出された該ターゲット物標の大きさSは、全身辞書を用いて認識されたターゲット物標から算出された該ターゲット物標の大きさSよりも精度が低い。そのため、上半身あるいは下半身辞書を用いて認識されたターゲット物標について作成された該ターゲット物標Sの大きさSの時系列データは、全身辞書を用いて認識されたターゲット物標について作成された該ターゲット物標Sの大きさSの時系列データに比べて、短い時間間隔における大きさSのばらつき、すなわち、短周期での変動成分を多く含む可能性がある。仮に、短周期の変動成分が多く残ったままの時系列データから、対応するターゲット物標の大きさSにおける拡大率を算出すると、拡大率の算出精度が低くなり、この拡大率に基づいて算出されるTTCの算出精度も低くなる。
 この点、第1の実施形態の衝突回避システム1における制御ECU5は、上半身あるいは下半身辞書を用いて認識したターゲット物標について時系列データが作成された場合は、全身辞書を用いて認識したターゲット物標について時系列データが作成された場合よりも、対応する時系列データの周波数成分におけるフィルタリングにより減衰させる周波数成分の領域(周波数範囲)を、より広くする、すなわち、低周波数側にまで広げる。
 この構成により、第1の効果として、上半身あるいは下半身辞書を用いて認識したターゲット物標についての時系列データにおける短周期の変動成分を一層抑制し、該抑制された時系列データに基づいて算出される拡大率、及び該拡大率に基づいて算出されるTTCの算出精度を向上させることができる。
 また、第1の実施形態の衝突回避システム1における制御ECU5は、TTCを算出したターゲット物標が、上半身あるいは下半身辞書を用いて認識したターゲット物標である場合には、全身辞書を用いて認識したターゲット物標である場合よりも、ブレーキECU7により自車両Vにブレーキをかけるか否かを判断するための条件Cを厳しく、すなわち、条件Cを満足し難くするように設定する。この構成により、仮に、上半身あるいは下半身辞書を用いて認識したターゲット物標について算出されたTTCの精度が低くても、自車両Vに対する不必要なブレーキ動作を抑制することができる。
<第2の実施形態>
 1.衝突回避システム101の構成
 第2の実施形態に関わる衝突回避システム101の構成を図6に基づき説明する。衝突回避システム101の構成は、基本的には前記第1の実施形態関わる衝突回避システム1の構成と同様であるため、衝突回避システム1および衝突回避システム101間において共通する構成については説明を省略し、相違点を中心に説明する。
 衝突回避システム101は、制御ECU105を備える。制御ECU105は、CPU105a、RAMおよび/またはROMを含むメモリ105b、および必要な周辺機器を備える公知のコンピュータである。制御ECU105(CPU105a)は、例えばROMに記憶されたプログラムにより、後述する処理を実行する。
 制御ECU105におけるCPU105aは、機能的に、前記第1の実施例1における制御ECU5の各機能に加えて、明るさ取得ユニット25を備える。明るさ取得ユニット25は、画像センサ3により取得された自車両Vの前方の景色のフレーム画像、すなわち取得画像における明るさ(輝度)、言い換えれば、光の強度に基づいて、自車両Vの周囲の明るさを推定する機能を有する。
 2.衝突回避システム101が実行するTTC算出処理
 衝突回避システム101(特に制御ECU105のCPU105a)が所定時間ごとに繰り返し実行するTTC算出処理を図7に基づき説明する。なお、以下のTTC算出処理のうち、図2に示すTTC算出処理と同様の部分は、説明を一部簡略化している。
 図7のステップS21では、画像取得ユニット9が、画像センサ3により撮像された自車両Vの前方の景色のフレーム画像(画像データ)を、取得画像として画像センサ3から取得する。
 ステップS22では、物標認識ユニット11が、前記ステップS21で取得した取得画像において、メモリ5bに記憶された複数の辞書おける全身辞書、上半身辞書、あるいは下半身辞書の何れかを用いて、認識すべきターゲット物標が上記取得画像に含まれているか否かを判断する。そして、上記取得画像にターゲット物標が含まれていると判断した場合、物標認識ユニット11は、ターゲット物標を認識する。
 ステップS23では、明るさ取得ユニット25が、前記ステップS21で取得した取得画像における明るさから、自車両Vの周囲の明るさを推定する。
 ステップS24では、大きさ取得ユニット13が、前記ステップS22で認識したターゲット物標の大きさSを取得する。
 ステップS25では、時系列データ作成ユニット15は、画像センサ3により撮像され、画像取得ユニット9のステップS21の処理により時系列に取得された、予め定められた枚数の取得画像それぞれに対してステップS22およびS24の処理を実行することにより、前記時系列に取得された取得画像毎の大きさSを、時系列に配列して、時系列データを作成する。
 ステップS26では、フィルタリングユニット17は、前記ステップS23で推定した明るさが、予め設定されていた閾値を超えているか否かを判断する。推定した明るさが閾値を超えている場合には、TTC算出処理は、ステップS27に進む。一方、推定した明るさが閾値以下である場合には、ステップS31に進む。
 ステップS27では、フィルタリングユニット17は、前記ステップS25で作成した時系列データに対し、第1のローパスフィルタを用いてフィルタリングを行う。
 ステップS28では、条件設定ユニット23が、条件Cとして、第1の条件C1を設定する。
 ステップS29では、拡大率算出ユニット19が、第1のローパスフィルタでフィルタリングされた後の時系列データを用いて、大きさSにおける拡大率を算出する。上記ステップS29の処理に用いられる時系列データは、前記ステップS27で第1のローパスフィルタを用いてフィルタリングを行った場合は、そのフィルタリングされた後の時系列データである。一方、後述するステップS31で第2のローパスフィルタを用いてフィルタリングを行った場合は、上記ステップS29の処理に用いられる時系列データは、第2のローパスフィルタによりフィルタリングされた後の時系列データである。
 ステップS30では、TTC算出ユニット21が、前記ステップ29で算出された、ターゲット物標の大きさSの拡大率に基づき、該ターゲット物標に対するTTCを算出する。
 一方、前記ステップS26で否定判断した場合には、ステップS31において、フィルタリングユニット17が、前記ステップS25で作成した時系列データに対し、第2のローパスフィルタを用いてフィルタリングを行う。
 ステップS32では、条件設定ユニット23が、ブレーキECU7により自車両Vにブレーキをかけるか否かを判断するための条件Cとして、第2の条件C2を設定する。
 ステップS32の処理終了後、拡大率算出ユニット19が上記ステップS29の拡大率算出処理を行い、TTC算出ユニット21が上記ステップS30のTTC算出処理を行う。
 ステップS30において、TTC算出ユニット21は、算出されたターゲット物標に対するTTCと、対応する第1の条件C1あるいは第2の条件C2とをブレーキECU7に送信するようになっている。
 このとき、ブレーキECU7は、今回送られてきたTTCを含む現在から過去10回分のTTCの値における所定の閾値未満であるTTCの値の数が対応する第1の条件C1あるいは第2の条件C2を満足するか否か判断する処理を、判断部7aの処理として、実行する。この判断の結果、今回送られてきたTTCを含む現在から過去10回分のTTCの値における所定の閾値未満であるTTCの値の数が対応する第1の条件C1あるいは第2の条件C2を満足すると判断した場合、ブレーキECU7は、自車両Vにブレーキをかける処理を、ブレーキ部7bの処理として実行する。
 3.衝突回避システム101が奏する効果
 自車両Vの周囲が暗い場合において認識されたターゲット物標から算出された該ターゲット物標の大きさSは、自車両Vの周囲が明るい場合において認識されたターゲット物標から算出された該ターゲット物標の大きさSよりも精度が低い。そのため、自車両Vの周囲が暗い場合において認識されたターゲット物標について作成された該ターゲット物標Sの大きさSの時系列データは、自車両Vの周囲が明るい場合において認識されたターゲット物標について作成された該ターゲット物標Sの大きさSの時系列データに比べて、短い時間間隔における大きさSのばらつき、すなわち、短周期での変動成分を多く含む可能性がある。仮に、短周期の変動成分が多く残ったままの時系列データから、対応するターゲット物標の大きさSにおける拡大率を算出すると、拡大率の算出精度が低くなり、この拡大率に基づいて算出されるTTCの算出精度も低くなる。
 そこで、第2の実施形態の衝突回避システム101における制御ECU105は、自車両Vの周囲が暗い場合は、自車両Vの周囲が明るい場合よりも、対応する時系列データの周波数成分におけるフィルタリングにより減衰させる周波数成分の領域(周波数範囲)を、より広くする、すなわち、低周波数側にまで広げる。
 この構成により、第1の効果として、自車両Vの周囲が暗い場合において認識されたターゲット物標についての時系列データにおける短周期の変動成分を一層抑制し、該抑制された時系列データに基づいて算出される拡大率、及び該拡大率に基づいて算出されるTTCの算出精度を向上させることができる。
 また、第2の実施形態の衝突回避システム101における制御ECU105は、TTCを算出したターゲット物標が、自車両Vの周囲が暗い場合に認識したターゲット物標である場合には、自車両Vの周囲が明るい場合に認識したターゲット物標である場合よりも、ブレーキECU7により自車両Vにブレーキをかけるか否かを判断するための条件Cを厳しく、すなわち、条件Cを満足し難くするように設定する。この構成により、仮に、自車両Vの周囲が暗い場合に認識したターゲット物標について算出されたTTCの精度が低くても、自車両Vに対する不必要なブレーキ動作を抑制することができる。
<その他の実施形態>
 以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されることなく、種々の形態を採り得る。
 前記第1、第2の実施形態において、第1および第2の条件C1およびC2は以下のものであってもよい。
 第1の条件C1は、ステップS10により算出されたTTCの値が所定の第1の閾値L1以下であるという条件である。
 第2の条件C2は、ステップS10により算出されたTTCの値が所定の第2の閾値L2以下であるという条件である。
 ここで、第1および第2の閾値L1およびL2は正の数であり、L1>L2である。
 前記第2の実施形態において、衝突回避システム101は、制御ECU105に接続されており、自車両Vの周囲の照度を計測する照度計30を備えていてもよい(図6における仮想線参照)。この変形例において、明るさ取得ユニット25は、照度計30により計測された照度に基づいて、自車両Vの周囲の明るさ(輝度)を測定してもよい。照度計は、自車両Vにおける任意の場所に設置することができる。
 第1および第2の実施形態においては、時系列データのフィルタリング処理で用いられるローパスフィルタは、所定の第1の周波数減衰範囲を有する第1のローパスフィルタと、この第1の周波数減衰範囲よりも低域側に広い第2の周波数減衰範囲を有する第2のローパスフィルタとを含んでいるが、本発明はこの構成に限定されるものではない。
 例えば、時系列データのフィルタリング処理で用いられる第1~第M(Mは3以上の整数)のローパスフィルタが用意されており、第1~第Mのローパスフィルタそれぞれの周波数減衰範囲における下限値が、第Mのローパスフィルタから第1のローパスフィルタに向かって、次第に低くなるように設定されている。
 また、第1および第2の実施形態においては、ブレーキをかける条件Cは、ブレーキ動作を行うことに対して所定の厳しさを課す第1の条件C1と、ブレーキ動作を行うことに対して第1の条件の厳しさよりもさらに厳しさを課す第2の条件C2とを含んでいるが、本発明はこの構成に限定されるものではない。
 例えば、ブレーキをかける条件Cは、ブレーキ動作を行うことに対する複数段階の厳しさを有する第1~第N(Nは3以上の整数)の条件C(1)~C(N)を含んでいてもよい。この第1~第Nの条件C(1)~C(N)の厳しさの度合は、第1の条件C(1)から第Nの条件C(N)に向かって、次第に厳しくなるように設定されている。
 前記第1の実施形態において、時系列データ作成ユニット15は、ステップS6においては、上記全身辞書の使用に関する判断処理(以下、第1の判断処理とする)に加えて、明るさ取得ユニット25により推定された自車両Vの周囲の明るさが予め設定されていた閾値を超えているか否かを判断する処理(以下、第2の判断処理)を実行してもよい。
 この変形例においては、例えば上記第1~第Mのローパスフィルタおよび第1~第Nの条件C(1)~C(N)を用いた場合、フィルタリングユニット17は、第1および第2の判断処理それぞれの判断結果の組み合わせに応じて、ステップS5で作成した時系列データに対するフィルタリングで、第1~第Mのローパスフィルタの何れを使用するかを選択する処理、およびブレーキECU7により自車両Vにブレーキをかけるか否かを判断するための条件Cとして、第1~第Nの条件C(1)~C(N)の何れを選択する処理を実行することが可能である。
 例えば、この変形例においては、ステップS6において、第1の判断処理の結果、全身辞書を使用していると判断され、第2の判断処理の結果、車両Vの周囲の明るさが閾値を超えると判断された第1の場合には、フィルタリングユニット17は、第1~第Mのローパスフィルタの中から周波数減衰範囲が最も狭い第1のローパスフィルタを選択し、この第1のローパスフィルタを用いて時系列データのフィルタリング処理を行うことができる。また、条件設定ユニット23は、第1~第Nの条件C(1)~C(N)の中から、最も緩い条件、すなわちブレーキ処理が実行しやすい条件である第1の条件C(1)を選択することができる。
 また、ステップS6において、第1の判断処理の結果、上半身あるいは下半身辞書を使用していると判断され、第2の判断処理の結果、車両Vの周囲の明るさが閾値以下であると判断された第2の場合には、フィルタリングユニット17は、第1~第Mのローパスフィルタの中から周波数減衰範囲が最も広い第Mのローパスフィルタを選択し、この第Mのローパスフィルタを用いて時系列データのフィルタリング処理を行うことができる。また、条件設定ユニット23は、第1~第Nの条件C(1)~C(N)の中から、最も厳しい条件、すなわちブレーキ処理が実行しにくい条件である第Nの条件C(N)を選択することができる。
 さらに、第1および第2の判断処理の結果が、第1の場合および第2の場合以外の場合には、フィルタリングユニット17は、第1~第Mのローパスフィルタの中から、第1および第Mのローパスフィルタ以外の所望の1つのローパスフィルタを選択し、この選択されたローパスフィルタを用いて時系列データのフィルタリング処理を行うことができる。また、条件設定ユニット23は、第1~第Nの条件C(1)~C(N)の中から、第1および第Nの条件以外の所望の1つの条件を選択することができる。
 前記第1および第2の実施形態において、ブレーキECU7に代えて、あるいは、ブレーキECU7に加えて、他の衝突回避処理(例えば、車両Vの操舵輪を自動的に操舵して衝突を回避する自動操舵、あるいは衝突回避用の警告を車両Vのドライバに視覚および/または音声で出力する警告処理等)を実行するECUを備えていてもよい。このECUは、ブレーキECU7と同様に、ステップS10あるいはS30の処理により送られてきたTTCを含む現在から過去10回分のTTCの値における所定の閾値未満であるTTCの値の数が対応する第1の条件C1あるいは第2の条件C2を満足すると判断した場合、対応する衝突回避処理を実行するように構成されている。
 前記第1および第2の実施形態において、衝突回避システム1および101は、例えば、ミリ波センサ等、自車両Vからターゲット物標までの距離を測定可能な構成を備えていてもよい。このとき、各衝突回避システム1および101における制御ECU5は、上記構成により取得した自車両Vからターゲット物標までの距離に基づいて、上記ターゲット物標に対するTTCを算出することも可能である。
 前記第1および第2の実施形態において、ターゲット物標の上半身に関する上半身辞書および対応するターゲット物標の下半身に関する下半身辞書が、部分辞書として用いられたが、本発明はこれに限定されるものではない。
 例えば、ターゲット物標における顔等の一部の特徴が表された多数の特徴パターンを保持する部分辞書が用いられてもよい。
 上記第1および第2の実施形態それぞれにおける1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記第1および第2の実施形態それぞれの構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記第1および第2の実施形態それぞれの構成の一部を省略してもよい。また、上記第1および第2の実施形態の一方の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
 本発明は、上述した各第1および第2の実施形態における衝突余裕時間算出装置および衝突回避システムとして実現したが、本発明はこの実現方法に限定されるものではない。例えば、本発明を、衝突余裕時間算出装置や衝突回避装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、衝突余裕時間算出方法、衝突回避方法等、種々の形態として実現することもできる。
 なお、本出願は、日本特許出願2015-058114を基礎として優先権を主張するものであり、この優先権の基礎となる日本特許出願の開示内容は、参照書類として本出願に組み込まれている。
1、101…衝突回避システム、3…画像センサ、5、105…制御ECU、7…ブレーキECU、9…画像取得ユニット、11…物標認識ユニット、13…大きさ取得ユニット、15…時系列データ作成ユニット、17…フィルタリングユニット、19…拡大率算出ユニット、21…TTC算出ユニット、23…条件設定ユニット、24…画像、25…明るさ取得ユニット、27…物標

Claims (7)

  1.  車両前方の画像を取得する画像取得ユニット(9)と、
     ターゲットとなる物標の全体の複数の特徴パターンを有する全身辞書及び前記ターゲットとなる物標の所定部分の複数の特徴パターンを有する部分辞書を用いて、前記取得画像において前記ターゲット物標の少なくとも一部を認識する物標認識ユニット(11)と、
     前記取得画像上における、前記認識されたターゲット物標の少なくとも一部の大きさを取得する大きさ取得ユニット(13)と、
     前記認識されたターゲット物標の少なくとも一部の大きさに関する時系列データを作成する時系列データ作成ユニット(15)と、
     前記時系列データ作成ユニットにより作成された時系列データが前記全身辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものであるか、あるいは前記部分辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものであるかを判断し、この判断の結果に基づいて、前記時系列データ作成ユニットにより作成された時系列データを減衰させる周波数範囲を決定し、当該時系列データにおける前記決定された周波数範囲内のデータを減衰させる減衰ユニット(17)と、
     前記減衰された後の時系列データを用いて前記大きさにおける拡大率を算出する拡大率算出ユニット(19)と、
     前記拡大率に基づいて、前記車両の前記ターゲット物標の少なくとも一部に対する衝突余裕時間を算出する衝突余裕時間算出ユニット(21)と、
    を備えたことを特徴とする衝突余裕時間算出装置(5)。
  2.  前記減衰ユニットは、前記時系列データ作成ユニットにより作成された時系列データが前記全身辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものである場合、前記周波数範囲として第1の周波数範囲を決定し、当該時系列データにおける前記決定された第1の周波数範囲内のデータを減衰させる第1の減衰処理、および前記時系列データ作成ユニットにより作成された時系列データが前記部分辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものである場合、前記周波数範囲として、前記第1の周波数範囲よりも低周波数側に広がる第2の周波数範囲を決定し、当該時系列データにおける、前記決定された第2の周波数範囲内のデータを減衰させる第2の減衰処理を実行するように構成されたことを特徴とする請求項1記載の衝突余裕時間算出装置。
  3.  前記車両周囲の明るさを取得する明るさ取得ユニット(25)をさらに備え、
     前記減衰ユニットは、前記時系列データ作成ユニットにより作成された時系列データが前記全身辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものであるか、あるいは前記部分辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものであるかの第1の判断処理、および前記明るさ取得ユニットにより取得された明るさが所定の閾値を超えているか否かの第2の判断処理を実行し、この第1および第2の判断処理それぞれの判断結果に基づいて、前記時系列データ作成ユニットにより作成された時系列データを減衰させる周波数範囲を決定し、当該時系列データにおける前記決定された周波数範囲内のデータを減衰させることを特徴とする請求項1記載の衝突余裕時間算出装置。
  4.  請求項1に記載の衝突余裕時間算出装置と、
     前記衝突余裕時間が所定の条件を充足する場合、前記車両の前記ターゲット物標の少なくとも一部に対する衝突を回避する衝突回避処理を実行する衝突回避装置(7)と、
    を備える衝突回避システム(1)であって、
     前記衝突余裕時間算出装置は、前記条件を設定する条件設定ユニット(23)を備え、
     前記条件設定ユニットは、前記時系列データ作成ユニットにより作成された時系列データが前記全身辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものである場合、前記条件として所定の厳しさを有する第1の条件を設定し、前記時系列データ作成ユニットにより作成された時系列データが前記部分辞書を用いて認識されたターゲット物標の少なくとも一部に基づくものである場合、前記条件として第1の条件よりも厳格な第2の条件を設定することを特徴とする衝突回避システム。
  5.  車両前方の画像を取得する画像取得ユニット(9)と、
     前記取得画像において、ターゲットとなる物標を認識する物標認識ユニット(11)と、
     前記取得画像上における、前記認識されたターゲット物標の少なくとも一部の大きさを取得する大きさ取得ユニット(13)と、
     前記認識されたターゲット物標の少なくとも一部の大きさに関する時系列データを作成する時系列データ作成ユニット(15)と、
     前記車両周囲の明るさを取得する明るさ取得ユニット(25)と、
     前記明るさ取得ユニットにより取得された明るさが所定の閾値を超えているか否かを判断し、この判断の結果に基づいて、前記時系列データ作成ユニットにより作成された時系列データを減衰させる周波数範囲を決定し、当該時系列データにおける前記決定された周波数範囲内のデータを減衰させる減衰ユニット(17)と、
     前記減衰された後の時系列データを用いて前記大きさにおける拡大率を算出する拡大率算出ユニット(19)と、
     前記拡大率に基づいて、前記車両の前記ターゲット物標の少なくとも一部に対する衝突余裕時間を算出する衝突余裕時間算出ユニット(21)と、
    を備えたことを特徴とする衝突余裕時間算出装置(105)。
  6.  前記減衰ユニットは、前記明るさ取得ユニットにより取得された明るさが前記所定の閾値を超えている場合、前記周波数範囲として第1の周波数範囲を決定し、当該時系列データにおける前記決定された第1の周波数範囲内のデータを減衰させる第1の減衰処理、および前記明るさ取得ユニットにより取得された明るさが前記所定の閾値以下である場合、前記周波数範囲として、前記第1の周波数範囲よりも低周波数側に広がる第2の周波数範囲を決定し、当該時系列データにおける、前記決定された第2の周波数範囲内のデータを減衰させる第2の減衰処理を実行するように構成されたことを特徴とする請求項5記載の衝突余裕時間算出装置。
  7.  請求項5に記載の衝突余裕時間算出装置と、
     前記衝突余裕時間が所定の条件を充足する場合、前記車両の前記ターゲット物標の少なくとも一部に対する衝突を回避する衝突回避処理を実行する衝突回避装置(7)と、
    を備える衝突回避システム(101)であって、
     前記衝突余裕時間算出装置は、前記条件を設定する条件設定ユニット(23)を備え、
     前記条件設定ユニットは、前記明るさ取得ユニットにより取得された明るさが前記所定の閾値を超えている場合、前記条件として所定の厳しさを有する第1の条件を設定し、前記明るさ取得ユニットにより取得された明るさが前記所定の閾値以下である場合、前記条件として第1の条件よりも厳格な第2の条件を設定することを特徴とする衝突回避システム。
PCT/JP2016/058793 2015-03-20 2016-03-18 衝突余裕時間算出装置及び衝突回避システム WO2016152807A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015058114A JP6582474B2 (ja) 2015-03-20 2015-03-20 衝突余裕時間算出装置及び衝突回避システム
JP2015-058114 2015-03-20

Publications (1)

Publication Number Publication Date
WO2016152807A1 true WO2016152807A1 (ja) 2016-09-29

Family

ID=56978900

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/058793 WO2016152807A1 (ja) 2015-03-20 2016-03-18 衝突余裕時間算出装置及び衝突回避システム

Country Status (2)

Country Link
JP (1) JP6582474B2 (ja)
WO (1) WO2016152807A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161655A1 (ja) * 2020-02-12 2021-08-19 日立Astemo株式会社 画像処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285492A (ja) * 2005-03-31 2006-10-19 Daihatsu Motor Co Ltd 障害物認識装置及び障害物認識方法
JP2012118682A (ja) * 2010-11-30 2012-06-21 Daihatsu Motor Co Ltd 運転支援制御装置
JP2012203649A (ja) * 2011-03-25 2012-10-22 Toyota Motor Corp 運転支援装置
JP2014135039A (ja) * 2012-12-13 2014-07-24 Denso Corp 移動体検出装置
JP2014229010A (ja) * 2013-05-21 2014-12-08 株式会社デンソー 物体検出装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285492A (ja) * 2005-03-31 2006-10-19 Daihatsu Motor Co Ltd 障害物認識装置及び障害物認識方法
JP2012118682A (ja) * 2010-11-30 2012-06-21 Daihatsu Motor Co Ltd 運転支援制御装置
JP2012203649A (ja) * 2011-03-25 2012-10-22 Toyota Motor Corp 運転支援装置
JP2014135039A (ja) * 2012-12-13 2014-07-24 Denso Corp 移動体検出装置
JP2014229010A (ja) * 2013-05-21 2014-12-08 株式会社デンソー 物体検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161655A1 (ja) * 2020-02-12 2021-08-19 日立Astemo株式会社 画像処理装置
JP2021128470A (ja) * 2020-02-12 2021-09-02 日立Astemo株式会社 画像処理装置
JP7309630B2 (ja) 2020-02-12 2023-07-18 日立Astemo株式会社 画像処理装置

Also Published As

Publication number Publication date
JP2016177623A (ja) 2016-10-06
JP6582474B2 (ja) 2019-10-02

Similar Documents

Publication Publication Date Title
JP4241834B2 (ja) 車載霧判定装置
JP5737306B2 (ja) 露出制御装置
CN106647776B (zh) 车辆变道趋势的判断方法、判断装置和计算机存储介质
CN106537180B (zh) 用于用针对行人的主动制动的摄影机输入缓解雷达传感器限制的方法
JP6197291B2 (ja) 複眼カメラ装置、及びそれを備えた車両
JP4321591B2 (ja) 車載霧判定装置
JP6372228B2 (ja) 衝突予想時間算出装置
JP6246014B2 (ja) 外界認識システム、車両、及びカメラの汚れ検出方法
JP5906224B2 (ja) 車外環境認識装置
JP6158779B2 (ja) 画像処理装置
EP2546779A2 (en) Environment recognizing device for a vehicle and vehicle control system using the same
CN106845332B (zh) 利用轮胎旁溅的基于视觉的潮湿路面状况检测
WO2014134194A1 (en) System and method for monitoring vehicle speed with driver notification
JP2014215877A (ja) 物体検出装置
JP6341191B2 (ja) 情報演算装置
KR101483742B1 (ko) 지능형 차량의 차선 검출방법
KR102521656B1 (ko) 객체를 인식하는 방법 및 장치
CN109080628A (zh) 目标确定设备和驾驶辅助系统
JP5927110B2 (ja) 車両用外界認識装置
JP2007240422A (ja) 俯角算出装置、俯角算出方法、俯角算出プログラムおよび画像処理装置
JP5457224B2 (ja) 路面状態検出装置
JP2018169888A (ja) 道路パラメータ推定装置
JP6711128B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
WO2016152807A1 (ja) 衝突余裕時間算出装置及び衝突回避システム
WO2016158491A1 (ja) 衝突回避支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16768710

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16768710

Country of ref document: EP

Kind code of ref document: A1