WO2019102938A1 - 車両の物標検出装置 - Google Patents

車両の物標検出装置 Download PDF

Info

Publication number
WO2019102938A1
WO2019102938A1 PCT/JP2018/042421 JP2018042421W WO2019102938A1 WO 2019102938 A1 WO2019102938 A1 WO 2019102938A1 JP 2018042421 W JP2018042421 W JP 2018042421W WO 2019102938 A1 WO2019102938 A1 WO 2019102938A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
vehicle
area
control unit
divided
Prior art date
Application number
PCT/JP2018/042421
Other languages
English (en)
French (fr)
Inventor
優 川端
孝仁 池之内
貫一 古山
貴行 森谷
Original Assignee
マツダ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マツダ株式会社 filed Critical マツダ株式会社
Priority to CN201880075343.0A priority Critical patent/CN111373460B/zh
Priority to EP18880262.3A priority patent/EP3709279A4/en
Priority to US16/764,497 priority patent/US20200353919A1/en
Publication of WO2019102938A1 publication Critical patent/WO2019102938A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9319Controlling the accelerator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles

Definitions

  • the technology disclosed herein relates to a target detection device for a vehicle that detects a target present in an area around the vehicle.
  • a vehicle provided with a detection unit that detects a target such as a person or an object present in a peripheral area of the vehicle (see, for example, Patent Document 1).
  • a detection unit that detects a target such as a person or an object present in a peripheral area of the vehicle
  • the position of the detected target, the relative velocity with respect to the vehicle, and the like are calculated by the detection control unit provided for each detection unit.
  • target data including the calculated position and relative velocity of the target is transmitted from the detection control unit to a central control unit that controls the entire vehicle.
  • the detection unit includes, for example, a white line defining a lane in which the vehicle travels, another vehicle traveling in the traveling lane of the vehicle and the adjacent lane, a pedestrian walking on a sidewalk, a traffic sign installed beside the road, etc. To detect. For this reason, the target data transmitted from the detection control unit to the central control unit becomes an enormous amount of data, so that the processing load on the central control unit is increased. Therefore, in the vehicle described in Patent Document 1, the detection range of the target in front of the vehicle is divided into a plurality of divided areas, and the divided area to be set as the detection target for detecting the target is changed according to the vehicle speed and the steering angle. ing. This limits the amount of target data transmitted to the central control unit, and reduces the processing load on the central control unit.
  • the central control unit can not obtain data of this target.
  • the technique disclosed herein aims to obtain, as much as possible, a situation where data of targets of other divided regions can not be obtained while acquiring data of targets of important divided regions.
  • a target detection device provided in a vehicle, A detection unit that detects a target present in a peripheral area of the vehicle; A detection control unit that outputs target data related to the target selected according to a predetermined standard among the targets detected by the detection unit; A central control unit that controls the vehicle based on the target data output from the detection control unit; A storage unit that stores division area information representing a plurality of division areas generated by dividing the peripheral area in advance; A driving support control unit that performs control to support the driving of the vehicle by a driver; Equipped with The detection control unit performs the first division on a first target detected in one or more first division regions of the plurality of division regions, which is set according to the operation situation of the driving support control unit. It is selected in preference to the second target detected in the second divided area other than the area.
  • target object data necessary for control of the vehicle can be preferentially obtained in accordance with the operation state of the driving support control unit.
  • FIG. 1 is a block diagram schematically showing a configuration of a vehicle provided with a target detection device. It is a figure showing roughly an example of a division field. It is a figure which shows roughly an example of the area
  • the target data transmitted from the detection control unit to the central control unit is also It will be a huge amount of data. Therefore, in this case, the processing load of the central control unit can not be reduced.
  • the inventor reliably obtains target data of a required target, limits the data amount of target data transmitted from the detection control unit to the central control unit, and costs the device Thought of a target detection device for vehicles that does not rise.
  • FIG. 1 is a block diagram schematically showing the configuration of a vehicle 10 provided with the target detection device of the present embodiment.
  • the vehicle 10 is, for example, a four-wheeled vehicle in the present embodiment.
  • the vehicle 10 is electrically connected to the front camera 100, the rear camera 110, the right rear side camera 120, the left rear side camera 130, the sonar 140, and the millimeter wave radar 150, as shown in FIG.
  • a sensor electronic control unit (sensor ECU) 200, 210, 220, 230, 240, 250 a sensor electronic control unit (sensor ECU) 200, 210, 220, 230, 240, 250.
  • the sensor ECU 200 includes a central processing unit (CPU) 201 and a memory 202.
  • the sensor ECUs 210, 220, 230, 240, and 250 are also configured similarly to the sensor ECU 200, and include CPUs 201,..., 251, and memories 202,.
  • the vehicle 10 further includes an adaptive cruise control (ACC) switch 160, a lane keeping assist system (LAS) switch 170, a lane departure warning system (LDWS) switch 180, a wheel speed sensor 190, and an integrated ECU 300, as shown in FIG. ,
  • ACC adaptive cruise control
  • LAS lane keeping assist system
  • LDWS lane departure warning system
  • a driving assistance CPU 310 a front collision warning CPU 400, a rear collision warning CPU 410, a side vehicle approaching warning CPU 420, a steering avoidance CPU 430, and a brake CPU 440.
  • the sensor ECUs 200, 210, and 220 are connected to the integrated ECU 300 via sensor cables 600, 610, and 620, and an in-vehicle bus 500, respectively.
  • the sensor ECUs 230, 240 and 250 are connected to the integrated ECU 300 via sensor cables 630, 640 and 650 and an in-vehicle bus 510, respectively.
  • the integrated ECU 300 and the CPUs 310, 400, 410, 420, 430, 440 are connected to one another via an in-vehicle bus 520.
  • in-vehicle buses 500, 510, and 520 are shown as mutually different lines, they may be configured as one bus line.
  • Memories 202,..., 252 of the sensor ECUs 200,..., 250 are each constituted of, for example, a semiconductor memory etc., for example, read only memory (ROM), random access memory (RAM), electrically erasable and rewritable ROM (EEPROM) etc.
  • ROM read only memory
  • RAM random access memory
  • EEPROM electrically erasable and rewritable ROM
  • the ROMs of the memories 202,..., 252 store control programs for operating the CPUs 201,.
  • the front camera 100 is attached to the front center of the vehicle 10 (e.g., the top center of the windshield) such that the optical axis of the front camera 100 faces the front of the vehicle 10.
  • the rear camera 110 is mounted at the center of the rear surface of the vehicle 10 (for example, in the vicinity of the rear number plate) so that the optical axis of the rear camera 110 faces the rear of the vehicle 10.
  • the right rear side camera 120 is attached to the rear right side of the vehicle 10 (for example, the right end of the rear bumper) such that the optical axis of the right rear side camera 120 faces the right rear side of the vehicle 10.
  • the left rear side camera 130 is attached to the rear left side of the vehicle 10 (for example, the left end of the rear bumper) such that the optical axis of the left rear side camera 130 faces the left rear side of the vehicle 10.
  • the cameras 100 to 130 each capture an image of a fan-shaped imaging range centered on the optical axis every predetermined time (for example, 1/60 seconds).
  • the cameras 100 to 130 output the captured image data to the sensor ECUs 200 to 230 at predetermined time intervals (for example, 1/60 seconds).
  • the CPUs 201 to 231 of the sensor ECUs 200 to 230 respectively use targets based on image data output from the cameras 100 to 130, for example, by template matching, for example, other vehicles traveling in the peripheral area of the vehicle 10 , Pedestrians walking in the vicinity of the traveling lane, boundaries indicating the boundaries of the lane drawn on the road (for example, white lines drawn intermittently), traffic signs installed at the side of the road, and the like.
  • the cameras 100 to 130 can detect a relatively wide range of targets because their viewing angles are relatively wide and their effective distance is as long as several hundred meters.
  • the sonar 140 emits a sound wave, and detects the target object by receiving the reflected wave that the emitted sound wave is reflected by the target object.
  • the sonar 140 is attached to the center of the rear surface of the vehicle 10 (for example, the lower center of the rear window) so that the emission direction of the sound waves is directed to the rear of the vehicle 10. Since the effective distance of the sonar 140 is short, it is suitable for detecting a close target.
  • the millimeter wave radar 150 emits a millimeter wave, which is a radio wave having a wavelength of 1 to 10 mm, and detects a target by receiving a reflected wave of the emitted millimeter wave reflected by the target.
  • the millimeter wave radar 150 is attached to the front center of the vehicle 10 (e.g., the center of the front grille) such that the emission direction of the millimeter waves is directed to the front of the vehicle 10.
  • the effective distance of the millimeter wave radar 150 is as long as 200 m or more, so that relatively distant targets can be detected.
  • the CPUs 201 to 251 of the sensor ECUs 200 to 250 control the operations of the cameras 100 to 130, the sonar 140, and the millimeter wave radar 150, respectively.
  • the cameras 100 to 130, the sonar 140, and the millimeter wave radar 150 each detect a target present in the peripheral region of the vehicle 10, and output a detection signal to the sensor ECUs 200 to 250.
  • the CPUs 201 to 251 of the sensor ECUs 200 to 250 generate target data on the detected targets based on the detection signals input from the cameras 100 to 130, the sonar 140, and the millimeter wave radar 150, respectively.
  • the functions of the CPUs 201 to 251 will be further described later.
  • the cameras 100 to 130, the sonar 140, and the millimeter wave radar 150 correspond to an example of a detection unit
  • the CPUs 201 to 251 correspond to an example of a detection control unit.
  • the detection unit that detects a target is not limited to a camera, a sonar, and a millimeter wave radar.
  • another detection unit such as a laser radar may be provided which emits a laser beam and detects a target object by receiving a reflected wave of the emitted laser beam reflected by the target object.
  • a sensor ECU may be provided for each detection unit.
  • the switches 160, 170, and 180 are switches operated by the occupant of the vehicle 10, and each output a signal indicating the on / off state of the switch to the integrated ECU 300.
  • Wheel speed sensor 190 detects the rotational speed of the wheel of vehicle 10, and outputs wheel speed information representing the detected rotational speed of the wheel to integrated ECU 300.
  • the integrated ECU 300 controls each part of vehicle 10.
  • the integrated ECU 300 includes a CPU 301 (corresponding to an example of a central control unit) and a memory 302.
  • the memory 302 is configured of, for example, a semiconductor memory or the like, and includes, for example, a ROM, a RAM, an EEPROM, or the like.
  • the ROM of the memory 302 stores an overall control program of the vehicle 10 in which the CPU 301 operates.
  • the CPU 301 operates in accordance with the overall control program stored in the memory 302 to control each part of the vehicle 10.
  • the forward collision warning CPU 400 activates the alarm device 401 when the CPU 301 of the integrated ECU 300 determines that the vehicle 10 may collide with the target ahead.
  • the rear collision warning CPU 410 activates the alarm device 411 when the CPU 301 determines that the vehicle 10 may collide with a target behind the vehicle.
  • the rear side vehicle approach alarm CPU 420 activates the alarm device 421 when the CPU 301 determines that the target approaches the rear side of the vehicle 10.
  • the alarm devices 401, 411, and 421 may be configured by, for example, electronic buzzers, and in this case, a warning is notified to the occupant of the vehicle 10 by sound.
  • the steering avoidance CPU 430 controls the steering actuator 431 according to a command signal from the CPU 301 to change the traveling direction of the vehicle 10, thereby avoiding the collision of the vehicle 10 with a target in front.
  • the brake CPU 440 controls the brake actuator 441 according to a command signal from the CPU 301 to decelerate the vehicle 10, thereby avoiding the collision of the vehicle 10 with a target in front.
  • the integrated ECU 300 notifies the driving support CPU 310 of the on / off states of the switches 160, 170, and 180.
  • the driving support CPU 310 (corresponding to an example of the driving support control unit) controls the throttle 311, the alarm device 312, the steering actuator 431, and the brake actuator 441 according to the on / off states of the switches 160, 170, 180 notified from the integrated ECU 300. , Support the driving of the vehicle 10 by the driver.
  • the adaptive cruise control causes the vehicle 10 to follow a preceding vehicle traveling ahead of the vehicle 10 ahead of the vehicle 10. Be called).
  • the driving support CPU 310 performs lane maintenance support control for maintaining the lane in which the vehicle 10 travels.
  • the driving support CPU 310 performs lane departure warning control that activates the warning device 312 when the vehicle 10 is departing from the lane in which the vehicle 10 is traveling.
  • the LDWS switch 180 is configured to be turned on only when the LAS switch 170 is turned on.
  • the CPUs 201 to 251 of the sensor ECUs 200 to 250 generate target data on the detected target based on the detection signals input from the cameras 100 to 130, the sonar 140, and the millimeter wave radar 150, respectively. .
  • the CPUs 201 to 231 generate target data, for example, every 50 msec in the present embodiment.
  • the CPUs 241 and 251 generate target data, for example, every 10 msec in the present embodiment.
  • the CPUs 201 to 251 of the sensor ECUs 200 to 250 function in the same manner except for the period of target data generation. So, below, CPU201 of sensor ECU200 is explained.
  • the CPU 201 generates target data including identification information (ID), position, and relative velocity. That is, the CPU 201 assigns a unique ID to each target so that each target detected by the camera 100 can be identified.
  • the CPU 201 calculates the position of each target.
  • the CPU 201 sets the position of the target as an origin in the center 10C of the vehicle 10, as shown in FIG. 2 described later, and an X axis parallel to the front-rear direction of the vehicle 10 and having the front of the vehicle 10 as positive.
  • the coordinates are calculated on the XY plane formed by the Y axis parallel to the width direction of the vehicle 10 and positive to the left of the vehicle 10.
  • the CPU 201 calculates the relative velocity of each target relative to the vehicle 10 based on the amount of movement from the position of each target calculated last time (50 msec in this embodiment) relative to the position of each target calculated this time Do.
  • the CPU 201 sets the relative velocity of the target approaching the vehicle 10 to a positive value, and sets the relative velocity of the target moving away from the vehicle 10 to a negative value. Furthermore, the CPU 201 calculates a degree of reliability that represents the certainty of the position of each target.
  • the CPU 201 determines a divided area in which the target exists, based on the calculated position of the target.
  • the divided areas are described with reference to FIG.
  • FIG. 2 schematically shows an example of divided areas set by dividing the peripheral area SA of the vehicle 10.
  • the peripheral area SA of the vehicle 10 is divided into 11 divided areas of a first divided area DA1 to an eleventh divided area DA11.
  • the peripheral area SA of the vehicle 10 in which the eleven divided areas are combined has a rectangular shape that is long in the front-rear direction of the vehicle 10.
  • the eleven divided areas are set in line symmetry with respect to a straight advance line 10L in the X-axis direction passing through the center 10C of the vehicle 10.
  • the first divided area DA1 to the third divided area DA3 are areas close to the vehicle 10 set in front of the center 10C of the vehicle 10.
  • An area obtained by combining three of the first divided area DA1 to the third divided area DA3 has a rectangular shape elongated in the width direction of the vehicle 10 (that is, the Y-axis direction).
  • the first divided area DA1 has a center 10C of the vehicle 10 as an apex, and has a shape of an isosceles triangle symmetrical with respect to the straight line 10L.
  • the width W1 corresponding to half of the base of the first divided area DA1 which is an isosceles triangle is set to a relatively short distance of, for example, about 30 [m].
  • the second divided area DA2 and the third divided area DA3 each have a trapezoidal shape obtained by removing the first divided area DA1 from the rectangular shape, and are formed in line symmetry with each other with respect to the rectilinear line 10L.
  • the length L1 of the first divided area DA1 to the third divided area DA3 is set to a relatively short distance of, for example, about 10 m when the vehicle 10 is stopped.
  • the length L1 is set to be longer in order to detect a distant object as a target when the speed of the vehicle 10 increases.
  • the length L1 is set to, for example, about 60 [m].
  • the fourth divided area DA4 to the eighth divided area DA8 are areas set ahead of the first divided area DA1 to the third divided area DA3 when viewed from the vehicle 10.
  • the area obtained by combining these five divided areas is As in the combined area of the first divided area DA1 to the third divided area DA3, it has a rectangular shape and the same length.
  • the area obtained by combining the fourth divided area DA4 to the sixth divided area DA6 has a rectangular shape.
  • the fifth divided area DA5 and the sixth divided area DA6 are formed in line symmetry with each other with respect to the rectilinear line 10L, and each have the shape of a right triangle.
  • the fourth divided area DA4 has a trapezoidal shape obtained by removing the fifth divided area DA5 and the sixth divided area DA6 from the rectangular shape, and is formed in line symmetry with respect to the rectilinear line 10L.
  • Each of the seventh divided area DA7 and the eighth divided area DA8 has a rectangular shape.
  • the length L4 of the fourth divided area DA4 to the eighth divided area DA8 is set to a relatively long distance of, for example, about 200 [m].
  • the width W4 corresponding to half of the bottom side on the front side of the fourth divided area DA4 is set to a relatively short distance of, for example, about 5 [m].
  • the fifth division area DA5 and the sixth division area DA6, which are right triangles, are set such that a line extending the hypotenuse of the right triangle passes through the center 10C of the vehicle 10.
  • the ninth divided area DA9 to the eleventh divided area DA11 are areas close to the vehicle 10 set to the rear from the center 10C of the vehicle 10, and the area obtained by combining these three divided areas is the first divided area DA1 to As in the combined area of the third divided areas DA3, they have a rectangular shape and the same length.
  • the ninth divided area DA9 is an area immediately behind the vehicle 10, and is an area of a rectangular shape formed in line symmetry with respect to the straight traveling line 10L.
  • the tenth divided area DA10 is an area formed to surround the ninth divided area DA9, and is a U-shaped area formed in line symmetry with respect to the rectilinear line 10L.
  • the eleventh divided area DA11 is an area formed so as to surround the tenth divided area DA10, and is a U-shaped area formed in line symmetry with respect to the rectilinear line 10L.
  • the length L9 of the ninth divided area DA9 is set to a relatively short distance of, for example, about 10 [m], and the width W9 which is half the width of the ninth divided area DA9 is, for example, about 10 [m] It is set to a relatively short distance.
  • the length L10 of the tenth divided area DA10 is set to a relatively short distance of, for example, about 15 [m]
  • the width W10 which is a half of the width of the tenth divided area DA10 is, for example, about 15 [m] It is set to a relatively short distance.
  • the length L11 of the eleventh divided area DA11 is set to a relatively short distance of, for example, about 25 [m].
  • Boundary values representing the first divided area DA1 to the eleventh divided area DA11 are calculated in advance as coordinates on the XY plane with the center 10C of the vehicle 10 as the origin, using the distance such as the length L1 and the distance such as the width W1 And stored in the memories 202-252.
  • the boundary value for example, the coordinates of the vertex of each area can be adopted. Therefore, the CPU 201 can determine the divided area in which the target exists, based on the calculated coordinates of the position of the target and the boundary value of each divided area stored in the memory 202.
  • the memories 202 to 252 each correspond to an example of a storage unit.
  • the meaning of each divided area is briefly described.
  • the first divided area DA1 to the third divided area DA3 and the ninth divided area DA9 which are closest to the vehicle 10 are collisions for which the collision of the vehicle 10 with the target existing in these areas is to be avoided. It is an avoidance area.
  • the fourth divided area DA4 is an area corresponding to the lane in which the vehicle 10 is traveling.
  • the fifth divided area DA5 is an area corresponding to the lane to the left of the lane in which the vehicle 10 is traveling.
  • the sixth divided area DA6 is an area corresponding to the lane to the right of the lane in which the vehicle 10 is traveling.
  • the fourth divided area DA4 to the sixth divided area DA6 are collision warning areas in which the possibility of the vehicle 10 colliding with a target present in these areas should be warned. Further, the fourth divided area DA4 to the sixth divided area DA6 are also follow-up travel areas in which the vehicle 10 travels following the preceding vehicle present in these areas.
  • the seventh divided area DA7 is an area corresponding to the left side of the lane (the fifth divided area DA5) adjacent to the left.
  • the eighth divided area DA8 is an area corresponding to the right side of the lane (the sixth divided area DA6) adjacent to the right.
  • the seventh divided area DA7 and the eighth divided area DA8 are areas in which the danger of a pedestrian or others should be predicted.
  • the tenth divided area DA10 is a collision warning area for warning that the vehicle 10 may collide with a target present in this area.
  • the eleventh divided area DA11 is an area where a danger of a pedestrian or others should be predicted.
  • the CPU 201 of the sensor ECU 200 calculates the priority score of the target in order to determine the target to be considered preferentially.
  • the CPU 201 calculates the priority score P using, for example, the equation (1).
  • P Sa + Sd + Sv (1)
  • the symbol Sa represents an area score
  • the symbol Sd represents a distance score
  • the symbol Sv represents a relative velocity score.
  • FIG. 3 is a diagram schematically showing an example of the area score Sa set in each divided area shown in FIG.
  • the area score Sa is set separately for each of the first to eleventh divided areas DA1 to DA11 when the vehicle 10 moves forward and backward.
  • the region score of the first divided region DA1 immediately ahead of the vehicle 10 is set to the highest value AS4, and the second, third, and ninth divided regions DA2 close to the vehicle 10 , DA3, DA9 are set to the next higher value AS3, and the area scores of the tenth and eleventh divided areas DA10, DA11 behind the vehicle 10 are set to zero.
  • the region score of the ninth divided region DA9 immediately behind the vehicle 10 is set to the highest value AS4, and the first to third, tenth divided regions DA1 close to the vehicle 10
  • the area scores of ⁇ DA3 and DA10 are set to the next highest value AS3, and the area scores of the fourth to eighth divided areas DA4 to DA8 ahead of the vehicle 10 are set to zero.
  • the distance score Sd of the equation (1) is expressed by, for example, the equation (2).
  • Sd ⁇ / L (2)
  • the distance score Sd becomes higher as the target is closer to the vehicle 10.
  • the numerical value of the parameter ⁇ may be configured to be changeable.
  • V becomes V> 0 when the target approaches the vehicle 10, and the relative velocity score Sv is added in the equation (1) for calculating the priority score P.
  • V leaves the vehicle 10
  • V ⁇ 0
  • the relative speed score Sv is subtracted in the equation (1) for calculating the priority score P.
  • the relative speed score Sv becomes higher as the target approaches at a higher speed toward the vehicle 10.
  • the numerical value of the parameter ⁇ may be configured to be changeable.
  • the CPU 201 further transmits target data related to the target to integrated ECU 300 via sensor cable 600 and in-vehicle bus 500.
  • the CPU 201 can transmit only target data of a predetermined number (for example, 12 in the present embodiment, corresponding to an example of the second upper limit number).
  • the CPU 201 selects a predetermined number (12, for example, in the present embodiment) of targets in order from the one with the highest priority score P of the targets, and transmits the selected targets to the integrated ECU 300.
  • information of a target that is considered to be more important in the divided area closer to the vehicle 10 may not be transmitted to the integrated ECU 300.
  • the specific divided area is set in advance according to the operation situation of the driving support control by the driving support CPU 310.
  • the target set number (corresponding to an example of the first upper limit number) is set in advance in a specific divided area (corresponding to an example of the first divided area), and target data up to the target setting number is reliably determined. It is configured to be transmitted to the integrated ECU 300.
  • FIG. 4 is a diagram schematically showing an example of the specific divided area information 20 stored in advance in the memory 302.
  • the specified division area information 20 includes a column 21 indicating the operation status of the driving support control, a column 22 indicating the specific division area, and a column 23 indicating the number of targets set.
  • both of the ACC switch 160 and the LAS switch 170 are off (that is, there is no driving assistance control), only one is on, and both are on, as the operating condition of the driving assistance control by the driving assistance CPU 310 A total of four types are shown.
  • the driving support CPU 310 performs the same control as that of the LAS switch 170 when the LDWS switch 180 is on.
  • the CPU 301 of the integrated ECU 300 reads, from the specific divided area information 20 stored in the memory 302, the specific divided area corresponding to the on / off state of the ACC switch 160 and the LAS switch 170, and the target setting number.
  • the CPU 301 may read out the specific division area and the target setting number corresponding to both the ACC switch 160 and the LAS switch 170 being off (that is, without driving support control).
  • the CPU 301 notifies the sensor ECUs 200 to 250 of information representing the read specific divided area and the number of targets set.
  • the CPUs 201 to 251 of the sensor ECUs 200 to 250 set the specific divided area and the number of target setting based on the information notified from the CPU 301, respectively.
  • first to third and ninth division areas DA1 to DA3 and DA9 close to the vehicle 10 are set as the specific division areas. Then, the target setting number of the first divided area DA1 is set to "4".
  • the priority score P of the target present in the first divided area DA1 is the priority of the target (corresponding to an example of the second target) existing in another divided area (corresponding to an example of the second divided area) If four or less targets exist in the first divided area DA1 even if the value is lower than the degree score P, the target data of all targets are transmitted to the integrated ECU 300. In addition, when five or more targets exist in 1st division
  • the target setting numbers of the second, third, and ninth divided areas DA2, DA3, and DA9 are set to "1". That is, a target (the first divided area corresponds to an example of the second divided area) to which the priority score P of the targets present in the second, third, and ninth divided areas DA2, DA3, and DA9 respectively Even if the target is present in the second, third, and ninth divided areas DA2, DA3, and DA9 even if the target has a value lower than the priority score P of Target data of the target is transmitted to the integrated ECU 300.
  • the vehicle should appropriately follow the preceding vehicle. is important. Therefore, as shown in FIG. 4, the fourth to sixth divided areas DA4 to DA6 which are the following traveling areas are set as the specific divided areas, and the respective target set numbers are set to "1".
  • a ninth division area DA9 (corresponding to an example of the rear side area) is set as the specific division area, and the number of target setting is set to “1”.
  • the priority score P of the target present in the ninth divided area DA9 is the priority of the target (corresponding to an example of the second target) existing in another divided area (corresponding to an example of the second divided area) Even when the target is present in the ninth divided area DA9 even if the value is lower than the degree score P, target data of at least one target is transmitted to the integrated ECU 300.
  • the fourth to sixth and ninth divided areas DA4 to DA6 and DA9 are set as the specific divided areas, and the number of target setting is set to "1".
  • the CPU 301 of the integrated ECU 300 recognizes a target present in the peripheral area SA of the vehicle 10 based on the target data transmitted from each of the sensor ECUs 200 to 250.
  • the detection ranges of the targets by the cameras 100 to 130, the sonar 140, and the millimeter wave radar 150 may overlap each other.
  • the front camera 100 and the millimeter wave radar 150 both detect targets existing in front of the vehicle 10. Therefore, target data of the same target may be transmitted from the sensor ECU 200 and the sensor ECU 250, respectively.
  • the CPU 301 of the integrated ECU 300 recognizes the target data transmitted from each of the targets based on the position, relative velocity, etc. of the target as target data of the same target.
  • FIG. 5 is a flowchart schematically showing an example of a setting procedure of the specific divided area.
  • 6 to 9 are flowcharts schematically showing the subroutine of FIG. 5, respectively.
  • the CPU 301 of the integrated ECU 300 executes the operation of FIG. 5 every 10 msec, for example.
  • step S100 of FIG. 5 the CPU 301 determines whether the ACC switch 160 is off and the LAS switch 170 is off (that is, there is no driving support control). If ACC switch 160 is off and LAS switch 170 is off (YES in step S100), the process proceeds to step S105. If ACC switch 160 is off and LAS switch 170 is not off (NO in step S100), the process proceeds to step S110.
  • step S105 the CPU 301 executes a first setting processing subroutine (FIG. 6).
  • step S200 in FIG. 6 the CPU 301 determines from the specific division area information 20 stored in the memory 302 the specific division area of the column 22 and the number of targets set in the column 23 corresponding to "absent" of the column 21.
  • the target set number of the first divided area DA1 is set to "4", and the target set numbers of the second, third and ninth divided areas DA2, DA3 and DA9 are set to "1".
  • the subroutine ends in step S200, and the process returns to step S140, returning to FIG.
  • step S110 the CPU 301 determines whether the ACC switch 160 is on and the LAS switch 170 is off. If ACC switch 160 is on and LAS switch 170 is off (YES in step S110), the process proceeds to step S115. If ACC switch 160 is on and LAS switch 170 is not off (NO in step S110), the process proceeds to step S120.
  • step S115 the CPU 301 executes a second setting processing subroutine (FIG. 7).
  • step S300 of FIG. 7 the CPU 301 sets the specific divided area of the column 22 and the target setting of the column 23 corresponding to “ACC on LAS OFF” of the column 21 from the specific divided area information 20 stored in the memory 302.
  • the numbers are read out, and the target setting numbers of the fourth, fifth, and sixth divided areas DA4, DA5, and DA6 are set to "1".
  • the subroutine ends in step S300, and the process returns to step S140, returning to FIG.
  • step S120 the CPU 301 determines whether the ACC switch 160 is off and the LAS switch 170 is on. If ACC switch 160 is off and LAS switch 170 is on (YES in step S120), the process proceeds to step S125. If ACC switch 160 is off and LAS switch 170 is not on (NO in step S120), the process proceeds to step S130.
  • step S125 the CPU 301 executes a third setting processing subroutine (FIG. 8).
  • step S400 in FIG. 8 the CPU 301 sets the specific divided area of the column 22 and the target setting of the column 23 corresponding to “ACC off LAS on” in the column 21 from the specific divided area information 20 stored in the memory 302. The number is read out, and the target set number of the ninth divided area DA9 is set to "1".
  • the subroutine ends in step S400, and the process returns to step S140, returning to FIG.
  • step S130 the CPU 301 determines whether the ACC switch 160 is on and the LAS switch 170 is on. If ACC switch 160 is on and LAS switch 170 is on (YES in step S130), the process proceeds to step S135. If ACC switch 160 is on and LAS switch 170 is not on (NO in step S130), the process proceeds to step S145.
  • step S135 the CPU 301 executes a fourth setting processing subroutine (FIG. 9).
  • step S500 of FIG. 9 the CPU 301 sets the specific divided area of the column 22 and the target setting of the column 23 corresponding to “ACC on LAS ON” in the column 21 from the specific divided area information 20 stored in the memory 302. The numbers are read out, and the target setting numbers of the fourth, fifth, sixth, and ninth divided areas DA4, DA5, DA6, and DA9 are set to "1".
  • the subroutine ends in step S500, and the process returns to step S140, returning to FIG.
  • step S140 the CPU 301 transmits, to each of the sensor ECUs 200 to 250, information on the divided areas set as the specific divided areas and information on the target setting number set in those divided areas. Thereafter, the process of FIG. 5 ends.
  • the contents transmitted to the sensor ECUs 200 to 250 are stored in the memories 202 to 252 by the CPUs 201 to 251 of the sensor ECUs 200 to 250, respectively.
  • step S145 the CPU 301 executes a predetermined error process, and then the process of FIG. 5 ends. That is, since all of steps S100, S110, S120, and S130 can not be NO, predetermined error processing is performed in step S145.
  • FIG. 10 is a flow chart schematically showing an example of the operation procedure of the CPU of each sensor ECU.
  • the CPUs 201 to 231 of the sensor ECUs 200 to 230 execute the operation of FIG. 10, for example, every 50 msec.
  • the CPUs 241 and 251 of the sensor ECUs 240 and 250 execute the operation of FIG. 10, for example, every 10 msec.
  • the CPUs 201 to 251 of the sensor ECUs 200 to 250 function in the same manner except for the execution cycle of the operation of FIG. Thus, in FIG. 10, the operation of the CPU 201 of the sensor ECU 200 will be described.
  • step S600 the CPU 201 acquires detection data of a target from the front camera 100.
  • step S605 the CPU 201 processes the acquired detection data to generate target data. That is, the CPU 201 assigns an ID to each detected target, calculates the position, relative velocity, and reliability of each detected target, and generates target data.
  • step S610 the CPU 201 determines a divided area in which each target exists based on the calculated position of each target and the boundary value of each divided area stored in the memory 202.
  • step S615 the CPU 201 calculates the priority score of each target using the equation (1).
  • step S ⁇ b> 620 the CPU 201 reads from the memory 202 the specific divided area in which the target set number is set. As described above, regardless of the presence / absence and type of the driving support control by the driving support CPU 310, any one of the first to eleventh divided areas DA1 to DA11 is set as a target divided area as a specific divided area. The number is set and stored in the memory 202. Therefore, CPU 201 reads it from memory 202 in step S620.
  • step S625 the CPU 201 selects targets existing in each specific divided area up to the target setting number in order of priority score, and temporarily stores the ID of the selected target in the memory 202.
  • step S630 the CPU 201 calculates the number of selected targets whose IDs are stored in the memory 202.
  • step S635 the CPU 201 selects targets other than the selected targets, in the order of the priority score, up to a predetermined number (for example, 12 in the present embodiment) in combination with the selected number.
  • step S640 if there is a target which has not been selected (that is, if detection data of targets exceeding a predetermined number have been acquired in step S600), the CPU 201 deletes the target data. In step S645, the CPU 201 transmits target data of the selected target to the integrated ECU 300.
  • the number of target data output from the sensor ECUs 200 to 250 to the sensor cables 600 to 650 becomes equal to or less than a predetermined number (for example, 12 in the present embodiment).
  • a predetermined number for example, 12 in the present embodiment.
  • FIG. 11 is a flowchart schematically showing an operation procedure example of the CPU 301 of the integrated ECU 300.
  • the CPU 301 of the integrated ECU 300 executes the operation of FIG. 11 every 20 msec.
  • step S700 the CPU 301 starts reception of data from each sensor ECU, and stores the received target data in the memory 302.
  • the CPU 301 confirms the reliability of each target included in the target data, and deletes the target data whose reliability is less than or equal to a predetermined threshold.
  • step S710 the CPU 301 acquires wheel speed information of the vehicle 10 from the wheel speed sensor 190.
  • the CPU 301 calculates the collision time (TTC) of each target based on the target data of each target acquired from the sensor ECUs 200 to 250 and the wheel speed information of the vehicle 10, and the target with the shortest collision time Is selected as the top priority target.
  • the collision time (TTC) is defined as a limit time at which a collision can be avoided by the braking by the actuation of the brake actuator 441 and the steering by the actuation of the steering actuator 431.
  • step S 715 the CPU 301 outputs command signals to the driving support CPU 310, the steering avoidance CPU 430, the brake CPU 440 and the like, and sets each part of the vehicle 10 such as the steering actuator 431 and the brake actuator 441 as target data of the top priority target. Operate accordingly to avoid collisions with top priority targets.
  • step S720 the CPU 301 feeds back the ID of the top priority target to each of the sensor ECUs 200 to 250.
  • FIG. 12 is a sequence diagram schematically showing the procedure of data transmission and reception between the integrated ECU and the sensor ECU.
  • the same steps as in FIGS. 10 and 11 are denoted by the same reference numerals.
  • the sensor ECUs 200 to 230 acquire detection data every 50 msec (step S600), process the data (steps S605 to S640), and transmit target data to the integrated ECU 300 (step S645).
  • the sensor ECUs 240 and 250 acquire detection data every 10 msec (step S600), process the data (steps S605 to S640), and transmit target data to the integrated ECU 300 (step S645).
  • the integrated ECU 300 receives data and processes it every 20 msec (steps S700 to S715), and feeds back the ID of the top priority target to each of the sensor ECUs 200 to 250 (step S720).
  • the specific divided area is set among the first divided area DA1 to the eleventh divided area DA11 obtained by dividing the peripheral area SA of the vehicle 10, and the target setting number is set in the specific divided area Is set. And when a target exists in a specific division area, target data of the number of objects less than target object setting number are transmitted to integrated ECU300. Therefore, according to the present embodiment, target data of targets existing in the specific divided area can be reliably transmitted to integrated ECU 300.
  • each of the sensor ECUs 200 to 250 transmits target data equal to or smaller than a predetermined number (for example, 12 in the present embodiment) to the integrated ECU 300. Therefore, according to the present embodiment, the amount of data transmitted in the sensor cables 600 to 650 can be suppressed. As a result, since the communication capacity of the sensor cables 600 to 650 may be small, the cost increase of the sensor cables 600 to 650 can be prevented.
  • a predetermined number for example, 12 in the present embodiment
  • the divided area corresponding to the operation state of the driving support control by the driving support CPU 310 is set as the specific divided area.
  • the first to third and ninth divided areas DA1 to DA3 and DA9 are set as the specific divided areas.
  • the fourth to sixth divided areas DA4 to DA6 are set as the specific divided areas.
  • the ninth division area DA9 is set as the specific division area.
  • the fourth to sixth, ninth divided areas DA4 to DA6, DA9 are set as the specific divided areas. Therefore, according to the present embodiment, target data necessary for driving support control such as follow-up driving control and lane keeping support control can be reliably transmitted to integrated ECU 300.
  • the specific divided area information 20 (FIG. 4) is stored in the memory 302 of the integrated ECU 300.
  • the present invention is not limited to this, and may be stored in the memories 202 to 252 of the sensor ECUs 200 to 250, respectively.
  • the CPU 301 of the integrated ECU 300 may notify the sensor ECUs 200 to 250 of information indicating the on / off state of the ACC switch 160 and the LAS switch 170.
  • the CPUs 201 to 251 of the sensor ECUs 200 to 250 respectively specify the number of specified divided areas and the number of target settings based on the information notified from the CPU 301 and the specified divided area information 20 (FIG. 4) stored in the memories 202 to 252. You may set it.
  • a target detection device provided in a vehicle, A detection unit that detects a target present in a peripheral area of the vehicle; A detection control unit that outputs target data related to the target selected according to a predetermined standard among the targets detected by the detection unit; A central control unit that controls the vehicle based on the target data output from the detection control unit; A storage unit that stores division area information representing a plurality of division areas generated by dividing the peripheral area in advance; A driving support control unit that performs control to support the driving of the vehicle by a driver; Equipped with The detection control unit performs the first division on a first target detected in one or more first division regions of the plurality of division regions, which is set according to the operation situation of the driving support control unit. It is selected in preference to the second target detected in the second divided area other than the area.
  • the central control unit is required to control the vehicle when the divided region in which the target required for the control of the vehicle exists is set to the first divided region according to the operating condition of the driving support control unit.
  • Target object data can be obtained preferentially.
  • the second target is not selected in preference to the first target, and it is possible that the second target is selected. For this reason, it is possible to suppress the situation where the central control unit can not obtain target data on the target.
  • the central control unit may set one or more of the plurality of divided areas as the first divided area according to the operation state of the driving support control unit.
  • the detection control unit may set one or more of the plurality of divided regions as the first divided region according to the operation state of the driving support control unit.
  • the first upper limit number may be set in each of the one or more first divided areas, and the second upper limit number may be set larger than the total number of the first upper limit number.
  • the detection control unit selects the first upper limit number of first targets if the number of first targets exceeds the first upper limit number in each of the one or more first divided areas. If the number of objects is equal to or less than the first upper limit number, the first process for selecting all the first objects, and the second object and the first object not selected yet for the first object selected in the first process If at least one of the targets is present, in addition to the first target already selected in the first treatment, the second upper limit number of the second target and the first non-selected target. And the second process of selecting the target with the upper limit.
  • the target is selected with the second upper limit number as the upper limit, it is possible to avoid an excessive amount of target data output from the detection control unit.
  • the central control unit selects target data regarding the first targets equal to or less than the first upper limit number. It can be obtained surely.
  • the targets are selected with the second upper limit number as the upper limit from among the second target and the non-selected first target, so that central control is performed. It is possible to suppress as much as possible the situation where the part can not obtain target data on the second target.
  • the central control unit may set the first upper limit number for each of the one or more first divided areas.
  • the detection control unit may set the first upper limit number for each of the one or more first divided regions.
  • the storage unit includes, as the divided area information, information indicating a collision avoidance area which is a divided area generated in proximity to the front of the vehicle in the peripheral area, and Information representing a follow-up traveling area, which is a divided area generated ahead, may be stored, and the driving support control unit causes the vehicle to travel following a preceding vehicle traveling ahead of the vehicle. It may be possible to perform follow-up traveling control, and when the driving support control unit does not perform the follow-up traveling control, the collision avoidance area may be set as the first divided area.
  • the central control unit when the follow-up control is not performed, preferentially obtains target data on targets existing in the collision avoidance area generated close to the front of the vehicle. be able to. Therefore, control of the vehicle can be performed in consideration of the target approaching the vehicle.
  • the central control unit may set the collision avoidance area as the first divided area.
  • the detection control unit may set the collision avoidance area as the first divided area.
  • the follow-up traveling region may be set as the first divided region.
  • the central control unit when the following control is being performed, preferentially obtains target data regarding a target present in the following traveling area generated in front of the collision avoidance area. Can. Therefore, it is possible to appropriately perform following control to follow the preceding vehicle present in the following traveling region.
  • the central control unit may set the following traveling region as the first divided region.
  • the detection control unit may set the following traveling region as the first divided region.
  • the storage unit may store, as the divided area information, information representing a rear side area which is a divided area generated on the rear side of the vehicle, and the driving support control unit May be configured to perform lane maintenance support control for maintaining the lane in which the vehicle travels, and when the driving support control unit is performing the lane maintenance support control, the rear side area May be set as the first divided area.
  • the central control unit can preferentially obtain target data regarding targets present in the rear side area generated on the rear side of the vehicle. Therefore, lane keeping assist control can be appropriately performed in consideration of a following vehicle which catches up from the rear of the vehicle.
  • the central control unit may set the rear side area as the first divided area.
  • the detection control unit may set the rear side area as the first divided area.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

車両に設けられた物標検出装置であって、車両の周辺領域に存在する物標を検出する検出部と、検出された物標のうち予め定められた基準で選定した物標に関する物標データを出力する検出制御部と、出力された物標データに基づき、車両を制御する中央制御部と、周辺領域を予め分割して生成された複数の分割領域を表す分割領域情報を記憶する記憶部と、車両の運転を支援する制御を行う運転支援制御部と、を備え、検出制御部は、運転支援制御部の作動状況に応じて設定された、複数の分割領域のうちの1以上の第1分割領域で検出された第1物標を、第1分割領域以外の第2分割領域で検出された第2物標より優先して選定する。

Description

車両の物標検出装置
 ここに開示された技術は、車両の周辺領域に存在する物標を検出する車両の物標検出装置に関するものである。
 従来、車両の周辺領域に存在する人、物などの物標を検出する検出部が設けられた車両が知られている(例えば、特許文献1参照)。このような車両では、一般に、検出部ごとに設けられた検出制御部により、検出された物標の位置、車両に対する相対速度などが算出される。そして、算出された物標の位置、相対速度を含む物標データが、検出制御部から車両全体を制御する中央制御部に送信されるように構成されている。
 検出部は、例えば、車両が走行する車線を規定する白線、車両の走行車線および隣接車線を走行する他車、歩道を歩く歩行者、道路脇に設置された交通標識など、多数の物標を検出する。このため、検出制御部から中央制御部に送信される物標データは、膨大なデータ量になることから、中央制御部の処理負荷が増大する。そこで、特許文献1に記載の車両では、車両前方における物標の検出範囲を複数の分割領域に分割し、車速及び操舵角に応じて物標を検出する検出対象に設定する分割領域を変更している。これによって、中央制御部に送信される物標データの量を制限し、中央制御部の処理負荷を軽減している。
 しかし、車速及び操舵角に応じて物標を検出する検出対象に設定する分割領域を変更してしまうと、物標の検出対象として設定されていない分割領域に検出すべき物標が存在した場合、中央制御部は、この物標のデータを得ることができない。
特開2009-58316号公報
 ここに開示された技術は、重要な分割領域の物標のデータを得つつ、それ以外の分割領域の物標のデータが得られない事態を可能な限り抑制することを目的とする。
 上述の課題を解決するために、ここに開示された技術の一態様は、
 車両に設けられた物標検出装置であって、
 前記車両の周辺領域に存在する物標を検出する検出部と、
 前記検出部により検出された前記物標のうち予め定められた基準で選定した前記物標に関する物標データを出力する検出制御部と、
 前記検出制御部から出力された前記物標データに基づき、前記車両を制御する中央制御部と、
 前記周辺領域を予め分割して生成された複数の分割領域を表す分割領域情報を記憶する記憶部と、
 運転者による前記車両の運転を支援する制御を行う運転支援制御部と、
を備え、
 前記検出制御部は、前記運転支援制御部の作動状況に応じて設定された、前記複数の分割領域のうちの1以上の第1分割領域で検出された第1物標を、前記第1分割領域以外の第2分割領域で検出された第2物標より優先して選定するものである。
 この車両の物標検出装置によれば、運転支援制御部の作動状況に応じて、車両の制御に必要な物標データを優先して得ることができる。
物標検出装置を備える車両の構成を概略的に示すブロック図である。 分割領域の一例を概略的に示す図である。 各分割領域に設定された領域スコアの一例を概略的に示す図である。 特定分割領域情報の一例を概略的に示す図である。 特定分割領域の設定手順例を概略的に示すフローチャートである。 図5のサブルーチンを概略的に示すフローチャートである。 図5のサブルーチンを概略的に示すフローチャートである。 図5のサブルーチンを概略的に示すフローチャートである。 図5のサブルーチンを概略的に示すフローチャートである。 各センサECUのCPUの動作手順の一例を概略的に示すフローチャートである。 統合ECUのCPUの動作手順例を概略的に示すフローチャートである。 統合ECUとセンサECUとにおけるデータ送受信の手順を概略的に示すシーケンス図である。
 (本開示に係る一態様の着眼点)
 まず、本開示に係る一態様の着眼点が説明される。上述のように、上記特許文献1に記載の車両では、車両前方における物標の検出範囲を複数の分割領域に分割し、車速及び操舵角に応じて物標を検出する分割領域を変更している。このため、上述のように、物標を検出しない分割領域に検出すべき物標が存在したとしても、中央制御部は、この物標を認識することができない。
 また、物標を検出する分割領域を変更したとしても、物標を検出する分割領域に多数の物標が存在するときは、検出制御部から中央制御部に送信される物標データは、やはり膨大なデータ量になる。よって、この場合には、中央制御部の処理負荷を軽減することができない。
 また、検出制御部から中央制御部に膨大な量の物標データを送信することを考慮すると、検出制御部から中央制御部までの通信ケーブルが十分な通信容量を有するように構成する必要がある。その結果、装置のコストが上昇してしまうこととなる。
 以上に鑑みて、本発明者は、必要な物標の物標データを確実に得て、検出制御部から中央制御部に送信される物標データのデータ量を制限し、かつ、装置のコストが上昇しない車両の物標検出装置を想到した。
 (実施形態)
 以下、図面を参照しつつ、本開示の実施形態が説明される。なお、各図では、同様の要素には同様の符号が付され、適宜、説明が省略される。
 (構成)
 図1は、本実施形態の物標検出装置を備える車両10の構成を概略的に示すブロック図である。車両10は、本実施形態では例えば、4輪自動車である。車両10は、図1に示されるように、前方カメラ100、後方カメラ110、右後側方カメラ120、左後側方カメラ130、ソナー140、ミリ波レーダ150と、それぞれに電気的に接続されたセンサ電子制御ユニット(センサECU)200,210,220,230,240,250と、を備える。センサECU200は、中央演算処理装置(CPU)201と、メモリ202と、を含む。センサECU210,220,230,240,250も、センサECU200と同様に構成され、それぞれ、CPU201,・・・,251と、メモリ202,・・・,252と、を含む。
 車両10は、図1に示されるように、さらに、アダプティブクルーズコントロール(ACC)スイッチ160、レーンキープアシストシステム(LAS)スイッチ170、車線逸脱警報システム(LDWS)スイッチ180、車輪速センサ190、統合ECU300、運転支援CPU310、前方衝突警報CPU400、後方衝突警報CPU410、側方車両接近警報CPU420、操舵回避CPU430、ブレーキCPU440を備える。
 センサECU200,210,220は、それぞれ、センサケーブル600,610,620と、車内バス500とを介して、統合ECU300に接続されている。センサECU230,240,250は、それぞれ、センサケーブル630,640,650と、車内バス510とを介して、統合ECU300に接続されている。統合ECU300と、各CPU310,400,410,420,430,440とは、車内バス520を介して、互いに接続されている。なお、図1では、車内バス500,510,520は、互いに別のラインとして示されているが、1本のバスラインとして構成されていてもよい。
 センサECU200,・・・,250のメモリ202,・・・,252は、それぞれ、例えば半導体メモリ等により構成され、例えばリードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、電気的に消去書き換え可能なROM(EEPROM)などを含む。メモリ202,・・・,252のROMは、それぞれ、CPU201,・・・,251を動作させる制御プログラムを記憶する。
 前方カメラ100は、車両10の前面中央(例えばフロントガラスの上部中央)に、前方カメラ100の光軸が車両10の前方を向くように取り付けられている。後方カメラ110は、車両10の後面中央(例えばリアナンバープレートの近傍)に、後方カメラ110の光軸が車両10の後方を向くように取り付けられている。右後側方カメラ120は、車両10の後面右(例えばリアバンパの右端)に、右後側方カメラ120の光軸が車両10の右後側方を向くように取り付けられている。左後側方カメラ130は、車両10の後面左(例えばリアバンパの左端)に、左後側方カメラ130の光軸が車両10の左後側方を向くように取り付けられている。
 カメラ100~130は、それぞれ、光軸を中心とする扇形の撮像範囲の画像を、所定時間(例えば1/60秒)毎に撮像する。カメラ100~130は、それぞれ、撮像した画像データを、所定時間(例えば1/60秒)毎にセンサECU200~230に出力する。センサECU200~230のCPU201~231は、それぞれ、カメラ100~130から出力される画像データに基づき、例えばテンプレートマッチングによって、撮像範囲に存在する物標、例えば、車両10の周辺領域を走行する他車、走行車線の近傍を歩行する歩行者、道路に描かれた車線の境界を表す境界線(例えば断続的に描かれた白線)、道路脇に設置された交通標識などを検出する。カメラ100~130は、その視野角が比較的広く、その有効距離が数百mと長いため、比較的広範囲の物標を検出することができる。
 ソナー140は、音波を出射し、出射した音波が物標で反射した反射波を受信することにより、物標を検出する。ソナー140は、車両10の後面中央(例えばリアウィンドウの下部中央)に、音波の出射方向が車両10の後方を向くように取り付けられている。ソナー140の有効距離は短いため、近接した物標を検出するのに適している。
 ミリ波レーダ150は、波長が1~10mmの電波であるミリ波を出射し、出射したミリ波が物標で反射した反射波を受信することにより、物標を検出する。ミリ波レーダ150は、車両10の前面中央(例えばフロントグリルの中央)に、ミリ波の出射方向が車両10の前方を向くように取り付けられている。ミリ波レーダ150の有効距離は、200m以上と長いため、比較的遠くの物標を検出することができる。
 センサECU200~250のCPU201~251は、それぞれ、カメラ100~130、ソナー140、ミリ波レーダ150の動作を制御する。カメラ100~130、ソナー140、ミリ波レーダ150は、それぞれ、車両10の周辺領域に存在する物標を検出して、検出信号をセンサECU200~250に出力する。センサECU200~250のCPU201~251は、それぞれ、カメラ100~130、ソナー140、ミリ波レーダ150から入力された検出信号に基づき、検出された物標に関する物標データを生成する。CPU201~251の機能は、さらに後述される。
 本実施形態において、カメラ100~130、ソナー140、ミリ波レーダ150は、検出部の一例に相当し、CPU201~251は、検出制御部の一例に相当する。なお、物標を検出する検出部は、カメラ、ソナー、ミリ波レーダに限られない。例えば、レーザ光を出射し、出射したレーザ光が物標で反射した反射波を受信することにより物標を検出するレーザレーダ等の他の検出部を備えてもよい。その場合、検出部ごとに、センサECUを設ければよい。
 スイッチ160,170,180は、車両10の乗員によって操作されるスイッチであり、それぞれ、スイッチのオンオフ状態を表す信号を統合ECU300に出力する。車輪速センサ190は、車両10の車輪の回転速度を検出し、検出した車輪の回転速度を表す車輪速情報を統合ECU300に出力する。
 統合ECU300は、車両10の各部を制御する。統合ECU300は、CPU301(中央制御部の一例に相当)と、メモリ302とを含む。メモリ302は、例えば半導体メモリ等により構成され、例えばROM、RAM、EEPROMなどを含む。メモリ302のROMは、CPU301を動作させる車両10の全体制御プログラムを記憶する。CPU301は、メモリ302に記憶された全体制御プログラムに従って動作して、車両10の各部を制御する。
 前方衝突警報CPU400は、車両10が前方の物標に衝突するおそれがあると統合ECU300のCPU301が判断すると、警報装置401を作動させる。後方衝突警報CPU410は、車両10が後方の物標に衝突するおそれがあるとCPU301が判断すると、警報装置411を作動させる。後側方車両接近警報CPU420は、車両10の後側方に物標が接近したとCPU301が判断すると、警報装置421を作動させる。警報装置401,411,421は、例えば電子ブザーで構成されてもよく、その場合には、車両10の乗員に対して音により警告を報知する。
 操舵回避CPU430は、CPU301からの指令信号に従ってステアリングアクチュエータ431を制御して車両10の進行方向を変更することにより、車両10が前方の物標に衝突するのを回避させる。ブレーキCPU440は、CPU301からの指令信号に従ってブレーキアクチュエータ441を制御して車両10を減速させることにより、車両10が前方の物標に衝突するのを回避させる。
 統合ECU300は、スイッチ160,170,180のオンオフ状態を運転支援CPU310に通知する。運転支援CPU310(運転支援制御部の一例に相当)は、統合ECU300から通知されたスイッチ160,170,180のオンオフ状態に従って、スロットル311、警報装置312、ステアリングアクチュエータ431、ブレーキアクチュエータ441を制御して、運転者による車両10の運転を支援する。
 例えば、ACCスイッチ160がオンのときは、運転支援CPU310は、車両10の前方を車両10に先行して走行する先行車両に、車両10を追従させるアダプティブクルーズコントロール(以下、「追従走行制御」と称される)を行う。例えば、LASスイッチ170がオンのときは、運転支援CPU310は、車両10が走行する車線を維持させる車線維持支援制御を行う。例えば、LDWSスイッチ180がオンのときは、運転支援CPU310は、車両10が走行している車線から逸脱すると、警報装置312を作動させる車線逸脱警報制御を行う。本実施形態では、LDWSスイッチ180は、LASスイッチ170がオンのときにのみ、オンにされることが可能なように構成されている。
 上述のように、センサECU200~250のCPU201~251は、それぞれ、カメラ100~130、ソナー140、ミリ波レーダ150から入力された検出信号に基づき、検出された物標に関する物標データを生成する。CPU201~231は、物標データを本実施形態では例えば50msecごとに生成する。CPU241,251は、物標データを本実施形態では例えば10msecごとに生成する。センサECU200~250のCPU201~251は、物標データ生成の周期以外は同様に機能する。そこで、以下では、センサECU200のCPU201について説明される。
 CPU201は、識別情報(ID)、位置、相対速度を含む物標データを生成する。すなわち、CPU201は、カメラ100により検出された各物標を識別できるように、各物標に固有のIDを付与する。CPU201は、各物標の位置を算出する。CPU201は、物標の位置を、後述の図2に示されるように、車両10の中心10Cを原点とし、車両10の前後方向に平行で車両10の前方を正とするX軸と、車両10の幅方向に平行で車両10の左方を正とするY軸と、で形成されるXY平面上の座標として算出する。
 CPU201は、今回算出された各物標の位置に対する、前回(本実施形態では50msec前)算出された各物標の位置からの移動量に基づき、各物標の車両10に対する相対速度をそれぞれ算出する。CPU201は、車両10に接近する物標の相対速度を正の値とし、車両10から遠ざかる物標の相対速度を負の値とする。さらに、CPU201は、各物標の位置の確からしさを表す信頼度を算出する。
 CPU201は、算出した物標の位置に基づき、当該物標が存在する分割領域を判定する。ここで、図2を参照して、分割領域が説明される。
 図2は、車両10の周辺領域SAを分割して設定された分割領域の一例を概略的に示す図である。本実施形態では、図2に示されるように、車両10の周辺領域SAが、第1分割領域DA1~第11分割領域DA11の11個の分割領域に分割されている。11個の分割領域を合せた車両10の周辺領域SAは、車両10の前後方向に長い矩形形状を有している。11個の分割領域は、車両10の中心10Cを通るX軸方向の直進ライン10Lに関して、線対称に設定されている。
 第1分割領域DA1~第3分割領域DA3は、車両10の中心10Cから前方に設定された車両10に近接する領域である。第1分割領域DA1~第3分割領域DA3の3つを合せた領域は、車両10の幅方向(つまりY軸方向)に長い矩形形状を有している。第1分割領域DA1は、車両10の中心10Cを頂点とし、直進ライン10Lに関して線対称の二等辺三角形の形状を有している。二等辺三角形である第1分割領域DA1の底辺の半分に相当する幅W1は、例えば30[m]程度の比較的短い距離に設定されている。
 第2分割領域DA2及び第3分割領域DA3は、それぞれ、矩形形状から第1分割領域DA1を除いた台形形状を有し、直進ライン10Lに関して互いに線対称に形成されている。台形である第2分割領域DA2の下底に相当する幅W2は、例えば100[m]程度の比較的長い距離に設定されている。なお、第2分割領域DA2及び第3分割領域DA3は、上述のように直進ライン10Lに関して互いに線対称に形成されているので、第3分割領域DA3の下底に相当する幅W3は、W3=W2である。
 第1分割領域DA1~第3分割領域DA3の長さL1は、車両10の停止時には、例えば10[m]程度の比較的短い距離に設定されている。なお、長さL1は、車両10の速度が高くなると、遠くの物体を物標として検出するために、長くなるように設定されている。車両10が、例えば100[km/h]の高速で走行しているときは、長さL1は、例えば60[m]程度に設定される。
 第4分割領域DA4~第8分割領域DA8は、車両10から見て第1分割領域DA1~第3分割領域DA3の前方に設定された領域であり、これら5つの分割領域を合せた領域は、第1分割領域DA1~第3分割領域DA3を合せた領域と同様に、矩形形状を有し、幅が同じ長さになっている。
 第4分割領域DA4~第6分割領域DA6を合せた領域は、矩形形状を有している。第5分割領域DA5及び第6分割領域DA6は、直進ライン10Lに関して互いに線対称に形成され、それぞれ、直角三角形の形状を有している。第4分割領域DA4は、矩形形状から第5分割領域DA5及び第6分割領域DA6を除いた台形形状を有し、直進ライン10Lに関して線対称に形成されている。第7分割領域DA7及び第8分割領域DA8は、それぞれ、矩形形状を有している。
 第4分割領域DA4~第8分割領域DA8の長さL4は、例えば200[m]程度の比較的長い距離に設定されている。第4分割領域DA4の前方側の底辺の半分に相当する幅W4は、例えば5[m]程度の比較的短い距離に設定されている。直角三角形である第5分割領域DA5及び第6分割領域DA6は、それぞれ、直角三角形の斜辺を延長した線が車両10の中心10Cを通るように、設定されている。
 第9分割領域DA9~第11分割領域DA11は、車両10の中心10Cから後方に設定された車両10に近接する領域であり、これら3つの分割領域を合せた領域は、第1分割領域DA1~第3分割領域DA3を合せた領域と同様に、矩形形状を有し、幅が同じ長さになっている。
 第9分割領域DA9は、車両10の直ぐ後方の領域であり、直進ライン10Lに関して線対称に形成された矩形形状の領域である。第10分割領域DA10は、第9分割領域DA9を囲むように形成された領域であり、直進ライン10Lに関して線対称に形成されたU字形状の領域である。第11分割領域DA11は、さらに第10分割領域DA10を囲むように形成された領域であり、直進ライン10Lに関して線対称に形成されたU字形状の領域である。
 第9分割領域DA9の長さL9は、例えば10[m]程度の比較的短い距離に設定されており、第9分割領域DA9の幅の半分である幅W9は、例えば10[m]程度の比較的短い距離に設定されている。第10分割領域DA10の長さL10は、例えば15[m]程度の比較的短い距離に設定されており、第10分割領域DA10の幅の半分である幅W10は、例えば15[m]程度の比較的短い距離に設定されている。第11分割領域DA11の長さL11は、例えば25[m]程度の比較的短い距離に設定されている。
 第1分割領域DA1~第11分割領域DA11を表す境界値は、長さL1等の距離及び幅W1等の距離を用いて、車両10の中心10Cを原点とするXY平面上の座標として予め算出され、メモリ202~252に保存されている。境界値としては、例えば各領域の頂点の座標が採用できる。したがって、CPU201は、算出した物標の位置を表す座標と、メモリ202に保存されている各分割領域の境界値とに基づき、当該物標が存在する分割領域を判定することができる。本実施形態において、メモリ202~252は、それぞれ、記憶部の一例に相当する。
 各分割領域の意味が簡単に説明される。車両10に最も近接する、第1分割領域DA1~第3分割領域DA3、第9分割領域DA9は、これらの領域に存在する物標に対して車両10が衝突することを回避しなければならない衝突回避領域である。
 第4分割領域DA4は、車両10が走行している車線に相当する領域である。第5分割領域DA5は、車両10が走行している車線の左隣の車線に相当する領域である。第6分割領域DA6は、車両10が走行している車線の右隣の車線に相当する領域である。第4分割領域DA4~第6分割領域DA6は、これらの領域に存在する物標に対して車両10が衝突する虞を警報すべき衝突警報領域である。また、第4分割領域DA4~第6分割領域DA6は、これらの領域に存在する先行車両に対して車両10が追従して走行する追従走行領域でもある。
 第7分割領域DA7は、左隣の車線(第5分割領域DA5)の左側に相当する領域である。第8分割領域DA8は、右隣の車線(第6分割領域DA6)の右側に相当する領域である。第7分割領域DA7、第8分割領域DA8は、横断者その他の危険を予測すべき領域である。
 第10分割領域DA10は、この領域に存在する物標に対して車両10が衝突する虞を警報すべき衝突警報領域である。第11分割領域DA11は、横断者その他の危険を予測すべき領域である。
 図1に戻って、センサECU200のCPU201は、優先的に考慮すべき物標を判断するために、物標の優先度スコアを算出する。CPU201は、例えば式(1)を用いて、優先度スコアPを算出する。
P=Sa+Sd+Sv  (1)
 ここで、符号Saは領域スコアを表し、符号Sdは距離スコアを表し、符号Svは相対速度スコアを表す。
 図3は、図2に示される各分割領域に設定された領域スコアSaの一例を概略的に示す図である。領域スコアSaは、図3に示されるように、第1分割領域DA1~第11分割領域DA11の分割領域ごとに、車両10が前進する場合と後進する場合とに分けて設定されている。例えば車両10が前進しているときは、車両10の直ぐ前方の第1分割領域DA1の領域スコアが最も高い値AS4に設定され、車両10に近接する第2、第3、第9分割領域DA2,DA3,DA9の領域スコアが次に高い値AS3に設定され、車両10の後方の第10、第11分割領域DA10,DA11の領域スコアはゼロに設定されている。
 例えば車両10が後進しているときは、車両10の直ぐ後方の第9分割領域DA9の領域スコアが最も高い値AS4に設定され、車両10に近接する第1~第3、第10分割領域DA1~DA3,DA10の領域スコアが次に高い値AS3に設定され、車両10から離れた前方の第4~第8分割領域DA4~DA8の領域スコアはゼロに設定されている。
 式(1)の距離スコアSdは、車両10の中心10Cから物標の最も近い最近接点までの距離をL[m]とすると、例えば式(2)で表される。
Sd=α/L  (2)
 式(2)から分かるように、距離スコアSdは、物標が、車両10に、より近い位置に存在するほど、高い値となる。パラメータαは、正の値であり、本実施形態では例えば、α=1[m]である。L<αのときは、L=αとして処理される。よって、距離スコアSdは、L≦αのときに、最大値Sd=1となる。なお、パラメータαの数値は、変更できるように構成されてもよい。
 式(1)の相対速度スコアSvは、物標の最近接点の車両10に対する相対速度をV[m/s]とすると、例えば式(3)で表される。
Sv=β×V  (3)
 相対速度Vは、物標が車両10に向かって接近する場合にはV>0となり、優先度スコアPを算出する式(1)において相対速度スコアSvが加算される。一方、物標が車両10から離れる場合は、V<0となり、優先度スコアPを算出する式(1)において相対速度スコアSvが減算される。式(3)から分かるように、相対速度スコアSvは、物標が、車両10に向かって高速で接近するほど、高い値となる。
 パラメータβは、正の値であり、本実施形態では例えば、β=0.03[h/km]である。よって、相対速度V=33[km/h]のときに相対速度スコアSvは、Sv=1となる。そして、相対速度Vが33[km/h]を超えると、相対速度スコアSvは、Sv=1で制限される。すなわち、相対速度スコアSvは、Sv=1が上限値として設定されている。なお、パラメータβの数値は、変更できるように構成されてもよい。
 CPU201は、さらに、物標に関する物標データを、センサケーブル600及び車内バス500を介して、統合ECU300に送信する。ここで、車内バス500,510,520は、十分な通信容量を有するため、送信されるデータ量に制限は無いが、センサケーブル600,・・・,650は、通信容量に制限があるため、CPU201は、所定個数(本実施形態では例えば12個、第2上限個数の一例に相当)の物標データしか送信できない。これに対して、CPU201は、物標の優先度スコアPが高い方から順番に所定個数(本実施形態では例えば12個)の物標を選定して、統合ECU300に送信することが考えられる。しかし、その場合、車両10に対して、より近接する分割領域に存在して、より重要と考えられる物標の情報が、統合ECU300に送信されないこともあり得る。
 そこで、本実施形態では、第1分割領域DA1~第11分割領域DA11のうち、運転支援CPU310による運転支援制御の作動状況に応じて、特定分割領域が予め設定されている。特定分割領域(第1分割領域の一例に相当)には、物標設定数(第1上限個数の一例に相当)が予め設定されており、物標設定数までの物標データが、確実に統合ECU300に送信されるように構成されている。
 図4は、メモリ302に予め記憶されている特定分割領域情報20の一例を概略的に示す図である。特定分割領域情報20は、図4に示されるように、運転支援制御の作動状況を表す欄21、特定分割領域を表す欄22、物標設定数を表す欄23を含む。運転支援CPU310による運転支援制御の作動状況として、図4の欄21には、ACCスイッチ160とLASスイッチ170との両方がオフ(つまり運転支援制御が無し)、一方のみがオン、両方がオンの全部で4種類が示されている。なお、本実施形態では、運転支援CPU310は、LDWSスイッチ180がオンのときには、LASスイッチ170のときと同じ制御を行う。
 統合ECU300のCPU301は、メモリ302に記憶されている特定分割領域情報20から、ACCスイッチ160、LASスイッチ170のオンオフ状態に対応する特定分割領域、及び、物標設定数を読み出す。車両10の走行開始時には、CPU301は、ACCスイッチ160とLASスイッチ170との両方がオフ(つまり運転支援制御が無し)に対応する特定分割領域、及び、物標設定数を読み出してもよい。CPU301は、読み出した特定分割領域、及び、物標設定数を表す情報をセンサECU200~250に通知する。センサECU200~250のCPU201~251は、それぞれ、CPU301から通知された情報に基づき、特定分割領域及び物標設定数の設定を行う。
 ACCスイッチ160がオフ、かつLASスイッチ170がオフの場合(つまり運転支援制御が無しの場合)には、車両10に近い領域が重要である。そこで、図4に示されるように、車両10に近接する第1~第3、第9分割領域DA1~DA3,DA9が、特定分割領域に設定されている。そして、第1分割領域DA1の物標設定数は、「4」に設定されている。すなわち、第1分割領域DA1に存在する物標の優先度スコアPが、他の分割領域(第2分割領域の一例に相当)に存在する物標(第2物標の一例に相当)の優先度スコアPより低い値であっても、第1分割領域DA1に物標が4個以下存在する場合には、全ての物標の物標データが統合ECU300に送信される。なお、第1分割領域DA1に物標が5個以上存在する場合には、物標設定数である4個の物標の物標データが統合ECU300に送信される。
 また、第2,3,9分割領域DA2,DA3,DA9の物標設定数は、それぞれ「1」に設定されている。すなわち、第2,3,9分割領域DA2,DA3,DA9に存在する物標の優先度スコアPが、それぞれ、他の分割領域(第2分割領域の一例に相当)に存在する物標(第2物標の一例に相当)の優先度スコアPより低い値であっても、第2,3,9分割領域DA2,DA3,DA9に物標が存在する場合には、それぞれ、少なくとも1個の物標の物標データが統合ECU300に送信される。
 ACCスイッチ160がオン、かつLASスイッチ170がオフの場合(つまり運転支援制御として、追従走行制御が作動し、レーンキープアシストシステムが作動していない場合)には、先行車両に適切に追従することが重要である。そこで、図4に示されるように、追従走行領域である第4~第6分割領域DA4~DA6が特定分割領域に設定され、それぞれの物標設定数が「1」に設定されている。すなわち、第4~第6分割領域DA4~DA6に存在する物標の優先度スコアPが、それぞれ、他の分割領域(第2分割領域の一例に相当)に存在する物標(第2物標の一例に相当)の優先度スコアPより低い値であっても、第4~第6分割領域DA4~DA6に物標が存在する場合には、それぞれ、少なくとも1個の物標の物標データが、統合ECU300に送信される。
 ACCスイッチ160がオフ、かつLASスイッチ170がオンの場合(つまり運転支援制御として、追従走行制御が作動せず、レーンキープアシストシステムが作動している場合)には、走行している車線を適切に維持するために、後方から追い付いてくる車両を検出することが重要である。そこで、図4に示されるように、第9分割領域DA9(後側方領域の一例に相当)が特定分割領域に設定され、その物標設定数が「1」に設定されている。すなわち、第9分割領域DA9に存在する物標の優先度スコアPが、他の分割領域(第2分割領域の一例に相当)に存在する物標(第2物標の一例に相当)の優先度スコアPより低い値であっても、第9分割領域DA9に物標が存在する場合には、少なくとも1個の物標の物標データが、統合ECU300に送信される。
 ACCスイッチ160がオン、かつLASスイッチ170がオンの場合(つまり運転支援制御として、追従走行制御とレーンキープアシストシステムとの両方が作動している場合)には、図4に示されるように、第4~第6、第9分割領域DA4~DA6,DA9が特定分割領域に設定され、それぞれの物標設定数が「1」に設定されている。すなわち、第4~第6、第9分割領域DA4~DA6,DA9に存在する物標の優先度スコアPが、それぞれ、他の分割領域(第2分割領域の一例に相当)に存在する物標(第2物標の一例に相当)の優先度スコアPより低い値であっても、第4~第6、第9分割領域DA4~DA6,DA9に物標が存在する場合には、それぞれ、少なくとも1個の物標の物標データが、統合ECU300に送信される。
 図1に戻って、統合ECU300のCPU301は、センサECU200~250からそれぞれ送信された物標データに基づき、車両10の周辺領域SAに存在する物標を認識する。なお、カメラ100~130、ソナー140、ミリ波レーダ150による物標の検出範囲が互いに重なることがあり得る。例えば、前方カメラ100とミリ波レーダ150とは、両方とも、車両10の前方に存在する物標を検出する。このため、センサECU200とセンサECU250とから、それぞれ、同じ物標の物標データが送信されてくることもあり得る。これに対し、統合ECU300のCPU301は、物標の位置及び相対速度等に基づき、それぞれから送信された物標データを、同じ物標の物標データであると認識する。
 (動作)
 図5は、特定分割領域の設定手順例を概略的に示すフローチャートである。図6~図9は、それぞれ、図5のサブルーチンを概略的に示すフローチャートである。統合ECU300のCPU301は、例えば10msec毎に、図5の動作を実行する。
 図5のステップS100において、CPU301は、ACCスイッチ160がオフ、かつLASスイッチ170がオフ(つまり運転支援制御が無し)であるか否かを判定する。ACCスイッチ160がオフ、かつLASスイッチ170がオフであれば(ステップS100でYES)、処理はステップS105に進む。ACCスイッチ160がオフ、かつLASスイッチ170がオフでなければ(ステップS100でNO)、処理はステップS110に進む。
 ステップS105において、CPU301は、第1設定処理サブルーチン(図6)を実行する。図6のステップS200において、CPU301は、メモリ302に記憶されている特定分割領域情報20から、欄21の「無し」に対応する、欄22の特定分割領域と欄23の物標設定数とを読み出して、第1分割領域DA1の物標設定数を「4」に設定し、第2、第3、第9分割領域DA2,DA3,DA9の物標設定数をそれぞれ「1」に設定する。ステップS200でサブルーチンは終了し、図5に戻って、処理はステップS140に進む。
 ステップS110において、CPU301は、ACCスイッチ160がオン、かつLASスイッチ170がオフであるか否かを判定する。ACCスイッチ160がオン、かつLASスイッチ170がオフであれば(ステップS110でYES)、処理はステップS115に進む。ACCスイッチ160がオン、かつLASスイッチ170がオフでなければ(ステップS110でNO)、処理はステップS120に進む。
 ステップS115において、CPU301は、第2設定処理サブルーチン(図7)を実行する。図7のステップS300において、CPU301は、メモリ302に記憶されている特定分割領域情報20から、欄21の「ACCオンLASオフ」に対応する、欄22の特定分割領域と欄23の物標設定数とを読み出して、第4、第5、第6分割領域DA4,DA5,DA6の物標設定数をそれぞれ「1」に設定する。ステップS300でサブルーチンは終了し、図5に戻って、処理はステップS140に進む。
 ステップS120において、CPU301は、ACCスイッチ160がオフ、かつLASスイッチ170がオンであるか否かを判定する。ACCスイッチ160がオフ、かつLASスイッチ170がオンであれば(ステップS120でYES)、処理はステップS125に進む。ACCスイッチ160がオフ、かつLASスイッチ170がオンでなければ(ステップS120でNO)、処理はステップS130に進む。
 ステップS125において、CPU301は、第3設定処理サブルーチン(図8)を実行する。図8のステップS400において、CPU301は、メモリ302に記憶されている特定分割領域情報20から、欄21の「ACCオフLASオン」に対応する、欄22の特定分割領域と欄23の物標設定数とを読み出して、第9分割領域DA9の物標設定数を「1」に設定する。ステップS400でサブルーチンは終了し、図5に戻って、処理はステップS140に進む。
 ステップS130において、CPU301は、ACCスイッチ160がオン、かつLASスイッチ170がオンであるか否かを判定する。ACCスイッチ160がオン、かつLASスイッチ170がオンであれば(ステップS130でYES)、処理はステップS135に進む。ACCスイッチ160がオン、かつLASスイッチ170がオンでなければ(ステップS130でNO)、処理はステップS145に進む。
 ステップS135において、CPU301は、第4設定処理サブルーチン(図9)を実行する。図9のステップS500において、CPU301は、メモリ302に記憶されている特定分割領域情報20から、欄21の「ACCオンLASオン」に対応する、欄22の特定分割領域と欄23の物標設定数とを読み出して、第4、第5、第6、第9分割領域DA4,DA5,DA6,DA9の物標設定数をそれぞれ「1」に設定する。ステップS500でサブルーチンは終了し、図5に戻って、処理はステップS140に進む。
 ステップS140において、CPU301は、特定分割領域として設定された分割領域の情報と、それらの分割領域に設定された物標設定数の情報とを、各センサECU200~250に送信する。その後、図5の処理は終了する。なお、各センサECU200~250に送信された内容は、各センサECU200~250のCPU201~251によって、それぞれ、メモリ202~252に保存される。
 ステップS145において、CPU301は、所定のエラー処理を実行し、その後、図5の処理は終了する。すなわち、ステップS100,S110,S120,S130の全てがNOということはあり得ないので、ステップS145では、所定のエラー処理が行われる。
 図10は、各センサECUのCPUの動作手順の一例を概略的に示すフローチャートである。センサECU200~230のCPU201~231は、それぞれ、例えば50msec毎に、図10の動作を実行する。センサECU240,250のCPU241,251は、それぞれ、例えば10msec毎に、図10の動作を実行する。センサECU200~250のCPU201~251は、図10の動作の実行周期以外は、同様に機能する。そこで、図10では、センサECU200のCPU201の動作が説明される。
 ステップS600において、CPU201は、前方カメラ100から、物標の検出データを取得する。ステップS605において、CPU201は、取得した検出データを処理して、物標データを生成する。すなわち、CPU201は、検出された各物標にIDをそれぞれ付与し、検出された各物標の位置、相対速度、信頼度をそれぞれ算出して、物標データを生成する。
 ステップS610において、CPU201は、算出された各物標の位置と、メモリ202に保存されている各分割領域の境界値とに基づき、各物標が存在する分割領域を判定する。ステップS615において、CPU201は、式(1)を用いて、各物標の優先度スコアを算出する。ステップS620において、CPU201は、物標設定数が設定された特定分割領域をメモリ202から読み出す。上述のように、運転支援CPU310による運転支援制御の有無及び種類がいずれの場合であっても、第1~第11分割領域DA1~DA11のいずれかの分割領域が、特定分割領域として物標設定数が設定されてメモリ202に保存されている。したがって、CPU201は、ステップS620において、これをメモリ202から読み出す。
 ステップS625において、CPU201は、各特定分割領域に存在する物標を、それぞれ優先度スコアの順に物標設定数まで選定し、選定した物標のIDをメモリ202に一時的に保存する。ステップS630において、CPU201は、メモリ202にIDが保存された選定済みの物標の個数を算出する。ステップS635において、CPU201は、選定済みの物標以外の物標を、優先度スコアの順に、選定済みの個数と合せて所定個数(本実施形態では例えば12個)まで選定する。
 ステップS640において、CPU201は、選定されていない物標があれば(つまり、ステップS600において所定個数を超える物標の検出データを取得していれば)、その物標データを削除する。ステップS645において、CPU201は、選定された物標の物標データを、統合ECU300に送信する。
 図10の動作により、センサECU200~250からセンサケーブル600~650に出力される物標データの個数は、それぞれ、所定個数(本実施形態では例えば12個)以下になる。その結果、データ量がセンサケーブル600~650の通信容量を超えないので、好適にデータ送信を行うことができる。
 図11は、統合ECU300のCPU301の動作手順例を概略的に示すフローチャートである。統合ECU300のCPU301は、本実施形態では例えば、20msec毎に図11の動作を実行する。
 ステップS700において、CPU301は、各センサECUからのデータの受信を開始し、受信した物標データをメモリ302に保存する。ステップS705において、CPU301は、物標データに含まれる各物標の信頼度を確認し、信頼度が予め定められた閾値以下の物標データを削除する。
 ステップS710において、CPU301は、車輪速センサ190から車両10の車輪速情報を取得する。CPU301は、センサECU200~250から取得した各物標の物標データと、車両10の車輪速情報と、に基づき、各物標の衝突時間(TTC)を算出し、衝突時間が最短の物標を最優先物標として選定する。衝突時間(TTC)は、ブレーキアクチュエータ441の作動による制動と、ステアリングアクチュエータ431の作動による操舵とによって、衝突を回避できる限界の時間と定義される。
 ステップS715において、CPU301は、運転支援CPU310、操舵回避CPU430、ブレーキCPU440等に指令信号を出力して、ステアリングアクチュエータ431、ブレーキアクチュエータ441等の車両10の各部を、最優先物標の物標データに応じて作動させて、最優先物標との衝突を回避する。ステップS720において、CPU301は、最優先物標のIDを各センサECU200~250にフィードバックする。
 図12は、統合ECUとセンサECUとにおけるデータ送受信の手順を概略的に示すシーケンス図である。図12において、図10、図11と同じステップには、同じ符号が付されている。
 センサECU200~230では、50msecごとに、検出データを取得し(ステップS600)、データを処理し(ステップS605~S640)、物標データを統合ECU300に送信している(ステップS645)。センサECU240,250では、10msecごとに、検出データを取得し(ステップS600)、データを処理し(ステップS605~S640)、物標データを統合ECU300に送信している(ステップS645)。統合ECU300では、20msecごとに、データを受信して処理を行い(ステップS700~S715)、最優先物標のIDを各センサECU200~250にフィードバックしている(ステップS720)。
 (効果)
 以上説明されたように、本実施形態では、車両10の周辺領域SAを分割した第1分割領域DA1~第11分割領域DA11のうちで特定分割領域を設定し、特定分割領域に物標設定数を設定している。そして、特定分割領域に物標が存在する場合には、物標設定数以下の個数の物標データを統合ECU300に送信する。したがって、本実施形態によれば、特定分割領域に存在する物標の物標データを、統合ECU300に向けて確実に送信することができる。
 また、本実施形態では、センサECU200~250は、それぞれ、所定個数(本実施形態では例えば12個)以下の物標データを統合ECU300に向けて送信している。したがって、本実施形態によれば、センサケーブル600~650において送信されるデータ量を抑制することができる。その結果、センサケーブル600~650の通信容量が小さくて済むため、センサケーブル600~650のコスト上昇を防ぐことができる。
 また、本実施形態では、第1分割領域DA1~第11分割領域DA11のうちで、運転支援CPU310による運転支援制御の作動状況に応じた分割領域が、特定分割領域として設定されている。例えば運転支援制御が無しのときは、第1~第3、第9分割領域DA1~DA3,DA9が特定分割領域に設定されている。例えば追従走行制御が行われ、かつ車線維持支援制御が行われていないときは、第4~第6分割領域DA4~DA6が特定分割領域に設定されている。例えば車線維持支援制御が行われ、かつ追従走行制御が行われていないときは、第9分割領域DA9が特定分割領域に設定されている。例えば追従走行制御が行われ、かつ車線維持支援制御が行われているときは、第4~第6、第9分割領域DA4~DA6,DA9が特定分割領域に設定されている。したがって、本実施形態によれば、追従走行制御、車線維持支援制御などの運転支援制御に必要な物標データを、統合ECU300に向けて確実に送信することができる。
 (変形された実施形態)
 上記実施形態では、特定分割領域情報20(図4)は、統合ECU300のメモリ302に記憶されているが、これに限られず、センサECU200~250のメモリ202~252に、それぞれ記憶されていてもよい。この場合、統合ECU300のCPU301は、ACCスイッチ160、LASスイッチ170のオンオフ状態を表す情報を、センサECU200~250に通知してもよい。センサECU200~250のCPU201~251は、それぞれ、CPU301から通知された情報と、メモリ202~252に記憶されている特定分割領域情報20(図4)とに基づき、特定分割領域及び物標設定数の設定を行ってもよい。
 なお、上述した具体的実施形態には、以下の構成を有する発明が主に含まれている。
 ここに開示された技術の一態様は、
 車両に設けられた物標検出装置であって、
 前記車両の周辺領域に存在する物標を検出する検出部と、
 前記検出部により検出された前記物標のうち予め定められた基準で選定した前記物標に関する物標データを出力する検出制御部と、
 前記検出制御部から出力された前記物標データに基づき、前記車両を制御する中央制御部と、
 前記周辺領域を予め分割して生成された複数の分割領域を表す分割領域情報を記憶する記憶部と、
 運転者による前記車両の運転を支援する制御を行う運転支援制御部と、
を備え、
 前記検出制御部は、前記運転支援制御部の作動状況に応じて設定された、前記複数の分割領域のうちの1以上の第1分割領域で検出された第1物標を、前記第1分割領域以外の第2分割領域で検出された第2物標より優先して選定するものである。
 この態様によれば、運転支援制御部の作動状況に応じて車両の制御に必要な物標が存在する分割領域が第1分割領域に設定されると、中央制御部は、車両の制御に必要な物標データを優先して得ることができる。また、第2物標は、第1物標に比べて優先して選定されないだけであり、第2物標が選定されることはあり得る。このため、中央制御部が、第物標に関する物標データを得られないという事態を抑制することができる。
 上記態様において、例えば、前記中央制御部が、前記運転支援制御部の作動状況に応じて、前記複数の分割領域のうち1以上の分割領域を第1分割領域として設定してもよい。上記態様において、例えば、前記検出制御部が、前記運転支援制御部の作動状況に応じて、前記複数の分割領域のうち1以上の分割領域を第1分割領域として設定してもよい。
 上記態様において、例えば、前記1以上の第1分割領域には、それぞれ第1上限個数が設定されてもよく、前記第1上限個数の合計数より多い第2上限個数が設定されてもよく、前記検出制御部は、前記1以上の第1分割領域のそれぞれにおいて、前記第1物標の個数が、前記第1上限個数を超えていれば前記第1上限個数の前記第1物標を選定し、前記第1上限個数以下であれば全ての前記第1物標を選定する第1処理と、前記第2物標及び前記第1処理で選定済みの第1物標以外の未選定第1物標の少なくとも一方が存在すれば、前記第1処理で選定済みの前記第1物標に加えて、さらに前記第2物標及び前記未選定第1物標のなかから、前記第2上限個数を上限として、前記物標を選定する第2処理と、を実行してもよい。
 この態様によれば、第2上限個数を上限として物標が選定されるので、検出制御部から出力される物標データの量が過大になるのを避けることができる。また、第1分割領域で検出された第1物標は、第1上限個数以下の個数が必ず選定されるため、中央制御部は、第1上限個数以下の第1物標に関する物標データを確実に得ることができる。また、第1処理で選定済みの第1物標に加えて、さらに第2物標及び未選定第1物標のなかから、第2上限個数を上限として物標が選定されるため、中央制御部が、第2物標に関する物標データを得られないという事態を可能な限り抑制することができる。
 上記態様において、例えば、前記中央制御部が、前記1以上の第1分割領域のそれぞれに対して、第1上限個数を設定してもよい。上記態様において、例えば、前記検出制御部が、前記1以上の第1分割領域のそれぞれに対して、第1上限個数を設定してもよい。
 上記態様において、例えば、前記記憶部は、前記分割領域情報として、前記周辺領域のうち前記車両の前方に近接して生成された分割領域である衝突回避領域を表す情報と、前記衝突回避領域の前方に生成された分割領域である追従走行領域を表す情報と、を記憶してもよく、前記運転支援制御部は、前記車両に先行して走行する先行車両に追従して前記車両を走行させる追従走行制御を行うことが可能に構成されてもよく、前記運転支援制御部が前記追従走行制御を行っていないときは、前記衝突回避領域が前記第1分割領域として設定されてもよい。
 この態様によれば、中央制御部は、追従走行制御が行われていないときは、車両の前方に近接して生成された衝突回避領域に存在する物標に関する物標データを、優先して得ることができる。したがって、車両に近接する物標を考慮して、車両の制御を行うことが可能になる。
 上記態様において、例えば、前記運転支援制御部が前記追従走行制御を行っていないときは、前記中央制御部が、前記衝突回避領域を前記第1分割領域として設定してもよい。上記態様において、例えば、前記運転支援制御部が前記追従走行制御を行っていないときは、前記検出制御部が、前記衝突回避領域を前記第1分割領域として設定してもよい。
 上記態様において、例えば、前記運転支援制御部が前記追従走行制御を行っているときは、前記追従走行領域が前記第1分割領域として設定されてもよい。
 この態様によれば、中央制御部は、追従走行制御が行われているときは、衝突回避領域の前方に生成された追従走行領域に存在する物標に関する物標データを、優先して得ることができる。したがって、追従走行領域に存在する先行車両に追従する追従走行制御を、適切に行うことが可能になる。
 上記態様において、例えば、前記運転支援制御部が前記追従走行制御を行っているときは、前記中央制御部が、前記追従走行領域を前記第1分割領域として設定してもよい。上記態様において、例えば、前記運転支援制御部が前記追従走行制御を行っているときは、前記検出制御部が、前記追従走行領域を前記第1分割領域として設定してもよい。
 上記態様において、例えば、前記記憶部は、前記分割領域情報として、前記車両の後側方に生成された分割領域である後側方領域を表す情報を記憶してもよく、前記運転支援制御部は、前記車両が走行する車線を維持させる車線維持支援制御を行うことが可能に構成されてもよく、前記運転支援制御部が前記車線維持支援制御を行っているときは、前記後側方領域が前記第1分割領域として設定されてもよい。
 この態様によれば、中央制御部は、車両の後側方に生成された後側方領域に存在する物標に関する物標データを、優先して得ることができる。したがって、車両の後方から追い付いてくる後続車両を考慮して、車線維持支援制御を適切に行うことが可能になる。
 上記態様において、例えば、前記運転支援制御部が前記車線維持支援制御を行っているときは、前記中央制御部が、前記後側方領域を前記第1分割領域として設定してもよい。上記態様において、例えば、前記運転支援制御部が前記車線維持支援制御を行っているときは、前記検出制御部が、前記後側方領域を前記第1分割領域として設定してもよい。
 

Claims (5)

  1.  車両に設けられた物標検出装置であって、
     前記車両の周辺領域に存在する物標を検出する検出部と、
     前記検出部により検出された前記物標のうち予め定められた基準で選定した前記物標に関する物標データを出力する検出制御部と、
     前記検出制御部から出力された前記物標データに基づき、前記車両を制御する中央制御部と、
     前記周辺領域を予め分割して生成された複数の分割領域を表す分割領域情報を記憶する記憶部と、
     運転者による前記車両の運転を支援する制御を行う運転支援制御部と、
    を備え、
     前記検出制御部は、前記運転支援制御部の作動状況に応じて設定された、前記複数の分割領域のうちの1以上の第1分割領域で検出された第1物標を、前記第1分割領域以外の第2分割領域で検出された第2物標より優先して選定する、
     車両の物標検出装置。
  2.  前記1以上の第1分割領域には、それぞれ第1上限個数が設定され、
     前記第1上限個数の合計数より多い第2上限個数が設定され、
     前記検出制御部は、
     前記1以上の第1分割領域のそれぞれにおいて、前記第1物標の個数が、前記第1上限個数を超えていれば前記第1上限個数の前記第1物標を選定し、前記第1上限個数以下であれば全ての前記第1物標を選定する第1処理と、
     前記第2物標及び前記第1処理で選定済みの第1物標以外の未選定第1物標の少なくとも一方が存在すれば、前記第1処理で選定済みの前記第1物標に加えて、さらに前記第2物標及び前記未選定第1物標のなかから、前記第2上限個数を上限として、前記物標を選定する第2処理と、を実行する、
     請求項1に記載の車両の物標検出装置。
  3.  前記記憶部は、前記分割領域情報として、前記周辺領域のうち前記車両の前方に近接して生成された分割領域である衝突回避領域を表す情報と、前記衝突回避領域の前方に生成された分割領域である追従走行領域を表す情報と、を記憶し、
     前記運転支援制御部は、前記車両に先行して走行する先行車両に追従して前記車両を走行させる追従走行制御を行うことが可能に構成され、
     前記運転支援制御部が前記追従走行制御を行っていないときは、前記衝突回避領域が前記第1分割領域として設定される、
     請求項1又は2に記載の車両の物標検出装置。
  4.  前記運転支援制御部が前記追従走行制御を行っているときは、前記追従走行領域が前記第1分割領域として設定される、
     請求項3に記載の車両の物標検出装置。
  5.  前記記憶部は、前記分割領域情報として、前記車両の後側方に生成された分割領域である後側方領域を表す情報を記憶し、
     前記運転支援制御部は、前記車両が走行する車線を維持させる車線維持支援制御を行うことが可能に構成され、
     前記運転支援制御部が前記車線維持支援制御を行っているときは、前記後側方領域が前記第1分割領域として設定される、
     請求項1~4のいずれか1項に記載の車両の物標検出装置。
     
PCT/JP2018/042421 2017-11-22 2018-11-16 車両の物標検出装置 WO2019102938A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880075343.0A CN111373460B (zh) 2017-11-22 2018-11-16 车辆的物标检测装置
EP18880262.3A EP3709279A4 (en) 2017-11-22 2018-11-16 AIMING DEVICE FOR A VEHICLE
US16/764,497 US20200353919A1 (en) 2017-11-22 2018-11-16 Target detection device for vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017224670A JP6642556B2 (ja) 2017-11-22 2017-11-22 車両の物標検出装置
JP2017-224670 2017-11-22

Publications (1)

Publication Number Publication Date
WO2019102938A1 true WO2019102938A1 (ja) 2019-05-31

Family

ID=66630935

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/042421 WO2019102938A1 (ja) 2017-11-22 2018-11-16 車両の物標検出装置

Country Status (5)

Country Link
US (1) US20200353919A1 (ja)
EP (1) EP3709279A4 (ja)
JP (1) JP6642556B2 (ja)
CN (1) CN111373460B (ja)
WO (1) WO2019102938A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7238707B2 (ja) * 2019-09-09 2023-03-14 トヨタ自動車株式会社 車両運転支援装置
JP2021099331A (ja) * 2019-12-20 2021-07-01 株式会社デンソー レーダ装置
JP7318600B2 (ja) * 2020-07-06 2023-08-01 トヨタ自動車株式会社 車両及び他車両の認識方法
EP4140842A1 (en) * 2021-08-26 2023-03-01 Aptiv Technologies Limited Methods and systems for controlling a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05203737A (ja) * 1992-01-29 1993-08-10 Mazda Motor Corp 車両の障害物検出装置
JP2002362396A (ja) * 2001-06-06 2002-12-18 Nissan Motor Co Ltd 車線追従走行制御装置
JP2008040603A (ja) * 2006-08-02 2008-02-21 Honda Motor Co Ltd 車両用物体検知装置
JP2009058316A (ja) 2007-08-31 2009-03-19 Fujitsu Ten Ltd レーダ装置、物体検出方法、及び車両

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2689792B2 (ja) * 1991-10-30 1997-12-10 日産自動車株式会社 立体音場警報装置
JP3521892B2 (ja) * 2001-08-14 2004-04-26 株式会社デンソー 障害物検知装置
EP1417512B1 (en) * 2001-08-16 2019-01-23 Valeo Radar Systems, Inc. Near object detection system
JP4628683B2 (ja) * 2004-02-13 2011-02-09 富士重工業株式会社 歩行者検出装置、及び、その歩行者検出装置を備えた車両用運転支援装置
CN100465041C (zh) * 2004-08-20 2009-03-04 爱信精机株式会社 用于车辆的驾驶辅助装置和方法
JP4554551B2 (ja) * 2006-04-28 2010-09-29 本田技研工業株式会社 車両用走行制御装置
JP5203737B2 (ja) * 2008-02-07 2013-06-05 株式会社日本自動車部品総合研究所 車両駆動装置
JP5210233B2 (ja) * 2009-04-14 2013-06-12 日立オートモティブシステムズ株式会社 車両用外界認識装置及びそれを用いた車両システム
CN102449672B (zh) * 2009-06-02 2013-05-01 丰田自动车株式会社 车辆用周边监视装置
JP5462609B2 (ja) * 2009-12-09 2014-04-02 富士重工業株式会社 停止線認識装置
KR20130065005A (ko) * 2011-12-09 2013-06-19 주식회사 만도 레이더 장치 및 안테나 장치
JP5926069B2 (ja) * 2012-02-20 2016-05-25 トヨタ自動車株式会社 障害物判定装置
GB2500581B (en) * 2012-03-23 2014-08-20 Jaguar Land Rover Ltd Method and system for controlling the output of information to a driver based on an estimated driver workload
DE102015226443A1 (de) * 2015-12-22 2017-06-22 Robert Bosch Gmbh Radarsensor, entsprechendes Betriebsverfahren und Fahrzeug
JP6332383B2 (ja) * 2016-09-29 2018-05-30 マツダ株式会社 車両用物標検出システム
CN110036308B (zh) * 2016-12-06 2023-04-18 本田技研工业株式会社 车辆周边信息获取装置以及车辆
JP6853746B2 (ja) * 2017-07-25 2021-03-31 日立Astemo株式会社 車両制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05203737A (ja) * 1992-01-29 1993-08-10 Mazda Motor Corp 車両の障害物検出装置
JP2002362396A (ja) * 2001-06-06 2002-12-18 Nissan Motor Co Ltd 車線追従走行制御装置
JP2008040603A (ja) * 2006-08-02 2008-02-21 Honda Motor Co Ltd 車両用物体検知装置
JP2009058316A (ja) 2007-08-31 2009-03-19 Fujitsu Ten Ltd レーダ装置、物体検出方法、及び車両

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3709279A4

Also Published As

Publication number Publication date
EP3709279A4 (en) 2020-12-16
CN111373460B (zh) 2022-06-28
JP6642556B2 (ja) 2020-02-05
US20200353919A1 (en) 2020-11-12
JP2019096038A (ja) 2019-06-20
EP3709279A1 (en) 2020-09-16
CN111373460A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
KR102572784B1 (ko) 운전자 보조 시스템 및 그 제어방법
JP4615038B2 (ja) 画像処理装置
JP5345350B2 (ja) 車両の運転支援装置
WO2019102938A1 (ja) 車両の物標検出装置
EP2302412B1 (en) System and method for evaluation of an automotive vehicle forward collision threat
WO2016159288A1 (ja) 物標存在判定方法及び装置
CN107004368B (zh) 车辆的行驶控制装置以及行驶控制方法
CN113060141A (zh) 高级驾驶员辅助系统、具有其的车辆及控制车辆的方法
US11938924B2 (en) Driving assistance control apparatus for vehicle, driving assistance control system for vehicle, and driving assistance control method for vehicle
US10906542B2 (en) Vehicle detection system which classifies valid or invalid vehicles
JP6384534B2 (ja) 車両用物標検出システム
CN107408346B (zh) 车辆控制装置以及车辆控制方法
KR102352464B1 (ko) 운전자 보조 시스템 및 그 제어 방법
JP2019093764A (ja) 車両制御装置
JP2008037361A (ja) 障害物認識装置
CN112447057B (zh) 停止线位置推定装置及车辆控制系统
JP2008149860A (ja) 走行制御装置
KR20200139443A (ko) 운전자 보조 시스템 및 그 제어 방법
CN111907519A (zh) 车辆及其控制方法
JP6662351B2 (ja) 車両制御装置
JP6720954B2 (ja) 車両の物標検出装置
US20180158336A1 (en) Method and device for operating a vehicle
JP4294450B2 (ja) 車両用運転支援装置
JP2018138405A (ja) 車両運転支援システム及び方法
US20220242485A1 (en) Driver assistance system and control method for the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18880262

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018880262

Country of ref document: EP

Effective date: 20200609