WO2021070881A1 - 制御装置 - Google Patents

制御装置 Download PDF

Info

Publication number
WO2021070881A1
WO2021070881A1 PCT/JP2020/038048 JP2020038048W WO2021070881A1 WO 2021070881 A1 WO2021070881 A1 WO 2021070881A1 JP 2020038048 W JP2020038048 W JP 2020038048W WO 2021070881 A1 WO2021070881 A1 WO 2021070881A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving object
vehicle
stationary
stationary object
moving
Prior art date
Application number
PCT/JP2020/038048
Other languages
English (en)
French (fr)
Inventor
小林 敦
嘉紀 早川
真澄 福万
明宏 貴田
邦泰 杉原
Original Assignee
株式会社デンソー
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー, トヨタ自動車株式会社 filed Critical 株式会社デンソー
Priority to CN202080070449.9A priority Critical patent/CN114502433B/zh
Publication of WO2021070881A1 publication Critical patent/WO2021070881A1/ja
Priority to US17/658,224 priority patent/US20220227362A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • G01S15/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S15/36Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S15/586Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R2021/01204Actuation parameters of safety arrangents
    • B60R2021/01252Devices other than bags
    • B60R2021/01265Seat belts
    • B60R2021/01272Belt tensioners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Definitions

  • This disclosure relates to a control device.
  • Patent Document 1 a device that detects an object around the own vehicle and predicts a collision between the detected object and the own vehicle is known (for example, Patent Document 1).
  • This device detects objects around the own vehicle based on ultrasonic waves transmitted and received from a radar sensor attached to the front end of the own vehicle.
  • the radar sensor it is also possible to detect objects around the own vehicle based on the image captured by the image pickup device mounted on the own vehicle.
  • a moving object around the own vehicle is detected based on the image captured by the image pickup device, and a stationary object around the own vehicle is detected based on the measurement result of the radar sensor. Can be considered.
  • the moving object depending on the positional relationship between the moving object and the stationary object, the moving object cannot be detected properly, and eventually the safety device such as the brake device implemented for the moving object cannot be operated correctly.
  • the other object is a moving object. It is conceivable that it is erroneously detected whether it is a stationary object or a stationary object. Further, when a moving object exists behind the wall body as a stationary object, it may be detected as a moving object to be controlled even though it is not necessary to set it as a controlled object.
  • the present disclosure has been made in view of the above circumstances, and an object thereof is to provide a control device capable of properly determining a moving object and operating a safety device correctly.
  • Means for solving the above problems are an imaging device that images the surroundings of the own vehicle, a distance measuring device that measures the distance to an object around the own vehicle, and safety that avoids collision between the own vehicle and the object or reduces collision damage. It is applied to a vehicle equipped with the device, and based on the detection information of a moving object around the own vehicle by the image captured by the imaging device, the first operation process for operating the safety device is performed on the moving object.
  • a control device that performs a second operation process for operating the safety device for the stationary object based on the detection information of the stationary object around the own vehicle based on the measurement result of the distance measuring device.
  • a moving object determination unit that determines that a moving object exists in the vicinity of the own vehicle based on the detection information of the vehicle, and a stationary object exists in the vicinity of the own vehicle based on the detection information of the stationary object.
  • a stationary object determination unit that determines that the vehicle is present, a stationary object vicinity region that includes the stationary object determined by the stationary object determination unit and its surroundings, and an inner region that is the inner side of the stationary object with reference to the own vehicle.
  • moving objects around the own vehicle are detected based on the image captured by the image pickup device, and stationary around the own vehicle based on the measurement result of the distance measuring device. It is possible that an object will be detected. In this case, depending on the positional relationship between the moving object and the stationary object, the moving object cannot be detected properly, and the first operation process performed on the moving object cannot be correctly performed.
  • At least one of the area near the stationary object including the stationary object and its surroundings determined based on the detection information of the stationary object, and the inner region that is the inner side of the stationary object with respect to the own vehicle. is set as the mask area. Then, when the moving object determined based on the detection information of the moving object exists in the mask area, the execution of the first operation process for the moving object is restricted. As a result, even if another stationary object existing in the vicinity of the wall body as a stationary object is erroneously determined as a moving object, the safety device is unnecessarily operated by the first operation process due to the erroneous determination of the moving object. Such inconvenience can be suppressed.
  • the inconvenience that the safety device is unnecessarily operated by the first operation process can be suppressed.
  • the moving object can be properly determined, and the safety device based on the moving object determination result can be operated correctly.
  • FIG. 1 is an overall configuration diagram of the driving support device.
  • FIG. 2 is a flowchart showing the procedure of collision avoidance processing.
  • FIG. 3 is a diagram showing an example of a region near a stationary object and a region on the back side.
  • FIG. 4 is a diagram showing a determination area defined in front of the own vehicle.
  • FIG. 5 is a diagram showing time-series position data of the object to be detected.
  • FIG. 6 is a graph showing the relationship between the reflected intensity of the reflected wave in the sonar device and the size of the mask region.
  • the driving support device 100 includes a camera 11, a sonar device 12, an image processing ECU 21, a vehicle ECU 22, and a safety device 30.
  • the camera 11 is, for example, a monocular camera.
  • the cameras 11 are attached to the front end, the rear end, and both side surfaces of the own vehicle, respectively, and take an image of the periphery of the own vehicle.
  • the camera 11 transmits the image information of the captured image to the image processing ECU 21.
  • the camera 11 corresponds to the "imaging device".
  • the sonar device 12 is, for example, an ultrasonic sensor that uses ultrasonic waves as a transmission wave, or a radar device that uses a high-frequency signal in the millimeter wave band as a transmission wave.
  • the sonar device 12 is mounted on the front end, the rear end, and both side surfaces of the own vehicle, and measures the distance to an object around the own vehicle.
  • the exploration wave is transmitted at a predetermined cycle, and the reflected wave is received by a plurality of antennas.
  • a plurality of detection points on an object are detected based on the transmission time of the exploration wave and the reception time of the reflected wave, thereby measuring the distance to the object.
  • the orientation of the object is calculated from the phase difference of the reflected waves received by the plurality of antennas. If the distance to the object and the direction of the object can be calculated, the position information of the object with respect to the own vehicle can be specified.
  • the sonar device 12 calculates the moving speed of the object from the frequency changed by the Doppler effect of the reflected wave reflected by the object. As a result, it is detected that the object existing around the own vehicle is a stationary object. Specifically, when the sum of the moving speed of the object and the vehicle speed of the own vehicle becomes zero, the object is detected as a stationary object.
  • the sonar device 12 transmits the detection information of a stationary object around the own vehicle to the vehicle ECU 22.
  • the stationary object detection information includes information on the position of the stationary object with respect to the own vehicle.
  • the sonar device 12 corresponds to the “distance measuring device”.
  • ECUs 21 and 22 are control devices equipped with a well-known microcomputer including a CPU, ROM, RAM, flash memory and the like.
  • the ECUs 21 and 22 acquire various signals and perform various controls based on the acquired information.
  • the image processing ECU 21 detects a moving object around the own vehicle based on the image captured by the camera 11. Specifically, the image processing ECU 21 calculates the moving speed for each object captured in the image captured by the camera 11. The image processing ECU 21 calculates the optical flow of the object based on the image information transmitted from the camera 11 at predetermined intervals, and calculates the moving speed of the object based on the calculated optical flow.
  • the optical flow is a method in which a plurality of boundary points as points for constructing a boundary line whose brightness has changed in an image are detected, and the plurality of detected boundary points are represented as motion vectors. As a result, moving objects existing around the own vehicle are detected.
  • the image processing ECU 21 transmits the detection information of the moving object to the vehicle ECU 22.
  • the detection information includes information on the position of the detected moving object with respect to the own vehicle.
  • the vehicle ECU 22 operates the safety device 30 based on the detection information of moving objects around the own vehicle transmitted from the image processing ECU 21.
  • the safety device 30 is a device for avoiding a collision between the own vehicle and an object or reducing collision damage, and includes a brake device 31, a seatbelt device 32, and an alarm device 33.
  • the vehicle ECU 22 corresponds to the “control device”.
  • the brake device 31 decelerates the own vehicle based on the collision avoidance signal output from the vehicle ECU 22.
  • the seatbelt device 32 winds up the seatbelt and tensions the seatbelt based on the collision avoidance signal output from the vehicle ECU 22.
  • the alarm device 33 is a device that notifies the driver or the like of the possibility of collision based on the collision avoidance signal output from the vehicle ECU 22, and is, for example, aurally such as a speaker or a buzzer installed in the vehicle interior of the own vehicle. There are devices for notifying, displays, and other devices for visually notifying.
  • the yaw rate sensor 13, the steering angle sensor 14, and the vehicle speed sensor 15 are connected to the vehicle ECU 22.
  • the yaw rate sensor 13 is provided, for example, at the center position of the own vehicle, and outputs a yaw rate signal according to the change speed of the steering amount of the own vehicle to the vehicle ECU 22.
  • the steering angle sensor 14 is attached to, for example, the steering rod of the vehicle, and outputs a steering angle signal to the vehicle ECU 22 according to a change in the steering angle of the steering wheel due to the operation of the driver.
  • the vehicle speed sensor 15 is attached to, for example, the wheel portion of the own vehicle, detects the rotation direction of the wheels, and outputs a vehicle speed signal according to the wheel speed to the vehicle ECU 22.
  • a moving object around the own vehicle is detected based on the image captured by the camera 11, and a stationary object around the own vehicle is detected based on the measurement result of the sonar device 12.
  • the vehicle ECU 22 performs a first operation process for a moving object and a second operation process for a stationary object as a process of operating the safety device 30, that is, a collision avoidance process.
  • the first operation process the vehicle ECU 22 avoids a collision with a moving object or damages at the time of a collision with the moving object by considering the moving course and the moving speed of the moving object in addition to the position of the moving object from the own vehicle.
  • the safety device 30 is operated to reduce the problem.
  • the vehicle ECU 22 operates the safety device 30 based on the distance from the own vehicle to the stationary object in order to avoid a collision with the stationary object or reduce the damage at the time of the collision with the stationary object. ..
  • the moving object cannot be detected properly depending on the positional relationship between the moving object and the stationary object, and the first is implemented for the moving object.
  • the operation process cannot be performed correctly.
  • the other object is a moving object. It is conceivable that it is erroneously detected whether it is a stationary object or a stationary object.
  • a moving object exists behind the wall body as a stationary object, it may be detected as a moving object to be controlled even though it is not necessary to set it as a controlled object.
  • a moving object exists in the vicinity of the own vehicle based on the detection information of the moving object, and a stationary object is generated in the vicinity of the own vehicle based on the detection information of the stationary object. Determine that it exists. Then, at least one of the stationary object vicinity region A1 including the stationary object and its surroundings and the back side region A2 which is the back side of the stationary object with the own vehicle as a reference is set as a mask region, and the moving object is masked.
  • the implementation of the first operation process for the moving object is restricted.
  • the object is detected. It may not be possible to correctly grasp whether or not an object is a moving object. Therefore, in the image processing ECU 21, regarding the object existing around the own vehicle, the definite information that the object around the own vehicle is a moving object and the uncertain information that it is uncertain whether or not the object is a moving object. Is determined, and the information is transmitted to the vehicle ECU 22.
  • definite information and uncertain information are information indicating the existence of a moving object
  • the definite information is high-probability information indicating that a moving object is present with a high probability
  • the uncertain information is higher than the high-probability information.
  • It is low-probability information indicating that a moving object exists with a low probability.
  • the operating area for operating the safety device 30 is changed according to whether the detection information of the moving object is definite information or uncertain information, and is uncertain. If it is information, the operating area is narrowed as compared with the case where it is definite information.
  • FIG. 2 is a flowchart showing a processing procedure of collision avoidance processing executed based on a moving object existing around the own vehicle, and this processing is repeatedly executed by the vehicle ECU 22 at a predetermined cycle.
  • step S11 detection information of a moving object and a stationary object is acquired.
  • the image processing ECU 21 acquires information on the positions and moving paths of moving objects such as other vehicles, bicycles, and pedestrians existing around the own vehicle as detection information for moving objects.
  • the position information of the stationary object detected by the sonar device 12 is acquired.
  • step S12 it is determined whether or not the moving object detection information includes information indicating that the moving object exists. More specifically, it is determined whether or not the detection information of the moving object transmitted from the image processing ECU 21 is definite information or uncertain information. Then, if the detection information of the moving object is definite information or uncertain information, it is assumed that the moving object exists. If step S12 is denied, the collision avoidance process ends. If step S12 is affirmed, the process proceeds to subsequent step S13. In step S13, it is determined whether or not the detection information of the moving object is uncertain information among the definite information and the uncertain information. In this embodiment, the process of step S12 corresponds to the "moving object determination unit".
  • step S22 a collision avoidance process (first operation process) for a moving object is performed.
  • the vehicle ECU 22 operates the safety device 30 based on the position of the moving object included in the detection information of the moving object. Implement collision avoidance control.
  • step S14 determines whether or not there is a stationary object around the own vehicle. At this time, the presence or absence of a stationary object is determined using the stationary object detection information obtained based on the measurement result of the sonar device 12. Specifically, it is determined whether or not the detection information of the stationary object includes information indicating the existence of the stationary object. In this embodiment, the process of step S14 corresponds to the "resting object determination unit".
  • step S15 the stationary object in the vicinity of the stationary object A1 including the stationary object and its surroundings and the stationary object with the own vehicle as a reference.
  • the back side area A2 which is the back side of the above, is set as the mask area.
  • the process of step S15 corresponds to the “mask area setting unit”.
  • the area near the stationary object A1 and the area A2 on the back side should be set as follows.
  • the stationary object neighborhood region A1 is centered on the detection point P on the stationary object by the sonar device 12 in the width direction (x direction) and the front-rear direction (y direction) of the own vehicle CA. It is set as a rectangular area within a range of a predetermined length.
  • the x-direction length D1 and the y-direction length D2 of the stationary object vicinity region A1 are 0.5 m.
  • D1 D2
  • D1> D2 or D1 ⁇ D2 may be used.
  • the detection point P does not have to be in the center of the stationary object vicinity region A1, and the detection point P may be biased to a position closer to the own vehicle in the stationary object vicinity region A1. That is, in the stationary object vicinity region A1, the area width is different between the front side and the back side of the detection point P when viewed from the own vehicle CA, and the area width is wider on the back side of the detection point P than on the front side. Good.
  • the detection information of the stationary object includes a plurality of detection points P on the outer surface of the stationary object, the area near the stationary object A1 is individually set for each detection point P, and all of the areas A1 are set.
  • the composite area including is defined as the mask area.
  • the area near the stationary object A1 may be a circular area having a predetermined radius centered on the detection point P.
  • the back side region A2 has a predetermined angle ⁇ (or a predetermined width) to the left and right with reference to a straight line connecting the sonar device 12 provided at the front end of the own vehicle and the detection point P. ), And is set as a range corresponding to a predetermined length on the back side (far side) of the detection point P with respect to the own vehicle CA. If multiple detection points P are included as the detection information of the stationary object, the back side region A2 is individually set for each detection point P, and the composite region including all of the respective regions A2 is the mask region. Will be done.
  • step S15 both the stationary object near area A1 and the back side area A2 are used as the mask area, but instead, one of the resting object near area A1 and the back side area A2 can be used as the mask area. is there.
  • step S16 it is determined based on the uncertain information whether or not the object to be detected (hereinafter, also referred to as the object to be detected X) is in the mask area. Then, when the object X to be detected is in the mask area and step S16 is affirmed, the process proceeds to step S17.
  • step S17 the object X to be detected is regarded as a stationary object, and in subsequent step S18, a collision avoidance process (second operation process) for the stationary object is performed, and the collision avoidance process is completed.
  • the vehicle ECU 22 regards the position of the object X included in the detection information of the moving object as the position of the stationary object, and implements the collision avoidance control for operating the safety device 30 based on the position of the stationary object.
  • step S18 the execution of the first operation process for the moving object is restricted based on the determination result that the detection target object X exists in the mask area in the mask area. There is. In this embodiment, the process of step S18 corresponds to the "operation limiting unit".
  • step S21 a collision avoidance process for a moving object is performed.
  • the operation area for operating the safety device 30 is set as a narrower area than the normal time.
  • step S22 the collision avoidance process (first operation process) for the moving object is performed, and the collision avoidance process is completed.
  • FIG. 4 shows an operating area A10 defined in front of the own vehicle CA when the own vehicle CA travels forward.
  • the operating area A10 is an area for operating the safety device 30 with the moving object as a collision avoidance target when the first operation process for the moving object is performed, and the width is in front of the traveling direction of the own vehicle CA. It is defined as a region having a predetermined width in the direction (x direction).
  • the operating region A10 is defined as an region having a predetermined margin on the left and right with respect to the width dimension of the own vehicle CA, and the width dimension is D11.
  • the vehicle ECU 22 performs the first operation process on the moving object on condition that the moving object exists in the operating region A10. For example, when step S13 is denied and the process proceeds to step S22, that is, when the detection information of the moving object is definite information, based on the presence or absence of the moving object in the operating region A10 having the width dimension D11.
  • the first operation process is carried out.
  • step S21 the detection information of the moving object is uncertain information, and the width dimension of the operating region A10 is changed from D11 to D12 (D12 ⁇ D11). That is, when the detection information of the moving object is uncertain information, the operating region A10 is changed to a narrower region than when it is the definite information. Then, when the process proceeds from step S21 to step S22, in step S22, the first operation process is performed based on the presence or absence of a moving object in the operation area A10 whose width dimension is D12.
  • step S14 If there is no stationary object around the own vehicle in step S14 and a negative determination is made, the process proceeds to step S19.
  • the vehicle ECU 22 recognizes that the detection information of the moving object is uncertain information and that there is no stationary object around the object detected as the uncertain information, and steps S19 and S20. Then, re-determination of whether or not it is a moving object is carried out.
  • step S19 the position history of the object X to be detected (the object to be detected by uncertain information) is acquired, and in the following step S20, the object X is based on the position history of the object X. , Determine whether it is a moving object that actually involves movement.
  • step S19 the position information for each predetermined time obtained from the measurement result of the sonar device 12, for example, is acquired for the object X to be detected.
  • step S20 a plurality of position information in a predetermined period from the present time to the previous time, or several position information from the present time to the past are used.
  • the detection target object X is a moving object on condition that the movement amount of the detection target object X is equal to or more than a predetermined value and the position change direction of each cycle calculated from the position history is stable. To judge.
  • the time-series position data T1 to T5 acquired at predetermined time intervals for the object X to be detected are used, and the amount of movement of the object (for example, movement of T5-T1) in a predetermined period is used.
  • the amount) and the position change direction in each position data are calculated, and the moving body is re-determined based on them.
  • step S20 If it is determined in step S20 that it is a moving object, the process proceeds to step S21. Then, in steps S21 and S22, as described above, the collision avoidance process (first operation process) for the moving object is performed.
  • step S21 the operating area for operating the safety device 30 is set as a narrower area than in the normal state, and then in step S22, a collision avoidance process (first operation process) for a moving object is performed. To carry out.
  • step S20 If it is not determined to be a moving object in step S20, this process is terminated as it is. In this case, since it remains uncertain whether the object X to be detected is actually a moving object, the execution of the first operation process for the object X is stopped.
  • the moving object when a moving object detected based on an image captured by the imaging device exists in the mask region, the moving object is regarded as a stationary object instead of the first operation process for the moving object. After considering it, the second operation process for the stationary object is carried out. As a result, the safety device 30 can be properly operated on the object detected around the own vehicle.
  • the existence of the object is detected except when it is known that the object around the own vehicle is a moving object, but that object. It may not be possible to correctly grasp whether or not is a moving object. Therefore, as information indicating the existence of a moving object, definite information that the object around the own vehicle is a moving object and uncertain information that it is uncertain whether or not the object is a moving object are defined. Sometimes.
  • the uncertain information as the detection information of the moving object is the information that the existence of the moving object cannot be correctly detected only by the image captured by the imaging device, but according to the present embodiment, even in such a detection state, By limiting the execution of the first operation process, it is possible to correctly determine the presence or absence of a moving object while taking into account the stationary object information.
  • the detection information of the stationary object may include a plurality of detection points on the outer surface of the stationary object.
  • a mask area is individually set for each detection point. That is, the mask area can be set according to the size of the stationary object. Therefore, it is possible to properly determine the moving object while appropriately reflecting the relationship with the stationary object.
  • the camera 11 is not limited to a monocular camera, and may be, for example, a stereo camera.
  • the size of the mask area to be set may be set variably.
  • the reflected intensity of the reflected wave from the stationary object is increased according to the form such as the size of the stationary object. It is possible that they are different. Therefore, the size of the mask region may be set based on the reflection intensity of the reflected wave.
  • the stationary object vicinity region A1 and the back side region A2 are variably set by using the relationship of FIG. In FIG.
  • the relationship between the reflected intensity of the reflected wave and the size of the mask region is defined, and the relationship that the larger the reflected intensity of the reflected wave is, the larger the mask region is defined.
  • the relationship of FIG. 6 only one of the stationary object vicinity region A1 and the back side region A2 may be variably set.
  • the vehicle ECU 22 corresponds to the control device, but the present invention is not limited to this, and a combination of the image processing ECU 21 and the vehicle ECU 22 may correspond to the control device. That is, the control device may generate detection information of a moving object around the own vehicle based on the image captured by the image pickup device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

制御装置(22)は、撮像装置(11)と、測距装置(12)と、安全装置(30)とを備えた車両に適用され、撮像装置の撮像画像による自車両周辺の移動物の検知情報に基づいて安全装置を作動させる第1作動処理を実施するとともに、測距装置の計測結果による自車両周辺の静止物の検知情報に基づいて安全装置を作動させる第2作動処理を実施する。制御装置(22)は、自車両の周辺に移動物が存在していることを判定する移動物判定部と、自車両の周辺に静止物が存在していることを判定する静止物判定部と、判定された静止物とその周囲とを含む静止物近傍領域(A1)及び当該静止物の奥側となる奥側領域(A2)の少なくともいずれかを、マスク領域として設定するマスク領域設定部と、判定された移動物がマスク領域内に存在している場合に、当該移動物を対象とする第1作動処理の実施を制限する作動制限部と、を備える。

Description

制御装置 関連出願の相互参照
 本出願は、2019年10月11日に出願された日本出願番号2019-187641号に基づくもので、ここにその記載内容を援用する。
 本開示は、制御装置に関する。
 従来、自車両周辺の物体を検知し、検知された物体と自車両との衝突を予測する装置が知られている(例えば、特許文献1)。この装置では、自車両の前端部に組み付けられたレーダセンサから送受信される超音波に基づいて、自車両周辺の物体を検知する。
特開2004-230947号公報
 レーダセンサに加えて、自車両に搭載された撮像装置により撮像された画像に基づいて、自車両周辺の物体を検知することも可能である。レーダセンサと撮像装置とを備える車両では、撮像装置の撮像画像に基づいて自車両周辺の移動物が検知されるとともに、レーダセンサの計測結果に基づいて自車両周辺の静止物が検知されることが考えられる。この場合、移動物と静止物との位置関係によっては、移動物を適正に検知できず、ひいては移動物を対象として実施されるブレーキ装置等の安全装置を正しく作動させることができなくなる。
 例えば、静止物としての壁体の付近に別の物体があり、それら静止物(壁体)と別の物体とが同じ撮像画像上に存在している場合に、その別の物体が移動物であるか静止物であるかが誤って検知されることが考えられる。また、静止物としての壁体の奥側に移動物が存在する場合に、制御対象とすることが不要なのに制御対象の移動物と検知されることが考えられる。
 本開示は、上記事情に鑑みてなされたものであり、その目的は、移動物の判定を適正に行い、安全装置を正しく作動させることができる制御装置を提供することにある。
 上記課題を解決する手段は、自車両周辺を撮像する撮像装置と、自車両周辺の物体までの距離を計測する測距装置と、自車両と物体との衝突を回避又は衝突被害を軽減する安全装置とを備えた車両に適用され、前記撮像装置の撮像画像による自車両周辺の移動物の検知情報に基づいて、当該移動物を対象として前記安全装置を作動させる第1作動処理を実施するとともに、前記測距装置の計測結果による自車両周辺の静止物の検知情報に基づいて、当該静止物を対象として前記安全装置を作動させる第2作動処理を実施する制御装置であって、前記移動物の検知情報に基づいて、自車両の周辺に移動物が存在していることを判定する移動物判定部と、前記静止物の検知情報に基づいて、自車両の周辺に静止物が存在していることを判定する静止物判定部と、前記静止物判定部により判定された静止物とその周囲とを含む静止物近傍領域、及び自車両を基準として当該静止物の奥側となる奥側領域の少なくともいずれかを、マスク領域として設定するマスク領域設定部と、前記移動物判定部により判定された移動物が前記マスク領域内に存在している場合に、当該移動物を対象とする前記第1作動処理の実施を制限する作動制限部と、を備える。
 撮像装置と測距装置とを備える車両(自車両)では、撮像装置の撮像画像に基づいて自車両周辺の移動物が検知されるとともに、測距装置の計測結果に基づいて自車両周辺の静止物が検知されることが考えられる。この場合、移動物と静止物との位置関係によっては、移動物を適正に検知できず、ひいては移動物を対象として実施される第1作動処理を正しく実施できなくなる。
 この点、上記構成では、静止物の検知情報に基づき判定された静止物とその周囲とを含む静止物近傍領域、及び自車両を基準として当該静止物の奥側となる奥側領域の少なくともいずれかが、マスク領域として設定される。そして、移動物の検知情報に基づき判定された移動物がマスク領域内に存在している場合に、当該移動物を対象とする第1作動処理の実施が制限される。これにより、仮に静止物としての壁体の付近に存在する別の静止物が移動物として誤って判定されても、移動物の誤判定に伴い第1作動処理により安全装置が不要に作動されるといった不都合を抑制できる。また、静止物としての壁体の奥側に移動物が存在する場合に、やはり第1作動処理により安全装置が不要に作動されるといった不都合を抑制できる。その結果、移動物の判定を適正に行い、ひいては移動物の判定結果に基づく安全装置を正しく作動させることができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、運転支援装置の全体構成図であり、 図2は、衝突回避処理の手順を示すフローチャートであり、 図3は、静止物近傍領域と奥側領域との一例を示す図であり、 図4は、自車両の前方に定められた判定領域を示す図であり、 図5は、検知対象物体における時系列の位置データを示す図であり、 図6は、ソナー装置における反射波の反射強度とマスク領域の大きさとの関係を示すグラフである。
 (実施形態)
 以下、本開示に係る制御装置を、車載の運転支援装置100に適用した実施形態について、図面を参照しつつ説明する。
 図1に示すように、本実施形態に係る運転支援装置100は、カメラ11と、ソナー装置12と、画像処理ECU21と、車両ECU22と、安全装置30と、を備えている。
 カメラ11は、例えば単眼カメラである。カメラ11は、自車両の前端、後端、及び両側面にそれぞれ取り付けられており、自車両周辺を撮像する。カメラ11は、撮像した撮像画像の画像情報を画像処理ECU21に送信する。なお、本実施形態において、カメラ11が「撮像装置」に相当する。
 ソナー装置12は、例えば、超音波を送信波とする超音波センサ、又はミリ波帯の高周波信号を送信波とするレーダ装置である。ソナー装置12は、自車両の前端、後端、及び両側面にそれぞれ搭載されており、自車両周辺の物体までの距離を計測する。具体的には、所定周期で探査波を送信し、複数のアンテナにより反射波を受信する。この探査波の送信時刻と反射波の受信時刻とにより、物体上の複数の検出点を検出し、これにより当該物体までの距離を計測する。加えて、複数のアンテナが受信した反射波の位相差により、物体の方位を算出する。物体までの距離及び物体の方位が算出できれば、その物体の自車両に対する位置情報を特定することができる。
 また、ソナー装置12は、物体で反射された反射波の、ドップラー効果により変化した周波数により、物体の移動速度を算出する。これにより、自車両周辺に存在している物体が静止物であると検知される。具体的には、物体の移動速度と自車両の車速との和がゼロとなる場合に、物体が静止物であると検知される。ソナー装置12は、自車両周辺の静止物の検知情報を車両ECU22に送信する。なお、静止物の検知情報には、静止物の自車両に対する位置の情報が含まれる。なお、本実施形態において、ソナー装置12が「測距装置」に相当する。
 ECU21,22は、CPU、ROM、RAM、フラッシュメモリ等からなる周知のマイクロコンピュータを備えた制御装置である。ECU21,22は、各種信号を取得し、取得した情報に基づき、各種制御を実施する。
 具体的には、画像処理ECU21は、カメラ11の撮像画像に基づいて、自車両周辺の移動物を検知する。具体的には、画像処理ECU21は、カメラ11の撮像画像に写る各物体に対して、移動速度を算出する。画像処理ECU21は、カメラ11から所定周期毎に送信される画像情報に基づき、物体のオプティカルフローを算出し、算出したオプティカルフローに基づいて当該物体の移動速度を算出する。ここで、オプティカルフローとは、画像中において輝度変化した境界線を構築する点としての境界点を複数検出し、検出した複数の境界点を動きベクトルとして表したものである。これにより、自車両周辺に存在している移動物が検知される。画像処理ECU21は、移動物の検知情報を車両ECU22に送信する。なお、検知情報には、検知された移動物の自車両に対する位置の情報が含まれる。
 車両ECU22は、画像処理ECU21から送信される自車両周辺の移動物の検知情報に基づいて、安全装置30を作動させる。安全装置30は、自車両と物体との衝突を回避又は衝突被害を軽減する装置であり、ブレーキ装置31と、シートベルト装置32と、警報装置33と、を備えている。なお、本実施形態において、車両ECU22が「制御装置」に相当する。
 ブレーキ装置31は、車両ECU22から出力される衝突回避信号に基づいて、自車両を減速させる。シートベルト装置32は、車両ECU22から出力される衝突回避信号に基づいて、シートベルトを巻き取ってシートベルトを緊張させる。警報装置33は、車両ECU22から出力される衝突回避信号に基づいて、運転者等に衝突可能性を報知する装置であり、例えば自車の車室内に設置されたスピーカやブザー等の聴覚的に報知する装置、ディスプレイ等の視覚的に報知する装置が存在する。
 車両ECU22には、ヨーレートセンサ13、操舵角センサ14、車速センサ15が接続されている。ヨーレートセンサ13は、たとえば自車両の中央位置に設けられており、自車両の操舵量の変化速度に応じたヨーレート信号を車両ECU22に出力する。操舵角センサ14は、たとえば車両のステアリングロッドに取り付けられており、運転者の操作に伴うステアリングホイールの操舵角の変化に応じた操舵角信号を車両ECU22に出力する。車速センサ15は、たとえば自車両のホイール部分に取り付けられており、車輪の回転方向を検出するとともに、車輪速度に応じた車速信号を車両ECU22に出力する。
 本実施形態の車両では、カメラ11の撮像画像に基づいて自車両周辺の移動物が検知されるとともに、ソナー装置12の計測結果に基づいて自車両周辺の静止物が検知される。そして、車両ECU22は、安全装置30を作動させる処理、すなわち衝突回避処理として、移動物を対象とする第1作動処理と、静止物を対象とする第2作動処理とをそれぞれ実施する。車両ECU22は、第1作動処理として、自車両から移動物の位置に加え、移動物の移動進路や移動速度を加味して、移動物との衝突を回避、又は移動物との衝突時の被害を軽減すべく安全装置30を作動させる。また、車両ECU22は、第2作動処理として、自車両から静止物の距離に基づいて、静止物との衝突を回避、又は静止物との衝突時の被害を軽減すべく安全装置30を作動させる。
 ところで、カメラ11の撮像画像を用いて移動物を検知する構成では、移動物と静止物との位置関係によっては、移動物を適正に検知できず、ひいては移動物を対象として実施される第1作動処理を正しく実施できなくなる。例えば、静止物としての壁体の付近に別の物体があり、それら静止物(壁体)と別の物体とが同じ撮像画像上に存在している場合に、その別の物体が移動物であるか静止物であるかが誤って検知されることが考えられる。また、静止物としての壁体の奥側に移動物が存在する場合に、制御対象とすることが不要なのに制御対象の移動物と検知されることが考えられる。
 そこで本実施形態では、移動物の検知情報に基づいて、自車両の周辺に移動物が存在していることを判定するとともに、静止物の検知情報に基づいて、自車両の周辺に静止物が存在していることを判定する。そして、静止物とその周囲とを含む静止物近傍領域A1、及び自車両を基準として当該静止物の奥側となる奥側領域A2の少なくともいずれかを、マスク領域として設定し、移動物がマスク領域内に存在している場合に、当該移動物を対象とする第1作動処理の実施を制限することとしている。
 また、カメラ11の撮像画像を用いて移動物を検知する構成では、自車両周辺の物体が移動物であると把握できている場合以外に、物体が存在することは検知されているものの、その物体が移動物であるか否かが正しく把握できない場合がある。そのため、画像処理ECU21では、自車両周辺に存在する物体に関して、自車両周辺の物体が移動物であるとする確定情報と、その物体が移動物であるか否かが確かでないとする不確定情報とを定め、それらの情報を車両ECU22に送信する。これら確定情報及び不確定情報は、移動物の存在を示す情報であり、確定情報は、高い確率で移動物が存在していることを示す高確率情報、不確定情報は、高確率情報よりも低い確率で移動物が存在していることを示す低確率情報である。この場合、車両ECU22において、自車両周辺の物体が確定情報として検知されているか、不確定情報として検知されているかにかかわらず安全装置30を作動させると、安全装置30の作動を適正に実施することができなくなることが懸念される。
 そこで本実施形態では、安全装置30を作動させる場合に、移動物の検知情報が確定情報であるか不確定情報であるかに応じて、安全装置30を作動させる作動領域を変更し、不確定情報であれば、確定情報である場合に比べて、作動領域を狭くすることとしている。
 図2は、自車両周辺に存在する移動物に基づき実施される衝突回避処理の処理手順を示すフローチャートであり、本処理は車両ECU22により所定周期で繰り返し実施される。
 図2において、ステップS11では、移動物及び静止物の検知情報を取得する。具体的には、画像処理ECU21から、移動物の検知情報として、自車両周辺に存在する他車両や自転車、歩行者などの移動物の位置、移動進路の情報を取得する。また、ソナー装置12により検知された静止物の位置情報を取得する。
 ステップS12では、移動物の検知情報に、移動物が存在していることを示す情報が含まれているか否かを判定する。より具体的には、画像処理ECU21から送信される移動物の検知情報が、確定情報又は不確定情報であるか否かを判定する。そして、移動物の検知情報が確定情報又は不確定情報であれば、移動物が存在しているとする。ステップS12が否定される場合には、衝突回避処理を終了する。また、ステップS12が肯定される場合には、後続のステップS13に進む。ステップS13では、移動物の検知情報が、確定情報及び不確定情報のうち不確定情報であるか否かを判定する。なお、本実施形態において、ステップS12の処理が「移動物判定部」に相当する。
 移動物の検知情報が確定情報であり、ステップS13が否定される場合には、ステップS22に進む。ステップS22では、移動物を対象とする衝突回避処理(第1作動処理)を実施する。この場合、自車両周辺で検知された物体が移動物であると認識されていることから、車両ECU22は、移動体の検知情報に含まれる移動物の位置等に基づいて安全装置30を作動させる衝突回避制御を実施する。
 移動物の検知情報が不確定情報であり、ステップS13が肯定される場合には、ステップS14に進み、自車両周辺に静止物が存在しているか否かを判定する。このとき、静止物の有無は、ソナー装置12の計測結果に基づいて得られた静止物の検知情報を用いて判定される。具体的には、静止物の検知情報に、静止物が存在していることを示す情報が含まれているか否かが判定される。なお、本実施形態において、ステップS14の処理が「静止物判定部」に相当する。
 自車両周辺に静止物が存在しており、ステップS14が肯定される場合には、ステップS15に進み、その静止物とその周囲とを含む静止物近傍領域A1と、自車両を基準として静止物の奥側となる奥側領域A2とをマスク領域として設定する。なお、本実施形態において、ステップS15の処理が「マスク領域設定部」に相当する。
 静止物近傍領域A1、奥側領域A2はそれぞれ次のように設定されるとよい。静止物近傍領域A1は、図3(a)に示すように、ソナー装置12による静止物上の検知点Pを中心として、自車両CAの幅方向(x方向)及び前後方向(y方向)に所定長さ分の範囲となる矩形領域として設定される。例えば、静止物近傍領域A1のx方向長さD1、y方向長さD2は0.5mである。なお、D1=D2としているが、これ以外に、D1>D2、又はD1<D2であってもよい。
 検知点Pは、静止物近傍領域A1の中心になくてもよく、静止物近傍領域A1において検知点Pが自車両寄りの位置に偏っていてもよい。つまり、静止物近傍領域A1において、自車両CAから見て検知点Pの手前側と奥側とで領域広さを相違させ、検知点Pの奥側では手前側よりも領域広さを広くするとよい。静止物の検知情報として、静止物の外表面における複数個所の検知点Pが含まれていれば、その検知点Pごとに、個別に静止物近傍領域A1が設定され、それら各領域A1のすべてを含む合成領域がマスク領域とされる。なお、静止物近傍領域A1は、検知点Pを中心とする所定半径の円形領域であってもよい。
 また、奥側領域A2は、図3(b)に示すように、自車両の前端に設けられたソナー装置12と検知点Pとを繋ぐ直線を基準に、左右に所定角度θ(又は所定幅)となる範囲で、かつ自車両CAに対して検知点Pの奥側(遠い側)の所定長さ分の範囲となる領域として設定される。静止物の検知情報として複数個所の検知点Pが含まれていれば、その検知点Pごとに、個別に奥側領域A2が設定され、それら各領域A2のすべてを含む合成領域がマスク領域とされる。
 ステップS15では、静止物近傍領域A1及び奥側領域A2の両方をマスク領域とするが、これに代えて、静止物近傍領域A1及び奥側領域A2のうち一方をマスク領域とすることも可能である。
 その後、ステップS16では、不確定情報にて検知対象となっている物体(以下、検知対象物体Xとも言う)がマスク領域内に入っているか否かを判定する。そして、検知対象物体Xがマスク領域内に入っており、ステップS16が肯定されると、ステップS17に進む。ステップS17では、検知対象物体Xを静止物とみなし、続くステップS18では、静止物を対象とする衝突回避処理(第2作動処理)を実施し、衝突回避処理を終了する。この場合、車両ECU22は、移動体の検知情報に含まれる物体Xの位置を、静止物位置とみなし、その静止物位置に基づいて安全装置30を作動させる衝突回避制御を実施する。ステップS18では、検知対象物体Xがマスク領域内にマスク領域内に存在しているとの判定結果に基づいて、その移動物を対象とする第1作動処理の実施が制限されるようになっている。なお、本実施形態において、ステップS18の処理が「作動制限部」に相当する。
 また、ステップS16において検知対象物体Xがマスク領域内に入っておらず否定判定がなされると、ステップS21に進む。そして、ステップS21,S22において、移動物を対象とする衝突回避処理(第1作動処理)を実施する。ただしこの場合、移動物を対象とする通常の衝突回避処理(第1作動処理)ではなく、ステップS21において、安全装置30を作動させる作動領域を、通常時よりも狭い領域として設定する。その上で、ステップS22において、移動物を対象とする衝突回避処理(第1作動処理)を実施し、衝突回避処理を終了する。
 ここで、安全装置30の作動領域の変更について、図4を用いて説明する。図4には、自車両CAが前進走行する場合において、自車両CAの前方に定められた作動領域A10が示されている。作動領域A10は、移動物を対象とする第1作動処理を実施する場合において、移動物を衝突回避の対象として安全装置30を作動させるための領域であり、自車両CAの進行方向前方において幅方向(x方向)に所定幅を有する領域として定められている。
 より具体的には、作動領域A10は、自車両CAの幅寸法に対して左右に所定のマージンを有する領域として定められており、その幅寸法はD11である。車両ECU22は、移動物が作動領域A10内に存在していることを条件に、その移動物を対象として第1作動処理を実施する。例えば、ステップS13が否定されてステップS22に進んだ場合、すなわち移動物の検知情報が確定情報である場合には、幅寸法をD11とする作動領域A10内での移動物の有無に基づいて、第1作動処理が実施される。
 これに対して、ステップS21では、移動物の検知情報が不確定情報であり、作動領域A10の幅寸法がD11からD12に変更される(D12<D11)。つまり、移動物の検知情報が不確定情報である場合に、確定情報である場合に比べて作動領域A10が狭い領域に変更される。そして、ステップS21からステップS22に進むと、そのステップS22において、幅寸法をD12とする作動領域A10内での移動物の有無に基づいて、第1作動処理が実施される。
 また、ステップS14において自車両周辺に静止物が存在しておらず否定判定がなされると、ステップS19に進む。この場合、車両ECU22は、移動物の検知情報が不確定情報であり、かつ不確定情報として検知された物体の周囲には静止物が存在していないことを認識しており、ステップS19,S20では、移動物であるか否かの再判定を実施する。
 詳しくは、ステップS19では、検知対象物体X(不確定情報にて検知対象となっている物体)の位置履歴を取得し、続くステップS20では、その物体Xの位置履歴に基づいて、物体Xが、実際に移動を伴う移動物であるか否かを判定する。このとき、ステップS19では、検知対象物体Xについて、例えばソナー装置12の計測結果から求められた所定時間ごとの位置情報を取得する。また、ステップS20では、現時点からそれ以前の所定期間における複数の位置情報、又は現時点から過去の数個分の位置情報を用いる。そして、検知対象物体Xの移動量が所定値以上であること、及び位置履歴から算出された各サイクルの位置変化方向が安定していることを条件に、検知対象物体Xが移動物であることを判定する。
 より具体的には、図5に示すように、検知対象物体Xについて所定時間ごとに取得された時系列の位置データT1~T5を用い、所定期間での物体移動量(例えばT5-T1の移動量)と、各位置データでの位置変化方向とを算出し、それらに基づいて、移動体の再判定を実施する。
 ステップS20で移動物であると判定された場合には、ステップS21に進む。そして、ステップS21,S22では、上述したとおり移動物を対象とする衝突回避処理(第1作動処理)を実施する。この場合、ステップS21において、安全装置30を作動させる作動領域を、通常時よりも狭い領域として設定し、その上で、ステップS22において、移動物を対象とする衝突回避処理(第1作動処理)を実施する。
 また、ステップS20で移動物であると判定されなかった場合には、そのまま本処理を終了する。この場合、検知対象物体Xが実際に移動物であるかどうかが不確かなままであるため、その物体Xを対象とする第1作動処理の実施が停止されるようになっている。
 以上詳述した本実施形態によれば、以下の効果が得られるようになる。
 ・本実施形態では、静止物の検知情報に基づき判定された静止物とその周囲とを含む静止物近傍領域A1、及び自車両を基準として当該静止物の奥側となる奥側領域A2の少なくともいずれかが、マスク領域として設定される。そして、移動物の検知情報に基づき判定された移動物がマスク領域内に存在している場合に、当該移動物を対象とする第1作動処理の実施が制限される。これにより、仮に静止物としての壁体の付近に存在する別の静止物が移動物として誤って判定されても、移動物の誤判定に伴い第1作動処理により安全装置30が不要に作動されるといった不都合を抑制できる。また、静止物としての壁体の奥側に移動物が存在する場合に、やはり第1作動処理により安全装置30が不要に作動されるといった不都合を抑制できる。その結果、移動物の判定を適正に行い、ひいては移動物の判定結果に基づく安全装置30を正しく作動させることができる。
 ・本実施形態では、撮像装置の撮像画像に基づいて検知された移動物がマスク領域内に存在している場合に、移動物を対象とする第1作動処理でなく、移動物を静止物とみなした上で静止物を対象とする第2作動処理が実施される。これにより、自車両周辺で検知された物体に対して適正に安全装置30を作動させることができる。
 ・撮像装置の撮像画像を用いて移動物を検知する構成では、自車両周辺の物体が移動物であると把握できている場合以外に、物体が存在することは検知されているものの、その物体が移動物であるか否かが正しく把握できない場合がある。そのため、移動物の存在を示す情報として、自車両周辺の物体が移動物であるとする確定情報と、その物体が移動物であるか否かが確かでないとする不確定情報とを定めておくことがある。
 移動物の検知情報としての不確定情報は、撮像装置の撮像画像のみでは移動物の存在を正しく検知できていないという情報であるものの、本実施形態によれば、こうした検知状態にあっても、第1作動処理の実施を制限することで、静止物情報を加味しつつ、移動物の有無を正しく判定することができる。
 ・例えば静止物が壁体である場合には、その静止物の検知情報として、静止物の外表面における複数個所の検知点が含まれていることがある。本実施形態では、かかる場合には、検知点ごとに、個別にマスク領域が設定される。つまり、静止物の大きさに応じて、マスク領域を設定できる。したがって、静止物との関係を適正に反映しつつ、移動物の判定を適正に実施することができる。
 (その他の実施形態)
 なお、上記各実施形態は、以下のように変更して実施してもよい。
 ・カメラ11は、単眼カメラに限られず、例えばステレオカメラでもよい。
 ・また、設定されるマスク領域の大きさは、可変に設定されてもよい。例えば、ソナー装置12として、物体からの反射波に基づいて物体までの距離を計測する装置を用いる場合には、静止物の大きさ等の形態に応じて静止物からの反射波の反射強度が相違することが考えられる。そこで、反射波の反射強度に基づいて、マスク領域の大きさを設定するようにしてもよい。具体的には、図2のステップS15において、図6の関係を用いて静止物近傍領域A1及び奥側領域A2を可変に設定する。図6では、反射波の反射強度とマスク領域の大きさとの関係が定められており、反射波の反射強度が大きいほど、マスク領域が大きくなる関係が定められている。この場合、図6の関係を用い、静止物近傍領域A1及び奥側領域A2のいずれかのみが可変に設定されてもよい。
 反射波の反射強度に基づいて、マスク領域の大きさを設定することで、静止物の形態に応じた適正なマスク領域の設定が可能となる。
 ・上記実施形態では、車両ECU22が制御装置に相当する例を示したが、これに限られず、画像処理ECU21と車両ECU22とを合わせたものが制御装置に相当してもよい。つまり、制御装置が撮像装置の撮像画像に基づいて、自車両周辺の移動物の検知情報を生成してもよい。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (5)

  1.  自車両周辺を撮像する撮像装置(11)と、自車両周辺の物体までの距離を計測する測距装置(12)と、自車両と物体との衝突を回避又は衝突被害を軽減する安全装置(30)とを備えた車両に適用され、前記撮像装置の撮像画像による自車両周辺の移動物の検知情報に基づいて、当該移動物を対象として前記安全装置を作動させる第1作動処理を実施するとともに、前記測距装置の計測結果による自車両周辺の静止物の検知情報に基づいて、当該静止物を対象として前記安全装置を作動させる第2作動処理を実施する制御装置(22)であって、
     前記移動物の検知情報に基づいて、自車両の周辺に移動物が存在していることを判定する移動物判定部と、
     前記静止物の検知情報に基づいて、自車両の周辺に静止物が存在していることを判定する静止物判定部と、
     前記静止物判定部により判定された静止物とその周囲とを含む静止物近傍領域(A1)、及び自車両を基準として当該静止物の奥側となる奥側領域(A2)の少なくともいずれかを、マスク領域として設定するマスク領域設定部と、
     前記移動物判定部により判定された移動物が前記マスク領域内に存在している場合に、当該移動物を対象とする前記第1作動処理の実施を制限する作動制限部と、
    を備える制御装置。
  2.  前記作動制限部は、前記移動物判定部により判定された移動物が前記マスク領域内に存在している場合に、当該移動物を対象とする前記第1作動処理でなく、当該移動物を静止物とみなしてその静止物を対象とする前記第2作動処理を実施する請求項1に記載の制御装置。
  3.  前記撮像画像により検知された移動物の検知情報には、自車両周辺に存在する物体に関して、当該物体が移動物であるとする確定情報と、当該物体が移動物であるか否かが確かでないとする不確定情報とがあり、
     前記作動制限部は、前記不確定情報に基づき移動物の存在が判定されていることを条件に、その移動物が前記マスク領域内に存在している場合に当該移動物を対象とする前記第1作動処理の実施を制限する請求項1又は2に記載の制御装置。
  4.  前記マスク領域設定部は、前記静止物の検知情報として、当該静止物の外表面における複数個所の検知点が含まれている場合に、その検知点ごとに、個別に前記マスク領域を設定する請求項1~3のいずれかに記載の制御装置。
  5.  前記測距装置は、探査波を送信するとともに物体から前記探査波の反射波を受信し、その反射波に基づいて物体までの距離を計測する装置であり、
     前記マスク領域設定部は、前記反射波の反射強度に基づいて、前記マスク領域の大きさを設定する請求項1~4のいずれかに記載の制御装置。
PCT/JP2020/038048 2019-10-11 2020-10-07 制御装置 WO2021070881A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080070449.9A CN114502433B (zh) 2019-10-11 2020-10-07 控制装置
US17/658,224 US20220227362A1 (en) 2019-10-11 2022-04-06 Control device for controlling safety device in vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-187641 2019-10-11
JP2019187641A JP7328863B2 (ja) 2019-10-11 2019-10-11 制御装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/658,224 Continuation US20220227362A1 (en) 2019-10-11 2022-04-06 Control device for controlling safety device in vehicle

Publications (1)

Publication Number Publication Date
WO2021070881A1 true WO2021070881A1 (ja) 2021-04-15

Family

ID=75437459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/038048 WO2021070881A1 (ja) 2019-10-11 2020-10-07 制御装置

Country Status (4)

Country Link
US (1) US20220227362A1 (ja)
JP (1) JP7328863B2 (ja)
CN (1) CN114502433B (ja)
WO (1) WO2021070881A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023032736A (ja) * 2021-08-27 2023-03-09 株式会社デンソー 物体検知装置、物体検知方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015078926A (ja) * 2013-10-17 2015-04-23 株式会社デンソー 物標検出装置
JP2015148899A (ja) * 2014-02-05 2015-08-20 トヨタ自動車株式会社 衝突回避制御装置
JP2016080648A (ja) * 2014-10-22 2016-05-16 株式会社デンソー 物体検知装置
JP2017015494A (ja) * 2015-06-30 2017-01-19 株式会社デンソー 物体検知装置及び物体検知方法
JP2018151903A (ja) * 2017-03-14 2018-09-27 アイシン・エィ・ダブリュ株式会社 虚像表示装置及びコンピュータプログラム
JP2019053083A (ja) * 2018-11-27 2019-04-04 株式会社ユピテル システム及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4313712B2 (ja) * 2004-03-30 2009-08-12 本田技研工業株式会社 走行安全装置
US8717225B2 (en) * 2009-07-31 2014-05-06 Honda Motor Co., Ltd. Object detection device for vehicle and object detection method for vehicle
EP2578464B1 (en) * 2011-10-06 2014-03-19 Honda Research Institute Europe GmbH Video-based warning system for a vehicle
CN104603855B (zh) * 2012-09-03 2016-06-22 丰田自动车株式会社 碰撞判定装置和碰撞判定方法
JP6396838B2 (ja) * 2015-03-31 2018-09-26 株式会社デンソー 車両制御装置、及び車両制御方法
JP6465127B2 (ja) * 2016-02-10 2019-02-06 株式会社デンソー 走行支援装置
US10007854B2 (en) * 2016-07-07 2018-06-26 Ants Technology (Hk) Limited Computer vision based driver assistance devices, systems, methods and associated computer executable code
EP4220230A1 (en) * 2017-09-26 2023-08-02 Innoviz Technologies Ltd. Lidar systems and methods
JP6937218B2 (ja) * 2017-10-19 2021-09-22 株式会社東芝 情報処理装置、情報処理方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015078926A (ja) * 2013-10-17 2015-04-23 株式会社デンソー 物標検出装置
JP2015148899A (ja) * 2014-02-05 2015-08-20 トヨタ自動車株式会社 衝突回避制御装置
JP2016080648A (ja) * 2014-10-22 2016-05-16 株式会社デンソー 物体検知装置
JP2017015494A (ja) * 2015-06-30 2017-01-19 株式会社デンソー 物体検知装置及び物体検知方法
JP2018151903A (ja) * 2017-03-14 2018-09-27 アイシン・エィ・ダブリュ株式会社 虚像表示装置及びコンピュータプログラム
JP2019053083A (ja) * 2018-11-27 2019-04-04 株式会社ユピテル システム及びプログラム

Also Published As

Publication number Publication date
CN114502433B (zh) 2024-06-21
CN114502433A (zh) 2022-05-13
JP2021064098A (ja) 2021-04-22
JP7328863B2 (ja) 2023-08-17
US20220227362A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
WO2017204107A1 (ja) 物標検出装置
US9470790B2 (en) Collision determination device and collision determination method
JP6574407B2 (ja) 車両制御装置、及び車両制御方法
WO2017104387A1 (ja) 物体検知装置及び物体検知方法
WO2017145845A1 (ja) 衝突予測装置
WO2016158634A1 (ja) 車両制御装置及び車両制御方法
US11348462B2 (en) Collision prediction apparatus
WO2016158726A1 (ja) 物体検知装置、及び物体検知方法
WO2017183668A1 (ja) 車両制御装置、車両制御方法
WO2021070881A1 (ja) 制御装置
CN108885833B (zh) 车辆检知装置
US20230166730A1 (en) Vehicle control device
JP6451619B2 (ja) 物体検出装置
WO2021070880A1 (ja) 制御装置
JP7344077B2 (ja) 衝突判定装置
WO2021070882A1 (ja) 制御装置
WO2017154471A1 (ja) 横断判定装置
WO2023074071A1 (ja) 軸ずれ判定装置、および、軸ずれ判定方法
WO2021070879A1 (ja) 制御装置
US20230192192A1 (en) Driving assistance device
WO2023228668A1 (ja) 周辺監視装置及びプログラム
WO2023033077A1 (ja) 車両用レーダ装置
CN118202272A (zh) 物体识别装置以及程序
JP2021064094A (ja) 衝突判定装置
JP2019066290A (ja) レーダー装置及び物標検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20873686

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20873686

Country of ref document: EP

Kind code of ref document: A1