WO2020039840A1 - レーダ処理装置 - Google Patents

レーダ処理装置 Download PDF

Info

Publication number
WO2020039840A1
WO2020039840A1 PCT/JP2019/029155 JP2019029155W WO2020039840A1 WO 2020039840 A1 WO2020039840 A1 WO 2020039840A1 JP 2019029155 W JP2019029155 W JP 2019029155W WO 2020039840 A1 WO2020039840 A1 WO 2020039840A1
Authority
WO
WIPO (PCT)
Prior art keywords
radar
target
vehicle
moving body
radar processing
Prior art date
Application number
PCT/JP2019/029155
Other languages
English (en)
French (fr)
Inventor
大坂 英樹
勝美 大内
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to JP2020538250A priority Critical patent/JP7028982B2/ja
Publication of WO2020039840A1 publication Critical patent/WO2020039840A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Definitions

  • the present invention relates to an on-vehicle radar processing device used for controlling, for example, an automatic driving vehicle and a driving support vehicle.
  • an in-vehicle radar device that detects an object such as a surrounding obstacle (hereinafter, referred to as a peripheral object or a peripheral target) in an automatic driving of a vehicle or a driving support system.
  • Such radar devices generally emit radio waves (radar waves) in the frequency band with excellent linearity in the millimeter wave band (77 GHz, 79 GHz) or quasi-millimeter wave band (24 GHz), and receive reflected waves from surrounding objects.
  • This is a device that calculates the relative distance of the peripheral object, the speed in the line of sight, and the direction (angle) by performing signal processing on the object.
  • the vehicle changes lanes, the vehicle must avoid collision with a stationary object or a moving object ahead.
  • a radar wave has a property of reflecting on a road surface because of its good straightness, and a technology for detecting a farther moving body of a preceding vehicle (an oncoming vehicle, a stopped vehicle, a preceding vehicle, etc.) using the property is disclosed in Patent Documents 1 to 4. 3.
  • a method of detecting a moving object with high accuracy by narrowing an electromagnetic wave beam into a pencil shape (pencil beam) and scanning the pencil beam has already been proposed.
  • FIG. 13 shows a surrounding situation when the host vehicle 101 changes lanes during a traffic jam.
  • Peripheral vehicles 111 to 115 around the own vehicle 101 run along with the own vehicle 101 in a traffic jam, and repeat stop and go according to a change in congestion.
  • so-called slip-through motorcycles, bicycles, emergency vehicles and the like (also referred to as rear approaching moving bodies) of the moving body 201 having a speed higher than that of the surrounding vehicles 111 to 115 are disposed from the rear of the own vehicle 101 to the surrounding vehicles 114 and 115. Often approaching between the two. At that time, if the vehicle 101 changes lanes in front of the moving body 201, there is a risk of collision.
  • the radar device 31 (rear radar) 3 mounted on the host vehicle 101 emits a radar wave 31 to a detection range 301 having a predetermined beam angle spread, but the radar wave directly reaches the surrounding vehicle 114. In some cases, the mobile unit 201 cannot be directly detected.
  • the present invention has been made in view of the above circumstances, and its purpose is to detect a moving body even in such a lane change scene, estimate a danger of a collision, and perform a lane change when it is estimated to be dangerous. It is an object of the present invention to provide a radar processing device that can safely change lanes by postponing the vehicle.
  • a radar processing device is a radar processing device that receives a reflected wave of a radar wave emitted from the radar device from a peripheral target and performs signal processing on the radar wave.
  • a first target having the above speed is extracted, a second target existing between the radar device and the first target is extracted, and the radar wave on the target surface of the second target is extracted.
  • the direction of the specular reflection is estimated, and the position of the first target is specified from the direction of the specular reflection of the radar wave.
  • the road surface can be reduced.
  • the moving body moving body approaching backward
  • the moving body can be detected before the lane change, so that the lane change can be performed safely while avoiding a collision.
  • FIG. 1 is a block diagram showing a configuration of a vehicle control system to which a radar processing device according to the present invention is applied.
  • FIG. 4 is a diagram illustrating target grouping of the radar processing device according to the present invention.
  • FIG. 4 is a diagram showing a flow of a moving object determination of the radar processing device according to the present invention.
  • FIG. 2 is a diagram illustrating the principle of ground reflection position correction of the radar processing device according to the present invention.
  • FIG. 6 is a diagram showing a flow of ground reflection position correction of the radar processing device according to the present invention.
  • FIG. 1 is a block diagram showing a configuration of a vehicle control system to which a radar processing device according to the present invention is applied.
  • FIG. 4 is a view for explaining the principle (part 1) of correcting the side reflection position of the radar processing apparatus according to the present invention.
  • FIG. 9 is a diagram for explaining the principle (part 2) of correcting the side reflection position of the radar processing apparatus according to the present invention.
  • FIG. 6 is a diagram showing a flow of side reflection position correction of the radar processing apparatus according to the present invention.
  • FIG. 6 is a diagram illustrating another example of the radar processing device according to the present invention, illustrating a lane change scene during traffic congestion, and propagation and reflection of a radar wave.
  • FIG. 4 is a diagram illustrating another example of the radar processing apparatus according to the present invention, illustrating a flow of estimating the danger of a moving object in the radar processing apparatus. The figure explaining the lane change scene at the time of traffic jam which should be solved by the present invention.
  • FIG. 1 is a block diagram showing a configuration of a vehicle control system 1 to which the radar processing device of the present invention is applied.
  • the vehicle control system 1 includes a front radar 2, a rear radar 3, and a vehicle speed sensor 4.
  • the front radar 2 is a radar device that is attached, for example, in front of the host vehicle 101 and monitors the front of the host vehicle 101.
  • the rear radar 3 is, for example, a radar device attached to the rear of the host vehicle 101 and monitoring the rear of the host vehicle 101.
  • the vehicle speed sensor 4 is a sensor for detecting the vehicle speed of the host vehicle 101.
  • the vehicle control system 1 may include a camera 5 as an optical sensor. Output information of each sensor (2 to 5) is input to the sensor ECU 10.
  • the sensor ECU (Electronic Control Unit) 10 integrates the information of each sensor (2 to 5), determines the relationship between the position of the vehicle 101 and the peripheral target, the relative speed of the peripheral target, and the like, and determines the relationship with the peripheral target.
  • the collision risk and the time TTC (Time @ To ⁇ Collision) until the collision are calculated and output to the travel ECU 11.
  • the traveling ECU 11 Based on the information, the traveling ECU 11 performs danger avoidance control by acceleration / deceleration, stop, and steering using the steering 6, the throttle 7, and the brake 8.
  • the traveling ECU 11 can also issue a warning using the alarm 9 to the driver.
  • the ECU that estimates the danger, calculates the TTC, and generates an alarm signal may be provided on the sensor side such as the front radar 2 and the rear radar 3.
  • the radar processing device of the present invention may be provided, for example, in the sensor ECU 10 or may be provided in an ECU mounted on the rear radar 3.
  • the control scene presupposed is a lane change during a traffic jam in FIG.
  • the host vehicle 101 may be in an autonomous driving state in which the vehicle runs autonomously, or in a driving support state under driver control.
  • sensing is performed by various sensors including the front radar 2 and the rear radar 3 (step F101), and the vehicle 101 transits to a traveling control state (step F102).
  • the front radar 2 and the rear radar 3 radiate radio waves (radar waves) in a predetermined frequency band, receive reflected waves from peripheral objects (peripheral vehicles, obstacles, and the like), and perform signal reception.
  • the relative distance of the peripheral object, the speed in the line-of-sight direction, and the direction (angle) are sensed.
  • the route to the destination of the own vehicle 101 may be set in advance, and an operation plan along the route may be made, or the route plan may be changed based on road information obtained in real time. .
  • a lane change is planned at some timing (step F103). Further, the operation may be such that the driver's intention to change lanes is transmitted to the vehicle control system 1 when the driver turns on the blinker or the like. Further, the sensing (Step F101) may operate in parallel with the vehicle traveling control (Step F102).
  • step F103 If the vehicle control system 1 plans to change lanes (step F103), it is determined whether there is an obstacle in front of the host vehicle 101 (step F104). If it is determined that there is an obstacle in front of the own vehicle 101 (Yes), it is determined whether or not the obstacle is on a route on which the own vehicle 101 can travel (step F105). If the vehicle is on a route on which the vehicle can travel (Yes) and cannot be avoided other than stopping on the route including the route after the lane change, a travel stop designation is output (step F106).
  • step F105 If it is determined that there is no obstacle on the route after the lane change of the own vehicle 101 (No) in step F105 (judgment of existence of an obstacle on the own vehicle traveling route), the process proceeds to step F107 to output a lane change postponement command. I do.
  • step F104 judgment of presence / absence of a front obstacle
  • the process shifts to estimation of an approaching moving body (rear approaching moving body) from behind.
  • step F108 described below, the danger of the moving object is estimated, and it is determined whether there is a moving object approaching from behind (a small passing motorcycle / bicycle, an emergency vehicle, or the like) (step F109). If it is determined that there is a danger of collision, a lane change postponement command is output (step F107). If it is determined in step F109 (the determination of the presence or absence of a moving body approaching backward), it is determined that there is no moving body approaching backward (No), and there is no danger of collision. ).
  • FIG. 2 the case where the front obstacle detection and the approaching moving body detection from behind are processed serially is described. However, if different sensors are used for front detection and rear detection, they can be processed in parallel. In this case, there is an effect that detection and determination can be performed in a short time.
  • step F108 the estimation of the danger of the moving object in step F108 will be described with reference to FIG.
  • This flow may be performed by the ECU mounted on the rear radar 3 or may be performed by the sensor ECU 10.
  • Step H102 in FIG. 3 is a step of holding a plurality of reflection points (detection points), which are the measurement results of the rear radar 3.
  • the measurement refers to obtaining reflected information (position, velocity, angle, and the like) included in a large number of signals received by being reflected by a surrounding object when a modulated radio wave (radar wave) is emitted from the rear radar 3.
  • Step H103 is a step of grouping targets based on the reflection information (measurement information) (described in detail later).
  • Step H104 is a step of performing a moving object determination based on the grouping of step H103 (detailed later).
  • Step H105 is a step of tracking the target.
  • Step H106 is a step of calculating the time until the collision with the target (TTC)
  • step H107 is a step of determining the risk based on the TTC calculated in step H106. That is, if the TTC calculated in step H106 is longer than a threshold based on the relative speed between the host vehicle 101 and the detected target, it is determined that there is no risk of collision.
  • step H103 the target grouping in step H103 will be described with reference to FIG.
  • the target grouping in step H103 is a step of recognizing the same moving object from a plurality of reflection points (measurement points). As shown in FIG. 4, the detected measurement points (P1 to P8) of the surrounding vehicles (surrounding targets) 114 within the detection range 301 of the rear radar 3 mounted on the host vehicle 101 are grouped as the same target. .
  • This grouping method can extract a target as a feature point such that measurement points are close to each other, have the same speed at preceding and following measurement times, and the shape of the measurement points does not change at the preceding and following measurement times.
  • the outer peripheral surfaces (S1, S2) are surfaces on which the radar wave 31 from the rear radar 3 is directly irradiated, and when the target is a vehicle made of metal, the radar wave 31 from the rear radar 3 is applied to this surface (S1). , S2) is specularly reflected.
  • the direction of the specular reflection of the radar wave 31 on the target surface (mirror surface) of the target (surrounding vehicle 114) and the direction of the target surface (mirror surface) of the target (surrounding vehicle 114) can be estimated here.
  • the size of the target (the surrounding vehicle 114) can be estimated from the spatial extent of the measurement points P1 to P8. This size gives size information of the outer reflective surface.
  • step H104 the moving object determination in step H104 described above will be described with reference to FIG.
  • This step H104 may be processed by the ECU built in the rear radar 3 or may be processed by the sensor ECU 10. Hereinafter, the case where the processing is performed by the sensor ECU 10 will be described.
  • step H104 the reflection point is measured by the rear radar 3 in step F101, and step F108 (step H104) is processed using output information from the rear radar 3.
  • step G102 it is determined whether or not there is a detection point having a high speed among the surrounding targets based on the detection result. If there is a moving object (first target) that is a detection point having a speed equal to or more than a predetermined value from the surrounding target (in the case of Yes), in step G103, the target (the second target) is placed between the rear radar 3 and the moving object. It is determined whether there is a target. If it is determined in step G103 that there is a target (in the case of Yes), it is determined in step G104 whether the height of the moving object is below the ground. When the height is equal to or lower than the ground (in the case of Yes), the ground reflection position is corrected in step G105 (detailed later).
  • Step G102 if the speed of the detection point is lower than that of the surrounding target (No), it is determined that the moving object is not dangerous (Step G107).
  • step G103 if there is no target between the rear radar 3 and the moving body (in the case of No), it is recognized as a normal surrounding vehicle. If it is determined in step G104 that the height of the moving object is higher than the ground (in the case of No), side reflection position correction is performed in step G106 (detailed later).
  • FIG. 6 shows a surrounding vehicle 114 and a moving object (for example, a motorcycle) 201 that are substantially aligned with the own vehicle 101 on which the rear radar 3 is mounted, and a radar wave 31 from the rear radar 3 to the moving object 201.
  • FIG. 6 shows a surrounding vehicle 114 and a moving object (for example, a motorcycle) 201 that are substantially aligned with the own vehicle 101 on which the rear radar 3 is mounted, and a radar wave 31 from the rear radar 3 to the moving object 201.
  • the radar wave 31 transmitted from the rear radar 3 passes below the vehicle body of the surrounding vehicle 114, is reflected by the ground GND, and reaches the moving body 201.
  • the radar wave 31 is reflected by the moving body 201, and the reflected wave returns to the rear radar 3 through the same path.
  • the rear radar 3 detects the moving object 201 as a virtual image 201 'as if it were under the ground GND.
  • the ground reflection position is corrected as shown in FIG.
  • the height of the moving body 201 is determined to be lower than the ground level. Therefore, the target extracted between the rear radar 3 and the moving body 201 in step G105-1.
  • the (second target) is the ground GND
  • the height (z) of the detected target that is, the virtual image 201 ′
  • ⁇ z the opposite sign
  • the position of the moving body 201 can be specified by correcting the height of the moving body 201 even using the radar wave 31 reflected by the ground GND.
  • step G106 the side reflection position correction in step G106 will be described with reference to FIGS. 8, 9, and 10.
  • 8 and 9 both show a state in which the own vehicle 101 and the surrounding vehicle 115 are running together, or both are stopped, or one is stopped and the other is moving at low speed in parallel. This is a state that occurs, for example, during traffic jams. At this time, it is assumed that the moving body (for example, a motorcycle passing through) 201 is approaching faster than the surrounding vehicle 115.
  • the rear radar 3 mounted on the host vehicle 101 detects the virtual image 201 'as a moving object at the position (x, y, z).
  • the surrounding vehicle (second target) 115 exists between the rear radar 3 and the moving body (first target) 201 in step G103, and the height of the moving body 201 is higher than the ground in step G104. Since it is known that this is present, this is determined to be a virtual image 201 ′ due to the side reflection of the surrounding vehicle 115.
  • the target extracted between the rear radar 3 and the moving body 201 is the vehicle side surface of the surrounding vehicle 115, and the surrounding vehicle located between the rear radar 3 and the detection position of the virtual image 201 'is detected.
  • the information 115 is extracted, and the information (direction information of the specular reflection) of the surface (mirror surface) S1 in the information is extracted.
  • the x direction of the mirror surface S1 (direction substantially perpendicular to the traveling direction of the host vehicle 101 and the like). Is x0, and the detection position of the virtual image 201 ′ is x0 + dx, the corrected position of the moving body 201 in the x direction is x0 ⁇ dx.
  • the position of the moving body 201 in the x direction is a position that is symmetric with respect to the vehicle side surface (mirror surface S1) of the surrounding vehicle 115.
  • the position of the moving body 201 is specified by correcting the coordinates of the virtual image 201 'to the coordinates of the moving body 201.
  • the own vehicle 101 and the surrounding vehicle 115 (specifically, the traveling direction of the own vehicle 101 and the vehicle side surface (mirror surface S1)) of the surrounding vehicle 115 are inclined at an angle ( ⁇ ) in a curved state.
  • the speed of the moving body 201 is a scalar amount if the rear radar 3 obtains the speed from the Doppler shift, and there is no need for conversion. If the rear radar 3 obtains a velocity vector from a change in position, a correct velocity vector can be obtained by using the corrected position information of the moving body 201 to obtain the velocity.
  • step H104 moving object determination
  • step F108 moving object risk estimation
  • the actual position and speed of the moving object 201 can be used instead of the virtual image 201 ', so that tracking can be performed at the correct target position (step H105).
  • step H106 the TTC calculation based on the calculated tracking information
  • step H107 the risk of collision can be accurately determined
  • the moving body 201 approaching from behind for example, a rear approaching moving body such as a slip-through motorcycle
  • the more dangerous lane change during traffic congestion is a passing motorcycle or the like running beside the own lane (the lane on which the own vehicle 101 runs) on the lane changing side.
  • the virtual image 201 'due to ground reflection below the vehicle in the adjacent lane is located further away from the vehicle 101, and the risk of collision is smaller. For this reason, it is more important to find a passing motorcycle or the like moving near the own lane, and this can be realized by a technique that is not available in the related art, such as detecting the position of the moving body 201 by the side reflection of the surrounding vehicle 115.
  • the rear radar 3A mounted on the vehicle in this example is a radar device capable of transmitting and receiving a pencil beam type radio wave (radar wave) and scanning a beam.
  • radar wave pencil beam type radio wave
  • the position of the virtual image 201 ' is corrected in the detection range 301 in step F108A equivalent to step F108, and the actual image is corrected.
  • the risk of collision with the moving body 201 can be determined. In this case, as shown in FIG. 12, by adding step H110 (estimated dangerous moving object confirmation) to step F108 in FIG. 3, the moving object 201 can be detected in a shorter time.
  • the rear radar 3A performs beam scanning (scanning) over a wide area to detect the position and speed of the peripheral target at regular intervals, but the virtual image 201 detected by the rear radar 3A.
  • the movement of the moving body 201 is tracked using the past tracking information, the position and traveling trajectory of the moving body 201 are predicted, and the detection range 301 is detected at the predicted time of the virtual image 201 ′ corresponding to the predicted position. If the virtual image 201 ′ can be detected by irradiating the beam (radar wave), it is possible to increase the accuracy that the moving body 201 is a dangerous object approaching backward such as a motorcycle passing through.
  • the rear radar 3A can increase the accuracy by scanning the estimated position of the moving object 201 having a specific risk without scanning the entire area, it is possible to predict the risk of a collision in a short time. There is a new effect that can be done.
  • the position estimation of the virtual image 201 ′ using the past tracking information is executed based on the corrected tracking information of the moving body 201 and the speed information of the moving body 201. That is, the position of the virtual image 201 'can be calculated assuming that reflection occurs on the vehicle side surface (mirror surface S1) of the surrounding vehicle 114.
  • the position of the virtual image 201 ′ is determined based on the tracking information and the mirror surface information including the position, speed, and size of each surrounding vehicle 114. Can be calculated.
  • the radar processing device of the present embodiment extracts the first target having a speed equal to or higher than the predetermined value from the surrounding targets, and extracts the first target existing between the rear radar 3 and the first target.
  • the two targets are extracted, the direction of the specular reflection of the radar wave 31 on the target surface of the second target is estimated, and the position of the first target is specified from the direction of the specular reflection of the radar wave 31.
  • the radio wave (radar wave 31) emitted from the rear radar 3 mounted on the vehicle 101 is directly or indirectly applied to and reflected on the moving body 201, so that the distance to the moving body 201 and the line-of-sight speed are increased.
  • a radar processing device for detecting angles in the horizontal and vertical directions including a function of estimating a danger of collision with the moving body 201 when the lane of the own vehicle 101 is changed, and the rear radar 3 is an area that is shadowed by surrounding vehicles. Is detected even if the moving object 201 exists in the rear radar 3 and the target is located between the rear radar 3 and the moving object 201, and if the moving object 201 is below the ground, the position of the ground reflection is corrected. In other cases, a position correction function of correcting the position, speed, and angle of the moving body 201 by performing position correction of side reflection as vehicle side reflection.
  • a moving body 201 approaching from behind (rear approaching moving body) 201 is a shadow portion where the radar wave 31 does not directly reach the surrounding vehicles.
  • the virtual image position can be corrected to the actual moving position by using the indirect wave reflected on the road surface or the surrounding vehicles.
  • the moving body (rear approaching moving body) 201 can be detected prior to the lane change, so that the lane change can be performed safely while avoiding a collision.
  • a moving body (small slippery motorcycle, etc.) 201 approaching from the side of the lane from behind has a high risk of collision at the time of lane change.
  • the surrounding vehicle is behind the adjacent lane. In some cases, this cannot be found.
  • the moving body 201 can be found by using the specular reflection of the surrounding vehicle, so that the effect of avoiding collision with the moving body 201 can be avoided. is there.
  • the characteristic configuration of the present invention has been described in detail by exemplifying a case in which a rear radar mounted on a vehicle is used.
  • the present invention can be applied to a side radar or the like to be monitored.
  • the present invention is not limited to the above-described embodiment, and includes various modifications.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described above.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of one embodiment can be added to the configuration of another embodiment.
  • the above-described configurations, functions, processing units, processing means, and the like may be partially or entirely realized by hardware, for example, by designing an integrated circuit.
  • the above-described configurations, functions, and the like may be realized by software by a processor interpreting and executing a program that realizes each function.
  • Information such as a program, a table, and a file for realizing each function can be stored in a memory, a hard disk, a storage device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • control lines and information lines are those that are considered necessary for explanation, and do not necessarily indicate all control lines and information lines on the product. In fact, it can be considered that almost all components are connected to each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本発明は、渋滞で複数の周辺車両がストップアンドゴーを繰り返す状況で自車両が車線変更する際に、例えば後方から接近して来る移動体を検知して衝突を回避することのできるレーダ処理装置を提供する。本発明は、後方レーダ3は、周辺物標を検知し、周辺物標の中で速度の速い物標(すり抜けバイク等)を検知し、物標情報から地面反射と車両側面反射を利用し、後方レーダ3のレーダ波31が直接届かない場所であっても、反射であることを検知し、これにより移動体201の位置を補正し、補正された位置と速度から車線変更時に衝突の危険性を推定し、危険性に基づき車線変更する、あるいは車線変更延期を判断する。

Description

レーダ処理装置
 本発明は、例えば自動運転車両および運転支援車両の制御に用いられる車載用レーダ処理装置に関する。
 従来、自動車の自動運転や運転支援システムにおいて周囲の障害物等の物体(以下、周辺物体や周辺物標という)を検出する車載レーダ装置が知られている。こうしたレーダ装置は一般に、ミリ波帯(77GHz、79GHz)や準ミリ波帯(24GHz)の伝播の直線性が優れる周波数帯の電波(レーダ波)を放射し、周辺物体からの反射波を受信して信号処理することで、周辺物体の相対的な距離、視線方向の速度、方向(角度)を算出する装置である。
 また、車両が車線変更する場合、車両は前方の静止物や移動体との衝突を避けなければならない。レーダ波は直進性がよいために路面で反射する性質があり、その性質を用いて前方車両(対向車両、停止車両、先行車両等)の更に遠方の移動体を検知する技術が特許文献1~3に開示されている。また、レーダの別の方式として電磁波ビームを鉛筆状(ペンシルビーム)に細くし、そのペンシルビームをスキャンすることで高精度に移動体を検知する方法も既に提案されている。
特許第6188779号公報 特許第4513662号公報 特開平11-353599号公報
 ところで、車両が車線変更する場合、前方の静止物や移動体との衝突回避ばかりでなく、後方の移動体についても衝突回避が必要である。例えば図13は渋滞中であって、自車両101が車線変更をする場合の周辺状況を示している。自車両101の周辺の周辺車両111~115は渋滞中を自車両101と併走し、混雑変化に応じてストップアンドゴーを繰り返している。その中にあって、周辺車両111~115より速い速度を持つ移動体201の、いわゆるすり抜けバイクや自転車、緊急車両等(後方接近移動体などともいう)が自車両101後方から周辺車両114、115の間を接近して進んでくることが多い。そのとき、自車両101が移動体201の前方に車線変更すると、衝突の危険がある。
また、自車両101に搭載されたレーダ装置(後方レーダ)3からは、所定のビーム角の広がりをもった検知範囲301にレーダ波31が照射されるが、周辺車両114により直接レーダ波が到達することができない場合、直接移動体201を検知することができない場合があった。
 本発明は、上記事情に鑑みてなされたもので、その目的とするところは、係る車線変更シーンにおいても移動体を検知し、衝突の危険を推定し、危険と推定された場合は車線変更を延期するなどして安全に車線変更を可能にするレーダ処理装置を提供することにある。
 上記の課題を解決するため、本発明に係るレーダ処理装置は、レーダ装置から照射したレーダ波の周辺物標からの反射波を受信して信号処理するレーダ処理装置において、周辺物標より所定値以上の速度を持つ第1物標を抽出し、前記レーダ装置と前記第1物標との間に存在する第2物標を抽出し、前記第2物標の物標表面での前記レーダ波の鏡面反射の向きを推定し、前記レーダ波の鏡面反射の向きから前記第1物標の位置を特定することを特徴としている。
 本発明によれば、自車両が車線変更する場合であって、例えば後方から接近する移動体
(後方接近移動体)が周辺車両で直接レーダ波の届かない影の部分を走行する場合でも、路面や周辺車両で反射する間接波を用いることで、虚像位置から実際の移動位置へ補正することができる。これにより、車線変更に先立ち、移動体(後方接近移動体)を検知できるので、衝突を回避しながら安全に車線変更を行うことができる。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係るレーダ処理装置が適用された車両制御システムの構成を示すブロック図。 本発明に係るレーダ処理装置を用いた車両制御システムの動作フローを示す図。 本発明に係るレーダ処理装置の移動体危険性推定のフローを示す図。 本発明に係るレーダ処理装置の物標グルーピングを説明する図。 本発明に係るレーダ処理装置の移動体判定のフローを示す図。 本発明に係るレーダ処理装置の地面反射位置補正の原理を説明する図。 本発明に係るレーダ処理装置の地面反射位置補正のフローを示す図。 本発明に係るレーダ処理装置の側面反射位置補正の原理(その1)を説明する図。 本発明に係るレーダ処理装置の側面反射位置補正の原理(その2)を説明する図。 本発明に係るレーダ処理装置の側面反射位置補正のフローを示す図。 本発明に係るレーダ処理装置の他例であって、渋滞時の車線変更シーンとレーダ波の伝播と反射を説明する図。 本発明に係るレーダ処理装置の他例であって、レーダ処理装置の移動体危険性推定のフローを示す図。 本発明で解決すべき渋滞時の車線変更シーンを説明する図。
 以下、図面に従って本発明の実施形態について説明する。
 図1は、本発明のレーダ処理装置が適用された車両制御システム1の構成を示すブロック図である。
 車両制御システム1は、前方レーダ2、後方レーダ3、車速センサ4を搭載する。前方レーダ2は、例えば自車両101の前方に取り付けられ、当該自車両101の前方を監視するレーダ装置である。後方レーダ3は、例えば自車両101の後方に取り付けられ、当該自車両101の後方を監視するレーダ装置である。車速センサ4は、自車両101の車速を検出するためのセンサである。この他、車両制御システム1は、光学センサとしてのカメラ5を搭載してもよい。各センサ(2~5)の出力情報はセンサECU10に入力される。センサECU(電子制御ユニット)10では、各センサ(2~5)の情報を統合し、自車両101と周辺物標の位置、周辺物標の相対速度の関係などを割り出し、周辺物標との衝突の危険性や衝突までの時間TTC(Time To Collision)を計算して走行ECU11に出力する。その情報に基づき、走行ECU11は、ステアリング6、スロットル7、ブレーキ8を用いて加減速や停止、操舵で危険回避制御を行う。また、走行ECU11は、ドライバーに警報機9を用いた警告を発することもできる。なお、危険性の推定やTTCの計算、警報信号の生成を担うECUは、前方レーダ2や後方レーダ3などのセンサ側にあっても良い。また、本発明のレーダ処理装置は、例えば、センサECU10内に設けられてもよいし、後方レーダ3に搭載されたECU内に設けられてもよい。
 次に、車両制御システム1の動作を図2のフローを用いて説明する。前提とする制御シーンは図13の渋滞時の車線変更である。自車両101は、自律的に走行する自動運転の状態であっても、あるいはドライバー制御下にある運転支援の状態であってもよい。
 図2において走行開始後、まず前方レーダ2や後方レーダ3を含む各種センサでセンシングを行い(ステップF101)、自車両101は走行制御状態に遷移する(ステップF102)。例えば、前方レーダ2や後方レーダ3は、ここでは、従来と同様、所定周波数帯の電波(レーダ波)を照射し、周辺物体(周辺車両や障害物等)からの反射波を受信して信号処理することで、周辺物体の相対的な距離、視線方向の速度、方向(角度)をセンシングする。このとき、自車両101は行き先までの経路が予め設定され、経路に沿った運行計画がなされた状態であってもよいし、リアルタイムで得られた道路情報に基づき経路計画が変更されてもよい。いずれにおいてもどこかのタイミングで車線変更が計画される(ステップF103)。また、ドライバーによるウィンカ点灯等を契機として車線変更の意思を車両制御システム1に伝える動作であってもよい。また、前記センシング(ステップF101)は前記車両走行制御(ステップF102)と並列動作してもよい。
 車両制御システム1が車線変更を計画した場合(ステップF103)、自車両101の前方に障害物があるか否かを判断する(ステップF104)。自車両101の前方に障害物がある(Yes)と判断すれば、障害物が自車両101の走行可能な経路上にあるか否かを判断し(ステップF105)、障害物が自車両101の走行可能な経路上にあり(Yes)、車線変更後の経路を含む経路上で停止以外に回避できないならば、走行停止指定を出力する(ステップF106)。ステップF105(自車走行経路上障害物有無判断)で、自車両101の車線変更後の経路上に障害物が無い(No)と判断すれば、ステップF107に遷移して車線変更延期指令を出力する。
 ステップF104(前方障害物有無判断)で、自車両101の前方に障害物がない(No)と判断した場合、後方からの接近移動体(後方接近移動体)の推定に移行する。後述のステップF108で移動体危険性を推定し、後方から近づく移動体(小型のすり抜けバイク/自転車や緊急車両等)があるか否かを判定し(ステップF109)、後方接近移動体があり(Yes)、衝突の危険があると判断すれば、車線変更延期指令を出力する(ステップF107)。ステップF109(後方接近移動体有無判断)で、後方接近移動体無し(No)と判定されれば、衝突の危険がないため、車線変更指令を出力し(ステップF110)、車両走行制御(ステップF102)に遷移する。
 図2では、前方障害物検知と後方からの接近移動体検知はシリアルに処理する場合を述べたが、前方検知と後方検知が異なるセンサを用いる場合は並列に処理することも可能である。この場合、検知・判断が短時間で行える効果がある。
 次に、前記したステップF108の移動体危険性推定を、図3を用いて説明する。このフローは後方レーダ3に搭載されたECUで行ってもよいし、センサECU10で行ってもよい。
 図3のステップH102は、後方レーダ3の測定結果である複数の反射点(検知点)を保持するステップである。ここで測定とは、後方レーダ3から変調された電波(レーダ波)が照射され、周辺物体で反射して受信された信号に多数含まれる反射情報(位置、速度、角度等)を得ることをいう。ステップH103は、その反射情報(測定情報)から物標をグルーピングするステップである(後で詳述)。ステップH104は、ステップH103のグルーピングに基づき、移動体判定を行うステップである(後で詳述)。ステップH105は、物標のトラッキングを行うステップである。このトラッキングは、測定情報の変動を抑え、動体、静止物の位置や速度、角度を時系列に表した情報を得る処理である。
ステップH106は、物標との衝突までの時間(TTC)を計算するステップであり、ステップH107は、ステップH106で算出したTTCに基づき危険性を判定するステップである。すなわち、ステップH106で算出したTTCが自車両101と検知物標の相対速度に基づく閾値より長ければ、衝突の危険性はないと判断される。
 次に、図4で、前記したステップH103の物標グルーピングを説明する。
 ステップH103の物標グルーピングは、複数の反射点(測定点)から同一の移動体であると認識するステップである。図4に示すように、自車両101に搭載された後方レーダ3の検知範囲301内の周辺車両(周辺物標)114の検知された測定点(P1~P8)から同一物標としてグルーピングされる。このグルーピングの方法は、測定点同士が近い、前後の測定時刻で同じ速度を持っている、前後の測定時刻で測定点からなる形状が変わらない、などを特徴点として物標抽出できる。このとき、自車両101に搭載の後方レーダ3から見て、グルーピングされた物標の測定点が同じ面にある場合、これを外周面(もしくは外表面)(S1、S2)とし、これを求めておく。外周面(S1、S2)は後方レーダ3からのレーダ波31が直接照射された面であり、物標が金属で出来た車両である場合、後方レーダ3からのレーダ波31はこの面(S1、S2)で鏡面反射されることになる。つまり、ここで、物標(周辺車両114)の物標表面(鏡面)でのレーダ波31の鏡面反射の向きや、物標(周辺車両114)の物標表面(鏡面)の向きを推定できる。また、測定点P1~P8の空間的広がりから、物標(周辺車両114)のサイズも推定することができる。このサイズは、外周の反射面のサイズ情報を与える。
 次に、図5を用いて前記したステップH104の移動体判定を説明する。
 本ステップH104は、後方レーダ3内蔵のECUで処理させてもよいし、センサECU10で処理させてもよい。以降、センサECU10で処理された場合について記載する。
 ステップH104に先立ち、前記ステップF101で後方レーダ3により反射点が測定され、後方レーダ3からの出力情報を用いてステップF108(のステップH104)は処理される。
 まず、ステップG102において、検知結果にて周辺物標の中から速度の速い検知点があるか否かを判断する。周辺物標より所定値以上の速度を持つ検知点である移動体(第1物標)がある場合(Yesの場合)、ステップG103において、後方レーダ3と移動体の間に物標(第2物標)があるか否かを判断する。当該ステップG103にて物標ありとされた場合(Yesの場合)、ステップG104にて、移動体の高さが地面以下か否かを判断する。当該高さが地面以下である場合(Yesの場合)、ステップG105にて地面反射位置補正がなされる(後で詳述)。
 また、ステップG102において、検知点の速度が周辺物標より遅い場合(Noの場合)、危険な移動体ではないと判断される(ステップG107)。また、ステップG103にて、後方レーダ3と移動体の間に物標が無い場合(Noの場合)、通常の周辺車両として認識される。また、ステップG104にて、移動体の高さが地面より高いと判断された場合(Noの場合)、ステップG106にて側面反射位置補正がなされる(後で詳述)。
 次に、図6と図7を用いて前記したステップG105の地面反射位置補正を説明する。
 図6は、後方レーダ3を搭載する自車両101とおおむね並んだ周辺車両114と移動体(例えばすり抜けバイク)201、及び後方レーダ3から移動体201までのレーダ波31を表し、これらを正面から見た図である。
 後方レーダ3から送信されたレーダ波31は周辺車両114の車体の下を通過し、地面GNDで反射して移動体201に到達する。レーダ波31は移動体201で反射され、その反射波は同じ経路を通って後方レーダ3に帰着する。このような配置の場合、後方レーダ3は移動体201をあたかも地面GNDの下にあるかのごとく虚像201’として検出することになる。
 このような場合、図7のように地面反射位置補正を行うことになる。前述したように高さ判断(ステップG104)で移動体201の高さが地面以下と判断されたので、ステップG105-1にて、後方レーダ3と移動体201との間で抽出された物標(第2物標)が地面GNDとし、検知物標(つまり、虚像201’)の高さ(z)を反符合(-z)とする(言い換えれば、符号を反転させる)。ここで、水平面位置(x、y)と水平面の視線速度(Vxy)に変更は無い。なお、ここでは、レーダ波31の鏡面反射の向き等から地面GND(の表面)の傾き(鏡面の向き)が分かるので、それを考慮して検知物標の高さ(z)等を換算してもよい。このように処理することで、地面GNDで反射されたレーダ波31を用いても、移動体201の高さを補正して移動体201の位置を特定できる。
 次に、図8、図9、図10を用いて前記したステップG106の側面反射位置補正を説明する。図8及び図9はともに、自車両101と周辺車両115が併走、あるいは、両方停止し、もしくは一方が停止して他方が平行に低速移動している状態である。これは、例えば渋滞時に生じる状態である。このとき、移動体(例えばすり抜けバイク)201が周辺車両115より早く接近しているとする。
 自車両101に搭載された後方レーダ3は、虚像201’を位置(x、y、z)にある移動体として検知する。前述したようにステップG103で後方レーダ3と移動体(第1物標)201の間に周辺車両(第2物標)115があること、ステップG104で移動体201の高さが地面より上にあることが分かっているので、これは周辺車両115の側面反射による虚像201’と判断されている。図10のステップG106-1では、後方レーダ3と移動体201との間で抽出された物標が周辺車両115の車両側面とし、後方レーダ3と虚像201’の検知位置の間にある周辺車両115の情報を取り出し、その情報の中の鏡面反射する面(鏡面)S1の情報(鏡面反射の向き情報)を取り出す。図8のように、鏡面S1の向きが自車両101の向きとほぼ平行な場合は、ステップG106-2では、鏡面S1のx方向(自車両101等の進行方向に対して略垂直な方向)の値がx0の場合、虚像201’の検知位置がx0+dxとすると、補正後の移動体201のx方向の位置はx0-dxとなる。すなわち、移動体201のx方向位置は、周辺車両115の車両側面(鏡面S1)に対して対称となる位置になる。ここで、yz平面の位置に変更は無い。このように、この虚像201’の座標を、移動体201の座標に補正して移動体201の位置を特定する。
 また、図9のように、カーブのある状態で自車両101と周辺車両115(詳しくは、自車両101の進行方向と周辺車両115の車両側面(鏡面S1))が角度(θ)で傾いている場合、図10のステップG106-2では、後方レーダ3と虚像201’の間にある周辺車両115の車両側面(鏡面S1)の向きから、実際の移動体201の位置に補正することが出来る。すなわち、虚像201’の位置から移動体201への位置の補正は、周辺車両115の位置と角度(θ)が分かっているので、鏡面反射の入射角と反射角が同じという性質を用いれば簡単に計算できる。すなわち、ここでも、虚像201’の位置と移動体201の位置は、周辺車両115の車両側面(鏡面S1)に対して対称となる位置になる。
 また、移動体201の速度は、後方レーダ3がドップラーシフトから求める方法であればスカラー量であり、変換の必要は無い。また、後方レーダ3が位置の変化から速度ベクトルを求める方法であれば、速度を求めるのに補正後の移動体201の位置情報を用いれば、正しい速度ベクトルを求めることが出来る。
 このように、ステップH104(移動体判定)では、移動体201の虚像201’が地面反射によるものか側面反射によるものかを区別でき、かつ、実際の移動体201の位置と速度に精緻に補正することが出来る。これにより、ステップF108(移動体危険性推定)では、虚像201’でなく実際の移動体201の位置、速度を用いることが出来るので、正しい物標位置でトラッキングできる(ステップH105)。また、計算されたトラッキング情報に基づくTTC計算(ステップH106)が可能となり、衝突の危険性を正確に判定(ステップH107)することが出来る。これらにより、自車両101が自動運転状態あるいは運転支援状態であって、移動体201が直接検知できない場所にあっても、後方から接近する移動体(例えばすり抜けバイク等の後方接近移動体)201の存在を検知して衝突の危険性を計算した上で、通り過ぎるのを待つなど安全に車線変更することが出来るようになる。
 なお、渋滞時の車線変更でより危険なのは、車線変更する側で自車線(自車両101が走行する車線)横を走るすり抜けバイク等である。隣接車線の車両の下の地面反射による虚像201’は、自車両101から更に遠い位置にあり、衝突の危険性はより少ない。このため、自車線近くを移動するすり抜けバイク等を見つけることがより重要であり、これは、周辺車両115の側面反射による移動体201の位置検知という従来技術に無い技術で実現可能である。
 次に、後方接近移動体を検知するための後方レーダの測定方式が異なる例を、図11、図12を用いて説明する。
 本例における上述の実施形態との差は、用いる後方レーダ3Aの測定方式である。すなわち、本例における車載用の後方レーダ3Aは、ペンシルビーム型の電波(レーダ波)を送信受信し、かつ、ビームをスキャン(走査)することができるレーダ装置である。ペンシルビーム型の後方レーダ3Aであっても、上述の実施形態の後方レーダ3と同様に、検知範囲301の中に虚像201’をステップF108と同等のステップF108Aにて位置補正の上、実際の移動体201との衝突の危険性を判定できる。この場合、図12に示すように、図3のステップF108に対して、ステップH110(推定危険移動体確認)を追加することで、より短い時間で移動体201を検知することができる。
 図12(のステップH110)では、後方レーダ3Aは広範囲にビームスキャン(走査)することで一定時間ごとに周辺物標の位置や速度を検知しているが、後方レーダ3Aで検知された虚像201’においては、過去のトラッキング情報を用いて移動体201の移動を追跡し、移動体201の位置や走行軌道を予測し、その予測位置に対応した虚像201'の予想された時刻に検知範囲301のビーム(レーダ波)を照射し、そこに虚像201’を検知出来れば、移動体201がすり抜けバイクなどの後方接近危険物であるとの確度を増すことが出来る。また、後方レーダ3Aは全領域をスキャンすることなしに、特定の危険性のある移動体201の推定位置をスキャンすることで確度を高められるので、短時間に衝突の危険性を予測することが出来るという新たな効果もある。なお、過去のトラッキング情報を用いた虚像201’の位置推定は、補正された移動体201のトラッキング情報と移動体201の速度情報に基づき実行される。すなわち、周辺車両114の車両側面(鏡面S1)の反射が起こるとして虚像201'の位置を計算することが出来る。また、状況により直接レーダ波が届く場合も、周辺車両114の側面反射がなくなる場合も、それらのトラッキング情報と周辺車両毎の位置、速度、サイズを含む鏡面情報を元に虚像201'の位置を計算することが出来る。
 以上で説明したように、本実施形態のレーダ処理装置は、周辺物標より所定値以上の速度を持つ第1物標を抽出し、後方レーダ3と第1物標との間に存在する第2物標を抽出し、第2物標の物標表面でのレーダ波31の鏡面反射の向きを推定し、レーダ波31の鏡面反射の向きから第1物標の位置を特定する。
 より詳しくは、自車両101に搭載された後方レーダ3から照射した電波(レーダ波31)が直接的、間接的に移動体201に照射・反射されることで移動体201との距離、視線速度および水平・垂直方向の角度を検出するレーダ処理装置であって、自車両101の車線変更時に移動体201との衝突危険性を推定する機能を含み、後方レーダ3は周辺車両で影になる領域に存在する移動体201であってもこれを検出し、後方レーダ3と移動体201の間に物標がある場合に移動体201が地面以下である場合は地面反射の位置補正を行い、それ以外の場合は車両側面反射として側面反射の位置補正を行って、移動体201の位置と速度、角度を補正する位置補正機能を有する。
 このような構成を採用することにより、自車両101が車線変更する場合であって、例えば後方から接近する移動体(後方接近移動体)201が周辺車両で直接レーダ波31の届かない影の部分を走行する場合でも、路面や周辺車両で反射する間接波を用いることで、虚像位置から実際の移動位置へ補正することができる。これにより、車線変更に先立ち、移動体(後方接近移動体)201を検知できるので、衝突を回避しながら安全に車線変更を行うことができる。特に自車線横を後ろから接近する移動体(小型のすり抜けバイク等)201は車線変更時に衝突の危険が高いが、従来技術の路面反射を利用した移動体推定では周辺車両が隣車線の後方にある場合はこれを見つけられないのに対して、当該周辺車両の鏡面反射を利用することで移動体201を見つけることができるので、この移動体201との衝突を回避することができるという効果がある。
 なお、上述した実施形態においては、本発明の特徴構成を車両に搭載された後方レーダを用いた場合を例示して詳細に説明したが、自車前方を監視する前方レーダや自車側方を監視する側方レーダ等にも本発明を適用できることは勿論である。
 以上で説明した実施形態や各種変形形態はあくまで一例であり、本発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。また、上記では種々の実施形態や変形形態を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
 本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1:車両制御システム、2:前方レーダ(前方を監視するレーダ装置)、3:後方レーダ(後方を監視するレーダ装置)、4:車速センサ、5:カメラ(光学センサ)、6:ステアリング、7:スロットル、8:ブレーキ、9:警報機、10:センサECU、11:走行ECU、31:レーダ波、101:自車両、111、112、113、114、115:周辺車両(第2物標)、201:移動体(後方接近移動体)(第1物標)、201’:移動体、201の虚像、301:検知範囲、F101:センシングステップ、F102:車両走行制御ステップ、F103:車線変更計画ステップ、F104:前方障害物有無の判断ステップ、F105:自車走行経路上に障害物があるか否かの判断ステップ、F106:走行停止指令出力ステップ、F107:車線変更延期指令出力ステップ、F108:移動体危険性推定ステップ、F109:後方接近移動体有無の判断ステップ、F110:車線変更指令出力ステップ、H102:反射点検知ステップ、H103:物標グルーピングステップ、H104:移動体判定ステップ、H105:物標トラッキングステップ、H106:衝突までの時間TTC(Time To Collision)計算ステップ、H107:危険性判定ステップ、H110:推定危険移動体の確認ステップ、G102:移動体が周辺物標より速いか否かの判断ステップ、G103:後方レーダと移動体の間に物標があるか否かの判断ステップ、G104:移動体の高さが地面以下かの判断ステップ、G105:地面反射位置補正ステップ、G105-1:位置(高さ)補正処理ステップ、G106:側面反射位置補正ステップ、G106-1:移動体と後方レーダ間の物標情報の取り出しステップ、G106-2:鏡面情報から移動体の位置と速度の補正ステップ、G107:危険移動体ではないとの状態決定ステップ、GND:地面、S1、S2:グルーピングされた物標の持つ鏡面反射する面(鏡面)、P1~P8:物標の測定点(検知点)

Claims (7)

  1.  レーダ装置から照射したレーダ波の周辺物標からの反射波を受信して信号処理するレーダ処理装置において、
     周辺物標より所定値以上の速度を持つ第1物標を抽出し、
     前記レーダ装置と前記第1物標との間に存在する第2物標を抽出し、
     前記第2物標の物標表面での前記レーダ波の鏡面反射の向きを推定し、
     前記レーダ波の鏡面反射の向きから前記第1物標の位置を特定することを特徴としたレーダ処理装置。
  2.  請求項1に記載のレーダ処理装置において、
     前記第1物標の高さが地面以下である場合には前記第2物標が地面として地面反射位置補正を行い、
     前記第1物標の高さが地面より高い場合には前記第2物標が物標側面として側面反射位置補正を行うことを特徴としたレーダ処理装置。
  3.  請求項2に記載のレーダ処理装置において、
     前記第1物標の高さが地面以下である場合には、前記第1物標の高さを反符号として補正することを特徴としたレーダ処理装置。
  4.  請求項2に記載のレーダ処理装置において、
     前記第1物標の高さが地面より高い場合には、前記第1物標の横方向位置を前記第2物標の物標側面に対して対称となる位置に補正することを特徴としたレーダ処理装置。
  5.  請求項1に記載のレーダ処理装置において、
     前記第1物標は、前記レーダ装置が搭載された自車後方から来る後方接近移動体であることを特徴としたレーダ処理装置。
  6.  請求項5に記載のレーダ処理装置において、
     前記後方接近移動体の移動を追跡し、前記後方接近移動体の走行軌道を予測し、前記予測した走行軌道方向に前記レーダ波を走査することを特徴としたレーダ処理装置。
  7.  請求項5に記載のレーダ処理装置において、
     予め自車前方の障害物を検知し、自車前方に障害物がないと判断した場合に、前記後方接近移動体の位置特定を行うことを特徴としたレーダ処理装置。
PCT/JP2019/029155 2018-08-23 2019-07-25 レーダ処理装置 WO2020039840A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020538250A JP7028982B2 (ja) 2018-08-23 2019-07-25 レーダ処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-156635 2018-08-23
JP2018156635 2018-08-23

Publications (1)

Publication Number Publication Date
WO2020039840A1 true WO2020039840A1 (ja) 2020-02-27

Family

ID=69592570

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/029155 WO2020039840A1 (ja) 2018-08-23 2019-07-25 レーダ処理装置

Country Status (2)

Country Link
JP (1) JP7028982B2 (ja)
WO (1) WO2020039840A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223326A (zh) * 2021-04-28 2021-08-06 上海电科智能系统股份有限公司 基于路侧的多车多控多源低速辅助停车系统
JP2021168065A (ja) * 2020-04-13 2021-10-21 トヨタ自動車株式会社 車載センサシステム
WO2022075062A1 (ja) * 2020-10-05 2022-04-14 ソニーグループ株式会社 物体位置検出装置、物体位置検出システム及び物体位置検出方法
WO2022130561A1 (ja) * 2020-12-17 2022-06-23 日本電信電話株式会社 ミリ波推定装置、方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349456A (ja) * 2005-06-15 2006-12-28 Denso Corp 車載レーダ装置、車両制御システム
JP2010127835A (ja) * 2008-11-28 2010-06-10 Toyota Motor Corp レーダ装置
JP2013250151A (ja) * 2012-05-31 2013-12-12 Fujitsu Ten Ltd レーダ装置、および、信号処理方法
JP2014052187A (ja) * 2012-09-04 2014-03-20 Fujitsu Ten Ltd レーダ装置および物標高算出方法
JP2016148547A (ja) * 2015-02-10 2016-08-18 トヨタ自動車株式会社 検知装置
EP3299841A1 (en) * 2016-09-22 2018-03-28 Continental Automotive GmbH Method and apparatus for analyzing reflection signals, driver assistance system, and vehicle
JP2018100899A (ja) * 2016-12-20 2018-06-28 パナソニックIpマネジメント株式会社 物体検出装置、物体検出プログラム、および記録媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349456A (ja) * 2005-06-15 2006-12-28 Denso Corp 車載レーダ装置、車両制御システム
JP2010127835A (ja) * 2008-11-28 2010-06-10 Toyota Motor Corp レーダ装置
JP2013250151A (ja) * 2012-05-31 2013-12-12 Fujitsu Ten Ltd レーダ装置、および、信号処理方法
JP2014052187A (ja) * 2012-09-04 2014-03-20 Fujitsu Ten Ltd レーダ装置および物標高算出方法
JP2016148547A (ja) * 2015-02-10 2016-08-18 トヨタ自動車株式会社 検知装置
EP3299841A1 (en) * 2016-09-22 2018-03-28 Continental Automotive GmbH Method and apparatus for analyzing reflection signals, driver assistance system, and vehicle
JP2018100899A (ja) * 2016-12-20 2018-06-28 パナソニックIpマネジメント株式会社 物体検出装置、物体検出プログラム、および記録媒体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021168065A (ja) * 2020-04-13 2021-10-21 トヨタ自動車株式会社 車載センサシステム
JP7327257B2 (ja) 2020-04-13 2023-08-16 トヨタ自動車株式会社 車載センサシステム
WO2022075062A1 (ja) * 2020-10-05 2022-04-14 ソニーグループ株式会社 物体位置検出装置、物体位置検出システム及び物体位置検出方法
WO2022130561A1 (ja) * 2020-12-17 2022-06-23 日本電信電話株式会社 ミリ波推定装置、方法及びプログラム
CN113223326A (zh) * 2021-04-28 2021-08-06 上海电科智能系统股份有限公司 基于路侧的多车多控多源低速辅助停车系统

Also Published As

Publication number Publication date
JPWO2020039840A1 (ja) 2021-08-26
JP7028982B2 (ja) 2022-03-02

Similar Documents

Publication Publication Date Title
WO2020039840A1 (ja) レーダ処理装置
US6888447B2 (en) Obstacle detection device for vehicle and method thereof
JP6060091B2 (ja) 車間距離制御システム
JP4823781B2 (ja) 車両の走行安全装置
US9102329B2 (en) Tracking control apparatus
KR101964858B1 (ko) 충돌 방지 장치 및 충돌 방지 방법
US20210385573A1 (en) Enhanced autonomous systems with sound sensor arrays
JPWO2007111130A1 (ja) レーダ装置および移動体
US10907962B2 (en) Driving assistance system mounted in vehicle
WO2019008716A1 (ja) 可視外計測装置および可視外計測方法
WO2017138329A1 (ja) 衝突予測装置
GB2390244A (en) Method for estimating the curvature of a road using moving and stationary objects
KR102172385B1 (ko) 차량 레이더 시스템
US20230008630A1 (en) Radar device
JP5139744B2 (ja) 車両用物体検知装置
KR102172071B1 (ko) 물체 분류로 자동차의 주변 영역을 포착하는 방법, 제어 장치, 운전자 보조 시스템, 및 자동차
JP2002181936A (ja) 障害物位置計測方法および障害物位置計測装置
US11798417B2 (en) Driving assistance device
CN110678778B (zh) 用于检测迎面车辆的车辆系统
JP2010260504A (ja) 車両の走行安全装置
JP3559212B2 (ja) 運転支援装置
EP3413083B1 (en) A vehicle system for detection of oncoming vehicles
JP7324059B2 (ja) 車両用物体検出装置
US11906623B1 (en) Velocity estimation using light detection and ranging (LIDAR) system
US20230144600A1 (en) Detection and Localization of Non-Line-of-Sight Objects Using Multipath Radar Reflections and Map Data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19852974

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020538250

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19852974

Country of ref document: EP

Kind code of ref document: A1