WO2017104413A1 - 物体検出装置及び物体検出方法 - Google Patents

物体検出装置及び物体検出方法 Download PDF

Info

Publication number
WO2017104413A1
WO2017104413A1 PCT/JP2016/085518 JP2016085518W WO2017104413A1 WO 2017104413 A1 WO2017104413 A1 WO 2017104413A1 JP 2016085518 W JP2016085518 W JP 2016085518W WO 2017104413 A1 WO2017104413 A1 WO 2017104413A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
detection
target object
detection range
state
Prior art date
Application number
PCT/JP2016/085518
Other languages
English (en)
French (fr)
Inventor
崇弘 馬場
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US16/062,567 priority Critical patent/US20180372860A1/en
Publication of WO2017104413A1 publication Critical patent/WO2017104413A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/12Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with electromagnetic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/15Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation specially adapted for use during transport, e.g. by a person, vehicle or boat
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present disclosure relates to an object detection device and an object detection method for detecting an object existing around the host vehicle.
  • an object is individually detected using a radar and a camera in order to improve detection accuracy of an object existing around the host vehicle.
  • surroundings of the own vehicle is detected on the condition that the positional relationship of the object detected with the radar and the camera satisfy
  • the object may be out of one detection range. In this case, since the reliability of the detection result of the object is lowered, it is required to limit the control such as collision avoidance with respect to the object.
  • collision avoidance control may be necessary.
  • This disclosure is mainly intended to provide an object detection apparatus and an object detection method that can appropriately perform collision avoidance control on an object detected using a plurality of detection units having different detection ranges.
  • the 1st target detection part which detects the object contained in the 1st detection range ahead of the own vehicle as a 1st target, It is contained in the said 1st detection range, and said 1st
  • a second target detection unit that detects an object included in a second detection range narrower in the vehicle width direction than the detection range as a second target; and a detection position of the object is within the first detection range and the first 2 In the first state that falls within the detection range, selection that selects the object as a target object to be subjected to collision avoidance control on condition that the first target and the second target are the same object
  • a state determining unit that determines whether the detection position of the target object is transitioning from the first state to a second state that is outside the second detection range and within the first detection range
  • a moving body determination unit that determines whether the target object is a predetermined moving body; and When detecting the position of the elephants object transitions to the second state, on condition that the target object is a predetermined moving object, and
  • the detection position of the target object is the first A transition from a first state that is within the detection range and within the second detection range to a second state that is outside the second detection range and within the first detection range may occur.
  • the detection position of the target object is in the second state, the reliability of the detection result of the target object is lowered, so that it is necessary to limit the collision avoidance control for the target object.
  • the detection position of the target object transitions to the second state
  • the selection as the target object is continued on the condition that the target object is a predetermined moving body.
  • the detection position of the target object transitions to the second state
  • the same state is maintained without releasing the selected state as the target object on the condition that the target object is a predetermined moving body.
  • FIG. 1 is a block diagram illustrating a schematic hardware configuration (FIG. 1A) and a functional configuration (FIG. 1B) of an object detection apparatus according to the present embodiment.
  • FIG. 2 is an explanatory diagram of detection ranges of the radar and the image sensor.
  • FIG. 3 is a flowchart of target object determination processing by the object detection apparatus according to the present embodiment.
  • FIG. 4 is a flowchart of the collision avoidance process.
  • FIGS. 5A and 5B are diagrams showing the orientation of the two-wheeled vehicle specified by the image processing.
  • FIG. 6 is a flowchart illustrating a modification example of the continuation determination process.
  • the object detection apparatus 10 is mounted on the host vehicle and detects an object existing around the host vehicle.
  • Information on the object detected by the object detection device 10 is used for various vehicle controls such as collision avoidance with the host vehicle.
  • collision avoidance control of various vehicles such as a pre-crash safety system (PCS).
  • PCS pre-crash safety system
  • the object detection device 10 is connected to a radar 21, an image sensor 22, and a driving support device 30 so as to communicate with each other.
  • the radar 21 transmits and receives directional electromagnetic waves such as millimeter waves and lasers. Then, the radar 21 outputs transmission / reception data such as the distance, azimuth, and relative speed with the object that has reflected the electromagnetic waves to the object detection device 10 as a radar signal.
  • the radar 21 is arranged at the front end of the host vehicle M and detects a reflected wave from an object included in a predetermined detection range (corresponding to the first detection range) ⁇ 1 as a radar signal.
  • the image sensor 22 includes an imaging element such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and images the periphery of the host vehicle M at a predetermined angle of view.
  • a captured image acquired by imaging by the image sensor 22 is output to the object detection apparatus 10 as an image signal.
  • the image sensor 22 is disposed near the center of the front side of the host vehicle M, and detects a captured image in a predetermined detection range (corresponding to the second detection range) ⁇ 2 as an image signal.
  • the detection range ⁇ 2 is an angle range narrower than the detection range ⁇ 1 of the radar 21, and the entire detection range ⁇ 2 is included in the detection range ⁇ 1.
  • the lateral width (width in the vehicle width direction) of each of the detection ranges ⁇ ⁇ b> 1 and ⁇ ⁇ b> 2 is set so as to increase as the distance from the host vehicle M increases and decreases as the vehicle approaches the host vehicle M.
  • the object detection apparatus 10 includes a CPU (Central Processing Unit) 10A, a ROM (Read Only Memory) 10B, a RAM (Random Access Memory) 10C, and an input / output interface (I / F) 10D. It is configured with.
  • the object detection device 10 is configured around a known microcomputer, and various processes are executed by the CPU 10A based on a program stored in the ROM 10B.
  • the ROM 10B corresponds to a recording medium that functions as a non-transitory computer readable recording medium.
  • the recording medium includes a computer-readable electronic medium such as a DVD-ROM (Digital Versatile Disk Read Only Memory), a CD-ROM (Compact Disc Read Only Memory), and a hard disk.
  • the object detection apparatus 10 takes in the radar signal from the radar 21 and the image signal from the image sensor 22 at regular time intervals, and uses the received radar signal and image signal to detect the radar target shown in FIG.
  • Various functions by the unit 11, the image target detection unit 12, the object detection unit 13, and the moving body determination unit 14 are executed.
  • the radar target detection unit 11 generates a radar target (corresponding to the first target) using the position information of the target specified based on the radar signal output from the radar 21 and outputs the radar target to the object detection unit 13. To do.
  • the image target detection unit 12 identifies an object detected by analyzing a captured image represented by the image signal output from the image sensor 22 as an image target (corresponding to a second target).
  • the image target detection unit 12 includes an image processing unit 12A that specifies the type of an object by performing image processing on a captured image in front of the host vehicle M.
  • the image target detection unit 12 identifies an image target by matching processing using a target model registered in advance.
  • a target model is prepared for each type of image target, and the type of the image target is specified by this.
  • Examples of the image target include moving bodies such as four-wheeled vehicles, two-wheeled vehicles, and pedestrians, and stationary objects such as guardrails. It is assumed that the motorcycle includes a bicycle, a saddle riding type motorcycle, and the like.
  • the image target detection unit 12 outputs information such as the type of the extracted image target, the distance between the host vehicle M and the image target, the azimuth, the relative speed, and the width of the image target to the object detection unit 13. .
  • the object detection unit 13 determines whether the radar target output from the radar target detection unit 11 and the image target output from the image target detection unit 12 are generated from the same object. . For example, the object detection unit 13 sets a predetermined image search range in the captured image using the position information of the target specified by the radar target. The image search range is set as a range that takes into account the error in the detection position of the image target. If an image target is included in the image search range, it is determined that the radar target and the image target are generated from the same object. When it is determined that the radar target and the image target are generated from the same object, the selection unit 13A of the object detection unit 13 sets the object as a control target object (target object) for collision avoidance. The information regarding the target object is transmitted to the driving support device 30.
  • target object control target object
  • the driving support device 30 includes a vehicle control ECU (Electronic Control Unit) 31 that performs collision avoidance control, and an in-vehicle device 32 that outputs an alarm sound and a guidance sound, a seat belt tightening device, a brake device, a steering device, and the like. I have.
  • the vehicle control ECU 31 determines whether or not driving assistance for the target object detected by the object detection unit 13 is necessary, and activates each in-vehicle device 32 when it is determined that driving assistance is necessary.
  • the vehicle control ECU 31 calculates a collision allowance time TTC (Time to Collision) between the target object and the host vehicle M.
  • the collision allowance time TTC is an evaluation value indicating how many seconds after which the vehicle collides with the target object when traveling at the vehicle speed as it is. The smaller the collision allowance time TTC, the higher the risk of collision. The greater the collision allowance time TTC, the lower the risk of collision.
  • the collision allowance time TTC can be calculated by a method such as dividing the distance in the traveling direction between the target object and the host vehicle M by the relative speed with respect to the target object. The relative speed with respect to the target object is obtained by subtracting the own vehicle speed from the vehicle speed of the preceding vehicle. Note that the collision allowance time TTC may be calculated in consideration of the relative acceleration.
  • the vehicle control ECU 31 activates the corresponding in-vehicle device 32 if the margin time TTC is equal to or shorter than the operation time of the in-vehicle device 32.
  • the operating time of each in-vehicle device 32 is set according to the type of object.
  • the detection position of the object is the detection of the radar target. Possibility of transition from a state (corresponding to the first state) included in both the range ⁇ 1 and the detection range ⁇ 2 of the image target (overlapping portion) to a state (corresponding to the second state) included in only one detection range There is.
  • the lateral width (width in the vehicle width direction) of each of the detection ranges ⁇ ⁇ b> 1 and ⁇ ⁇ b> 2 is set so as to increase with increasing distance from the own vehicle M and to decrease with increasing proximity to the own vehicle M.
  • the detection position of the object is included in a region D1 that is an overlapping portion of the detection range ⁇ 1 and the detection range ⁇ 2.
  • the detected position of the object may transition to a state included in the region D2 that is outside the detection range ⁇ 2 and within the detection range ⁇ 1. Whether the state is changed to this state is determined by the state determination unit 13B of the object detection unit 13.
  • FIG. 2 it is assumed that the detection position of the object B existing in front of the host vehicle M is detected in the order of positions A1 to A8 from far to near.
  • the object is detected by both the radar 21 and the image sensor 22, and therefore the selection unit 13A of the object detection unit 13 selects the radar target.
  • the image target are determined to be the same object, so that the target object is selected.
  • the object B is detected at the position A5 in the area D2, the object is detected only by the radar 21, and therefore is not selected as the target object by the selection unit 13A of the object detection unit 13.
  • the object B is continuously selected as the target object even if the object B is detected only by the radar 21.
  • the moving body determination unit 14 determines whether the target object is a motorcycle. Whether the target object is a motorcycle can be determined based on a signal from the image processing unit 12A of the image target detection unit 12. Then, when the target object type is a two-wheeled vehicle, the continuation determination unit 13C of the object detection unit 13 continues the selection as the target object even if the target object is detected only by the radar 21.
  • the two-wheeled vehicle Even if the type of the target object is a two-wheeled vehicle, it is unlikely that the two-wheeled vehicle approaches the host vehicle M when the two-wheeled vehicle is stopped (when the moving speed is zero). Even if the two-wheeled vehicle is moving at a predetermined speed, if the two-wheeled vehicle is moving in a direction away from the direction of travel of the host vehicle M, the two-wheeled vehicle and the host vehicle M The possibility of collision is low.
  • the continuation determination unit 13C of the object detection unit 13 of the present embodiment has a predetermined moving speed (lateral speed) in a direction orthogonal to the traveling direction of the host vehicle M when the target object is a two-wheeled vehicle.
  • the selection as the target object is continued on the condition that the two-wheeled vehicle is larger than the value and the moving direction of the motorcycle is a direction approaching the host vehicle M.
  • the moving speed of the two-wheeled vehicle is obtained based on the relative speed with the host vehicle M.
  • the moving direction of the two-wheeled vehicle is obtained, for example, by dividing the moving speed of the two-wheeled vehicle into vertical and horizontal vector components, and the horizontal vector components.
  • the reliability of the detection result of the object decreases as the elapsed time after the object selected as the control target is detected in the region D2, that is, the state detected only by the radar 21, is increased. To do. And the possibility that the unnecessary operation
  • S11 it is determined whether there is a radar target (S11). If S11 is denied, the process is terminated. If it is determined in S11 that there is a radar target, it is determined whether there is an image target (S12). If there is an image target, it is determined whether the radar target detected in S11 and the image target detected in S12 are the same object (S13). If it is determined in S13 that they are not the same object, the process ends. If it is determined in S13 that they are the same object, the control target flag is turned on (S14). When the control target flag is on, the object is selected as a target object by the driving support device 30, and control such as collision avoidance with respect to the object becomes possible.
  • information indicating that the control target flag is ON is output from the object detection device 10 to the driving support device 30, and the driving support device 30 issues an alarm, brake control, and the like based on each collision margin time TTC. Collision avoidance control is performed by at least one of steering control and the like.
  • S15 it is determined whether or not the control target flag is ON (S15). Specifically, in S15, the state determination unit 13B is outside the image target detection range ⁇ 2 from a state in which the object detection position is included in both the radar target detection range ⁇ 1 and the image target detection range ⁇ 2. It is determined whether or not the state is shifted to a state within the radar target detection range ⁇ 1.
  • S16 it is determined whether or not the type of the object is a two-wheeled vehicle (S16). This process is determined based on the type of the image target specified by the matching process using the target model. If it is determined in S16 that the object type is a two-wheeled vehicle (S16: YES), it is determined whether or not the lateral speed of the object is greater than a predetermined value Vth (S17).
  • the two-wheeled vehicle is detected at the position A5 in the region D2, it is continuously selected as the target object. Thereafter, as the motorcycle moves laterally, the motorcycle gradually approaches the host vehicle M, and the motorcycle is detected at positions A6 to A8 in the region D2. At this time, when the collision allowance time TTC of the two-wheeled vehicle becomes the operation time of each on-vehicle device, the corresponding on-vehicle device 32 is operated by the vehicle control ECU 31 of the driving support device 30.
  • the detection range ⁇ 2 of the image sensor 22 is narrower in the vehicle width direction than the detection range ⁇ 1 of the radar 21, the first state where the detection position of the target object is within the detection range ⁇ 1 and within the detection range ⁇ 2. Therefore, it may occur that the state is shifted to the second state outside the detection range ⁇ 2 and within the detection range ⁇ 1.
  • the detection position of the target object is in the second state, the reliability of the detection result of the target object is lowered, so that it is necessary to limit the collision avoidance control for the target object.
  • the object detection unit 13 continues the selection as the target object on the condition that the target object is a two-wheeled vehicle when the detection position of the target object transitions to the second state. In this case, the collision avoidance control can be appropriately performed on the two-wheeled vehicle even when the reliability of the detection position of the object is lowered.
  • the target object When the target object is moving in a direction perpendicular to the traveling direction of the host vehicle M above a predetermined value and the target object is moving in a direction approaching the host vehicle M, the target object Continue selection. As described above, even when the reliability of the detection position of the target object is reduced, the collision avoidance control for the target object is appropriately performed in a situation where the possibility of a collision between the target object and the host vehicle M is high. can do.
  • the possibility that the host vehicle M and the target object collide is low. , Release the selection as the target object.
  • the reliability of the detection position of the target object is lowered, it is possible to avoid unnecessary operation when the possibility of a collision between the host vehicle M and the target object is low.
  • the selection as a target object is continued on condition that the elapsed time after the target object transitions to the second state is smaller than a predetermined value. In this case, since the state in which the reliability of the object is lowered becomes longer, it is possible to avoid unnecessary operations on the object.
  • the flag information is output from the object detection device 10 to the driving support device 30, and the collision avoidance control is performed in the driving support device 30.
  • the object detection apparatus 10 performs the collision avoidance process of FIG. In FIG. 4, it is determined whether or not the control target flag is on (S21), and when S21 is affirmed, it is determined whether or not the collision margin time TTC is equal to or shorter than the operating time Th of the in-vehicle device (S22). ). Then, when S22 is affirmed, it is determined to perform collision avoidance control such as sounding an alarm, applying a brake, and steering to a direction where there is no object (S23). That is, in the process of FIG. 4, when the selection as the target object is continued, it is determined that the collision avoidance control is performed when the target object is highly likely to collide. In this case, a collision avoidance control execution command is output from the object detection device 10 to the driving support device 30, and the driving support device 30 performs the collision avoidance control.
  • the order of each process of S16 to S19 may be changed. Further, any of the processes of S17 to S19 may be omitted. For example, all the processes of S17 to S19 may be omitted.
  • the process when it is determined in S15 that the control target flag is on, it is determined in S16 whether or not the object is a motorcycle. Then, on the condition that the object is determined to be a two-wheeled vehicle, the process may proceed to S14 and the control target flag may be kept on. In this case, the selection as the target is continued only on the condition that the object is a two-wheeled vehicle.
  • the continuation determination unit 13C of the object detection unit 13 determines whether or not the orientation of the two-wheeled vehicle is horizontal as shown in FIG. 6 instead of the lateral speed determination processing of S17 in the flowchart of FIG. S17A).
  • the selection as the target object may be continued on the condition that the direction of the two-wheeled vehicle is determined to be horizontal.
  • the selection as the target object is continued on the condition that the two-wheeled vehicle as the target object is in front of the host vehicle M and the traveling direction of the two-wheeled vehicle is directed toward the own lane.
  • the selection as the object to be controlled is continued. That is, even when the two-wheeled vehicle is stopped, if the two-wheeled vehicle has a high possibility of approaching the own vehicle M (highly likely to cross the own lane), the selection as the target object is continued. Will be.
  • the continuation determination unit 13C of the object detection unit 13 continues the selection as the target object on the condition that the lateral speed of the pedestrian is larger than a predetermined value.
  • the target object transitions to a state where the target object is detected only by the radar target according to the reliability when the target object is detected by both the radar target and the image target.
  • it may be determined whether or not to continue the selection as the target object. For example, in a state where the target object is detected by both a radar target and an image target, the degree of coincidence of the detected positions is determined.
  • the target object is selected when the target object transitions to a state where only the radar target is detected on condition that the degree of coincidence between the radar target and the image target is determined to be higher than a predetermined level. May be continued.
  • the detection range ⁇ 1 of the radar 21 is wider than the detection range ⁇ 2 of the image sensor 22, and the entire detection range ⁇ 2 of the image sensor 22 is included in the detection range ⁇ 1 of the radar 21.
  • the above processing can be applied when the detection range ⁇ 1 of the radar 21 and the detection range ⁇ 2 of the image sensor 22 are inconsistent and a part thereof overlaps.
  • the detection range ⁇ 1 of the radar 21 is narrower in the width direction than the detection range ⁇ 2 of the image sensor 22, in the flowchart of FIG. It may be determined whether to continue the selection as the target object.
  • the image processing unit 12A is provided in the image target detection unit 12 has been described.
  • the radar target detection unit 11 is not limited thereto.
  • the image processing unit 12A may be provided in at least one of the radar target detection unit 11 and the image target detection unit 12.
  • the radar 21 of the present embodiment corresponds to the first target detection unit.
  • the image sensor 22 of this embodiment corresponds to a second target detection unit.
  • the processing of S14 and S21 constitutes the selection unit 13A as a function.
  • the process of S15 constitutes the state determination unit 13B as a function.
  • the processing of S17 to S20 constitutes the continuation determination unit 13C as a function.
  • the process of S16 constitutes the moving body determination unit 14 as a function.
  • the vehicle control ECU corresponds to the collision avoidance unit.
  • the process of S23 comprises a collision avoidance part as a function.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Environmental & Geological Engineering (AREA)
  • Geology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Traffic Control Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

物体検出装置(10)では、第1検出範囲内の物体が第1物標として検出される。また、第1検出範囲に含まれ、且つ第1検出範囲よりも車幅方向に狭い第2検出範囲内の物体が第2物標として検出される。さらに、物体の検出位置が第1検出範囲内であり且つ第2検出範囲内となる第1状態において、第1物標と第2物標とが同一の物体であるときには、この物体が対象物体として選択部(13A:S14,S21)により選択される。対象物体の検出位置が第1状態から、第2検出範囲外にあり且つ第1検出範囲内となる第2状態に遷移したかが状態判定部(13B:S15)により判定される。この判定により、対象物体の検出位置が第2状態に遷移したと判断されたときに、対象物体が所定の移動体であれば、対象物体としての選択が継続判定部(13C:S17~S20)により継続される。

Description

物体検出装置及び物体検出方法 関連出願の相互参照
 本出願は、2015年12月17日に出願された日本出願番号2015-246687号に基づくもので、ここにその記載内容を援用する。
 本開示は、自車両の周囲に存在する物体を検出する物体検出装置及び物体検出方法に関する。
 特許文献1に記載の技術では、自車両の周囲に存在する物体の検出精度を高めるために、レーダ及びカメラを用いて個別に物体を検出する。そしてレーダ及びカメラで検出された物体の位置関係が所定の判断基準を満たしており同一の物体であると判定されることを条件に、自車両の周囲に存在する物体を検出している。
 この際、レーダによる物体の検出範囲と、カメラによる物体の検出範囲とが一致していなければ、物体が一方の検出範囲から外れることが生じうる。この場合には、物体の検出結果の信頼度が低下するため、その物体に対する衝突回避等の制御が制限されることが求められる。
特開2008-186170号公報
 物体の種類によっては、物体の検出精度が低下したとしても、自車両に対して接近する可能性があるため、衝突回避制御が必要となる場合がある。
 本開示は、検出範囲の異なる複数の検出部を用いて検出された物体に対する衝突回避制御を適切に実施できる物体検出装置及び物体検出方法を提供することを主たる目的とするものである。
 本開示の第一の態様において、自車両前方の第1検出範囲に含まれる物体を第1物標として検出する第1物標検出部と、前記第1検出範囲に含まれ、且つ前記第1検出範囲よりも車幅方向に狭い第2検出範囲に含まれる物体を第2物標として検出する第2物標検出部と、前記物体の検出位置が前記第1検出範囲内であり且つ前記第2検出範囲内となる第1状態において、前記第1物標と前記第2物標とが同一の物体であることを条件に、当該物体を衝突回避制御の対象となる対象物体として選択する選択部と、前記対象物体の検出位置が前記第1状態から、前記第2検出範囲外にあり且つ前記第1検出範囲内となる第2状態に遷移しているかを判定する状態判定部と、前記対象物体が所定の移動体であるかを判定する移動体判定部と、前記対象物体の検出位置が前記第2状態に遷移した際に、前記対象物体が前記所定の移動体であることを条件に、前記対象物体としての選択を継続する継続判定部と、を備える。
 本開示によれば、第1物標検出部の第1検出範囲に比べて第2物標検出部の第2検出範囲が車幅方向に狭い場合には、対象物体の検出位置が、第1検出範囲内であり且つ第2検出範囲内となる第1状態から、第2検出範囲外にあり且つ第1検出範囲内となる第2状態に遷移することが生じうる。対象物体の検出位置が第2状態となると、対象物体の検出結果の信頼度が低下するために、その対象物体に対する衝突回避制御が制限される必要が生じる。
 しかし、対象物体の種類によっては、その対象物体に対する衝突回避制御が制限されることによる不都合が生じる可能性がある。そこで、対象物体の検出位置が第2状態に遷移した際に、対象物体が所定の移動体であることを条件に、対象物体としての選択を継続することとした。言い換えれば、対象物体の検出位置が第2状態に遷移した際に、対象物体が所定の移動体であることを条件に、対象物体としての選択状態を解除せず同状態を維持することとした。この場合、一旦、対象物体として判定された所定の移動体に対しては、物体の検出位置の信頼度が低下する状況になったとしても、衝突回避制御を適切に実施することが可能となる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。添付図面において:
図1は、本実施形態に係る物体検出装置のハードウェアの概略構成(同図(a))及びその機能構成(同図(b))を示すブロック図であり、 図2は、レーダ及び画像センサの検出範囲の説明図であり、 図3は、本実施形態に係る物体検出装置による対象物体の判定処理のフローチャートであり、 図4は、衝突回避処理のフローチャートであり、 図5(a),(b)は、画像処理で特定される二輪車の向きを示す図であり、 図6は、継続判定処理の変更例を示すフローチャートである。
 以下、各実施形態を図面に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
 本実施形態に係る物体検出装置10は、自車両に搭載され、自車両の周囲に存在する物体を検出する。物体検出装置10で検出された物体の情報は、自車両との衝突回避等の各種車両制御に用いられる。例えば、プリクラッシュセーフティシステム(PCS:Pre-Crash safety system)等の各種車両の衝突回避制御に用いられる。
 図1(a)において、物体検出装置10は、レーダ21、画像センサ22および運転支援装置30と通信可能に接続されている。
 レーダ21は、ミリ波やレーザ等の指向性のある電磁波を送受信する。そして、レーダ21は電磁波を反射した物体との距離、方位および相対速度等の送受信データをレーダ信号として物体検出装置10に出力する。
 例えばレーダ21は、図2に示すように、自車両Mの前端部に配置され、所定の検出範囲(第1検出範囲に相当)θ1に含まれる物体からの反射波をレーダ信号として検出する。
 画像センサ22は、CCD(Charged-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を備えており、自車両Mの周辺を所定の画角で撮像する。画像センサ22による撮像で取得された撮影画像は画像信号として物体検出装置10に出力する。
 例えば画像センサ22は、図2に示すように、自車両Mの前側における中央付近に配置されており、所定の検出範囲(第2検出範囲に相当)θ2における撮影画像を画像信号として検出する。なお検出範囲θ2は、レーダ21の検出範囲θ1よりも狭い角度範囲となっており、検出範囲θ2全体が検出範囲θ1に含まれている。また図2では、各検出範囲θ1,θ2の横幅(車幅方向の幅)が、自車両Mから遠くなるほど大きく、自車両Mに近くなるほど小さくなるように設定されている。
 物体検出装置10は、図1(a)に示すようにCPU(Central Processing Unit)10A、ROM(Read Only Memory)10B、RAM(Random Access Memory)10C、および入出力インターフェース(I/F)10D等を備えて構成されている。物体検出装置10は、周知のマイクロコンピュータを中心に構成され、ROM10Bに格納されているプログラムに基づいてCPU10Aにより各種処理が実行される。ROM10Bは、non-transitory computer readable recording mediumとして機能する記録媒体に相当する。この記録媒体には、ROM10Bのほかに例えば、DVD-ROM(Digital Versatile Disk Read Only Memory)、CD-ROM(Compact Disc Read Only Memory)、ハードディスク等のコンピュータ読み取り可能な電子媒体が含まれる。物体検出装置10は、一定時間ごとに、レーダ21からのレーダ信号及び画像センサ22からの画像信号を取り入れ、受信したレーダ信号及び画像信号を用いて、図1(b)に示すレーダ物標検出部11、画像物標検出部12、物体検出部13、および移動体判定部14による各種機能を実行する。
 レーダ物標検出部11は、レーダ21から出力されたレーダ信号に基づき特定される物標の位置情報を用いてレーダ物標(第1物標に相当)を生成し、物体検出部13に出力する。
 画像物標検出部12は、画像センサ22から出力された画像信号の表す撮影画像を解析することで検出される物体を画像物標(第2物標に相当)として識別する。画像物標検出部12は、自車両Mの前方の撮影画像を画像処理で物体の種類を特定する画像処理部12Aを備えている。画像物標検出部12は、例えば、予め登録されている物標モデルを用いたマッチング処理で画像物標を識別する。物標モデルは、画像物標の種類ごとに用意されており、これにより画像物標の種類も特定される。画像物標の種類としては、四輪車両、二輪車、歩行者等の移動体や、ガードレール等の静止物等が挙げられる。なお、二輪車には自転車、鞍乗型の自動二輪車等が含まれているものとする。そして、画像物標検出部12は、抽出した画像物標の種類、自車両Mと画像物標との距離、方位、相対速度、画像物標の横幅等の情報を物体検出部13に出力する。
 物体検出部13は、レーダ物標検出部11から出力されたレーダ物標と、画像物標検出部12から出力された画像物標とが同一の物体から生成されたものであるかを判定する。例えば物体検出部13は、レーダ物標で特定される物標の位置情報を用いて、撮影画像内に所定の画像探索範囲を設定する。なお、画像探索範囲は画像物標の検出位置の誤差分を加味した範囲として設定される。そしてその画像探索範囲内に画像物標が含まれていれば、そのレーダ物標と画像物標とは同一の物体から生成されたものであると判定する。そしてレーダ物標と画像物標とが同一の物体から生成されたものであると判定した場合、物体検出部13の選択部13Aは、その物体を衝突回避の制御対象の物体(対象物体)として選択し、対象物体に関する情報を運転支援装置30に送信する。
 運転支援装置30は、衝突回避制御を実施する車両制御ECU(Electronic Control Unit)31と、警報音や案内音を出力するスピーカ、シートベルト締め付け装置、ブレーキ装置、操舵装置等の車載機器32とを備えている。車両制御ECU31は、物体検出部13が検出した対象物体に対する運転支援が必要であるか否かを判定し、運転支援が必要であると判定した場合に各車載機器32を作動させる。
 例えば車両制御ECU31は、対象物体と自車両Mとの衝突余裕時間TTC(Time to Collision)を算出する。衝突余裕時間TTCとは、このままの自車速度で走行した場合に、何秒後に対象物体に衝突するかを示す評価値であり、衝突余裕時間TTCが小さいほど、衝突の危険性は高くなり、衝突余裕時間TTCが大きいほど衝突の危険性は低くなる。衝突余裕時間TTCは、対象物体と自車両Mとの進行方向の距離を、対象物体との相対速度で除算する等の方法で算出できる。対象物体との相対速度は、先行車両の車速から自車速を減算して求められる。なお、相対加速度を加味して衝突余裕時間TTCを算出してもよい。
 そして、車両制御ECU31は、衝突余裕時間TTCが車載機器32の作動時間以下であれば、該当する車載機器32を作動させる。なお各車載機器32の作動時間は物体の種類に応じて設定される。
 ところで、レーダ物標の検出範囲(第1検出範囲)θ1と、画像物標の検出範囲(第2検出範囲)θ2とが一致していない場合には、物体の検出位置がレーダ物標の検出範囲θ1及び画像物標の検出範囲θ2の両方(重複部分)に含まれる状態(第1状態に相当)から、一方の検出範囲のみに含まれる状態(第2状態に相当)に遷移する可能性がある。
 例えば図2では、各検出範囲θ1,θ2の横幅(車幅方向の幅)が、自車両Mから遠くなるほど大きく、自車両Mに近くなるほど小さくなるように設定されている。この場合、物体が自車両Mから遠方の位置にある場合には、物体の検出位置は検出範囲θ1及び検出範囲θ2の重複部分である領域D1に含まれる。そして物体が自車両Mに接近するにつれて、物体の検出位置が、検出範囲θ2外であり且つ検出範囲θ1内となる領域D2に含まれる状態に遷移することがある。このような状態に遷移しているかは、物体検出部13の状態判定部13Bにより判定される。
 詳しく説明すると、図2において、自車両Mの前方に存在する物体Bの検出位置が遠方から近方までの位置A1~A8の順番で検出されているとする。この際、物体Bが領域D1内における位置A1~A4で検出された場合には、物体はレーダ21及び画像センサ22の両方で検出されるため、物体検出部13の選択部13Aによりレーダ物標と画像物標とが同一の物体であると判定されることで、対象物体として選択される。
 一方、物体Bが領域D2内の位置A5で検出されると、物体はレーダ21のみで検出されるため、物体検出部13の選択部13Aによって対象物体として選択されなくなってしまう。
 しかし、物体Bの種類によっては、物体の検出精度が低下したとしても、自車両Mに接近する可能性があるため、その物体(移動体)に対する衝突回避制御が必要となる場合がある。すなわち、物体の種類が二輪車の場合には、自車線を横断してくる可能性があり、且つその移動速度(横速度)が大きい可能性がある。そのため、物体が二輪車の場合には、物体Bが、レーダ21のみで検出される状況になったとしても、対象物体として継続して選択されることが好ましい。
 そこで、移動体判定部14は対象物体が二輪車であるかを判定する。なお、対象物体が二輪車であるかは、画像物標検出部12の画像処理部12Aからの信号に基づき判定できる。そして物体検出部13の継続判定部13Cは、対象物体の種類が二輪車である場合には、対象物体がレーダ21のみで検出される状態になったとしても、対象物体としての選択を継続する。
 この際、対象物体の種類が二輪車であるとしても、二輪車が停車している場合(移動速度がゼロの場合)には、その二輪車が自車両Mに接近してくる可能性は低い。また、二輪車が所定の速度で移動中であったとしても、二輪車が自車両Mの進行方向に対して直交する方向へと離れる方向に移動している場合には、二輪車と自車両Mとの衝突可能性は低くなる。
 そこで本実施形態の物体検出部13の継続判定部13Cは、対象物体が二輪車である場合には、二輪車が自車両Mの進行方向に対して直交する方向への移動速度(横速度)が所定値よりも大きく、且つ二輪車の移動方向が自車両Mに接近する方向であることを条件に、対象物体としての選択を継続する。なお、二輪車の移動速度は、自車両Mとの相対速度に基づき求められる。二輪車の移動方向は、例えば二輪車の移動速度を縦方向と横方向のベクトル成分に分解し、その横方向のベクトル成分に基づき求められる。
 更には、制御対象として選択された物体が領域D2内で検出される状態、すなわちレーダ21のみで検出される状態となってからの経過時間が大きくなるほど、その物体の検出結果の信頼度が低下する。そして信頼度が低下するほど、その物体に対する不要作動が行われる可能性が高くなる。そこで本実施形態の物体検出部13の継続判定部13Cは、対象物体がレーダ21のみで検出される状態となってからの経過時間が短いことを条件に、対象物体としての選択を継続する。
 次に本実施形態の物体検出装置10による処理について図3のフローチャートを用いて説明する。なお以下の処理は、物体検出装置10が所定周期で繰り返し実施する。
 まず、レーダ物標があるかを判定する(S11)。S11を否定した場合には処理を終了する。S11で、レーダ物標があると判定した場合には画像物標があるかを判定する(S12)。画像物標がある場合には、S11で検出したレーダ物標と、S12で検出した画像物標とが同一物体であるか否かを判定する(S13)。S13で同一物体ではないと判定した場合には処理を終了する。S13で同一物体であると判定した場合には、制御対象フラグをオンにする(S14)。制御対象フラグがオンの場合、その物体が運転支援装置30による対象物体として選択されることとなり、その物体に対する衝突回避等の制御が可能となる。具体的には、制御対象フラグがオンである旨の情報が物体検出装置10から運転支援装置30に出力され、運転支援装置30において、都度の衝突余裕時間TTCに基づいて、警報、ブレーキ制御、操舵制御等の少なくともいずれかによる衝突回避制御が実施される。
 一方、S12を否定した場合には、制御対象フラグがオンであるか否かを判定する(S15)。具体的に、S15では状態判定部13Bが物体の検出位置がレーダ物標の検出範囲θ1及び画像物標の検出範囲θ2の両方に含まれる状態から、画像物標の検出範囲θ2外にあり且つレーダ物標の検出範囲θ1内となる状態に遷移しているかを判定する。S15を肯定した場合には、物体の種類が二輪車であるか否かを判定する(S16)。本処理は物標モデルを用いたマッチング処理によって特定された画像物標の種類に基づき判定する。S16で物体の種類が二輪車であると判定した場合(S16:YES)には、物体の横速度が所定値Vthよりも大きいか否かを判定する(S17)。
 物体の横速度が所定値Vthよりも大きい場合(S17:YES)には、物体が自車両Mに接近状態であるか否かを判定する(S18)。S18を肯定した場合には、対象物体において、レーダ物標のみが検出される状態に遷移してからの経過時間が所定値Tthよりも短いか否かを判定する(S19)。
 S19を肯定した場合には、S14に進む。この場合には、制御対象フラグがオンの状態が継続されることとなり、対象物体において、レーダ物標のみが検出される状況(画像物標が検出されない状況)になっても、その物体に対する運転支援を行うことができる。一方、S16~S19を否定した場合には、制御対象フラグをオフにする(S20)。
 次に上記処理の実行例について図2を用いて説明する。なお図2において、物体Bは二輪車であるとする。
 (a)二輪車が自車両Mに接近する方向に所定値Vthよりも大きい横速度で移動する場合
 図2において、二輪車が領域D1内の位置A1~A4で検出された場合は、二輪車がレーダ物標及び画像物標の両方で検出されることで対象物体として選択される。その後、二輪車が領域D2内の位置A5で検出されると、二輪車はレーダ物標のみで検出される。この際、二輪車は自車両Mに接近方向に所定値Vthよりも大きい横速度で移動している。更には、二輪車がレーダ物標のみで検出される状態になってからの経過時間が所定値Tthよりも短い。この場合には、二輪車が領域D2内の位置A5で検出されたとしても、対象物体として継続して選択される。その後、二輪車の横移動に伴って、二輪車が自車両Mに次第に接近するとともに、領域D2内において二輪車が位置A6~A8で検出される。この際、二輪車の衝突余裕時間TTCが各車載機器の作動時間となると、運転支援装置30の車両制御ECU31により該当する車載機器32が作動されることとなる。
 (b)二輪車が停車状態の場合
 図2において、二輪車が領域D1内の位置A1~A4で検出された場合は、二輪車がレーダ物標及び画像物標の両方が検出されることで対象物体として選択される。その後、二輪車が領域D2内の位置A10で検出されると、二輪車はレーダ物標のみで検出される。この際、二輪車は停車状態(二輪車の横速度がゼロ)であるため、二輪車の対象物体としての選択が解除される。この場合、二輪車が自車両Mに接近する可能性の低い場合に、二輪車に対する不要作動が行われることを回避できる。
 上記によれば以下の優れた効果を奏することができる。
 ・レーダ21の検出範囲θ1に比べて画像センサ22の検出範囲θ2が車幅方向に狭い場合には、対象物体の検出位置が、検出範囲θ1内であり且つ検出範囲θ2内となる第1状態から、検出範囲θ2外にあり且つ検出範囲θ1内となる第2状態に遷移することが生じうる。対象物体の検出位置が第2状態となると、対象物体の検出結果の信頼度が低下するために、その対象物体に対する衝突回避制御が制限される必要が生じる。
 しかし、対象物体の種類が二輪車の場合には、その二輪車に対する衝突回避制御が制限されることによる不都合が生じる可能性がある。そこで、物体検出部13は、対象物体の検出位置が第2状態に遷移した際に、対象物体が二輪車であることを条件に、対象物体としての選択を継続することとした。この場合、二輪車に対しては、物体の検出位置の信頼度が低下する状況になったとしても、衝突回避制御を適切に実施することが可能となる。
 ・対象物体が自車両Mの進行方向に対して直交する方向への移動速度が所定値よりも大きく、且つ対象物体が自車両Mに接近する方向に移動している場合に、対象物体としての選択を継続する。以上により、対象物体の検出位置の信頼度が低下する状況になったとしても、対象物体と自車両Mとの衝突の可能性が高くなる状況においては、対象物体に対する衝突回避制御を適切に実施することができる。
 ・対象物体の移動方向が自車両Mの進行方向に対して直交する横方向へと離れる方向である場合には、自車両Mと対象物体とが衝突する可能性が低いため、この場合には、対象物体としての選択を解除する。以上により、対象物体の検出位置の信頼度が低下する状況において、自車両Mと対象物体との衝突の可能性が低い場合における不要作動を回避できる。
 ・対象物体が第2状態に遷移してからの経過時間が所定値よりも小さいことを条件に、対象物体としての選択を継続するようにした。この場合、物体の信頼度が低下した状態が長くなることで、物体に対する不要作動が行われることを回避できる。
 上記実施形態を例えば次のように変更してもよい。なお以下の説明において上述の構成を同様の構成については同じ図番号を付し、詳述は省略する。また上記実施形態及び以下に示す各実施形態は相互に組み合わせて実施することが可能である。
 ・上記では、物体検出装置10において制御対象フラグがオンされた場合に、そのフラグ情報が物体検出装置10から運転支援装置30に出力され、運転支援装置30において衝突回避制御が実施される構成としたが、これを変更し、制御対象フラグがオンされた場合に、物体検出装置10において衝突回避制御を実施するか否かを判定する構成としてもよい。
 例えば、物体検出装置10が図4の衝突回避処理を実施する。図4では、制御対象フラグがオンであるか否かを判定し(S21)、S21を肯定した場合に、衝突余裕時間TTCが車載機器の作動時間Th以下であるか否かを判定する(S22)。そして、S22を肯定した場合に、警報を鳴らす、ブレーキをかける、物体のいない方へ操舵する等の衝突回避制御を実施する旨を決定する(S23)。つまり、図4の処理では、対象物体としての選択が継続されている場合において、対象物体が衝突する可能性が高いときに衝突回避制御を実施する旨を決定する。この場合、物体検出装置10から運転支援装置30に対して衝突回避制御の実施指令が出力され、運転支援装置30において衝突回避制御が実施される。
 ・図3のフローチャートにおいて、S16~S19の各処理の順番を入れ替えてもよい。また、上記のS17~S19の各処理はいずれかを省略してもよい。例えばS17~S19の全処理を省略してもよい。この場合、図3のフローチャートにおいて、S15で制御対象フラグがオンであると判定された場合には、S16で物体が二輪車であるか否かを判定する。そして物体が二輪車であると判定されたことを条件に、S14に進み、制御対象フラグがオンの状態が継続されるようにしてもよい。この場合には、物体が二輪車であることのみを条件に、対象物標としての選択が継続されることとなる。
 ・上記において、二輪車が自車両Mの前方にある場合には、図5(a)に示すように、自車両Mに対して二輪車の車輪Wが前後方向に並ぶ縦向きの状態と、図5(b)に示すように、自車両Mに対して二輪車の車輪Wが左右方向に並ぶ横向きの状態とが発生する。そして二輪車が縦向きの場合には、二輪車が自車線を横断してくる可能性が比較的に低いのに対して、二輪車が横向きの場合、すなわち二輪車の進行方向が自車線の側を向いている場合には、二輪車が自車線を横断してくる可能性が比較的に高くなると言える。そこで、物体検出部13の継続判定部13Cは、図3のフローチャートにおいて、S17の横速度の判定処理に代えて、図6に示すように二輪車の向きが横向きであるか否かを判定する(S17A)。そして二輪車の向きが横向きであると判定されたことを条件に、対象物体としての選択が継続されるようにしてもよい。
 以上のように、対象物体としての二輪車が自車両Mの前方にあり、且つ二輪車の進行方向が自車線の側を向いていることを条件に、対象物体としての選択を継続する場合、二輪車の移動速度に関わらず、二輪車が自車両Mに接近する可能性が高い場合には、制御対象の物体としての選択が継続されることとなる。すなわち、二輪車が停車状態である場合にも、二輪車が自車両Mに接近する可能性が高い(自車線を横断してくる可能性が高い)横向きの場合には、対象物体としての選択が継続されることとなる。
 ・上記において、歩行者も自車線を横断して自車両Mに接近してくる可能性がある。そこで移動体判定部14により、物体の種類が歩行者であると判定された場合にも、対象物体としての選択が継続されてもよい。なお対象物体が歩行者である場合において、歩行者の横速度が小さい場合には、自車両Mとの衝突の危険性が低い。そこで物体検出部13の継続判定部13Cは、歩行者の横速度が所定値よりも大きいことを条件に、対象物体としての選択を継続することが好ましい。
 ・上記の図3のフローチャートにおいて、対象物体がレーダ物標及び画像物標の両方で検出されている際の信頼度に応じて、対象物体がレーダ物標のみで検出される状態に遷移した際に、対象物体としての選択を継続するか否かが判定されてもよい。例えば、対象物体がレーダ物標及び画像物標の両方で検出されている状態において、その検出位置の一致度合いを判定する。そして、レーダ物標と画像物標との一致度合いが所定以上に高いと判定されることを条件に、対象物体がレーダ物標のみで検出される状態に遷移した場合に、対象物体としての選択が継続されてもよい。
 ・上記の図2では、レーダ21の検出範囲θ1が画像センサ22の検出範囲θ2よりも広く、且つレーダ21の検出範囲θ1内に画像センサ22の検出範囲θ2全体が含まれる例を示した。これ以外にも、レーダ21の検出範囲θ1と画像センサ22の検出範囲θ2が不一致であり、且つその一部が重複している場合に、上記処理を適用可能である。例えば、画像センサ22の検出範囲θ2よりもレーダ21の検出範囲θ1が幅方向に狭い場合には、図3のフローチャートにおいて、対象物体が画像物標のみで検出される状態に遷移した際に、対象物体としての選択を継続するかが判定されればよい。
 ・上記では、レーダ21と画像センサ22とを用いて物体を検出する例を示した。これ以外にも、自車両Mの周囲に存在する物体を、検出範囲の異なる複数個の検出部を用いて検出する場合に、上記処理を適用可能である。
 ・上記実施形態では、画像処理部12Aを画像物標検出部12に設けた例を示した。これに限らずレーダ物標検出部11にも設けてもよい。要するに、画像処理部12Aは、レーダ物標検出部11及び画像物標検出部12ののうち少なくとも一方に設ければよい。
 ここで、本実施形態のレーダ21は、第1物標検出部に対応する。本実施形態の画像センサ22は、第2物標検出部に対応する。図3および図4において、S14、S21の処理は、機能として選択部13Aを構成する。図3において、S15の処理は、機能として状態判定部13Bを構成する。S17~S20の処理は、機能として継続判定部13Cを構成する。S16の処理は、機能として移動体判定部14を構成する。車両制御ECUは、衝突回避部に対応する。そして、図4において、S23の処理は、機能として衝突回避部を構成する。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらの一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
 10…物体検出装置、11…レーダ物標検出部、12…画像物標検出部、13…物体検出部、14…移動体判定部。

Claims (12)

  1.  自車両前方の第1検出範囲に含まれる物体を第1物標として検出する第1物標検出部(11)と、
     前記第1検出範囲に含まれ、且つ前記第1検出範囲よりも車幅方向に狭い第2検出範囲に含まれる物体を第2物標として検出する第2物標検出部(12)と、
     前記物体の検出位置が前記第1検出範囲内であり且つ前記第2検出範囲内となる第1状態において、前記第1物標と前記第2物標とが同一の物体であることを条件に、当該物体を衝突回避制御の対象となる対象物体として選択する選択部(13A:S14,S21)と、
     前記対象物体の検出位置が前記第1状態から、前記第2検出範囲外にあり且つ前記第1検出範囲内となる第2状態に遷移しているかを判定する状態判定部(13B:S15)と、
     前記対象物体が所定の移動体であるかを判定する移動体判定部(14:S16)と、
     前記対象物体の検出位置が前記第2状態に遷移した際に、前記対象物体が前記所定の移動体であることを条件に、前記対象物体としての選択を継続する継続判定部(13C:S17~S20)と、
     を備える物体検出装置。
  2.  前記移動体判定部(14)は、前記物体が二輪車である場合に、前記対象物体が前記所定の移動体であると判定する請求項1に記載の物体検出装置。
  3.  前記継続判定部(13C:S17,S18)は、前記対象物体の自車両の進行方向に対して直交する方向への移動速度が所定値よりも大きく、且つ前記対象物体の移動方向が前記自車両に接近する方向であることを条件に、前記対象物体としての選択を継続する請求項1又は2に記載の物体検出装置。
  4.  前記継続判定部(13C:S20)は、前記対象物体の移動方向が前記自車両の進行方向に対して直交する方向へと離れる方向であることを条件に、前記対象物体としての選択を解除する請求項1~3のいずれか1項に記載の物体検出装置。
  5.  前記継続判定部(13C:S17A)は、前記対象物体が前記自車両の前方にあり、且つ前記対象物体の進行方向が自車線の側を向いていることを条件に、前記対象物体としての選択を継続する請求項1~4のいずれか1項に記載の物体検出装置。
  6.  前記継続判定部(13C:S19)は、前記対象物体として選択された物体の検出位置が前記第2状態に遷移してからの経過時間が所定値よりも短いことを条件に、前記対象物体としての選択を継続する請求項1~5のいずれか1項に記載の物体検出装置。
  7.  前記第1物標検出部及び前記第2物標検出部のうち少なくとも一方は、前記自車両の前方の撮影画像の画像処理で前記物体の種類を特定する画像処理部(12A)を備えており、
     前記移動体判定部(14)は、前記画像処理部(12A)による画像処理に基づき前記対象物体が移動体であるかを判定する請求項1~6のいずれか1項に記載の物体検出装置。
  8.  前記第1物標検出部は、前記自車両の前方に送信した電磁波の反射波により前記第1物標を検出するレーダ(21)を備え、前記第2物標検出部は、前記画像処理部(12A)を備えている請求項7に記載の物体検出装置。
  9.  前記継続判定部により前記対象物体としての選択が継続されている場合において、前記対象物体が衝突する可能性が高いときに衝突回避制御を実施する旨を決定する衝突回避部(31:S23)を備える請求項1~8のいずれか1項に記載の物体検出装置。
  10.  自車両前方の第1検出範囲に含まれる物体を第1物標として検出する第1物標検出ステップと、
     前記第1検出範囲に含まれ、且つ前記第1検出範囲よりも車幅方向に狭い第2検出範囲に含まれる物体を第2物標として検出する第2物標検出ステップと、
     前記物体の検出位置が前記第1検出範囲内であり且つ前記第2検出範囲内となる第1状態において、前記第1物標と前記第2物標とが同一の物体であることを条件に、当該物体を衝突回避制御の対象となる対象物体として選択する選択ステップと、
     前記対象物体の検出位置が前記第1状態から、前記第2検出範囲外にあり且つ前記第1検出範囲内となる第2状態に遷移しているかを判定する状態判定ステップと、
     前記対象物体が所定の移動体であるかを判定する移動体判定ステップと、
     前記対象物体の検出位置が前記第2状態に遷移した際に、前記対象物体が前記所定の移動体であることを条件に、前記対象物体としての選択を継続する継続判定ステップと、
     を有する物体検出方法。
  11.  前記第1物標検出ステップ及び前記第2物標検出ステップのうち少なくとも一方は、前記自車両の前方の撮影画像の画像処理で前記物体の種類を特定する画像処理ステップを有しており、
     前記移動体判定ステップは、前記画像処理ステップによる画像処理に基づき前記対象物体が移動体であるかを判定する請求項10に記載の物体検出方法。
  12.  前記継続判定ステップにより前記対象物体としての選択が継続されている場合において、前記対象物体が衝突する可能性が高いときに衝突回避制御を実施する旨を決定する衝突回避ステップを備える請求項10又は11に記載の物体検出方法。
PCT/JP2016/085518 2015-12-17 2016-11-30 物体検出装置及び物体検出方法 WO2017104413A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/062,567 US20180372860A1 (en) 2015-12-17 2016-11-30 Object detection device and object detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015246687A JP6451619B2 (ja) 2015-12-17 2015-12-17 物体検出装置
JP2015-246687 2015-12-17

Publications (1)

Publication Number Publication Date
WO2017104413A1 true WO2017104413A1 (ja) 2017-06-22

Family

ID=59056336

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085518 WO2017104413A1 (ja) 2015-12-17 2016-11-30 物体検出装置及び物体検出方法

Country Status (3)

Country Link
US (1) US20180372860A1 (ja)
JP (1) JP6451619B2 (ja)
WO (1) WO2017104413A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3315998B1 (en) * 2016-10-25 2021-12-08 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Apparatus and method for determining a speed of a vehicle
JP6603290B2 (ja) * 2017-10-27 2019-11-06 ファナック株式会社 複数のセンサを備えた物体監視装置
DE102018200757A1 (de) * 2018-01-18 2019-08-01 Robert Bosch Gmbh Verfahren und Vorrichtung zum Detektieren kritischer Querbewegungen

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070150196A1 (en) * 2005-12-09 2007-06-28 Grimm Donald K Method for detecting or predicting vehicle cut-ins
JP2010072969A (ja) * 2008-09-18 2010-04-02 Fujitsu Ten Ltd 周辺車両監視装置及び周辺車両監視方法
JP2010093610A (ja) * 2008-10-09 2010-04-22 Hitachi Automotive Systems Ltd 自動車の外界認識装置及び外界認識方法
JP2012220377A (ja) * 2011-04-11 2012-11-12 Denso Corp 物体識別装置、および物体識別プログラム
JP2015078926A (ja) * 2013-10-17 2015-04-23 株式会社デンソー 物標検出装置
JP2015092154A (ja) * 2013-11-06 2015-05-14 デルファイ・テクノロジーズ・インコーポレーテッド レーダーセンサモジュール

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070150196A1 (en) * 2005-12-09 2007-06-28 Grimm Donald K Method for detecting or predicting vehicle cut-ins
JP2010072969A (ja) * 2008-09-18 2010-04-02 Fujitsu Ten Ltd 周辺車両監視装置及び周辺車両監視方法
JP2010093610A (ja) * 2008-10-09 2010-04-22 Hitachi Automotive Systems Ltd 自動車の外界認識装置及び外界認識方法
JP2012220377A (ja) * 2011-04-11 2012-11-12 Denso Corp 物体識別装置、および物体識別プログラム
JP2015078926A (ja) * 2013-10-17 2015-04-23 株式会社デンソー 物標検出装置
JP2015092154A (ja) * 2013-11-06 2015-05-14 デルファイ・テクノロジーズ・インコーポレーテッド レーダーセンサモジュール

Also Published As

Publication number Publication date
JP6451619B2 (ja) 2019-01-16
US20180372860A1 (en) 2018-12-27
JP2017111055A (ja) 2017-06-22

Similar Documents

Publication Publication Date Title
JP5862785B2 (ja) 衝突判定装置及び衝突判定方法
WO2017104503A1 (ja) 移動体制御装置及び移動体制御方法
WO2017111135A1 (ja) 走行支援装置及び走行支援方法
WO2017111147A1 (ja) 走行支援装置及び走行支援方法
WO2017104773A1 (ja) 移動体制御装置及び移動体制御方法
WO2016158944A1 (ja) 車両制御装置及び車両制御方法
WO2017111110A1 (ja) 走行支援装置及び走行支援方法
WO2018074287A1 (ja) 車両制御装置
WO2017104580A1 (ja) 物体検出装置及び物体検出方法
JP6740970B2 (ja) 走行支援装置
US20150239437A1 (en) Automatic rear braking
WO2017104387A1 (ja) 物体検知装置及び物体検知方法
US10996317B2 (en) Object detection apparatus and object detection method
WO2016158634A1 (ja) 車両制御装置及び車両制御方法
JP6209797B2 (ja) 走行制御装置
JP6504078B2 (ja) 衝突予測装置
JP2018156290A (ja) 衝突回避装置
WO2016158238A1 (ja) 車両制御装置、及び車両制御方法
WO2017138329A1 (ja) 衝突予測装置
WO2016204213A1 (ja) 車両制御装置、及び車両制御方法
WO2017104413A1 (ja) 物体検出装置及び物体検出方法
WO2017183668A1 (ja) 車両制御装置、車両制御方法
JP6372431B2 (ja) 衝突予測装置
JP2014112348A (ja) 動作解析装置、動作解析システム、および動作解析方法
JP6175025B2 (ja) 物体認識装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16875397

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16875397

Country of ref document: EP

Kind code of ref document: A1