WO2019078211A1 - 移動物体認識装置 - Google Patents

移動物体認識装置 Download PDF

Info

Publication number
WO2019078211A1
WO2019078211A1 PCT/JP2018/038528 JP2018038528W WO2019078211A1 WO 2019078211 A1 WO2019078211 A1 WO 2019078211A1 JP 2018038528 W JP2018038528 W JP 2018038528W WO 2019078211 A1 WO2019078211 A1 WO 2019078211A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving object
moving
road
roadside
recognition device
Prior art date
Application number
PCT/JP2018/038528
Other languages
English (en)
French (fr)
Inventor
悠介 赤峰
康之 三宅
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2019078211A1 publication Critical patent/WO2019078211A1/ja
Priority to US16/851,795 priority Critical patent/US11841419B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/62Sense-of-movement determination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/60Velocity or trajectory determination systems; Sense-of-movement determination systems wherein the transmitter and receiver are mounted on the moving object, e.g. for determining ground speed, drift angle, ground track
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present disclosure relates to a technique for estimating the moving direction of a moving object.
  • Patent Document 1 in order to predict the motion of a target present in the periphery of the host vehicle with a prediction filter, with respect to a plurality of position information of a target detected within a predetermined time from the start of detection of the target, A technique is described in which linear regression processing is performed as regression analysis and initial values are input to a prediction filter.
  • the response is improved by reducing the number of times of detection of the target position information and shortening the predetermined time.
  • the number of times of detection of position information of the target is reduced and the predetermined time is shortened according to the detailed study of the inventor, there is a problem that the accuracy of the initial value input to the prediction filter decreases to predict the movement of the target. It was found.
  • the moving object recognition device of the present disclosure includes an object detection unit, a position detection unit, a road direction estimation unit, and a movement direction estimation unit.
  • the object detection unit detects a moving object moving on a road around the host vehicle and a roadside object on the road from objects existing around the host vehicle.
  • the position detection unit detects the positions of the moving object and the roadside object detected by the object detection unit.
  • the road direction estimation unit estimates the road direction of the road on which the moving object is moving, based on the position of the roadside object detected by the position detection unit.
  • the movement direction estimation unit estimates the movement direction of the moving object based on the road direction estimated by the road direction estimation unit.
  • the road direction can be estimated based on the positions of the plurality of roadside objects. Since the positions of a plurality of roadside objects can be detected by one detection process, the road direction can be estimated by one detection process. Since the moving part object is moving along the road, it can be estimated with high accuracy that the moving object is moving in either of the road directions based on the road direction estimated by one detection process.
  • Whether the moving object is moving in the road direction can be determined, for example, by detecting the changing direction of the position of the moving object, the relative velocity of the moving object with respect to the host vehicle, etc.
  • FIG. 1 is a block diagram showing a moving object recognition device of the present embodiment.
  • the schematic diagram which shows the relationship between self-vehicles, a moving object, and a roadside object.
  • the schematic diagram which shows the other relationship between the own vehicle, a moving object, and a roadside object.
  • the schematic diagram explaining formation of a roadside object group.
  • the schematic diagram explaining the reliability of the road direction which the approximated straight line of a roadside object group shows.
  • the schematic diagram which shows the relationship between the space
  • the schematic diagram explaining the intersection of the own vehicle and a moving object The schematic diagram which shows an example of the intersection of the own vehicle and a moving object.
  • the schematic diagram which shows the other example of the intersection of the own vehicle and a moving object. 6 is a flowchart showing moving object recognition processing.
  • the on-vehicle moving object recognition system 2 shown in FIG. 1 includes a sensor group 10, a moving object recognition device 20, a speaker 40, and a display 42.
  • the sensor group 10 includes at least a vehicle speed sensor 12 and a millimeter wave radar 14.
  • the millimeter wave radar 14 outputs a transmission wave frequency-modulated by a triangular wave from an antenna, receives a reflected wave reflected from an object present around the host vehicle by an antenna, and outputs a beat signal by mixing.
  • the beat signal changes its waveform due to interference generated according to the distance to the object and the relative velocity, so the distance between the vehicle and the object and the relative velocity of the object relative to the vehicle can be calculated from the waveform of the beat signal.
  • the reflected wave is received, so it is possible to detect the direction of the object present around the host vehicle with respect to the host vehicle.
  • the relative position of the object with respect to the host vehicle can be detected based on the distance between the host vehicle and the object and the direction of the object relative to the host vehicle.
  • the moving object recognition device 20 is mainly configured of a known microcomputer having a CPU and a semiconductor memory such as a RAM, a ROM, and a flash memory.
  • the various functions of the moving object recognition device 20 are realized by the CPU executing a program stored in a non-transitional tangible storage medium.
  • the semiconductor memory corresponds to a non-transitional tangible storage medium storing a program. Also, by executing this program, a method corresponding to the program is executed.
  • the moving object recognition apparatus 20 may be configured by one microcomputer or may be configured by a plurality of microcomputers.
  • the moving object recognition device 20 has the object detection unit 22, the position detection unit 24, the group formation unit 26, the road direction estimation unit 28, and the reliability as the configuration of functions realized by the CPU executing a program.
  • the calculation unit 30, the movement direction estimation unit 32, the filter processing unit 34, and the notification unit 36 are provided.
  • the method for realizing these elements constituting the moving object recognition apparatus 20 is not limited to software, and some or all of the elements may be realized using one or more hardware.
  • the electronic circuit may be implemented by a digital circuit or an analog circuit including a large number of logic circuits, or a combination thereof.
  • the object detection unit 22 detects the distance between the vehicle and the object and the direction of the object relative to the vehicle based on the detection signal of the millimeter wave radar 14. Furthermore, the object detection unit 22 detects the relative velocity of the object with respect to the host vehicle based on the detection signal of the millimeter wave radar 14.
  • the object detection unit 22 Based on the vehicle speed of the host vehicle obtained from the vehicle speed sensor 12 and the relative speed of the object relative to the host vehicle, the object detection unit 22 selects a moving object and a roadside object that is a stationary object from objects present around the host vehicle. To detect.
  • the position detection unit 24 detects the relative position of the object with respect to the vehicle based on the distance between the vehicle and the object detected by the object detection unit 22 and the direction of the object with respect to the vehicle.
  • the group formation unit 26 groups a plurality of roadside objects 200 to form a roadside object group 202, as shown in FIG.
  • the plurality of roadside objects 200 are detection points corresponding to one object detected by the millimeter wave radar 14 one by one, or a continuous one such as a guardrail detected one by one by the millimeter wave radar 14. It is a detection point corresponding to a part of two objects.
  • the roadside object detected as the detection point is not limited to the guardrail, but may be a curb, a building or the like.
  • the group formation unit 26 sets an approximate straight line 204 that approximates the position of the roadside object 200 constituting the roadside object group 202. For example, the group formation unit 26 sets the approximate straight line 204 such that the sum of squares of the distances between the approximate straight line 204 and the roadside object 200 is minimized.
  • the group forming unit 26 configures the roadside object group 202 as in FIG. 2 even when the approximate straight line 204 of the roadside object group 202 is oblique to the traveling direction 102 of the host vehicle 100 as shown in FIG.
  • An approximate straight line 204 which approximates the position of the roadside object 200 is set.
  • the group forming unit 26 is a distance between roadside objects 200a, 200b, 200c, 200d, and 200e indicated by the same reference, and positions of the roadside objects 200a, 200b, 200c, 200d, and 200e.
  • Roadside object group in a direction intersecting the approximate straight lines 204a, 204b, 204c, 204d, 204e with the errors between the positions of the roadside objects 200a, 200b, 200c, 200d, 200e and the approximate straight lines 204a, 204b, 204c, 204d, 204e
  • the roadside object forming the roadside object group 202a, 202b, 202c, 202d, 202e is selected based on at least one of the lengths 202a, 202b, 202c, 202d, 202e.
  • a roadside object 200c which is separated from the roadside object group 202a by a predetermined distance or more is excluded from the roadside object group 202a.
  • the roadside object 200c at a position away from the approximate straight line 204a of the roadside object group 202a by a predetermined distance or more is excluded from the roadside object group 202a.
  • the roadside object 200c that is further from the roadside object group 202a than the length of the roadside object group 202a in the direction intersecting the approximate straight line 204a of the roadside object group 202a is excluded from the roadside object group 202a.
  • the road direction estimation unit 28 estimates the two directions indicated by the approximate straight line 204 of the roadside object group 202 as the road direction of the road. As shown in FIG. 4, when a plurality of roadside object groups 202 a, 202 b, 202 c, 202 d and 202 e exist around the vehicle 100, the road direction estimation unit 28 may cross the moving object 110. You may estimate only the road direction of the road with high sex. In FIG. 4, the road direction of the road 220 intersecting the road 210 on which the vehicle 100 is traveling is the road direction of the road on which the vehicle 100 is likely to intersect the moving object 110.
  • the road direction estimation unit 28 is a moving object based on only the approximate straight line 204c of the roadside object group 202c closest to the moving object 110 among the plurality of roadside object groups 202a, 202b, 202c, 202d and 202e.
  • the road direction of the road 220 which 110 moves may be estimated.
  • the reliability calculation unit 30 detects the number of detection points of the roadside object 200 constituting the roadside object group 202, the length in the direction indicated by the approximate straight line 204 of the roadside object group 202, and the error between the position of the roadside object 200 and the approximate straight line 204. On the basis of at least one of the above, the reliability of the road direction estimated by the road direction estimation unit 28 is calculated.
  • the reliability calculation unit 30 calculates the reliability in the road direction indicated by the approximate straight line 204 in FIG. 6 higher than the reliability in the road direction indicated by the approximate straight line 204 in FIG.
  • the reliability calculation unit 30 calculates the reliability in the road direction indicated by the approximate straight line 204 in FIG. 6 higher than the reliability in the road direction indicated by the approximate straight line 204 in FIG.
  • the reliability calculation unit 30 calculates the reliability in the road direction indicated by the approximate straight line 204 in FIG. 6 higher than the reliability in the road direction indicated by the approximate straight line 204 in FIG.
  • the movement direction estimation unit 32 estimates the movement direction 112 of the moving object 110 based on the road direction estimated by the road direction estimation unit 28 and the sign of the relative velocity of the moving object 110 with respect to the host vehicle 100. For example, if the sign of the relative velocity is negative, the moving object 110 approaches the host vehicle 100 along the road direction, and if the sign of the relative velocity is positive, the moving object 110 leaves the host vehicle 100 along the road direction. ing.
  • the moving direction estimation unit 32 approximates the approximate straight lines of the roadside object 202 closest to the moving object 110.
  • the direction 204 is recognized as the direction of the road on which the moving object 110 moves.
  • the moving direction estimation unit 32 moves the direction of the approximate straight line 204 c of the roadside object group 202 c closest to the moving object 110 among the plurality of roadside object groups 202 a, 202 b, 202 c, 202 d, 202 e Recognize as the direction of the road on which
  • the filter processing unit 34 filters the road direction 310 previously estimated by the road direction estimation unit 28 and the moving direction 302 of the moving object 110 estimated by the filter processing unit 34 the last time,
  • the moving direction 312 of the moving object 110 is estimated by filtering.
  • the filter processing unit 34 estimates the reliability last time according to the reliability of the calculated road direction 310.
  • the moving direction 312 of the previous moving object 110 is estimated by filtering.
  • the angle formed by the previously estimated road direction 310 and the moving direction 302 of the moving object estimated last time Is the previous moving direction 312 of the moving object.
  • the filter processing unit 34 estimates the current position 314 of the moving object 110 based on the previously set position 300 of the moving object 110, the moving direction 312 of the moving object 110 estimated last time, and the relative velocity of the moving object 110.
  • the filter processing unit 34 sets the current position 322 of the moving object 110 by filter processing by weighting each of the estimated position 314 of the moving object 110 and the detected position 320 of the moving object detected this time.
  • the filter processing unit 34 is estimated this time according to the calculated reliability of the road direction 330.
  • the moving direction 332 of the current moving object 110 is estimated by filtering, with the road direction 330 and the moving direction 312 of the moving object 110 estimated last time being weighted.
  • the filter processing unit 34 determines the next moving position 340 of the moving object 110 based on the position 322 of the moving object 110 set this time, the current moving direction 332 of the moving object estimated and the relative velocity of the moving object 110. presume.
  • the filter processing unit 34 When estimating the movement position of the moving object 110, as shown in FIG. 8, the filter processing unit 34 approximates the straight line 204a indicating the road direction of the roadside object group 202a on both sides of the moving object 110 and the road direction of the roadside object group 202b.
  • the road width d indicated by the distance between the approximate straight line 204 b and the approximate straight line 204 b indicates the movable range of the moving object 110.
  • the filter processing unit 34 estimates the moving position of the moving object 110 between the approximate straight line 204 a and the approximate straight line 204 b.
  • the moving direction estimation unit 32 adopts the moving direction of the moving object 110 estimated by the filter processing unit 34 by the filtering process.
  • the notification unit 36 When the traveling direction 102 of the host vehicle 100 and the moving direction 112 of the moving object 110 cross each other as shown in FIG. 9, the notification unit 36 outputs a warning as a sound or a warning sound from the speaker 40, a display on the display 42, etc. Inform
  • the notification unit 36 left-turns the intersection, for example, when the moving object 110 merges obliquely onto the expressway on which the host vehicle 100 is traveling, as shown in FIG.
  • the moving object 110 is moving behind the left side of the own vehicle 100 to be trying to move, it is informed that the own vehicle 100 and the moving object 110 intersect.
  • the object detection unit 22 detects the relative velocity of the object around the host vehicle 100 with respect to the host vehicle 100 based on the detection signal of the millimeter wave radar 14. Further, in S400, based on the detection signal of millimeter wave radar 14, position detection unit 24 detects the distance between an object around vehicle 100 detected by object detection unit 22 and vehicle 100, and an object relative to vehicle 100. The relative position of the object relative to the host vehicle 100 is detected from the direction.
  • the object detection unit 22 determines whether the detected object is the moving object 110 or the roadside object 200 based on the relative velocity of the object with respect to the host vehicle 100 and the vehicle speed of the host vehicle 100.
  • the object detection unit 22 determines whether the detected moving object 110 is an object detected as a moving object for the first time. If the determination in S404 is No, that is, if the detected moving object 110 has already been detected as a moving object, the process proceeds to S410.
  • the road direction estimation unit 28 detects the roadside object 200 detected by the object detection unit 22 in S406.
  • the direction of the road on which the moving object 110 is moving is estimated based on the approximate straight line 204 of the roadside object group 202 formed by When there are a plurality of moving objects 110 detected for the first time, the road direction is estimated for each moving object 110.
  • the moving direction estimation unit 32 determines the road direction in which the moving object 110 is moving and the moving object 110 with respect to the vehicle 100 in S408.
  • the initial value of the moving direction 112 of the moving object 110 is estimated on the basis of the relative velocity and the process proceeds to S412.
  • the moving direction estimation unit 32 selects the estimated one road direction as the road direction in which the moving object 110 moves.
  • the moving direction estimation unit 32 moves the road direction indicated by the approximate straight line 204 of the roadside object group 202 closest to the moving object 110 110 is selected as the road direction to travel.
  • the movement direction estimation unit 32 estimates the movement direction 112 and the movement position of the moving object 110 by the filter processing by the filter processing unit 34 described based on FIG. 7 described above, and shifts the processing to S412.
  • the notification unit 36 determines whether the traveling direction 102 of the host vehicle 100 intersects with the moving direction 112 of the moving object 110.
  • the informing unit 36 uses the sound or warning sound from the speaker 40 and the display 42. At least one of the display states that the traveling direction 102 of the vehicle 100 and the moving direction 112 of the moving object 110 intersect.
  • the group formation unit 26 forms the roadside object group 202 existing around the host vehicle 100 based on the roadside object 200 detected by the object detection unit 22.
  • the road direction estimation unit 28 calculates an approximate straight line 204 that approximates the position of the roadside object 200 configuring the roadside object group 202.
  • the road direction estimation unit 28 calculates the distance between the moving object 110 and each of the plurality of roadside object groups 202 present around the vehicle 100.
  • the road direction estimation unit 28 determines the roadside object group 202 closest to the moving object 110 and to be referred to in order to estimate the moving direction of the moving object 110 based on the distance calculated in S424.
  • the road direction estimation unit 28 estimates the road direction of the road on which the moving object 110 moves based on the approximate straight line 204 of the roadside object group 202 referred to in order to estimate the moving direction of the moving object 110 determined in S426. Do.
  • one road direction of the road on which the moving object 110 moves is estimated based on the approximate straight line 204 of the roadside object group 202 closest to the moving object 110.
  • the road direction estimation unit 28 may estimate a plurality of road directions based on the approximate straight lines 204 of all the roadside object groups 202 present around the vehicle 100.
  • the road direction estimation unit 28 may estimate one or more road directions based on the approximate straight line 204 of the roadside object group 202 of the road 220 intersecting with the road 210 on which the vehicle 100 travels.
  • the road direction of the road is estimated based on the approximate straight line 204 which approximates the position of the roadside object 200 on the road where the moving object 110 is moving, and based on the estimated road direction and the relative velocity of the moving object 110 The moving direction of the moving object 110 is estimated.
  • the moving direction 112 of the moving object 110 is either of the road directions of the road on which the moving object 110 is moving. Then, based on the relative velocity of the moving object 110 with respect to the host vehicle 100, it can be determined to which side in the road direction the moving object 110 is moving. Furthermore, the calculation of the approximate straight line 204 and the detection of the relative velocity of the moving object 110 can be performed by one detection process based on the detection signal of the millimeter wave radar 14. Thereby, the moving direction of the moving object 110 can be estimated with high responsiveness while securing accuracy.
  • the movement direction estimated last time and the road direction estimated this time are weighted and filtered according to the reliability of the road direction estimated.
  • the moving direction of the moving object 110 can be estimated with high accuracy according to the reliability of the road direction.
  • the millimeter wave radar 14 corresponds to a sensor that detects the relative velocity of the object with respect to the host vehicle.
  • S400 and S402 correspond to the processing of the object detection unit 22
  • S400 corresponds to the processing of the position detection unit
  • S406 and S422 to S428 correspond to the processing of the road direction estimation unit
  • S408 and S410 indicate the movement direction estimation unit.
  • S410 corresponds to the processing of the reliability calculation unit and the filter processing unit
  • S414 corresponds to the processing of the notification unit
  • S420 corresponds to the processing of the group formation unit.
  • the relative velocity of the moving object 110 with respect to the vehicle 100 is detected by one detection process based on the detection signal of the millimeter wave radar 14, and the detected relative velocity and the moving object 110 move.
  • the moving direction 112 of the moving object 110 was estimated by one detection process based on the traveling direction of the road.
  • a LiDAR or a camera may be used as a sensor that can not detect the relative velocity of the moving object 110.
  • LiDAR is an abbreviation of Light Detection and Ranging.
  • the position of the moving object 110 can be detected based on the detection signal of LiDAR or the image data captured by the camera, the direction in which the position of the moving object 110 changes can be detected by two detection processes.
  • the moving object 110 is estimated by filtering the moving direction estimated last time and the road direction estimated this time.
  • the moving direction estimation unit 32 adopts the moving direction of this time as the moving direction 112 of the moving object 110.
  • the road direction of the road on which the moving object 110 moves and the change direction of the relative velocity of the moving object 110 to the host vehicle 100 or the position change of the moving object 110 may be estimated based on it.
  • the approximate straight line 204 of the roadside object group 202 is calculated, and the road direction is estimated based on the direction of the approximate straight line 204.
  • the road direction may be estimated based on the longitudinal direction of the roadside object group 202 from which the roadside object group 202 extends.
  • the plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components . Further, a plurality of functions possessed by a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by a single component. In addition, part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above-described embodiment may be added to or replaced with the configuration of the other above-described embodiment.
  • a moving object recognition system having the moving object recognition device 20 as a component in addition to the moving object recognition device 20 described above, a program for causing a computer to function as the moving object recognition device 20, a semiconductor storing the program
  • the present disclosure can also be realized in various forms, such as a non-transient actual recording medium such as a memory, a moving object recognition method, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Signal Processing (AREA)

Abstract

本開示の移動物体認識装置は、物体検出部と、位置検出部と、道路方向推定部と、移動方向推定部と、を備えている。S400、S402において物体検出部は、自車両の周囲に存在する物体から、自車両の周囲の道路を移動する移動物体と道路の路側物体とを検出する。S400において位置検出部は、物体検出部が検出する移動物体と路側物体との位置を検出する。S406において道路方向推定部は、位置検出部が検出する路側物体の位置に基づいて、移動物体が移動している道路の道路方向を推定する。S408、S410において移動方向推定部は、道路方向推定部が推定する道路方向に基づいて移動物体の移動方向を推定する。

Description

移動物体認識装置 関連出願の相互参照
 本国際出願は、2017年10月18日に日本国特許庁に出願された日本国特許出願第2017-201899号に基づく優先権を主張するものであり、日本国特許出願第2017-201899号の全内容を参照により本国際出願に援用する。
 本開示は、移動物体の移動方向を推定する技術に関する。
 自車両の周囲に存在する移動物体の動きを予測する技術が知られている。例えば、特許文献1には、自車両の周辺に存在するターゲットの動きを予測フィルタで予測するために、ターゲットの検出開始時から所定時間内に検出されたターゲットの複数の位置情報に対して、回帰解析として線形回帰処理を行い予測フィルタに入力する初期値とする技術が記載されている。
特開2001-272466号公報
 しかしながら、特許文献1に記載された技術では、回帰解析により予測フィルタに入力する初期値を算出するために、ターゲットの検出開始時から所定時間内、ターゲットの複数の位置情報を検出する必要がある。その結果、発明者の詳細な検討により、ターゲットの動きを予測するまでの応答性が低いという課題が見出された。
 ターゲットの位置情報の検出回数を低減し、所定時間を短縮すれば応答性は向上する。しかし、発明者の詳細な検討により、ターゲットの位置情報の検出回数を低減して所定時間を短縮すると、ターゲットの動きを予測するために予測フィルタに入力する初期値の精度が低下するという課題が見出された。
 本開示は、移動物体の移動方向を、精度を確保しつつ高い応答性で推定する技術を提供することが望ましい。
 本開示の移動物体認識装置は、物体検出部と、位置検出部と、道路方向推定部と、移動方向推定部と、を備えている。
 物体検出部は、自車両の周囲に存在する物体から、自車両の周囲の道路を移動する移動物体と道路の路側物体とを検出する。位置検出部は、物体検出部が検出する移動物体と路側物体との位置を検出する。道路方向推定部は、位置検出部が検出する路側物体の位置に基づいて、移動物体が移動している道路の道路方向を推定する。移動方向推定部は、道路方向推定部が推定する道路方向に基づいて移動物体の移動方向を推定する。
 路側物体は道路の方向に沿って存在しているので、複数の路側物体の位置に基づいて道路方向を推定できる。複数の路側物体の位置は1回の検出処理により検出できるので、1回の検出処理により道路方向を推定できる。移動部物体は道路に沿って移動しているので、1回の検出処理により推定された道路方向に基づいて、移動物体が道路方向のどちらかに移動していることを高精度に推定できる。
 移動物体が道路方向のどちらに移動しているかは、例えば移動物体の位置の変化方向、あるいは自車両に対する移動物体の相対速度等を検出することにより、極力少ない検出回数で決定できる。
 したがって、道路方向に基づいて、精度を確保しつつ高い応答性で移動物体の移動方向を推定できる。
本実施形態の移動物体認識装置を示すブロック図。 自車両と移動物体と路側物体との関係を示す模式図。 自車両と移動物体と路側物体との他の関係を示す模式図。 路側物体群の形成を説明する模式図。 路側物体群の近似直線が示す道路方向の信頼度を説明する模式図。 路側物体群の近似直線が示す道路方向の信頼度を説明する模式図。 移動物体の位置と移動方向との推定を説明する模式図。 移動物体の両側の路側物体群の間隔と道路の幅との関係を示す模式図。 自車両と移動物体との交差を説明する模式図。 自車両と移動物体との交差の一例を示す模式図。 自車両と移動物体との交差の他の例を示す模式図。 移動物体認識処理を示すフローチャート。 道路方向推定処理を示すフローチャート。
 以下、本開示の実施形態を図に基づいて説明する。
[1.構成]
 図1に示す車載の移動物体認識システム2は、センサ群10と、移動物体認識装置20と、スピーカ40と、ディスプレイ42とを備えている。センサ群10は、少なくとも車速センサ12とミリ波レーダ14とを備えている。
 ミリ波レーダ14は、三角波で周波数変調した送信波をアンテナから出力し、自車両の周囲に存在する物体から反射した反射波をアンテナで受信してミキシングすることでビート信号を出力する。
 ビート信号は、物体までの距離および相対速度に応じて生じる干渉により波形が変化するので、ビート信号の波形から自車両と物体との距離と、自車両に対する物体の相対速度とを算出できる。また、送信波の照射方向に物体が存在すれば反射波が受信されるので、自車両の周囲に存在する物体の自車両に対する方向を検出することができる。自車両と物体との距離と、自車両に対する物体の方向とに基づいて、自車両に対する物体の相対位置を検出できる。
 移動物体認識装置20は、CPUと、RAM、ROM、フラッシュメモリ等の半導体メモリと、を有する周知のマイクロコンピュータを中心に構成される。移動物体認識装置20の各種機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。
 この例では、半導体メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。尚、移動物体認識装置20は、1つのマイクロコンピュータで構成されてもよいし、複数のマイクロコンピュータで構成されてもよい。
 移動物体認識装置20は、CPUがプログラムを実行することで実現される機能の構成として、物体検出部22と、位置検出部24と、群形成部26と、道路方向推定部28と、信頼度算出部30と、移動方向推定部32と、フィルタ処理部34と、報知部36と、を備えている。
 移動物体認識装置20を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部または全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路またはアナログ回路、あるいはこれらの組合せによって実現してもよい。
 物体検出部22は、ミリ波レーダ14の検出信号に基づいて、自車両と物体との距離と自車両に対する物体の方向とを検出する。さらに、物体検出部22は、ミリ波レーダ14の検出信号に基づいて、自車両に対する物体の相対速度を検出する。
 物体検出部22は、車速センサ12から取得する自車両の車速と、自車両に対する物体の相対速度とに基づいて、自車両の周囲に存在する物体から移動物体と静止物体である路側物体とを検出する。
 位置検出部24は、物体検出部22が検出する自車両と物体との距離と、自車両に対する物体の方向とに基づいて、自車両に対する物体の相対位置を検出する。
 群形成部26は、物体検出部22が路側物体を検出すると、図2に示すように、複数の路側物体200をグループ化して路側物体群202を形成する。複数の路側物体200は、一つずつがミリ波レーダ14により検出される一つの物体に対応する検出点であるか、一つずつがミリ波レーダ14により検出されるガードレールのような連続した一つの物体の一部に対応する検出点である。
 検出点として検出される路側物体は、ガードレールに限らず、縁石、建物等であってもよい。
 群形成部26は、路側物体群202を構成する路側物体200の位置を近似する近似直線204を設定する。例えば、群形成部26は、近似直線204と路側物体200との距離の二乗和が最小となるように近似直線204を設定する。群形成部26は、図3に示すように、自車両100の走行方向102に対し、路側物体群202の近似直線204が斜めになる場合も、図2と同様に路側物体群202を構成する路側物体200の位置を近似する近似直線204を設定する。
 群形成部26は、図4に示すように、同じ符号で示される路側物体200a、200b、200c、200d、200e同士の距離と、各路側物体200a、200b、200c、200d、200eの位置と、各路側物体200a、200b、200c、200d、200eの位置と近似直線204a、204b、204c、204d、204eとの誤差と、近似直線204a、204b、204c、204d、204eと交差する方向の路側物体群202a、202b、202c、202d、202eの長さとの少なくとも一つに基づいて、路側物体群202a、202b、202c、202d、202eを形成する路側物体を選択する。
 例えば、路側物体群202aの路側物体200aとの距離が所定距離以上離れている路側物体200cは路側物体群202aから除外される。
 また、路側物体群202aの近似直線204aから所定距離以上離れている位置の路側物体200cは路側物体群202aから除外される。
 また、路側物体群202aの近似直線204aと交差する方向の路側物体群202aの長さよりも路側物体群202aから外れている路側物体200cは、路側物体群202aから除外される。
 道路方向推定部28は、路側物体群202の近似直線204が示す2方向を道路の道路方向と推定する。道路方向推定部28は、図4に示すように、自車両100の周囲に複数の路側物体群202a、202b、202c、202d、202eが存在する場合、自車両100が移動物体110と交差する可能性が高い道路の道路方向だけを推定してもよい。図4では、自車両100が走行している道路210と交差する道路220の道路方向が、自車両100が移動物体110と交差する可能性が高い道路の道路方向である。
 また、図4において道路方向推定部28は、複数の路側物体群202a、202b、202c、202d、202eのうち、移動物体110に最も近い路側物体群202cの近似直線204cだけに基づいて、移動物体110が移動する道路220の道路方向を推定してもよい。
 信頼度算出部30は、路側物体群202を構成する路側物体200の検出点数と、路側物体群202の近似直線204が示す方向の長さと、路側物体200の位置と近似直線204との誤差との少なくとも一つに基づいて、道路方向推定部28が推定する道路方向の信頼度を算出する。
 例えば、図5に示す路側物体群202と図6に示す路側物体群202とを比較すると、図6の路側物体群202を構成する路側物体200の検出点数は図5の路側物体群202を構成する路側物体200の検出点数よりも多い。この場合、信頼度算出部30は、図6の近似直線204が示す道路方向の信頼度を図5の近似直線204が示す道路方向の信頼度よりも高く算出する。
 また、図6の路側物体群202の近似直線204が示す方向の長さは、図5の路側物体群202の近似直線204が示す方向の長さよりも長い。この場合、信頼度算出部30は、図6の近似直線204が示す道路方向の信頼度を図5の近似直線204が示す道路方向の信頼度よりも高く算出する。
 また、図6の路側物体群202を構成する路側物体200の位置と近似直線204との誤差は、図5の路側物体群202を構成する路側物体200の位置と近似直線204との誤差よりも小さい。この場合、信頼度算出部30は、図6の近似直線204が示す道路方向の信頼度を図5の近似直線204が示す道路方向の信頼度よりも高く算出する。
 移動方向推定部32は、道路方向推定部28が推定する道路方向と、自車両100に対する移動物体110の相対速度の符号とに基づいて、移動物体110の移動方向112を推定する。例えば、相対速度の符号が負であれば移動物体110は道路方向に沿って自車両100に接近し、相対速度の符号が正であれば移動物体110は道路方向に沿って自車両100から離れている。
 移動方向推定部32は、道路方向推定部28が複数の路側物体群202の近似直線204の方向に基づいて複数の道路方向を推定する場合、移動物体110に最も近い路側物体群202の近似直線204の方向を移動物体110が移動する道路の方向として認識する。
 例えば、図4において、移動方向推定部32は、複数の路側物体群202a、202b、202c、202d、202eのうち、移動物体110に最も近い路側物体群202cの近似直線204cの方向を移動物体110が移動する道路の方向として認識する。
 フィルタ処理部34は、図7に示すように、道路方向推定部28により前回推定された道路方向310とフィルタ処理部34が前々回推定した移動物体110の移動方向302とをフィルタ処理して、前回の移動物体110の移動方向312をフィルタ処理により推定する。
 例えば、道路方向推定部28により前回推定された道路方向310の信頼度を信頼度算出部30が算出すると、フィルタ処理部34は、算出された道路方向310の信頼度に応じて、前回推定された道路方向310と前々回推定された移動物体110の移動方向302とを重み付けして、前回の移動物体110の移動方向312をフィルタ処理により推定する。
 前回推定された道路方向310と前々回推定された移動物体の移動方向302とが同じ重みの場合には、前回推定された道路方向310と前々回推定された移動物体の移動方向302とが形成する角度を2等分する方向が移動物体の前回の移動方向312になる。
 フィルタ処理部34は、前回設定した移動物体110の位置300と前回推定した移動物体110の移動方向312と移動物体110の相対速度とに基づいて、今回の移動物体110の位置314を推定する。フィルタ処理部34は、推定した今回の移動物体110の位置314と今回検出された移動物体の検出位置320とをそれぞれ重み付けして、移動物体110の今回の位置322をフィルタ処理により設定する。
 推定された今回の移動物体の位置314と今回検出された移動物体の検出位置320とが同じ重みの場合には、位置314と検出位置320との中間位置が移動物体の今回の位置322になる。
 そして、フィルタ処理部34は、道路方向推定部28により今回推定された道路方向330の信頼度を信頼度算出部30が算出すると、算出された道路方向330の信頼度に応じて、今回推定された道路方向330と前回推定された移動物体110の移動方向312とを重み付けして、今回の移動物体110の移動方向332をフィルタ処理により推定する。
 そして、フィルタ処理部34は、今回設定した移動物体110の位置322と推定した移動物体の今回の移動方向332と移動物体110の相対速度とに基づいて、移動物体110の次回の移動位置340を推定する。
 フィルタ処理部34は、移動物体110の移動位置を推定する場合、図8に示すように、移動物体110の両側の路側物体群202aの道路方向を示す近似直線204aと路側物体群202bの道路方向を示す近似直線204bとの間が示す道路幅dを移動物体110の移動可能範囲とする。そして、フィルタ処理部34は、近似直線204aと近似直線204bとの間で移動物体110の移動位置を推定する。
 尚、前述した移動方向推定部32は、物体検出部22が移動物体110を2回目以降に検出する場合、フィルタ処理部34がフィルタ処理により推定する移動物体110の移動方向を採用する。
 報知部36は、図9に示すように、自車両100の走行方向102と移動物体110の移動方向112とが交差する場合、警告をスピーカ40からの音声または警告音、ディスプレイ42への表示等で報知する。
 報知部36は、交差点以外にも、図10に示すように、例えば自車両100が走行している高速道路に移動物体110が斜めから合流する場合、あるいは図11に示すように、交差点を左折しようとしている自車両100の左側後方を移動物体110が移動している場合、自車両100と移動物体110とが交差することを報知する。
 [2.処理]
 (1)移動物体認識処理
 移動物体認識装置20が実行する移動物体認識処理を図12に示フローチャートに基づいて説明する。
 S400において物体検出部22は、ミリ波レーダ14の検出信号に基づいて、自車両100の周囲の物体の自車両100に対する相対速度を検出する。また、S400において位置検出部24は、ミリ波レーダ14の検出信号に基づいて、物体検出部22が検出する自車両100の周囲の物体と自車両100との距離、ならびに自車両100に対する物体の方向から、自車両100に対する物体の相対位置を検出する。
 S402において物体検出部22は、自車両100に対する物体の相対速度と自車両100の車速とに基づいて、検出した物体が移動物体110であるか路側物体200であるかを判定する。
 S404において物体検出部22は、検出した移動物体110が初めて移動物体として検出された物体であるか否かを判定する。S404の判定がNoである、つまり検出された移動物体110がすでに移動物体として検出されている場合、処理はS410に移行する。
 S404の判定がYesである、つまり検出された移動物体110が物体検出部22により初めて移動物体として検出された場合、S406において道路方向推定部28は、物体検出部22により検出された路側物体200が形成する路側物体群202の近似直線204に基づいて、移動物体110が移動している道路の道路方向を推定する。初めて検出された移動物体110が複数存在する場合、それぞれの移動物体110について道路方向が推定される。
 移動物体S406における道路方向の推定処理の詳細については、図13に基づいて後述する。
 S406の道路方向推定処理により移動物体110が移動している道路方向が推定されると、S408において移動方向推定部32は、移動物体110が移動している道路方向と自車両100に対する移動物体110の相対速度とに基づいて、移動物体110の移動方向112の初期値を推定し、処理をS412に移行する。
 S408において移動方向推定部32は、S406の道路方向推定処理において一つの道路方向が推定される場合、推定された一つの道路方向を移動物体110が移動する道路方向として選択する。
 また、S408において移動方向推定部32は、S406の道路方向推定処理において、複数の道路方向が推定される場合、移動物体110に最も近い路側物体群202の近似直線204が示す道路方向を移動物体110が移動する道路方向として選択する。
 S410において移動方向推定部32は、前述した図7に基づいて説明したフィルタ処理部34によるフィルタ処理により、移動物体110の移動方向112と移動位置とを推定し、処理をS412に移行する。
 S412において報知部36は、自車両100の走行方向102と移動物体110の移動方向112とが交差するか否かを判定する。
 S412の判定がNoである、つまり自車両100の走行方向102と移動物体110の移動方向112とが交差しない場合、本処理は終了する。
 S412の判定がYesである、つまり自車両100の走行方向102と移動物体110の移動方向112とが交差する場合、S414において報知部36は、スピーカ40からの音声または警告音とディスプレイ42での表示との少なくとも一方により、自車両100の走行方向102と移動物体110の移動方向112とが交差することを報知する。
 (2)道路方向推定処理
 移動物体認識装置20が実行する道路方向推定処理を図13に示すフローチャートに基づいて説明する。図13の処理は、図12のS406において実行される。
 S420において群形成部26は、物体検出部22により検出された路側物体200に基づいて自車両100の周囲に存在する路側物体群202を形成する。
 S422において道路方向推定部28は、路側物体群202を構成する路側物体200の位置を近似する近似直線204を算出する。S424において道路方向推定部28は、移動物体110と自車両100の周囲に存在する複数の路側物体群202のそれぞれとの距離を算出する。S426において道路方向推定部28は、S424で算出した距離に基づいて、移動物体110に最も近く、移動物体110の移動方向を推定するために参照する路側物体群202を決定する。
 S428において道路方向推定部28は、S426で決定した移動物体110の移動方向を推定するために参照する路側物体群202の近似直線204に基づいて、移動物体110が移動する道路の道路方向を推定する。
 尚、図13に示す道路方向推定処理では、移動物体110に最も近い路側物体群202の近似直線204に基づいて、移動物体110が移動する道路の道路方向を一つ推定した。これに対し、道路方向推定部28は、自車両100の周囲に存在するすべての路側物体群202の近似直線204に基づいて、複数の道路方向を推定してもよい。
 また、道路方向推定部28は、自車両100が走行する道路210と交差する道路220の路側物体群202の近似直線204に基づいて、一つまたは複数の道路方向を推定してもよい。
 [3.効果]
 以上説明した本実施形態によると、以下の効果を得ることができる。
 (1)移動物体110が移動している道路の路側物体200の位置を近似する近似直線204に基づいて道路の道路方向を推定し、推定した道路方向と移動物体110の相対速度とに基づいて、移動物体110の移動方向を推定する。
 移動物体110の移動方向112は、移動物体110が移動している道路の道路方向のどちらかである。そして、自車両100に対する移動物体110の相対速度により、移動物体110が道路方向のどちらに移動しているかを決定できる。さらに、近似直線204の算出と移動物体110の相対速度の検出とは、ミリ波レーダ14の検出信号に基づく1回の検出処理により実行できる。これにより、精度を確保しつつ高い応答性で移動物体110の移動方向を推定できる。
 (2)移動物体110に対する2回目以降の検出処理の場合、前回推定された移動方向と今回推定された道路方向とを、推定された道路方向の信頼度に応じて重み付けしてフィルタ処理するので、道路方向の信頼度に応じて移動物体110の今回の移動方向を高精度に推定できる。
 以上説明した本実施形態において、ミリ波レーダ14が自車両に対する物体の相対速度を検出するセンサに対応する。
 またS400、S402が物体検出部22の処理に対応し、S400が位置検出部の処理に対応し、S406、S422~S428が道路方向推定部の処理に対応し、S408、S410が移動方向推定部の処理に対応し、S410が信頼度算出部とフィルタ処理部との処理に対応し、S414が報知部の処理に対応し、S420が群形成部の処理に対応する。
 [4.他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (1)上記実施形態では、ミリ波レーダ14の検出信号に基づいて、自車両100に対する移動物体110の相対速度を1回の検出処理により検出し、検出した相対速度と移動物体110が移動する道路の走路方向とに基づいて移動物体110の移動方向112を1回の検出処理により推定した。
 これに対し、ミリ波レーダ14に代えて、移動物体110の相対速度を検出できないセンサとして、例えばLiDARまたはカメラを使用してもよい。LiDARは、Light Detection and Rangingの略である。
 この場合、LiDARの検出信号またはカメラが撮像する画像データに基づいて移動物体110の位置を検出できるので、2回の検出処理により移動物体110の位置が変化している方向を検出できる。
 したがって、移動物体110の位置の変化方向と、移動物体110が移動している道路の道路方向とに基づいて、道路の道路方向のどちらに移動物体110が移動しているかを、精度を確保しつつ高い応答性で推定できる。
 (2)上記実施形態では、移動物体110に対する2回目以降の検出処理の場合、前回推定された移動方向と今回推定された道路方向とをフィルタ処理部34がフィルタ処理して推定する移動物体110の今回の移動方向を、移動方向推定部32は移動物体110の移動方向112として採用した。
 これに対し、移動物体110に対する2回目以降の検出処理においても、移動物体110が移動する道路の道路方向と、自車両100に対する移動物体110の相対速度または移動物体110の位置の変化方向とに基づいて移動物体110の移動方向を推定してもよい。
 (3)上記実施形態では、路側物体群202の近似直線204を算出し、近似直線204の方向に基づいて道路方向を推定した。これに対し、路側物体群202が延びている路側物体群202の長手方向に基づいて道路方向を推定してもよい。
 (4)上記実施形態における一つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、一つの構成要素が有する一つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、一つの構成要素によって実現したり、複数の構成要素によって実現される一つの機能を、一つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。
 (5)上述した移動物体認識装置20の他、当該移動物体認識装置20を構成要素とする移動物体認識システム、当該移動物体認識装置20としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、移動物体認識方法など、種々の形態で本開示を実現することもできる。

Claims (15)

  1.  車載の移動物体認識装置(20)であって、
     自車両(100)の周囲に存在する物体(110、200)から、前記自車両の周囲の道路を移動する移動物体(110)と前記道路の路側物体(200)とを検出するように構成された物体検出部(22、S400、S402)と、
     前記物体検出部が検出する前記移動物体と前記路側物体との位置を検出するように構成された位置検出部(24、S400)と、
     前記位置検出部が検出する前記路側物体の位置に基づいて、前記移動物体が移動している前記道路の道路方向を推定するように構成された道路方向推定部(28、S406、S422~S428)と、
     前記道路方向推定部が推定する前記道路方向に基づいて前記移動物体の移動方向(112)を推定するように構成された移動方向推定部(32、S408、S410)と、
    を備える移動物体認識装置。
  2.  請求項1に記載の移動物体認識装置であって、
     前記路側物体をグループ化して路側物体群(202)を形成するように構成された群形成部(26、S420)をさらに備え、
     前記道路方向推定部は、前記群形成部が形成する前記路側物体群を構成する前記路側物体の位置を近似する近似直線(204)の方向を前記道路方向として推定するように構成されている、
    移動物体認識装置。
  3.  請求項2に記載の移動物体認識装置であって、
     前記群形成部は、前記路側物体同士の距離と、前記路側物体の位置と前記近似直線との誤差と、前記近似直線と交差する方向の前記路側物体群の長さとの少なくとも一つに基づいて前記路側物体群を形成する前記路側物体を選択するように構成されている、
    移動物体認識装置。
  4.  請求項2または3に記載の移動物体認識装置であって、
     前記移動方向推定部は、前記移動物体に最も近い前記路側物体群の前記近似直線の方向に基づいて前記移動物体の前記移動方向を推定するように構成されている、
    移動物体認識装置。
  5.  請求項1から4のいずれか一項に記載の移動物体認識装置であって、
     前記物体検出部(S402)は、前記自車両に対する前記物体の相対速度を検出するセンサ(14)から前記相対速度を検出し、前記相対速度に基づいて、前記移動物体と前記路側物体とを検出するように構成されている、
    移動物体認識装置。
  6.  請求項5に記載の移動物体認識装置であって、
     前記移動方向推定部は、前記道路方向と前記相対速度とに基づいて前記移動物体の前記移動方向を推定するように構成されている、
    移動物体認識装置。
  7.  請求項5または6に記載の移動物体認識装置であって、
     前記移動方向推定部(S408)は、前記物体検出部が初めて検出する前記移動物体の移動方向を、前記物体検出部が初めて前記移動物体を検出するときの前記相対速度と前記道路方向とに基づいて推定するように構成されている、
    移動物体認識装置。
  8.  請求項1から7のいずれか一項に記載の移動物体認識装置であって、
     前記位置検出部が検出する前記移動物体の今回の検出位置(320)と、前回推定された前記移動物体の今回の推定位置(314)とに基づいて前記移動物体の今回の位置(322)をフィルタ処理により設定し、前記移動方向推定部が前回推定した前記移動物体の前記移動方向(312)と、前記道路方向推定部が今回推定する前記道路方向(330)とに基づいて前記移動物体の今回の前記移動方向(332)をフィルタ処理により推定し、推定した前記移動物体の今回の前記移動方向と今回設定された前記移動物体の今回の位置とに基づいて前記移動物体の次回の位置(340)を設定するように構成されたフィルタ処理部(34、S410)をさらに備える移動物体認識装置。
  9.  請求項1から8のいずれか一項に記載の移動物体認識装置であって、
     前記道路方向推定部は、前記自車両が走行する前記道路と交差する交差道路の前記道路方向を推定するように構成されている、
    移動物体認識装置。
  10.  請求項9に記載の移動物体認識装置であって、
     前記道路方向推定部が推定する前記交差道路の前記道路方向の信頼度を算出するように構成された信頼度算出部(30、S410)をさらに備える、
    移動物体認識装置。
  11.  請求項10に記載の移動物体認識装置であって、
     前記信頼度算出部は、前記路側物体群を構成する前記路側物体の検出点数と、前記路側物体群の前記近似直線の方向の長さと、前記路側物体群を構成する前記路側物体の位置と前記近似直線との誤差との少なくとも一つに基づいて前記信頼度を算出するように構成されている、
    移動物体認識装置。
  12.  請求項8を引用する請求項9から11のいずれか一項に記載の移動物体認識装置であって、
     前記フィルタ処理部は、前記信頼度算出部が算出する前記信頼度に応じて、前記移動方向推定部が前回推定した前記移動物体の前記移動方向と今回前記道路方向推定部が推定する前記道路方向とを重み付けして、フィルタ処理により今回の前記移動物体の前記移動方向を推定するように構成されている、
    移動物体認識装置。
  13.  請求項8または請求項8を引用する請求項9から12のいずれか一項に記載の移動物体認識装置であって、
     前記フィルタ処理部は、前記移動物体の両側の前記路側物体群の間隔を前記移動物体が移動する道路の幅とし、前記道路の幅の範囲に前記移動物体の移動位置を限定するように構成されている、
    移動物体認識装置。
  14.  請求項1から13のいずれか一項に記載の移動物体認識装置であって、
     前記物体検出部は、レーダの検出信号に基づいて前記自車両の周囲に存在する前記物体を検出するように構成されている、
    移動物体認識装置。
  15.  請求項1から14のいずれか一項に記載の移動物体認識装置であって、
     前記移動物体の前記移動方向と前記自車両の走行方向(102)とが交差する場合に報知するように構成された報知部(36、S414)をさらに備える、
    移動物体認識装置。
     
PCT/JP2018/038528 2017-10-18 2018-10-16 移動物体認識装置 WO2019078211A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/851,795 US11841419B2 (en) 2017-10-18 2020-04-17 Stationary and moving object recognition apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-201899 2017-10-18
JP2017201899A JP6845117B2 (ja) 2017-10-18 2017-10-18 移動物体認識装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/851,795 Continuation US11841419B2 (en) 2017-10-18 2020-04-17 Stationary and moving object recognition apparatus

Publications (1)

Publication Number Publication Date
WO2019078211A1 true WO2019078211A1 (ja) 2019-04-25

Family

ID=66174136

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/038528 WO2019078211A1 (ja) 2017-10-18 2018-10-16 移動物体認識装置

Country Status (3)

Country Link
US (1) US11841419B2 (ja)
JP (1) JP6845117B2 (ja)
WO (1) WO2019078211A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7294978B2 (ja) * 2019-10-04 2023-06-20 株式会社Soken 進行方向推定装置及び物体追跡装置
JP7323493B2 (ja) * 2020-06-22 2023-08-08 株式会社Soken 道路形状認識装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239436A (ja) * 1997-02-21 1998-09-11 Mitsubishi Electric Corp 車間距離検出装置
JP2004217178A (ja) * 2003-01-17 2004-08-05 Toyota Motor Corp カーブ半径推定装置
JP2007292643A (ja) * 2006-04-26 2007-11-08 Alpine Electronics Inc 周辺物体識別装置
US20080252482A1 (en) * 2007-04-11 2008-10-16 Lawrence Gerard Stopczynski System and method of modifying programmable blind spot detection sensor ranges with vision sensor input
JP2011220766A (ja) * 2010-04-07 2011-11-04 Denso Corp 物体認識装置
JP2015057686A (ja) * 2012-12-21 2015-03-26 株式会社デンソー 注意喚起装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001272466A (ja) 2000-03-27 2001-10-05 Toyota Central Res & Dev Lab Inc レーダ装置
JP5618744B2 (ja) * 2010-05-26 2014-11-05 三菱電機株式会社 道路形状推定装置及びコンピュータプログラム及び道路形状推定方法
EP3032221B1 (en) * 2014-12-09 2022-03-30 Volvo Car Corporation Method and system for improving accuracy of digital map data utilized by a vehicle
JP6846630B2 (ja) * 2015-02-16 2021-03-24 パナソニックIpマネジメント株式会社 走行レーン検出装置、走行レーン検出方法、併走車検出装置及び隣接するレーンを走行する併走車の検出方法
US11085775B2 (en) * 2016-09-28 2021-08-10 Tomtom Global Content B.V. Methods and systems for generating and using localisation reference data
US11112237B2 (en) * 2016-11-14 2021-09-07 Waymo Llc Using map information to smooth objects generated from sensor data
DE112020002666T5 (de) * 2019-06-06 2022-05-12 Mobileye Vision Technologies Ltd. Systeme und verfahren für die fahrzeugnavigation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239436A (ja) * 1997-02-21 1998-09-11 Mitsubishi Electric Corp 車間距離検出装置
JP2004217178A (ja) * 2003-01-17 2004-08-05 Toyota Motor Corp カーブ半径推定装置
JP2007292643A (ja) * 2006-04-26 2007-11-08 Alpine Electronics Inc 周辺物体識別装置
US20080252482A1 (en) * 2007-04-11 2008-10-16 Lawrence Gerard Stopczynski System and method of modifying programmable blind spot detection sensor ranges with vision sensor input
JP2011220766A (ja) * 2010-04-07 2011-11-04 Denso Corp 物体認識装置
JP2015057686A (ja) * 2012-12-21 2015-03-26 株式会社デンソー 注意喚起装置

Also Published As

Publication number Publication date
JP2019074466A (ja) 2019-05-16
JP6845117B2 (ja) 2021-03-17
US20200244840A1 (en) 2020-07-30
US11841419B2 (en) 2023-12-12

Similar Documents

Publication Publication Date Title
JP6622148B2 (ja) 周辺環境認識装置
JP5870908B2 (ja) 車両の衝突判定装置
US9470790B2 (en) Collision determination device and collision determination method
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
WO2017111135A1 (ja) 走行支援装置及び走行支援方法
JP2015155878A (ja) 車両用障害物検出装置
JP5012270B2 (ja) 物体検出装置
US11351997B2 (en) Collision prediction apparatus and collision prediction method
JP6011625B2 (ja) 速度算出装置及び速度算出方法並びに衝突判定装置
CN111052201B (zh) 碰撞预测装置、碰撞预测方法以及存储介质
JP2018124768A (ja) 車両制御装置
JP6685481B2 (ja) 落下物検知装置、車載システム、車両および落下物検知プログラム
JP2018147399A (ja) 物標検出装置
WO2019078211A1 (ja) 移動物体認識装置
JP2011086139A (ja) 車両の衝突を回避するための装置
JP2009145121A (ja) 物体検出装置
JP4644590B2 (ja) 周辺車両位置検出装置および周辺車両位置検出方法
US20210133465A1 (en) Intersecting road estimation device
JP6834020B2 (ja) 物体認識装置および物体認識方法
JP2007240316A (ja) 車載測距装置
JP2018018215A (ja) 物体特徴点検知装置
US10515545B2 (en) Position determining device and operating method thereof
JP2023151509A (ja) レーダ装置、報知判定方法及びプログラム
JP6385907B2 (ja) 立体物検知装置
JP4867683B2 (ja) 周辺車両監視装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18868083

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18868083

Country of ref document: EP

Kind code of ref document: A1