WO2020013057A1 - 交差道路推定装置 - Google Patents

交差道路推定装置 Download PDF

Info

Publication number
WO2020013057A1
WO2020013057A1 PCT/JP2019/026499 JP2019026499W WO2020013057A1 WO 2020013057 A1 WO2020013057 A1 WO 2020013057A1 JP 2019026499 W JP2019026499 W JP 2019026499W WO 2020013057 A1 WO2020013057 A1 WO 2020013057A1
Authority
WO
WIPO (PCT)
Prior art keywords
road
intersection
vehicle
estimating
unit
Prior art date
Application number
PCT/JP2019/026499
Other languages
English (en)
French (fr)
Inventor
悠介 赤峰
近藤 勝彦
康之 三宅
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2020013057A1 publication Critical patent/WO2020013057A1/ja
Priority to US17/144,874 priority Critical patent/US20210133465A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to a technique for estimating a road edge of an intersecting road intersecting a traveling road of a host vehicle.
  • a roadside structure that forms the shape of a running road is detected by a laser radar or the like among objects existing in front of the host vehicle, and a roadside structure closest to the vehicle is detected from the roadside structure.
  • the distance from the road edge in the width direction of the traveling road to the host vehicle is calculated based on the position and the radius of curvature of the traveling road.
  • the detected stationary object includes a width direction of a traveling road. And the stationary object located at the road end in the width direction of the intersection road intersecting with the traveling road.
  • One aspect of the present disclosure desirably provides a technique for estimating a road edge of an intersecting road intersecting a traveling road.
  • a vehicle-mounted intersection road estimation device includes an object detection unit, an object extraction unit, a first estimation unit, a candidate extraction unit, and a second estimation unit.
  • the object detection unit detects an object existing around the own vehicle and a position of the object.
  • the object extraction unit extracts a stationary object and a position of the stationary object from the detection result of the object by the object detection unit.
  • the first estimating unit estimates a road edge of a traveling road on which the host vehicle travels, based on the position of the stationary object extracted by the object extracting unit.
  • the candidate extraction unit extracts a stationary object existing outside the road edge of the traveling road estimated by the first estimating unit as a candidate for an external stationary object representing a road edge of an intersection road intersecting with the traveling road.
  • the second estimating unit estimates the road edge of the intersection road based on the position of the outside stationary object extracted by the candidate extracting unit.
  • the stationary object on the traveling road may be mixed.
  • a stationary object existing outside the end can be extracted as a candidate for an external stationary object representing the road end of the intersection road.
  • the road edge of the intersection road can be estimated based on the position of the outer stationary object.
  • FIG. 1 is a block diagram illustrating an intersection road estimating device according to an embodiment.
  • 9 is a flowchart illustrating a process of estimating a road edge of an intersection road.
  • the schematic diagram which shows the road end of a driving road, and the road end of an intersection road.
  • FIG. 3 is a schematic diagram illustrating detection of a road edge of a traveling road.
  • FIG. 4 is a schematic diagram illustrating erroneous recognition of a road edge of an intersection road.
  • FIG. 4 is a schematic diagram illustrating estimation of a moving object traveling on an intersection road.
  • the in-vehicle intersection road estimation system 2 shown in FIG. 1 includes a sensor group 10, an intersection road estimation device 20, a speaker 40, and a display 42.
  • the sensor group 10 includes a millimeter wave radar 12, a camera 14, and a vehicle speed sensor 16.
  • the millimeter-wave radar 12 emits a search wave frequency-modulated by a triangular wave from an antenna, and outputs a beat signal by receiving a reflected wave reflected from an object existing around the host vehicle by the antenna and mixing the reflected wave.
  • the distance between the own vehicle and the object and the relative speed of the object to the own vehicle are obtained from the beat signal waveform. Can be calculated.
  • the reflected wave is received, so that the azimuth of the object around the own vehicle with respect to the own vehicle can be detected.
  • the relative position of the object to the host vehicle can be detected based on the distance between the host vehicle and the object and the azimuth of the object with respect to the host vehicle.
  • the camera 14 captures an image of the front of the vehicle and outputs image data. Based on the position of the object on the image data captured by the camera 14, the distance from the own vehicle, and the azimuth with respect to the own vehicle, the distance between the own vehicle and the object and the relative position of the object with respect to the own vehicle are detected. You may.
  • the vehicle speed sensor 16 detects the vehicle speed based on the rotation speed of the wheels of the own vehicle.
  • the intersection road estimating apparatus 20 is mainly configured by a well-known microcomputer having a CPU, a semiconductor memory such as a RAM, a ROM, and a flash memory, and an input / output interface.
  • a semiconductor memory is also simply referred to as a memory.
  • Various functions of the intersection road estimation device 20 are realized by the CPU executing a program stored in the non-transitional substantial recording medium.
  • the memory corresponds to a non-transitional substantial recording medium storing a program.
  • a method corresponding to the program is executed.
  • the intersection road estimating apparatus 20 may include one microcomputer or a plurality of microcomputers.
  • the intersection road estimating apparatus 20 includes, as a configuration of functions realized by the CPU executing the program, an object detecting unit 22, an object extracting unit 24, a first estimating unit 26, a candidate extracting unit 28, 2, an estimating unit 30, an object estimating unit 32, and a notifying unit 34.
  • intersection road estimation device 20 The method of implementing these elements constituting the intersection road estimation device 20 is not limited to software, and some or all of the elements may be implemented using one or a plurality of hardware.
  • the electronic circuits may be implemented by digital or analog circuits including a large number of logic circuits, or a combination thereof.
  • the object detection unit 22 determines an object existing around the own vehicle, a distance between the own vehicle and the object, and an object relative to the own vehicle based on the detection signal of the millimeter wave radar 12 or image data captured by the camera 14. And the direction of are detected. Further, the object detection unit 22 detects the relative position of the object with respect to the own vehicle from the distance between the own vehicle and the object and the direction of the object with respect to the own vehicle.
  • the object detection unit 22 detects the relative speed of the object with respect to the own vehicle based on the beat signal output from the millimeter wave radar 12. Further, the object detection unit 22 detects a moving speed of the object from a change in the position of the object per unit time based on the image data captured by the camera 14, and based on the detected moving speed and the vehicle speed of the own vehicle. Alternatively, the relative speed of the object with respect to the own vehicle may be detected.
  • the object extraction unit 24 determines the surroundings of the own vehicle detected by the object detection unit 22 based on the vehicle speed of the own vehicle acquired from the vehicle speed sensor 16 and the relative speed of the object with respect to the own vehicle detected by the object detection unit 22.
  • a stationary object is extracted from the objects existing in.
  • the object extracting unit 24 extracts the relative position of the stationary object with respect to the own vehicle from the detection result of the object detecting unit 22.
  • the object extraction unit 24 may extract an object whose position does not change from the objects existing around the own vehicle detected by the object detection unit 22 as a stationary object.
  • the first estimating unit 26 groups the plurality of stationary objects 300 existing along the traveling road 200 of the own vehicle 100 and extracts the stationary objects Is composed.
  • the stationary object group 302 is configured by stationary objects 300 within a predetermined range in which the distance between the traveling road 200 in the width direction is considered to represent a continuous road edge along the traveling direction on each side of the traveling road 200. Is done. Therefore, the stationary objects 300 existing on both sides in the width direction of the traveling road 200 form different stationary object groups 302.
  • the plurality of stationary objects 300 are, for example, detection points corresponding to one object detected by the millimeter-wave radar 12 one by one, or a wall and a guardrail each one detected by the millimeter-wave radar 12. Such detection points correspond to a part of one continuous object.
  • the stationary object detected as the detection point is not limited to the wall and the guardrail, but may be a curb and a building.
  • the first estimating unit 26 sets an approximate straight line that approximates the position of the stationary object 300 that forms the stationary object group 302. For example, the first estimating unit 26 sets the approximate straight line such that the sum of squares of the distance between the approximate straight line and the stationary object 300 is minimized. Then, the first estimating unit 26 estimates the approximate straight line set from the stationary object group 302 on the left and right sides of the traveling road 200 as the road edge 304 of the traveling road 200.
  • the first estimating unit 26 detects the stationary objects 300 present on both sides in the width direction of the traveling road 200, and based on the position of the stationary object 300. It is desirable to estimate the road edge 304 of the traveling road 200. This is because when the own vehicle 100 is traveling, different stationary objects 300 can be speed-separated by the relative speed with respect to the own vehicle 100, so that the detection accuracy of the stationary object 300 is improved.
  • the road edge 304 of the traveling road 200 ahead in the traveling direction of the host vehicle 100 is located on the extension of the road edge 304 of the traveling road 200 estimated so far. It is thought to exist.
  • the first estimating unit 26 determines the road end 304a of the traveling road 200 closer to the own vehicle 100 than the intersection 210 that has been estimated so far. It may be extended as indicated by an arrow 304b, and may be a road end candidate of the traveling road 200 on the far side in the traveling direction of the vehicle 100 from the intersection 210.
  • the first estimating unit 26 calculates the road edge 304c of the traveling road 200 estimated based on the stationary object group 302 on the far side in the traveling direction of the vehicle 100 from the intersection 210 and the road edge 304a estimated so far.
  • the average position with the extended arrow 304b may be set as the road end 304 of the traveling road 200 on the far side in the traveling direction of the vehicle 100 from the intersection 210.
  • the candidate extraction unit 28 extracts the stationary object existing outside the road edge 304 of the traveling road 200, which is extracted by the object extraction unit 24, as shown in FIGS. It is extracted as a candidate for the outer stationary object 310 representing the road edge 314 of the road 220.
  • the candidate extraction unit 28 determines that the stationary object which is the starting point of the stationary object group 302 on the own vehicle 100 side. If the stationary object 316 is closer to the host vehicle 100 by a predetermined distance or more than 300 a, the stationary object 316 is excluded from the candidates of the outer stationary object 310 representing the road end of the intersection 220.
  • the position of the stationary object 316 excluded from the outer stationary object 310 is, for example, a position of a contact point between the road sign 50 and the road as shown in FIG.
  • the predetermined distance used to determine when the stationary object 316 is to be excluded from the candidates for the outer stationary object 310 representing the road edge of the intersection road 220 is the outer stationary object 310 representing the road edge 314 of the intersection road 220. Is a distance at which it can be determined that the stationary object 316 is too far from the stationary object 300a, which is the starting point of the stationary object group 302 on the vehicle 100 side, toward the vehicle 100 side.
  • the second estimating unit 30 sets an approximate straight line that approximates the position of the outer stationary object 310 forming the stationary object group 312 in the same manner as in the first estimating unit 26.
  • the second estimating unit 30 estimates an approximate straight line set on the inner side of the intersection road 220 in the traveling direction of the vehicle 100 as the road end 314 of the intersection road 220.
  • the second estimating unit 30 determines the position and direction of the road end 314 of the intersection road 220 estimated based on the outer stationary object 310 and the intersection stored in the memory for each processing cycle so far. Based on the position and direction of the road edge 314 of the road 220, the position and direction of the road edge 314 of the intersection road 220 estimated in the current processing cycle are estimated. Then, the second estimating unit 30 stores the determined position and direction of the road edge 314 of the intersection road 220 in the memory.
  • the object estimating unit 32 extracts the position and the moving direction of the moving object traveling on the traveling road 200 and the intersection road 220 from the detection result of the object detecting unit 22. Then, the object estimating unit 32 estimates the position and the moving direction of the moving object 110 moving on the intersection road 220 based on the position and the moving direction of the moving object and the position and direction of the road edge 314 of the intersection road 220. . The object estimating unit 32 estimates the moving direction of the moving object 110 traveling on the intersection road 220 as a direction along the road edge 314 of the intersection road 220.
  • the object estimation unit 32 Since the exploration wave of the millimeter wave radar 12 is reflected by a structure or the like representing the road end 314 of 220, the object detection unit 22 determines that the actual position of the moving object 110 has been erroneously detected.
  • the object estimating unit 32 corrects the position of the erroneously detected moving object 112 to the actual position of the moving object 110 by returning the position of the moving object 112 to the opposite side with the road end 314 as the axis of symmetry.
  • the notification unit 34 determines that the moving object 110 moving on the intersection road 220 is approaching the own vehicle based on the position and direction of the moving object 110 moving on the intersection road 220 estimated by the object estimation unit 32. In this case, the occupant of the host vehicle 100 is notified by the speaker 40 or the display 42 that the moving object is approaching the host vehicle.
  • the outer stationary object 310 existing outside the road edge 304 of the traveling road 200 on which the host vehicle 100 travels is extracted as a candidate for the road edge 314 of the intersection road 220.
  • the stationary object representing the road edge 304 of the traveling road 200 and the stationary object representing the road edge 314 of the intersection road 220 are mixed, the stationary object representing the road edge 304 of the traveling road 200 and A distinction can be made from a stationary object representing the road edge 314 of the intersection 220. Therefore, the road edge 314 of the intersection road 220 can be estimated based on the position of the extracted outer stationary object 310.
  • the road edge of the traveling road 200 closer to the own vehicle 100 than the intersection 210 is estimated.
  • 304 can be estimated with high accuracy.
  • the stationary object 316 When the stationary object 316 is closer to the host vehicle 100 by a predetermined distance or more than the stationary object 300a representing the starting point of the stationary object group 302 used when estimating the road edge 304, the stationary object 316 intersects.
  • the outside stationary object 310 representing the road edge 314 of the road 220 is excluded from the candidates. This can prevent the road sign 50 or the like from being erroneously extracted as the outer stationary object 310 representing the road end 314 of the intersection road 220.
  • the position and direction of the road end 314 of the intersection road 220 are determined. Can be estimated with high accuracy.
  • the millimeter wave is detected by a structure or the like representing the road edge 314. Since the search wave of the radar 12 is reflected, it is determined that the actual position of the moving object 110 is erroneously detected. In this case, the position of the erroneously detected moving object 112 can be corrected to the correct position of the moving object 110 by folding the position of the moving object 112 to the opposite side with the road end 314 as a symmetric axis.
  • the moving object 112 cannot be visually recognized from the own vehicle 100 on the intersection road 220 or the camera It is possible to estimate the presence of the moving object 110 that is moving at a position where imaging is not possible at 14.
  • the speaker 40 and the display 42 correspond to the notification device.
  • S400 and S402 correspond to the processing of the object detection unit
  • S404 corresponds to the processing of the object extraction unit
  • S406 corresponds to the processing of the first estimation unit
  • S408 corresponds to the processing of the candidate extraction unit
  • S410 corresponds to the processing of the second estimation unit
  • S412 corresponds to the processing of the object estimation unit
  • 414 corresponds to the processing of the notification unit.
  • an object around the own vehicle 100 is detected based on a detection signal of, for example, LiDAR. May be.
  • LiDAR is an abbreviation for Light ⁇ Detection ⁇ and ⁇ Ranging.
  • a plurality of functions of one component in the above embodiment may be realized by a plurality of components, or one function of one component may be realized by a plurality of components. . Further, a plurality of functions of a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above-described embodiment may be added to or replaced with the configuration of another above-described embodiment. Note that all aspects included in the technical idea specified by the terms described in the claims are the embodiments of the present disclosure.
  • intersection road estimating system including the cross road estimating apparatus 20 as a component, a program for causing a computer to function as the intersection road estimating apparatus 20, and a semiconductor recording this program
  • the present disclosure may be implemented in various forms, such as a non-transitional actual recording medium such as a memory and an intersection road estimation method.

Abstract

車載の交差道路推定装置は、物体検出部と物体抽出部と第1の推定部と候補抽出部と第2の推定部とを備える。S400において物体検出部は、自車両の周囲に存在する物体と物体の位置とを検出する。S404において物体抽出部は、物体検出部による物体の検出結果から、静止物体と静止物体の位置とを抽出する。S406において第1の推定部は、物体抽出部が抽出する静止物体の位置に基づいて、自車両が走行する走行道路の道路端)を推定する。S408において候補抽出部は、第1の推定部が推定する走行道路の道路端よりも外側に存在する静止物体を、走行道路と交差する交差道路の道路端を表す外側静止物体の候補として抽出する。S410において第2の推定部は、候補抽出部が抽出する外側静止物体の位置に基づいて交差道路の道路端を推定する。

Description

交差道路推定装置 関連出願の相互参照
 本国際出願は、2018年7月12日に日本国特許庁に出願された日本国特許出願第2018-132373号に基づく優先権を主張するものであり、日本国特許出願第2018-132373号の全内容を本国際出願に参照により援用する。
 本開示は、自車両の走行道路と交差する交差道路の道路端を推定する技術に関する。
 特許文献1に記載されている技術では、自車両の前方に存在する物体のうち走行道路の形状を形成する路側構造物をレーザレーダ等で検出し、その中から車両に最も近い路側構造物の位置と走行道路の曲率半径とに基づいて、走行道路の幅方向の道路端から自車両までの距離を算出している。
特許第4100269号公報
 自車両が走行する走行道路以外にも、走行道路と交差する交差道路の道路端を推定し、道路端と同じ方向に交差道路を移動して車両に接近する移動物体の推定に利用したい場合がある。しかしながら、特許文献1に記載されている技術のように、車両の前方に存在する路側構造物等の静止物体をレーザレーダ等で検出する場合、検出される静止物体には、走行道路の幅方向の道路端に位置する静止物体と、走行道路と交差する交差道路の幅方向の道路端に位置する静止物体とが混在している。
 発明者の詳細な検討により、このように、走行道路の道路端に位置する静止物体と、交差道路の道路端に位置する静止物体とが混在している検出結果から、走行道路と交差する交差道路の道路端を推定することは、特許文献1に記載の技術では考慮されていないという課題が見出された。
 本開示の1つの局面は、走行道路に交差する交差道路の道路端を推定する技術を提供することが望ましい。
 本開示の1つの態様による車載の交差道路推定装置は、物体検出部と、物体抽出部と、第1の推定部と、候補抽出部と、第2の推定部と、を備えている。
 物体検出部は、自車両の周囲に存在する物体と物体の位置とを検出する。物体抽出部は、物体検出部による物体の検出結果から、静止物体と静止物体の位置とを抽出する。第1の推定部は、物体抽出部が抽出する静止物体の位置に基づいて、自車両が走行する走行道路の道路端を推定する。
 候補抽出部は、第1の推定部が推定する走行道路の道路端よりも外側に存在する静止物体を、走行道路と交差する交差道路の道路端を表す外側静止物体の候補として抽出する。第2の推定部は、候補抽出部が抽出する外側静止物体の位置に基づいて交差道路の道路端を推定する。
 このような構成によれば、物体抽出部が抽出する静止物体として、走行道路の道路端を表す静止物体と、交差道路の道路端を表す静止物体とが混在していても、走行道路の道路端よりも外側に存在する静止物体を交差道路の道路端を表す外側静止物体の候補として抽出できる。これにより、外側静止物体の位置に基づいて交差道路の道路端を推定できる。
本実施形態の交差道路推定装置を示すブロック図。 交差道路の道路端の推定処理を示すフローチャート。 走行道路の道路端と交差道路の道路端とを示す模式図。 走行道路の道路端の検出を説明する模式図。 交差道路の道路端の誤認識を説明する模式図。 交差道路を走行する移動物体の推定を説明する模式図。
 以下、図を参照しながら、本開示の実施形態を説明する。
[1.構成]
 図1に示す車載の交差道路推定システム2は、センサ群10と、交差道路推定装置20と、スピーカ40と、ディスプレイ42とを備えている。センサ群10は、ミリ波レーダ12とカメラ14と車速センサ16とを備えている。
 ミリ波レーダ12は、三角波で周波数変調した探査波をアンテナから照射し、自車両の周囲に存在する物体から反射した反射波をアンテナで受信してミキシングすることでビート信号を出力する。
 ビート信号は、物体までの距離と自車両に対する物体の相対速度とに応じて生じる干渉により波形が変化するので、ビート信号の波形から自車両と物体との距離と、自車両に対する物体の相対速度とを算出できる。また、探査波の照射方向に物体が存在すれば反射波が受信されるので、自車両の周囲に存在する物体の自車両に対する方位を検出することができる。自車両と物体との距離と、自車両に対する物体の方位とに基づいて、自車両に対する物体の相対位置を検出できる。
 カメラ14は、車両の前方を撮像して画像データを出力する。カメラ14が撮像する画像データ上の物体の位置と、自車両からの距離と、自車両に対する方位とに基づいて、自車両と物体との距離と、自車両に対する物体の相対位置とを検出してもよい。車速センサ16は自車両の車輪の回転速度に基づいて車速を検出する。
 交差道路推定装置20は、CPUと、RAM、ROM、フラッシュメモリ等の半導体メモリと、入出力インターフェースと、を有する周知のマイクロコンピュータを中心に構成される。以下、半導体メモリを単にメモリとも言う。交差道路推定装置20の各種機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。
 この例では、メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、交差道路推定装置20は、1つのマイクロコンピュータを搭載してもよいし、複数のマイクロコンピュータを搭載してもよい。
 交差道路推定装置20は、CPUがプログラムを実行することで実現される機能の構成として、物体検出部22と、物体抽出部24と、第1の推定部26と、候補抽出部28と、第2の推定部30と、物体推定部32と、報知部34と、を備えている。
 交差道路推定装置20を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部または全部の要素について、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路またはアナログ回路、あるいはこれらの組合せによって実現されてもよい。
 [2.処理]
 交差道路推定装置20が実行する交差道路220の道路端推定処理を図2に示すフローチャートに基づいて説明する。
 S400において物体検出部22は、ミリ波レーダ12の検出信号またはカメラ14が撮像する画像データに基づいて、自車両の周囲に存在する物体と、自車両と物体との距離と、自車両に対する物体の方位と、を検出する。さらに、物体検出部22は、自車両と物体との距離と、自車両に対する物体の方位とから、自車両に対する物体の相対位置を検出する。
 S402において物体検出部22は、ミリ波レーダ12が出力するビート信号に基づいて、自車両に対する物体の相対速度を検出する。また、物体検出部22は、カメラ14が撮像する画像データに基づいて、物体の単位時間当たりの位置の変化から物体の移動速度を検出し、検出した移動速度と自車両の車速とに基づいて、自車両に対する物体の相対速度を検出してもよい。
 S404において物体抽出部24は、車速センサ16から取得する自車両の車速と、物体検出部22が検出する自車両に対する物体の相対速度とに基づいて、物体検出部22が検出する自車両の周囲に存在する物体から、静止物体を抽出する。さらに物体抽出部24は、物体検出部22の検出結果から、自車両に対する静止物体の相対位置を抽出する。物体抽出部24は、物体検出部22が検出する自車両の周囲に存在する物体から、位置の変化しない物体を静止物体として抽出してもよい。
 S406において第1の推定部26は、図3に示すように、物体抽出部24が抽出する、自車両100の走行道路200に沿って存在する複数の静止物体300をグループ化して静止物体群302を構成する。
 静止物体群302は、走行道路200の幅方向における互いの距離が、走行道路200の両側のそれぞれにおいて、進行方向に沿って連続した道路端を表すと考えられる所定範囲内の静止物体300によって構成される。したがって、走行道路200の幅方向の両側に存在する静止物体300は、それぞれ異なる静止物体群302を構成する。
 複数の静止物体300は、例えば、一つずつがミリ波レーダ12により検出される一つの物体に対応する検出点であるか、一つずつがミリ波レーダ12により検出される壁とガードレールとのような連続した一つの物体の一部に対応する検出点である。検出点として検出される静止物体は、壁とガードレールとに限らず、縁石と建物等であってもよい。
 第1の推定部26は、静止物体群302を構成する静止物体300の位置を近似する近似直線を設定する。例えば、第1の推定部26は、近似直線と静止物体300との距離の二乗和が最小となるように近似直線を設定する。そして、第1の推定部26は、走行道路200の左右の静止物体群302から設定した近似直線を走行道路200の道路端304として推定する。
 なお、第1の推定部26は、自車両100が停止せずに走行している場合、走行道路200の幅方向の両側に存在する静止物体300を検出し、静止物体300の位置に基づいて走行道路200の道路端304を推定することが望ましい。これは、自車両100が走行している場合、異なる静止物体300を自車両100に対する相対速度により速度分離できるので、静止物体300の検出精度が向上するからである。
 また、走行道路200の車幅は急には変化しないので、自車両100の進行方向の先の走行道路200の道路端304は、これまで推定された走行道路200の道路端304の延長上に存在すると考えられる。
 そこで、図4に示すように、第1の推定部26は、自車両100が前方に進行するにしたがい、これまで推定してきた交差点210よりも自車両100側の走行道路200の道路端304aを矢印304bが示すように延長し、交差点210よりも自車両100の進行方向奥側の走行道路200の道路端の候補としてもよい。
 そして、第1の推定部26は、交差点210よりも自車両100の進行方向の奥側の静止物体群302に基づいて推定した走行道路200の道路端304cと、これまで推定した道路端304aを延長した矢印304bとの平均位置を、交差点210よりも自車両100の進行方向の奥側の走行道路200の道路端304としてもよい。
 S408において候補抽出部28は、図3と図5とに示すように、物体抽出部24が抽出する、走行道路200の道路端304の外側に存在する静止物体を、走行道路200と交差する交差道路220の道路端314を表す外側静止物体310の候補として抽出する。
 しかし、図5に示すように、走行道路200の道路端304の外側に存在する静止物体316であっても、候補抽出部28は、静止物体群302の自車両100側の始点である静止物体300aよりも、静止物体316が所定距離以上、自車両100側に近づいている場合、交差道路220の道路端を表す外側静止物体310の候補から静止物体316を除外する。
 外側静止物体310から除外される静止物体316の位置は、例えば、図5に示すように、道路標識50と道路との接点の位置である。
 静止物体316を交差道路220の道路端を表す外側静止物体310の候補から除外するときの判定に使用する上記の所定距離は、静止物体316を交差道路220の道路端314を表す外側静止物体310の候補とするには、静止物体316が静止物体群302の自車両100側の始点である静止物体300aから自車両100側に離れ過ぎていると判断できる距離である。
 S410において第2の推定部30は、第1の推定部26と同じ方法で、静止物体群312を構成する外側静止物体310の位置を近似する近似直線を設定する。第2の推定部30は、交差道路220に対し自車両100の進行方向の奥側に設定される近似直線を交差道路220の道路端314として推定する。
 さらに第2の推定部30は、今回の処理サイクルで、外側静止物体310に基づいて推定する交差道路220の道路端314の位置と方向、ならびに、これまでの処理サイクル毎にメモリに記憶した交差道路220の道路端314の位置と方向に基づき、今回の処理サイクルで推定する交差道路220の道路端314の位置と方向とを推定する。そして、第2の推定部30は、決定した交差道路220の道路端314の位置と方向とをメモリに記憶する。
 S412において物体推定部32は、物体検出部22の検出結果から、走行道路200および交差道路220を移動している移動物体の位置と移動方向とを抽出する。そして、物体推定部32は、移動物体の位置と移動方向と交差道路220の道路端314の位置と方向とに基づいて、交差道路220を移動する移動物体110の位置と移動方向とを推定する。物体推定部32は、交差道路220を移動する移動物体110の移動方向を、交差道路220の道路端314に沿った方向と推定する。
 図6に示すように、物体推定部32は、移動物体112の位置が第2の推定部30が推定した交差道路220の道路端314よりも自車両100に対して奥側の場合、交差道路220の道路端314を表す構造物等によってミリ波レーダ12の探査波が反射されたために、物体検出部22が移動物体110の実際の位置を誤検出したと判断する。
 この場合、物体推定部32は、誤検出された移動物体112の位置を道路端314を対称の軸として反対側に折り返して、実際の移動物体110の位置に修正する。
 S414において報知部34は、物体推定部32が推定する交差道路220を移動する移動物体110の位置と方向とに基づき、交差道路220を移動している移動物体110が自車両に接近している場合、スピーカ40またはディスプレイ42により、移動物体が自車両に接近していることを自車両100の搭乗者に報知する。
 [3.効果]
 以上説明した本実施形態によると、以下の効果を得ることができる。
 (1)自車両100が走行する走行道路200の道路端304よりも外側に存在する外側静止物体310が交差道路220の道路端314の候補として抽出される。これにより、走行道路200の道路端304を表す静止物体と、交差道路220の道路端314を表す静止物体とが混在している検出結果から、走行道路200の道路端304を表す静止物体と、交差道路220の道路端314を表す静止物体とを区別することができる。したがって、抽出した外側静止物体310の位置に基づいて、交差道路220の道路端314を推定できる。
 (2)自車両100が前方に進行するにしたがい、これまで推定してきた交差点210よりも自車両100側の走行道路200の道路端304の推定結果に基づき、交差点210よりも自車両100の進行方向の奥側の走行道路200の道路端304が推定される。
 これにより、これまで推定してきた交差点210よりも自車両100側の走行道路200の道路端304の推定結果に基づき、交差点210よりも自車両100の進行方向の奥側の走行道路200の道路端304を高精度に推定できる。
 (3)道路端304を推定するときに使用した静止物体群302の始点を表す静止物体300aよりも、静止物体316が所定距離以上、自車両100側に近づいている場合、静止物体316は交差道路220の道路端314を表す外側静止物体310の候補から除外される。これにより、道路標識50等を交差道路220の道路端314を表わす外側静止物体310として誤って抽出することを抑制できる。
 (4)今回の処理サイクルで推定する交差道路220の道路端314の位置と方向、ならびに、これまでの処理サイクル毎にメモリに記憶された交差道路220の道路端314の位置と方向に基づいて、今回の処理サイクルで推定する交差道路220の道路端314の位置と方向とが決定される。
 これにより、今回の1回の処理サイクルではなく、複数回の処理サイクルで推定された交差道路220の道路端314の位置と方向とに基づいて、交差道路220の道路端314の位置と方向とを高精度に推定できる。
 (5)ミリ波レーダ12から照射する探査波の反射波に基づいて、交差道路220の道路端314よりも外側に存在する移動物体112を検出すると、道路端314を表す構造物等によってミリ波レーダ12の探査波が反射されたために、実際の移動物体110の位置が誤検出されたと判断される。この場合、誤検出された移動物体112の位置を道路端314を対称の軸として反対側に折り返すことにより、正しい移動物体110の位置に修正することができる。
 このように、探査波の反射波に基づいて、誤検出された移動物体112の位置を正しい移動物体110の位置に修正することにより、交差道路220において、自車両100から視認できないか、あるいはカメラ14で撮像できない位置を移動している移動物体110の存在を推定できる。
 以上説明した上記実施形態において、スピーカ40、ディスプレイ42が報知装置に対応する。
 また、S400、S402が物体検出部の処理に対応し、S404が物体抽出部の処理に対応し、S406が第1の推定部の処理に対応し、S408が候補抽出部の処理に対応し、S410が第2の推定部の処理に対応し、S412が物体推定部の処理に対応し、414が報知部の処理に対応する。
 [4.他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (1)上記実施形態において自車両100の周囲の物体を検出するために使用したミリ波レーダ12またはカメラ14に代えて、例えばLiDARの検出信号に基づいて、自車両100の周囲の物体を検出してもよい。LiDARは、Light Detection and Rangingの略である。
 (2)上記実施形態のように、走行道路200と交差道路220とが直交している場合、交差道路220の自車両100側の外側静止物体は検出できないので、交差道路220の自車両100側の道路端は推定できない。これに対し、交差道路が自車両に向かって斜めに走行道路と交差する場合、交差道路の幅方向の両側に存在する外側静止物体を検出できることがある。この場合、交差道路の幅方向の両側に存在する外側静止物体に基づいて、交差道路の道路端を推定してもよい。
 (3)上記実施形態における一つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、一つの構成要素が有する一つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、一つの構成要素によって実現したり、複数の構成要素によって実現される一つの機能を、一つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。なお、請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
 (4)上述した交差道路推定装置20の他、当該交差道路推定装置20を構成要素とする交差道路推定システム、当該交差道路推定装置20としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、交差道路推定方法など、種々の形態で本開示を実現することもできる。

Claims (12)

  1.  車載の交差道路推定装置(20)であって、
     自車両(100)の周囲に存在する物体(110、300、310、316)と前記物体の位置とを検出するように構成された物体検出部(22、S400)と、
     前記物体検出部による前記物体の検出結果から、静止物体(300、310、316)と前記静止物体の位置とを抽出するように構成された物体抽出部(24、S404)と、
     前記物体抽出部が抽出する前記静止物体の位置に基づいて、前記自車両が走行する走行道路(200)の道路端(304)を推定するように構成された第1の推定部(26、S406)と、
     前記第1の推定部が推定する前記走行道路の道路端よりも外側に存在する静止物体(310)を、前記走行道路と交差する交差道路(220)の道路端(314)を表す外側静止物体の候補として抽出するように構成された候補抽出部(28、S408)と、
     前記候補抽出部が抽出する前記外側静止物体の位置に基づいて前記交差道路の道路端を推定するように構成された第2の推定部(30、S410)と、
    を備える交差道路推定装置。
  2.  請求項1に記載の交差道路推定装置であって、
     前記第2の推定部は、前記外側静止物体の少なくとも2点の位置を直線で近似して前記交差道路の道路端を推定するように構成されている、
    交差道路推定装置。
  3.  請求項1または2に記載の交差道路推定装置であって、
     前記第1の推定部は、これまでの前記走行道路の道路端の推定結果に基づき、交差点よりも前記自車両の進行方向奥側の前記走行道路の道路端を推定するように構成されている、
    交差道路推定装置。
  4.  請求項1から3のいずれか1項に記載の交差道路推定装置であって、
     前記第2の推定部は、前記交差道路の道路端を推定する処理サイクル毎に前記交差道路の道路端の位置と方向とを記憶しておき、今回の処理サイクルで推定する前記交差道路の道路端の位置と方向、ならびにこれまでの処理サイクルで記憶した前記交差道路の道路端の位置と方向に基づいて、今回の処理サイクルで推定する前記交差道路の道路端の位置と方向とを決定するように構成されている、
    交差道路推定装置。
  5.  請求項1から4のいずれか1項に記載の交差道路推定装置であって、
     前記第1の推定部は、前記走行道路の道路端を表す前記静止物体のうち互いの距離が所定範囲内の位置の前記静止物体を静止物体群(302)とし、
     前記候補抽出部は、前記走行道路の道路端よりも外側に存在する前記静止物体(310、316)のうち、前記静止物体群において前記自車両側の始点となる前記静止物体(300a)の位置よりも所定距離以上、前記自車両側に位置する前記静止物体(316)を、前記外側静止物体の候補から除外するように構成されている、
    交差道路推定装置。
  6.  請求項1から5のいずれか1項に記載の交差道路推定装置であって、
     前記物体検出部(S402)は、前記自車両に対する前記物体の相対速度を検出するように構成されており、
     前記物体抽出部は、前記物体検出部が検出する前記物体の前記相対速度と前記自車両の車速とに基づいて、前記静止物体を検出するように構成されている、
    交差道路推定装置。
  7.  請求項1から6のいずれか1項に記載の交差道路推定装置であって、
     前記物体抽出部は、前記物体の位置の変化に基づいて前記静止物体を検出するように構成されている、
    交差道路推定装置。
  8.  請求項1から7のいずれか1項に記載の交差道路推定装置であって、
     前記第1の推定部は、前記自車両が走行している場合、前記走行道路の道路端を推定するように構成されている、
    交差道路推定装置。
  9.  請求項1から8のいずれか1項に記載の交差道路推定装置であって、
     前記物体検出部による前記物体の検出結果から、移動物体(110)と前記移動物体の位置とを抽出し、前記移動物体の位置と前記交差道路の道路端の位置と方向とに基づいて、前記交差道路を移動する前記移動物体の位置と移動方向とを推定するように構成された物体推定部(32、S412)をさらに備える、
    交差道路推定装置。
  10.  請求項9に記載の交差道路推定装置であって、
     前記物体推定部は、前記移動物体の移動方向を前記交差道路の道路端に沿った方向と推定するように構成されている、
    交差道路推定装置。
  11.  請求項9または10に記載の交差道路推定装置であって、
     前記物体検出部は、探査波と反射波とにより前記物体の位置を検出するように構成されており、
     前記物体推定部は、前記移動物体の位置が前記交差道路の道路端よりも前記自車両に対して奥側の場合、前記交差道路の道路端よりも前記自車両に対して奥側の前記移動物体は前記交差道路の道路端を対称の軸として反対側の位置に存在するものとして前記物体の位置を修正するように構成されている、
    交差道路推定装置。
  12.  請求項9から11のいずれか1項に記載の交差道路推定装置であって、
     前記物体推定部が推定する前記移動物体の位置と移動方向とに基づいて、前記移動物体が前記自車両に接近していると判断すると、前記自車両の搭乗者に前記移動物体の接近を報知装置(40、42)により報知するように構成されている報知部(34、S414)をさらに備える、
    交差道路推定装置。
PCT/JP2019/026499 2018-07-12 2019-07-03 交差道路推定装置 WO2020013057A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/144,874 US20210133465A1 (en) 2018-07-12 2021-01-08 Intersecting road estimation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-132373 2018-07-12
JP2018132373A JP7140577B2 (ja) 2018-07-12 2018-07-12 交差道路推定装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/144,874 Continuation US20210133465A1 (en) 2018-07-12 2021-01-08 Intersecting road estimation device

Publications (1)

Publication Number Publication Date
WO2020013057A1 true WO2020013057A1 (ja) 2020-01-16

Family

ID=69142584

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/026499 WO2020013057A1 (ja) 2018-07-12 2019-07-03 交差道路推定装置

Country Status (3)

Country Link
US (1) US20210133465A1 (ja)
JP (1) JP7140577B2 (ja)
WO (1) WO2020013057A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11892311B2 (en) * 2016-11-26 2024-02-06 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013036978A (ja) * 2011-07-12 2013-02-21 Denso Corp 物標検出装置,壁判定方法
JP2014115904A (ja) * 2012-12-11 2014-06-26 Toyota Central R&D Labs Inc 交差点道路境界検出装置及びプログラム
JP2015001773A (ja) * 2013-06-13 2015-01-05 ボッシュ株式会社 車線推定装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3273422A4 (en) * 2015-03-18 2018-12-19 Nec Corporation Driving control device, driving control method, and vehicle-to-vehicle communication system
EP3619643A1 (en) * 2017-05-03 2020-03-11 Mobileye Vision Technologies Ltd. Detection and classification systems and methods for autonomous vehicle navigation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013036978A (ja) * 2011-07-12 2013-02-21 Denso Corp 物標検出装置,壁判定方法
JP2014115904A (ja) * 2012-12-11 2014-06-26 Toyota Central R&D Labs Inc 交差点道路境界検出装置及びプログラム
JP2015001773A (ja) * 2013-06-13 2015-01-05 ボッシュ株式会社 車線推定装置

Also Published As

Publication number Publication date
JP2020009366A (ja) 2020-01-16
US20210133465A1 (en) 2021-05-06
JP7140577B2 (ja) 2022-09-21

Similar Documents

Publication Publication Date Title
JP5407898B2 (ja) 対象物検出装置及びプログラム
JP6369390B2 (ja) 車線合流判定装置
JP3941765B2 (ja) 物体検出装置
JP3918791B2 (ja) 物体検出装置
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
US10585188B2 (en) Broadside detection system and techniques for use in a vehicular radar
JP6628189B2 (ja) 検出装置および検出方法
US20030011509A1 (en) Method for detecting stationary object on road
WO2019202628A1 (ja) 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
JP2016148547A (ja) 検知装置
WO2015186294A1 (ja) 車載画像処理装置
JP2018081628A (ja) 車両制御装置、車両制御方法
WO2020095819A1 (ja) 物体検出装置
JP2009019914A (ja) 物体検出装置
EP3260878B1 (en) Moving object detection device, program, and recording medium
WO2020013057A1 (ja) 交差道路推定装置
US11841419B2 (en) Stationary and moving object recognition apparatus
JP2002296350A (ja) 物体検知装置
WO2020050363A1 (ja) 物体検出装置
JP4644590B2 (ja) 周辺車両位置検出装置および周辺車両位置検出方法
US11407390B2 (en) Vehicle control apparatus and vehicle control method
JP2015004543A (ja) 車両位置認識装置
JPWO2017216856A1 (ja) 車間距離推定方法及び車間距離推定装置
JPH05113482A (ja) 車載用追突防止装置
CN114556141A (zh) 物体跟踪装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19834703

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19834703

Country of ref document: EP

Kind code of ref document: A1