WO2021166893A1 - 物標認識装置 - Google Patents

物標認識装置 Download PDF

Info

Publication number
WO2021166893A1
WO2021166893A1 PCT/JP2021/005661 JP2021005661W WO2021166893A1 WO 2021166893 A1 WO2021166893 A1 WO 2021166893A1 JP 2021005661 W JP2021005661 W JP 2021005661W WO 2021166893 A1 WO2021166893 A1 WO 2021166893A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
recognition device
road boundary
unit
roadside object
Prior art date
Application number
PCT/JP2021/005661
Other languages
English (en)
French (fr)
Inventor
雅成 高木
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2021166893A1 publication Critical patent/WO2021166893A1/ja
Priority to US17/821,131 priority Critical patent/US20220392230A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • This disclosure relates to a target recognition device.
  • Patent Document 1 discloses a roadside object recognition device.
  • the roadside object recognition device includes a radar and a camera.
  • the roadside object recognition device acquires a reflection point cloud using a radar.
  • the roadside object recognition device uses the image of the camera to identify a reflection point that is likely not a reflection point of the roadside object.
  • the roadside object recognition device excludes reflection points that are unlikely to be reflection points of roadside objects from the reflection point cloud.
  • the roadside object recognition device recognizes the roadside object by using the reflection point cloud after exclusion.
  • the roadside object recognition device described in Patent Document 1 requires a radar and a camera in order to recognize the roadside object.
  • a target recognition device capable of recognizing a roadside object without necessarily using two types of sensors.
  • One aspect of the present disclosure is a travel locus estimation unit configured to infer a future travel locus of the vehicle based on the speed and yaw rate of the vehicle, and a target existing in front of the vehicle using a sensor.
  • a target detection unit configured to detect, and a roadside object determination unit configured to determine whether or not the target detected by the target detection unit has the characteristics of a roadside object.
  • the road boundary is estimated based on the coordinate calculation unit configured to calculate the lateral coordinates of the target determined to have the characteristics of the roadside object and the lateral coordinates.
  • the road boundary estimation unit configured as described above, the fixed object determination unit configured to determine whether or not the target detected by the target detection unit has the characteristics of a fixed object, and the above.
  • the distance is preset with a distance calculation unit configured to calculate the distance from the target determined to have the characteristics of a fixed object to the road boundary estimated by the road boundary estimation unit. It is a target recognition device including a likelihood increasing unit configured to increase the likelihood that the target is a roadside object, provided that the target is equal to or less than the specified threshold.
  • the target recognition device which is one aspect of the present disclosure, can recognize roadside objects without necessarily using two types of sensors.
  • the configuration of the target recognition device 1 will be described with reference to FIGS. 1 and 2. As shown in FIG. 1, the target recognition device 1 is mounted on the vehicle 3.
  • the target recognition device 1 includes a microcomputer having a CPU 5 and, for example, a semiconductor memory such as a RAM or a ROM (hereinafter referred to as a memory 7).
  • Each function of the target recognition device 1 is realized by the CPU 5 executing a program stored in a non-transitional substantive recording medium.
  • the memory 7 corresponds to a non-transitional substantive recording medium in which a program is stored.
  • the method corresponding to the program is executed.
  • the target recognition device 1 may include one microcomputer or a plurality of microcomputers.
  • the target recognition device 1 includes a travel locus estimation unit 9, a target detection unit 11, a roadside object determination unit 13, a coordinate calculation unit 15, a road boundary estimation unit 17, and a fixed object. It includes a determination unit 19, a distance calculation unit 21, a likelihood increase unit 23, and an output unit 25.
  • the target recognition device 1 is connected to various members included in the vehicle 3. As shown in FIG. 1, as a member connected to the target recognition device 1, there are a target detection sensor 31, a vehicle speed sensor 33, a yaw rate sensor 35, and a driving support device 37.
  • the target detection sensor 31 is a sensor used to detect a target existing in front of the vehicle 3.
  • the target detection sensor 31 is a laser radar.
  • the vehicle speed sensor 33 detects the vehicle speed of the vehicle 3.
  • the yaw rate sensor 35 detects the yaw rate of the vehicle 3.
  • the driving support device 37 provides driving support for the vehicle 3 by using the roadside object likelihood described later.
  • step 1 of FIG. 3 the traveling locus estimation unit 9 measures the vehicle speed of the vehicle 3 using the vehicle speed sensor 33. Further, the traveling locus estimation unit 9 measures the yaw rate of the vehicle 3 by using the yaw rate sensor 35. The traveling locus estimation unit 9 estimates the future traveling locus of the vehicle 3 based on the vehicle speed and yaw rate of the vehicle 3.
  • the future travel locus 41 of the vehicle 3 is a locus in which the center 43 in the width direction of the front end of the vehicle 3 is predicted to pass in the future.
  • the target detection unit 11 uses the target detection sensor 31 to perform a process of detecting a target existing in front of the vehicle 3.
  • the detection result of the target detection sensor 31 includes, for example, a plurality of AF points.
  • Each AF point is one reflection point of the laser.
  • the target detection unit 11 collectively detects a plurality of AF points that are likely to be derived from the same target as one target.
  • the target detection unit 11 initializes the target number i and sets it to 1.
  • the target number is a series of numbers attached to the target detected in the process of step 2.
  • N targets are detected in the process of step 2.
  • N is a natural number.
  • Each target is numbered with any one of 1, 2, 3 ... N.
  • the number assigned to each target is different for each target.
  • the roadside object determination unit 13 determines whether or not the target whose number is i (hereinafter referred to as the i-th target) has the characteristics of the roadside object.
  • a roadside object is a stationary object that exists near the road boundary.
  • a road boundary is a boundary between a road and an area other than the road. Vehicle 3 cannot cross the road boundary. Examples of roadside objects include delinitors, rubber poles, and the like.
  • Having the characteristics of roadside objects means, for example, satisfying all of the following conditions of JA1 to JA4.
  • the target includes a high reflection point.
  • the high reflection point is a distance measuring point where the reflection intensity of the laser is equal to or higher than the threshold value.
  • JA2 The size of the target is below the threshold.
  • JA3 The absolute velocity of the target is below the threshold.
  • JA4 The height of the target is above the threshold.
  • the roadside object determination unit 13 can calculate the height of the target based on the angle of the reflected wave arriving from the highest part of the target.
  • Cat's Eye does not exist at the road boundary, so it is not a roadside object.
  • the conditions of JA1 to JA3 may be satisfied.
  • Cat's Eye does not meet the conditions of JA4. Therefore, the roadside object determination unit 13 can suppress the determination of the Cat's Eye as a roadside object.
  • step 5 If the i-th target has the characteristics of a roadside object, this process proceeds to step 5. If the i-th target does not have the characteristics of a roadside object, this process proceeds to step 7.
  • the coordinate calculation unit 15 calculates the lateral coordinates of the i-th target.
  • the lateral coordinates are the coordinates on the coordinate axis 45 shown in FIG.
  • the coordinate axis 45 is orthogonal to the traveling locus 41 estimated in step 1 and passes through the i-th target.
  • the lateral coordinates are 0 on the traveling locus 41.
  • the absolute value of the lateral coordinates is the distance between the i-th target 47 and the traveling locus 41.
  • step 6 the road boundary estimation unit 17 votes the lateral coordinates of the i-th target in the histogram.
  • the histogram shows the frequency of the horizontal coordinates belonging to each bin of the horizontal coordinates. Voting the lateral coordinates of the i-th target in the histogram corresponds to creating the histogram.
  • step 7 the target detection unit 11 determines whether or not the number i is equal to N. If the number i is less than N, the process proceeds to step 8. If the number i is equal to N, the process proceeds to step 9. The fact that the number i is equal to N means that the processes of steps 4 to 6 are completed for all the targets detected in the process of step 2, and the histogram is completed.
  • step 8 the number i is increased by 1. After that, this process proceeds to step 4.
  • step 9 the road boundary estimation unit 17 determines whether or not the completed histogram satisfies the following conditions JB1 and JB2.
  • JB1 The standard deviation of the histogram is below the threshold.
  • JB2 The frequency of the bottle with the maximum frequency is equal to or higher than the threshold value.
  • the standard deviation corresponds to an index that indicates the degree of variation in the histogram.
  • step 1 when the traveling locus 41 along the shape of the road 49 can be estimated as in the traveling locus 41A shown in FIG. 8, the standard deviation of the histogram becomes small as shown in FIG. 6, and the condition JB1 is satisfied. Easy to satisfy.
  • step 1 when the traveling locus 41 that does not follow the shape of the road 49 is estimated as in the traveling locus 41B shown in FIG. 8, the standard deviation of the histogram becomes large as shown in FIG. 7, and the condition JB1 is satisfied. Difficult to satisfy.
  • the traveling locus 41B is, for example, a traveling locus 41 when the vehicle 3 changes lanes across the lane boundary line 50.
  • step 10 the road boundary estimation unit 17 estimates the road boundaries 51R and 51L shown in FIG. 5 based on the histogram.
  • the method for estimating the road boundaries 51R and 51L is as follows.
  • the histogram has two bins BR and BL having the maximum frequency.
  • the bin BR is on the right side of the traveling locus 41.
  • the lateral coordinates belonging to the bin BR correspond to the lateral coordinates of the target on the right side of the traveling locus 41.
  • the right side is the right side for the driver facing the front of the vehicle 3.
  • the left side is the left side for the driver facing the front of the vehicle 3.
  • Bin BL is on the left side of the traveling locus 41.
  • the lateral coordinates belonging to the bin BL correspond to the lateral coordinates of the target on the left side of the traveling locus 41.
  • the road boundary 51R is on the right side of the traveling locus 41. Any point on the road boundary 51R is separated from the traveling locus 41 by DR. DR is the absolute value of the median of bin BR.
  • the road boundary 51L is on the left side of the traveling locus 41. Any point on the road boundary 51L is separated from the traveling locus 41 by DL.
  • DL is the absolute value of the median of bin BL.
  • the traveling locus 41 estimated in step 1 is an arc centered on the center point C and having a radius of R. Further, it is assumed that the traveling locus 41 is turned to the left when viewed from the driver.
  • the road boundary 51R is an arc having a radius (R + DR) centered on the center point C.
  • the road boundary 51L is an arc having a radius (R-DL) centered on the center point C.
  • step 11 the roadside object determination process is executed.
  • the roadside object determination process is the process shown in FIG.
  • step 21 of FIG. 4 the target number i is initialized to 1.
  • the fixed object determination unit 19 determines whether or not the i-th target has the characteristics of a fixed object.
  • a fixed object is a marker that does not move with respect to the road.
  • Roadside objects correspond to fixed objects. Having the characteristics of a fixed object means that all of the following conditions of JC1 to JC3 are satisfied.
  • JC1 The size of the i-th target is below the threshold.
  • JC2 The cumulative mileage of the i-th target is below the threshold.
  • JC3 The amount of change in the vertical position of the i-th target is less than or equal to the threshold value.
  • the cumulative mileage is the distance traveled by the i-th target from the time when the i-th target was first detected to the current time.
  • the target recognition device 1 tracks the target during each cycle to obtain the i-th target detected in the past cycle and the i-th target detected in the latest cycle. Can be associated. Therefore, the target recognition device 1 can specify the position of the i-th target in the past cycle.
  • the time when the i-th target is detected for the first time is the time when the i-th target is detected for the first time in the past cycle.
  • the vertical position is a relative position in the traveling direction of the road with respect to the position of the vehicle 3.
  • the amount of change in the vertical position is a positive value, and the change in the vertical position over time. The amount increases.
  • the amount of change in the vertical position is, for example, the amount of change between the vertical position when the i-th target is detected for the first time and the vertical position at the current time.
  • step 23 If the i-th target has the characteristics of a fixed object, this process proceeds to step 23. If the i-th target does not have the characteristics of a fixed object, this process proceeds to step 26.
  • step 23 the distance calculation unit 21 selects the road boundary closer to the i-th target among the road boundaries 51R and 51L.
  • the distance calculation unit 21 calculates the distance from the i-th target to the selected road boundary.
  • the distance is, more specifically, the distance from the reference point at the i-th target to the selected road boundary.
  • the reference point is the center of the end of the i-th target near the vehicle 3.
  • step 24 the likelihood increasing unit 23 determines whether or not the distance calculated in step 23 is equal to or less than the threshold value.
  • the threshold value is, for example, 0.5 m. If the distance is less than or equal to the threshold, the process proceeds to step 25. If the distance exceeds the threshold, the process proceeds to step 26.
  • the likelihood increasing unit 23 increases the likelihood that the target is a roadside object (hereinafter referred to as the roadside object likelihood) for the i-th target from the current roadside object likelihood. ..
  • the roadside object likelihood is the certainty that the target is a roadside object.
  • the amount of increase in roadside object likelihood can be set as appropriate.
  • the current roadside-likelihood is the default. The value. If the roadside object likelihood of the i-th target has been increased in the past cycle, the roadside object likelihood at the present time is the roadside object likelihood after being increased in the past cycle.
  • the target recognition device 1 tracks the target during each cycle to obtain the i-th target detected in the past cycle and the i-th target detected in the latest cycle. Can be associated. In addition, the target recognition device 1 can recognize how the roadside object likelihood of the i-th target has changed in the past cycle.
  • step 26 the target detection unit 11 determines whether or not the number i is equal to N. If the number i is less than N, the process proceeds to step 27. If the number i is equal to N, the process proceeds to step 28.
  • the fact that the number i is equal to N means that the processes of steps 22 to 25 have been completed for all the targets detected in the process of step 2.
  • step 27 the number i is increased by 1. After that, this process proceeds to step 22.
  • the output unit 25 outputs the roadside object likelihood to the driving support device 37 for each of the N targets.
  • the driving support device 37 can provide driving support using the roadside object likelihood. For example, the driving support device 37 prohibits steering in the direction of a target whose roadside object likelihood is equal to or greater than a threshold value. In this case, it is possible to prevent the vehicle 3 from excessively approaching the roadside object.
  • the target recognition device 1 can recognize roadside objects without necessarily using two types of sensors.
  • the target recognition device 1 estimates the road boundaries 51R and 51L on the condition that the histogram satisfies the conditions JB1 and JB2. Therefore, the target recognition device 1 can accurately estimate the road boundaries 51R and 51L.
  • the target recognition device 1 determines whether or not to increase the roadside object likelihood of the target using the accurately estimated road boundaries 51R and 51L. Therefore, the target recognition device 1 can appropriately calculate the roadside object likelihood of the target.
  • the target recognition device 1 does not increase the roadside object likelihood for a target that is determined not to have the characteristics of a fixed object. Therefore, it is possible to suppress an increase in the roadside object likelihood for a non-fixed object.
  • a target Around the road boundary, multiple roadside objects such as poles may be installed at regular intervals.
  • a target will be referred to as a specific target below.
  • a specific target may be recognized as a moving target due to aliasing or the like.
  • the specific target is close to the road boundaries 51R and 51L. Therefore, when the specific target is the target i, a positive judgment is made in step 24, and the roadside object likelihood increases. Therefore, the target target recognition device 1 can recognize the specific target as a roadside object.
  • a side wall having a low reflection intensity may be provided along the road boundary.
  • a parallel running vehicle a vehicle running in parallel with the vehicle 3
  • the side wall is close to the road boundaries 51R and 51L. Therefore, when the side wall is the target i, a positive judgment is made in step 24, and the roadside object likelihood increases.
  • the parallel running vehicle is farther from the road boundaries 51R and 51L than the side wall. Therefore, when the parallel running vehicle is the target i, a negative determination is made in step 24, and the roadside object likelihood does not increase. Therefore, if the target recognition device 1 is used, it is possible to distinguish between the side wall and the parallel running vehicle.
  • the target detection sensor 31 may be a sensor other than the laser radar.
  • the conditions used for determining whether or not the roadside objects have characteristics may be conditions other than JA1 to JA4. Moreover, you may use not all but a part of JA1 to JA4.
  • the conditions used for determining whether or not the object has the characteristics of a fixed object may be conditions other than JC1 to JC3. Further, some of JC1 to JC3 may be used instead of all of them.
  • (4) JB1 may be a condition for using an index other than the standard deviation as an index indicating the degree of variation in the histogram.
  • the target recognition device 1 and its method described in the present disclosure are provided by configuring a processor and a memory programmed to perform one or more functions embodied by a computer program. It may be realized by a dedicated computer. Alternatively, the target recognition device 1 and its method described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the target recognition device 1 and its method described in the present disclosure include a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured by the combination of.
  • the computer program may also be stored on a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.
  • the method for realizing the functions of each part included in the target recognition device 1 does not necessarily include software, and all the functions may be realized by using one or more hardware. ..
  • a plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.
  • a system having the target recognition device 1 as a component, a program for operating a computer as the target recognition device 1, a semiconductor memory recording this program, and the like In addition to the above-mentioned target recognition device 1, a system having the target recognition device 1 as a component, a program for operating a computer as the target recognition device 1, a semiconductor memory recording this program, and the like.
  • the present disclosure can also be realized in various forms such as a non-transitional actual recording medium, a target recognition method, and a roadside object determination method.

Abstract

物標認識装置(1)は、路側物判断ユニットと、座標算出ユニットと、道路境界推定ユニットと、距離算出ユニットと、尤度増加ユニットとを備える。路側物判断ユニットは、物標が路側物の特徴を有しているか否かを判断する。座標算出ユニットは、物標の横方向における座標を算出する。道路境界推定ユニットは、道路境界を推定する。距離算出ユニットは、物標から道路境界までの距離を算出する。尤度増加ユニットは、距離が閾値以下であることを条件として、路側物である尤度を増加させる。

Description

物標認識装置 関連出願の相互参照
 本国際出願は、2020年2月21日に日本国特許庁に出願された日本国特許出願第2020-028459号に基づく優先権を主張するものであり、日本国特許出願第2020-028459号の全内容を本国際出願に参照により援用する。
 本開示は物標認識装置に関する。
 特許文献1に路側物認識装置が開示されている。路側物認識装置はレーダーとカメラとを備える。路側物認識装置は、レーダーを用いて反射点群を取得する。路側物認識装置は、カメラの画像を用いて、路側物の反射点ではない可能性が高い反射点を特定する。路側物認識装置は、反射点群から、路側物の反射点ではない可能性が高い反射点を除外する。路側物認識装置は、除外後の反射点群を用いて、路側物を認識する。
特開2019-106022号公報
 発明者の詳細な検討の結果、特許文献1に記載の路側物認識装置は、路側物を認識するために、レーダーとカメラとを必要とするという課題が見出された。本開示の1つの局面では、必ずしも2種類のセンサを使用しなくても、路側物を認識できる物標認識装置を提供することが好ましい。
 本開示の1つの局面は、車両の速度及びヨーレートに基づき、前記車両の将来の走行軌跡を推測するように構成された走行軌跡推測ユニットと、センサを用いて前記車両の前方に存在する物標を検出するように構成された物標検出ユニットと、前記物標検出ユニットが検出した前記物標が、路側物の特徴を有しているか否かを判断するように構成された路側物判断ユニットと、前記路側物の特徴を有していると判断された前記物標の横方向における座標を算出するように構成された座標算出ユニットと、前記横方向における座標に基づき、道路境界を推定するように構成された道路境界推定ユニットと、前記物標検出ユニットが検出した前記物標が、固定物の特徴を有しているか否かを判断するように構成された固定物判断ユニットと、前記固定物の特徴を有していると判断された前記物標から、前記道路境界推定ユニットが推定した前記道路境界までの距離を算出するように構成された距離算出ユニットと、前記距離が予め設定された閾値以下であることを条件として、前記物標が路側物である尤度を増加させるように構成された尤度増加ユニットと、を備える物標認識装置である。
 本開示の1つの局面である物標認識装置は、必ずしも2種類のセンサを使用しなくても、路側物を認識できる。
物標認識装置の構成を表すブロック図である。 物標認識装置の機能的構成を表すブロック図である。 物標認識装置が実行する処理を表すフローチャートである。 物標認識装置が実行する路側物判断処理を表すフローチャートである。 走行軌跡、物標、道路境界等を表す説明図である。 標準偏差が小さいヒストグラムを表す説明図である。 標準偏差が大きいヒストグラムを表す説明図である。 道路の形状に沿った走行軌跡と、道路の形状に沿っていない走行軌跡とを表す説明図である。
 本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
 1.物標認識装置1の構成
 物標認識装置1の構成を、図1及び図2に基づき説明する。図1に示すように、物標認識装置1は車両3に搭載されている。物標認識装置1は、CPU5と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ7とする)と、を有するマイクロコンピュータを備える。
 物標認識装置1の各機能は、CPU5が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ7が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、物標認識装置1は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
 物標認識装置1は、図2に示すように、走行軌跡推測ユニット9と、物標検出ユニット11と、路側物判断ユニット13と、座標算出ユニット15と、道路境界推定ユニット17と、固定物判断ユニット19と、距離算出ユニット21と、尤度増加ユニット23と、出力ユニット25と、を備える。
 物標認識装置1は、車両3が備える様々な部材と接続している。物標認識装置1と接続している部材として、図1に示すように、物標検出センサ31と、車速センサ33と、ヨーレートセンサ35と、運転支援装置37と、がある。
 物標検出センサ31は、車両3の前方に存在する物標を検出するために使用されるセンサである。第1実施形態において物標検出センサ31はレーザレーダである。車速センサ33は、車両3の車速を検出する。ヨーレートセンサ35は車両3のヨーレートを検出する。運転支援装置37は、後述する路側物尤度を用いて車両3の運転支援を行う。
 2.物標認識装置1が実行する処理
 物標認識装置1が所定時間ごとに繰り返し実行する処理を、図3~図8に基づき説明する。図3に示す処理を1回実行することを、1サイクルとする。図3のステップ1では、走行軌跡推測ユニット9が、車速センサ33を用いて車両3の車速を測定する。また、走行軌跡推測ユニット9は、ヨーレートセンサ35を用いて車両3のヨーレートを測定する。走行軌跡推測ユニット9は、車両3の車速及びヨーレートに基づき、車両3の将来の走行軌跡を推測する。
 図5に示すように、車両3の将来の走行軌跡41は、車両3の前端のうち、幅方向における中心43が、将来通過すると予測される軌跡である。
 ステップ2では、物標検出ユニット11が、物標検出センサ31を用いて、車両3の前方に存在する物標を検出する処理を行う。なお、物標検出センサ31の検出結果は、例えば、複数の測距点を含む。各測距点は、レーザーの1つの反射点である。物標検出ユニット11は、同一の物標に由来する可能性が高い複数の測距点をまとめて、1つの物標として検出する。
 ステップ3では、物標検出ユニット11が、物標の番号であるiを初期化し、1とする。なお、物標の番号とは、前記ステップ2の処理で検出された物標に付された1連の番号である。ここでは、前記ステップ2の処理において、N個の物標が検出されたとする。Nは自然数である。各物標には、1、2、3・・・Nのうちのいずれかの番号が付されている。各物標に付された番号は物標ごとに異なる。
 ステップ4では、番号がiである物標(以下ではi番目の物標とする)は、路側物の特徴を有しているか否かを、路側物判断ユニット13が判断する。路側物とは、道路境界の付近に存在し、静止している物標である。道路境界とは、道路と、道路以外の領域との境界である。車両3は、道路境界を通過することはできない。路側物として、例えば、デリニエータ、ラバーポール等が挙げられる。
 路側物の特徴を有するとは、例えば、以下のJA1~JA4の条件を全て充足することをいう。
 JA1:物標が高反射点を含む。高反射点とは、レーザーの反射強度が閾値以上である測距点である。
 JA2:物標のサイズが閾値以下である。
 JA3:物標の絶対速度が閾値以下である。
 JA4:物標の高さが閾値以上である。
 なお、路側物判断ユニット13は、物標のうち、最も高い部分から到来する反射波の角度に基づき、物標の高さを算出することができる。キャッツアイは道路境界に存在しないので、路側物ではない。物標がキャッツアイである場合、JA1~JA3の条件を充足することがある。しかしながら、キャッツアイはJA4の条件を充足しない。よって、路側物判断ユニット13は、キャッツアイを路側物であると判断することを抑制できる。
 i番目の物標が路側物の特徴を有する場合、本処理はステップ5に進む。i番目の物標が路側物の特徴を有さない場合、本処理はステップ7に進む。
 ステップ5では、座標算出ユニット15が、i番目の物標の横方向座標を算出する。横方向座標とは、図5に示す座標軸45での座標である。座標軸45は、前記ステップ1で推定した走行軌跡41に直交し、i番目の物標を通る。横方向座標は、走行軌跡41の上では0である。横方向座標の絶対値は、i番目の物標47と、走行軌跡41との距離である。
 ステップ6では、道路境界推定ユニット17が、i番目の物標の横方向座標を、ヒストグラムに投票する。ヒストグラムとは、図6に示すように、横方向座標のビンごとに、そのビンに属する横方向座標の度数を示すものである。i番目の物標の横方向座標をヒストグラムに投票することは、ヒストグラムを作成することに対応する。
 ステップ7では、番号iがNに等しいか否かを、物標検出ユニット11が判断する。番号iがN未満である場合、本処理はステップ8に進む。番号iがNに等しい場合、本処理はステップ9に進む。番号iがNに等しいということは、前記ステップ2の処理で検出された全ての物標について前記ステップ4~6の処理が終了し、ヒストグラムが完成したことを意味する。
 ステップ8では、番号iを1だけ増加させる。その後、本処理はステップ4に進む。
 ステップ9では、完成したヒストグラムが以下の条件JB1及びJB2を充足するか否かを、道路境界推定ユニット17が判断する。
 JB1:ヒストグラムの標準偏差が閾値以下である。
 JB2:度数が極大であるビンの度数が閾値以上である。
 なお、標準偏差は、ヒストグラムのばらつきの程度を表す指標に対応する。JB1及びJB2を充足する場合、本処理はステップ10に進む。JB1又はJB2を充足しない場合、本処理は終了する。
 前記ステップ1において、図8に示す走行軌跡41Aのように、道路49の形状に沿った走行軌跡41を推定できた場合、図6に示すように、ヒストグラムの標準偏差は小さくなり、条件JB1を充足し易い。前記ステップ1において、図8に示す走行軌跡41Bのように、道路49の形状に沿っていない走行軌跡41を推定した場合、図7に示すように、ヒストグラムの標準偏差は大きくなり、条件JB1を充足し難い。走行軌跡41Bは、例えば、車両3が車線境界線50を横切って車線変更をしているときの走行軌跡41である。
 ステップ10では、道路境界推定ユニット17が、ヒストグラムに基づき、図5に示す道路境界51R、51Lを推定する。道路境界51R、51Lを推定する方法は以下のとおりである。
 図6に示すように、ヒストグラムは、度数が極大である2つのビンBR、BLを有する。ビンBRは、走行軌跡41よりも右側にある。ビンBRに属する横方向座標は、走行軌跡41よりも右側にある物標の横方向座標に対応する。なお、右側とは、車両3の前方を向いたドライバにとっての右側である。左側とは、車両3の前方を向いたドライバにとっての左側である。
 ビンBLは、走行軌跡41よりも左側にある。ビンBLに属する横方向座標は、走行軌跡41よりも左側にある物標の横方向座標に対応する。
 道路境界51Rは、走行軌跡41よりも右側にある。道路境界51R上の任意の点は、走行軌跡41から、DRだけ離れている。DRは、ビンBRの中央値の絶対値である。
 道路境界51Lは、走行軌跡41よりも左側にある。道路境界51L上の任意の点は、走行軌跡41から、DLだけ離れている。DLは、ビンBLの中央値の絶対値である。
 例えば、前記ステップ1で推定した走行軌跡41が、中心点Cを中心とする、半径がRの円弧であるとする。また、走行軌跡41は、ドライバから見て、左に曲がっているとする。道路境界51Rは、中心点Cを中心とする、半径が(R+DR)の円弧である。道路境界51Lは、中心点Cを中心とする、半径が(R-DL)の円弧である。
 ステップ11では、路側物判断処理を実行する。路側物判断処理は、図4に示す処理である。図4のステップ21では、物標の番号であるiを初期化し、1とする。
 ステップ22では、i番目の物標は、固定物の特徴を有しているか否かを、固定物判断ユニット19が判断する。固定物とは、道路に対し移動しない物標である。路側物は固定物に該当する。固定物の特徴を有しているとは、以下のJC1~JC3の条件を全て充足することをいう。
 JC1:i番目の物標のサイズが閾値以下である。
 JC2:i番目の物標の累積走行距離が閾値以下である。
 JC3:i番目の物標の縦位置の変化量が閾値以下である。
 累積走行距離とは、i番目の物標を初めて検出した時刻から、現時刻までに、i番目の物標が走行した距離である。なお、物標認識装置1は、各サイクルの間で物標のトラッキングを行うことで、過去のサイクルで検出されたi番目の物標と、最新のサイクルで検出されたi番目の物標とを関連付けることができる。よって、物標認識装置1は、過去のサイクルにおけるi番目の物標の位置を特定できる。i番目の物標を初めて検出した時刻とは、i番目の物標を、過去のサイクルで初めて検出した時刻である。
 縦位置とは、車両3の位置を基準とする、道路の走行方向における相対的な位置である。i番目の物標が車両3の前方にあり、i番目の物標と車両3との距離が広がっている場合、縦位置の変化量は正の値であり、時間の経過とともに縦位置の変化量は増加する。縦位置の変化量とは、例えば、i番目の物標を初めて検出したときの縦位置と、現時刻における縦位置との変化量である。
 i番目の物標が固定物の特徴を有する場合、本処理はステップ23に進む。i番目の物標が固定物の特徴を有していない場合、本処理はステップ26に進む。
 ステップ23では、距離算出ユニット21が、道路境界51R、51Lのうち、i番目の物標に近い方の道路境界を選択する。次に、距離算出ユニット21は、i番目の物標から、選択した道路境界までの距離を算出する。距離とは、さらに詳しくは、i番目の物標における基準点から、選択した道路境界までの距離である。基準点とは、i番目の物標のうち、車両3に近い側の端部の中心である。
 ステップ24では、前記ステップ23で算出した距離は閾値以下であるか否かを、尤度増加ユニット23が判断する。閾値は、例えば0.5mである。距離が閾値以下である場合、本処理はステップ25に進む。距離が閾値を超える場合、本処理はステップ26に進む。
 ステップ25では、尤度増加ユニット23が、i番目の物標について、物標が路側物である尤度(以下では路側物尤度とする)を、現時点での路側物尤度よりも増加させる。路側物尤度とは、物標が路側物である確からしさである。路側物尤度の増加量は、適宜設定することができる。
 i番目の物標を最新のサイクルで初めて検出した場合、又は、過去のサイクルではi番目の物標の路側物尤度を増加させていなかった場合、現時点での路側物尤度は、デフォルトの値である。過去のサイクルで、i番目の物標の路側物尤度を増加させていた場合、現時点での路側物尤度は、過去のサイクルで増加させた後の路側物尤度である。
 なお、物標認識装置1は、各サイクルの間で物標のトラッキングを行うことで、過去のサイクルで検出されたi番目の物標と、最新のサイクルで検出されたi番目の物標とを関連付けることができる。また、物標認識装置1は、i番目の物標の路側物尤度が、過去のサイクルにおいてどのように変化してきたかを認識することができる。
 ステップ26では、番号iがNに等しいか否かを、物標検出ユニット11が判断する。番号iがN未満である場合、本処理はステップ27に進む。番号iがNに等しい場合、本処理はステップ28に進む。番号iがNに等しいということは、前記ステップ2の処理で検出された全ての物標について前記ステップ22~25の処理が終了したことを意味する。
 ステップ27では、番号iを1だけ増加させる。その後、本処理はステップ22に進む。
 ステップ28では、N個の物標のそれぞれについて、路側物尤度を、出力ユニット25が運転支援装置37へ出力する。なお、運転支援装置37は、路側物尤度を用いて運転支援を行うことができる。例えば、運転支援装置37は、路側物尤度が閾値以上である物標の方向へ操舵することを禁止する。この場合、車両3が路側物に過度に接近することを抑制できる。
 3.物標認識装置1が奏する効果
 (1A)物標認識装置1は、必ずしも2種類のセンサを使用しなくても、路側物を認識することができる。
 (1B)物標認識装置1は、ヒストグラムが条件JB1及びJB2を充足することを条件として、道路境界51R、51Lを推定する。そのため、物標認識装置1は、道路境界51R、51Lを正確に推定することができる。物標認識装置1は、正確に推定された道路境界51R、51Lを用いて、物標の路側物尤度を増加させるか否かを判断する。そのため、物標認識装置1は、物標の路側物尤度を適切に算出することができる。
 (1C)物標認識装置1は、固定物の特徴を有していないと判断した物標については、路側物尤度を増加させない。そのため、固定物でない物標について、路側物尤度を増加させてしまうことを抑制できる。
 (1D)道路境界の周辺に、ポール等の路側物が一定間隔で複数設置されていることがある。このような物標を、以下では特定物標とする。従来技術では、エイリアシング等のために、特定物標を、移動している物標と認識してしまうことがあった。特定物標は、道路境界51R、51Lに近い。そのため、特定物標が物標iである場合、前記ステップ24で肯定判断され、路側物尤度が増加する。よって、物標認識装置1は、特定物標を路側物として認識することができる。
 (1E)道路境界に沿って、反射強度が低い側壁が設けられていることがある。従来技術では、このような側壁と、車両3と並走する車両(以下では並走車両とする)とを区別することが困難であった。側壁は、道路境界51R、51Lに近い。そのため、側壁が物標iである場合、前記ステップ24で肯定判断され、路側物尤度が増加する。一方、並走車両は、側壁に比べて、道路境界51R、51Lから遠い。そのため、並走車両が物標iである場合、前記ステップ24で否定判断され、路側物尤度は増加しない。よって、物標認識装置1を用いれば、側壁と、並走車両とを区別することができる。
<他の実施形態>
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (1)物標検出センサ31は、レーザレーダ以外のセンサであってもよい。
 (2)路側物の特徴を有するか否かの判断に使用する条件は、JA1~JA4以外の条件であってもよい。また、JA1~JA4の全部ではなく一部を用いてもよい。
 (3)固定物の特徴を有するか否かの判断に使用する条件は、JC1~JC3以外の条件であってもよい。また、JC1~JC3の全部ではなく一部を用いてもよい。
 (4)JB1は、ヒストグラムのばらつきの程度を表す指標として、標準偏差以外の指標を使用する条件であってもよい。
 (5)本開示に記載の物標認識装置1及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物標認識装置1及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物標認識装置1及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。物標認識装置1に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
 (6)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
 (7)上述した物標認識装置1の他、当該物標認識装置1を構成要素とするシステム、当該物標認識装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、物標認識方法、路側物判定方法等、種々の形態で本開示を実現することもできる。

Claims (2)

  1.  車両(3)の速度及びヨーレートに基づき、前記車両の将来の走行軌跡(41)を推測するように構成された走行軌跡推測ユニット(9)と、
     センサ(31)を用いて前記車両の前方に存在する物標(47)を検出するように構成された物標検出ユニット(11)と、
     前記物標検出ユニットが検出した前記物標が、路側物の特徴を有しているか否かを判断するように構成された路側物判断ユニット(13)と、
     前記路側物の特徴を有していると判断された前記物標の横方向における座標を算出するように構成された座標算出ユニット(15)と、
     前記横方向における座標に基づき、道路境界(51R、51L)を推定するように構成された道路境界推定ユニット(17)と、
     前記物標検出ユニットが検出した前記物標が、固定物の特徴を有しているか否かを判断するように構成された固定物判断ユニット(19)と、
     前記固定物の特徴を有していると判断された前記物標から、前記道路境界推定ユニットが推定した前記道路境界までの距離を算出するように構成された距離算出ユニット(21)と、
     前記距離が予め設定された閾値以下であることを条件として、前記物標が路側物である尤度を増加させるように構成された尤度増加ユニット(23)と、
     を備える物標認識装置(1)。
  2.  請求項1に記載の物標認識装置であって、
     前記道路境界推定ユニットは、前記横方向における座標のヒストグラムを作成し、前記ヒストグラムのばらつきの程度が予め設定された閾値以下であり、且つ、度数が極大であるビンの度数が予め設定された閾値以上であることを条件として、前記度数が極大であるビンに属する前記横方向における座標に前記道路境界が存在すると推定するように構成された物標認識装置。
PCT/JP2021/005661 2020-02-21 2021-02-16 物標認識装置 WO2021166893A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/821,131 US20220392230A1 (en) 2020-02-21 2022-08-19 Target recognition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020028459A JP7283417B2 (ja) 2020-02-21 2020-02-21 物標認識装置
JP2020-028459 2020-02-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/821,131 Continuation US20220392230A1 (en) 2020-02-21 2022-08-19 Target recognition device

Publications (1)

Publication Number Publication Date
WO2021166893A1 true WO2021166893A1 (ja) 2021-08-26

Family

ID=77391243

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/005661 WO2021166893A1 (ja) 2020-02-21 2021-02-16 物標認識装置

Country Status (3)

Country Link
US (1) US20220392230A1 (ja)
JP (1) JP7283417B2 (ja)
WO (1) WO2021166893A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043375A (ja) * 2004-09-03 2005-02-17 Mitsubishi Electric Corp 車両周辺監視装置
US20100286874A1 (en) * 2007-05-25 2010-11-11 Oliver Schwindt Collision warning device having guardrail detection
JP2012089114A (ja) * 2010-09-24 2012-05-10 Toyota Motor Corp 障害物認識装置
JP2012242937A (ja) * 2011-05-17 2012-12-10 Denso Corp 車両用道路形状認識方法及び装置、記録媒体
JP2012242936A (ja) * 2011-05-17 2012-12-10 Denso Corp 車両用道路形状認識方法及び装置、記録媒体
KR101655682B1 (ko) * 2015-06-02 2016-09-07 현대자동차주식회사 운전자 보조장치 및 그의 가드레일 인식 방법
JP2018106230A (ja) * 2016-12-22 2018-07-05 トヨタ自動車株式会社 衝突回避支援装置
JP2019067345A (ja) * 2017-10-05 2019-04-25 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043375A (ja) * 2004-09-03 2005-02-17 Mitsubishi Electric Corp 車両周辺監視装置
US20100286874A1 (en) * 2007-05-25 2010-11-11 Oliver Schwindt Collision warning device having guardrail detection
JP2012089114A (ja) * 2010-09-24 2012-05-10 Toyota Motor Corp 障害物認識装置
JP2012242937A (ja) * 2011-05-17 2012-12-10 Denso Corp 車両用道路形状認識方法及び装置、記録媒体
JP2012242936A (ja) * 2011-05-17 2012-12-10 Denso Corp 車両用道路形状認識方法及び装置、記録媒体
KR101655682B1 (ko) * 2015-06-02 2016-09-07 현대자동차주식회사 운전자 보조장치 및 그의 가드레일 인식 방법
JP2018106230A (ja) * 2016-12-22 2018-07-05 トヨタ自動車株式会社 衝突回避支援装置
JP2019067345A (ja) * 2017-10-05 2019-04-25 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Also Published As

Publication number Publication date
US20220392230A1 (en) 2022-12-08
JP2021135512A (ja) 2021-09-13
JP7283417B2 (ja) 2023-05-30

Similar Documents

Publication Publication Date Title
JP6404722B2 (ja) 車両の走行制御装置
JP6357737B2 (ja) 車流計測装置、方法及びプログラム
JP5949955B2 (ja) 道路環境認識システム
KR20180092101A (ko) Ecu, 상기 ecu를 포함하는 무인 자율 주행 차량, 및 이의 주행 차로 판단 방법
JP6363516B2 (ja) 車両の走行制御装置
JP6363518B2 (ja) 区画線認識装置
JP6717240B2 (ja) 物標検出装置
US11151395B2 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
JP5402968B2 (ja) 車両用道路形状認識方法及び装置、記録媒体
JP2021096265A (ja) 測定装置、測定方法、及び、プログラム
JP2023514163A (ja) 自動車のカメラピッチをキャリブレーションする方法及び装置、並びにそのための消滅点推定モデルをコンティニュアルラーニングさせる方法
CN110940982B (zh) 一种车辆前方目标识别方法以及相应的设备
JP6115429B2 (ja) 自車位置認識装置
JP2016197018A (ja) 衝突回避支援装置
JPWO2019207639A1 (ja) 行動選択装置、行動選択プログラム及び行動選択方法
CN110940981B (zh) 一种用于判断车辆前方目标的位置是否处于本车道内的方法
JPWO2018025632A1 (ja) 撮像装置
WO2021166893A1 (ja) 物標認識装置
JP5682302B2 (ja) 走行道路推定装置、方法およびプログラム
JP4074550B2 (ja) 物体認識装置及び認識方法
JP6906638B2 (ja) 対向車を検出するための車両システム
JP2019014407A (ja) 走路認識装置
KR101458387B1 (ko) 음주운전 방지 방법 및 장치
JP2002341027A (ja) 車両のaccシステムにおけるカーブr補正方法及びその装置
JP2018018215A (ja) 物体特徴点検知装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21757858

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21757858

Country of ref document: EP

Kind code of ref document: A1