WO2024013839A1 - 物体認識装置及び物体認識方法 - Google Patents

物体認識装置及び物体認識方法 Download PDF

Info

Publication number
WO2024013839A1
WO2024013839A1 PCT/JP2022/027363 JP2022027363W WO2024013839A1 WO 2024013839 A1 WO2024013839 A1 WO 2024013839A1 JP 2022027363 W JP2022027363 W JP 2022027363W WO 2024013839 A1 WO2024013839 A1 WO 2024013839A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
density
detected data
determination area
adjusted
Prior art date
Application number
PCT/JP2022/027363
Other languages
English (en)
French (fr)
Inventor
拓也 舩津
正憲 森
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/027363 priority Critical patent/WO2024013839A1/ja
Publication of WO2024013839A1 publication Critical patent/WO2024013839A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder

Definitions

  • the present disclosure relates to an object recognition device and an object recognition method.
  • Object recognition devices have been proposed that identify objects, estimate their positions, track objects, etc. using object detection data received from a plurality of sensors.
  • the object recognition device disclosed in Patent Document 1 creates information regarding objects existing within a predetermined area based on image information acquired from a millimeter wave radar and an image sensor mounted on the own vehicle.
  • the present disclosure has been made to solve the above-mentioned problems, and it is possible to prevent the correlation between predicted data and detected data from becoming erroneous or uncorrelated, and to achieve object recognition with high object recognition accuracy.
  • the purpose of the present invention is to provide a device and an object recognition method.
  • the object recognition device includes: a time measurement unit that measures time; a data receiving unit that receives detection data of an object from each of the plurality of sensors, and associates the time measured by the time measurement unit as a related time with each of the received detection data; a received data processing unit that calculates a detected data density in a specific area set using predicted data based on the detected data; a prediction processing unit that predicts a state value of the object corresponding to a related time associated by the data receiving unit from a state value of the object at a previous related time, and generates a prediction result as the prediction data; With respect to a determination area used for determining whether the predicted data and the detected data are based on the same object, an adjusted determination area parameter is generated by adjusting a parameter representing the width of the determination area based on the detected data density.
  • an adjusted judgment area parameter generation unit a correlation processing unit that generates correlation data representing a correlation between the predicted data and the detected data corresponding to the related time within the adjusted determination region represented by the adjusted determination region parameter; an update processing unit that updates a state value of the object based on the correlation data; Equipped with
  • the object recognition method includes: a step of measuring time; receiving object detection data from each of the plurality of sensors, and associating the time measured for each of the received detection data as a related time; calculating a detection data density in a specific area based on the detection data; predicting a state value of the object corresponding to a relevant time from a state value of the object at a previous relevant time, and generating a prediction result as prediction data; Regarding a determination area used for determining whether the predicted data and the detected data are based on the same object, an adjusted determination area parameter is generated by adjusting a parameter representing the width of the specific area based on the detected data density. step and generating correlation data representing a correlation between the predicted data and the detected data corresponding to the related time within the adjusted determination area represented by the adjusted determination area parameter; updating a state value of the object based on the correlation data; Equipped with
  • the determination area is adjusted based on the density of the detected data, it is possible to easily prevent false correlation or uncorrelation between the predicted data and the detected data. This has the effect of enabling highly accurate object recognition.
  • FIG. 1 is a block diagram showing the configuration of an object recognition device according to Embodiment 1.
  • FIG. 3 is a flowchart illustrating an object recognition method according to Embodiment 1.
  • FIG. 3 is a diagram illustrating an example of a method for generating adjusted determination region parameters using the object recognition method according to the first embodiment.
  • FIG. 3 is a diagram for explaining features of the object recognition method according to the first embodiment.
  • FIG. 3 is a diagram for explaining features of the object recognition method according to the first embodiment.
  • 7 is a flowchart representing an object recognition method according to Embodiment 2.
  • FIG. 1 is a diagram illustrating an example of hardware of an object recognition device according to Embodiment 1.
  • FIG. 1 is a diagram illustrating an example of hardware of an object recognition device according to Embodiment 1.
  • FIG. 1 is a block diagram showing the configuration of an object recognition device 200 according to the first embodiment.
  • the density related to the number of detected data will be referred to as the detected data density.
  • the detected data density is calculated by defining, for example, the unit range as the denominator and the number of detected data within the unit range as the numerator.
  • the object recognition device 200 includes a data receiving section 101, a received data processing section 102, an adjusted determination region parameter generation section 103, a correlation processing section 104, an update processing section 105, and a prediction processing section. 106, and a time measurement unit 107.
  • a plurality of sensors 20 and a vehicle information sensor 21 installed outside the object recognition device 200 are connected to the data receiving unit 101 .
  • a display unit 110 installed outside the object recognition device 200 is connected to the update processing unit 105.
  • the plurality of sensors 20 installed in the own vehicle acquire information regarding objects existing within a detectable detection range as detection data.
  • the acquired sensing data is transmitted to the data receiving unit 101 of the object recognition device 200.
  • the detection data includes information regarding state values of the object, such as the distance to the object to be detected, the azimuth of the object, or the relative velocity of the object.
  • the plurality of sensors 20 are composed of n sensors, for example, as shown in FIG.
  • the n sensors are respectively referred to as a first sensor 20a, . . . , an n-th sensor 20n.
  • the plurality of sensors 20 are sensors that receive light, electromagnetic waves, etc. radiated or reflected from an object, apply signal processing or image processing, and measure the distance, azimuth, relative velocity, etc. to the object.
  • examples of the plurality of sensors 20 include a millimeter wave radar, a laser radar, an ultrasonic sensor, an infrared sensor, and an optical camera.
  • the mounting positions of the first sensor 20a can be set arbitrarily, in the present disclosure, in order to integrate the observed values of the object detected by each sensor, the detection range of each of the plurality of sensors 20 overlaps, that is, it is common. It is desirable that parts exist.
  • the first sensor 20a, ..., the n-th sensor 20n are of at least two types or more. It is preferable to use the following sensor system.
  • the first sensor 20a is a millimeter wave radar
  • the nth sensor 20n is an optical camera
  • the first sensor 20a is placed in the center of the front bumper of the own vehicle
  • the nth sensor 20n is placed behind the rearview mirror of the own vehicle. It is conceivable to install both sensors so that the front of the own vehicle is a common detection range for both sensors.
  • the data detected by the 1st sensor 20a is described as 1st detection data
  • the data detected by the n-th sensor 20n is described as n-th detection data.
  • the vehicle information sensor 21 mounted on the host vehicle is a sensor that measures the state of the host vehicle, such as the speed, wheel speed, steering angle, and yaw rate of the host vehicle.
  • the vehicle information sensor 21 may be a sensor that measures the latitude, longitude, and traveling direction of the own vehicle using a GPS (Global Positioning System).
  • the information about the own vehicle acquired by the vehicle information sensor 21 is collectively referred to as own vehicle data. The above is the explanation regarding the plurality of sensors 20 and the vehicle information sensor 21 mounted on the host vehicle.
  • the data receiving unit 101 receives detection data of each sensor and own vehicle data from the plurality of sensors 20 and the vehicle information sensor 21. Further, the data receiving unit 101 associates a common time measured by a time measuring unit 107, which will be described later, with each received data as a related time. The data receiving unit 101 outputs detection data associated with relevant times and including the ground speed of the detected object to the received data processing unit 102 and the correlation processing unit 104.
  • the received data processing unit 102 calculates the detected data density in the specific area 30 based on the received detected data.
  • the received data processing unit 102 outputs the calculated detection data density to the adjusted determination area parameter generation unit 103.
  • the specific area 30 means a preset range, that is, an area centered on the position of an object predicted by prediction data described later, for example.
  • the sensed data density in the specific area 30 means the density calculated by dividing the number of sensed data existing inside the specific area 30 by the volume of the specific area.
  • the adjusted determination region parameter generation unit 103 generates parameters related to the determination region necessary for determining whether an object predicted by the prediction data from the prediction processing unit 106 and an object based on the detection data are the same object. , an adjusted determination area parameter is generated by adjusting a parameter representing the width of the determination area based on the detected data density. The adjusted determination area parameter generation unit 103 outputs the generated adjusted determination area parameter to the correlation processing unit 104. Note that the adjusted determination area parameter is a parameter representing the adjusted determination area, that is, the adjusted determination area 32.
  • the correlation processing unit 104 combines the detection data at the relevant time and the predicted data predicted from the state value of the object at the previous relevant time within the adjusted determination region 32 determined based on the adjusted determination region parameters.
  • the correspondence relationship that is, the presence or absence of a correlation, is determined, and correlation data that summarizes the correlation between the detected data and the predicted data is generated.
  • Correlation processing section 104 outputs correlation data to update processing section 105.
  • the presence or absence of a correlation between detected data and predicted data can be determined using the known SNN (Simple Nearest Neighbor) algorithm, GNN (Global Nearest Neighbor) algorithm, or JPDA (Joint Probabilistic Data Assassination). The determination is made using an algorithm such as the following:
  • the update processing unit 105 updates the state value of the object based on the correlation data, and outputs it to the display unit 110 as object data, for example.
  • the state value of the object is determined by the first detection data detected by the first sensor 20a, . . . , the n-th detection data detected by the n-th sensor 20n, respectively detected by the plurality of sensors 20. This information includes the position, velocity, acceleration, type, etc. of the included objects, and this information is updated based on correlation data.
  • the state value of the object is updated at a preset operation cycle using, for example, the least squares method, Kalman filter, particle filter, or the like.
  • the prediction processing unit 106 uses the object data at the previous related time (one previous related time) output from the update processing unit 105, that is, the state value of the object, to determine the current related time included in the detection data. Predict the state value of the object at the reception time and generate the prediction result as prediction data.
  • the prediction processing unit 106 outputs the generated prediction data to the correlation processing unit 104. Note that, based on this predicted data, a specific area 30 necessary for calculating the detected data density is set.
  • the time measurement unit 107 measures the time of the object recognition device 200. Note that the time measured by the time measurement unit 107 is referred to as a common time.
  • the object recognition device 200 repeatedly performs a certain operation at a predetermined operation cycle. For example, the most recent operation cycle in the past with respect to the current operation cycle is called the previous operation cycle, and the related time in the previous operation cycle is called the previous related time with respect to the current related time. It is called.
  • FIG. 2 is a flowchart showing operations in one operation cycle in the object recognition method according to the first embodiment.
  • step S101 the data receiving unit 101 receives detected data from at least one sensor among the first sensor 20a, ..., n-th sensor 20n of the plurality of sensors 20 within an operation cycle. is received.
  • step S101 that is, if detection data is received from at least one sensor within the operating cycle
  • the process proceeds to step S102.
  • step S101 that is, if no detection data is received within the operating cycle
  • the processing for this operating cycle is ended.
  • step S102 the prediction processing unit 106 calculates the reception time, which is the current relevant time (current relevant time) included in the detection data, based on the object data (object state value) acquired at the previous relevant time.
  • the state value of the object is predicted and the prediction result is generated as prediction data.
  • the received data processing unit 102 calculates the detection data density in the specific area 30 based on the acquired detection data.
  • the specific area 30 for example, a certain area centered on the position of the object predicted by the prediction data can be used.
  • the specific area 30 in the coordinates shown in FIG. 4, centering on the position of the object based on the predicted data, ⁇ 1 [m] in the vertical direction, ⁇ 1 [m] in the horizontal direction, and ⁇ 1 [m] in the depth direction. ] may be set as the specific area 30.
  • the detected data density is calculated by dividing the number of detected data existing inside the specific area 30 by the volume of the specific area 30.
  • the adjusted determination region parameter generation unit 103 generates the prediction data from the prediction processing unit 106, that is, the information necessary for determining whether the predicted object and the object based on the detection data are the same object.
  • the adjusted determination area parameter is generated by adjusting the parameter representing the width of the determination area based on the detected data density. It is assumed that the adjusted judgment area parameter uses the same physical quantity as the judgment area. For example, when position space is assumed as the determination area, the width, length, and depth of the correlation range are adjusted. A specific method for adjusting the parameter representing the size of the determination area based on the detection data density will be described later.
  • step S105 the correlation processing unit 104 acquires the detection data from the data reception unit 101 and also acquires the prediction data from the prediction processing unit 106. Further, the correlation processing unit 104 acquires the adjusted determination area parameter from the adjusted determination area parameter generation unit 103. Within the adjusted judgment area determined based on the adjusted judgment area parameters, the correspondence between the detected data and the predicted data at the relevant time, that is, the correlation, is determined, and the correspondence between the detected data and the predicted data is summarized. Generate correlated data.
  • step S106 the update processing unit 105 updates the state value of the object based on the correlation data.
  • the above is a series of operations in one operation cycle by the object recognition method according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a method for generating adjusted determination area parameters.
  • the horizontal axis in FIG. 3 represents the detected data density, and the vertical axis represents the adjusted determination area parameter.
  • a maximum value, that is, a maximum judgment area parameter value, and a minimum value, that is, a minimum judgment area parameter value, are set in advance for the adjusted judgment area parameter. That is, the adjusted determination area parameter has a value between the maximum determination area parameter value and the minimum determination area parameter value.
  • the adjusted determination area parameter becomes the maximum determination area parameter value, that is, a constant value.
  • the judgment area is set wide to prevent correlated data from becoming uncorrelated, but if the judgment area is set too wide, the possibility of false correlation occurring increases. Therefore, the maximum value of the determination area parameter is set as the upper limit of the adjusted determination area parameter.
  • the adjusted determination area parameter becomes the minimum determination area parameter value, that is, a constant value.
  • the detection data density is high, setting the judgment area narrowly prevents the correlation data from becoming false correlations, but if the judgment area is set too narrow, the possibility of non-correlation occurring increases. Therefore, the minimum value of the determination area parameter is set as the lower limit of the adjusted determination area parameter.
  • the adjusted determination area parameter is adjusted to decrease in proportion to the detected data density, as shown in FIG. This is because within this range, the higher the detection data density, the narrower the determination area, the easier it is to prevent false correlation.
  • the adjusted judgment area parameter generation unit 103 sets the adjusted judgment area parameter to the preset maximum value of the judgment area parameter, and when the detected data density is less than the detected data density If the data density is larger than the upper limit value, the adjusted judgment area parameter is set to the preset judgment area parameter minimum value, and if the detected data density is within the range from the lower limit of detected data density to the upper limit of detected data density, the adjusted judgment area Adjust the parameters to decrease proportionally to the sensed data density.
  • FIGS. 4 and 5 are diagrams for explaining an application example of the object recognition method using the object recognition device 200 according to the first embodiment. 4 and 5 assume a position space.
  • the position space can be expressed with the vertical axis as the vertical position, the horizontal axis as the horizontal position, and the depth axis as the depth position.
  • FIG. 4 the left side shows the operation of the object recognition method according to the comparative example, and the right side shows the operation of the object recognition method according to the first embodiment.
  • the open square marks in FIG. 4 represent the predicted data 12 predicted from the state value of the object at the previous relevant time, and the open circles represent the detected data 10a and 10b.
  • the detection data 10a represents detection data caused by the same object as the prediction data 12.
  • the detection data 10b represents detection data caused by an object different from the prediction data 12.
  • the correlation is performed in consideration of information other than position, for example, speed.
  • the correct correlation is that the predicted data 12 and the detected data 10a correspond to each other and the updated data is calculated.
  • the determination area is a preset area of a constant size that does not depend on the detection data density centered on the position of the object predicted by the prediction data 12. In other words, it means the same area as the specific area in the object recognition method according to the first embodiment.
  • the detection data density is high, there is detection data 10a that has a correlation with the prediction data 12 inside the determination area, but there also exists detection data 10b that has no correlation with the prediction data 12. Therefore, a correct correlation between the predicted data 12 and the sensed data 10a may not be recognized, and a false correlation may occur where there is an erroneous correlation between the predicted data 12 and the sensed data 10b.
  • the adjusted determination area parameter generation unit 103 generates adjusted determination area parameters by adjusting the parameter representing the width of the determination area. Then, using the adjusted determination area 32, the correlation between the predicted data and the detected data is determined.
  • the adjusted determination area 32 is set relatively narrower than the determination area according to the comparative example, that is, the specific area.
  • the sensed data 10b is located outside the adjusted determination area 32, it is possible to recognize the correct correlation between the predicted data 12 and the sensed data 10a.
  • the possibility of false correlation occurring is drastically reduced compared to the object recognition method according to the comparative example.
  • FIG. 5 the left side shows the operation of the object recognition method according to the comparative example, and the right side shows the operation of the object recognition method according to the first embodiment.
  • the open square marks in FIG. 5 represent the predicted data 12 predicted from the state value of the object at the previous relevant time, and the open circles represent the detected data 10a and 10b.
  • the detection data 10a represents detection data caused by the same object as the prediction data 12. Note that in the example shown in FIG. 5, the correlation is performed in consideration of information other than position, such as speed. In the example shown in FIG. 5, the correct correlation is that the predicted data 12 and the detected data 10a correspond to each other and the updated data is calculated.
  • the determination area is a preset area of a constant size that does not depend on the detection data density centered on the position of the object predicted by the prediction data 12. In other words, it means the same area as the specific area in the object recognition method according to the first embodiment.
  • the detection data density is low, there is no detection data 10a that has a correlation with the predicted data 12 inside the determination area. Therefore, the correct correlation between the predicted data 12 and the detected data 10a may not be recognized, and uncorrelation may occur.
  • the adjusted determination area parameter generation unit 103 generates adjusted determination area parameters by adjusting the parameter representing the width of the determination area. Then, using the adjusted determination area 32, the correlation between the predicted data and the detected data is determined.
  • the adjusted determination area 32 is set relatively wider than the determination area according to the comparative example, that is, the specific area. As a result, since the detected data 10a is located inside the adjusted determination area 32, the correct correlation between the predicted data 12 and the detected data 10a can be recognized.
  • the possibility of uncorrelation occurring is drastically reduced compared to the object recognition method according to the comparative example.
  • Embodiment 1 As described above, according to the object recognition device and object recognition method according to Embodiment 1, the determination area necessary for determining the correlation between the predicted data and the sensed data of the object is adjusted using the sensed data density. As a result, it is possible to prevent incorrect combinations of correlations (false correlation) or correct detection data from falling outside the judgment area (uncorrelation), resulting in high accuracy. This has the effect of making object recognition possible.
  • FIG. 6 is a flowchart showing operations in a certain operation cycle in the object recognition method according to the second embodiment.
  • step S203 is performed in which the detection data density is calculated separately for a stationary object and a moving object. Since the detected data densities are different between a stationary object and a moving object, the adjusted determination area parameters generated based on the detected data also have different values between the stationary object and the moving object. Whether the target object is a stationary object or a moving object is determined based on the velocity or acceleration calculated from the detection data. Since the correlation is determined by applying an appropriate detection data density depending on the state of the object, it is possible to perform object recognition with higher accuracy.
  • the velocity and acceleration of the target object can be used to adjust the specific region 30 used for calculating the detected data density in step S203.
  • the speed calculated from the predicted data is ⁇ 3 [km/h] in the vertical direction, ⁇ 3 [km/h] in the horizontal direction, and ⁇ 3 [km/h] in the depth direction.
  • the detected data density is calculated from the number of detected data existing inside the specific area 30, with the area within the specified area 30 being defined as the specific area 30. This makes it possible to set the adjusted determination region parameters based on a plurality of physical quantities, which has the effect of making it possible to improve the accuracy of the correlation more than in the case of a single physical quantity.
  • step S102 in the flowchart of FIG. 6 a step is added to determine whether "ground speed of the detected object > threshold speed?", and if the determination result is Yes, the detected data density is added to the calculation target, and the determination is made. If the result is No, processing may be performed to exclude the detected data density of the detected object whose velocity is less than the threshold value from the calculation target. This has the effect of reducing the calculation load of the detected data density and preventing unintentional adjustment of the correlation due to a large stationary object such as a guardrail.
  • the detected data density to be used may be a filter value of the detected data density. That is, the received data processing unit 102 resets the filter value of the detected data density to the detected data density.
  • a step of "calculating filter values of L periods" is added before step S104.
  • An example of the filter value is a moving average value of L periods (L is an integer of 1 or more).
  • Hardware 800 is composed of a processor 801 and a storage device 802.
  • the storage device 802 includes a volatile storage device such as a random access memory, and a nonvolatile auxiliary storage device such as a flash memory.
  • auxiliary storage device such as a hard disk may be provided instead of the flash memory.
  • Processor 801 executes a program input from storage device 802. In this case, the program is input to the processor 801 from the auxiliary storage device via the volatile storage device. Further, the processor 801 may output data such as calculation results to a volatile storage device of the storage device 802, or may store data in an auxiliary storage device via the volatile storage device.
  • 10a, 10b detection data, 12 prediction data 20 multiple sensors, 20a first sensor, 20n nth sensor, 21 vehicle information sensor, 30 specific area, 32 post-adjustment determination area, 101 data receiving unit, 102 received data Processing unit, 103 Adjusted judgment area parameter generation unit, 104 Correlation processing unit, 105 Update processing unit, 106 Prediction processing unit, 107 Time measurement unit, 110 Display unit, 200 Object recognition device, 800 Hardware, 801 Processor, 802 Memory Device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本開示の物体認識装置(200)は、時刻を計測する時刻計測部(107)と、複数のセンサ(20)から検知データを受信し時刻と関連付けるデータ受信部(101)と、検知データ密度を算出する受信データ処理部(102)と、関連時刻に対応する物体の状態値を1つ前の関連時刻の物体の状態値から予測し予測結果を予測データとして生成する予測処理部(106)と、検知データ密度に基づき判定領域の広さを表すパラメータを調整した調整後判定領域パラメータを生成する調整後判定領域パラメータ生成部(103)と、予測データと関連時刻に対応する検知データとの相関データを生成する相関処理部(104)と、相関データに基づいて物体の状態値を更新する更新処理部(106)と、を備える。

Description

物体認識装置及び物体認識方法
 本開示は、物体認識装置及び物体認識方法に関する。
 複数のセンサからそれぞれ受信した物体の検知データを用いて、物体を識別する、位置を推定する、あるいは追跡する等を行う物体認識装置が提案されている。
 例えば、特許文献1に開示された物体認識装置では、自車両に搭載したミリ波レーダ及び画像センサから取得した画像情報に基づいて、所定エリア内に存在する物体に関する情報を作成する。
国際公開第2021/106197号
 特許文献1に記載の物体認識装置では、予測データと検知データが同一物体であることを判定(相関)する際に、センサの誤差及び検知点の位置を考慮して、相関範囲を調整している。しかしながら、予測データと検知データとの相関関係を表す相関データを計算する際に、予測データに近接した物体の状態値を持つ検知データが複数存在する場合、あるいは逆に物体の状態値を持つ検知データが一つも存在しない場合が発生する可能性がある。この結果、検知データが複数存在する場合は誤相関が発生するおそれがある一方、検知データが一つも存在しない場合は未相関が発生するおそれがあった。
 したがって、予測データもしくは検知データの精度によっては予測データと検知データとの相関関係を算出することが困難になる場合がある。しかしながら、特許文献1に記載の物体認識装置では、かかる問題点について特に考慮はされていない。
 本開示は上記のような問題点を解消するためになされたもので、予測データと検知データとの相関関係が誤相関または未相関となることを防止して、物体の認識精度が高い物体認識装置及び物体認識方法を提供することを目的とする。
 本開示に係る物体認識装置は、
 時刻を計測する時刻計測部と、
 複数のセンサのそれぞれから物体の検知データを受信し、前記受信した検知データごとに前記時刻計測部によって計測された時刻を関連時刻として関連付けるデータ受信部と、
 前記検知データに基づき、予測データを用いて設定された特定領域における検知データ密度を算出する受信データ処理部と、
 前記データ受信部によって関連付けられた関連時刻に対応する前記物体の状態値を、1つ前の関連時刻の前記物体の状態値から予測し、予測結果を前記予測データとして生成する予測処理部と、
 前記予測データ及び前記検知データが同一物体に基づくか否かの判定に用いられる判定領域に関して、前記検知データ密度に基づき前記判定領域の広さを表すパラメータを調整した調整後判定領域パラメータを生成する調整後判定領域パラメータ生成部と、
 前記調整後判定領域パラメータが表す調整後判定領域の内部において、前記予測データと前記関連時刻に対応する前記検知データとの相関関係を表す相関データを生成する相関処理部と、
 前記相関データに基づいて、前記物体の状態値を更新する更新処理部と、
を備える。
 本開示に係る物体認識方法は、
 時刻を計測するステップと、
 複数のセンサのそれぞれから物体の検知データを受信し、前記受信した検知データごとに計測された前記時刻を関連時刻として関連付けるステップと、
 前記検知データに基づき特定領域における検知データ密度を算出するステップと、
 関連時刻に対応する前記物体の状態値を、1つ前の関連時刻の前記物体の状態値から予測し、予測結果を予測データとして生成するステップと、
 前記予測データ及び前記検知データが同一物体に基づくか否かの判定に用いられる判定領域に関して、前記検知データ密度に基づき前記特定領域の広さを表すパラメータを調整した調整後判定領域パラメータを生成するステップと、
 前記調整後判定領域パラメータが表す調整後判定領域の内部において、前記予測データと前記関連時刻に対応する前記検知データとの相関関係を表す相関データを生成するステップと、
 前記相関データに基づいて、前記物体の状態値を更新するステップと、
を備える。
 本開示に係る物体認識装置及び物体認識方法によれば、検知データ密度に基づき判定領域を調整するので、予測データと検知データとの誤相関または未相関を容易に防止することができるため、精度の高い物体認識が可能になるという効果を奏する。
実施の形態1に係る物体認識装置の構成を表すブロック図である。 実施の形態1に係る物体認識方法を表すフローチャートである。 実施の形態1に係る物体認識方法による調整後判定領域パラメータの生成方法の一例を説明する図である。 実施の形態1に係る物体認識方法の特徴を説明するための図である。 実施の形態1に係る物体認識方法の特徴を説明するための図である。 実施の形態2に係る物体認識方法を表すフローチャートである。 実施の形態1に係る物体認識装置のハードウエアの一例を示す図である。
実施の形態1.
 図1は、実施の形態1に係る物体認識装置200の構成を表すブロック図である。
 なお、以下の説明において、検知データ数に関する密度を、検知データ密度と呼ぶ。検知データ密度は、例えば、単位範囲を分母、単位範囲内の検知データ数を分子として定義して算出する。
 実施の形態1に係る物体認識装置200は、データ受信部101と、受信データ処理部102と、調整後判定領域パラメータ生成部103と、相関処理部104と、更新処理部105と、予測処理部106と、時刻計測部107と、を備える。データ受信部101には、物体認識装置200の外部に設置された複数のセンサ20及び車両情報センサ21が接続されている。また、更新処理部105には、物体認識装置200の外部に設置された表示部110が接続されている。
<センサの構成>
 自車両に設置された複数のセンサ20は、検知可能な検出範囲に存在する物体に関する情報を検知データとして取得する。取得された検知データは、物体認識装置200のデータ受信部101に送信される。検知データには、例えば検出対象である物体までの距離、物体の方位角または物体の相対速度等の物体の状態値に関する情報が含まれる。
 複数のセンサ20は、例えば図1に示すように、n個のセンサからなる。n個のセンサをそれぞれ、第1のセンサ20a、・・・、第nのセンサ20nと呼ぶ。
 複数のセンサ20は、物体から放射あるいは反射した光、電磁波などを受信して、信号処理または画像処理を適用して、物体までの距離、方位角、相対速度などを計測するセンサである。例えば、ミリ波レーダ、レーザレーダ、超音波センサ、赤外線センサ、光学カメラなどが複数のセンサ20の一例として挙げられる。
 複数のセンサ20を構成する第1のセンサ20a、・・・、第nのセンサ20nの自車両における搭載位置、物体を検出可能な範囲はそれぞれ既知であるとする。複数のセンサ20のそれぞれの搭載位置などは任意に設定できるが、本開示では、各センサで検出した物体の観測値を統合するため、複数のセンサ20のそれぞれの検知範囲は重複する、つまり共通部分が存在することが望ましい。
 また、複数のセンサ20の中で、少なくとも1つのセンサのみでは検出できない物体を他のセンサによって検出可能とするため、第1のセンサ20a、・・・、第nのセンサ20nは少なくとも2種類以上のセンサ方式で構成することが好適である。例えば、第1のセンサ20aをミリ波レーダ、第nのセンサ20nを光学カメラとして、第1のセンサ20aを自車両の前方バンパー部中央に、第nのセンサ20nを自車のルームミラー裏側にそれぞれ搭載して、自車両の前方を両センサの共通の検知範囲とすることが考えられる。なお、以下では、第1のセンサ20aによって検出されたデータを第1の検知データと表記し、第nのセンサ20nによって検出されたデータを第nの検知データと表記する。
 自車両に搭載された車両情報センサ21は、自車両の速度、車輪速、ステアリング角、ヨーレートなど、自車両の状態を計測するセンサである。あるいは、車両情報センサ21として、GPS(Global Positioning System)を用いて、自車両の緯度、経度、進行方向を計測するセンサとしても良い。車両情報センサ21が取得した自車両の情報を、まとめて自車両データと呼ぶ。
 以上が、自車両に搭載された複数のセンサ20及び車両情報センサ21に関する説明である。
<実施の形態1に係る物体認識装置の構成>
 データ受信部101は、複数のセンサ20及び車両情報センサ21から、各センサの検知データ及び自車両データを受信する。また、データ受信部101は、受信したデータごとに、後述の時刻計測部107によって計測された共通時刻を関連時刻として関連付ける。データ受信部101は、関連時刻が関連付けられ、検出された物体の対地速度を含む検知データを、受信データ処理部102及び相関処理部104に出力する。
 受信データ処理部102は、受信した検知データに基づいて、特定領域30における検知データ密度を算出する。受信データ処理部102は、算出された検知データ密度を調整後判定領域パラメータ生成部103に出力する。ここで、特定領域30とは、例えば後述の予測データによって予測された物体の位置を中心として、予め設定された範囲、つまり領域を意味する。また、特定領域30における検知データ密度とは、特定領域30の内側に存在する検知データ数を特定領域の体積で除算することによって算出された密度を意味する。
 調整後判定領域パラメータ生成部103は、予測処理部106からの予測データによって予測される物体と、検知データに基づく物体が同一物体であるか否かを判定する際に必要となる判定領域に関するパラメータについて、検知データ密度に基づいて判定領域の広さを表すパラメータを調整することにより調整後判定領域パラメータを生成する。調整後判定領域パラメータ生成部103は、生成された調整後判定領域パラメータを相関処理部104に出力する。なお、調整後判定領域パラメータは調整後の判定領域、すなわち調整後判定領域32を表すパラメータである。
 相関処理部104は、調整後判定領域パラメータに基づいて決定された調整後判定領域32の内部において、関連時刻における検知データと1つ前の関連時刻における物体の状態値から予測された予測データとの対応関係、つまり相関関係の有無を決定し、検知データと予測データとの相関関係をまとめた相関データを生成する。相関処理部104は、相関データを更新処理部105に出力する。検知データと予測データとの相関関係の有無は、公知のSNN(Simple Nearest Neighbor)アルゴリズム、GNN(Global Nearest Neighbor)アルゴリズム、JPDA(Joint Probabilistic Data Association)アルゴリズム等を用いて判定される。
 更新処理部105は、相関データに基づいて物体の状態値を更新し、物体データとして、例えば表示部110に出力する。物体の状態値は、複数のセンサ20がそれぞれ検出する、例えば第1のセンサ20aによって検出された第1の検知データ、・・・、第nのセンサ20nによって検出された第nの検知データに含まれる物体の位置、速度、加速度、種別などの情報であり、これらの情報が相関データに基づいて更新される。物体の状態値は、例えば、最小二乗法、カルマンフィルタ、粒子フィルタなどを用いて、予め設定された動作周期で更新される。
 予測処理部106は、更新処理部105から出力された前回の関連時刻(1つ前の関連時刻)における物体データ、つまり物体の状態値を用いて、検知データに含まれる今回の関連時刻である受信時刻での物体の状態値を予測し、予測結果を予測データとして生成する。予測処理部106は、生成した予測データを相関処理部104に出力する。なお、この予測データに基づき、検知データ密度を算出する上で必要となる特定領域30が設定される。
 時刻計測部107は、物体認識装置200の時刻を計測する。なお、時刻計測部107によって計測された時刻を共通時刻と呼ぶ。物体認識装置200は、所定の動作周期で一定の動作を繰り返し実行する。例えば、現在の動作周期に対する過去の直近の動作周期を1つ前の動作周期と呼び、また、現在の関連時刻に対して、1つ前の動作周期における関連時刻を、1つ前の関連時刻と呼ぶ。
<実施の形態1に係る物体認識方法>
 以下、実施の形態1に係る物体認識方法について、図2を用いて説明する。物体認識装置200は、予め設定された動作周期で以下の一定の動作を繰り返し実行する。図2は、実施の形態1に係る物体認識方法における、1つの動作周期における動作を表すフローチャートである。
 まず、ステップS101において、データ受信部101は、例えば、複数のセンサ20を構成する第1のセンサ20a、・・・、第nのセンサ20nのうち、少なくとも1つのセンサから動作周期内に検知データを受信したか否かを判定する。
 ステップS101においてYesの場合、つまり少なくとも1つのセンサから動作周期内に検知データを受信した場合は、ステップS102の処理に進む。一方、ステップS101においてNoの場合、つまり動作周期内に検知データを受信しなかった場合は、この動作周期の処理を終了する。
 ステップS102において、予測処理部106は、1つ前の関連時刻において取得した物体データ(物体の状態値)に基づき、検知データに含まれる今回の関連時刻(現在の関連時刻)である受信時刻での物体の状態値を予測し、その予測結果を予測データとして生成する。
 ステップS103において、受信データ処理部102は、取得した検知データに基づいて、特定領域30における検知データ密度を計算する。特定領域30として、例えば予測データによって予測された物体の位置を中心とした一定の領域を用いることができる。特定領域30の一例として、予測データによる物体の位置を中心として、図4に示される座標において、縦方向に±1[m]、横方向に±1[m]、奥行き方向に±1[m]の範囲以内を特定領域30として設定すれば良い。特定領域30の内部に存在する検知データ数を特定領域30の体積で除算することにより検知データ密度が算出される。
 ステップS104において、調整後判定領域パラメータ生成部103は、予測処理部106からの予測データ、つまり予測される物体と、検知データに基づく物体が同一物体であるか否かを判定する際に必要となる判定領域を表すパラメータに関して、検知データ密度に基づいて判定領域の広さを表すパラメータを調整することにより調整後判定領域パラメータを生成する。調整後判定領域パラメータは判定領域と同様の物理量を用いるものとする。例えば、判定領域として位置空間を想定した場合には、相関範囲の幅、長さ、及び奥行きを調整する。検知データ密度に基づき判定領域の広さを表すパラメータを調整する具体的な方法は後述する。
 ステップS105において、相関処理部104は、データ受信部101から検知データを取得するとともに、予測処理部106から予測データを取得する。また、相関処理部104は、調整後判定領域パラメータ生成部103から調整後判定領域パラメータを取得する。調整後判定領域パラメータに基づいて決定された調整後判定領域の内部において、関連時刻における検知データと予測データとの対応関係、つまり相関関係を決定し、検知データと予測データとの対応関係をまとめた相関データを生成する。
 ステップS106において、更新処理部105は、相関データに基づいて物体の状態値を更新する。
 以上が、実施の形態1に係る物体認識方法による1つの動作周期における一連の動作である。
<調整後判定領域パラメータの生成方法>
 図3は、調整後判定領域パラメータの生成方法の一例を説明する図である。図3の横軸は検知データ密度を、縦軸は調整後判定領域パラメータをそれぞれ表す。調整後判定領域パラメータには、最大値、つまり判定領域パラメータ最大値と、最小値、つまり判定領域パラメータ最小値が予め設定される。すなわち、調整後判定領域パラメータは、判定領域パラメータ最大値と判定領域パラメータ最小値の間の値となる。
 図3に示すように、検知データ密度が検知データ密度下限値未満の場合は、調整後判定領域パラメータは判定領域パラメータ最大値、つまり一定の値となる。検知データ密度が低い場合は、判定領域を広く設定して相関データが未相関となることを防止するが、あまりに判定領域を広く設定しすぎると、逆に誤相関が発生する可能性が増大するので、判定領域パラメータ最大値を設定して、調整後判定領域パラメータの上限としている。
 検知データ密度が検知データ密度上限値よりも大きい場合は、調整後判定領域パラメータは判定領域パラメータ最小値、つまり一定の値となる。検知データ密度が高い場合は、判定領域を狭く設定して相関データが誤相関となることを防止するが、あまりに判定領域を狭く設定しすぎると、逆に未相関が発生する可能性が増大するので、判定領域パラメータ最小値を設定して、調整後判定領域パラメータの下限としている。
 検知データ密度が検知データ密度下限値以上、検知データ密度上限値以下の範囲では、図3に示すように、調整後判定領域パラメータは検知データ密度に対して比例的に減少するように調整する。この範囲内では、検知データ密度が高くなるほど、判定領域を狭くしていく方が、誤相関を防止しやすくなるからである。
 以上をまとめると、調整後判定領域パラメータ生成部103は、検知データ密度が検知データ密度下限値未満の場合は調整後判定領域パラメータを予め設定された判定領域パラメータ最大値とし、検知データ密度が検知データ密度上限値よりも大きい場合は調整後判定領域パラメータを予め設定された判定領域パラメータ最小値とし、検知データ密度が検知データ密度下限値から検知データ密度上限値までの範囲内では調整後判定領域パラメータを検知データ密度に対して比例的に減少させるように調整する。
<実施の形態1に係る物体認識装置及び物体認識方法の適用例>
 実施の形態1に係る物体認識装置及び物体認識方法の特徴について、比較例と対比しながら説明する。図4及び図5は、実施の形態1に係る物体認識装置200を用いた物体認識方法の適用例を説明するための図である。図4及び図5は、位置空間を想定している。位置空間は、縦方向の軸を縦位置、横方向の軸を横位置、奥行き方向の軸を奥行き位置として表せられる。
<適用例I>
 図4において、左側には比較例による物体認識方法の動作を、右側には実施の形態1に係る物体認識方法の動作をそれぞれ表している。図4中の白抜き四角印は、1つ前の関連時刻における物体の状態値から予測された予測データ12を表し、白抜き丸印は検知データ10a、10bを表している。検知データ10aは予測データ12と同一物体に起因する検知データを表す。一方、検知データ10bは予測データ12とは異なる物体に起因する検知データを表す。なお、図4に示す一例では、位置以外の情報、例えば速度も考慮して相関を行うものとする。図4に示す一例では、予測データ12と検知データ10aが対応して更新データが演算されるのが正しい相関である。
 図4の左側に示した比較例では、判定領域は予測データ12によって予測される物体の位置を中心とした検知データ密度には依存しない、予め設定された一定の広さの領域である。つまり、実施の形態1に係る物体認識方法における特定領域と同一の領域を意味する。比較例では検知データ密度が高いため、判定領域の内部には予測データ12と相関関係のある検知データ10aが存在する一方、予測データ12とは相関関係のない検知データ10bも存在する。したがって、予測データ12と検知データ10aとの正しい相関関係が認識されず、予測データ12と検知データ10bとの間で誤って相関関係があるという、誤相関が発生する可能性がある。
 一方、図4の右側に示した実施の形態1に係る物体認識方法では、調整後判定領域パラメータ生成部103が判定領域の広さを表すパラメータを調整することにより調整後判定領域パラメータを生成して、調整後判定領域32を用いて予測データと検知データとの相関関係を決定する。図4に示される一例では、検知データ密度が高いため、調整後判定領域32は比較例による判定領域、つまり特定領域よりも相対的に狭く設定される。この結果、検知データ10bは調整後判定領域32の外側に位置するため、予測データ12と検知データ10aとの正しい相関関係を認識できる。つまり、実施の形態1に係る物体認識方法によると、比較例による物体認識方法と比べて誤相関が発生する可能性が激減する。
<適用例II>
 図5において、左側には比較例による物体認識方法の動作を、右側には実施の形態1に係る物体認識方法の動作をそれぞれ表している。図5中の白抜き四角印は1つ前の関連時刻における物体の状態値から予測された予測データ12を表し、白抜き丸印は検知データ10a、10bを表している。検知データ10aは予測データ12と同一物体に起因する検知データを表す。なお、図5に示す一例では、位置以外の情報、例えば速度も考慮して相関を行うものとする。図5に示す一例では、予測データ12と検知データ10aが対応して更新データが演算されるのが正しい相関である。
 図5の左側に示した比較例では、判定領域は予測データ12によって予測される物体の位置を中心とした検知データ密度には依存しない、予め設定された一定の広さの領域である。つまり、実施の形態1に係る物体認識方法における特定領域と同一の領域を意味する。比較例では検知データ密度が低いため、判定領域の内部には予測データ12と相関関係のある検知データ10aが存在しない。したがって、予測データ12と検知データ10aとの正しい相関関係が認識されず、未相関が発生する可能性がある。
 一方、図5の右側に示した実施の形態1に係る物体認識方法では、調整後判定領域パラメータ生成部103が判定領域の広さを表すパラメータを調整することにより調整後判定領域パラメータを生成して調整後判定領域32を用いて、予測データと検知データとの相関関係を決定する。図5に示される一例では検知データ密度が低いため、調整後判定領域32は比較例による判定領域、つまり特定領域よりも相対的に広く設定される。この結果、検知データ10aは調整後判定領域32の内側に位置するため、予測データ12と検知データ10aとの正しい相関関係を認識できる。つまり、実施の形態1に係る物体認識方法によると、比較例による物体認識方法と比べて未相関が発生する可能性が激減する。
<実施の形態1の効果>
 以上、実施の形態1に係る物体認識装置及び物体認識方法によれば、物体の予測データと検知データとの相関関係を決定するのに必要となる判定領域を、検知データ密度を用いて調整することが可能となるため、相関関係が誤った組み合わせとなること(誤相関)、または正しい検知データが判定領域外となること(未相関)をそれぞれ防止することが可能となる結果、精度の高い物体認識が可能になるという効果を奏する。
実施の形態2.
 図6は、実施の形態2に係る物体認識方法における、ある動作周期における動作を表すフローチャートである。実施の形態2に係る物体認識方法では、図2のフローチャートのステップS103に替えて、静止物体と移動物体とで別個に検知データ密度を計算するステップS203の処理を行う。静止物体と移動物体とでは検知データ密度が異なるので、検知データに基づいて生成される調整後判定領域パラメータも静止物体と移動物体とでは異なる値となる。対象物体が静止物体と移動物体のいずれであるかは、検知データから算出された速度または加速度に基づき判定する。物体の状態に応じて適切な検知データ密度を適用して相関関係を決定するので、より精度の高い物体認識が可能になるという効果を奏する。
 ステップS203における検知データ密度の計算に用いる特定領域30の調整には、上述した予測データの位置だけでなく、対象物体の速度及び加速度も用いることができる。速度を一例にとると、予測データから算出された速度に対して、縦方向に±3[km/h]、横方向に±3[km/h]、奥行き方向に±3[km/h]以内を特定領域30として、特定領域30の内側に存在する検知データ数から検知データ密度を計算する。これにより、複数の物理量に基づき調整後判定領域パラメータを設定することが可能となるため、単一物理量の場合よりも相関関係の精度をより高めることが可能になるという効果を奏する。
 さらに、図6のフローチャートのステップS102の後に、「検知物体の対地速度>閾値速度?」を判定するステップを追加して、判定結果がYesの場合は検知データ密度の計算対象に追加し、判定結果がNoの場合は閾値速度未満である検知物体の検知データ密度を計算対象から除外する処理を行っても良い。これにより、検知データ密度の計算負荷の軽減、及びガードレールのような大きな静止物体による相関関係の意図しない調整を防止することが可能となる効果を奏する。
 また、ステップS104の処理において、使用する検知データ密度を検知データ密度のフィルタ値としても良い。すなわち、受信データ処理部102は、検知データ密度のフィルタ値を検知データ密度に再設定する。例えば、ステップS104の前に、「L周期のフィルタ値を計算」するステップを追加する。フィルタ値の一例として、L周期(Lは1以上の整数)の移動平均値が挙げられる。かかる処理の追加により、突発的なノイズによる相関関係の意図しない調整を防止することができるという効果を奏する。
 なお、上述の実施の形態1による物体認識装置200の構成では、物体認識装置200は機能ブロックとして説明されているが、物体認識装置200を格納するハードウエアとしての構成の一例を図7に示す。ハードウエア800は、プロセッサ801と記憶装置802から構成される。記憶装置802は図示していないが、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。
 また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備しても良い。プロセッサ801は、記憶装置802から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ801にプログラムが入力される。また、プロセッサ801は、演算結果等のデータを記憶装置802の揮発性記憶装置に出力しても良いし、揮発性記憶装置を介して補助記憶装置にデータを保存しても良い。
 本開示は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
 従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
10a、10b 検知データ、12 予測データ、20 複数のセンサ、20a 第1のセンサ、20n 第nのセンサ、21 車両情報センサ、30 特定領域、32 調整後判定領域、101 データ受信部、102 受信データ処理部、103 調整後判定領域パラメータ生成部、104 相関処理部、105 更新処理部、106 予測処理部、107 時刻計測部、110 表示部、200 物体認識装置、800 ハードウエア、801 プロセッサ、802 記憶装置

Claims (7)

  1.  時刻を計測する時刻計測部と、
     複数のセンサのそれぞれから物体の検知データを受信し、前記受信した検知データごとに前記時刻計測部によって計測された時刻を関連時刻として関連付けるデータ受信部と、
     前記検知データに基づき、予測データを用いて設定された特定領域における検知データ密度を算出する受信データ処理部と、
     前記データ受信部によって関連付けられた関連時刻に対応する前記物体の状態値を、1つ前の関連時刻の前記物体の状態値から予測し、予測結果を前記予測データとして生成する予測処理部と、
     前記予測データ及び前記検知データが同一物体に基づくか否かの判定に用いられる判定領域に関して、前記検知データ密度に基づき前記判定領域の広さを表すパラメータを調整した調整後判定領域パラメータを生成する調整後判定領域パラメータ生成部と、
     前記調整後判定領域パラメータが表す調整後判定領域の内部において、前記予測データと前記関連時刻に対応する前記検知データとの相関関係を表す相関データを生成する相関処理部と、
     前記相関データに基づいて、前記物体の状態値を更新する更新処理部と、
    を備える物体認識装置。
  2.  前記調整後判定領域パラメータ生成部は、前記検知データ密度が検知データ密度下限値未満の場合は前記調整後判定領域パラメータを予め設定された判定領域パラメータ最大値とし、前記検知データ密度が検知データ密度上限値よりも大きい場合は前記調整後判定領域パラメータを予め設定された判定領域パラメータ最小値とし、前記検知データ密度が前記検知データ密度下限値から検知データ密度上限値までの範囲内では前記調整後判定領域パラメータを前記検知データ密度に対して比例的に減少させることを特徴とする請求項1に記載の物体認識装置。
  3.  前記受信データ処理部は、前記検知データから算出された前記物体の対地速度に基づいて前記物体が静止物体と移動物体のいずれであるかを判定し、前記静止物体の場合と前記移動物体の場合において前記検知データ密度を別個に算出することを特徴とする請求項1または2に記載の物体認識装置。
  4.  前記受信データ処理部は、前記検知データ密度を計算する際の前記特定領域を、前記検知データの位置、速度、及び加速度のいずれか1つ以上に基づいて決定することを特徴とする請求項1から3のいずれか1項に記載の物体認識装置。
  5.  前記受信データ処理部は、前記検知データ密度のフィルタ値を前記検知データ密度に再設定することを特徴とする請求項1から4のいずれか1項に記載の物体認識装置。
  6.  時刻を計測するステップと、
     複数のセンサのそれぞれから物体の検知データを受信し、前記受信した検知データごとに計測された前記時刻を関連時刻として関連付けるステップと、
     前記検知データに基づき特定領域における検知データ密度を算出するステップと、
     関連時刻に対応する前記物体の状態値を、1つ前の関連時刻の前記物体の状態値から予測し、予測結果を予測データとして生成するステップと、
     前記予測データ及び前記検知データが同一物体に基づくか否かの判定に用いられる判定領域に関して、前記検知データ密度に基づき前記特定領域の広さを表すパラメータを調整した調整後判定領域パラメータを生成するステップと、
     前記調整後判定領域パラメータが表す調整後判定領域の内部において、前記予測データと前記関連時刻に対応する前記検知データとの相関関係を表す相関データを生成するステップと、
     前記相関データに基づいて、前記物体の状態値を更新するステップと、
    を備える物体認識方法。
  7.  前記調整後判定領域パラメータを生成するステップは、前記検知データ密度が検知データ密度下限値未満の場合は前記調整後判定領域パラメータを予め設定された判定領域パラメータ最大値とし、前記検知データ密度が検知データ密度上限値よりも大きい場合は前記調整後判定領域パラメータを予め設定された判定領域パラメータ最小値とし、前記検知データ密度が前記検知データ密度下限値から検知データ密度上限値までの範囲内では前記調整後判定領域パラメータを前記検知データ密度に対して比例的に減少させることを特徴とする請求項6に記載の物体認識方法。
PCT/JP2022/027363 2022-07-12 2022-07-12 物体認識装置及び物体認識方法 WO2024013839A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/027363 WO2024013839A1 (ja) 2022-07-12 2022-07-12 物体認識装置及び物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/027363 WO2024013839A1 (ja) 2022-07-12 2022-07-12 物体認識装置及び物体認識方法

Publications (1)

Publication Number Publication Date
WO2024013839A1 true WO2024013839A1 (ja) 2024-01-18

Family

ID=89536177

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/027363 WO2024013839A1 (ja) 2022-07-12 2022-07-12 物体認識装置及び物体認識方法

Country Status (1)

Country Link
WO (1) WO2024013839A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10115678A (ja) * 1996-10-15 1998-05-06 Mitsubishi Electric Corp 目標相関統合装置
JP2001153947A (ja) * 1999-11-29 2001-06-08 Mitsubishi Electric Corp 追尾処理装置及び方法
JP2005227184A (ja) * 2004-02-13 2005-08-25 Mitsubishi Electric Corp 多目標追尾装置
JP2012163495A (ja) * 2011-02-08 2012-08-30 Hitachi Ltd センサ統合システム及びセンサ統合方法
JP2013181909A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 目標追跡装置、目標追跡プログラム、目標追跡システム、及び目標追跡方法
JP2018063130A (ja) * 2016-10-11 2018-04-19 株式会社デンソーテン レーダ装置および連続性判定方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10115678A (ja) * 1996-10-15 1998-05-06 Mitsubishi Electric Corp 目標相関統合装置
JP2001153947A (ja) * 1999-11-29 2001-06-08 Mitsubishi Electric Corp 追尾処理装置及び方法
JP2005227184A (ja) * 2004-02-13 2005-08-25 Mitsubishi Electric Corp 多目標追尾装置
JP2012163495A (ja) * 2011-02-08 2012-08-30 Hitachi Ltd センサ統合システム及びセンサ統合方法
JP2013181909A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 目標追跡装置、目標追跡プログラム、目標追跡システム、及び目標追跡方法
JP2018063130A (ja) * 2016-10-11 2018-04-19 株式会社デンソーテン レーダ装置および連続性判定方法

Similar Documents

Publication Publication Date Title
US9753130B2 (en) Target detection apparatus
US7289059B2 (en) Method and device for course prediction in motor vehicles
JP2004508627A (ja) 経路予測システムおよび方法
US11351997B2 (en) Collision prediction apparatus and collision prediction method
JP5012270B2 (ja) 物体検出装置
WO2018212292A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
US10793145B2 (en) Object recognition device, object recognition method, and vehicle control system
WO2020235396A1 (ja) 障害物検出装置および障害物検出方法
WO2020050363A1 (ja) 物体検出装置
US6947841B2 (en) Method for identifying obstacles for a motor vehicle, using at least three distance sensors for identifying the lateral extension of an object
JP6169146B2 (ja) 物体認識統合装置および物体認識統合方法
JP2010002396A (ja) 物体検出装置
WO2024013839A1 (ja) 物体認識装置及び物体認識方法
JP7152884B2 (ja) 車両用物体検知装置
US11624818B2 (en) Method and device for checking the plausibility of a transverse movement
TWI541152B (zh) Traffic safety system and its obstacle screening method
KR102456151B1 (ko) 레이더 및 카메라 기반의 센서 퓨전 시스템 및 주변 차량의 위치 산출 방법
KR102402088B1 (ko) 복수의 레이더를 이용한 이동체 검출 장치 및 그 동작 방법
KR102303612B1 (ko) 다중 센서 융합 방법 및 그 장치
JP6834020B2 (ja) 物体認識装置および物体認識方法
Polychronopoulos et al. Extended path prediction using camera and map data for lane keeping support
JP7412254B2 (ja) 物体認識装置および物体認識方法
JP2021196322A (ja) 外部状況推定装置
WO2018212290A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP7401273B2 (ja) 移動体の制御装置及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22951055

Country of ref document: EP

Kind code of ref document: A1