JP7074593B2 - Object detector - Google Patents

Object detector Download PDF

Info

Publication number
JP7074593B2
JP7074593B2 JP2018126779A JP2018126779A JP7074593B2 JP 7074593 B2 JP7074593 B2 JP 7074593B2 JP 2018126779 A JP2018126779 A JP 2018126779A JP 2018126779 A JP2018126779 A JP 2018126779A JP 7074593 B2 JP7074593 B2 JP 7074593B2
Authority
JP
Japan
Prior art keywords
evaluation
unit
region
distance
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018126779A
Other languages
Japanese (ja)
Other versions
JP2020008310A (en
Inventor
正和 池田
好浩 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018126779A priority Critical patent/JP7074593B2/en
Publication of JP2020008310A publication Critical patent/JP2020008310A/en
Application granted granted Critical
Publication of JP7074593B2 publication Critical patent/JP7074593B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Fixing By Use Of Radio Waves (AREA)

Description

本開示は、複数のセンサにより物体を検出する技術に関する。 The present disclosure relates to a technique for detecting an object by a plurality of sensors.

複数のセンサにより物体を検出する技術として、例えば特許文献1には、3つ以上のセンサのうち2組の異なるセンサの組み合わせのそれぞれにおいて、物体からの電波の到達時間の差を測定し、各組の到達時間差がセンサと物体との距離の差により生じることに基づいて物体の位置を検出する技術が記載されている。 As a technique for detecting an object by a plurality of sensors, for example, in Patent Document 1, the difference in arrival time of radio waves from an object is measured in each of two different combinations of sensors out of three or more sensors, and each of them is measured. A technique for detecting the position of an object based on the difference in the arrival time of a set caused by the difference in the distance between the sensor and the object is described.

各組のセンサが測定する到達時間の差に基づいて物体の位置を検出する場合、複数の信号が混信したり、センサを有する受信機に雑音が発生したりするために、各組のセンサにより複数の異なる到達時間差が測定されることがある。 When detecting the position of an object based on the difference in arrival time measured by each set of sensors, multiple signals may interfere with each other or noise may be generated in the receiver having the sensor. Multiple different arrival time differences may be measured.

そこで、特許文献1に記載の技術では、各組のセンサにより複数の異なる到達時間差が測定されると、基準となるセンサに対し他のセンサが受信した電波信号をそれぞれの到達時間差だけシフトし、シフトした電波信号同士の内積を算出する。正しい到達時間差同士の電波信号であれば、電波信号を到達時間差だけシフトすると、各組のセンサにとって同じ時刻に到達する電波信号になるので、他の到達時間差同士の電波信号同士の内積よりも大きい値になる。 Therefore, in the technique described in Patent Document 1, when a plurality of different arrival time differences are measured by each set of sensors, the radio signals received by other sensors are shifted with respect to the reference sensor by the respective arrival time differences. Calculate the inner product of the shifted radio signals. If the radio signals have the correct arrival time difference, shifting the radio signal by the arrival time difference results in a radio signal that reaches the same time for each set of sensors, so it is larger than the inner product of the radio signals of other arrival time differences. Become a value.

そして、特許文献1に記載の技術では、内積の値が大きく相関の高い組み合わせの電波信号の到達時間差に基づいて、物体の位置を検出しようとしている。 Then, in the technique described in Patent Document 1, the position of an object is to be detected based on the arrival time difference of a combination of radio signals having a large inner product value and a high correlation.

特開2014-44160号公報Japanese Unexamined Patent Publication No. 2014-44160

物体の位置を検出する場合、特許文献1に記載の技術のように、電波信号の到達時間差に基づいて、つまりセンサと物体との距離に基づいて物体の位置を検出する場合、複数のセンサの設置範囲内に物体が存在しているのであれば、複数のセンサのそれぞれと物体と距離の交点の位置を物体の位置として検出できる。 When detecting the position of an object, as in the technique described in Patent Document 1, when detecting the position of an object based on the arrival time difference of radio signals, that is, based on the distance between the sensor and the object, a plurality of sensors If the object exists within the installation range, the position of the intersection of each of the plurality of sensors and the object and the distance can be detected as the position of the object.

これに対し、複数のセンサの設置範囲の外側に物体が存在している場合、物体までの距離に対してセンサ同士の距離が近いと、物体までの距離は高精度に測定できるものの、センサに対する方位方向、つまり角度方向において、複数のセンサのそれぞれから物体までの距離の交点の位置を特定することは困難である。そのため、物体の位置の検出精度が低下するという課題がある。 On the other hand, when an object exists outside the installation range of multiple sensors, if the distance between the sensors is short with respect to the distance to the object, the distance to the object can be measured with high accuracy, but for the sensor. It is difficult to specify the position of the intersection of the distances from each of the plurality of sensors to the object in the azimuth direction, that is, the angular direction. Therefore, there is a problem that the detection accuracy of the position of the object is lowered.

本開示は、複数のセンサの設置範囲の外側に存在する物体の位置を高精度に検出する技術を提供することが望ましい。 It is desirable that the present disclosure provide a technique for detecting the position of an object existing outside the installation range of a plurality of sensors with high accuracy.

本開示の物体検出装置(10、40、50)は、複数のセンサ(2)が設置された設置範囲(4)の外側の検出領域(100、110)に存在する物体の位置を、複数のセンサが少なくとも測定するセンサと物体との距離情報に基づいて検出する物体検出装置であって、情報取得部(12)と、評価部(20)と、ピーク抽出部(30)と、物体検出部(32)と、を備えている。 The object detection device (10, 40, 50) of the present disclosure positions a plurality of objects existing in the detection area (100, 110) outside the installation range (4) in which the plurality of sensors (2) are installed. It is an object detection device that detects based on the distance information between the sensor and the object measured by the sensor at least, and is an information acquisition unit (12), an evaluation unit (20), a peak extraction unit (30), and an object detection unit. (32) and.

情報取得部は、複数のセンサから距離情報を取得する。評価部は、情報取得部が取得する距離情報に基づいて、検出領域が分割された複数の評価領域(102、112、150、160、162、170、172)のそれぞれにおいて、物体が存在する確からしさを表す評価値を設定する。 The information acquisition unit acquires distance information from a plurality of sensors. Based on the distance information acquired by the information acquisition unit, the evaluation unit ensures that the object exists in each of the plurality of evaluation areas (102, 112, 150, 160, 162, 170, 172) in which the detection area is divided. Set an evaluation value that expresses the uniqueness.

ピーク抽出部は、評価領域のそれぞれにおいて評価部が設定する評価値に基づいて、周囲の評価領域よりも物体が存在する確からしさが高いピークの評価値を有する評価領域を抽出する。物体検出部は、ピーク抽出部が抽出する評価領域の評価値に基づいて、評価領域に物体が存在するか否かを判定する。 The peak extraction unit extracts an evaluation region having a peak evaluation value with a higher probability that an object exists than the surrounding evaluation region, based on the evaluation value set by the evaluation unit in each of the evaluation regions. The object detection unit determines whether or not an object exists in the evaluation region based on the evaluation value of the evaluation region extracted by the peak extraction unit.

上記の本開示の構成によれば、複数のセンサが設置された設置範囲の外側の検出領域を複数の評価領域に分割し、複数のセンサが検出する物体との距離情報に基づいて、評価領域に物体が存在する確からしさを表す評価値を設定する。そして、周囲の評価領域に対しピークの評価値を有する評価領域を抽出する。 According to the configuration of the present disclosure described above, the detection area outside the installation range in which the plurality of sensors are installed is divided into a plurality of evaluation areas, and the evaluation area is based on the distance information to the object detected by the plurality of sensors. Set an evaluation value that indicates the certainty that an object exists in. Then, an evaluation region having a peak evaluation value with respect to the surrounding evaluation region is extracted.

これにより、複数のセンサが設置された設置範囲の外側の検出領域に存在し、複数のセンサがそれぞれ検出する距離の差が小さい物体であっても、周囲の評価領域に対してピークの評価値を有する評価領域の評価値に基づいて、評価領域に物体が存在するか否かを判定できる。したがって、複数のセンサが設置された設置範囲の外側に存在する物体の位置を高精度に検出できる。 As a result, even if the object exists in the detection area outside the installation range in which multiple sensors are installed and the difference in distance detected by the multiple sensors is small, the evaluation value of the peak is compared with the surrounding evaluation area. It is possible to determine whether or not an object exists in the evaluation area based on the evaluation value of the evaluation area having. Therefore, it is possible to detect the position of an object existing outside the installation range in which a plurality of sensors are installed with high accuracy.

尚、この欄および特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。 In addition, the reference numerals in parentheses described in this column and the scope of claims indicate the correspondence with the specific means described in the embodiment described later as one embodiment, and the technical scope of the present disclosure is defined. It is not limited.

第1実施形態の物体検出装置を示すブロック図。The block diagram which shows the object detection apparatus of 1st Embodiment. 測位距離に基づく物体の検出方法を示す模式図。The schematic diagram which shows the detection method of the object based on the positioning distance. 測位距離に基づく複数の物体の検出方法を示す模式図。The schematic diagram which shows the detection method of a plurality of objects based on a positioning distance. 検出領域を評価領域に分割した一例を示す模式図。The schematic diagram which shows an example which divided the detection area into an evaluation area. 検出領域を評価領域に分割した他の例を示す模式図。The schematic diagram which shows the other example which divided the detection area into an evaluation area. 距離誤差と距離分散とに基づく物体の検出方法を示す模式図。The schematic diagram which shows the detection method of the object based on the distance error and the distance variance. 第2実施形態の複数の部分検出領域を示す模式図。The schematic diagram which shows the plurality of partial detection regions of 2nd Embodiment. 第3実施形態の物体検出装置を示すブロック図。The block diagram which shows the object detection apparatus of 3rd Embodiment. 物体の検出された評価領域の分割を示す模式図。The schematic diagram which shows the division of the detected evaluation area of an object. 第4実施形態の物体検出装置を示すブロック図。The block diagram which shows the object detection apparatus of 4th Embodiment. 大きさの異なる評価領域の一例を示す模式図。The schematic diagram which shows an example of the evaluation area of a different size. 大きさの異なる評価領域の他の例を示す模式図。Schematic diagram showing other examples of evaluation regions of different sizes.

以下、本開示の実施形態を図に基づいて説明する。
[1.第1実施形態]
[1-1.構成]
図1に示す物体検出装置10は、例えば車両等の移動体に搭載され、移動体の周囲に存在する物体の位置を検出する。物体検出装置10は、物体の位置を測定する測位センサとして複数のミリ波レーダ2から、ミリ波レーダ2と物体との距離情報を取得する。尚、図1では3つのミリ波レーダ2を図示しているが、ミリ波レーダ2の数は複数であれば2つであってもよいし、3つより多くてもよい。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
The object detection device 10 shown in FIG. 1 is mounted on a moving body such as a vehicle and detects the position of an object existing around the moving body. The object detection device 10 acquires distance information between the millimeter wave radar 2 and the object from a plurality of millimeter wave radars 2 as a positioning sensor for measuring the position of the object. Although three millimeter-wave radars 2 are shown in FIG. 1, the number of millimeter-wave radars 2 may be two as long as it is plural, or may be more than three.

図2に示すように、ミリ波レーダ2は、ミリ波レーダ2が設置された設置範囲4の外側に存在する物体までの距離6を検出する。
物体検出装置10は、CPUと、RAM、ROM、フラッシュメモリ等の半導体メモリと、入出力インターフェースと、を備えるマイクロコンピュータを中心に構成されている。以下、半導体メモリを単にメモリとも言う。物体検出装置10は1つのマイクロコンピュータを搭載してもよいし、複数のマイクロコンピュータを搭載してもよい。
As shown in FIG. 2, the millimeter wave radar 2 detects a distance 6 to an object existing outside the installation range 4 in which the millimeter wave radar 2 is installed.
The object detection device 10 is mainly composed of a microcomputer including a CPU, semiconductor memories such as RAM, ROM, and flash memory, and an input / output interface. Hereinafter, the semiconductor memory is also simply referred to as a memory. The object detection device 10 may be equipped with one microcomputer or may be equipped with a plurality of microcomputers.

物体検出装置10の各種機能は、CPUが非遷移的実体的記録媒体に記憶されているプログラムを実行することにより実現される。この例では、メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。このプログラムをCPUが実行することで、プログラムに対応する方法が実行される。 Various functions of the object detection device 10 are realized by the CPU executing a program stored in a non-transitional substantive recording medium. In this example, the memory corresponds to a non-transitional substantive recording medium in which the program is stored. When the CPU executes this program, the method corresponding to the program is executed.

物体検出装置10は、CPUがプログラムを実行することで実現される機能の構成として、情報取得部12と、評価部20と、ピーク抽出部30と、物体検出部32とを備えている。物体検出装置10を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部または全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、またはアナログ回路、あるいはこれらの組合せによって実現してもよい。 The object detection device 10 includes an information acquisition unit 12, an evaluation unit 20, a peak extraction unit 30, and an object detection unit 32 as a configuration of functions realized by the CPU executing a program. The method for realizing these elements constituting the object detection device 10 is not limited to software, and a part or all of the elements may be realized by using one or a plurality of hardware. For example, when the above function is realized by an electronic circuit which is hardware, the electronic circuit may be realized by a digital circuit including a large number of logic circuits, an analog circuit, or a combination thereof.

情報取得部12は、ミリ波レーダ2から、物体までの距離を測定した距離情報を取得する。情報取得部12がミリ波レーダ2から取得する物体までの距離情報に基づいて、距離の交点の位置を検出しようとすると、図2に示すように、交点までの距離は特定できるが、ミリ波レーダ2に対して方位方向、つまり角度方向に交点が重なる範囲8が生じる。 The information acquisition unit 12 acquires distance information obtained by measuring the distance to an object from the millimeter wave radar 2. When the information acquisition unit 12 tries to detect the position of the intersection of distances based on the distance information from the millimeter wave radar 2 to the object, as shown in FIG. 2, the distance to the intersection can be specified, but the millimeter wave. A range 8 in which the intersections overlap in the directional direction, that is, in the angular direction with respect to the radar 2 is generated.

つまり、ミリ波レーダ2に対して角度方向において、物体の位置の誤差が大きくなっている。このままでは、物体の位置を高精度に検出できない。
図3に示すように、「+」が示す位置に物体が実際に複数存在する場合も同様に、ミリ波レーダ2に対して、実際に物体が存在する位置以外にも、距離の交点が重なる範囲が生じる。したがって、物体が存在する位置を検出することは困難である。
That is, the error in the position of the object is large in the angular direction with respect to the millimeter wave radar 2. If nothing is done, the position of the object cannot be detected with high accuracy.
As shown in FIG. 3, when a plurality of objects actually exist at the positions indicated by “+”, the intersections of distances overlap with the millimeter wave radar 2 in addition to the positions where the objects actually exist. A range arises. Therefore, it is difficult to detect the position where the object exists.

そこで、本実施形態では、例えば図4に示すように、車両の前方に対して左右にそれぞれ90°、かつ車両から50mの範囲に検出領域100を設定し、角度方向に10°間隔、距離方向に5m間隔で検出領域100を複数の扇状の評価領域102に分割する。 Therefore, in the present embodiment, for example, as shown in FIG. 4, the detection areas 100 are set in a range of 90 ° to the left and right with respect to the front of the vehicle and 50 m from the vehicle, and the detection areas 100 are set at intervals of 10 ° in the angular direction and in the distance direction. The detection area 100 is divided into a plurality of fan-shaped evaluation areas 102 at intervals of 5 m.

図4に示す検出領域100と評価領域102との設定以外にも、図5に示すように、ミリ波レーダ2に対して前方方向と左右方向とに50mの矩形の検出領域110を設定し、5m間隔の格子状に分割した評価領域112を設定してもよい。 In addition to the setting of the detection area 100 and the evaluation area 102 shown in FIG. 4, as shown in FIG. 5, a rectangular detection area 110 of 50 m is set in the forward direction and the left-right direction with respect to the millimeter wave radar 2. The evaluation area 112 divided into a grid pattern at intervals of 5 m may be set.

尚、検出領域100、110を複数の評価領域に分割するときの評価領域の大きさは、要求される物体の位置の検出精度によって適宜決定される。小さい評価領域に分割されるほど、物体の位置の検出精度は高くなる。実際には、検出領域100、110を分割して設定される評価領域の大きさは、図4、図5に示す大きさよりも小さい。 The size of the evaluation area when the detection areas 100 and 110 are divided into a plurality of evaluation areas is appropriately determined by the detection accuracy of the required position of the object. The smaller the evaluation area, the higher the accuracy of detecting the position of the object. Actually, the size of the evaluation area set by dividing the detection areas 100 and 110 is smaller than the size shown in FIGS. 4 and 5.

評価部20は、評価領域102または評価領域112において、物体が存在する確からしさを表す評価値を設定する。評価部20は、評価値を設定するために、誤差評価部22と分散評価部24とを備えている。 The evaluation unit 20 sets an evaluation value indicating the certainty that an object exists in the evaluation area 102 or the evaluation area 112. The evaluation unit 20 includes an error evaluation unit 22 and a dispersion evaluation unit 24 in order to set an evaluation value.

誤差評価部22は、評価領域102、112毎に、ミリ波レーダ2が検出する物体までの距離誤差を算出する。以下、図4に示す評価領域102において、誤差評価部22が算出する距離誤差について説明する。 The error evaluation unit 22 calculates the distance error to the object detected by the millimeter wave radar 2 for each of the evaluation areas 102 and 112. Hereinafter, the distance error calculated by the error evaluation unit 22 in the evaluation area 102 shown in FIG. 4 will be described.

まず、ミリ波レーダ2の数をNs、物体の数をNo、距離方向の検出領域100の分割数をNr、評価領域102の距離方向の長さをΔr、距離方向の評価領域102のインデックスをnr=1、・・・、Nr、角度方向の検出領域100の分割数をNp、評価領域102の角度方向の角度をΔp、角度方向の評価領域102のインデックスをnp=1、・・・、Np、ミリ波レーダ2のインデックスをn=1、・・・、Ns、n番目のミリ波レーダ2によるNo個の物体に対する測位距離をRn=(rn1、・・・、rnNo)、n番目のミリ波レーダ2の座標をLradar_n=(xn、yn)とする。 First, the number of millimeter-wave radars 2 is Ns, the number of objects is No, the number of divisions of the detection area 100 in the distance direction is Nr, the length of the evaluation area 102 in the distance direction is Δr, and the index of the evaluation area 102 in the distance direction is set. nr = 1, ..., Nr, the number of divisions of the detection area 100 in the angular direction is Np, the angle in the angular direction of the evaluation area 102 is Δp, and the index of the evaluation area 102 in the angular direction is np = 1, ... Np, the index of the millimeter wave radar 2 is n = 1, ..., Ns, the positioning distance for the No. object by the nth millimeter wave radar 2 is Rn = (rn1, ..., rnNo), the nth. Let the coordinates of the millimeter wave radar 2 be LRadar_n = (xn, yn).

インデックス(nr、np)の評価領域102の座標Lmesh(nr、np)は次式(1)で表される。 The coordinates Lmesh (nr, np) of the evaluation area 102 of the index (nr, np) are expressed by the following equation (1).

Figure 0007074593000001
そして、各ミリ波レーダ2と各評価領域102との距離rmesh(nr、np、n)は次式(2)で表される。
Figure 0007074593000001
The distance rmeth (nr, np, n) between each millimeter-wave radar 2 and each evaluation region 102 is expressed by the following equation (2).

Figure 0007074593000002
尚、式(2)は、各ミリ波レーダ2のxy座標と各評価領域102のxy座標とのそれぞれの差の2乗の和の平方根を求めていることを表している。
Figure 0007074593000002
The equation (2) represents that the square root of the sum of the squares of the differences between the xy coordinates of each millimeter-wave radar 2 and the xy coordinates of each evaluation area 102 is obtained.

次に、インデックス(nr、np)の評価領域102において、n番目のミリ波レーダ2が検出する複数の物体までの距離Rn=(rn1、・・・、rnNo)のそれぞれと、評価領域102とn番目のミリ波レーダ2との距離rmesh(nr、np、n)との差が最小となる最小距離誤差δ(nr、np、n)は、次式(3)から算出される。 Next, in the evaluation area 102 of the index (nr, np), the distances Rn = (rn1, ..., rnNo) to the plurality of objects detected by the nth millimeter wave radar 2 and the evaluation area 102. The minimum distance error δ (nr, np, n) that minimizes the difference from the distance rmesh (nr, np, n) with the nth millimeter-wave radar 2 is calculated from the following equation (3).

Figure 0007074593000003
そして、各評価領域102において式(3)で算出した最小距離誤差を、すべてのミリ波レーダ2について加算した合計である各評価領域102の距離誤差ε(nr、np)は、次式(4)から算出される。
Figure 0007074593000003
Then, the distance error ε (nr, np) of each evaluation area 102, which is the sum of the minimum distance error calculated by the equation (3) in each evaluation area 102 added for all the millimeter wave radars 2, is the following equation (4). ) Is calculated.

Figure 0007074593000004
式(4)が示す距離誤差ε(nr、np)の値が小さいほど、該当する評価領域に物体が存在する確からしさが高いことを表している。
Figure 0007074593000004
The smaller the value of the distance error ε (nr, np) shown in the equation (4), the higher the probability that the object exists in the corresponding evaluation region.

次に説明する図6では、「+」が示す点の密集度が高い箇所が、物体が存在する確からしさが高い箇所を表している。図6の上段には、距離誤差に基づいた物体が存在する確からしさが示されている。 In FIG. 6, which will be described next, the points with high density of the points indicated by “+” represent the points with high probability that the object exists. The upper part of FIG. 6 shows the certainty that an object exists based on the distance error.

尚、図6では、「+」が示す点の密集度によって物体が存在する確からしさを示しているが、色の濃淡、あるいは異なる色により、物体が存在する確からしさを画像データで表示してもよい。 In FIG. 6, the probability that the object exists is shown by the density of the points indicated by "+", but the probability that the object exists is displayed as image data by the shade of color or different colors. May be good.

図6の上段から分かるように、式(4)が表す距離誤差は、ミリ波レーダ2に対して距離方向の精度は高いが、ミリ波レーダ2に対して方位方向、つまり角度方向の精度は低い。
そこで、分散評価部24は、次式(5)により、各評価領域102において、式(3)で算出した最小距離誤差δ(nr、np、n)の分散を表す距離分散σ(nr、np)を算出する。式(5)において、E(δ(nr、np))は、各評価領域102における複数のレーダ2に対応する最小距離誤差の平均を表している。
As can be seen from the upper part of FIG. 6, the distance error represented by the equation (4) is highly accurate in the distance direction with respect to the millimeter wave radar 2, but is accurate in the directional direction, that is, in the angular direction with respect to the millimeter wave radar 2. low.
Therefore, the variance evaluation unit 24 uses the following equation (5) to represent the variance of the minimum distance error δ (nr, np, n) calculated by the equation (3) in each evaluation region 102. ) Is calculated. In the equation (5), E (δ (nr, np)) represents the average of the minimum distance errors corresponding to the plurality of radars 2 in each evaluation region 102.

Figure 0007074593000005
式(5)が示す距離分散σ(nr、np)の値が小さいほど、該当する評価領域102に物体が存在する確からしさが高いことを表している。
Figure 0007074593000005
The smaller the value of the distance variance σ (nr, np) shown in the equation (5), the higher the probability that the object exists in the corresponding evaluation region 102.

図6の中段から分かるように、式(5)が表す距離分散は、ミリ波レーダ2に対して角度方向の精度は高いが、ミリ波レーダ2に対して距離方向の精度は低いことを表している。
次に、図6の上段に示す距離誤差と図6の中段に示す距離分散とを加算する。距離誤差と距離分散とを加算する場合、物体の誤検出を抑制するために、各評価領域において、距離誤差が、評価領域102の距離方向の長さΔrをミリ波レーダ2の数で割った値Δr/Nsより大きい場合、その評価領域102における距離誤差には無限大が設定される。
As can be seen from the middle stage of FIG. 6, the distance variance represented by the equation (5) indicates that the accuracy in the angular direction is higher than that of the millimeter wave radar 2, but the accuracy in the distance direction is lower than that of the millimeter wave radar 2. ing.
Next, the distance error shown in the upper part of FIG. 6 and the distance variance shown in the middle part of FIG. 6 are added. When adding the distance error and the distance dispersion, in order to suppress erroneous detection of the object, the distance error divides the length Δr of the evaluation area 102 in the distance direction by the number of millimeter wave radars 2. If the value is greater than Δr / Ns, the distance error in the evaluation region 102 is set to infinity.

さらに、各評価領域102において、距離分散が、評価領域の距離方向の長さΔrを所定の除数σthで割った値Δr/σthより大きい場合、その評価領域における距離分散には無限大が設定される。尚、除数σthは、誤検出の抑制の程度によって経験的に設定される。除数σthが大きいほど物体の誤検出を抑制できるが、存在している物体を検出できない場合もある。 Further, in each evaluation region 102, when the distance variance is larger than the value Δr / σth obtained by dividing the length Δr in the distance direction of the evaluation region by a predetermined divisor σth, the distance variance in the evaluation region is set to infinity. To. The divisor σth is empirically set according to the degree of suppression of false detection. The larger the divisor σth, the more the false detection of the object can be suppressed, but there are cases where the existing object cannot be detected.

図6の下段に、距離誤差と距離分散とを加算した値を評価領域102の評価値とした結果を示す。ピーク抽出部30は、残った評価領域102のうち、物体が存在する確からしさの高さが、例えば前後の距離方向と左右の角度方向に存在する周囲の評価領域102よりも高いピークの評価値を有する評価領域102を、検出領域100から抽出する。 The lower part of FIG. 6 shows the result of using the value obtained by adding the distance error and the distance variance as the evaluation value of the evaluation area 102. In the peak extraction unit 30, among the remaining evaluation regions 102, the evaluation value of the peak whose height of certainty that the object exists is higher than that of the surrounding evaluation regions 102 existing in the front-back distance direction and the left-right angular direction, for example. The evaluation region 102 having the above is extracted from the detection region 100.

本実施形態では、ピーク抽出部30は、周囲の評価領域102よりも評価値の低いピークの評価値を有する評価領域を検出領域100から抽出する。
尚、距離誤差と距離分散とに対し重視する精度に応じて重み付けを行ってから、距離誤差と距離分散とを加算してもよい。例えば、距離精度よりも方位精度を重視するのであれば、方位精度を表す距離分散を式(5)から算出される値よりも大きくしてから距離誤差と距離分散とを加算してもよい。
In the present embodiment, the peak extraction unit 30 extracts an evaluation region having a peak evaluation value having a lower evaluation value than the surrounding evaluation region 102 from the detection region 100.
It should be noted that weighting may be performed according to the accuracy with which the distance error and the distance variance are emphasized, and then the distance error and the distance variance may be added. For example, if the directional accuracy is more important than the distance accuracy, the distance variance representing the directional accuracy may be made larger than the value calculated from the equation (5), and then the distance error and the distance variance may be added.

また、ミリ波レーダ2に対して距離方向よりも角度方向に物体を誤検出する可能性が高いので、ピーク抽出部30は、ピークの評価値を有する評価領域102と評価値を比較する周囲の評価領域102について、角度方向の評価領域102の数を距離方向の評価領域102の数よりも多くすることが望ましい。例えば、距離方向の評価領域102の数を前後にそれぞれ1つにすると、角度方向の評価領域102の数を左右にそれぞれ2つにする。 Further, since there is a high possibility that an object is erroneously detected in the angular direction rather than the distance direction with respect to the millimeter wave radar 2, the peak extraction unit 30 has the evaluation area 102 having the evaluation value of the peak and the surrounding area for comparing the evaluation value. For the evaluation area 102, it is desirable that the number of evaluation areas 102 in the angular direction is larger than the number of evaluation areas 102 in the distance direction. For example, if the number of evaluation areas 102 in the distance direction is one in the front-rear direction, the number of evaluation areas 102 in the angular direction is two in the left-right direction.

図6の下段に示すように、物体検出部32は、ピーク抽出部30が抽出したピークの評価値を有する点線の円120で示される位置の評価領域102に物体が存在すると判定する。 As shown in the lower part of FIG. 6, the object detection unit 32 determines that the object exists in the evaluation region 102 at the position indicated by the dotted circle 120 having the evaluation value of the peak extracted by the peak extraction unit 30.

[1-3.効果]
以上説明した第1実施形態では、以下の効果を得ることができる。
(1a)物体が存在する可能性として、物体が存在する距離方向の精度は高いが角度方向の精度は低い距離誤差と、物体が存在する角度方向の精度は高いが距離方向の精度は低い距離分散とを加算することにより、距離方向の精度と角度方向との両方において物体が存在する精度の高い評価領域を抽出することができる。
[1-3. effect]
In the first embodiment described above, the following effects can be obtained.
(1a) As a possibility that an object exists, the accuracy in the distance direction in which the object exists is high but the accuracy in the angular direction is low, and the distance error in the angular direction in which the object exists is high but the accuracy in the distance direction is low. By adding the variance, it is possible to extract a highly accurate evaluation region in which the object exists in both the distance direction and the angular direction.

これにより、複数のミリ波レーダ2が設置された設置範囲4の外側の検出領域100、110に存在する物体の位置を、距離を測定するミリ波レーダ2の検出結果に基づいて高精度に検出できる。 As a result, the positions of objects existing in the detection areas 100 and 110 outside the installation range 4 in which the plurality of millimeter wave radars 2 are installed are detected with high accuracy based on the detection results of the millimeter wave radar 2 that measures the distance. can.

(1b)各評価領域において、距離誤差が、評価領域の距離方向の長さΔrをミリ波レーダ2の数で割った値Δr/Nsより大きい場合、その評価領域における距離誤差に無限大が設定され、距離分散が、評価領域の距離方向の長さΔrを所定の除数σthで割った値Δr/σthより大きい場合、その評価領域における距離分散に無限大が設定される。これにより、無限大が設定された評価領域には物体が存在しないと判定できるので、物体の誤検出を抑制できる。 (1b) In each evaluation region, when the distance error is larger than the value Δr / Ns obtained by dividing the length Δr in the distance direction of the evaluation region by the number of millimeter wave radars 2, infinity is set for the distance error in the evaluation region. When the distance dispersion is larger than the value Δr / σth obtained by dividing the length Δr in the distance direction of the evaluation region by a predetermined divisor σth, the distance dispersion in the evaluation region is set to infinity. As a result, it can be determined that the object does not exist in the evaluation area in which infinity is set, so that erroneous detection of the object can be suppressed.

[2.第2実施形態]
[2-1.第1実施形態との相違点]
第2実施形態の基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
[2-1. Differences from the first embodiment]
Since the basic configuration of the second embodiment is the same as that of the first embodiment, the differences will be described below. It should be noted that the same reference numerals as those in the first embodiment indicate the same configuration, and the preceding description will be referred to.

図7に示すように、検出領域100は3つの部分検出領域130、132、134に分割されている。物体検出装置10は、1回の物体検出処理で検出領域100から物体を検出するのではなく、部分検出領域130、132、134のそれぞれについて順次、物体検出処理を実行する。 As shown in FIG. 7, the detection area 100 is divided into three partial detection areas 130, 132, and 134. The object detection device 10 does not detect an object from the detection area 100 in one object detection process, but sequentially executes the object detection process for each of the partial detection areas 130, 132, and 134.

部分検出領域130、132、134のそれぞれについて、分割して生成される評価領域の形状は、図4に示す扇状、あるいは図5に示す格子状のいずれであってもよい。
隣接する部分検出領域130と部分検出領域132とは領域が重なる重複領域140を有し、隣接する部分検出領域132と部分検出領域134とは領域が重なる重複領域142を有している。
The shape of the evaluation region generated by dividing each of the partial detection regions 130, 132, and 134 may be either a fan shape shown in FIG. 4 or a grid shape shown in FIG.
The adjacent partial detection area 130 and the partial detection area 132 have an overlapping area 140 in which the areas overlap, and the adjacent partial detection area 132 and the partial detection area 134 have an overlapping area 142 in which the areas overlap.

情報取得部12は、部分検出領域130、132、134のそれぞれについて、図7の矢印が示すように順次、第1実施形態と同様にミリ波レーダ2から物体の距離情報を取得する。 As shown by the arrow in FIG. 7, the information acquisition unit 12 sequentially acquires the distance information of the object from the millimeter wave radar 2 for each of the partial detection areas 130, 132, and 134, as in the first embodiment.

ピーク抽出部30は、取得した距離情報から算出される距離誤差と距離分散とを加算した評価値に基づいて、物体が存在する確からしさが周囲の評価領域よりも高いピークの評価値を有する評価領域を抽出し、抽出した結果をメモリに記憶する。 The peak extraction unit 30 has an evaluation value having a peak evaluation value in which the certainty that the object exists is higher than the surrounding evaluation area, based on the evaluation value obtained by adding the distance error calculated from the acquired distance information and the distance variance. The area is extracted and the extracted result is stored in the memory.

そして、ピーク抽出部30は、次の部分検出領域において、物体が存在する確からしさが周囲の評価領域よりも高いピークの評価値を有する評価領域を抽出し、抽出した結果をメモリに記憶する。 Then, in the next partial detection region, the peak extraction unit 30 extracts an evaluation region having a peak evaluation value in which the certainty that the object exists is higher than that of the surrounding evaluation region, and stores the extracted result in the memory.

物体検出部32は、重複領域140、142のそれぞれにおいて、同じ評価領域がピークの評価値を有する評価領域として抽出されている場合、重複領域140であれば部分検出領域130、132のそれぞれの評価領域の距離誤差と距離分散とを加算した値を平均し、重複領域142であれば部分検出領域132、134のそれぞれの評価領域の距離誤差と距離分散とを加算した値の平均値を算出し、該当する評価領域の評価値とする。 When the same evaluation area is extracted as an evaluation area having a peak evaluation value in each of the overlapping areas 140 and 142, the object detection unit 32 evaluates the partial detection areas 130 and 132, respectively, if the overlapping area 140. The value obtained by adding the distance error and the distance variance of the regions is averaged, and if the overlapping region 142, the average value of the values obtained by adding the distance error and the distance variance of the respective evaluation regions of the partial detection regions 132 and 134 is calculated. , The evaluation value of the corresponding evaluation area.

あるいは、物体検出部32は、重複領域140であれば部分検出領域130、132の評価領域の距離誤差と距離分散とを加算した値のうち一方の値として、例えば小さい値を選択し、重複領域142であれば部分検出領域132、134のそれぞれの評価領域の距離誤差と距離分散とを加算した値のうち小さい値を選択し、該当する評価領域の評価値とする。 Alternatively, if the overlapping area 140, the object detection unit 32 selects, for example, a small value as one of the values obtained by adding the distance error and the distance variance of the evaluation areas of the partial detection areas 130 and 132, and the overlapping area. If it is 142, the smaller value is selected from the value obtained by adding the distance error and the distance variance of the respective evaluation areas of the partial detection areas 132 and 134, and is used as the evaluation value of the corresponding evaluation area.

そして、物体検出部32は、検出領域100において、該当する評価領域の評価値に基づいて、該当する評価領域に物体が存在するか否かを判定する。
[2-2.効果]
以上説明した第2実施形態では、第1実施形態の効果(1a)、(1b)に加え、以下の効果(2a)を得ることができる。
Then, the object detection unit 32 determines whether or not an object exists in the corresponding evaluation area based on the evaluation value of the corresponding evaluation area in the detection area 100.
[2-2. effect]
In the second embodiment described above, in addition to the effects (1a) and (1b) of the first embodiment, the following effects (2a) can be obtained.

(2a)検出領域100に存在する物体を1回の物体検出処理で検出するのではなく、検出領域100を複数の部分検出領域130、132、134に分割し、それぞれの部分検出領域に対して順次、物体検出処理を実行するので、物体を検出するために使用するメモリ量を低減できる。 (2a) Instead of detecting an object existing in the detection area 100 by one object detection process, the detection area 100 is divided into a plurality of partial detection areas 130, 132, and 134, and the detection area 100 is divided into a plurality of partial detection areas 130, 132, and 134. Since the object detection process is sequentially executed, the amount of memory used for detecting the object can be reduced.

したがって、部分検出領域130、132、134のそれぞれを分割して生成される評価領域の大きさを、第1実施形態の評価領域102、112より小さくしても、物体を検出するために使用するメモリ量を低減できる。 Therefore, even if the size of the evaluation area generated by dividing each of the partial detection areas 130, 132, and 134 is smaller than the evaluation areas 102 and 112 of the first embodiment, it is used for detecting the object. The amount of memory can be reduced.

上記第2実施形態において、重複領域140、142は、部分検出領域130、132、134同士の境界の評価領域に対応する。
[3.第3実施形態]
[3-1.第1実施形態との相違点]
第3実施形態の基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
In the second embodiment, the overlapping regions 140 and 142 correspond to the evaluation region of the boundary between the partial detection regions 130, 132 and 134.
[3. Third Embodiment]
[3-1. Differences from the first embodiment]
Since the basic configuration of the third embodiment is the same as that of the first embodiment, the differences will be described below. It should be noted that the same reference numerals as those in the first embodiment indicate the same configuration, and the preceding description will be referred to.

図8に示す第3実施形態の物体検出装置40は、第1実施形態の物体検出装置10の構成に加え、分割部42を備えている。
そして、第3実施形態の検出領域110は、図9の上段に示すように、第1実施形態の評価領域112よりも大きな評価領域150に分割されている。
The object detection device 40 of the third embodiment shown in FIG. 8 includes a division portion 42 in addition to the configuration of the object detection device 10 of the first embodiment.
Then, as shown in the upper part of FIG. 9, the detection area 110 of the third embodiment is divided into an evaluation area 150 larger than the evaluation area 112 of the first embodiment.

分割部42は、物体が存在すると物体検出部32が判定した評価領域150を、評価領域150よりも小さい複数の小領域152に分割する。
ピーク抽出部30は、物体が検出された評価領域150の複数の小領域152のそれぞれに対して算出された距離誤差と距離分散とを加算した評価値に基づいて、物体が存在する確からしさが周囲の評価領域よりも高いピークの評価値を有する小領域152を抽出する。
The division unit 42 divides the evaluation area 150 determined by the object detection unit 32 that an object exists into a plurality of small areas 152 smaller than the evaluation area 150.
The peak extraction unit 30 determines the certainty that the object exists based on the evaluation value obtained by adding the distance error and the distance variance calculated for each of the plurality of small areas 152 of the evaluation area 150 in which the object is detected. A small region 152 having an evaluation value of a peak higher than that of the surrounding evaluation region is extracted.

物体検出部32は、ピーク抽出部30により抽出されたピークの評価値を有する小領域152の評価値に基づいて、小領域に152に物体が存在するか否かを判定する。
[3-2.効果]
以上説明した第3実施形態では、第1実施形態の効果(1a)、(1b)に加え、以下の効果(3a)を得ることができる。
The object detection unit 32 determines whether or not an object exists in the small area 152 based on the evaluation value of the small area 152 having the evaluation value of the peak extracted by the peak extraction unit 30.
[3-2. effect]
In the third embodiment described above, in addition to the effects (1a) and (1b) of the first embodiment, the following effects (3a) can be obtained.

(3a)検出領域100において物体の存在が検出された評価領域150については、評価領域150をさらに分割した小領域152について物体を検出する。これにより、検出領域100を最初から小さな小領域152に分割して物体を検出するよりも、使用するメモリ量と計算時間とを低減できる。 (3a) For the evaluation region 150 in which the presence of the object is detected in the detection region 100, the object is detected in the small region 152 further divided into the evaluation region 150. As a result, the amount of memory used and the calculation time can be reduced as compared with the case where the detection area 100 is divided into small small areas 152 from the beginning to detect an object.

[4.第4実施形態]
[4-1.第1実施形態との相違点]
第4実施形態の基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[4. Fourth Embodiment]
[4-1. Differences from the first embodiment]
Since the basic configuration of the fourth embodiment is the same as that of the first embodiment, the differences will be described below. It should be noted that the same reference numerals as those in the first embodiment indicate the same configuration, and the preceding description will be referred to.

図10に示す第4実施形態の物体検出装置50は、第1実施形態の物体検出装置10の構成に加え、分割部52を備えている。
分割部52は、評価部20が評価領域の評価値を設定する処理の前に、情報取得部12が取得するミリ波レーダ2が測定する距離情報に基づいて、図11、図12に示すように、検出領域110において、物体が存在する可能性が低い箇所は大きい評価領域160、170に分割し、物体が存在する可能性が高い箇所は評価領域160、170よりも小さい評価領域162、172に分割する。
The object detection device 50 of the fourth embodiment shown in FIG. 10 includes a division portion 52 in addition to the configuration of the object detection device 10 of the first embodiment.
As shown in FIGS. 11 and 12, the division unit 52 is based on the distance information measured by the millimeter wave radar 2 acquired by the information acquisition unit 12 before the processing in which the evaluation unit 20 sets the evaluation value of the evaluation area. In addition, in the detection area 110, the areas where the possibility of the presence of an object is low are divided into large evaluation areas 160 and 170, and the areas where the object is likely to exist are the evaluation areas 162 and 172 smaller than the evaluation areas 160 and 170. Divide into.

物体検出部32は、ピークの評価値を有する評価領域160、162、170、172の評価値に基づいて、評価領域160、162、170、172に物体が存在するか否かを判定する。 The object detection unit 32 determines whether or not an object exists in the evaluation regions 160, 162, 170, and 172 based on the evaluation values of the evaluation regions 160, 162, 170, and 172 having the evaluation values of the peaks.

[4-2.効果]
以上説明した第4実施形態では、第1実施形態の効果(1a)、(1b)に加え、以下の効果(4a)を得ることができる。
[4-2. effect]
In the fourth embodiment described above, in addition to the effects (1a) and (1b) of the first embodiment, the following effects (4a) can be obtained.

(4a)検出領域100において、物体が存在する可能性が低い箇所は大きい評価領域160、170に分割し、物体が存在する可能性が高い箇所は小さい評価領域162、172に分割する。これにより、検出領域100を最初から小さな評価領域162、172に分割して物体を検出するよりも、使用するメモリ量と計算時間とを低減できる。 (4a) In the detection region 100, the portion where the possibility of the presence of the object is low is divided into the large evaluation regions 160 and 170, and the portion where the possibility of the presence of the object is high is divided into the small evaluation regions 162 and 172. As a result, the amount of memory used and the calculation time can be reduced as compared with the case where the detection area 100 is divided into small evaluation areas 162 and 172 from the beginning to detect an object.

[5.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上記実施形態に限定されることなく、種々変形して実施することができる。
[5. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be variously modified and implemented.

(1)上記実施形態では、物体までの距離を測位する測位センサとして、ミリ波レーダ2を使用した。ミリ波レーダ2以外にも、探査波を照射して物体までの距離を測位する測位センサであれば、LiDAR、ソナー等を使用してもよい。 (1) In the above embodiment, the millimeter wave radar 2 is used as a positioning sensor for positioning the distance to an object. In addition to the millimeter wave radar 2, LiDAR, sonar, or the like may be used as long as it is a positioning sensor that irradiates an exploration wave to determine the distance to an object.

(2)上記実施形態では、物体検出装置が搭載される移動体として車両以外に、自転車、車椅子、ロボット等の移動体に物体検出装置を搭載してもよい。
(3)物体検出装置は移動体に限らず、静止物体等の固定位置に設置されてもよい。
(2) In the above embodiment, the object detection device may be mounted on a moving body such as a bicycle, a wheelchair, or a robot in addition to the vehicle as the moving body on which the object detection device is mounted.
(3) The object detection device is not limited to a moving object, and may be installed at a fixed position such as a stationary object.

(4)上記実施形態では、ピーク抽出部30は、距離誤差と距離分散とを加算した値を評価領域の評価値とし、周囲の評価領域102よりも物体が存在する確からしさが高いピークの評価値を有する評価領域を抽出した。これに対し、評価値として、距離誤差と距離分散との両方が周囲の評価領域102よりも物体が存在する確からしさが高いピークを有する評価領域を抽出してもよい。 (4) In the above embodiment, the peak extraction unit 30 sets the value obtained by adding the distance error and the distance variance as the evaluation value of the evaluation area, and evaluates the peak with a higher probability that the object exists than the surrounding evaluation area 102. Evaluation areas with values were extracted. On the other hand, as the evaluation value, an evaluation region having a peak in which both the distance error and the distance variance have a higher probability that the object exists than the surrounding evaluation region 102 may be extracted.

(5)上記第2実施形態では、検出領域100を分割した部分検出領域130、132、134同士が重なっている重複領域の評価領域を、部分検出領域同士の境界の評価領域とした。これに対し、検出領域を分割した互いに隣接して重複領域を持たない部分検出領域同士の隣接する評価領域を、部分検出領域同士の境界の評価領域としてもよい。 (5) In the second embodiment, the evaluation area of the overlapping area where the partial detection areas 130, 132, and 134 obtained by dividing the detection area 100 are overlapped with each other is set as the evaluation area of the boundary between the partial detection areas. On the other hand, the evaluation areas adjacent to each other in which the detection areas are divided and which are adjacent to each other and do not have overlapping areas may be used as the evaluation area of the boundary between the partial detection areas.

(6)上記第2実施形態では、検出領域100を分割した部分検出領域130、132、134同士が重なっている重複領域の評価領域を、部分検出領域同士の境界の評価領域とした。これに対し、ミリ波レーダ2が測定した物体までの測位距離に基づいて、測位距離を含み前後の領域を部分検出領域としてもよい。例えば、測位距離が10m、40m、100mであれば、測位距離の前後5mの範囲を部分検出領域としてもよい。 (6) In the second embodiment, the evaluation area of the overlapping area where the partial detection areas 130, 132, and 134 obtained by dividing the detection area 100 are overlapped with each other is set as the evaluation area of the boundary between the partial detection areas. On the other hand, based on the positioning distance to the object measured by the millimeter wave radar 2, the front and rear regions including the positioning distance may be used as the partial detection region. For example, if the positioning distances are 10 m, 40 m, and 100 m, a range of 5 m before and after the positioning distance may be used as a partial detection area.

ただし、複数のミリ波レーダ2の設置間隔のうち最大の間隔以上に前後に幅のある部分検出領域を設定することが望ましい。例えば、複数のミリ波レーダ2の設置間隔のうち最大の間隔が2mであれば、±2m以上の部分検出領域を設定する。
(7)上記第4実施形態では、分割部52は、ミリ波レーダ2が測定する距離情報に基づいて、大小の評価領域を生成する位置を決定した。
However, it is desirable to set a partial detection area having a width in the front-rear direction that is greater than or equal to the maximum interval among the installation intervals of the plurality of millimeter-wave radars 2. For example, if the maximum interval among the installation intervals of the plurality of millimeter wave radars 2 is 2 m, a partial detection area of ± 2 m or more is set.
(7) In the fourth embodiment, the division unit 52 determines a position to generate a large and small evaluation region based on the distance information measured by the millimeter wave radar 2.

これに対し、分割部52は、例えば、自車両が走行する道路に存在する物体の位置を検出するために、情報取得部12がミリ波レーダ2から距離情報を取得する前に、自車両の位置とナビゲーション装置の地図データとに基づいて、自車両が走行する道路の範囲の評価領域を小さくし、道路以外の範囲の評価領域を道路の範囲の評価領域より大きくしてもよい。 On the other hand, the dividing unit 52, for example, in order to detect the position of an object existing on the road on which the own vehicle travels, before the information acquisition unit 12 acquires the distance information from the millimeter wave radar 2, the own vehicle Based on the position and the map data of the navigation device, the evaluation area of the range of the road on which the own vehicle travels may be made smaller, and the evaluation area of the range other than the road may be made larger than the evaluation area of the range of the road.

(8)上記実施形態における一つの構成要素が有する複数の機能を複数の構成要素によって実現したり、一つの構成要素が有する一つの機能を複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を一つの構成要素によって実現したり、複数の構成要素によって実現される一つの機能を一つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。尚、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。 (8) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment. It should be noted that all aspects included in the technical idea specified only by the wording described in the claims are embodiments of the present disclosure.

(9)上述した物体検出装置10、40、50の他、当該物体検出装置10、40、50を構成要素とするシステム、当該物体検出装置10、40、50としてコンピュータを機能させるための物体検出プログラム、この物体検出プログラムを記録した記録媒体、物体検出方法など、種々の形態で本開示を実現することもできる。 (9) In addition to the above-mentioned object detection devices 10, 40, 50, a system having the object detection devices 10, 40, 50 as components, and object detection for operating a computer as the object detection devices 10, 40, 50. The present disclosure can also be realized in various forms such as a program, a recording medium on which this object detection program is recorded, and an object detection method.

2:ミリ波レーダ(センサ)、4:設置範囲、10、40、50:物体検出装置、12:情報取得部、20:評価部、22:誤差評価部、24:分散評価部、30:ピーク抽出部、32:物体検出部、42、52:分割部、100、110:検出領域、102、112、150、160、162、170、172:評価領域、130~134:部分検出領域、140、142:重複領域(境界の評価領域)、152:小領域 2: Millimeter wave radar (sensor), 4: Installation range, 10, 40, 50: Object detection device, 12: Information acquisition unit, 20: Evaluation unit, 22: Error evaluation unit, 24: Dispersion evaluation unit, 30: Peak Extraction unit, 32: Object detection unit, 42, 52: Division unit, 100, 110: Detection area, 102, 112, 150, 160, 162, 170, 172: Evaluation area, 130 to 134: Partial detection area, 140, 142: Overlapping area (evaluation area of boundary), 152: Small area

Claims (4)

複数のセンサ(2)が設置された設置範囲(4)の外側の検出領域(100、110)に存在する物体の位置を、前記複数のセンサが少なくとも測定する前記センサと前記物体との距離情報に基づいて検出する物体検出装置(10、40、50)であって、
前記複数のセンサから前記距離情報を取得するように構成された情報取得部(12)と、
前記情報取得部が取得する前記距離情報に基づいて、前記検出領域が分割された複数の評価領域(102、112、150、160、162、170、172)のそれぞれにおいて、前記物体が存在する確からしさを表す評価値を設定するように構成された評価部(20)と、
前記評価領域のそれぞれにおいて前記評価部が設定する前記評価値に基づいて、周囲の前記評価領域よりも前記確からしさが高いピークの前記評価値を有する前記評価領域を抽出するように構成されたピーク抽出部(30)と、
前記ピーク抽出部が抽出する前記評価領域の前記評価値に基づいて、前記評価領域に前記物体が存在するか否かを判定するように構成された物体検出部(32)と、
を備え
前記評価部は、
前記評価領域のそれぞれにおいて、前記複数のセンサの各センサと前記物体との距離と、前記評価領域と前記各センサとの距離との差が最小となる最小距離誤差を算出し、前記各センサに対応した前記最小距離誤差の合計を算出して前記評価領域の誤差評価値とするように構成された誤差評価部(22)と、
前記評価領域のそれぞれにおいて、前記誤差評価部が算出する前記複数のセンサに対応した前記最小距離誤差の分散を算出して前記評価領域の分散評価値とするように構成された分散評価部(24)と、
を備え、
前記ピーク抽出部は、前記評価値として、前記誤差評価部が算出する前記誤差評価値と、前記分散評価部が算出する前記分散評価値とに基づいて、ピークの前記評価値を有する前記評価領域を抽出するように構成されている、
物体検出装置。
Distance information between the sensor and the object that the plurality of sensors at least measure the position of the object existing in the detection area (100, 110) outside the installation range (4) in which the plurality of sensors (2) are installed. An object detection device (10, 40, 50) that detects based on
An information acquisition unit (12) configured to acquire the distance information from the plurality of sensors, and
Certainly, the object exists in each of the plurality of evaluation regions (102, 112, 150, 160, 162, 170, 172) in which the detection region is divided based on the distance information acquired by the information acquisition unit. An evaluation unit (20) configured to set an evaluation value that expresses the uniqueness, and
Based on the evaluation value set by the evaluation unit in each of the evaluation regions, a peak configured to extract the evaluation region having the evaluation value of the peak having a higher probability than the surrounding evaluation region. Extraction unit (30) and
An object detection unit (32) configured to determine whether or not the object is present in the evaluation region based on the evaluation value of the evaluation region extracted by the peak extraction unit.
Equipped with
The evaluation unit
In each of the evaluation regions, the minimum distance error that minimizes the difference between the distance between each sensor of the plurality of sensors and the object and the distance between the evaluation region and each sensor is calculated, and the minimum distance error is calculated for each sensor. An error evaluation unit (22) configured to calculate the total of the corresponding minimum distance errors and use it as an error evaluation value in the evaluation area.
In each of the evaluation regions, the variance evaluation unit (24) configured to calculate the variance of the minimum distance error corresponding to the plurality of sensors calculated by the error evaluation unit and use it as the variance evaluation value of the evaluation region. )When,
Equipped with
The peak extraction unit has the evaluation value of the peak based on the error evaluation value calculated by the error evaluation unit and the dispersion evaluation value calculated by the dispersion evaluation unit as the evaluation value. Is configured to extract,
Object detector.
請求項1に記載の物体検出装置であって、
前記検出領域は複数の前記評価領域に分割された複数の部分検出領域に分割されており、
前記評価部は、前記複数の部分検出領域のそれぞれにおいて順次、前記評価領域の前記評価値を設定するように構成されており、
前記ピーク抽出部は、前記部分検出領域のそれぞれにおいて順次、前記評価部が設定した前記評価値に基づいてピークの前記評価値を有する前記評価領域を抽出するように構成されている、
物体検出装置。
The object detection device according to claim 1 .
The detection area is divided into a plurality of partial detection areas divided into the plurality of evaluation areas.
The evaluation unit is configured to sequentially set the evaluation value of the evaluation area in each of the plurality of partial detection areas.
The peak extraction unit is configured to sequentially extract the evaluation region having the evaluation value of the peak based on the evaluation value set by the evaluation unit in each of the partial detection regions.
Object detector.
請求項2に記載の物体検出装置であって、
前記物体検出部は、隣接しているか、または一部が重なっている前記部分検出領域同士の境界の前記評価領域のそれぞれがピークの前記評価値を有する場合、境界の前記評価領域の一方の前記評価値を選択するか、あるいは境界の前記評価領域の前記評価値の平均値を前記評価値とするように構成されている、
物体検出装置。
The object detection device according to claim 2 .
When the object detection unit has the evaluation value of the peak in each of the evaluation regions at the boundary between the partial detection regions that are adjacent to each other or partially overlap each other, the object detection unit is one of the evaluation regions of the boundary. The evaluation value is selected, or the average value of the evaluation values in the evaluation area at the boundary is set as the evaluation value.
Object detector.
請求項1から3のいずれか1項に記載の物体検出装置であって、
前記ピーク抽出部が抽出するピークを有する前記評価領域(150)をさらに小さな複数の小領域(152)に分割するように構成された分割部(42、52)をさらに備え、
ピークを有する前記評価領域において、
前記情報取得部は、前記複数のセンサから前記距離情報を取得するように構成されており
前記評価部は、前記距離情報に基づいて前記複数の小領域のそれぞれにおいて前記評価値を設定するように構成されており、
前記ピーク抽出部は、前記小領域のそれぞれにおいて、前記評価値に基づいて、周囲の前記小領域よりも前記確からしさが高いピークの前記評価値を有する前記小領域を抽出するように構成されており、
前記物体検出部は、前記ピーク抽出部が抽出する前記小領域の前記評価値に基づいて、前記小領域に前記物体が存在するか否かを判定するように構成されている、
物体検出装置。
The object detection device according to any one of claims 1 to 3 .
The evaluation region (150) having the peak extracted by the peak extraction unit is further provided with a division unit (42, 52) configured to divide the evaluation region (150) into a plurality of smaller small regions (152).
In the evaluation region having a peak
The information acquisition unit is configured to acquire the distance information from the plurality of sensors, and the evaluation unit sets the evaluation value in each of the plurality of small regions based on the distance information. It is composed and
The peak extraction unit is configured to extract the small region having the evaluation value of the peak having a higher probability than the surrounding small region based on the evaluation value in each of the small regions. Ori,
The object detection unit is configured to determine whether or not the object is present in the small region based on the evaluation value of the small region extracted by the peak extraction unit.
Object detector.
JP2018126779A 2018-07-03 2018-07-03 Object detector Active JP7074593B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018126779A JP7074593B2 (en) 2018-07-03 2018-07-03 Object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018126779A JP7074593B2 (en) 2018-07-03 2018-07-03 Object detector

Publications (2)

Publication Number Publication Date
JP2020008310A JP2020008310A (en) 2020-01-16
JP7074593B2 true JP7074593B2 (en) 2022-05-24

Family

ID=69151232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018126779A Active JP7074593B2 (en) 2018-07-03 2018-07-03 Object detector

Country Status (1)

Country Link
JP (1) JP7074593B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7409959B2 (en) * 2020-05-01 2024-01-09 株式会社Soken object detection device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118200A (en) 1999-10-21 2001-04-27 Fujitsu Ten Ltd Information processor, information acquiring device, information integration device, controller, object detection device and information processing method
JP2005515444A (en) 2002-01-09 2005-05-26 メイコム インコーポレイテッド Method and apparatus for determining positions of multiple objects based on distance readings from multiple sensors
US20060125680A1 (en) 2004-12-15 2006-06-15 Thackray Robert G Method and system for detecting an object using a composite evidence grid
JP2007064655A (en) 2005-08-29 2007-03-15 Yokogawa Denshikiki Co Ltd Moving body measuring system
JP2010152546A (en) 2008-12-24 2010-07-08 Nissan Motor Co Ltd Tracking control device and tracking control method
JP2014020569A (en) 2012-07-12 2014-02-03 Hitachi Appliances Inc Air conditioner
WO2017057056A1 (en) 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method and program
JP2017129410A (en) 2016-01-19 2017-07-27 パナソニック株式会社 Object detection device and object detection method
JP2018054328A (en) 2016-09-26 2018-04-05 日立建機株式会社 Machine for mine work and obstacle detection device thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3564897B2 (en) * 1996-10-03 2004-09-15 スズキ株式会社 Obstacle recognition device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118200A (en) 1999-10-21 2001-04-27 Fujitsu Ten Ltd Information processor, information acquiring device, information integration device, controller, object detection device and information processing method
JP2005515444A (en) 2002-01-09 2005-05-26 メイコム インコーポレイテッド Method and apparatus for determining positions of multiple objects based on distance readings from multiple sensors
US20060125680A1 (en) 2004-12-15 2006-06-15 Thackray Robert G Method and system for detecting an object using a composite evidence grid
JP2007064655A (en) 2005-08-29 2007-03-15 Yokogawa Denshikiki Co Ltd Moving body measuring system
JP2010152546A (en) 2008-12-24 2010-07-08 Nissan Motor Co Ltd Tracking control device and tracking control method
JP2014020569A (en) 2012-07-12 2014-02-03 Hitachi Appliances Inc Air conditioner
WO2017057056A1 (en) 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method and program
JP2017129410A (en) 2016-01-19 2017-07-27 パナソニック株式会社 Object detection device and object detection method
JP2018054328A (en) 2016-09-26 2018-04-05 日立建機株式会社 Machine for mine work and obstacle detection device thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
友納 正裕,第3章 SLAMの入出力,SLAM入門,第1版,日本,株式会社オーム社,2018年03月05日,Pages: 25-34,ISBN: 978-4-274-22166-8

Also Published As

Publication number Publication date
JP2020008310A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
CN110531357B (en) Method for estimating speed of moving target in horizontal plane and radar detection system
WO2020095819A1 (en) Object detecting device
JP2006234513A (en) Obstruction detection system
US11360207B2 (en) Apparatus and method for tracking object based on radar image reconstruction
JP2008185375A (en) 3d shape calculation device of sar image, and distortion correction device of sar image
CN112119330A (en) Object detection device and object detection method
JP6720757B2 (en) Road shoulder detection method and road shoulder detection device
JP5509615B2 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
JP7074593B2 (en) Object detector
US11841419B2 (en) Stationary and moving object recognition apparatus
WO2020196723A1 (en) Object detection device
US11454698B2 (en) Radar mount-angle calibration
JP6818902B2 (en) Vehicle detection system
US20230186648A1 (en) Vehicle lidar system and object detection method thereof
KR101392222B1 (en) Laser radar for calculating the outline of the target, method for calculating the outline of the target
JP6686776B2 (en) Step detection method and step detection apparatus
US11609307B2 (en) Object detection apparatus, vehicle, object detection method, and computer readable medium
US20230038821A1 (en) Object detection system and object detection method
US20210133465A1 (en) Intersecting road estimation device
KR101890482B1 (en) Appartus for distinction of stop and movement using radar spectrum and method thereof
JP7409959B2 (en) object detection device
US20230023199A1 (en) Method and system for detecting lane line based on lidar data
WO2022102371A1 (en) Object detection device and object detection method
JP7505381B2 (en) OBJECT DETECTION DEVICE AND OBJECT DETECTION METHOD
CN115903043B (en) Diffracted wave separation method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220512

R150 Certificate of patent or registration of utility model

Ref document number: 7074593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150