JP2021111018A - Object detection device and object detection method - Google Patents
Object detection device and object detection method Download PDFInfo
- Publication number
- JP2021111018A JP2021111018A JP2020000902A JP2020000902A JP2021111018A JP 2021111018 A JP2021111018 A JP 2021111018A JP 2020000902 A JP2020000902 A JP 2020000902A JP 2020000902 A JP2020000902 A JP 2020000902A JP 2021111018 A JP2021111018 A JP 2021111018A
- Authority
- JP
- Japan
- Prior art keywords
- time
- moving object
- cell
- candidate point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 80
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 239000000284 extract Substances 0.000 claims abstract description 4
- 230000002093 peripheral effect Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、物体検出装置、及び、物体検出方法に関する。 The present invention relates to an object detection device and an object detection method.
特許文献1には、立体物検出装置が記載されている。この装置は、カメラによる撮像で得られた所定領域の撮像画像データを入力し、入力した撮像画像データの鳥瞰視画像データを生成する。また、この装置は、現時刻における鳥瞰視画像と一時刻前の鳥瞰視画像との差分画像を生成する。そして、この装置は、生成した差分画像に基づいて、立体物を検出する。
上述した立体物検出装置では、現時刻の画像と一時刻前の画像との差分画像を利用することにより、隣接車両の適切な検出を図っている。一方で、隣接車両といった移動物体の検出に際して、このような画像認識を用いる場合には、高性能な処理装置が必要となり、コストが増大する。 In the above-mentioned three-dimensional object detection device, an appropriate detection of an adjacent vehicle is attempted by using a difference image between the image at the current time and the image one time before. On the other hand, when such image recognition is used when detecting a moving object such as an adjacent vehicle, a high-performance processing device is required, which increases the cost.
本発明は、移動物体の検出に際してコストの増大を抑制可能な物体検出装置、及び、物体検出方法を提供することを目的とする。 An object of the present invention is to provide an object detection device capable of suppressing an increase in cost when detecting a moving object, and an object detection method.
本発明に係る物体検出装置は、車両の移動中において車両の周辺領域の移動物体を検出するための物体検出装置であって、第1時刻に取得された周辺領域の画像のエッジを抽出するエッジ抽出部と、画像の各領域に対応する複数のセルに対して、エッジの抽出結果に基づいてエッジ量を設定するエッジ量設定部と、エッジ量が一定以上のセルを、第1時刻において移動物体が存在するセルの候補点として設定する候補点設定部と、第1時刻の候補点と、第1時刻よりも前の第2時刻における移動物体の推定結果とに基づいて、第1時刻における移動物体の推定結果を算出する推定部と、第1時刻における推定結果に基づいて、第1時刻において周辺領域に存在する移動物体を検出する検出部と、を備える。 The object detection device according to the present invention is an object detection device for detecting a moving object in the peripheral region of the vehicle while the vehicle is moving, and is an edge for extracting an edge of an image of the peripheral region acquired at the first time. The extraction unit, the edge amount setting unit that sets the edge amount based on the edge extraction result for a plurality of cells corresponding to each area of the image, and the cell having an edge amount of a certain amount or more are moved at the first time. At the first time, based on the candidate point setting unit that sets the candidate point of the cell in which the object exists, the candidate point at the first time, and the estimation result of the moving object at the second time before the first time. It includes an estimation unit that calculates an estimation result of a moving object, and a detection unit that detects a moving object existing in a peripheral region at the first time based on the estimation result at the first time.
本発明に係る物体検出方法は、車両の移動中において車両の周辺領域の移動物体を検出するための物体検出方法であって、第1時刻に取得された周辺領域の画像のエッジを抽出するエッジ抽出工程と、画像の各領域に対応する複数のセルに対して、エッジの抽出結果に基づいてセルのそれぞれにエッジ量を設定するエッジ量設定工程と、エッジ量が一定以上のセルを、第1時刻において移動物体が存在するセルの候補点として設定する候補点設定工程と、第1時刻の候補点と、第1時刻よりも前の第2時刻における移動物体の推定結果とに基づいて、第1時刻における移動物体の推定結果を算出する推定工程と、第1時刻における推定結果に基づいて、第1時刻において周辺領域に存在する移動物体を検出する検出工程と、を備える。 The object detection method according to the present invention is an object detection method for detecting a moving object in a peripheral region of a vehicle while the vehicle is moving, and is an edge for extracting an edge of an image of the peripheral region acquired at the first time. The extraction step, the edge amount setting step of setting the edge amount for each of the cells based on the edge extraction result for a plurality of cells corresponding to each area of the image, and the cell having the edge amount of a certain amount or more are the first. Based on the candidate point setting step of setting as a candidate point of a cell in which a moving object exists at one time, the candidate point of the first time, and the estimation result of the moving object at the second time before the first time. It includes an estimation step of calculating an estimation result of a moving object at a first time, and a detection step of detecting a moving object existing in a peripheral region at the first time based on the estimation result at the first time.
これらの装置及び方法では、車両の周辺領域の画像のエッジが抽出されると共に、画像の各領域に対応する複数のセルのそれぞれに対してエッジ量が設定される。また、エッジ量が一定以上のセルが、第1時刻において移動物体が存在する候補点として設定される。さらに、第1時刻の候補点と、第1時刻よりも前の第2時刻における移動物体の推定結果とに基づいて、第1時刻における移動物体の推定結果が生成される。そして、この推定結果に基づいて移動物体が検出される。このように、これらの装置及び方法では、移動物体の検出に際して、より計算負荷の低い画像のエッジ量が利用されるため、高性能な処理装置が不要となる。よって、移動物体の検出に際してコストの増大が抑制され得る。 In these devices and methods, the edges of the image in the peripheral region of the vehicle are extracted, and the edge amount is set for each of the plurality of cells corresponding to each region of the image. Further, a cell having an edge amount of a certain amount or more is set as a candidate point where a moving object exists at the first time. Further, the estimation result of the moving object at the first time is generated based on the candidate point at the first time and the estimation result of the moving object at the second time before the first time. Then, a moving object is detected based on this estimation result. As described above, in these devices and methods, the edge amount of the image having a lower calculation load is used when detecting the moving object, so that a high-performance processing device becomes unnecessary. Therefore, an increase in cost can be suppressed when detecting a moving object.
本発明に係る物体検出装置では、第1時刻の候補点であるセルと当該セルの周囲のセルに対して、当該候補点であるセルが中心となるように正規分布状の度数を投票することにより、度数分布を生成する分布生成部を備え、推定部は、度数分布と第2時刻における移動物体の推定結果との乗算結果に基づいて、第1時刻における移動物体の推定結果を算出してもよい。この場合、ノイズの影響が低減され、検出精度が向上される。 In the object detection device according to the present invention, the frequency of the normal distribution is voted for the cell that is the candidate point at the first time and the cells around the cell so that the cell that is the candidate point is the center. A distribution generation unit that generates a frequency distribution is provided, and the estimation unit calculates the estimation result of the moving object at the first time based on the multiplication result of the frequency distribution and the estimation result of the moving object at the second time. May be good. In this case, the influence of noise is reduced and the detection accuracy is improved.
本発明に係る物体検出装置では、候補点設定部は、度数分布において度数が一定以上であるセルを、第1時刻において移動物体が存在するセルの新たな候補点として設定し、分布生成部は、第1時刻の新たな候補点であるセルと当該セルの周囲のセルに対して、当該新たな候補点であるセルが中心となるように正規分布状の度数を投票することにより、新たな度数分布を生成し、推定部は、新たな度数分布と第2時刻における移動物体の推定結果との乗算結果に基づいて、第1時刻における移動物体の推定結果を算出してもよい。この場合、ノイズ影響がより低減され、より検出精度が向上される。 In the object detection device according to the present invention, the candidate point setting unit sets a cell having a frequency equal to or higher than a certain frequency in the frequency distribution as a new candidate point for a cell in which a moving object exists at the first time, and the distribution generation unit sets the cell. , By voting for the cell that is the new candidate point at the first time and the cells around the cell, the frequency of the normal distribution is centered so that the cell that is the new candidate point is the center. The frequency distribution may be generated, and the estimation unit may calculate the estimation result of the moving object at the first time based on the multiplication result of the new frequency distribution and the estimation result of the moving object at the second time. In this case, the influence of noise is further reduced and the detection accuracy is further improved.
本発明によれば、移動物体の検出に際してコストの増大を抑制可能な物体検出装置、及び、物体検出方法を提供することができる。 According to the present invention, it is possible to provide an object detection device and an object detection method capable of suppressing an increase in cost when detecting a moving object.
以下、一実施形態について、図面を参照して詳細に説明する。図面の説明においては、同一又は相当する要素には同一の符号を付し、重複する説明を省略する場合がある。 Hereinafter, one embodiment will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding elements may be designated by the same reference numerals, and duplicate description may be omitted.
図1は、本実施形態に係る物体検出システムが搭載された車両を示す模式図である。図2は、図1に示された物体検出システムの構成を示す模式図である。図1の(a)は平面図であり、図1の(b)は側面図である。車両Cは、例えば、バス等の商用車両やトラック等の産業車両であり得る(図示の例ではトラックである)。また、車両Cは、普通乗用車に比べて車高の高い大型車両や中型車両等であり得る。車両Cは、車体Cbと、車幅方向(ここではY軸方向)の両側において車体Cbに取り付けられた一対のミラーステーCsとを含む。 FIG. 1 is a schematic view showing a vehicle equipped with the object detection system according to the present embodiment. FIG. 2 is a schematic diagram showing the configuration of the object detection system shown in FIG. FIG. 1A is a plan view, and FIG. 1B is a side view. The vehicle C can be, for example, a commercial vehicle such as a bus or an industrial vehicle such as a truck (in the illustrated example, it is a truck). Further, the vehicle C can be a large vehicle, a medium-sized vehicle, or the like having a height higher than that of an ordinary passenger car. The vehicle C includes a vehicle body Cb and a pair of mirror stays Cs attached to the vehicle body Cb on both sides in the vehicle width direction (here, the Y-axis direction).
物体検出システム100は、車両Cに搭載されている。物体検出システム100は、物体検出装置1、撮像装置50、及び、出力装置60を備えている。物体検出装置1については後述する。撮像装置50は、所定の領域を撮像して画像を取得可能な装置であり、例えば、電子ミラーや監視カメラ等である。撮像装置50は、一対のミラーステーCsのそれぞれに設けられている。したがって、撮像装置50は、車両Cの車幅方向の両側に設けられることとなる。
The
また、撮像装置50は、(ミラーステーCsの位置に応じて)車両Cの前後方向(ここではX軸方向)における車両Cの前方に設けられている。さらに、撮像装置50は、車両Cの高さ方向(ここではZ軸方向)の中心よりも上方に設けられ得る。これにより、撮像装置50の撮像領域50rは、車体Cbの側面近傍であり路面Rsを含む車両Cの側方の領域(周辺領域)R(車両Cの運転者から死角となる領域)を含むようにされている。撮像装置50は、取得した画像を物体検出装置1等に出力する。
Further, the
出力装置60は、物体検出装置1から検出結果を示す情報を取得して出力する。出力装置60は、例えば、ディスプレイ、スピーカー、及び、バイブレータ等であって、車両Cの運転者に対して視覚や音声や振動等によって物体検出装置1の検出結果を出力可能とされている。なお、車両Cには、車両Cの後部において車両Cの車幅方向の両側部分のそれぞれに対して、後側方監視装置51が設けられている。後側方監視装置51は、一例として、所定の検知範囲51rを有するバックカメラ又はレーザレーダ等である。
The
引き続いて、物体検出装置1について説明する。図3は、図1,2に示された物体検出装置の機能的な構成を示す図である。図3に示される物体検出装置1は、車両Cの移動中において、車両Cの周辺領域である領域Rの移動物体を検出するためのものである。物体検出装置1は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有する電子制御ユニットにおいて構成され得る。物体検出装置1の後述する各機能部は、ROMに記録されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより実現され得る。
Subsequently, the
まず、物体検出装置1の各部の動作の概要について説明する。物体検出装置1は、画像生成部11、エッジ抽出部12、エッジ量設定部13、候補点設定部14、分布生成部15、推定部16、及び、検出部17を有している。画像生成部11は、撮像装置50から領域Rの撮像画像の入力を受けると共に、撮像画像から後の処理に適した画像(以下、「対象画像」という場合がある)を生成する。エッジ抽出部12は、対象画像のエッジを抽出する。エッジ量設定部13は、対象画像を構成する各領域に対応する複数のセルのそれぞれに対して、エッジの抽出結果に基づいてエッジ量を設定する。
First, an outline of the operation of each part of the
候補点設定部14は、エッジ量が一定以上のセルを、移動物体が存在するセルの候補点として設定する。分布生成部15は、候補点であるセルと当該セルの周囲のセルに対して、当該候補点であるセルが中心となるように正規分布状の度数を投票することにより、度数分布を生成する。推定部16は、現在(第1時刻)の候補点と、当該第1時刻よりも前の過去(第2時刻)における移動物体の推定結果とに基づいて、第1時刻における移動物体の推定結果を生成する。検出部17は、第1時刻における移動物体の推定結果に基づいて、第1時刻において領域Rに存在する移動物体を検出する。検出部17は、検出結果を示す情報を出力装置60に出力する。
The candidate
引き続いて、物体検出装置1の各部の動作の詳細について説明する。図4は、物体検出装置の動作を示すフローチャートである。図4に示されるフローチャートは、本実施形態に係る物体検出方法を示す。
Subsequently, the details of the operation of each part of the
この方法では、まず、画像生成部11が、撮像装置50から撮像画像(第1時刻に取得された領域Rの画像)の入力を受ける。図5の(a)は、入力画像の一例である。入力画像には、移動物体Qと路面Rsとが含まれる。続いて、画像生成部11が、入力画像を縮小する(工程S1)。ここでは、画像生成部11は、例えば、入力画像を構成する複数の領域(画素)を間引きすることにより、入力画像のサイズを縮小する。続いて、画像生成部11が、縮小された入力画像の射影変換を行う(工程S2)。これにより、入力画像から正射投影画像が生成される。また、この工程S2では、画像生成部11は、車両Cの走行車線に隣接する車線P1のみを正射投影画像から切り出す(図5の(a)参照)。
In this method, first, the
続いて、画像生成部11が、正射投影画像における近距離部分の平滑化を行う(S3)。これは、工程S2において入力画像から正射投影画像を生成する際に、撮像装置50に近い近距離部分に対して撮像装置50から遠い遠距離部分が引き伸ばされることに起因して、後のエッジ抽出の際に近距離部分で路面Rsの荒れに起因して、移動物体Qと異なるエッジが多く抽出されることを避けるためである。これにより、続くエッジ抽出等の処理の対象となる対象画像が生成される。
Subsequently, the
続いて、エッジ抽出部12が、対象画像(第1時刻に取得された領域Rの画像)のエッジを抽出する(工程S4:エッジ抽出工程)。図5の(b)は、抽出されたエッジが示されたエッジ画像P2の一例である。
Subsequently, the
続いて、対象画像のエッジ量の評価が行われる(工程S5)。より具体的には、工程S5では、まず、エッジ量設定部13が、エッジ画像P2(エッジの抽出結果)に基づいて、対象画像の各領域に対応する複数のセルに対してエッジ量を設定する(エッジ量設定工程)。
Subsequently, the edge amount of the target image is evaluated (step S5). More specifically, in step S5, first, the edge
エッジの抽出に供された対象画像とエッジ画像P2とは、互いに対応している。したがって、対象画像を、例えば2次元行列状に分割した場合の各領域に対応するセル(2次元行列状に配列されたセル)を構成したうえで、エッジ画像P2の対応する各領域に存在するエッジの量(エッジを構成するドットの数)をカウントすれば、各セルに対してエッジ量を設定できる。つまり、この工程S5では、2次元行列状(例えば15×4の行列状)に配列されると共に、エッジ量が設定された複数のセルを含むセル群が構成されることとなる。 The target image and the edge image P2 used for edge extraction correspond to each other. Therefore, after forming cells (cells arranged in a two-dimensional matrix) corresponding to each region when the target image is divided into, for example, a two-dimensional matrix, the target image exists in each corresponding region of the edge image P2. By counting the amount of edges (the number of dots that make up the edge), the amount of edges can be set for each cell. That is, in this step S5, a cell group including a plurality of cells arranged in a two-dimensional matrix (for example, a 15 × 4 matrix) and having an edge amount set is formed.
工程S5では、続いて、候補点設定部14が、各セルのエッジ量を評価することにより、エッジ量が一定以上のセルを、第1時刻において移動物体が存在するセル(対象画像における移動物体が存在する領域に対応するセル)の候補点として設定する(候補点設定工程)。なお、工程S5で構成されたセル群に対して、複数の候補点が設定され得る。
In step S5, the candidate
続いて、観測結果の算出が行われる(工程S6)。より具体的には、この工程S6では、分布生成部15が、第1時刻の候補点であるセルと当該セルの周囲のセルに対して、当該候補点であるセルが中心となるように正規分布状の度数を投票することにより、度数分布(ヒストグラム)を生成する。
Subsequently, the observation result is calculated (step S6). More specifically, in this step S6, the
図6の(a)は、投票に用いられる正規分布状の度数(デジタル化された正規分布)の一例である。図6の(b)は、投票の結果生成された度数分布の一例である。図6の例では、度数分布P3の座標(3,3)のセルSが候補点Saとして設定されており、当該候補点SaのセルSを中心として、3×3の正規分布状の分布Vに応じた投票が行われている。このようにして生成された度数分布P3を、第1時刻における移動物体の観測結果とすることができる。 FIG. 6A is an example of a normal distribution frequency (digitized normal distribution) used for voting. FIG. 6B is an example of the frequency distribution generated as a result of voting. In the example of FIG. 6, the cell S at the coordinates (3, 3) of the frequency distribution P3 is set as the candidate point Sa, and the distribution V in a normal distribution of 3 × 3 is centered on the cell S of the candidate point Sa. Voting is done according to. The frequency distribution P3 generated in this way can be used as the observation result of the moving object at the first time.
一方、候補点Saが複数存在する場合には、上記のように投票を行うと、重複して投票を受けるセルSが発生する場合がある。この場合、重複して投票を受けたセルSが、当初の候補点Saとして設定されたセルSでない場合であっても、当初の候補点Saとして設定されたセルSよりも大きな度数となる場合がある。 On the other hand, when there are a plurality of candidate points Sa, if voting is performed as described above, cells S that receive duplicate votes may occur. In this case, even if the cell S that has received duplicate votes is not the cell S set as the initial candidate point Sa, the frequency is higher than that of the cell S set as the initial candidate point Sa. There is.
このため、この工程S6では、候補点設定部14が、度数分布において度数が一定以上であるセルSを、第1時刻において移動物体が存在するセルSの新たな候補点Saとして設定することができる。すなわち、この工程S6では、閾値を用いた候補点Saの再設定を行うことができる。この場合、分布生成部15は、第1時刻の新たな候補点SaであるセルSと当該セルSの周囲のセルSに対して、当該新たな候補点SaであるセルSが中心となるように正規分布状の度数を投票することにより、新たな度数分布を生成することができる。そして、この新たな度数分布を、第1時刻における移動物体の観測結果(観測マップ)とすることができる。
Therefore, in this step S6, the candidate
続いて、推定部16が、第1時刻における移動物体の推定結果を算出する(工程S7:推定工程)。この工程S7について、より具体的に説明する。この工程S7では、工程S6で生成された第1時刻の観測結果(度数分布P3、又は新たな度数分布)と第2時刻における移動物体の推定結果(事前推定マップ)との乗算結果に基づいて、第1時刻における移動物体の推定結果を算出する。
Subsequently, the
図7の(a)は、第2時刻における移動物体の推定結果の一例を示す。図7の(a)に示されるように、第2時刻における移動物体の推定結果P4は、上記と同様の工程を経て既に生成されたものであり、セルSのそれぞれに対して移動物体が存在する確率(推定)が設定されている。推定結果P4では、全てのセルSの値を合計すると1になるように正規化されることにより、それぞれのセルSの値が移動物体の存在確率とされている。 FIG. 7A shows an example of the estimation result of the moving object at the second time. As shown in FIG. 7A, the estimation result P4 of the moving object at the second time has already been generated through the same steps as described above, and the moving object exists for each of the cells S. Probability (estimation) to do is set. In the estimation result P4, the values of the cells S are normalized to be 1 when the values of all the cells S are summed, so that the values of the cells S are the existence probabilities of the moving objects.
この工程S7では、図6の(b)に示されるような度数分布P3の各セルSと、図7の(a)に示されるような過去の推定結果P4の各セルSと、を掛け合わせることにより、図7の(b)に示されるような推定結果P5を算出する。ここでの乗算は、互に対応するセルS間のみで行われる。すなわち、例えば、度数分布P3の座標(3,3)のセルSの値と、推定結果P4の座標(3,3)のセルSの値と、が掛け合わされて推定結果P5の座標(3,3)のセルSの値とされる。 In this step S7, each cell S of the frequency distribution P3 as shown in FIG. 6B is multiplied by each cell S of the past estimation result P4 as shown in FIG. 7A. As a result, the estimation result P5 as shown in FIG. 7 (b) is calculated. The multiplication here is performed only between the cells S corresponding to each other. That is, for example, the value of the cell S at the coordinates (3,3) of the frequency distribution P3 is multiplied by the value of the cell S at the coordinates (3,3) of the estimation result P4, and the coordinates (3,3) of the estimation result P5 are multiplied. It is the value of cell S in 3).
以上のように、この工程S7では、工程S6で生成された第1時刻の度数分布P3と第2時刻における移動物体の推定結果P4との乗算結果に基づいて、第1時刻における移動物体の推定結果が算出される。度数分布P3は、候補点Saの情報を基に生成される。したがって、この工程S7では、推定部16が、第1時刻の候補点Saと第2時刻の推定結果P4とに基づいて、第1時刻の推定結果P5を算出することとなる。
As described above, in this step S7, the moving object at the first time is estimated based on the multiplication result of the frequency distribution P3 at the first time generated in the step S6 and the estimation result P4 of the moving object at the second time. The result is calculated. The frequency distribution P3 is generated based on the information of the candidate point Sa. Therefore, in this step S7, the
さらに、この工程S7では、推定部16は、算出された推定結果P5のそれぞれのセルSの値の合計値が1となるように正規化する。後のオブジェクト判定は、この正規化後の推定結果P5に基づいて行うことができる。
Further, in this step S7, the
一方、以上のように算出された第1時刻における推定結果P5は、第1時刻よりも後の第3時刻の推定結果を算出する際に、第3時刻の度数分布との乗算に用いられる。図7の(b)に示されるように、推定結果P5には、値がゼロのセルSが含まれる。このため、第3時刻の推定結果のセルのうち、第1時刻の推定結果P5の値が0のセルSとの乗算により算出されるセルの値は、元の度数分布の値に依らずにゼロとなる(移動物体の存在が推定されない)。このような状況を避けるため、この工程S7では、推定結果P5は、そのセルSの最小の値がゼロよりも大きな値(例えば0.001)となるように処理(例えば全てのセルSに一定の値を足し合わせる処理)がされると共に、それぞれのセルSの値の合計値が1になるように正規化された後、第3時刻の推定結果の算出の際の事前推定マップとして利用される。 On the other hand, the estimation result P5 at the first time calculated as described above is used for multiplication with the frequency distribution at the third time when calculating the estimation result at the third time after the first time. As shown in FIG. 7B, the estimation result P5 includes the cell S having a value of zero. Therefore, among the cells of the estimation result of the third time, the value of the cell calculated by multiplication with the cell S in which the value of the estimation result P5 of the first time is 0 does not depend on the value of the original frequency distribution. It becomes zero (the existence of moving objects is not estimated). In order to avoid such a situation, in this step S7, the estimation result P5 is processed so that the minimum value of the cell S is a value larger than zero (for example, 0.001) (for example, it is constant for all cells S). After being normalized so that the total value of the values in each cell S becomes 1, it is used as a pre-estimation map when calculating the estimation result at the third time. NS.
続く工程では、検出部17が、オブジェクト判定を行う(工程S8:検出工程)。より具体的には、検出部17は、第1時刻における推定結果P5に基づいて、第1時刻において領域Rに存在する移動物体Qを検出する。この工程S8では、検出部17は、推定結果P5のセルSのうち、一定の値以上であり、且つ、最大の値を有するセルSを移動物体Qの存在するセルとして検出する。
In the subsequent step, the
以上説明したように、本実施形態に係る物体検出装置1及び物体検出方法では、車両Cの周辺の領域Rの画像のエッジが抽出されると共に、画像の各領域に対応する複数のセルSのそれぞれに対してエッジ量が設定される。また、エッジ量が一定以上のセルSが、第1時刻において移動物体Qが存在する候補点Saとして設定される。さらに、第1時刻の候補点Saと、第1時刻よりも前の第2時刻における移動物体Qの推定結果P4とに基づいて、第1時刻における移動物体Qの推定結果P5が生成される。そして、この推定結果P5に基づいて移動物体Qが検出される。このように、これらの装置及び方法では、移動物体Qの検出に際して、より計算負荷の低い画像のエッジ量が利用されるため、高性能な処理装置が不要となる。よって、移動物体Qの検出に際してコストの増大が抑制され得る。
As described above, in the
また、本実施形態に係る物体検出装置1では、第1時刻の候補点SaであるセルSと当該セルSの周囲のセルSに対して、当該候補点SaであるセルSが中心となるように正規分布状の度数を投票することにより、度数分布P3を生成する分布生成部15を備えている。そして、推定部16は、度数分布P3と第2時刻における移動物体Qの推定結果P4との乗算結果に基づいて、第1時刻における移動物体Qの推定結果P5を算出する。この場合、ノイズの影響が低減され、検出精度が向上される。
Further, in the
特に、この場合には、第1時刻と第2時刻との間に、車両Cとの相対移動量の少ない(相対速度の小さい)物体の存在確率が大きく推定される。すなわち、例えば、移動中の車両Cとの相対速度が比較的大きい(静止した)路面Rsの付帯物等については、第2時刻において推定結果P4に存在するものの、第2時刻から第1時刻の間に車両Cの周囲の領域Rから離間することにより、第1時刻の度数分布P3に存在しない場合があり、この場合には推定結果P5において検出されない。よって、この場合には、車両Cと同方向に移動する移動物体Qがより顕著に検出されることなり、検出精度が向上される。 In particular, in this case, the existence probability of an object having a small relative movement amount (small relative velocity) with the vehicle C is largely estimated between the first time and the second time. That is, for example, with respect to an accessory of the road surface Rs having a relatively high relative speed (stationary) with the moving vehicle C, although it exists in the estimation result P4 at the second time, it is from the second time to the first time. By separating from the region R around the vehicle C in the meantime, it may not exist in the frequency distribution P3 at the first time, and in this case, it is not detected in the estimation result P5. Therefore, in this case, the moving object Q moving in the same direction as the vehicle C is detected more remarkably, and the detection accuracy is improved.
なお、物体検出装置1では、例えば、度数の投票に用いられる分布Vの広がりを調整したり、推定結果P5のセルSの最小の値をゼロよりも大きな値とする処理において推定結果P5のセルSに足し合わせる値を調整したりすることにより、第1時刻と第2時刻との間の相関の強弱を調整することができる。
In the
一方、本実施形態に係る物体検出装置1では、候補点設定部14は、度数分布P3において度数が一定以上であるセルSを、第1時刻において移動物体Qが存在するセルSの新たな候補点Saとして設定することができる。また、分布生成部15は、第1時刻の新たな候補点SaであるセルSと当該セルSの周囲のセルSに対して、当該新たな候補点SaであるセルSが中心となるように正規分布状の度数を投票することにより、新たな度数分布P3を生成することができる。そして、推定部16は、新たな度数分布P3と第2時刻における移動物体Qの推定結果P4との乗算結果に基づいて、第1時刻における移動物体Qの推定結果P5を算出してもよい。この場合、ノイズ影響がより低減され、より検出精度が向上される。
On the other hand, in the
さらに、本実施形態に係る物体検出装置1では、大型車両等の比較的車高の高い車両CのミラーステーCsに取り付けられた撮像装置50によって撮像された画像を用いる。このため、投影変換の際の画像の歪みが低減され、より検出精度が向上される。
Further, the
以上の実施形態は、本発明の一側面を説明したものである。したがって、本発明は、上述した一形態に限定されることなく、任意に変形され得る。 The above embodiments have described one aspect of the present invention. Therefore, the present invention is not limited to the above-mentioned one form, and can be arbitrarily modified.
1…物体検出装置、12…エッジ抽出部、13…エッジ量設定部、14…候補点設定部、15…分布生成部、16…推定部、17…検出部、C…車両、Q…移動物体、R…領域(周辺領域)。 1 ... object detection device, 12 ... edge extraction unit, 13 ... edge amount setting unit, 14 ... candidate point setting unit, 15 ... distribution generation unit, 16 ... estimation unit, 17 ... detection unit, C ... vehicle, Q ... moving object , R ... Area (peripheral area).
Claims (4)
第1時刻に取得された前記周辺領域の画像のエッジを抽出するエッジ抽出部と、
前記画像の各領域に対応する複数のセルに対して、前記エッジの抽出結果に基づいてエッジ量を設定するエッジ量設定部と、
前記エッジ量が一定以上の前記セルを、前記第1時刻において前記移動物体が存在する前記セルの候補点として設定する候補点設定部と、
前記第1時刻の前記候補点と、前記第1時刻よりも前の第2時刻における前記移動物体の推定結果とに基づいて、前記第1時刻における前記移動物体の推定結果を算出する推定部と、
前記第1時刻における前記推定結果に基づいて、前記第1時刻において前記周辺領域に存在する前記移動物体を検出する検出部と、
を備える物体検出装置。 An object detection device for detecting a moving object in the peripheral area of the vehicle while the vehicle is moving.
An edge extraction unit that extracts the edges of the image of the peripheral area acquired at the first time, and an edge extraction unit.
An edge amount setting unit that sets an edge amount based on the edge extraction result for a plurality of cells corresponding to each area of the image, and an edge amount setting unit.
A candidate point setting unit that sets the cell having an edge amount of a certain amount or more as a candidate point of the cell in which the moving object exists at the first time.
An estimation unit that calculates the estimation result of the moving object at the first time based on the candidate point at the first time and the estimation result of the moving object at the second time before the first time. ,
Based on the estimation result at the first time, a detection unit that detects the moving object existing in the peripheral region at the first time, and a detection unit.
An object detection device comprising.
前記推定部は、前記度数分布と前記第2時刻における前記移動物体の推定結果との乗算結果に基づいて、前記第1時刻における前記移動物体の推定結果を算出する、
請求項1に記載の物体検出装置。 The frequency distribution is performed by voting the frequency in a normal distribution pattern so that the cell, which is the candidate point, is the center of the cell, which is the candidate point at the first time, and the cells around the cell. Equipped with a distribution generator that generates
The estimation unit calculates the estimation result of the moving object at the first time based on the multiplication result of the frequency distribution and the estimation result of the moving object at the second time.
The object detection device according to claim 1.
前記分布生成部は、前記第1時刻の前記新たな候補点である前記セルと当該セルの周囲の前記セルに対して、当該新たな候補点である前記セルが中心となるように正規分布状の度数を投票することにより、新たな度数分布を生成し、
前記推定部は、前記新たな度数分布と前記第2時刻における前記移動物体の推定結果との乗算結果に基づいて、前記第1時刻における前記移動物体の推定結果を算出する、
請求項2に記載の物体検出装置。 The candidate point setting unit sets the cell in which the frequency is constant or higher in the frequency distribution as a new candidate point of the cell in which the moving object exists at the first time.
The distribution generation unit has a normal distribution pattern such that the cell, which is the new candidate point, is centered on the cell, which is the new candidate point at the first time, and the cell around the cell. By voting for the frequency of, a new frequency distribution is generated,
The estimation unit calculates the estimation result of the moving object at the first time based on the multiplication result of the new frequency distribution and the estimation result of the moving object at the second time.
The object detection device according to claim 2.
第1時刻に取得された前記周辺領域の画像のエッジを抽出するエッジ抽出工程と、
前記画像の各領域に対応する複数のセルに対して、前記エッジの抽出結果に基づいて前記セルのそれぞれにエッジ量を設定するエッジ量設定工程と、
前記エッジ量が一定以上の前記セルを、前記第1時刻において前記移動物体が存在する前記セルの候補点として設定する候補点設定工程と、
前記第1時刻の前記候補点と、前記第1時刻よりも前の第2時刻における前記移動物体の推定結果とに基づいて、前記第1時刻における前記移動物体の推定結果を生成する推定工程と、
前記第1時刻における前記推定結果に基づいて、前記第1時刻において前記周辺領域に存在する前記移動物体を検出する検出工程と、
を備える物体検出方法。 It is an object detection method for detecting a moving object in the peripheral area of the vehicle while the vehicle is moving.
An edge extraction step of extracting the edges of the image of the peripheral region acquired at the first time, and
An edge amount setting step of setting an edge amount in each of the cells based on the extraction result of the edge for a plurality of cells corresponding to each region of the image.
A candidate point setting step of setting the cell having an edge amount of a certain amount or more as a candidate point of the cell in which the moving object exists at the first time.
An estimation step of generating an estimation result of the moving object at the first time based on the candidate point at the first time and the estimation result of the moving object at the second time before the first time. ,
A detection step of detecting the moving object existing in the peripheral region at the first time based on the estimation result at the first time.
An object detection method comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020000902A JP7383491B2 (en) | 2020-01-07 | 2020-01-07 | Object detection device and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020000902A JP7383491B2 (en) | 2020-01-07 | 2020-01-07 | Object detection device and object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111018A true JP2021111018A (en) | 2021-08-02 |
JP7383491B2 JP7383491B2 (en) | 2023-11-20 |
Family
ID=77059885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020000902A Active JP7383491B2 (en) | 2020-01-07 | 2020-01-07 | Object detection device and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7383491B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020808A (en) * | 1999-06-01 | 2010-01-28 | Fujitsu Microelectronics Ltd | Method and device for recognizing moving object |
JP2012185555A (en) * | 2011-03-03 | 2012-09-27 | Panasonic Corp | Object detecting device and method, and program |
-
2020
- 2020-01-07 JP JP2020000902A patent/JP7383491B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020808A (en) * | 1999-06-01 | 2010-01-28 | Fujitsu Microelectronics Ltd | Method and device for recognizing moving object |
JP2012185555A (en) * | 2011-03-03 | 2012-09-27 | Panasonic Corp | Object detecting device and method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7383491B2 (en) | 2023-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10776946B2 (en) | Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium | |
CN103448650B (en) | target identification system and target identification method | |
US20230110116A1 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
EP1944721A2 (en) | Image processing apparatus, method and program product thereof | |
JP2008172441A (en) | Detection device, method, and program | |
CN107950023B (en) | Vehicle display device and vehicle display method | |
WO2017159082A1 (en) | Image processing device, apparatus control system, image pickup device, image processing method, and program | |
JP2014142241A (en) | Three-dimensional position estimation device, vehicle controller, and three-dimensional position estimation method | |
JPWO2017115732A1 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program | |
CN109323674B (en) | Apparatus and method for hybrid ground clearance determination | |
JP2020122754A (en) | Three-dimensional position estimation device and program | |
JP2008171141A (en) | Image processor, method, and program | |
JP2014006075A (en) | Pedestrian detection device | |
JP6631691B2 (en) | Image processing device, device control system, imaging device, image processing method, and program | |
JP7383491B2 (en) | Object detection device and object detection method | |
JP5832850B2 (en) | Lane monitoring system and lane monitoring method | |
JP2018092605A (en) | Information processing device, imaging device, apparatus control system, movable body, information processing method, and program | |
US20220309400A1 (en) | Learning method, learning device, and recording medium | |
JP2021060720A (en) | Object detection device | |
JP2005216200A (en) | Other vehicle detecting apparatus and method | |
CN113516685B (en) | Target tracking method, device, equipment and storage medium | |
JP2023107533A (en) | Image processing device of person detection system | |
JP2022130307A (en) | Information processing device, information processing method and program | |
CN112400094B (en) | Object detecting device | |
JP5472137B2 (en) | Boundary detection device and boundary detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7383491 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |