JP2021111018A - Object detection device and object detection method - Google Patents

Object detection device and object detection method Download PDF

Info

Publication number
JP2021111018A
JP2021111018A JP2020000902A JP2020000902A JP2021111018A JP 2021111018 A JP2021111018 A JP 2021111018A JP 2020000902 A JP2020000902 A JP 2020000902A JP 2020000902 A JP2020000902 A JP 2020000902A JP 2021111018 A JP2021111018 A JP 2021111018A
Authority
JP
Japan
Prior art keywords
time
moving object
cell
candidate point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020000902A
Other languages
Japanese (ja)
Other versions
JP7383491B2 (en
Inventor
泰一郎 益子
Taiichiro Masuko
泰一郎 益子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hino Motors Ltd
Original Assignee
Hino Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hino Motors Ltd filed Critical Hino Motors Ltd
Priority to JP2020000902A priority Critical patent/JP7383491B2/en
Publication of JP2021111018A publication Critical patent/JP2021111018A/en
Application granted granted Critical
Publication of JP7383491B2 publication Critical patent/JP7383491B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an object detection device and an object detection method capable of suppressing an increase in cost when detecting a moving object.SOLUTION: An object detection device 1 comprises: an edge extraction unit 12 which extracts an edge of an image of an area R acquired at a first time; an edge amount setting unit 13 which sets an edge amount based on an extraction result of the edge, for a plurality of cells S corresponding to each area of the image; a candidate point setting unit 14 which sets the cell S in which the edge amount is a certain amount or more, as a candidate point Sa of the cell S in which a moving object Q exists at the first time; an estimation unit 16 which calculates an estimated result P5 of the moving object Q at the first time, based on the candidate point Sa at the first time, and an estimated result P4 of the moving object Q at a second time before the first time; and a detection unit 17 which detects the moving object Q which exists in the area R at the first time, based on the estimated result P5 at the first time.SELECTED DRAWING: Figure 3

Description

本発明は、物体検出装置、及び、物体検出方法に関する。 The present invention relates to an object detection device and an object detection method.

特許文献1には、立体物検出装置が記載されている。この装置は、カメラによる撮像で得られた所定領域の撮像画像データを入力し、入力した撮像画像データの鳥瞰視画像データを生成する。また、この装置は、現時刻における鳥瞰視画像と一時刻前の鳥瞰視画像との差分画像を生成する。そして、この装置は、生成した差分画像に基づいて、立体物を検出する。 Patent Document 1 describes a three-dimensional object detection device. This device inputs captured image data of a predetermined region obtained by imaging with a camera, and generates bird's-eye view image data of the input captured image data. In addition, this device generates a difference image between the bird's-eye view image at the current time and the bird's-eye view image one time ago. Then, this device detects a three-dimensional object based on the generated difference image.

国際公開第2013/129357号International Publication No. 2013/129357

上述した立体物検出装置では、現時刻の画像と一時刻前の画像との差分画像を利用することにより、隣接車両の適切な検出を図っている。一方で、隣接車両といった移動物体の検出に際して、このような画像認識を用いる場合には、高性能な処理装置が必要となり、コストが増大する。 In the above-mentioned three-dimensional object detection device, an appropriate detection of an adjacent vehicle is attempted by using a difference image between the image at the current time and the image one time before. On the other hand, when such image recognition is used when detecting a moving object such as an adjacent vehicle, a high-performance processing device is required, which increases the cost.

本発明は、移動物体の検出に際してコストの増大を抑制可能な物体検出装置、及び、物体検出方法を提供することを目的とする。 An object of the present invention is to provide an object detection device capable of suppressing an increase in cost when detecting a moving object, and an object detection method.

本発明に係る物体検出装置は、車両の移動中において車両の周辺領域の移動物体を検出するための物体検出装置であって、第1時刻に取得された周辺領域の画像のエッジを抽出するエッジ抽出部と、画像の各領域に対応する複数のセルに対して、エッジの抽出結果に基づいてエッジ量を設定するエッジ量設定部と、エッジ量が一定以上のセルを、第1時刻において移動物体が存在するセルの候補点として設定する候補点設定部と、第1時刻の候補点と、第1時刻よりも前の第2時刻における移動物体の推定結果とに基づいて、第1時刻における移動物体の推定結果を算出する推定部と、第1時刻における推定結果に基づいて、第1時刻において周辺領域に存在する移動物体を検出する検出部と、を備える。 The object detection device according to the present invention is an object detection device for detecting a moving object in the peripheral region of the vehicle while the vehicle is moving, and is an edge for extracting an edge of an image of the peripheral region acquired at the first time. The extraction unit, the edge amount setting unit that sets the edge amount based on the edge extraction result for a plurality of cells corresponding to each area of the image, and the cell having an edge amount of a certain amount or more are moved at the first time. At the first time, based on the candidate point setting unit that sets the candidate point of the cell in which the object exists, the candidate point at the first time, and the estimation result of the moving object at the second time before the first time. It includes an estimation unit that calculates an estimation result of a moving object, and a detection unit that detects a moving object existing in a peripheral region at the first time based on the estimation result at the first time.

本発明に係る物体検出方法は、車両の移動中において車両の周辺領域の移動物体を検出するための物体検出方法であって、第1時刻に取得された周辺領域の画像のエッジを抽出するエッジ抽出工程と、画像の各領域に対応する複数のセルに対して、エッジの抽出結果に基づいてセルのそれぞれにエッジ量を設定するエッジ量設定工程と、エッジ量が一定以上のセルを、第1時刻において移動物体が存在するセルの候補点として設定する候補点設定工程と、第1時刻の候補点と、第1時刻よりも前の第2時刻における移動物体の推定結果とに基づいて、第1時刻における移動物体の推定結果を算出する推定工程と、第1時刻における推定結果に基づいて、第1時刻において周辺領域に存在する移動物体を検出する検出工程と、を備える。 The object detection method according to the present invention is an object detection method for detecting a moving object in a peripheral region of a vehicle while the vehicle is moving, and is an edge for extracting an edge of an image of the peripheral region acquired at the first time. The extraction step, the edge amount setting step of setting the edge amount for each of the cells based on the edge extraction result for a plurality of cells corresponding to each area of the image, and the cell having the edge amount of a certain amount or more are the first. Based on the candidate point setting step of setting as a candidate point of a cell in which a moving object exists at one time, the candidate point of the first time, and the estimation result of the moving object at the second time before the first time. It includes an estimation step of calculating an estimation result of a moving object at a first time, and a detection step of detecting a moving object existing in a peripheral region at the first time based on the estimation result at the first time.

これらの装置及び方法では、車両の周辺領域の画像のエッジが抽出されると共に、画像の各領域に対応する複数のセルのそれぞれに対してエッジ量が設定される。また、エッジ量が一定以上のセルが、第1時刻において移動物体が存在する候補点として設定される。さらに、第1時刻の候補点と、第1時刻よりも前の第2時刻における移動物体の推定結果とに基づいて、第1時刻における移動物体の推定結果が生成される。そして、この推定結果に基づいて移動物体が検出される。このように、これらの装置及び方法では、移動物体の検出に際して、より計算負荷の低い画像のエッジ量が利用されるため、高性能な処理装置が不要となる。よって、移動物体の検出に際してコストの増大が抑制され得る。 In these devices and methods, the edges of the image in the peripheral region of the vehicle are extracted, and the edge amount is set for each of the plurality of cells corresponding to each region of the image. Further, a cell having an edge amount of a certain amount or more is set as a candidate point where a moving object exists at the first time. Further, the estimation result of the moving object at the first time is generated based on the candidate point at the first time and the estimation result of the moving object at the second time before the first time. Then, a moving object is detected based on this estimation result. As described above, in these devices and methods, the edge amount of the image having a lower calculation load is used when detecting the moving object, so that a high-performance processing device becomes unnecessary. Therefore, an increase in cost can be suppressed when detecting a moving object.

本発明に係る物体検出装置では、第1時刻の候補点であるセルと当該セルの周囲のセルに対して、当該候補点であるセルが中心となるように正規分布状の度数を投票することにより、度数分布を生成する分布生成部を備え、推定部は、度数分布と第2時刻における移動物体の推定結果との乗算結果に基づいて、第1時刻における移動物体の推定結果を算出してもよい。この場合、ノイズの影響が低減され、検出精度が向上される。 In the object detection device according to the present invention, the frequency of the normal distribution is voted for the cell that is the candidate point at the first time and the cells around the cell so that the cell that is the candidate point is the center. A distribution generation unit that generates a frequency distribution is provided, and the estimation unit calculates the estimation result of the moving object at the first time based on the multiplication result of the frequency distribution and the estimation result of the moving object at the second time. May be good. In this case, the influence of noise is reduced and the detection accuracy is improved.

本発明に係る物体検出装置では、候補点設定部は、度数分布において度数が一定以上であるセルを、第1時刻において移動物体が存在するセルの新たな候補点として設定し、分布生成部は、第1時刻の新たな候補点であるセルと当該セルの周囲のセルに対して、当該新たな候補点であるセルが中心となるように正規分布状の度数を投票することにより、新たな度数分布を生成し、推定部は、新たな度数分布と第2時刻における移動物体の推定結果との乗算結果に基づいて、第1時刻における移動物体の推定結果を算出してもよい。この場合、ノイズ影響がより低減され、より検出精度が向上される。 In the object detection device according to the present invention, the candidate point setting unit sets a cell having a frequency equal to or higher than a certain frequency in the frequency distribution as a new candidate point for a cell in which a moving object exists at the first time, and the distribution generation unit sets the cell. , By voting for the cell that is the new candidate point at the first time and the cells around the cell, the frequency of the normal distribution is centered so that the cell that is the new candidate point is the center. The frequency distribution may be generated, and the estimation unit may calculate the estimation result of the moving object at the first time based on the multiplication result of the new frequency distribution and the estimation result of the moving object at the second time. In this case, the influence of noise is further reduced and the detection accuracy is further improved.

本発明によれば、移動物体の検出に際してコストの増大を抑制可能な物体検出装置、及び、物体検出方法を提供することができる。 According to the present invention, it is possible to provide an object detection device and an object detection method capable of suppressing an increase in cost when detecting a moving object.

図1は、本実施形態に係る物体検出システムが搭載された車両を示す模式図である。FIG. 1 is a schematic view showing a vehicle equipped with the object detection system according to the present embodiment. 図2は、図1に示された物体検出システムの構成を示す模式図である。FIG. 2 is a schematic diagram showing the configuration of the object detection system shown in FIG. 図3は、図1,2に示された物体検出装置の機能的な構成を示す図である。FIG. 3 is a diagram showing a functional configuration of the object detection device shown in FIGS. 1 and 2. 図4は、物体検出装置の動作を示すフローチャートである。FIG. 4 is a flowchart showing the operation of the object detection device. 図5は、物体検出の対象となる領域の画像、及び、エッジの抽出結果を示す画像の一例である。FIG. 5 is an example of an image of a region to be detected as an object and an image showing an edge extraction result. 図6は、第1時刻の度数分布の一例を示す図である。FIG. 6 is a diagram showing an example of the frequency distribution at the first time. 図7は、推定結果の一例を示す図である。FIG. 7 is a diagram showing an example of the estimation result.

以下、一実施形態について、図面を参照して詳細に説明する。図面の説明においては、同一又は相当する要素には同一の符号を付し、重複する説明を省略する場合がある。 Hereinafter, one embodiment will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding elements may be designated by the same reference numerals, and duplicate description may be omitted.

図1は、本実施形態に係る物体検出システムが搭載された車両を示す模式図である。図2は、図1に示された物体検出システムの構成を示す模式図である。図1の(a)は平面図であり、図1の(b)は側面図である。車両Cは、例えば、バス等の商用車両やトラック等の産業車両であり得る(図示の例ではトラックである)。また、車両Cは、普通乗用車に比べて車高の高い大型車両や中型車両等であり得る。車両Cは、車体Cbと、車幅方向(ここではY軸方向)の両側において車体Cbに取り付けられた一対のミラーステーCsとを含む。 FIG. 1 is a schematic view showing a vehicle equipped with the object detection system according to the present embodiment. FIG. 2 is a schematic diagram showing the configuration of the object detection system shown in FIG. FIG. 1A is a plan view, and FIG. 1B is a side view. The vehicle C can be, for example, a commercial vehicle such as a bus or an industrial vehicle such as a truck (in the illustrated example, it is a truck). Further, the vehicle C can be a large vehicle, a medium-sized vehicle, or the like having a height higher than that of an ordinary passenger car. The vehicle C includes a vehicle body Cb and a pair of mirror stays Cs attached to the vehicle body Cb on both sides in the vehicle width direction (here, the Y-axis direction).

物体検出システム100は、車両Cに搭載されている。物体検出システム100は、物体検出装置1、撮像装置50、及び、出力装置60を備えている。物体検出装置1については後述する。撮像装置50は、所定の領域を撮像して画像を取得可能な装置であり、例えば、電子ミラーや監視カメラ等である。撮像装置50は、一対のミラーステーCsのそれぞれに設けられている。したがって、撮像装置50は、車両Cの車幅方向の両側に設けられることとなる。 The object detection system 100 is mounted on the vehicle C. The object detection system 100 includes an object detection device 1, an image pickup device 50, and an output device 60. The object detection device 1 will be described later. The image pickup device 50 is a device capable of capturing an image of a predetermined area and acquiring an image, and is, for example, an electronic mirror, a surveillance camera, or the like. The image pickup apparatus 50 is provided on each of the pair of mirror stays Cs. Therefore, the image pickup devices 50 are provided on both sides of the vehicle C in the vehicle width direction.

また、撮像装置50は、(ミラーステーCsの位置に応じて)車両Cの前後方向(ここではX軸方向)における車両Cの前方に設けられている。さらに、撮像装置50は、車両Cの高さ方向(ここではZ軸方向)の中心よりも上方に設けられ得る。これにより、撮像装置50の撮像領域50rは、車体Cbの側面近傍であり路面Rsを含む車両Cの側方の領域(周辺領域)R(車両Cの運転者から死角となる領域)を含むようにされている。撮像装置50は、取得した画像を物体検出装置1等に出力する。 Further, the image pickup apparatus 50 is provided in front of the vehicle C in the front-rear direction (here, the X-axis direction) of the vehicle C (depending on the position of the mirror stays Cs). Further, the image pickup device 50 may be provided above the center of the vehicle C in the height direction (here, the Z-axis direction). As a result, the imaging region 50r of the imaging device 50 includes a region (peripheral region) R (a region that becomes a blind spot from the driver of the vehicle C) of the vehicle C that is near the side surface of the vehicle body Cb and includes the road surface Rs. Has been made. The image pickup device 50 outputs the acquired image to the object detection device 1 and the like.

出力装置60は、物体検出装置1から検出結果を示す情報を取得して出力する。出力装置60は、例えば、ディスプレイ、スピーカー、及び、バイブレータ等であって、車両Cの運転者に対して視覚や音声や振動等によって物体検出装置1の検出結果を出力可能とされている。なお、車両Cには、車両Cの後部において車両Cの車幅方向の両側部分のそれぞれに対して、後側方監視装置51が設けられている。後側方監視装置51は、一例として、所定の検知範囲51rを有するバックカメラ又はレーザレーダ等である。 The output device 60 acquires and outputs information indicating the detection result from the object detection device 1. The output device 60 is, for example, a display, a speaker, a vibrator, or the like, and is capable of outputting the detection result of the object detection device 1 to the driver of the vehicle C by sight, voice, vibration, or the like. The vehicle C is provided with a rear side monitoring device 51 for each of both side portions of the vehicle C in the vehicle width direction at the rear portion of the vehicle C. The rear side monitoring device 51 is, for example, a back camera, a laser radar, or the like having a predetermined detection range 51r.

引き続いて、物体検出装置1について説明する。図3は、図1,2に示された物体検出装置の機能的な構成を示す図である。図3に示される物体検出装置1は、車両Cの移動中において、車両Cの周辺領域である領域Rの移動物体を検出するためのものである。物体検出装置1は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有する電子制御ユニットにおいて構成され得る。物体検出装置1の後述する各機能部は、ROMに記録されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより実現され得る。 Subsequently, the object detection device 1 will be described. FIG. 3 is a diagram showing a functional configuration of the object detection device shown in FIGS. 1 and 2. The object detection device 1 shown in FIG. 3 is for detecting a moving object in the region R, which is a peripheral region of the vehicle C, while the vehicle C is moving. The object detection device 1 may be configured as an electronic control unit having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. Each functional unit described later in the object detection device 1 can be realized by loading the program recorded in the ROM into the RAM and executing the program loaded in the RAM in the CPU.

まず、物体検出装置1の各部の動作の概要について説明する。物体検出装置1は、画像生成部11、エッジ抽出部12、エッジ量設定部13、候補点設定部14、分布生成部15、推定部16、及び、検出部17を有している。画像生成部11は、撮像装置50から領域Rの撮像画像の入力を受けると共に、撮像画像から後の処理に適した画像(以下、「対象画像」という場合がある)を生成する。エッジ抽出部12は、対象画像のエッジを抽出する。エッジ量設定部13は、対象画像を構成する各領域に対応する複数のセルのそれぞれに対して、エッジの抽出結果に基づいてエッジ量を設定する。 First, an outline of the operation of each part of the object detection device 1 will be described. The object detection device 1 includes an image generation unit 11, an edge extraction unit 12, an edge amount setting unit 13, a candidate point setting unit 14, a distribution generation unit 15, an estimation unit 16, and a detection unit 17. The image generation unit 11 receives the input of the captured image of the region R from the imaging device 50, and generates an image suitable for the subsequent processing (hereinafter, may be referred to as “target image”) from the captured image. The edge extraction unit 12 extracts the edge of the target image. The edge amount setting unit 13 sets the edge amount for each of the plurality of cells corresponding to each area constituting the target image based on the edge extraction result.

候補点設定部14は、エッジ量が一定以上のセルを、移動物体が存在するセルの候補点として設定する。分布生成部15は、候補点であるセルと当該セルの周囲のセルに対して、当該候補点であるセルが中心となるように正規分布状の度数を投票することにより、度数分布を生成する。推定部16は、現在(第1時刻)の候補点と、当該第1時刻よりも前の過去(第2時刻)における移動物体の推定結果とに基づいて、第1時刻における移動物体の推定結果を生成する。検出部17は、第1時刻における移動物体の推定結果に基づいて、第1時刻において領域Rに存在する移動物体を検出する。検出部17は、検出結果を示す情報を出力装置60に出力する。 The candidate point setting unit 14 sets a cell having an edge amount of a certain amount or more as a candidate point of a cell in which a moving object exists. The distribution generation unit 15 generates a frequency distribution by voting for a cell having a candidate point and cells surrounding the cell with a frequency having a normal distribution so that the cell having the candidate point is at the center. .. The estimation unit 16 estimates the moving object at the first time based on the current (first time) candidate point and the estimation result of the moving object in the past (second time) before the first time. To generate. The detection unit 17 detects the moving object existing in the region R at the first time based on the estimation result of the moving object at the first time. The detection unit 17 outputs information indicating the detection result to the output device 60.

引き続いて、物体検出装置1の各部の動作の詳細について説明する。図4は、物体検出装置の動作を示すフローチャートである。図4に示されるフローチャートは、本実施形態に係る物体検出方法を示す。 Subsequently, the details of the operation of each part of the object detection device 1 will be described. FIG. 4 is a flowchart showing the operation of the object detection device. The flowchart shown in FIG. 4 shows an object detection method according to the present embodiment.

この方法では、まず、画像生成部11が、撮像装置50から撮像画像(第1時刻に取得された領域Rの画像)の入力を受ける。図5の(a)は、入力画像の一例である。入力画像には、移動物体Qと路面Rsとが含まれる。続いて、画像生成部11が、入力画像を縮小する(工程S1)。ここでは、画像生成部11は、例えば、入力画像を構成する複数の領域(画素)を間引きすることにより、入力画像のサイズを縮小する。続いて、画像生成部11が、縮小された入力画像の射影変換を行う(工程S2)。これにより、入力画像から正射投影画像が生成される。また、この工程S2では、画像生成部11は、車両Cの走行車線に隣接する車線P1のみを正射投影画像から切り出す(図5の(a)参照)。 In this method, first, the image generation unit 11 receives the input of the captured image (the image of the region R acquired at the first time) from the imaging device 50. FIG. 5A is an example of an input image. The input image includes a moving object Q and a road surface Rs. Subsequently, the image generation unit 11 reduces the input image (step S1). Here, the image generation unit 11 reduces the size of the input image by, for example, thinning out a plurality of regions (pixels) constituting the input image. Subsequently, the image generation unit 11 performs a projective transformation of the reduced input image (step S2). As a result, an orthographic projection image is generated from the input image. Further, in this step S2, the image generation unit 11 cuts out only the lane P1 adjacent to the traveling lane of the vehicle C from the orthographic projection image (see (a) of FIG. 5).

続いて、画像生成部11が、正射投影画像における近距離部分の平滑化を行う(S3)。これは、工程S2において入力画像から正射投影画像を生成する際に、撮像装置50に近い近距離部分に対して撮像装置50から遠い遠距離部分が引き伸ばされることに起因して、後のエッジ抽出の際に近距離部分で路面Rsの荒れに起因して、移動物体Qと異なるエッジが多く抽出されることを避けるためである。これにより、続くエッジ抽出等の処理の対象となる対象画像が生成される。 Subsequently, the image generation unit 11 smoothes the short-distance portion of the orthographic projection image (S3). This is because when the orthographic projection image is generated from the input image in step S2, the long-distance portion far from the image pickup device 50 is stretched with respect to the short-distance portion close to the image pickup device 50. This is to avoid extracting many edges different from the moving object Q due to the roughness of the road surface Rs in the short distance portion at the time of extraction. As a result, a target image to be processed such as subsequent edge extraction is generated.

続いて、エッジ抽出部12が、対象画像(第1時刻に取得された領域Rの画像)のエッジを抽出する(工程S4:エッジ抽出工程)。図5の(b)は、抽出されたエッジが示されたエッジ画像P2の一例である。 Subsequently, the edge extraction unit 12 extracts the edge of the target image (the image of the region R acquired at the first time) (step S4: edge extraction step). FIG. 5B is an example of the edge image P2 showing the extracted edges.

続いて、対象画像のエッジ量の評価が行われる(工程S5)。より具体的には、工程S5では、まず、エッジ量設定部13が、エッジ画像P2(エッジの抽出結果)に基づいて、対象画像の各領域に対応する複数のセルに対してエッジ量を設定する(エッジ量設定工程)。 Subsequently, the edge amount of the target image is evaluated (step S5). More specifically, in step S5, first, the edge amount setting unit 13 sets the edge amount for a plurality of cells corresponding to each area of the target image based on the edge image P2 (edge extraction result). (Edge amount setting process).

エッジの抽出に供された対象画像とエッジ画像P2とは、互いに対応している。したがって、対象画像を、例えば2次元行列状に分割した場合の各領域に対応するセル(2次元行列状に配列されたセル)を構成したうえで、エッジ画像P2の対応する各領域に存在するエッジの量(エッジを構成するドットの数)をカウントすれば、各セルに対してエッジ量を設定できる。つまり、この工程S5では、2次元行列状(例えば15×4の行列状)に配列されると共に、エッジ量が設定された複数のセルを含むセル群が構成されることとなる。 The target image and the edge image P2 used for edge extraction correspond to each other. Therefore, after forming cells (cells arranged in a two-dimensional matrix) corresponding to each region when the target image is divided into, for example, a two-dimensional matrix, the target image exists in each corresponding region of the edge image P2. By counting the amount of edges (the number of dots that make up the edge), the amount of edges can be set for each cell. That is, in this step S5, a cell group including a plurality of cells arranged in a two-dimensional matrix (for example, a 15 × 4 matrix) and having an edge amount set is formed.

工程S5では、続いて、候補点設定部14が、各セルのエッジ量を評価することにより、エッジ量が一定以上のセルを、第1時刻において移動物体が存在するセル(対象画像における移動物体が存在する領域に対応するセル)の候補点として設定する(候補点設定工程)。なお、工程S5で構成されたセル群に対して、複数の候補点が設定され得る。 In step S5, the candidate point setting unit 14 subsequently evaluates the edge amount of each cell to select cells having an edge amount of a certain amount or more and cells in which a moving object exists at the first time (moving object in the target image). Is set as a candidate point (cell corresponding to the area where) exists (candidate point setting step). A plurality of candidate points may be set for the cell group configured in step S5.

続いて、観測結果の算出が行われる(工程S6)。より具体的には、この工程S6では、分布生成部15が、第1時刻の候補点であるセルと当該セルの周囲のセルに対して、当該候補点であるセルが中心となるように正規分布状の度数を投票することにより、度数分布(ヒストグラム)を生成する。 Subsequently, the observation result is calculated (step S6). More specifically, in this step S6, the distribution generation unit 15 is normal so that the cell that is the candidate point at the first time is centered on the cell that is the candidate point and the cells around the cell. A frequency distribution (histogram) is generated by voting for the frequency of the distribution.

図6の(a)は、投票に用いられる正規分布状の度数(デジタル化された正規分布)の一例である。図6の(b)は、投票の結果生成された度数分布の一例である。図6の例では、度数分布P3の座標(3,3)のセルSが候補点Saとして設定されており、当該候補点SaのセルSを中心として、3×3の正規分布状の分布Vに応じた投票が行われている。このようにして生成された度数分布P3を、第1時刻における移動物体の観測結果とすることができる。 FIG. 6A is an example of a normal distribution frequency (digitized normal distribution) used for voting. FIG. 6B is an example of the frequency distribution generated as a result of voting. In the example of FIG. 6, the cell S at the coordinates (3, 3) of the frequency distribution P3 is set as the candidate point Sa, and the distribution V in a normal distribution of 3 × 3 is centered on the cell S of the candidate point Sa. Voting is done according to. The frequency distribution P3 generated in this way can be used as the observation result of the moving object at the first time.

一方、候補点Saが複数存在する場合には、上記のように投票を行うと、重複して投票を受けるセルSが発生する場合がある。この場合、重複して投票を受けたセルSが、当初の候補点Saとして設定されたセルSでない場合であっても、当初の候補点Saとして設定されたセルSよりも大きな度数となる場合がある。 On the other hand, when there are a plurality of candidate points Sa, if voting is performed as described above, cells S that receive duplicate votes may occur. In this case, even if the cell S that has received duplicate votes is not the cell S set as the initial candidate point Sa, the frequency is higher than that of the cell S set as the initial candidate point Sa. There is.

このため、この工程S6では、候補点設定部14が、度数分布において度数が一定以上であるセルSを、第1時刻において移動物体が存在するセルSの新たな候補点Saとして設定することができる。すなわち、この工程S6では、閾値を用いた候補点Saの再設定を行うことができる。この場合、分布生成部15は、第1時刻の新たな候補点SaであるセルSと当該セルSの周囲のセルSに対して、当該新たな候補点SaであるセルSが中心となるように正規分布状の度数を投票することにより、新たな度数分布を生成することができる。そして、この新たな度数分布を、第1時刻における移動物体の観測結果(観測マップ)とすることができる。 Therefore, in this step S6, the candidate point setting unit 14 may set the cell S whose frequency is equal to or higher than a certain value in the frequency distribution as a new candidate point Sa of the cell S in which the moving object exists at the first time. can. That is, in this step S6, the candidate point Sa can be reset using the threshold value. In this case, the distribution generation unit 15 is centered on the cell S, which is the new candidate point Sa, with respect to the cell S, which is the new candidate point Sa at the first time, and the cells S around the cell S. A new frequency distribution can be generated by voting for the frequency of the normal distribution. Then, this new frequency distribution can be used as the observation result (observation map) of the moving object at the first time.

続いて、推定部16が、第1時刻における移動物体の推定結果を算出する(工程S7:推定工程)。この工程S7について、より具体的に説明する。この工程S7では、工程S6で生成された第1時刻の観測結果(度数分布P3、又は新たな度数分布)と第2時刻における移動物体の推定結果(事前推定マップ)との乗算結果に基づいて、第1時刻における移動物体の推定結果を算出する。 Subsequently, the estimation unit 16 calculates the estimation result of the moving object at the first time (step S7: estimation step). This step S7 will be described more specifically. In this step S7, based on the multiplication result of the observation result (frequency distribution P3 or a new frequency distribution) of the first time generated in step S6 and the estimation result (pre-estimation map) of the moving object at the second time. , Calculate the estimation result of the moving object at the first time.

図7の(a)は、第2時刻における移動物体の推定結果の一例を示す。図7の(a)に示されるように、第2時刻における移動物体の推定結果P4は、上記と同様の工程を経て既に生成されたものであり、セルSのそれぞれに対して移動物体が存在する確率(推定)が設定されている。推定結果P4では、全てのセルSの値を合計すると1になるように正規化されることにより、それぞれのセルSの値が移動物体の存在確率とされている。 FIG. 7A shows an example of the estimation result of the moving object at the second time. As shown in FIG. 7A, the estimation result P4 of the moving object at the second time has already been generated through the same steps as described above, and the moving object exists for each of the cells S. Probability (estimation) to do is set. In the estimation result P4, the values of the cells S are normalized to be 1 when the values of all the cells S are summed, so that the values of the cells S are the existence probabilities of the moving objects.

この工程S7では、図6の(b)に示されるような度数分布P3の各セルSと、図7の(a)に示されるような過去の推定結果P4の各セルSと、を掛け合わせることにより、図7の(b)に示されるような推定結果P5を算出する。ここでの乗算は、互に対応するセルS間のみで行われる。すなわち、例えば、度数分布P3の座標(3,3)のセルSの値と、推定結果P4の座標(3,3)のセルSの値と、が掛け合わされて推定結果P5の座標(3,3)のセルSの値とされる。 In this step S7, each cell S of the frequency distribution P3 as shown in FIG. 6B is multiplied by each cell S of the past estimation result P4 as shown in FIG. 7A. As a result, the estimation result P5 as shown in FIG. 7 (b) is calculated. The multiplication here is performed only between the cells S corresponding to each other. That is, for example, the value of the cell S at the coordinates (3,3) of the frequency distribution P3 is multiplied by the value of the cell S at the coordinates (3,3) of the estimation result P4, and the coordinates (3,3) of the estimation result P5 are multiplied. It is the value of cell S in 3).

以上のように、この工程S7では、工程S6で生成された第1時刻の度数分布P3と第2時刻における移動物体の推定結果P4との乗算結果に基づいて、第1時刻における移動物体の推定結果が算出される。度数分布P3は、候補点Saの情報を基に生成される。したがって、この工程S7では、推定部16が、第1時刻の候補点Saと第2時刻の推定結果P4とに基づいて、第1時刻の推定結果P5を算出することとなる。 As described above, in this step S7, the moving object at the first time is estimated based on the multiplication result of the frequency distribution P3 at the first time generated in the step S6 and the estimation result P4 of the moving object at the second time. The result is calculated. The frequency distribution P3 is generated based on the information of the candidate point Sa. Therefore, in this step S7, the estimation unit 16 calculates the estimation result P5 of the first time based on the candidate point Sa of the first time and the estimation result P4 of the second time.

さらに、この工程S7では、推定部16は、算出された推定結果P5のそれぞれのセルSの値の合計値が1となるように正規化する。後のオブジェクト判定は、この正規化後の推定結果P5に基づいて行うことができる。 Further, in this step S7, the estimation unit 16 normalizes the calculated estimation result P5 so that the total value of each cell S is 1. The subsequent object determination can be performed based on the estimation result P5 after this normalization.

一方、以上のように算出された第1時刻における推定結果P5は、第1時刻よりも後の第3時刻の推定結果を算出する際に、第3時刻の度数分布との乗算に用いられる。図7の(b)に示されるように、推定結果P5には、値がゼロのセルSが含まれる。このため、第3時刻の推定結果のセルのうち、第1時刻の推定結果P5の値が0のセルSとの乗算により算出されるセルの値は、元の度数分布の値に依らずにゼロとなる(移動物体の存在が推定されない)。このような状況を避けるため、この工程S7では、推定結果P5は、そのセルSの最小の値がゼロよりも大きな値(例えば0.001)となるように処理(例えば全てのセルSに一定の値を足し合わせる処理)がされると共に、それぞれのセルSの値の合計値が1になるように正規化された後、第3時刻の推定結果の算出の際の事前推定マップとして利用される。 On the other hand, the estimation result P5 at the first time calculated as described above is used for multiplication with the frequency distribution at the third time when calculating the estimation result at the third time after the first time. As shown in FIG. 7B, the estimation result P5 includes the cell S having a value of zero. Therefore, among the cells of the estimation result of the third time, the value of the cell calculated by multiplication with the cell S in which the value of the estimation result P5 of the first time is 0 does not depend on the value of the original frequency distribution. It becomes zero (the existence of moving objects is not estimated). In order to avoid such a situation, in this step S7, the estimation result P5 is processed so that the minimum value of the cell S is a value larger than zero (for example, 0.001) (for example, it is constant for all cells S). After being normalized so that the total value of the values in each cell S becomes 1, it is used as a pre-estimation map when calculating the estimation result at the third time. NS.

続く工程では、検出部17が、オブジェクト判定を行う(工程S8:検出工程)。より具体的には、検出部17は、第1時刻における推定結果P5に基づいて、第1時刻において領域Rに存在する移動物体Qを検出する。この工程S8では、検出部17は、推定結果P5のセルSのうち、一定の値以上であり、且つ、最大の値を有するセルSを移動物体Qの存在するセルとして検出する。 In the subsequent step, the detection unit 17 determines the object (step S8: detection step). More specifically, the detection unit 17 detects the moving object Q existing in the region R at the first time based on the estimation result P5 at the first time. In this step S8, the detection unit 17 detects the cell S having a certain value or more and the maximum value among the cells S of the estimation result P5 as the cell in which the moving object Q exists.

以上説明したように、本実施形態に係る物体検出装置1及び物体検出方法では、車両Cの周辺の領域Rの画像のエッジが抽出されると共に、画像の各領域に対応する複数のセルSのそれぞれに対してエッジ量が設定される。また、エッジ量が一定以上のセルSが、第1時刻において移動物体Qが存在する候補点Saとして設定される。さらに、第1時刻の候補点Saと、第1時刻よりも前の第2時刻における移動物体Qの推定結果P4とに基づいて、第1時刻における移動物体Qの推定結果P5が生成される。そして、この推定結果P5に基づいて移動物体Qが検出される。このように、これらの装置及び方法では、移動物体Qの検出に際して、より計算負荷の低い画像のエッジ量が利用されるため、高性能な処理装置が不要となる。よって、移動物体Qの検出に際してコストの増大が抑制され得る。 As described above, in the object detection device 1 and the object detection method according to the present embodiment, the edges of the image of the region R around the vehicle C are extracted, and the edges of the image of the plurality of cells S corresponding to each region of the image are extracted. The edge amount is set for each. Further, the cell S having an edge amount of a certain amount or more is set as a candidate point Sa in which the moving object Q exists at the first time. Further, the estimation result P5 of the moving object Q at the first time is generated based on the candidate point Sa at the first time and the estimation result P4 of the moving object Q at the second time before the first time. Then, the moving object Q is detected based on the estimation result P5. As described above, in these devices and methods, the edge amount of the image having a lower calculation load is used when detecting the moving object Q, so that a high-performance processing device becomes unnecessary. Therefore, an increase in cost can be suppressed when detecting the moving object Q.

また、本実施形態に係る物体検出装置1では、第1時刻の候補点SaであるセルSと当該セルSの周囲のセルSに対して、当該候補点SaであるセルSが中心となるように正規分布状の度数を投票することにより、度数分布P3を生成する分布生成部15を備えている。そして、推定部16は、度数分布P3と第2時刻における移動物体Qの推定結果P4との乗算結果に基づいて、第1時刻における移動物体Qの推定結果P5を算出する。この場合、ノイズの影響が低減され、検出精度が向上される。 Further, in the object detection device 1 according to the present embodiment, the cell S which is the candidate point Sa is centered on the cell S which is the candidate point Sa at the first time and the cells S around the cell S. A distribution generation unit 15 that generates a frequency distribution P3 by voting for a frequency in a normal distribution pattern is provided. Then, the estimation unit 16 calculates the estimation result P5 of the moving object Q at the first time based on the multiplication result of the frequency distribution P3 and the estimation result P4 of the moving object Q at the second time. In this case, the influence of noise is reduced and the detection accuracy is improved.

特に、この場合には、第1時刻と第2時刻との間に、車両Cとの相対移動量の少ない(相対速度の小さい)物体の存在確率が大きく推定される。すなわち、例えば、移動中の車両Cとの相対速度が比較的大きい(静止した)路面Rsの付帯物等については、第2時刻において推定結果P4に存在するものの、第2時刻から第1時刻の間に車両Cの周囲の領域Rから離間することにより、第1時刻の度数分布P3に存在しない場合があり、この場合には推定結果P5において検出されない。よって、この場合には、車両Cと同方向に移動する移動物体Qがより顕著に検出されることなり、検出精度が向上される。 In particular, in this case, the existence probability of an object having a small relative movement amount (small relative velocity) with the vehicle C is largely estimated between the first time and the second time. That is, for example, with respect to an accessory of the road surface Rs having a relatively high relative speed (stationary) with the moving vehicle C, although it exists in the estimation result P4 at the second time, it is from the second time to the first time. By separating from the region R around the vehicle C in the meantime, it may not exist in the frequency distribution P3 at the first time, and in this case, it is not detected in the estimation result P5. Therefore, in this case, the moving object Q moving in the same direction as the vehicle C is detected more remarkably, and the detection accuracy is improved.

なお、物体検出装置1では、例えば、度数の投票に用いられる分布Vの広がりを調整したり、推定結果P5のセルSの最小の値をゼロよりも大きな値とする処理において推定結果P5のセルSに足し合わせる値を調整したりすることにより、第1時刻と第2時刻との間の相関の強弱を調整することができる。 In the object detection device 1, for example, the cell of the estimation result P5 is adjusted in the process of adjusting the spread of the distribution V used for voting the frequency and setting the minimum value of the cell S of the estimation result P5 to a value larger than zero. By adjusting the value to be added to S, the strength of the correlation between the first time and the second time can be adjusted.

一方、本実施形態に係る物体検出装置1では、候補点設定部14は、度数分布P3において度数が一定以上であるセルSを、第1時刻において移動物体Qが存在するセルSの新たな候補点Saとして設定することができる。また、分布生成部15は、第1時刻の新たな候補点SaであるセルSと当該セルSの周囲のセルSに対して、当該新たな候補点SaであるセルSが中心となるように正規分布状の度数を投票することにより、新たな度数分布P3を生成することができる。そして、推定部16は、新たな度数分布P3と第2時刻における移動物体Qの推定結果P4との乗算結果に基づいて、第1時刻における移動物体Qの推定結果P5を算出してもよい。この場合、ノイズ影響がより低減され、より検出精度が向上される。 On the other hand, in the object detection device 1 according to the present embodiment, the candidate point setting unit 14 selects the cell S whose frequency is equal to or higher than a certain value in the frequency distribution P3 as a new candidate for the cell S in which the moving object Q exists at the first time. It can be set as a point Sa. Further, in the distribution generation unit 15, the cell S, which is the new candidate point Sa, is centered on the cell S, which is the new candidate point Sa at the first time, and the cells S around the cell S. By voting the frequency of the normal distribution, a new frequency distribution P3 can be generated. Then, the estimation unit 16 may calculate the estimation result P5 of the moving object Q at the first time based on the multiplication result of the new frequency distribution P3 and the estimation result P4 of the moving object Q at the second time. In this case, the influence of noise is further reduced and the detection accuracy is further improved.

さらに、本実施形態に係る物体検出装置1では、大型車両等の比較的車高の高い車両CのミラーステーCsに取り付けられた撮像装置50によって撮像された画像を用いる。このため、投影変換の際の画像の歪みが低減され、より検出精度が向上される。 Further, the object detection device 1 according to the present embodiment uses an image captured by the image pickup device 50 attached to the mirror stay Cs of the vehicle C having a relatively high vehicle height such as a large vehicle. Therefore, the distortion of the image during the projective transformation is reduced, and the detection accuracy is further improved.

以上の実施形態は、本発明の一側面を説明したものである。したがって、本発明は、上述した一形態に限定されることなく、任意に変形され得る。 The above embodiments have described one aspect of the present invention. Therefore, the present invention is not limited to the above-mentioned one form, and can be arbitrarily modified.

1…物体検出装置、12…エッジ抽出部、13…エッジ量設定部、14…候補点設定部、15…分布生成部、16…推定部、17…検出部、C…車両、Q…移動物体、R…領域(周辺領域)。 1 ... object detection device, 12 ... edge extraction unit, 13 ... edge amount setting unit, 14 ... candidate point setting unit, 15 ... distribution generation unit, 16 ... estimation unit, 17 ... detection unit, C ... vehicle, Q ... moving object , R ... Area (peripheral area).

Claims (4)

車両の移動中において前記車両の周辺領域の移動物体を検出するための物体検出装置であって、
第1時刻に取得された前記周辺領域の画像のエッジを抽出するエッジ抽出部と、
前記画像の各領域に対応する複数のセルに対して、前記エッジの抽出結果に基づいてエッジ量を設定するエッジ量設定部と、
前記エッジ量が一定以上の前記セルを、前記第1時刻において前記移動物体が存在する前記セルの候補点として設定する候補点設定部と、
前記第1時刻の前記候補点と、前記第1時刻よりも前の第2時刻における前記移動物体の推定結果とに基づいて、前記第1時刻における前記移動物体の推定結果を算出する推定部と、
前記第1時刻における前記推定結果に基づいて、前記第1時刻において前記周辺領域に存在する前記移動物体を検出する検出部と、
を備える物体検出装置。
An object detection device for detecting a moving object in the peripheral area of the vehicle while the vehicle is moving.
An edge extraction unit that extracts the edges of the image of the peripheral area acquired at the first time, and an edge extraction unit.
An edge amount setting unit that sets an edge amount based on the edge extraction result for a plurality of cells corresponding to each area of the image, and an edge amount setting unit.
A candidate point setting unit that sets the cell having an edge amount of a certain amount or more as a candidate point of the cell in which the moving object exists at the first time.
An estimation unit that calculates the estimation result of the moving object at the first time based on the candidate point at the first time and the estimation result of the moving object at the second time before the first time. ,
Based on the estimation result at the first time, a detection unit that detects the moving object existing in the peripheral region at the first time, and a detection unit.
An object detection device comprising.
前記第1時刻の前記候補点である前記セルと当該セルの周囲の前記セルに対して、当該候補点である前記セルが中心となるように正規分布状の度数を投票することにより、度数分布を生成する分布生成部を備え、
前記推定部は、前記度数分布と前記第2時刻における前記移動物体の推定結果との乗算結果に基づいて、前記第1時刻における前記移動物体の推定結果を算出する、
請求項1に記載の物体検出装置。
The frequency distribution is performed by voting the frequency in a normal distribution pattern so that the cell, which is the candidate point, is the center of the cell, which is the candidate point at the first time, and the cells around the cell. Equipped with a distribution generator that generates
The estimation unit calculates the estimation result of the moving object at the first time based on the multiplication result of the frequency distribution and the estimation result of the moving object at the second time.
The object detection device according to claim 1.
前記候補点設定部は、前記度数分布において前記度数が一定以上である前記セルを、前記第1時刻において前記移動物体が存在する前記セルの新たな候補点として設定し、
前記分布生成部は、前記第1時刻の前記新たな候補点である前記セルと当該セルの周囲の前記セルに対して、当該新たな候補点である前記セルが中心となるように正規分布状の度数を投票することにより、新たな度数分布を生成し、
前記推定部は、前記新たな度数分布と前記第2時刻における前記移動物体の推定結果との乗算結果に基づいて、前記第1時刻における前記移動物体の推定結果を算出する、
請求項2に記載の物体検出装置。
The candidate point setting unit sets the cell in which the frequency is constant or higher in the frequency distribution as a new candidate point of the cell in which the moving object exists at the first time.
The distribution generation unit has a normal distribution pattern such that the cell, which is the new candidate point, is centered on the cell, which is the new candidate point at the first time, and the cell around the cell. By voting for the frequency of, a new frequency distribution is generated,
The estimation unit calculates the estimation result of the moving object at the first time based on the multiplication result of the new frequency distribution and the estimation result of the moving object at the second time.
The object detection device according to claim 2.
車両の移動中において前記車両の周辺領域の移動物体を検出するための物体検出方法であって、
第1時刻に取得された前記周辺領域の画像のエッジを抽出するエッジ抽出工程と、
前記画像の各領域に対応する複数のセルに対して、前記エッジの抽出結果に基づいて前記セルのそれぞれにエッジ量を設定するエッジ量設定工程と、
前記エッジ量が一定以上の前記セルを、前記第1時刻において前記移動物体が存在する前記セルの候補点として設定する候補点設定工程と、
前記第1時刻の前記候補点と、前記第1時刻よりも前の第2時刻における前記移動物体の推定結果とに基づいて、前記第1時刻における前記移動物体の推定結果を生成する推定工程と、
前記第1時刻における前記推定結果に基づいて、前記第1時刻において前記周辺領域に存在する前記移動物体を検出する検出工程と、
を備える物体検出方法。
It is an object detection method for detecting a moving object in the peripheral area of the vehicle while the vehicle is moving.
An edge extraction step of extracting the edges of the image of the peripheral region acquired at the first time, and
An edge amount setting step of setting an edge amount in each of the cells based on the extraction result of the edge for a plurality of cells corresponding to each region of the image.
A candidate point setting step of setting the cell having an edge amount of a certain amount or more as a candidate point of the cell in which the moving object exists at the first time.
An estimation step of generating an estimation result of the moving object at the first time based on the candidate point at the first time and the estimation result of the moving object at the second time before the first time. ,
A detection step of detecting the moving object existing in the peripheral region at the first time based on the estimation result at the first time.
An object detection method comprising.
JP2020000902A 2020-01-07 2020-01-07 Object detection device and object detection method Active JP7383491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020000902A JP7383491B2 (en) 2020-01-07 2020-01-07 Object detection device and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020000902A JP7383491B2 (en) 2020-01-07 2020-01-07 Object detection device and object detection method

Publications (2)

Publication Number Publication Date
JP2021111018A true JP2021111018A (en) 2021-08-02
JP7383491B2 JP7383491B2 (en) 2023-11-20

Family

ID=77059885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020000902A Active JP7383491B2 (en) 2020-01-07 2020-01-07 Object detection device and object detection method

Country Status (1)

Country Link
JP (1) JP7383491B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020808A (en) * 1999-06-01 2010-01-28 Fujitsu Microelectronics Ltd Method and device for recognizing moving object
JP2012185555A (en) * 2011-03-03 2012-09-27 Panasonic Corp Object detecting device and method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020808A (en) * 1999-06-01 2010-01-28 Fujitsu Microelectronics Ltd Method and device for recognizing moving object
JP2012185555A (en) * 2011-03-03 2012-09-27 Panasonic Corp Object detecting device and method, and program

Also Published As

Publication number Publication date
JP7383491B2 (en) 2023-11-20

Similar Documents

Publication Publication Date Title
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
CN103448650B (en) target identification system and target identification method
US20230110116A1 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
EP1944721A2 (en) Image processing apparatus, method and program product thereof
JP2008172441A (en) Detection device, method, and program
CN107950023B (en) Vehicle display device and vehicle display method
WO2017159082A1 (en) Image processing device, apparatus control system, image pickup device, image processing method, and program
JP2014142241A (en) Three-dimensional position estimation device, vehicle controller, and three-dimensional position estimation method
JPWO2017115732A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program
CN109323674B (en) Apparatus and method for hybrid ground clearance determination
JP2020122754A (en) Three-dimensional position estimation device and program
JP2008171141A (en) Image processor, method, and program
JP2014006075A (en) Pedestrian detection device
JP6631691B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP7383491B2 (en) Object detection device and object detection method
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP2018092605A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
US20220309400A1 (en) Learning method, learning device, and recording medium
JP2021060720A (en) Object detection device
JP2005216200A (en) Other vehicle detecting apparatus and method
CN113516685B (en) Target tracking method, device, equipment and storage medium
JP2023107533A (en) Image processing device of person detection system
JP2022130307A (en) Information processing device, information processing method and program
CN112400094B (en) Object detecting device
JP5472137B2 (en) Boundary detection device and boundary detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231108

R150 Certificate of patent or registration of utility model

Ref document number: 7383491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150