JP2018197945A - Obstacle detection apparatus and obstacle detection method - Google Patents

Obstacle detection apparatus and obstacle detection method Download PDF

Info

Publication number
JP2018197945A
JP2018197945A JP2017102114A JP2017102114A JP2018197945A JP 2018197945 A JP2018197945 A JP 2018197945A JP 2017102114 A JP2017102114 A JP 2017102114A JP 2017102114 A JP2017102114 A JP 2017102114A JP 2018197945 A JP2018197945 A JP 2018197945A
Authority
JP
Japan
Prior art keywords
detection
obstacle
unit
particles
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017102114A
Other languages
Japanese (ja)
Inventor
勝利 岡田
Katsutoshi Okada
勝利 岡田
祐介 野村
Yusuke Nomura
祐介 野村
和也 伊集院
Kazuya Ijuin
和也 伊集院
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017102114A priority Critical patent/JP2018197945A/en
Publication of JP2018197945A publication Critical patent/JP2018197945A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To improve detection accuracy of an obstacle.SOLUTION: An obstacle detection device according to an embodiment includes a first detection unit, a reference histogram calculation unit, a generation unit, a histogram calculation unit, a likelihood calculation unit, a weighting unit, and a second detection unit. The first detection unit detects an obstacle detection area from a first frame image. The reference histogram calculation unit calculates a reference hue histogram in the detection area. The generation unit generates a plurality of particles on a second frame image after the first frame image based on the detection area. The histogram calculation unit calculates a hue histogram within a designated range provided for each of the plurality of particles. The likelihood calculation unit calculates likelihood of the reference hue histogram and the hue histogram. The weighting unit weights each of the plurality of particles based on the likelihood. The second detection unit detects an obstacle from the second frame image based on the plurality of weighted particles.SELECTED DRAWING: Figure 1

Description

本発明は、障害物検出装置および障害物検出方法に関する。   The present invention relates to an obstacle detection device and an obstacle detection method.

従来、撮像装置によって撮像されるフレーム画像から歩行者などの障害物として検出する障害物検出装置がある。かかる障害物検出装置は、人物など障害物の多様な形状を学習させた辞書と、フレーム画像とに基づいて障害物を検出する(例えば、特許文献1参照)。   Conventionally, there is an obstacle detection device that detects an obstacle such as a pedestrian from a frame image captured by an imaging device. Such an obstacle detection device detects an obstacle based on a dictionary in which various shapes of obstacles such as a person are learned and a frame image (see, for example, Patent Document 1).

特開2001−351193号公報JP 2001-351193 A

しかしながら、上記の障害物検出装置は、障害物の検出精度を向上させるという点で更なる改善の余地がある。これは、上記の障害物の検出装置では、障害物の形状や、障害物の背景、オクルージョンによって障害物を検出できない場合があるためである。   However, the obstacle detection device described above has room for further improvement in terms of improving the obstacle detection accuracy. This is because the obstacle detection apparatus may not be able to detect an obstacle depending on the shape of the obstacle, the background of the obstacle, or occlusion.

本発明は、上記に鑑みてなされたものであって、障害物の検出精度を向上させることができる障害物検出装置および障害物検出方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an obstacle detection device and an obstacle detection method capable of improving the detection accuracy of an obstacle.

実施形態の一態様に係る障害物検出装置は、第1検出部と、基準ヒストグラム算出部と、生成部と、ヒストグラム算出部と、尤度算出部と、重み付け部と、第2検出部を備える。第1検出部は、撮像装置が撮像した第1フレーム画像から障害物が存在する検出領域を検出する。基準ヒストグラム算出部は、第1検出部が検出した検出領域内の基準色相ヒストグラムを算出する。生成部は、検出領域に基づき、第1フレーム画像の後に撮像された第2フレーム画像上に複数のパーティクルを生成する。ヒストグラム算出部は、複数のパーティクルごとに設けられる指定範囲内の色相ヒストグラムをそれぞれ算出する。尤度算出部は、基準ヒストグラム算出部が算出した基準色相ヒストグラムとヒストグラム算出部が算出した色相ヒストグラムとの尤度を算出する。重み付け部は、尤度算出部が算出した尤度に基づき、複数のパーティクルそれぞれに重み付けを行う。第2検出部は、重み付け部が重み付けを行った複数のパーティクルに基づき、第2フレーム画像から障害物を検出する。   An obstacle detection device according to an aspect of an embodiment includes a first detection unit, a reference histogram calculation unit, a generation unit, a histogram calculation unit, a likelihood calculation unit, a weighting unit, and a second detection unit. . The first detection unit detects a detection region where an obstacle exists from the first frame image captured by the imaging device. The reference histogram calculation unit calculates a reference hue histogram in the detection area detected by the first detection unit. The generation unit generates a plurality of particles on the second frame image captured after the first frame image based on the detection region. The histogram calculation unit calculates a hue histogram within a specified range provided for each of a plurality of particles. The likelihood calculating unit calculates the likelihood between the reference hue histogram calculated by the reference histogram calculating unit and the hue histogram calculated by the histogram calculating unit. The weighting unit weights each of the plurality of particles based on the likelihood calculated by the likelihood calculating unit. The second detection unit detects an obstacle from the second frame image based on the plurality of particles weighted by the weighting unit.

実施形態の一態様によれば、障害物の検出精度を向上させることができる。   According to one aspect of the embodiment, the obstacle detection accuracy can be improved.

図1は、実施形態に係る障害物検出方法を示す図である。FIG. 1 is a diagram illustrating an obstacle detection method according to the embodiment. 図2は、実施形態に係る障害物検出装置のブロック図である。FIG. 2 is a block diagram of the obstacle detection apparatus according to the embodiment. 図3は、実施形態に係る検出範囲を説明するための図である。FIG. 3 is a diagram for explaining the detection range according to the embodiment. 図4は、実施形態に係る一定範囲の一例を示す図である。FIG. 4 is a diagram illustrating an example of a certain range according to the embodiment. 図5は、実施形態に係るヒストグラム算出部による色相ヒストグラムの算出例を示す図である。FIG. 5 is a diagram illustrating a hue histogram calculation example by the histogram calculation unit according to the embodiment. 図6は、実施形態に係る尤度算出部による尤度算出の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of likelihood calculation by the likelihood calculating unit according to the embodiment. 図7は、実施形態に係る重み付け係数を説明するための図である。FIG. 7 is a diagram for explaining the weighting coefficient according to the embodiment. 図8は、実施形態に係る第2検出部による障害物検出の一例を示す図である。FIG. 8 is a diagram illustrating an example of obstacle detection by the second detection unit according to the embodiment. 図9は、実施形態に係る障害物検出装置が実行する処理手順を示すフローチャートである。FIG. 9 is a flowchart illustrating a processing procedure executed by the obstacle detection apparatus according to the embodiment. 図10は、実施形態に係る検出補間部が実行する処理手順を示すフローチャートである。FIG. 10 is a flowchart illustrating a processing procedure executed by the detection interpolation unit according to the embodiment. 図11Aは、実施形態の変形例1に係る第1検出部が検出する障害物の移動速度および移動方向を説明するための図である。FIG. 11A is a diagram for describing a moving speed and a moving direction of an obstacle detected by the first detection unit according to Modification 1 of the embodiment. 図11Bは、実施形態の変形例1に係る生成部が生成するパーティクルの一例を示す図である。FIG. 11B is a diagram illustrating an example of particles generated by the generation unit according to Modification 1 of the embodiment. 図12は、実施形態に係る変形例2の一定範囲を説明するための図である。FIG. 12 is a diagram for explaining a certain range of the second modification according to the embodiment. 図13は、実施形態の変形例2に係る一定範囲の他の例を示す図である。FIG. 13 is a diagram illustrating another example of the certain range according to the second modification of the embodiment. 図14は、実施形態の変形例2に係る一定範囲の他の例を示す図である。FIG. 14 is a diagram illustrating another example of the certain range according to the second modification of the embodiment. 図15は、実施形態の変形例3に係る障害物検出装置の構成を示す図である。FIG. 15 is a diagram illustrating a configuration of an obstacle detection apparatus according to Modification 3 of the embodiment. 図16は、実施形態の変形例3に係るパーティクルの生成例を示す図である。FIG. 16 is a diagram illustrating a generation example of particles according to the third modification of the embodiment. 図17は、実施形態の変形例3に係るパーティクルの他の生成例を示す図である。FIG. 17 is a diagram illustrating another generation example of particles according to the third modification of the embodiment. 図18は、実施形態の変形例4に係る障害物検出装置の構成を示す図である。FIG. 18 is a diagram illustrating a configuration of an obstacle detection apparatus according to Modification 4 of the embodiment. 図19は、実施形態の変形例5に係る障害物検出装置が実行する処理手順を示すフローチャートである。FIG. 19 is a flowchart illustrating a processing procedure executed by the obstacle detection device according to the fifth modification of the embodiment.

以下、添付図面を参照して、実施形態に係る障害物検出装置および障害物検出方法について詳細に説明する。なお、この実施形態により本発明が限定されるものではない。   Hereinafter, an obstacle detection device and an obstacle detection method according to embodiments will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment.

以下では、障害物検出装置が、自車両に搭載された撮像装置(車載撮像装置)によって連続して撮像されたフレーム画像から人物(以下、歩行者Pという)を障害物として検出する場合について説明する。なお、障害物検出装置が検出する障害物は歩行者Pに限らず、例えば車両や標識等であってもよい。   In the following, a case where the obstacle detection device detects a person (hereinafter referred to as a pedestrian P) as an obstacle from frame images continuously taken by an imaging device (vehicle-mounted imaging device) mounted on the host vehicle will be described. To do. The obstacle detected by the obstacle detection device is not limited to the pedestrian P, and may be a vehicle or a sign, for example.

また、以下では、説明を簡略化するために、障害物検出装置が一人の歩行者Pを検出する場合について説明するが、複数の歩行者Pを検出してもよい。複数の歩行者Pを検出した場合、障害物検出装置は、歩行者Pごとに障害物検出方法を実行するものとする。   Moreover, below, in order to simplify description, although the case where an obstacle detection apparatus detects one pedestrian P is demonstrated, you may detect several pedestrians P. FIG. When a plurality of pedestrians P are detected, the obstacle detection device executes the obstacle detection method for each pedestrian P.

(1.障害物検出方法)
まず、図1を用いて実施形態に係る障害物検出方法について説明する。図1は、実施形態に係る障害物検出方法を示す図である。なお、かかる障害物検出方法は、図2を用いて後述する障害物検出装置1によって実行される。
(1. Obstacle detection method)
First, the obstacle detection method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an obstacle detection method according to the embodiment. This obstacle detection method is executed by the obstacle detection apparatus 1 described later with reference to FIG.

図1に示すように、実施形態に係る障害物検出方法では、障害物検出装置1は、フレーム画像Fから障害物である人物の形状が存在する領域(以下、障害物の検出領域Mという)を検出する(ステップS1)。例えば、障害物検出装置1は、機械学習に基づいて障害物の検出領域Mを検出する。具体的に、障害物検出装置1は、フレーム画像Fに写る物体が歩行者Pか否かを判定する基準となる人物辞書情報を使用してフレーム画像Fから障害物の検出領域Mを検出する。   As shown in FIG. 1, in the obstacle detection method according to the embodiment, the obstacle detection apparatus 1 includes an area where the shape of a person who is an obstacle exists from the frame image F (hereinafter referred to as an obstacle detection area M). Is detected (step S1). For example, the obstacle detection apparatus 1 detects an obstacle detection region M based on machine learning. Specifically, the obstacle detection apparatus 1 detects an obstacle detection region M from the frame image F using person dictionary information that is a reference for determining whether or not the object shown in the frame image F is a pedestrian P. .

ここで、従来の障害物検出方法では、例えば、図1に示すように歩行者Pが障害物Sに隠れてしまった場合など、障害物の検出領域Mを検出できない場合があった。この場合、歩行者Pを見落としてしまうこととなる。このため、従来の障害物検出方法では、障害物の検出を向上させる点において改善の余地があった。   Here, in the conventional obstacle detection method, for example, when the pedestrian P is hidden behind the obstacle S as shown in FIG. In this case, the pedestrian P will be overlooked. For this reason, the conventional obstacle detection method has room for improvement in terms of improving the detection of obstacles.

そこで、実施形態かかる障害物検出方法では、機械学習によって障害物の検出領域Mを検出できない場合に、障害物検出装置1がパーティクルフィルタを用いて未検出フレーム画像Fnにおける障害物の検出領域Mを検出することとした。   Therefore, in the obstacle detection method according to the embodiment, when the obstacle detection region M cannot be detected by machine learning, the obstacle detection device 1 uses the particle filter to detect the obstacle detection region M in the undetected frame image Fn. It was decided to detect.

なお、未検出フレーム画像Fnは、機械学習によって障害物の検出領域Mが検出されなかったフレーム画像Fである。また、ここでは障害物の検出領域Mが検出されたフレーム画像Fを検出フレーム画像Fdとし、未検出フレーム画像Fnよりも前に撮像装置で撮像されているものとする。   The undetected frame image Fn is a frame image F in which the obstacle detection area M is not detected by machine learning. Here, it is assumed that the frame image F in which the obstacle detection area M is detected is a detected frame image Fd and is captured by the imaging device before the undetected frame image Fn.

なお、図1では、時刻t0に撮像されたフレーム画像Fを障害物の検出領域Mが検出された検出フレーム画像Fdとし、時刻t1に撮像されたフレーム画像Fを障害物の検出領域Mが検出されなかった未検出フレーム画像Fnとしている。   In FIG. 1, the frame image F captured at time t0 is set as a detection frame image Fd where the obstacle detection area M is detected, and the frame detection image M detected at the time t1 is detected by the obstacle detection area M. The undetected frame image Fn is not made.

実施形態に係る障害物検出方法では、障害物検出装置1は、まず検出フレーム画像Fdで検出した検出領域M内の色相ヒストグラム(以下、基準色相ヒストグラムという)を算出する(ステップS2)。例えば、図1では、障害物検出装置1は、検出領域Mの一部である検出範囲M1内の基準色相ヒストグラムを算出する。なお、基準色相ヒストグラムは、検出範囲M1の各画素の色相ごとの頻度を表すヒストグラムである。なお、検出範囲M1の詳細は、図3を用いて後述する。   In the obstacle detection method according to the embodiment, the obstacle detection apparatus 1 first calculates a hue histogram (hereinafter referred to as a reference hue histogram) in the detection region M detected by the detection frame image Fd (step S2). For example, in FIG. 1, the obstacle detection apparatus 1 calculates a reference hue histogram within a detection range M1 that is a part of the detection region M. The reference hue histogram is a histogram representing the frequency for each hue of each pixel in the detection range M1. Details of the detection range M1 will be described later with reference to FIG.

次に、障害物検出装置1は、検出領域Mに基づき、未検出フレーム画像Fn上に複数のパーティクルPaを生成する(ステップS3)。図1では、パーティクルPaを黒い丸で示している。パーティクルPaは、例えば検出領域M内および周辺にランダムに生成される。   Next, the obstacle detection device 1 generates a plurality of particles Pa on the undetected frame image Fn based on the detection region M (step S3). In FIG. 1, the particles Pa are indicated by black circles. For example, the particles Pa are randomly generated in and around the detection region M.

障害物検出装置1は、複数のパーティクルPaごとに色相ヒストグラムをそれぞれ算出する(ステップS4)。なお、パーティクルPaごとの色相ヒストグラムの算出方法の詳細は、図5を用いて後述する。   The obstacle detection device 1 calculates a hue histogram for each of the plurality of particles Pa (step S4). Details of the method of calculating the hue histogram for each particle Pa will be described later with reference to FIG.

障害物検出装置1は、ステップS2で算出した基準色相ヒストグラムと、ステップS4で算出した複数のパーティクルPaの色相ヒストグラムとの尤度をパーティクルPaごとにそれぞれ算出する(ステップS5)。例えば、障害物検出装置1は、Bhattacharyya係数を算出することで、各複数のパーティクルPaにおける尤度を算出する。   The obstacle detection device 1 calculates the likelihood of the reference hue histogram calculated in step S2 and the hue histograms of the plurality of particles Pa calculated in step S4 for each particle Pa (step S5). For example, the obstacle detection device 1 calculates the likelihood of each of the plurality of particles Pa by calculating the Bhattacharya coefficient.

次に、障害物検出装置1は、算出した尤度に基づき、複数のパーティクルPaそれぞれに重み付けを行う(ステップS6)。例えば、障害物検出装置1は、ステップS5で算出したBhattacharyya係数を重み付け係数としてパーティクルPaに乗算することで、重み付けを行う。なお、図1では、重み付け係数の大きさを、パーティクルPaを示す黒色の丸の大きさで示している。   Next, the obstacle detection apparatus 1 weights each of the plurality of particles Pa based on the calculated likelihood (step S6). For example, the obstacle detection device 1 performs weighting by multiplying the particle Pa as a weighting coefficient by using the Bhattacharya coefficient calculated in step S5. In FIG. 1, the weighting coefficient is indicated by a black circle indicating the particle Pa.

そして、障害物検出装置1は、重み付けを行った複数のパーティクルPaに基づき、未検出フレーム画像Fnから障害物を含む障害物の検出領域M3を検出する(ステップS7)。例えば、障害物検出装置1は、重み付け後のパーティクルPaの重心を含む領域を検出領域M3として検出する。   Then, the obstacle detection device 1 detects an obstacle detection area M3 including an obstacle from the undetected frame image Fn based on the plurality of weighted particles Pa (step S7). For example, the obstacle detection device 1 detects a region including the center of gravity of the weighted particle Pa as the detection region M3.

つまり、実施形態に係る障害物検出方法では、障害物検出装置1は、障害物の検出領域Mが検出されなかった未検出フレーム画像Fnについて、パーティクルフィルタに基づいて障害物の検出領域M3を検出する。これにより、機械学習によって障害物を検出することができなかった場合でも、障害物検出装置1が障害物の検出領域M3を検出することができ、障害物の検出を補間することができる。   That is, in the obstacle detection method according to the embodiment, the obstacle detection apparatus 1 detects the obstacle detection region M3 based on the particle filter for the undetected frame image Fn in which the obstacle detection region M is not detected. To do. Thereby, even when an obstacle cannot be detected by machine learning, the obstacle detection apparatus 1 can detect the obstacle detection area M3, and the detection of the obstacle can be interpolated.

これにより、実施形態に係る障害物検出方法では、フレーム画像Fから機械学習に基づいて歩行者Pを検出できない場合であっても、障害物検出装置1が歩行者Pの位置をパーティクルフィルタに基づいて検出することができる。   Thereby, in the obstacle detection method according to the embodiment, even when the pedestrian P cannot be detected from the frame image F based on machine learning, the obstacle detection device 1 determines the position of the pedestrian P based on the particle filter. Can be detected.

したがって、実施形態に係る障害物検出方法によれば、障害物の検出精度を向上させることができる。   Therefore, according to the obstacle detection method according to the embodiment, the obstacle detection accuracy can be improved.

(2.障害物検出システム)
次に、図2を用いて実施形態に係る障害物検出装置1の構成について説明する。図2は、実施形態に係る障害物検出システムのブロック図である。障害物検出システムは、障害物検出装置1と、撮像装置5と、車両制御装置6とを備える。
(2. Obstacle detection system)
Next, the configuration of the obstacle detection apparatus 1 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram of the obstacle detection system according to the embodiment. The obstacle detection system includes an obstacle detection device 1, an imaging device 5, and a vehicle control device 6.

なお、図2では、実施形態の特徴を説明するために必要な構成要素を機能ブロックで表しており、一般的な構成要素についての記載を省略している。   In FIG. 2, constituent elements necessary for explaining the characteristics of the embodiment are represented by functional blocks, and descriptions of general constituent elements are omitted.

換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。   In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or a part thereof is functionally or physically distributed in arbitrary units according to various loads or usage conditions.・ It can be integrated and configured.

(2.1.撮像装置)
撮像装置5は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、自車両の周囲(例えば、前方)を所定周期(例えば、1/30秒周期)で撮像する。撮像装置5によって撮像されたフレーム画像Fは、障害物検出装置1へ順次出力される。
(2.1. Imaging device)
The imaging device 5 includes an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), for example, and the surroundings (for example, the front) of the host vehicle in a predetermined cycle (for example, 1/30 second cycle). Take an image. The frame images F captured by the imaging device 5 are sequentially output to the obstacle detection device 1.

(2.2.車両制御装置)
車両制御装置6は、障害物検出装置1による障害物の検出結果に基づき、PCS(Pre-crash Safety System)やAEB(Advanced Emergency Braking System)などの車両制御を行う。
(2.2. Vehicle control device)
The vehicle control device 6 performs vehicle control such as PCS (Pre-crash Safety System) and AEB (Advanced Emergency Braking System) based on the obstacle detection result by the obstacle detection device 1.

(2.3.障害物検出装置)
図2に示すように、障害物検出装置1は、撮像装置5と、車両制御装置6とに接続される。
(2.3. Obstacle detection device)
As shown in FIG. 2, the obstacle detection device 1 is connected to an imaging device 5 and a vehicle control device 6.

障害物検出装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部21と、第1検出部22と、検出補間部23と、出力部24とを備える。制御部2は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。   The obstacle detection device 1 includes a control unit 2 and a storage unit 3. The control unit 2 includes an acquisition unit 21, a first detection unit 22, a detection interpolation unit 23, and an output unit 24. The control unit 2 includes, for example, a computer having a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a hard disk drive (HDD), an input / output port, and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部21、第1検出部22、検出補間部23、出力部24として機能する。   The CPU of the computer functions as the acquisition unit 21, the first detection unit 22, the detection interpolation unit 23, and the output unit 24 of the control unit 2, for example, by reading and executing a program stored in the ROM.

また、制御部2の取得部21、第1検出部22、検出補間部23、出力部24の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。   In addition, at least one or all of the acquisition unit 21, the first detection unit 22, the detection interpolation unit 23, and the output unit 24 of the control unit 2 are made up of ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), or the like. It can also be configured with hardware.

また、記憶部3は、例えば、RAMやHDDに対応する。RAMやHDDは、例えば人物辞書情報31や車両辞書情報32、各種プログラムを記憶する。   The storage unit 3 corresponds to, for example, a RAM or an HDD. The RAM and HDD store, for example, person dictionary information 31, vehicle dictionary information 32, and various programs.

なお、障害物検出装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。   The obstacle detection apparatus 1 may acquire the above-described program and various information via another computer or a portable recording medium connected via a wired or wireless network.

人物辞書情報31は、フレーム画像Fに写る物体が歩行者Pか否かを判定する基準となる情報であり、機械学習によって予め作成される。例えば、形状が既知の複数種類の人物の画像と、人物以外の物体の画像とを学習データとしてそれぞれ所定数(例えば、数100〜数10000枚の画像)準備する。   The person dictionary information 31 is information serving as a reference for determining whether or not the object shown in the frame image F is a pedestrian P, and is created in advance by machine learning. For example, a predetermined number (for example, several hundred to several tens of images) of images of a plurality of types of people whose shapes are known and images of objects other than people are prepared as learning data.

続いて、準備した各画像から、例えば、HOG(Histogram of Gradient)特徴量を抽出する。そして、前述の予め準備した画像を、抽出したHOG特徴量に基づいて2次元平面状にプロットする。   Subsequently, for example, an HOG (Histogram of Gradient) feature amount is extracted from each prepared image. Then, the previously prepared image is plotted on a two-dimensional plane based on the extracted HOG feature amount.

続いて、例えば、SVM(Support Vector Machine)等の識別器によって、2次元平面上における人物の画像と人物以外の物体の画像とを分離する分離線を生成する。かかる2次元平面の座標軸および識別器によって生成された分離線の情報が人物辞書情報31となる。   Subsequently, for example, a separation line that separates an image of a person and an image of an object other than a person on a two-dimensional plane is generated by a discriminator such as SVM (Support Vector Machine). The information of the separation axis generated by the coordinate axes of the two-dimensional plane and the discriminator becomes the person dictionary information 31.

なお、予め準備した画像から抽出する特徴量は、HOG特徴量に限定されず、SIFT(Scale Invariant Feature Transform)特徴量であってもよい。また、人物の画像と人物以外の物体の画像との分離に用いる識別器は、SVMに限定されず、例えば、アダブースト(AdaBoost)等の識別器であってもよい。   Note that the feature amount extracted from the image prepared in advance is not limited to the HOG feature amount, and may be a SIFT (Scale Invariant Feature Transform) feature amount. Further, the discriminator used for separating a human image and an image of an object other than a human is not limited to the SVM, and may be a discriminator such as AdaBoost.

車両辞書情報32は、フレーム画像Fに写る物体が車両か否かを判定する基準となる情報であり、人物辞書情報31と同様に機械学習によって予め作成される。   The vehicle dictionary information 32 is information serving as a reference for determining whether or not the object shown in the frame image F is a vehicle, and is created in advance by machine learning in the same manner as the person dictionary information 31.

(2.3.1.取得部)
取得部21は、撮像装置5が撮像したフレーム画像Fを取得する。取得部21は、取得したフレーム画像Fを第1検出部22および検出補間部23に順次出力する。
(2.3.1. Acquisition unit)
The acquisition unit 21 acquires the frame image F captured by the imaging device 5. The acquisition unit 21 sequentially outputs the acquired frame image F to the first detection unit 22 and the detection interpolation unit 23.

(2.3.2.第1検出部)
第1検出部22は、機械学習によって、取得部21から入力されるフレーム画像Fに含まれる障害物を検出する。
(2.3.2. First detection unit)
The first detection unit 22 detects an obstacle included in the frame image F input from the acquisition unit 21 by machine learning.

例えば、障害物が歩行者Pである場合、第1検出部22は、フレーム画像Fに対して記憶部3に記憶された人物辞書情報31を使用して障害物の検出領域Mを検出する。   For example, when the obstacle is a pedestrian P, the first detection unit 22 detects the obstacle detection area M using the person dictionary information 31 stored in the storage unit 3 for the frame image F.

第1検出部22は、フレーム画像Fに検出した障害物の検出領域Mを重畳させて検出補間部23および出力部24へ出力する。   The first detection unit 22 superimposes the detected obstacle detection area M on the frame image F and outputs it to the detection interpolation unit 23 and the output unit 24.

なお、障害物が車両である場合、第1検出部22は、記憶部3に記憶された車両辞書情報32を使用して障害物の検出領域Mを検出する。このように、第1検出部22は、障害物の種別に応じた辞書情報を使用して、種別ごとに障害物の検出領域Mを検出する。   When the obstacle is a vehicle, the first detection unit 22 detects the obstacle detection area M using the vehicle dictionary information 32 stored in the storage unit 3. As described above, the first detection unit 22 detects the obstacle detection area M for each type using the dictionary information corresponding to the type of the obstacle.

(2.3.3.検出補間部)
検出補間部23は、第1検出部22が障害物を検出できなかった場合に障害物検出を補間するため、未検出フレーム画像Fnから障害物の検出領域Mを検出する。例えば、検出補間部23は、検出領域Mが重畳されていないフレーム画像Fが入力された場合に、第1検出部22が障害物を検出できなかったとし、当該フレーム画像Fを未検出フレーム画像Fnとして障害物を検出する。
(2.3.3. Detection Interpolation Unit)
The detection interpolation unit 23 detects an obstacle detection area M from the undetected frame image Fn in order to interpolate obstacle detection when the first detection unit 22 cannot detect the obstacle. For example, when the frame image F on which the detection region M is not superimposed is input, the detection interpolation unit 23 assumes that the first detection unit 22 has not detected an obstacle, and detects the frame image F as an undetected frame image. An obstacle is detected as Fn.

図2に示すように、検出補間部23は、基準ヒストグラム算出部231と、生成部232と、ヒストグラム算出部233と、尤度算出部234と、重み付け部235と、第2検出部236とを備える。   As shown in FIG. 2, the detection interpolation unit 23 includes a reference histogram calculation unit 231, a generation unit 232, a histogram calculation unit 233, a likelihood calculation unit 234, a weighting unit 235, and a second detection unit 236. Prepare.

(基準ヒストグラム算出部)
基準ヒストグラム算出部231は、障害物の検出領域Mに応じて検出フレーム画像Fdに含まれる障害物の色相ヒストグラムを基準色相ヒストグラムとして算出する。基準ヒストグラム算出部231は、算出した基準色相ヒストグラムを尤度算出部234に出力する。
(Reference histogram calculation unit)
The reference histogram calculation unit 231 calculates the hue histogram of the obstacle included in the detection frame image Fd as the reference hue histogram according to the obstacle detection area M. The reference histogram calculation unit 231 outputs the calculated reference hue histogram to the likelihood calculation unit 234.

図3に示すように、第1検出部22が検出フレーム画像Fdから歩行者Pを含む障害物の検出領域Mを検出したものとする。なお、障害物の検出領域Mは、高さH、幅Wの矩形領域である。   As shown in FIG. 3, it is assumed that the first detection unit 22 detects an obstacle detection region M including a pedestrian P from the detection frame image Fd. The obstacle detection area M is a rectangular area having a height H and a width W.

このとき、基準ヒストグラム算出部231は、障害物の検出領域Mより小さい検出範囲M1内の色相ヒストグラムを基準色相ヒストグラムHhとして算出する。なお、図3は、実施形態に係る検出範囲M1を説明するための図である。   At this time, the reference histogram calculation unit 231 calculates a hue histogram in the detection range M1 smaller than the obstacle detection area M as the reference hue histogram Hh. FIG. 3 is a diagram for explaining the detection range M1 according to the embodiment.

図3に示すように、検出範囲M1は、例えば高さH/2、幅Wの矩形領域であり、検出領域Mの中心領域に位置する。換言すると、検出範囲M1の下端辺は、検出領域Mの下端辺から高さH/4に位置する。   As shown in FIG. 3, the detection range M <b> 1 is a rectangular region having a height H / 2 and a width W, for example, and is located in the center region of the detection region M. In other words, the lower end side of the detection range M1 is located at a height H / 4 from the lower end side of the detection region M.

このように、基準ヒストグラム算出部231が検出領域Mより小さい検出範囲M1内の基準色相ヒストグラムHhを算出することで、基準色相ヒストグラムHhに含まれる背景の影響をより低減することができる。   As described above, the reference histogram calculation unit 231 calculates the reference hue histogram Hh in the detection range M1 smaller than the detection region M, so that the influence of the background included in the reference hue histogram Hh can be further reduced.

これは、障害物が歩行者Pである場合、検出領域Mの中央領域には歩行者Pの胴体が含まれるため、他の領域に比べて背景の領域が小さくなるためである。   This is because when the obstacle is the pedestrian P, the center area of the detection area M includes the trunk of the pedestrian P, so the background area is smaller than the other areas.

なお、例えば、障害物が車両である場合は、検出領域Mの下方領域を検出範囲M1としてもよい。これは、車体ボディは同一色であることが多く、また窓ガラスに比べて映り込み等の影響が小さいためである。したがって、検出領域Mのうち、車体ボディが多く含まれる下方領域を検出範囲M1とすることで、基準色相ヒストグラムHhに対する背景や風景の映り込み等の影響をより小さくすることができる。   For example, when the obstacle is a vehicle, the area below the detection area M may be set as the detection range M1. This is because the body body is often the same color, and is less affected by the reflection than the window glass. Therefore, by setting the lower area of the detection area M that includes a large amount of the vehicle body as the detection area M1, it is possible to further reduce the influence of background and landscape reflection on the reference hue histogram Hh.

このように、基準ヒストグラム算出部231が障害物の種別に応じた検出範囲M1内の基準色相ヒストグラムHhを算出するようにしてもよい。これにより、基準色相ヒストグラムHhに対する背景や風景の映り込み等の影響をより小さくすることができる。   As described above, the reference histogram calculation unit 231 may calculate the reference hue histogram Hh in the detection range M1 corresponding to the type of obstacle. As a result, it is possible to reduce the influence of the background and scenery reflection on the reference hue histogram Hh.

なお、ここでは、検出範囲M1を矩形領域としたが、これに限定されない。検出範囲M1の形状は、例えば台形や円形、あるいは障害物の輪郭に沿った形状など、種々の形状を採用することができる。   Although the detection range M1 is a rectangular area here, the present invention is not limited to this. As the shape of the detection range M1, various shapes such as a trapezoid, a circle, or a shape along the outline of an obstacle can be adopted.

(生成部)
図2に戻る。生成部232は、検出範囲M1に基づき、未検出フレーム画像Fn上に複数のパーティクルPaを生成する。生成部232は、検出範囲M1内および検出範囲M1周辺のランダムな位置に複数のパーティクルPaを生成する。
(Generator)
Returning to FIG. The generation unit 232 generates a plurality of particles Pa on the undetected frame image Fn based on the detection range M1. The generation unit 232 generates a plurality of particles Pa at random positions within the detection range M1 and around the detection range M1.

ここで、パーティクルPaを生成する検出範囲M1は、検出フレーム画像Fdから検出した検出範囲M1を未検出フレーム画像Fnに重畳した範囲である。以下、かかる検出範囲M1を未検出フレーム画像Fnの検出範囲M1と言う。なお、検出範囲M1は検出領域Mの一部であるため、生成部232は、未検出フレーム画像Fnの検出領域M内および検出領域M周辺にパーティクルPaを生成するとも言える。   Here, the detection range M1 for generating the particle Pa is a range in which the detection range M1 detected from the detection frame image Fd is superimposed on the undetected frame image Fn. Hereinafter, the detection range M1 is referred to as a detection range M1 of the undetected frame image Fn. Since the detection range M1 is a part of the detection region M, it can be said that the generation unit 232 generates particles Pa in the detection region M of the undetected frame image Fn and in the vicinity of the detection region M.

このように、生成部232が未検出フレーム画像Fnの検出領域M内および検出領域M周辺にパーティクルPaを生成することで、検出補間部23は検出領域M周辺に存在する障害物を検出することができる。なお、生成部232は、生成した複数のパーティクルPaをヒストグラム算出部233に出力する。   As described above, the generation unit 232 generates the particles Pa in the detection area M and the vicinity of the detection area M of the undetected frame image Fn, so that the detection interpolation unit 23 detects an obstacle existing around the detection area M. Can do. The generation unit 232 outputs the generated plurality of particles Pa to the histogram calculation unit 233.

(ヒストグラム算出部)
ヒストグラム算出部233は、複数のパーティクルPaごとに色相ヒストグラムをそれぞれ算出する。ヒストグラム算出部233は、算出した各色相ヒストグラムを尤度算出部234に出力する。
(Histogram calculator)
The histogram calculation unit 233 calculates a hue histogram for each of the plurality of particles Pa. The histogram calculation unit 233 outputs the calculated hue histograms to the likelihood calculation unit 234.

ヒストグラム算出部233は、例えば図4に示す一定範囲R1内に含まれる複数のパーティクルPaの色相ヒストグラムを算出する。なお、図4は、実施形態に係る一定範囲R1の一例を示す図である。図4では、パーティクルPaを黒色の丸で示している。   For example, the histogram calculation unit 233 calculates a hue histogram of a plurality of particles Pa included in a certain range R1 shown in FIG. FIG. 4 is a diagram illustrating an example of the certain range R1 according to the embodiment. In FIG. 4, the particles Pa are indicated by black circles.

図4に示すように、一定範囲R1は、例えば未検出フレーム画像Fnの検出領域Mの中心Cを中心とした半径dの円領域である。ヒストグラム算出部233が一定範囲R1内のパーティクルPaの色相ヒストグラムを算出することで、色相ヒストグラムを算出するパーティクルPaの個数を削減することができ、障害物検出装置1の処理量を削減することができる。   As shown in FIG. 4, the fixed range R1 is, for example, a circular region having a radius d centered on the center C of the detection region M of the undetected frame image Fn. Since the histogram calculation unit 233 calculates the hue histogram of the particles Pa within the certain range R1, the number of particles Pa for calculating the hue histogram can be reduced, and the processing amount of the obstacle detection apparatus 1 can be reduced. it can.

続いて、図5を用いて、ヒストグラム算出部233が算出する色相ヒストグラムの一例について説明する。図5は、実施形態に係るヒストグラム算出部233による色相ヒストグラムの算出例を示す図である。   Next, an example of a hue histogram calculated by the histogram calculation unit 233 will be described with reference to FIG. FIG. 5 is a diagram illustrating a hue histogram calculation example by the histogram calculation unit 233 according to the embodiment.

なお、ここでは、ヒストグラム算出部233が図4に示すパーティクルPa1について色相ヒストグラムを算出する場合を例にとって説明する。   Here, a case where the histogram calculation unit 233 calculates a hue histogram for the particle Pa1 shown in FIG. 4 will be described as an example.

図5に示すように、ヒストグラム算出部233は、パーティクルPa1を含む指定範囲M2内の色相ヒストグラムHh1を算出する。指定範囲M2は、複数のパーティクルPaごとに設けられる範囲である。   As shown in FIG. 5, the histogram calculation unit 233 calculates a hue histogram Hh1 within a specified range M2 including the particle Pa1. The designated range M2 is a range provided for each of the plurality of particles Pa.

指定範囲M2は、例えば、図5に示すように、パーティクルPa1を中心とした高さH/2、幅Wの矩形領域である。なお、指定範囲M2は、基準色相ヒストグラムHhの算出に用いた検出範囲M1と同じ形状および大きさであればよい。   The designated range M2 is, for example, a rectangular region having a height H / 2 and a width W with the particle Pa1 as the center, as shown in FIG. The designated range M2 may have the same shape and size as the detection range M1 used for calculating the reference hue histogram Hh.

(尤度算出部)
図2に戻る。尤度算出部234は、基準ヒストグラム算出部231が算出した基準色相ヒストグラムHhと、ヒストグラム算出部233が算出した色相ヒストグラムとの尤度をパーティクルPaごとに算出する。尤度算出部234は、算出した尤度を重み付け部235に出力する。
(Likelihood calculation unit)
Returning to FIG. The likelihood calculation unit 234 calculates the likelihood between the reference hue histogram Hh calculated by the reference histogram calculation unit 231 and the hue histogram calculated by the histogram calculation unit 233 for each particle Pa. The likelihood calculating unit 234 outputs the calculated likelihood to the weighting unit 235.

図6に示すように、尤度算出部234は、例えば基準色相ヒストグラムHhとパーティクルPa1(図4参照)の色相ヒストグラムHh1との尤度を算出する。尤度算出部234は、尤度として、例えばBhattacharyya係数を算出する。なお、図6は、実施形態に係る尤度算出部234による尤度算出の一例を説明するための図である。   As shown in FIG. 6, the likelihood calculating unit 234 calculates the likelihood between, for example, the reference hue histogram Hh and the hue histogram Hh1 of the particle Pa1 (see FIG. 4). The likelihood calculating unit 234 calculates, for example, a Bhattacharya coefficient as the likelihood. FIG. 6 is a diagram for explaining an example of likelihood calculation by the likelihood calculation unit 234 according to the embodiment.

上述したように、ヒストグラム算出部233は、一定範囲R1内にあるパーティクルPaの色相ヒストグラムを算出する。したがって、尤度算出部234は、一定範囲R1内のパーティクルPaの色相ヒストグラムと基準色相ヒストグラムHhとの尤度を算出する。   As described above, the histogram calculation unit 233 calculates the hue histogram of the particles Pa within the certain range R1. Therefore, the likelihood calculating unit 234 calculates the likelihood of the hue histogram and the reference hue histogram Hh of the particles Pa within the certain range R1.

このように、尤度算出部234が一定範囲R1内のパーティクルPaの尤度を算出することで、尤度を算出するパーティクルPaの個数を削減することができ、障害物検出装置1の処理量を削減することができる。   As described above, the likelihood calculating unit 234 calculates the likelihood of the particles Pa within the certain range R1, thereby reducing the number of particles Pa for which the likelihood is calculated. Can be reduced.

(重み付け部)
図2に戻る。重み付け部235は、尤度算出部234が算出した尤度に基づいて複数のパーティクルPaに重み付けを行う。例えば、重み付け部235は、尤度に応じた重み付け係数をパーティクルPaに掛けることで、パーティクルPaの重み付けを行う。重み付け部235は、重み付けを行った複数のパーティクルPaを第2検出部236に出力する。
(Weighting part)
Returning to FIG. The weighting unit 235 weights the plurality of particles Pa based on the likelihood calculated by the likelihood calculating unit 234. For example, the weighting unit 235 weights the particle Pa by multiplying the particle Pa by a weighting coefficient corresponding to the likelihood. The weighting unit 235 outputs the plurality of weighted particles Pa to the second detection unit 236.

例えば、図7に示すように、重み付け部235は、パーティクルPaごとに異なる重み付け係数を用いてパーティクルPaの重み付けを行う。図7は、実施形態に係る重み付け係数を説明するための図である。   For example, as illustrated in FIG. 7, the weighting unit 235 performs weighting of the particle Pa using a different weighting coefficient for each particle Pa. FIG. 7 is a diagram for explaining the weighting coefficient according to the embodiment.

図7では、未検出フレーム画像Fnの各座標位置におけるパーティクルPaを黒色の丸で示している。また、重み付け係数の大きさを丸の大きさで示している。すなわち、図7に示す丸が大きい程尤度が高く重み付け係数が大きいことを示している。   In FIG. 7, the particle Pa at each coordinate position of the undetected frame image Fn is indicated by a black circle. The size of the weighting coefficient is indicated by the size of a circle. That is, as the circle shown in FIG. 7 is larger, the likelihood is higher and the weighting coefficient is larger.

例えば、尤度算出部234がBhattacharyya係数を算出した場合、重み付け部235は、Bhattacharyya係数を重み付け係数とする。具体的に、尤度算出部234は、例えばパーティクルPaの各座標(X座標、Y座標)にBhattacharyya係数を乗算することで重み付けを行う。   For example, when the likelihood calculating unit 234 calculates a Bhattacharya coefficient, the weighting unit 235 uses the Bhattacharya coefficient as a weighting coefficient. Specifically, the likelihood calculating unit 234 performs weighting by, for example, multiplying each coordinate (X coordinate, Y coordinate) of the particle Pa by a Bhatterarya coefficient.

なお、例えば重み付け部235は、一定範囲R1外にあるパーティクルPaの重み付けを行わないものとする。これにより、重み付けを行うパーティクルPaの個数を削減することができ、障害物検出装置1の処理量を削減することができる。   For example, it is assumed that the weighting unit 235 does not weight the particles Pa outside the certain range R1. Thereby, the number of particles Pa to be weighted can be reduced, and the processing amount of the obstacle detection apparatus 1 can be reduced.

あるいは、重み付け部235が、一定範囲R1外にあるパーティクルPaに対して非常に小さな値(例えば0.0001以下)の重み付け係数を掛けるようにしてもよい。   Alternatively, the weighting unit 235 may apply a very small value (for example, 0.0001 or less) to the particle Pa outside the fixed range R1.

これにより、一定範囲R1外にあるパーティクルPaを障害物検出に用いないようにすることができる。   As a result, the particle Pa outside the fixed range R1 can be prevented from being used for obstacle detection.

検出フレーム画像Fdの次の時刻t1(図1参照)に未検出フレーム画像Fnを撮像したとすると、時刻t1で歩行者Pが一定範囲R1外まで移動する可能性は低い。そこで、実施形態に係る障害物検出装置1では、一定範囲R1外にあるパーティクルPaを障害物検出に用いないようにする。これにより、障害物検出に用いるパーティクルPaの個数を削減することができ、未検出フレーム画像Fnでの障害物検出の精度を維持したまま、障害物検出装置1の処理量を削減することができる。   If the undetected frame image Fn is imaged at the time t1 (see FIG. 1) next to the detected frame image Fd, the possibility that the pedestrian P moves outside the fixed range R1 at the time t1 is low. Therefore, in the obstacle detection device 1 according to the embodiment, the particle Pa outside the fixed range R1 is not used for obstacle detection. Thereby, the number of particles Pa used for obstacle detection can be reduced, and the processing amount of the obstacle detection apparatus 1 can be reduced while maintaining the accuracy of obstacle detection in the undetected frame image Fn. .

なお、ここでは、ヒストグラム算出部233、尤度算出部234および重み付け部235において、一定範囲R1内のパーティクルPaに対して各処理を行うとしたが、これに限定されない。   Here, in the histogram calculation unit 233, the likelihood calculation unit 234, and the weighting unit 235, each process is performed on the particles Pa in the certain range R1, but the present invention is not limited to this.

ヒストグラム算出部233、尤度算出部234および重み付け部235の少なくとも一部において一定範囲R1内のパーティクルPaに対して処理を行うようにしてもよい。   Processing may be performed on the particles Pa in the certain range R1 in at least a part of the histogram calculation unit 233, the likelihood calculation unit 234, and the weighting unit 235.

また、生成部232で複数のパーティクルPaを生成する際に、一定範囲R1内にパーティクルPaを生成するようにしてもよい。   Further, when the generation unit 232 generates a plurality of particles Pa, the particles Pa may be generated within the certain range R1.

(第2検出部)
図2に戻る。第2検出部236は、重み付け部235が重み付けを行ったパーティクルPaに基づき、未検出フレーム画像Fnから障害物を検出する。
(Second detection unit)
Returning to FIG. The second detection unit 236 detects an obstacle from the undetected frame image Fn based on the particles Pa weighted by the weighting unit 235.

例えば、第2検出部236は、重み付け部235が重み付けを行ったパーティクルPaを座標ごとに累積し、累積した値の平均を算出することで、図8に示すように、パーティクルPaの重心C3の座標を算出する。なお、図8は、実施形態に係る第2検出部236による障害物検出の一例を示す図である。   For example, the second detection unit 236 accumulates the particle Pa weighted by the weighting unit 235 for each coordinate, and calculates the average of the accumulated values, so that the gravity center C3 of the particle Pa is calculated as illustrated in FIG. Calculate the coordinates. FIG. 8 is a diagram illustrating an example of obstacle detection by the second detection unit 236 according to the embodiment.

第2検出部236は、複数のパーティクルPaの重心C3を、未検出フレーム画像Fnにおける障害物の重心C3として検出する。第2検出部236は、重心C3を中心とする検出領域M3を未検出フレーム画像Fnに重畳させて出力部24へ出力する。検出領域M3は、例えば検出フレーム画像Fdに基づいて検出した検出領域M(図3参照)と同じ大きさの矩形領域とする。これにより、第2検出部236は、未検出フレーム画像Fnから障害物を精度良く検出することができる。   The second detection unit 236 detects the center of gravity C3 of the plurality of particles Pa as the center of gravity C3 of the obstacle in the undetected frame image Fn. The second detection unit 236 superimposes the detection region M3 centered on the center of gravity C3 on the undetected frame image Fn and outputs it to the output unit 24. For example, the detection area M3 is a rectangular area having the same size as the detection area M (see FIG. 3) detected based on the detection frame image Fd. Accordingly, the second detection unit 236 can accurately detect an obstacle from the undetected frame image Fn.

(2.3.4.出力部)
出力部24は、第1検出部22が検出した検出領域Mが重畳された検出フレーム画像Fdまたは第2検出部236が検出した検出領域M3が重畳された未検出フレーム画像Fnのいずれかを車両制御装置6に出力する。
(2.3.4. Output unit)
The output unit 24 displays either the detected frame image Fd on which the detection region M detected by the first detection unit 22 is superimposed or the undetected frame image Fn on which the detection region M3 detected by the second detection unit 236 is superimposed. Output to the control device 6.

出力部24は、第1検出部22から検出領域Mが重畳された検出フレーム画像Fdを受け取った場合は、当該検出フレーム画像Fdを車両制御装置6に出力する。   When the output unit 24 receives the detection frame image Fd on which the detection region M is superimposed from the first detection unit 22, the output unit 24 outputs the detection frame image Fd to the vehicle control device 6.

一方、出力部24は、第1検出部22から検出領域Mが重畳されていない検出フレーム画像Fdを受け取った場合、第2検出部236から検出領域M3が重畳された未検出フレーム画像Fnを受け取って車両制御装置6に出力する。あるいは、出力部24は、検出フレーム画像Fdを受け取らなかった場合に検出領域M3が重畳された未検出フレーム画像Fnを車両制御装置6に出力する。   On the other hand, when the output unit 24 receives the detection frame image Fd on which the detection region M is not superimposed from the first detection unit 22, the output unit 24 receives the undetected frame image Fn on which the detection region M3 is superimposed from the second detection unit 236. To the vehicle control device 6. Alternatively, the output unit 24 outputs the undetected frame image Fn on which the detection region M3 is superimposed to the vehicle control device 6 when the detected frame image Fd is not received.

これにより、第1検出部22が検出領域Mを検出しなかった場合でも、出力部24は、検出領域M3が重畳された未検出フレーム画像Fnを車両制御装置6に出力することができる。   Accordingly, even when the first detection unit 22 does not detect the detection region M, the output unit 24 can output the undetected frame image Fn on which the detection region M3 is superimposed to the vehicle control device 6.

(3.検出処理)
次に、図9を用いて実施形態に係る障害物検出装置1が実行する検出処理の処理手順について説明する。図9は、実施形態に係る障害物検出装置1が実行する処理手順を示すフローチャートである。なお、かかる検出処理は、例えば撮像装置5がフレーム画像Fを撮像している間、制御部2によって繰り返し実行される。
(3. Detection process)
Next, a processing procedure of detection processing executed by the obstacle detection device 1 according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating a processing procedure executed by the obstacle detection apparatus 1 according to the embodiment. Such detection processing is repeatedly executed by the control unit 2 while the imaging device 5 is capturing the frame image F, for example.

まず、制御部2の取得部21は、撮像装置5からフレーム画像Fを取得する(ステップS101)。次に、第1検出部22は、機械学習に基づいて障害物を検出する(ステップS102)。   First, the acquisition unit 21 of the control unit 2 acquires the frame image F from the imaging device 5 (step S101). Next, the 1st detection part 22 detects an obstruction based on machine learning (step S102).

続いて、制御部2の検出補間部23は、第1検出部22が障害物を検出したか否かを判定する(ステップS103)。例えば検出補間部23は、第1検出部22から検出領域Mが重畳されたフレーム画像Fが入力されるか否かに応じて第1検出部22が障害物を検出したか否かを判定する。   Subsequently, the detection interpolation unit 23 of the control unit 2 determines whether or not the first detection unit 22 has detected an obstacle (step S103). For example, the detection interpolation unit 23 determines whether or not the first detection unit 22 has detected an obstacle depending on whether or not the frame image F on which the detection region M is superimposed is input from the first detection unit 22. .

第1検出部22が障害物を検出した場合(ステップS103のYes)、出力部24は、検出領域Mが重畳された検出フレーム画像Fdを車両制御装置6に出力し(ステップS104)、処理を終了する。   When the first detection unit 22 detects an obstacle (Yes in step S103), the output unit 24 outputs the detection frame image Fd on which the detection region M is superimposed to the vehicle control device 6 (step S104), and performs processing. finish.

一方、第1検出部22が障害物を検出しなかった場合(ステップS103のNo)、検出補間部23は障害物検出処理を実行する(ステップS105)。出力部24は、検出補間部23が検出した検出領域M3が重畳された未検出フレーム画像Fnを車両制御装置6に出力する(ステップS106)。   On the other hand, when the 1st detection part 22 has not detected an obstruction (No of step S103), the detection interpolation part 23 performs an obstruction detection process (step S105). The output unit 24 outputs the undetected frame image Fn on which the detection region M3 detected by the detection interpolation unit 23 is superimposed to the vehicle control device 6 (step S106).

(3.1.障害物検出処理)
続いて、図10を用いて実施形態に係る検出補間部23が実行する障害物検出処理の処理手順について説明する。図10は、実施形態に係る検出補間部23が実行する処理手順を示すフローチャートである。
(3.1. Obstacle detection processing)
Next, the processing procedure of the obstacle detection process executed by the detection interpolation unit 23 according to the embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating a processing procedure executed by the detection interpolation unit 23 according to the embodiment.

検出補間部23の基準ヒストグラム算出部231は、未検出フレーム画像Fnより前の検出フレーム画像Fdにおける障害物の検出範囲M1内の基準色相ヒストグラムHhを算出する(ステップS201)。   The reference histogram calculation unit 231 of the detection interpolation unit 23 calculates a reference hue histogram Hh within the obstacle detection range M1 in the detected frame image Fd before the undetected frame image Fn (step S201).

次に、検出補間部23の生成部232は、未検出フレーム画像Fnの検出範囲M1に応じて複数のパーティクルPaを生成する(ステップS202)。検出補間部23のヒストグラム算出部233は、パーティクルPaごとに色相ヒストグラムを算出する(ステップS203)。   Next, the generation unit 232 of the detection interpolation unit 23 generates a plurality of particles Pa according to the detection range M1 of the undetected frame image Fn (step S202). The histogram calculation unit 233 of the detection interpolation unit 23 calculates a hue histogram for each particle Pa (step S203).

尤度算出部234は、基準色相ヒストグラムHhと色相ヒストグラムとの尤度を算出する(ステップS204)。重み付け部235は、尤度算出部234が算出した尤度に応じてパーティクルPaの重み付けを実行する(ステップS205)。   The likelihood calculating unit 234 calculates the likelihood between the reference hue histogram Hh and the hue histogram (step S204). The weighting unit 235 performs weighting of the particle Pa according to the likelihood calculated by the likelihood calculating unit 234 (step S205).

第2検出部236は、重み付けされたパーティクルPaに基づいて障害物の重心C3を検出し、検出領域M3を決定する(ステップS206)。   The second detection unit 236 detects the center of gravity C3 of the obstacle based on the weighted particle Pa and determines the detection region M3 (step S206).

続いて、検出補間部23は、検出フレーム画像Fdで検出された全ての障害物、すなわち検出領域Mに基づいて障害物を検出したか否かを判定する(ステップS207)。全ての検出領域Mに基づいて障害物を検出していない場合(ステップS207のNo)、ステップS201に戻る。   Subsequently, the detection interpolation unit 23 determines whether or not an obstacle has been detected based on all the obstacles detected in the detection frame image Fd, that is, the detection region M (step S207). If no obstacle is detected based on all the detection areas M (No in step S207), the process returns to step S201.

一方、全ての検出領域Mに基づいて障害物を検出した場合(ステップS207のYes)、処理を終了する。   On the other hand, when an obstacle is detected based on all the detection areas M (Yes in step S207), the process ends.

上述したように、実施形態に係る障害物検出装置1は、第1検出部22と、基準ヒストグラム算出部231と、生成部232と、ヒストグラム算出部233と、尤度算出部234と、重み付け部235と、第2検出部236とを備える。   As described above, the obstacle detection apparatus 1 according to the embodiment includes the first detection unit 22, the reference histogram calculation unit 231, the generation unit 232, the histogram calculation unit 233, the likelihood calculation unit 234, and the weighting unit. 235 and a second detection unit 236.

第1検出部22は、撮像装置5が撮像した第1フレーム画像(検出フレーム画像Fd)から障害物を含む検出領域Mを検出する。基準ヒストグラム算出部231は、第1検出部22が検出した検出領域M内の基準色相ヒストグラムHhを算出する。   The first detection unit 22 detects a detection region M including an obstacle from the first frame image (detection frame image Fd) captured by the imaging device 5. The reference histogram calculation unit 231 calculates a reference hue histogram Hh in the detection area M detected by the first detection unit 22.

生成部232は、検出領域Mに基づき、撮像装置5が第1フレーム画像(検出フレーム画像Fd)の後に撮像した第2フレーム画像(未検出フレーム画像Fn)上に複数のパーティクルPaを生成する。ヒストグラム算出部233は、複数のパーティクルPaごとに設けられる指定範囲M2内の色相ヒストグラムをそれぞれ算出する。   Based on the detection region M, the generation unit 232 generates a plurality of particles Pa on the second frame image (undetected frame image Fn) captured after the first frame image (detected frame image Fd) by the imaging device 5. The histogram calculation unit 233 calculates a hue histogram in the designated range M2 provided for each of the plurality of particles Pa.

尤度算出部234は、基準ヒストグラム算出部231が算出した基準色相ヒストグラムHhとヒストグラム算出部233が算出した色相ヒストグラムHh1との尤度を算出する。重み付け部235は、尤度算出部234が算出した尤度に基づいて複数のパーティクルPaそれぞれに重み付けを行う。第2検出部236は、重み付け部235が重み付けを行った複数のパーティクルPaに基づき、第2フレーム画像(未検出フレーム画像Fn)から障害物を検出する。   The likelihood calculating unit 234 calculates the likelihood between the reference hue histogram Hh calculated by the reference histogram calculating unit 231 and the hue histogram Hh1 calculated by the histogram calculating unit 233. The weighting unit 235 weights each of the plurality of particles Pa based on the likelihood calculated by the likelihood calculating unit 234. The second detection unit 236 detects an obstacle from the second frame image (undetected frame image Fn) based on the plurality of particles Pa weighted by the weighting unit 235.

したがって、実施形態に係る障害物検出装置1は、例えば機械学習によって障害物を検出できない場合であっても、障害物の検出を補間することができ、障害物の検出精度を向上させることができる。   Therefore, the obstacle detection apparatus 1 according to the embodiment can interpolate the detection of the obstacle even when the obstacle cannot be detected by machine learning, for example, and can improve the detection accuracy of the obstacle. .

(4.変形例)
なお、図2に示す障害物検出装置1は、一例であり種々の変形が可能である。
(4. Modifications)
The obstacle detection apparatus 1 shown in FIG. 2 is an example, and various modifications can be made.

(4.1.変形例1)
上記実施形態では、障害物検出装置1は、未検出フレーム画像Fnの検出領域M内および検出領域M周辺にパーティクルPaを生成するとしたが、これに限定されない。第1検出部22が障害物の移動速度および移動方向を検出する場合、生成部232がかかる移動速度および移動方向の少なくとも一方を用いてパーティクルPaを生成するようにしてもよい。
(4.1. Modification 1)
In the above embodiment, the obstacle detection apparatus 1 generates the particle Pa in the detection area M and the vicinity of the detection area M of the undetected frame image Fn. However, the present invention is not limited to this. When the first detection unit 22 detects the moving speed and moving direction of the obstacle, the generating unit 232 may generate the particle Pa using at least one of the moving speed and moving direction.

かかる点について図11Aおよび図11Bを用いて説明する。図11Aは、実施形態の変形例1に係る第1検出部22が検出する障害物の移動速度および移動方向を説明するための図である。図11Bは、実施形態の変形例1に係る生成部232が生成するパーティクルPaの一例を示す図である。   This point will be described with reference to FIGS. 11A and 11B. FIG. 11A is a diagram for describing a moving speed and a moving direction of an obstacle detected by the first detection unit 22 according to Modification 1 of the embodiment. FIG. 11B is a diagram illustrating an example of a particle Pa generated by the generation unit 232 according to the first modification of the embodiment.

まず、第1検出部22が障害物の移動速度および移動方向を検出する点について説明する。第1検出部22は、時間的に連続するフレーム画像Fについて検出された検出領域Mが同一の歩行者Pに対応する検出領域Mか否かを判定する。そして、第1検出部22は、同一の歩行者Pに対応する検出領域Mが、複数フレーム(例えば、5フレーム)以上連続する場合に、かかる障害物の検出領域Mに人物IDを付与する。言い換えると、同一の歩行者Pに対応する検出領域Mが連続して検出されなかった場合、かかる障害物の検出領域Mに人物IDは付与されない。   First, the point that the first detection unit 22 detects the moving speed and moving direction of the obstacle will be described. The first detection unit 22 determines whether or not the detection area M detected for the temporally continuous frame images F is the detection area M corresponding to the same pedestrian P. Then, when the detection area M corresponding to the same pedestrian P continues for a plurality of frames (for example, 5 frames) or more, the first detection unit 22 assigns a person ID to the obstacle detection area M. In other words, when the detection area M corresponding to the same pedestrian P is not continuously detected, no person ID is given to the obstacle detection area M.

これにより、第1検出部22が、例えば、フレーム画像Fに写ったノイズを誤って障害物として検出した場合であっても、かかる障害物の検出領域Mは車両制御装置6への報知対象から除外することができる。換言すると、障害物検出装置1では、確度の高い障害物の検出領域Mに基づく情報のみを車両制御装置6へ出力することができる。   Thereby, even if the 1st detection part 22 is a case where the noise reflected in the frame image F is detected accidentally as an obstacle, the detection area M of this obstacle is from the alerting | reporting object to the vehicle control apparatus 6, for example. Can be excluded. In other words, the obstacle detection device 1 can output only information based on the obstacle detection region M with high accuracy to the vehicle control device 6.

なお、かかる人物IDを付与されたフレーム画像Fが上記した検出フレーム画像Fd(図1参照)となる。そして、第1検出部22は、人物IDを付与したフレーム画像Fにおける障害物の検出領域Mを重畳した検出フレーム画像Fdを検出補間部23へ出力する。   Note that the frame image F to which the person ID is assigned becomes the detection frame image Fd (see FIG. 1). Then, the first detection unit 22 outputs a detection frame image Fd in which the obstacle detection area M in the frame image F assigned with the person ID is superimposed to the detection interpolation unit 23.

このように、検出補間部23へ出力される障害物の検出領域Mは、第1検出部22によって複数フレームにわたって検出されている。そのため、第1検出部22は、連続する複数のフレーム画像Fにおける検出領域Mの推移に基づき、図11Aに示すように障害物の移動速度および移動方向を検出することができる。なお、図11Aでは、ベクトルVの大きさが移動速度を、向きが移動方向を示している。   Thus, the obstacle detection area M output to the detection interpolation unit 23 is detected by the first detection unit 22 over a plurality of frames. Therefore, the first detection unit 22 can detect the moving speed and moving direction of the obstacle, as shown in FIG. 11A, based on the transition of the detection area M in a plurality of continuous frame images F. In FIG. 11A, the magnitude of the vector V indicates the moving speed, and the direction indicates the moving direction.

変形例1に係る生成部232は、第1検出部22が検出した障害物の移動速度および移動方向の少なくとも一方に応じて、検出フレーム画像Fdの検出領域Mから移動させたパーティクルPaを生成する。   The generation unit 232 according to the modification 1 generates the particle Pa moved from the detection region M of the detection frame image Fd according to at least one of the movement speed and the movement direction of the obstacle detected by the first detection unit 22. .

具体的に、生成部232は、まず、第1検出部22が検出フレーム画像Fdの検出領域M内および検出領域M周辺に複数のパーティクルPaをランダムに生成する。その後、生成部232は、生成した複数のパーティクルPaをベクトルVにしたがって移動させる。例えば、生成部232は、図11Bに示すパーティクルPa0をベクトルVにしたがってパーティクルPa3の位置まで移動させる。生成部232は移動後のパーティクルPaをヒストグラム算出部233に出力する。   Specifically, in the generation unit 232, first, the first detection unit 22 randomly generates a plurality of particles Pa in and around the detection region M of the detection frame image Fd. Thereafter, the generation unit 232 moves the generated plurality of particles Pa according to the vector V. For example, the generation unit 232 moves the particle Pa0 illustrated in FIG. 11B to the position of the particle Pa3 according to the vector V. The generation unit 232 outputs the moved particle Pa to the histogram calculation unit 233.

あるいは、生成部232が、第1検出部22が検出した検出領域MをベクトルVにしたがって移動させた領域M4に基づいて複数のパーティクルPaを生成するようにしてもよい。   Alternatively, the generation unit 232 may generate a plurality of particles Pa based on a region M4 obtained by moving the detection region M detected by the first detection unit 22 according to the vector V.

すなわち、生成部232が、検出領域MをベクトルVにしたがって移動させた領域M4内および領域M4周辺のランダムな位置に複数のパーティクルPaを生成するようにしてもよい。   That is, the generation unit 232 may generate a plurality of particles Pa at random positions in and around the region M4 in which the detection region M is moved according to the vector V.

また、生成部232が移動方向に基づいて複数のパーティクルPaを生成する場合、生成部232はベクトルVの大きさを予め定めた値として、検出領域Mまたは生成したパーティクルPaを移動させるようにする。なお、ベクトルVの大きさは、例えば検出した障害物の種別等に応じて変更してもよい。   Further, when the generation unit 232 generates a plurality of particles Pa based on the moving direction, the generation unit 232 moves the detection region M or the generated particle Pa with the magnitude of the vector V as a predetermined value. . Note that the size of the vector V may be changed according to, for example, the type of the detected obstacle.

また、生成部232が移動速度に基づいて複数のパーティクルPaを生成する場合、生成部232は生成したパーティクルPaを移動速度に応じた距離だけランダムな方向に移動させるようにする。あるいは、生成部232が検出領域Mの周辺であって移動速度に応じた範囲に複数のパーティクルPaを生成するようにしてもよい。   Further, when the generating unit 232 generates a plurality of particles Pa based on the moving speed, the generating unit 232 moves the generated particles Pa in a random direction by a distance corresponding to the moving speed. Alternatively, the generation unit 232 may generate a plurality of particles Pa in the range around the detection region M and according to the moving speed.

このように、変形例1に係る生成部232は、第1検出部22が検出した障害物の移動速度および移動方向の少なくとも一方に応じて、検出フレーム画像Fdの検出領域Mから移動させたパーティクルPaを生成する。これにより、障害物が移動した後の領域にパーティクルPaを生成することができ、障害物検出装置1の障害物検出精度をさらに向上させることができる。   As described above, the generation unit 232 according to the first modification example uses the particles moved from the detection region M of the detection frame image Fd according to at least one of the movement speed and the movement direction of the obstacle detected by the first detection unit 22. Pa is generated. Thereby, particle | grains Pa can be produced | generated in the area | region after an obstruction moved, and the obstruction detection accuracy of the obstruction detection apparatus 1 can further be improved.

(4.2.変形例2)
上記実施形態では、障害物検出装置1が、検出領域Mの中心Cを中心とした半径dの一定範囲R1内にあるパーティクルPaを未検出フレーム画像Fnの障害物検出に用いるとしたが、これに限定されない。
(4.2. Modification 2)
In the above embodiment, the obstacle detection apparatus 1 uses the particle Pa within the fixed range R1 of the radius d centered on the center C of the detection region M for obstacle detection of the undetected frame image Fn. It is not limited to.

障害物検出装置1が検出領域Mの中心Cに応じた一定の範囲内のパーティクルPaを用いて未検出フレーム画像Fnから障害物を検出すればよい。したがって、例えば図12に示すように、検出領域Mの中心Cから矢印V2だけ上方の位置C1を中心とした半径d3の一定範囲R2内にあるパーティクルPaを障害物検出に用いるようにしてもよい。なお、図12は、実施形態に係る変形例2の一定範囲R2を説明するための図である。   The obstacle detection device 1 may detect an obstacle from the undetected frame image Fn using the particles Pa within a certain range corresponding to the center C of the detection region M. Therefore, for example, as shown in FIG. 12, particles Pa within a certain range R2 having a radius d3 centered on a position C1 above the center C of the detection region M by an arrow V2 may be used for obstacle detection. . In addition, FIG. 12 is a figure for demonstrating the fixed range R2 of the modification 2 which concerns on embodiment.

障害物が歩行者Pである場合、検出領域Mの中央より上方に位置する領域には歩行者Pの胴体が多く含まれるため、他の領域に比べて背景の領域が小さくなる。そのため、障害物検出装置1は、背景の影響が小さいパーティクルPaを用いて障害物を検出することができ、障害物の検出精度をより向上させることができる。   When the obstacle is the pedestrian P, the region located above the center of the detection region M includes a large amount of the pedestrian P's body, and therefore the background region is smaller than the other regions. Therefore, the obstacle detection apparatus 1 can detect an obstacle using the particle Pa having a small influence of the background, and can further improve the detection accuracy of the obstacle.

なお、一定範囲R2は、図12に示す円形に限定されない。例えば、図13に示すように、一定範囲R2が楕円形であってもよい。なお、図13では、一定範囲R2が検出フレーム画像Fdの横方向を長径とする楕円形である場合を示しているが、例えば、一定範囲R2は、縦方向を長径とする楕円形であってもよい。このように、楕円形の一定範囲R2内にあるパーティクルPaを障害物検出に用いることで、障害物が移動していた場合でも障害物検出装置1が障害物を検出することができる。これにより、障害物検出装置1の検出精度を向上させることができる。   The fixed range R2 is not limited to the circle shown in FIG. For example, as shown in FIG. 13, the fixed range R2 may be elliptical. FIG. 13 shows a case where the fixed range R2 is an ellipse having a major axis in the horizontal direction of the detection frame image Fd. For example, the fixed range R2 is an ellipse having a major axis in the vertical direction. Also good. In this way, by using the particle Pa in the elliptical fixed range R2 for obstacle detection, the obstacle detection apparatus 1 can detect the obstacle even when the obstacle is moving. Thereby, the detection accuracy of the obstacle detection apparatus 1 can be improved.

あるいは、第1検出部22が障害物の移動速度および移動方向を検出する場合、移動速度および移動方向に応じた長径を有する楕円形を一定範囲R2としてもよい。例えば、図14では、一定範囲R2が、移動方向を長軸とし、移動速度を長半径d4とする楕円形である場合を示している。なお、図13および図14は、実施形態の変形例2に係る一定範囲R2の他の例を示す図である。   Or when the 1st detection part 22 detects the moving speed and moving direction of an obstruction, it is good also considering the ellipse which has a long diameter according to a moving speed and a moving direction as the fixed range R2. For example, FIG. 14 shows a case where the fixed range R2 is an ellipse having the moving direction as the long axis and the moving speed as the long radius d4. 13 and 14 are diagrams illustrating another example of the certain range R2 according to the second modification of the embodiment.

このように、障害物検出装置1が移動速度および移動方向に応じた一定範囲R2内のパーティクルPaに基づいて未検出フレーム画像Fnから障害物を検出することで、障害物の検出精度をさらに向上させることができる。   As described above, the obstacle detection device 1 further detects the obstacle from the undetected frame image Fn based on the particles Pa within the fixed range R2 corresponding to the moving speed and the moving direction, thereby further improving the obstacle detection accuracy. Can be made.

なお、ここでは、検出領域Mの中心Cから矢印V2だけ上方の位置C1を一定範囲R2の中心としたが、これに限定されない。例えば、第1検出部22が車両を障害物と検出した場合、検出領域Mの中心Cから一定距離だけ下方の位置を一定範囲R2の中心としてもよい。これは、上述したように、検出領域Mの下方領域に車体ボディが多く含まれるためである。   Here, the position C1 above the center C of the detection region M by the arrow V2 is the center of the certain range R2, but the present invention is not limited to this. For example, when the first detection unit 22 detects the vehicle as an obstacle, a position below the center C of the detection region M by a certain distance may be set as the center of the certain range R2. This is because the vehicle body is included in the lower region of the detection region M as described above.

このように、障害物検出装置1が障害物の種別に応じた一定範囲R2内のパーティクルPaに基づいて未検出フレーム画像Fnから障害物を検出することで、障害物の検出精度をさらに向上させることができる。   Thus, the obstacle detection apparatus 1 further improves the obstacle detection accuracy by detecting the obstacle from the undetected frame image Fn based on the particles Pa within the certain range R2 corresponding to the type of the obstacle. be able to.

(4.3.変形例3)
上記実施形態では、生成部232がランダムに複数のパーティクルPaを生成するとしたが、これに限定されない。例えば、未検出フレーム画像Fnより前のフレーム画像で生成したパーティクルPaを用いて、未検出フレーム画像FnのパーティクルPaを生成するようにしてもよい。かかる点について、図15および図16を用いて説明する。
(4.3. Modification 3)
In the above embodiment, the generation unit 232 randomly generates a plurality of particles Pa. However, the present invention is not limited to this. For example, the particle Pa generated in the frame image before the undetected frame image Fn may be used to generate the particle Pa in the undetected frame image Fn. This point will be described with reference to FIGS. 15 and 16.

図15は、実施形態の変形例3に係る障害物検出装置1aの構成を示す図である。図16は、実施形態の変形例3に係るパーティクルPaの生成例を示す図である。   FIG. 15 is a diagram illustrating a configuration of an obstacle detection device 1a according to the third modification of the embodiment. FIG. 16 is a diagram illustrating a generation example of the particle Pa according to the third modification of the embodiment.

図15に示す障害物検出装置1aは、生成部232aがパーティクル選択部232bを有している点を除き、図2に示す障害物検出装置1と同じ構成を有する。なお、図15では、図2に示す構成要素と同様の構成要素については、図2に示す符号と同一の符号を付している。   The obstacle detection device 1a shown in FIG. 15 has the same configuration as the obstacle detection device 1 shown in FIG. 2 except that the generation unit 232a has a particle selection unit 232b. In FIG. 15, the same components as those shown in FIG. 2 are denoted by the same reference numerals as those shown in FIG.

図16に示すように、障害物検出装置1aが、時刻t1で未検出フレーム画像Fnに対して複数のパーティクルPaを生成し、各パーティクルPaに対して重み付けを行ったとする。なお、図16では、パーティクルPaを黒色の丸で示しており、未検出フレーム画像Fnでは、重み付けの大きさを黒色の丸の大きさで示している。   As shown in FIG. 16, it is assumed that the obstacle detection device 1a generates a plurality of particles Pa for the undetected frame image Fn at time t1 and weights each particle Pa. In FIG. 16, the particles Pa are indicated by black circles, and in the undetected frame image Fn, the weighting is indicated by the size of black circles.

ここで、時刻t1の次の時刻t2で、撮像した未検出フレーム画像Fn2上に生成部232aが複数のパーティクルPaを生成するとする。この場合、生成部232aのパーティクル選択部232bは、未検出フレーム画像Fnで生成したパーティクルPaのうち重み付けの大きさが大きいものを、未検出フレーム画像Fn2のパーティクルPaに選択する。   Here, it is assumed that the generation unit 232a generates a plurality of particles Pa on the captured undetected frame image Fn2 at time t2 next to time t1. In this case, the particle selection unit 232b of the generation unit 232a selects, as the particle Pa of the undetected frame image Fn2, the particle Pa generated in the undetected frame image Fn having a large weight.

例えば、図16では、パーティクル選択部232bは、未検出フレーム画像Fnで生成したパーティクルPaのうち重み付け係数が閾値Th0以上であるパーティクルPaを、未検出フレーム画像Fn2のパーティクルPaに選択する。なお、パーティクル選択部232bは、例えば未検出フレーム画像Fnで生成したパーティクルPaの重み付け係数を重み付け部235から取得する。   For example, in FIG. 16, the particle selection unit 232b selects a particle Pa having a weighting coefficient equal to or greater than the threshold Th0 among the particles Pa generated in the undetected frame image Fn as the particle Pa in the undetected frame image Fn2. Note that the particle selection unit 232b obtains, from the weighting unit 235, a weighting coefficient of the particle Pa generated with, for example, the undetected frame image Fn.

なお、例えば、パーティクル選択部232bが、未検出フレーム画像Fnで生成したパーティクルPaのうち重み付け係数が大きい方からN0個のパーティクルPaを未検出フレーム画像Fn2のパーティクルPaに選択するようにしてもよい。   Note that, for example, the particle selection unit 232b may select N0 particles Pa as the particle Pa of the undetected frame image Fn2 from the particles Pa generated in the undetected frame image Fn having the larger weighting coefficient. .

このように、パーティクル選択部232bが、未検出フレーム画像Fnで生成したパーティクルPaの重み付けに応じて未検出フレーム画像Fn2のパーティクルPaを選択する。これにより、障害物検出装置1は、1つ前の時刻t1で尤度が大きかったパーティクルPaを次の時刻t2での障害物検出に用いることができ、障害物の検出精度を向上させることができる。   Thus, the particle selection unit 232b selects the particle Pa of the undetected frame image Fn2 according to the weighting of the particle Pa generated in the undetected frame image Fn. As a result, the obstacle detection apparatus 1 can use the particle Pa having a high likelihood at the previous time t1 for obstacle detection at the next time t2, thereby improving the obstacle detection accuracy. it can.

なお、例えば、上記変形例1のように第1検出部22が、障害物の移動速度および移動方向を検出する場合、例えば図17に示すように、パーティクル選択部232bが選択したパーティクルPaを移動速度および移動方向の少なくとも一方に応じて移動させてもよい。なお、図17は、実施形態の変形例3に係るパーティクルPaの他の生成例を示す図である。   For example, when the first detection unit 22 detects the moving speed and moving direction of the obstacle as in Modification 1, for example, the particle Pa selected by the particle selecting unit 232b is moved as shown in FIG. You may move according to at least one of a speed and a moving direction. FIG. 17 is a diagram illustrating another generation example of the particle Pa according to the third modification of the embodiment.

図17のフレーム画像Fn3に示すように、パーティクル選択部232bは、未検出フレーム画像Fnで生成したパーティクルPaの重み付けに応じてパーティクルPaを選択する。図17のフレーム画像Fn3では、かかるパーティクルPaを黒色の丸で示している。   As shown in the frame image Fn3 of FIG. 17, the particle selection unit 232b selects the particle Pa according to the weight of the particle Pa generated in the undetected frame image Fn. In the frame image Fn3 of FIG. 17, the particle Pa is indicated by a black circle.

次に、パーティクル選択部232bは、選択したパーティクルPaをベクトルVで示す移動速度および移動方向に応じて移動させる。例えば、図17の未検出フレーム画像Fn2では、移動前のパーティクルPaを点線の丸で示し、移動後のパーティクルPaを黒色の丸で示している。   Next, the particle selection unit 232b moves the selected particle Pa according to the moving speed and moving direction indicated by the vector V. For example, in the undetected frame image Fn2 of FIG. 17, the particle Pa before movement is indicated by a dotted circle, and the particle Pa after movement is indicated by a black circle.

このように、パーティクル選択部232bが選択したパーティクルPaを移動速度および移動方向の少なくとも一方に応じて移動させることで、障害物検出装置1aの検出精度をさらに向上させることができる。   Thus, the detection accuracy of the obstacle detection apparatus 1a can be further improved by moving the particle Pa selected by the particle selection unit 232b according to at least one of the moving speed and the moving direction.

(4.4.変形例4)
上記実施形態では、第2検出部236が指定範囲M2内のパーティクルPaを用いて障害物を検出するとしたが、これに限定されない。例えば、指定範囲M2内のパーティクルPaのうち、尤度が閾値Th1より大きいパーティクルPaを用いて障害物を検出するようにしてもよい。かかる点について、図18を用いて説明する。
(4.4. Modification 4)
In the above embodiment, the second detection unit 236 detects an obstacle using the particles Pa in the designated range M2, but the present invention is not limited to this. For example, an obstacle may be detected using a particle Pa having a likelihood greater than the threshold Th1 among the particles Pa in the designated range M2. This point will be described with reference to FIG.

図18は、実施形態の変形例4に係る障害物検出装置1bの構成を示す図である。   FIG. 18 is a diagram illustrating a configuration of an obstacle detection device 1b according to the fourth modification of the embodiment.

図18に示す障害物検出装置1bは、第2検出部236aが選択部25および障害物検出部26を有している点を除き、図2に示す障害物検出装置1と同じ構成を有する。なお、図18では、図2に示す構成要素と同様の構成要素については、図2に示す符号と同一の符号を付している。   The obstacle detection device 1b shown in FIG. 18 has the same configuration as the obstacle detection device 1 shown in FIG. 2 except that the second detection unit 236a includes the selection unit 25 and the obstacle detection unit 26. In FIG. 18, the same components as those shown in FIG. 2 are denoted by the same reference numerals as those shown in FIG.

選択部25は、生成部232が生成した複数のパーティクルPaの中から、尤度算出部234が算出した尤度に応じて障害物の検出に用いるパーティクルPaを選択する。選択部25は、例えば尤度が閾値Th1以上であるパーティクルPaを選択する。あるいは、選択部25は、例えば尤度が高い順にN個のパーティクルPaを選択するようにしてもよい。   The selection unit 25 selects a particle Pa to be used for detecting an obstacle from the plurality of particles Pa generated by the generation unit 232 according to the likelihood calculated by the likelihood calculation unit 234. The selection unit 25 selects, for example, a particle Pa having a likelihood equal to or higher than a threshold Th1. Alternatively, the selection unit 25 may select N particles Pa in descending order of likelihood, for example.

障害物検出部26は、選択部25が選択したパーティクルPaに基づいて障害物を検出する。なお、障害物検出部26による障害物の検出方法は、図2に示す第2検出部236の検出方法と同じである。   The obstacle detection unit 26 detects an obstacle based on the particle Pa selected by the selection unit 25. The obstacle detection method by the obstacle detection unit 26 is the same as the detection method of the second detection unit 236 shown in FIG.

このように、障害物検出部26が、尤度が大きいパーティクルPaを用いて未検出フレーム画像Fnの障害物を検出することで、障害物の検出精度をさらに向上させることができる。   Thus, the obstacle detection unit 26 can further improve the obstacle detection accuracy by detecting the obstacle in the undetected frame image Fn using the particle Pa having a high likelihood.

(4.5.変形例5)
上記実施形態では、第2検出部236がパーティクルPaを用いて障害物を検出するとしたが、これに限定されない。例えば、パーティクルPaの尤度が閾値Th2より小さい場合、第2検出部236が障害物の検出を中止するようにしてもよい。かかる点について、図19を用いて説明する。
(4.5. Modification 5)
In the said embodiment, although the 2nd detection part 236 detected the obstruction using the particle Pa, it is not limited to this. For example, when the likelihood of the particle Pa is smaller than the threshold Th2, the second detection unit 236 may stop detecting the obstacle. This point will be described with reference to FIG.

図19は、実施形態の変形例5に係る障害物検出装置1が実行する処理手順を示すフローチャートである。図19を用いて、変形例5に係る障害物検出装置1の検出補間部23が実行する障害物検出処理の処理手順について説明する。   FIG. 19 is a flowchart illustrating a processing procedure executed by the obstacle detection apparatus 1 according to the fifth modification of the embodiment. The procedure of the obstacle detection process executed by the detection interpolation unit 23 of the obstacle detection apparatus 1 according to the modification 5 will be described with reference to FIG.

なお、変形例5に係る障害物検出装置1が実行する検出処理は図9に示す検出処理と同じである。変形例5に係る障害物検出装置1は、図9のステップS105で図10に示す障害物検出処理を実行する代わりに、図19に示す障害物検出処理を実行する。なお、図19では、図10に示す処理手順と同様の処理手順については、図10に示す符号と同一の符号を付している。   In addition, the detection process which the obstacle detection apparatus 1 which concerns on the modification 5 performs is the same as the detection process shown in FIG. The obstacle detection apparatus 1 according to the modification 5 executes the obstacle detection process shown in FIG. 19 instead of executing the obstacle detection process shown in FIG. 10 in step S105 of FIG. In FIG. 19, processing steps similar to those shown in FIG. 10 are denoted by the same reference numerals as those shown in FIG. 10.

図19のステップS204で尤度算出部234が基準色相ヒストグラムHhと色相ヒストグラムとの尤度を算出すると、重み付け部235は、算出した全てのパーティクルPaの尤度が閾値Th2未満であるか否かを判定する(ステップS301)。   When the likelihood calculating unit 234 calculates the likelihood of the reference hue histogram Hh and the hue histogram in step S204 of FIG. 19, the weighting unit 235 determines whether the calculated likelihoods of all the particles Pa are less than the threshold Th2. Is determined (step S301).

全てのパーティクルPaの尤度が閾値Th2未満である場合(ステップS301のYes)、ステップS207に進む。したがって、検出補間部23は、ステップS202で生成したパーティクルPaを用いた障害物の検出を行わない。   When the likelihood of all the particles Pa is less than the threshold Th2 (Yes in step S301), the process proceeds to step S207. Therefore, the detection interpolation unit 23 does not detect an obstacle using the particle Pa generated in step S202.

一方、全てのパーティクルPaの尤度が閾値Th2以上である場合(ステップS301のNo)、ステップS205に進む。したがって、検出補間部23は、ステップS202で生成したパーティクルPaを用いて障害物の検出を行う。   On the other hand, when the likelihood of all the particles Pa is equal to or greater than the threshold Th2 (No in step S301), the process proceeds to step S205. Therefore, the detection interpolation unit 23 detects an obstacle using the particle Pa generated in step S202.

なお、ここでは、全てのパーティクルPaの尤度が閾値Th2未満である場合、検出補間部23が障害物の検出を行わないようにするとしたが、これに限定されない。例えば、尤度が閾値Th2未満であるパーティクルPaがM個以上ある場合に、検出補間部23が障害物の検出を行わないようにしてもよい。   Here, when the likelihood of all the particles Pa is less than the threshold Th2, the detection interpolation unit 23 is configured not to detect the obstacle, but the present invention is not limited to this. For example, when there are M or more particles Pa whose likelihood is less than the threshold Th2, the detection interpolation unit 23 may not detect the obstacle.

なお、かかる閾値Th2は、変形例4で選択部25がパーティクルPaを選択する場合に用いる閾値Th1と同じであっても異なっていてもよい。   The threshold value Th2 may be the same as or different from the threshold value Th1 used when the selection unit 25 selects the particle Pa in the fourth modification.

このように、尤度が閾値Th2より小さいパーティクルPaがM個以上である場合に障害物の検出を行わないようにすることで、検出補間部23による障害物の誤検出を低減することができ、検出精度をさらに向上させることができる。   In this way, by preventing the obstacle from being detected when the number of particles Pa having a likelihood smaller than the threshold Th2 is M or more, erroneous detection of the obstacle by the detection interpolation unit 23 can be reduced. The detection accuracy can be further improved.

(4.6.その他の変形例)
上記実施形態では、第1検出部22で障害物を検出できなかった場合に、検出補間部23が障害物を検出するとしたが、これに限定されない。例えば、検出補間部23が、撮像装置5が撮像するフレーム画像F全てに対してパーティクルフィルタを用いた障害物検出を行うようにしてもよい。
(4.6. Other Modifications)
In the above embodiment, the detection interpolation unit 23 detects the obstacle when the first detection unit 22 cannot detect the obstacle. However, the present invention is not limited to this. For example, the detection interpolation unit 23 may perform obstacle detection using a particle filter for all the frame images F captured by the imaging device 5.

この場合、出力部24には、第1検出部22と検出補間部23との両方からフレーム画像Fが入力される。第1検出部22が障害物を検出した場合、出力部24は、第1検出部22から入力される検出領域Mが重畳されたフレーム画像Fを車両制御装置6に出力する。一方、第1検出部22が障害物を検出できなかった場合、出力部24は、検出補間部23から入力される検出領域M3が重畳されたフレーム画像Fを車両制御装置6に出力する。   In this case, the frame image F is input to the output unit 24 from both the first detection unit 22 and the detection interpolation unit 23. When the first detection unit 22 detects an obstacle, the output unit 24 outputs the frame image F on which the detection region M input from the first detection unit 22 is superimposed to the vehicle control device 6. On the other hand, when the first detection unit 22 cannot detect the obstacle, the output unit 24 outputs the frame image F on which the detection area M <b> 3 input from the detection interpolation unit 23 is superimposed to the vehicle control device 6.

また、上記実施形態では、検出フレーム画像Fdから検出した障害物の検出領域Mに基づき、検出補間部23が障害物を検出するとしたが、これに限定されない。例えば、第1検出部22がフレーム画像Fから検出領域Mを検出できなかった場合は、第2検出部236が未検出フレーム画像Fnから検出した検出領域M3に基づき、検出補間部23が障害物を検出するようにしてもよい。   Moreover, in the said embodiment, although the detection interpolation part 23 detected the obstruction based on the detection area M of the obstruction detected from the detection frame image Fd, it is not limited to this. For example, when the first detection unit 22 cannot detect the detection region M from the frame image F, the detection interpolation unit 23 detects the obstacle based on the detection region M3 detected by the second detection unit 236 from the undetected frame image Fn. May be detected.

また、上記実施形態では、第1検出部22が機械学習に基づいて障害物の検出領域Mを検出するとしたが、これに限定されない。第1検出部22が障害物の検出領域Mを検出できればよく、例えばオプティカルフローやテンプレートマッチングなどに基づいて障害物の検出領域Mを検出するようにしてもよい。   In the above embodiment, the first detection unit 22 detects the obstacle detection area M based on machine learning, but the present invention is not limited to this. The first detection unit 22 only needs to be able to detect the obstacle detection area M. For example, the obstacle detection area M may be detected based on optical flow, template matching, or the like.

また、上記実施形態では、撮像装置5が自車両の前方を撮像する場合について説明したが、撮像装置5が例えば自車両の側方や後方を撮像するようにしてもよい。あるいは、例えば複数の撮像装置5が自車両の周囲を撮像するようにしてもよい。この場合、例えば複数の撮像装置5で撮像したフレーム画像Fを統合した1つのフレーム画像Fに対して障害物検出装置1が障害物検出を行うようにする。   Moreover, although the said embodiment demonstrated the case where the imaging device 5 imaged the front of the own vehicle, you may make it the imaging device 5 image the side and back of the own vehicle, for example. Or you may make it the some imaging device 5 image the surroundings of the own vehicle, for example. In this case, for example, the obstacle detection device 1 performs obstacle detection for one frame image F obtained by integrating the frame images F captured by the plurality of imaging devices 5.

また、上記実施形態では、障害物検出装置1が検出した障害物の検出領域M、M3を重畳したフレーム画像Fを車両制御装置6に出力するとしたが、これに限定されない。例えば、障害物検出装置1が障害物の検出領域M、M3を重畳したフレーム画像Fを図示しない表示装置に出力するようにしてもよい。   In the above embodiment, the frame image F on which the obstacle detection areas M and M3 detected by the obstacle detection device 1 are output is output to the vehicle control device 6, but the present invention is not limited to this. For example, the obstacle detection device 1 may output a frame image F on which the obstacle detection areas M and M3 are superimposed to a display device (not shown).

また、上記実施形態では、障害物検出装置1が、自車両に搭載される場合について説明したが、これに限定されるものではない。すなわち、障害物検出装置1は、例えば、街灯や建物等に設けられる固定撮像装置から入力されるフレーム画像Fから障害物を検出することも可能である。   Moreover, although the said embodiment demonstrated the case where the obstacle detection apparatus 1 was mounted in the own vehicle, it is not limited to this. That is, the obstacle detection device 1 can also detect an obstacle from a frame image F input from a fixed imaging device provided in a streetlight or a building, for example.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な様態は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲および、その均等物によって定義される統括的な発明の概念の精神または範囲から逸脱することなく、様々な変化が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 障害物検出装置
5 撮像装置
22 第1検出部
23 検出補間部
231 基準ヒストグラム算出部
232 生成部
233 ヒストグラム算出部
234 尤度算出部
235 重み付け部
236 第2検出部
25 選択部
26 障害物検出部
DESCRIPTION OF SYMBOLS 1 Obstacle detection apparatus 5 Imaging device 22 1st detection part 23 Detection interpolation part 231 Standard histogram calculation part 232 Generation part 233 Histogram calculation part 234 Likelihood calculation part 235 Weighting part 236 2nd detection part 25 Selection part 26 Obstacle detection part

Claims (16)

撮像装置が撮像した第1フレーム画像から障害物が存在する検出領域を検出する第1検出部と、
前記第1検出部が検出した前記検出領域内の基準色相ヒストグラムを算出する基準ヒストグラム算出部と、
前記検出領域に基づき、前記第1フレーム画像の後に撮像された第2フレーム画像上に複数のパーティクルを生成する生成部と、
複数の前記パーティクルごとに設けられる指定範囲内の色相ヒストグラムをそれぞれ算出するヒストグラム算出部と、
前記基準ヒストグラム算出部が算出した前記基準色相ヒストグラムと前記ヒストグラム算出部が算出した前記色相ヒストグラムとの尤度を算出する尤度算出部と、
前記尤度算出部が算出した前記尤度に基づき、複数の前記パーティクルそれぞれに重み付けを行う重み付け部と、
前記重み付け部が重み付けを行った複数の前記パーティクルに基づき、前記第2フレーム画像から障害物を検出する第2検出部と、
を備える障害物検出装置。
A first detection unit that detects a detection region where an obstacle exists from the first frame image captured by the imaging device;
A reference histogram calculation unit for calculating a reference hue histogram in the detection area detected by the first detection unit;
A generating unit that generates a plurality of particles on a second frame image captured after the first frame image based on the detection region;
A histogram calculation unit for calculating a hue histogram within a specified range provided for each of the plurality of particles;
A likelihood calculating unit for calculating a likelihood between the reference hue histogram calculated by the reference histogram calculating unit and the hue histogram calculated by the histogram calculating unit;
A weighting unit that weights each of the plurality of particles based on the likelihood calculated by the likelihood calculating unit;
A second detection unit that detects an obstacle from the second frame image based on the plurality of particles weighted by the weighting unit;
An obstacle detection device comprising:
前記基準ヒストグラム算出部は、
前記第1検出部が検出した前記検出領域より小さい検出範囲内の前記基準色相ヒストグラムを算出する請求項1に記載の障害物検出装置。
The reference histogram calculation unit includes:
The obstacle detection device according to claim 1, wherein the reference hue histogram within a detection range smaller than the detection area detected by the first detection unit is calculated.
前記基準ヒストグラム算出部は、
前記第1検出部が検出した前記検出領域の中心領域を前記検出範囲とする請求項2に記載の障害物検出装置。
The reference histogram calculation unit includes:
The obstacle detection device according to claim 2, wherein a central area of the detection area detected by the first detection unit is set as the detection range.
前記生成部は、
前記検出領域内および前記検出領域周辺に複数の前記パーティクルを生成する請求項1、2または3に記載の障害物検出装置。
The generator is
The obstacle detection device according to claim 1, wherein a plurality of the particles are generated in and around the detection region.
前記生成部は、
前記第1検出部が検出した前記障害物の移動速度および移動方向の少なくとも一方に応じて前記検出領域から移動させた複数の前記パーティクルを生成する請求項1〜4のいずれか一項に記載の障害物検出装置。
The generator is
5. The plurality of particles moved from the detection region according to at least one of a movement speed and a movement direction of the obstacle detected by the first detection unit are generated according to claim 1. Obstacle detection device.
前記生成部は、
前記第2フレーム画像より前に撮像された第3フレーム画像上に生成した複数の前記パーティクルのうち、前記尤度算出部が算出した前記尤度が高い前記パーティクルを前記第2フレーム画像上の前記パーティクルとする請求項1〜5のいずれか一項に記載の障害物検出装置。
The generator is
Among the plurality of particles generated on the third frame image captured before the second frame image, the particles having the high likelihood calculated by the likelihood calculating unit are selected as the particles on the second frame image. The obstacle detection device according to any one of claims 1 to 5, wherein the obstacle detection device is a particle.
前記第2検出部は、
前記検出領域の中心に応じた一定範囲内にある前記パーティクルに基づき、障害物を検出する請求項1〜6のいずれか一項に記載の障害物検出装置。
The second detector is
The obstacle detection device according to any one of claims 1 to 6, wherein an obstacle is detected based on the particles within a certain range corresponding to a center of the detection region.
前記第2検出部は、
前記第1検出部が検出した前記障害物の種別に応じた一定範囲内にある前記パーティクルに基づき、障害物を検出する請求項1〜7のいずれか一項に記載の障害物検出装置。
The second detector is
The obstacle detection device according to any one of claims 1 to 7, wherein an obstacle is detected based on the particles within a certain range according to the type of the obstacle detected by the first detection unit.
前記第2検出部は、
前記第1検出部が検出した前記障害物の移動速度および移動方向の少なくとも一方に応じて前記検出領域の中心から移動した位置に応じた一定範囲内にある前記パーティクルに基づき、障害物を検出する請求項1〜8のいずれか一項に記載の障害物検出装置。
The second detector is
The obstacle is detected based on the particles within a certain range according to the position moved from the center of the detection area according to at least one of the movement speed and movement direction of the obstacle detected by the first detection unit. The obstacle detection device according to any one of claims 1 to 8.
前記第2検出部は、
楕円形状の前記一定範囲内にある前記パーティクルに基づき、障害物を検出する請求項7、8または9に記載の障害物検出装置。
The second detector is
The obstacle detection device according to claim 7, 8 or 9, wherein an obstacle is detected based on the particles having an elliptical shape within the predetermined range.
前記第2検出部は、
複数の前記パーティクルの前記重み付け部が行った重み付けに応じた重心位置を障害物の重心位置として検出する請求項1〜10のいずれか一項に記載の障害物検出装置。
The second detector is
The obstacle detection device according to any one of claims 1 to 10, wherein a gravity center position corresponding to the weighting performed by the weighting unit of a plurality of particles is detected as a gravity center position of an obstacle.
前記第2検出部は、
複数の前記パーティクルの中から前記尤度算出部が算出した前記尤度に応じた前記パーティクルを選択する選択部と、
前記選択部が選択した前記パーティクルに基づき、障害物を検出する障害物検出部と、
をさらに備える請求項1〜11のいずれか一項に記載の障害物検出装置。
The second detector is
A selection unit that selects the particles according to the likelihood calculated by the likelihood calculation unit from a plurality of the particles;
An obstacle detection unit for detecting an obstacle based on the particles selected by the selection unit;
The obstacle detection device according to any one of claims 1 to 11, further comprising:
前記選択部は、
前記尤度が高い順にN個の前記パーティクルを選択する請求項12に記載の障害物検出装置。
The selection unit includes:
The obstacle detection apparatus according to claim 12, wherein N particles are selected in descending order of the likelihood.
前記選択部は、
前記尤度が第1閾値以上である前記パーティクルを選択する請求項12に記載の障害物検出装置。
The selection unit includes:
The obstacle detection device according to claim 12, wherein the particles having the likelihood equal to or greater than a first threshold value are selected.
前記第2検出部は、
前記尤度算出部が算出した前記尤度が第1閾値以下である前記パーティクルがM個以上ある場合、障害物の検出を行わない請求項1〜14のいずれか一項に記載の障害物検出装置。
The second detector is
The obstacle detection according to any one of claims 1 to 14, wherein no obstacle is detected when there are M or more particles having the likelihood calculated by the likelihood calculation unit equal to or less than a first threshold value. apparatus.
撮像装置が撮像した第1フレーム画像から障害物が存在する検出領域を検出する第1検出工程と、
前記第1検出工程で検出した前記検出領域内の基準色相ヒストグラムを算出する基準ヒストグラム算出工程と、
前記検出領域に基づき、前記第1フレーム画像の後に撮像された第2フレーム画像上に複数のパーティクルを生成する生成工程と、
複数の前記パーティクルごとに設けられる指定範囲内の色相ヒストグラムをそれぞれ算出するヒストグラム算出工程と、
前記基準ヒストグラム算出工程で算出した前記基準色相ヒストグラムと前記ヒストグラム算出工程で算出した前記色相ヒストグラムとの尤度を算出する尤度算出工程と、
前記尤度算出工程で算出した前記尤度に基づき、複数の前記パーティクルそれぞれに重み付けを行う重み付け工程と、
前記重み付け工程で重み付けを行った複数の前記パーティクルに基づき、前記第2フレーム画像から障害物を検出する第2検出工程と、
を含む障害物検出方法。
A first detection step of detecting a detection region where an obstacle exists from a first frame image captured by the imaging device;
A reference histogram calculation step of calculating a reference hue histogram in the detection region detected in the first detection step;
Generating a plurality of particles on a second frame image captured after the first frame image based on the detection region;
A histogram calculation step of calculating a hue histogram within a specified range provided for each of the plurality of particles;
A likelihood calculating step for calculating a likelihood between the reference hue histogram calculated in the reference histogram calculating step and the hue histogram calculated in the histogram calculating step;
A weighting step for weighting each of the plurality of particles based on the likelihood calculated in the likelihood calculating step;
A second detection step of detecting an obstacle from the second frame image based on the plurality of particles weighted in the weighting step;
An obstacle detection method including:
JP2017102114A 2017-05-23 2017-05-23 Obstacle detection apparatus and obstacle detection method Pending JP2018197945A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017102114A JP2018197945A (en) 2017-05-23 2017-05-23 Obstacle detection apparatus and obstacle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017102114A JP2018197945A (en) 2017-05-23 2017-05-23 Obstacle detection apparatus and obstacle detection method

Publications (1)

Publication Number Publication Date
JP2018197945A true JP2018197945A (en) 2018-12-13

Family

ID=64663167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017102114A Pending JP2018197945A (en) 2017-05-23 2017-05-23 Obstacle detection apparatus and obstacle detection method

Country Status (1)

Country Link
JP (1) JP2018197945A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020080458A1 (en) 2018-10-19 2020-04-23 日本電信電話株式会社 Data processing system, central processing unit, and data processing method
CN112130569A (en) * 2020-09-27 2020-12-25 上海木木聚枞机器人科技有限公司 Ultrasonic wave range setting method and system
WO2020261823A1 (en) * 2019-06-27 2020-12-30 株式会社クボタ Obstacle detection system, agricultural work vehicle, obstacle detection program, recording medium on which obstacle detection program is recorded, and obstacle detection method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169169A (en) * 1999-12-10 2001-06-22 Fuji Photo Optical Co Ltd Automatic tracking device
JP2008305059A (en) * 2007-06-06 2008-12-18 Yaskawa Information Systems Co Ltd Object recognition apparatus and method
JP2010251849A (en) * 2009-04-10 2010-11-04 Victor Co Of Japan Ltd Target tracking device and target tracking method
JP2011170684A (en) * 2010-02-19 2011-09-01 Panasonic Corp Object tracking device, object tracking method and object tracking program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169169A (en) * 1999-12-10 2001-06-22 Fuji Photo Optical Co Ltd Automatic tracking device
JP2008305059A (en) * 2007-06-06 2008-12-18 Yaskawa Information Systems Co Ltd Object recognition apparatus and method
JP2010251849A (en) * 2009-04-10 2010-11-04 Victor Co Of Japan Ltd Target tracking device and target tracking method
JP2011170684A (en) * 2010-02-19 2011-09-01 Panasonic Corp Object tracking device, object tracking method and object tracking program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020080458A1 (en) 2018-10-19 2020-04-23 日本電信電話株式会社 Data processing system, central processing unit, and data processing method
WO2020261823A1 (en) * 2019-06-27 2020-12-30 株式会社クボタ Obstacle detection system, agricultural work vehicle, obstacle detection program, recording medium on which obstacle detection program is recorded, and obstacle detection method
JP2021006011A (en) * 2019-06-27 2021-01-21 株式会社クボタ Obstacle detection system for farm working vehicle
CN112130569A (en) * 2020-09-27 2020-12-25 上海木木聚枞机器人科技有限公司 Ultrasonic wave range setting method and system
CN112130569B (en) * 2020-09-27 2024-03-26 上海木木聚枞机器人科技有限公司 Ultrasonic wave range setting method and system

Similar Documents

Publication Publication Date Title
US10893251B2 (en) Three-dimensional model generating device and three-dimensional model generating method
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
US9179071B2 (en) Electronic device and image selection method thereof
US10096091B2 (en) Image generating method and apparatus
US8472669B2 (en) Object localization using tracked object trajectories
JP5272886B2 (en) Moving object detection apparatus, moving object detection method, and computer program
RU2607774C2 (en) Control method in image capture system, control apparatus and computer-readable storage medium
US8923553B2 (en) Image processing apparatus, image processing method, and storage medium
CN104981680A (en) Camera Aided Motion Direction And Speed Estimation
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
CN108140291A (en) Mist detecting device, method and image processing equipment
JP2018197945A (en) Obstacle detection apparatus and obstacle detection method
JP2011198244A (en) Object recognition system, monitoring system using the same, and watching system
CN109242900B (en) Focal plane positioning method, processing device, focal plane positioning system and storage medium
JP2009163498A (en) Image processor, image processing method, and image processing program
CN116051736A (en) Three-dimensional reconstruction method, device, edge equipment and storage medium
KR101909326B1 (en) User interface control method and system using triangular mesh model according to the change in facial motion
JP7338174B2 (en) Object detection device and object detection method
US20180268228A1 (en) Obstacle detection device
JP6344903B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
JP2013142668A (en) Position estimation device and position estimation method
US11995869B2 (en) System and method to improve object detection accuracy by focus bracketing
JP2012226403A (en) Image area tracking device, image area tracking method, and computer program
JP2015194911A (en) Mobile entity detection device, mobile entity detection method, mobile entity detection system, and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211124