JP2022146384A - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP2022146384A JP2022146384A JP2021047308A JP2021047308A JP2022146384A JP 2022146384 A JP2022146384 A JP 2022146384A JP 2021047308 A JP2021047308 A JP 2021047308A JP 2021047308 A JP2021047308 A JP 2021047308A JP 2022146384 A JP2022146384 A JP 2022146384A
- Authority
- JP
- Japan
- Prior art keywords
- detected
- overlap
- vehicle
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像に表された物体を検出する物体検出装置に関する。 The present invention relates to an object detection device that detects an object represented in an image.
カメラにより得られた画像に表された特定の物体を検出する技術が研究されている(例えば、特許文献1を参照)。 Techniques for detecting a specific object represented in an image obtained by a camera have been researched (see, for example, Patent Document 1).
特許文献1に開示された映像処理装置は、映像から物体を検出するとともに、その映像から特定の物体を検出する。この映像処理装置は、検出した物体の領域と検出した特定物体の領域とが重複する割合に基づいて、検出した物体と検出した特定の物体とが対応するかを判断する。その際、この映像処理装置は、検出した物体の領域と検出した特定物体の領域とが重複する割合が所定の閾値を超えた場合に、その物体とその特定の物体とが対応すると判断する。
The image processing device disclosed in
上記の技術では、互いに異なる検出手段により検出された物体と特定の物体とが対応付けられる。しかし、画像上で検出対象となる複数の物体が表されており、それらの物体の一方が他方の物体により部分的に隠されていることがある。このような場合、上記の技術では、各物体を検出することが困難なことがある。 In the above technique, objects detected by different detection means and specific objects are associated with each other. However, multiple objects to be detected may be represented on the image, one of which may be partially obscured by the other. In such cases, it may be difficult to detect each object with the techniques described above.
そこで、本発明は、画像上で複数の物体が重なっている場合でも、それらの物体のそれぞれを検出することが可能な物体検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an object detection apparatus capable of detecting each object even when a plurality of objects overlap each other on an image.
一つの実施形態によれば、物体検出装置が提供される。この物体検出装置は、撮像部により生成された所定の領域を表す画像を識別器に入力することで、画像から、検出対象となる物体が表された複数の物体領域を検出するとともに、複数の物体領域のそれぞれについて検出対象となる物体が他の物体により少なくとも部分的に隠されている確からしさを表す隠れ信頼度を算出する物体検出部と、検出された複数の物体領域のうち、互いに少なくとも部分的に重複する物体領域の組について、その物体領域の組に含まれる物体領域同士の重複度合いが所定の重複度合い閾値以上である場合、その物体領域の組に一つの検出対象となる物体が表されていると判定し、重複度合いが所定の重複度合い閾値未満である場合、その物体領域の組に含まれる物体領域ごとに別個の検出対象となる物体が表されていると判定する重複判定部と、物体領域の組に含まれる物体領域のそれぞれの隠れ信頼度の差が大きくなるほど所定の重複度合い閾値を高くする閾値設定部とを有する。 According to one embodiment, an object detection device is provided. This object detection apparatus inputs an image representing a predetermined area generated by an imaging unit to a classifier, thereby detecting a plurality of object areas representing objects to be detected from the image, and detecting a plurality of object areas. an object detection unit that calculates, for each of the object regions, a hidden reliability that indicates the likelihood that an object to be detected is at least partially hidden by another object; For a set of partially overlapping object regions, if the degree of overlap between object regions included in the set of object regions is equal to or greater than a predetermined degree of overlap threshold, one object to be detected is present in the set of object regions. Overlapping determination determining that each object region included in the set of object regions represents a separate object to be detected when the degree of overlap is less than a predetermined degree of overlap threshold. and a threshold value setting unit that increases a predetermined overlapping degree threshold as the difference in hidden reliability between object regions included in the set of object regions increases.
本発明に係る物体検出装置は、画像上で複数の物体が重なっている場合でも、それらの物体のそれぞれを検出することができるという効果を奏する。 INDUSTRIAL APPLICABILITY The object detection apparatus according to the present invention has the effect of being able to detect each object even when a plurality of objects overlap on an image.
以下、図を参照しつつ、物体検出装置について説明する。この物体検出装置は、検出対象となる1以上の物体(以下、検出対象物体と呼ぶことがある)を検出するように予め学習された識別器に画像を入力することで、その画像上で検出対象物体を含む領域(以下、物体領域と呼ぶことがある)を複数検出する。そしてこの物体検出装置は、互いに少なくとも部分的に重複する物体領域の組について、物体領域同士の重複度合いが所定の重複度合い閾値以上である場合、その物体領域の組に一つの検出対象物体が表されていると判定する。一方、その重複度合いが重複度合い閾値未満である場合、この物体検出装置は、その物体領域の組に含まれる物体領域のそれぞれに別個の検出対象物体が表されていると判定する。ここで、識別器は、個々の物体領域について、その物体領域内に表された検出対象物体が他の物体により少なくとも部分的に隠されている確からしさを表す隠れ信頼度をさらに算出する。そしてこの物体検出装置は、互いに少なくとも部分的に重複する物体領域の組に含まれる物体領域のそれぞれの隠れ信頼度の差が大きくなるほど、所定の重複度合い閾値を高くする。これにより、この物体検出装置は、識別器が一つの検出対象物体に対して複数の物体領域を検出したのか、複数の検出対象物体に対して別個に物体領域を検出したのかを正確に判別することを可能にする。その結果として、この物体検出装置は、画像上で複数の物体が重なっている場合でも、それらの物体のそれぞれを検出することを可能とする。 The object detection device will be described below with reference to the drawings. This object detection device inputs an image to a classifier trained in advance so as to detect one or more objects to be detected (hereinafter sometimes referred to as detection target objects), and detects on the image. A plurality of regions including the target object (hereinafter sometimes referred to as object regions) are detected. In this object detection apparatus, for a set of object areas that at least partially overlap each other, if the degree of overlap between the object areas is equal to or greater than a predetermined overlap degree threshold value, one detection target object appears in the set of object areas. It is determined that On the other hand, if the degree of overlap is less than the degree of overlap threshold, the object detection device determines that each of the object regions included in the set of object regions represents a separate detection target object. Here, the discriminator further calculates, for each object region, a hidden reliability that indicates the probability that the detection target object represented in the object region is at least partially hidden by another object. Then, the object detection apparatus increases the predetermined overlap degree threshold as the difference in the hidden reliability of the object areas included in the set of object areas that at least partially overlap each other increases. Thus, this object detection device accurately determines whether the discriminator has detected a plurality of object regions for one detection target object or whether the object regions have been detected separately for a plurality of detection target objects. make it possible. As a result, this object detection device makes it possible to detect each of multiple objects even when the objects overlap on the image.
以下では、物体検出装置を、車両制御システムに適用した例について説明する。この例では、物体検出装置は、車両に搭載されたカメラにより得られた時系列の一連の画像に対して物体検出処理を実行することで、車両の周囲に存在する検出対象物体を検出する。検出対象物体には、車両10の走行に影響を与える物体、例えば、車両10の周囲を走行する他の車両、人、道路標識、信号機、車線区画線などの道路標示、及び、道路上のその他の物体などが含まれる。
An example in which the object detection device is applied to a vehicle control system will be described below. In this example, the object detection device detects a detection target object existing around the vehicle by performing object detection processing on a series of time-series images obtained by a camera mounted on the vehicle. Objects to be detected include objects that affect the traveling of the
図1は、物体検出装置が実装される車両制御システムの概略構成図である。また図2は、物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、物体検出装置の一例である電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。なお、車両制御システム1は、車両10の自動運転制御に用いられる、地物の位置及び種類、車線区画線などを表す地図情報を記憶するストレージ装置をさらに有していてもよい。さらに、車両制御システム1は、LiDARあるいはレーダといった測距センサ、GPS受信機といった、衛星測位システムに準拠して車両10の自己位置を測位するための受信機、他の機器と無線通信するための無線端末を有していてもよい。さらにまた、車両制御システム1は、車両10の走行予定ルートを探索するためのナビゲーション装置を有していてもよい。
FIG. 1 is a schematic configuration diagram of a vehicle control system in which an object detection device is mounted. Also, FIG. 2 is a hardware configuration diagram of an electronic control unit, which is one embodiment of the object detection apparatus. In this embodiment, a
カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であることが好ましい。なお、車両10には、撮影方向または焦点距離が異なる複数のカメラが設けられてもよい。
The
カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワークを介してECU3へ出力する。
Each time the
ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
The ECU 3 controls the
通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワークに接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワークを介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。
The
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU3のプロセッサ23により実行される物体検出処理を含む車両制御処理において使用される各種のデータ及びパラメータを記憶する。メモリ22は、そのようなデータまたはパラメータとして、例えば、カメラ2から受信した画像、物体検出処理で利用される識別器を特定するための各種パラメータ、及び、物体の種類ごとの確信度閾値などを記憶する。さらに、メモリ22は、車両制御処理の途中で生成される各種のデータを一定期間記憶する。さらにまた、メモリ22は、地図情報といった車両10の走行制御に利用される情報を記憶してもよい。
The
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニット(Graphics Processing Unit, GPU)といった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体検出処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。
The
図3は、物体検出処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、物体検出部31と、閾値設定部32と、重複判定部33と、運転計画部34と、車両制御部35とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、物体検出部31、閾値設定部32及び重複判定部33が、物体検出処理を実行する。なお、車両10に複数のカメラが設けられる場合には、プロセッサ23は、カメラごとに、そのカメラにより得られた画像に基づいて物体検出処理を実行してもよい。
FIG. 3 is a functional block diagram of the
物体検出部31は、カメラ2から画像を受信する度に、受信した最新の画像を物体検出用の識別器に入力することで、その画像に表されている検出対象物体を含む物体領域を検出するとともに、その検出対象物体の種類を特定する。さらに、物体検出部31は、物体領域ごとに、その物体領域についての隠れ信頼度を算出する。
Each time an image is received from the
物体検出部31は、識別器として、画像に表された検出対象物体を含む物体領域を検出し、検出対象物体の種類を識別し、かつ、隠れ信頼度を算出するように予め学習されたDNNを利用する。物体検出部31が利用するDNNは、例えば、コンボリューショナルニューラルネットワーク(以下、単にCNNと呼ぶ)型のアーキテクチャを持つDNNとすることができる。
The
図4は、識別器として利用されるDNNの構成の一例を示す図である。DNN400は、画像が入力される入力側に設けられる主幹部401と、主幹部401よりも出力側に設けられる位置検出部402、種類推定部403及び隠れ信頼度算出部404とを有する。位置検出部402は、主幹部401からの出力に基づいて、画像上に表された検出対象物体の外接矩形を物体領域として出力する。種類推定部403は、主幹部401からの出力に基づいて、位置検出部402で検出された物体領域に表された検出対象物体の種類ごとの確信度を算出する。そして隠れ信頼度算出部404は、主幹部401からの出力に基づいて、各物体領域の隠れ信頼度を算出する。なお、位置検出部402、種類推定部403及び隠れ信頼度算出部404のうちの二つ以上が一体的に形成されてもよい。
FIG. 4 is a diagram showing an example of the configuration of a DNN used as a discriminator. The
主幹部401は、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。その複数の層には2以上の畳み込み層が含まれる。さらに、主幹部401が有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。
The
主幹部401は、画像が入力されると、その画像に対して各層での演算を実行することで、その画像から算出したfeature mapを出力する。なお、主幹部401は、解像度の異なる複数のfeature mapを出力してもよい。例えば、主幹部401は、入力された画像の解像度と同じ解像度を持つfeature mapと、入力された画像の解像度よりも低い解像度の1以上のfeature mapを出力してもよい。
When an image is input, the
位置検出部402、種類推定部403及び隠れ信頼度算出部404には、それぞれ、主幹部401から出力されたfeature mapが入力される。位置検出部402、種類推定部403及び隠れ信頼度算出部404は、それぞれ、例えば、入力側から出力側へ向けて直列に接続される複数の層を有するCNNとすることができる。位置検出部402、種類推定部403及び隠れ信頼度算出部404のそれぞれについて、CNNが有する複数の層には2以上の畳み込み層が含まれる。また、位置検出部402、種類推定部403及び隠れ信頼度算出部404のそれぞれについて、CNNが有する複数の層には、1または複数の畳み込み層ごとに設けられるプーリング層が含まれてもよい。なお、CNNが有する畳み込み層及びプーリング層は、位置検出部402、種類推定部403及び隠れ信頼度算出部404について共通化されてもよい。さらに、位置検出部402、種類推定部403及び隠れ信頼度算出部404のそれぞれについて、複数の層には、1以上の全結合層が含まれてもよい。この場合、全結合層は、各畳み込み層よりも出力側に設けられることが好ましい。また全結合層には、各畳み込み層からの出力が直接入力されてもよい。また、種類推定部403の出力層は、ソフトマックス関数に従って検出対象物体の種類のそれぞれの確信度を算出するソフトマックス層としてもよいし、シグモイド関数に従って検出対象物体の種類のそれぞれの確信度を算出するシグモイド層としてもよい。さらにまた、隠れ信頼度算出部404の出力層は、シグモイド関数に従って物体領域のそれぞれの隠れ信頼度を算出するシグモイド層とすることができる。
The feature map output from the
位置検出部402及び種類推定部403は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象物体の種類のそれぞれの確信度を出力するように学習される。したがって、識別器400は、画像が入力されることで、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の領域ごとに、検出対象物体の種類のそれぞれの確信度を出力する。そして位置検出部402及び種類推定部403は、何れかの種類の検出対象物体についての確信度が所定の確信度閾値以上となる領域を、その種類の検出対象物体が表された物体領域として検出する。
The
一方、隠れ信頼度算出部404は、例えば、画像上の様々な位置、様々なサイズ及び様々なアスペクト比の物体領域ごとに、検出対象物体が他の物体により隠されている確からしさを表す隠れ信頼度を算出するように学習される。したがって、画像上に複数の検出対象物体が表されている場合、識別器は、検出対象物体ごとに物体領域を検出するとともに、各物体領域について隠れ信頼度を算出する。
On the other hand, the hidden
識別器400の学習に利用される教師データに含まれる画像(教師画像)には、例えば、検出対象物体の種類(例えば、普通乗用車、バス、トラック、二輪車など)と、検出対象物体が表された物体領域である、その検出対象物体の外接矩形とがタグ付けされる。さらに、教師画像上の個々の物体領域について、その物体領域に含まれる検出対象物体が他の物体に隠されている度合いがタグ付けされる。
An image (teacher image) included in the training data used for learning of the
識別器400は、上記のような多数の教師画像を用いて、例えば、誤差逆伝搬法といった学習手法に従って学習される。プロセッサ23は、このように学習された識別器400を利用することで、画像から検出対象となる物体を精度良く検出できる。また、識別器400は、各物体領域について、隠れ信頼度を精度良く算出することができる。
The
物体検出部31は、各物体領域の画像上での位置及び範囲と、その物体領域に含まれる物体の種類と、隠れ信頼度とを、検出物体リストに登録する。そして物体検出部31は、検出物体リストをメモリ22に記憶する。
The
閾値設定部32は、検出物体リストを参照して、互いに少なくとも部分的に重複する物体領域の組を特定する。そして閾値設定部32は、特定した物体領域の組ごとに、その組が同一の検出対象物体を表しているか否かを判定するための重複度合い閾値を設定する。本実施形態では、閾値設定部32は、特定した組に含まれる二つの物体領域間の隠れ信頼度の差が大きいほど、重複度合い閾値を高くして、その二つの物体領域に異なる物体が表されていると判定され易くする。
The
閾値設定部32は、例えば、隠れ信頼度の差が大きいほど重複度合い閾値が高くなる、隠れ信頼度の差と重複度合い閾値との関係式に、着目する物体領域の組に含まれる二つの物体領域の隠れ信頼度の差を入力することで、その組に対する重複度合い閾値を設定する。あるいは、閾値設定部32は、着目する物体領域の組に含まれる二つの物体領域の隠れ信頼度の差が所定の差分閾値よりも大きい場合、重複度合い閾値を第1の値に設定してもよい。一方、その隠れ信頼度の差が所定の差分閾値以下である場合、閾値設定部32は、重複度合い閾値を第1の値よりも低い第2の値に設定してもよい。
For example, the
閾値設定部32は、互いに少なくとも部分的に重複する物体領域の組のそれぞれに対して設定した重複度合い閾値を重複判定部33へ通知する。
The
重複判定部33は、互いに少なくとも部分的に重複する物体領域の組のそれぞれについて、Non-maximum suppression(NMS)処理を実行することで、その組に同一の検出対象物体が表されているか否かを判定する。そして重複判定部33は、同一の検出対象物体が表されていると判定した場合、その組の中から一つの物体領域(例えば、大きい方の物体領域)を選択し、選択しなかった方の物体領域及び検出対象物体を、検出物体リストから削除する。
The
具体的に、重複判定部33は、着目する物体領域の組に含まれる物体領域同士の重複度合いを算出し、算出した重複度合いを、その組に適用される重複度合い閾値と比較する。重複判定部33は、例えば、着目する物体領域の組の重複度合いとして、その組に含まれる物体領域の集合全体の面積に対する、重複している領域の面積の比(Intersection over Union(IoU))を算出する。あるいは、重複判定部33は、着目する物体領域の組の重複度合いとして、大きい方の物体領域の面積に対する、重複している領域の面積の比を算出してもよい。そして重複判定部33は、互いに少なくとも部分的に重複する物体領域の組のうち、重複度合いが重複度合い閾値以上となる組について、同一の検出対象物体が表されていると判定する。一方、重複判定部33は、互いに少なくとも部分的に重複する物体領域の組のうち、重複度合いが重複度合い閾値未満となる組について、物体領域ごとに異なる検出対象物体が表されていると判定する。
Specifically, the
図5は、複数の検出対象物体が表された画像の一例を示す図である。画像500には、検出対象物体である車両が複数表されている。これら複数の車両のうち、車両501~車両503がそれぞれ物体検出部31により検出されているものとする。そして物体検出部31により、車両501を含む物体領域511、車両502を含む物体領域512、車両503を含む二つの物体領域513及び514が設定されているものとする。また、物体領域511と物体領域512とは部分的に重複している。同様に、物体領域513と物体領域514とは部分的に重複している。
FIG. 5 is a diagram showing an example of an image showing a plurality of detection target objects. An
車両501は他の物体により隠されていないため、車両501を含む物体領域511について算出される隠れ信頼度は比較的小さな値となる。これに対して、車両502は、車両501により部分的に隠されている。そのため、車両502を含む物体領域512について算出される隠れ信頼度は比較的大きな値となる。そのため、物体領域511について算出された隠れ信頼度と物体領域512について算出された隠れ信頼度の差も比較的大きな値となるので、物体領域511と物体領域512の組に適用される重複度合い閾値も高くなる。その結果、物体領域511に表された車両501と物体領域512に表された車両502とは別の物体であることが正確に判定され易くなる。
Since the
一方、物体領域513と物体領域514とは、同一の車両503について設定されているため、物体領域513の隠れ信頼度は、物体領域514の隠れ信頼度と同程度となる。そのため、物体領域513と物体領域514の組に適用される重複度合い閾値は低くなる。その結果、物体領域513と物体領域514とが、同一の車両503を含むことが正確に判定され易くなる。
On the other hand, since the
なお、重複判定部33は、互いに少なくとも部分的に重複する物体領域の組に含まれる各物体領域に表される物体の種類が互いに異なる場合には、それぞれの物体領域に別個の検出対象物体が表されていると判定してもよい。
Note that when the types of objects represented by the object regions included in the set of object regions that at least partially overlap each other are different, the
運転計画部34は、検出物体リストを参照して、車両10周囲の物体と車両10とが衝突しないように、車両10の現在位置から所定距離(例えば、500m~1km)先までの所定の区間における車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、所定の区間を車両10が走行する際の各時刻における、車両10の目標位置の集合として表される。
The
運転計画部34は、走行予定経路を生成するために、検出物体リストに登録されている検出対象物体(以下、単に物体と呼ぶ)を追跡し、現時刻から所定時間先までの期間における、追跡された物体の軌跡を予測する。
In order to generate a planned travel route, the
例えば、運転計画部34は、Lucas-Kanade法といった、オプティカルフローに基づく追跡処理を、カメラ2により得られた最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡する。そのため、運転計画部34は、例えば、着目する物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。そして運転計画部34は、複数の特徴点のそれぞれについて、過去の画像における物体領域における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。あるいは、運転計画部34は、画像から検出された移動物体の追跡に適用される他の追跡手法を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡してもよい。
For example, the
運転計画部34は、追跡中の各物体について、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、その物体の画像内座標を鳥瞰画像上の座標(鳥瞰座標)に変換する。その際、運転計画部34は、各画像の取得時における、車両10の位置及び姿勢と、検出された物体までの推定距離と、車両10からその物体へ向かう方向とにより、各画像の取得時における、検出された物体の位置を推定できる。なお、運転計画部34は、各画像取得時における車両10の位置及び姿勢を、例えば、車両10に搭載されたGPS受信機(図示せず)から得た車両10の現在位置を表す現在位置情報に基づいて推定できる。あるいは、運転計画部34は、カメラ2により画像が得られる度に、その画像から車両10の左右の車線区画線を検出し、検出された車線区画線とメモリ22に記憶されている地図情報とをマッチングすることで、車両10の位置及び姿勢を推定してもよい。また、運転計画部34は、画像上での検出された物体を含む物体領域の位置及びカメラ2の光軸方向に基づいて、車両10からその物体へ向かう方向を特定することができる。さらに、物体領域の下端の位置は、その物体領域に表される物体の路面に接する位置を表すと想定される。そこで運転計画部34は、物体領域の下端に対応する、カメラ2からの方位と、カメラ2の設置高さとに基づいて、その物体領域に表された物体までの距離を推定できる。そして運転計画部34は、直近の所定期間における一連の鳥瞰座標に対してKalman FilterまたはParticle filterなどを用いた予測処理を実行することで、その物体の所定時間先までの予測軌跡を推定することができる。
For each object being tracked, the
運転計画部34は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となり、かつ、目的地までの走行予定ルートに沿うように、車両10の走行予定経路を設定する。その際、運転計画部34は、所定時間先までの各時刻における走行予定経路上の位置に最も近い追跡中の物体までの距離の和の逆数を評価関数として算出する。そして運転計画部34は、その評価関数が最小化されるように、動的計画法あるいは最急降下法といった所定の最適化手法に従って走行予定経路を設定すればよい。
なお、運転計画部34は、複数の走行予定経路を生成してもよい。この場合、運転計画部34は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
Based on the predicted trajectory of each object being tracked, the
Note that the
運転計画部34は、生成した走行予定経路を車両制御部35へ通知する。
The
車両制御部35は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部35は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の目標加速度を求め、その目標加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部35は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部35は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
The
さらに、車両制御部35は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求める。そして車両制御部35は、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
Further, when the
図6は、プロセッサ23により実行される、物体検出処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像を受信する度に、図6に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101~S106の処理が物体検出処理に対応する。
FIG. 6 is an operation flowchart of vehicle control processing including object detection processing executed by the
プロセッサ23の物体検出部31は、カメラ2から得られた画像を識別器に入力して、その画像に表された1以上の検出対象物体を検出する。すなわち、物体検出部31は、画像上で検出対象物体を含む1以上の物体領域を検出する(ステップS101)。さらに、物体検出部31は、検出された検出対象物体ごとに、その検出対象物体の種類を識別する。そして物体検出部31は、検出された検出対象物体を検出物体リストに登録する。さらにまた、物体検出部31は、検出された物体領域ごとに、その物体領域の隠れ信頼度を算出する(ステップS102)。
The
プロセッサ23の閾値設定部32は、互いに少なくとも部分的に重複する物体領域の組について、隠れ信頼度の差が大きくなるほど重複度合い閾値が高くなるように重複度合い閾値を設定する(ステップS103)。そしてプロセッサ23の重複判定部33は、互いに少なくとも部分的に重複する物体領域の組について、重複度合いが重複度合い閾値以上となるか否か判定する(ステップS104)。
The
重複度合いが重複度合い閾値以上である場合(ステップS104-Yes)、重複判定部33は、互いに少なくとも部分的に重複する物体領域の組に同一の検出対象物体が表されていると判定する。そして重複判定部33は、何れか一方の物体領域を検出物体リストから削除する(ステップS105)。
If the overlap degree is equal to or greater than the overlap degree threshold value (step S104-Yes), the
一方、重複度合いが重複度合い閾値未満である場合(ステップS104-No)、重複判定部33は、各物体領域にそれぞれ別個の検出対象物体が表されていると判定する(ステップS106)。
On the other hand, if the overlap degree is less than the overlap degree threshold value (step S104-No), the
ステップS105またはステップS106の後、プロセッサ23の運転計画部34は、検出物体リストを参照して、検出物体リストに登録されている各検出対象物体を追跡することでその物体の予測軌跡を推定する。そして運転計画部34は、推定した予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS107)。プロセッサ23の車両制御部35は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS108)。そしてプロセッサ23は、車両制御処理を終了する。
After step S105 or step S106, the
以上に説明してきたように、この物体検出装置は、識別器に画像を入力することで検出された、互いに少なくとも部分的に重複する物体領域の組について、重複度合いに応じて一つの検出対象物体が表されているか別個の検出対象物体が表されているかを判定する。その際、この物体検出装置は、その物体領域の組に含まれる各物体領域の隠れ信頼度の差が大きくなるほど、重複度合いと比較される所定の重複度合い閾値を高くする。これにより、この物体検出装置は、識別器が一つの検出対象物体に対して複数の物体領域を検出したのか、複数の検出対象物体に対して別個に物体領域を検出したのかを正確に判別することができる。その結果として、この物体検出装置は、画像上で複数の物体が重なっている場合でも、それらの物体のそれぞれを検出することができる。 As described above, this object detection apparatus selects one detection target object according to the degree of overlap for a set of object regions that at least partially overlap with each other, detected by inputting an image to the classifier. is represented or a separate detectable object is represented. At this time, the object detection apparatus increases a predetermined degree of overlap threshold to be compared with the degree of overlap as the difference in the degree of hidden reliability between the object regions included in the set of object regions increases. Thus, this object detection device accurately determines whether the discriminator has detected a plurality of object regions for one detection target object or whether the object regions have been detected separately for a plurality of detection target objects. be able to. As a result, this object detection apparatus can detect each of multiple objects even when the objects overlap on the image.
上記の実施形態または変形例による物体検出装置は、車載機器以外に実装されてもよい。例えば、上記の実施形態または変形例による物体検出装置は、屋外または屋内の所定の領域を所定周期ごとに撮影するように設置された監視カメラにより生成された画像から所定の物体を検出するように構成されてもよい。そして物体検出装置は、一定期間にわたって所定の物体が検出された場合、物体検出装置と接続されるディスプレイに所定の物体が検出されたことを表すメッセージを表示させてもよい。 The object detection device according to the above embodiment or modification may be mounted in a device other than an in-vehicle device. For example, the object detection device according to the above embodiment or modification detects a predetermined object from an image generated by a surveillance camera installed to photograph a predetermined outdoor or indoor area at predetermined intervals. may be configured. Then, when a predetermined object is detected over a certain period of time, the object detection device may cause a display connected to the object detection device to display a message indicating that the predetermined object has been detected.
また、上記の実施形態または変形例による、物体検出装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
In addition, the computer program that implements the function of each unit of the
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various modifications within the scope of the present invention according to the embodiment.
1 車両制御システム
2 カメラ
3 電子制御装置(物体検出装置)
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 閾値設定部
33 重複判定部
34 運転計画部
35 車両制御部
1
21
Claims (1)
検出された前記複数の物体領域のうち、互いに少なくとも部分的に重複する物体領域の組について、当該物体領域の組に含まれる物体領域同士の重複度合いが所定の重複度合い閾値以上である場合、当該物体領域の組に一つの前記検出対象となる物体が表されていると判定し、前記重複度合いが前記所定の重複度合い閾値未満である場合、当該物体領域の組に含まれる物体領域ごとに別個の前記検出対象となる物体が表されていると判定する重複判定部と、
前記物体領域の組に含まれる物体領域のそれぞれの前記隠れ信頼度の差が大きくなるほど、前記所定の重複度合い閾値を高くする閾値設定部と、
を有する物体検出装置。 By inputting an image representing a predetermined area generated by the imaging unit to the classifier, a plurality of object areas representing objects to be detected are detected from the image, and each of the plurality of object areas is detected. an object detection unit that calculates a hidden reliability representing the likelihood that the object to be detected is at least partially hidden by another object;
For a set of object regions that at least partially overlap each other among the plurality of detected object regions, if the degree of overlap between object regions included in the set of object regions is equal to or greater than a predetermined degree of overlap threshold, If it is determined that one object to be detected is represented in a set of object regions, and the degree of overlap is less than the predetermined degree of overlap threshold, each object region included in the set of object regions is separately detected. A duplication determination unit that determines that the object to be detected is represented in
a threshold setting unit configured to increase the predetermined overlapping degree threshold as the difference in the hidden reliability between the object regions included in the set of object regions increases;
An object detection device having
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021047308A JP2022146384A (en) | 2021-03-22 | 2021-03-22 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021047308A JP2022146384A (en) | 2021-03-22 | 2021-03-22 | Object detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022146384A true JP2022146384A (en) | 2022-10-05 |
Family
ID=83461843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021047308A Pending JP2022146384A (en) | 2021-03-22 | 2021-03-22 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022146384A (en) |
-
2021
- 2021-03-22 JP JP2021047308A patent/JP2022146384A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7052663B2 (en) | Object detection device, object detection method and computer program for object detection | |
US11308717B2 (en) | Object detection device and object detection method | |
JP7388971B2 (en) | Vehicle control device, vehicle control method, and vehicle control computer program | |
JP7115502B2 (en) | Object state identification device, object state identification method, computer program for object state identification, and control device | |
US11829153B2 (en) | Apparatus, method, and computer program for identifying state of object, and controller | |
US11335099B2 (en) | Proceedable direction detection apparatus and proceedable direction detection method | |
US11900690B2 (en) | Apparatus, method, and computer program for identifying state of signal light, and controller | |
JP7226368B2 (en) | Object state identification device | |
US20200394435A1 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
JP2022146384A (en) | Object detection device | |
JP2021026683A (en) | Distance estimation apparatus | |
CN113492850B (en) | Inclination angle detection device and control device | |
JP2022079954A (en) | Object detection apparatus | |
JP2023092183A (en) | Tracking device, tracking method, and computer program for tracking | |
US20230260294A1 (en) | Apparatus, method, and computer program for estimating road edge | |
US20220343667A1 (en) | Apparatus, method, and computer program for human detection | |
US20230177844A1 (en) | Apparatus, method, and computer program for identifying state of lighting | |
JP2021138338A (en) | Vehicle control system | |
JP2024030951A (en) | Vehicle control device, vehicle control method, and vehicle control computer program |