JP2022079954A - 物体検出装置 - Google Patents
物体検出装置 Download PDFInfo
- Publication number
- JP2022079954A JP2022079954A JP2020190855A JP2020190855A JP2022079954A JP 2022079954 A JP2022079954 A JP 2022079954A JP 2020190855 A JP2020190855 A JP 2020190855A JP 2020190855 A JP2020190855 A JP 2020190855A JP 2022079954 A JP2022079954 A JP 2022079954A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- represented
- object detection
- certainty
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】画像に未知の物体が表されていても、その未知の物体を検出できる物体検出装置を提供する。【解決手段】物体検出装置は、画像をニューラルネットワーク400に入力することで、ニューラルネットワーク400により、画像上で何らかの物体が表されている可能性が有る物体候補領域を抽出し、かつ、抽出された物体候補領域に含まれる画素ごとに、何らかの物体が表されている確からしさを表す確信度を算出し、ニューラルネットワーク400により算出された確信度が所定の閾値以上となる画素の集合を、何らかの物体が表されている物体領域として検出する物体検出部31を有する。【選択図】図4
Description
本発明は、画像に表された物体を検出する物体検出装置に関する。
画像に表された物体を検出する技術が研究されている。近年では、物体を検出するために、いわゆるニューラルネットワークを識別器として用いることで、検出精度を向上する技術が提案されている。このような場合、識別器として用いられるニューラルネットワークは、検出対象となる物体が表された多数の教師画像を用いて予め学習される。しかし、検出対象となる物体によっては、十分な数の教師画像を用意することが難しく、識別器の学習が困難となることがある。そこで、そのような物体が画像に表されている場合でも、検出精度を向上するための技術が提案されている(例えば、特許文献1を参照)。
例えば、特許文献1に開示された物体検出装置は、入力された画像上の複数の領域のそれぞれについて、検出対象となる物体が表されている確信度を求め、その確信度が第1の確信度閾値以上となる第1の領域に検出対象となる物体が表されていると判定する。また、この物体検出装置は、第1の領域に対する、第1の領域において検出対象となる物体が他の物体により隠されている隠れ領域の比率を表す隠れ率を求める。そしてこの物体検出装置は、隠れ率が隠れ率閾値以上となる場合、複数の領域のうち、第1の領域と少なくとも部分的に重なる第2の領域についての確信度が第1の確信度閾値よりも低い第2の確信度閾値以上となる場合に、第2の領域に検出対象となる物体が表されていると判定する。
上記の技術は、検出対象となる物体が他の物体に対して部分的に隠れているために、検出が難しくなっている場合でも、その検出対象となる物体を精度良く検出することを可能とする。しかし、識別器が適用される状況によっては、検出対象となる物体が未知の物体であることがある。このような場合、識別器を十分に学習することができず、その検出対象となる物体を精度良く検出することが困難なことがある。
そこで、本発明は、画像に未知の物体が表されていても、その未知の物体を検出できる物体検出装置を提供することを目的とする。
一つの実施形態によれば、物体検出装置が提供される。この物体検出装置は、画像をニューラルネットワークに入力することで、ニューラルネットワークにより、画像上で何らかの物体が表されている可能性が有る物体候補領域を抽出し、かつ、抽出された物体候補領域に含まれる画素ごとに、何らかの物体が表されている確からしさを表す確信度を算出し、ニューラルネットワークにより算出された確信度が所定の閾値以上となる画素の集合を、何らかの物体が表されている物体領域として検出する物体検出部を有する。
本発明に係る物体検出装置は、画像に未知の物体が表されていても、その未知の物体を検出できるという効果を奏する。
以下、図を参照しつつ、物体検出装置について説明する。この物体検出装置は、画像をニューラルネットワーク(以下、単にNNと表記することがある)に入力することで、画像に表された物体を検出する。NNは、入力された画像から、何らかの物体が表されている可能性が有る領域を物体候補領域として抽出する。そしてこのNNは、物体候補領域に含まれる画素ごとに、何らかの物体が表されている確からしさを表す確信度を算出する。そしてこの物体検出装置は、物体候補領域において、確信度が所定の閾値以上となる画素の集合を、何らかの物体が表されている物体領域として検出する。これにより、この物体検出装置は、画像に未知の物体が表されていても、その物体を検出することを可能とする。
本実施形態において、検出対象となる物体は、識別器が学習される時点で未知である可能性が有る物体を含み、かつ、画像に表される背景と異なる物体である。例えば、画像上に、背景として、道路及びその周囲の空間が表されている場合、検出対象となる物体は、道路上に位置する物体(例えば、人、人以外の動物、車両、何らかの落下物)である。また、画像上に、背景として、所定の建物内の部屋または廊下といった空間が表されている場合、検出対象となる物体は、その空間に元々配置されていない物体、あるいはその空間に侵入した人、人以外の動物あるいは物体である。
以下では、物体検出装置を、車両制御システムに適用した例について説明する。この例では、物体検出装置は、車両に搭載されたカメラにより得られた画像に対して物体検出処理を実行することで、車両の周囲に存在する他の車両といった、予め形状等が分かる物体だけでなく、道路上の落下物といった未知の物体を検出し、その検出結果が車両の自動運転制御に利用される。
図1は、物体検出装置が実装される車両制御システムの概略構成図である。図2は、物体検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、距離センサ3と、物体検出装置の一例である電子制御装置(ECU)4とを有する。カメラ2と、距離センサ3と、ECU4とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。なお、車両制御システム1は、車両10の自動運転制御に用いられる地図を記憶するストレージ装置(図示せず)をさらに有していてもよい。さらに、車両制御システム1は、GPS受信機といった、衛星測位システムに準拠して車両10の自己位置を測位するための受信機(図示せず)、他の機器と無線通信するための無線通信端末(図示せず)、及び、車両10の走行予定ルートを探索するためのナビゲーション装置(図示せず)などを有していてもよい。
カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。カメラ2は、例えば、車両10の前方を向くように、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、車両制御システム1は、撮影方向または画角が異なる複数のカメラ2を有していてもよい。
カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワークを介してECU4へ出力する。
距離センサ3は、例えば、LiDARセンサあるいはレーダであり、所定の周期ごとに、各方位について、その方位における、車両10の周囲に存在する他の物体までの距離を測定する。そして距離センサ3は、所定の周期ごとに、方位ごとの他の物体までの距離を表すセンサ信号を、車内ネットワークを介してECU4へ出力する。
ECU4は、車両10を制御する。本実施形態では、ECU4は、カメラ2により得られた時系列の一連の画像から検出された物体に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU4は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
通信インターフェース21は、通信部の一例であり、ECU4を車内ネットワークに接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワークを介して、カメラ2及び距離センサ3と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。また通信インターフェース21は、距離センサ3から受信したセンサ信号をプロセッサ23へわたす。あるいはまた、通信インターフェース21は、車内ネットワークを介して受信した、ストレージ装置から読み込んだ地図、GPS受信機からの測位情報などを、プロセッサ23へわたす。
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU4のプロセッサ23により実行される各種処理を実現するためのコンピュータプログラム、物体検出処理において使用される各種のデータ、例えば、カメラ2から受信した画像、距離センサ3から受け取ったセンサ信号、物体検出処理で利用されるNNを特定するための各種パラメータなどを記憶する。さらに、メモリ22は、物体検出処理の途中における演算結果を記憶する。
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して物体検出処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された車両10の周囲の物体に基づいて、車両10を自動運転するよう、車両10を制御する。
図3は、物体検出処理を含む車両制御処理に関する、ECU4のプロセッサ23の機能ブロック図である。プロセッサ23は、物体検出部31と、運転計画部32と、車両制御部33とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、物体検出部31が、物体検出処理を実行する。
物体検出部31は、カメラ2から画像が得られる度に、その画像を識別器として利用されるNNに入力することで、その画像に表された、車両10の周囲に存在する物体を検出する。
図4は、識別器として利用されるNNの概略構成図である。NN400は2ステージで構成される。すなわち、NN400は、前段のステージである物体候補領域抽出部401と、後段のステージである確信度算出部402とを有している。
物体候補領域抽出部401は、NN400に入力された画像から一つ以上の物体候補領域を抽出する。そのために、物体候補領域抽出部401は、画像が入力される入力側から抽出した物体候補領域を出力する出力側へ向けて順に複数の畳み込み層を有するコンボリューショナルニューラルネットワーク(以下、CNNと表記することがある)として構成される。物体候補領域抽出部401は、何れか二つの畳み込み層の間に配置されるプーリング層を一つ以上有してもよく、各畳み込み層よりも出力側に一つ以上の全結合層を有してもよい。具体的に、物体候補領域抽出部401は、FASTER-RCNNといった2ステージ構成の物体検出用のCNNにおける、物体候補領域抽出用のステージと同様の構成とすることができる。一つの例として、物体候補領域抽出部401は、RetinaNetであってもよい。
確信度算出部402は、物体候補領域抽出部401により抽出された物体候補領域のそれぞれについて、その物体候補領域に含まれる画素ごとに何らかの物体が表されている確からしさを表す確信度を算出する。そのために、確信度算出部402は、物体候補領域が入力される入力側から確信度が出力される出力側へ向けて順に複数の畳み込み層を有するCNNとして構成される。確信度算出部402は、何れか二つの畳み込み層の間に配置されるプーリング層を一つ以上有してもよく、各畳み込み層よりも出力側に一つ以上のデコンボリューション層を有してもよい。具体的に、確信度算出部402は、目立つ領域を抽出するSaliency Detection用のNNと同様の構成とすることができる。あるいは、確信度算出部402は、セマンティックセグメンテーション用あるいはインスタンスセグメンテーション用のNNと同様の構成としてもよい。一つの例として、確信度算出部402は、SalNet、RetinaMaskまたはMaskTrackRCNNであってもよい。
なお、NN400を学習する際には、何らかの物体が表されている画素が前景、その他の画素が背景であることを示すアノテーションが行われた複数の教師画像が用いられる。そしてNN400は、誤差逆伝搬法といった所定の学習手法に従って学習される。
もし仮に、物体検出部31が利用するNNとして、Saliency Detection用のNNそのものが用いられたとすると、画像全体が前景か背景かで正規化されてしまい、必ずしも物体が表された領域だけが抽出されることにならない。一方、NN400は、上記のような2ステージ構成を有することで、何らかの物体が表されている画素を精度良く検出することができる。
物体検出部31は、各物体候補領域について、画素ごとに、その画素について算出された確信度を所定の閾値と比較する。そして物体検出部31は、確信度が所定の閾値以上となる個々の画素に、何らかの物体が表されていると判定し、各物体候補領域について、何らかの物体が表されていると判定された画素の集合となる領域を、検出された物体が表された物体領域とする。
物体検出部31は、各物体領域を表す情報を運転計画部32へ出力する。
運転計画部32は、各画像から検出された物体領域に基づいて、その物体領域に表された物体と車両10とが衝突しないように、車両10の現在位置から所定距離(例えば、500m~1km)先までの所定の区間における車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、所定の区間を車両10が走行する際の各時刻における、車両10の目標位置の集合として表される。
運転計画部32は、走行予定経路を生成するために、物体検出部31により検出された物体を追跡し、現時刻から所定時間先までの期間における、追跡された物体の軌跡を予測する。
例えば、運転計画部32は、Lucas-Kanade法といった、オプティカルフローに基づく追跡処理を、カメラ2により得られた最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡する。そのため、運転計画部32は、例えば、着目する物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。そして運転計画部32は、複数の特徴点のそれぞれについて、過去の画像における物体領域における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。あるいは、運転計画部32は、画像から検出された移動物体の追跡に適用される他の追跡手法を、最新の画像における、着目する物体領域及び過去の画像における物体領域に対して適用することで、その物体領域に表された物体を追跡してもよい。
運転計画部32は、追跡中の各物体について、カメラ2についての車両10への取り付け位置などの情報を用いて視点変換処理を実行することで、その物体の画像内座標を鳥瞰画像上の座標(鳥瞰座標)に変換する。その際、運転計画部32は、各画像の取得時における、車両10の位置及び姿勢と、検出された物体までの推定距離と、車両10からその物体へ向かう方向とにより、各画像の取得時における、検出された物体の位置を推定できる。なお、各画像取得時における車両10の位置及び姿勢は、カメラ2により得られた画像と地図とを照合することで推定されればよい。また、運転計画部32は、距離センサ3により得られた、検出された物体が位置する方位について測定された距離を、その物体までの推定距離とすればよい。そして運転計画部32は、直近の所定期間における一連の鳥瞰座標に対してKalman FilterまたはParticle filterなどを用いた予測処理を実行することで、その物体の所定時間先までの予測軌跡を推定することができる。
運転計画部32は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となり、かつ、目的地までの走行予定ルートに沿うように、車両10の走行予定経路を設定する。その際、運転計画部32は、所定時間先までの各時刻における走行予定経路上の位置に最も近い追跡中の物体までの距離の和の逆数を評価関数として算出し、その評価関数が最小化されるように、動的計画法あるいは最急降下法といった所定の最適化手法に従って走行予定経路を設定すればよい。
なお、運転計画部32は、複数の走行予定経路を生成してもよい。この場合、運転計画部32は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
なお、運転計画部32は、複数の走行予定経路を生成してもよい。この場合、運転計画部32は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
運転計画部32は、生成した走行予定経路を車両制御部33へ通知する。
車両制御部33は、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部33は、通知された走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の加速度を求め、その加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部33は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部33は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
さらに、車両制御部33は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
図5は、プロセッサ23により実行される、物体検出処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像を受信する度に、図5に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101~S102の処理が物体検出処理に対応する。
プロセッサ23の物体検出部31は、画像をNNに入力することで、画像から1以上の物体候補領域を抽出するとともに、抽出された物体候補領域のそれぞれについて、その物体候補領域に含まれる画素ごとに何らかの物体が表されている確からしさを表す確信度を算出する(ステップS101)。そして物体検出部31は、物体候補領域のそれぞれについて、確信度が所定の閾値以上となる画素の集合を、何らかの物体が表された物体領域として検出する(ステップS102)。
プロセッサ23の運転計画部32は、検出されている物体を追跡し、その追跡結果に基づいて推定されるその物体の予測軌跡と所定の距離以上となるように、車両10の走行予定経路を生成する(ステップS103)。そしてプロセッサ23の車両制御部33は、走行予定経路に沿って車両10が走行するように車両10を制御する(ステップS104)。そしてプロセッサ23は、車両制御処理を終了する。
以上に説明してきたように、この物体検出装置は、画像をNNに入力することで、画像に表された物体を検出する。その際、NNは、入力された画像から、何らかの物体が表されている可能性が有る領域を物体候補領域として抽出する。さらに、このNNは、物体候補領域に含まれる画素ごとに、何らかの物体が表されている確からしさを表す確信度を算出する。そしてこの物体検出装置は、物体候補領域において、確信度が所定の閾値以上となる画素の集合を、何らかの物体が表されている物体領域として検出する。これにより、この物体検出装置は、画像に未知の物体が表されていても、その未知の物体を検出することができる。
上記の実施形態による物体検出装置は、車両制御システム以外に適用されてもよい。例えば、上記の実施形態による物体検出装置は、屋外または屋内の所定の領域を監視するために設置される監視装置に適用されてもよい。
また、上記の実施形態による、物体検出装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
1 車両制御システム
2 カメラ
3 距離センサ
4 電子制御装置(物体検出装置)
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 運転計画部
33 車両制御部
2 カメラ
3 距離センサ
4 電子制御装置(物体検出装置)
21 通信インターフェース
22 メモリ
23 プロセッサ
31 物体検出部
32 運転計画部
33 車両制御部
Claims (1)
- 画像をニューラルネットワークに入力することで、前記ニューラルネットワークにより前記画像上で何らかの物体が表されている可能性が有る物体候補領域を抽出し、かつ、抽出された前記物体候補領域に含まれる画素ごとに、前記物体が表されている確からしさを表す確信度を算出し、前記ニューラルネットワークにより算出された前記確信度が所定の閾値以上となる画素の集合を、前記物体が表されている物体領域として検出する物体検出部、
を有する物体検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190855A JP2022079954A (ja) | 2020-11-17 | 2020-11-17 | 物体検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190855A JP2022079954A (ja) | 2020-11-17 | 2020-11-17 | 物体検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022079954A true JP2022079954A (ja) | 2022-05-27 |
Family
ID=81731654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020190855A Pending JP2022079954A (ja) | 2020-11-17 | 2020-11-17 | 物体検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022079954A (ja) |
-
2020
- 2020-11-17 JP JP2020190855A patent/JP2022079954A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7052663B2 (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
US11308717B2 (en) | Object detection device and object detection method | |
KR102499398B1 (ko) | 차선 검출 방법 및 장치 | |
JP7078021B2 (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
JP7388971B2 (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム | |
US11335099B2 (en) | Proceedable direction detection apparatus and proceedable direction detection method | |
US11829153B2 (en) | Apparatus, method, and computer program for identifying state of object, and controller | |
JP7115502B2 (ja) | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 | |
JP7226368B2 (ja) | 物体状態識別装置 | |
JP2022036726A (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
US11120292B2 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
JP2023152109A (ja) | 地物検出装置、地物検出方法及び地物検出用コンピュータプログラム | |
JP2022079954A (ja) | 物体検出装置 | |
JP2021026683A (ja) | 距離推定装置 | |
JP7491260B2 (ja) | 人検出装置、人検出方法及び人検出用コンピュータプログラム | |
CN113492850B (zh) | 倾斜角检测装置及控制装置 | |
US20230177844A1 (en) | Apparatus, method, and computer program for identifying state of lighting | |
JP2022146384A (ja) | 物体検出装置 | |
JP2023092183A (ja) | 追跡装置、追跡方法及び追跡用コンピュータプログラム | |
JP2024024422A (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
JP2021081985A (ja) | 物体検出装置 |