JP6965298B2 - 物体検出装置、物体検出方法、プログラム、および移動体 - Google Patents

物体検出装置、物体検出方法、プログラム、および移動体 Download PDF

Info

Publication number
JP6965298B2
JP6965298B2 JP2019050503A JP2019050503A JP6965298B2 JP 6965298 B2 JP6965298 B2 JP 6965298B2 JP 2019050503 A JP2019050503 A JP 2019050503A JP 2019050503 A JP2019050503 A JP 2019050503A JP 6965298 B2 JP6965298 B2 JP 6965298B2
Authority
JP
Japan
Prior art keywords
map
feature
feature maps
object detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019050503A
Other languages
English (en)
Other versions
JP2020154478A (ja
Inventor
大祐 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2019050503A priority Critical patent/JP6965298B2/ja
Priority to EP19192157.6A priority patent/EP3712803A1/en
Priority to US16/544,532 priority patent/US11113583B2/en
Publication of JP2020154478A publication Critical patent/JP2020154478A/ja
Application granted granted Critical
Publication of JP6965298B2 publication Critical patent/JP6965298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明の実施の形態は、物体検出装置、物体検出方法、プログラム、および移動体に関する。
入力画像に含まれる物体を検出する技術が知られている。例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて、入力画像から解像度の異なる複数の画像を生成する。そして、生成した複数の画像から特徴を抽出することで、物体を検出する技術が知られている。
しかし、従来技術では、単に、解像度の異なる複数の画像を結合、または、含まれる要素の和を算出することで、物体を検出していた。このため、従来では局所的な特徴に応じた物体検出が行われており、物体検出精度が低下する場合があった。
Dollar,Piotr,Serge J.Belongie,and Pietro Perona."The fastest pedestrian detector in the west."BMVC 2010,2010. Liu Wei,et al."Ssd:Single shot multibox detector."European conference on computer vision.Springer,Cham,2016.
本発明は、上記に鑑みてなされたものであって、物体検出精度の向上を図ることができる、物体検出装置、物体検出方法、プログラム、および移動体を提供することを目的とする。
実施の形態の物体検出装置は、入力画像から、少なくとも一部の要素の特徴量が異なる複数の第1の特徴マップを算出する算出部と、複数の前記第1の特徴マップに基づいて、前記第1の特徴マップ中の位置方向および複数の前記第1の特徴マップ間の関係方向によって規定される第1の空間的に関係性の高い要素であるほど高い第1の重み付け値が規定された空間注目マップを生成する第1の生成部と、複数の第1の特徴マップの各々に、前記空間注目マップに示される第1の重み付け値に応じた重み付けを行い、複数の第2の特徴マップを生成する第2の生成部と、複数の前記第2の特徴マップを用いて、前記入力画像に含まれる物体を検出する検出部と、を備える。
物体検出装置のブロック図。 処理部が実行する処理の概要図。 空間注目マップおよび第2の特徴マップの生成の説明図。 空間注目マップの模式図。 第1の結合マップの模式図。 第3の結合マップの模式図。 第2の特徴マップの模式図。 表示画像の模式図。 物体検出処理の流れを示すフローチャート。 物体検出装置のブロック図。 処理部が実行する処理の概要図。 時間注目マップおよび第3の特徴マップの生成の説明図。 時間注目マップの模式図。 第4の結合マップの模式図。 第5の結合マップの模式図。 第3の特徴マップの模式図。 物体検出処理のフローチャート。 物体検出装置の適用形態を示す図。 物体検出装置のハードウェア構成図。
以下に添付図面を参照して、物体検出装置、物体検出方法、プログラム、および移動体を詳細に説明する。
(第1の実施の形態)
図1は、本実施の形態の物体検出装置10の構成の一例を示すブロック図である。
物体検出装置10は、入力画像に含まれる物体を検出する装置である。
物体検出装置10は、処理部12と、記憶部14と、出力部16と、を備える。処理部12と、記憶部14および出力部16とは、バス17を介してデータまたは信号を授受可能に接続されている。
記憶部14は、各種のデータを記憶する。記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、記憶部14は、物体検出装置10の外部に設けられた記憶装置であってもよい。また、記憶部14は、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、記憶部14を、複数の記憶媒体から構成してもよい。
出力部16は、各種の情報を表示する表示機能、音を出力する音出力機能、外部装置との間でデータを通信する通信機能、の少なくとも1つを備える。外部装置とは、物体検出装置10の外部に設けられた装置である。物体検出装置10と外部装置とは、ネットワークなどを介して通信可能とすればよい。例えば、出力部16は、公知の表示装置、公知のスピーカ、および公知の通信装置の少なくとも1つを組み合わせることで構成される。
処理部12は、取得部12Aと、算出部12Bと、第1の生成部12Cと、第2の生成部12Dと、検出部12Eと、出力制御部12Fと、を備える。
取得部12A、算出部12B、第1の生成部12C、第2の生成部12D、検出部12E、および出力制御部12Fは、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のICなどのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
図2は、本実施の形態の処理部12が実行する処理の概要図である。本実施の形態では、処理部12は、入力画像18から複数の第1の特徴マップ20を生成する。そして、処理部12は、複数の第1の特徴マップ20を用いて、空間注目マップ30を生成する。処理部12は、生成した空間注目マップ30を用いて、第1の特徴マップ20に重み付けを行うことで、第2の特徴マップ40を生成する。処理部12は、第2の特徴マップ40を用いて、入力画像18に含まれる物体を検出する。入力画像18、第1の特徴マップ20、空間注目マップ30、および第2の特徴マップ40の詳細は後述する。
図1に戻り、処理部12の各部について詳細に説明する。
取得部12Aは、入力画像18を取得する。入力画像18は、物体を検出する対象の画像データである。
入力画像18は、例えば、画素ごとに画素値を規定したビットマップ画像、および、ベクター画像、の何れであってもよい。本実施の形態では、入力画像18は、ビットマップ画像である場合を一例として説明する。なお、入力画像18がベクター画像である場合には、処理部12は、ビットマップ画像に変換すればよい。
入力画像18は、予め記憶部14に記憶すればよい。そして、取得部12Aは、記憶部14から入力画像18を読取ることで、入力画像18を取得する。なお、取得部12Aは、出力制御部12Fを介して外部装置または撮影装置から、入力画像18を取得してもよい。撮影装置は、撮影によって撮影画像データを得る公知の装置である。取得部12Aは、撮影画像データを撮影装置から受付けることで、撮影画像データである入力画像18を取得してもよい。
算出部12Bは、入力画像18から、複数の第1の特徴マップ20を生成する。例えば、図2に示すように、算出部12Bは、1つの入力画像18から、複数の第1の特徴マップ20を生成する。図2には、一例として、5つの第1の特徴マップ20(第1の特徴マップ20A〜第1の特徴マップ20D)を生成する場合を示した。なお、算出部12Bが生成する第1の特徴マップ20の数は、複数であればよく、その数は限定されない。
第1の特徴マップ20は、要素FAごとに、特徴量を規定したマップである。要素FAとは、第1の特徴マップ20を複数領域に分割した各領域を示す。要素FAのサイズは、第1の特徴マップ20の生成時に用いるカーネルによって定まる。カーネルは、フィルタと称される場合がある。具体的には、第1の特徴マップ20の要素FAは、該第1の特徴マップ20の算出元として用いた入力画像18の、1または複数の画素の画素領域に相当する。
特徴量は、各要素FAの特徴を表す値である。特徴量は、入力画像18から第1の特徴マップ20を算出する時に用いるカーネルにより要素FAごとに抽出される。特徴量は、例えば、入力画像18における対応する画素の画素値に応じた値となる。特徴量の抽出には、公知の画像処理技術を用いればよい。
複数の第1の特徴マップ20は、少なくとも一部の要素FAの特徴量が異なる。
詳細には、例えば、本実施の形態では、複数の第1の特徴マップ20は、解像度およびスケールの少なくとも一方が互いに異なる。スケールが異なるとは、拡大率および縮小率の少なくとも一方が異なる事を示す。
算出部12Bは、1つの入力画像18から、解像度およびスケールの少なくとも一方の異なる複数の第1の特徴マップ20を算出する。この算出により、算出部12Bは、少なくとも一部の要素FAの特徴量が異なる複数の第1の特徴マップ20を生成する。
算出部12Bは、公知の方法を用いて、入力画像18から複数の第1の特徴マップ20を算出すればよい。例えば、算出部12Bは、公知の畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて、入力画像18から複数の第1の特徴マップ20(第1の特徴マップ20A〜第1の特徴マップ20E)を算出する。
この場合、算出部12Bは、公知の畳み込み演算の繰返しにより、入力画像18から得られる複数のテンソルの各々を、第1の特徴マップ20として算出する。
なお、算出部12Bは、入力画像18に対して、プーリング(Pooling)と称されるノイズ処理を行うことで、入力画像18から複数の第1の特徴マップ20を算出してもよい。また、算出部12Bは、入力画像18に対して、畳み込み演算とプーリングとを交互に繰り返すことで、複数の第1の特徴マップ20を算出してもよい。
本実施の形態では、算出部12Bは、CNNを用いて、入力画像18の畳み込み演算を順次繰り返すことで、少なくとも解像度の異なる複数の第1の特徴マップ20(第1の特徴マップ20A〜第1の特徴マップ20E)を算出する形態を、一例として説明する。
このため、図2に示すように、入力画像18から、複数の第1の特徴マップ20(第1の特徴マップ20A〜第1の特徴マップ20E)が生成される。
図1に戻り説明を続ける。次に、第1の生成部12Cについて説明する。第1の生成部12Cは、複数の第1の特徴マップ20に基づいて、空間注目マップ30を生成する。空間注目マップ30の生成に用いる第1の特徴マップ20は、複数であればよい。このため、第1の生成部12Cは、算出部12Bが算出した複数の第1の特徴マップ20の全てを用いる形態に限定されない。本実施の形態では、第1の生成部12Cは、算出部12Bによって算出された複数の第1の特徴マップ20(第1の特徴マップ20A〜第1の特徴マップ20E)の内の一部である、複数の第1の特徴マップ20(第1の特徴マップ20B〜第1の特徴マップ20E)を、空間注目マップ30の生成に用いる形態を説明する。
図3Aは、空間注目マップ30の生成および第2の特徴マップ40の生成の一例の説明図である。
図3Aに示すように、第1の生成部12Cは、複数の第1の特徴マップ20(第1の特徴マップ20B〜第1の特徴マップ20E)から、空間注目マップ30を生成する。
図3Bは、空間注目マップ30の一例を示す模式図である。空間注目マップ30は、要素Fごとに重み付け値を規定したものである。空間注目マップ30の各要素Fの重み付け値は、第1の生成部12Cによる生成(学習)によって更新される。空間注目マップ30の、この更新後の値である要素Fの重み付け値が高いほど、第1の空間P1的な関係性が高い事を意味する。このため、更新後、すなわち、生成された空間注目マップ30の各要素Fには、第1の空間P1的に関係性が高い要素Fであるほど、高い重み付け値(第1の重み付け値)が規定されたものとなる。言い換えると、生成された空間注目マップ30は、第1の空間P1的に関係性のある要素Fである第1の要素F1には、第1の要素F1以外の要素Fより高い第1の重み付け値が規定されたものとなる。また、空間注目マップ30は、第1の空間P1的に関係性の低い要素Fであるほど、低い重み付け値が規定されたものとなる。なお、本実施の形態および以下の実施の形態で説明するマップの要素を総称して説明する場合には、要素Fと称して説明する場合がある。
図3Aに示すように、第1の空間P1は、第1の特徴マップ20中の位置方向および複数の第1の特徴マップ20間の関係方向によって規定される多次元空間である。
第1の特徴マップ20中の位置方向とは、第1の特徴マップ20の要素FAの配列面である二次元平面に沿った方向である。この配列面は、入力画像18の画素の配列面に相当する。
具体的には、第1の特徴マップ20の要素FAの配列面は、要素Fの特定の配列方向である第1の位置方向(矢印H方向参照)と、第1の特徴マップ20の要素FAの配列面に沿った、該第1の位置方向Hに直交する第2の位置方向(矢印W方向)と、によって形成される二次元平面である。なお、以下では、第1の位置方向を、第1の位置方向H、第2の位置方向を、第2の位置方向Wと称して説明する場合がある。
複数の第1の特徴マップ20間の関係方向とは、複数の第1の特徴マップ20を、解像度順またはスケール順に配列したときの、該配列方向を意味する。すなわち、互いに解像度の異なる複数の第1の特徴マップ20が算出された場合、関係方向は、解像度の増減方向に一致する。また、互いにスケールの異なる複数の第1の特徴マップ20が算出された場合、関係方向は、スケールの拡大縮小方向に一致する。図3Aに示す例の場合、関係方向は、矢印L方向に一致する。以下では、関係方向を、関係方向Lと称して説明する場合がある。
このため、第1の空間P1は、第1の位置方向H、第2の位置方向W、および関係方向Lによって規定される3次元空間である。
第1の生成部12Cによる生成(学習)によって、空間注目マップ30の要素Fごとの重み付け値が更新される。この更新後の値である要素Fの重み付け値が高いほど、第1の空間P1的な関係性が高い事を意味する。
複数の第1の特徴マップ20間で対応する要素FAの要素群とは、該要素群に属する複数の要素Fの各々の算出に用いた算出元の入力画像18の画素が、同じ画素位置の画素であることを意味する。すなわち、該要素群に属する要素Fは、入力画像18における同じ画素位置の画素から生成された要素Fであり、互いに異なる第1の特徴マップ20中の要素Fである。
本実施の形態では、第1の生成部12Cは、以下の方法により、第1の特徴マップ20から空間注目マップ30を生成する。
詳細には、第1の生成部12Cは、複数の第1の特徴マップ20間で対応する要素FAの要素群ごとに、関係方向Lおよび位置方向(第1の位置方向H、第2の位置方向W)の各々に沿った、特徴量のベクトル列の内積結果を算出する。
本実施の形態では、特徴量の種類が、256である場合を一例として説明する。特徴量の種類の数は、チャネル数と称される場合がある。なお、特徴量の種類は、256に限定されない。特徴量の種類が256である場合、第1の生成部12Cは、第1の位置方向H、第2の位置方向W、および関係方向Lの各々の方向に沿った、256種類の特徴量のベクトル列の内積結果を算出する。
そして、第1の生成部12Cは、各要素Fの内積結果を第1の重み付け値として要素Fごとに規定した、空間注目マップ30を生成する。
このため、例えば、図3Bに示す空間注目マップ30が生成される。上述したように、空間注目マップ30は、要素FCごとに重み付け値を規定したものである。空間注目マップ30の各要素FCの重み付け値は、第1の生成部12Cによる生成(学習)によって更新される。空間注目マップ30の、この更新後の値である要素FCの重み付け値が高いほど、第1の空間P1的な関係性が高い事を意味する。空間注目マップ30の要素FCは、第1の特徴マップ20の要素Fに対応する。
図3Aに戻り説明を続ける。なお、第1の生成部12Cは、複数の第1の特徴マップ20を互いに異なる重み値で線形埋込した複数の結合マップを用いて、空間注目マップ30を生成してもよい。複数の結合マップを用いて空間注目マップ30を生成することで、空間注目マップ30の精度向上を図ることができる。
詳細には、例えば、第1の生成部12Cは、複数の第1の特徴マップ20(第1の特徴マップ20B〜第1の特徴マップ20E)間で対応する要素Fの要素群ごとに、該要素群に含まれる要素Fの各々の特徴量を線形埋込した、第1の結合マップ21を生成する。
図3Cは、第1の結合マップ21の一例を示す模式図である。第1の結合マップ21を構成する要素FBは、第1の特徴マップ20間で対応する要素FAの要素群から構成される。
このため、第1の結合マップ21は、LHW×256のテンソルである。Lは上記関係方向Lに相当し、Hは上記第1の位置方向Hに相当し、Wは上記第2の位置方向Wに相当する。また、第1の結合マップ21に含まれる各要素FBの特徴量は、複数の第1の特徴マップ20間で対応する要素FAの要素群ごとに、該要素群に含まれる複数の要素Fの各々の特徴量を線形埋込した値となる。
本実施の形態では、第1の生成部12Cは、公知の線形埋込方法を用いて、第1の結合マップ21を生成すればよい。
図3Aに戻り説明を続ける。なお、本実施の形態では、第1の生成部12Cは、複数の第1の特徴マップ20から、線形埋込時の重み値の異なる複数の第1の結合マップ21(第1の結合マップ21A、第1の結合マップ21B)を生成する(ステップS1、ステップS2参照)。これらの第1の結合マップ21Aおよび第1の結合マップ21Bの構成は、図3Cに示す第1の結合マップ21と同様である。
ここで、複数の第1の特徴マップ20間で対応する要素FAの要素群の各々を“x”と表す。すると、該要素群である要素FBから構成される第1の結合マップ21は、第1の特徴マップ20の要素群“x”を用いた関数で表される。具体的には、例えば、第1の結合マップ21Aは、f(x)で表される。また、第1の結合マップ21Bは、g(x)で表される。
そして、第1の生成部12Cは、複数の第1の結合マップ21(第1の結合マップ21A、第1の結合マップ21B)間で対応する要素FBごとに、関係方向Lおよび位置方向(第1の位置方向H、第2の位置方向W)の各々に沿った特徴量のベクトル列の内積結果を、第1の重み付け値として規定した、空間注目マップ30を生成する(ステップS3、ステップS4、ステップS5)。
例えば、第1の生成部12Cは、公知のSoftmax関数を使用し、下記式(1)を用いて、空間注目マップ30を生成する。
Figure 0006965298
式(1)中、αi,jは、LHW×LHWのテンソルを示す。f(xi),g(xj)は、LHW×256のテンソルを示す。f(xi)TのTは、f(xi)の転置を表しており、256×LHWのテンソルを示す。i,jは、LHWの位置を示す。
第1の生成部12Cは、第1の結合マップ21Aと第1の結合マップ21Bとの対応する要素FBごとに、要素FBの特徴量を上記式(1)へ代入する。この処理により、第1の生成部12Cは、空間注目マップ30の要素FCごとに第1の重み付け値を算出する。そして、第1の生成部12Cは、要素FCごとに第1の重み付け値を規定した空間注目マップ30を生成する。このため、空間注目マップ30は、LHW×LHWのテンソルの空間注目マップ30となる(図3B参照)。
図1に戻り説明を続ける。第2の生成部12Dは、複数の第1の特徴マップ20の各々に、空間注目マップ30に示される第1の重み付け値に応じた重み付けを行う。この処理により、第2の生成部12Dは、複数の第1の特徴マップ20の各々に対応する第2の特徴マップ40を生成する。
図3Aを用いて説明する。例えば、第2の生成部12Dは、複数の第1の特徴マップ20から、第2の結合マップ22を生成する(ステップS6)。第2の生成部12Dは、第1の結合マップ21と同様にして、複数の第1の特徴マップ20から第2の結合マップ22を生成する。このとき、第2の生成部12Dは、第1の結合マップ21とは異なる重み値で線形埋込を行うことで、第2の結合マップ22を生成する。このため、図3Cに示すように、第2の結合マップ22は、複数の第1の特徴マップ20間で対応する要素FAの要素群を1つの要素FBとして規定した、結合マップとなる。
図3Aに戻り説明を続ける。ここで、複数の第1の特徴マップ20間で対応する要素FAの要素群の各々を“x”と表す。すると、該要素群である要素FBから構成される第2の結合マップ22は、第1の特徴マップ20の要素群“x”を用いた関数で表される。具体的には、例えば、第2の結合マップ22は、h(x)で表される。
そして、図3Aに示すように、第2の生成部12Dは、空間注目マップ30を用いて第2の結合マップ22に重み付けを行い(ステップS5、ステップS7)、第2の特徴マップ40を生成する(ステップS8、ステップS10)。
本実施の形態では、第2の生成部12Dは、空間注目マップ30を用いて第2の結合マップ22に重み付けを行い(ステップS5、ステップS7)、第3の結合マップを生成する(ステップS8)。そして、第2の生成部12Dは、該第3の結合マップを用いて、第2の特徴マップ40を生成する(ステップS10)。
例えば、第2の生成部12Dは、第2の結合マップ22に含まれる各要素FBの特徴量の各々に、空間注目マップ30に示される対応する要素FCに規定された第1の重み値に応じた重み付けを行う。
詳細には、第2の生成部12Dは、第2の結合マップ22に含まれる要素FBごとに、該要素FBの特徴量に、空間注目マップ30における対応する要素FCの第1の重み付け値を加算または乗算する。要素FBに対応する要素FCとは、算出元の入力画像18における画素位置が同じであることを意味する。ここでは、重み付けの方法として、乗算を用いる場合を一例として説明する。そして、第2の生成部12Dは、乗算結果を、第2の結合マップ22の要素FBごとの重み付け後の特徴量として得る。同様にして、第2の生成部12Dは、第2の結合マップ22の全ての要素FBに、同様の処理を行うことで、第3の結合マップを生成する。
図3Dは、第3の結合マップ42の一例の模式図である。第3の結合マップ42は、複数の要素FEから構成される。要素FEは、第2の結合マップ22に含まれる要素FBに対応する。すなわち、第3の結合マップ42の各要素FEは、複数の第1の特徴マップ20間で対応する要素FAの要素群の各々に相当する。このため、第3の結合マップ42は、LHW×256のテンソルである。また、第3の結合マップ42を構成する要素FEには、空間注目マップ30を用いて重み付けした後の特徴量が規定されることとなる。
図3Aに戻り説明を続ける。そして、第2の生成部12Dは、第3の結合マップ42をL×H×W×256に変形し、該第3の結合マップ42を複数の第2の特徴マップ40に分離する(ステップS10)。
図3Eは、複数の第2の特徴マップ40の一例を示す模式図である。複数の第2の特徴マップ40を構成する要素FDには、第1の特徴マップ20の要素FAの特徴量を、空間注目マップ30によって補正した値が規定された状態となる。言い換えると、複数の第2の特徴マップ40の各々を構成する要素FDは、該要素FDの内、第1の空間P1的に関係性のある要素FDの特徴量が、他の要素Fの特徴量より、高い値(大きい値)を示すものとなる。
具体的には、第2の生成部12Dは、下記式(2)を用いて、第2の特徴マップ40を生成する。
Figure 0006965298
式(2)中、“y”は、第2の特徴マップ40の要素FDの値を示す。αj,i、jおよびiは、上記式(1)と同様である。h(x)は、第2の結合マップ22の要素FBの値を示す。
第2の生成部12Dは、第2の結合マップ22の要素FBごとに、要素FBの特徴量を上記式(2)へ代入することで、第3の結合マップ42の要素FEごとの、重み付け後の特徴量を算出する。そして、第2の生成部12Dは、要素FBごとにこの処理を実行することで、要素FEごとに重み付け後の特徴量を規定した、第3の結合マップ42を生成する。そして、第2の生成部12Dは、第3の結合マップ42をL×H×W×256に変形し、該第3の結合マップ42を複数の第2の特徴マップ40に分離する。
なお、図3Aに示すように、第2の生成部12Dは、第3の結合マップ42へ、複数の第1の特徴マップ20の各々に規定される特徴量を加えた、第2の特徴マップ40を生成してもよい(ステップS9、ステップS10)。
この場合、第2の生成部12Dは、第3の結合マップ42の各要素FEの特徴量と、複数の第1の特徴マップ20の各要素Fの特徴量と、を対応する要素Fごとに加算することで、複数の第2の特徴マップ40を生成してもよい(ステップS9、ステップS10)。すなわち、第2の生成部12Dは、第3の結合マップ42に、複数の第1の特徴マップ20の各要素Fの特徴量を加算する。
そして、第2の生成部12Dは、複数の第1の特徴マップ20の特徴量を加算した後の第3の結合マップ42をL×H×W×256に変形し、該第3の結合マップ42を複数の第2の特徴マップ40に分離すればよい。
このように、第2の生成部12Dが、第3の結合マップ42に更に第1の特徴マップ20の特徴量を加えることで、線形埋込前の第1の特徴マップ20に示される特徴量を加えた、複数の第2の特徴マップ40を生成することができる。
図1に戻り説明を続ける。検出部12Eは、複数の第2の特徴マップ40を用いて、入力画像18に含まれる物体を検出する。
詳細には、検出部12Eは、複数の第2の特徴マップ40を用いて、入力画像18中の物体の位置および物体の種類の少なくとも一方を検出する。
検出部12Eは、公知の方法を用いて、第2の特徴マップ40から、入力画像18に含まれる物体を検出すればよい。
例えば、検出部12Eは、複数の第2の特徴マップ40を用いて、物体の位置推定および物体の属するクラスの識別を公知の方法で実行する。なお、位置推定およびクラスの識別を行う際に、第2の特徴マップ40のチャネル数(特徴量の種類の数)または第2の特徴マップ40のサイズを調整するために、公知の畳み込み処理およびリサイズ処理を実行してもよい。そして、検出部12Eは、畳み込み処理およびリサイズ処理を実行した後の第2の特徴マップ40を用いて、物体の検出を実行してもよい。
なお、検出部12Eは、物体位置推定およびクラスの識別には、例えば、Single Shot Multibox Detector (SSD)のように、第2の特徴マップ40の要素Fごとに、物体のクラス分類と物体の占める領域の回帰を直接行えばよい。また、検出部12Eは、Faster R−CNNのように、第2の特徴マップ40から物体の候補となる候補領域を抽出し、公庫領域ごとに、物体のクラス分類および物体の占める領域の回帰を実行してもよい。これらの処理には、例えば、以下の公知文献1または公知文献2に示される方法を用いればよい。
公知文献1:Liu Wei,et al.“Ssd:Single shot multibox detector.”European conference on computer vision.Springer,Cham,2016.
公知文献2:Ren,Shaoqing,et al.“Faster r−cnn: Towards real−time object detection with region proposal networks.”Advances in neural information processing systems.2015.
なお、検出部12Eが検出する物体は限定されない。物体は、例えば、車両、人物、障害物、などであるが、これらに限定されない。
次に、出力制御部12Fについて説明する。出力制御部12Fは、検出部12Eによる物体検出結果を出力部16へ出力する。
出力部16が音出力機能を有する場合、出力部16は、物体検出結果を示す音を出力する。出力部16が通信機能を有する場合、出力部16は、物体検出結果を示す情報を、ネットワーク等を介して外部装置へ送信する。
出力部16が表示機能を有する場合、出力部16は、物体検出結果を示す表示画像を表示する。
図4は、表示画像50の一例を示す模式図である。出力部16は、例えば、表示画像50を表示する。表示画像50は、物体情報52を含む。物体情報52は、検出部12Eによって検出された物体を示す情報である。言い換えると、物体情報52は、検出部12Eによる検出結果を示す情報である。図4には、一例として、物体Aを示す物体情報52Aと、物体Bを示す物体情報52Bと、を含む表示画像50を一例として示した。例えば、出力制御部12Fは、図4に示す表示画像50を生成し、出力部16へ表示すればよい。
なお、物体情報52の出力形態は、図4に示す形態に限定されない。例えば、物体情報52は、物体情報52を示す枠線、物体情報52を示す文字、物体情報52によって表される物体を強調表示した強調表示画像、などであってもよい。
次に、物体検出装置10が実行する物体検出処理の手順を説明する。
図5は、物体検出装置10が実行する物体検出処理の流れの一例を示す、フローチャートである。
取得部12Aは、入力画像18を取得する(ステップS100)。
次に、算出部12Bが、ステップS100で取得した入力画像18から、複数の第1の特徴マップ20を算出する(ステップS102)。例えば、算出部12Bは、CNNを用いて、畳み込み演算を繰返すことで、入力画像18から複数の第1の特徴マップ20を算出する。
第1の生成部12Cは、ステップS102で算出した複数の第1の特徴マップ20に基づいて、空間注目マップ30を生成する(ステップS104)。
第2の生成部12Dは、ステップS102で算出した複数の第1の特徴マップ20の各々に、ステップS104で生成した空間注目マップ30に示される第1の重み付け値に応じた重み付けを行い、複数の第1の特徴マップ20の各々に対応する第2の特徴マップ40を生成する(ステップS106)。
次に、検出部12Eは、複数の第2の特徴マップ40を用いて、入力画像18に含まれる物体を検出する(ステップS108)。
そして、出力制御部12Fは、ステップS108の物体の検出結果を、出力部16へ出力する(ステップS110)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の物体検出装置10は、算出部12Bと、第1の生成部12Cと、第2の生成部12Dと、検出部12Eと、を備える。算出部12Bは、入力画像18から、少なくとも一部の要素FAの特徴量が異なる複数の第1の特徴マップ20を算出する。第1の生成部12Cは、複数の第1の特徴マップ20に基づいて、空間注目マップ30を生成する。空間注目マップ30は、第1の特徴マップ20中の位置方向(第1の位置方向H、第2の位置方向W)および複数の第1の特徴マップ20間の関係方向Lによって規定される第1の空間P1的に関係性の高い要素であるほど高い第1の重み付け値が規定されたマップである。第2の生成部12Dは、複数の第1の特徴マップ20の各々に、空間注目マップ30に示される第1の重み付け値に応じた重み付けを行い、複数の第2の特徴マップ40を生成する。検出部12Eは、複数の第2の特徴マップ40を用いて、入力画像18に含まれる物体を検出する。
ここで、従来技術では、解像度の異なる複数の画像を結合、または、含まれる要素の和を算出することで、物体を検出していた。詳細には、スケールを固定とし、解像度の異なる複数の画像から特徴を抽出する、画像ピラミッド法と称される技術が知られている。しかし、画像ピラミッド法では、各々の解像度の画像から独立して特徴を抽出する必要があり、処理負荷が大きかった。そこで、画像ピラミッド法に代えて、CNNで生成される複数の中間層である複数の特徴マップを、物体検出に利用する技術が開示されている。例えば、物体検出に用いる中間層を検出対象のサイズに応じて選択し、選択した中間層を結合したマップを用いて、物体を検出することが行われている。
しかし、従来技術では、複数の中間層を結合または複数の中間層の要素の和の算出結果を用いて、物体検出が行われていた。このように、従来技術では、局所的な特徴に応じた物体検出が行われており、物体検出精度が低下する場合があった。
一方、本実施の形態の物体検出装置10では、第1の位置方向H、第2の位置方向W、および関係方向Lによって規定される第1の空間P1的に関係性の高い要素であるほど高い第1の重み付け値が規定された空間注目マップ30を生成する。物体検出装置10は、生成した空間注目マップ30を用いて、第1の特徴マップ20に重み付けを行うことで、第2の特徴マップ40を生成する。そして、物体検出装置10は、生成した第2の特徴マップ40を用いて、物体検出を行う。
このため、本実施の形態の物体検出装置10は、第1の特徴マップ20における、第1の空間P1的に重要な領域の特徴量を高くした(大きくした)第2の特徴マップ40を用いて、物体検出を行う。すなわち、本実施の形態の物体検出装置10は、解像度の増減方向およびスケール方向などの関係方向Lの関係性を加えた第2の特徴マップ40を用いて、物体検出を行う。よって、本実施の形態の物体検出装置10は、関係方向Lの関係性を加えることで、従来技術に比べて、大局的な特徴に応じた物体検出を行うことができる。
従って、本実施の形態の物体検出装置10は、物体検出精度の向上を図ることができる。
(第2の実施の形態)
本実施の形態では、第2の特徴マップ40に、時間方向の関係性を更に加えた第3の特徴マップを用いて、物体検出を行う形態を説明する。
なお、本実施の形態では、第1の実施の形態と同様の構成には同じ符号を付与し、詳細な説明を省略する場合がある。
図6は、本実施の形態の物体検出装置10Bの構成の一例を示すブロック図である。
物体検出装置10Bは、処理部13と、記憶部14と、出力部16と、を備える。処理部13と、記憶部14および出力部16とは、バス17を介してデータまたは信号を授受可能に接続されている。物体検出装置10Bは、処理部12に代えて処理部13を備える点以外は、上記実施の形態の物体検出装置10と同様である。
処理部13は、取得部13Aと、算出部13Bと、第1の生成部13Cと、第2の生成部13Dと、第3の生成部13Eと、第4の生成部13Fと、検出部13Gと、出力制御部13Hと、を備える。
取得部13A、算出部13B、第1の生成部13C、第2の生成部13D、第3の生成部13E、第4の生成部13F、検出部13G、および出力制御部13Hは、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPUなどのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のICなどのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
図7は、本実施の形態の処理部13が実行する処理の概要図である。
本実施の形態では、処理部13は、上記実施の形態と同様にして、複数の第2の特徴マップ40を生成する。そして、処理部13では、今回生成した複数の第2の特徴マップ40の群である第1の群41Aと、過去に生成した第2の特徴マップ40(第2の特徴マップ40’と称する)の群である第2の群41Bと、を用いて、時間注目マップ46を生成する。そして、処理部13は、時間注目マップ46を用いて、第1の群41Aまたは第2の群41Bに含まれる複数の第2の特徴マップ40(第2の特徴マップ40’)に重み付けを行うことで、第3の特徴マップ48を生成する。処理部13は、第3の特徴マップ48を用いて、入力画像18に含まれる物体を検出する。時間注目マップ46および第3の特徴マップ48の詳細は後述する。
図6に戻り、処理部13の各部について詳細に説明する。
取得部13A、算出部13B、第1の生成部13C、および第2の生成部13Dは、上記実施の形態の取得部12A、算出部12B、第1の生成部12C、および第2の生成部12Dと同様である。
すなわち、取得部13Aは、入力画像18を取得する。算出部13Bは、入力画像18から、複数の第1の特徴マップ20を生成する。第1の生成部13Cは、複数の第1の特徴マップ20に基づいて、空間注目マップ30を生成する。第2の生成部13Dは、複数の第1の特徴マップ20の各々に、空間注目マップ30に示される第1の重み付け値に応じた重み付けを行い、複数の第1の特徴マップ20の各々に対応する第2の特徴マップ40を生成する。
本実施の形態では、第2の生成部13Dは、生成した複数の第2の特徴マップ40を第3の生成部13Eへ出力すると共に、記憶部14へ記憶する。このため、記憶部14には、過去に生成された複数の第2の特徴マップ40が記憶されることとなる。
第3の生成部13Eは、第2の生成部13Dで今回生成された複数の第2の特徴マップ40の第1の群41Aと、過去に生成された複数の第2の特徴マップ40’の第2の群41Bと、に基づいて、時間注目マップ46を生成する。なお、第2の特徴マップ40’と第2の特徴マップ40とは、双方とも第2の生成部13Dが同じ方法で生成した“第2の特徴マップ”であり、生成タイミングおよび生成に用いた入力画像18の少なくとも一方が異なる。
図8Aは、時間注目マップ46の生成および第3の特徴マップ48の生成の一例の説明図である。
時間注目マップ46は、第1の群41Aと、第2の群41Bと、に基づいて生成される。
図8Bは、時間注目マップ46の一例を示す模式図である。時間注目マップ46は、要素Fごとに重み付け値を規定したものである。第3の生成部13Eは、第1の群41Aおよび第2の群41Bの間の全要素Fの重み付け値を求めることで、時間注目マップ46を生成する。時間注目マップ46の重み付け値は、ネットワークを学習することで、自動で時間方向Tの関係性を学習することによって、導出される。このため、時間注目マップ46の各要素Fに示される重み付け値が大きいほど時間方向Tの関係性が高いことを示し、小さいほど時間方向Tの関係性が低いことを示す。言い換えると、生成された時間注目マップ46は、時間方向Tに関係性の高い要素Fであるほど、高い重み付け値(第2の重み付け値)の規定されたマップとなる。また、時間注目マップ46は、時間方向Tに関係性の低い要素Fであるほど、低い重み付け値が規定されたものとなる。
ここで、上述したように、第2の特徴マップ40は、空間注目マップ30を用いて生成されたマップである。このため、時間注目マップ46は、第2の空間的に関係性の高い要素Fであるほど、高い第2の重み付け値を規定したマップであるといえる。
図8Aに示すように、第2の空間P2は、第1の位置方向Hと、第2の位置方向Wと、関係方向Lと、時間方向Tと、によって規定される多次元空間である。
第3の生成部13Eによる生成(学習)によって、時間注目マップ46の要素Fごとの重み付け値が更新される。この更新後の値である要素Fの重み付け値が高いほど、第2の空間P2的な関係性が高い事を意味する。
本実施の形態では、第3の生成部13Eは、以下の方法により、第1の群41Aに属する複数の第2の特徴マップ40と、第2の群41Bに属する複数の第2の特徴マップ40’とから、時間注目マップ46を生成する。
詳細には、第3の生成部13Eは、時間方向T、関係方向Lおよび位置方向(第1の位置方向H、第2の位置方向W)の各々に沿った、特徴量のベクトル列の内積結果を算出する。図8Aには、特徴量の種類が、256である場合を一例として示した。
そして、第3の生成部13Eは、各要素FDの内積結果を第2の重み付け値として要素FGごとに規定した、時間注目マップ46を生成する(図8B参照)。
なお、第3の生成部13Eは、第1の群41Aに属する複数の第2の特徴マップ40と、第2の群41Bに属する複数の第2の特徴マップ40’と、の各々を線形埋込した結合マップを用いて、時間注目マップ46を生成してもよい。
詳細には、例えば、第3の生成部13Eは、第1の群41Aに属する複数の第2の特徴マップ40(第2の特徴マップ40B〜第2の特徴マップ40E)間で対応する要素FDの要素群ごとに、該要素群に含まれる要素FDの各々の特徴量を線形埋込した、第4の結合マップ44を生成する(ステップS20)。
図8Cは、第4の結合マップ44の一例を示す模式図である。第4の結合マップ44を構成する要素FFは、第2の特徴マップ40の複数の要素FDの群から構成される。このため、第4の結合マップ44は、LHW×256のテンソルである。第4の結合マップ44に含まれる各要素FFの特徴量は、複数の第2の特徴マップ40間で対応する要素FDの要素群ごとに、該要素群に含まれる複数の要素FDの各々の特徴量を線形埋込した値となる。
本実施の形態では、第3の生成部13Eは、公知の線形埋込方法を用いて、第4の結合マップ44を生成すればよい。
図8Aに戻り説明を続ける。また、第3の生成部13Eは、第2の群41Bに属する複数の第2の特徴マップ40’を用いて、第5の結合マップ45を生成する。第5の結合マップ45の生成は、第2の特徴マップ40に代えて第2の特徴マップ40’を用いる点以外は、第4の結合マップ44の生成と同様である。なお、第3の生成部13Eは、第2の群41Bに属する複数の第2の特徴マップ40’から、線形埋込時の重み値の異なる複数の第5の結合マップ45(第5の結合マップ45A、第5の結合マップ45B)を生成する(ステップS21、ステップS22)。このため、第5の結合マップ45の構成は、図8Cに示すように、第4の結合マップ44と同様となる。
図8Aに戻り説明を続ける。ここで、複数の第2の特徴マップ40間で対応する要素FDの要素群の各々を、“x”と表す。すると、該要素群である要素FFから構成される第4の結合マップ44および第5の結合マップ45(第5の結合マップ45A、および第5の結合マップ45B)は、該要素群“x”を用いた関数で表される。具体的には、例えば、第4の結合マップ44は、f(x)で表され、第5の結合マップ45Aはg(x)で表され、第5の結合マップ45Bはh(x)で表される。
そして、第3の生成部13Eは、第4の結合マップ44と第5の結合マップ45A間で対応する要素FFごとに、時間方向Tに沿った特徴量のベクトル列の内積結果を、第2の重み付け値として規定した、時間注目マップ46を生成する(ステップS23、ステップS24、ステップS25)。このため、図8Bに示す、時間注目マップ46が生成される。
なお、第3の生成部13Eは、上記実施の形態の第1の生成部12Cと同様に、公知のSoftmax関数を使用し、上記式(1)を用いて、時間注目マップ46を生成すればよい。
この場合、上記式(1)中、αi,jはLHW×TLHWのテンソルを示す。f(xi)は、LHW×256のテンソルを示す。g(xj)は、TLHW×256のテンソルを示す。f(xi)Tは、f(xi)の転置であり、256×LHWのテンソルを示す。i,jは、LHWの位置を示す。jは、TLHWの位置を示す。
第3の生成部13Eは、第4の結合マップ44と第5の結合マップ45Aとの間で対応する要素FFごとに、要素FFの特徴量を上記式(1)へ代入する。この処理により、第3の生成部13Eは、時間注目マップ46の要素FGごとに第2の重み付け値を算出する。そして、第3の生成部13Eは、要素FGごとに第2の重み付け値を規定した時間注目マップ46を生成する。このため、時間注目マップ46は、LHW×TLHWのテンソルとなる(図8B参照)。Tは、時間方向Tを示す。例えば、Tは、撮影タイミングの異なる複数の入力画像18の枚数(フレーム数)で表してもよい。
図6に戻り説明を続ける。第4の生成部13Fは、第1の群41Aまたは第2の群41Bに含まれる複数の第2の特徴マップ40(または第2の特徴マップ40’)の各々に、時間注目マップ46に示される第2の重み付け値に応じた重み付けを行い、複数の第3の特徴マップ48を生成する。
例えば、図8Aに示すように、第4の生成部13Fは、第2の群41Bに属する複数の第2の特徴マップ40’を結合した第5の結合マップ45Bを用いる。詳細には、第4の生成部13Fは、時間注目マップ46を用いて第5の結合マップ45Bに重み付けを行い(ステップS25、ステップS26)、第3の特徴マップ48を生成する(ステップS27)。
例えば、第4の生成部13Fは、第5の結合マップ45Bに含まれる各要素FFの特徴量の各々に、時間注目マップ46に示される対応する要素FGに規定された第2の重み値に応じた重み付けを行う。
詳細には、第4の生成部13Fは、第5の結合マップ45Bに含まれる要素FFごとに、該要素FFの特徴量に、時間注目マップ46における対応する要素FGの第2の重み付け値を加算または乗算する。本実施の形態では、乗算する場合を一例として説明する。そして、第4の生成部13Fは、乗算結果を、要素FFごとの重み付け後の特徴量として得る。同様にして、第4の生成部13Fは、第5の結合マップ45Bの全ての要素FFに、同様の処理を行うことで、第5の結合マップ47を生成する。
図8Dは、第5の結合マップ47の一例を示す模式図である。第5の結合マップ47は、複数の要素FHから構成される。要素FHは、第5の結合マップ45Bに含まれる要素FFに対応する。すなわち、第5の結合マップ47の各要素FHは、複数の第1の特徴マップ20間で対応する要素FAの要素群の各々に相当する。このため、第5の結合マップ47は、LHW×256のテンソルである。また、第5の結合マップ47を構成する要素FHには、時間注目マップ46を用いて重み付けした後の特徴量が規定されることとなる。
そして、第4の生成部13Fは、第5の結合マップ47をL×H×W×256に変形し、該第5の結合マップ47を複数の第3の特徴マップ48に分離する。
図8Eは、複数の第3の特徴マップ48の一例を示す模式図である。複数の第3の特徴マップ48を構成する要素FIには、それぞれ、第1の特徴マップ20の要素FAの特徴量を、空間注目マップ30および時間注目マップ46によって補正した値が規定された状態となる。言い換えると、複数の第3の特徴マップ48の各々を構成する要素FIは、該要素FIの内、第1の空間P1および第2の空間P2的に関係性のある要素FIの特徴量が、他の要素FIの特徴量より、高い値(大きい値)を示すものとなる。
具体的には、第4の生成部13Fは、上記式(2)を用いて、第3の特徴マップ48を生成すればよい。
この場合、式(2)中、“y”は、第3の特徴マップ48の要素FIの値を示す。αj,i、jおよびiは、本実施の形態で用いる上記式(1)と同様である。h(x)は、第5の結合マップ45Bの要素FFの値を示す。
第4の生成部13Fは、第5の結合マップ45Bの要素FFごとに、要素FFの特徴量を上記式(2)へ代入することで、要素Fごとの重み付け後の特徴量を算出する。そして、第4の生成部13Fは、要素Fごとにこの処理を実行することで、要素Fごとに重み付け後の特徴量を規定した結合マップを生成する。そして、更に、第4の生成部13Fは、この結合マップをL×H×W×256に変形することで、要素FIごとに重み付け後の特徴量を規定した、第3の特徴マップ48を生成する。
図6に戻り説明を続ける。検出部13Gは、複数の第3の特徴マップ48を用いて、入力画像18に含まれる物体を検出する。すなわち、第3の生成部13Eは、複数の第2の特徴マップ40から生成された複数の第3の特徴マップ48を用いて、入力画像18に含まれる物体を検出する。
第3の生成部13Eは、第2の特徴マップ40に代えて第3の特徴マップ48を用いる点以外は、上記実施の形態の検出部12Eと同様にして、入力画像18に含まれる物体を検出する。
出力制御部13Hは、検出部13Gによる物体検出結果を出力部16へ出力する。
出力部16が音出力機能を有する場合、出力部16は、物体検出結果を示す音を出力する。出力部16が通信機能を有する場合、出力部16は、物体検出結果を示す情報を、ネットワーク等を介して外部装置へ送信する。出力部16が表示機能を有する場合、出力部16は、物体検出結果を示す表示画像を表示する。この場合、出力部16には、例えば、図4に示す表示画像50が表示される。
次に、物体検出装置10が実行する物体検出処理の手順を説明する。
図9は、物体検出装置10Bが実行する物体検出処理の流れの一例を示す、フローチャートである。
取得部13Aは、入力画像18を取得する(ステップS200)。
次に、算出部13Bが、ステップS200で取得した入力画像18から、複数の第1の特徴マップ20を算出する(ステップS202)。例えば、算出部13Bは、CNNを用いて、畳み込み演算を繰返すことで、入力画像18から複数の第1の特徴マップ20を算出する。
第1の生成部13Cは、ステップS202で算出した複数の第1の特徴マップ20に基づいて、空間注目マップ30を生成する(ステップS204)。
第2の生成部13Dは、ステップS202で算出した複数の第1の特徴マップ20の各々に、ステップS204で生成した空間注目マップ30に示される第1の重み付け値に応じた重み付けを行い、複数の第1の特徴マップ20の各々にそれぞれ対応する複数の第2の特徴マップ40を生成する(ステップS206)。
第2の生成部13Dは、ステップS206で今回生成した複数の第2の特徴マップ40の第1の群41Aと、過去に生成された複数の第2の特徴マップ40’の第2の群41Bと、を用いて、時間注目マップ46を生成する(ステップS208)。
次に、第4の生成部13Fは、第1の群41Aまたは第2の群41Bに属する第2の特徴マップ40(第2の特徴マップ40’)に、時間注目マップ46に示される第2の重み付け値に応じた重み付けを行い、複数の第3の特徴マップ48を生成する(ステップS210)。
次に、検出部13Gは、ステップS210で生成された複数の第3の特徴マップ48を用いて、入力画像18に含まれる物体を検出する(ステップS212)。
そして、出力制御部13Hは、ステップS212の物体の検出結果を、出力部16へ出力する(ステップS214)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の物体検出装置10Bは、上記実施の形態の構成に加えて、第3の生成部13Eと、第4の生成部13Fと、を更に備える。また、記憶部14が、第2の特徴マップ40を記憶する。
第3の生成部13Eは、今回生成された複数の第2の特徴マップ40の第1の群41Aと、過去に生成された複数の第2の特徴マップ40’の第2の群41Bと、に基づいて、第1の群41Aおよび14Bの間の時間方向Tに関係性の高い要素であるほど高い第2の重み付け値が規定された時間注目マップ46を生成する。第4の生成部13Fは、第1の群41Aまたは第2の群41Bに含まれる複数の第2の特徴マップ40(第2の特徴マップ40’)の各々に、時間注目マップ46に示される第2の重み付け値に応じた重み付けを行い、第3の特徴マップ48を生成する。そして、検出部13Gは、複数の第2の特徴マップ40から生成された第3の特徴マップ48を用いて、入力画像18に含まれる物体を検出する。
このように、本実施の形態の物体検出装置10Bは、第1の特徴マップ20における、第2の空間P2的に重要な領域の特徴量を高くした第3の特徴マップ48を用いて、物体検出を行う。第2の空間P2は、上述したように、第1の空間P1に、更に時間方向Tを規定した多次元空間である。
このため、本実施の形態の物体検出装置10Bは、従来技術に比べて、時間方向Tの関係性を加えることで、上記実施の形態に比べて、更に大局的な特徴に応じた物体検出を行うことができる。
従って、本実施の形態の物体検出装置10Bは、上記実施の形態の効果に加えて、物体検出精度の向上を更に図ることができる。
(変形例)
上記実施の形態の物体検出装置10および物体検出装置10Bの適用対象は限定されない。物体検出装置10および物体検出装置10Bは、入力画像18に含まれる物体の検出結果を用いて、各種の処理を実行する種々の装置に適用される。
図10は、物体検出装置10および物体検出装置10Bの適用形態の一例を示す図である。図10には、物体検出装置10または物体検出装置10Bを、移動体60に搭載した形態を一例として示した。
移動体60は、走行することで移動可能な物体である。移動体60は、例えば、車両(自動二輪車、自動四輪車、自転車)、台車、ロボット、などである。移動体60は、例えば、人による運転操作を介して走行する移動体や、人による運転操作を介さずに自動的に走行(自律走行)可能な移動体である。本変形例では、移動体60は、自律走行可能な移動体である場合を一例として説明する。
なお、物体検出装置10および物体検出装置10Bは、移動体60に搭載された形態に限定されない。物体検出装置10および物体検出装置10Bは、静止物に搭載されていてもよい。静止物は、地面に固定された物である。静止物は、移動不可能な物や、地面に対して静止した状態の物である。静止物は、例えば、駐車車両、道路標識、などである。また、物体検出装置10および物体検出装置10Bは、クラウド上で処理を実行するクラウドサーバに搭載されていてもよい。
移動体60は、物体検出装置10または物体検出装置10Bと、駆動制御部62と、駆動部64と、を備える。物体検出装置10および物体検出装置10Bの構成は、上記実施の形態と同様である。駆動制御部62および駆動部64と、処理部12または処理部13とは、バス17を介してデータまたは信号を授受可能に接続されている。
駆動部64は、移動体60に搭載された、駆動するデバイスである。駆動部64は、例えば、エンジン、モータ、車輪、ハンドル位置変更部、などである。
駆動制御部62は、駆動部64を制御する。駆動制御部62の制御によって、駆動部64が駆動する。
例えば、処理部12または処理部13は、物体の検出結果を示す情報を駆動制御部62へも出力する。駆動制御部62は、受付けた物体の検出結果を示す情報を用いて、駆動部64を制御する。例えば、駆動制御部62は、物体の検出結果を示す情報に示される、物体を避けて走行、該物体との距離を維持、などの走行を行うように、駆動部64を制御する。このため、例えば、駆動制御部62は、物体の検出結果に応じて移動体60が自律走行するように、駆動部64を制御することができる。
なお、処理部12または処理部13が用いる入力画像18には、例えば、移動体60に搭載された撮影装置で撮影された撮影画像、外部装置から取得した撮影画像、を用いればよい。
なお、上記実施の形態の物体検出装置10および物体検出装置10Bの適用対象は、移動体60に限定されない。
例えば、物体検出装置10および物体検出装置10Bは、防犯カメラなどで撮影された撮影画像に含まれる物体を検出する検出装置などに適用されてもよい。
次に、上記実施の形態の物体検出装置10および物体検出装置10Bのハードウェア構成の一例を説明する。
図11は、上記実施の形態の物体検出装置10および物体検出装置10Bのハードウェア構成図の一例である。
上記実施の形態の物体検出装置10および物体検出装置10Bは、CPU(Central Processing Unit)71、ROM(Read Only Memory)72、RAM(Random Access Memory)73、およびI/F74等がバス75により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。
CPU71は、上記実施の形態の物体検出装置10および物体検出装置10Bを制御する演算装置である。ROM72は、CPU71による各種処理を実現するプログラム等を記憶する。RAM73は、CPU71による各種処理に必要なデータを記憶する。I/F74は、出力部16および駆動制御部62などに接続し、データを送受信するためのインターフェースである。
上記実施の形態の物体検出装置10および物体検出装置10Bでは、CPU71が、ROM72からプログラムをRAM73上に読み出して実行することにより、上記各機能がコンピュータ上で実現される。
なお、上記実施の形態の物体検出装置10および物体検出装置10Bで実行される上記各処理を実行するためのプログラムは、HDD(ハードディスクドライブ)に記憶されていてもよい。また、上記実施の形態の物体検出装置10および物体検出装置10Bで実行される上記各処理を実行するためのプログラムは、ROM72に予め組み込まれて提供されていてもよい。
また、上記実施の形態の物体検出装置10および物体検出装置10Bで実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、上記実施の形態の物体検出装置10および物体検出装置10Bで実行される上記処理を実行するためのプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施の形態の物体検出装置10および物体検出装置10Bで実行される上記処理を実行するためのプログラムを、インターネットなどのネットワーク経由で提供または配布するようにしてもよい。
なお、上記には、本発明の実施の形態を説明したが、上記実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10、10B 物体検出装置
12B、13B 算出部
12C、13C 第1の生成部
12D、13D 第2の生成部
12E、13G 検出部
13E 第3の生成部
13F 第4の生成部
20 第1の特徴マップ
30 空間注目マップ
40 第2の特徴マップ
46 時間注目マップ
48 第3の特徴マップ

Claims (11)

  1. 入力画像から、少なくとも一部の要素の特徴量が異なる複数の第1の特徴マップを算出する算出部と、
    複数の前記第1の特徴マップに基づいて、前記第1の特徴マップ中の位置方向および複数の前記第1の特徴マップ間の関係方向によって規定される第1の空間的に関係性の高い要素であるほど高い第1の重み付け値が規定された空間注目マップを生成する第1の生成部と、
    複数の第1の特徴マップの各々に、前記空間注目マップに示される前記第1の重み付け値に応じた重み付けを行い、複数の第2の特徴マップを生成する第2の生成部と、
    複数の前記第2の特徴マップを用いて、前記入力画像に含まれる物体を検出する検出部と、
    を備える物体検出装置。
  2. 前記算出部は、
    解像度およびスケールの少なくとも一方の異なる複数の前記第1の特徴マップを算出し、
    前記関係方向は、
    前記解像度の増減方向または前記スケールの拡大縮小方向である、
    請求項1に記載の物体検出装置。
  3. 前記第1の生成部は、
    複数の前記第1の特徴マップの対応する要素の要素群ごとに、前記関係方向、および前記位置方向の各々に沿った、前記特徴量のベクトル列の内積結果を、前記第1の重み付け値として要素ごとに規定した、前記空間注目マップを生成する、
    請求項1または請求項2に記載の物体検出装置。
  4. 前記第1の生成部は、
    前記複数の第1の特徴マップの対応する要素の要素群ごとに、該要素群に含まれる要素の各々の特徴量を線形埋込した、線形埋込時の重み値が互いに異なる複数の第1の結合マップを生成し、
    複数の前記第1の結合マップ間の対応する要素ごとに、前記関係方向および前記位置方向の各々に沿った前記特徴量のベクトル列の内積結果を前記第1の重み付け値として要素ごとに規定した、前記空間注目マップを生成する、
    請求項1〜請求項3の何れか1項に記載の物体検出装置。
  5. 前記第2の生成部は、
    複数の前記第1の特徴マップの対応する要素の要素群ごとに、該要素群に含まれる要素の各々の特徴量を線形埋込した、線形埋込時の重み値が前記第1の結合マップとは異なる第2の結合マップを生成し、
    前記第2の結合マップに含まれる各要素の特徴量の各々に、前記空間注目マップに示される第1の重み付け値に応じた重み付けを行い、複数の前記第2の特徴マップを生成する、
    請求項4に記載の物体検出装置。
  6. 前記第2の生成部は、
    前記第2の結合マップに含まれる各要素の特徴量の各々に、前記空間注目マップに示される第1の重み付け値に応じた重み付けを行った第3の結合マップの各要素の特徴量と、複数の前記第1の特徴マップの各要素の特徴量と、を対応する要素ごとに加算した、複数の前記第2の特徴マップを生成する、
    請求項5に記載の物体検出装置。
  7. 前記第2の特徴マップを記憶する記憶部を備え、今回生成された複数の前記第2の特徴マップの第1の群と、過去に生成された複数の前記第2の特徴マップの第2の群と、に基づいて、前記第1の群および前記第2の群の間の時間方向に関係性の高い要素であるほど高い第2の重み付け値が規定された時間注目マップを生成する第3の生成部と、
    前記第1の群または前記第2の群に含まれる複数の第2の特徴マップの各々に、前記時間注目マップに示される第2の重み付け値に応じた重み付けを行い、第3の特徴マップを生成する第4の生成部と、
    を備え、
    前記検出部は、
    複数の前記第2の特徴マップから生成された複数の前記第3の特徴マップを用いて、前記入力画像に含まれる物体を検出する、
    請求項1〜請求項6の何れか1項に記載の物体検出装置。
  8. 前記算出部は、
    畳み込みニューラルネットワークを用いて、前記入力画像から複数の前記第1の特徴マップを算出する、
    請求項1〜請求項7の何れか1項に記載の物体検出装置。
  9. コンピュータが実行する物体検出方法であって、
    入力画像から、少なくとも一部の要素の特徴量が異なる複数の第1の特徴マップを算出するステップと、
    複数の前記第1の特徴マップに基づいて、前記第1の特徴マップ中の位置方向および複数の前記第1の特徴マップ間の関係方向によって規定される第1の空間的に関係性の高い要素であるほど高い第1の重み付け値が規定された空間注目マップを生成するステップと、
    複数の第1の特徴マップの各々に、前記空間注目マップに示される第1の重み付け値に応じた重み付けを行い、複数の第2の特徴マップを生成するステップと、
    複数の前記第2の特徴マップを用いて、前記入力画像に含まれる物体を検出するステップと、
    を含む物体検出方法。
  10. 入力画像から、少なくとも一部の要素の特徴量が異なる複数の第1の特徴マップを算出するステップと、
    複数の前記第1の特徴マップに基づいて、前記第1の特徴マップ中の位置方向および複数の前記第1の特徴マップ間の関係方向によって規定される第1の空間的に関係性の高い要素であるほど高い第1の重み付け値が規定された空間注目マップを生成するステップと、
    複数の第1の特徴マップの各々に、前記空間注目マップに示される第1の重み付け値に応じた重み付けを行い、複数の第2の特徴マップを生成するステップと、
    複数の前記第2の特徴マップを用いて、前記入力画像に含まれる物体を検出するステップと、
    コンピュータに実行させるためのプログラム。
  11. 請求項1〜請求項8の何れか1項に記載の物体検出装置と、
    物体の検出結果を示す情報に基づいて、駆動部を制御する駆動制御部と、
    を備える移動体。
JP2019050503A 2019-03-18 2019-03-18 物体検出装置、物体検出方法、プログラム、および移動体 Active JP6965298B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019050503A JP6965298B2 (ja) 2019-03-18 2019-03-18 物体検出装置、物体検出方法、プログラム、および移動体
EP19192157.6A EP3712803A1 (en) 2019-03-18 2019-08-16 Object detection apparatus, object detection method, computer program product, and moving object
US16/544,532 US11113583B2 (en) 2019-03-18 2019-08-19 Object detection apparatus, object detection method, computer program product, and moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019050503A JP6965298B2 (ja) 2019-03-18 2019-03-18 物体検出装置、物体検出方法、プログラム、および移動体

Publications (2)

Publication Number Publication Date
JP2020154478A JP2020154478A (ja) 2020-09-24
JP6965298B2 true JP6965298B2 (ja) 2021-11-10

Family

ID=67659132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019050503A Active JP6965298B2 (ja) 2019-03-18 2019-03-18 物体検出装置、物体検出方法、プログラム、および移動体

Country Status (3)

Country Link
US (1) US11113583B2 (ja)
EP (1) EP3712803A1 (ja)
JP (1) JP6965298B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3126236A1 (en) * 2020-07-29 2022-01-29 Uatc, Llc Systems and methods for sensor data packet processing and spatial memoryupdating for robotic platforms
CN113554125B (zh) * 2021-09-18 2021-12-17 四川翼飞视科技有限公司 结合全局与局部特征的目标检测装置、方法和存储介质
CN113887545B (zh) * 2021-12-07 2022-03-25 南方医科大学南方医院 一种基于目标检测模型的腹腔镜手术器械识别方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170124409A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Cascaded neural network with scale dependent pooling for object detection
GB2545661A (en) * 2015-12-21 2017-06-28 Nokia Technologies Oy A method for analysing media content
JP6873600B2 (ja) * 2016-03-04 2021-05-19 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
US9830709B2 (en) * 2016-03-11 2017-11-28 Qualcomm Incorporated Video analysis with convolutional attention recurrent neural networks
JP6964234B2 (ja) 2016-11-09 2021-11-10 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置およびプログラム
JP6833630B2 (ja) * 2017-06-22 2021-02-24 株式会社東芝 物体検出装置、物体検出方法およびプログラム
CN109344840B (zh) * 2018-08-07 2022-04-01 深圳市商汤科技有限公司 图像处理方法和装置、电子设备、存储介质、程序产品

Also Published As

Publication number Publication date
US20200302222A1 (en) 2020-09-24
EP3712803A1 (en) 2020-09-23
JP2020154478A (ja) 2020-09-24
US11113583B2 (en) 2021-09-07

Similar Documents

Publication Publication Date Title
CN109902702B (zh) 目标检测的方法和装置
JP6965298B2 (ja) 物体検出装置、物体検出方法、プログラム、および移動体
JP6221371B2 (ja) 路面検知方法及び路面検知装置
JP6965299B2 (ja) 物体検出装置、物体検出方法、プログラム、および移動体
WO2019230339A1 (ja) 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置
EP3598387B1 (en) Learning method and program
CN107305635A (zh) 对象识别方法、对象识别装置和分类器训练方法
WO2015104898A1 (ja) 車両用外界認識装置
JP2014138420A (ja) 自律車両用の奥行き検知方法及びシステム
WO2008020598A1 (fr) Dispositif et procédé de détection d'un nombre d'objets
US11544507B2 (en) Method and apparatus to train image recognition model, and image recognition method and apparatus
KR20210111052A (ko) 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법
Xin et al. A self-adaptive optical flow method for the moving object detection in the video sequences
Daraei et al. Velocity and shape from tightly-coupled LiDAR and camera
US11367213B2 (en) Method and apparatus with location estimation
WO2020131134A1 (en) Systems and methods for determining depth information in two-dimensional images
CN115631344B (zh) 一种基于特征自适应聚合的目标检测方法
Yeol Baek et al. Scene understanding networks for autonomous driving based on around view monitoring system
TWI682361B (zh) 路面影像重建與載具定位之方法與系統
Aditya et al. Collision Detection: An Improved Deep Learning Approach Using SENet and ResNext
WO2021167910A1 (en) A method for generating a dataset, a method for generating a neural network, and a method for constructing a model of a scene
Guo et al. Blind spot obstacle detection from monocular camera images with depth cues extracted by CNN
JP5587852B2 (ja) 画像処理装置及び画像処理方法
US20230162513A1 (en) Vehicle environment modeling with a camera
Schennings Deep convolutional neural networks for real-time single frame monocular depth estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211020

R151 Written notification of patent or utility model registration

Ref document number: 6965298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151