JP7448006B2 - 物体位置推定装置 - Google Patents

物体位置推定装置 Download PDF

Info

Publication number
JP7448006B2
JP7448006B2 JP2022531267A JP2022531267A JP7448006B2 JP 7448006 B2 JP7448006 B2 JP 7448006B2 JP 2022531267 A JP2022531267 A JP 2022531267A JP 2022531267 A JP2022531267 A JP 2022531267A JP 7448006 B2 JP7448006 B2 JP 7448006B2
Authority
JP
Japan
Prior art keywords
likelihood
size
map
target image
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022531267A
Other languages
English (en)
Other versions
JPWO2021260780A1 (ja
JPWO2021260780A5 (ja
Inventor
浩雄 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021260780A1 publication Critical patent/JPWO2021260780A1/ja
Publication of JPWO2021260780A5 publication Critical patent/JPWO2021260780A5/ja
Application granted granted Critical
Publication of JP7448006B2 publication Critical patent/JP7448006B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体位置推定装置、物体位置推定方法、および記録媒体に関し、特に、画像中の物体の位置を推定する物体位置推定装置、物体位置推定方法、および記録媒体に関する。
画像中の物体の位置を推定するための関連する技術が知られている(特許文献1,2)。非特許文献1に記載の関連する技術では、物体の全体が映るサンプル画像を用いて、推定器が物体の識別を学習する。このように学習した推定器が、画像中の物体の位置を推定するために、画像を走査する。具体的には、非特許文献1に記載の関連する技術では、例えば推定器が画像中の物体のHaar-Like特徴量を推定し、識別した物体についての物体領域を推定する。このとき、推定器は、画像中の部分領域の位置および大きさを変化させながら、1つ1つの部分領域をそれぞれ走査する。
特開2019-096072号公報 特開2018-147431号公報
"Rapid Object Detection Using a Boosted Cascade of Simple Features", P.Viola,et al., CVPR (Conference on Computer Vision and Pattern Recognition), pp.511-518
コンピュータの処理速度には限界がある。そのため、推定器が画像を走査する際、画像中の部分領域の位置および大きさを連続的かつ網羅的に変化させることは困難である。また、画像において、物体の一部または全体が、他の物体によって遮蔽されている場合、画像中の物体領域を特定し、それぞれの物体の位置を正確に推定することが難しい場合がある。
本発明は、上記の課題に鑑みてなされたものであり、その目的は、画像中で物体同士の重なりがあっても、それぞれの物体の位置を頑健かつ高精度に推定できる物体位置推定装置及びその方法、ならびに記録媒体を提供することにある。
本発明の一態様に係わる物体位置推定装置は、対象画像に対して、畳み込み演算処理を行うことにより、第1特徴マップを生成する第1特徴抽出手段と、前記第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、第2特徴マップを生成する第2特徴抽出手段とを含む特徴抽出手段と、前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する第1位置尤度推定手段と、前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する第2位置尤度推定手段とを含む尤度マップ推定手段とを備えている。
本発明の一態様に係わる物体位置推定方法は、対象画像に対して、畳み込み演算処理を行うことにより、第1特徴マップを生成するともに、前記第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、第2特徴マップを生成し、前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定するとともに、前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定することを含む。
本発明の一態様に係わる記録媒体は、対象画像に対して、畳み込み演算処理を行うことにより、第1特徴マップを生成することと、前記第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、第2特徴マップを生成することと、前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定することと、前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定することとをコンピュータに実行させる。
本発明の一態様によれば、画像中で物体同士の重なりがあっても、それぞれの物体の位置を頑健かつ高精度に推定することができる。
実施形態1に係わる物体位置推定装置の構成を示すブロック図である。 実施形態2に係わる物体位置推定装置を含むシステムの構成を示すブロック図である。 実施形態2に係わる物体位置推定装置の各部が実行する処理の流れを示すフローチャートである。 実施形態2の一変形例に係わる物体位置推定装置の構成を示すブロック図である。 実施形態3に係わる物体位置推定装置の構成を示すブロック図である。 実施形態4に係わる物体位置推定装置の構成を示すブロック図である。 実施形態5に係わる物体位置推定装置の構成を示すブロック図である。 実施形態6に係わる物体位置推定装置の構成を示すブロック図である。 実施形態6に係わる物体位置推定装置の各部が実行する処理の流れを示すフローチャートである。 実施形態6の一変形例に係わる物体位置推定装置の構成を示すブロック図である。 実施形態6の一変形例に係わる物体位置推定装置の学習データ生成手段が第1正解尤度マップ/第2正解尤度マップを生成する処理の流れを説明する図である。 実施形態7に係わる物体位置推定装置の構成を示すブロック図である。 実施形態7の一変形例に係わる物体位置推定装置の構成を示すブロック図である。 実施形態1から7のいずれかの物体位置推定装置のハードウェア構成を示す図である。
〔実施形態1〕
図1を参照して、実施形態1について説明する。
(システム)
図1を参照して、本実施形態1に係わるシステムについて説明する。図1は、本実施形態1に係わるシステムの構成を概略的に示す。図1に示すように、本実施形態1に係わるシステムは、画像取得装置90および物体位置推定装置1を備えている。画像取得装置90は、1または複数の画像を取得する。例えば、画像取得装置90は、カメラ等の映像装置から出力される静止画像、または、ビデオ等の映像装置から出力される動画の画像フレームを取得する。
画像取得装置90は、取得した1または複数の画像(例えば、静止画像、または動画の画像フレーム)を、物体位置推定装置1へ送信する。以下では、画像取得装置90が物体位置推定装置1へ送信する画像を、対象画像70と呼ぶ。物体位置推定装置1は、例えば、コンピュータプログラムによって、その動作を制御される。
(物体位置推定装置1)
図1に示すように、物体位置推定装置1は、特徴抽出部10および尤度マップ推定部20を備えている。尤度マップ推定部20は、尤度マップ推定手段の一例である。
特徴抽出部10は、第1特徴抽出部21および第2特徴抽出部22を備えている。尤度マップ推定部20は、第1位置尤度推定部23および第2位置尤度推定部24を備えている。なお、物体位置推定装置1は、特徴抽出部および位置尤度推定部を、それぞれ3つ以上有していてもよい。第1特徴抽出部21および第2特徴抽出部22は、第1特徴抽出手段および第2特徴抽出手段の一例である。第1位置尤度推定部23および第2位置尤度推定部24は、第1位置尤度推定手段および第2位置尤度推定手段の一例である。
第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップを生成する。具体的には、第1特徴抽出部21は、対象画像70を画素値で表した行列に対して、第1のフィルタを所定の移動量ずつスライドさせながら適用する。第1のフィルタは、対象画像70を画素値で表した行列の部分(部分領域と呼ばれる)に対して掛け合わされる行列(カーネル)である。第1特徴抽出部21は、対象画像70を画素値で表した行列の一部と、第1のフィルタを表す行列との間の行列演算によって得られた値を足し合わせたものを、第1特徴マップの要素として出力する。第1特徴抽出部21は、複数の要素で構成される第1特徴マップを、尤度マップ推定部20の第1位置尤度推定部23へ出力する。
第2特徴抽出部22は、第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップを生成する。具体的には、第2特徴抽出部22は、第1特徴マップに対して、第2のフィルタを所定の移動量ずつスライドさせながら適用し、第1特徴マップの行列の一部と、第2のフィルタを表す行列との間の行列演算によって得られた値を足し合わせたものを、第2特徴マップの要素として出力する。具体的には、第2のフィルタは、第1特徴マップの一部に対して掛け合わされる行列である。第2特徴抽出部22は、複数の要素で構成される第2特徴マップを、尤度マップ推定部20の第2位置尤度推定部24へ出力する。
第1位置尤度推定部23は、第1特徴抽出部21から受信した第1特徴マップを用いて、対象画像70の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。具体的には、第1位置尤度推定部23として、ディープラーニングを用いて学習させた推定部(一例ではCNN;Convolutional Neural Network)を用いる。学習した推定部は、第1特徴マップから、対象画像70において、第1のサイズを持つ物体の位置(の尤度マップ)を推定する。第1のサイズは、対象画像70における第1所定範囲(後述する)に含まれる任意の形状および大きさを示す。
第1位置尤度推定部23は、対象画像70の部分領域ごとに、第1のサイズの物体らしさ、すなわち第1のサイズを持つ物体である確率を算出する。第1位置尤度推定部23は、対象画像70の部分領域ごとに算出した第1のサイズの物体らしさを尤度によって表した第1尤度マップを推定する。第1尤度マップの各座標における尤度は、対象画像70中の対応する位置に、第1のサイズを持つ物体が存在する確率を示す。第1位置尤度推定部23は、このように推定した第1尤度マップを出力する。
第2位置尤度推定部24は、第2特徴マップを用いて、対象画像70における対応する各位置において、第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。具体的には、第2特徴抽出部22は、対象画像70の部分領域ごとに、第2のサイズの物体らしさ、すなわち第2のサイズを持つ物体である確率を算出する。第2特徴抽出部22は、対象画像70の部分領域ごとの第2のサイズの物体らしさを尤度によって表した第2尤度マップを推定する。第2尤度マップの各座標における尤度は、対象画像70中の対応する位置に、第2のサイズを持つ物体が存在する確率を示す。第2位置尤度推定部24は、このように推定した第2尤度マップを出力する。第2のサイズは、対象画像70における第2所定範囲(後述)内の任意の大きさを示す。
なお、以下では、「第1のサイズを持つ物体」と同じ意味で「第1のサイズを有する物体」と呼ぶ場合がある。また「第2のサイズを持つ物体」と同じ意味で「第2のサイズを有する物体」と呼ぶ場合がある。
あるいは、第1位置尤度推定部23および第2位置尤度推定部24は、予め分類された物体の属性ごとに、互いに属性の異なる物体の位置をそれぞれ推定する。そして、第1位置尤度推定部23および第2位置尤度推定部24は、物体の属性ごとに、第1尤度マップ/第2尤度マップを推定し、物体の属性ごとの第1尤度マップ/第2尤度マップを出力する。なお、第1位置尤度推定部23および第2位置尤度推定部24は、属性ごとに、それぞれ異なるネットワークで構成されてもよいし、単一のネットワークで構成されてもよい。この場合、第1位置尤度推定部23と第2位置尤度推定部24のどちらも、属性というチャネル方向に複数の尤度マップを出力する。
(本実施形態の効果)
本実施形態の構成によれば、特徴抽出部10の第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップを生成する。特徴抽出部10の第2特徴抽出部22は、第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップを生成する。尤度マップ推定部20の第1位置尤度推定部23は、第1特徴マップを用いて、画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。尤度マップ推定部20の第2位置尤度推定部24は、第2特徴マップを用いて、画像の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
このように、物体位置推定装置1は、第1特徴マップおよび第2特徴マップを用いて、第1のサイズを持つ物体および第2のサイズを持つ物体を、別々に、対象画像70中の位置を推定する。そのため、画像中で物体同士の重なりがあっても、それぞれの物体の位置を頑健かつ高精度に推定することができる。
〔実施形態2〕
図2から図3を参照して、実施形態2について説明する。
(物体位置推定装置2)
図2に示すように、物体位置推定装置2は、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備えている。
物体位置推定装置2は、画像取得装置90から、対象画像70を取得する。物体位置推定装置2は、対象画像70に含まれる所定の種類の物体(以下、単に物体と呼ぶ)の位置を推定する。例えば、物体位置推定装置2は、人、車、木、動物、傘、又はその一部の位置を推定する。以下では、物体が人の頭部である例を説明する。
本実施形態2において、物体位置推定装置2が出力する第1尤度マップ/第2尤度マップの各座標における尤度は、対象画像70における対応する各位置において、第1のサイズ/第2のサイズを持つ人の頭部(物体の一例である)が存在する確率を示す。第1尤度マップ/第2尤度マップのそれぞれにおける尤度の合計と、対象画像70に映る第1のサイズ/第2のサイズを持つ人の頭部のそれぞれの数とが一致するように、第1尤度マップ/第2尤度マップにおける尤度は正規化される。その結果、第1尤度マップ/第2尤度マップのそれぞれにおける全体の尤度の合計は、対象画像70内において、対象画像70に映る第1のサイズ/第2のサイズを持つそれぞれの人の総数と対応する。なお、第1尤度マップ/第2尤度マップにおける尤度の正規化は必須ではない。
第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことによって、物体の特徴を示す第1特徴マップ80を生成する。例えば、第1特徴抽出部21は、畳み込みニューラルネットワーク(CNN;Convolutional Neural Network)である。第1特徴抽出部21は、第1位置尤度推定部23および第2特徴抽出部22のそれぞれに、第1特徴マップ80を出力する。
第1位置尤度推定部23に対し、第1特徴抽出部21から、第1特徴マップ80が入力される。第1位置尤度推定部23は、第1特徴マップ80に対して、畳み込み演算処理を行うことにより、第1尤度マップを推定する。例えば、第1位置尤度推定部23は、第1特徴抽出部21と別に、または一体で、畳み込みニューラルネットワークとして実現される。上述したように、第1尤度マップの各座標における尤度は、対象画像70中の対応する各位置において、第1のサイズを有する物体が存在する確率を示す。上述したように、第1のサイズは、対象画像70における第1所定範囲(後述する)に含まれる任意の形状および大きさを示す。第1位置尤度推定部23は、推定した第1尤度マップを出力する。
第2特徴抽出部22は、第1特徴抽出部21から、第1特徴マップ80を取得する。第2特徴抽出部22は、第1特徴マップ80に対し、畳み込み演算処理をさらに行うことによって、物体の特徴を示す第2特徴マップ81を生成する。第2特徴マップ81のデータサイズは、第1特徴マップ80のデータサイズよりも小さい。第2特徴抽出部22は、第2位置尤度推定部24に対し、第2特徴マップ81を出力する。
上述したように、第1特徴マップ80のデータサイズは、第2特徴マップ81のデータサイズと比較して、相対的に大きい。すなわち、第1特徴マップ80の各要素は、対象画像70の小さな部分領域の特徴にそれぞれ対応する。したがって、第1特徴マップ80は、対象画像70の細かな特徴を捉えることに適する。一方、第2特徴マップ81の各要素は、対象画像70の大きな部分領域の特徴にそれぞれ対応する。そのため、第2特徴マップ81は、対象画像70の大まかな特徴を捉えることに適する。
図2では、物体位置推定装置2の第1特徴抽出部21および第2特徴抽出部22は、別々の機能ブロックとして示されている。しかしながら、第1特徴抽出部21および第2特徴抽出部22は、一つの統合されたネットワークを構成していてもよい。この場合、統合されたネットワークの前半部分が、第1特徴抽出部21に相当し、統合されたネットワークの後半部分が、第2特徴抽出部22に相当する。
第2位置尤度推定部24に対し、第2特徴抽出部22から、第2特徴マップ81が入力される。第2位置尤度推定部24は、第2特徴マップ81に対して、畳み込み演算処理を行うことによって、第2尤度マップを推定する。上述したように、第2尤度マップの各座標における尤度は、対象画像70における対応する各位置において、第2のサイズを持つ物体が存在する確率を示す。上述したように、第2のサイズは、対象画像70における第2所定範囲(後述)内の任意の大きさを示す。
あるいは、第2特徴抽出部22は、対象画像70そのものから、第2の特徴マップを生成してもよい。この場合、第2特徴抽出部22は、第1特徴マップ80の代わりに、対象画像70を取得する。第2特徴抽出部22は、対象画像70に対して、畳み込み演算処理を行うことによって、第2特徴マップ81を生成する。
図2では、物体位置推定装置2の第1特徴抽出部21、第2特徴抽出部22、第1位置尤度推定部23、および、第2位置尤度推定部24は、別々の機能ブロックとして示されている。しかしながら、第1特徴抽出部21、第2特徴抽出部22、第1位置尤度推定部23、および、第2位置尤度推定部24は、一つの統合されたネットワークを構成していてもよい。
第1位置尤度推定部23は、第1所定範囲内の第1のサイズを有する物体の位置を推定する。換言すれば、対象画像70中に存在する物体が第1のサイズを有する場合、第1位置尤度推定部23によって、第1尤度マップが推定される。
一方、第2位置尤度推定部24は、第2所定範囲内の第2のサイズを有する物体の位置を推定する。すなわち、対象画像70中に存在する物体が第2のサイズを有する場合、第2位置尤度推定部24によって、その物体の位置が推定される。第2のサイズは第1のサイズよりも大きい。第1のサイズを規定する第1所定範囲と、第2のサイズを規定する第2所定範囲とは重複しないように、予め決定される。
例えば、第1所定範囲と第2所定範囲は、それぞれ、対応する第1特徴マップ80および第2特徴マップ81のデータサイズに基づいて定められる。例えば、第1特徴マップ80を利用して、対象画像70における物体の基準サイズ(以下では、第1基準サイズと呼ぶ)がまず定められる。次に、第2特徴マップ81を利用して、対象画像70における物体の他の基準サイズ(以下では、第2基準サイズと呼ぶ)が定められる。
具体的には、上述の第1基準サイズをT1とし、上述の第2基準サイズをT2とする。このとき、第1所定範囲は、第1基準サイズT1及び定数aとb(0<a<b)を用いて、a*T1<k≦b*T1と定められる。ここで、kは物体のサイズを表す。一方、第2所定範囲は、第2基準サイズT2及び定数cとd(0<c<d)を用いて、c*T2<k≦d*T2と定められる。
第1所定範囲を定めるための定数(a,b)と、第2所定範囲を定めるための定数(c,d)とは、互いに等しくてもよいし、異なっていてもよい。第1所定範囲と第2所定範囲との間にギャップがないように、b*T1=c*T2の条件が満たされることが好ましい。
基準サイズ及び所定範囲について補足する。上記に示す通り、各基準サイズは、各特徴マップのデータサイズに基づいて定められ、具体的には、各基準サイズは、各特徴マップのデータサイズの逆数に比例するサイズで定められる。基準サイズと所定範囲は、比例の関係である。したがって、各所定範囲は各特徴マップのデータサイズの逆数に比例するサイズで定められる。
本実施形態2に係わる物体位置推定装置2が備えた各部(すなわち第1特徴抽出部21、第2特徴抽出部22、第1位置尤度推定部23、第2位置尤度推定部24)の学習方法について、後述の実施形態6で説明する。学習機能は、物体位置推定装置2に設けられていてもよいし、物体位置推定装置2ではない他の装置に設けられていてもよい。後者の場合、物体位置推定装置2は、他の装置によって事前に学習済の各部を取得する。
ここでいう「学習済の各部を取得する」ことは、各部に対応するネットワークそのもの(すなわち、学習されたパラメータを設定されたプログラム)を取得することであってもよいし、学習されたパラメータのみを取得することであってもよい。後者の場合、物体位置推定装置2は、他の装置から、学習されたパラメータを取得し、学習されたパラメータを、物体位置推定装置2の記録媒体に予め準備されているプログラムに設定する。
上述したように、第1特徴マップ80は、対象画像70の細かな特徴を捉えることに適する。第1位置尤度推定部23は、第1特徴マップ80を用いて、対象画像70中の第1のサイズを持つ物体(画像上で小さく映る物体)の位置を推定する。一方、第2特徴マップ81は、対象画像70の大まかな特徴を捉えることに適する。第2位置尤度推定部24は、第2特徴マップ81を用いて、第1のサイズよりも大きい第2のサイズを持つ物体(画像上で大きく映る物体)の位置を推定する。
本実施形態2に係わる物体位置推定装置2は、第1特徴マップ80および第2特徴マップ81を併用することにより、対象画像70中の第1のサイズを持つ物体および第2のサイズを持つ物体の位置を効率的に推定することができる。
第1位置尤度推定部23は、正規化された第1尤度マップの全体の尤度を合計することによって、対象画像70において第1のサイズを持つ物体の総数を算出してもよい。また、第2位置尤度推定部24は、正規化された第2尤度マップの全体の尤度を合計することによって、第2のサイズを持つ物体の総数を算出してもよい。さらに、物体位置推定装置2は、上記の方法によって得られた第1のサイズを持つ物体の総数、および、第2のサイズを持つ物体の総数を合計することによって、対象画像70中の第1のサイズまたは第2のサイズを有する物体の総数を算出してもよい。
(物体位置推定装置2の動作)
図3を参照して、本実施形態2に係わる物体位置推定装置2の動作について詳細に説明する。図3は、物体位置推定装置2の動作を示すフローチャートである。
図3に示すように、第1特徴抽出部21は、画像取得装置90から、対象画像70を取得する(ステップS10)。
第1特徴抽出部21は、対象画像70に対して畳み込み演算処理を行うことによって、第1特徴マップ80を生成する(ステップS11)。第1特徴抽出部21は、第1特徴マップ80を、第1位置尤度推定部23および第2特徴抽出部22へ出力する。
第1位置尤度推定部23は、第1特徴マップ80に対して、畳み込み演算処理を行うことによって、第1のサイズを持つ物体の位置を示す第1尤度マップを推定する(ステップS12)。第1位置尤度推定部23は、推定した第1尤度マップを出力する。
第2特徴抽出部22は、第1特徴抽出部21から第1特徴マップ80を取得し、第1特徴マップ80に対して畳み込み演算処理を行うことによって、第2特徴マップ81を生成する(ステップS13)。
第2位置尤度推定部24は、第2特徴マップ81に対して、畳み込み演算処理を行うことによって、第2のサイズを持つ物体の位置を示す第2尤度マップを推定する(ステップS14)。第2位置尤度推定部24は、推定した第2尤度マップを出力する。
なお、上述したステップS12、S13、及びS14は、逐次的に実行されてもよい。また、ステップS12、S13及びS14の各処理の間の順序は入れ替わってもよい。ただし、ステップS14の処理はステップS13の処理よりも後に実行される必要がある。
以上で、物体位置推定装置2の動作は終了する。
ここまでは、物体位置推定装置2が、特徴抽出部(すなわち第1特徴抽出部21および第2特徴抽出部22)および尤度マップ推定部(すなわち第1位置尤度推定部23および第2位置尤度推定部24)をそれぞれ2つずつ備える構成を上述した。しかしながら、物体位置推定装置2は、特徴抽出部および位置尤度推定部を、それぞれ3つ以上有していてもよい(変形例1)。
(変形例1)
図4は、本変形例1に係わる物体位置推定装置2aの構成を示す。図4に示すように、物体位置推定装置2aは、特徴抽出部および位置尤度推定部を、それぞれn(nは3以上の整数)個ずつ備える。第1特徴マップは、対象画像に対して、第1特徴抽出部が畳み込み演算処理を行うことによって得られる。第2特徴マップ、第3の特徴マップ、・・・第nの特徴マップは、それぞれ、前段の特徴マップに対して、第i特徴抽出部が畳み込み演算処理を行うことによって得られる。ここでiは2からnまでのいずれかの整数である。
具体的には、物体位置推定装置2aの第i特徴抽出部は、第(i-1)特徴マップに対して、畳み込み演算処理を行うことによって、第i特徴マップを生成する。図4に示す変形例1において、第1特徴抽出部から第n特徴抽出部までが連結されたネットワークは、1つの統合された特徴抽出部10として捉えることができる。
第i特徴マップ(i=1~n)は、第i位置尤度推定部へ入力される。第i位置尤度推定部は、第i特徴マップに対して、畳み込み演算処理を行うことによって、第iのサイズを持つ物体の位置を推定する。そして、第i位置尤度推定部は、第iのサイズを持つ物体の位置を示す第iの尤度マップを推定し、出力する。また、図4に示す変形例1において、全ての特徴抽出部及び全ての尤度推定部を、1つの統合されたニューラルネットワークとして実現することもできる。
本変形例1の構成によれば、対象画像から、互いに異なる3つ以上のサイズを持つ物体の位置を示す3つ以上の尤度マップを推定し、出力することができる。すなわち、本変形例1に係わる物体位置推定装置2aは、互いに異なる3つ以上のサイズを持つ物体の位置を推定することができる。
(変形例2)
変形例2において、第1位置尤度推定部23および第2位置尤度推定部24は、予め分類された物体の属性ごとに、物体の位置をそれぞれ推定する。そして、第1位置尤度推定部23および第2位置尤度推定部24は、物体の属性ごとに、第1尤度マップ/第2尤度マップを推定し、推定した第1尤度マップ/第2尤度マップを出力する。
例えば、物体が人物またはその一部である場合、属性は、人物の年齢、人物の性別、人物の顔の向き、人物の移動速度、または人物の所属(社会人、学生、又は家族など)など、人物そのものに関係していてもよい。あるいは、属性は、人物を含む群衆の行列または滞留、あるいは人物を含む群衆の状態(例えばパニック)など、物体が構成する集団に関係していてもよい。
一例では、人物(物体)の属性が、子供および大人の2つに分類される。この場合、第1位置尤度推定部23は、対象画像70中、第1のサイズを有する子供および大人の位置をそれぞれ推定する。一方、第2位置尤度推定部24は、対象画像70中、第2のサイズを有する子供および大人の位置をそれぞれ推定する。
第1位置尤度推定部23および第2位置尤度推定部24は、子供の位置および大人の位置を各チャネルに出力するニューラルネットワークとして構成してもよい。この場合、第1位置尤度推定部23は、対象画像70中、第1のサイズを有する子供の位置および第1のサイズを有する大人の位置をそれぞれ推定して、各チャネルとして出力する。第2位置尤度推定部24は、対象画像70中、第2のサイズを有する子供の位置および第2のサイズを有する大人の位置をそれぞれ推定して、各チャネルとして出力する。
本変形例2によれば、第1位置尤度推定部23および第2位置尤度推定部24は、物体の属性(上記の例では、子供と大人)をニューラルネットワークのチャネルとし、属性ごとに、各位置尤度推定部で定められたサイズをもつ物体の位置を尤度マップとして推定する。これにより、第1位置尤度推定部23および第2位置尤度推定部24は、物体のサイズ別に、さらに、属性別に、物体の位置を推定することができる。
(本実施形態の効果)
本実施形態の構成によれば、特徴抽出部10の第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップを生成する。特徴抽出部10の第2特徴抽出部22は、第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップを生成する。尤度マップ推定部20の第1位置尤度推定部23は、第1特徴マップを用いて、画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。尤度マップ推定部20の第2位置尤度推定部24は、第2特徴マップを用いて、画像の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
このように、物体位置推定装置1は、第1特徴マップおよび第2特徴マップを用いて、第1のサイズを持つ物体および第2のサイズを持つ物体を、別々に、対象画像70中の位置を推定するので、画像中で物体同士の重なりがあっても、それぞれの物体の位置を頑健かつ高精度に推定することができる。
また、本実施形態の構成によれば、関連する技術のように、対象画像70を走査する際、物体を検出される部分領域のサイズおよび位置を変化させる必要がない。したがって、物体位置推定装置2は、部分領域の配置に依存しないで、物体の位置を精度良く推定することができる。
さらに、本実施形態の構成によれば、第1尤度マップ/第2尤度マップのそれぞれの全体の尤度の合計が、対象画像70における第1のサイズ/第2のサイズを持つ物体の各総数と等しくなるように、第1尤度マップ/第2尤度マップは正規化される。そのため、物体位置推定装置2は、第1尤度マップの全体における尤度の合計と、第2尤度マップの全体における尤度の合計によって、対象画像70に含まれる第1のサイズを持つ物体の総数、第2のサイズを持つ物体の総数、および、画像70に含まれる物体の総数、を得ることができる。
〔実施形態3〕
図5を参照して、実施形態3について説明する。
(物体位置推定装置3)
図5は、本実施形態3に係わる物体位置推定装置3の構成を示すブロック図である。図5に示すように、物体位置推定装置3は、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備える。それに加えて、物体位置推定装置3は、第1計数部25および第2計数部26をさらに有する。前記実施形態2の変形例に係わる物体位置推定装置2aと同様に、本実施形態3の一変形例に係る物体位置推定装置3は、特徴抽出部および位置尤度推定部を、それぞれ3つ以上有していてもよい。その場合、特徴抽出部及び位置尤度推定の数に応じた数の計数部を追加する。第1計数部25および第2計数部26は、第1計数手段および第2計数手段の一例である。
第1特徴抽出部21は、対象画像70から、第1特徴マップ80を生成し、第2特徴抽出部22は、第1特徴抽出部21が生成した第1特徴マップ80から、第2特徴マップ81を生成する。
あるいは、第2特徴抽出部22は、対象画像70そのものから、第2の特徴マップを生成してもよい。この場合、第2特徴抽出部22は、第1特徴マップ80の代わりに、対象画像70を取得する。第2特徴抽出部22は、対象画像70そのものに対して、畳み込み演算処理を行うことによって、第2特徴マップ81を生成する。
第1計数部25は、第1特徴抽出部21から、第1特徴マップ80を取得し、第1特徴マップ80を用いて、対象画像70中の第1のサイズを持つ物体の総数を算出する。具体的には、第1計数部25は、第1のサイズを持つ物体の特徴を判別できるように学習される。学習が完了した第1計数部25は、対象画像70中の第1のサイズを持つ物体をそれぞれ検出し、それらをカウントすることによって、第1のサイズを持つ物体の総数を算出する。
第2計数部26は、第2特徴抽出部22から、第2特徴マップ81を取得し、第2特徴マップ81を用いて、対象画像70中の第2のサイズを持つ物体の総数を算出する。具体的には、第2計数部26は、第2のサイズを持つ物体の特徴を判別できるように学習される。学習が完了した第2計数部26は、対象画像70中の第2のサイズを持つ物体をそれぞれ検出し、それらをカウントすることによって、第2のサイズを持つ物体の総数を算出する。例えば、第1計数部25/第2計数部26は、学習されたパラメータを有する畳み込みニューラルネットワークである。そして、第1特徴抽出部21、第2特徴抽出部22、第1位置尤度推定部23、第2位置尤度推定部24、第1計数部25、及び第2計数部26は、1つのニューラルネットワークとして構成してもよい。なお、第1計数部25および第2計数部26の学習方法の一例を、後の実施形態で説明する。
(本実施形態の効果)
本実施形態の構成によれば、第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップ80を生成する。第2特徴抽出部22は、第1特徴マップ80に対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップ81を生成する。第1位置尤度推定部23は、第1特徴マップ80を用いて、対象画像70の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。第2位置尤度推定部24は、第2特徴マップ81を用いて、対象画像70の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
このように、物体位置推定装置3は、第1特徴マップ80および第2特徴マップ81を用いて、第1のサイズを持つ物体の位置および第2のサイズを持つ物体の位置を推定するので、対象画像70中で物体同士の重なりがあっても、各物体の位置を頑健かつ高精度に推定することができる。
さらに、本実施形態の構成によれば、第1計数部25は、第1特徴マップ80を用いて、対象画像70中の第1のサイズを持つ物体を計数する。第2計数部26は、第2特徴マップ81を用いて、対象画像70中の第2のサイズを持つ物体を計数する。これにより、物体位置推定装置3は、対象画像70に含まれる第1のサイズを持つ物体/第2のサイズを持つ物体の総数をより正確に推定することができる。
〔実施形態4〕
図6を参照して、実施形態4について説明する。
(物体位置推定装置4)
図6は、本実施形態4に係わる物体位置推定装置4の構成を示すブロック図である。図6に示すように、物体位置推定装置4は、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備える。それに加えて、物体位置推定装置4は、第1位置特定部27および第2位置特定部28をさらに備える。なお、前記実施形態2の変形例に係わる物体位置推定装置2aと同様に、本実施形態4の一変形例に係る物体位置推定装置4は、特徴抽出部および位置尤度推定部を、それぞれ3つ以上有していてもよい。その場合、特徴抽出部及び位置尤度推定の数に応じた数の位置特定部を追加する。第1位置特定部27および第2位置特定部28は、第1位置特定手段および第2位置特定手段の一例である。
第1位置特定部27は、第1位置尤度推定部23から得られた第1のサイズを持つ物体の位置を示す第1尤度マップから、対象画像70において第1のサイズを持つ物体の位置を特定する。
具体的には、第1位置特定部27は、第1尤度マップから尤度の極大値を示す座標を抽出する。第1位置特定部27は、第1尤度マップから、尤度の極大値を示す座標を取得した後、尤度の極大値を示す座標間の距離、または、尤度の極大値を示す座標の周辺での尤度の広がりを分散値としたマハラノビス距離に基づいて、尤度の極大値を示す複数の座標を1つに統合してもよい。
例えば、第1位置特定部27は、尤度の極大値を示す座標間のマハラノビス距離が閾値を下回る場合、それらの極大値を統合する。この場合、第1位置特定部27は、複数の極大値の平均値を、統合された極大値としてもよい。または、第1位置特定部27は、それぞれ極大値を示す複数の座標の中間の位置を、統合された極大値の座標としてもよい。
その後、第1位置特定部27は、第1尤度マップ中の全ての尤度を合計することによって、対象画像70において第1のサイズを有する物体の総数(以下、第1の物体数と呼ぶ)を算出する。
対象画像70において第1の物体数が0でない場合、さらに、第1位置特定部27は、第1尤度マップにおいて尤度の極大値を示す座標のうち、尤度の高い順に、対象画像70における第1の物体数と同数の座標を抽出する。これにより、ノイズを原因とする大量の極大値が第1尤度マップに表れた場合であっても、第1位置特定部27は、第1のサイズを持つ物体と対応しない極大値を排除することができる。第1位置特定部27は、このように抽出された1または複数の座標が、第1のサイズを有する物体の位置と対応するとした場合の第1物体位置マップを生成する。第1位置特定部27は、物体位置マップではなく、座標そのものを出力してもよい。第1物体位置マップは、対象画像70において第1のサイズを持つ物体が存在する位置を示す。
第1位置特定部27は、第1尤度マップから抽出された尤度の極大値を示す座標のうち、所定値以上の尤度を持つ座標をさらに抽出してもよい。これにより、第1位置特定部27は、第1のサイズを持つ物体と対応しない極大値を排除することができる。第1位置特定部27は、このようにして抽出された座標と対応する対象画像70における位置に、第1のサイズを有する物体が存在すると特定する。
具体的には、第2位置特定部28は、第2尤度マップを用いて、対象画像70中の第2のサイズを持つ物体の位置を特定する。例えば、第2位置特定部28は、第2尤度マップから尤度の極大値を示す座標を抽出する。第2位置特定部28は、第2尤度マップから、尤度の極大値を示す座標を取得した後、尤度の極大値を示す座標間の距離、または、尤度の極大値を示す座標の周辺での尤度の広がりを分散値としたマハラノビス距離に基づいて、尤度の極大値を示す複数の座標を1つに統合してもよい。
例えば、第2位置特定部28は、尤度の極大値を示す座標間のマハラノビス距離が閾値を下回る場合、それらの極大値を統合する。この場合、第2位置特定部28は、複数の極大値の平均値を、統合された極大値としてもよい。または、第2位置特定部28は、それぞれ極大値を示す複数の座標の中間の位置を、統合された極大値の座標としてもよい。
その後、第2位置特定部28は、第2尤度マップ中の全ての尤度を合計することによって、対象画像70において第2のサイズを有する物体の総数(以下、第2の物体数と呼ぶ)を算出する。
対象画像70において第2の物体数が0でない場合、さらに、第2位置特定部28は、第2尤度マップにおいて尤度の極大値を示す座標から、尤度の高い順に、対象画像70における第2の物体数と同数の座標を抽出する。第2位置特定部28は、こうして抽出された1または複数の座標が、第2のサイズを有する物体の位置と対応するとした場合の第2物体位置マップを生成する。第2位置特定部28は、物体位置マップではなく、座標そのものを出力してもよい。第2物体位置マップは、対象画像70において第2のサイズを持つ物体が存在する位置を示す。
第2位置特定部28は、第2尤度マップから抽出された尤度の極大値を示す座標のうち、所定値以上の尤度を持つ座標をさらに抽出してもよい。これにより、第2位置特定部28は、第2のサイズを持つ物体と対応しない極大値を排除することができる。第2位置特定部28は、このようにして抽出された座標と対応する対象画像70における位置に、第2のサイズを有する物体が存在すると特定する。
第1位置特定部27/第2位置特定部28は、第1物体位置マップ/第2物体位置マップを生成するための前処理として、第1尤度マップ/第2尤度マップに対し、ぼかし処理などの画像処理を実施してもよい。これにより、第1尤度マップ/第2尤度マップから、ノイズを除去することができる。また、第1物体位置マップ/第2物体位置マップを生成した後処理として、第1位置特定部27/第2位置特定部28は、例えば、第1のサイズ/第2のサイズを持つ物体の位置を示す座標間の距離や、第1のサイズ/第2のサイズを持つ物体の位置を示す座標周辺の尤度の広がりを分散値とするマハラノビス距離を用いて、第1のサイズ/第2のサイズを持つ物体の位置を示す座標を統合してもよい。
第1位置特定部27/第2位置特定部28は、以上のように推定した第1のサイズ/第2のサイズを持つ物体の位置を示す座標を、任意の方法で出力してよい。例えば、第1位置特定部27/第2位置特定部28は、物体の位置を示す座標を提示するマップをディスプレイ装置に表示させてもよいし、物体の位置を示す座標のデータを、図示しない記憶装置に格納してもよい。
(本実施形態の効果)
本実施形態の構成によれば、第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップ80を生成する。第2特徴抽出部22は、第1特徴マップ80に対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップ81を生成する。第1位置尤度推定部23は、第1特徴マップ80を用いて、対象画像70の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。第2位置尤度推定部24は、第2特徴マップ81を用いて、対象画像70の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
このように、物体位置推定装置4は、第1特徴マップ80および第2特徴マップ81を用いて、第1のサイズを持つ物体の位置および第2のサイズを持つ物体の位置を推定するので、対象画像70中で物体同士の重なりがあっても、各物体の位置を頑健かつ高精度に推定することができる。
また、本実施形態の構成によれば、第1尤度マップ/第2尤度マップから、物体の確定した位置を示す第1物体位置マップ/第2物体位置マップに変換する。そして、物体の位置の推定結果として、第1物体位置マップ/第2物体位置マップあるいはそれに基づく情報を出力する。これにより、物体位置推定装置4は、他の装置または他のアプリケーションにとって扱いやすい形で、物体の位置の推定結果を示す情報を提供することができる。
〔実施形態5〕
図7を参照して、実施形態5について説明する。
(物体位置推定装置5)
図7は、本実施形態5に係わる物体位置推定装置5の構成を示すブロック図である。図7に示すように、物体位置推定装置5は、実施形態3と同様に、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24と、第1計数部25と、第2計数部16とを備える。それに加えて、物体位置推定装置5は、第1位置特定部29と第2位置特定部30とをさらに有する。なお、物体位置推定装置5は、特徴抽出部、位置尤度推定部、および計数部を、それぞれ3つ以上有していてもよい。その場合、特徴抽出部、位置尤度推定および計数部の数に応じた数の位置特定部を追加する。
第1位置特定部29は、第1位置尤度推定部23から、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを取得する。また、第1位置特定部29は、第1計数部25から、第1のサイズを持つ物体の総数である第1物体数を取得する。第1位置特定部29は、第1尤度マップから、尤度の極大値を示す座標を特定する。第1位置特定部29は、第1尤度マップにおいて尤度の極大値を示す座標のうち、第1物体数が示す物体の総数と同数の座標を、尤度の高い順に抽出する。そして、第1位置特定部29は、第1のサイズを有する物体の位置を示す第1物体位置マップを生成する。
第2位置特定部30は、第2位置尤度推定部24から、第2のサイズを持つ物体が存在する確率を示す第2尤度マップを取得する。また、第2位置特定部30は、第2計数部26から、第2のサイズを持つ物体の総数である第2物体数を取得する。第2位置特定部30は、第2尤度マップから、尤度の極大値を示す座標を特定する。第2位置特定部30は、第2尤度マップにおいて尤度の極大値を示す座標のうち、第2物体数が示す物体の総数と同数の座標を、尤度の高い順に抽出する。そして、第2位置特定部30は、抽出した座標が第2のサイズを有する物体の位置と対応するとした場合の第2物体位置マップを生成する。
あるいは、第1位置特定部29および第2位置特定部30は、前記実施形態4で説明した第1位置特定部27および第2位置特定部28の機能をさらに有していてもよい。
具体的には、第1尤度マップ/第2尤度マップはノイズを含む場合がある。そこで、第1物体位置マップ/第2物体位置マップを生成するための前処理として、第1位置特定部29/第2位置特定部30は、第1尤度マップ/第2尤度マップに対して、それぞれ、ぼかし処理などの画像処理を行ってもよい。これにより、第1尤度マップ/第2尤度マップに含まれるノイズを目立たなくさせることができる。
また後処理として、第1位置特定部29/第2位置特定部30は、第1物体位置マップ/第2物体位置マップから、尤度の極大値を示す座標を取得した後、尤度の極大値を示す座標間の距離、または、尤度の極大値を示す座標の周辺での尤度の広がりを分散値としたマハラノビス距離に基づいて、尤度の極大値を示す複数の座標を1つに統合してもよい。
例えば、第1位置特定部29/第2位置特定部30は、尤度の極大値を示す座標間のマハラノビス距離が閾値を下回る場合、それらの極大値を統合する。この場合、第1位置特定部29/第2位置特定部30は、複数の極大値の平均値を、統合された極大値としてもよい。または、第1位置特定部29/第2位置特定部30は、それぞれ極大値を示す複数の座標の中間の位置を、統合された極大値の座標としてもよい。
第1位置特定部29/第2位置特定部30は、第1物体位置マップ/第2物体位置マップ、あるいはそれに基づく情報を、任意の方法で出力してよい。例えば、第1位置特定部29/第2位置特定部30は、ディスプレイ装置を制御して、第1物体位置マップ/第2物体位置マップ、あるいはそれに基づく情報を、ディスプレイ装置に表示させる。あるいは、第1位置特定部29/第2位置特定部30は、物体位置推定装置5からアクセス可能な記憶装置に、第1物体位置マップ/第2物体位置マップを格納してもよい。そのほか、第1位置特定部29/第2位置特定部30は、物体位置推定装置5からアクセス可能な他の装置に対し、第1物体位置マップ/第2物体位置マップあるいはそれに基づく情報を送信してもよい。
(本実施形態の効果)
本実施形態の構成によれば、第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップ80を生成する。第2特徴抽出部22は、第1特徴マップ80に対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップ81を生成する。第1位置尤度推定部23は、第1特徴マップ80を用いて、対象画像70の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。第2位置尤度推定部24は、第2特徴マップ81を用いて、対象画像70の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
このように、物体位置推定装置5は、第1特徴マップ80および第2特徴マップ81を用いて、第1のサイズ/第2のサイズを持つ物体の位置を推定するので、対象画像70中で、これらの物体同士の重なりがあっても、各物体の位置を頑健かつ高精度に推定することができる。
また、本実施形態の構成によれば、第1位置特定部29/第2位置特定部30は、第1尤度マップ/第2尤度マップを、物体の確定した位置を示す第1物体位置マップ/第2物体位置マップに変換する。そして、物体の位置の推定結果として、第1物体位置マップ/第2物体位置マップあるいはそれに基づく情報を出力する。これにより、物体位置推定装置5は、他の装置または他のアプリケーションにとって扱いやすい形で、物体の位置の推定結果を示す情報を提供することができる。
さらに、第1位置特定部29/第2位置特定部30は、尤度マップにおける尤度の極大値を示す座標のうち、第1計数部25および第2計数部26によってカウントされた第1のサイズ/第2のサイズを持つ物体の総数と同数の座標を、尤度の高い順に取得する。そのため、第1尤度マップ/第2尤度マップ上に、ノイズを原因とする尤度の極大値が大量に表れている場合であっても、物体位置推定装置5は、対象画像70に映る第1のサイズ/第2のサイズを持つ物体の座標を、正しく取得することができる。
〔実施形態6〕
図8から図9を参照して、実施形態6について説明する。
(物体位置推定装置6)
図8は、本実施形態6に係わる物体位置推定装置6の構成を示すブロック図である。物体位置推定装置6は、以下で説明する点を除き、前記実施形態2に係わる物体位置推定装置2と同等の機能を有する。
図8に示すように、本実施形態6に係わる物体位置推定装置6は、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備える。そして、物体位置推定装置6は、学習部41をさらに有する。学習部41は、学習手段の一例である。
なお、本実施形態6の一変形例では、物体位置推定装置6は、特徴抽出部および位置尤度推定部を、それぞれ3つ以上有していてもよい。例えば、物体位置推定装置6には、特徴抽出部および位置尤度推定部が、それぞれn(>2)個設けられる。この場合、学習データ(すなわち教師データ)は、学習画像と、物体情報と、第1正解尤度マップから第n正解尤度マップまでのn個の正解尤度マップとを含む。第1正解尤度マップから第n正解尤度マップまでのn個の正解尤度マップを、正解値と呼ぶ場合がある。
(学習部41)
学習部41は、予め準備された学習データ(すなわち教師データ)を利用して、物体位置推定装置6の各部(ただし学習部41を除く)の学習を行う。学習データは、学習画像、物体情報、第1正解尤度マップ、および第2正解尤度マップを含む。
第1正解尤度マップは、学習画像において、第1のサイズを有する物体の位置を示す確率であり、物体領域に基づいて定められる。第2正解尤度マップは、学習画像中の第2のサイズを有する物体の位置を示す確率であり、物体領域に基づいて定められる。第1正解尤度マップおよび第2正解尤度マップを生成する方法は限定されない。例えば、オペレータが、ディスプレイデバイスに表示された学習画像中の物体領域を目視し、手動にて、第1正解尤度マップおよび第2正解尤度マップを生成してもよい。また、物体位置推定装置6は、後述の物体位置推定装置6aに示される学習データ生成部42をさらに備え、学習データ生成部42は、第1正解尤度マップおよび第2正解尤度マップを生成してもよい。
なお、物体位置推定装置6とは異なる他の装置によって、学習データが生成される場合、物体位置推定装置6は、他の装置から学習データを取得する。例えば、学習データは、物体位置推定装置6からアクセス可能な記憶装置に予め格納されている。この場合、物体位置推定装置6は、この記憶装置から学習データを取得する。あるいは、物体位置推定装置6は、学習データ生成部42が生成した学習データを取得してもよい(後述する変形例)。
物体位置推定装置6は、物体の形状の特徴を学習するのではなく、学習画像における物体の位置を物体同士の重なりも考慮して学習する。これにより、物体位置推定装置6は、学習画像における物体同士の重なりもそのまま学習することができる。
学習部41は、学習画像を第1特徴抽出部21に入力する。第1特徴抽出部21は、学習画像から、第1特徴マップ80を生成する。そして、第1位置尤度推定部23は、第1特徴マップ80に基づいて、第1のサイズを持つ物体の位置を示す第1尤度マップを出力する。第1位置尤度推定部23は、第1尤度マップを学習部41へ出力する。
第1特徴抽出部21から、第2特徴抽出部22に対して、第1特徴マップ80が入力される。第2特徴抽出部22は、第1特徴マップ80から、第2特徴マップ81を生成する。
あるいは、第2特徴抽出部22は、学習画像そのものから、第2の特徴マップを生成してもよい。この場合、第2特徴抽出部22は、第1特徴マップ80の代わりに、学習画像を取得する。第2特徴抽出部22は、学習画像そのものに対して、第1特徴抽出部21よりも多くの畳み込み演算処理を行うことによって、第2特徴マップ81を生成する。
第2位置尤度推定部24は、第2特徴マップ81に基づいて、学習画像において、第2のサイズを持つ物体の位置を示す第2尤度マップを出力する。第2位置尤度推定部24は、第2尤度マップを学習部41へ出力する。
学習部41は、第1位置尤度推定部23および第2位置尤度推定部24からの各出力(第1尤度マップ、第2尤度マップ)と、学習データに含まれる正解値(第1正解尤度マップ、第2正解尤度マップ)との誤差を、第1の損失として算出する。例えば、学習部41は、第1尤度マップ/第2尤度マップと、第1正解尤度マップ/第2正解尤度マップとの間で、平均二乗誤差を算出する。そして、学習部41は、算出したマップの間の平均二乗誤差を第1の損失とする。学習部41は、算出した第1の損失を小さくするように、物体位置推定装置6の各部(学習部41を除く)の学習を行う。
ここでいう学習とは、物体位置推定装置6の各部のパラメータを更新することを意味する。例えば、学習部41は、バックプロパゲーション等の既知の技術を利用して、学習処理を実行することができる。具体的には、学習部41は、予め設定された第1の損失の算出式(例えば損失関数)を用いて、第1の損失を算出し、第1の損失を低減するように、物体位置推定装置6の各部の学習を行う。または、学習部41は、アクセス可能な記憶装置に記憶された第1の損失の算出式を取得して、第1の損失を算出し、第1の損失を低減するように、物体位置推定装置6の各部の学習を行う。
一例では、学習部41は、第1位置尤度推定部23/第2位置尤度推定部24の出力から、学習部41へフィードバックされた情報(すなわち第1尤度マップ/第2尤度マップ)に基づいて、物体位置推定装置6の各部(学習部41を除く)のパラメータを更新する。
物体位置推定装置6の各部(学習部41を除く)のパラメータが更新された後、物体位置推定装置6の各部は、別の学習データを用いて、第1尤度マップ/第2尤度マップを推定し出力する。第1位置尤度推定部23/第2位置尤度推定部24の出力から、学習部41へ、第1尤度マップ/第2尤度マップがフィードバックされる。学習部41は、フィードバックされた情報(すなわち第1尤度マップ/第2尤度マップ)に基づいて、物体位置推定装置6の各部(学習部41を除く)のパラメータを再び更新する。
学習部41は、第1の損失の大きさが所定の閾値以下となるまで、上述した方法で、物体位置推定装置6の各部の学習を繰り返し行ってもよい。しかしながら、学習部41が物体位置推定装置6の各部(学習部41を除く)の学習を終了する条件は限定されない。このようにして、学習部41は、第1の損失を低減するように、物体位置推定装置6の各部のパラメータを繰り返し学習する。これにより、第1尤度マップの推定および第2尤度マップの推定が、第1特徴抽出部21を通じて、同時に学習されるので、物体位置推定装置6が物体の位置をより精度よく推定できるとともに、学習速度を向上させることができる。
(物体位置推定装置6の動作)
図9を参照して、本実施形態6に係わる物体位置推定装置6の動作を説明する。図9は、物体位置推定装置6の動作の流れを示すフローチャートである。ここでは、物体位置推定装置6が単一の学習データを用いて学習を行う場合を説明する。なお、複数の学習データが存在する場合、物体位置推定装置6は、図9に示すステップS20からS23までの処理を繰り返し、学習データごとに実行する。
図9に示すように、まず、学習部41は、学習データを取得する(S20)。学習部41は、学習データに含まれる学習画像を、第1特徴抽出部21に入力する(S21)。学習部41は、各位置尤度推定部の出力と正解値との誤差を示す第1の損失を算出し(S22)、算出した第1の損失を小さくするように、物体位置推定装置6の各部の学習(パラメータ更新)を行う(S23)。
以上で、物体位置推定装置6の動作は終了する。
(変形例1)
変形例1では、学習データの物体情報は、物体の位置およびサイズに加え、その物体の属性も示す。学習部41は、学習データとして、第1のサイズを有する物体の位置を示す確率である第1正解尤度マップと、第2のサイズを有する物体の位置を示す確率である第2正解尤度マップを、物体の属性ごとに用意する。そして、学習部41は、学習画像と、属性毎の第1のサイズを有する物体の位置を示す確率である第1正解尤度マップと、属性毎の第2のサイズを有する物体の位置を示す確率である第2正解尤度マップとを用いて、上述した方法(図9)によって、物体位置推定装置6の各部の学習を実行する。
本変形例1の構成によれば、属性毎の第1正解尤度マップおよび第2正解尤度マップを用いて、物体位置推定装置6の各部の学習を実行する。これにより、物体位置推定装置6は、物体の属性ごとに、物体の位置を推定することができる。例えば、物体位置推定装置6は、大人(物体の属性の一例である)の位置を推定するとともに、子供(物体の位置の他の例である)の位置も別に推定することができる。
(変形例2)
学習画像中の物体の総数が少なかったり、あるいは物体の配置の偏りが大きかったりする場合、学習が正しく進行しない可能性がある。具体的には、学習データである第1正解尤度マップまたは第2正解尤度マップにおいて、尤度が0である座標が多く存在する場合がある。
本変形例2に係わる学習部41は、上述した第1の損失を最小化するための学習において、学習データである第1正解尤度マップ/第2正解尤度マップ、および推定結果である第1尤度マップ/第2尤度マップにおける全ての座標における誤差を用いるのではなく、一部の座標における誤差を最小化するように、物体位置推定装置6の各部の学習を行う。具体的には、本変形例2に係わる学習部41は、学習データである第1正解尤度マップ/第2正解尤度マップにおいて、尤度が0の座標の数とそれ以外の座標の数とが所定の比率になるように、学習データである第1正解尤度マップ/第2正解尤度マップ上のいくつかの座標を選択する。そして、選択された第1正解尤度マップ/第2正解尤度マップ上の座標に応じて、推定結果である第1尤度マップ/第2尤度マップの座標も選択する。例えば、学習部41は、尤度が0の座標と、それ以外の座標とを、同数ずつ、第1正解尤度マップ/第2正解尤度マップ上から選択し、選択された第1正解尤度マップ/第2正解尤度マップ上の座標に応じて、第1尤度マップ/第2尤度マップの座標も選択する。学習部41は、選択した座標における第1の誤差を最小化するように、物体位置推定装置6の各部のパラメータを更新する。
(物体位置推定装置6a)
図10は、本実施形態6の一変形例に係わる物体位置推定装置6aの構成を示すブロック図である。本変形例に係わる物体位置推定装置6aは、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備える。物体位置推定装置6aは、学習部41および学習データ生成部42をさらに有する。学習データ生成部42は、学習データ生成手段の一例である。物体位置推定装置6aは、学習データ生成部42をさらに備えている点で、上述した物体位置推定装置6とは構成が異なる。
(学習データ生成部42)
学習データ生成部42は、学習部41が学習を行うための学習データ(教師データ)を生成する。
図11を参照して、本変形例に係わる学習データ生成部42の動作を説明する。図11は、学習データ生成部42が、学習データである第1正解尤度マップおよび第2正解尤度マップを作成するために実行する処理の流れを示す。
学習データ生成部42は、学習画像を取得する。例えば、学習画像および物体情報は、オペレータによって、物体位置推定装置6aへ入力される。ここで、学習画像は、物体位置推定装置6aによる位置の推定の対象である第1のサイズを持つ物体/第2のサイズを持つ物体(図11では「対象物体」である頭部)を含む。学習画像に紐付けられた物体情報によって、学習画像における物体領域が特定される。
物体領域は、学習画像において、物体が占有する領域と対応する。例えば、物体領域は、学習画像中の物体に外接する矩形またはその他の2次元形状によって囲まれた領域である。例えば、物体情報は、学習画像における物体領域(例えば物体の外接矩形)の左上隅及び右下隅の座標をそれぞれ指定する。
学習データ生成部42は、学習画像に紐付けられた物体情報を用いて、学習画像中の物体の位置および大きさを特定する。そして、以下で説明する手順にしたがって、学習データ生成部42は、第1正解尤度マップおよび第2正解尤度マップをそれぞれ生成する。
図11に示すように、学習データ生成部42は、まず、学習画像に紐付けられた物体情報に基づいて、第1のサイズを持つ物体/第2のサイズを持つ物体のそれぞれを検出する。学習データ生成部42は、学習画像において、第1のサイズを持つ物体/第2のサイズを持つ物体の位置を特定する。
次に、学習データ生成部42は、全ての座標の尤度がゼロである初期の第1正解尤度マップ/第2正解尤度マップを用意し、その第1正解尤度マップ/第2正解尤度マップ上に、第1のサイズを持つ物体/第2のサイズを持つ物体についての物体領域の中心または重心を中心とする尤度の正規分布を生成する。尤度の正規分布の生成において、学習データ生成部42は、第1のサイズを持つ物体についての尤度の正規分布を、第1正解尤度マップ上に生成し、第2のサイズを持つ物体についての尤度の正規分布を、第2正解尤度マップ上に生成する。
また、学習データ生成部42は、第1正解尤度マップ/第2正解尤度マップ上における正規分布の広がりを、パラメータによって規定する。例えば、パラメータは、正規分布を示す関数の中心(平均)と分散のパラメータであってよい。この場合、正規分布を示す関数の中心を、物体の位置を示す値(例えば物体領域の中心または重心)とし、正規分布を示す関数の分散を、物体領域の大きさに対応した値にしてもよい。また、正規分布を示す関数の中心の値が1になるように、正規分布を示す関数の形を設定してもよい。
以上のようにして、学習データ生成部42は、学習画像の各位置に第1のサイズを持つ物体/第2のサイズを持つ物体が存在する確率を示す第1正解尤度マップ/第2正解尤度マップを生成する。第1正解尤度マップ/第2正解尤度マップでは、第1のサイズを持つ物体/第2のサイズを持つ物体についての物体領域が、尤度の正規分布の広がりに対応する。
なお、第1正解尤度マップおよび第2正解尤度マップ上のある部分において、複数の尤度の正規分布が重なっている場合、学習データ生成部42は、その部分内の同一の座標における尤度の最大値を、その座標における尤度としてもよい。あるいは、学習データ生成部42は、複数の正規分布が重なった部分の各座標での尤度の平均値を、その座標における尤度としてもよい。しかしながら、学習データ生成部42は、これ以外の方法で、第1正解尤度マップおよび第2正解尤度マップ上において、複数の正規分布が重なった部分における尤度を算出してもよい。
学習データ生成部42は、物体情報に基づいて、学習画像における第1のサイズを持つ物体の総数(第1の物体数)をカウントする。第1正解尤度マップ内の尤度の合計が、学習画像における第1の物体数と一致するように、学習データ生成部42は、第1正解尤度マップの尤度を正規化する。なお、図11では、正規化した第1正解尤度マップを省略している。または、学習データ生成部42は、学習画像内に含まれる物体領域の割合の合計を用いて、第1の物体数のカウントを行ってもよい。
正規化された第1正解尤度マップの各座標における尤度は、第1のサイズを持つ物体がその座標によって示される位置に存在する確率を表す。正規化された第1正解尤度マップ全体の尤度を合計すると、学習画像に含まれる第1のサイズを持つ物体の総数と等しくなる。つまり、第1正解尤度マップ全体の尤度の合計は、第1正解尤度マップに存在する物体の総数の意味も持つ。
さらに、学習データ生成部42は、正規化された第1正解尤度マップのサイズを、第1位置尤度推定部23の出力である第1尤度マップのサイズと等しくする。言い換えれば、学習データ生成部42は、正規化された第1正解尤度マップ上の各座標と、学習画像における各位置とが一対一で対応するように、第1正解尤度マップを変換する。上記では、学習データ生成部42が正規化を行う場合を一例として説明したが、正規化の処理は必須ではない。すなわち、学習データ生成部42は、第1正解尤度マップおよび第2正解尤度マップの正規化を行わなくてもよい。
学習データ生成部42は、物体情報を用いて、学習画像から、第2のサイズを持つ物体を特定する。学習データ生成部42は、特定した第2のサイズを持つ物体の位置を表す正規分布を生成する。そして、学習データ生成部42は、第1正解尤度マップに関して説明した手順と同様に、第2正解尤度マップを生成し、第2正解尤度マップを正規化する。なお、図11では、正規化した第2正解尤度マップを省略している。
さらに、学習データ生成部42は、正規化された第2正解尤度マップのサイズを、第2尤度マップのサイズと一致させる。すなわち、学習データ生成部42は、正規化された第2正解尤度マップ上の各座標と、学習画像における各位置とが一対一で対応するように、第2正解尤度マップを変換する。第2正解尤度マップ上の各座標における尤度は、学習画像上の対応する位置において、第2のサイズを持つ物体が存在する確率を示す。上記では、学習データ生成部42が正規化を行う場合を例として説明したが、正規化の処理は必須ではない。すなわち、学習データ生成部42は、第1正解尤度マップおよび第2正解尤度マップの正規化を行わなくてもよい。
学習データ生成部42は、学習画像と、物体情報と、正解値とを紐付ける。正解値は、第1正解尤度マップおよび第2正解尤度マップを含む。
(本実施形態の効果)
本実施形態の構成によれば、第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップ80を生成する。第2特徴抽出部22は、第1特徴マップ80に対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップ81を生成する。第1位置尤度推定部23は、第1特徴マップ80を用いて、対象画像70の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。第2位置尤度推定部24は、第2特徴マップ81を用いて、対象画像70の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
このように、物体位置推定装置6(6a)は、第1特徴マップ80および第2特徴マップ81を用いて、第1のサイズ/第2のサイズを持つ物体の位置を推定するので、対象画像70中で、これらの物体同士の重なりがあっても、各物体の位置を頑健かつ高精度に推定することができる。
物体位置推定装置6(6a)は、第1正解尤度マップ/第2正解尤度マップを用いて、第1のサイズを持つ物体/第2のサイズを持つ物体の位置を、物体同士の重なりを含む物体の配置パターンとして学習する。第1正解尤度マップ/第2正解尤度マップは、学習画像の各座標に、第1のサイズを持つ物体/第2のサイズを持つ物体が存在する確率を尤度によって表す。これにより、対象画像70中で、物体同士の重なりがある場合であっても、物体位置推定装置6(6a)は、対象画像70におけるそれぞれの物体の位置を頑健かつ高精度に推定することができる。
〔実施形態7〕
実施形態7について、図12から図13を参照して詳細に説明する。
(物体位置推定装置7)
図12は、本実施形態7に係わる物体位置推定装置7の構成を例示するブロック図である。図12に示すように、物体位置推定装置7は、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備える。物体位置推定装置7は、学習部41を備える。それに加えて、物体位置推定装置7は、第1計数部25および第2計数部26をさらに有する。例えば、物体位置推定装置7の各部は、個別に、または一体で、畳み込みニューラルネットワーク等のニューラルネットワークで実現される。
(学習部41)
学習部41は、予め準備された学習データ(すなわち教師データ)を用いて、物体位置推定装置7が備える各部(学習部41を除く)の学習を行う。
本実施形態7では、学習データは、学習画像および物体情報を含む。学習画像は、位置尤度の推定の対象である物体を含む。学習画像は、学習部41が物体の位置の尤度および物体の総数を推定することを学習するために利用される。また学習データは、第1の物体数の正解、第2の物体数の正解、第1正解尤度マップ、及び第2正解尤度マップをさらに含む。以下では、第1正解尤度マップ、第2正解尤度マップ、第1の物体数の正解、および第2の物体数の正解を、まとめて正解値と呼ぶ場合がある。これら学習データは、学習部41が物体の位置の尤度と物体の総数を推定することを、物体位置推定装置7の各部(学習部41を除く)に学習させるために利用される。なお、正解値を生成する方法は限定されない。
例えば、オペレータが、学習画像における第1のサイズを持つ物体/第2のサイズを持つ物体の位置を特定し、全ての座標の尤度がゼロである初期の第1正解尤度マップ/第2正解尤度マップ上に、第1のサイズ/第2のサイズを持つ物体の位置を中心とする尤度の正規分布を付与する。また、オペレータが、学習画像に映る第1のサイズを持つ物体および第2のサイズを持つ物体をそれぞれカウントし、学習画像に映る第1のサイズを持つ物体の総数を、第1の物体数の正解とし、学習画像に映る第2のサイズを持つ物体の総数を、第2の物体数の正解とする。
第1正解尤度マップの各座標における尤度は、第1のサイズを有する物体が、学習画像における対応する位置に存在する確率を示す。第2正解尤度マップの各座標における尤度は、第2のサイズを有する物体が、学習画像における対応する位置に存在する確率を示す。
第1の物体数の正解は、学習画像に含まれる第1のサイズを持つ物体の総数を示す。第2の物体数の正解は、学習画像に含まれる第2のサイズを持つ物体の総数を示す。このほか、物体位置推定装置7は、後述の物体位置推定装置7aに示される学習データ生成部42を備え、学習データ生成部42は各正解値を生成してもよい。
学習部41は、第1特徴抽出部21に学習画像を入力し、第1位置尤度推定部23及び第2位置尤度推定部24から出力される第1尤度マップ/第2尤度マップと、学習データに含まれる正解値(第1正解尤度マップ/第2正解尤度マップ)との誤差を、第1の損失として算出する。また、学習部41は、第1特徴抽出部21に学習画像を入力したときに第1計数部25及び第2計数部26から出力される第1の物体数/第2の物体数と、学習データに含まれる他の正解値(第1の物体数の正解、および第2の物体数の正解)との誤差を、第2の損失として算出する。
学習部41は、第1の損失および第2の損失の少なくとも一方を低減するように、物体位置推定装置7の各部を学習させる。
具体的には、学習部41は、第1の損失および第2の損失の少なくとも一方に基づいて、物体位置推定装置7の各部(学習部41を除く)のパラメータを更新する。一例では、学習部41は、第1位置尤度推定部23が出力する第1尤度マップと、第1正解尤度マップとが一致するように、物体位置推定装置7の各部を学習させる。それとともに、学習部41は、第2位置尤度推定部24が出力する第2尤度マップと、第2正解尤度マップとが一致するように、物体位置推定装置7の各部を学習させる。
さらに、学習部41は、第1計数部25が計数した第1の物体数と、第1の物体数の正解とが一致するように、物体位置推定装置7の各部を学習させる。さらに加えて、学習部41は、第2計数部26が計数した第2の物体数と、第2の物体数の正解とが一致するように、物体位置推定装置7の各部を学習させる。
なお、学習画像における物体の配置の偏りが大きい場合があり得る。そのような場合、学習部41は、第1尤度マップ/第2尤度マップにおける一部の座標のみにおける誤差を最小化するように、物体位置推定装置7の各部を学習させてもよい。ここで説明した例を、物体位置推定装置6の変形例2に示している。
(物体位置推定装置7a)
図13は、本実施形態7の一変形例に係わる物体位置推定装置7aの構成を示すブロック図である。本変形例に係わる物体位置推定装置7aは、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24と、第1計数部25と、第2計数部26と、学習部41とを備える。物体位置推定装置7aは、学習データ生成部42をさらに有する。本変形例に係わる物体位置推定装置7aは、学習データ生成部42をさらに備えている点で、物体位置推定装置7とは構成が異なる。
前記実施形態6aと同様に、学習データ生成部42は、対象画像70中の第1のサイズを持つ物体の位置/第2のサイズを持つ物体の位置の推定に係わる学習を行うための学習データ(教師データ)を生成する。学習データ生成部42が生成する学習データは、学習画像、物体情報、および正解値を含む。
本変形例に係わる学習データ生成部42は、第1の物体数の正解、および第2の物体数の正解を正解値として含む学習データを生成する。この点において、物体位置推定装置7aの学習データ生成部42は、物体位置推定装置6aの学習データ生成部42とは異なる。物体位置推定装置7aの学習データ生成部42は、前記実施形態6の一変形例に係わる物体位置推定装置6aの学習データ生成部42の処理の中で得られる第1のサイズを持つ物体の総数、および第2のサイズを持つ物体の総数を用いて、第1の物体数の正解、および第2の物体数の正解をそれぞれ生成する。第1のサイズを持つ物体の総数、および第2のサイズを持つ物体の総数は、前記実施形態6の一変形例に係わる物体位置推定装置6aの学習データ生成部42について説明したように、第1正解尤度マップおよび第2正解尤度マップの正規化を行うためのカウント処理で得られる。
(本実施形態の効果)
本実施形態の構成によれば、本実施形態7に係わる物体位置推定装置7、およびその一変形例に係わる物体位置推定装置7aは、それぞれ、第1特徴抽出部21、および第2特徴抽出部22において、後段に同時に複数の部が接続されるように構成され、学習において、第1特徴抽出部21、および第2特徴抽出部22は、複数の部の影響を受けて適切にパラメータが更新される。さらに、第1特徴抽出部21および第2特徴抽出部22は、後段に接続された複数の部の共通部分として機能し、また第1特徴抽出部21および第2特徴抽出部22は、同時に学習される。これにより、物体位置推定装置7、7aにおける物体の位置を推定する精度、および物体を計数する精度を向上させるとともに、学習速度を向上させることもできる。
〔ハードウェア構成〕
図14は、前記実施形態1に係わる物体位置推定装置1のハードウェア構成を示す。物体位置推定装置1の各構成は、コンピュータ100が物体位置推定用プログラム101(以下、単にプログラム101と記載する)を読み込んで実行する機能として実現される。図14を参照すると、画像取得装置90が、コンピュータ100に接続されている。また、コンピュータ100が読み取り可能なプログラム101を記憶した記録媒体102が、コンピュータ100に接続されている。
記録媒体102は、磁気ディスクまたは半導体メモリ等で構成される。コンピュータ100は、例えば起動時に、記録媒体102に格納されたプログラム101を読み取る。プログラム101は、コンピュータ100の動作を制御することにより、そのコンピュータ100を前述した本発明の実施形態1に係る物体位置推定装置1内の各部として機能させる。
ここでは、前記実施形態1に係わる物体位置推定装置1をコンピュータ100とプログラム101とで実現する構成を説明した。ただし、前記実施形態2~7に係わる物体位置推定装置2~7(7a)をコンピュータ100とプログラム101とで実現することも可能である。
〔付記〕
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の構成を組み合わせた構成や、上記以外の様々な構成を採用することもできる。上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
対象画像に対して、畳み込み演算処理を行うことにより、第1特徴マップを生成する第1特徴抽出手段と、前記第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、第2特徴マップを生成する第2特徴抽出手段とを含む特徴抽出手段と、
前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する第1位置尤度推定手段と、前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する第2位置尤度推定手段とを含む尤度マップ推定手段と
を備えた物体位置推定装置。
(付記2)
前記第1尤度マップ上の各座標は、前記対象画像上の一つの位置にそれぞれ対応しており、前記第1尤度マップ上の各座標における尤度は、前記対象画像上の対応する前記一つの位置に第1のサイズを持つ物体が存在する確率を示す、もしくは追加で前記対象画像上に存在する第1のサイズを持つ物体の数を示し、
前記第2尤度マップ上の各座標は、前記対象画像上の一つの位置にそれぞれ対応しており、前記第2尤度マップ上の各座標における尤度は、前記対象画像上の対応する前記一つの位置に第2のサイズを持つ物体が存在する確率を示す、もしくは追加で前記対象画像上に存在する第2のサイズを持つ物体の数を示す
ことを特徴とする付記1に記載の物体位置推定装置。
(付記3)
前記第1位置尤度推定手段は、前記第1のサイズを有する物体の属性ごとに、前記第1のサイズを持つ物体の位置をそれぞれ推定し、
前記第2位置尤度推定手段は、前記第2のサイズを持つ物体の属性ごとに、前記第2のサイズを持つ物体の位置をそれぞれ推定する
ことを特徴とする付記1または2に記載の物体位置推定装置。
(付記4)
前記第1特徴マップに基づいて、前記対象画像において、前記第1のサイズを持つ物体の総数を計数する第1計数手段と、
前記第2特徴マップに基づいて、前記対象画像において、前記第2のサイズを持つ物体の総数を計数する第2計数手段と、をさらに備えた
ことを特徴とする付記1から3のいずれかに記載の物体位置推定装置。
(付記5)
前記第1尤度マップにおいて尤度の極大値を示す座標に基づいて、前記対象画像において、前記第1のサイズを持つ物体の位置を特定する第1位置特定手段と、
前記第2尤度マップにおいて尤度の極大値を示す座標に基づいて、前記対象画像において、前記第2のサイズを持つ物体の位置を特定する第2位置特定手段とをさらに備えた
ことを特徴とする付記1から4のいずれかに記載の物体位置推定装置。
(付記6)
前記第1位置特定手段は、
前記第1尤度マップの全体の尤度の合計から、前記対象画像において、前記第1のサイズを持つ物体の総数を算出し、もしくは、前記第1計数手段から、前記対象画像において、前記第1のサイズを持つ物体の総数を計数し、
前記第1尤度マップにおいて尤度の極大値を示す座標のうち、前記第1のサイズを持つ物体の総数と同数の座標を、前記尤度の極大値が大きい順に抽出し、
抽出した前記尤度の極大値を示す座標に基づいて、前記対象画像において前記第1のサイズを持つ物体の位置を特定し、
前記第2位置特定手段は、
前記第2尤度マップの全体の尤度の合計から、前記対象画像において、前記第2のサイズを持つ物体の総数を算出し、もしくは、前記第2計数手段から、前記対象画像において、前記第1のサイズを持つ物体の総数を計数し、
前記第2尤度マップにおいて尤度の極大値を示す座標のうち、前記第2のサイズを持つ物体の総数と同数の座標を、前記尤度の極大値が大きい順に抽出し、
抽出した前記尤度の極大値を示す座標に基づいて、前記対象画像において前記第2のサイズを持つ物体の位置を特定する
ことを特徴とする付記5に記載の物体位置推定装置。
(付記7)
前記第1位置尤度推定手段および前記第2位置尤度推定手段から出力される前記第1尤度マップおよび前記第2尤度マップにおいて、予め得られた正解値に対する誤差が小さくなるように、前記物体位置推定装置の各部に学習させる学習手段をさらに備えた
ことを特徴とする付記1から6のいずれかに記載の物体位置推定装置。
(付記8)
学習画像および物体情報に基づいて、前記学習手段による学習に用いられる学習データを生成する学習データ生成手段をさらに備え、
前記学習データは、前記学習画像、物体情報、及び正解値を含み、
前記正解値は、第1正解尤度マップおよび第2正解尤度マップを含み、
前記第1正解尤度マップは、前記学習画像において、第1のサイズを有する物体についての位置および物体領域の広がりを示し、前記第2正解尤度マップは、前記学習画像において、第2のサイズを有する物体についての位置および物体領域の広がりを示す
ことを特徴とする付記7に記載の物体位置推定装置。
(付記9)
前記学習手段は、前記学習データに含まれる前記第1正解尤度マップおよび前記第2正解尤度マップを前記正解値として用いて、前記正解値に対する、前記第1尤度マップおよび前記第2尤度マップの誤差を示す第1の損失を算出する
ことを特徴とする付記8に記載の物体位置推定装置。
(付記10)
前記第1のサイズは、第1最小サイズから第1最大サイズまでの第1所定範囲内における任意のサイズであり、
前記第2のサイズは、第2最小サイズから第2最大サイズまでの第2所定範囲内における任意のサイズであり、前記第1所定範囲と前記第2所定範囲とは重複せず、前記第2のサイズは前記第1のサイズよりも大きい
ことを特徴とする付記1から9のいずれかに記載の物体位置推定装置。
(付記11)
前記第1のサイズおよび第2のサイズは、第1特徴マップおよび第2特徴マップのデータサイズの逆数に比例する
ことを特徴とする付記1から10のいずれかに記載の物体位置推定装置。
(付記12)
対象画像に対して、畳み込み演算処理を行うことにより、第1特徴マップを生成するともに、前記第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、第2特徴マップを生成し、
前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定するとともに、前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する
ことを含む物体位置推定方法。
(付記13)
対象画像に対して、畳み込み演算処理を行うことにより、第1特徴マップを生成することと、前記第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、第2特徴マップを生成することと、
前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定することと、前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定することと
をコンピュータに実行させるための、一時的でない記録媒体。
本発明は、映像監視システムにおいて、撮影又は録画された映像から、不審者または不審物を発見したり、不審な行動または状態を検知したりといった用途に利用できる。また、本発明は、動線解析または行動解析といったマーケティングでの用途に適用できる。加えて、本発明は、撮影又は録画された映像から、物体の位置を推定し、推定した2次元空間または3次元空間の位置情報を入力するためのユーザインタフェースといった用途に適用できる。この他、本発明は、物体の位置の推定結果とその位置をトリガ・キーとするビデオ/映像検索装置または映像探索機能といった用途にも適用できる。
1 物体位置推定装置
2(2a)物体位置推定装置
3 物体位置推定装置
4 物体位置推定装置
5 物体位置推定装置
6(6a)物体位置推定装置
7 物体位置推定装置
10 特徴抽出部
20 尤度マップ推定部
21 第1特徴抽出部
22 第2特徴抽出部
23 第1位置尤度推定部
24 第2位置尤度推定部
25 第1計数部
26 第2計数部
27 第1位置特定部
28 第2位置特定部
29 第1位置特定部
30 第2位置特定部
41 学習部
42 学習データ生成部
80 第1特徴マップ
81 第2特徴マップ
90 画像取得装置

Claims (7)

  1. 対象画像に対して、第1のフィルタを用いて、畳み込み演算処理を行うことにより、前記対象画像から第1特徴マップを生成する第1特徴抽出手段と、前記第1特徴マップに対して、第2のフィルタを用いて、畳み込み演算処理をさらに行うことにより、前記第1特徴マップから第2特徴マップを生成する第2特徴抽出手段とを含む特徴抽出手段と、
    前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する第1位置尤度推定手段と、
    前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する第2位置尤度推定手段と、
    を含む尤度マップ推定手段と、
    を備え、
    前記第1のサイズは、物体の第1基準サイズに基づいて定められた第1最小サイズから第1最大サイズまでの第1所定範囲内における任意のサイズであり、
    前記第2のサイズは、物体の第2基準サイズに基づいて定められた第2最小サイズから第2最大サイズまでの第2所定範囲内における任意のサイズであり、前記第1所定範囲と前記第2所定範囲とは重複せず、前記第2のサイズは前記第1のサイズよりも大きい
    物体位置推定装置。
  2. 前記第1尤度マップ上の各座標は、前記対象画像上の一つの位置にそれぞれ対応しており、前記第1尤度マップ上の各座標における尤度は、前記対象画像上の対応する前記一つの位置に前記第1のサイズを持つ物体が存在する確率を示す、もしくは追加で前記対象画像上に存在する前記第1のサイズを持つ物体の数を示し、
    前記第2尤度マップ上の各座標は、前記対象画像上の一つの位置にそれぞれ対応しており、前記第2尤度マップ上の各座標における尤度は、前記対象画像上の対応する前記一つの位置に前記第2のサイズを持つ物体が存在する確率を示す、もしくは追加で前記対象画像上に存在する前記第2のサイズを持つ物体の数を示す
    ことを特徴とする請求項1に記載の物体位置推定装置。
  3. 前記第1位置尤度推定手段は、前記第1のサイズを有する物体の属性ごとに、前記第1のサイズを持つ物体の位置をそれぞれ推定し、
    前記第2位置尤度推定手段は、前記第2のサイズを有する物体の属性ごとに、前記第2のサイズを持つ物体の位置をそれぞれ推定する
    ことを特徴とする請求項1または2に記載の物体位置推定装置。
  4. 前記第1特徴マップに基づいて、前記対象画像において、前記第1のサイズを持つ物体の総数を計数する第1計数手段と、
    前記第2特徴マップに基づいて、前記対象画像において、前記第2のサイズを持つ物体の総数を計数する第2計数手段と、をさらに備えた
    ことを特徴とする請求項1から3のいずれか1項に記載の物体位置推定装置。
  5. 前記第1尤度マップにおいて尤度の極大値を示す座標に基づいて、前記対象画像において、前記第1のサイズを持つ物体の位置を特定する第1位置特定手段と、
    前記第2尤度マップにおいて尤度の極大値を示す座標に基づいて、前記対象画像において、前記第2のサイズを持つ物体の位置を特定する第2位置特定手段とをさらに備え、
    前記第1位置特定手段は、
    前記第1尤度マップの全体の尤度の合計から、前記対象画像において、前記第1のサイズを持つ物体の総数を算出し、もしくは、前記対象画像において、前記第1のサイズを持つ物体の総数を計数し、
    前記第1尤度マップにおいて尤度の極大値を示す座標のうち、前記第1のサイズを持つ物体の総数と同数の座標を、前記尤度の極大値が大きい順に抽出し、
    抽出した前記尤度の極大値を示す座標に基づいて、前記対象画像において前記第1のサイズを持つ物体の位置を特定し、
    前記第2位置特定手段は、
    前記第2尤度マップの全体の尤度の合計から、前記対象画像において、前記第2のサイズを持つ物体の総数を算出し、もしくは、前記対象画像において、前記第1のサイズを持つ物体の総数を計数し、
    前記第2尤度マップにおいて尤度の極大値を示す座標のうち、前記第2のサイズを持つ物体の総数と同数の座標を、前記尤度の極大値が大きい順に抽出し、
    抽出した前記尤度の極大値を示す座標に基づいて、前記対象画像において前記第2のサイズを持つ物体の位置を特定する
    ことを特徴とする請求項1から4のいずれ1項に記載の物体位置推定装置。
  6. 前記第1位置尤度推定手段および前記第2位置尤度推定手段から出力される前記第1尤度マップおよび前記第2尤度マップにおいて、予め得られた正解値に対する誤差が小さくなるように、前記物体位置推定装置の各部に学習させる学習手段をさらに備え、
    学習画像および物体情報に基づいて、前記学習手段による学習に用いられる学習データを生成する学習データ生成手段をさらに備え、
    前記学習データは、前記学習画像、物体情報、及び正解値を含み、
    前記正解値は、第1正解尤度マップおよび第2正解尤度マップを含み、
    前記第1正解尤度マップは、前記学習画像において、前記第1のサイズを有する物体についての位置および物体領域の広がりを示し、前記第2正解尤度マップは、前記学習画像において、前記第2のサイズを有する物体についての位置および物体領域の広がりを示し、
    前記学習手段は、前記学習データに含まれる前記第1正解尤度マップおよび前記第2正解尤度マップを前記正解値として用いて、前記正解値に対する、前記第1尤度マップおよび前記第2尤度マップの誤差を示す第1の損失を算出する
    ことを特徴とする請求項1から5のいずれか1項に記載の物体位置推定装置。
  7. 前記第1のサイズおよび前記第2のサイズは、前記第1特徴マップおよび前記第2特徴マップのデータサイズの逆数に比例する
    ことを特徴とする請求項1からのいずれか1項に記載の物体位置推定装置。
JP2022531267A 2020-06-23 2020-06-23 物体位置推定装置 Active JP7448006B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/024494 WO2021260780A1 (ja) 2020-06-23 2020-06-23 物体位置推定装置、物体位置推定方法、および記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021260780A1 JPWO2021260780A1 (ja) 2021-12-30
JPWO2021260780A5 JPWO2021260780A5 (ja) 2023-02-22
JP7448006B2 true JP7448006B2 (ja) 2024-03-12

Family

ID=79282715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022531267A Active JP7448006B2 (ja) 2020-06-23 2020-06-23 物体位置推定装置

Country Status (4)

Country Link
US (1) US20230230277A1 (ja)
JP (1) JP7448006B2 (ja)
CN (1) CN115720664A (ja)
WO (1) WO2021260780A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11842509B2 (en) * 2019-12-24 2023-12-12 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032773A (ja) 2017-08-09 2019-02-28 キヤノン株式会社 画像処理装置、画像処理方法
JP2019139618A (ja) 2018-02-14 2019-08-22 キヤノン株式会社 情報処理装置、被写体の判別方法及びコンピュータプログラム
JP2020016928A (ja) 2018-07-23 2020-01-30 株式会社東芝 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2020027405A (ja) 2018-08-10 2020-02-20 コニカミノルタ株式会社 物体検出プログラム、および物体検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032773A (ja) 2017-08-09 2019-02-28 キヤノン株式会社 画像処理装置、画像処理方法
JP2019139618A (ja) 2018-02-14 2019-08-22 キヤノン株式会社 情報処理装置、被写体の判別方法及びコンピュータプログラム
JP2020016928A (ja) 2018-07-23 2020-01-30 株式会社東芝 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2020027405A (ja) 2018-08-10 2020-02-20 コニカミノルタ株式会社 物体検出プログラム、および物体検出装置

Also Published As

Publication number Publication date
JPWO2021260780A1 (ja) 2021-12-30
CN115720664A (zh) 2023-02-28
US20230230277A1 (en) 2023-07-20
WO2021260780A1 (ja) 2021-12-30

Similar Documents

Publication Publication Date Title
US9430701B2 (en) Object detection system and method
KR101381455B1 (ko) 생체 정보 처리 장치
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US20070174272A1 (en) Facial Recognition in Groups
US20150347820A1 (en) Learning Deep Face Representation
US10353954B2 (en) Information processing apparatus, method of controlling the same, and storage medium
JP2004199669A (ja) 顔検出
WO2009109127A1 (en) Real-time body segmentation system
JP2013210968A (ja) 物体検出装置及びその方法、プログラム
JP2004192637A (ja) 顔検出
JP2003030667A (ja) イメージ内で目を自動的に位置決めする方法
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP2011134114A (ja) パターン認識方法およびパターン認識装置
US10762133B2 (en) Information processing apparatus, method of controlling the same, and storage medium
CN110879982A (zh) 一种人群计数系统及方法
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
Uddin et al. Horse detection using haar like features
CN109934129B (zh) 一种人脸特征点定位方法、装置、计算机设备及存储介质
JP2007213528A (ja) 行動認識システム
KR20190071452A (ko) 객체 검출 장치 및 방법
JP7448006B2 (ja) 物体位置推定装置
JP2014021602A (ja) 画像処理装置及び画像処理方法
JP7383435B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2006293720A (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
JP4099981B2 (ja) 画像認識システム、画像認識方法および画像認識プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240111

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R151 Written notification of patent or utility model registration

Ref document number: 7448006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151