JP7448006B2 - 物体位置推定装置 - Google Patents
物体位置推定装置 Download PDFInfo
- Publication number
- JP7448006B2 JP7448006B2 JP2022531267A JP2022531267A JP7448006B2 JP 7448006 B2 JP7448006 B2 JP 7448006B2 JP 2022531267 A JP2022531267 A JP 2022531267A JP 2022531267 A JP2022531267 A JP 2022531267A JP 7448006 B2 JP7448006 B2 JP 7448006B2
- Authority
- JP
- Japan
- Prior art keywords
- likelihood
- size
- map
- target image
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 claims description 115
- 238000012545 processing Methods 0.000 claims description 53
- 238000004364 calculation method Methods 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 30
- 230000004048 modification Effects 0.000 description 25
- 238000012986 modification Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 19
- 238000009826 distribution Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 10
- 239000000284 extract Substances 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Description
図1を参照して、実施形態1について説明する。
図1を参照して、本実施形態1に係わるシステムについて説明する。図1は、本実施形態1に係わるシステムの構成を概略的に示す。図1に示すように、本実施形態1に係わるシステムは、画像取得装置90および物体位置推定装置1を備えている。画像取得装置90は、1または複数の画像を取得する。例えば、画像取得装置90は、カメラ等の映像装置から出力される静止画像、または、ビデオ等の映像装置から出力される動画の画像フレームを取得する。
図1に示すように、物体位置推定装置1は、特徴抽出部10および尤度マップ推定部20を備えている。尤度マップ推定部20は、尤度マップ推定手段の一例である。
本実施形態の構成によれば、特徴抽出部10の第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップを生成する。特徴抽出部10の第2特徴抽出部22は、第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップを生成する。尤度マップ推定部20の第1位置尤度推定部23は、第1特徴マップを用いて、画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。尤度マップ推定部20の第2位置尤度推定部24は、第2特徴マップを用いて、画像の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
図2から図3を参照して、実施形態2について説明する。
図2に示すように、物体位置推定装置2は、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備えている。
図2では、物体位置推定装置2の第1特徴抽出部21、第2特徴抽出部22、第1位置尤度推定部23、および、第2位置尤度推定部24は、別々の機能ブロックとして示されている。しかしながら、第1特徴抽出部21、第2特徴抽出部22、第1位置尤度推定部23、および、第2位置尤度推定部24は、一つの統合されたネットワークを構成していてもよい。
基準サイズ及び所定範囲について補足する。上記に示す通り、各基準サイズは、各特徴マップのデータサイズに基づいて定められ、具体的には、各基準サイズは、各特徴マップのデータサイズの逆数に比例するサイズで定められる。基準サイズと所定範囲は、比例の関係である。したがって、各所定範囲は各特徴マップのデータサイズの逆数に比例するサイズで定められる。
図3を参照して、本実施形態2に係わる物体位置推定装置2の動作について詳細に説明する。図3は、物体位置推定装置2の動作を示すフローチャートである。
図4は、本変形例1に係わる物体位置推定装置2aの構成を示す。図4に示すように、物体位置推定装置2aは、特徴抽出部および位置尤度推定部を、それぞれn(nは3以上の整数)個ずつ備える。第1特徴マップは、対象画像に対して、第1特徴抽出部が畳み込み演算処理を行うことによって得られる。第2特徴マップ、第3の特徴マップ、・・・第nの特徴マップは、それぞれ、前段の特徴マップに対して、第i特徴抽出部が畳み込み演算処理を行うことによって得られる。ここでiは2からnまでのいずれかの整数である。
変形例2において、第1位置尤度推定部23および第2位置尤度推定部24は、予め分類された物体の属性ごとに、物体の位置をそれぞれ推定する。そして、第1位置尤度推定部23および第2位置尤度推定部24は、物体の属性ごとに、第1尤度マップ/第2尤度マップを推定し、推定した第1尤度マップ/第2尤度マップを出力する。
本実施形態の構成によれば、特徴抽出部10の第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップを生成する。特徴抽出部10の第2特徴抽出部22は、第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップを生成する。尤度マップ推定部20の第1位置尤度推定部23は、第1特徴マップを用いて、画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。尤度マップ推定部20の第2位置尤度推定部24は、第2特徴マップを用いて、画像の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
図5を参照して、実施形態3について説明する。
図5は、本実施形態3に係わる物体位置推定装置3の構成を示すブロック図である。図5に示すように、物体位置推定装置3は、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備える。それに加えて、物体位置推定装置3は、第1計数部25および第2計数部26をさらに有する。前記実施形態2の変形例に係わる物体位置推定装置2aと同様に、本実施形態3の一変形例に係る物体位置推定装置3は、特徴抽出部および位置尤度推定部を、それぞれ3つ以上有していてもよい。その場合、特徴抽出部及び位置尤度推定の数に応じた数の計数部を追加する。第1計数部25および第2計数部26は、第1計数手段および第2計数手段の一例である。
本実施形態の構成によれば、第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップ80を生成する。第2特徴抽出部22は、第1特徴マップ80に対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップ81を生成する。第1位置尤度推定部23は、第1特徴マップ80を用いて、対象画像70の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。第2位置尤度推定部24は、第2特徴マップ81を用いて、対象画像70の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
図6を参照して、実施形態4について説明する。
図6は、本実施形態4に係わる物体位置推定装置4の構成を示すブロック図である。図6に示すように、物体位置推定装置4は、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備える。それに加えて、物体位置推定装置4は、第1位置特定部27および第2位置特定部28をさらに備える。なお、前記実施形態2の変形例に係わる物体位置推定装置2aと同様に、本実施形態4の一変形例に係る物体位置推定装置4は、特徴抽出部および位置尤度推定部を、それぞれ3つ以上有していてもよい。その場合、特徴抽出部及び位置尤度推定の数に応じた数の位置特定部を追加する。第1位置特定部27および第2位置特定部28は、第1位置特定手段および第2位置特定手段の一例である。
第1位置特定部27は、第1尤度マップから抽出された尤度の極大値を示す座標のうち、所定値以上の尤度を持つ座標をさらに抽出してもよい。これにより、第1位置特定部27は、第1のサイズを持つ物体と対応しない極大値を排除することができる。第1位置特定部27は、このようにして抽出された座標と対応する対象画像70における位置に、第1のサイズを有する物体が存在すると特定する。
本実施形態の構成によれば、第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップ80を生成する。第2特徴抽出部22は、第1特徴マップ80に対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップ81を生成する。第1位置尤度推定部23は、第1特徴マップ80を用いて、対象画像70の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。第2位置尤度推定部24は、第2特徴マップ81を用いて、対象画像70の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
図7を参照して、実施形態5について説明する。
図7は、本実施形態5に係わる物体位置推定装置5の構成を示すブロック図である。図7に示すように、物体位置推定装置5は、実施形態3と同様に、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24と、第1計数部25と、第2計数部16とを備える。それに加えて、物体位置推定装置5は、第1位置特定部29と第2位置特定部30とをさらに有する。なお、物体位置推定装置5は、特徴抽出部、位置尤度推定部、および計数部を、それぞれ3つ以上有していてもよい。その場合、特徴抽出部、位置尤度推定および計数部の数に応じた数の位置特定部を追加する。
本実施形態の構成によれば、第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップ80を生成する。第2特徴抽出部22は、第1特徴マップ80に対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップ81を生成する。第1位置尤度推定部23は、第1特徴マップ80を用いて、対象画像70の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。第2位置尤度推定部24は、第2特徴マップ81を用いて、対象画像70の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
図8から図9を参照して、実施形態6について説明する。
図8は、本実施形態6に係わる物体位置推定装置6の構成を示すブロック図である。物体位置推定装置6は、以下で説明する点を除き、前記実施形態2に係わる物体位置推定装置2と同等の機能を有する。
学習部41は、予め準備された学習データ(すなわち教師データ)を利用して、物体位置推定装置6の各部(ただし学習部41を除く)の学習を行う。学習データは、学習画像、物体情報、第1正解尤度マップ、および第2正解尤度マップを含む。
物体位置推定装置6の各部(学習部41を除く)のパラメータが更新された後、物体位置推定装置6の各部は、別の学習データを用いて、第1尤度マップ/第2尤度マップを推定し出力する。第1位置尤度推定部23/第2位置尤度推定部24の出力から、学習部41へ、第1尤度マップ/第2尤度マップがフィードバックされる。学習部41は、フィードバックされた情報(すなわち第1尤度マップ/第2尤度マップ)に基づいて、物体位置推定装置6の各部(学習部41を除く)のパラメータを再び更新する。
図9を参照して、本実施形態6に係わる物体位置推定装置6の動作を説明する。図9は、物体位置推定装置6の動作の流れを示すフローチャートである。ここでは、物体位置推定装置6が単一の学習データを用いて学習を行う場合を説明する。なお、複数の学習データが存在する場合、物体位置推定装置6は、図9に示すステップS20からS23までの処理を繰り返し、学習データごとに実行する。
変形例1では、学習データの物体情報は、物体の位置およびサイズに加え、その物体の属性も示す。学習部41は、学習データとして、第1のサイズを有する物体の位置を示す確率である第1正解尤度マップと、第2のサイズを有する物体の位置を示す確率である第2正解尤度マップを、物体の属性ごとに用意する。そして、学習部41は、学習画像と、属性毎の第1のサイズを有する物体の位置を示す確率である第1正解尤度マップと、属性毎の第2のサイズを有する物体の位置を示す確率である第2正解尤度マップとを用いて、上述した方法(図9)によって、物体位置推定装置6の各部の学習を実行する。
学習画像中の物体の総数が少なかったり、あるいは物体の配置の偏りが大きかったりする場合、学習が正しく進行しない可能性がある。具体的には、学習データである第1正解尤度マップまたは第2正解尤度マップにおいて、尤度が0である座標が多く存在する場合がある。
図10は、本実施形態6の一変形例に係わる物体位置推定装置6aの構成を示すブロック図である。本変形例に係わる物体位置推定装置6aは、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備える。物体位置推定装置6aは、学習部41および学習データ生成部42をさらに有する。学習データ生成部42は、学習データ生成手段の一例である。物体位置推定装置6aは、学習データ生成部42をさらに備えている点で、上述した物体位置推定装置6とは構成が異なる。
学習データ生成部42は、学習部41が学習を行うための学習データ(教師データ)を生成する。
また、学習データ生成部42は、第1正解尤度マップ/第2正解尤度マップ上における正規分布の広がりを、パラメータによって規定する。例えば、パラメータは、正規分布を示す関数の中心(平均)と分散のパラメータであってよい。この場合、正規分布を示す関数の中心を、物体の位置を示す値(例えば物体領域の中心または重心)とし、正規分布を示す関数の分散を、物体領域の大きさに対応した値にしてもよい。また、正規分布を示す関数の中心の値が1になるように、正規分布を示す関数の形を設定してもよい。
本実施形態の構成によれば、第1特徴抽出部21は、対象画像70に対して、畳み込み演算処理を行うことにより、物体の特徴を示す第1特徴マップ80を生成する。第2特徴抽出部22は、第1特徴マップ80に対して、畳み込み演算処理をさらに行うことにより、物体の特徴を示す第2特徴マップ81を生成する。第1位置尤度推定部23は、第1特徴マップ80を用いて、対象画像70の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する。第2位置尤度推定部24は、第2特徴マップ81を用いて、対象画像70の各位置において、第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する。
実施形態7について、図12から図13を参照して詳細に説明する。
図12は、本実施形態7に係わる物体位置推定装置7の構成を例示するブロック図である。図12に示すように、物体位置推定装置7は、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24とを備える。物体位置推定装置7は、学習部41を備える。それに加えて、物体位置推定装置7は、第1計数部25および第2計数部26をさらに有する。例えば、物体位置推定装置7の各部は、個別に、または一体で、畳み込みニューラルネットワーク等のニューラルネットワークで実現される。
学習部41は、予め準備された学習データ(すなわち教師データ)を用いて、物体位置推定装置7が備える各部(学習部41を除く)の学習を行う。
図13は、本実施形態7の一変形例に係わる物体位置推定装置7aの構成を示すブロック図である。本変形例に係わる物体位置推定装置7aは、第1特徴抽出部21と、第2特徴抽出部22と、第1位置尤度推定部23と、第2位置尤度推定部24と、第1計数部25と、第2計数部26と、学習部41とを備える。物体位置推定装置7aは、学習データ生成部42をさらに有する。本変形例に係わる物体位置推定装置7aは、学習データ生成部42をさらに備えている点で、物体位置推定装置7とは構成が異なる。
本実施形態の構成によれば、本実施形態7に係わる物体位置推定装置7、およびその一変形例に係わる物体位置推定装置7aは、それぞれ、第1特徴抽出部21、および第2特徴抽出部22において、後段に同時に複数の部が接続されるように構成され、学習において、第1特徴抽出部21、および第2特徴抽出部22は、複数の部の影響を受けて適切にパラメータが更新される。さらに、第1特徴抽出部21および第2特徴抽出部22は、後段に接続された複数の部の共通部分として機能し、また第1特徴抽出部21および第2特徴抽出部22は、同時に学習される。これにより、物体位置推定装置7、7aにおける物体の位置を推定する精度、および物体を計数する精度を向上させるとともに、学習速度を向上させることもできる。
図14は、前記実施形態1に係わる物体位置推定装置1のハードウェア構成を示す。物体位置推定装置1の各構成は、コンピュータ100が物体位置推定用プログラム101(以下、単にプログラム101と記載する)を読み込んで実行する機能として実現される。図14を参照すると、画像取得装置90が、コンピュータ100に接続されている。また、コンピュータ100が読み取り可能なプログラム101を記憶した記録媒体102が、コンピュータ100に接続されている。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の構成を組み合わせた構成や、上記以外の様々な構成を採用することもできる。上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
対象画像に対して、畳み込み演算処理を行うことにより、第1特徴マップを生成する第1特徴抽出手段と、前記第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、第2特徴マップを生成する第2特徴抽出手段とを含む特徴抽出手段と、
前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する第1位置尤度推定手段と、前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する第2位置尤度推定手段とを含む尤度マップ推定手段と
を備えた物体位置推定装置。
前記第1尤度マップ上の各座標は、前記対象画像上の一つの位置にそれぞれ対応しており、前記第1尤度マップ上の各座標における尤度は、前記対象画像上の対応する前記一つの位置に第1のサイズを持つ物体が存在する確率を示す、もしくは追加で前記対象画像上に存在する第1のサイズを持つ物体の数を示し、
前記第2尤度マップ上の各座標は、前記対象画像上の一つの位置にそれぞれ対応しており、前記第2尤度マップ上の各座標における尤度は、前記対象画像上の対応する前記一つの位置に第2のサイズを持つ物体が存在する確率を示す、もしくは追加で前記対象画像上に存在する第2のサイズを持つ物体の数を示す
ことを特徴とする付記1に記載の物体位置推定装置。
前記第1位置尤度推定手段は、前記第1のサイズを有する物体の属性ごとに、前記第1のサイズを持つ物体の位置をそれぞれ推定し、
前記第2位置尤度推定手段は、前記第2のサイズを持つ物体の属性ごとに、前記第2のサイズを持つ物体の位置をそれぞれ推定する
ことを特徴とする付記1または2に記載の物体位置推定装置。
前記第1特徴マップに基づいて、前記対象画像において、前記第1のサイズを持つ物体の総数を計数する第1計数手段と、
前記第2特徴マップに基づいて、前記対象画像において、前記第2のサイズを持つ物体の総数を計数する第2計数手段と、をさらに備えた
ことを特徴とする付記1から3のいずれかに記載の物体位置推定装置。
前記第1尤度マップにおいて尤度の極大値を示す座標に基づいて、前記対象画像において、前記第1のサイズを持つ物体の位置を特定する第1位置特定手段と、
前記第2尤度マップにおいて尤度の極大値を示す座標に基づいて、前記対象画像において、前記第2のサイズを持つ物体の位置を特定する第2位置特定手段とをさらに備えた
ことを特徴とする付記1から4のいずれかに記載の物体位置推定装置。
前記第1位置特定手段は、
前記第1尤度マップの全体の尤度の合計から、前記対象画像において、前記第1のサイズを持つ物体の総数を算出し、もしくは、前記第1計数手段から、前記対象画像において、前記第1のサイズを持つ物体の総数を計数し、
前記第1尤度マップにおいて尤度の極大値を示す座標のうち、前記第1のサイズを持つ物体の総数と同数の座標を、前記尤度の極大値が大きい順に抽出し、
抽出した前記尤度の極大値を示す座標に基づいて、前記対象画像において前記第1のサイズを持つ物体の位置を特定し、
前記第2位置特定手段は、
前記第2尤度マップの全体の尤度の合計から、前記対象画像において、前記第2のサイズを持つ物体の総数を算出し、もしくは、前記第2計数手段から、前記対象画像において、前記第1のサイズを持つ物体の総数を計数し、
前記第2尤度マップにおいて尤度の極大値を示す座標のうち、前記第2のサイズを持つ物体の総数と同数の座標を、前記尤度の極大値が大きい順に抽出し、
抽出した前記尤度の極大値を示す座標に基づいて、前記対象画像において前記第2のサイズを持つ物体の位置を特定する
ことを特徴とする付記5に記載の物体位置推定装置。
前記第1位置尤度推定手段および前記第2位置尤度推定手段から出力される前記第1尤度マップおよび前記第2尤度マップにおいて、予め得られた正解値に対する誤差が小さくなるように、前記物体位置推定装置の各部に学習させる学習手段をさらに備えた
ことを特徴とする付記1から6のいずれかに記載の物体位置推定装置。
学習画像および物体情報に基づいて、前記学習手段による学習に用いられる学習データを生成する学習データ生成手段をさらに備え、
前記学習データは、前記学習画像、物体情報、及び正解値を含み、
前記正解値は、第1正解尤度マップおよび第2正解尤度マップを含み、
前記第1正解尤度マップは、前記学習画像において、第1のサイズを有する物体についての位置および物体領域の広がりを示し、前記第2正解尤度マップは、前記学習画像において、第2のサイズを有する物体についての位置および物体領域の広がりを示す
ことを特徴とする付記7に記載の物体位置推定装置。
前記学習手段は、前記学習データに含まれる前記第1正解尤度マップおよび前記第2正解尤度マップを前記正解値として用いて、前記正解値に対する、前記第1尤度マップおよび前記第2尤度マップの誤差を示す第1の損失を算出する
ことを特徴とする付記8に記載の物体位置推定装置。
前記第1のサイズは、第1最小サイズから第1最大サイズまでの第1所定範囲内における任意のサイズであり、
前記第2のサイズは、第2最小サイズから第2最大サイズまでの第2所定範囲内における任意のサイズであり、前記第1所定範囲と前記第2所定範囲とは重複せず、前記第2のサイズは前記第1のサイズよりも大きい
ことを特徴とする付記1から9のいずれかに記載の物体位置推定装置。
(付記11)
前記第1のサイズおよび第2のサイズは、第1特徴マップおよび第2特徴マップのデータサイズの逆数に比例する
ことを特徴とする付記1から10のいずれかに記載の物体位置推定装置。
対象画像に対して、畳み込み演算処理を行うことにより、第1特徴マップを生成するともに、前記第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、第2特徴マップを生成し、
前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定するとともに、前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する
ことを含む物体位置推定方法。
対象画像に対して、畳み込み演算処理を行うことにより、第1特徴マップを生成することと、前記第1特徴マップに対して、畳み込み演算処理をさらに行うことにより、第2特徴マップを生成することと、
前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定することと、前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定することと
をコンピュータに実行させるための、一時的でない記録媒体。
2(2a)物体位置推定装置
3 物体位置推定装置
4 物体位置推定装置
5 物体位置推定装置
6(6a)物体位置推定装置
7 物体位置推定装置
10 特徴抽出部
20 尤度マップ推定部
21 第1特徴抽出部
22 第2特徴抽出部
23 第1位置尤度推定部
24 第2位置尤度推定部
25 第1計数部
26 第2計数部
27 第1位置特定部
28 第2位置特定部
29 第1位置特定部
30 第2位置特定部
41 学習部
42 学習データ生成部
80 第1特徴マップ
81 第2特徴マップ
90 画像取得装置
Claims (7)
- 対象画像に対して、第1のフィルタを用いて、畳み込み演算処理を行うことにより、前記対象画像から第1特徴マップを生成する第1特徴抽出手段と、前記第1特徴マップに対して、第2のフィルタを用いて、畳み込み演算処理をさらに行うことにより、前記第1特徴マップから第2特徴マップを生成する第2特徴抽出手段とを含む特徴抽出手段と、
前記第1特徴マップを用いて、前記対象画像の各位置において、第1のサイズを持つ物体が存在する確率を示す第1尤度マップを推定する第1位置尤度推定手段と、
前記第2特徴マップを用いて、前記対象画像の各位置において、前記第1のサイズよりも大きい第2のサイズを持つ物体が存在する確率を示す第2尤度マップを推定する第2位置尤度推定手段と、
を含む尤度マップ推定手段と、
を備え、
前記第1のサイズは、物体の第1基準サイズに基づいて定められた第1最小サイズから第1最大サイズまでの第1所定範囲内における任意のサイズであり、
前記第2のサイズは、物体の第2基準サイズに基づいて定められた第2最小サイズから第2最大サイズまでの第2所定範囲内における任意のサイズであり、前記第1所定範囲と前記第2所定範囲とは重複せず、前記第2のサイズは前記第1のサイズよりも大きい
物体位置推定装置。 - 前記第1尤度マップ上の各座標は、前記対象画像上の一つの位置にそれぞれ対応しており、前記第1尤度マップ上の各座標における尤度は、前記対象画像上の対応する前記一つの位置に前記第1のサイズを持つ物体が存在する確率を示す、もしくは追加で前記対象画像上に存在する前記第1のサイズを持つ物体の数を示し、
前記第2尤度マップ上の各座標は、前記対象画像上の一つの位置にそれぞれ対応しており、前記第2尤度マップ上の各座標における尤度は、前記対象画像上の対応する前記一つの位置に前記第2のサイズを持つ物体が存在する確率を示す、もしくは追加で前記対象画像上に存在する前記第2のサイズを持つ物体の数を示す
ことを特徴とする請求項1に記載の物体位置推定装置。 - 前記第1位置尤度推定手段は、前記第1のサイズを有する物体の属性ごとに、前記第1のサイズを持つ物体の位置をそれぞれ推定し、
前記第2位置尤度推定手段は、前記第2のサイズを有する物体の属性ごとに、前記第2のサイズを持つ物体の位置をそれぞれ推定する
ことを特徴とする請求項1または2に記載の物体位置推定装置。 - 前記第1特徴マップに基づいて、前記対象画像において、前記第1のサイズを持つ物体の総数を計数する第1計数手段と、
前記第2特徴マップに基づいて、前記対象画像において、前記第2のサイズを持つ物体の総数を計数する第2計数手段と、をさらに備えた
ことを特徴とする請求項1から3のいずれか1項に記載の物体位置推定装置。 - 前記第1尤度マップにおいて尤度の極大値を示す座標に基づいて、前記対象画像において、前記第1のサイズを持つ物体の位置を特定する第1位置特定手段と、
前記第2尤度マップにおいて尤度の極大値を示す座標に基づいて、前記対象画像において、前記第2のサイズを持つ物体の位置を特定する第2位置特定手段とをさらに備え、
前記第1位置特定手段は、
前記第1尤度マップの全体の尤度の合計から、前記対象画像において、前記第1のサイズを持つ物体の総数を算出し、もしくは、前記対象画像において、前記第1のサイズを持つ物体の総数を計数し、
前記第1尤度マップにおいて尤度の極大値を示す座標のうち、前記第1のサイズを持つ物体の総数と同数の座標を、前記尤度の極大値が大きい順に抽出し、
抽出した前記尤度の極大値を示す座標に基づいて、前記対象画像において前記第1のサイズを持つ物体の位置を特定し、
前記第2位置特定手段は、
前記第2尤度マップの全体の尤度の合計から、前記対象画像において、前記第2のサイズを持つ物体の総数を算出し、もしくは、前記対象画像において、前記第1のサイズを持つ物体の総数を計数し、
前記第2尤度マップにおいて尤度の極大値を示す座標のうち、前記第2のサイズを持つ物体の総数と同数の座標を、前記尤度の極大値が大きい順に抽出し、
抽出した前記尤度の極大値を示す座標に基づいて、前記対象画像において前記第2のサイズを持つ物体の位置を特定する
ことを特徴とする請求項1から4のいずれ1項に記載の物体位置推定装置。 - 前記第1位置尤度推定手段および前記第2位置尤度推定手段から出力される前記第1尤度マップおよび前記第2尤度マップにおいて、予め得られた正解値に対する誤差が小さくなるように、前記物体位置推定装置の各部に学習させる学習手段をさらに備え、
学習画像および物体情報に基づいて、前記学習手段による学習に用いられる学習データを生成する学習データ生成手段をさらに備え、
前記学習データは、前記学習画像、物体情報、及び正解値を含み、
前記正解値は、第1正解尤度マップおよび第2正解尤度マップを含み、
前記第1正解尤度マップは、前記学習画像において、前記第1のサイズを有する物体についての位置および物体領域の広がりを示し、前記第2正解尤度マップは、前記学習画像において、前記第2のサイズを有する物体についての位置および物体領域の広がりを示し、
前記学習手段は、前記学習データに含まれる前記第1正解尤度マップおよび前記第2正解尤度マップを前記正解値として用いて、前記正解値に対する、前記第1尤度マップおよび前記第2尤度マップの誤差を示す第1の損失を算出する
ことを特徴とする請求項1から5のいずれか1項に記載の物体位置推定装置。 - 前記第1のサイズおよび前記第2のサイズは、前記第1特徴マップおよび前記第2特徴マップのデータサイズの逆数に比例する
ことを特徴とする請求項1から6のいずれか1項に記載の物体位置推定装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/024494 WO2021260780A1 (ja) | 2020-06-23 | 2020-06-23 | 物体位置推定装置、物体位置推定方法、および記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021260780A1 JPWO2021260780A1 (ja) | 2021-12-30 |
JPWO2021260780A5 JPWO2021260780A5 (ja) | 2023-02-22 |
JP7448006B2 true JP7448006B2 (ja) | 2024-03-12 |
Family
ID=79282715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022531267A Active JP7448006B2 (ja) | 2020-06-23 | 2020-06-23 | 物体位置推定装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230230277A1 (ja) |
JP (1) | JP7448006B2 (ja) |
CN (1) | CN115720664A (ja) |
WO (1) | WO2021260780A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11842509B2 (en) * | 2019-12-24 | 2023-12-12 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019032773A (ja) | 2017-08-09 | 2019-02-28 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP2019139618A (ja) | 2018-02-14 | 2019-08-22 | キヤノン株式会社 | 情報処理装置、被写体の判別方法及びコンピュータプログラム |
JP2020016928A (ja) | 2018-07-23 | 2020-01-30 | 株式会社東芝 | 画像処理装置、画像処理システム、画像処理方法及びプログラム |
JP2020027405A (ja) | 2018-08-10 | 2020-02-20 | コニカミノルタ株式会社 | 物体検出プログラム、および物体検出装置 |
-
2020
- 2020-06-23 US US18/010,000 patent/US20230230277A1/en active Pending
- 2020-06-23 CN CN202080102293.8A patent/CN115720664A/zh active Pending
- 2020-06-23 JP JP2022531267A patent/JP7448006B2/ja active Active
- 2020-06-23 WO PCT/JP2020/024494 patent/WO2021260780A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019032773A (ja) | 2017-08-09 | 2019-02-28 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP2019139618A (ja) | 2018-02-14 | 2019-08-22 | キヤノン株式会社 | 情報処理装置、被写体の判別方法及びコンピュータプログラム |
JP2020016928A (ja) | 2018-07-23 | 2020-01-30 | 株式会社東芝 | 画像処理装置、画像処理システム、画像処理方法及びプログラム |
JP2020027405A (ja) | 2018-08-10 | 2020-02-20 | コニカミノルタ株式会社 | 物体検出プログラム、および物体検出装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021260780A1 (ja) | 2021-12-30 |
CN115720664A (zh) | 2023-02-28 |
US20230230277A1 (en) | 2023-07-20 |
WO2021260780A1 (ja) | 2021-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9430701B2 (en) | Object detection system and method | |
KR101381455B1 (ko) | 생체 정보 처리 장치 | |
JP6494253B2 (ja) | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム | |
US20070174272A1 (en) | Facial Recognition in Groups | |
US20150347820A1 (en) | Learning Deep Face Representation | |
US10353954B2 (en) | Information processing apparatus, method of controlling the same, and storage medium | |
JP2004199669A (ja) | 顔検出 | |
WO2009109127A1 (en) | Real-time body segmentation system | |
JP2013210968A (ja) | 物体検出装置及びその方法、プログラム | |
JP2004192637A (ja) | 顔検出 | |
JP2003030667A (ja) | イメージ内で目を自動的に位置決めする方法 | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
JP2011134114A (ja) | パターン認識方法およびパターン認識装置 | |
US10762133B2 (en) | Information processing apparatus, method of controlling the same, and storage medium | |
CN110879982A (zh) | 一种人群计数系统及方法 | |
JP2021503139A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
Uddin et al. | Horse detection using haar like features | |
CN109934129B (zh) | 一种人脸特征点定位方法、装置、计算机设备及存储介质 | |
JP2007213528A (ja) | 行動認識システム | |
KR20190071452A (ko) | 객체 검출 장치 및 방법 | |
JP7448006B2 (ja) | 物体位置推定装置 | |
JP2014021602A (ja) | 画像処理装置及び画像処理方法 | |
JP7383435B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2006293720A (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
JP4099981B2 (ja) | 画像認識システム、画像認識方法および画像認識プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231004 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240111 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240212 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7448006 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |