JP6524910B2 - 物体検出装置、物体検出方法および学習装置 - Google Patents

物体検出装置、物体検出方法および学習装置 Download PDF

Info

Publication number
JP6524910B2
JP6524910B2 JP2015540368A JP2015540368A JP6524910B2 JP 6524910 B2 JP6524910 B2 JP 6524910B2 JP 2015540368 A JP2015540368 A JP 2015540368A JP 2015540368 A JP2015540368 A JP 2015540368A JP 6524910 B2 JP6524910 B2 JP 6524910B2
Authority
JP
Japan
Prior art keywords
area
probability distribution
appearance
part area
appearance probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015540368A
Other languages
English (en)
Other versions
JPWO2015049826A1 (ja
Inventor
哲夫 井下
哲夫 井下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2015049826A1 publication Critical patent/JPWO2015049826A1/ja
Application granted granted Critical
Publication of JP6524910B2 publication Critical patent/JP6524910B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から物体を検出する物体検出装置及び方法に関する。
映像(または静止画)から物体を検出する技術は、物体検出と呼ばれる。物体検出は、カメラの撮影映像から監視目的である所望の物体を見つけ出す用途、高画質化のために特定の物体に対してフォーカスを合わせる用途、等に使用される。
物体検出の一態様として、Sliding Window法と呼ばれる技術が使用されている。Sliding Window法の処理概念を図15に示す。Sliding Window法は、図15に示すように、検出対象の画像に対して矩形領域(Window)を設定し、Windowの位置と大きさを変化させながら、各矩形領域内での検出対象物体の有無を、評価関数により評価する。しかし、検出対象物体が他の物体に一部隠れている場合や、Windowサイズが検出対象のサイズと大きく異なる場合、検出対象の位置を正確に求めることができないという問題があった。
これに対し非特許文献1は、複数の決定木の集合で構築されたアンサンブル学習法を用いて人の検出を行う手法を提案している。この手法は、パーツと呼ばれる、物体の局所位置が写っている画像群から決定木を構築し、入力画像がどのパーツに分類されたかをスコアにより評価する。パーツは局所領域であるので、物体が一部遮蔽されていても、遮蔽されない領域に基づいて、パーツを検出できる可能性が高い事例が報告されている。なお、非特許文献1では、複数のパーツを認識した結果から算出したスコアの平均値を用いて、人の検出を行なっている(図16)。
また、非特許文献2は、パーツ間の関係性を星座に例えた星座モデルを提案している。星座モデルは、各パーツがどのような外見・相対位置・回転角度・サイズなどのパラメータによって2次元画像に存在するかを示す確率分布を表現するモデルである。非特許文献2では、パーツの位置や大きさの平均値と分散からなるモデルを作成し、パーツ候補すべての組み合わせについて星座モデルと一致するか否かの尤度を計算すると共に、背景である尤度も計算する。そして、この手法では、両者の尤度比がしきい値以上か否かに基づいて、物体であるか否かを判断する。
三井相和、藤吉弘亘著、 "Randomized Treesを用いたパーツベースによる人検出法"、動的画像処理実利用可ワークショップ2011(DIA)、 O3-1番、 2011年. R. Fergus、P. Perona、A.Zisserman著 "Object class recognition by unsupervised scale-invariant learning"、 In CVPR、 2003年.
しかしながら、上述した技術は、いずれも精度よく物体領域を検出することができないという課題がある。例えば非特許文献1の手法では、人体が写っている画像を複数のパーツ領域に分解し、パーツ領域毎に算出したスコアの平均値から、人体を検出したか否かを判断している。しかしながら、この手法では、パーツ領域の位置関係を考慮していないので、図17に示すように、パーツ領域の位置が間違っている場合でも人体として検出してしまう。したがって、誤検出が生じる虞がある。
また、非特許文献2の手法では、モデル化したパーツ領域の位置関係に基づいた評価を行っている。しかしながら、非特許文献2の手法では、パーツ領域の出現確率分布の総和値のみに基づいてモデル化するので、出現確率が0の領域に対する領域の調整は行われない。このため、本来の物体領域よりも大きな領域が検出される場合があるので、位置精度は低下する。
本発明は、上記問題点に鑑みてなされたもので、精度よく物体領域を検出することができる物体検出装置、物体検出方法および学習装置を提供することを目的とする。
本発明の一態様の物体検出装置は、検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定するパーツ領域指定手段と、前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成する出現確率分布生成手段と、前記パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において前記物体が写る領域を判定する物体判定手段とを備える。
本発明の一態様の物体検出方法は、検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定し、前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成し、前記パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において前記物体が写る領域を判定する。
本発明の一態様の学習装置は、検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定するパーツ領域指定手段と、前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成する出現確率分布生成手段と、を備える。
なお同目的は、上記の各構成を有する物体検出装置、物体検出方法または学習装置を、コンピュータによって実現するコンピュータ・プログラム、およびそのコンピュータ・プログラムが格納されている、コンピュータ読み取り可能な記録媒体によっても達成される。
本発明によれば、精度よく物体領域を検出することができる。
図1は、本発明の第1の実施の形態にかかる物体検出装置の構成を示すブロック図である。 図2は、物体検出の流れを示すフローチャートである。 図3は、物体検出の流れを示すフローチャートである。 図4は、出現頻度分布の生成を説明する図である。 図5は、出現頻度分布の生成を説明する図である。 図6は、非出現頻度分布の生成を説明する図である。 図7は、出現頻度分布の他の生成方法を説明する図である。 図8は、タイヤ領域の検出結果の例を示す図である。 図9は、物体領域の判定を説明する図である。 図10は、物体領域の判定を説明する図である。 図11は、本発明の第2の実施の形態にかかる物体検出装置の構成を示すブロック図である。 図12は、第2の実施形態における物体領域の判定を説明する図である。 図13は、本発明の第3の実施の形態にかかる物体検出装置の構成を示すブロック図である。 図14は、本発明の各実施の形態にかかる物体検出装置を実現するハードウエア構成を示す図である。 図15は、Sliding Window法の処理概念を説明するための図である。 図16は、複数の決定木の集合で構築されたアンサンブル学習法を用いて人の検出を行う手法を説明するための図である。 図17は、複数の決定木の集合で構築されたアンサンブル学習法を用いて人の検出を行う手法を説明するための図である。
以下、本発明の実施形態を説明する。
第1の実施形態
図1は、本発明の実施の形態にかかる物体検出装置の構成を示すブロック図である。物体検出装置100は、画像供給部110、検出部120、学習部130、及び位置検出結果出力部140を有する。
検出部120は、パーツ領域検出部121、物体判定部122を含む。学習部130は、パーツ領域指定部131、出現確率分布生成部132、出現確率分布記憶部133を含む。位置検出結果出力部140は、検出部120による検出結果を出力する。
物体検出装置100は、画像を処理する任意の装置であれば良く、例えば一般的なコンピュータ装置、撮像装置(携帯電話、スマートフォン、デジタルスチールカメラ)等を含む。
各構成要素の概要について説明する。
画像供給部110は、任意の撮像手段で撮像された画像を取得する。また、画像供給部110は、その画像を、学習時にはパーツ領域指定部131に供給し、検出時にはパーツ領域検出部121に供給する。なお、画像供給部110は、処理対象とする画像を供給するものであれば良く、例えば物体検出装置100に着脱可能な記憶装置(たとえばUSB(Universal Serial Bus)メモリ)から画像を読み出して検出部120又は学習部130に供給してもよい。ここで、画像供給部110が供給する画像には、静止画が想定されるが、画像供給部110は、動画を構成する各フレームを切り出して検出部120又は学習部130に逐次供給してもよい。
学習部130は、パーツ領域を指定するパーツ領域指定部131と、パーツ領域の出現確率分布を生成する出現確率分布生成部132と、出現確率分布記憶部133とを含んでいる。学習部130は、物体検出装置100と着脱可能であってもよい。
パーツ領域指定部131は、画像中に写っている物体のパーツ領域を指定し、パーツ領域を示す座標値を、出現確率分布生成部132に渡す。パーツ領域の指定方法は、人手により指定してもよいし、後述する公知のパーツ領域検出技術により指定してもよい。ここで、パーツ領域とは、物体が写る画像において、その物体を構成するパーツが写る領域である。
出現確率分布生成部132は、パーツ領域指定部131から入力された複数のパーツ領域の位置に対して、回数をカウントすることにより、出現頻度ヒストグラムを生成する。出現確率分布生成部132は、生成された出現頻度ヒストグラムに基づいて、物体を構成するパーツ領域毎の出現確率分布、非出現確率分布を生成する。
出現確率分布生成部132は、例えば、画像中のタイヤ領域の位置と大きさを、x−y平面における位置と大きさに変換する(図4に示す)。出現確率分布生成部132は、この変換を、多数の画像に関して行うことで、z軸方向に、その位置におけるタイヤ領域の出現頻度を得ることができる。このように、出現確率分布生成部132は、タイヤ領域の、画像における位置に関連付けられる出現頻度を算出する。出現確率分布生成部132は、x−y平面に変換されたタイヤ領域の全出現頻度の総和を求めると共に、各位置におけるタイヤ領域の出現頻度をその総和で割ることで、タイヤ領域の出現確率を求めてもよい。また、出現確率分布生成部132は、出現頻度の極大値を求め、極大値の位置からある出現頻度値までの広がりを、分布の分散としてガウス分布にフィッティングしてもよい。なお、例えばタイヤの非出現確率分布は、タイヤ以外のパーツの出現頻度を算出した際に生成される出現確率分布に等しい。
出現確率分布記憶部133は、予め多数の画像から、出現確率分布生成部132で生成された出現確率分布、非出現確率分布を記憶する。出現確率分布記憶部133は、分布の値を、ファイル形式で保持してもよいし、データベースのテーブル等の形式で保持してもよい。また、出現確率分布記憶部133は、複数種類の物体のパーツ領域の位置に関する出現確率分布を記憶してもよい。例えば、出現確率分布記憶部133は、大型車、中型車、小型車、スクーター、オフロードバイク、ネイキッドバイクの各種類について、各パーツ領域の位置に関する出現確率分布を記憶してもよい。この場合、パーツ領域とは、タイヤやヘッドライト等の機能単位の部品が写される領域を意味する。
パーツ領域検出部121は、画像供給部110から供給された画像を部分領域に分割し、部分領域を、パーツ領域らしさを示す評価値(スコア)で表現する。パーツ領域検出部121は、画像中の部分領域毎にスコアが格納されたスコアマップを生成する。
物体判定部122は、画像供給部110から供給された画像の一定領域に対して、検出対象の物体が写っているかどうかの判定を行う。物体判定部122は、パーツ領域検出部121が算出したパーツ領域のスコアと、出現確率分布記憶部133に格納された当該パーツ領域の出現確率分布から評価値を算出する。なお、物体判定部122は、複数のパーツ領域の評価値を統合し、しきい値にもとづいて物体かどうかの判定を行ってもよい。
図2、図3は、物体検出装置100による物体検出の流れを示すフローチャートである。
図1から図3を参照して、物体検出装置100の処理の流れの概要について説明する。
まず、学習時の動作について説明する。
画像供給部110は、予め、検出対象となる物体が撮影されている複数の画像(物体画像)を学習部130内のパーツ領域指定部131に供給する。
パーツ領域指定部131は、入力画像からパーツ領域の位置と大きさを指定する(S1)。出現確率分布生成部132は、パーツ領域の位置と大きさに基づいて、そのパーツ領域が、画像中のどの位置に何回出現したかを算出し、分布として生成する(S2)。ここで、パーツ領域の位置は、絶対位置でもよいし、相対位置でもよい。パーツ領域指定部131は、パーツ領域毎に生成された出現頻度分布から、出現確率分布、非出現確率分布を生成すると共に、それらを出現確率分布記憶部133に格納する(S3)。
次に、検出時の動作について説明する。
画像供給部110は、検出対象画像を検出部120内のパーツ領域検出部121に供給する。
パーツ領域検出部121は、画像を分割した部分領域毎にパーツ領域を検出し、パーツ領域の位置とともにパーツ領域らしさを表すスコアを格納する(S4)。
物体判定部122は、出現確率分布記憶部133に格納された出現確率分布や非出現確率分布と、パーツ領域検出部121で算出されたパーツ領域らしさを示すスコアとから、物体かどうかの判定を行う。物体判定部122は、判定手法として、例えば、出現確率分布を正の値、非出現確率分布を負の値とし、パーツ領域の部分領域毎のスコアと、出現確率分布または非出現確率分布との積算を行えばよい。そして、物体判定部122は、積算値を一定領域内で総和を取ることにより評価値を求め、評価値がしきい値以上の場合、物体を検出したと判定する(S5)。
続いて、具体的な実施例を用いて、物体検出装置100の詳細な動作について説明する。以下の説明では、予め出現確率分布を生成する確率分布生成フェーズ(学習部130の動作)と、入力された画像から物体位置を検出する検出フェーズ(検出部120の動作)に分けて説明する。
はじめに確率分布生成フェーズについて説明する。
パーツ領域指定部131は、画像中に写っている物体、例えば車やバイクから、機能単位のパーツ領域である、ヘッドライトやタイヤ等の領域を決定する。決定方法として、予めユーザがパーツ領域指定部131を操作することにより、ヘッドライトやタイヤ等の領域を指定してもよい。あるいはパーツ領域指定部131が、後述する公知の検出技術を用いてヘッドライトやタイヤ等の領域を検出し、検出結果を用いて領域を指定しても良い。
指定されたパーツ領域は、出現確率分布生成部132に入力される。出現確率分布生成部132は、指定されたパーツ領域毎に、パーツ領域の位置と大きさから出現頻度を示すヒストグラムを生成する。例えば、出現確率分布生成部132は、図4のように、画像1に写るタイヤ領域の位置と大きさ、画像2に写るタイヤ領域の位置と大きさに関して、タイヤ領域が、画像中のどの位置に何回出現したかを算出する。算出した結果に基づいて、出現確率分布生成部132は、X−Y平面において、タイヤ領域に関する出現頻度分布P1、P2を生成することができる。出現確率分布生成部132は、ある位置におけるタイヤの出現頻度を、タイヤの出現頻度の総和で正規化することにより、タイヤの出現頻度確率分布を生成する。このように、出現確率分布生成部132は、複数の画像群から車のヘッドライトやフロントグリルといったパーツ領域に対して、同様に、出現確率分布を生成する。例えば、図5は、車のヘッドライトとタイヤの出現確率分布の例を示す。図5において、分布P3、P4は、車のヘッドライトの出現確率分布を示し、分布P5、P6は、車のタイヤの出現確率分布を示す。
次に、出現確率分布生成部132は、非出現確率を生成する。非出現確率とは、画像において、注目しているパーツ領域がその位置に出現しにくい確率を示す。例えば、タイヤは、ヘッドライト領域で出現する確率は低いので、ヘッドライトの出現確率を、タイヤの非出現確率として定義する。タイヤの非出現確率は、ヘッドライトの出現確率に”−1”を乗算した分布として定義される。図6は、タイヤの出現確率と非出現確率の分布の例を示す図である。図6において、分布P7、P8は、タイヤの出現確率を示し、分布P9、P10は、タイヤの非出現確率を示す。従って、タイヤがヘッドライト位置に出現した場合、出現確率は、ペナルティとして負の値を持つことになる。なお、他の非出現確率を生成する例として、しきい値以下の出現確率を負の値に変換した値を、非出現確率と定義してもよい。すなわち、図7に示すように、しきい値以下の出現確率を負の値に変換すると共に、変換した値を非出現確率としてもよい。生成された出現確率分布は、出現確率分布記憶部133にファイルやデータベースとして保存されてもよい。
次に、画像内から物体検出を行う検出フェーズについて説明する。以下の説明では、確率分布生成フェーズで生成した出現確率を用いて検出を行う。
パーツ領域検出部121は、画像を部分領域に分割し、分割した部分領域ごとにパーツ領域の検出を行う。例えば、パーツ領域検出部121は、入力画像を横16分割、縦8分割した場合、分割した計16×8=128の部分領域に対して、パーツ領域の検出を行う。検出方法には、公知の検知技術が用いられてもよい。例えば、パーツ領域検出部121は、予めパーツ領域ごとにSIFT(Scale-Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)といった輝度勾配を用いた公知の特徴抽出方法により特徴量を算出しておく。そして、パーツ領域検出部121は、検出対象の領域に対しても同様の特徴量を算出し、その算出した特徴量は、上記予め算出したどのパーツ領域の特徴量に近いかを、特徴量間の距離値により求めてもよい。
パーツ領域検出部121は、予め算出した特徴量と最も近い特徴量を持つパーツ領域を、検出したパーツ領域として決定すると共に、近さを表す距離をスコアとして表現する。例えば、パーツ領域検出部121は、特徴量が同一の場合、特徴量間の距離は0となるので、スコアを100と設定してもよい。また、パーツ領域検出部121は、特徴量間の距離が所定値より小さい領域を、検出したパーツ領域として決定してもよい。図8は、タイヤを検出した結果の例を示す図である。
入力画像1000が分割された領域である部分領域2000において、タイヤが検出された3領域は、網掛け領域として図示される。3領域のスコアは、それぞれ40、80、50である。スコアは、スコアマップに保持される。なお、この例では、スコア40を示す領域は、誤検出である。
次に、物体判定部122について説明する。物体判定部122は、一定領域について、検出したパーツ領域ごとのスコアとパーツ領域の出現確率分布の積和値に基づいて、物体領域(物体が写っている領域)かどうかの判定を行う。積和値は、評価値である。ここで、一定領域として、図9に示す矩形領域3000を設定する。また、例えば、スコア40の領域の出現確率を”0.3”に負を乗じた”−0.3”とし、スコア80の領域の出現確率を”0.8”、スコア50の領域の出現確率を”0.5”と仮定する。この場合、図9の矩形領域3000内での積和値は、”40×(−0.3)+80×0.8+50×0.5=77”となる。一方、図10の矩形領域3500内での積和値は、”80×0.8+50×0.5=89”となる。この場合、積和値がもっとも高い図10の矩形領域3500が、検出した物体領域として判定される。一定領域は、例えば、検出したパーツ領域を含む矩形領域を、一又は複数パターン生成することにより定められてもよい。また、一定領域の領域サイズは、パーツ領域の大きさに基づいて決定されてもよい。
なお、上述の例では、前輪と後輪を含むタイヤ領域を検出する例を説明したが、ヘッドライトや、他の物体のパーツ領域についても同様にして求めることができる。物体判定部122は、最後に、パーツ領域ごとの検出結果を統合して1つの物体領域として判定することもできる。
続いて、本実施の形態にかかる物体検出装置100の効果について説明する。上述のように、物体検出装置100は、パーツ領域の出現確率分布と非出現確率分布から構成される物体出現確率分布を生成することにより、誤検出したパーツ領域に対してペナルティを与えることができるので、精度よく物体領域を判定することができる。このように、本実施の形態にかかる物体検出装置100は、非出現確率分布を考慮した物体出現確率分布を用いることで、精度よく物体領域を検出することができるという効果が得られる。
第2の実施の形態
次に、上述した第1の実施形態を基礎とする第2の実施形態について説明する。以下の説明では、第1の実施形態と同様の構成については同じ参照番号を付与することにより、重複する説明は省略する。
本実施形態では、物体らしさの増加率に基づいて、判定領域(すなわち、物体が写っている領域かどうかを判定する領域)の大きさを変化させることを説明する。本実施形態では、例えば、物体判定において、判定領域の面積を増減させ、物体が写ると判定される確率(物体確率)が大きくなる方向に領域を変化させる。そして、物体確率が極大値となる領域において、その物体確率が、設定したしきい値以上の場合、その領域に物体が写っていると判定してもよい。
本発明の第2実施の形態にかかる物体検出装置101は、第1の実施の形態の構成と比較して物体位置探索部を有することを特徴とする。本実施の形態にかかる物体検出装置101について第1の実施の形態と異なる点を以下に説明する。
図11は、第2の実施の形態にかかる物体検出装置101の構成を示すブロック図である。第2の実施の形態にかかる物体検出装置101は、図1に示す構成に加えて検出部120内に物体位置探索部123を有する。
物体位置探索部123は、物体領域を検出する領域を変化させながら、第1の実施形態において説明した積和値が最も高くなる領域を探索する。第1の実施の形態では、検出する領域が一定の形状を保ちながら、積和値が最大となる位置を検出することを説明したが、本実施の形態では、検出する領域を変化させる。例えば、第2の実施の形態にかかる物体検出装置101は、判定領域の右辺を1分割領域広げた場合や狭めた場合の積和値、あるいは、判定領域の上辺を1分割領域広げた場合や狭めた場合の積和値を算出し、積和値が最大となる領域を探索する。第1の実施の形態における図9に示す例では、矩形領域が一定のため、本来は物体領域に含まれるはずのタイヤ領域が、矩形領域をはみ出す場合がある。
図12は、第2の実施の形態に係る物体検出装置101により、物体領域を判定した結果の例を示す図である。物体検出装置101は、探索領域を変化させることにより、図12の矩形領域3600に示すように、タイヤ領域を超える領域を、物体領域に含まないようにすることができる。物体検出装置101は、探索領域の変化方法として、例えば、ある方向に領域を拡大・縮小したときの積和値を算出すると共に、従前の領域の積和値と比較し、積和値が増減する方向に領域を拡大・縮小してもよい。
以上のように、本第2の実施形態によれば、物体位置探索部123は、物体領域を検出する領域を変化させながら、積和値が最も高くなる領域を探索するので、より精度よく物体領域を検出することができるという効果が得られる。
第3の実施の形態
次に、上記実施形態を包含する第3の実施形態について説明する。図13は、本発明の第3の実施の形態にかかる物体検出装置102は、パーツ領域指定部103、出現確率分布生成部104および物体判定部105を備える。
パーツ領域指定部103は、検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、物体が写る複数の画像から指定する。出現確率分布生成部104は、パーツ領域の、画像における位置に関連付けられる出現頻度に基づいて、パーツ領域の出現確率分布と、非出現確率分布とを生成する。物体判定手部105は、パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において物体が写る領域を判定する。
上記構成を採用することにより、本第3の実施形態によれば、パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において物体が写る領域であるか否かを判定するので、精度よく物体領域を検出することができるという効果が得られる。
なお、図1および図11に示した物体検出装置の各部は、図14に例示するハードウエア資源において実現される。すなわち、図14に示す構成は、CPU(Central Processing Unit)20、RAM(Random Access Memory)21、ROM(Read Only Memory)22、外部接続インタフェース23および記憶装置24を備える。CPU20は、ROM22または記憶装置24に記憶された各種ソフトウエア・プログラム(コンピュータ・プログラム)を、RAM21に読み出して実行することにより、物体検出装置の全体的な動作を司る。すなわち、上記各実施形態において、CPU20は、ROM22または記憶装置24を適宜参照しながら、物体検出装置が備える各機能(各部)を実現するソフトウエア・プログラムを実行する。なお、物体検出装置およびその各機能ブロックのハードウエア構成は、上述の構成に限定されない。
また、各実施形態を例に説明した本発明は、物体検出装置に対して、上記説明した機能を実現可能なコンピュータ・プログラムを供給した後、そのコンピュータ・プログラムを、CPU20が実行することによって達成される。
また、係る供給されたコンピュータ・プログラムは、読み書き可能なメモリ(一時記憶媒体)またはハードディスク装置等のコンピュータ読み取り可能な記憶デバイスに格納すればよい。そして、このような場合において、本発明は、係るコンピュータ・プログラムを表すコード或いは係るコンピュータ・プログラムを格納した記憶媒体によって構成されると捉えることができる。
以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定するパーツ領域指定手段と、
前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成する出現確率分布生成手段と、
前記パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において前記物体が写る領域を判定する物体判定手段と
を備える物体検出装置。
(付記2)
前記出現確率分布生成手段は、前記パーツ領域の、前記画像における位置に関連付けられる出現頻度についてのヒストグラムを作成することにより前記出現確率分布を作成する
付記1に記載の物体検出装置。
(付記3)
前記出現確率分布生成手段は、前記パーツ領域の、前記物体が写る画像における出現位置と大きさを表す正の値を持つ分布を前記出現確率分布として生成する
付記1または付記2記載の物体検出装置。
(付記4)
前記出現確率分布生成手段は、前記対象パーツ以外のパーツが写る領域の出現頻度を、前記パーツ領域の非出現頻度として算出する
付記1ないし付記3のいずれか1に記載の物体検出装置。
(付記5)
前記出現確率分布生成手段は、前記パーツ領域の、前記画像における位置に関連付けられる出現確率の、一定値以下の値に負の値を積算した値を、前記非出現確率として算出する
付記1ないし付記3のいずれか1に記載の物体検出装置。
(付記6)
前記入力画像が分割された領域である部分領域に対して画素の輝度変化から構成される特徴量を抽出し、抽出した特徴量に基づいて、前記部分領域に関する前記パーツ領域らしさを示すスコア値を算出するパーツ領域検出手段をさらに備え、
前記物体判定手段は、前記パーツ領域検出手段により算出されたスコア値と、前記出現確率分布生成手段が生成した、前記パーツ領域の前記出現確率分布との積和演算の結果に基づいて、前記入力画像における物体が写る領域を判定する
付記1から付記5のいずれか1に記載の物体検出装置。
(付記7)
前記出現確率分布は、前記パーツ領域が前記画像における出現しにくい位置と大きさを表す負の値を持つ分布を含む
付記6に記載の物体検出装置。
(付記8)
物体らしさの増加率に基づいて、前記入力画像における物体が写る領域を判定する領域である判定領域の大きさを変化させる物体位置探索手段を更に備える
付記6又は付記7に記載の物体検出装置。
(付記9)
前記物体位置探索手段は、前記判定領域の面積を増減させ、前記物体が写ると判定される確率が大きくなる方向に領域を変化させ、
前記物体判定手段は、前記確率が極大値となる領域において、前記確率が、しきい値以上の場合、前記領域に物体が写ると判定する
付記6から付記8のいずれか1に記載の物体検出装置。
(付記10)
検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定するパーツ領域指定手段と、
前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成する出現確率分布生成手段と、
を備えた学習装置。
(付記11)
検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定し、
前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成し、
前記パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において前記物体が写る領域を判定する
物体検出方法。
(付記12)
検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定する処理と、
前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成する処理と、
前記パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において前記物体が写る領域を判定する処理と
をコンピュータに実行させる物体検出プログラム。
この出願は、2013年10月1日に出願された日本出願特願2013−206046を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、例えば、画像を処理する機能を備えたコンピュータ装置、携帯電話、スマートフォン、デジタルスチールカメラ等に適用することができる。
100、101 物体検出装置
110 画像入力部
120 検出部
121 パーツ領域検出部
122 物体判定部
130 学習部
131 パーツ領域指定部
132 出現確率分布生成部
133 出現確率分布記憶部
140 位置検出結果出力部

Claims (9)

  1. 検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定するパーツ領域指定手段と、
    前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成する出現確率分布生成手段と、
    前記パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において前記物体が写る領域を判定する物体判定手段と
    を備え
    前記出現確率分布生成手段は、前記対象パーツ以外のパーツが写る領域の出現頻度を、前記パーツ領域の非出現頻度として算出する
    物体検出装置。
  2. 検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定するパーツ領域指定手段と、
    前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成する出現確率分布生成手段と、
    前記パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において前記物体が写る領域を判定する物体判定手段と
    を備え、
    前記出現確率分布生成手段は、前記パーツ領域の、前記画像における位置に関連付けられる前記出現頻度に基づく出現確率の、一定値以下の値に負の値を積算した値を、非出現確率として算出する
    物体検出装置。
  3. 前記出現確率分布生成手段は、前記パーツ領域の、前記画像における位置に関連付けられる出現頻度についてのヒストグラムを作成することにより前記出現確率分布を作成する
    請求項1または請求項2に記載の物体検出装置。
  4. 前記出現確率分布生成手段は、前記パーツ領域の、前記物体が写る画像における出現位置と大きさを表す正の値を持つ分布を前記出現確率分布として生成する
    請求項1から請求項3のいずれか1項記載の物体検出装置。
  5. 前記入力画像が分割された領域である部分領域に対して画素の輝度変化から構成される特徴量を抽出し、抽出した特徴量に基づいて、前記部分領域に関する前記パーツ領域らしさを示すスコア値を算出するパーツ領域検出手段をさらに備え、
    前記物体判定手段は、前記パーツ領域検出手段により算出されたスコア値と、前記出現確率分布生成手段が生成した、前記パーツ領域の前記出現確率分布との積和演算の結果に基づいて、前記入力画像における物体が写る領域を判定する
    請求項1から請求項のいずれか1項に記載の物体検出装置。
  6. 前記出現確率分布は、前記パーツ領域が前記画像における出現しにくい位置と大きさを表す負の値を持つ分布を含む
    請求項に記載の物体検出装置。
  7. 物体らしさの増加率に基づいて、前記入力画像における物体が写る領域を判定する領域である判定領域の大きさを変化させる物体位置探索手段を更に備える
    請求項又は請求項に記載の物体検出装置。
  8. 検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定するパーツ領域指定手段と、
    前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成する出現確率分布生成手段と、
    を備え
    前記出現確率分布生成手段は、前記対象パーツ以外のパーツが写る領域の出現頻度を、前記パーツ領域の非出現頻度として算出する
    学習装置。
  9. 検出対象である物体を構成するパーツのうち、対象パーツが写る領域であるパーツ領域を、前記物体が写る複数の画像から指定し、
    前記パーツ領域の、前記画像における位置に関連付けられる出現頻度に基づいて、前記パーツ領域の出現確率分布と、非出現確率分布とを生成し、
    前記パーツ領域の出現確率分布と、非出現確率分布とを参照して、入力画像において前記物体が写る領域を判定し、
    前記出現確率分布と、前記非出現確率分布とを生成するに際し、前記対象パーツ以外のパーツが写る領域の出現頻度を、前記パーツ領域の非出現頻度として算出する
    物体検出方法。
JP2015540368A 2013-10-01 2014-08-21 物体検出装置、物体検出方法および学習装置 Active JP6524910B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013206046 2013-10-01
JP2013206046 2013-10-01
PCT/JP2014/004284 WO2015049826A1 (ja) 2013-10-01 2014-08-21 物体検出装置、物体検出方法および学習装置

Publications (2)

Publication Number Publication Date
JPWO2015049826A1 JPWO2015049826A1 (ja) 2017-03-09
JP6524910B2 true JP6524910B2 (ja) 2019-06-05

Family

ID=52778433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015540368A Active JP6524910B2 (ja) 2013-10-01 2014-08-21 物体検出装置、物体検出方法および学習装置

Country Status (3)

Country Link
US (1) US10026002B2 (ja)
JP (1) JP6524910B2 (ja)
WO (1) WO2015049826A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727800B2 (en) * 2015-09-25 2017-08-08 Qualcomm Incorporated Optimized object detection
KR101916832B1 (ko) 2017-07-11 2018-11-08 강경수 어노테이션 바운딩 박스를 이용한 오브젝트 감지 방법 및 장치
CN109658455B (zh) * 2017-10-11 2023-04-18 阿里巴巴集团控股有限公司 图像处理方法和处理设备
JP7180827B2 (ja) * 2018-05-09 2022-11-30 国際航業株式会社 一般物体認識システム
JP2020141288A (ja) * 2019-02-28 2020-09-03 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4011426B2 (ja) * 2002-07-17 2007-11-21 グローリー株式会社 顔検出装置、顔検出方法および顔検出プログラム
GB2409030A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
JP4410732B2 (ja) * 2005-07-27 2010-02-03 グローリー株式会社 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
JP5096211B2 (ja) * 2008-03-31 2012-12-12 富士フイルム株式会社 確率分布構築方法、確率分布構築装置、および確率分布構築プログラム、並びに被写体検出方法、被写体検出装置、および被写体検出プログラム
US8913783B2 (en) * 2009-10-29 2014-12-16 Sri International 3-D model based method for detecting and classifying vehicles in aerial imagery
US8818035B2 (en) * 2009-11-05 2014-08-26 Nec Corporation Image target identification device, image target identification method, and image target identification program
US20120230583A1 (en) * 2009-11-20 2012-09-13 Nec Corporation Object region extraction device, object region extraction method, and computer-readable medium
JP5615088B2 (ja) * 2010-08-18 2014-10-29 キヤノン株式会社 画像処理装置及びその方法、プログラム、並びに撮像装置
JP5675229B2 (ja) * 2010-09-02 2015-02-25 キヤノン株式会社 画像処理装置及び画像処理方法
WO2012046392A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
US9262674B2 (en) * 2010-12-09 2016-02-16 Panasonic Corporation Orientation state estimation device and orientation state estimation method
CN103210421B (zh) * 2010-12-09 2016-03-02 松下电器产业株式会社 物体检测装置及物体检测方法
WO2012133371A1 (ja) * 2011-03-28 2012-10-04 日本電気株式会社 撮像位置および撮像方向推定装置、撮像装置、撮像位置および撮像方向推定方法ならびにプログラム
JP5737399B2 (ja) * 2011-07-11 2015-06-17 トヨタ自動車株式会社 赤目判定装置

Also Published As

Publication number Publication date
WO2015049826A1 (ja) 2015-04-09
US10026002B2 (en) 2018-07-17
US20160232418A1 (en) 2016-08-11
JPWO2015049826A1 (ja) 2017-03-09

Similar Documents

Publication Publication Date Title
JP6524910B2 (ja) 物体検出装置、物体検出方法および学習装置
US9619733B2 (en) Method for generating a hierarchical structured pattern based descriptor and method and device for recognizing object using the same
US20180129658A1 (en) Color sketch image searching
CN110428399B (zh) 用于检测图像的方法、装置、设备和存储介质
US10007678B2 (en) Image processing apparatus, image processing method, and recording medium
US8929664B2 (en) Shape detection using chain code states
Seo et al. Effective and efficient human action recognition using dynamic frame skipping and trajectory rejection
US9256800B2 (en) Target line detection device and method
JPWO2012070474A1 (ja) 物体または形状の情報表現方法
KR101961854B1 (ko) 3d 객체 모델 기법을 이용한 객체 인식장치
JPWO2015068417A1 (ja) 画像照合システム、画像照合方法およびプログラム
JP6393495B2 (ja) 画像処理装置および物体認識方法
JP2015026117A (ja) 画像処理方法、画像処理装置、プログラム及び記録媒体
CN113129332A (zh) 执行目标对象跟踪的方法和装置
JP2017084006A (ja) 画像処理装置およびその方法
EP2784721A2 (en) Object detection apparatus
Liang et al. Sketch-based retrieval using content-aware hashing
US10380447B1 (en) Providing regions of interest in an image
KR20140126856A (ko) 손 모양 인식 방법 및 그 장치
JP2017004052A (ja) 学習装置、方法及びプログラム
WO2013154062A1 (ja) 画像識別システム、画像識別方法、およびプログラム
Mayron A comparison of biologically-inspired methods for unsupervised salient object detection
Gominski et al. Benchmarking individual tree mapping with sub-meter imagery
JP2014056415A (ja) 画像照合システム、画像照合方法、およびプログラム
Hong et al. A scale and rotational invariant key-point detector based on sparse coding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190422

R150 Certificate of patent or registration of utility model

Ref document number: 6524910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150