JP2019139618A - 情報処理装置、被写体の判別方法及びコンピュータプログラム - Google Patents

情報処理装置、被写体の判別方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2019139618A
JP2019139618A JP2018023792A JP2018023792A JP2019139618A JP 2019139618 A JP2019139618 A JP 2019139618A JP 2018023792 A JP2018023792 A JP 2018023792A JP 2018023792 A JP2018023792 A JP 2018023792A JP 2019139618 A JP2019139618 A JP 2019139618A
Authority
JP
Japan
Prior art keywords
feature
likelihood
image
region
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018023792A
Other languages
English (en)
Other versions
JP7077046B2 (ja
JP2019139618A5 (ja
Inventor
俊太 舘
Shunta Tachi
俊太 舘
優和 真継
Masakazu Matsugi
優和 真継
克彦 森
Katsuhiko Mori
克彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018023792A priority Critical patent/JP7077046B2/ja
Publication of JP2019139618A publication Critical patent/JP2019139618A/ja
Publication of JP2019139618A5 publication Critical patent/JP2019139618A5/ja
Application granted granted Critical
Publication of JP7077046B2 publication Critical patent/JP7077046B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】特段の制約なしに取得した画像中の被写体を精度よく判別することができる情報処理装置を提供する。【解決手段】第1特徴生成部102で入力画像の第1特徴を生成するとともに、尤度生成部106aで被写体の尤度を生成し、画像に存在する被写体の候補を検出する。第2特徴生成部103は、第1特徴よりも粗い領域ごとに入力画像の第2特徴を生成する。判別パラメータ設定部104は、第2特徴に基づいて入力画像に存在する被写体を判別するための判別パラメータを領域ごとに設定する。被写体判別部106は、閾値処理部106bで、被写体の候補の尤度と判別パラメータとを比較することにより、被写体を判別する。【選択図】図2

Description

本発明は、画像に映った被写体を判別するための情報処理技術に関する。
画像に映った被写体(人物、物体等)を認識する装置では、認識精度を高めるためのさまざまな工夫が行われている。例えば、特許文献1に開示された技術では、物体を認識する際に画像が撮影されたシーンの分類を行う。すなわち物体の画像上の出現位置をシーンごとに集計し、分類する。そして、分類の結果に応じて物体の事前知識を表すスコアを調整する。これにより、例えば「街角」のシーンの画面上方には、「車」が出現する頻度は少ないといった事前知識に基づいた物体検出を行うことにより誤検出を低減させている。
WO2012/046426
特許文献1に示されるシーンの分類を前提とする手法では、分類精度が適切でない場合は、逆に認識精度が低下してしまう。また、カメラの方位や仰角が異なると物体の出現位置の分布が変化するため、認識精度を高めるには多数のシーンの分類結果を用意する必要がある。そのため、効果が期待できるのは一部の画像に限られるという問題がある。
本発明は、特段の制約なしに取得した画像中の被写体を精度よく判別することができる技術を提供することを目的とする。
本発明の一つの側面における情報処理装置は、画像を取得する取得手段と、前記画像の第1特徴を生成する第1特徴生成手段と、前記画像の前記第1特徴と異なる第2特徴を生成する第2特徴生成手段と、前記第2特徴から前記画像に存在する被写体を判別するための判別パラメータを前記画像に対して設定する設定手段と、前記第1特徴と前記判別パラメータとに基づいて前記被写体を判別する判別手段と、を備えることを特徴とする。
本発明によれば、特段の制約なしに撮影された画像中の被写体を精度よく判別することができる情報処理装置を提供することができる。
第1実施形態に係る情報処理装置のハードウェア構成図。 第1実施形態に係る情報処理装置の機能ブロック構成図。 第1実施形態における被写体の判別方法の手順説明図。 ベース特徴の生成処理の詳細手順説明図。 (A)は局所特徴、(B)は広域特徴の生成処理の手順説明図。 判別パラメータを推定する処理の詳細手順説明図。 被写体判別動作の詳細処理手順説明図。 特徴マップの生成過程を示す説明図。 カメラ情報と連結して広域特徴の生成過程を示す説明図。 (A)〜(C)は入力画像と各種カメラ情報との関係を示す説明図。 学習処理時の機能構成を示すブロック図。 判別パラメータ設定部における学習処理の手順説明図。 判別パラメータ設定部における回帰器学習処理の手順説明図。 (A),(B)は学習処理に用いる学習データの例を示す説明図。 判別パラメータ設定学習の流れを示す説明図。 第2実施形態の情報処理装置の機能構成図。 (A),(B)は第2実施形態における被写体の判別方法の手順説明図。 第3実施形態の情報処理装置の機能構成を示すブロック図。 第3実施形態における被写体の判別方法の手順説明図。 (A)〜(D)は判別パラメータ学習の模式図。
以下、本発明を適用した情報処理装置の実施の形態例を説明する。
情報処理装置は、ストレージを有するコンピュータとコンピュータプログラムとを用いて実施することができる。
[第1実施形態]
図1は第1実施形態に係る情報処理装置のハードウェア構成図である。この情報処理装置は、コンピュータ10とその周辺デバイスとを有する。コンピュータ10は、システムバス19に接続されたCPU11、GPU12、ROM13、RAM14、外部記憶装置15を有する。システムバス19には、また、入力デバイスインタフェース16、出力デバイスインタフェース17、映像機器インタフェース18も接続される。
CPU(Central Processing Unit)11は、コンピュータ10全体を制御する。GPU(Graphics Processing Unit)12は、画像処理などの高負荷の演算を行う演算装置として機能する。ROM(Read Only Memory)13は、変更を必要としない制御プログラムやパラメータなどを格納する。RAM(Random Access Memory)14は、CPU11のワークメモリであり、プログラムやデータなどを一時記憶する。外部記憶装置15は、ストレージの一例として、半導体メモリ、ハードディスク、光磁気ディスク、着脱可能なメモリカード等の記憶メディアを有するものである。外部記憶装置15には、本発明のコンピュータプログラム、画像(映像を含む)、後述する各種特徴マップ、判別パラメータ、特徴変換に用いる所定の規則、カメラ情報などが記憶される。また、特徴生成の学習に用いる学習画像、被写体判別に用いられる教師値、学習済ニューラルネットワークモデルなども記憶される。
入力デバイスインタフェース16は、ポインティングデバイスやキーボードなどの入力デバイス21とのインタフェースである。出力デバイスインタフェース17は、データ表示用のモニタ22とのインタフェースである。映像機器インタフェース18は、カメラ23等の撮像機器とのインタフェースである。
コンピュータ10は、CPU11が本発明のコンピュータプログラムを読み込んで実行することにより、被写体の判別方法の実施に適した情報処理装置として動作する。なお、ニューラルネットワーク等による学習、パラメータ設定、判別、画像処理等については、GPU12が処理する。もちろん、CPU11が十分高性能である場合には、GPU12は省略してよい。
コンピュータ10が情報処理装置として動作するときの機能ブロック構成例を図2に示す。また、本実施形態の情報処理装置が実行する被写体の判別方法の処理手順例を図3に示す。以後の説明では処理の各ステップを、以下「S」と略記する。
画像入力部101は、画像を取得する(S10)。本実施形態では、カメラで撮影した撮影画像を取り込むものとする。取り込んだ画像を「入力画像」と呼ぶ。カメラ情報入力部110は撮影時の条件などを表すカメラ情報の入力処理を行う。カメラ情報の内容については、後で詳しく説明する。
ベース特徴生成部108は、入力画像における特徴抽出のベースとなるベース特徴を生成し、これを記憶する(S11)。ベース情報の内容及びその生成過程については、後で詳しく説明する。
第1特徴生成部102は、ベース特徴を所定の規則に従って変換することにより入力画像の局所領域の特徴を含む第1特徴を生成し、生成した第1特徴を記憶する(S12)。局所領域の特徴を、以後、「局所特徴」と呼ぶ。第2特徴生成部103は、ベース特徴を所定の規則に従って変換するとともに、必要に応じてカメラ情報をも考慮することにより、入力画像の広域領域の特徴を含む第2特徴を生成し、生成した第2特徴を記憶する(S13)。「広域領域」とは局所領域よりも広い範囲にわたる特徴をいう。この広域領域の特徴を、以後「広域特徴」と呼ぶ。
被写体のうち例えば人物の顔を検出対象とし、その顔の検出をタスクとする場合、入力画像に人物と人工物や自然物とが乱雑に映っていると誤検出や未検出が多数生じてしまう場合がある。本実施形態では、誤検出や未検出を抑制するため、判別パラメータ設定部104で、入力画像に応じて、被写体を判別する際に用いる判別パラメータを推定する。そして、これを入力画像を構成する領域ブロックごとに設定する(S14)。「領域ブロック」は座標で特定される画素群の領域をいう。判別パラメータには、例えば被写体の候補の尤度がそれ以上であればその候補が被写体であると判別するための閾値(θ)を用いる。この閾値(θ)は、第2特徴に基づいて決定される推定値であり、判別の誤りが所定値以下となるように予め学習により決定された閾値である。
被写体判別部106は、第1特徴と判別パラメータとに基づいて入力画像中の被写体を判別する(S15)。本実施形態では、検出対象である人物(あるいは人物の顔)を判別するために、被写体判別部106が、3種類の尤度生成部106a、106b、106cと閾値処理部106dの機能を備えるものとする。尤度生成部106a、106b、106cは、第1特徴生成部102で生成された第1特徴に基づいて尤度スコアを生成する。この尤度スコアは、入力画像の領域ブロックごとに、顔が小さい人物、顔が中程度の人物、顔が大きい人物がそれぞれ存在することの確からしさ(尤度)を表す尤度スコアを並べたものである。被写体判別部106は、これらの尤度マップに基づいて被写体の候補を決定する。そして、閾値処理部106dで、入力画像に応じて推定された閾値(θ)と被写体の候補とを閾値処理することにより、当該候補が、検出対象である人物(あるいは人物の顔)かどうかを判別する。結果出力部107は、判別結果をモニタ22等に出力する(S16)。
<ベース特徴の生成>
図3のS11の処理の内容を図4及び図8を参照して詳しく説明する。図4はベース特徴生成部108が実行する処理の詳細手順説明図であり、図8は処理の概念説明図である。ベース特徴は、例えばCNN(Convolutional Neural Network:畳み込みニューラルネットワーク、以下CNNと略す)を用いて生成することができる。ただし、S11の処理では、CNNの全結合層と呼ばれる層は用いず、畳み込み層と呼ばれる種類の層のみを用いる。図8中、「ch」が付された数字は、特徴マップの枚数である。
ベース特徴生成部108は、まず、ベース特徴F(x,y)を格納する空の配列を用意する(S1201)。つまり、上記の配列を初期化する。(x,y)は画素の座標(X,Y座標系)を表す添え字である。初期化後、ベース特徴生成部108は、CNNにより、図8に示された複数回の畳み込み演算を繰り返すことで複数層の特徴マップを生成する(図4のS1202〜S1207)。図8の例で言えば、ベース特徴生成部108は、RGB(赤、緑、青)の3chの入力画像I(x,y)401に対して、畳み込み演算402aを行い、64chの特徴マップ403aを生成する。また、この特徴マップ403aについて、再度畳み込み演算402bを行い、その演算結果について1/2プーリング404aを行うことで128chの特徴マップ403bを生成する。同様にして、特徴マップ403bについて再度畳み込み演算402cを行い、その演算結果について1/2プーリング404bを行うことで256chの特徴マップ403cを生成する。1/2プーリング404a、404bは、特徴マップ403a,403bをそれぞれ所定の局所領域ごとに代表値で代表させることにより、マップサイズを縮小する処理である。この処理には、CNNの認識性能をロバストにする効果がある(ただし、演算が進むに従って解像度が低くなる)。本実施形態の1/2プーリング404a、404bでは、それぞれ特徴マップを(2×2画素)ごとに統合して、1/2の解像度の特徴マップに縮小する。L番目の層の畳み込み演算及び1/2プーリングの処理を数式で表すと下記のようになる。
[数1]
(x,y,z)
=θ(ΣCHINΣΔx,Δy=-K〜+K(Δx,Δy,CHIN,CHOUT)
×fL−1(x+Δx,y+Δx,CHIN)+B CHOUT
ここで、f(x,y,z)は、L番目の層が出力する特徴マップの出力結果であり、z枚の特徴マップを表す。x,yは画素の位置(座標)を表す。また、θ(・)は、半波整流よりなる活性化関数(ReLU(Rectified Linear Unit)function)であり、入力した値が0以下のとき0となり、1より大きいとき入力をそのまま出力される。また、w(Δx,Δy,CHIN,CHOUT)(ただしΔx,Δy∈{−K,...,0,...,K})は、L番目の層の畳み込みの重みパラメータである。BはL番目の層のバイアス項である。CHINは、L−1番目の層が出力する特徴マップの識別番号、CHOUTは、L番目の層が出力する特徴マップの識別番号を表す。
なお、上式では入力画像I(x,y)は、特徴マップf(x,y,z)として扱うものとする。ここでは、畳み込み演算の前後で特徴マップのx,y方向のサイズが変化しないように、畳み込み演算の前に特徴マップfL−1の周囲の画素に0値を充填してから畳み込む。このようにして、CNNの各層において、それぞれ複数層となる特徴マップ403a、403b、403cが生成される。
CNNでは、大規模データベースを用いた画像の分類タスクにより予め重みパラメータを学習しておく。これにより、CNNの入力画像401(=I(x,y))に近い所定数の層(低層)109lの特徴マップ403aは、画像中の線分の傾きのような単純な模様によく反応する特徴マップとなり得る。また、CNNの入力画像401から最も遠い所定数の層(高層)109hの特徴マップ403cは、より広い範囲の画像パターンを集約し、複雑なパターン形状に反応する特徴マップとなり得る。中間の層(中層)109mの特徴マップ403bは、特徴マップ403aと特徴マップ403cとの中間のパターン形状に反応する特徴マップとなり得る。
ベース特徴生成部108は、CNNにおいて処理中の層が、特徴抽出の対象となる所定の層か否かを判定する(S1204)。所定の層は、本実施形態の例では予め定められた枚数(ch数)を表す低層、中層、高層のいずれかである。所定の層でない場合は(S1204:No)、S1207へ移行する。所定の層であれば(S1204:Yes)、特徴マップを所定サイズへアップサンプリングし(S1205)、特徴マップをベース特徴F(x,y)の配列に追加する(S1206)。このような処理をループの条件(特徴マップがn(自然数)枚に達したかどうか)を満たすまで繰り返し(S1207)、最終的にn枚の特徴マップが連結されたベース特徴F(x,y)が生成される。上記のベース特徴生成の処理は、数式では下記のように表される。
[数2]
F(x,y)
=[f(x,y),f(x,y),・・・,f(x,y)
ここで、f,f,・・・,fは抽出された特徴マップであり、ベース特徴F(x,y)は、上記のように抽出された特徴マップをz次元方向に統合したものとなる。なお、CNNは1/2プーリング404a,404bを行うため、特徴マップの解像度は、層によって異なるものとなる。そのため、ベース特徴生成部108は、上記の統合前に、各特徴マップを所定の解像度、例えば入力画像I(x,y)の解像度に合致させる処理を行う(S1205)。具体的には、特徴マップ403bについて2倍のアップサンプリング(X2 up-sample)405aを行う。また、特徴マップ403cについて4倍のアップサンプリング(X4 up-sample)405bを行う。解像度を合致させるための変更は、画素値のコピーや線形補間といった一般的な方法を行えばよい。
以上のようにして、CNNの低層109l、中層109m及び高層109hを統合した448chのベース特徴F(x,y)が生成される。これにより、第1の性質として、様々な被写体の、様々なスケール及びバリエーションの情報が、ベース特徴F(x,y)の中に含まれることとなる。第2の性質として、2次元の画素群の領域(x,y)ごとに3次元以上の高次元の特徴ベクトルが対応したものとなる。
このような二つの性質により、ベース特徴F(x,y)は、様々な被写体の検出ないし認識のタスクに有効に用いることができるようになる。
なお、本実施形態では、入力画像I(x,y)とベース特徴F(x,y)の解像度を合致させるようにしたが、この限りでない。アップサンプリング処理の倍率を検出対象に応じて変更することで、入力画像I(x,y)よりも粗い解像度、または、細かい解像度のベース特徴F’(x’,y’)を生成することもできる。そのため、本明細書では、上述した「領域ブロック」を、ベース特徴F(x,y)の画素群の領域を表す一般化した名称として用いる。
<第1特徴の生成>
次に、第1特徴生成部102による第1特徴を生成する処理(S12)の詳細手順について、図5(A)を参照して説明する。この処理は、S1208からS1211のループとなる。第1特徴生成部102は、所定の規則の例として、ベース特徴F(x,y)から第1解像度となる低層の特徴109lを抽出し、低層の特徴109lから領域ブロックxy(座標(x,y)の位置の画素群、以下同じ)ごとの局所特徴Fxyを生成し、これを記憶する。局所特徴Fxyは、入力画像401に判別の検出対象、例えば人物が映っている場合に、後段で人物の顔などの局所的な部分の特徴が各領域ブロックx,yに存在するか否かの判別に用いる。その特徴量は、後段において判別に必要なデータをコンパクトに表現したベクトルとなる。
第1特徴生成部102は、多次元の特徴マップであるベース特徴F(x,y)及び8近傍の特徴を取得する(S1209)。具体的には、ベース特徴F(x,y)のうち領域ブロックxyに対応する特徴ベクトル、及び、各領域ブロックの周囲の8つの領域ブロックの特徴ベクトルを抽出する。そして、これらを1次元に連結して局所特徴Fxyとして記憶する(S1210)。数式で表すと以下のとおりである。次式において、Tはベクトルの転置である。
[数3]
xy=[F(x-1,y-1),F(x,y-1),F(x+1,y-1)
F(x-1,y ),F(x,y ),F(x+1,y )
F(x-1,y+1),F(x,y+1),F(x+1,y+1),]
<第2特徴の生成>
次に、第2特徴生成部103による第2特徴を生成する処理(S13)の詳細について図5(B)及び図9を参照して説明する。この処理は、S1301からS1307の順に行われるが、S103から1305はループとなる。第2特徴は、入力画像の広域特徴を含む特徴であり、判別パラメータである閾値(θ)を推定する際の手掛かりに用いられる。第2特徴も第1特徴と同じくベース特徴F(x,y)に基づいて生成する。
第2特徴生成部103は、まず、ベース特徴F(x,y)から第1解像度よりも粗い第2解像度となる高層の特徴109hを抽出する(S1301)。そして、抽出した高層の特徴109hを1次元に整列させる(S1302)。つまり、並べ直す。これは、図8の例でいえば特徴マップ403cを整列させたものに相当する。整列に際しては、特徴マップ403cをRAM14に記憶しておき、随時読みだして使用できるようにする。
次に、第2特徴生成部103は、S1303からS1305のループで、高層の特徴109hについて、ニューラルネットワークの全結合層の演算処理によって特徴変換を行う。全結合層の演算処理では、1次元に整列された高層の特徴109hについて重み付けを行う。全結合層の重み付けは、本実施形態では、図9に画像分類カテゴリ208として示す出力層を用いて、予め画像分類タスクが判定できるように学習しておく。このような学習形態を「マルチタスク学習」と呼ぶ。ここでは、例えば1000クラス程度の分類タスクの学習を行う。このマルチタスク学習を行った後に、出力層の前の中間層を用いて特徴変換を行うことで、人物やその人物の目の大きさ、髪色など、検出対象の大まかな画像の特徴を表す画像分類特徴115を得ることができる。
第2特徴生成部103は、次に、画像分類特徴115とカメラ情報入力部110を通じて入力されたカメラ情報とを連結して広域特徴Gを生成する(S1306)。カメラ情報は入力画像の撮像時の条件を表す情報である。カメラ情報の一例として、本実施形態では図10(A)に示されるように、カメラの焦点がどの領域ブロックに合っているかを表す合焦情報1501を数値化した合焦情報値1502を用いる。合焦情報値1502は、焦点があっている領域ブロックでは0、そうでない場合は焦点の深さに応じた+の数値となる。この合焦情報値1502を領域ブロックごとの閾値(θ)に加算することにより、例えば「焦点の合っていないエリアは被写体の誤検出が多いために閾値(θ)を上げる」といった、状況に応じた閾値(θ)の設定ができる。その後、第2特徴生成部103は、連結した特徴を広域特徴Gとして記憶し、第2特徴の生成処理を終える(S1307)。
なお、カメラ情報は、合焦情報値1502のほか、図10(B)に示すような水平線推定結果1503と各領域ブロックとの位置関係に関する水平線情報値1504を使用することもできる。水平線は、カメラが重力センサを有する場合、その重力センサの検出情報から推定することができる。そして、領域ブロックごとの閾値(θ)に加算する数値として、水平線より上の領域ブロックは−1,それ以外の領域ブロックは、近くになるほどプラスの数値となるようにする。カメラ情報の他の種類としては、図10(C)に示す物理的な測光値に関する測光情報値1505などを使用することもできる。なお、図10(A)〜(C)はカメラ情報の例示であって、被写体の適切な判別パラメータ(閾値(θ))の推定及び設定の際に手がかりとなる情報であれば、あらゆる種類のカメラ情報を用いることができる。カメラ情報は、外部記憶装置15に保持され、随時、カメラ情報入力部110から第2特徴生成部103に提供される。
<判別パラメータ設定>
次に、図3のS14に示した判別パラメータを設定する処理について詳細に説明する。ここでは、判別パラメータ設定部104が、判別パラメータとして人物の顔を検出する際に用いる閾値(θ)を算出し、領域ブロックごとに設定する場合の例を説明する。
判別パラメータ設定部104は、顔サイズsごとに、かつ、入力画像の領域ブロック(i,j)ごとに適切な閾値(θ)が設定されるように、図9に示される3つのパラメータ回帰器104a、104b、104cを備える。パラメータ回帰器104aは、小さい顔の閾値(顔(小)閾値)用の回帰器である。パラメータ回帰器104cは大きい顔の閾値(顔(大)閾値)用の回帰器である。パラメータ回帰器104bは、中間のサイズの顔の閾値(顔(中)閾値)用の回帰器である。領域ブロックの添え字を(i,j)とするのは、局所特徴の領域ブロック(x,y)よりも解像度を低くするためである。
局所特徴では、顔の尤度スコアのほかに位置精度が重要となるため、より高い解像度の領域ブロック単位(x,y)で判別を行う必要があるが、判別パラメータ設定部104による閾値(θ)の推定では、位置精度はそれほど重要でない。むしろ、より粗い解像度の領域ブロック単位(i,j)で推定を行うのが好適である。その理由として、本実施形態では、閾値(θ)を入力画像の領域ブロックごとに異なるパラメータ回帰器でそれぞれ学習するため、領域ブロックの解像度が高すぎると処理量やメモリ消費の点で不利になる。また学習時の事例が少なくなるため、過学習が起こりやすい点も理由の一つに挙げられる。このように被写体の尤度判別と閾値(θ)の設定とが相補的な関係にある点が本実施形態における特長の一つである。
判別パラメータ設定部104による具体的な処理の手順は以下の通りである。判別パラメータ設定部104は、図7に示すように、顔サイズs(ただしs∈{小,中,大})、及び入力画像上の各領域ブロック(i,j)について処理を繰り返す(S1401〜S1405)。判別パラメータ設定部104は、抽出された広域特徴Gを用いて、各顔サイズs及び各領域ブロック(i、j)に閾値(θijs)を算出する(S1403)。算出は、下記式に示される一般的なロジスティック回帰器の演算により行う。
[数4]
θijs=1/(1+exp{−Wijs ・G+bijs})
ただし、Wは広域特徴Gと同じ長さのベクトルからなる重みパラメータ、bはバイアス値である。また。重みWの値及びバイアス値bは予め学習して得ているものとする。以上の演算により、判別パラメータである閾値(θijs)が、顔サイズs及び入力画像の領域ブロック(ij)ごとに算出され、設定される。
判別パラメータ設定部104の処理により設定される閾値(θijs)の例が図9に示されている。図9では、閾値(θijs)が0に近い領域ブロックほど白く、閾値(θijs)が1に近い領域ブロックほど黒く示されている。すなわち、閾値(θijs)が1に近い黒い領域ブロックほど検出を抑制し、尤度スコアが高くない限り検出をしないという設定がなされる。
<被写体判別>
次に、図3のS15に示された判別処理の詳細な手順例を図7及び図9を参照して説明する。図7において、被写体判別部106は、人物の顔のサイズsごとにS1501からS1509のループ処理を行う。すなわち、被写体判別部106は、顔(小)尤度スコアを生成する尤度生成部106a、顔(中)尤度スコアを生成する尤度生成部106b、顔(大)尤度スコアを生成する尤度生成部106cとして機能する。
各尤度スコアは、各領域ブロック(x,y)について局所特徴Fxyを入力とし、サイズsの顔が被写体の候補としてその領域ブロックに存在する確度を表す評価情報である(S1501〜S1504)。具体的には、局所特徴Fxyを入力変数とし、例えばサポートベクトルマシン(SVM:support vector machine)を用いて、各領域ブロック(x,y)についてのサイズsの顔の尤度スコアLs(x,y)を以下の式により算出する。
[数5]
s(x,y)=R(Σk αsksk・Fxy+bs
skは、SVMがサイズsの顔を判別するためのk番目のサポートベクトル、αskは同じくサポートベクトルの重み係数、bsはバイアス項である。これらのパラメータは、顔サイズsごとに予め後述する方法で学習を行い、記憶してあるものとする。R(・)は、SVMの出力を尤度に変換するための規格化関数である。ここでは簡易に下式のような関数でSVMのスコアを0〜1に規格化する。なお、τは定数である。
[数6]
規格化関数z’=R(z)の定義:
z’=1 if z≧τ
z’=z/τ if 0≦z<τ
z’=0 if z<0
SVMは、線形入力素子を利用した2クラスのパターン識別器の一つである。尤度生成部106a、106b、106cは、全ての領域ブロック(x,y)と全ての顔サイズsについて条件判定の処理を行う。そのために、SVMのように軽い処理の判別器であることが好適である。換言すれば処理が軽ければ決定木や多層パーセプトロン等、どのような判別器を用いることができる。
尤度生成部106a、106b、106cは、また、抽出したLs(x,y)の値を閾値(θijs)と比較する。ただし、被写体の尤度スコアを算出した領域ブロック(x,y)と、閾値(θijs)を設定した領域ブロック(i,j)とは解像度が異なるため、下記の式に示すように座標を変換して得られる領域ブロックの閾値(θi'j's)と比較する。下記の式において、δとγは2つの領域ブロック間の座標変換のパラメータである。
[数7]
i’=δ1x+γ1
j’=δ2y+γ2
そして、次の数式に示す条件を判定する。
[数8]
s(x,y)≧θi'j's
このようにして尤度生成部106a、106b、106cは、図9に示す通り、顔(小)尤度スコア、顔(中)尤度スコア、顔(大)尤度スコアを生成する。
各尤度スコアが生成されると、被写体判別部106は、閾値処理部106dで各領域ブロック(x,y)について条件判定を行う(S1506)。すなわち、閾値処理部106dは、尤度スコアL(x,y)が8近傍の尤度スコアの中で最大の値か否かを判定する。また、閾値(θi'j's)以上かどうかを判定する。肯定的の場合(S1506:Yes)、条件を満たす領域ブロック(i番目の領域ブロック)の座標(x,y)を中心とする位置にサイズsの顔が存在すると判定する(S1507)。つまり、そのサイズsの顔を図9に示される被写体の候補と判定する。その後、S1505の処理に戻る。
一方、S1506の結果が否定的である場合(S1506:No)、ただちにS1505の処理に戻る。図3のS16では、上記の被写体判別部106による判定の結果が、最終検出結果121として結果出力部107に出力される。
<学習処理>
次に、情報処理装置が行う学習処理について、図11から図14を参照して説明する。図11は、学習処理を行うときの情報処理装置の機能ブロック構成図である。図2の機能ブロック構成図に、カメラ情報保持部130、学習画像保持部131、教師値保持部132、尤度集計部133、判別パラメータ教師値保持部134が追加されている。なお、ベース特徴生成部108については、図示を省略してある。
図12に示す学習処理の手順説明図を参照すると、画像入力部101は、学習画像保持部131から学習画像を取得する。また、尤度生成部106a、106b、106cは、各画像に対応する顔の教師値を教師値保持部132から取得する。なお、ここでは、各画像に対応する人物の顔の教師値を用いるが、必ずしも顔に限られない。図14(A)は学習画像セットX、同(B)は学習画像セットYを示す。各学習画像セットX,Yは、それぞれの図の(1)行に示される学習画像と、図の(2)行に示される顔の教師値のセットからなる。顔の教師値は、領域ブロックが小サイズの顔、中サイズの顔、大サイズの顔、のいずれかを含むか、あるいはいずれも含まないかを表す値である。具体的には、顔の基準点を含む領域ブロックを正事例(顔があった)“1”、それ以外の領域ブロックを負事例(顔がなかった)“0”の教師値とする。各教師値は、簡便には、顔サイズごとに入力デバイス21を介して操作者が付与してもよいが、自動認識処理によってそれを行うようにしてもよい。顔の基準点は、顔領域の重心とするが、この限りでない。
第1特徴生成部102は、各学習画像から局所特徴を生成する(S112)。局所特徴を生成する処理の内容は、S12の処理と同様となる。
まず、尤度生成部106a,106b,106cは、局所特徴に基づき被写体(顔)を正しく判別できるよう尤度判定用のSVMを次のように学習する(S113)。すなわち、尤度生成部106a,106b,106cは、与えられた顔についての教師値の“0”、“1”の値を目標変数、対応する領域ブロックの連結層特徴量Fxyを説明変数とし、顔の正事例と負事例が判別できるようにSVMを学習する。学習は、サイズsごとに行い、SVMのパラメータ([vsk,αsk,bs])を得る。以上が、尤度生成部106aの学習手順である。
情報処理装置では、その後、判別パラメータ設定部104の回帰器104a,104b,104cを学習する(S114)。回帰器104a,104b,104cは、画像の領域ブロックごとに備えられるパラメータ回帰器Φijである。パラメータ回帰器Φijは、それぞれが、前述した数2式に従うロジスティック回帰器である。学習の目的は、これらのロジスティック回帰器が入力画像の広域特徴に応じて適切な閾値(θij)が推定できるように、回帰器Φijの重みパラメータ([Wij,bij])を得ることである。ここでは、説明の簡単のために以降では顔のサイズsについては考慮せず、全て同じ顔として扱うものとする。サイズsを考慮したときにも本質的に学習動作は同一であり、単純に以降に述べる学習手順をサイズ別に行えばよい。
図13はこの学習の手順説明図であり、S1141からS1149の処理のループを実行する。図15は、学習処理の概念説明図である。図13及び図15を参照すると、画像入力部101は、学習画像保持部131に保持された複数の画像からランダムにn個サンプリングしてバッチセット501を選択する(S1142)。
尤度生成部106aは、このバッチセット501に対してSVMを用いて、各学習画像の被写体の尤度を並べた尤度マップを生成する(S1143)。
尤度集計部133は、尤度マップの局所的なピークの位置を抽出して記憶する(S1144)。そして、尤度集計部133は、ピークを集計して正事例(ピークの位置に顔があった)か負事例(ピークの位置に顔はなかった)の尤度のピークのスコアを領域ごとに集計して尤度スコアの分布を生成する(S1145)。このようにして集計された結果が図15に示す尤度スコア分布503a,503bである。尤度スコア分布503a,503bとして示されるように、尤度スコアは画像中の位置ごと、すなわち領域ブロック(i,j)ごとに集計する。なお、尤度スコア分布503a,503bの細線の曲線は、各画像のスコア分布、太線の曲線はバッチの平均のスコア分布である。
一般に、画像のパターンから特徴を判別する場合、画像中央部では比較的精度がよく、画像の端ではパターンの一部が隠れるために認識精度が下がる。すなわち、図15に示すように、正事例と負事例のスコア分布は、画像や領域ブロックの場所によって変化する。本実施形態では、各バッチセット501の画像の領域ブロック(i,j)ごとに適切な目標となる閾値(θij)を設定する。例えば、顔検出の誤検出率が一定未満に抑えられるように、バッチセット501中の負事例の95%を棄却できるような閾値を目標閾値(θ^)として設定する。例えば、画像中央付近のパラメータ回帰器Φ3,2に対してはθ^3,2=0.4と比較的低い閾値を、画像隅のパラメータ回帰器Φ4,3に対してはθ^4,3=0.7と高い閾値を回帰推定の目標値として与える(S1146)。
次に、第2特徴生成部103は、バッチセット501の各バッチの画像の広域特徴505を生成する(S1147)。ついで、第2特徴生成部103は、広域特徴505を説明変数とし、目標の閾値(θ^ij)に近い閾値(θij)が、前述した数4の式で算出できるように重みパラメータ([Wij,bij])を求める。これは目標値θ^ijと推定値θijの誤差の総和の値Eをバッチごとに算出し、これを減らすような勾配方向に重みパラメータを更新すればよい。具体的には機械学習で広く公知な勾配法を用いて下式のように重みの値を微小に更新する(S1148)。
[数9]
ij t+1=η∂E/∂Wij t+Wij t
ij t+1=η∂E/∂bij t+bij t
ただし、ηは微小な係数である。上記の更新動作を所定のm回数繰り返し、得られた重みパラメータ([Wijm,bijm])をパラメータ回帰器Φijのパラメータとする。
このようにして学習されたパラメータ回帰器Φijは、画像の広域特徴に応じて、領域ブロックごとに適切な目標閾値が設定できるように鍛えられたものとなる。
以上の学習処理は、前述のように、顔のサイズsごとにパラメータ回帰器Φijsとして学習を行う。その結果、例えば乱雑な背景があるような画像では、誤検出しやすい小サイズの顔の検出が抑制されるような閾値(θ)が設定される。また、例えば、ポートレート写真のような画像特徴を持つ画像に対しては、中心付近の大サイズの顔の失敗事例が少ないと考えられるため、中心近辺の閾値が低く設定され、大サイズの顔が検出され易くなる。
以上が被写体判別部106、判別パラメータ設定部104の学習処理の内容となる。
<変形例>
本実施形態の別の派生的形態として、第1特徴はCNNの低層の特徴マップ403aのみを用いて生成し、第2特徴は高層の特徴マップ403cのみを使って生成するといったベース特徴の使い分けをしてもよい。また、ニューラルネットワーク以外の特徴の形態として、色のヒストグラム、SIFT特徴といった従来の画像特徴も適応可能である。また、本実施形態の特徴は、矩形のブロック領域を要素単位として算出したが、第1特徴の生成単位は矩形ブロック形状に限定されない。例えば、色味の近さ等で画素をグループ分けして得られるスーパーピクセルと呼ばれる領域を単位とし、各領域について被写体の尤度スコアの計算を行ってもよい。
また、本実施形態では、判別パラメータ設定部104は、領域ブロック別かつ顔サイズ別に適切な閾値設定を行ったが、閾値の学習・推定を領域ブロックごとに行わない形態も考えられる。すなわち、領域ブロックに対してではなく、画像全体に対して顔サイズごとに一つの閾値を得てもよい。さらに顔サイズにも分けない、といった派生の形態も考えられる。また、判別パラメータ設定部104に与えた閾値の目標値は誤検出率が所定条件を満たすようにという基準で決定したが、この限りでない。他の派生として適合率(precision)が所定値以上であるという基準や、ベイズエラーを最小にする基準、といった形態を採用することも考えられる。
[第2実施形態]
第2実施形態では、意味的領域分割などの他のタスクにも適応できることを説明する。この場合、判別パラメータとして、第1実施形態のような閾値(θ)ではなく、認識結果を統合する際のスコアバランスの重み係数βを設定する。第2実施形態の情報処理装置は、ハードウェア構成は第1実施形態と同じであるが、コンピュータプログラムにより実現される機能ブロック構成が第1実施形態と異なるものとなる。
図16は、第2実施形態の情報処理装置の機能ブロック構成図である。第2実施形態の情報処理装置では、画像入力部201が、撮影画像の中から必要な入力画像を取り込む。また、第1特徴生成部202が、取り込んだ入力画像の局所領域の特徴を含む第1特徴を生成する。また、第2特徴生成部203が、取り込んだ入力画像の広域特徴を含む第2特徴を生成する。また、判別パラメータ設定部204が、第2特徴から判別パラメータを設定する。また、被写体判別部206が、第1特徴及び設定された判別パラメータに基づいて画像中の被写体を判別する。また、結果出力部207が、判別結果を出力する。また、ベース特徴生成部208が、第1特徴及び第2特徴を生成するベースとなる特徴情報を生成し、記憶する。また、カメラ情報入力部210が、カメラ情報をベース特徴生成部208に入力する処理を行う。この実施形態では、新たに、領域ブロックのカテゴリごとの判定を行う領域カテゴリ判定部211を有する。
ベース特徴生成部208は、図16に示すように、RGBヒストグラム208a、SIFT(Scale-Invariant Feature Transform)特徴208bをベース特徴として生成する。また、カメラ情報入力部210から、水平線情報値208c、測光情報値208dといった、領域ブロックのカテゴリを判別する際に有効となるカメラ情報もベース特徴として取り込む。ここでは図10(A)〜(C)に示す合焦情報値1502、水平線情報値1504、測光情報値1505を用いる。
領域カテゴリ判定部211は、入力画像の各領域ブロックの領域カテゴリの尤度スコアを算出する。領域カテゴリは、例えば、空、地面、建物、それ以外の物体の各属性を表す。領域カテゴリの教師値は、図14(A),(B)の(3)行に示すようなものである。このような領域カテゴリの判別を行うことが、第2実施形態によるタスクの目的である。
第2実施形態では、第1実施形態と異なり、ベース特徴生成部208がニューラルネットワークを用いていない。また、領域カテゴリ判定部211を、空領域判定部211a、地面領域判定部2011b、建物領域判定部211c、及び、物体領域判定部211dで構成する。これらの判定部211a〜211dは、第1特徴生成部202で生成される第1特徴に基づいて領域カテゴリをスコア化したマップ、すなわち領域カテゴリスコアマップを生成する。この領域カテゴリスコアマップは、被写体判別部206及び第2特徴生成部203で使用される。
第2実施形態における被写体の判別方法の処理手順例を図17(A),(B)を参照して説明する。まず、第1実施形態と同様に、画像入力部201で取り込んだ入力画像からベース特徴生成部208でベース特徴を生成する(S21、S22)。第1特徴生成部202は、ベース特徴から局所特徴及び広域特徴を抽出し、第1特徴を生成する(S23)。
領域カテゴリ判定部211は、領域カテゴリスコアマップを生成する(S24)。このS24の詳細な処理の手順を図17(B)に示す。すなわち、領域カテゴリ判定部211は、例えば上述のSVMを用いて、空、地面、建物、その他の物体の4種類の属性を表す領域ブロックのカテゴリの尤度スコアを算出する。そしてこれらの尤度スコアを並べて領域カテゴリスコアマップを生成する(S2401〜S2405)。第2特徴生成部203は、ベース特徴と領域カテゴリスコアマップとから、第2特徴を生成する(S25)。
判別パラメータ設定部204は、領域カテゴリの重み係数のパラメータβ=[β1,β2,β3,β4]を推定する(S26)。ここでは、領域カテゴリごとにロジスティック回帰器を用意し、説明変数を広域特徴Gとして用いて、適切なカテゴリ間のバランスの係数βを下式で推定する。
[数10]
βc=1/(1+exp{−Wc T・G+bc}) (c=1,・・・,4)
被写体判別部206では、尤度生成部206aが、推定された重みβ=[β1,β2,β3,β4]と各カテゴリの領域カテゴリスコアマップとを掛け算して調整後の尤度スコアを算出する(S27)。
[数11]
L' c(x,y)=βc・Lc(x,y) (c=1,・・・,4)
上記のロジスティック回帰器では、予め、適切な係数βcが得られるように、重みパラメータ[Wc,bc]を調整しておく。具体的には、調整後の尤度L'c(x,y)が平均的に各カテゴリの教師値([0,1]の二値)との誤差を縮小するように勾配法等で調整すればよい。このとき、第1実施形態と異なり、広域特徴に領域カテゴリのスコアマップを連結して用いることも考えられる。このような工夫を追加すると、各領域カテゴリの間の誤検出の起こし易さなどを考慮した学習が可能となる。例えば建物と物体は取り間違えやすい、といったカテゴリ間の共起性も一種の情報として考慮し、適切な重み係数βの学習を行うことができる。例えば、建物と物体の両方の尤度スコアが高い場合は、どちらの重み係数も下げるように学習されるようにする。
閾値処理部206dは、領域カテゴリを閾値処理する(S28)。結果出力部207は、判別結果を、例えばモニタ22に出力して表示させる(S29)。
<変形例>
第2実施形態の変形例として、重み係数を領域カテゴリごとに掛け算するのでなく、例えば4×4のパラメータを持つ行列βMATを用いて、全カテゴリのスコアマップの結果を混合して調整後の尤度スコアを求めてもよい。この場合の領域ブロック(x,y)の4つのカテゴリの尤度L(x,y)は、下式により算出することができる。この式は、領域ブロック(x,y)の4つのカテゴリの尤度を4×1サイズのベクトルとして並べたものに相当する。
[数12]
L'(x,y)=βMAT・L(x,y)
[第3実施形態]
情報処理装置の第3実施形態について説明する。この実施形態では、これまで説明したような定形の領域ブロックに対してではなく、不定形の領域ブロックをベースとしたタスクに対しても適応可能であることを説明する。第3実施形態の情報処理装置のハードウェア構成は第1実施形態と同じであり、コンピュータプログラムによって実現される機能ブロック構成が異なる。第3実施形態の情報処理装置の機能ブロック構成図を図18に示す。第1及び第2実施形態と異なる点は、被写体の判別を領域ブロックではなく、人間が画像に注意を向ける関心領域(ROI:Region of Interest)に着目して判別する点である。
第3実施形態の情報処理装置は、図18に示されるように、特徴生成部302、ROI選択部304、ROI特徴抽出部306、被写体尤度生成部307、領域尤度生成部309、判別パラメータ設定部311、閾値処理部315の機能を有する。これらは、撮像モードによって検出したい被写体の種類や適切な閾値が異なると考えられ、これについて対応するための機能である。
第3実施形態の情報処理装置は、また、風景モードや追尾撮像モードといったカメラ側のインタフェースであって、ユーザーが選択する撮像モードを指示する撮像モード指示部312を有する。さらに、判別パラメータ設定部311において用いるサポートベクトル回帰器(SVR)の係数を保持するSVR係数保持部313を有する。
第3実施形態における被写体の判別方法を図19を参照して説明する。ここでは、検出対象となる被写体を特定の人物とする場合の例を示す。情報処理装置は、まず、入力画像の取り込み及びその入力画像の局所特徴の生成処理を行う(S31〜S32)。これらの処理の内容は、第1実施形態と同様となる。
ROI選択部304は、「人物らしさ」の高いROIを複数選択し、それぞれ対応する候補領域を生成する(S33)。ROI特徴抽出部306は、ROIごとにその位置(座標(x,y))及びサイズsを検出するとともに、各ROIの特徴量を算出し、集計する(S34、ROIプーリング処理と呼ばれる)。被写体尤度生成部307は、第1及び第2実施形態と同様の手法で被写体尤度(人物の尤度)を算出し、算出結果を基に検出候補を生成する(S35)。
また、領域尤度生成部309は、特徴生成部302で生成された局所特徴を用いて、領域ブロックごとに、芝生,群衆、ボールといった領域カテゴリ(属性)の尤度を推定して領域カテゴリ尤度を生成する(S36)。判別パラメータ設定部311は、例えば情報処理装置の操作者が撮像モード指示部312で指示したモードに応じて、予めモードごとに学習済であるの重みパラメータであるSVR係数をSVR係数保持部313から読み出す(S37)。指示されるモードには、例えば風景モード、マクロモード、追尾モード、ポートレートモードなどがある。
判別パラメータ設定部311は、ROI特徴抽出部306が抽出したROIのサイズs、及び、ROIの座標(x、y)と、領域尤度生成部309が生成したROI中の領域カテゴリの尤度310とに基づいて判別パラメータを生成する(S38)。本実施形態の判別パラメータは、各ROIの判別に用いる閾値(θROI)である(S38)。閾値処理部315は、閾値(θROI)とS35で生成した検出候補の尤度とを比較し、すなわち閾値処理し、検出候補が被写体(人物)かどうかを判別し(S39)、その結果を出力する(S40)。情報処理装置は、このような形態の処理により、例えば“ボールの周辺にある小サイズの人物は検出対象の被写体である可能性が高い”などの情報を考慮して、人物の判別を行うことができる。
なお、SVRはサポートベクトルのマージン最大化を基準として回帰学習を行う手法である。SVRで最適な閾値(θ)を推定するためには、まず、各学習事例について目標閾値(θ^)を準備する。まず、図20(A)に示すように、ROIの位置及びサイズを特徴次元とする特徴空間上の人物の正事例と負事例の分布を考える。各事例には、被写体尤度生成部307が生成した人物の尤度の値(L)が予め付されている。
判別パラメータ設定部311は、以下のようにして、SVRの教師値となる最適な閾値(θ^)を事例ごとに設定する。具体的には、各事例について周囲のk近傍(当該事例の領域に隣り合うk(所定の定数)の領域)の事例を判別する際の適切な閾値(θ^)を設定する。ここでは、図20(A)中の正事例801について、周囲の事例の尤度スコアを参照し、近傍のいずれの事例についても閾値(θ^)を越えるような負事例がないように、θ^=0.5を目標閾値として設定している。同様にして、全ての事例について、閾値(θ^)を設定する。設定した結果の例を図20(B)に示す。
このようにして得られた閾値(θ^)のセットがSVRの学習時の教師値となる。SVRには、図20(C)に入力事例803として示すように、事例が存在しない位置に入力事例が入ってくる。そのため、ロバスト性を持たせて適切な閾値が推定できるように、マージン最大化の基準でSVRの係数の学習を行う。以上がSVRの学習方法になる。
また、図20(D)のように説明変数の特徴量としてより高次元での特徴を推定するときにも、同様の方法を用いることができる。また。このような閾値の推定の手法はSVR以外に、カーネル密度推定等の方法を用いてもよく、特定の方法に限定されない。
また、操作者が選択する撮像モードに応じて学習データと教師値の複数のセットを用意し、それぞれ学習することもできる。これにより、追尾モードの時はそれ以外のモードの時よりも、大サイズの人物の検出が抑制される、といった学習を行うことも可能である。
第3実施形態では、第1実施形態と異なり、定形的な領域ブロックをベースとしない認識手法にも適用可能となる。特に、判別パラメータの設定についても、SVRなどの手法を使うことによって、位置やサイズ等の連続値を考慮した判別パラメータの設定が行える。
本発明は、以下の処理を実行することによっても実現される。すなわち、上述した各実施形態の機能を実現するコンピュータプログラムを、ネットワークまたは各種記憶媒体を介してシステム或いは装置に供給する。そしてそのシステム或いは装置のコンピュータ(またはCPU等)がコンピュータプログラムを読み出して実行する処理によっても本発明の実施は可能である。この場合、そのコンピュータプログラム、および該コンピュータプログラムを記憶した記録媒体は本発明を構成することになる。

Claims (18)

  1. 画像を取得する取得手段と、
    前記画像の第1特徴を生成する第1特徴生成手段と、
    前記画像の前記第1特徴と異なる第2特徴を生成する第2特徴生成手段と、
    前記第2特徴から前記画像に存在する被写体を判別するための判別パラメータを前記画像に対して設定する設定手段と、
    前記第1特徴と前記判別パラメータとに基づいて前記被写体を判別する判別手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記判別手段は、前記第1特徴から前記被写体の候補を検出するとともに検出された前記候補の尤度と前記判別パラメータとを比較することにより当該候補が前記被写体であるかどうかを判別することを特徴とする、請求項1に記載の情報処理装置。
  3. 前記判別手段は、前記第1特徴に基づいて前記画像中に前記被写体が存在する尤度を表す尤度スコアを前記画像を構成する領域ブロックごとに算出し、各尤度スコアを全ての領域ブロックについて統合することにより前記候補を検出することを特徴とする、請求項2に記載の情報処理装置。
  4. 前記画像の特徴抽出のベースとなるベース特徴を生成するベース特徴生成手段をさらに備えており、前記第1特徴生成手段は、前記ベース特徴を第1解像度で変換することにより前記第1特徴を生成し、前記第2特徴生成手段は、前記ベース特徴を前記第1解像度よりも粗い第2解像度で変換することにより前記第2特徴を生成することを特徴とする、請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記ベース特徴生成手段は、前記画像に対してニューラルネットワークで複数回の畳み込み演算を行うことにより、演算が進むに従って解像度が低くなる複数層の特徴マップを生成するとともに、これらの層の特徴マップを統合することにより前記ベース特徴を生成することを特徴とする、請求項4に記載の情報処理装置。
  6. 前記ベース特徴生成手段は、統合前に全ての層の特徴マップの解像度を合致させることを特徴とする、請求項5に記載の情報処理装置。
  7. 前記第1特徴生成手段は、前記複数層の特徴マップのうち前記第1解像度の層の特徴マップを変換することにより前記第1特徴を生成し、前記第2特徴生成手段は、前記第2解像度の層の特徴マップを変換することにより前記第2特徴を生成することを特徴とする、請求項5又は6に記載の情報処理装置。
  8. 前記第1特徴は、前記入力画像の局所領域の特徴である局所特徴を含み、
    前記第2特徴は、前記局所特徴よりも広い領域の特徴である広域特徴を含むことを特徴とする、請求項7に記載の情報処理装置。
  9. 前記画像がカメラで撮像された画像であり、
    前記取得手段は、前記画像の撮像時の条件を表すカメラ情報と共に取得し、
    前記第2特徴生成手段は、前記第2解像度の層の特徴マップについて前記ニューラルネットワークの全結合層の演算を行うことにより、予め分類された画像特徴である画像分類特徴を生成するとともに、前記画像分類特徴と前記カメラ情報とを連結することにより前記広域特徴を生成することを特徴とする、請求項8に記載の情報処理装置。
  10. 前記設定手段は、前記第2特徴に含まれる前記画像分類特徴を用いて前記被写体のサイズを推定するとともに、前記被写体のサイズごと及び前記画像を構成する領域ブロックごとに前記判別パラメータを設定することを特徴とする、請求項9に記載の情報処理装置。
  11. 前記判別パラメータは、前記判別の誤りが所定値以下となるように予め学習により決定された閾値であることを特徴とする、請求項1ないし10のいずれか一項に記載の情報処理装置。
  12. 前記画像を構成する複数の領域ブロックのうち個々の領域ブロックの属性を表す領域カテゴリを予め保持されている学習データに基づいて判定するとともに、判定した領域カテゴリごとに当該領域カテゴリの尤度を表す尤度スコアを算出する領域カテゴリ判定手段を備えており、前記第2特徴生成手段は、前記領域カテゴリごとの尤度スコアに基づいて前記第2特徴を生成することを特徴とする、請求項1から3のいずれか一項に記載の情報処理装置。
  13. 前記設定手段は、予め領域カテゴリごとに学習された学習データに基づいてそれぞれの前記領域カテゴリの前記尤度スコアを重み付けし、重み付け後の前記尤度スコアを用いて前記判別パラメータを前記領域ブロックごとに設定することを特徴とする、請求項12に記載の情報処理装置。
  14. 画像を取得する取得手段と、
    前記画像の局所領域の特徴を表す局所特徴を生成する特徴生成手段と、
    前記局所特徴から前記画像を構成する複数の領域ブロックの各々が、予め定められたカテゴリの尤度を表す領域カテゴリ尤度を生成する領域尤度生成手段と、
    前記領域カテゴリ尤度に基づいて複数の関心領域を選択する選択手段と、
    前記局所特徴及び選択された前記複数の関心領域の各々の位置及びサイズを検出するとともに、各関心領域の特徴を抽出する特徴抽出手段と、
    抽出された各関心領域の特徴に基づいて当該関心領域における被写体の尤度を生成する被写体尤度生成手段と、
    前記特徴抽出手段で検出された各関心領域の位置及びサイズと前記領域尤度生成手段で生成された前記領域カテゴリ尤度とに基づいて前記被写体を判別するための判別パラメータを前記関心領域ごとに設定する設定手段と、
    前記被写体尤度生成手段で生成された被写体の尤度と前記判別パラメータとを比較することにより前記被写体を判別する判別手段と、
    を備えることを特徴とする情報処理装置。
  15. 画像を構成する第1解像度の領域ブロックごとに、前記入力画像に被写体が存在することの尤度を表す尤度スコアを算出するとともに、算出した各尤度スコアを評価することにより、前記被写体の候補を検出するステップと、
    前記画像を構成する、前記第1解像度よりも粗い第2解像度の領域ブロックごとに、前記被写体を判別するための判別パラメータを設定するステップと、
    前記候補の尤度と前記判別パラメータとを比較することにより当該候補が前記被写体であるかどうかを判別するステップと、を有する被写体の判別方法。
  16. 画像の第1特徴を生成するステップと、
    前記第1特徴から前記画像を構成する領域ブロックごとに、当該領域ブロックのカテゴリの尤度を表す領域カテゴリスコアを算出し、各領域カテゴリスコアに基づいて前記画像に存在する被写体の尤度を生成するステップと、
    算出した各領域カテゴリスコアと前記画像とに基づいて前記第1特徴と異なる第2特徴を生成し、生成した前記第2特徴に基づいて前記領域カテゴリスコアの重み係数を推定するとともに、前記各領域カテゴリスコアを前記重み係数で調整するステップと、
    調整された前記各領域カテゴリスコアと前記被写体の尤度とを比較することにより前記被写体を判別するステップと、を有することを特徴とする被写体の判別方法。
  17. 画像の局所領域の特徴を表す局所特徴を生成するステップと、
    前記局所特徴に含まれる複数の関心領域を選択し、選択した各関心領域の特徴を抽出することにより、前記各関心領域における被写体の尤度を生成するステップと、
    前記局所特徴における領域カテゴリの尤度を生成し、生成した前記尤度と前記関心領域のサイズ及び位置に基づいて前記被写体を判別するための判別パラメータを前記関心領域ごとに設定するステップと、
    前記被写体の尤度と前記判別パラメータとを前記関心領域ごとに比較することにより前記被写体を判別するステップと、を有することを特徴とする被写体の判別方法。
  18. コンピュータを請求項1から14のいずれか一項に記載された情報処理装置として機能させるためのコンピュータプログラム。
JP2018023792A 2018-02-14 2018-02-14 情報処理装置、被写体の判別方法及びコンピュータプログラム Active JP7077046B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018023792A JP7077046B2 (ja) 2018-02-14 2018-02-14 情報処理装置、被写体の判別方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018023792A JP7077046B2 (ja) 2018-02-14 2018-02-14 情報処理装置、被写体の判別方法及びコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2019139618A true JP2019139618A (ja) 2019-08-22
JP2019139618A5 JP2019139618A5 (ja) 2021-04-15
JP7077046B2 JP7077046B2 (ja) 2022-05-30

Family

ID=67694180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018023792A Active JP7077046B2 (ja) 2018-02-14 2018-02-14 情報処理装置、被写体の判別方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7077046B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070083A (zh) * 2020-09-04 2020-12-11 北京灵汐科技有限公司 图像内容检测方法、装置、电子设备和存储介质
KR20210035369A (ko) * 2019-09-23 2021-04-01 삼성전자주식회사 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치
US20210192772A1 (en) * 2019-12-24 2021-06-24 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
WO2021193101A1 (ja) * 2020-03-27 2021-09-30 株式会社日立国際電気 画像解析システム、画像解析方法及び画像解析プログラム
WO2021260780A1 (ja) * 2020-06-23 2021-12-30 日本電気株式会社 物体位置推定装置、物体位置推定方法、および記録媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513468A (ja) * 2003-01-06 2006-04-20 三菱電機株式会社 画像内のピクセルをセグメント化する方法
JP2013045433A (ja) * 2011-08-26 2013-03-04 Canon Inc 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
JP2016018538A (ja) * 2014-07-11 2016-02-01 キヤノン株式会社 画像認識装置、方法及びプログラム
JP2017005389A (ja) * 2015-06-05 2017-01-05 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP2017097510A (ja) * 2015-11-20 2017-06-01 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP2017102622A (ja) * 2015-11-30 2017-06-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513468A (ja) * 2003-01-06 2006-04-20 三菱電機株式会社 画像内のピクセルをセグメント化する方法
JP2013045433A (ja) * 2011-08-26 2013-03-04 Canon Inc 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
JP2016018538A (ja) * 2014-07-11 2016-02-01 キヤノン株式会社 画像認識装置、方法及びプログラム
JP2017005389A (ja) * 2015-06-05 2017-01-05 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP2017097510A (ja) * 2015-11-20 2017-06-01 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP2017102622A (ja) * 2015-11-30 2017-06-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210035369A (ko) * 2019-09-23 2021-04-01 삼성전자주식회사 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치
KR102680342B1 (ko) 2019-09-23 2024-07-03 삼성전자주식회사 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치
US20210192772A1 (en) * 2019-12-24 2021-06-24 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US11842509B2 (en) * 2019-12-24 2023-12-12 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
WO2021193101A1 (ja) * 2020-03-27 2021-09-30 株式会社日立国際電気 画像解析システム、画像解析方法及び画像解析プログラム
WO2021260780A1 (ja) * 2020-06-23 2021-12-30 日本電気株式会社 物体位置推定装置、物体位置推定方法、および記録媒体
JPWO2021260780A1 (ja) * 2020-06-23 2021-12-30
JP7448006B2 (ja) 2020-06-23 2024-03-12 日本電気株式会社 物体位置推定装置
CN112070083A (zh) * 2020-09-04 2020-12-11 北京灵汐科技有限公司 图像内容检测方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
JP7077046B2 (ja) 2022-05-30

Similar Documents

Publication Publication Date Title
JP7077046B2 (ja) 情報処理装置、被写体の判別方法及びコンピュータプログラム
JP7149692B2 (ja) 画像処理装置、画像処理方法
US9824294B2 (en) Saliency information acquisition device and saliency information acquisition method
Creusot et al. A machine-learning approach to keypoint detection and landmarking on 3D meshes
De Carvalho et al. Exposing digital image forgeries by illumination color classification
Su et al. Preference-aware view recommendation system for scenic photos based on bag-of-aesthetics-preserving features
CN110619628B (zh) 一种人脸图像质量评估方法
Wong et al. Saliency-enhanced image aesthetics class prediction
Levinshtein et al. Optimal contour closure by superpixel grouping
CN104835175B (zh) 一种基于视觉注意机制的核环境中目标检测方法
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US20100014758A1 (en) Method for detecting particular object from image and apparatus thereof
JP2017033469A (ja) 画像識別方法、画像識別装置及びプログラム
JP7142420B2 (ja) 画像処理装置、学習方法、学習済モデル、画像処理方法
CN102622589A (zh) 一种基于gpu的多光谱人脸检测方法
Jun et al. Robust real-time face detection using face certainty map
CN104036284A (zh) 基于Adaboost算法的多尺度行人检测方法
JP5574033B2 (ja) 画像認識システム及びその認識方法並びにプログラム
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
JP2007511838A (ja) 距離、局所線形構造およびアフィン対称を用いた画像クラスタリング
JPH0973544A (ja) 形状認識装置及びその方法
Zhou et al. Visual robotic object grasping through combining rgb-d data and 3d meshes
Hassan et al. Salient object detection based on CNN fusion of two types of saliency models
Estrada et al. Appearance-based keypoint clustering
JP4185083B2 (ja) 形状認識装置及びその方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220518

R151 Written notification of patent or utility model registration

Ref document number: 7077046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151