JP2021009493A - 画像処理装置、画像処理装置の制御方法及びプログラム - Google Patents

画像処理装置、画像処理装置の制御方法及びプログラム Download PDF

Info

Publication number
JP2021009493A
JP2021009493A JP2019122098A JP2019122098A JP2021009493A JP 2021009493 A JP2021009493 A JP 2021009493A JP 2019122098 A JP2019122098 A JP 2019122098A JP 2019122098 A JP2019122098 A JP 2019122098A JP 2021009493 A JP2021009493 A JP 2021009493A
Authority
JP
Japan
Prior art keywords
image
feature
face
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019122098A
Other languages
English (en)
Other versions
JP7386630B2 (ja
Inventor
矢野 光太郎
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019122098A priority Critical patent/JP7386630B2/ja
Publication of JP2021009493A publication Critical patent/JP2021009493A/ja
Application granted granted Critical
Publication of JP7386630B2 publication Critical patent/JP7386630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】アライメント等の前処理を必要とすることなく、精度良くオブジェクト画像の照合を行う。【解決手段】撮影装置により撮影された画像からオブジェクトの照合を行う画像処理装置であって、画像から畳み込みニューラルネットワークによって、画像の特徴点が検出された位置が示された複数の特徴マップを算出する特徴マップ算出部と、複数の特徴マップから画像中のオブジェクトの特徴点位置を推定する推定部と、特徴点位置を用いて複数の特徴マップの部分領域を抽出し、該部分領域を所定サイズに正規化する正規化処理部と、正規化された特徴マップからオブジェクトの特徴を抽出する抽出部と、抽出された特徴と予め記憶されている特徴とを照合する照合部とを備える。【選択図】 図1

Description

本発明は、画像処理装置、画像処理装置の制御方法及びプログラムに関する。
近年、カメラで所定のエリアを撮影して、撮影した映像を解析することによって映像中から特定の人物を検索するシステムが提案されている。このようなシステムでは、予めシステムに登録されている顔画像を用いて公共の空間に設置された監視カメラから人物を検索することで不審人物の早期発見への活用が期待されている。人物の検索には登録人物と映像中の人物の顔画像を照合する顔認識技術が用いられる。
顔認識技術においては、登録および入力顔画像の夫々から顔の特徴を表す特徴量を抽出して、抽出した特徴量の類似度から同一人物か否かを判定する。このような顔認識技術は、近年、ディープラーニング技術の導入により、人の認識精度を超えるものも報告されている。非特許文献1では、事前に画像から検出し、アライメントを行った顔画像をニューラルネットワークで抽出した顔特徴量で照合を行っている。
Taigmanら. Deepface: closing the gap to human-level performance in face verification. in 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Girshick. Fast R-CNN. in 2015 IEEE International Conference on Computer Vision(ICCV)
しかしながら、従来技術では、予め顔画像から目、口等の特徴点を検出してアライメントを行う必要がある。従って、アライメントの精度が低いと、抽出する特徴量がずれてしまい、顔の照合精度が低下するといった課題がある。
本発明は、上記の課題に鑑みてなされたものであり、アライメント等の前処理を必要とすることなく、精度良く顔画像等のオブジェクト画像の照合を行うための技術を提供することを目的とする。
上記の目的を達成する本発明に係る画像処理装置は、
撮影装置により撮影された画像からオブジェクトの照合を行う画像処理装置であって、
前記画像から畳み込みニューラルネットワークによって、画像の特徴点が検出された位置が示された複数の特徴マップを算出する特徴マップ算出手段と、
前記複数の特徴マップから前記画像中の前記オブジェクトの特徴点位置を推定する推定手段と、
前記特徴点位置を用いて前記複数の特徴マップの部分領域を抽出し、該部分領域を所定サイズに正規化する正規化処理手段と、
前記正規化された特徴マップから前記オブジェクトの特徴を抽出する抽出手段と、
前記抽出された特徴と予め記憶されている特徴とを照合する照合手段と、
を備えることを特徴とする。
本発明によれば、アライメント等の前処理を必要とすることなく、精度良くオブジェクト画像の照合を行うことが可能となる。
本発明の一実施形態に係る画像処理装置の機能構成の一例を示す図。 本発明の一実施形態に係る画像処理装置が実施する顔画像照合処理の手順を示すフローチャート。 本発明の一実施形態に係る畳み込みニューラルネットワークの例を示す図。 本発明の一実施形態に係る顔特徴点の例を示す図。 本発明の一実施形態に係る、顔画像を入力とした場合に畳み込みニューラルネットワークが出力する3つの特徴マップの例を示す図。 本発明の一実施形態に係る画像処理装置が実施する顔画像登録処理の手順を示すフローチャート。 本発明の一実施形態に係る画像処理装置のハードウェア構成の一例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
<画像処理装置のハードウェア構成>
図7は、本実施形態に係る画像処理装置のハードウェア構成の一例を示す図である。図7において、画像処理装置200は、演算処理装置1、記憶装置2、入力装置3、及び出力装置4を含んで構成される。なお、各装置は、互いに通信可能に構成され、バス等により接続されている。
演算処理装置1は、画像処理装置200の動作を制御し、記憶装置2に格納されたプログラムの実行等を行い、CPU(Central Processing Unit)およびGPU(Graphics Processing Unit)で構成される。記憶装置2は、磁気記憶装置、半導体メモリ等のストレージデバイスであり、演算処理装置1の動作に基づき読み込まれたプログラム、長時間記憶しなくてはならないデータ等を記憶する。本実施形態では、演算処理装置1が、記憶装置2に格納されたプログラムの手順に従って処理を行うことによって、画像処理装置200における機能及び後述するフローチャートに係る処理が実現される。記憶装置2は、また、画像処理装置200が処理対象とする画像および処理結果を記憶する。
入力装置3は、マウス、キーボード、タッチパネルデバイス、ボタン等であり、各種の指示を入力する。入力装置3は、また、カメラ等の撮像装置を含みうる。出力装置4は、液晶パネル、外部モニタ等であり、各種の情報を出力する。
なお、画像処理装置200のハードウェア構成は、上述した構成に限られるものではない。例えば、画像処理装置200は、各種の装置間で通信を行うためのI/O装置を備えてもよい。例えば、I/O装置は、メモリーカード、USBケーブル等の入出力部、有線、無線等による送受信部である。
<画像処理装置の機能構成>
図1は、本発明の実施形態に係る画像処理装置の機能構成を示す図である。図1に示すように、画像処理装置200は、カメラ(撮影装置)100と接続されている。画像処理装置200は、パラメータ取得部201、画像取得部202、画像変倍部203、特徴マップ算出部204及び特徴マップ記憶部205を備えている。また、画像処理装置200は、顔特徴点位置推定部206、正規化処理部207、顔特徴抽出部208、顔特徴記憶部209、顔サイズ算出部210、顔特徴選択部211、顔特徴照合部212、および、不図示の入力部と表示部をさらに備えている。なお、画像処理装置200がカメラ100を含む構成であってもよい。
パラメータ取得部201は、カメラ100の撮影パラメータを取得する。画像取得部202は、カメラ100で撮影した画像データを取得する。画像変倍部203は、画像取得部202で取得した画像データを所定サイズの画像に変倍する。変倍する画像サイズはパラメータ取得部201で取得した撮影パラメータに基づいて設定する。
特徴マップ算出部204は、画像変倍部203を介して取得した画像データを畳み込みニューラルネットワークに入力して処理を行うことによって複数の特徴マップを算出する。特徴マップ記憶部205は、特徴マップ算出部204の処理結果を記憶する。顔特徴点位置推定部206は、特徴マップ算出部204で求めた複数の特徴マップから画像中の人物の顔特徴点位置を推定する。正規化処理部207は、特徴マップ記憶部205に記憶された特徴マップから顔特徴点位置推定部206で求めた顔特徴点位置を用いて部分領域を切り出し、所定サイズの特徴マップに正規化する。顔特徴抽出部208は、正規化処理部207が出力する特徴マップから人物の顔特徴を抽出する。顔特徴記憶部209は、顔特徴抽出部208で求めた処理結果を記憶する。
顔サイズ算出部210は、顔特徴点位置推定部206で求めた顔特徴点位置から顔の大きさを算出する。顔特徴選択部211は、顔特徴記憶部209に記憶された顔特徴から顔サイズ算出部210で求めた顔の大きさに基づいて適切な顔特徴を選択する。顔特徴照合部212は、顔特徴抽出部208で求めた顔特徴と顔特徴選択部211で選択した顔特徴とを照合し、顔特徴間の類似度を出力する。
<顔画像照合処理>
続いて、図2のフローチャートを参照して、本発明の一実施形態に係る画像処理装置200が実施する顔画像照合処理の手順を説明する。なお、以下においては不図示の入力部で指定した検索対象である登録顔画像とカメラ100で撮影した顔画像との照合処理について説明する。
S100において、画像取得部201は、カメラ100で撮影した映像から画像データを取得する。取得する画像データは、例えば、RGB各8ビットの画素からなる二次元データである。あるいは、8ビット画素からなる輝度データでも構わないし、各画素のビット数も8ビットに限定されるものではない。このとき、パラメータ取得部201は、取得した画像データを撮影した際の撮影パラメータを取得する。取得する撮影パラメータは撮影レンズの焦点距離、絞り値、シャッタースピード、イメージセンサーのゲイン、撮影した画像の圧縮率、等を含む。但し、これら全ての撮影パラメータを必ずしも取得する必要はなく、撮影した画像の画質に影響するパラメータを少なくとも一つ取得すればよい。
S200において、画像変倍部203は。画像取得部202で取得した画像データを所定サイズの画像に変倍する。変倍する画像サイズはパラメータ取得部201で取得した撮影パラメータに基づいて設定する。
以下では、シャッタースピードを撮影パラメータとして、シャッタースピードに基づいて画像サイズを決める場合について、その方法を説明する。公共の空間を歩いている人物を撮影した画像中の顔はシャッタースピードが遅いとブレが生じるため撮影時に取得した画像でそのまま顔の照合を行うと照合精度が低下する。そこで、ブレのある画像の場合は縮小してブレの影響を抑制する必要がある。そこで、シャッタースピードに応じて変倍する画像サイズを設定する。具体的には、シャッタースピードが遅ければ遅いほど変倍する画像サイズが小さくなるように設定する。画像サイズの設定は、予めシャッタースピードと画像サイズとの関係をテーブルとして記憶しておき、テーブルを参照してシャッタースピードから画像サイズを求めるようにしておけばよい。
撮影した画像の画質に影響するその他の撮影パラメータにおいても同様にして画像サイズを設定することで同様の効果が得られる。例えば、イメージセンサーのゲインや撮影した画像の圧縮率は画像ノイズに影響するので同様の効果が得られる。
また、撮影パラメータを取得することなく撮影した画像の画質を解析して適切な画像サイズを設定することでも、同様の効果が得られることは言うまでもない。例えば、撮影した画像を周波数解析することで画像ブレやノイズを推定して適用することができる。
S300において、特徴マップ算出部204は、画像変倍部203を介して取得した画像データを、畳み込みニューラルネットワークに入力して処理を行うことによって、複数の特徴マップを算出する。
<畳み込みニューラルネットワークの例>
ここで、図3に畳み込みニューラルネットワークの例を示す。図3に示すように、この畳み込みニューラルネットワークはConv1〜Conv10の10層の畳み込み層によって構成される。畳み込み層Conv1〜Conv6は、特徴マップ算出部204の機能を構成する層であり、画像データを入力として複数の特徴マップを出力する。また、畳み込み層Conv7〜Conv10は後述する顔特徴点位置推定部206の機能を構成する。各畳み込み層Conv1〜Conv10は、例えば、3×3の畳み込み演算を各層の出力チャネル数分だけ行う。また、図3に示した畳み込みニューラルネットワークでは畳み込み層Conv1〜Conv4では1画素おきに飛ばして(ストライド数2)畳み込み演算を行い、出力する特徴マップの解像度を縦横2分の1のサイズに縮小している。また、畳み込み層Conv5〜Conv6では前段の畳み込み層から入力した特徴マップと同じサイズの特徴マップを出力するように畳み込み演算を行う。
このような多層構成の畳み込みニューラルネットワークでは、畳み込み演算を繰り返すことによって低次から高次の特徴マップを得ることができる。高次の特徴は低次の特徴に比べて入力画像に対して畳み込み演算を行った回数が多いので受容野が広くなる。ここで、受容野とはマップ中の一つの特徴に寄与する入力画像の領域であり、高次の特徴はより広い領域の画像から特徴を抽出した結果になる。
特徴マップ算出部204の処理結果は、特徴マップ記憶部205に記憶される。特徴マップ記憶部205は、少なくとも特徴マップ算出部204の最終層である畳み込み層Conv6から出力される複数の特徴マップを記憶するが、複数の畳み込み層、および、異なる解像度の特徴マップを記憶するようにしてもよい。例えば、図3の畳み込みニューラルネットワークの畳み込み層Conv1〜Conv3、および、Conv6の特徴マップを記憶するようにする。各畳み込み層の全ての特徴マップを記憶するようにしてもよいし、一部の特徴マップを記憶するようにしてもよい。記憶する特徴マップの数が多いほど顔の照合精度として高い精度が期待できるが、特徴マップ記憶部205に記憶する特徴マップの容量が多くなるので必要とする精度に応じて特徴マップの数を最適に選択してもよい。
S400において、顔特徴点位置推定部206は、特徴マップ算出部204で求めた複数の特徴マップから画像中の人物の顔特徴点位置を推定する。ここで、図4に抽出する顔特徴点の例を示す。推定する顔特徴点は図4における、LE(Left Eye)、RE(Right Eye)、N(Nose)で示す3点である。ここでは、左右の目の中心、および、鼻の頂点の3点の位置を推定するようにしたが、口など、その他の点の位置を推定するようにしてもよい。
再び図3を参照して顔特徴点位置推定部206を構成する畳み込み層Conv7〜Conv10について説明する。畳み込み層Conv7〜Conv10は逆畳み込みニューラルネットワークで構成する。逆畳み込みニューラルネットワークでは前段の畳み込み層から入力した特徴マップを縦横2倍のサイズに拡大した後、畳み込み演算を行うことで前段の畳み込み層から入力した特徴マップの縦横2倍のサイズ特徴マップを取得する。なお、顔特徴点位置推定部206の最終層である畳み込み層Conv10の出力チャネル数は3であり、3つの特徴マップは夫々、左目、右目、および、鼻の位置に高い出力値を得るように予め学習されている。ニューラルネットワークの学習方法については後述する。そして、図5(a)〜図5(c)に顔画像を入力とした場合の3つの特徴マップの出力例を示す。但し、図5(a)〜図5(c)では特徴マップの出力を元の顔画像に重畳している。図中、夫々左目(図5(a))、右目(図5(b))、および、鼻(図5(c))の位置に重畳した明暗の分布が左目、右目、および、鼻の位置推定結果であり、暗い位置ほど信頼度が高いことを示す。顔特徴点位置推定部206は、畳み込み層Conv10の夫々の特徴マップの値が最も高い位置を夫々左目、右目、および、鼻の推定位置として、その位置座標を出力する。
なお、図5の例では画像中に顔が一つの場合の出力例を示したが、画像中に複数人の顔がある場合も同様にして顔特徴点位置を推定することができる。
以上、逆畳み込みニューラルネットワークが出力する特徴マップから顔特徴点位置を推定する方法を説明したが、特徴マップ算出部204が出力する特徴マップを全結合層に入力して直接顔特徴点の位置座標を回帰推定するようにしてもよい。
S500において、正規化処理部207は特徴マップ記憶部205に記憶された特徴マップから顔特徴点位置推定部206で求めた顔特徴点位置を用いて部分領域を切り出し、所定サイズの特徴マップに正規化する。特徴マップ正規化処理には非特許文献2に記載のRoI Pooling層を用いる。RoI Pooling層では入力した特徴マップの任意の矩形領域を所定サイズの矩形領域に投影し、出力する矩形領域内の要素毎に特徴マップの最大値を出力するようにする。入力する特徴マップの矩形領域は、顔特徴点位置推定部206で求めた顔特徴点位置を用いて切り出した部分領域である。
ここで、顔特徴点位置から部分領域を求める方法を説明する。顔特徴点位置推定部206で求めた左目LE、右目RE、鼻Nの位置座標を夫々(xL,yL)、(xR,yR)、(xN,yN)とすると、部分領域の中心座標(x,y)、幅W、高さHは、以下の(式1)で求められる。
なお、以上の説明では左目、右目、鼻の位置座標から部分領域を求めるようにしたが、口、耳、等のその他の顔特徴点位置を用いてもよい。その場合には顔特徴点位置推定部206において部分領域を求めるために必要な顔特徴点位置を推定できるようにしておく。
正規化処理部207は、以上説明した正規化処理を特徴マップ記憶部205に記憶された特徴マップの夫々に対して行い、処理結果を出力する。
S600において、顔特徴抽出部208は正規化処理部207が出力する特徴マップから人物の顔特徴を抽出する。顔特徴抽出部208では、正規化処理部207が出力した複数の特徴マップを入力として全結合層により所定次元数の特徴量(顔特徴)を取得する。全結合層を複数層設けて顔特徴を抽出するようにしてもよい。出力する次元数は大きいほど高精度の照合が期待できるが、演算量も大きくなるので必要とする精度に応じて適切な次元数を選択してもよい。顔特徴抽出部208で求めた処理結果は、顔特徴記憶部209に記憶する。
S700において、顔特徴選択部211は顔特徴記憶部209に記憶された顔特徴から入力画像の顔の大きさに基づいて適切な顔特徴を選択する。顔特徴記憶部209には顔画像の解像度に応じて照合対象とする人物の複数の顔特徴が予め登録時に記憶されている。なお、顔特徴の登録時の処理については後述する。顔サイズ算出部210は、顔特徴点位置推定部206で求めた顔特徴点位置から顔の大きさを求める。顔の大きさSは、例えば、(式1)で求めた幅W、高さHを用いて、以下の(式2)で求められる。
顔特徴選択部211は顔の大きさSに基づいて顔特徴記憶部209に記憶された複数の顔特徴から適切な顔特徴を選択する。
顔特徴の選択は、顔サイズ算出部210で算出した顔の大きさSと照合対象とする人物の顔特徴を登録する際に求めておいた複数の解像度の顔画像の顔の大きさとの照合によって行う。例えば、ある人物の顔画像を高低2つの解像度で登録し、登録時に夫々顔の大きさS1、S2を得たとすると、入力顔の大きさSとの差が小さい方の顔特徴を選択するようにする。登録顔の大きさが入力顔の大きさにより近い方の顔特徴を選択することは、顔特徴の抽出に寄与する周囲画素の受容野がより近い顔特徴を選択することを意味する。小さい顔から抽出した顔特徴の受容野は大きい顔から抽出した顔特徴の受容野に比べて広くなる。
S800において、顔特徴照合部212は、顔特徴抽出部208で求めた顔特徴と顔特徴選択部211で選択した顔特徴とを照合し、顔特徴間の類似度を出力する。顔特徴間の類似度は、2つの顔特徴の差のL2ノルムを用いて算出する。類似度としては、この他にコサイン類似度やサポートベクターマシン等の機械学習で得たパラメータによる算出方法を用いてもよい。顔特徴照合部212では、顔特徴選択部211で入力顔の顔特徴の受容野により近い登録顔の顔特徴を選択するようにしたので、高精度な照合を行うことができる。
顔特徴照合部212の出力が所定の閾値を超えた場合、画像処理装置の不図示の表示部は検索結果として顔画像を表示する。
S900において、顔特徴照合部212は、現在のフレームの画像について全ての顔画像に対して処理が終了したか否かを判定する。全ての顔画像に対して処理が終了していない場合、S500に戻る。すなわち、S400の顔特徴点位置の推定処理で複数人の顔の特徴点位置が取得されている場合、夫々の顔画像についてS500〜S800の処理を繰り返すことになる。一方、全ての顔画像に対して処理が終了した場合、S1000へ進む。
S1000において、顔特徴照合部212は、カメラ100で撮影した後続のフレームの画像が存在するか否かを判定する。後続のフレームの画像が存在する場合、S100に戻って処理を繰り返す。後続のフレームの画像が存在しない場合、一連の処理を終了する。
<顔画像登録処理>
次に、図6のフローチャートを参照して、本発明の一実施形態に係る画像処理装置が実施する顔特徴の登録処理の手順を説明する。S110において、画像取得部201は、不図示の入力部で指定した検索対象である登録顔画像を取得する。
S210において、画像変倍部203は、画像取得部120で取得した画像データを所定サイズの画像に変倍する。変倍する画像サイズは所定のサイズを用いる。図4に示したような顔画像の登録を想定した場合、例えば、100×100画素、および、50×50画素程度の解像度になるように変倍率を設定しておく。変倍率を変えた画像の数が多いほど高精度の照合が期待できるが、登録時の演算量や登録する顔特徴の容量が多くなるので、必要とする精度に応じて変倍する画像の数を適切に選ぶのが良い。
S310において、特徴マップ算出部204は、画像変倍部203を介して取得した画像データを畳み込みニューラルネットワークに入力して処理を行うことによって、複数の特徴マップを算出する。特徴マップ算出部204は、図2のS300に示した照合時の処理と同様の処理を行う。
S410において、顔特徴点位置推定部206は、特徴マップ算出部204で求めた複数の特徴マップから画像中の人物の顔特徴点位置を推定する。顔特徴点位置推定部206は、図2のS400に示した照合時の処理と同様の処理を行う。
S510において、正規化処理部207は、特徴マップ記憶部205に記憶された特徴マップから顔特徴点位置推定部206で求めた顔特徴点位置を用いて部分領域を切り出し、所定サイズの特徴マップに正規化する。正規化処理部207は、図2のS500に示した照合時の処理と同様の処理を行う。
S610において、顔特徴抽出部208は、正規化処理部207が出力する特徴マップから人物の顔特徴を抽出する。顔特徴抽出部208は、図2のS600に示した照合時の処理と同様の処理を行う。顔特徴抽出部208で求めた処理結果は、顔特徴記憶部209に記憶する。このとき、顔サイズ算出部210は、幅W、高さHを用いて(式2)によって顔の大きさを求め、抽出した顔特徴と対応付けて顔特徴記憶部209に記憶しておく。
S710において、画像変倍部203は、全ての変倍する数の画像を処理したか否かを判定する。ここでは、S210で複数の変倍率の画像に対して処理を行う必要がある場合、全ての変倍率の画像について処理を行ったか否かを判定する。全ての画像について処理済である場合、一連の処理を終了する。一方、未処理の画像がある場合、S210に戻り、S210〜S610の処理を変倍率毎に繰り返す。
S110〜S710の一連の処理によって、登録顔画像の複数の解像度に対する顔特徴を取得することができる。
<ニューラルネットワークの学習方法>
続いて、本実施形態の特徴マップ算出部204、顔特徴点位置推定部206、および、顔特徴抽出部208で用いるニューラルネットワークの学習方法について説明する。
まず、図3に示した特徴マップ算出部204、および、顔特徴点位置推定部206のニューラルネットワークの学習方法について説明する。予め学習に使う枚数分の顔画像データと画像中の顔特徴点位置の座標値とを準備しておく。学習サンプルの目安としては数万〜数十万の数のサンプルを用いる。顔特徴点位置の座標値は顔画像の夫々について人手で指定しておく。次に、顔特徴点位置の座標値から顔特徴点の夫々について信頼度マップを取得する。信頼度マップは、図5に示した顔特徴点位置推定部206が出力する特徴マップと同様のマップであり、顔特徴点位置を中心にガウス分布に基づいて信頼度の値を割り当てたマップである。左目、右目、および、鼻の顔特徴点位置を推定する場合には、夫々に対応する3つの信頼度マップを作成する。次に、準備した顔画像と信頼度マップとを用いて、以下の(式3)に示す損失関数L1が最小となるニューラルネットワークのパラメータを求める。
但し、
、および、
は夫々ニューラルネットワークが推定した信頼度マップと学習データとして準備した信頼度マップである。
はL2ノルムである。Σn、Σf、Σpは夫々学習データ、顔特徴点、信頼度マップの要素の総和を表す。パラメータの学習は確率的勾配降下法等を用いて行う。
顔特徴抽出部208で用いるニューラルネットワークの学習は、学習した特徴マップ算出部204の畳み込みニューラルネットワークが出力する特徴マップを用いて行う。予め学習に使用する枚数分の顔画像データと画像中の顔特徴点位置の座標値を準備しておく。学習サンプルの目安としては数万〜数十万の数のサンプルを用いる。学習サンプルの顔画像には人物ID(個人識別番号)を対応付けておく。ニューラルネットワークの学習においては、任意の2つの顔画像のペアをサンプリングしておく。そして、夫々特徴マップ算出部204の畳み込みニューラルネットワークが出力する特徴マップを用いて、顔特徴抽出部208で用いるニューラルネットワークが出力する顔特徴を抽出しておく。顔特徴を抽出する際には、特徴マップ算出部204の畳み込みニューラルネットワークが出力する特徴マップを学習データとして準備した顔特徴点位置の座標値を用いて正規化処理部207によって正規化を行う。次に、準備した顔画像と顔特徴点位置、および、人物IDを用いて、以下の(式4)に示す損失関数L2が最小となるニューラルネットワークのパラメータを求める。
但し、dnは2つの顔画像から算出した顔特徴の差のL2ノルムである。ynは2つの顔画像が同一人物の場合1、他人の場合0の値を取る。marginは所定の値を取るパラメータである。Σnは学習データとしてサンプリングした2つの顔画像のペア数分の総和を表す。顔特徴抽出部208で用いるニューラルネットワークのパラメータの学習は確率的勾配降下法等を用いて行う。
以上説明したように、本実施形態では、顔画像からニューラルネットワークによって抽出した特徴マップから顔特徴点位置を推定し、推定した顔特徴点位置を用いて特徴マップから顔特徴を抽出する。これにより、アライメント等の前処理を必要とすることなく、精度良く顔の照合を行うことができる。
また、予め登録人物の複数の異なる解像度の顔画像から夫々取得した顔特徴を登録しておき、顔画像同士の顔の大きさが近い顔特徴を選択して照合するようにしたので、更に高精度な照合を行うことができる。なお、登録人物の顔特徴が一つの解像度の顔画像から取得した場合であっても、入力顔画像から複数の異なる解像度の顔画像を得て取得した顔特徴と照合することで同様の効果を得ることができる。また、登録および入力顔画像の双方で複数の解像度の顔画像から夫々顔特徴を取得して照合しても、同様の効果が得られることは言うまでもない。
また、カメラで撮影した際の画質を考慮して顔画像を変倍して顔の照合を行うようにしたので、更に高精度な照合を行うことができる。撮影パラメータを取得して適切な解像度の顔画像を照合に用いることで、より簡便に顔画像の画質を考慮した照合を行うことができる。
なお、本実施形態では顔画像の照合を例に説明したが、人物の全身画像(つまり人物全体)の照合についても本発明を適用できる。例えば、畳み込みニューラルネットワークによって特徴マップを取得し、特徴マップから人物の関節位置等の特徴点位置を推定して、特徴点位置に基づいて切り出して正規化した特徴マップから人物の全身特徴を抽出して照合するようにすればよい。カメラ100で撮影した画像の解像度が低く、人物の顔が識別困難な場合には、全身特徴による照合が人物の検索に有用になる。また、本発明は人物の照合に限らず、その他のオブジェクト(例えば、動物、自動車など)の照合にも広く適用できることは言うまでもない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:カメラ、200:画像処理装置、201:パラメータ取得部、202:画像取得部、203:画像変倍部、204:特徴マップ算出部、205:特徴マップ記憶部、206:顔特徴点位置推定部、207:正規化処理部、208:顔特徴抽出部、209:顔特徴記憶部、210:顔サイズ算出部、211:顔特徴選択部、212:顔特徴照合部

Claims (10)

  1. 撮影装置により撮影された画像からオブジェクトの照合を行う画像処理装置であって、
    前記画像から畳み込みニューラルネットワークによって、画像の特徴点が検出された位置が示された複数の特徴マップを算出する特徴マップ算出手段と、
    前記複数の特徴マップから前記画像中の前記オブジェクトの特徴点位置を推定する推定手段と、
    前記特徴点位置を用いて前記複数の特徴マップの部分領域を抽出し、該部分領域を所定サイズに正規化する正規化処理手段と、
    前記正規化された特徴マップから前記オブジェクトの特徴を抽出する抽出手段と、
    前記抽出された特徴と予め記憶されている特徴とを照合する照合手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記推定された特徴点位置からオブジェクトの大きさを算出する算出手段と、
    前記オブジェクトの大きさに基づいて、複数の特徴の中から照合に用いる前記オブジェクトの特徴を選択する選択手段と、をさらに備え、
    前記照合手段は、前記選択手段により選択された特徴を用いて前記照合を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記選択手段は、前記オブジェクトの大きさが類似する特徴を選択することを特徴とする請求項2に記載の画像処理装置。
  4. 前記選択手段は、複数の異なる解像度の画像からそれぞれ予め取得された複数の特徴の中から、前記照合に用いる前記オブジェクトの特徴を選択することを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記撮影装置の撮影パラメータを取得する取得手段と、
    前記撮影パラメータに基づいて、前記撮影装置により撮影された画像を変倍する変倍手段と、
    をさらに備えることを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記撮影パラメータは、前記撮影装置により撮影される画像の画質に影響するパラメータを含むことを特徴とする請求項5に記載の画像処理装置。
  7. 前記画像の画質を解析する解析手段と、
    前記解析手段により解析された画質に基づいて、前記撮影装置により撮影された画像を変倍する変倍手段と、
    をさらに備えることを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  8. 前記オブジェクトは、人物全体又は人物の顔であることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 撮影装置により撮影された画像からオブジェクトの照合を行う画像処理装置の制御方法であって、
    前記画像から畳み込みニューラルネットワークによって、画像の特徴点が検出された位置が示された複数の特徴マップを算出する特徴マップ算出工程と、
    前記複数の特徴マップから前記画像中の前記オブジェクトの特徴点位置を推定する推定工程と、
    前記特徴点位置を用いて前記複数の特徴マップの部分領域を抽出し、該部分領域を所定サイズに正規化する正規化処理工程と、
    前記正規化された特徴マップから前記オブジェクトの特徴を抽出する抽出工程と、
    前記抽出された特徴と予め記憶されている特徴とを照合する照合工程と、
    を有することを特徴とする画像処理装置の制御方法。
  10. コンピュータを、請求項1乃至8の何れか1項に記載の画像処理装置として機能させるためのプログラム。
JP2019122098A 2019-06-28 2019-06-28 画像処理装置、画像処理装置の制御方法及びプログラム Active JP7386630B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019122098A JP7386630B2 (ja) 2019-06-28 2019-06-28 画像処理装置、画像処理装置の制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019122098A JP7386630B2 (ja) 2019-06-28 2019-06-28 画像処理装置、画像処理装置の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021009493A true JP2021009493A (ja) 2021-01-28
JP7386630B2 JP7386630B2 (ja) 2023-11-27

Family

ID=74199983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122098A Active JP7386630B2 (ja) 2019-06-28 2019-06-28 画像処理装置、画像処理装置の制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7386630B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115661113A (zh) * 2022-11-09 2023-01-31 浙江酷趣智能科技有限公司 吸湿排汗的面料及其制备工艺

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334836A (ja) * 2003-04-14 2004-11-25 Fuji Photo Film Co Ltd 画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置
JP2006301970A (ja) * 2005-04-20 2006-11-02 Sharp Corp 認証装置、認証システム、認証方法、プログラム、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2009053916A (ja) * 2007-08-27 2009-03-12 Sony Corp 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP2019096006A (ja) * 2017-11-21 2019-06-20 キヤノン株式会社 情報処理装置、情報処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334836A (ja) * 2003-04-14 2004-11-25 Fuji Photo Film Co Ltd 画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置
JP2006301970A (ja) * 2005-04-20 2006-11-02 Sharp Corp 認証装置、認証システム、認証方法、プログラム、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2009053916A (ja) * 2007-08-27 2009-03-12 Sony Corp 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP2019096006A (ja) * 2017-11-21 2019-06-20 キヤノン株式会社 情報処理装置、情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LEZI WANG ET AL.: ""A Coupled Encoder-Decoder Network for Joint Face Detection and Landmark Localization"", 2017 12TH IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE & GESTURE RECOGNITION (FG 2017), JPN6023015828, May 2017 (2017-05-01), ISSN: 0005102185 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115661113A (zh) * 2022-11-09 2023-01-31 浙江酷趣智能科技有限公司 吸湿排汗的面料及其制备工艺

Also Published As

Publication number Publication date
JP7386630B2 (ja) 2023-11-27

Similar Documents

Publication Publication Date Title
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
JP4739355B2 (ja) 統計的テンプレートマッチングによる高速な物体検出方法
JP6368709B2 (ja) 3次元身体データを生成する方法
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
US9104914B1 (en) Object detection with false positive filtering
JP5366756B2 (ja) 情報処理装置及び情報処理方法
JP2000306095A (ja) 画像照合・検索システム
US20160247037A1 (en) Method and system for recognizing information on a card
JP2012530994A (ja) 半顔面検出のための方法および装置
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN111784658B (zh) 一种用于人脸图像的质量分析方法和系统
CN114616591A (zh) 物体跟踪装置以及物体跟踪方法
JP2007025900A (ja) 画像処理装置、画像処理方法
JP2007025902A (ja) 画像処理装置、画像処理方法
CN112991159B (zh) 人脸光照质量评估方法、系统、服务器与计算机可读介质
JP2006323779A (ja) 画像処理方法、画像処理装置
JP7386630B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2009258770A (ja) 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
JP4789526B2 (ja) 画像処理装置、画像処理方法
JP4812743B2 (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
JP4942197B2 (ja) テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体
JP6686890B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
CN114677443B (zh) 光学定位方法、装置、设备及存储介质
CN118573997B (zh) 基于人工智能的相机自动调整方法以及相关装置
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R151 Written notification of patent or utility model registration

Ref document number: 7386630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151