JP2015106197A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2015106197A
JP2015106197A JP2013246671A JP2013246671A JP2015106197A JP 2015106197 A JP2015106197 A JP 2015106197A JP 2013246671 A JP2013246671 A JP 2013246671A JP 2013246671 A JP2013246671 A JP 2013246671A JP 2015106197 A JP2015106197 A JP 2015106197A
Authority
JP
Japan
Prior art keywords
image
similarity
local
registered
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013246671A
Other languages
English (en)
Other versions
JP2015106197A5 (ja
JP6351243B2 (ja
Inventor
俊亮 中野
Toshiaki Nakano
俊亮 中野
佐藤 博
Hiroshi Sato
博 佐藤
雄司 金田
Yuji Kaneda
雄司 金田
崇士 鈴木
Takashi Suzuki
崇士 鈴木
敦夫 野本
Atsuo Nomoto
敦夫 野本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013246671A priority Critical patent/JP6351243B2/ja
Priority to US14/547,929 priority patent/US9633284B2/en
Publication of JP2015106197A publication Critical patent/JP2015106197A/ja
Publication of JP2015106197A5 publication Critical patent/JP2015106197A5/ja
Application granted granted Critical
Publication of JP6351243B2 publication Critical patent/JP6351243B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

【課題】 画像の撮影条件の変動を鑑みたオブジェクト識別技術を提供すること。
【解決手段】 入力画像中のオブジェクトの複数の局所特徴量と、予め登録されている登録画像中のオブジェクトの複数の局所特徴量と、で対応する局所特徴量同士の類似度を求める。求めた類似度のうち、入力画像中のオブジェクトに対する撮像状況及び登録画像中のオブジェクトに対する撮像状況に応じて1つ以上の類似度を選択し、該選択された1つ以上の類似度から1つの類似度を導出する。導出した1つの類似度に基づいて、入力画像中のオブジェクトが登録画像中のオブジェクトと同一のカテゴリであるかを判断する。
【選択図】 図1

Description

本発明は、画像中のオブジェクトを識別するための技術に関するものである。
入力された画像データを、予め登録済みの画像データと比較することにより、入力された画像データに表現されるオブジェクトが、予め登録済みのどのカテゴリに属するかを識別する技術が多く提案されている。このようなオブジェクト識別の具体例として、人物認証がある。これは、顔や指紋など個人に固有の特徴を用いて人物の識別を行うものであり、それぞれ顔認証、指紋認証などと呼ばれる。人物認証におけるカテゴリとは、個人を特定できる名前やIDである。人物認証を含むオブジェクト識別においては、識別を運用する前に予め識別したいオブジェクトの画像を登録画像として名前やIDと併せて登録しておく必要がある。この登録を経たのち、識別を実際に運用できることになる。識別すべきオブジェクトの画像(以下、入力画像)が入力されると、予め登録されている登録画像それぞれと比較し、合致する登録画像がある場合には、その登録画像に対応する登録済みオブジェクトを識別結果として出力する。合致する登録画像がない場合には、該当オブジェクトなしとして出力する。以下、本明細書では、オブジェクトのカテゴリを識別することとは、オブジェクトの個体の違い(例えば、人物の違い)を判断することを意味する。
顔画像から人物を識別する技術的な方法として、顔画像そのものの画素を特徴量とし、それら同士を直接比較する方法が考えられる。ただしこの方法では、顔の向き・表情・照明条件の画素値の変動が、人物の違いによる変動よりも強く、人物の識別が困難である。そこで、顔画像から個人の特徴を表す局所的な領域だけを複数取り出し、対応する局所領域を比較する方法が多数提案されている。しかしこの方法でも上で述べたような変動をすべて取り除くことは難しく、識別に有用な局所領域とそうでない局所領域が生じてしまう。そこで、識別に有用な局所領域だけを選ぶ方法として、画像間で対応する局所領域を比較した結果の類似度が高い順に所定個数を選ぶなどの方法が提案されている(例えば特許文献1)。
特許第4803214号 特開2007−128262号公報
Active Shape Models - Their Training and Application: T.F. Cootes, C.J. Taylor, D. Cooper, and J. Graham: 1998 Face Recognition with Local Binary Patterns: T. Ahonen and A. Hadid, M. Pietikainen: 1994 Support vector machine based multi-view face detection and recognition: Y. Li, S. Gong, J. Sherrah, and H. Liddell: 2004 Histograms of Oriented Gradients for Human Detection: Navneet Dalal and Bill Triggs: 2005
特許文献1に開示されている技術は、複数の局所領域の類似度の中から、類似度が高い順に所定の個数を選ぶものである。これは、画像の中で変動がない、つまり類似度が高い局所領域だけを用いる考えに基づくものである。しかし画像の間でどの程度、撮影条件の変動があるかによって、用いるべき最適な局所領域の個数は変動してしまう。撮影条件が近い場合には変動が少ないためより多くの局所領域を使う方がよく、撮影条件が異なる場合には逆に少ない個数の局所領域を使う方が望ましい。
本発明はこのような問題に鑑みてなされたものであり、画像の撮影条件の変動を鑑みたオブジェクト識別技術を提供する。
本発明の一様態は、入力画像中のオブジェクトを識別する画像処理装置であって、前記入力画像中のオブジェクトの複数の局所特徴量と、予め登録されている登録画像中のオブジェクトの複数の局所特徴量と、で対応する局所特徴量同士の類似度を求める計算手段と、前記計算手段が求めた類似度のうち、前記入力画像中のオブジェクトに対する撮像状況及び前記登録画像中のオブジェクトに対する撮像状況に応じて1つ以上の類似度を選択し、該選択された1つ以上の類似度から1つの類似度を導出する導出手段と、前記導出手段が導出した前記1つの類似度に基づいて、前記入力画像中のオブジェクトが前記登録画像中のオブジェクトと同一のカテゴリであるかを判断する判断手段とを備えることを特徴とする。
本発明の構成により、画像の撮影条件の変動を鑑みたオブジェクト識別技術を提供することができる。
オブジェクト識別装置1000の機能構成例を示すブロック図。 オブジェクト識別装置1000が行う処理のフローチャート。 ステップS1104における処理のフローチャート。 画像識別部1200の機能構成例を示すブロック図。 ステップS1203における処理のフローチャート。 統合方法制御部1250の機能構成例を示すブロック図。 統合方法制御部1250の機能構成例を示すブロック図。 顔向きのグループ化の模式図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、オブジェクトとして人間の顔を、オブジェクトのカテゴリとして人物の違いを、入力画像から識別する顔認証を例に説明する。また本実施形態では、オブジェクトの撮像状況の差分として奥行き方向の顔向きの違いを例として説明する。先ず、本実施形態に係る画像処理装置として機能するオブジェクト識別装置1000の機能構成例について、図1のブロック図を用いて説明する。
画像入力部1100はオブジェクト識別装置1000に画像を入力するためのものであり、光学レンズと映像センサを備えた撮像装置でも構わないし、画像が保持され読み出し可能な半導体メモリでもよい。また、画像入力部1100は、1枚の画像を本装置に入力するためのものであっても良いし、連続する各フレームの画像を順次本装置に入力するためのものであっても良い。もちろん、ユーザ操作などによって決まる静止画像、動画像の何れか一方を本装置に入力するものであっても良い。
画像識別部1200は、画像入力部1100が入力した画像中のオブジェクトを識別するための処理を行うものである。画像識別部1200は、専用回路(ASIC)、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPU等)のハードウェアで構成されても良いし、単一の専用回路及び汎用回路(PC用CPU)内部において実行されるプログラムで実装されても良い。
登録画像記録部1300には、1以上のオブジェクトを含む画像が複数枚、登録画像として格納されている。これらの登録画像は、例えば、画像入力部1100によって本装置に入力された画像である。登録画像記録部1300は、例えば、繰り返し書き換え可能な半導体メモリである。なお、登録画像記録部1300の記憶容量は、数十枚若しくはそれ以上の登録画像を格納するために十分な容量であることが好ましいが、画像識別部1200が現在使用する分だけの登録画像を格納するために十分な容量であっても良い。この場合、登録画像記録部1300には、十分な枚数の登録画像を保持している他のメモリ装置から、現在画像識別部1200が使用する分だけを適宜ダウンロードすることになる。
外部出力部1400は、画像識別部1200による識別結果、すなわち本実施形態の場合には、画像中のオブジェクトが属するカテゴリを示す情報を適切な形で外部に出力する。外部出力部1400は典型的には、CRTやTFT液晶などのモニタであり、画像入力部1100から取得した画像を表示したり、この画像上に、画像識別部1200による識別結果を重畳表示したりする。
また、外部出力部1400は、画像入力部1100から取得した画像や、画像識別部1200による識別結果などの様々な情報を外部の機器に対して出力するようにしても構わないし、紙などの記録媒体上にこのような様々な情報を印刷出力しても構わない。なお、出力形態は上に挙げた限りではなく、さらに複数の機能部を同時に行使してもよい。
次に、人の顔がオブジェクトとして写っている入力画像をオブジェクト識別装置1000に入力した場合に、オブジェクト識別装置1000が行うオブジェクト識別処理について、同処理のフローチャートを示す図2を用いて説明する。
ステップS1101では、画像入力部1100が1枚の画像を入力画像として本装置に入力する。この入力画像は動画像を構成する各フレームであっても良いし、1枚の静止画像であっても良い。
ステップS1102では、画像識別部1200は、画像入力部1100が本装置に入力した入力画像から、オブジェクトが写っている領域内の画像、即ち、ここでは人の顔が写っている領域内の画像を、顔画像として抽出する。
ここで、入力画像中に人の顔が写っていない場合や、人の顔の認識が失敗した場合など、入力画像から顔画像が抽出できなかった場合には、処理はステップS1103を介してステップS1101に戻り、次の入力画像を取得する。一方、入力画像から顔画像を抽出することができた場合には、処理はステップS1103を介してステップS1104に進む。
ステップS1104では、画像識別部1200は、登録画像記録部1300に格納されているそれぞれの登録画像と、顔画像と、を用いて、該顔画像内に写っている顔のカテゴリを識別する。
ステップS1105では、画像識別部1200は、入力画像から抽出された全ての顔画像についてステップS1104における処理を行ったか否かを判断する。この判断の結果、入力画像から抽出された全ての顔画像についてステップS1104における処理を行った場合には、処理はステップS1101に戻る。一方、入力画像から抽出された顔画像のうちまだステップS1104における処理の対象となっていない顔画像(未処理の顔画像)が残っている場合には、処理はステップS1104に戻り、未処理の顔画像についてステップS1104における処理を行う。
なお、これら一連の処理はリアルタイムで実行され、ステップS1104における識別処理の結果(カテゴリ判定結果)を、外部出力部1400にリアルタイムで出力することもできる。また、ステップS1104における処理を行う度に外部出力部1400は、ステップS1104における識別処理の結果を出力するようにしても良いし、画像ごとに、該画像から識別された1以上のオブジェクトのそれぞれの識別結果を出力するようにしても良い。
また、図2では一連の処理の終了については触れていないが、例えばユーザが不図示の操作部を操作して終了指示を入力し、本装置の制御部がこの終了指示を検知して図2の処理を終了させるようにしても構わない。
次に、上記のステップS1104における処理について、図3のフローチャートを用いて説明する。ステップS1201では、画像識別部1200は、ステップS1102で抽出された顔画像を入力する。ステップS1102で複数個の顔画像が抽出された場合には、そのうち未選択の顔画像が1つ選択されて入力される。
ステップS1202では、画像識別部1200は、登録画像記録部1300から未選択の登録画像を1つ選択して取得する。
ステップS1203では、画像識別部1200は、ステップS1201で取得した顔画像中の顔と、ステップS1202で取得した登録画像中の顔と、の類似度(それぞれの顔が同一の人物である確からしさ(度合い)を示す)を求める。
ステップS1204では、画像識別部1200は、ステップS1202でまだ選択されていない登録画像が残っているか否かを判断する。この判断の結果、残っている場合には処理はステップS1202に戻り、残っていない場合には、処理はステップS1205に進む。
ステップS1205では、画像識別部1200は、登録画像記録部1300に格納されているそれぞれの登録画像について求めた類似度のうち最も大きい類似度を特定する。そして画像識別部1200は、この最も大きい類似度と規定の閾値との大小比較を行う。大小比較の結果、最も大きい類似度が閾値以上であれば、該最も大きい類似度を求めた登録画像に関連づけられている「該登録画像が属するカテゴリ」を、ステップS1201で入力した顔画像中の顔が属するカテゴリと判断する。なお、最も大きい類似度が閾値未満であれば、顔画像中の顔が属するカテゴリはないと判断する。このような判断結果は外部出力部1400に通知される。
この「規定の閾値」は、予め目的に応じて調整しておくとよい。閾値が低いと、登録されている人物を認識できる可能性が高まるが、登録されていない人物も登録されている人物のいずれかと判定する可能性も高まる。逆に閾値を高めると、登録されていない人物を誤認識する可能性は減るが、登録されている人物を認識できない可能性が高まる。
次に、上記のステップS1203における処理について、図5のフローチャートを用いて説明する。ここで、画像識別部1200の機能構成例を図4に示す。図4に示した各機能部の機能については、図5のフローチャートに沿った説明の中で触れることにする。
局所特徴抽出部1210はステップS1102で、画像入力部1100から入力した入力画像から顔画像を抽出し、ステップS1201で該顔画像を入力し、ステップS1302では、該顔画像から複数の局所特徴量を抽出する。また、局所特徴抽出部1210は、ステップS1202で登録画像(選択登録画像)を取得し、ステップS1302では、該選択登録画像から同様にして顔画像を抽出し、該顔画像から複数の局所特徴量を抽出する。
ステップS1304では、局所類似度算出部1220は、入力画像(中の顔画像)から抽出した複数の局所特徴量と、選択登録画像(中の顔画像)から抽出した複数の局所特徴量と、で対応する局所特徴量同士の類似度(局所類似度)を求める。
ステップS1305では、撮影条件検出部1240は、入力画像から抽出した顔画像中の顔に対する撮像状況と、選択登録画像から抽出した顔画像中の顔に対する撮像状況と、を求める。
ステップS1306では、統合方法制御部1250は、入力画像から抽出した顔画像中の顔に対する撮像状況と、選択登録画像から抽出した顔画像中の顔に対する撮像状況と、の間の差分を、撮影条件変動として求める。
ステップS1307では、統合方法制御部1250は、ステップS1304で求めた局所類似度のうち、局所類似度の大きい順に上位から、撮影条件変動に応じて決まる個数分の局所特徴量を選択する。
ステップS1308では、類似度統合部1230は、ステップS1307で選択した類似度から1つの類似度を求める。
次に、上記のステップS1302における処理、及び該処理を実行する局所特徴抽出部1210について説明する。局所特徴抽出部1210は、顔画像から、個人の識別に必要な複数の局所特徴量を抽出するのであるが、先ずはじめに、顔画像に、局所特徴量を抽出するための複数の局所領域を設定する。局所領域の大きさ、形、場所は任意であるが、ひとつの例として以下のようにするとよい。個人の特徴をよく表す目や口などの器官に重なるように、器官とほぼ同じ大きさの矩形領域を設定する。矩形領域を設定する座標は全ての顔画像で固定・共通の座標を用いても良いが、顔の向きや個人差による顔の形で、かならず矩形に器官が収まるとはいえない。そこで非特許文献1等に記載の顔器官検出を用いて、目・鼻・口など、顔器官の位置を検出する。そして検出された器官位置を中心に局所領域を設定するとよい。加えて顔器官以外の場所にも局所領域を設定したい場合には、以下のようにするとよい。二つの顔器官の位置を結ぶ線分を求め、線分を予め定められた比で分割する位置を中心に局所領域を設定するとよい。この方法により、個人差や年齢による顔器官の相対的な位置関係によらず、適切な場所に局所領域を設定できる。
続いて、局所特徴抽出部1210は、設定された局所領域それぞれから局所特徴量を抽出する。局所特徴量として、顔画像における局所領域内の輝度値をそのまま抽出しても良いが、これでは、照明条件の違いなどの影響を受けやすく、識別に望ましくない。そこでLBP変換(非特許文献2)のような画像変換を施すことで、全体的な照明条件の変動を吸収することが出来る。LBP変換についての詳細は文献を参照されたいが、概要を説明する。LBP変換では、画像の画素値を、その画素と隣接する8画素いずれか1つ以上との輝度の大小を比較する。各比較結果を所定の順番で上位ビット深さ方向に上位から下位に割り当てることで、最大で8ビットに量子化された画素値を変換後の画素値とする。LBP変換の概要は以上である。ここまでの処理で、局所領域内の輝度画像をLBP変換した画素値を順に取り出したベクトルを、局所特徴量とする。
次に、上記のステップS1304における処理、及び該処理を実行する局所類似度算出部1220について説明する。ステップS1304では上記の通り、入力画像(顔画像)から抽出した複数の局所特徴量と、選択登録画像(顔画像)から抽出した複数の局所特徴量と、で対応する局所特徴量同士の類似度(局所類似度)を求める。局所類似度を求める方法には様々な方法が考え得り、類似度が大きいほど、局所特徴量が似ていることを表すような方法であれば良い。例えば、局所特徴量のベクトル同士が成す角度のコサイン値を局所類似度とする方法や、局所特徴量のベクトル間のユークリッド距離の逆数を局所類似度とする方法がある。
次に、上記のステップS1305における処理、及び該処理を実行する撮影条件検出部1240について説明する。ステップS1305では上記の通り、入力画像から抽出した顔画像中の顔に対する撮像状況と、選択登録画像から抽出した顔画像中の顔に対する撮像状況と、を求めるのであるが、以下では「撮影条件」として「顔の奥行き方向の回転角度(パン角)」を用いる。また、以下の説明ではこの「顔の奥行き方向の回転角度」を単に顔角度と呼称する。
画像から顔角度を検出する方法には様々な方法が考え得るが、例えば非特許文献3などに記載されている方法を用いるとよい。方法の詳細は文献に譲るが、概要はこうである。顔画像から、個人差や照明条件を除いて顔向きを判定し得る情報を取り出すために、縦と横のSobelフィルタでエッジを検出し、エッジの強度画像を特徴量とする。この特徴量を予め学習されたSupport Vector Machineに入力して、顔角度に回帰させる方法である。なおここでは顔角度として数値が得られる方法で説明したが、もっと粗く、右・左・正面などおおまかなクラスを出力する方法でも構わない。
次に、上記のステップS1306における処理、及び該処理を実行する統合方法制御部1250について説明する。ここで、統合方法制御部1250の機能構成例を図6に示す。ステップS1306における処理は変動検出部1251が行う。
変動検出部1251は、入力画像から抽出した顔画像中の顔に対する撮像状況と、選択登録画像から抽出した顔画像中の顔に対する撮像状況と、の間の差分を、撮影条件変動として求める。上記の通りここでは撮影条件として顔角度を用いるので、変動検出部1251は、顔角度の差を求めることになる。なお、「顔角度の差」とは、入力画像から抽出した顔画像中の顔の顔角度と、選択登録画像から抽出した顔画像中の顔の顔角度と、の差の絶対値である。
次に、上記のステップS1307における処理、及び該処理を実行する統合方法制御部1250について説明する。ステップS1307における処理はグループ内局所類似度選択部1252が行う。
グループ内局所類似度選択部1252は、局所類似度算出部1220が求めたそれぞれの局所類似度のうち、統合対象となる1つ以上の局所類似度を選択する。ただし、局所類似度算出部1220が求めたそれぞれの局所類似度のうちどの局所類似度を統合対象とするのかを直接的に決めるのではなく、局所類似度が大きい順にいくらかの割合の局所類似度を用いるかを顔角度の差によって定めることで、間接的に定める。
具体的には、局所類似度算出部1220が求めた局所類似度のうち、局所類似度の大きい順に上位から、顔角度の差に応じて決まる個数(顔角度の差に応じて決まる割合×局所類似度算出部1220が求めた局所類似度の個数)分を、統合対象として選択する。
局所類似度の相対的な順位から局所類似度の使用・不使用(統合対象・非統合対象)を間接的に定めるメリットは以下のとおりである。それは局所類似度の大きさそのものが、その局所領域が顔画像の上で変動を受けて識別に不向きになっているかを検出する指標になるからである。局所領域ひとつひとつについて、別途に信頼度を検出する方法(特許文献2など)もあるが、本実施形態のように局所特徴量の照合結果を直接、その局所領域の信頼度として扱う方法のほうが頑健であるといえる。
本実施形態では、顔角度の差が小さい、つまり顔画像の上で見た目の変化が小さい場合には、局所類似度算出部1220が求めた局所類似度のうち統合対象となる局所類似度の割合を大きくする。これは、顔向きの違いによる変動を受ける局所領域が全体の中では少ないと考えられることに基づく。逆に、顔角度の差が大きい、つまり顔画像の上で見た目の変化が大きい場合には、局所類似度算出部1220が求めた局所類似度のうち統合対象となる局所類似度の割合を小さくする。これは、顔向きの違いによる変動を受ける局所領域が全体の中で多くなると考えられるためである。具体的な顔向きの違いと上記割合との関係は、局所特徴量の抽出方法、数、大きさ、位置などに影響されるため一意には定まらないが、本装置の運用前に予め調整しておくことが望ましい。
次に、上記のステップS1308における処理、及び該処理を実行する類似度統合部1230について説明する。類似度統合部1230は、ステップS1307で選択した類似度から1つの類似度を導出するのであるが、該1つの類似度を導出する方法には様々な方法が考え得る。例えば、ステップS1307で選択した類似度の平均値をこの「1つの類似度」とする。別の方法としては、Support Vector Machineを用いた方法が考え得る。同一人物の顔画像間で得られた局所類似度群と、別人物間の顔画像間で得られた局所類似度群と、を識別するよう多数の学習データで予め学習しておく。そのSupport Vector Machineに局所類似度群を入力した際の出力値を、上記の「1つの類似度」として扱うことが出来る。
<変形例>
第1の実施形態では、登録画像記録部1300には登録画像そのものが登録されているものとして説明した。しかし、登録画像の代わりに、該登録画像中の顔画像内の顔に対する撮像状況(上記の場合は顔角度)や、該顔画像内の複数の局所特徴量を、登録画像記録部1300に登録するようにしても構わない。これにより、図5のフローチャートにおいて、登録画像中の顔画像内の顔に対する撮像状況や該顔画像内の複数の局所特徴量を求める処理を省くことができる。
[第2の実施形態]
第1の実施形態では、顔角度の差の絶対値のみを撮影条件変動としたが、第1の実施形態では、同じ顔角度の差でも、2つの顔角度そのものがどのようであるかは考慮していない。本実施形態では、顔角度の差と、ふたつの各角度を考慮して、最終的な1つの類似度を求める。
本実施形態は、ステップS1307における処理及び該処理を実行する統合方法制御部1250の機能構成が第1の実施形態とは異なり、それ以外については第1の実施形態と同様である。以下では、本実施形態に係るステップS1307の処理、及び該処理を実行する統合方法制御部1250の機能構成例について説明する。本実施形態に係る統合方法制御部1250の機能構成例を図7に示す。図7に示した構成は、図6に示した構成に、局所類似度グループ構成部1253を加えた点にある。
局所類似度グループ構成部1253は、登録画像と入力画像の顔角度に応じて、局所類似度をグループに分割する。本実施形態では、局所類似度を得た局所領域の位置に基づいてグループに分ける例で説明する。顔向きのグループ化の模式図を図8に示す。図の上段と中段の例では、画角手前の局所類似度グループ1と、画角奥の局所類似度グループ2に分割する。図の下段の例では顔向きが互い違いであるため、顔中央部を局所類似度グループ1に、顔側面を局所類似度グループ2に分割する。どの顔角度でどの局所類似度がどのグループに所属するかは局所特徴量の抽出方法、数、大きさ、位置などに影響されるため一意には定まらないが、識別装置の運用前に予め調整しておくことが望ましい。
グループ内局所類似度選択部1252は、各局所類似度グループについて、該局所類似度グループに分類された局所類似度のうち統合対象に用いる局所類似度の割合を決定する。典型的には、画角手前の局所類似度グループ1は顔画像の見た目の変化が小さいため、割合を高めに設定するとよい。また逆に局所類似度グループ2は画角の奥で顔画像の見た目の変化が大きいため、割合を低めに設定するとよい。各グループでの最適な割合はやはり局所特徴量の抽出方法、数、大きさ、位置などに影響されるため一意には定まらないため、識別装置の運用前に予め調整しておくことが望ましい。
このように、本実施形態によれば、角度差だけでなく2つの顔がどのような向きをしているかの情報を用いる。この情報を用いて、顔向きの違いによって画像の見た目の変化が大きいと考えられる部分と、変化が小さいと考えられる部分が推定できるため、局所領域をその部分に従って明示的にグループに分類する。明示的に分類したグループ内でそれぞれ独立して統合の割合を調整できるため、より顔向きの違いに対して頑健に個人識別できる効果が期待できる。
次に、本実施形態に係る類似度統合部1230及び類似度統合部1230が行う処理(ステップS1308)について説明する。上記の通り、本実施形態ではグループごとに割合が決まるので、グループごとに、第1の実施形態と同様にして該グループ内で統合対象となる局所類似度を決定する。そしてグループごとに決定した統合対象の局所類似度から、最終的な1の類似度similarityを求める。
例えば、局所類似度グループ1における統合対象の局所類似度群G1と、局所類似度グループ2における統合対象の局所類似度群G2と、から以下の式(1)を計算することで、これらの局所類似度群の平均を最終的な1つの類似度として求める方法がある。しかしG1とG2で局所類似度の数N1とN2が大きく異なる場合、数が多い局所類似度グループの局所類似度に最終結果が大きく依存するため、局所領域数の影響を正規化した式(2)を式(1)の代わりに用いても良い。
similarity=Σg∈G1∪G2)g/(N1+N2) (1)
similarity=(Σg∈G1g/N1+Σ_g∈G2g/N2)/2 (2)
[第3の実施形態]
本実施形態では、撮影条件変動として、顔を撮影した照明条件の違いを例にとる。その中でも特に、光源の方向を照明条件の違いとして説明する。その場合に行う処理の内容を以下説明する。なお、以下では、第1,2の実施形態と本実施形態との相違点について重点的に説明する。然るに、以下で特に触れない限りは、第1,2の実施形態と同様であるものとする。
先ず、局所特徴抽出部1210が行う処理(ステップS1302における処理)について説明する。第1の実施形態では、局所特徴量としてLBP変換した画像を用いると述べたが、本実施形態ではそれに加えて別の特徴量も抽出して局所特徴量とする。第1の実施形態で述べたLBP変換では隣り合う画素の大小関係を用いることで、全体的な輝度値の変動、つまり全体的に明るい顔と全体的に暗い顔の間に生まれる変動を吸収することが出来る。しかし特定の方向から照明が当たる場合、光源の方向が異なると顔の陰影に変動が生まれる。これは局所的な輝度値の変動であり、LBP変換はその影響を受けるため、同じ人物でも変換されたLBP画像は異なるものとなってしまい、個人の識別に適さない。そこでHOG変換(非特許文献4)のような方法を用いるとよい。HOG変換についての詳細は文献に譲るが、概要は以下である。
まず画像を細かい矩形領域に分割する。矩形領域それぞれについて、該矩形領域内に含まれる各方向の勾配量を集計したヒストグラムを作成する。ヒストグラムの面積を正規化したのち、各矩形領域のヒストグラムと連結したベクトルを特徴量とするものである。HOG変換では画像がヒストグラムとして集計されてしまうため、位置や形状の情報は残らず個人差を表現する情報は減ってしまう。ただし隣り合う画素以外の関係も用いることや勾配量を正規化することなどから、局所的な照明の変動に対して頑健な特徴量であるといえる。その一方でLBP特徴量は前述したように局所的な照明の変動に影響されやすいという性質はあるが、あくまで画像のままであるため個人差を表す目や口など顔器官の形状や位置は残っており、個人差を表現する情報を多く含む特徴量であるといえる。
LBP特徴量を抽出する局所領域とHOG特徴量を抽出する局所領域は同じものを用いてひとつの局所領域から2種類の特徴量を抽出するようにしても良いが、それぞれ別の局所領域から別の特徴量を抽出するようにしてもよい。
本実施形態でもステップS1304において対応する局所特徴量同士の類似度を局所類似度として算出するが、その際には当然ながら同じ種類の局所特徴量同士で類似度を求めることになる。
次に、撮影条件検出部1240が行う処理(ステップS1305における処理)について説明する。ここでは入力画像(登録画像)から、撮影条件を検出する。特に本実施形態では顔を照らす光源の方向の角度について検出する。これ以降、本実施形態では光源の方向の角度を単に照明角度と呼ぶこととする。
顔画像から照明角度を検出する方法は任意だが、例えば以下のような方法で行うことが出来る。まず初めに顔画像を低解像度に縮小する。目や口の詳細が消えて個人がわからなくなるが、顔の陰影や側光はかろうじて確認できる程度まで縮小することが望ましい。続いて、縮小された顔画像の各画素値をベクトルとみなし、ベクトルを予め主成分分析で求めておいた部分空間に射影する。この射影されたベクトルが顔の照明の状態を表す属性情報である。なお部分空間は、光が様々な方向から当たっている顔画像を予め多数収集しておき、それらを学習データとして主成分分析を行って構成する。典型的には、固有値が特に大きい数個に対応する固有ベクトル数個が、照明角度を表現できる部分空間である。

次に、統合方法制御部1250(変動検出部1251)が行う処理(ステップS1306における処理)について説明する。変動検出部1251は、入力画像から抽出した顔画像中の顔に対する撮像状況と、選択登録画像から抽出した顔画像中の顔に対する撮像状況と、の間の差分を、撮影条件変動として求める。上記の通りここでは撮影条件として照明角度を用いるので、変動検出部1251は、照明角度の差を求めることになる。なお、「照明角度の差」とは、例えば、入力画像から抽出した顔画像中の照明角度のベクトルと、選択登録画像から抽出した顔画像中の照明角度のベクトルと、の間の距離、またはベクトル同士がなす角度のコサインである。
次に、統合方法制御部1250(局所類似度グループ構成部1253及びグループ内局所類似度選択部1252)が行う処理(ステップS1307における処理)について説明する。
局所類似度グループ構成部1253は、局所類似度をグループに分割する。本実施形態では、局所特徴量の種類の違いによって局所領域をグループにわける例で説明する。LBP特徴量を照合した局所類似度グループ1と、HOG特徴量を照合した局所類似度グループ2に分割する。
続いてグループ内局所類似度選択部1252では、各局所類似度グループについて、統合に用いる局所類似度の割合を決定する。上記では、LBP特徴量は個人差を表現する情報を多く含むが局所的な照明の変動を受けやすいと述べた。またHOG特徴量については局所的な照明の変動に頑健であるがヒストグラム化されるため個人差を表現する情報は減っていると述べた。本実施形態では、照明角度の差が小さい、つまり顔画像の上で陰影の付き方が似ており局所的な照明の変動が小さい場合には、統合対象に用いるLBP特徴量の類似度の割合を大きくしてHOG特徴量の類似度の割合を小さくする。これは、LBP特徴量が局所的な照明の変動を受ける可能性が少ないため、より個人差を表現する特徴量で識別するねらいがある。反対に照明角度の差が大きい、つまり顔画像の上で陰影の付き方が異なり局所的な照明の変動が大きい場合には、統合対象に用いるLBP特徴量の類似度の割合を小さくしてHOG特徴量の類似度の割合を大きくする。これは、照明の変動を受けて個人識別が難しくなってしまった特徴量を多く用いるよりも、個人差を表現する情報は少ないが照明の変動に頑健な特徴量で識別することで、識別精度を維持するねらいがある。具体的な照明角度の違いと類似度統合の割合との関係は、局所特徴量の種類、数、大きさ、位置などに影響されるため一意には定まらないが、識別装置の運用前に予め調整しておくことが望ましい。
本実施形態では照明条件の違いに対して、複数の特徴量を用いて照合した局所類似度を特徴量の種類の違いからグループに分類することを述べた。別の例として、照明条件の違いに対して、第1の実施形態と同様に単一の局所類似度群に対して統合する割合を調整することももちろん可能であることをここで付け加えておく。LBP特徴量のみを用いて局所類似度を得る場合、照明角度の差が大きいときには、統合に用いる割合を下げることで変動を受けていない局所類似度のみを用いることが出来る。ただし統合に用いる割合が著しく小さくなることも考えられ、その場合には個人を識別し得るに十分な数の局所類似度を得られず、効果は限定的になると考えられる。またもうひとつの例として、LBP特徴量とHOG特徴量を用いてそれぞれの局所類似度を得るが、グループに分類せず単一の局所類似度群に対して統合する割合を調整することも可能である。ただし先ほど述べたようにLBP特徴量とHOG特徴量の性質は異なり、互いに補い合うものである。そのため、照明角度の差に応じてLBPとHOGを同じように割合調整をした場合には互いに補い合う性質を活かせない可能性があり、効果は限定的になると考えられる。
なお、上記の各実施形態や変形例はいずれも、単ある一例であり、以下に説明する基本構成の一例に過ぎない。基本構成によれば、入力画像中のオブジェクトを識別する画像処理装置は、入力画像中のオブジェクトの複数の局所特徴量と、予め登録されている登録画像中のオブジェクトの複数の局所特徴量と、で対応する局所特徴量同士の類似度を求める(計算する)。そして、この計算で求めた類似度のうち、入力画像中のオブジェクトに対する撮像状況及び登録画像中のオブジェクトに対する撮像状況に応じて1つ以上の類似度を選択し、該選択された1つ以上の類似度から1つの類似度を導出する。そして、導出した1つの類似度に基づいて、入力画像中のオブジェクトが登録画像中のオブジェクトと同一のカテゴリであるかを判断する。
また、図1,4,6,7に示した各部はいずれもハードウェアで構成しても良いが、登録画像記録部1300をメモリで構成し、そのほかの各部をソフトウェア(コンピュータプログラム)で実装しても良い。このような場合、PC(パーソナルコンピュータ)などのコンピュータが有するメモリにこのコンピュータプログラムを格納すると共に、該コンピュータに登録画像記録部1300に相当するメモリを搭載させる。そして本コンピュータのCPU等のプロセッサがこのコンピュータプログラムを用いて処理を実行することで、本コンピュータはオブジェクト識別装置1000が行うものとして上述した各処理を実行することになる(図2〜3、5のフローチャートの処理)。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (9)

  1. 入力画像中のオブジェクトを識別する画像処理装置であって、
    前記入力画像中のオブジェクトの複数の局所特徴量と、予め登録されている登録画像中のオブジェクトの複数の局所特徴量と、で対応する局所特徴量同士の類似度を求める計算手段と、
    前記計算手段が求めた類似度のうち、前記入力画像中のオブジェクトに対する撮像状況及び前記登録画像中のオブジェクトに対する撮像状況に応じて1つ以上の類似度を選択し、該選択された1つ以上の類似度から1つの類似度を導出する導出手段と、
    前記導出手段が導出した前記1つの類似度に基づいて、前記入力画像中のオブジェクトが前記登録画像中のオブジェクトと同一のカテゴリであるかを判断する判断手段と
    を備えることを特徴とする画像処理装置。
  2. 前記導出手段は、
    前記入力画像中のオブジェクトに対する撮像状況と、前記登録画像中のオブジェクトに対する撮像状況と、の間の差分を求める手段と、
    前記計算手段が求めた類似度から、類似度が高い順に上位から前記差分に応じた個数分の類似度を選択し、該選択された類似度から1つの類似度を導出する手段と
    を備えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記差分が大きいほど前記個数は小さく、前記差分が小さいほど前記個数は大きい、ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記導出手段は、
    前記計算手段が求めたそれぞれの類似度を、該類似度を求めるために使用した局所特徴量の前記入力画像及び前記登録画像における位置に対して前記入力画像中のオブジェクトに対する撮像状況及び前記登録画像中のオブジェクトに対する撮像状況に応じて予め設定されたグループに分類する手段と、
    前記グループに分類された類似度のうち、類似度が高い順に上位から、該グループに対して予め設定されている割合に相当する個数分の類似度を選択する手段と、
    前記グループごとに選択された類似度から1つの類似度を導出する手段と
    を備えることを特徴とする請求項1に記載の画像処理装置。
  5. 前記導出手段は、
    前記入力画像中のオブジェクトに対する撮像状況と、前記登録画像中のオブジェクトに対する撮像状況と、の間の差分を求める手段と、
    前記計算手段が求めたそれぞれの類似度を、該類似度を求めるために使用した局所特徴量の種類に応じたグループに分類する手段と、
    前記グループに分類された類似度から、類似度が高い順に上位から前記グループ及び前記差分に応じて決まる個数分の類似度を選択する手段と、
    前記グループごとに選択された類似度から1つの類似度を導出する手段と
    を備えることを特徴とする請求項1に記載の画像処理装置。
  6. 前記判断手段は、
    複数の前記登録画像中のオブジェクトのうち、前記1つの類似度が閾値以上で最大の類似度に対応する、前記登録画像中のオブジェクトが属するカテゴリを示す情報を、前記入力画像中のオブジェクトに対する識別結果として出力することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記導出手段は、
    前記選択された1つ以上の類似度の平均値を前記1つの類似度として求めることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 入力画像中のオブジェクトを識別する画像処理装置が行う画像処理方法であって、
    前記画像処理装置の計算手段が、前記入力画像中のオブジェクトの複数の局所特徴量と、予め登録されている登録画像中のオブジェクトの複数の局所特徴量と、で対応する局所特徴量同士の類似度を求める計算工程と、
    前記画像処理装置の導出手段が、前記計算工程で求めた類似度のうち、前記入力画像中のオブジェクトに対する撮像状況及び前記登録画像中のオブジェクトに対する撮像状況に応じて1つ以上の類似度を選択し、該選択された1つ以上の類似度から1つの類似度を導出する導出工程と、
    前記画像処理装置の判断手段が、前記導出工程で導出した前記1つの類似度に基づいて、前記入力画像中のオブジェクトが前記登録画像中のオブジェクトと同一のカテゴリであるかを判断する判断工程と
    を備えることを特徴とする画像処理方法。
  9. コンピュータを、請求項1乃至7の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2013246671A 2013-11-28 2013-11-28 画像処理装置、画像処理方法 Active JP6351243B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013246671A JP6351243B2 (ja) 2013-11-28 2013-11-28 画像処理装置、画像処理方法
US14/547,929 US9633284B2 (en) 2013-11-28 2014-11-19 Image processing apparatus and image processing method of identifying object in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013246671A JP6351243B2 (ja) 2013-11-28 2013-11-28 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2015106197A true JP2015106197A (ja) 2015-06-08
JP2015106197A5 JP2015106197A5 (ja) 2017-01-12
JP6351243B2 JP6351243B2 (ja) 2018-07-04

Family

ID=53182729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013246671A Active JP6351243B2 (ja) 2013-11-28 2013-11-28 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US9633284B2 (ja)
JP (1) JP6351243B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020511723A (ja) * 2017-03-17 2020-04-16 ニューララ インコーポレイテッド 深層ニューラルネットワークおよびニューラルネットワークアプリケーション向けのデータストリームのタグ付けおよびラベル付けのためのオンラインでのインクリメンタルリアルタイム学習
US11928602B2 (en) 2017-05-09 2024-03-12 Neurala, Inc. Systems and methods to enable continual, memory-bounded learning in artificial intelligence and deep learning continuously operating applications across networked compute edges

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6456031B2 (ja) 2014-03-25 2019-01-23 キヤノン株式会社 画像認識装置、画像認識方法およびプログラム
JP6410450B2 (ja) 2014-03-31 2018-10-24 キヤノン株式会社 オブジェクト識別装置、オブジェクト識別方法及びプログラム
US10437837B2 (en) * 2015-10-09 2019-10-08 Fujitsu Limited Generating descriptive topic labels
JP6558388B2 (ja) * 2017-03-14 2019-08-14 オムロン株式会社 画像処理装置
CN111199029B (zh) * 2018-11-16 2023-07-18 株式会社理光 人脸识别装置以及人脸识别方法
JP7242309B2 (ja) * 2019-01-16 2023-03-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN111695632A (zh) * 2020-06-12 2020-09-22 湖北中烟工业有限责任公司 一种基于自适应基准图像隐患库的隐患识别方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011210126A (ja) * 2010-03-30 2011-10-20 Canon Inc パターン認識装置及びパターン認識方法
JP2012221061A (ja) * 2011-04-05 2012-11-12 Canon Inc 画像認識装置、画像認識方法、及びプログラム

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4853771A (en) * 1986-07-09 1989-08-01 The United States Of America As Represented By The Secretary Of The Navy Robotic vision system
US4891767A (en) * 1988-06-02 1990-01-02 Combustion Engineering, Inc. Machine vision system for position sensing
JP3416325B2 (ja) 1995-03-28 2003-06-16 キヤノン株式会社 座標入力装置及びその制御方法
JPH08335134A (ja) 1995-06-07 1996-12-17 Canon Inc 情報処理装置
JPH0922324A (ja) 1995-07-05 1997-01-21 Canon Inc 座標入力装置
US5761087A (en) 1996-01-10 1998-06-02 Canon Kabushiki Kaisha Coordinate input device and a control method therefor
JPH09190268A (ja) 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
US5943476A (en) * 1996-06-13 1999-08-24 August Design, Inc. Method and apparatus for remotely sensing orientation and position of objects
US6225986B1 (en) 1997-01-06 2001-05-01 Canon Kabushiki Kaisha Coordinate input apparatus and its control method
JPH11249803A (ja) 1998-03-03 1999-09-17 Canon Inc 座標入力装置及びその制御方法、コンピュータ可読メモリ
US6278906B1 (en) * 1999-01-29 2001-08-21 Georgia Tech Research Corporation Uncalibrated dynamic mechanical system controller
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
JP4143305B2 (ja) * 2001-01-30 2008-09-03 日本電気株式会社 ロボット装置、照合環境判定方法、及び照合環境判定プログラム
JP4161659B2 (ja) * 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
JP2008217803A (ja) 2002-02-27 2008-09-18 Nec Corp 画像認識システム及びその認識方法並びにプログラム
JP2004294498A (ja) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd 自動撮影システム
EP2955662B1 (en) 2003-07-18 2018-04-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
EP1566788A3 (en) * 2004-01-23 2017-11-22 Sony United Kingdom Limited Display
JP4606779B2 (ja) * 2004-06-07 2011-01-05 グローリー株式会社 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
WO2006040761A2 (en) * 2004-10-15 2006-04-20 Oren Halpern A system and a method for improving the captured images of digital still cameras
JP5008269B2 (ja) 2005-04-08 2012-08-22 キヤノン株式会社 情報処理装置、情報処理方法
JP4696857B2 (ja) * 2005-11-02 2011-06-08 オムロン株式会社 顔照合装置
JP5239126B2 (ja) * 2006-04-11 2013-07-17 株式会社ニコン 電子カメラ
JP4264663B2 (ja) * 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
US20080260212A1 (en) * 2007-01-12 2008-10-23 Moskal Michael D System for indicating deceit and verity
JP4999570B2 (ja) * 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
JP2009086749A (ja) 2007-09-27 2009-04-23 Canon Inc パターン識別手法、識別用パラメータ学習方法、及び装置
JP5055166B2 (ja) 2008-02-29 2012-10-24 キヤノン株式会社 眼の開閉度判定装置、方法及びプログラム、撮像装置
US8331655B2 (en) 2008-06-30 2012-12-11 Canon Kabushiki Kaisha Learning apparatus for pattern detector, learning method and computer-readable storage medium
JP5335574B2 (ja) * 2009-06-18 2013-11-06 キヤノン株式会社 画像処理装置及びその制御方法
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
JP5173954B2 (ja) * 2009-07-13 2013-04-03 キヤノン株式会社 画像処理装置及び画像処理方法
JP5554984B2 (ja) 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
JP5588180B2 (ja) 2010-01-15 2014-09-10 キヤノン株式会社 パターン識別装置及びその制御方法
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5746477B2 (ja) * 2010-02-26 2015-07-08 キヤノン株式会社 モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP5624394B2 (ja) * 2010-07-16 2014-11-12 キヤノン株式会社 位置姿勢計測装置、その計測処理方法及びプログラム
JP2012038106A (ja) 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
JP5653131B2 (ja) 2010-08-25 2015-01-14 キヤノン株式会社 オブジェクト認識装置およびその認識方法
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5755012B2 (ja) 2011-04-21 2015-07-29 キヤノン株式会社 情報処理装置、その処理方法、プログラム及び撮像装置
US9279661B2 (en) * 2011-07-08 2016-03-08 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP5848551B2 (ja) * 2011-08-26 2016-01-27 キヤノン株式会社 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
JP5913940B2 (ja) 2011-12-01 2016-05-11 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5836095B2 (ja) 2011-12-05 2015-12-24 キヤノン株式会社 画像処理装置、画像処理方法
JP5997545B2 (ja) 2012-08-22 2016-09-28 キヤノン株式会社 信号処理方法及び信号処理装置
JP6456031B2 (ja) * 2014-03-25 2019-01-23 キヤノン株式会社 画像認識装置、画像認識方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011210126A (ja) * 2010-03-30 2011-10-20 Canon Inc パターン認識装置及びパターン認識方法
JP2012221061A (ja) * 2011-04-05 2012-11-12 Canon Inc 画像認識装置、画像認識方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020511723A (ja) * 2017-03-17 2020-04-16 ニューララ インコーポレイテッド 深層ニューラルネットワークおよびニューラルネットワークアプリケーション向けのデータストリームのタグ付けおよびラベル付けのためのオンラインでのインクリメンタルリアルタイム学習
US11410033B2 (en) 2017-03-17 2022-08-09 Neurala, Inc. Online, incremental real-time learning for tagging and labeling data streams for deep neural networks and neural network applications
US11928602B2 (en) 2017-05-09 2024-03-12 Neurala, Inc. Systems and methods to enable continual, memory-bounded learning in artificial intelligence and deep learning continuously operating applications across networked compute edges

Also Published As

Publication number Publication date
US20150146991A1 (en) 2015-05-28
US9633284B2 (en) 2017-04-25
JP6351243B2 (ja) 2018-07-04

Similar Documents

Publication Publication Date Title
JP6351243B2 (ja) 画像処理装置、画像処理方法
US10198823B1 (en) Segmentation of object image data from background image data
Singh et al. Face detection and recognition system using digital image processing
WO2020000908A1 (zh) 一种人脸活体检测方法及装置
JP5010905B2 (ja) 顔認証装置
KR101964397B1 (ko) 정보처리장치 및 정보처리방법
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
US10565461B2 (en) Live facial recognition method and system
US9098760B2 (en) Face recognizing apparatus and face recognizing method
TW202006602A (zh) 三維臉部活體檢測方法、臉部認證識別方法及裝置
US8934679B2 (en) Apparatus for real-time face recognition
WO2019033572A1 (zh) 人脸遮挡检测方法、装置及存储介质
WO2019033569A1 (zh) 眼球动作分析方法、装置及存储介质
JP2017033469A (ja) 画像識別方法、画像識別装置及びプログラム
JP6472184B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
WO2016084072A1 (en) Anti-spoofing system and methods useful in conjunction therewith
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
KR20170006355A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
WO2019033570A1 (zh) 嘴唇动作分析方法、装置及存储介质
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
CN110363111B (zh) 基于镜头失真原理的人脸活体检测方法、装置及存储介质
TW201635197A (zh) 人臉辨識方法及系統
CN108875488B (zh) 对象跟踪方法、对象跟踪装置以及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180605

R151 Written notification of patent or utility model registration

Ref document number: 6351243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151