JP2018005805A - Information processing system, image processing device, information processing device, and program - Google Patents
Information processing system, image processing device, information processing device, and program Download PDFInfo
- Publication number
- JP2018005805A JP2018005805A JP2016135683A JP2016135683A JP2018005805A JP 2018005805 A JP2018005805 A JP 2018005805A JP 2016135683 A JP2016135683 A JP 2016135683A JP 2016135683 A JP2016135683 A JP 2016135683A JP 2018005805 A JP2018005805 A JP 2018005805A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- unit
- feature information
- living body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本願は、情報処理システム、画像処理装置、情報処理装置、及びプログラムに関する。 The present application relates to an information processing system, an image processing device, an information processing device, and a program.
利用者を認証する認証方法として、パスワード入力等の操作が不要であり、ICカードの紛失や盗難等によるなりすましを防ぐことができる顔認証等の画像認証技術が普及している。 As an authentication method for authenticating a user, an image authentication technique such as face authentication that does not require an operation such as a password input and can prevent spoofing due to loss or theft of an IC card has become widespread.
また、カメラで撮影した顔画像の目や口等の領域を抽出して、その領域が時間方向に変化しているかを判断することで、撮影された顔が実際の顔であるか写真であるかを判断する生体判定の技術が知られている(例えば、特許文献1参照)。 Also, by extracting areas such as eyes and mouth from the face image taken by the camera and judging whether the area changes in the time direction, it is a photograph whether the photographed face is an actual face. There is known a living body determination technique for determining whether or not (see, for example, Patent Document 1).
例えば、顔認証を行う情報処理装置において、特許文献1に示されるような生体判定を利用することにより、顔写真等によるなりすましを低減させることができる。
For example, in an information processing apparatus that performs face authentication, impersonation due to a face photograph or the like can be reduced by using biometric determination as disclosed in
しかし、例えば、特許文献1に示されるような従来の生体判定の技術では、多様な人の動きを判定する際に、判定の精度の低下を抑制しつつ、判定に要する時間を短縮することには困難を伴っていた。
However, for example, in the conventional biometric determination technique as disclosed in
本発明の実施の形態は、上記問題点に鑑みてなされたものであって、画像に撮影された人物が生体であるか否かを判定する生体判定を行う情報処理システムにおいて、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することを目的とする。 Embodiments of the present invention have been made in view of the above problems, and in an information processing system that performs a living body determination for determining whether a person photographed in an image is a living body, the accuracy of the living body determination The purpose is to reduce the time required for the living body determination while suppressing the decrease of the above.
上記課題を解決するため、本発明の一実施形態に係る情報処理システムは、生体の画像から予め抽出された生体の識別空間の情報を用いて、画像に撮影された人物が生体であるかを判定する生体判定を行う情報処理システムであって、前記画像を撮影する撮影部と、前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、前記特徴情報抽出部が抽出する前記特徴情報を、前記生体の識別空間を含む判別空間に射影する第1の射影ベクトルの要素のうち、前記生体判定に使用しない不要要素の情報を記憶した第1の記憶部と、前記第1の射影ベクトルから前記不要要素を除いた第2の射影ベクトルと、前記特徴情報抽出部が抽出した前記特徴情報とを用いて、前記画像に撮影された人物が生体であるか否かを判定する生体判定部と、を有する。 In order to solve the above problem, an information processing system according to an embodiment of the present invention uses information on a living body identification space extracted in advance from a living body image to determine whether a person photographed in the image is a living body. An information processing system for performing biometric determination, wherein a photographing unit for photographing the image, a feature information extracting unit for extracting feature information of a person photographed in the image, and the feature information extracting unit extract the feature information A first storage unit that stores information on unnecessary elements that are not used for biometric determination among elements of a first projection vector that project characteristic information onto a discrimination space including the identification space of the biological body; A living body that determines whether or not the person photographed in the image is a living body using the second projection vector obtained by removing the unnecessary elements from the projecting vector and the feature information extracted by the feature information extracting unit. Judgment part and Having.
本発明の実施の形態によれば、画像に撮影された人物が生体であるか否かを判定する生体判定を行う情報処理システムにおいて、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができる。 According to an embodiment of the present invention, in an information processing system that performs a living body determination for determining whether or not a person photographed in an image is a living body, it is necessary for the living body determination while suppressing a decrease in the accuracy of the living body determination. Time can be shortened.
以下に、本発明の実施の形態について、添付の図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the accompanying drawings.
<システムの構成>
図1は、一実施形態に係る情報処理システムの構成例を示す図である。情報処理システム100は、一例として、印刷、コピー、スキャン、ファクシミリ送受信等の複数の機能を有するMFP(Multifunction Peripheral/Product)等の画像形成装置101と、画像形成装置101の利用者103を撮影するカメラ102とを含む。
<System configuration>
FIG. 1 is a diagram illustrating a configuration example of an information processing system according to an embodiment. For example, the
画像形成装置(画像処理装置の一例)101は、カメラ102を用いて、画像形成装置101を利用する利用者の103画像を撮影し、利用者103の顔画像を抽出する。また、画像形成装置101は、例えば、抽出された顔画像を用いて利用者103の顔認証を行う。
An image forming apparatus (an example of an image processing apparatus) 101 uses a
また、画像形成装置101は、例えば、カメラ102に他人の写真をかざす行為等による、なりすましでの認証突破を防ぐため、カメラ102により、画像に撮影された人物(例えば、利用者103)が生体であるか否かを判定する生体判定を行う。
In addition, the
例えば、画像形成装置101は、生体の画像から予め抽出された生体の識別空間の情報である生体情報と、非生体(写真等)の画像から予め抽出された非生体の識別空間の情報である非生体情報を予め記憶部に記憶しておく。また、画像形成装置101は、カメラ102が撮影した画像から利用者103の特徴情報を抽出し、抽出した特徴情報と、記憶部に記憶した生体情報及び非生体情報との距離や類似度等に基づいて、画像に撮影された人物が生体であるか否かを判定する。
For example, the
さらに、本実施形態に係る画像形成装置101は、生体判定に用いる識別空間のうち、生体判定に使用しない不要な空間(以下、不要要素と呼ぶ)の情報を予め記憶しており、不要要素を除いて、特徴情報の抽出、類似度の計算等を実行する。
Further, the
なお、画像形成装置101が記憶している不要要素の情報は、例えば、別の情報処理装置で予め作成された不要要素の情報を画像形成装置101の記憶部に記憶しておくことができる。或いは、画像形成装置101は、不要要素の情報を生成する機能を有していても良い。
The unnecessary element information stored in the
本実施形態に係る画像形成装置101は、撮影した画像から抽出した特徴情報を、生体の識別空間、及び非生体の識別空間を含む判別空間に射影する第1の射影ベクトルのうち、不要要素を除いた第2の射影ベクトルを用いて、特徴情報の生体判定を行う。
The
好ましくは、画像形成装置101は、撮影した画像から抽出した特徴情報を抽出する際に、不要要素を除いた特徴情報を抽出する。
Preferably, the
これにより、画像形成装置101は、特徴情報の抽出処理、及び生体判定処理のうち、不要要素に関する処理を削減することができるので、生体判定処理を高速化することができる。また、生体判定に使用しない不要要素として、生体判定の判定結果に影響を与えない(又は影響が少ない)要素を予め記憶しておくことにより、生体判定の精度の低下を抑制することができる。
As a result, the
このように、本実施形態によれば、画像に撮影された人物が生体であるか否かを判定する生体判定を行う情報処理システム100において、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができる。
As described above, according to the present embodiment, in the
なお、図1に示す情報処理システム100の構成は一例である。例えば、画像形成装置101は、顔認証を行う他の画像処理装置、例えば、PC(Personal Computer)、タブレット端末、スマートフォン、テレビ会議装置、出退勤管理装置、ATM(Automatic teller machine)、ナビゲーション装置等の画像処理装置であっても良い。
The configuration of the
また、情報処理システム100は、前述した不要空間情報を作成する別の情報処理装置を有していても良い。
Further, the
<ハードウェア構成>
(画像形成装置のハードウェア構成)
図2は、一実施形態に係る画像形成装置101のハードウェア構成の例を示す図である。画像形成装置101は、例えば、コピー機能、スキャナ機能、ファクス機能、プリンタ機能などの各種の画像形成機能を実現する本体210と、ユーザの操作を受け付ける操作部220とを備える。なお、ユーザの操作を受け付けるとは、ユーザの操作に応じて入力される情報(画面の座標値を示す信号などを含む)を受け付けることを含む概念である。本体210と操作部220は、専用の通信路240を介して相互に通信可能に接続されている。通信路240は、例えばUSB(Universal Serial Bus)規格のものを用いることができるが、有線か無線かを問わず任意の規格のものであって良い。
<Hardware configuration>
(Hardware configuration of image forming apparatus)
FIG. 2 is a diagram illustrating an example of a hardware configuration of the
なお、本体210は、操作部220で受け付けた操作に応じた動作を行うことができる。また、本体210は、クライアントPC(パーソナルコンピュータ)などの外部装置とも通信可能であり、外部装置から受信した指示に応じた動作を行うこともできる。
The
まず、本体210のハードウェア構成について説明する。図2に示すように、本体210は、CPU(Central Processing Unit)211、ROM(Read Only Memory)212、RAM(Random Access Memory)213、ストレージ部214、通信I/F(Interface)215、接続I/F216、エンジン部217、人体検知センサ218、及びシステムバス219等を有する。
First, the hardware configuration of the
CPU211は、RAM213をワークエリア(作業領域)としてROM212又はストレージ部214等に格納されたプログラムを実行することで、本体210全体の動作を制御する。例えば、CPU211は、エンジン部217を用いて、前述したコピー機能、スキャナ機能、ファクス機能、プリンタ機能などの各種機能を実現する。
The
ROM212は、例えば、本体210の起動時に実行されるBIOS(Basic Input/Output System)や、各種の設定等を記憶する不揮発性のメモリである。RAM213は、CPU211のワークエリア等として用いられる揮発性のメモリである。ストレージ部214は、例えば、OS(Operating System)、アプリケーションプログラム、各種データ等を記憶する不揮発性の記憶装置であり、例えば、HDD(Hard Disk Drive)や、SSD(Solid State Drive)等で構成される。
The
通信I/F215は、本体210をネットワーク250に接続し、ネットワーク250に接続された外部装置との通信を行うためのネットワークインタフェースである。接続I/F216は、通信路240を介して操作部220と通信するためのインタフェースである。
The communication I /
エンジン部217は、コピー機能、スキャナ機能、ファクス機能、及びプリンタ機能等の機能を実現させるための、汎用的な情報処理及び通信以外の処理を行うハードウェアである。エンジン部217には、例えば、原稿の画像をスキャンして読み取るスキャナ(画像読取部)、用紙等のシート材への印刷を行うプロッタ(画像形成部)、ファクス通信を行うファクス部等が含まれる。さらに、エンジン部217には、印刷済みシート材を仕分けるフィニッシャや、原稿を自動給送するADF(自動原稿給送装置)のような特定のオプションが含まれていても良い。
The
人体検知センサ218は、画像形成装置101の周囲の検知範囲内にある人体を検知するセンサであり、例えば焦電センサ等が用いられる。
The human
システムバス219は、上記各構成要素に接続され、アドレス信号、データ信号、及び各種制御信号等を伝送する。
A
次に、操作部220のハードウェア構成について説明する。図2に示すように、操作部220は、CPU221、ROM222、RAM223、フラッシュメモリ224、通信I/F225、操作パネル226、接続I/F227、内部カメラ228、外部接続I/F229、及びシステムバス230等を有する。
Next, the hardware configuration of the
CPU221は、RAM223をワークエリア(作業領域)としてROM222又はフラッシュメモリ224等に格納されたプログラムを実行することで、操作部220全体の動作を制御する。
The
ROM222は、例えば、操作部220の起動時に実行されるBIOSや、各種の設定等を記憶する不揮発性のメモリである。RAM223は、CPU221のワークエリア等として用いられる揮発性のメモリである。フラッシュメモリ224は、例えば、OS、アプリケーションプログラム、各種データ等を記憶する不揮発性の記憶装置である。
The
通信I/F225は、操作部220をネットワーク250に接続し、ネットワーク250に接続された外部装置との通信を行うためのネットワークインタフェースである。
The communication I /
操作パネル226は、ユーザの操作に応じた各種の入力を受け付けると共に、各種の情報(例えば受け付けた操作に応じた情報、画像形成装置101の動作状況を示す情報、設定状態等)を表示する。操作パネル226は、例えば、タッチパネル機能を搭載した液晶表示装置(LCD: Liquid Crystal Display)で構成されるが、これに限られるものではない。操作パネル226は、例えばタッチパネル機能が搭載された有機EL(Electro Luminescence)表示装置で構成されていても良い。さらに、操作パネル226は、これに加えて又はこれに代えて、ハードウェアキー等の操作部や、ランプ等の表示部を設けることもできる。
The
接続I/F227は、通信路240を介して本体210と通信するためのインタフェースである。
The connection I /
内部カメラ228は、画像形成装置101の周辺の画像を撮影するカメラであり、図1のカメラ102の一例である。
The
外部接続I/F229は、外部装置を接続するための、例えばUSB等のインタフェースである。外部接続I/F229に接続される外部装置には、例えば、外部カメラ231等が含まれる。なお、外部カメラ231は、画像形成装置101の周辺の画像を撮像するカメラであり、図1のカメラ102の別の一例である。画像形成装置101は、内部カメラ228、及び外部カメラ231のいずれか一方、又は両方を有している。
The external connection I /
システムバス230は、上記各構成要素に接続され、アドレス信号、データ信号、及び各種制御信号等を伝送する。
The
(情報処理装置のハードウェア構成)
図3は、一実施形態に係る情報処理装置のハードウェア構成例を示す図である。本実施形態に係る画像処理装置は、例えば、図3に示すような情報処理装置であっても良い。また、図1で前述した、不要空間情報を作成する別の情報処理装置は、図3に示すようなハードウェア構成を有している。
(Hardware configuration of information processing device)
FIG. 3 is a diagram illustrating a hardware configuration example of the information processing apparatus according to the embodiment. The image processing apparatus according to the present embodiment may be an information processing apparatus as shown in FIG. 3, for example. Further, another information processing apparatus for creating unnecessary space information described above with reference to FIG. 1 has a hardware configuration as shown in FIG.
情報処理装置300は、一般的なコンピュータの構成を有しており、例えば、CPU301、RAM302、ROM303、ストレージ装置304、ネットワークI/F305、入力装置306、表示装置307、外部I/F308、及びバス309等を有する。
The
CPU301は、ROM303やストレージ装置304等に格納されたプログラムやデータをRAM302上に読み出し、処理を実行することで、情報処理装置300の各機能を実現する演算装置である。RAM302は、CPU301のワークエリア等として用いられる揮発性のメモリである。ROM303は、電源を切ってもプログラムやデータを保持することができる不揮発性のメモリである。
The
ストレージ装置304は、例えば、HDDや、SSD等の大容量の記憶装置であり、OS、アプリケーションプログラム、各種のデータ等を記憶する。ネットワークI/F305は、情報処理装置300をネットワーク250等に接続するための通信インタフェースである。
The
入力装置306は、例えば、マウス等のポインティングデバイスや、キーボード等の入力デバイスであり、情報処理装置300に各操作信号を入力するために用いられる。表示装置307はディスプレイ等の表示デバイスであり、情報処理装置300による処理結果等を表示する。
The
外部I/F308は、外部装置とのインタフェースである。外部装置には、例えば、情報処理装置300の周辺の画像を撮影する外部カメラ310や、記録媒体等が含まれる。
The external I /
バス309は、上記の各構成要素に接続され、アドレス信号、データ信号、及び各種制御信号等を伝送する。
A
[第1の実施形態]
<機能構成>
図4は、第1の実施形態に係る画像形成装置の機能構成の一例を示す図である。画像形成装置101は、図2のCPU211、及びCPU221のうちの少なくとも1つのCPUで所定のプログラムを実行することにより、図4に示す機能構成を実現する。
[First Embodiment]
<Functional configuration>
FIG. 4 is a diagram illustrating an example of a functional configuration of the image forming apparatus according to the first embodiment. The
なお、図4に示す機能構成は一例である。例えば、操作部220に含まれる各構成要素のうちの少なくとも一部は、本体210に含まれていても良いし、本体210に含まれる各構成要素のうちの少なくとも一部は、操作部220に含まれていても良い。
The functional configuration shown in FIG. 4 is an example. For example, at least some of the components included in the
(本体の機能構成)
画像形成装置101の本体210は、人体検知部421、状態制御部422、画像形成部423、及び通信部424等を有する。
(Functional structure of the main unit)
The
人体検知部421は、例えば、図2に示す人体検知センサ218等を用いて、画像形成装置101の周辺にある人体を検知する手段であり、例えば、図2のCPU211(又はCPU221)で実行されるプログラムによって実現される。人体検知部421は、例えば、人体検知センサ218の検知範囲内で人体が検知された場合、人体が検知されたことを状態制御部422等に通知する。
The human
状態制御部422は、操作部220や、本体210の電力状態を制御する手段であり、例えば、図2のCPU211(又はCPU221)で実行されるプログラムによって実現される。例えば、状態制御部422は、予め設定された時間を超えて、画像形成装置101の利用がない場合、画像形成装置101を、画像形成処理を実行可能な通常状態よりも消費電力が少ない省電力状態へ移行させる。画像形成装置101は、省電力状態では、例えば、操作部220、及び本体210のエンジン部217、ストレージ部214の機能を停止させること等により、消費電力を低減させることができる。
The
また、状態制御部422は、画像形成装置101が省電力状態中に、例えば、人体検知部421から、人体が検知されたことを示す通知を受け付けると、操作部220を、省電力状態から通常の動作が可能な通常状態へ復帰させる。例えば、状態制御部422は、通信部424を介して、操作部220に復帰命令を通知することにより、操作部220を省電力状態から、通常状態へ復帰させる。
In addition, when the
画像形成部423は、画像形成装置101が備える各種の画像形成機能(例えば、印刷、コピー、スキャン、ファックス等)を実行する手段であり、例えば、図2のエンジン部217、及び図2のCPU211で実行されるプログラム等によって実現される。
The
通信部424は、操作部220と通信を行うための手段であり、例えば、図2の接続I/F216、及び図2のCPU211で実行されるプログラム等によって実現される。
The
(操作部の機能構成)
画像形成装置101の操作部220は、例えば、撮影部401、顔画像検出部402、特徴情報抽出部403、生体判定部404、ノイズ判定部405、不要空間抽出部406、画像認証部407、表示入力部408、生体情報記憶部409、非生体情報記憶部410、識別空間情報記憶部411、不要空間情報記憶部412、及び通信部413等を有する。
(Function configuration of the operation unit)
The
撮影部(取得部)401は、図2の内部カメラ228や、外部カメラ231等のカメラ102を用いて、画像形成装置101の周辺の画像を撮影する手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。撮影部401は、例えば、画像形成装置101の周辺(例えば前方)にいる利用者の画像を所定の時間間隔で取得する。
The imaging unit (acquisition unit) 401 is a unit that captures an image around the
顔画像検出部402は、撮影部401が撮影した画像から顔領域を検出する手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。顔画像検出部402が検出する顔画像の例を図7に示す。
The face
図7(a)において、撮影部401が撮影した画像710には、画像形成装置101の前方にいる利用者103が撮影されている。このように、画像形成装置101のカメラ102は、画像形成装置101を利用する利用者103が、撮影部401が撮影した画像710に含まれるように設置されているものとする。
In FIG. 7A, the
顔画像検出部402は、この撮影部401が撮影した画像710から、例えば、公知のパターンマッチング技術等を用いて、例えば、図8(b)に示すような利用者103の顔画像720を検出し、検出された顔画像720を抽出する。
The face
顔画像検出部402による顔画像の検出方法は任意の方法で良いが、ここでは、一例として、Haar−like特徴による顔検出について、概要を説明する。
The face image detection method by the face
Haar−like特徴による顔検出では、探索領域中で計算対象である矩形中の黒色領域のピクセル値の和の値から白色領域のピクセル値の和の値を引いた値であるHaar−like特徴量を用いる。上述した矩形の配置場所は、探索領域内のどこに配置しても良いため、探索領域中に数万通りの配置場所の可能性がある。これらに対してBoostingにより探索領域内の各弱識別器を事前学習で重み付けして、重要度が上位の数十個の弱識別器を選択して強識別器を作成する。この強識別器によって(人の顔らしさを示す白黒矩形数パターンによって)、その領域が人の顔領域かどうかを判断することができる。 In face detection using the Haar-like feature, the Haar-like feature value is a value obtained by subtracting the sum of the pixel values of the white region from the sum of the pixel values of the black region in the rectangle to be calculated in the search region. Is used. Since the rectangular arrangement location described above may be arranged anywhere in the search area, there may be tens of thousands of arrangement locations in the search area. On the other hand, each weak classifier in the search area is weighted by prior learning by boosting, and dozens of weak classifiers with higher importance are selected to create a strong classifier. With this strong discriminator (by a black and white rectangular number pattern indicating the likelihood of a human face), it is possible to determine whether or not the area is a human face area.
特徴情報抽出部403は、撮影部401が撮影した画像に含まれる人物の特徴情報(特徴量)を抽出する手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。
The feature
特徴情報抽出部403は、撮影部401が所定の時間間隔で撮影した画像より、顔画像検出部402が抽出した時系列の顔画像から、動作を示す特徴情報を抽出する。特徴情報抽出部403が抽出する特徴情報の一例として、立体高次自己相関特徴量(CHLAC: Cubic Higher-order Local Auto Correction)を用いることができる。
The feature
ここで、立体高次自己相関特徴量(以下、CHLAC特徴量と呼ぶ)について説明する前に、CHLAC特徴量の前身の手法である高次局所自己相関特徴量(HLAC: Higher-order Local Auto Correction)について説明を行う。 Here, before describing the three-dimensional higher-order autocorrelation feature (hereinafter referred to as CHLAC feature), a higher-order local autocorrelation feature (HLAC: Higher-order Local Auto Correction) is a predecessor of the CHLAC feature. ).
(HLAC特徴量)
高次局所自己相関特徴量(以下、HLAC特徴量と呼ぶ)では、2値化された画像上のある点rにおける高次自己相関を算出する。
(HLAC feature)
For higher order local autocorrelation feature quantities (hereinafter referred to as HLAC feature quantities), higher order autocorrelation at a point r on the binarized image is calculated.
対象となる画素r(参照点)と近傍の領域は相関が高いことが予想されるので、全領域の相関を算出するのではなく、局所領域内からの相関を算出することにより、HLAC特徴量が求められる。N次(Nは自然数)の自己相関関数は次の(式1)で表される。 Since the target pixel r (reference point) and the neighboring region are expected to have a high correlation, the HLAC feature amount is calculated by calculating the correlation from the local region instead of calculating the correlation of the entire region. Is required. The autocorrelation function of the Nth order (N is a natural number) is expressed by the following (Expression 1).
このHLAC特徴量は、一不変性と加法性といる2つの性質を持つ。 This HLAC feature quantity has two properties, one invariance and additivity.
位置不変性とは、対象が画像内のどの位置に存在しても特徴量は変動しないという性質である。また、加法性とは、例えば、人物Aの動作の特徴量をfAとし、人物Bの動作の特徴量をfBとして、人物Aと人物Bとが同一の画像内で動作を行った場合、特徴量がfA+fBとなる性質である。 The position invariance is a property that the feature amount does not change regardless of the position in the image. In addition, for example, when the feature amount of the motion of the person A is fA and the feature amount of the motion of the person B is fB, the person A and the person B perform the motion in the same image. The amount is fA + fB.
(CHLAC特徴量)
続いて、本実施形態で特徴情報として用いるCHLAC特徴量について説明する。
(CHLAC feature)
Subsequently, a CHLAC feature amount used as feature information in the present embodiment will be described.
HLAC特徴量は、2次元の局所領域の相関を求めるものであったが、CHLAC特徴量は、時間を加えた局所領域の相関を求めるものである。CHLAC特徴量は、次の(式2)に示すN次自己相関関数を、時系列の画像の時間で積分することにより求めることができる。 The HLAC feature value is used to obtain the correlation of the two-dimensional local region. The CHLAC feature value is used to obtain the correlation of the local region to which time is added. The CHLAC feature amount can be obtained by integrating the Nth-order autocorrelation function shown in the following (Equation 2) with the time of the time-series image.
2値の動画像によるCHLAC特徴量の変位ベクトルの組合せの数は、0次が1個、1次が13個、2次が237個であり、合計251次元のベクトルとして表される。CHLAC特徴量も、HLAC特徴量と同様に、位置不変性と加法性という2つの性質を持つ。 The number of combinations of displacement vectors of CHLAC feature values by binary moving images is 0 for the 1st order, 13 for the 1st order, and 237 for the 2nd order, and is expressed as a 251-dimensional vector in total. Similar to the HLAC feature quantity, the CHLAC feature quantity has two properties of position invariance and additivity.
ここで、図9を用いて、CHLAC特徴量の算出方法のイメージについて説明する。 Here, an image of a method of calculating the CHLAC feature amount will be described with reference to FIG.
図9において、例えば、撮影部401等により、所定の時間間隔で時系列の画像901〜904を撮影する。
In FIG. 9, for example, time series images 901 to 904 are taken at predetermined time intervals by the photographing
次に、例えば、特徴情報抽出部403は、時系列の画像901〜904の差分を計算し、得られた差分画像を2値化する。図9の例では、画像911は、画像901と画像902との間の2値の差分画像を示している。また画像912は、画像902と画像903との間の2値の差分画像を示している。さらに、画像913は、画像903と画像904との間の2値の差分画像を示している。
Next, for example, the feature
続いて、特徴情報抽出部403は、2値化された画像912について、自己のHLAC特徴量と、前後の画像911、913との相関を2次まで計算する。
Subsequently, the feature
さらに、特徴情報抽出部403は、画像912内の全画素において、CHLACを計算し、積分する。
Further, the feature
これにより、例えば、図9の枠920内に示す3つの2値画像に対応する1本の特徴ベクトル(CHLAC特徴量)が生成される。なお、本実施形態のように、顔等の微少な動作を識別する場合、生成された特徴ベクトルについて、ノルムの正規化を行うことが望ましい。
Thereby, for example, one feature vector (CHLAC feature amount) corresponding to three binary images shown in a
このように、特徴情報抽出部403が抽出する特徴情報の一例として、CHLAC特徴量を利用することができる。
As described above, the CHLAC feature amount can be used as an example of the feature information extracted by the feature
また、別の一例として、特徴情報抽出部403は、時系列の画像を用いて、画像内の小領域が次のフレームの画像内でどこに移動したかをブロックマッチングで算出し、各領域の動きをベクトルで表した特徴量を特徴情報として用いるもの等であっても良い。ここでは、特徴情報抽出部403は、CHLAC特徴量を抽出するものとして、以下の説明を行う。
As another example, the feature
好ましくは、特徴情報抽出部403は、例えば、251次元のCHLAC特徴量のベクトルのうち、不要空間情報記憶部412に記憶された不要要素(不要な次元)を除いた特徴量を抽出する。これにより、例えば、不要空間情報記憶部412に10個の不要要素が記憶されている場合、特徴情報抽出部403は、251次元の特徴情報のうち、241次元の計算を行えば良くなるので、処理を高速化することができる。
Preferably, the feature
図4に戻り、操作部220の機能構成の説明を続ける。
Returning to FIG. 4, the description of the functional configuration of the
生体判定部404は、生体の画像から予め抽出された生体の識別空間の情報(以下、生体情報と呼ぶ)、及び非生体(例えば写真等)から予め抽出された非生体の識別空間の情報(以下、非生体情報と呼ぶ)を用いて、生体判定を行う。生体判定部404は、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。
The
生体判定部404は、特徴情報抽出部403が抽出した特徴情報を、生体情報記憶部409に予め記憶した生体情報や、非生体情報記憶部410に予め記憶した非生体情報と比較することにより、画像に撮影された人物が生体であるか否かを判定する(生体判定)。
The
なお、生体判定の手法として、判別分析や、部分空間法等がある。第1の実施形態では、一例として、生体判定部404が、判別分析により生体判定を行うものとして、以下の説明を行う。
Note that there are a discriminant analysis, a subspace method, and the like as a living body determination method. In the first embodiment, as an example, the following description will be given assuming that the living
(判別分析)
ここで、図10、11を用いて、判別分析の概要について説明する。
(Discriminant analysis)
Here, an outline of discriminant analysis will be described with reference to FIGS.
例えば、図10(a)に示すように、3つの生体情報(生体情報1〜3)と、5つの非生体情報(非生体情報1〜5)から生成した判別空間があるとする。なお、生体情報1〜3は、生体情報記憶部409に記憶した、生体の画像から予め抽出された生体の識別空間(生体情報)の一例である。また、非生体情報1〜5は、非生体情報記憶部410に記憶した、非生体の画像から予め抽出された非生体の識別空間(非生体情報)の一例である。
For example, as shown in FIG. 10A, it is assumed that there is a discrimination space generated from three pieces of biological information (
一例として、生体判定部404は、特徴情報抽出部403が抽出した特徴情報を、判別空間に射影した際に、最も近い識別空間が生体情報であれば、特徴情報抽出部403が抽出した特徴情報が生体の特徴情報であると判断する。一方、生体判定部404は、特徴情報抽出部403が抽出した特徴情報を、判別空間に射影した際に、最も近い識別空間が非生体情報であれば、特徴情報抽出部403が抽出した特徴情報が非生体の特徴情報であると判断する。
As an example, when the feature information extracted by the feature
例えば、図10(a)の例では、判別空間に射影された特徴情報1001は、「生体1」に最も近いので、生体判定部404は、特徴情報1001が、生体の特徴情報であると判断する。一方、図10(b)の例では、判別空間に射影された特徴情報1002は、「非生体情報2」に最も近いので、生体判定部404は、特徴情報1002が、非生体の特徴情報であると判断する。
For example, in the example of FIG. 10A, the
なお、判別空間に射影された特徴情報と、各識別空間(生体情報1〜3、非生体情報1〜5)との間の距離は、例えば、各識別空間の中心(重心)との距離で判断される。また、距離は、例えば、ユークリッド距離やマハラノビス距離等が用いられる。
The distance between the feature information projected on the discrimination space and each identification space (
別の一例として、生体判定部404は、特徴情報抽出部403が抽出した特徴情報を、判別空間に射影した際に、最も近い識別空間に所属させるのではなく、生体の識別空間からの一定範囲の距離を見るものであっても良い。
As another example, when the
例えば、図11の判別空間に射影された特徴情報が、生体情報1から所定の距離の範囲1101内、生体情報2から所定の距離の範囲1102内、又は生体情報3から所定の距離の範囲1103内にある場合、生体判定部404は、生体の特徴情報と判断する。
For example, the feature information projected onto the discrimination space in FIG. 11 is within a
この方法では、生体判定に必要な情報は、生体情報1〜3の識別空間の中心と特徴情報との間の距離なので、非生体情報1〜5の識別空間の中心と特徴情報との間の距離は、計算しなくても良い。この方法では、生体情報1〜3の識別空間の中心との距離が短いほど類似度が高く、距離が長いほど類似度が低くなる。
In this method, since the information necessary for the biometric determination is the distance between the center of the identification space of the
本実施形態では、生体判定部404は、判別分析により、生体判定を行うものとして、以下の説明を行う。
In the present embodiment, the living
図4に戻り、操作部220の機能構成の説明を続ける。
Returning to FIG. 4, the description of the functional configuration of the
ノイズ判定部405は、撮影部401が撮影した時系列の画像のうち、例えば、蛍光灯のちらつき等による、生体判定に影響を与えるノイズが乗っている画像があるかを判定する手段である。ノイズ判定部405は、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。
The
ノイズ判定部405によるノイズの判定方法は任意の方法で良いが、一例として
、ノイズ判定部405は、時系列に並んだ2つの画像において、各画素の輝度値の差を求め、その総和を算出する。また、ノイズ判定部405は、算出した総和の値が、しきい値を超える場合、ノイズが乗っていると判断することができる。
The
不要空間抽出部406は、特徴情報抽出部403が抽出した特徴情報を、図10に示すような判別空間に射影する射影ベクトル(第1の射影ベクトル)の要素のうち、生体判定に使用しない不要要素の情報を抽出し、不要空間情報記憶部412に記憶する。
The unnecessary
また、不要空間抽出部406は、第1の射影ベクトルの要素のうち、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を、識別空間情報記憶部411に記憶する。
Further, the unnecessary
ここで、判別空間と、射影ベクトルについて説明する。 Here, the discriminant space and the projection vector will be described.
判別分析は、自クラス(識別空間)のクラス内分散を最小にし、他クラスとのクラス間分散を最大にする空間を求める方法である。クラスが複数ある場合には、各クラス内の分散を最小にし、各クラス間のクラス間分散を最大にする空間を求める。 Discriminant analysis is a method for obtaining a space that minimizes intra-class variance of its own class (identification space) and maximizes inter-class variance with other classes. When there are a plurality of classes, a space that minimizes the variance within each class and maximizes the interclass variance between the classes is obtained.
クラス内分散Wは、次の(式3)で表される。 The intra-class variance W is expressed by the following (Equation 3).
ここでW-1B の大きな固有値C−1個λ1、…、λC-1 に対応する固有ベクトルをA1、…、AC-1 とする。これを用いて、d×(C−1)行列 A=[A1、A2、…、AC-1] を定める。この行列を用いてデータxをATxでC−1次元空間に次元削減することを、判別空間に射影するという。 Here large eigenvalue C-1 or lambda 1 of W -1 B, ..., the eigenvector corresponding to λ C-1 A 1, ... , a A C-1. Using this, the d × (C−1) matrix A = [A 1 , A 2 ,..., A C-1 ] is determined. That the dimension reduction in C-1 dimensional space A T x data x using the matrix, as projected onto the discriminant space.
ここでは、生体情報記憶部409に記憶した生体の識別空間である生体情報、及び非生体情報記憶部410に記憶した非生体の識別空間である非生体情報が、251次元のデータxであるものとして以下の説明を行う。ただし、データxは、251次元以外のデータを用いるものであっても良い。
Here, the biological information that is the identification space of the living body stored in the biological
図12は、第1の実施形態に係る射影ベクトルの例を示す図である。図12に示す射影ベクトルは、8クラス(8種類の識別空間)の判別分析を行う場合の射影ベクトルの一例である。8クラスの判別分析を行う場合、判別空間は7次元となり、判別空間へと射影する固有ベクトルはA1、A2、A3、A4、A5、A6、A7の7本存在することになる。 FIG. 12 is a diagram illustrating an example of a projection vector according to the first embodiment. The projection vector shown in FIG. 12 is an example of a projection vector when performing discriminant analysis of eight classes (eight kinds of identification spaces). When performing 8-class discriminant analysis, the discriminant space has 7 dimensions, and there are seven eigenvectors A 1 , A 2 , A 3 , A 4 , A 5 , A 6 , and A 7 that are projected onto the discriminant space. become.
図12において、要素番号は、251次元の次元を示している。また、A1、A2、A3、A4、A5、A6、A7は、各固有ベクトルの値を表している。 In FIG. 12, the element number indicates a 251-dimensional dimension. A 1 , A 2 , A 3 , A 4 , A 5 , A 6 , and A 7 represent the values of the eigenvectors.
なお、判別空間へと射影する固有ベクトルA1、A2、A3、A4、A5、A6、A7には、1つ以上の生体情報と、1つ以上の非生体情報とが含まれる。 The eigenvectors A 1 , A 2 , A 3 , A 4 , A 5 , A 6 , A 7 that are projected onto the discrimination space include one or more pieces of biological information and one or more pieces of non-biological information. It is.
不要空間抽出部406は、例えば、図12に示すような射影ベクトルから、不要な要素(次元)である不要要素を抽出する。例えば、不要空間抽出部406は、図12において、各要素番号に対応する全ての値の絶対値がしきい値未満となる要素番号に対応する要素を不要要素と判断し、不要空間情報記憶部412に記憶する。例えば、図12において、しきい値を「0.010」とした場合の例を図13に示す。
The unnecessary
図13は、第1の実施形態に係る射影ベクトルの不要要素の例を示す図である。図13の例では、要素番号3、4、7、246は、固有ベクトルA1、A2、A3、A4、A5、A6、A7に対応する全ての値がしきい値「0.010」未満であるため、不要空間抽出部406は、不要要素と判断し、不要空間情報記憶部412に記憶する。
FIG. 13 is a diagram illustrating an example of unnecessary elements of the projection vector according to the first embodiment. In the example of FIG. 13, the element numbers 3 , 4 , 7, and 246 indicate that all the values corresponding to the eigenvectors A 1 , A 2 , A 3 , A 4 , A 5 , A 6 , A 7 have the threshold value “0”. Since it is less than “.010”, the unnecessary
好ましくは、不要空間抽出部406は、図12に示す射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を、識別空間情報記憶部411に記憶する。
Preferably, the unnecessary
なお、しきい値「0.010」は一例であり、判別分析の判別結果に影響が少ない要素が、不要要素として抽出されるように、予め定められているものとする。或いは、しきい値は、管理者や、利用者等が、操作パネル226等を用いて設定可能なものであっても良い。
Note that the threshold value “0.010” is an example, and it is assumed that an element having a small influence on the determination result of the discriminant analysis is determined in advance so as to be extracted as an unnecessary element. Alternatively, the threshold value may be set by an administrator, a user, or the like using the
本実施形態に係る生体判定部404は、図12に示すような、射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた第2の射影ベクトルを用いて、特徴情報抽出部403が抽出した特徴情報の判別分析を行う。例えば、生体判定部404は、不要空間抽出部406が、識別空間情報記憶部411に記憶した第2の射影ベクトルを用いて、撮影部401により、画像に撮影された人物が生体であるか否かを判定する。
The
好ましくは、特徴情報抽出部403は、特徴情報を抽出する際に、251次元の特徴情報のうち、不要空間情報記憶部412に記憶した不要要素(不要な次元)を除外して、特徴情報の抽出を行う。
Preferably, when extracting the feature information, the feature
図4に戻り、操作部220の機能構成の説明を続ける。
Returning to FIG. 4, the description of the functional configuration of the
画像認証部407は、顔認証等の従来の画像認証を実行する手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。例えば、画像認証部407は、画像認証に成功し、かつ生体判定部404が、画像に撮影された人物が生体であると判断した場合、画像形成装置101の利用を許可する。
The
表示入力部408は、図2の操作パネル226に、操作画面や設定画面等の表示画面を表示させると共に、操作パネル226への入力操作を受け付ける手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。
The
生体情報記憶部409は、生体の画像から予め抽出された生体の識別空間の情報である生体情報を記憶する手段であり、例えば、図2のフラッシュメモリ224、RAM223、図2のCPU221で実行されるプログラム等によって実現される。
The biometric
非生体情報記憶部410は、非生体の画像から予め抽出された非生体の識別空間の情報である非生体情報を記憶する手段であり、例えば、図2のフラッシュメモリ224、RAM223、図2のCPU221で実行されるプログラム等によって実現される。
The non-biological
識別空間情報記憶部(第2の記憶部)411は、特徴情報抽出部403が抽出した特徴情報を、生体情報、及び非生体情報に射影する第1の射影ベクトルから、不要要素を除いた第2の射影ベクトルを記憶する手段である。識別空間情報記憶部411は、例えば、図2のフラッシュメモリ224、RAM223、図2のCPU221で実行されるプログラム等によって実現される。
The identification space information storage unit (second storage unit) 411 includes a feature information extracted by the feature
不要空間情報記憶部(第1の記憶部)412は、特徴情報抽出部403が抽出した特徴情報を、生体情報、及び非生体情報に射影する第1の射影ベクトルのうち、生体判定に使用しない不要要素の情報を記憶する手段である。不要空間情報記憶部412は、例えば、図2のフラッシュメモリ224、RAM223、図2のCPU221で実行されるプログラム等によって実現される。
The unnecessary space information storage unit (first storage unit) 412 does not use the feature information extracted by the feature
上記の構成により、画像形成装置101は、例えば、特徴情報抽出部403による特徴情報の抽出処理や、生体判定部404に生体判定処理等において、不要要素の計算を省略できるので、生体判定を高速化することができる。
With the above configuration, the
また、画像形成装置101は、第1の射影ベクトルに含まれる要素のうち、生体判定の判定結果に影響が小さい要素を不要要素として抽出するので、生体判定の精度の低下を抑制することができる。
In addition, since the
したがって、本実施形態に係る画像形成装置101によれば、画像に撮影された人物が生体であるか否かを判定する生体判定を行う画像形成装置101において、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができるようになる。
Therefore, according to the
なお、図5に示す画像形成装置101の機能構成は、一例である。例えば、画像形成装置101は、不要空間抽出部406を有していなくても良い。
Note that the functional configuration of the
図5は、第1の実施形態に係る画像形成装置の機能構成の別の一例である。図5に示す画像形成装置101は、図4に示す画像形成装置101から、不要空間抽出部406を除いた構成となっている。
FIG. 5 is another example of the functional configuration of the image forming apparatus according to the first embodiment. The
この場合、画像形成装置101は、他の情報処理装置で取得した不要要素を不要空間情報記憶部412に予め記憶しておく。また、画像形成装置101は、他の情報処理装置で取得した、第1の射影ベクトルから不要要素を除いた第2の射影ベクトルを識別空間情報記憶部411に予め記憶しておく。
In this case, the
これより、図5に示す画像形成装置101においても、画像に撮影された人物が生体であるか否かを判定する生体判定を行う画像形成装置101において、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができるようになる。
As a result, also in the
図6は、第1の実施形態に係る情報処理装置の機能構成の例を示す図である。図6に示す情報処理装置600は、図4に示す画像形成装置101の機能構成のうち、撮影部401、特徴情報抽出部403、ノイズ判定部405、不要空間抽出部406、生体情報記憶部409、非生体情報記憶部410、識別空間情報記憶部411、及び不要空間情報記憶部412を有している。
FIG. 6 is a diagram illustrating an example of a functional configuration of the information processing apparatus according to the first embodiment. An
上記の構成により、情報処理装置600は、撮影部401で撮影した画像から、第1の射影ベクトルのうち、生体判定に使用しない不要要素の情報を取得して、不要空間情報記憶部412に記憶する。また、情報処理装置600は、第1の射影ベクトルから、不要要素を除いた第2の射影ベクトルを、識別空間情報記憶部411に記憶する。なお、情報処理装置600が不要空間情報記憶部412に記憶した不要要素の情報、及び識別空間情報記憶部411に記憶した第2の射影ベクトルの情報は、例えば、図5に示す画像形成装置101に記憶して、利用される。
With the above configuration, the
<処理の流れ>
続いて、第1の実施形態に係る生体判定方法の処理の流れについて説明する。
<Process flow>
Subsequently, a flow of processing of the living body determination method according to the first embodiment will be described.
(不要要素の抽出処理)
図14は、第1の実施形態に係る不要要素の抽出処理の例を示すフローチャートである。この処理は、画像形成装置101、又は情報処理装置600の不要空間抽出部406による不要要素を抽出する処理、及び第2の射影ベクトルを生成する処理の例を示している。
(Unnecessary element extraction processing)
FIG. 14 is a flowchart illustrating an example of unnecessary element extraction processing according to the first embodiment. This process shows an example of a process of extracting unnecessary elements by the unnecessary
ステップS1401において、特徴情報抽出部403は、撮影部401が所定の時間間隔で撮影した画像を読み込む。
In step S1401, the feature
ステップS1402において、特徴情報抽出部403は、ステップS1401で読み込んだ画像から、特徴情報(例えば、CHLAC特徴量)を抽出する。
In step S1402, the feature
続いて、不要空間抽出部406は、ステップS1403〜S1409に示す不要空間の抽出処理1400を実行する。
Subsequently, the unnecessary
ステップS1403において、不要空間抽出部406は、前述した判別空間を作成する。
In step S1403, the unnecessary
ステップS1404〜S1407の処理において、不要空間抽出部406は、例えば、図12に示すような、射影ベクトルの要素番号1から251(Nmax)まで、各要素が不要要素であるか否かの判断を行う。
In the processing of steps S1404 to S1407, the unnecessary
例えば、ステップS1401において、不要空間抽出部406は、要素番号Nを1に初期化する。
For example, in step S1401, the unnecessary
ステップS1405において、不要空間抽出部406は、要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満であるか否かを判断する。
In step S1405, the unnecessary
要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満でない場合、不要空間抽出部406は、処理をステップS1407に移行させる。一方、要素番号Nの各値がしきい値(例えば、「0.010」)未満である場合、不要空間抽出部406は、処理をステップS1406に移行させる。
If the absolute value of each value of the element number N is not less than a threshold value (for example, “0.010”), the unnecessary
ステップS1406に移行すると、不要空間抽出部406は、各値の絶対値がしきい値未満と判断された(不要要素と判断された)要素番号Nを、不要要素として不要空間情報記憶部412に記憶する。
In step S1406, the unnecessary
ステップS1407に移行すると、不要空間抽出部406は、要素番号Nが、要素番号Nの最大値(例えば、251)であるNmax以上であるかを判断する。
In step S1407, the unnecessary
要素番号NがNmax以上でない場合、不要空間抽出部406は、処理をステップS1408に移行させる。一方、要素番号NがNmax以上である場合、不要空間抽出部406は、処理をステップS1409に移行させる。
If the element number N is not greater than or equal to Nmax, the unnecessary
ステップS1408に移行すると、不要空間抽出部406は、要素番号Nに1を加算して、処理をステップS1405に戻し、同様の処理を繰り返す。
In step S1408, the unnecessary
ステップS1409に移行すると、不要空間抽出部406は、例えば、図12に示すような、射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を作成する。また、不要空間抽出部406は、作成した第2の射影ベクトルを、識別空間情報記憶部411に記憶する。
In step S1409, the unnecessary
上記の処理により、例えば、図13に示す射影ベクトルのうち、要素番号3、4、7、246等の情報が不要空間情報記憶部412に記憶される。また、例えば、図13に示す射影ベクトルのうち、要素番号3、4、7、246を除いた247次元の射影ベクトルが、識別空間情報記憶部411に記憶される。
By the above processing, for example, information such as
(生体判定処理)
図15は、第1の実施形態に係る画像形成装置の生体判定処理の例を示すフローチャートである。
(Biological determination processing)
FIG. 15 is a flowchart illustrating an example of biometric determination processing of the image forming apparatus according to the first embodiment.
ステップS1501において、撮影部401は、所定の時間間隔で時系列の複数の画像を撮影する。
In step S1501, the
ステップS1502において、顔画像検出部402は、撮影部401が撮影した画像から顔画像を検出する処理を行い、顔画像が検出されたか否かを判断する。
In step S1502, the face
顔画像が検出されない場合、顔画像検出部402は、処理をステップS1501に戻し、同様の処理を繰り返す。一方、顔画像が検出された場合、顔画像検出部402は、処理をステップS1503に移行させる。
When the face image is not detected, the face
ステップS1503に移行すると、特徴情報抽出部403は、不要空間情報記憶部412に記憶された不要要素の情報(例えば、要素番号3、4、7、246等)を読出す。
In step S1503, the feature
ステップS1504において、特徴情報抽出部403は、顔画像検出部402が検出した顔画像から、特徴情報(例えば、CHLAC特徴量)を抽出する。
In step S1504, the feature
好ましくは、このとき、特徴情報抽出部403は、不要空間情報記憶部412から読出した不要要素(例えば、要素番号3、4、7、246等)を除く要素番号(次元)の特徴情報を抽出する。これは、不要要素の特徴情報が、生体判定部404による生体判定処理で使用されないためである。これにより、特徴情報抽出部403による特徴情報の抽出処理の負荷が軽減されるので、処理を高速化させることができる。
Preferably, at this time, the feature
ステップ1505において、生体判定部404は、識別空間情報記憶部411に記憶された第2の射影ベクトルを読出す。
In
ステップS1506において、生体判定部404は、読出した第2の射影ベクトルと、特徴情報抽出部403が抽出した特徴情報とを用いて、顔画像検出部402が検出した顔画像の生体判定を行う。これにより、撮影部401によって、画像に撮影された人物が生体であるか、非生体(例えば、写真等)であるかを判定する。
In step S <b> 1506, the
ステップS1507において、生体判定部404は、例えば、生体判定の結果に応じて処理を分岐させる。
In step S1507, the living
生体の顔画像であると判定されない場合、生体判定部404は、処理をステップS1501に戻して、同様の処理を繰り返す。一方、生体の顔画像であると判定された場合、次のステップ(S1508)に処理を移行させる。
If it is not determined that the face image is a living body, the living
次のステップで、生体判定の判定結果をどのように用いるかは、任意である。 It is arbitrary how to use the determination result of the biological determination in the next step.
一例として、ステップS1508において、画像認証部407は、検出された顔画像の顔認証処理を実行し、顔認証に成功した場合、画像形成装置101の利用を許可する。一方、画像認証部407は、顔認証に成功しない場合、画像形成装置101の利用を許可しない。
As an example, in step S <b> 1508, the
以上、本実施形態によれば、特徴情報抽出部403、及び生体判定部404は、不要空間情報記憶部412に記憶された不要要素を除外して処理を実行するので、生体判定処理が高速化される。また、不要空間情報記憶部412に記憶された不要要素は、生体判定に影響を与えないと判断された要素(次元)なので、生体判定の精度の低下を抑制することができる。
As described above, according to the present embodiment, the feature
したがって、本実施形態によれば、画像に撮影された人物が生体であるか否かを判定する生体判定を行う情報処理システム100において、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができる。
Therefore, according to the present embodiment, in the
[第2の実施形態]
第1の実施形態では、生体判定に判別分析を用いる場合の例について説明した。ただし、判別分析は生体判定方法の一例であり、生体判定方法は他の方法であっても良い。
[Second Embodiment]
In the first embodiment, an example in which discriminant analysis is used for biological determination has been described. However, discriminant analysis is an example of a biological determination method, and the biological determination method may be another method.
第2の実施形態では、生体判定に部分空間法を用いる場合の例について説明する。 In the second embodiment, an example in which the subspace method is used for biological determination will be described.
<機能構成>
第2の実施形態に係る情報処理システム100の機能構成は、図4〜6に示す情報処理システム100の機能構成と同様である。
<Functional configuration>
The functional configuration of the
ただし、第2の実施形態に係る生体判定部404は、部分空間法を用いて生体判定を行う。
However, the living
また、第2の実施形態に係る不要空間抽出部406は、生体情報記憶部409に記憶された生体情報と、非生体情報記憶部410に記憶された非生体情報とに共通して存在する不要要素を主成分分析により抽出し、不要空間情報記憶部412に記憶する。
In addition, the unnecessary
(部分空間法による生体判定)
ここで、部分空間法による生体判定方法について説明する。
(Biometric judgment by subspace method)
Here, a living body determination method using the subspace method will be described.
図16は、第2の実施形態に係る部分空間法について説明するための図である。生体判定に部分空間法を用いる場合、クラス(識別空間)の角度を類似度(生体らしさを表す類似度)として利用することができる。 FIG. 16 is a diagram for explaining the subspace method according to the second embodiment. When the subspace method is used for the biometric determination, the angle of the class (identification space) can be used as the similarity (similarity representing the biologicalness).
例えば、図16に示す251次元の判別空間1600において、予め用意した「生体情報1」をm次元(mは自然数)の部分空間P1601とし、生体判定を行う特徴情報をn次元(nは自然数)の部分空間Q1602とする。このとき、部分空間P1601と部分空間Q1602との間には、部分空間同士の角度である正準角θiがn個定義できる(m≧n)。
For example, in the 251-
n個の正準角θiは、次の(式5)で表される。 The n canonical angles θi are expressed by the following (formula 5).
一例として、生体判定部404は、生体判定を行う特徴情報と、各クラス(識別空間)との類似度を計算し、最も類似度が高いクラスを生体判定の判定結果とすることができる。
As an example, the
例えば、生体情報1〜3、及び非生体情報1〜5の8個のクラス(識別空間)があるものとする。また、特徴情報と生体情報1との類似度が「0.75」、特徴情報と生体情報2との類似度が「0.96」、特徴情報と生体情報3との類似度が「0.23」、特徴情報と非生体情報1との類似度が「0.52」であるものとする。また、特徴情報と非生体情報2との類似度が「0.33」、特徴情報と非生体情報3との類似度が「0.45」、特徴情報と非生体情報4との類似度が「0.68」、特徴情報と非生体情報5との類似度が「0.11」であるものとする。
For example, it is assumed that there are eight classes (identification spaces) of
この場合、生体判定部404は、生体判定を行う特徴情報との類似度が、他のクラスより高い生体情報2に分類し、生体の特徴情報であると判断することができる。
In this case, the
別の一例として、生体判定部404は、生体情報をターゲットとして、しきい値以上のクラスを生体判定の判定結果とすることもできる。
As another example, the
例えば、また、特徴情報と生体情報1との類似度が「0.66」、特徴情報と生体情報2との類似度が「0.86」、特徴情報と生体情報3との類似度が「0.23」、特徴情報と非生体情報1との類似度が「0.52」であるものとする。また、特徴情報と非生体情報2との類似度が「0.33」、特徴情報と非生体情報3との類似度が「0.45」、特徴情報と非生体情報4との類似度が「0.88」、特徴情報と非生体情報5との類似度が「0.11」であるものとする。
For example, the similarity between the feature information and the
また、ターゲットのしきい値を「0.80」とする。この場合、生体判定部404は、ターゲットなる生体情報1〜3のうち、生体判定を行う特徴情報との類似度が、しきい値以上である生体情報2があるので、生体の特徴情報であると判断することができる。
The target threshold is set to “0.80”. In this case, the
この方法では、生体判定部404は、非生体情報1〜5との類似度を計算しなくても良い。また、別の方法として、生体判定部404は、非生体情報1〜5との類似度が、別のしきい値以下であることを、判断条件に加えても良い。
In this method, the living
(主成分分析による不要要素の抽出)
次に、主成分分析による不要要素の抽出方法について説明する。
(Extraction of unnecessary elements by principal component analysis)
Next, a method for extracting unnecessary elements by principal component analysis will be described.
第2の実施形態では、不要空間抽出部406は、各クラス(識別空間)に共通して存在する情報を、全クラスをまとめて主成分分析した際の寄与率が上位X%(Xはしきい値)の主成分ベクトルの要素を、不要要素として不要空間情報記憶部412に記憶する。
In the second embodiment, the unnecessary
図17は、第2の実施形態に係る生体情報、非生体情報の部分空間のイメージを示す図である。なお、図17では、同一の原点で3次元以上の空間を作図することが困難であるため、251次元の判別空間1700を3次元空間で表している。
FIG. 17 is a diagram illustrating an image of a partial space of biological information and non-biological information according to the second embodiment. In FIG. 17, since it is difficult to draw a three-dimensional or more space at the same origin, the 251-
図17の例では、判別空間1700に「生体情報1」1701、「生体情報2」1702、「非生体情報1」1703の3つの部分空間が示されている。
In the example of FIG. 17, three partial spaces of “
不要空間抽出部406は、各クラス(「生体情報1」、「生体情報2」、「非生体情報1」)に共通して存在する不要要素を抽出するために、主成分分析を行い、寄与率が上位X%の主成分ベクトルを抽出する。
The unnecessary
不要空間抽出部406は、例えば、以下の手順で主成分分析を行い、寄与率が上位X%の主成分ベクトルを抽出する。
For example, the unnecessary
まず、不要空間抽出部406は、生体情報と非生体情報の特徴量から共分散行列Sを求める。共分散行列Sは、次の(式7)で求められる。
First, the unnecessary
次の(式8)に示すベクトルXを導入する。 The vector X shown in the following (Equation 8) is introduced.
ベクトルXと、ベクトルYを用いた分散は、(式9)に示すような、縦ベクトルと横ベクトルの積の形で表すことができる。 The variance using the vector X and the vector Y can be expressed in the form of a product of a vertical vector and a horizontal vector as shown in (Equation 9).
なお、共分散行列S内の要素の数は、生体情報、及び非生体情報のクラスの数によって変化する。(式7)に示す共分散行列Sは、クラスの数が2の場合の例を示している。クラスの数が3である場合、[3×3]の共分散行列となり、クラスの数が4である場合[4×4]の共分散行列となる。 Note that the number of elements in the covariance matrix S varies depending on the number of classes of biological information and non-biological information. A covariance matrix S shown in (Expression 7) shows an example in which the number of classes is two. When the number of classes is 3, the covariance matrix is [3 × 3], and when the number of classes is 4, the covariance matrix is [4 × 4].
次に、不要空間抽出部406は、(式10)に示す関係式により、共分散行列Sの固有値λと固有ベクトルμを求める。
Next, the unnecessary
次に、不要空間抽出部406は、求めた固有値λの中で、値が1番大きい固有値λ1に対応する固有ベクトルμ1を第1主成分ベクトルとする。ここで固有値λ1がその方向の分散に相当する。
Next, the unnecessary
不要空間抽出部406が、主成分ベクトルをいくつ求めるかは、固有値λiから、次の(式11)で求められる累積寄与率により決定する。
The number of principal component vectors obtained by the unnecessary
本実施形態では、主成分が全体の情報量のうち、何パーセントの情報量であるかを示すしきい値(X%)を設定することにより、生体判定に必要な主成分ベクトルを抽出する。 In the present embodiment, a principal component vector necessary for biometric determination is extracted by setting a threshold value (X%) indicating what percentage of the total information amount is the principal component.
例えば、図17に示す「生体情報1」1701、「生体情報2」1702、「非生体情報1」1703の3つの部分空間から、主成分分析の寄与率95%(X%のしきい値の一例)を満たす主成分ベクトルを抽出すると、図18に示すような主成分分析で得られた部分空間1801が得られる。
For example, from the three subspaces of “
この主成分分析で得られた部分空間1801は、「生体情報1」1701、「生体情報2」1702、「非生体情報1」1703の3つの部分空間に共通する空間(ベクトル)であるため、生体判定には有効でないと判断することができる。
The
続いて、不要空間抽出部406は、部分空間1801の補空間へと射影し、部分空間1801を除いた部分空間を作成する。
Subsequently, the unnecessary
例えば、射影後の部分空間をPc、入力部分空間をP、その射影行列をP=[p1, p2,…, pn]、制約部分空間(補空間)をC、その射影行列をC=[c1, c2,…, cn]とし、Pで用いる基底の数をK、Cで射影に用いる基底の数をMとする。 For example, the projected subspace is Pc, the input subspace is P, the projection matrix is P = [p1, p2, ..., pn], the constraint subspace (complementary space) is C, and the projection matrix is C = [c1 , c2,..., cn], K is the number of bases used in P, and M is the number of bases used for projection in C.
このとき、PをCに射影した部分空間Pcの基底ベクトルpciは、次の(式12)で表される。 At this time, the base vector pci of the subspace Pc obtained by projecting P onto C is expressed by the following (Equation 12).
例えば、251次元の判別空間1700のうち、主成分分析で得られた部分空間1801が30次元である場合、射影ベクトルの要素の数は251となる。また、主成分分析で得られた部分空間1801の補空間1900は、221次元の空間となる。図19の例では、補空間1900上の、「生体情報1」1701の部分空間1901、「生体情報2」1702の部分空間1902、及び「非生体情報1」の部分空間1903のイメージが示されている。
For example, in the 251-
図20は、第2の実施形態に係る射影ベクトルの例を示す図である。図20に示す射影ベクトルは、生体判定の対象となる特徴情報を、主成分分析で得られた部分空間1801の補空間1900(221次元)に射影する射影ベクトルの例を示している。
FIG. 20 is a diagram illustrating an example of a projection vector according to the second embodiment. The projection vector shown in FIG. 20 is an example of a projection vector for projecting feature information to be subjected to biological determination to a complementary space 1900 (221 dimensions) of a
不要空間抽出部406は、例えば、図20に示すような射影ベクトルから、不要な要素(次元)である不要要素を抽出する。例えば、不要空間抽出部406は、図20において、各要素番号に対応する全ての値の絶対値がしきい値未満となる要素番号に対応する要素を不要要素と判断し、不要空間情報記憶部412に記憶する。例えば、図20において、しきい値を「0.010」とした場合の例を図21に示す。
The unnecessary
図21は、第2の実施形態に係る射影ベクトルの不要要素の例を示す図である。図21の例では、要素番号3、4、7、246は、固有ベクトルμ1〜μ221に対応する全ての値の絶対値がしきい値「0.010」未満であるため、不要空間抽出部406は、不要要素と判断し、不要空間情報記憶部412に記憶する。
FIG. 21 is a diagram illustrating an example of unnecessary elements of the projection vector according to the second embodiment. In the example of FIG. 21, the
好ましくは、不要空間抽出部406は、図20に示す射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を、識別空間情報記憶部411に記憶する。
Preferably, the unnecessary
本実施形態においても、生体判定部404は、第1の実施形態と同様に、識別空間情報記憶部411に記憶した第2の射影ベクトルを用いて、特徴情報抽出部403が抽出した特徴情報の判別分析を行う。
Also in the present embodiment, the living
好ましくは、特徴情報抽出部403も、特徴情報を抽出する際に、251次元の特徴情報のうち、不要空間情報記憶部412に記憶した不要要素(不要な次元)を除外して、特徴情報の抽出を行う。
Preferably, when extracting the feature information, the feature
なお、寄与率が上位の主成分ベクトルは、各クラス(識別空間)に共通の情報である。したがって、本実施形態では、生体判定に用いられる第2の射影ベクトルから、各クラスに共通の不要要素が除かれているため、各クラスが差別化され、生体判定の判定精度が向上する効果も期待できる。 The principal component vector with the higher contribution rate is information common to each class (identification space). Therefore, in this embodiment, since unnecessary elements common to each class are removed from the second projection vector used for the biometric determination, each class is differentiated, and the determination accuracy of the biometric determination is improved. I can expect.
<処理の流れ>
図22は、第2の実施形態に係る不要空間の抽出処理の例を示すフローチャートである。
<Process flow>
FIG. 22 is a flowchart illustrating an example of unnecessary space extraction processing according to the second embodiment.
ステップS2201において、特徴情報抽出部403は、撮影部401が所定の時間間隔で撮影した画像を読み込む。
In step S2201, the feature
ステップS2202において、特徴情報抽出部403は、ステップS2201で読み込んだ画像から、特徴情報(例えば、CHLAC特徴量)を抽出する。
In step S2202, the feature
続いて、不要空間抽出部406は、ステップS2203〜S2212に示す不要空間の抽出処理2200を実行する。
Subsequently, the unnecessary
ステップS2203において、不要空間抽出部406は、各クラス(例えば、図17の「生体情報1」、「生体情報2」、「非生体情報1」)に共通して存在する不要要素を抽出するために、前述した主成分分析を行う。
In step S2203, the unnecessary
ステップS2204において、不要空間抽出部406は、前述した累積寄与率が上記X%の主成分ベクトルを抽出する。
In step S2204, the unnecessary
ステップS2205において、不要空間抽出部406は、例えば、図18に示すような主成分分析で得られた部分空間1801(共通部分空間)を作成する。
In step S2205, the unnecessary
ステップS2206において、不要空間抽出部406は、例えば、図19に示すような主成分分析で得られた部分空間1801の補空間1900を作成する。
In step S2206, the unnecessary
ステップS2207〜S2210の処理において、不要空間抽出部406は、例えば、図20に示すような、射影ベクトルの要素番号1から251(Nmax)まで、各要素が不要要素であるか否かの判断を行う。
In the processing of steps S2207 to S2210, the unnecessary
例えば、ステップS2207において、不要空間抽出部406は、要素番号Nを1に初期化する。
For example, in step S2207, the unnecessary
ステップS2208において、不要空間抽出部406は、要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満であるか否かを判断する。
In step S2208, the unnecessary
要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満でない場合、不要空間抽出部406は、処理をステップS2210に移行させる。一方、要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満である場合、不要空間抽出部406は、処理をステップS2209に移行させる。
If the absolute value of each value of the element number N is not less than a threshold value (for example, “0.010”), the unnecessary
ステップS2209に移行すると、不要空間抽出部406は、各値の絶対値がしきい値未満と判断された(不要要素と判断された)要素番号Nを、不要要素として不要空間情報記憶部412に記憶する。
In step S2209, the unnecessary
ステップS2210に移行すると、不要空間抽出部406は、要素番号Nが、要素番号Nの最大値(例えば、251)であるNmax以上であるかを判断する。
In step S2210, the unnecessary
要素番号NがNmax以上でない場合、不要空間抽出部406は、処理をステップS2211に移行させる。一方、要素番号NがNmax以上である場合、不要空間抽出部406は、処理をステップS2212に移行させる。
If the element number N is not equal to or greater than Nmax, the unnecessary
ステップS2211に移行すると、不要空間抽出部406は、要素番号Nに1を加算して、処理をステップS2208に戻し、同様の処理を繰り返す。
In step S2211, the unnecessary
ステップS2212に移行すると、不要空間抽出部406は、例えば、図20に示すような、射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を作成する。また、不要空間抽出部406は、作成した第2の射影ベクトルを、識別空間情報記憶部411に記憶する。
When the process proceeds to step S2212, the unnecessary
上記の処理により、例えば、図21に示す射影ベクトルのうち、要素番号3、4、7、246等の情報が不要空間情報記憶部412に記憶される。また、例えば、図21に示す射影ベクトルのうち、要素番号3、4、7、246を除いた247次元の射影ベクトルが、識別空間情報記憶部411に記憶される。
By the above processing, for example, information such as
なお、第2の実施形態に係る生体判定処理の流れは、図15に示す第1の実施形態の生体判定処理と同様である。ただし、第2の実施形態に係る生体判定部404は、識別空間情報記憶部411に記憶された第2の射影ベクトルを用いて、前述した部分空間法を用いて生体判定を行う。
Note that the flow of the biological determination process according to the second embodiment is the same as the biological determination process of the first embodiment shown in FIG. However, the
以上、本実施形態によれば、特徴情報抽出部403、及び生体判定部404は、不要空間情報記憶部412に記憶された不要要素を除外して処理を実行するので、生体判定処理が高速化される。
As described above, according to the present embodiment, the feature
また、本実施形態によれば、生体判定に用いられる第2の射影ベクトルから、各クラスに共通の不要要素が除かれているため、各クラスが差別化され、生体判定の判定精度が向上する効果が期待できる。 Further, according to the present embodiment, since unnecessary elements common to each class are removed from the second projection vector used for the biometric determination, each class is differentiated, and the determination accuracy of the biometric determination is improved. The effect can be expected.
[その他の実施形態]
上記の第1の実施形態、及び第2の実施形態に示す処理は一例であり、様々な変形や応用が可能である。
[Other Embodiments]
The processing shown in the first embodiment and the second embodiment is an example, and various modifications and applications are possible.
一例として、情報処理システム100は、撮影部401が撮影した画像にノイズが乗っている場合、その画像を破棄し、次の画像を利用することにより生体判定の精度を向上させることができる。
As an example, the
図23は、その他の実施形態に係る生体判定処理の例(1)を示すフローチャートである。なお、図23のステップS1501、S1502〜1508の処理は、図15に示す第1の実施形態に係る生体判定処理と同様なので、ここでは差分を中心に説明を行う。 FIG. 23 is a flowchart illustrating an example (1) of the biometric determination process according to another embodiment. Note that the processing in steps S1501 and S1502-1508 in FIG. 23 is the same as the biometric determination processing according to the first embodiment shown in FIG.
ステップS2301において、ノイズ判定部405は、撮影部401が撮影した画像に含まれるノイズの量が所定の値未満であるか否かを判断する。
In step S2301, the
撮影部401が撮影した画像に含まれるノイズの量が所定の値以上である場合、ノイズ判定部405は、撮影部401が撮影した画像を破棄し、処理をステップS1501に戻す。
If the amount of noise included in the image captured by the
一方、撮影部401が撮影した画像に含まれるノイズの量が所定の値以上である場合、ノイズ判定部405は、処理をステップS1503に移行させ、生体判定処理を開始させる。
On the other hand, when the amount of noise included in the image captured by the
上記の処理により、情報処理システム100は、撮影部401が撮影した画像にノイズが乗っている場合、その画像を破棄し、次の画像を利用することにより生体判定の精度を向上させることができる。
As a result of the above processing, the
別の一例として、画像形成装置101は、不要空間情報記憶部412に記憶した不要要素の情報、及び識別空間情報記憶部411に記憶した第2の射影ベクトルを用いた高速の生体判定を行うか否かを、設定可能とすることができる。
As another example, the
例えば、画像形成装置101は、図24に示すような生体判定のモード設定画面2400を操作パネル226に表示し、管理者や利用者等による設定を受け付けることができる。図24の例では、生体判定のモード設定画面2400には、不要要素の情報、及び第2の射影ベクトルを用いた高速の生体判定を選択する「高速処理モード」ボタン2401、及び通常の生体判定を行う「通常処理モード」ボタン2402が表示されている。
For example, the
管理者や利用者は、生体判定のモード設定画面2400から、「高速処理モード」ボタン2401を選択することにより、不要要素の情報、及び第2の射影ベクトルを用いた高速の生体判定を選択することができる。また、管理者や利用者は、生体判定のモード設定画面2400から、「通常処理モード」ボタン2402を選択することにより、不要要素の情報、及び第2の射影ベクトルを用いた高速の生体判定を行わない通常の生体判定を選択することができる。
The administrator or the user selects the high-speed biometric determination using the unnecessary element information and the second projection vector by selecting the “high-speed processing mode”
図25は、その他の実施形態に係る生体判定処理の例(2)を示すフローチャートである。なお、図25のステップS1501、S1502、S1504〜S1508の処理は、図15に示す第1の実施形態に係る生体判定処理と同様なので、ここでは、第1の実施形態との相違点を中心に説明を行う。 FIG. 25 is a flowchart illustrating an example (2) of the biometric determination process according to another embodiment. Note that the processes in steps S1501, S1502, and S1504 to S1508 in FIG. 25 are the same as the biometric determination process according to the first embodiment shown in FIG. 15, and here, the differences from the first embodiment are mainly described here. Give an explanation.
ステップS2501において、生体判定部404は、画像形成装置101が、不要要素の情報、及び第2の射影ベクトルを用いて高速に生体判定を行う高速処理モードに設定されているか否かを判断する。
In step S2501, the
高速処理モードに設定されている場合、生体判定部404は、処理をステップS1503に移行させて、図15に示す第1の実施形態の生体判定処理を実行する。
When the high-speed processing mode is set, the
一方、高速処理モードに設定されていない場合、生体判定部404は、生体の特徴情報、非生体の特徴情報等を用いて、通常の生体判定処理を実行する。
On the other hand, when the high-speed processing mode is not set, the
上記の処理により、例えば、図5に示す画像形成装置101において、識別空間情報記憶部411、及び不要空間情報記憶部412に必要な情報が記憶されていない場合でも、画像形成装置101は生体判定を行うことができるようになる。
With the above processing, for example, in the
100 情報処理システム
101 画像形成装置(画像処理装置の一例)
401 撮影部
403 特徴情報抽出部
404 生体判定部
406 不要空間抽出部
411 識別空間情報記憶部(第2の記憶部)
412 不要空間情報記憶部(第1の記憶部)
100
401
412 Unnecessary space information storage unit (first storage unit)
Claims (11)
前記画像を撮影する撮影部と、
前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部が抽出する前記特徴情報を、前記生体の識別空間を含む判別空間に射影する第1の射影ベクトルの要素のうち、前記生体判定に使用しない不要要素の情報を記憶した第1の記憶部と、
前記第1の射影ベクトルから前記不要要素を除いた第2の射影ベクトルと、前記特徴情報抽出部が抽出した前記特徴情報とを用いて、前記画像に撮影された人物が生体であるか否かを判定する生体判定部と、
を有する情報処理システム。 An information processing system for performing a living body determination for determining whether a person photographed in an image is a living body using information on a living body identification space extracted in advance from a living body image,
A photographing unit for photographing the image;
A feature information extraction unit for extracting feature information of a person photographed in the image;
First information storing unnecessary element information that is not used for the living body determination among elements of a first projection vector that projects the feature information extracted by the feature information extracting unit onto a discrimination space including the identification space of the living body. A storage unit of
Whether the person photographed in the image is a living body using the second projection vector obtained by removing the unnecessary element from the first projection vector and the feature information extracted by the feature information extraction unit. A biological determination unit for determining
An information processing system having
前記撮影部が撮影した前記画像から、前記不要要素を除いた前記特徴情報を抽出する請求項1に記載の情報処理システム。 The feature information extraction unit includes:
The information processing system according to claim 1, wherein the feature information excluding the unnecessary elements is extracted from the image photographed by the photographing unit.
前記不要要素の情報は、前記複数の次元のベクトルのうち、前記生体判定に使用しない次元を特定する情報を含む請求項1又は2に記載の情報処理システム。 The feature information is a vector of a plurality of dimensions,
3. The information processing system according to claim 1, wherein the information on the unnecessary element includes information for specifying a dimension that is not used for the biometric determination among the plurality of dimension vectors.
前記画像を取得する取得部と、
前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部が抽出した前記特徴情報から、生体判定に使用しない不要要素の情報を抽出して第1の記憶部に記憶し、前記特徴情報から前記不要要素を除いた射影ベクトルを作成して第2の記憶部に記憶する不要空間抽出部と、
を有する情報処理装置。 An information processing apparatus included in the information processing system according to any one of claims 1 to 6,
An acquisition unit for acquiring the image;
A feature information extraction unit for extracting feature information of a person photographed in the image;
From the feature information extracted by the feature information extraction unit, information on unnecessary elements that are not used for biometric determination is extracted and stored in a first storage unit, and a projection vector is created by removing the unnecessary elements from the feature information. An unnecessary space extraction unit stored in the second storage unit,
An information processing apparatus.
前記画像を撮影する撮影部と、
前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部が抽出する前記特徴情報を、前記生体の識別空間を含む判別空間に射影する第1の射影ベクトルの要素のうち、前記生体判定に使用しない不要要素の情報を記憶した第1の記憶部と、
前記第1の射影ベクトルから前記不要要素を除いた第2の射影ベクトルと、前記特徴情報抽出部が抽出した前記特徴情報とを用いて、前記画像に撮影された人物が生体であるか否かを判定する生体判定部と、
を有する画像処理装置。 An image processing apparatus that performs a living body determination for determining whether a person photographed in an image is a living body using information on a living body identification space extracted in advance from a living body image,
A photographing unit for photographing the image;
A feature information extraction unit for extracting feature information of a person photographed in the image;
First information storing unnecessary element information that is not used for the living body determination among elements of a first projection vector that projects the feature information extracted by the feature information extracting unit onto a discrimination space including the identification space of the living body. A storage unit of
Whether the person photographed in the image is a living body using the second projection vector obtained by removing the unnecessary element from the first projection vector and the feature information extracted by the feature information extraction unit. A biological determination unit for determining
An image processing apparatus.
少なくともエンジン部を備える本体と、
前記本体への操作の指示を受け付ける操作部と、
を有し、
前記特徴情報抽出部、前記第1の記憶部、及び生体判定部を、前記操作部に有することを特徴とする画像処理装置。 The image processing apparatus according to claim 8,
A main body provided with at least an engine part;
An operation unit for receiving an operation instruction to the main body;
Have
An image processing apparatus comprising: the feature information extraction unit, the first storage unit, and a living body determination unit in the operation unit.
前記画像を撮影する撮影部と、
前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部が抽出する前記特徴情報を、前記生体の識別空間を含む判別空間に射影する第1の射影ベクトルの要素のうち、前記生体判定に使用しない不要要素の情報を記憶した第1の記憶部と、
前記第1の射影ベクトルから前記不要要素を除いた第2の射影ベクトルと、前記特徴情報抽出部が抽出した前記特徴情報とを用いて、前記画像に撮影された人物が生体であるか否かを判定する生体判定部と、
として機能させるためのプログラム。 A computer for performing a living body determination for determining whether a person photographed in an image is a living body using information on a living body identification space extracted in advance from a living body image,
A photographing unit for photographing the image;
A feature information extraction unit for extracting feature information of a person photographed in the image;
First information storing unnecessary element information that is not used for the living body determination among elements of a first projection vector that projects the feature information extracted by the feature information extracting unit onto a discrimination space including the identification space of the living body. A storage unit of
Whether the person photographed in the image is a living body using the second projection vector obtained by removing the unnecessary element from the first projection vector and the feature information extracted by the feature information extraction unit. A biological determination unit for determining
Program to function as.
前記画像に撮影された人物の特徴情報を抽出するステップと、
抽出した前記特徴情報から、生体判定に使用しない不要要素の情報を抽出して第1の記憶部に記憶するステップと、
前記特徴情報から前記不要要素を除いた射影ベクトルを作成して第2の記憶部に記憶するステップと、
をコンピュータに実行させるためのプログラム。 Obtaining a captured image; and
Extracting feature information of a person photographed in the image;
Extracting unnecessary element information not used for biometric determination from the extracted feature information and storing it in the first storage unit;
Creating a projection vector excluding the unnecessary elements from the feature information and storing it in a second storage unit;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016135683A JP6747112B2 (en) | 2016-07-08 | 2016-07-08 | Information processing system, image processing device, information processing device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016135683A JP6747112B2 (en) | 2016-07-08 | 2016-07-08 | Information processing system, image processing device, information processing device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018005805A true JP2018005805A (en) | 2018-01-11 |
JP6747112B2 JP6747112B2 (en) | 2020-08-26 |
Family
ID=60946407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016135683A Active JP6747112B2 (en) | 2016-07-08 | 2016-07-08 | Information processing system, image processing device, information processing device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6747112B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11195298B2 (en) | 2018-02-05 | 2021-12-07 | Canon Kabushiki Kaisha | Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium |
JP2022513978A (en) * | 2018-12-26 | 2022-02-09 | 巽騰(広東)科技有限公司 | Operation decision method, device and electronic device based on facial expression group |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146673A (en) * | 2004-11-22 | 2006-06-08 | Kddi Corp | Apparatus for recognizing image |
JP2008102780A (en) * | 2006-10-19 | 2008-05-01 | Sony Corp | Pattern discrimination method, registration device, collation device, and program |
WO2009107237A1 (en) * | 2008-02-29 | 2009-09-03 | グローリー株式会社 | Biometrics device |
JP2012226612A (en) * | 2011-04-20 | 2012-11-15 | Canon Inc | Image processing apparatus, image processing method and program |
-
2016
- 2016-07-08 JP JP2016135683A patent/JP6747112B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146673A (en) * | 2004-11-22 | 2006-06-08 | Kddi Corp | Apparatus for recognizing image |
JP2008102780A (en) * | 2006-10-19 | 2008-05-01 | Sony Corp | Pattern discrimination method, registration device, collation device, and program |
WO2009107237A1 (en) * | 2008-02-29 | 2009-09-03 | グローリー株式会社 | Biometrics device |
JP2012226612A (en) * | 2011-04-20 | 2012-11-15 | Canon Inc | Image processing apparatus, image processing method and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11195298B2 (en) | 2018-02-05 | 2021-12-07 | Canon Kabushiki Kaisha | Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium |
JP2022513978A (en) * | 2018-12-26 | 2022-02-09 | 巽騰(広東)科技有限公司 | Operation decision method, device and electronic device based on facial expression group |
Also Published As
Publication number | Publication date |
---|---|
JP6747112B2 (en) | 2020-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101189621B (en) | Using photographer identity to classify images | |
US10079827B2 (en) | Information processing apparatus, information processing method, and information processing system | |
JP5174045B2 (en) | Illumination detection using a classifier chain | |
US9652663B2 (en) | Using facial data for device authentication or subject identification | |
JP4642128B2 (en) | Image processing method, image processing apparatus and system | |
JP6707906B2 (en) | Information processing apparatus, information processing system, authentication method, and program | |
EP2336949B1 (en) | Apparatus and method for registering plurality of facial images for face recognition | |
CN101321223B (en) | Information processing method, information processing apparatus | |
US9760274B2 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
US10079974B2 (en) | Image processing apparatus, method, and medium for extracting feature amount of image | |
JP2016031679A (en) | Object identification device, object identification method, and program | |
EP3518522B1 (en) | Image capturing method and device | |
JP5701181B2 (en) | Image processing apparatus, image processing method, and computer program | |
US20140146361A1 (en) | Job processing apparatus, job processing method for job processing apparatus, and storage medium | |
CN109657627A (en) | Auth method, device and electronic equipment | |
JP6747112B2 (en) | Information processing system, image processing device, information processing device, and program | |
US8861803B2 (en) | Image recognition apparatus, image recognition method, and program | |
Wong et al. | Dynamic amelioration of resolution mismatches for local feature based identity inference | |
JP2017073039A (en) | Object identification device, object identification method, and program | |
US9049382B2 (en) | Image processing apparatus and image processing method | |
KR101031369B1 (en) | Apparatus for identifying face from image and method thereof | |
US9100512B2 (en) | Reading apparatus and method of controlling the same | |
WO2012044335A1 (en) | Recognizing a feature of an image independently of the orientation or scale of the image | |
Tran et al. | Simple signature verification sub-system for identity recognition | |
Moise et al. | Face recognition using modified generalized Hough transform and gradient distance descriptor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200720 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6747112 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |