JP2018005805A - Information processing system, image processing device, information processing device, and program - Google Patents

Information processing system, image processing device, information processing device, and program Download PDF

Info

Publication number
JP2018005805A
JP2018005805A JP2016135683A JP2016135683A JP2018005805A JP 2018005805 A JP2018005805 A JP 2018005805A JP 2016135683 A JP2016135683 A JP 2016135683A JP 2016135683 A JP2016135683 A JP 2016135683A JP 2018005805 A JP2018005805 A JP 2018005805A
Authority
JP
Japan
Prior art keywords
information
image
unit
feature information
living body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016135683A
Other languages
Japanese (ja)
Other versions
JP6747112B2 (en
Inventor
一貴 松原
Kazutaka Matsubara
一貴 松原
元気 渡邊
Genki Watanabe
元気 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016135683A priority Critical patent/JP6747112B2/en
Publication of JP2018005805A publication Critical patent/JP2018005805A/en
Application granted granted Critical
Publication of JP6747112B2 publication Critical patent/JP6747112B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce the time required for biological determination while suppressing a decrease in the accuracy of biological determination in an information processing system that performs biological determination to determine whether a person captured in an image is a living body.SOLUTION: The information processing system performs biological determination to determine whether a person captured in an image is a living body using information pertaining to the identification space of a living body pre-extracted from the image of the living body, the information processing system comprising: an imaging unit for capturing an image; a feature information extraction unit for extracting the feature information of a person captured in the image; a first storage unit for storing information pertaining to an unnecessary element, among first projection vector elements projected to a discrimination space including the identification space of the living body, that is not used for biological determination; and a biological determination unit for determining whether the person captured in the image is a living body using a second projection vector with the unnecessary element removed from the first projection vector and the feature information extracted by the feature information extraction unit.SELECTED DRAWING: Figure 6

Description

本願は、情報処理システム、画像処理装置、情報処理装置、及びプログラムに関する。   The present application relates to an information processing system, an image processing device, an information processing device, and a program.

利用者を認証する認証方法として、パスワード入力等の操作が不要であり、ICカードの紛失や盗難等によるなりすましを防ぐことができる顔認証等の画像認証技術が普及している。   As an authentication method for authenticating a user, an image authentication technique such as face authentication that does not require an operation such as a password input and can prevent spoofing due to loss or theft of an IC card has become widespread.

また、カメラで撮影した顔画像の目や口等の領域を抽出して、その領域が時間方向に変化しているかを判断することで、撮影された顔が実際の顔であるか写真であるかを判断する生体判定の技術が知られている(例えば、特許文献1参照)。   Also, by extracting areas such as eyes and mouth from the face image taken by the camera and judging whether the area changes in the time direction, it is a photograph whether the photographed face is an actual face. There is known a living body determination technique for determining whether or not (see, for example, Patent Document 1).

例えば、顔認証を行う情報処理装置において、特許文献1に示されるような生体判定を利用することにより、顔写真等によるなりすましを低減させることができる。   For example, in an information processing apparatus that performs face authentication, impersonation due to a face photograph or the like can be reduced by using biometric determination as disclosed in Patent Document 1.

しかし、例えば、特許文献1に示されるような従来の生体判定の技術では、多様な人の動きを判定する際に、判定の精度の低下を抑制しつつ、判定に要する時間を短縮することには困難を伴っていた。   However, for example, in the conventional biometric determination technique as disclosed in Patent Document 1, when determining the movements of various people, it is possible to reduce the time required for determination while suppressing a decrease in determination accuracy. Was accompanied by difficulties.

本発明の実施の形態は、上記問題点に鑑みてなされたものであって、画像に撮影された人物が生体であるか否かを判定する生体判定を行う情報処理システムにおいて、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することを目的とする。   Embodiments of the present invention have been made in view of the above problems, and in an information processing system that performs a living body determination for determining whether a person photographed in an image is a living body, the accuracy of the living body determination The purpose is to reduce the time required for the living body determination while suppressing the decrease of the above.

上記課題を解決するため、本発明の一実施形態に係る情報処理システムは、生体の画像から予め抽出された生体の識別空間の情報を用いて、画像に撮影された人物が生体であるかを判定する生体判定を行う情報処理システムであって、前記画像を撮影する撮影部と、前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、前記特徴情報抽出部が抽出する前記特徴情報を、前記生体の識別空間を含む判別空間に射影する第1の射影ベクトルの要素のうち、前記生体判定に使用しない不要要素の情報を記憶した第1の記憶部と、前記第1の射影ベクトルから前記不要要素を除いた第2の射影ベクトルと、前記特徴情報抽出部が抽出した前記特徴情報とを用いて、前記画像に撮影された人物が生体であるか否かを判定する生体判定部と、を有する。   In order to solve the above problem, an information processing system according to an embodiment of the present invention uses information on a living body identification space extracted in advance from a living body image to determine whether a person photographed in the image is a living body. An information processing system for performing biometric determination, wherein a photographing unit for photographing the image, a feature information extracting unit for extracting feature information of a person photographed in the image, and the feature information extracting unit extract the feature information A first storage unit that stores information on unnecessary elements that are not used for biometric determination among elements of a first projection vector that project characteristic information onto a discrimination space including the identification space of the biological body; A living body that determines whether or not the person photographed in the image is a living body using the second projection vector obtained by removing the unnecessary elements from the projecting vector and the feature information extracted by the feature information extracting unit. Judgment part and Having.

本発明の実施の形態によれば、画像に撮影された人物が生体であるか否かを判定する生体判定を行う情報処理システムにおいて、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができる。   According to an embodiment of the present invention, in an information processing system that performs a living body determination for determining whether or not a person photographed in an image is a living body, it is necessary for the living body determination while suppressing a decrease in the accuracy of the living body determination. Time can be shortened.

一実施形態に係る情報処理システムの構成例を示す図である。It is a figure showing an example of composition of an information processing system concerning one embodiment. 一実施形態に係る画像形成装置のハードウェア構成の例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an image forming apparatus according to an embodiment. FIG. 一実施形態に係る情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the information processing apparatus which concerns on one Embodiment. 第1の実施形態に係る画像形成装置の機能構成の一例を示す図である。1 is a diagram illustrating an example of a functional configuration of an image forming apparatus according to a first embodiment. 第1の実施形態に係る画像形成装置の機能構成の別の一例である。4 is another example of a functional configuration of the image forming apparatus according to the first embodiment. 第1の実施形態に係る情報処理装置の機能構成の例を示す図である。It is a figure which shows the example of a function structure of the information processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る顔画像の例を示す図である。It is a figure which shows the example of the face image which concerns on 1st Embodiment. 第1の実施形態に係るHALC特徴量について説明するための図である。It is a figure for demonstrating the HALC feature-value which concerns on 1st Embodiment. 第1の実施形態に係るCHLAC特徴量について説明するための図である。It is a figure for demonstrating the CHLAC feature-value which concerns on 1st Embodiment. 第1の実施形態に係る判別分析の一例について説明するための図である。It is a figure for demonstrating an example of the discriminant analysis which concerns on 1st Embodiment. 第1の実施形態に係る判別分析の別の一例について説明するための図である。It is a figure for demonstrating another example of the discriminant analysis which concerns on 1st Embodiment. 第1の実施形態に係る射影ベクトルの例を示す図である。It is a figure which shows the example of the projection vector which concerns on 1st Embodiment. 第1の実施形態に係る射影ベクトルの不要要素の例を示す図である。It is a figure which shows the example of the unnecessary element of the projection vector which concerns on 1st Embodiment. 第1の実施形態に係る不要要素の抽出処理の例を示すフローチャート。6 is a flowchart illustrating an example of unnecessary element extraction processing according to the first embodiment; 第1の実施形態に係る画像形成装置の生体判定処理の例を示すフローチャート。6 is a flowchart illustrating an example of biometric determination processing of the image forming apparatus according to the first embodiment. 第2の実施形態に係る部分空間法について説明するための図である。It is a figure for demonstrating the subspace method which concerns on 2nd Embodiment. 第2の実施形態に係る生体情報、非生体情報の部分空間のイメージを示す図である。It is a figure which shows the image of the partial space of biometric information which concerns on 2nd Embodiment, and non-biometric information. 第2の実施形態に係る主成分分析で得られる部分空間のイメージを示す図である。It is a figure which shows the image of the partial space obtained by the principal component analysis which concerns on 2nd Embodiment. 第2の実施形態に係る補空間上の部分空間のイメージを示す図である。It is a figure which shows the image of the partial space on the complement space which concerns on 2nd Embodiment. 第2の実施形態に係る射影ベクトルの例を示す図である。It is a figure which shows the example of the projection vector which concerns on 2nd Embodiment. 第2の実施形態に係る射影ベクトルの不要要素の例を示す図である。It is a figure which shows the example of the unnecessary element of the projection vector which concerns on 2nd Embodiment. 第2の実施形態に係る不要要素の抽出処理の例を示すフローチャートである。It is a flowchart which shows the example of the extraction process of the unnecessary element which concerns on 2nd Embodiment. その他の実施形態に係る生体判定処理の例(1)を示すフローチャートである。It is a flowchart which shows the example (1) of the biometric determination process which concerns on other embodiment. その他の実施形態に係る生体判定モードの設定画面の例を示す図である。It is a figure which shows the example of the setting screen of the biometric determination mode which concerns on other embodiment. その他の実施形態に係る生体判定処理の例(2)を示すフローチャートである。It is a flowchart which shows the example (2) of the biometric determination process which concerns on other embodiment.

以下に、本発明の実施の形態について、添付の図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

<システムの構成>
図1は、一実施形態に係る情報処理システムの構成例を示す図である。情報処理システム100は、一例として、印刷、コピー、スキャン、ファクシミリ送受信等の複数の機能を有するMFP(Multifunction Peripheral/Product)等の画像形成装置101と、画像形成装置101の利用者103を撮影するカメラ102とを含む。
<System configuration>
FIG. 1 is a diagram illustrating a configuration example of an information processing system according to an embodiment. For example, the information processing system 100 photographs an image forming apparatus 101 such as an MFP (Multifunction Peripheral / Product) having a plurality of functions such as printing, copying, scanning, and facsimile transmission / reception, and a user 103 of the image forming apparatus 101. Camera 102.

画像形成装置(画像処理装置の一例)101は、カメラ102を用いて、画像形成装置101を利用する利用者の103画像を撮影し、利用者103の顔画像を抽出する。また、画像形成装置101は、例えば、抽出された顔画像を用いて利用者103の顔認証を行う。   An image forming apparatus (an example of an image processing apparatus) 101 uses a camera 102 to capture 103 images of a user who uses the image forming apparatus 101 and extracts a face image of the user 103. Further, the image forming apparatus 101 performs face authentication of the user 103 using, for example, the extracted face image.

また、画像形成装置101は、例えば、カメラ102に他人の写真をかざす行為等による、なりすましでの認証突破を防ぐため、カメラ102により、画像に撮影された人物(例えば、利用者103)が生体であるか否かを判定する生体判定を行う。   In addition, the image forming apparatus 101 is configured so that, for example, a person (for example, a user 103) photographed in an image by the camera 102 is a living body in order to prevent authentication break-through through impersonation due to an act of holding a photograph of another person over the camera 102 or the like. Biological determination is performed to determine whether or not.

例えば、画像形成装置101は、生体の画像から予め抽出された生体の識別空間の情報である生体情報と、非生体(写真等)の画像から予め抽出された非生体の識別空間の情報である非生体情報を予め記憶部に記憶しておく。また、画像形成装置101は、カメラ102が撮影した画像から利用者103の特徴情報を抽出し、抽出した特徴情報と、記憶部に記憶した生体情報及び非生体情報との距離や類似度等に基づいて、画像に撮影された人物が生体であるか否かを判定する。   For example, the image forming apparatus 101 includes biological information, which is information on a living body identification space extracted in advance from a biological image, and information on a non-biological identification space extracted in advance from an image of a non-living body (such as a photograph). Non-biological information is stored in the storage unit in advance. Further, the image forming apparatus 101 extracts the feature information of the user 103 from the image taken by the camera 102, and determines the distance, similarity, etc. between the extracted feature information and the biological information and non-biological information stored in the storage unit. Based on this, it is determined whether or not the person photographed in the image is a living body.

さらに、本実施形態に係る画像形成装置101は、生体判定に用いる識別空間のうち、生体判定に使用しない不要な空間(以下、不要要素と呼ぶ)の情報を予め記憶しており、不要要素を除いて、特徴情報の抽出、類似度の計算等を実行する。   Further, the image forming apparatus 101 according to the present embodiment stores in advance information on an unnecessary space (hereinafter referred to as an unnecessary element) that is not used for the biological determination among the identification spaces used for the biological determination. In addition, feature information extraction, similarity calculation, and the like are executed.

なお、画像形成装置101が記憶している不要要素の情報は、例えば、別の情報処理装置で予め作成された不要要素の情報を画像形成装置101の記憶部に記憶しておくことができる。或いは、画像形成装置101は、不要要素の情報を生成する機能を有していても良い。   The unnecessary element information stored in the image forming apparatus 101 can be stored in the storage unit of the image forming apparatus 101 as, for example, unnecessary element information created in advance by another information processing apparatus. Alternatively, the image forming apparatus 101 may have a function of generating unnecessary element information.

本実施形態に係る画像形成装置101は、撮影した画像から抽出した特徴情報を、生体の識別空間、及び非生体の識別空間を含む判別空間に射影する第1の射影ベクトルのうち、不要要素を除いた第2の射影ベクトルを用いて、特徴情報の生体判定を行う。   The image forming apparatus 101 according to the present embodiment removes unnecessary elements from the first projection vector that projects the feature information extracted from the captured image onto a discrimination space including a living body identification space and a non-living body identification space. The biological information of the feature information is determined using the excluded second projection vector.

好ましくは、画像形成装置101は、撮影した画像から抽出した特徴情報を抽出する際に、不要要素を除いた特徴情報を抽出する。   Preferably, the image forming apparatus 101 extracts feature information excluding unnecessary elements when extracting feature information extracted from a captured image.

これにより、画像形成装置101は、特徴情報の抽出処理、及び生体判定処理のうち、不要要素に関する処理を削減することができるので、生体判定処理を高速化することができる。また、生体判定に使用しない不要要素として、生体判定の判定結果に影響を与えない(又は影響が少ない)要素を予め記憶しておくことにより、生体判定の精度の低下を抑制することができる。   As a result, the image forming apparatus 101 can reduce processing related to unnecessary elements among the feature information extraction processing and the biological determination processing, and thus can speed up the biological determination processing. Further, by storing in advance elements that do not affect (or have little influence on) the determination result of the biological determination as unnecessary elements that are not used for the biological determination, it is possible to suppress a decrease in the accuracy of the biological determination.

このように、本実施形態によれば、画像に撮影された人物が生体であるか否かを判定する生体判定を行う情報処理システム100において、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができる。   As described above, according to the present embodiment, in the information processing system 100 that performs biological determination for determining whether or not the person photographed in the image is a living body, the biological determination is performed while suppressing a decrease in the accuracy of the biological determination. Can be shortened.

なお、図1に示す情報処理システム100の構成は一例である。例えば、画像形成装置101は、顔認証を行う他の画像処理装置、例えば、PC(Personal Computer)、タブレット端末、スマートフォン、テレビ会議装置、出退勤管理装置、ATM(Automatic teller machine)、ナビゲーション装置等の画像処理装置であっても良い。   The configuration of the information processing system 100 illustrated in FIG. 1 is an example. For example, the image forming apparatus 101 is another image processing apparatus that performs face authentication, such as a PC (Personal Computer), a tablet terminal, a smartphone, a video conference device, an attendance / exit management device, an ATM (Automatic teller machine), a navigation device, and the like. An image processing apparatus may be used.

また、情報処理システム100は、前述した不要空間情報を作成する別の情報処理装置を有していても良い。   Further, the information processing system 100 may include another information processing apparatus that creates the above-described unnecessary space information.

<ハードウェア構成>
(画像形成装置のハードウェア構成)
図2は、一実施形態に係る画像形成装置101のハードウェア構成の例を示す図である。画像形成装置101は、例えば、コピー機能、スキャナ機能、ファクス機能、プリンタ機能などの各種の画像形成機能を実現する本体210と、ユーザの操作を受け付ける操作部220とを備える。なお、ユーザの操作を受け付けるとは、ユーザの操作に応じて入力される情報(画面の座標値を示す信号などを含む)を受け付けることを含む概念である。本体210と操作部220は、専用の通信路240を介して相互に通信可能に接続されている。通信路240は、例えばUSB(Universal Serial Bus)規格のものを用いることができるが、有線か無線かを問わず任意の規格のものであって良い。
<Hardware configuration>
(Hardware configuration of image forming apparatus)
FIG. 2 is a diagram illustrating an example of a hardware configuration of the image forming apparatus 101 according to the embodiment. The image forming apparatus 101 includes a main body 210 that realizes various image forming functions such as a copy function, a scanner function, a fax function, and a printer function, and an operation unit 220 that receives a user operation. Note that accepting a user operation is a concept including accepting information (including a signal indicating a coordinate value of a screen) input according to the user operation. The main body 210 and the operation unit 220 are connected via a dedicated communication path 240 so that they can communicate with each other. The communication path 240 may be, for example, a USB (Universal Serial Bus) standard, but may be of any standard regardless of wired or wireless.

なお、本体210は、操作部220で受け付けた操作に応じた動作を行うことができる。また、本体210は、クライアントPC(パーソナルコンピュータ)などの外部装置とも通信可能であり、外部装置から受信した指示に応じた動作を行うこともできる。   The main body 210 can perform an operation corresponding to the operation received by the operation unit 220. The main body 210 can also communicate with an external device such as a client PC (personal computer), and can also perform an operation according to an instruction received from the external device.

まず、本体210のハードウェア構成について説明する。図2に示すように、本体210は、CPU(Central Processing Unit)211、ROM(Read Only Memory)212、RAM(Random Access Memory)213、ストレージ部214、通信I/F(Interface)215、接続I/F216、エンジン部217、人体検知センサ218、及びシステムバス219等を有する。   First, the hardware configuration of the main body 210 will be described. As shown in FIG. 2, the main body 210 includes a CPU (Central Processing Unit) 211, a ROM (Read Only Memory) 212, a RAM (Random Access Memory) 213, a storage unit 214, a communication I / F (Interface) 215, and a connection I. / F216, engine unit 217, human body detection sensor 218, system bus 219, and the like.

CPU211は、RAM213をワークエリア(作業領域)としてROM212又はストレージ部214等に格納されたプログラムを実行することで、本体210全体の動作を制御する。例えば、CPU211は、エンジン部217を用いて、前述したコピー機能、スキャナ機能、ファクス機能、プリンタ機能などの各種機能を実現する。   The CPU 211 controls the overall operation of the main body 210 by executing a program stored in the ROM 212 or the storage unit 214 using the RAM 213 as a work area (work area). For example, the CPU 211 uses the engine unit 217 to realize various functions such as the copy function, the scanner function, the fax function, and the printer function described above.

ROM212は、例えば、本体210の起動時に実行されるBIOS(Basic Input/Output System)や、各種の設定等を記憶する不揮発性のメモリである。RAM213は、CPU211のワークエリア等として用いられる揮発性のメモリである。ストレージ部214は、例えば、OS(Operating System)、アプリケーションプログラム、各種データ等を記憶する不揮発性の記憶装置であり、例えば、HDD(Hard Disk Drive)や、SSD(Solid State Drive)等で構成される。   The ROM 212 is, for example, a non-volatile memory that stores a basic input / output system (BIOS) executed when the main body 210 is started, various settings, and the like. The RAM 213 is a volatile memory used as a work area for the CPU 211. The storage unit 214 is a non-volatile storage device that stores, for example, an OS (Operating System), application programs, various data, and the like, and includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like. The

通信I/F215は、本体210をネットワーク250に接続し、ネットワーク250に接続された外部装置との通信を行うためのネットワークインタフェースである。接続I/F216は、通信路240を介して操作部220と通信するためのインタフェースである。   The communication I / F 215 is a network interface for connecting the main body 210 to the network 250 and performing communication with an external device connected to the network 250. The connection I / F 216 is an interface for communicating with the operation unit 220 via the communication path 240.

エンジン部217は、コピー機能、スキャナ機能、ファクス機能、及びプリンタ機能等の機能を実現させるための、汎用的な情報処理及び通信以外の処理を行うハードウェアである。エンジン部217には、例えば、原稿の画像をスキャンして読み取るスキャナ(画像読取部)、用紙等のシート材への印刷を行うプロッタ(画像形成部)、ファクス通信を行うファクス部等が含まれる。さらに、エンジン部217には、印刷済みシート材を仕分けるフィニッシャや、原稿を自動給送するADF(自動原稿給送装置)のような特定のオプションが含まれていても良い。   The engine unit 217 is hardware that performs general-purpose information processing and processing other than communication for realizing functions such as a copy function, a scanner function, a fax function, and a printer function. The engine unit 217 includes, for example, a scanner (image reading unit) that scans and reads an image of a document, a plotter (image forming unit) that performs printing on a sheet material such as paper, and a fax unit that performs fax communication. . Furthermore, the engine unit 217 may include specific options such as a finisher that sorts printed sheet materials and an ADF (automatic document feeder) that automatically feeds documents.

人体検知センサ218は、画像形成装置101の周囲の検知範囲内にある人体を検知するセンサであり、例えば焦電センサ等が用いられる。   The human body detection sensor 218 is a sensor that detects a human body within a detection range around the image forming apparatus 101. For example, a pyroelectric sensor or the like is used.

システムバス219は、上記各構成要素に接続され、アドレス信号、データ信号、及び各種制御信号等を伝送する。   A system bus 219 is connected to each of the above components, and transmits an address signal, a data signal, various control signals, and the like.

次に、操作部220のハードウェア構成について説明する。図2に示すように、操作部220は、CPU221、ROM222、RAM223、フラッシュメモリ224、通信I/F225、操作パネル226、接続I/F227、内部カメラ228、外部接続I/F229、及びシステムバス230等を有する。   Next, the hardware configuration of the operation unit 220 will be described. As shown in FIG. 2, the operation unit 220 includes a CPU 221, ROM 222, RAM 223, flash memory 224, communication I / F 225, operation panel 226, connection I / F 227, internal camera 228, external connection I / F 229, and system bus 230. Etc.

CPU221は、RAM223をワークエリア(作業領域)としてROM222又はフラッシュメモリ224等に格納されたプログラムを実行することで、操作部220全体の動作を制御する。   The CPU 221 controls the operation of the entire operation unit 220 by executing a program stored in the ROM 222 or the flash memory 224 using the RAM 223 as a work area (working area).

ROM222は、例えば、操作部220の起動時に実行されるBIOSや、各種の設定等を記憶する不揮発性のメモリである。RAM223は、CPU221のワークエリア等として用いられる揮発性のメモリである。フラッシュメモリ224は、例えば、OS、アプリケーションプログラム、各種データ等を記憶する不揮発性の記憶装置である。   The ROM 222 is a non-volatile memory that stores, for example, a BIOS executed when the operation unit 220 is activated, various settings, and the like. The RAM 223 is a volatile memory used as a work area for the CPU 221. The flash memory 224 is, for example, a non-volatile storage device that stores an OS, application programs, various data, and the like.

通信I/F225は、操作部220をネットワーク250に接続し、ネットワーク250に接続された外部装置との通信を行うためのネットワークインタフェースである。   The communication I / F 225 is a network interface for connecting the operation unit 220 to the network 250 and performing communication with an external device connected to the network 250.

操作パネル226は、ユーザの操作に応じた各種の入力を受け付けると共に、各種の情報(例えば受け付けた操作に応じた情報、画像形成装置101の動作状況を示す情報、設定状態等)を表示する。操作パネル226は、例えば、タッチパネル機能を搭載した液晶表示装置(LCD: Liquid Crystal Display)で構成されるが、これに限られるものではない。操作パネル226は、例えばタッチパネル機能が搭載された有機EL(Electro Luminescence)表示装置で構成されていても良い。さらに、操作パネル226は、これに加えて又はこれに代えて、ハードウェアキー等の操作部や、ランプ等の表示部を設けることもできる。   The operation panel 226 accepts various inputs in accordance with user operations and displays various types of information (for example, information in accordance with accepted operations, information indicating the operation status of the image forming apparatus 101, setting states, and the like). The operation panel 226 is configured by, for example, a liquid crystal display (LCD) having a touch panel function, but is not limited thereto. The operation panel 226 may be configured by, for example, an organic EL (Electro Luminescence) display device equipped with a touch panel function. Further, the operation panel 226 can be provided with an operation unit such as a hardware key or a display unit such as a lamp in addition to or instead of this.

接続I/F227は、通信路240を介して本体210と通信するためのインタフェースである。   The connection I / F 227 is an interface for communicating with the main body 210 via the communication path 240.

内部カメラ228は、画像形成装置101の周辺の画像を撮影するカメラであり、図1のカメラ102の一例である。   The internal camera 228 is a camera that captures an image around the image forming apparatus 101, and is an example of the camera 102 in FIG.

外部接続I/F229は、外部装置を接続するための、例えばUSB等のインタフェースである。外部接続I/F229に接続される外部装置には、例えば、外部カメラ231等が含まれる。なお、外部カメラ231は、画像形成装置101の周辺の画像を撮像するカメラであり、図1のカメラ102の別の一例である。画像形成装置101は、内部カメラ228、及び外部カメラ231のいずれか一方、又は両方を有している。   The external connection I / F 229 is an interface such as a USB for connecting an external device. The external device connected to the external connection I / F 229 includes, for example, the external camera 231. The external camera 231 is a camera that captures an image around the image forming apparatus 101, and is another example of the camera 102 in FIG. The image forming apparatus 101 includes one or both of an internal camera 228 and an external camera 231.

システムバス230は、上記各構成要素に接続され、アドレス信号、データ信号、及び各種制御信号等を伝送する。   The system bus 230 is connected to each of the above components, and transmits an address signal, a data signal, various control signals, and the like.

(情報処理装置のハードウェア構成)
図3は、一実施形態に係る情報処理装置のハードウェア構成例を示す図である。本実施形態に係る画像処理装置は、例えば、図3に示すような情報処理装置であっても良い。また、図1で前述した、不要空間情報を作成する別の情報処理装置は、図3に示すようなハードウェア構成を有している。
(Hardware configuration of information processing device)
FIG. 3 is a diagram illustrating a hardware configuration example of the information processing apparatus according to the embodiment. The image processing apparatus according to the present embodiment may be an information processing apparatus as shown in FIG. 3, for example. Further, another information processing apparatus for creating unnecessary space information described above with reference to FIG. 1 has a hardware configuration as shown in FIG.

情報処理装置300は、一般的なコンピュータの構成を有しており、例えば、CPU301、RAM302、ROM303、ストレージ装置304、ネットワークI/F305、入力装置306、表示装置307、外部I/F308、及びバス309等を有する。   The information processing apparatus 300 has a general computer configuration. For example, the CPU 301, the RAM 302, the ROM 303, the storage device 304, the network I / F 305, the input device 306, the display device 307, the external I / F 308, and the bus 309 etc.

CPU301は、ROM303やストレージ装置304等に格納されたプログラムやデータをRAM302上に読み出し、処理を実行することで、情報処理装置300の各機能を実現する演算装置である。RAM302は、CPU301のワークエリア等として用いられる揮発性のメモリである。ROM303は、電源を切ってもプログラムやデータを保持することができる不揮発性のメモリである。   The CPU 301 is an arithmetic device that implements each function of the information processing device 300 by reading a program or data stored in the ROM 303, the storage device 304, or the like onto the RAM 302 and executing processing. A RAM 302 is a volatile memory used as a work area for the CPU 301. The ROM 303 is a non-volatile memory that can retain programs and data even when the power is turned off.

ストレージ装置304は、例えば、HDDや、SSD等の大容量の記憶装置であり、OS、アプリケーションプログラム、各種のデータ等を記憶する。ネットワークI/F305は、情報処理装置300をネットワーク250等に接続するための通信インタフェースである。   The storage device 304 is a large-capacity storage device such as an HDD or an SSD, and stores an OS, application programs, various data, and the like. A network I / F 305 is a communication interface for connecting the information processing apparatus 300 to the network 250 or the like.

入力装置306は、例えば、マウス等のポインティングデバイスや、キーボード等の入力デバイスであり、情報処理装置300に各操作信号を入力するために用いられる。表示装置307はディスプレイ等の表示デバイスであり、情報処理装置300による処理結果等を表示する。   The input device 306 is, for example, a pointing device such as a mouse or an input device such as a keyboard, and is used to input each operation signal to the information processing device 300. The display device 307 is a display device such as a display, and displays a processing result or the like by the information processing device 300.

外部I/F308は、外部装置とのインタフェースである。外部装置には、例えば、情報処理装置300の周辺の画像を撮影する外部カメラ310や、記録媒体等が含まれる。   The external I / F 308 is an interface with an external device. The external device includes, for example, an external camera 310 that captures an image around the information processing device 300, a recording medium, and the like.

バス309は、上記の各構成要素に接続され、アドレス信号、データ信号、及び各種制御信号等を伝送する。   A bus 309 is connected to each of the above components, and transmits an address signal, a data signal, various control signals, and the like.

[第1の実施形態]
<機能構成>
図4は、第1の実施形態に係る画像形成装置の機能構成の一例を示す図である。画像形成装置101は、図2のCPU211、及びCPU221のうちの少なくとも1つのCPUで所定のプログラムを実行することにより、図4に示す機能構成を実現する。
[First Embodiment]
<Functional configuration>
FIG. 4 is a diagram illustrating an example of a functional configuration of the image forming apparatus according to the first embodiment. The image forming apparatus 101 realizes the functional configuration shown in FIG. 4 by executing a predetermined program by at least one of the CPU 211 and the CPU 221 in FIG.

なお、図4に示す機能構成は一例である。例えば、操作部220に含まれる各構成要素のうちの少なくとも一部は、本体210に含まれていても良いし、本体210に含まれる各構成要素のうちの少なくとも一部は、操作部220に含まれていても良い。   The functional configuration shown in FIG. 4 is an example. For example, at least some of the components included in the operation unit 220 may be included in the main body 210, and at least some of the components included in the main body 210 may be included in the operation unit 220. It may be included.

(本体の機能構成)
画像形成装置101の本体210は、人体検知部421、状態制御部422、画像形成部423、及び通信部424等を有する。
(Functional structure of the main unit)
The main body 210 of the image forming apparatus 101 includes a human body detection unit 421, a state control unit 422, an image forming unit 423, a communication unit 424, and the like.

人体検知部421は、例えば、図2に示す人体検知センサ218等を用いて、画像形成装置101の周辺にある人体を検知する手段であり、例えば、図2のCPU211(又はCPU221)で実行されるプログラムによって実現される。人体検知部421は、例えば、人体検知センサ218の検知範囲内で人体が検知された場合、人体が検知されたことを状態制御部422等に通知する。   The human body detection unit 421 is means for detecting a human body around the image forming apparatus 101 using, for example, the human body detection sensor 218 shown in FIG. 2, and is executed by, for example, the CPU 211 (or CPU 221) in FIG. Realized by a program. For example, when a human body is detected within the detection range of the human body detection sensor 218, the human body detection unit 421 notifies the state control unit 422 that the human body has been detected.

状態制御部422は、操作部220や、本体210の電力状態を制御する手段であり、例えば、図2のCPU211(又はCPU221)で実行されるプログラムによって実現される。例えば、状態制御部422は、予め設定された時間を超えて、画像形成装置101の利用がない場合、画像形成装置101を、画像形成処理を実行可能な通常状態よりも消費電力が少ない省電力状態へ移行させる。画像形成装置101は、省電力状態では、例えば、操作部220、及び本体210のエンジン部217、ストレージ部214の機能を停止させること等により、消費電力を低減させることができる。   The state control unit 422 is means for controlling the power state of the operation unit 220 and the main body 210, and is realized by, for example, a program executed by the CPU 211 (or CPU 221) of FIG. For example, the state control unit 422 saves power when the image forming apparatus 101 is not used for a predetermined time and consumes less power than the normal state in which the image forming process can be performed. Transition to the state. In the power saving state, the image forming apparatus 101 can reduce power consumption, for example, by stopping the functions of the operation unit 220, the engine unit 217 of the main body 210, and the storage unit 214.

また、状態制御部422は、画像形成装置101が省電力状態中に、例えば、人体検知部421から、人体が検知されたことを示す通知を受け付けると、操作部220を、省電力状態から通常の動作が可能な通常状態へ復帰させる。例えば、状態制御部422は、通信部424を介して、操作部220に復帰命令を通知することにより、操作部220を省電力状態から、通常状態へ復帰させる。   In addition, when the image forming apparatus 101 receives a notification indicating that a human body has been detected from, for example, the human body detection unit 421 while the image forming apparatus 101 is in the power saving state, the state control unit 422 causes the operation unit 220 to return from the power saving state to the normal state. It returns to the normal state that can operate. For example, the state control unit 422 notifies the operation unit 220 of a return command via the communication unit 424, thereby returning the operation unit 220 from the power saving state to the normal state.

画像形成部423は、画像形成装置101が備える各種の画像形成機能(例えば、印刷、コピー、スキャン、ファックス等)を実行する手段であり、例えば、図2のエンジン部217、及び図2のCPU211で実行されるプログラム等によって実現される。   The image forming unit 423 is a unit that executes various image forming functions (for example, printing, copying, scanning, faxing, and the like) provided in the image forming apparatus 101. For example, the engine unit 217 in FIG. 2 and the CPU 211 in FIG. This is realized by a program executed in

通信部424は、操作部220と通信を行うための手段であり、例えば、図2の接続I/F216、及び図2のCPU211で実行されるプログラム等によって実現される。   The communication unit 424 is a means for communicating with the operation unit 220, and is realized by, for example, the connection I / F 216 in FIG. 2 and a program executed by the CPU 211 in FIG.

(操作部の機能構成)
画像形成装置101の操作部220は、例えば、撮影部401、顔画像検出部402、特徴情報抽出部403、生体判定部404、ノイズ判定部405、不要空間抽出部406、画像認証部407、表示入力部408、生体情報記憶部409、非生体情報記憶部410、識別空間情報記憶部411、不要空間情報記憶部412、及び通信部413等を有する。
(Function configuration of the operation unit)
The operation unit 220 of the image forming apparatus 101 includes, for example, a photographing unit 401, a face image detection unit 402, a feature information extraction unit 403, a living body determination unit 404, a noise determination unit 405, an unnecessary space extraction unit 406, an image authentication unit 407, a display. It includes an input unit 408, a biological information storage unit 409, a non-biological information storage unit 410, an identification space information storage unit 411, an unnecessary space information storage unit 412, a communication unit 413, and the like.

撮影部(取得部)401は、図2の内部カメラ228や、外部カメラ231等のカメラ102を用いて、画像形成装置101の周辺の画像を撮影する手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。撮影部401は、例えば、画像形成装置101の周辺(例えば前方)にいる利用者の画像を所定の時間間隔で取得する。   The imaging unit (acquisition unit) 401 is a unit that captures an image around the image forming apparatus 101 using the camera 102 such as the internal camera 228 or the external camera 231 shown in FIG. 2, for example, the CPU 221 (FIG. Alternatively, it is realized by a program executed by the CPU 211). The imaging unit 401 acquires, for example, images of a user in the vicinity (for example, the front) of the image forming apparatus 101 at predetermined time intervals.

顔画像検出部402は、撮影部401が撮影した画像から顔領域を検出する手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。顔画像検出部402が検出する顔画像の例を図7に示す。   The face image detection unit 402 is means for detecting a face area from an image captured by the image capturing unit 401, and is realized by, for example, a program executed by the CPU 221 (or CPU 211) in FIG. An example of a face image detected by the face image detection unit 402 is shown in FIG.

図7(a)において、撮影部401が撮影した画像710には、画像形成装置101の前方にいる利用者103が撮影されている。このように、画像形成装置101のカメラ102は、画像形成装置101を利用する利用者103が、撮影部401が撮影した画像710に含まれるように設置されているものとする。   In FIG. 7A, the user 103 in front of the image forming apparatus 101 is photographed in an image 710 photographed by the photographing unit 401. As described above, it is assumed that the camera 102 of the image forming apparatus 101 is installed so that the user 103 who uses the image forming apparatus 101 is included in the image 710 photographed by the photographing unit 401.

顔画像検出部402は、この撮影部401が撮影した画像710から、例えば、公知のパターンマッチング技術等を用いて、例えば、図8(b)に示すような利用者103の顔画像720を検出し、検出された顔画像720を抽出する。   The face image detection unit 402 detects, for example, a face image 720 of the user 103 as shown in FIG. 8B from the image 710 captured by the imaging unit 401 using, for example, a known pattern matching technique. Then, the detected face image 720 is extracted.

顔画像検出部402による顔画像の検出方法は任意の方法で良いが、ここでは、一例として、Haar−like特徴による顔検出について、概要を説明する。   The face image detection method by the face image detection unit 402 may be any method, but here, as an example, an outline of face detection by the Haar-like feature will be described.

Haar−like特徴による顔検出では、探索領域中で計算対象である矩形中の黒色領域のピクセル値の和の値から白色領域のピクセル値の和の値を引いた値であるHaar−like特徴量を用いる。上述した矩形の配置場所は、探索領域内のどこに配置しても良いため、探索領域中に数万通りの配置場所の可能性がある。これらに対してBoostingにより探索領域内の各弱識別器を事前学習で重み付けして、重要度が上位の数十個の弱識別器を選択して強識別器を作成する。この強識別器によって(人の顔らしさを示す白黒矩形数パターンによって)、その領域が人の顔領域かどうかを判断することができる。   In face detection using the Haar-like feature, the Haar-like feature value is a value obtained by subtracting the sum of the pixel values of the white region from the sum of the pixel values of the black region in the rectangle to be calculated in the search region. Is used. Since the rectangular arrangement location described above may be arranged anywhere in the search area, there may be tens of thousands of arrangement locations in the search area. On the other hand, each weak classifier in the search area is weighted by prior learning by boosting, and dozens of weak classifiers with higher importance are selected to create a strong classifier. With this strong discriminator (by a black and white rectangular number pattern indicating the likelihood of a human face), it is possible to determine whether or not the area is a human face area.

特徴情報抽出部403は、撮影部401が撮影した画像に含まれる人物の特徴情報(特徴量)を抽出する手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。   The feature information extraction unit 403 is means for extracting feature information (feature amount) of a person included in an image captured by the image capturing unit 401, and is realized by, for example, a program executed by the CPU 221 (or CPU 211) in FIG. The

特徴情報抽出部403は、撮影部401が所定の時間間隔で撮影した画像より、顔画像検出部402が抽出した時系列の顔画像から、動作を示す特徴情報を抽出する。特徴情報抽出部403が抽出する特徴情報の一例として、立体高次自己相関特徴量(CHLAC: Cubic Higher-order Local Auto Correction)を用いることができる。   The feature information extraction unit 403 extracts feature information indicating the operation from the time-series face images extracted by the face image detection unit 402 from images captured by the imaging unit 401 at predetermined time intervals. As an example of the feature information extracted by the feature information extraction unit 403, a cubic higher-order local auto correction (CHLAC) can be used.

ここで、立体高次自己相関特徴量(以下、CHLAC特徴量と呼ぶ)について説明する前に、CHLAC特徴量の前身の手法である高次局所自己相関特徴量(HLAC: Higher-order Local Auto Correction)について説明を行う。   Here, before describing the three-dimensional higher-order autocorrelation feature (hereinafter referred to as CHLAC feature), a higher-order local autocorrelation feature (HLAC: Higher-order Local Auto Correction) is a predecessor of the CHLAC feature. ).

(HLAC特徴量)
高次局所自己相関特徴量(以下、HLAC特徴量と呼ぶ)では、2値化された画像上のある点rにおける高次自己相関を算出する。
(HLAC feature)
For higher order local autocorrelation feature quantities (hereinafter referred to as HLAC feature quantities), higher order autocorrelation at a point r on the binarized image is calculated.

対象となる画素r(参照点)と近傍の領域は相関が高いことが予想されるので、全領域の相関を算出するのではなく、局所領域内からの相関を算出することにより、HLAC特徴量が求められる。N次(Nは自然数)の自己相関関数は次の(式1)で表される。   Since the target pixel r (reference point) and the neighboring region are expected to have a high correlation, the HLAC feature amount is calculated by calculating the correlation from the local region instead of calculating the correlation of the entire region. Is required. The autocorrelation function of the Nth order (N is a natural number) is expressed by the following (Expression 1).

Figure 2018005805
ここで、fは時系列の画像であり、rは参照点、ai(i=1,...,N)はN個の変位である。次元を2次、変位方向を3×3に限定した場合、2値の動画像のHALC特徴量における変位ベクトルの組合せは、例えば、図8に示すように、0次が1個、1次が4個、2次が20個の計25次元のベクトルとして表される。
Figure 2018005805
Here, f is a time-series image, r is a reference point, and ai (i = 1,..., N) are N displacements. When the dimension is limited to the second order and the displacement direction is limited to 3 × 3, the combination of the displacement vectors in the HALC feature amount of the binary moving image is, for example, as shown in FIG. 4 and 20 are expressed as 25-dimensional vectors.

このHLAC特徴量は、一不変性と加法性といる2つの性質を持つ。   This HLAC feature quantity has two properties, one invariance and additivity.

位置不変性とは、対象が画像内のどの位置に存在しても特徴量は変動しないという性質である。また、加法性とは、例えば、人物Aの動作の特徴量をfAとし、人物Bの動作の特徴量をfBとして、人物Aと人物Bとが同一の画像内で動作を行った場合、特徴量がfA+fBとなる性質である。   The position invariance is a property that the feature amount does not change regardless of the position in the image. In addition, for example, when the feature amount of the motion of the person A is fA and the feature amount of the motion of the person B is fB, the person A and the person B perform the motion in the same image. The amount is fA + fB.

(CHLAC特徴量)
続いて、本実施形態で特徴情報として用いるCHLAC特徴量について説明する。
(CHLAC feature)
Subsequently, a CHLAC feature amount used as feature information in the present embodiment will be described.

HLAC特徴量は、2次元の局所領域の相関を求めるものであったが、CHLAC特徴量は、時間を加えた局所領域の相関を求めるものである。CHLAC特徴量は、次の(式2)に示すN次自己相関関数を、時系列の画像の時間で積分することにより求めることができる。   The HLAC feature value is used to obtain the correlation of the two-dimensional local region. The CHLAC feature value is used to obtain the correlation of the local region to which time is added. The CHLAC feature amount can be obtained by integrating the Nth-order autocorrelation function shown in the following (Equation 2) with the time of the time-series image.

Figure 2018005805
時間方向の積分範囲は、どの程度の時間方向の相関を取るかによって決定する任意のパラメータである。
Figure 2018005805
The integration range in the time direction is an arbitrary parameter determined by how much correlation in the time direction is taken.

2値の動画像によるCHLAC特徴量の変位ベクトルの組合せの数は、0次が1個、1次が13個、2次が237個であり、合計251次元のベクトルとして表される。CHLAC特徴量も、HLAC特徴量と同様に、位置不変性と加法性という2つの性質を持つ。   The number of combinations of displacement vectors of CHLAC feature values by binary moving images is 0 for the 1st order, 13 for the 1st order, and 237 for the 2nd order, and is expressed as a 251-dimensional vector in total. Similar to the HLAC feature quantity, the CHLAC feature quantity has two properties of position invariance and additivity.

ここで、図9を用いて、CHLAC特徴量の算出方法のイメージについて説明する。   Here, an image of a method of calculating the CHLAC feature amount will be described with reference to FIG.

図9において、例えば、撮影部401等により、所定の時間間隔で時系列の画像901〜904を撮影する。   In FIG. 9, for example, time series images 901 to 904 are taken at predetermined time intervals by the photographing unit 401 or the like.

次に、例えば、特徴情報抽出部403は、時系列の画像901〜904の差分を計算し、得られた差分画像を2値化する。図9の例では、画像911は、画像901と画像902との間の2値の差分画像を示している。また画像912は、画像902と画像903との間の2値の差分画像を示している。さらに、画像913は、画像903と画像904との間の2値の差分画像を示している。   Next, for example, the feature information extraction unit 403 calculates the difference between the time-series images 901 to 904 and binarizes the obtained difference image. In the example of FIG. 9, an image 911 shows a binary difference image between the image 901 and the image 902. An image 912 shows a binary difference image between the image 902 and the image 903. Further, the image 913 shows a binary difference image between the image 903 and the image 904.

続いて、特徴情報抽出部403は、2値化された画像912について、自己のHLAC特徴量と、前後の画像911、913との相関を2次まで計算する。   Subsequently, the feature information extraction unit 403 calculates, for the binarized image 912, the correlation between the own HLAC feature amount and the preceding and following images 911 and 913 up to the second order.

さらに、特徴情報抽出部403は、画像912内の全画素において、CHLACを計算し、積分する。   Further, the feature information extraction unit 403 calculates and integrates CHLAC for all pixels in the image 912.

これにより、例えば、図9の枠920内に示す3つの2値画像に対応する1本の特徴ベクトル(CHLAC特徴量)が生成される。なお、本実施形態のように、顔等の微少な動作を識別する場合、生成された特徴ベクトルについて、ノルムの正規化を行うことが望ましい。   Thereby, for example, one feature vector (CHLAC feature amount) corresponding to three binary images shown in a frame 920 in FIG. 9 is generated. Note that when a minute motion such as a face is identified as in the present embodiment, it is desirable to normalize the norm for the generated feature vector.

このように、特徴情報抽出部403が抽出する特徴情報の一例として、CHLAC特徴量を利用することができる。   As described above, the CHLAC feature amount can be used as an example of the feature information extracted by the feature information extraction unit 403.

また、別の一例として、特徴情報抽出部403は、時系列の画像を用いて、画像内の小領域が次のフレームの画像内でどこに移動したかをブロックマッチングで算出し、各領域の動きをベクトルで表した特徴量を特徴情報として用いるもの等であっても良い。ここでは、特徴情報抽出部403は、CHLAC特徴量を抽出するものとして、以下の説明を行う。   As another example, the feature information extraction unit 403 uses a time-series image to calculate where the small area in the image has moved in the image of the next frame by block matching, and moves each area. May be used as feature information. Here, the feature information extraction unit 403 performs the following description on the assumption that the CHLAC feature amount is extracted.

好ましくは、特徴情報抽出部403は、例えば、251次元のCHLAC特徴量のベクトルのうち、不要空間情報記憶部412に記憶された不要要素(不要な次元)を除いた特徴量を抽出する。これにより、例えば、不要空間情報記憶部412に10個の不要要素が記憶されている場合、特徴情報抽出部403は、251次元の特徴情報のうち、241次元の計算を行えば良くなるので、処理を高速化することができる。   Preferably, the feature information extraction unit 403 extracts, for example, a feature amount excluding unnecessary elements (unnecessary dimensions) stored in the unnecessary space information storage unit 412 from a 251-dimensional CHLAC feature amount vector. Thereby, for example, when 10 unnecessary elements are stored in the unnecessary space information storage unit 412, the feature information extraction unit 403 only needs to perform 241 dimensional calculation out of the 251 dimensional feature information. Processing can be speeded up.

図4に戻り、操作部220の機能構成の説明を続ける。   Returning to FIG. 4, the description of the functional configuration of the operation unit 220 is continued.

生体判定部404は、生体の画像から予め抽出された生体の識別空間の情報(以下、生体情報と呼ぶ)、及び非生体(例えば写真等)から予め抽出された非生体の識別空間の情報(以下、非生体情報と呼ぶ)を用いて、生体判定を行う。生体判定部404は、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。   The biometric determination unit 404 includes information on a biometric identification space extracted in advance from a biometric image (hereinafter referred to as biometric information) and information on a non-biological identification space extracted in advance from a non-living body (for example, a photograph). Hereinafter, biometric determination is performed using non-biometric information). The biometric determination unit 404 is realized, for example, by a program executed by the CPU 221 (or CPU 211) in FIG.

生体判定部404は、特徴情報抽出部403が抽出した特徴情報を、生体情報記憶部409に予め記憶した生体情報や、非生体情報記憶部410に予め記憶した非生体情報と比較することにより、画像に撮影された人物が生体であるか否かを判定する(生体判定)。   The biometric determination unit 404 compares the feature information extracted by the feature information extraction unit 403 with biometric information stored in advance in the biometric information storage unit 409 and non-biological information stored in advance in the non-biological information storage unit 410. It is determined whether or not the person photographed in the image is a living body (biological determination).

なお、生体判定の手法として、判別分析や、部分空間法等がある。第1の実施形態では、一例として、生体判定部404が、判別分析により生体判定を行うものとして、以下の説明を行う。   Note that there are a discriminant analysis, a subspace method, and the like as a living body determination method. In the first embodiment, as an example, the following description will be given assuming that the living body determination unit 404 performs living body determination by discriminant analysis.

(判別分析)
ここで、図10、11を用いて、判別分析の概要について説明する。
(Discriminant analysis)
Here, an outline of discriminant analysis will be described with reference to FIGS.

例えば、図10(a)に示すように、3つの生体情報(生体情報1〜3)と、5つの非生体情報(非生体情報1〜5)から生成した判別空間があるとする。なお、生体情報1〜3は、生体情報記憶部409に記憶した、生体の画像から予め抽出された生体の識別空間(生体情報)の一例である。また、非生体情報1〜5は、非生体情報記憶部410に記憶した、非生体の画像から予め抽出された非生体の識別空間(非生体情報)の一例である。   For example, as shown in FIG. 10A, it is assumed that there is a discrimination space generated from three pieces of biological information (biological information 1 to 3) and five pieces of non-biological information (non-biological information 1 to 5). The biometric information 1 to 3 is an example of a biometric identification space (biometric information) that is stored in the biometric information storage unit 409 and extracted in advance from a biometric image. The non-biological information 1 to 5 is an example of a non-biological identification space (non-biological information) extracted in advance from a non-biological image stored in the non-biological information storage unit 410.

一例として、生体判定部404は、特徴情報抽出部403が抽出した特徴情報を、判別空間に射影した際に、最も近い識別空間が生体情報であれば、特徴情報抽出部403が抽出した特徴情報が生体の特徴情報であると判断する。一方、生体判定部404は、特徴情報抽出部403が抽出した特徴情報を、判別空間に射影した際に、最も近い識別空間が非生体情報であれば、特徴情報抽出部403が抽出した特徴情報が非生体の特徴情報であると判断する。   As an example, when the feature information extracted by the feature information extraction unit 403 is projected onto the discrimination space, the biometric determination unit 404 extracts the feature information extracted by the feature information extraction unit 403 if the closest identification space is biometric information. Is biometric feature information. On the other hand, when the feature information extracted by the feature information extraction unit 403 is projected onto the discrimination space, the biometric determination unit 404 extracts the feature information extracted by the feature information extraction unit 403 if the closest identification space is non-biometric information. Is non-biological feature information.

例えば、図10(a)の例では、判別空間に射影された特徴情報1001は、「生体1」に最も近いので、生体判定部404は、特徴情報1001が、生体の特徴情報であると判断する。一方、図10(b)の例では、判別空間に射影された特徴情報1002は、「非生体情報2」に最も近いので、生体判定部404は、特徴情報1002が、非生体の特徴情報であると判断する。   For example, in the example of FIG. 10A, the feature information 1001 projected onto the discrimination space is closest to “living body 1”, and thus the living body determination unit 404 determines that the feature information 1001 is the living body feature information. To do. On the other hand, in the example of FIG. 10B, the feature information 1002 projected onto the discrimination space is closest to “non-biological information 2”, so that the biometric determination unit 404 has the feature information 1002 as non-biological feature information. Judge that there is.

なお、判別空間に射影された特徴情報と、各識別空間(生体情報1〜3、非生体情報1〜5)との間の距離は、例えば、各識別空間の中心(重心)との距離で判断される。また、距離は、例えば、ユークリッド距離やマハラノビス距離等が用いられる。   The distance between the feature information projected on the discrimination space and each identification space (biological information 1 to 3 and non-biological information 1 to 5) is, for example, the distance from the center (center of gravity) of each identification space. To be judged. The distance is, for example, the Euclidean distance or Mahalanobis distance.

別の一例として、生体判定部404は、特徴情報抽出部403が抽出した特徴情報を、判別空間に射影した際に、最も近い識別空間に所属させるのではなく、生体の識別空間からの一定範囲の距離を見るものであっても良い。   As another example, when the biometric determination unit 404 projects the feature information extracted by the feature information extraction unit 403 onto the discrimination space, the biometric determination unit 404 does not belong to the closest identification space, but rather is a certain range from the biometric identification space. You may look at the distance.

例えば、図11の判別空間に射影された特徴情報が、生体情報1から所定の距離の範囲1101内、生体情報2から所定の距離の範囲1102内、又は生体情報3から所定の距離の範囲1103内にある場合、生体判定部404は、生体の特徴情報と判断する。   For example, the feature information projected onto the discrimination space in FIG. 11 is within a predetermined distance range 1101 from the biological information 1, within a predetermined distance range 1102 from the biological information 2, or within a predetermined distance range 1103 from the biological information 3. If it is within the living body, the living body determination unit 404 determines that it is biological feature information.

この方法では、生体判定に必要な情報は、生体情報1〜3の識別空間の中心と特徴情報との間の距離なので、非生体情報1〜5の識別空間の中心と特徴情報との間の距離は、計算しなくても良い。この方法では、生体情報1〜3の識別空間の中心との距離が短いほど類似度が高く、距離が長いほど類似度が低くなる。   In this method, since the information necessary for the biometric determination is the distance between the center of the identification space of the biometric information 1 to 3 and the feature information, it is between the center of the identification space of the non-biological information 1 to 5 and the feature information. The distance need not be calculated. In this method, the similarity is higher as the distance from the center of the identification space of the biological information 1 to 3 is shorter, and the similarity is lower as the distance is longer.

本実施形態では、生体判定部404は、判別分析により、生体判定を行うものとして、以下の説明を行う。   In the present embodiment, the living body determination unit 404 performs the following description on the assumption that the living body determination is performed by discriminant analysis.

図4に戻り、操作部220の機能構成の説明を続ける。   Returning to FIG. 4, the description of the functional configuration of the operation unit 220 is continued.

ノイズ判定部405は、撮影部401が撮影した時系列の画像のうち、例えば、蛍光灯のちらつき等による、生体判定に影響を与えるノイズが乗っている画像があるかを判定する手段である。ノイズ判定部405は、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。   The noise determination unit 405 is a unit that determines whether there is an image on which noise affecting the living body determination is present due to, for example, flickering of a fluorescent lamp among time-series images captured by the imaging unit 401. The noise determination unit 405 is realized by, for example, a program executed by the CPU 221 (or CPU 211) in FIG.

ノイズ判定部405によるノイズの判定方法は任意の方法で良いが、一例として
、ノイズ判定部405は、時系列に並んだ2つの画像において、各画素の輝度値の差を求め、その総和を算出する。また、ノイズ判定部405は、算出した総和の値が、しきい値を超える場合、ノイズが乗っていると判断することができる。
The noise determination unit 405 may use any method for determining the noise, but as an example, the noise determination unit 405 calculates the sum of the luminance values of each pixel in two images arranged in time series. To do. Further, the noise determination unit 405 can determine that noise is present when the calculated sum value exceeds the threshold value.

不要空間抽出部406は、特徴情報抽出部403が抽出した特徴情報を、図10に示すような判別空間に射影する射影ベクトル(第1の射影ベクトル)の要素のうち、生体判定に使用しない不要要素の情報を抽出し、不要空間情報記憶部412に記憶する。   The unnecessary space extraction unit 406 is not used for biometric determination among the elements of the projection vector (first projection vector) that projects the feature information extracted by the feature information extraction unit 403 into the discrimination space as shown in FIG. The element information is extracted and stored in the unnecessary space information storage unit 412.

また、不要空間抽出部406は、第1の射影ベクトルの要素のうち、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を、識別空間情報記憶部411に記憶する。   Further, the unnecessary space extraction unit 406 obtains a projection vector (second projection vector) obtained by removing unnecessary elements stored in the unnecessary space information storage unit 412 from the elements of the first projection vector, and the identification space information storage unit 411. To remember.

ここで、判別空間と、射影ベクトルについて説明する。   Here, the discriminant space and the projection vector will be described.

判別分析は、自クラス(識別空間)のクラス内分散を最小にし、他クラスとのクラス間分散を最大にする空間を求める方法である。クラスが複数ある場合には、各クラス内の分散を最小にし、各クラス間のクラス間分散を最大にする空間を求める。   Discriminant analysis is a method for obtaining a space that minimizes intra-class variance of its own class (identification space) and maximizes inter-class variance with other classes. When there are a plurality of classes, a space that minimizes the variance within each class and maximizes the interclass variance between the classes is obtained.

クラス内分散Wは、次の(式3)で表される。   The intra-class variance W is expressed by the following (Equation 3).

Figure 2018005805
また、クラス間分散Bは、次の(式4)で表される。
Figure 2018005805
The interclass variance B is expressed by the following (Equation 4).

Figure 2018005805
上記の(式3)、(式4)において、データはd次元のベクトルxで表される。また、クラス数はc≧2、総データ数はn 、データ集合はX={x}、データ全体の平均値はavexであるものとする。また、クラスiのデータ集合をxi、データ集合xiのデータ数をni、データ数niのデータの平均をaveiとする。Tは転置行列を示す。
Figure 2018005805
In the above (Expression 3) and (Expression 4), the data is represented by a d-dimensional vector x. Further, the number of classes is c ≧ 2, the total number of data is n, the data set is X = {x}, and the average value of the entire data is ave x. Further, the data set of classes i x i, the number of data of the data set x i n i, the average of the data of the data number n i and ave x i. T indicates a transposed matrix.

ここでW-1B の大きな固有値C−1個λ1、…、λC-1 に対応する固有ベクトルをA1、…、AC-1 とする。これを用いて、d×(C−1)行列 A=[A1、A2、…、AC-1] を定める。この行列を用いてデータxをAxでC−1次元空間に次元削減することを、判別空間に射影するという。 Here large eigenvalue C-1 or lambda 1 of W -1 B, ..., the eigenvector corresponding to λ C-1 A 1, ... , a A C-1. Using this, the d × (C−1) matrix A = [A 1 , A 2 ,..., A C-1 ] is determined. That the dimension reduction in C-1 dimensional space A T x data x using the matrix, as projected onto the discriminant space.

ここでは、生体情報記憶部409に記憶した生体の識別空間である生体情報、及び非生体情報記憶部410に記憶した非生体の識別空間である非生体情報が、251次元のデータxであるものとして以下の説明を行う。ただし、データxは、251次元以外のデータを用いるものであっても良い。   Here, the biological information that is the identification space of the living body stored in the biological information storage unit 409 and the non-biological information that is the non-biological identification space stored in the non-biological information storage unit 410 are 251-dimensional data x. The following will be described. However, the data x may use data other than 251 dimensions.

図12は、第1の実施形態に係る射影ベクトルの例を示す図である。図12に示す射影ベクトルは、8クラス(8種類の識別空間)の判別分析を行う場合の射影ベクトルの一例である。8クラスの判別分析を行う場合、判別空間は7次元となり、判別空間へと射影する固有ベクトルはA、A、A、A、A、A、Aの7本存在することになる。 FIG. 12 is a diagram illustrating an example of a projection vector according to the first embodiment. The projection vector shown in FIG. 12 is an example of a projection vector when performing discriminant analysis of eight classes (eight kinds of identification spaces). When performing 8-class discriminant analysis, the discriminant space has 7 dimensions, and there are seven eigenvectors A 1 , A 2 , A 3 , A 4 , A 5 , A 6 , and A 7 that are projected onto the discriminant space. become.

図12において、要素番号は、251次元の次元を示している。また、A、A、A、A、A、A、Aは、各固有ベクトルの値を表している。 In FIG. 12, the element number indicates a 251-dimensional dimension. A 1 , A 2 , A 3 , A 4 , A 5 , A 6 , and A 7 represent the values of the eigenvectors.

なお、判別空間へと射影する固有ベクトルA、A、A、A、A、A、Aには、1つ以上の生体情報と、1つ以上の非生体情報とが含まれる。 The eigenvectors A 1 , A 2 , A 3 , A 4 , A 5 , A 6 , A 7 that are projected onto the discrimination space include one or more pieces of biological information and one or more pieces of non-biological information. It is.

不要空間抽出部406は、例えば、図12に示すような射影ベクトルから、不要な要素(次元)である不要要素を抽出する。例えば、不要空間抽出部406は、図12において、各要素番号に対応する全ての値の絶対値がしきい値未満となる要素番号に対応する要素を不要要素と判断し、不要空間情報記憶部412に記憶する。例えば、図12において、しきい値を「0.010」とした場合の例を図13に示す。   The unnecessary space extraction unit 406 extracts unnecessary elements that are unnecessary elements (dimensions) from, for example, a projection vector as shown in FIG. For example, the unnecessary space extraction unit 406 determines in FIG. 12 that the element corresponding to the element number for which the absolute value of all the values corresponding to each element number is less than the threshold is an unnecessary element, and the unnecessary space information storage unit 412 is stored. For example, FIG. 13 shows an example in which the threshold value is “0.010” in FIG.

図13は、第1の実施形態に係る射影ベクトルの不要要素の例を示す図である。図13の例では、要素番号3、4、7、246は、固有ベクトルA、A、A、A、A、A、Aに対応する全ての値がしきい値「0.010」未満であるため、不要空間抽出部406は、不要要素と判断し、不要空間情報記憶部412に記憶する。 FIG. 13 is a diagram illustrating an example of unnecessary elements of the projection vector according to the first embodiment. In the example of FIG. 13, the element numbers 3 , 4 , 7, and 246 indicate that all the values corresponding to the eigenvectors A 1 , A 2 , A 3 , A 4 , A 5 , A 6 , A 7 have the threshold value “0”. Since it is less than “.010”, the unnecessary space extraction unit 406 determines that it is an unnecessary element and stores it in the unnecessary space information storage unit 412.

好ましくは、不要空間抽出部406は、図12に示す射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を、識別空間情報記憶部411に記憶する。   Preferably, the unnecessary space extraction unit 406 obtains a projection vector (second projection vector) obtained by removing unnecessary elements stored in the unnecessary space information storage unit 412 from the projection vector (first projection vector) shown in FIG. Store in the identification space information storage unit 411.

なお、しきい値「0.010」は一例であり、判別分析の判別結果に影響が少ない要素が、不要要素として抽出されるように、予め定められているものとする。或いは、しきい値は、管理者や、利用者等が、操作パネル226等を用いて設定可能なものであっても良い。   Note that the threshold value “0.010” is an example, and it is assumed that an element having a small influence on the determination result of the discriminant analysis is determined in advance so as to be extracted as an unnecessary element. Alternatively, the threshold value may be set by an administrator, a user, or the like using the operation panel 226 or the like.

本実施形態に係る生体判定部404は、図12に示すような、射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた第2の射影ベクトルを用いて、特徴情報抽出部403が抽出した特徴情報の判別分析を行う。例えば、生体判定部404は、不要空間抽出部406が、識別空間情報記憶部411に記憶した第2の射影ベクトルを用いて、撮影部401により、画像に撮影された人物が生体であるか否かを判定する。   The biometric determination unit 404 according to the present embodiment uses a second projection vector obtained by removing unnecessary elements stored in the unnecessary space information storage unit 412 from the projection vector (first projection vector) as shown in FIG. Then, the feature information extracted by the feature information extraction unit 403 is discriminated and analyzed. For example, the living body determination unit 404 uses the second projection vector stored in the identification space information storage unit 411 by the unnecessary space extraction unit 406 to determine whether or not the person photographed in the image by the shooting unit 401 is a living body. Determine whether.

好ましくは、特徴情報抽出部403は、特徴情報を抽出する際に、251次元の特徴情報のうち、不要空間情報記憶部412に記憶した不要要素(不要な次元)を除外して、特徴情報の抽出を行う。   Preferably, when extracting the feature information, the feature information extraction unit 403 excludes unnecessary elements (unnecessary dimensions) stored in the unnecessary space information storage unit 412 from the 251-dimensional feature information, Perform extraction.

図4に戻り、操作部220の機能構成の説明を続ける。   Returning to FIG. 4, the description of the functional configuration of the operation unit 220 is continued.

画像認証部407は、顔認証等の従来の画像認証を実行する手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。例えば、画像認証部407は、画像認証に成功し、かつ生体判定部404が、画像に撮影された人物が生体であると判断した場合、画像形成装置101の利用を許可する。   The image authentication unit 407 is means for executing conventional image authentication such as face authentication, and is realized, for example, by a program executed by the CPU 221 (or CPU 211) in FIG. For example, the image authentication unit 407 permits the use of the image forming apparatus 101 when the image authentication is successful and the biometric determination unit 404 determines that the person photographed in the image is a living body.

表示入力部408は、図2の操作パネル226に、操作画面や設定画面等の表示画面を表示させると共に、操作パネル226への入力操作を受け付ける手段であり、例えば、図2のCPU221(又はCPU211)で実行されるプログラムによって実現される。   The display input unit 408 is a means for displaying a display screen such as an operation screen or a setting screen on the operation panel 226 of FIG. 2 and accepting an input operation to the operation panel 226. For example, the CPU 221 (or CPU 211 of FIG. ).

生体情報記憶部409は、生体の画像から予め抽出された生体の識別空間の情報である生体情報を記憶する手段であり、例えば、図2のフラッシュメモリ224、RAM223、図2のCPU221で実行されるプログラム等によって実現される。   The biometric information storage unit 409 is a means for storing biometric information that is information on a biometric identification space extracted in advance from a biometric image. For example, the biometric information storage unit 409 is executed by the flash memory 224, the RAM 223 in FIG. 2, and the CPU 221 in FIG. This is realized by a program or the like.

非生体情報記憶部410は、非生体の画像から予め抽出された非生体の識別空間の情報である非生体情報を記憶する手段であり、例えば、図2のフラッシュメモリ224、RAM223、図2のCPU221で実行されるプログラム等によって実現される。   The non-biological information storage unit 410 is a unit that stores non-biological information that is information on a non-biological identification space extracted in advance from a non-biological image. This is realized by a program executed by the CPU 221.

識別空間情報記憶部(第2の記憶部)411は、特徴情報抽出部403が抽出した特徴情報を、生体情報、及び非生体情報に射影する第1の射影ベクトルから、不要要素を除いた第2の射影ベクトルを記憶する手段である。識別空間情報記憶部411は、例えば、図2のフラッシュメモリ224、RAM223、図2のCPU221で実行されるプログラム等によって実現される。   The identification space information storage unit (second storage unit) 411 includes a feature information extracted by the feature information extraction unit 403, which is obtained by removing unnecessary elements from the first projection vector that projects the biological information and the non-biological information. This is means for storing two projection vectors. The identification space information storage unit 411 is realized by, for example, a program executed by the flash memory 224, the RAM 223 in FIG. 2, the CPU 221 in FIG.

不要空間情報記憶部(第1の記憶部)412は、特徴情報抽出部403が抽出した特徴情報を、生体情報、及び非生体情報に射影する第1の射影ベクトルのうち、生体判定に使用しない不要要素の情報を記憶する手段である。不要空間情報記憶部412は、例えば、図2のフラッシュメモリ224、RAM223、図2のCPU221で実行されるプログラム等によって実現される。   The unnecessary space information storage unit (first storage unit) 412 does not use the feature information extracted by the feature information extraction unit 403 for biometric determination among the first projection vectors projected onto the biometric information and the non-biometric information. A means for storing information on unnecessary elements. The unnecessary space information storage unit 412 is realized by, for example, a program executed by the flash memory 224, the RAM 223 in FIG. 2, the CPU 221 in FIG.

上記の構成により、画像形成装置101は、例えば、特徴情報抽出部403による特徴情報の抽出処理や、生体判定部404に生体判定処理等において、不要要素の計算を省略できるので、生体判定を高速化することができる。   With the above configuration, the image forming apparatus 101 can omit calculation of unnecessary elements in, for example, feature information extraction processing by the feature information extraction unit 403 or biometric determination processing in the biometric determination unit 404. Can be

また、画像形成装置101は、第1の射影ベクトルに含まれる要素のうち、生体判定の判定結果に影響が小さい要素を不要要素として抽出するので、生体判定の精度の低下を抑制することができる。   In addition, since the image forming apparatus 101 extracts, as unnecessary elements, elements that have a small influence on the determination result of the biological determination from among the elements included in the first projection vector, it is possible to suppress a decrease in the accuracy of the biological determination. .

したがって、本実施形態に係る画像形成装置101によれば、画像に撮影された人物が生体であるか否かを判定する生体判定を行う画像形成装置101において、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができるようになる。   Therefore, according to the image forming apparatus 101 according to the present embodiment, in the image forming apparatus 101 that performs the living body determination for determining whether or not the person photographed in the image is a living body, a decrease in the accuracy of the living body determination is suppressed. However, the time required for the living body determination can be shortened.

なお、図5に示す画像形成装置101の機能構成は、一例である。例えば、画像形成装置101は、不要空間抽出部406を有していなくても良い。   Note that the functional configuration of the image forming apparatus 101 illustrated in FIG. 5 is an example. For example, the image forming apparatus 101 does not have to include the unnecessary space extraction unit 406.

図5は、第1の実施形態に係る画像形成装置の機能構成の別の一例である。図5に示す画像形成装置101は、図4に示す画像形成装置101から、不要空間抽出部406を除いた構成となっている。   FIG. 5 is another example of the functional configuration of the image forming apparatus according to the first embodiment. The image forming apparatus 101 shown in FIG. 5 has a configuration in which the unnecessary space extraction unit 406 is removed from the image forming apparatus 101 shown in FIG.

この場合、画像形成装置101は、他の情報処理装置で取得した不要要素を不要空間情報記憶部412に予め記憶しておく。また、画像形成装置101は、他の情報処理装置で取得した、第1の射影ベクトルから不要要素を除いた第2の射影ベクトルを識別空間情報記憶部411に予め記憶しておく。   In this case, the image forming apparatus 101 stores unnecessary elements acquired by other information processing apparatuses in the unnecessary space information storage unit 412 in advance. In addition, the image forming apparatus 101 stores in advance in the identification space information storage unit 411 the second projection vector obtained by removing other unnecessary elements from the first projection vector acquired by another information processing apparatus.

これより、図5に示す画像形成装置101においても、画像に撮影された人物が生体であるか否かを判定する生体判定を行う画像形成装置101において、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができるようになる。   As a result, also in the image forming apparatus 101 shown in FIG. 5, in the image forming apparatus 101 that performs biometric determination for determining whether or not the person photographed in the image is a living body, while suppressing a decrease in the accuracy of the biometric determination. The time required for the living body determination can be shortened.

図6は、第1の実施形態に係る情報処理装置の機能構成の例を示す図である。図6に示す情報処理装置600は、図4に示す画像形成装置101の機能構成のうち、撮影部401、特徴情報抽出部403、ノイズ判定部405、不要空間抽出部406、生体情報記憶部409、非生体情報記憶部410、識別空間情報記憶部411、及び不要空間情報記憶部412を有している。   FIG. 6 is a diagram illustrating an example of a functional configuration of the information processing apparatus according to the first embodiment. An information processing apparatus 600 illustrated in FIG. 6 includes a photographing unit 401, a feature information extraction unit 403, a noise determination unit 405, an unnecessary space extraction unit 406, and a biological information storage unit 409, among the functional configurations of the image forming apparatus 101 illustrated in FIG. A non-biological information storage unit 410, an identification space information storage unit 411, and an unnecessary space information storage unit 412.

上記の構成により、情報処理装置600は、撮影部401で撮影した画像から、第1の射影ベクトルのうち、生体判定に使用しない不要要素の情報を取得して、不要空間情報記憶部412に記憶する。また、情報処理装置600は、第1の射影ベクトルから、不要要素を除いた第2の射影ベクトルを、識別空間情報記憶部411に記憶する。なお、情報処理装置600が不要空間情報記憶部412に記憶した不要要素の情報、及び識別空間情報記憶部411に記憶した第2の射影ベクトルの情報は、例えば、図5に示す画像形成装置101に記憶して、利用される。   With the above configuration, the information processing apparatus 600 acquires information on unnecessary elements that are not used for biometric determination from the first projection vector from the image captured by the imaging unit 401 and stores the information in the unnecessary space information storage unit 412. To do. In addition, the information processing apparatus 600 stores the second projection vector obtained by removing unnecessary elements from the first projection vector in the identification space information storage unit 411. The information on the unnecessary elements stored in the unnecessary space information storage unit 412 by the information processing apparatus 600 and the information on the second projection vector stored in the identification space information storage unit 411 are, for example, the image forming apparatus 101 shown in FIG. It is memorized and used.

<処理の流れ>
続いて、第1の実施形態に係る生体判定方法の処理の流れについて説明する。
<Process flow>
Subsequently, a flow of processing of the living body determination method according to the first embodiment will be described.

(不要要素の抽出処理)
図14は、第1の実施形態に係る不要要素の抽出処理の例を示すフローチャートである。この処理は、画像形成装置101、又は情報処理装置600の不要空間抽出部406による不要要素を抽出する処理、及び第2の射影ベクトルを生成する処理の例を示している。
(Unnecessary element extraction processing)
FIG. 14 is a flowchart illustrating an example of unnecessary element extraction processing according to the first embodiment. This process shows an example of a process of extracting unnecessary elements by the unnecessary space extracting unit 406 of the image forming apparatus 101 or the information processing apparatus 600 and a process of generating a second projection vector.

ステップS1401において、特徴情報抽出部403は、撮影部401が所定の時間間隔で撮影した画像を読み込む。   In step S1401, the feature information extraction unit 403 reads images captured by the imaging unit 401 at predetermined time intervals.

ステップS1402において、特徴情報抽出部403は、ステップS1401で読み込んだ画像から、特徴情報(例えば、CHLAC特徴量)を抽出する。   In step S1402, the feature information extraction unit 403 extracts feature information (eg, CHLAC feature amount) from the image read in step S1401.

続いて、不要空間抽出部406は、ステップS1403〜S1409に示す不要空間の抽出処理1400を実行する。   Subsequently, the unnecessary space extraction unit 406 executes an unnecessary space extraction process 1400 shown in steps S1403 to S1409.

ステップS1403において、不要空間抽出部406は、前述した判別空間を作成する。   In step S1403, the unnecessary space extraction unit 406 creates the discrimination space described above.

ステップS1404〜S1407の処理において、不要空間抽出部406は、例えば、図12に示すような、射影ベクトルの要素番号1から251(Nmax)まで、各要素が不要要素であるか否かの判断を行う。   In the processing of steps S1404 to S1407, the unnecessary space extraction unit 406 determines whether each element is an unnecessary element from element numbers 1 to 251 (Nmax) of the projection vector as shown in FIG. 12, for example. Do.

例えば、ステップS1401において、不要空間抽出部406は、要素番号Nを1に初期化する。   For example, in step S1401, the unnecessary space extraction unit 406 initializes the element number N to 1.

ステップS1405において、不要空間抽出部406は、要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満であるか否かを判断する。   In step S1405, the unnecessary space extraction unit 406 determines whether the absolute value of each value of the element number N is less than a threshold value (for example, “0.010”).

要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満でない場合、不要空間抽出部406は、処理をステップS1407に移行させる。一方、要素番号Nの各値がしきい値(例えば、「0.010」)未満である場合、不要空間抽出部406は、処理をステップS1406に移行させる。   If the absolute value of each value of the element number N is not less than a threshold value (for example, “0.010”), the unnecessary space extraction unit 406 causes the process to proceed to step S1407. On the other hand, when each value of the element number N is less than a threshold value (for example, “0.010”), the unnecessary space extraction unit 406 shifts the processing to step S1406.

ステップS1406に移行すると、不要空間抽出部406は、各値の絶対値がしきい値未満と判断された(不要要素と判断された)要素番号Nを、不要要素として不要空間情報記憶部412に記憶する。   In step S1406, the unnecessary space extraction unit 406 stores the element number N determined as the absolute value of each value below the threshold (determined as an unnecessary element) in the unnecessary space information storage unit 412 as an unnecessary element. Remember.

ステップS1407に移行すると、不要空間抽出部406は、要素番号Nが、要素番号Nの最大値(例えば、251)であるNmax以上であるかを判断する。   In step S1407, the unnecessary space extraction unit 406 determines whether the element number N is greater than or equal to Nmax, which is the maximum value (for example, 251) of the element number N.

要素番号NがNmax以上でない場合、不要空間抽出部406は、処理をステップS1408に移行させる。一方、要素番号NがNmax以上である場合、不要空間抽出部406は、処理をステップS1409に移行させる。   If the element number N is not greater than or equal to Nmax, the unnecessary space extraction unit 406 causes the process to proceed to step S1408. On the other hand, if the element number N is greater than or equal to Nmax, the unnecessary space extraction unit 406 causes the process to proceed to step S1409.

ステップS1408に移行すると、不要空間抽出部406は、要素番号Nに1を加算して、処理をステップS1405に戻し、同様の処理を繰り返す。   In step S1408, the unnecessary space extraction unit 406 adds 1 to the element number N, returns the process to step S1405, and repeats the same process.

ステップS1409に移行すると、不要空間抽出部406は、例えば、図12に示すような、射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を作成する。また、不要空間抽出部406は、作成した第2の射影ベクトルを、識別空間情報記憶部411に記憶する。   In step S1409, the unnecessary space extraction unit 406, for example, a projection vector (first projection vector) obtained by removing unnecessary elements stored in the unnecessary space information storage unit 412 as shown in FIG. 2nd projection vector) is created. The unnecessary space extraction unit 406 stores the created second projection vector in the identification space information storage unit 411.

上記の処理により、例えば、図13に示す射影ベクトルのうち、要素番号3、4、7、246等の情報が不要空間情報記憶部412に記憶される。また、例えば、図13に示す射影ベクトルのうち、要素番号3、4、7、246を除いた247次元の射影ベクトルが、識別空間情報記憶部411に記憶される。   By the above processing, for example, information such as element numbers 3, 4, 7, 246, etc., among the projection vectors shown in FIG. 13 is stored in the unnecessary space information storage unit 412. For example, among the projection vectors shown in FIG. 13, a 247-dimensional projection vector excluding element numbers 3, 4, 7, and 246 is stored in the identification space information storage unit 411.

(生体判定処理)
図15は、第1の実施形態に係る画像形成装置の生体判定処理の例を示すフローチャートである。
(Biological determination processing)
FIG. 15 is a flowchart illustrating an example of biometric determination processing of the image forming apparatus according to the first embodiment.

ステップS1501において、撮影部401は、所定の時間間隔で時系列の複数の画像を撮影する。   In step S1501, the imaging unit 401 captures a plurality of time-series images at predetermined time intervals.

ステップS1502において、顔画像検出部402は、撮影部401が撮影した画像から顔画像を検出する処理を行い、顔画像が検出されたか否かを判断する。   In step S1502, the face image detection unit 402 performs a process of detecting a face image from the image captured by the image capturing unit 401, and determines whether a face image is detected.

顔画像が検出されない場合、顔画像検出部402は、処理をステップS1501に戻し、同様の処理を繰り返す。一方、顔画像が検出された場合、顔画像検出部402は、処理をステップS1503に移行させる。   When the face image is not detected, the face image detection unit 402 returns the process to step S1501 and repeats the same process. On the other hand, when a face image is detected, the face image detection unit 402 shifts the processing to step S1503.

ステップS1503に移行すると、特徴情報抽出部403は、不要空間情報記憶部412に記憶された不要要素の情報(例えば、要素番号3、4、7、246等)を読出す。   In step S1503, the feature information extraction unit 403 reads information on unnecessary elements (for example, element numbers 3, 4, 7, 246, etc.) stored in the unnecessary space information storage unit 412.

ステップS1504において、特徴情報抽出部403は、顔画像検出部402が検出した顔画像から、特徴情報(例えば、CHLAC特徴量)を抽出する。   In step S1504, the feature information extraction unit 403 extracts feature information (eg, CHLAC feature amount) from the face image detected by the face image detection unit 402.

好ましくは、このとき、特徴情報抽出部403は、不要空間情報記憶部412から読出した不要要素(例えば、要素番号3、4、7、246等)を除く要素番号(次元)の特徴情報を抽出する。これは、不要要素の特徴情報が、生体判定部404による生体判定処理で使用されないためである。これにより、特徴情報抽出部403による特徴情報の抽出処理の負荷が軽減されるので、処理を高速化させることができる。   Preferably, at this time, the feature information extraction unit 403 extracts feature information of element numbers (dimensions) excluding unnecessary elements (for example, element numbers 3, 4, 7, 246, etc.) read from the unnecessary space information storage unit 412. To do. This is because the feature information of unnecessary elements is not used in the biometric determination process by the biometric determination unit 404. Thereby, the load of the feature information extraction processing by the feature information extraction unit 403 is reduced, so that the processing can be speeded up.

ステップ1505において、生体判定部404は、識別空間情報記憶部411に記憶された第2の射影ベクトルを読出す。   In step 1505, the living body determination unit 404 reads the second projection vector stored in the identification space information storage unit 411.

ステップS1506において、生体判定部404は、読出した第2の射影ベクトルと、特徴情報抽出部403が抽出した特徴情報とを用いて、顔画像検出部402が検出した顔画像の生体判定を行う。これにより、撮影部401によって、画像に撮影された人物が生体であるか、非生体(例えば、写真等)であるかを判定する。   In step S <b> 1506, the biometric determination unit 404 performs biometric determination of the face image detected by the face image detection unit 402 using the read second projection vector and the feature information extracted by the feature information extraction unit 403. Accordingly, the photographing unit 401 determines whether the person photographed in the image is a living body or a non-living body (for example, a photograph).

ステップS1507において、生体判定部404は、例えば、生体判定の結果に応じて処理を分岐させる。   In step S1507, the living body determination unit 404 branches the process according to the result of the living body determination, for example.

生体の顔画像であると判定されない場合、生体判定部404は、処理をステップS1501に戻して、同様の処理を繰り返す。一方、生体の顔画像であると判定された場合、次のステップ(S1508)に処理を移行させる。   If it is not determined that the face image is a living body, the living body determination unit 404 returns the process to step S1501 and repeats the same process. On the other hand, if it is determined that the face image is a living body, the process proceeds to the next step (S1508).

次のステップで、生体判定の判定結果をどのように用いるかは、任意である。   It is arbitrary how to use the determination result of the biological determination in the next step.

一例として、ステップS1508において、画像認証部407は、検出された顔画像の顔認証処理を実行し、顔認証に成功した場合、画像形成装置101の利用を許可する。一方、画像認証部407は、顔認証に成功しない場合、画像形成装置101の利用を許可しない。   As an example, in step S <b> 1508, the image authentication unit 407 executes face authentication processing of the detected face image, and permits the use of the image forming apparatus 101 when the face authentication is successful. On the other hand, the image authentication unit 407 does not permit the use of the image forming apparatus 101 when face authentication is not successful.

以上、本実施形態によれば、特徴情報抽出部403、及び生体判定部404は、不要空間情報記憶部412に記憶された不要要素を除外して処理を実行するので、生体判定処理が高速化される。また、不要空間情報記憶部412に記憶された不要要素は、生体判定に影響を与えないと判断された要素(次元)なので、生体判定の精度の低下を抑制することができる。   As described above, according to the present embodiment, the feature information extraction unit 403 and the biometric determination unit 404 perform the process by excluding unnecessary elements stored in the unnecessary space information storage unit 412, so that the biometric determination process is accelerated. Is done. Moreover, since the unnecessary element memorize | stored in the unnecessary space information storage part 412 is an element (dimension) judged not to influence biometric determination, the fall of the precision of biometric determination can be suppressed.

したがって、本実施形態によれば、画像に撮影された人物が生体であるか否かを判定する生体判定を行う情報処理システム100において、生体判定の精度の低下を抑制しつつ、生体判定に要する時間を短縮することができる。   Therefore, according to the present embodiment, in the information processing system 100 that performs biological determination for determining whether or not the person photographed in the image is a living body, it is necessary for the biological determination while suppressing a decrease in the accuracy of the biological determination. Time can be shortened.

[第2の実施形態]
第1の実施形態では、生体判定に判別分析を用いる場合の例について説明した。ただし、判別分析は生体判定方法の一例であり、生体判定方法は他の方法であっても良い。
[Second Embodiment]
In the first embodiment, an example in which discriminant analysis is used for biological determination has been described. However, discriminant analysis is an example of a biological determination method, and the biological determination method may be another method.

第2の実施形態では、生体判定に部分空間法を用いる場合の例について説明する。   In the second embodiment, an example in which the subspace method is used for biological determination will be described.

<機能構成>
第2の実施形態に係る情報処理システム100の機能構成は、図4〜6に示す情報処理システム100の機能構成と同様である。
<Functional configuration>
The functional configuration of the information processing system 100 according to the second embodiment is the same as the functional configuration of the information processing system 100 illustrated in FIGS.

ただし、第2の実施形態に係る生体判定部404は、部分空間法を用いて生体判定を行う。   However, the living body determination unit 404 according to the second embodiment performs living body determination using the subspace method.

また、第2の実施形態に係る不要空間抽出部406は、生体情報記憶部409に記憶された生体情報と、非生体情報記憶部410に記憶された非生体情報とに共通して存在する不要要素を主成分分析により抽出し、不要空間情報記憶部412に記憶する。   In addition, the unnecessary space extraction unit 406 according to the second embodiment is unnecessary in common with the biological information stored in the biological information storage unit 409 and the non-biological information stored in the non-biological information storage unit 410. Elements are extracted by principal component analysis and stored in the unnecessary space information storage unit 412.

(部分空間法による生体判定)
ここで、部分空間法による生体判定方法について説明する。
(Biometric judgment by subspace method)
Here, a living body determination method using the subspace method will be described.

図16は、第2の実施形態に係る部分空間法について説明するための図である。生体判定に部分空間法を用いる場合、クラス(識別空間)の角度を類似度(生体らしさを表す類似度)として利用することができる。   FIG. 16 is a diagram for explaining the subspace method according to the second embodiment. When the subspace method is used for the biometric determination, the angle of the class (identification space) can be used as the similarity (similarity representing the biologicalness).

例えば、図16に示す251次元の判別空間1600において、予め用意した「生体情報1」をm次元(mは自然数)の部分空間P1601とし、生体判定を行う特徴情報をn次元(nは自然数)の部分空間Q1602とする。このとき、部分空間P1601と部分空間Q1602との間には、部分空間同士の角度である正準角θiがn個定義できる(m≧n)。   For example, in the 251-dimensional discriminant space 1600 shown in FIG. 16, “biological information 1” prepared in advance is an m-dimensional (m is a natural number) partial space P1601, and feature information for performing biometric determination is n-dimensional (n is a natural number). Of the subspace Q1602. At this time, n canonical angles θi, which are angles between the partial spaces, can be defined between the partial space P1601 and the partial space Q1602 (m ≧ n).

n個の正準角θiは、次の(式5)で表される。   The n canonical angles θi are expressed by the following (formula 5).

Figure 2018005805
このとき、類似度は次の(式6)で定義される。
Figure 2018005805
At this time, the similarity is defined by the following (formula 6).

Figure 2018005805
この類似度は、2つの部分空間が一致するとき1.0となり、2つの部分空間が直交するとき0.0となる。
Figure 2018005805
This similarity is 1.0 when the two subspaces match and 0.0 when the two subspaces are orthogonal.

一例として、生体判定部404は、生体判定を行う特徴情報と、各クラス(識別空間)との類似度を計算し、最も類似度が高いクラスを生体判定の判定結果とすることができる。   As an example, the biometric determination unit 404 can calculate the similarity between the feature information for performing biometric determination and each class (identification space), and can determine the class with the highest similarity as the determination result of the biometric determination.

例えば、生体情報1〜3、及び非生体情報1〜5の8個のクラス(識別空間)があるものとする。また、特徴情報と生体情報1との類似度が「0.75」、特徴情報と生体情報2との類似度が「0.96」、特徴情報と生体情報3との類似度が「0.23」、特徴情報と非生体情報1との類似度が「0.52」であるものとする。また、特徴情報と非生体情報2との類似度が「0.33」、特徴情報と非生体情報3との類似度が「0.45」、特徴情報と非生体情報4との類似度が「0.68」、特徴情報と非生体情報5との類似度が「0.11」であるものとする。   For example, it is assumed that there are eight classes (identification spaces) of biological information 1 to 3 and non-biological information 1 to 5. The similarity between the feature information and the biological information 1 is “0.75”, the similarity between the feature information and the biological information 2 is “0.96”, and the similarity between the feature information and the biological information 3 is “0. 23 ”, the similarity between the feature information and the non-biological information 1 is“ 0.52 ”. The similarity between the feature information and the non-biological information 2 is “0.33”, the similarity between the feature information and the non-biological information 3 is “0.45”, and the similarity between the feature information and the non-biological information 4 is Assume that “0.68” and the similarity between the feature information and the non-biological information 5 is “0.11”.

この場合、生体判定部404は、生体判定を行う特徴情報との類似度が、他のクラスより高い生体情報2に分類し、生体の特徴情報であると判断することができる。   In this case, the biometric determination unit 404 can classify the biometric information 2 that has a higher degree of similarity to the characteristic information for performing biometric determination than other classes, and determine that the biometric characteristic information is biometric characteristic information.

別の一例として、生体判定部404は、生体情報をターゲットとして、しきい値以上のクラスを生体判定の判定結果とすることもできる。   As another example, the biometric determination unit 404 can use biometric information as a target and set a class equal to or higher than a threshold value as a determination result of the biometric determination.

例えば、また、特徴情報と生体情報1との類似度が「0.66」、特徴情報と生体情報2との類似度が「0.86」、特徴情報と生体情報3との類似度が「0.23」、特徴情報と非生体情報1との類似度が「0.52」であるものとする。また、特徴情報と非生体情報2との類似度が「0.33」、特徴情報と非生体情報3との類似度が「0.45」、特徴情報と非生体情報4との類似度が「0.88」、特徴情報と非生体情報5との類似度が「0.11」であるものとする。   For example, the similarity between the feature information and the biological information 1 is “0.66”, the similarity between the feature information and the biological information 2 is “0.86”, and the similarity between the feature information and the biological information 3 is “ It is assumed that the similarity between the feature information and the non-biological information 1 is “0.52”. The similarity between the feature information and the non-biological information 2 is “0.33”, the similarity between the feature information and the non-biological information 3 is “0.45”, and the similarity between the feature information and the non-biological information 4 is It is assumed that the similarity between the feature information and the non-biological information 5 is “0.11”.

また、ターゲットのしきい値を「0.80」とする。この場合、生体判定部404は、ターゲットなる生体情報1〜3のうち、生体判定を行う特徴情報との類似度が、しきい値以上である生体情報2があるので、生体の特徴情報であると判断することができる。   The target threshold is set to “0.80”. In this case, the biometric determination unit 404 is biometric feature information because there is the biometric information 2 in which the similarity to the feature information for performing biometric determination is greater than or equal to the threshold value among the target biometric information 1 to 3. It can be judged.

この方法では、生体判定部404は、非生体情報1〜5との類似度を計算しなくても良い。また、別の方法として、生体判定部404は、非生体情報1〜5との類似度が、別のしきい値以下であることを、判断条件に加えても良い。   In this method, the living body determination unit 404 may not calculate the similarity with the non-biological information 1 to 5. As another method, the living body determination unit 404 may add to the determination condition that the similarity to the non-biological information 1 to 5 is equal to or less than another threshold value.

(主成分分析による不要要素の抽出)
次に、主成分分析による不要要素の抽出方法について説明する。
(Extraction of unnecessary elements by principal component analysis)
Next, a method for extracting unnecessary elements by principal component analysis will be described.

第2の実施形態では、不要空間抽出部406は、各クラス(識別空間)に共通して存在する情報を、全クラスをまとめて主成分分析した際の寄与率が上位X%(Xはしきい値)の主成分ベクトルの要素を、不要要素として不要空間情報記憶部412に記憶する。   In the second embodiment, the unnecessary space extraction unit 406 has a higher contribution ratio when the principal component analysis is performed on all the classes of information that is common to each class (identification space). The element of the principal component vector of (threshold value) is stored in the unnecessary space information storage unit 412 as an unnecessary element.

図17は、第2の実施形態に係る生体情報、非生体情報の部分空間のイメージを示す図である。なお、図17では、同一の原点で3次元以上の空間を作図することが困難であるため、251次元の判別空間1700を3次元空間で表している。   FIG. 17 is a diagram illustrating an image of a partial space of biological information and non-biological information according to the second embodiment. In FIG. 17, since it is difficult to draw a three-dimensional or more space at the same origin, the 251-dimensional discrimination space 1700 is represented by a three-dimensional space.

図17の例では、判別空間1700に「生体情報1」1701、「生体情報2」1702、「非生体情報1」1703の3つの部分空間が示されている。   In the example of FIG. 17, three partial spaces of “biological information 1” 1701, “biological information 2” 1702, and “non-biological information 1” 1703 are shown in the discrimination space 1700.

不要空間抽出部406は、各クラス(「生体情報1」、「生体情報2」、「非生体情報1」)に共通して存在する不要要素を抽出するために、主成分分析を行い、寄与率が上位X%の主成分ベクトルを抽出する。   The unnecessary space extraction unit 406 performs principal component analysis to extract unnecessary elements that exist in common in each class (“biological information 1”, “biological information 2”, “non-biological information 1”), and contributes. A principal component vector having a higher rate of X% is extracted.

不要空間抽出部406は、例えば、以下の手順で主成分分析を行い、寄与率が上位X%の主成分ベクトルを抽出する。   For example, the unnecessary space extraction unit 406 performs principal component analysis according to the following procedure, and extracts a principal component vector having a higher contribution rate of X%.

まず、不要空間抽出部406は、生体情報と非生体情報の特徴量から共分散行列Sを求める。共分散行列Sは、次の(式7)で求められる。   First, the unnecessary space extraction unit 406 obtains the covariance matrix S from the feature values of the biological information and the non-biological information. The covariance matrix S is obtained by the following (Expression 7).

Figure 2018005805
この共分散行列Sの各要素(Sxx, Sxy, Syy)については、下記のように求めることができる。
Figure 2018005805
Each element (Sxx, Sxy, Syy) of the covariance matrix S can be obtained as follows.

次の(式8)に示すベクトルXを導入する。   The vector X shown in the following (Equation 8) is introduced.

Figure 2018005805
同様にして、ベクトルYを導入する。ベクトルYは、(式8)のXをYに置き換えることにより得られる。
Figure 2018005805
Similarly, the vector Y is introduced. The vector Y is obtained by replacing X in (Equation 8) with Y.

ベクトルXと、ベクトルYを用いた分散は、(式9)に示すような、縦ベクトルと横ベクトルの積の形で表すことができる。   The variance using the vector X and the vector Y can be expressed in the form of a product of a vertical vector and a horizontal vector as shown in (Equation 9).

Figure 2018005805
(式9)において、「'」は、転置を表す。
Figure 2018005805
In (Formula 9), “′” represents transposition.

なお、共分散行列S内の要素の数は、生体情報、及び非生体情報のクラスの数によって変化する。(式7)に示す共分散行列Sは、クラスの数が2の場合の例を示している。クラスの数が3である場合、[3×3]の共分散行列となり、クラスの数が4である場合[4×4]の共分散行列となる。   Note that the number of elements in the covariance matrix S varies depending on the number of classes of biological information and non-biological information. A covariance matrix S shown in (Expression 7) shows an example in which the number of classes is two. When the number of classes is 3, the covariance matrix is [3 × 3], and when the number of classes is 4, the covariance matrix is [4 × 4].

次に、不要空間抽出部406は、(式10)に示す関係式により、共分散行列Sの固有値λと固有ベクトルμを求める。   Next, the unnecessary space extraction unit 406 obtains the eigenvalue λ and eigenvector μ of the covariance matrix S using the relational expression shown in (Expression 10).

Figure 2018005805
また、不要空間抽出部406は、求めた固有値λの中で、値が大きい順にλ1…nを決定し、決定したλ1…nの各々について、(式10)を用いて、固有ベクトルμ1…nの値を求める。
Figure 2018005805
Further, the unnecessary space extraction unit 406 determines λ1... N in descending order from the determined eigenvalue λ, and uses (Equation 10) for each of the determined λ1. Find the value.

次に、不要空間抽出部406は、求めた固有値λの中で、値が1番大きい固有値λ1に対応する固有ベクトルμ1を第1主成分ベクトルとする。ここで固有値λ1がその方向の分散に相当する。   Next, the unnecessary space extraction unit 406 sets the eigenvector μ1 corresponding to the eigenvalue λ1 having the largest value among the obtained eigenvalues λ as the first principal component vector. Here, the eigenvalue λ1 corresponds to the dispersion in that direction.

不要空間抽出部406が、主成分ベクトルをいくつ求めるかは、固有値λiから、次の(式11)で求められる累積寄与率により決定する。   The number of principal component vectors obtained by the unnecessary space extraction unit 406 is determined from the eigenvalue λi by the cumulative contribution rate obtained by the following (Expression 11).

Figure 2018005805
なお、累積寄与率は、寄与率を所定の順序で順次に加えたものである。例えば、第1主成分から、第k主成分(kは2以上の整数)までの寄与率の和を、第k主成分までの累積寄与率と呼ぶ。第k主成分までの累積寄与率は、k個の主成分が、全体の情報量の何パーセントの情報を保有しているかを示している。
Figure 2018005805
The cumulative contribution rate is obtained by sequentially adding contribution rates in a predetermined order. For example, the sum of contribution rates from the first principal component to the k-th principal component (k is an integer of 2 or more) is referred to as a cumulative contribution rate up to the k-th principal component. The cumulative contribution rate up to the k-th principal component indicates what percentage of the total information amount the k principal components have.

本実施形態では、主成分が全体の情報量のうち、何パーセントの情報量であるかを示すしきい値(X%)を設定することにより、生体判定に必要な主成分ベクトルを抽出する。   In the present embodiment, a principal component vector necessary for biometric determination is extracted by setting a threshold value (X%) indicating what percentage of the total information amount is the principal component.

例えば、図17に示す「生体情報1」1701、「生体情報2」1702、「非生体情報1」1703の3つの部分空間から、主成分分析の寄与率95%(X%のしきい値の一例)を満たす主成分ベクトルを抽出すると、図18に示すような主成分分析で得られた部分空間1801が得られる。   For example, from the three subspaces of “biological information 1” 1701, “biological information 2” 1702 and “non-biological information 1” 1703 shown in FIG. 17, the contribution ratio of the principal component analysis is 95% (X% threshold value). When a principal component vector satisfying one example) is extracted, a partial space 1801 obtained by principal component analysis as shown in FIG. 18 is obtained.

この主成分分析で得られた部分空間1801は、「生体情報1」1701、「生体情報2」1702、「非生体情報1」1703の3つの部分空間に共通する空間(ベクトル)であるため、生体判定には有効でないと判断することができる。   The partial space 1801 obtained by this principal component analysis is a space (vector) common to the three partial spaces of “biological information 1” 1701, “biological information 2” 1702, and “non-biological information 1” 1703. It can be determined that it is not effective for biometric determination.

続いて、不要空間抽出部406は、部分空間1801の補空間へと射影し、部分空間1801を除いた部分空間を作成する。   Subsequently, the unnecessary space extraction unit 406 projects onto the complementary space of the partial space 1801 and creates a partial space excluding the partial space 1801.

例えば、射影後の部分空間をPc、入力部分空間をP、その射影行列をP=[p1, p2,…, pn]、制約部分空間(補空間)をC、その射影行列をC=[c1, c2,…, cn]とし、Pで用いる基底の数をK、Cで射影に用いる基底の数をMとする。   For example, the projected subspace is Pc, the input subspace is P, the projection matrix is P = [p1, p2, ..., pn], the constraint subspace (complementary space) is C, and the projection matrix is C = [c1 , c2,..., cn], K is the number of bases used in P, and M is the number of bases used for projection in C.

このとき、PをCに射影した部分空間Pcの基底ベクトルpciは、次の(式12)で表される。   At this time, the base vector pci of the subspace Pc obtained by projecting P onto C is expressed by the following (Equation 12).

Figure 2018005805
例えば、図17に示す「生体情報1」1701、「生体情報2」1702、「非生体情報3」1703を、部分空間1801の補空間に射影したときのイメージを図19に示す。
Figure 2018005805
For example, FIG. 19 shows an image when “biological information 1” 1701, “biological information 2” 1702, and “non-biological information 3” 1703 shown in FIG. 17 are projected onto the complementary space of the partial space 1801.

例えば、251次元の判別空間1700のうち、主成分分析で得られた部分空間1801が30次元である場合、射影ベクトルの要素の数は251となる。また、主成分分析で得られた部分空間1801の補空間1900は、221次元の空間となる。図19の例では、補空間1900上の、「生体情報1」1701の部分空間1901、「生体情報2」1702の部分空間1902、及び「非生体情報1」の部分空間1903のイメージが示されている。   For example, in the 251-dimensional discriminant space 1700, when the partial space 1801 obtained by the principal component analysis has 30 dimensions, the number of elements of the projection vector is 251. Further, a complementary space 1900 of the partial space 1801 obtained by the principal component analysis is a 221-dimensional space. In the example of FIG. 19, images of a partial space 1901 of “biological information 1” 1701, a partial space 1902 of “biological information 2” 1702, and a partial space 1903 of “non-biological information 1” on the complementary space 1900 are shown. ing.

図20は、第2の実施形態に係る射影ベクトルの例を示す図である。図20に示す射影ベクトルは、生体判定の対象となる特徴情報を、主成分分析で得られた部分空間1801の補空間1900(221次元)に射影する射影ベクトルの例を示している。   FIG. 20 is a diagram illustrating an example of a projection vector according to the second embodiment. The projection vector shown in FIG. 20 is an example of a projection vector for projecting feature information to be subjected to biological determination to a complementary space 1900 (221 dimensions) of a partial space 1801 obtained by principal component analysis.

不要空間抽出部406は、例えば、図20に示すような射影ベクトルから、不要な要素(次元)である不要要素を抽出する。例えば、不要空間抽出部406は、図20において、各要素番号に対応する全ての値の絶対値がしきい値未満となる要素番号に対応する要素を不要要素と判断し、不要空間情報記憶部412に記憶する。例えば、図20において、しきい値を「0.010」とした場合の例を図21に示す。   The unnecessary space extraction unit 406 extracts unnecessary elements that are unnecessary elements (dimensions) from, for example, a projection vector as shown in FIG. For example, the unnecessary space extraction unit 406 determines in FIG. 20 that the element corresponding to the element number for which the absolute value of all the values corresponding to each element number is less than the threshold is an unnecessary element, and the unnecessary space information storage unit 412 is stored. For example, FIG. 21 shows an example where the threshold value is “0.010” in FIG.

図21は、第2の実施形態に係る射影ベクトルの不要要素の例を示す図である。図21の例では、要素番号3、4、7、246は、固有ベクトルμ1〜μ221に対応する全ての値の絶対値がしきい値「0.010」未満であるため、不要空間抽出部406は、不要要素と判断し、不要空間情報記憶部412に記憶する。   FIG. 21 is a diagram illustrating an example of unnecessary elements of the projection vector according to the second embodiment. In the example of FIG. 21, the element numbers 3, 4, 7, and 246 have the absolute values of all values corresponding to the eigenvectors μ1 to μ221 being less than the threshold value “0.010”. It is determined as an unnecessary element and stored in the unnecessary space information storage unit 412.

好ましくは、不要空間抽出部406は、図20に示す射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を、識別空間情報記憶部411に記憶する。   Preferably, the unnecessary space extraction unit 406 obtains a projection vector (second projection vector) obtained by removing unnecessary elements stored in the unnecessary space information storage unit 412 from the projection vector (first projection vector) shown in FIG. Store in the identification space information storage unit 411.

本実施形態においても、生体判定部404は、第1の実施形態と同様に、識別空間情報記憶部411に記憶した第2の射影ベクトルを用いて、特徴情報抽出部403が抽出した特徴情報の判別分析を行う。   Also in the present embodiment, the living body determination unit 404 uses the second projection vector stored in the identification space information storage unit 411, and extracts the feature information extracted by the feature information extraction unit 403, as in the first embodiment. Perform discriminant analysis.

好ましくは、特徴情報抽出部403も、特徴情報を抽出する際に、251次元の特徴情報のうち、不要空間情報記憶部412に記憶した不要要素(不要な次元)を除外して、特徴情報の抽出を行う。   Preferably, when extracting the feature information, the feature information extraction unit 403 also excludes unnecessary elements (unnecessary dimensions) stored in the unnecessary space information storage unit 412 from the 251D feature information, Perform extraction.

なお、寄与率が上位の主成分ベクトルは、各クラス(識別空間)に共通の情報である。したがって、本実施形態では、生体判定に用いられる第2の射影ベクトルから、各クラスに共通の不要要素が除かれているため、各クラスが差別化され、生体判定の判定精度が向上する効果も期待できる。   The principal component vector with the higher contribution rate is information common to each class (identification space). Therefore, in this embodiment, since unnecessary elements common to each class are removed from the second projection vector used for the biometric determination, each class is differentiated, and the determination accuracy of the biometric determination is improved. I can expect.

<処理の流れ>
図22は、第2の実施形態に係る不要空間の抽出処理の例を示すフローチャートである。
<Process flow>
FIG. 22 is a flowchart illustrating an example of unnecessary space extraction processing according to the second embodiment.

ステップS2201において、特徴情報抽出部403は、撮影部401が所定の時間間隔で撮影した画像を読み込む。   In step S2201, the feature information extraction unit 403 reads images captured by the imaging unit 401 at predetermined time intervals.

ステップS2202において、特徴情報抽出部403は、ステップS2201で読み込んだ画像から、特徴情報(例えば、CHLAC特徴量)を抽出する。   In step S2202, the feature information extraction unit 403 extracts feature information (for example, CHLAC feature amount) from the image read in step S2201.

続いて、不要空間抽出部406は、ステップS2203〜S2212に示す不要空間の抽出処理2200を実行する。   Subsequently, the unnecessary space extraction unit 406 executes an unnecessary space extraction process 2200 shown in steps S2203 to S2212.

ステップS2203において、不要空間抽出部406は、各クラス(例えば、図17の「生体情報1」、「生体情報2」、「非生体情報1」)に共通して存在する不要要素を抽出するために、前述した主成分分析を行う。   In step S2203, the unnecessary space extraction unit 406 extracts unnecessary elements that exist in common in each class (for example, “biological information 1”, “biological information 2”, and “non-biological information 1” in FIG. 17). The principal component analysis described above is performed.

ステップS2204において、不要空間抽出部406は、前述した累積寄与率が上記X%の主成分ベクトルを抽出する。   In step S2204, the unnecessary space extraction unit 406 extracts the principal component vector having the cumulative contribution rate of X% described above.

ステップS2205において、不要空間抽出部406は、例えば、図18に示すような主成分分析で得られた部分空間1801(共通部分空間)を作成する。   In step S2205, the unnecessary space extraction unit 406 creates a partial space 1801 (common partial space) obtained by principal component analysis as shown in FIG. 18, for example.

ステップS2206において、不要空間抽出部406は、例えば、図19に示すような主成分分析で得られた部分空間1801の補空間1900を作成する。   In step S2206, the unnecessary space extraction unit 406 creates a complementary space 1900 of the partial space 1801 obtained by principal component analysis as shown in FIG. 19, for example.

ステップS2207〜S2210の処理において、不要空間抽出部406は、例えば、図20に示すような、射影ベクトルの要素番号1から251(Nmax)まで、各要素が不要要素であるか否かの判断を行う。   In the processing of steps S2207 to S2210, the unnecessary space extraction unit 406 determines whether each element is an unnecessary element from element numbers 1 to 251 (Nmax) of the projection vector, for example, as shown in FIG. Do.

例えば、ステップS2207において、不要空間抽出部406は、要素番号Nを1に初期化する。   For example, in step S2207, the unnecessary space extraction unit 406 initializes the element number N to 1.

ステップS2208において、不要空間抽出部406は、要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満であるか否かを判断する。   In step S2208, the unnecessary space extraction unit 406 determines whether the absolute value of each value of the element number N is less than a threshold value (for example, “0.010”).

要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満でない場合、不要空間抽出部406は、処理をステップS2210に移行させる。一方、要素番号Nの各値の絶対値がしきい値(例えば、「0.010」)未満である場合、不要空間抽出部406は、処理をステップS2209に移行させる。   If the absolute value of each value of the element number N is not less than a threshold value (for example, “0.010”), the unnecessary space extraction unit 406 causes the process to proceed to step S2210. On the other hand, when the absolute value of each value of the element number N is less than a threshold value (for example, “0.010”), the unnecessary space extraction unit 406 causes the process to proceed to step S2209.

ステップS2209に移行すると、不要空間抽出部406は、各値の絶対値がしきい値未満と判断された(不要要素と判断された)要素番号Nを、不要要素として不要空間情報記憶部412に記憶する。   In step S2209, the unnecessary space extraction unit 406 stores in the unnecessary space information storage unit 412 the element number N for which the absolute value of each value is determined to be less than the threshold (determined as an unnecessary element) as an unnecessary element. Remember.

ステップS2210に移行すると、不要空間抽出部406は、要素番号Nが、要素番号Nの最大値(例えば、251)であるNmax以上であるかを判断する。   In step S2210, the unnecessary space extraction unit 406 determines whether the element number N is greater than or equal to Nmax, which is the maximum value (for example, 251) of the element number N.

要素番号NがNmax以上でない場合、不要空間抽出部406は、処理をステップS2211に移行させる。一方、要素番号NがNmax以上である場合、不要空間抽出部406は、処理をステップS2212に移行させる。   If the element number N is not equal to or greater than Nmax, the unnecessary space extraction unit 406 causes the process to proceed to step S2211. On the other hand, if the element number N is greater than or equal to Nmax, the unnecessary space extraction unit 406 causes the process to proceed to step S2212.

ステップS2211に移行すると、不要空間抽出部406は、要素番号Nに1を加算して、処理をステップS2208に戻し、同様の処理を繰り返す。   In step S2211, the unnecessary space extraction unit 406 adds 1 to the element number N, returns the process to step S2208, and repeats the same process.

ステップS2212に移行すると、不要空間抽出部406は、例えば、図20に示すような、射影ベクトル(第1の射影ベクトル)から、不要空間情報記憶部412に記憶した不要要素を除いた射影ベクトル(第2の射影ベクトル)を作成する。また、不要空間抽出部406は、作成した第2の射影ベクトルを、識別空間情報記憶部411に記憶する。   When the process proceeds to step S2212, the unnecessary space extraction unit 406, for example, a projection vector (first projection vector) as shown in FIG. 20 excluding unnecessary elements stored in the unnecessary space information storage unit 412 (see FIG. 20). 2nd projection vector) is created. The unnecessary space extraction unit 406 stores the created second projection vector in the identification space information storage unit 411.

上記の処理により、例えば、図21に示す射影ベクトルのうち、要素番号3、4、7、246等の情報が不要空間情報記憶部412に記憶される。また、例えば、図21に示す射影ベクトルのうち、要素番号3、4、7、246を除いた247次元の射影ベクトルが、識別空間情報記憶部411に記憶される。   By the above processing, for example, information such as element numbers 3, 4, 7, 246, etc., among the projection vectors shown in FIG. 21 is stored in the unnecessary space information storage unit 412. Further, for example, among the projection vectors shown in FIG. 21, a 247-dimensional projection vector excluding element numbers 3, 4, 7, 246 is stored in the identification space information storage unit 411.

なお、第2の実施形態に係る生体判定処理の流れは、図15に示す第1の実施形態の生体判定処理と同様である。ただし、第2の実施形態に係る生体判定部404は、識別空間情報記憶部411に記憶された第2の射影ベクトルを用いて、前述した部分空間法を用いて生体判定を行う。   Note that the flow of the biological determination process according to the second embodiment is the same as the biological determination process of the first embodiment shown in FIG. However, the biometric determination unit 404 according to the second embodiment performs biometric determination using the above-described subspace method using the second projection vector stored in the identification space information storage unit 411.

以上、本実施形態によれば、特徴情報抽出部403、及び生体判定部404は、不要空間情報記憶部412に記憶された不要要素を除外して処理を実行するので、生体判定処理が高速化される。   As described above, according to the present embodiment, the feature information extraction unit 403 and the biometric determination unit 404 perform the process by excluding unnecessary elements stored in the unnecessary space information storage unit 412, so that the biometric determination process is accelerated. Is done.

また、本実施形態によれば、生体判定に用いられる第2の射影ベクトルから、各クラスに共通の不要要素が除かれているため、各クラスが差別化され、生体判定の判定精度が向上する効果が期待できる。   Further, according to the present embodiment, since unnecessary elements common to each class are removed from the second projection vector used for the biometric determination, each class is differentiated, and the determination accuracy of the biometric determination is improved. The effect can be expected.

[その他の実施形態]
上記の第1の実施形態、及び第2の実施形態に示す処理は一例であり、様々な変形や応用が可能である。
[Other Embodiments]
The processing shown in the first embodiment and the second embodiment is an example, and various modifications and applications are possible.

一例として、情報処理システム100は、撮影部401が撮影した画像にノイズが乗っている場合、その画像を破棄し、次の画像を利用することにより生体判定の精度を向上させることができる。   As an example, the information processing system 100 can improve the accuracy of biometric determination by discarding an image captured by the image capturing unit 401 and using the next image.

図23は、その他の実施形態に係る生体判定処理の例(1)を示すフローチャートである。なお、図23のステップS1501、S1502〜1508の処理は、図15に示す第1の実施形態に係る生体判定処理と同様なので、ここでは差分を中心に説明を行う。   FIG. 23 is a flowchart illustrating an example (1) of the biometric determination process according to another embodiment. Note that the processing in steps S1501 and S1502-1508 in FIG. 23 is the same as the biometric determination processing according to the first embodiment shown in FIG.

ステップS2301において、ノイズ判定部405は、撮影部401が撮影した画像に含まれるノイズの量が所定の値未満であるか否かを判断する。   In step S2301, the noise determination unit 405 determines whether the amount of noise included in the image captured by the imaging unit 401 is less than a predetermined value.

撮影部401が撮影した画像に含まれるノイズの量が所定の値以上である場合、ノイズ判定部405は、撮影部401が撮影した画像を破棄し、処理をステップS1501に戻す。   If the amount of noise included in the image captured by the image capturing unit 401 is equal to or greater than a predetermined value, the noise determination unit 405 discards the image captured by the image capturing unit 401 and returns the process to step S1501.

一方、撮影部401が撮影した画像に含まれるノイズの量が所定の値以上である場合、ノイズ判定部405は、処理をステップS1503に移行させ、生体判定処理を開始させる。   On the other hand, when the amount of noise included in the image captured by the imaging unit 401 is equal to or greater than a predetermined value, the noise determination unit 405 shifts the process to step S1503 and starts the biometric determination process.

上記の処理により、情報処理システム100は、撮影部401が撮影した画像にノイズが乗っている場合、その画像を破棄し、次の画像を利用することにより生体判定の精度を向上させることができる。   As a result of the above processing, the information processing system 100 can improve the accuracy of the biometric determination by discarding the image captured by the imaging unit 401 and using the next image when noise is present. .

別の一例として、画像形成装置101は、不要空間情報記憶部412に記憶した不要要素の情報、及び識別空間情報記憶部411に記憶した第2の射影ベクトルを用いた高速の生体判定を行うか否かを、設定可能とすることができる。   As another example, the image forming apparatus 101 performs high-speed biological determination using information on unnecessary elements stored in the unnecessary space information storage unit 412 and the second projection vector stored in the identification space information storage unit 411. Whether or not can be set.

例えば、画像形成装置101は、図24に示すような生体判定のモード設定画面2400を操作パネル226に表示し、管理者や利用者等による設定を受け付けることができる。図24の例では、生体判定のモード設定画面2400には、不要要素の情報、及び第2の射影ベクトルを用いた高速の生体判定を選択する「高速処理モード」ボタン2401、及び通常の生体判定を行う「通常処理モード」ボタン2402が表示されている。   For example, the image forming apparatus 101 can display a biometric determination mode setting screen 2400 as shown in FIG. 24 on the operation panel 226 and accept settings by an administrator, a user, or the like. In the example of FIG. 24, the biometric determination mode setting screen 2400 includes a “high-speed processing mode” button 2401 for selecting high-speed biometric determination using unnecessary element information and the second projection vector, and normal biometric determination. A “normal processing mode” button 2402 is displayed.

管理者や利用者は、生体判定のモード設定画面2400から、「高速処理モード」ボタン2401を選択することにより、不要要素の情報、及び第2の射影ベクトルを用いた高速の生体判定を選択することができる。また、管理者や利用者は、生体判定のモード設定画面2400から、「通常処理モード」ボタン2402を選択することにより、不要要素の情報、及び第2の射影ベクトルを用いた高速の生体判定を行わない通常の生体判定を選択することができる。   The administrator or the user selects the high-speed biometric determination using the unnecessary element information and the second projection vector by selecting the “high-speed processing mode” button 2401 from the biometric determination mode setting screen 2400. be able to. In addition, the administrator or the user selects the “normal processing mode” button 2402 from the biometric determination mode setting screen 2400, thereby performing high-speed biometric determination using information on unnecessary elements and the second projection vector. It is possible to select a normal biometric determination that is not performed.

図25は、その他の実施形態に係る生体判定処理の例(2)を示すフローチャートである。なお、図25のステップS1501、S1502、S1504〜S1508の処理は、図15に示す第1の実施形態に係る生体判定処理と同様なので、ここでは、第1の実施形態との相違点を中心に説明を行う。   FIG. 25 is a flowchart illustrating an example (2) of the biometric determination process according to another embodiment. Note that the processes in steps S1501, S1502, and S1504 to S1508 in FIG. 25 are the same as the biometric determination process according to the first embodiment shown in FIG. 15, and here, the differences from the first embodiment are mainly described here. Give an explanation.

ステップS2501において、生体判定部404は、画像形成装置101が、不要要素の情報、及び第2の射影ベクトルを用いて高速に生体判定を行う高速処理モードに設定されているか否かを判断する。   In step S2501, the biometric determination unit 404 determines whether the image forming apparatus 101 is set to a high-speed processing mode in which biometric determination is performed at high speed using unnecessary element information and the second projection vector.

高速処理モードに設定されている場合、生体判定部404は、処理をステップS1503に移行させて、図15に示す第1の実施形態の生体判定処理を実行する。   When the high-speed processing mode is set, the biological determination unit 404 shifts the process to step S1503 and executes the biological determination process of the first embodiment illustrated in FIG.

一方、高速処理モードに設定されていない場合、生体判定部404は、生体の特徴情報、非生体の特徴情報等を用いて、通常の生体判定処理を実行する。   On the other hand, when the high-speed processing mode is not set, the biometric determination unit 404 performs normal biometric determination processing using biometric feature information, non-biological feature information, and the like.

上記の処理により、例えば、図5に示す画像形成装置101において、識別空間情報記憶部411、及び不要空間情報記憶部412に必要な情報が記憶されていない場合でも、画像形成装置101は生体判定を行うことができるようになる。   With the above processing, for example, in the image forming apparatus 101 shown in FIG. 5, even when necessary information is not stored in the identification space information storage unit 411 and the unnecessary space information storage unit 412, the image forming apparatus 101 performs biometric determination. Will be able to do.

100 情報処理システム
101 画像形成装置(画像処理装置の一例)
401 撮影部
403 特徴情報抽出部
404 生体判定部
406 不要空間抽出部
411 識別空間情報記憶部(第2の記憶部)
412 不要空間情報記憶部(第1の記憶部)
100 Information processing system 101 Image forming apparatus (an example of an image processing apparatus)
401 Imaging unit 403 Feature information extraction unit 404 Biometric determination unit 406 Unnecessary space extraction unit 411 Identification space information storage unit (second storage unit)
412 Unnecessary space information storage unit (first storage unit)

特開2006−330936号公報JP 2006-330936 A

Claims (11)

生体の画像から予め抽出された生体の識別空間の情報を用いて、画像に撮影された人物が生体であるかを判定する生体判定を行う情報処理システムであって、
前記画像を撮影する撮影部と、
前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部が抽出する前記特徴情報を、前記生体の識別空間を含む判別空間に射影する第1の射影ベクトルの要素のうち、前記生体判定に使用しない不要要素の情報を記憶した第1の記憶部と、
前記第1の射影ベクトルから前記不要要素を除いた第2の射影ベクトルと、前記特徴情報抽出部が抽出した前記特徴情報とを用いて、前記画像に撮影された人物が生体であるか否かを判定する生体判定部と、
を有する情報処理システム。
An information processing system for performing a living body determination for determining whether a person photographed in an image is a living body using information on a living body identification space extracted in advance from a living body image,
A photographing unit for photographing the image;
A feature information extraction unit for extracting feature information of a person photographed in the image;
First information storing unnecessary element information that is not used for the living body determination among elements of a first projection vector that projects the feature information extracted by the feature information extracting unit onto a discrimination space including the identification space of the living body. A storage unit of
Whether the person photographed in the image is a living body using the second projection vector obtained by removing the unnecessary element from the first projection vector and the feature information extracted by the feature information extraction unit. A biological determination unit for determining
An information processing system having
前記特徴情報抽出部は、
前記撮影部が撮影した前記画像から、前記不要要素を除いた前記特徴情報を抽出する請求項1に記載の情報処理システム。
The feature information extraction unit includes:
The information processing system according to claim 1, wherein the feature information excluding the unnecessary elements is extracted from the image photographed by the photographing unit.
前記特徴情報は、複数の次元のベクトルであり、
前記不要要素の情報は、前記複数の次元のベクトルのうち、前記生体判定に使用しない次元を特定する情報を含む請求項1又は2に記載の情報処理システム。
The feature information is a vector of a plurality of dimensions,
3. The information processing system according to claim 1, wherein the information on the unnecessary element includes information for specifying a dimension that is not used for the biometric determination among the plurality of dimension vectors.
前記第1の射影ベクトルから前記不要要素を除いた前記第2の射影ベクトルを記憶する第2の記憶部を有する請求項1乃至3のいずれか一項に記載の情報処理システム。   4. The information processing system according to claim 1, further comprising a second storage unit that stores the second projection vector obtained by removing the unnecessary element from the first projection vector. 5. 前記第1の射影ベクトルの要素のうち、前記生体の識別空間を含む複数の識別空間に対応する値の絶対値がしきい値未満である要素を前記不要要素と判断し、前記第1の記憶部に記憶する不要空間抽出部を有する請求項1乃至4のいずれか一項に記載の情報処理システム。   Of the elements of the first projection vector, elements whose absolute values corresponding to a plurality of identification spaces including the identification space of the living body are less than a threshold value are determined as the unnecessary elements, and the first storage The information processing system according to any one of claims 1 to 4, further comprising an unnecessary space extraction unit stored in the unit. 前記第1の射影ベクトルの要素のうち、主成分分析により、前記生体の識別空間、及び非生体の識別空間を含む複数の識別空間に共通に存在する要素を前記不要要素と判断し、前記第1の記憶部に記憶する不要空間抽出部を有する請求項1乃至5のいずれか一項に記載の情報処理システム。   Among the elements of the first projection vector, an element that is present in common in a plurality of identification spaces including the identification space of the living body and the identification space of a non-living body is determined as the unnecessary element by principal component analysis, The information processing system according to any one of claims 1 to 5, further comprising an unnecessary space extraction unit that is stored in one storage unit. 請求項1乃至6のいずれか一項に記載の情報処理システムに含まれる情報処理装置であって、
前記画像を取得する取得部と、
前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部が抽出した前記特徴情報から、生体判定に使用しない不要要素の情報を抽出して第1の記憶部に記憶し、前記特徴情報から前記不要要素を除いた射影ベクトルを作成して第2の記憶部に記憶する不要空間抽出部と、
を有する情報処理装置。
An information processing apparatus included in the information processing system according to any one of claims 1 to 6,
An acquisition unit for acquiring the image;
A feature information extraction unit for extracting feature information of a person photographed in the image;
From the feature information extracted by the feature information extraction unit, information on unnecessary elements that are not used for biometric determination is extracted and stored in a first storage unit, and a projection vector is created by removing the unnecessary elements from the feature information. An unnecessary space extraction unit stored in the second storage unit,
An information processing apparatus.
生体の画像から予め抽出された生体の識別空間の情報を用いて、画像に撮影された人物が生体であるかを判定する生体判定を行う画像処理装置であって、
前記画像を撮影する撮影部と、
前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部が抽出する前記特徴情報を、前記生体の識別空間を含む判別空間に射影する第1の射影ベクトルの要素のうち、前記生体判定に使用しない不要要素の情報を記憶した第1の記憶部と、
前記第1の射影ベクトルから前記不要要素を除いた第2の射影ベクトルと、前記特徴情報抽出部が抽出した前記特徴情報とを用いて、前記画像に撮影された人物が生体であるか否かを判定する生体判定部と、
を有する画像処理装置。
An image processing apparatus that performs a living body determination for determining whether a person photographed in an image is a living body using information on a living body identification space extracted in advance from a living body image,
A photographing unit for photographing the image;
A feature information extraction unit for extracting feature information of a person photographed in the image;
First information storing unnecessary element information that is not used for the living body determination among elements of a first projection vector that projects the feature information extracted by the feature information extracting unit onto a discrimination space including the identification space of the living body. A storage unit of
Whether the person photographed in the image is a living body using the second projection vector obtained by removing the unnecessary element from the first projection vector and the feature information extracted by the feature information extraction unit. A biological determination unit for determining
An image processing apparatus.
請求項8に記載の画像処理装置であって、
少なくともエンジン部を備える本体と、
前記本体への操作の指示を受け付ける操作部と、
を有し、
前記特徴情報抽出部、前記第1の記憶部、及び生体判定部を、前記操作部に有することを特徴とする画像処理装置。
The image processing apparatus according to claim 8,
A main body provided with at least an engine part;
An operation unit for receiving an operation instruction to the main body;
Have
An image processing apparatus comprising: the feature information extraction unit, the first storage unit, and a living body determination unit in the operation unit.
生体の画像から予め抽出された生体の識別空間の情報を用いて、画像に撮影された人物が生体であるかを判定する生体判定を行うコンピュータを、
前記画像を撮影する撮影部と、
前記画像に撮影された人物の特徴情報を抽出する特徴情報抽出部と、
前記特徴情報抽出部が抽出する前記特徴情報を、前記生体の識別空間を含む判別空間に射影する第1の射影ベクトルの要素のうち、前記生体判定に使用しない不要要素の情報を記憶した第1の記憶部と、
前記第1の射影ベクトルから前記不要要素を除いた第2の射影ベクトルと、前記特徴情報抽出部が抽出した前記特徴情報とを用いて、前記画像に撮影された人物が生体であるか否かを判定する生体判定部と、
として機能させるためのプログラム。
A computer for performing a living body determination for determining whether a person photographed in an image is a living body using information on a living body identification space extracted in advance from a living body image,
A photographing unit for photographing the image;
A feature information extraction unit for extracting feature information of a person photographed in the image;
First information storing unnecessary element information that is not used for the living body determination among elements of a first projection vector that projects the feature information extracted by the feature information extracting unit onto a discrimination space including the identification space of the living body. A storage unit of
Whether the person photographed in the image is a living body using the second projection vector obtained by removing the unnecessary element from the first projection vector and the feature information extracted by the feature information extraction unit. A biological determination unit for determining
Program to function as.
撮影された画像を取得するステップと、
前記画像に撮影された人物の特徴情報を抽出するステップと、
抽出した前記特徴情報から、生体判定に使用しない不要要素の情報を抽出して第1の記憶部に記憶するステップと、
前記特徴情報から前記不要要素を除いた射影ベクトルを作成して第2の記憶部に記憶するステップと、
をコンピュータに実行させるためのプログラム。
Obtaining a captured image; and
Extracting feature information of a person photographed in the image;
Extracting unnecessary element information not used for biometric determination from the extracted feature information and storing it in the first storage unit;
Creating a projection vector excluding the unnecessary elements from the feature information and storing it in a second storage unit;
A program that causes a computer to execute.
JP2016135683A 2016-07-08 2016-07-08 Information processing system, image processing device, information processing device, and program Active JP6747112B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016135683A JP6747112B2 (en) 2016-07-08 2016-07-08 Information processing system, image processing device, information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016135683A JP6747112B2 (en) 2016-07-08 2016-07-08 Information processing system, image processing device, information processing device, and program

Publications (2)

Publication Number Publication Date
JP2018005805A true JP2018005805A (en) 2018-01-11
JP6747112B2 JP6747112B2 (en) 2020-08-26

Family

ID=60946407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016135683A Active JP6747112B2 (en) 2016-07-08 2016-07-08 Information processing system, image processing device, information processing device, and program

Country Status (1)

Country Link
JP (1) JP6747112B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11195298B2 (en) 2018-02-05 2021-12-07 Canon Kabushiki Kaisha Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium
JP2022513978A (en) * 2018-12-26 2022-02-09 巽騰(広東)科技有限公司 Operation decision method, device and electronic device based on facial expression group

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146673A (en) * 2004-11-22 2006-06-08 Kddi Corp Apparatus for recognizing image
JP2008102780A (en) * 2006-10-19 2008-05-01 Sony Corp Pattern discrimination method, registration device, collation device, and program
WO2009107237A1 (en) * 2008-02-29 2009-09-03 グローリー株式会社 Biometrics device
JP2012226612A (en) * 2011-04-20 2012-11-15 Canon Inc Image processing apparatus, image processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146673A (en) * 2004-11-22 2006-06-08 Kddi Corp Apparatus for recognizing image
JP2008102780A (en) * 2006-10-19 2008-05-01 Sony Corp Pattern discrimination method, registration device, collation device, and program
WO2009107237A1 (en) * 2008-02-29 2009-09-03 グローリー株式会社 Biometrics device
JP2012226612A (en) * 2011-04-20 2012-11-15 Canon Inc Image processing apparatus, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11195298B2 (en) 2018-02-05 2021-12-07 Canon Kabushiki Kaisha Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium
JP2022513978A (en) * 2018-12-26 2022-02-09 巽騰(広東)科技有限公司 Operation decision method, device and electronic device based on facial expression group

Also Published As

Publication number Publication date
JP6747112B2 (en) 2020-08-26

Similar Documents

Publication Publication Date Title
CN101189621B (en) Using photographer identity to classify images
US10079827B2 (en) Information processing apparatus, information processing method, and information processing system
JP5174045B2 (en) Illumination detection using a classifier chain
US9652663B2 (en) Using facial data for device authentication or subject identification
JP4642128B2 (en) Image processing method, image processing apparatus and system
JP6707906B2 (en) Information processing apparatus, information processing system, authentication method, and program
EP2336949B1 (en) Apparatus and method for registering plurality of facial images for face recognition
CN101321223B (en) Information processing method, information processing apparatus
US9760274B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP2016031679A (en) Object identification device, object identification method, and program
EP3518522B1 (en) Image capturing method and device
JP5701181B2 (en) Image processing apparatus, image processing method, and computer program
US20140146361A1 (en) Job processing apparatus, job processing method for job processing apparatus, and storage medium
CN109657627A (en) Auth method, device and electronic equipment
JP6747112B2 (en) Information processing system, image processing device, information processing device, and program
US8861803B2 (en) Image recognition apparatus, image recognition method, and program
Wong et al. Dynamic amelioration of resolution mismatches for local feature based identity inference
JP2017073039A (en) Object identification device, object identification method, and program
US9049382B2 (en) Image processing apparatus and image processing method
KR101031369B1 (en) Apparatus for identifying face from image and method thereof
US9100512B2 (en) Reading apparatus and method of controlling the same
WO2012044335A1 (en) Recognizing a feature of an image independently of the orientation or scale of the image
Tran et al. Simple signature verification sub-system for identity recognition
Moise et al. Face recognition using modified generalized Hough transform and gradient distance descriptor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R151 Written notification of patent or utility model registration

Ref document number: 6747112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151