JP6707906B2 - Information processing apparatus, information processing system, authentication method, and program - Google Patents

Information processing apparatus, information processing system, authentication method, and program Download PDF

Info

Publication number
JP6707906B2
JP6707906B2 JP2016040271A JP2016040271A JP6707906B2 JP 6707906 B2 JP6707906 B2 JP 6707906B2 JP 2016040271 A JP2016040271 A JP 2016040271A JP 2016040271 A JP2016040271 A JP 2016040271A JP 6707906 B2 JP6707906 B2 JP 6707906B2
Authority
JP
Japan
Prior art keywords
image
authentication
user
unit
wireless
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016040271A
Other languages
Japanese (ja)
Other versions
JP2016173813A (en
Inventor
元気 渡邊
元気 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/065,458 priority Critical patent/US10079827B2/en
Publication of JP2016173813A publication Critical patent/JP2016173813A/en
Application granted granted Critical
Publication of JP6707906B2 publication Critical patent/JP6707906B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本願は、情報処理装置、情報処理システム、認証方法、及びプログラムに関する。 The present application relates to an information processing device, an information processing system, an authentication method, and a program.

利用者を認証する認証方法として、パスワード入力等の操作が不要であり、ICカードの紛失や盗難等によるなりすましを防ぐことができる顔認証等の画像認証技術が普及している。 As an authentication method for authenticating a user, image authentication technology such as face authentication, which does not require an operation such as password input and can prevent spoofing due to loss or theft of an IC card, has been widespread.

例えば、利用者の顔を含む領域を撮像して得られた顔画像から生成した情報と、予め登録された認証情報とを比較、照合することで、利用者の認証を行う画像処理装置が知られている(例えば、特許文献1参照)。 For example, an image processing apparatus that authenticates a user by comparing and collating information generated from a face image obtained by capturing an area including the face of the user with authentication information registered in advance is known. (For example, see Patent Document 1).

しかし、例えば、顔認証等の撮像された画像による認証方法は、一般的に普及しているICカード等による認証方法と比べて認証の精度が低く、また、顔写真によるなりすましの危険がある等、認証の精度を向上させることには困難を伴っていた。 However, for example, an authentication method using a captured image such as face authentication has lower authentication accuracy than an authentication method using a widely used IC card, and there is a risk of spoofing with a face photograph. However, it has been difficult to improve the accuracy of authentication.

本発明の実施の形態は、上記問題点に鑑みてなされたものであって、顔認証等の撮像された画像により利用者を認証する情報処理装置において、利用者の認証の精度を向上させることを目的とする。 Embodiments of the present invention have been made in view of the above problems, and improve the accuracy of user authentication in an information processing apparatus that authenticates a user with a captured image such as face authentication. With the goal.

上記課題を解決するため、本発明の一実施形態に係る情報処理装置は、利用者を認証する情報処理装置であって、無線タグから所定の情報を取得する無線通信手段と、前記取得した所定の情報に基づいて前記無線タグを認証する無線認証を行う無線認証手段と、画像を撮像する撮像手段と、前記画像に撮像された利用者を認証する画像認証を行う画像認証手段と、前記画像に撮像された判定の対象が所定の条件を満たす生体であるかを判定する画像判定を行う判定手段と、前記画像に撮像された前記判定の対象が前記所定の条件を満たす生体であると判定され、かつ前記無線認証と前記画像認証とが許可された場合、前記無線認証が許可された前記無線タグの利用者と、前記画像認証が許可された利用者とが同じ利用者であるか否かを判断し、前記無線認証が許可された前記無線タグの利用者と前記画像認証許可された利用者とが同じ利用者である場合、該利用者の前記情報処理装置の使用を許可する装置認証手段と、を有する。
In order to solve the above problems, an information processing apparatus according to an embodiment of the present invention is an information processing apparatus that authenticates a user, and a wireless communication unit that acquires predetermined information from a wireless tag and the acquired predetermined information. a wireless authentication means for performing wireless authentication to authenticate the wireless tag based on information, and imaging means for capturing an image, and image authentication means for performing image authentication for authenticating the user who is captured in the image, the image Determination means for performing image determination for determining whether the imaged determination target is a living body satisfying a predetermined condition, and determining that the determination target captured in the image is a living body satisfying the predetermined condition If the wireless authentication and the image authentication are permitted, whether the user of the wireless tag permitted the wireless authentication and the user permitted the image authentication are the same user. determine the case the user and the user who image authentication is permitted in the wireless tag wireless authentication is permitted is the same user, to allow the use of the information processing apparatus of said user Device authentication means.

本発明の実施の形態によれば、顔認証等の撮像された画像により利用者を認証する情報処理装置において、利用者の認証の精度を向上させることができる。 According to the embodiments of the present invention, it is possible to improve the accuracy of user authentication in an information processing apparatus that authenticates a user with a captured image such as face authentication.

第1の実施形態に係る画像処理装置の機能構成の例を示す図である。It is a figure which shows the example of a functional structure of the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る画像処理装置のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る人物領域の動作情報による実物判断処理の例を示すフローチャートである。6 is a flowchart illustrating an example of an actual object determination process based on motion information of a person area according to the first embodiment. 第1の実施形態に係る人物領域が検出されるまでのイメージ図である。It is an image figure until a person area is detected according to the first embodiment. 第1の実施形態に係る人物領域の動作情報を用いた実物判断について説明する図である。It is a figure explaining the real thing judgment using the motion information of the person area concerning a 1st embodiment. 第1の実施形態に係る顔領域の動作情報による実物判断処理の例を示すフローチャートである。6 is a flowchart showing an example of an actual object determination process based on motion information of a face area according to the first embodiment. 第1の実施形態に係る顔領域から動作情報が算出されるまでのイメージ図である。FIG. 6 is an image diagram until motion information is calculated from a face area according to the first embodiment. 第1の実施形態に係る背景領域が閾値未満の場合の実物判断処理の例を示すフローチャートである。It is a flow chart which shows an example of real thing judgment processing when a background field concerning a 1st embodiment is less than a threshold. 第1の実施形態に係る背景領域が閾値未満の場合のイメージ図である。It is an image figure when the background area concerning a 1st embodiment is less than a threshold. 第1の実施形態に係るはずれ値除去を含む実物判断処理の例を示すフローチャートである。6 is a flowchart illustrating an example of an actual object determination process including outlier removal according to the first embodiment. 第1の実施形態に係るはずれ値除去について説明する図である。It is a figure explaining the outlier removal which concerns on 1st Embodiment. 第1の実施形態に係る人の向きを正規化する実物判断処理の例を示すフローチャートである。It is a flow chart which shows the example of the real thing judgment processing which normalizes the direction of a person concerning a 1st embodiment. 第1の実施形態に係る人の向きを正規化するイメージ図である。It is an image figure which normalizes the direction of a person concerning a 1st embodiment. 第1の実施形態に係る辞書データの更新を含む実物判断処理の例を示すフローチャートである。It is a flow chart which shows an example of real thing judgment processing including update of dictionary data concerning a 1st embodiment. 第1の実施形態に係る辞書データの更新で用いられる動作情報を説明する図である。It is a figure explaining the operation information used by the update of the dictionary data which concerns on 1st Embodiment. 第1の実施形態に係る情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system which concerns on 1st Embodiment. 第1の実施形態に係るカメラの撮像範囲、及び各センサの検知範囲の一例を示す図である。It is a figure which shows an example of the imaging range of the camera which concerns on 1st Embodiment, and the detection range of each sensor. 第1の実施形態に係る画像形成装置のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of the image forming apparatus which concerns on 1st Embodiment. 第1の実施形態に係る画像形成装置の機能構成の例を示す図である。FIG. 3 is a diagram showing an example of a functional configuration of the image forming apparatus according to the first embodiment. 第1の実施形態に係る利用者情報の例を示す図である。It is a figure which shows the example of the user information which concerns on 1st Embodiment. 第1の実施形態に係る無線認証処理の例を示すフローチャートである。6 is a flowchart illustrating an example of wireless authentication processing according to the first embodiment. 第1の実施形態に係る画像認証処理の例を示すフローチャートである。6 is a flowchart illustrating an example of image authentication processing according to the first embodiment. 第1の実施形態に係る顔画像の抽出について説明するための図である。It is a figure for demonstrating extraction of the face image which concerns on 1st Embodiment. 第1の実施形態に係る画像判定処理の例を示すフローチャートである。6 is a flowchart showing an example of image determination processing according to the first embodiment. 第1の実施形態に係る装置認証処理の例を示すフローチャートである。6 is a flowchart showing an example of device authentication processing according to the first embodiment. 変形例1に係る画像判定処理の例を示すフローチャートである。9 is a flowchart showing an example of image determination processing according to Modification 1. 変形例2に係る画像判定処理の例を示すフローチャートである。9 is a flowchart showing an example of image determination processing according to modification 2. 変形例3に係る装置認証処理のタイムアウト処理の例を示すフローチャートである。14 is a flowchart showing an example of timeout processing of device authentication processing according to Modification 3; 変形例4に係る代替の認証処理の例を示すフローチャートである。9 is a flowchart showing an example of alternative authentication processing according to Modification 4. 変形例5に係る画像認証処理の例を示すフローチャートである。9 is a flowchart showing an example of image authentication processing according to Modification 5. 変形例6に係る送信制御処理の例を示すフローチャートである。13 is a flowchart showing an example of transmission control processing according to modification 6. 第2の実施形態に係る階層化について説明するための図(1)である。It is a figure (1) for explaining layering concerning a 2nd embodiment. 第2の実施形態に係る階層化について説明するための図(2)である。It is a figure (2) for explaining layering concerning a 2nd embodiment. 第2の実施形態に係る階層化について説明するための図(3)である。It is a figure (3) for explaining layering concerning a 2nd embodiment. 第2の実施形態に係る階層化について説明するための図(4)である。It is a figure (4) for demonstrating the hierarchization which concerns on 2nd Embodiment. 第2の実施形態に係る階層化について説明するための図(5)である。It is a figure (5) for explaining layering concerning a 2nd embodiment. 第2の実施形態に係る画像判定処理の例を示すフローチャートである。9 is a flowchart showing an example of image determination processing according to the second embodiment.

以下、実施の形態について詳細に説明する。 Hereinafter, embodiments will be described in detail.

<画像処理装置:機能構成>
図1は、第1の実施形態に係る画像処理装置の機能構成の例を示す図である。図1に示すように、画像処理装置10は、カメラ画像受信部11と、人物領域検出部12と、顔領域検出部13と、背景領域割合判断部14と、背景領域割合判断閾値設定部15と、動作情報判断部16と、画像間相関算出部17と、フローヒストグラム算出部18と、はずれ値除去部19と、画像向き正規化部20と、辞書更新部21とを有する。また、画像処理装置10は、人物領域動作辞書22と、顔領域動作辞書23と、動作情報判断閾値設定部24とを有する。
<Image processing device: Functional configuration>
FIG. 1 is a diagram illustrating an example of a functional configuration of the image processing apparatus according to the first embodiment. As shown in FIG. 1, the image processing apparatus 10 includes a camera image receiving unit 11, a person area detecting unit 12, a face area detecting unit 13, a background area ratio determining unit 14, and a background area ratio determining threshold setting unit 15. The operation information determining unit 16, the inter-image correlation calculating unit 17, the flow histogram calculating unit 18, the outlier value removing unit 19, the image orientation normalizing unit 20, and the dictionary updating unit 21 are included. The image processing apparatus 10 also includes a person area motion dictionary 22, a face area motion dictionary 23, and a motion information determination threshold value setting unit 24.

カメラ画像受信部11は、例えばカメラ等の撮像装置により撮像された複数の画像を取得する。カメラ画像受信部11は、例えば事前に取得した背景画像や人物領域が含まれる画像等を取得する。また、カメラ画像受信部11は、時系列画像を所定の時間間隔で取得する。 The camera image receiving unit 11 acquires a plurality of images captured by an image capturing device such as a camera. The camera image receiving unit 11 acquires, for example, a background image acquired in advance or an image including a person area. The camera image receiving unit 11 also acquires time-series images at predetermined time intervals.

人物領域検出部(検出手段の一例)12は、カメラ画像受信部11から取得した複数の画像から人物領域を検出する。人物領域検出部12は、例えば背景差分や画像処理による人物領域検出方法を用いて人物領域を検出する。人物領域検出部12は、例えば背景差分を用いる場合には、時系列画像等において事前に取得した背景画像と一致している部分を背景領域として判断し、一致していない部分を非背景領域として判断して、その非背景領域を人物領域として判断する。なお、人物領域の検出方法は、これに限定されるものではない。 A person area detection unit (an example of a detection unit) 12 detects a person area from a plurality of images acquired from the camera image reception unit 11. The person area detection unit 12 detects a person area using, for example, a person area detection method based on background difference or image processing. When using the background difference, for example, the person area detection unit 12 determines a portion of the time-series image or the like that matches the background image acquired in advance as a background area, and a portion that does not match the background image as a non-background area. The non-background area is determined as the person area. The method for detecting the person area is not limited to this.

顔領域検出部(検出手段の一例)13は、カメラ画像受信部11により取得した画像から顔領域を検出する。顔領域検出部13は、背景差分や画像処理による顔検出方法を用いることが可能である。顔領域検出部13は、顔検出方法としては、例えばHaar−like特徴による顔検出を用いることが可能であるが、これに限定されるものではない。 The face area detection unit (an example of a detection unit) 13 detects a face area from the image acquired by the camera image reception unit 11. The face area detection unit 13 can use a face detection method based on background difference or image processing. As the face detection method, the face area detection unit 13 can use, for example, face detection based on Haar-like features, but is not limited to this.

この顔検出では、探索領域中で計算対象である矩形中の黒色の領域のピクセル値の和の値から白色の領域のピクセル値の和の値を引いた値であるHaar−like特徴量を用いる。なお、Haar−like特徴による検出では、矩形小領域のピクセル値の和の領域差をBoostingにより作成した識別器で判別するのが一般的である。 In this face detection, a Haar-like feature quantity that is a value obtained by subtracting the sum of the pixel values of the white area from the sum of the pixel values of the black area in the rectangle to be calculated in the search area is used. .. In addition, in the detection by the Haar-like feature, it is general to discriminate the area difference of the sum of the pixel values of the rectangular small areas by a classifier created by Boosting.

上述した矩形の配置場所は、探索領域内のどこに配置しても良いため、探索領域中に数万通りの配置場所の可能性がある。これらに対してBoostingにより探索領域内の各弱識別器を事前学習で重み付けして、重要度が上位の数十個の弱識別器を選択して強識別器を作成する。この強識別器によって(人の顔らしさを示す白黒矩形数パターンによって)、その領域が人の顔領域か判断することが可能である。 Since the above-mentioned rectangular layout location may be located anywhere in the search area, there are tens of thousands of possible layout locations in the search area. With respect to these, each weak classifier in the search area is weighted by pre-learning by Boosting, and dozens of weak classifiers having higher importance are selected to create a strong classifier. With this strong discriminator (a black-and-white rectangular pattern indicating the human face-likeness), it is possible to determine whether the area is a human face area.

背景領域割合判断部14は、カメラ画像受信部11から取得した画像から背景領域と非背景領域の割合を計算し、例えば背景領域が閾値以上か閾値未満か判断する。 The background area ratio determining unit 14 calculates the ratio of the background area and the non-background area from the image acquired from the camera image receiving unit 11, and determines whether the background area is equal to or more than the threshold value or less than the threshold value, for example.

背景領域割合判断閾値設定部(第2の閾値設定手段)15は、背景領域割合判断部14による背景領域割合判断に用いる閾値(第2の閾値)を設定する。背景領域割合判断閾値設定部15は、例えば処理対象としない背景領域の割合を設定する。背景領域割合判断閾値設定部15は、例えば人物の検出精度や処理速度をどの程度優先するか等のバランスを考慮して閾値を設定しても良い。 The background area ratio determination threshold setting unit (second threshold value setting unit) 15 sets a threshold value (second threshold value) used for the background area ratio determination unit 14 to determine the background area ratio. The background area ratio determination threshold setting unit 15 sets, for example, the ratio of the background area not to be processed. The background area ratio determination threshold value setting unit 15 may set the threshold value in consideration of a balance such as, for example, the detection accuracy of a person or the priority of processing speed.

背景領域割合判断閾値設定部15は、例えば処理速度を優先する場合には、人物領域(非背景領域)の割合の閾値を低く設定することで、例えば画像全体から動作情報を算出することが可能となる。この場合には、例えば検出領域の形状に合わせて動作情報が算出されないため、処理量や処理時間を削減することが可能となる。 For example, when giving priority to the processing speed, the background area ratio determination threshold setting unit 15 can calculate the motion information from the entire image by setting the threshold value of the ratio of the human area (non-background area) to be low. Becomes In this case, since the motion information is not calculated according to the shape of the detection area, for example, the processing amount and processing time can be reduced.

また、背景領域割合判断閾値設定部15は、人物の検出精度を優先する場合には、人物領域(非背景領域)の割合の閾値を高く設定する。この場合には、動作情報が算出されるときの処理量や処理時間がかかるが、動作判断の検出精度を向上させることが可能となる。 Further, the background area ratio determination threshold value setting unit 15 sets the threshold value of the ratio of the person area (non-background area) to be high when the detection accuracy of the person is prioritized. In this case, although the processing amount and processing time required when the motion information is calculated, it is possible to improve the detection accuracy of the motion determination.

動作情報判断部(判断手段)16は、人物領域検出部12や顔領域検出部13から得られた画像を画像間相関算出部17やフローヒストグラム算出部18に出力して、画像間相関算出部17やフローヒストグラム算出部18から動作情報を取得する。 The motion information determination unit (determination unit) 16 outputs the images obtained from the person region detection unit 12 and the face region detection unit 13 to the inter-image correlation calculation unit 17 and the flow histogram calculation unit 18, and the inter-image correlation calculation unit. The motion information is acquired from 17 or the flow histogram calculation unit 18.

動作情報判断部16は、画像間相関算出部17やフローヒストグラム算出部18から取得した動作情報と、予め人物領域動作辞書22や顔領域動作辞書23に設定された動作情報(辞書データ)との類似度を算出する。動作情報判断部16は、例えば所定の閾値以上類似していると判断した場合に、人物領域検出部12や顔領域検出部13から得られた人物の画像を実物(実際にその場所にいる人物)であると判断する。別の言い方をすれば、動作情報判断部16は、人物領域検出部12や顔領域検出部13から得られた判定の対象が所定の条件を満たす生体であるか否かを判定する。 The motion information determination unit 16 stores the motion information acquired from the inter-image correlation calculation unit 17 and the flow histogram calculation unit 18 and the motion information (dictionary data) set in the person region motion dictionary 22 and the face region motion dictionary 23 in advance. Calculate the similarity. For example, when the motion information determination unit 16 determines that the images are similar to each other by a predetermined threshold value or more, the motion information determination unit 16 uses the image of the person obtained from the person region detection unit 12 or the face region detection unit 13 as a real image (a person actually at that place). ) Is determined. In other words, the motion information determination unit 16 determines whether the determination target obtained from the person region detection unit 12 or the face region detection unit 13 is a living body that satisfies a predetermined condition.

なお、比較に用いる識別器としては、例えば線形判別分析や相互部分空間法(例えば、堀田政二、「例題ではじめる部分空間法−パターン認識へのいざない−」、日本ロボット学会第69回ロボット工学セミナー、2012年5月22日参照)等を用いることが可能である。また、判断に用いる閾値は、動作情報判断閾値設定部24により変更可能である。 As the discriminator used for comparison, for example, linear discriminant analysis and mutual subspace method (for example, Seiji Hotta, "Subspace Method Starting with an Example-Invitation to Pattern Recognition"), Robotics Society of Japan, 69th Robotics Seminar , May 22, 2012) and the like. In addition, the threshold used for the determination can be changed by the motion information determination threshold setting unit 24.

画像間相関算出部(算出手段の一例)17は、動作情報判断部16から取得した画像に対して、例えば画像間相関値により得られる動作情報を算出する。画像間相関算出部17は、例えば現フレーム画像と前回フレーム画像との差分を取り、その2値化画像において、例えば25次元の局所自己相関特徴量(高次自己相関特徴(HLAC特徴))を求める。25次元とは、例えば次元を2次として変位方向を3×3ピクセルに限定した場合の局所領域内の相関の総和である。2値動画像のHLAC特徴の変位ベクトルの組み合わせは平行移動で等価になるものを除き、0次が1個、1次が4個、2次が20個の計25次元のベクトルとして表される。 The inter-image correlation calculation unit (an example of a calculation unit) 17 calculates the motion information obtained from, for example, the inter-image correlation value for the image acquired from the motion information determination unit 16. The inter-image correlation calculation unit 17 takes, for example, the difference between the current frame image and the previous frame image, and in the binarized image, for example, calculates the 25-dimensional local autocorrelation feature amount (higher-order autocorrelation feature (HLAC feature)). Ask. The 25th dimension is, for example, the total sum of correlations in the local area when the dimension is quadratic and the displacement direction is limited to 3×3 pixels. The combination of the displacement vectors of the HLAC features of the binary moving image is represented as a total of 25-dimensional vectors, one of which is the 0th order, four of which is the second order and 20 of which is the second order, except for those which are equivalent by translation. ..

また、画像間相関算出部17は、更に時系列にも相関を取ることで全251次元のベクトルを算出し、これを動作情報とする。251次元とは、例えば次元を2次として、3×3×3ピクセルに限定した場合の局所領域内の相関の総和である。平行移動で等価になるものを除き、2値動画像からの立体高次自己相関特徴(CHLAC特徴)の変位ベクトルの組み合わせの数は、0次が1個、1次が13個、2次が237個であり、合計251次元のベクトルとして表される。 In addition, the inter-image correlation calculation unit 17 further calculates time-series correlations to calculate all 251-dimensional vectors, and uses them as motion information. The 251 dimension is the total sum of correlations in the local region when the dimension is quadratic and limited to 3×3×3 pixels. The number of combinations of displacement vectors of the stereoscopic higher-order autocorrelation feature (CHLAC feature) from the binary moving image is 1 for the 0th order, 13 for the 1st order, and 2 for the 2nd order There are 237, which are expressed as a total of 251 dimensional vectors.

なお、前者の25次元の情報は、差分画像中の相関であり、後者の情報は1つ前の差分画像と1つ後の差分画像との相関である。画像間相関算出部17は、この2つの情報を用いて、251次元の情報量を算出する(例えば、今西秀聡他、「CHLAC特徴と部分空間法を用いた不審行動の検出」、情報処理学会研究報告2012等を参照)。 The former 25-dimensional information is the correlation in the difference image, and the latter information is the correlation between the previous difference image and the next difference image. The inter-image correlation calculation unit 17 calculates the amount of 251 dimensional information using these two pieces of information (for example, Hideaki Imanishi et al., “Detection of suspicious behavior using CHLAC feature and subspace method”, information processing). See Academic Research Report 2012 etc.).

フローヒストグラム算出部(算出手段の一例)18は、動作情報判断部16から取得した画像に対して、例えばブロックマッチングにより動作情報を算出する。フローヒストグラム算出部18は、ブロックマッチングにより現フレーム画像内で前回フレーム画像の小領域が移動したかを算出する。各領域の動きは、例えばベクトルで表される。 The flow histogram calculation unit (an example of a calculation unit) 18 calculates motion information for the image acquired from the motion information determination unit 16 by, for example, block matching. The flow histogram calculation unit 18 calculates whether the small area of the previous frame image has moved within the current frame image by block matching. The movement of each area is represented by, for example, a vector.

例えば、フローヒストグラム算出部18は、ブロックマッチングを用いて、動作情報判断部16から取得した複数の画像に含まれる小領域毎の動きを示すベクトル情報であるオプティカルフローを動作情報として算出する。 For example, the flow histogram calculation unit 18 calculates the optical flow, which is vector information indicating the movement of each small area included in the plurality of images acquired from the motion information determination unit 16, as the motion information using block matching.

なお、ブロックマッチングは一例であり、例えば勾配法等による動きベクトル計算方法を用いても良い(例えば、東京工業大学 長橋宏、「画像解析論(7)」、http://www.isl.titech.ac.jp/〜nagahashilab/member/longb/imageanalysis/LectureNotes/ImageAnalysis07.pdf、P17−18等を参照)。フローヒストグラム算出部18は、取得したベクトルを勾配方向別にヒストグラム化したものを動作情報とする。 Note that block matching is an example, and a motion vector calculation method such as a gradient method may be used (for example, Hiroshi Nagahashi, Tokyo Institute of Technology, “Image Analysis Theory (7)”, http://www.isl.titch). .Ac.jp/ to Nagahashilab/member/longb/imageanalysis/LecterNotes/ImageAnalysis07.pdf, P17-18, etc.). The flow histogram calculation unit 18 uses the obtained vector as a histogram for each gradient direction as operation information.

はずれ値除去部19は、抽出領域の画素毎のオプティカルフローから、オプティカルフローの大きさの分散を算出し、分散が一定倍以上の大きさのオプティカルフローを除去する。ここで、分散が一定倍以上の大きさのオプティカルフローをはずれ値という(例えば、広島市立大 画像メディア工学特論、http://www.ime.info.hiroshima−cu.ac.jp/〜hiura/lec/ime/2010/5.pdf、P19−21等を参照)。 The outlier value removal unit 19 calculates the variance of the magnitude of the optical flow from the optical flow of each pixel in the extraction region, and removes the optical flow whose variance is equal to or greater than a certain value. Here, an optical flow having a variance of a certain value or more is called an outlier (for example, Hiroshima City University Image Media Engineering Special Thesis, http://www.ime.info.hiroshima-cu.ac.jp/~hiura). /Lec/ime/2010/5.pdf, P19-21, etc.).

なお、オプティカルフローとは、例えば時間的に連続した画像データのある物体が移動することにより発生する画素の輝度値の変化等から得られる各画素の速度ベクトルである。このような速度ベクトルを用いて、動体を検知することが可能である。 The optical flow is, for example, a velocity vector of each pixel obtained from a change in the luminance value of the pixel caused by the movement of an object having temporally continuous image data. It is possible to detect a moving body using such a velocity vector.

画像向き正規化部20は、画像領域内から予めターゲットとして指定している特徴点を複数検出する。画像向き正規化部20は、この特徴点を予め用意している3次元モデルにマッピングし、正面を向かせることで画像向き(撮影対象の向き)を正規化する。画像向き正規化部20は、カメラ画像受信部11から入力される画像だけでなく、人物領域動作辞書22や顔領域動作辞書23に正面を向いていないデータがある場合にその画像を正規化しても良い。 The image orientation normalization unit 20 detects a plurality of feature points designated in advance as targets in the image area. The image orientation normalization unit 20 maps the feature points to a three-dimensional model prepared in advance, and normalizes the image orientation (the orientation of the imaging target) by facing the front. The image orientation normalizing unit 20 normalizes not only the image input from the camera image receiving unit 11 but also the image when the person area motion dictionary 22 or the face area motion dictionary 23 has data that does not face the front. Is also good.

辞書更新部(更新手段)21は、動作情報判断部16で実物と判断された後、例えば複合認証によるパスワード入力等で確実に写真ではないと判断した場合、実物判断時の動作情報を用いて辞書データを更新する。また、辞書更新部21は、人物領域の動作情報が用いられる場合には人物領域動作辞書22の辞書データを更新する。辞書更新部21は、顔領域の動作情報が用いられる場合には顔領域動作辞書23の辞書データを更新する。 The dictionary updating unit (updating means) 21 uses the operation information at the time of determining the actual object when the operation information determining unit 16 determines that the image is a real object, and then when it is surely not a photograph, for example, by password input by compound authentication. Update the dictionary data. In addition, the dictionary updating unit 21 updates the dictionary data of the person area movement dictionary 22 when the movement information of the person area is used. The dictionary update unit 21 updates the dictionary data of the face area motion dictionary 23 when the motion information of the face area is used.

また、辞書更新部21は、動作情報判断部16で用いる識別器に応じて、事前に識別用に変換して辞書データを更新しても良い。このように、辞書データを更新することで、撮影環境に対応した辞書を得ることが可能となり、動作情報判断部16による実物判断における精度を向上させることが可能となる。 Further, the dictionary updating unit 21 may update the dictionary data by performing conversion for identification in advance according to the discriminator used by the motion information determining unit 16. In this way, by updating the dictionary data, it is possible to obtain a dictionary that corresponds to the shooting environment, and it is possible to improve the accuracy of the actual information determination by the motion information determination unit 16.

人物領域動作辞書22は、予め学習しておいた人物領域の動作情報(辞書データ)を格納する。なお、人物領域動作辞書22は、例えば人物画像を撮影している状況下で取得される動作情報により作成される。人物領域動作辞書22は、動作情報判断部16で用いる識別器に対応させて事前に識別器用に変換しても良い。例えば、識別器が制約部分空間法の場合には、事前変換として一般化差分部分空間に射影する(例えば、福井和広、「部分空間法と識別器」、第13回画像センシングシンポジウム、2007年6月7日等を参照)。 The person area motion dictionary 22 stores the movement information (dictionary data) of the person area learned in advance. The person area motion dictionary 22 is created, for example, from motion information acquired under the situation of photographing a person image. The person area motion dictionary 22 may be converted in advance for the discriminator in association with the discriminator used in the motion information determination unit 16. For example, when the discriminator is the constrained subspace method, it is projected to the generalized difference subspace as a prior transformation (for example, Kazuhiro Fukui, “Subspace method and discriminator”, 13th Image Sensing Symposium, 2007, 6). See the 7th of the month).

顔領域動作辞書23は、予め学習しておいた顔領域の動作情報(辞書データ)を格納する。顔領域動作辞書23は、顔画像を撮影している状況下で取得される動作情報により作成される。顔領域動作辞書23は、動作情報判断部16で用いる識別器に対応させて事前に識別器用に変換しても良い。 The face area motion dictionary 23 stores the face area motion information (dictionary data) that has been learned in advance. The face area motion dictionary 23 is created based on motion information acquired under the situation where a face image is captured. The face area action dictionary 23 may be converted in advance for the discriminator in association with the discriminator used in the action information determination unit 16.

動作情報判断閾値設定部(第1の閾値設定手段)24は、カメラ画像受信部11により取得した画像に含まれる人物領域や顔領域の人物が実物か動作情報判断部16により判断するときの閾値(第1の閾値)を設定する。動作情報判断閾値設定部24は、例えばユーザの操作により閾値を設定したり変更したりすることが可能である。動作情報判断閾値設定部24は、撮影対象との距離や照明の有無等のユーザの撮影環境等に対応させて適切な閾値を設定することで、動作情報判断部16の実物判断における精度を向上させることが可能となる。 The motion information determination threshold value setting unit (first threshold value setting unit) 24 is a threshold value used by the motion information determination unit 16 to determine whether the person area or the face area person included in the image acquired by the camera image reception unit 11 is a real person. (First threshold value) is set. The motion information determination threshold value setting unit 24 can set or change the threshold value by a user operation, for example. The motion information determination threshold value setting unit 24 improves the accuracy of the motion information determination unit 16 in the physical determination by setting an appropriate threshold value in accordance with the user's shooting environment such as the distance to the shooting target and the presence or absence of lighting. It becomes possible.

<画像処理装置10:ハードウェア構成>
図2は、第1の実施形態に係る画像処理装置のハードウェア構成の例を示す図である。図2に示す画像処理装置10は、例えば操作部31と、ROM(Read Onry Memory)32と、RAM(Random Access Memory)33と、CPU(Central Processing Unit)34と、カメラ35等を有する。
<Image processing device 10: hardware configuration>
FIG. 2 is a diagram illustrating an example of the hardware configuration of the image processing apparatus according to the first embodiment. The image processing apparatus 10 illustrated in FIG. 2 includes, for example, an operation unit 31, a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, a CPU (Central Processing Unit) 34, and a camera 35.

操作部31は、例えばキーボード、マウス、タッチパネル等で実現される。操作部31は、例えばユーザ等による各種操作を受け付ける。 The operation unit 31 is realized by, for example, a keyboard, a mouse, a touch panel, or the like. The operation unit 31 receives various operations performed by, for example, a user.

ROM32は、電源を切ってもプログラムやデータを保持可能な不揮発性の半導体メモリ(記憶装置)である。ROM32には、画像処理装置10の起動時に実行されるBIOS(Basic Input/Output System)、OS(Operation System)設定、及びネットワーク設定等のプログラムやデータを格納する。RAM33は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。 The ROM 32 is a non-volatile semiconductor memory (storage device) that can retain programs and data even when the power is turned off. The ROM 32 stores programs and data such as BIOS (Basic Input/Output System), OS (Operation System) settings, and network settings that are executed when the image processing apparatus 10 is started. The RAM 33 is a volatile semiconductor memory (storage device) that temporarily holds programs and data.

CPU34は、ROM32やRAM33等の記憶装置からプログラムやデータをRAM33上に読み出し、処理を実行することで画像処理装置10全体の制御や機能を実現する演算装置である。 The CPU 34 is an arithmetic device that realizes control and functions of the entire image processing apparatus 10 by reading programs and data from a storage device such as the ROM 32 and the RAM 33 onto the RAM 33 and executing processing.

カメラ35は、顔認識する人物を撮像するように設けられる撮像装置の一例である。カメラ35は、例えばデジタルカメラ等であり、画像や映像を取得することが可能であるが、これに限定されるものではない。 The camera 35 is an example of an image pickup apparatus provided to pick up an image of a person whose face is recognized. The camera 35 is, for example, a digital camera or the like and is capable of acquiring images and videos, but is not limited to this.

画像処理装置10は、上述したハードウェア構成により、後述する各種処理を実現することが可能となる。 The image processing apparatus 10 can realize various processes described later by the above hardware configuration.

<人物領域の動作情報による実物判断処理>
図3は、第1の実施形態に係る人物領域の動作情報による実物判断処理の例を示すフローチャートである。図3の例では、人物領域の動作情報を用いてカメラ35により撮像された判定の対象が実物か否(例えば、写真)かを判断する。別の言い方をすれば、カメラ35により撮像された判定の対象が所定の条件を満たす生体であるか否かを人物領域の動作情報に基づいて判断する。
<Actual judgment processing based on motion information of person area>
FIG. 3 is a flowchart showing an example of an actual object determination process based on motion information of a person area according to the first embodiment. In the example of FIG. 3, it is determined whether or not the determination target imaged by the camera 35 is a real object (for example, a photograph) using the motion information of the person area. In other words, it is determined based on the motion information of the person area whether or not the determination target imaged by the camera 35 is a living body that satisfies a predetermined condition.

図3の例に示すように、画像処理装置10は、カメラ画像受信部11により事前に人物がいない状況で画像を取得すると(S10)、その画像を背景画像とする。また、画像処理装置10は、カメラ画像受信部11により画像を取得すると(S11)、人物領域検出部12により事前に取得した背景画像と、S11の処理で取得した画像とに差分があるか判断する(S12)。 As shown in the example of FIG. 3, when the image processing apparatus 10 acquires an image by the camera image receiving unit 11 in advance in the absence of a person (S10), the image is set as a background image. Further, when the image processing apparatus 10 acquires an image by the camera image receiving unit 11 (S11), the image processing apparatus 10 determines whether or not there is a difference between the background image acquired in advance by the person area detecting unit 12 and the image acquired in the process of S11. Yes (S12).

人物領域検出部12は、背景画像と差分があると判断すると(S12において、YES)、その差分領域を人物領域として検出する(S13)。なお、人物領域検出部12は、背景画像と差分がないと判断すると(S12において、NO)、S11の処理に戻る。 When the person area detection unit 12 determines that there is a difference from the background image (YES in S12), the person area detection unit 12 detects the difference area as a person area (S13). If the person area detection unit 12 determines that there is no difference from the background image (NO in S12), the process returns to S11.

次に、画像処理装置10は、前回フレーム画像に人物領域があったか判断する(S14)。画像処理装置10は、前回フレーム画像に人物領域があったと判断すると(S14において、YES)、画像間相関算出部17又はフローヒストグラム算出部18により動作情報を算出する(S15)。なお、画像処理装置10は、前回フレーム画像に人物領域がなかったと判断すると(S14において、NO)、S11の処理に戻る。 Next, the image processing apparatus 10 determines whether or not there was a person area in the previous frame image (S14). When the image processing apparatus 10 determines that the previous frame image has a human region (YES in S14), the inter-image correlation calculation unit 17 or the flow histogram calculation unit 18 calculates motion information (S15). If the image processing apparatus 10 determines that there is no human area in the previous frame image (NO in S14), the process returns to S11.

S15の処理では、画像間相関算出部17又はフローヒストグラム算出部18は、例えば、S13の処理で人物領域が検出された現フレーム画像と前回フレーム画像とを用いて動作情報を算出する。 In the process of S15, the inter-image correlation calculation unit 17 or the flow histogram calculation unit 18 calculates the motion information using, for example, the current frame image in which the human region is detected in the process of S13 and the previous frame image.

或いは、フローヒストグラム算出部18は、現フレーム画像と前回フレーム画像に限定せず、人物領域が検出された複数の画像に含まれる小領域毎の動きを示すベクトル情報であるオプティカルフローを動作情報として算出するもの等であっても良い。 Alternatively, the flow histogram calculation unit 18 does not limit to the current frame image and the previous frame image, but uses the optical flow, which is vector information indicating the movement of each small area included in the plurality of images in which the person area is detected, as the operation information. It may be calculated or the like.

このように、画像間相関算出部17又はフローヒストグラム算出部18は、人物領域の画像が時系列に複数枚取得できた場合に動作情報を算出する。 In this way, the inter-image correlation calculation unit 17 or the flow histogram calculation unit 18 calculates the motion information when a plurality of images of the person area can be acquired in time series.

次に、画像処理装置10は、S15の処理で算出された動作情報を用いて、動作情報判断部16により現フレーム画像から検出された人物領域の人物が実物か(実際にその場所にいる人物か)判断する(S16)。S16の処理では、動作情報判断部16は、S15の処理で算出された動作情報と、人物領域動作辞書22に格納された動作情報(辞書データ)との類似度を算出して実物か判断する。 Next, the image processing device 10 uses the motion information calculated in the process of S15 to determine whether the person in the person area detected from the current frame image by the motion information determination unit 16 is a real person (a person actually at that place). It is determined (S16). In the process of S16, the motion information determination unit 16 calculates the similarity between the motion information calculated in the process of S15 and the motion information (dictionary data) stored in the person region motion dictionary 22 to determine whether it is a real object. ..

動作情報判断部16は、S15の処理で算出された動作情報と、人物領域動作辞書22の辞書データとの類似度が所定の閾値以上であると判断した場合には(S16において、YES)、現フレーム画像の人物領域の人物を実物として判断する(S17)。別の言い方をすれば、動作情報判断部16は、撮像された判定の対象が所定の条件を満たす生体であると判定する。動作情報判断部16は、所定の閾値未満であると判断した場合には(S16において、NO)、写真として判断し(S18)、処理を終了する。別の言い方をすれば、動作情報判断部16は、撮像された判定の対象が所定の条件を満たす生体ではないと判定する。 When the motion information determination unit 16 determines that the similarity between the motion information calculated in the process of S15 and the dictionary data of the person area motion dictionary 22 is equal to or more than a predetermined threshold value (YES in S16), A person in the person area of the current frame image is determined as a real person (S17). In other words, the motion information determination unit 16 determines that the imaged determination target is a living body that satisfies a predetermined condition. If the motion information determination unit 16 determines that it is less than the predetermined threshold value (NO in S16), it determines that it is a photograph (S18), and ends the process. In other words, the motion information determination unit 16 determines that the imaged determination target is not a living body that satisfies a predetermined condition.

<人物領域が検出されるまでのイメージ>
図4は、第1の実施形態に係る人物領域が検出されるまでのイメージ図である。図4(A)は、事前に取得した背景画像の一例を示し、図4(B)は、カメラ35により得られる画像の一例を示す。図4(C)は、人物領域として検出された差分領域の一例を示す。
<Image until human area is detected>
FIG. 4 is an image diagram until the person area according to the first embodiment is detected. FIG. 4A shows an example of a background image acquired in advance, and FIG. 4B shows an example of an image obtained by the camera 35. FIG. 4C shows an example of the difference area detected as the person area.

図4(A)に示す背景画像と図4(B)に示す画像とを用いて、例えば背景差分により人物領域を検出する例について説明する。人物領域検出部12は、例えば図4(A)に示す背景画像の各ピクセルの輝度値の値を、図4(B)に示す画像の各ピクセルから除算して絶対値を算出する。 An example of detecting a person area based on, for example, the background difference will be described using the background image shown in FIG. 4A and the image shown in FIG. 4B. The person area detection unit 12 calculates the absolute value by dividing the value of the luminance value of each pixel of the background image shown in FIG. 4A from each pixel of the image shown in FIG. 4B, for example.

図4(A)に示す背景画像と図4(B)に示す画像とが、例えば2ピクセル×2ピクセルのグレー画像(値は256階調の輝度値)とする。ここで、図4(A)に示す背景画像において「一列目のピクセルが50、150で、2列目のピクセルが200、3」とし、図4(B)に示す画像において「一列目のピクセルが120、35、2列目のピクセルが10、150」とする。 The background image shown in FIG. 4A and the image shown in FIG. 4B are gray images of 2 pixels×2 pixels (values are luminance values of 256 gradations), for example. Here, in the background image shown in FIG. 4A, "pixels in the first column are 50 and 150, and pixels in the second column are 200 and 3", and in the image shown in FIG. Is 120, 35, and the pixels in the second column are 10, 150".

このとき、図4(C)に示す差分画像において、例えば「一列目のピクセルが70、115、2列目のピクセルが190、147」となる。この差分画像は、そのまま利用することも可能であり、差分画像で所定以上の値(背景と差分がある)を有する領域の値のみ利用することも可能である。 At this time, in the difference image shown in FIG. 4C, for example, “pixels in the first column are 70, 115, pixels in the second column are 190, 147”. This difference image can be used as it is, or it is also possible to use only the value of an area having a value (having a difference from the background) of a predetermined value or more in the difference image.

<動作情報を用いた実物判断>
図5は、第1の実施形態に係る人物領域の動作情報を用いた実物判断について説明する図である。図5(A)は、複数枚の人物領域の画像から算出された動作情報のイメージ図を示す。図5(B)は、現フレーム画像の輝度値の一例を示し、図5(C)は、前回フレーム画像における注目ブロックの輝度値の一例を示す。また、図5(D)は、算出された動作情報と人物領域動作辞書22の辞書データとの比較を説明する図である。
<Actual judgment using motion information>
FIG. 5 is a diagram illustrating an actual determination using motion information of a person area according to the first embodiment. FIG. 5A shows an image diagram of motion information calculated from images of a plurality of person areas. 5B shows an example of the brightness value of the current frame image, and FIG. 5C shows an example of the brightness value of the target block in the previous frame image. Further, FIG. 5D is a diagram illustrating a comparison between the calculated motion information and the dictionary data of the person area motion dictionary 22.

図5(A)の例では、複数枚の人物領域の画像から算出された動作情報として、内積によるブロックマッチングを用いて得られたオプティカルフローを矢印で表している。図5(B)に示す現フレーム画像と、図5(C)に示す前回フレーム画像とを用いて、図5(A)に示すオプティカルフローを算出するまでの具体例について説明する。なお、図5(B)と図5(C)の例では、例えば3ピクセル×3ピクセルのブロックサイズを用いた例を示している。 In the example of FIG. 5A, the optical flow obtained by using the block matching by the inner product is represented by an arrow as the motion information calculated from the images of the plurality of person regions. A specific example until the optical flow shown in FIG. 5A is calculated using the current frame image shown in FIG. 5B and the previous frame image shown in FIG. 5C will be described. 5B and 5C show an example in which a block size of 3 pixels×3 pixels is used, for example.

図5(B)に示すように、現フレーム画像のうち計算対象となるブロックには輝度値が示されている。また、現フレーム画像のうち、図5(B)に示す「●」は、図5(C)に示す前回フレーム画像のうち注目ブロックの輝度値「90」に対応している。 As shown in FIG. 5B, the brightness value is shown in the block to be calculated in the current frame image. Further, in the current frame image, “●” shown in FIG. 5B corresponds to the luminance value “90” of the target block in the previous frame image shown in FIG. 5C.

例えば、フローヒストグラム算出部18は、図5(C)に示す前回フレーム画像の注目ブロックが、現フレーム画像内のどこに移動したかを算出するため、例えば式1を用いて図5(B)に示す計算対象のブロックと内積計算を行う。 For example, the flow histogram calculation unit 18 calculates where the block of interest of the previous frame image shown in FIG. 5C has moved within the current frame image. The inner product is calculated with the block to be calculated.

例えば式1における「a」は、図5(B)に示す行列を示し、式1における「b」は、図5(C)に示す行列を示している。 For example, “a” in Expression 1 indicates the matrix shown in FIG. 5B, and “b” in Expression 1 indicates the matrix shown in FIG. 5C.

フローヒストグラム算出部18は、上述した2つの行列の内積を用いて角度(cosθ)を算出し、算出した値を2つのブロックの類似度とする。図5(B)〜図5(C)の例では、例えばcosθ=0.8503となる。 The flow histogram calculation unit 18 calculates the angle (cos θ) using the inner product of the two matrices described above, and sets the calculated value as the similarity between the two blocks. In the example of FIGS. 5B to 5C, for example, cos θ=0.8503.

このように「cosθ」を用いた場合に、2つのブロックの類似度が高ければ「1.0」に近づき、2つのブロックの類似度が低いほど「0.0」に近づく。したがって、図5(C)に示す前回フレーム画像の注目ブロックの位置が、図5(B)に示す現フレーム画像において近傍にあり最も類似度が高い位置が、図5(C)に示す注目ブロックが移動した位置となる。 As described above, when “cos θ” is used, if the two blocks have a high similarity, the value approaches “1.0”, and as the two blocks have a lower similarity, the values approach “0.0”. Therefore, the position of the block of interest of the previous frame image shown in FIG. 5C is in the vicinity in the current frame image shown in FIG. 5B, and the position with the highest similarity is the block of interest shown in FIG. 5C. Is the moved position.

例えば、図5(B)及び図5(C)の例では、移動距離は、x軸方向に「−3」となり、y軸方向に「+4」となるため、オプティカルフローは、(−3,4)となる。 For example, in the example of FIG. 5B and FIG. 5C, the movement distance is “−3” in the x-axis direction and “+4” in the y-axis direction, so the optical flow is (−3, 4).

次に、動作情報判断部16は、上述した動作情報のベクトルを主成分分析し、人物領域動作辞書22の辞書データと、図5(D)に示す部分空間法を用いて比較し、類似度を算出する。図5(D)の例では、一方が入力部分空間を示し、もう一方が辞書データの部分空間を示している。 Next, the motion information determination unit 16 performs a principal component analysis on the above-described motion information vector and compares it with the dictionary data of the person region motion dictionary 22 using the subspace method shown in FIG. To calculate. In the example of FIG. 5D, one shows the input subspace and the other shows the subspace of the dictionary data.

ここで、部分空間同士の角度が小さいほど類似度が高くなる。そこで、動作情報判断部16は、例えば閾値を「10°」と設定していた場合に、部分空間同士の角度が10°未満の場合には、算出された動作情報を人物動作であると判断し、部分空間同士の角度が10°以上の場合は算出された動作情報を実物ではない(写真)と判断する。 Here, the smaller the angle between the subspaces, the higher the degree of similarity. Therefore, for example, when the threshold is set to “10°” and the angle between the subspaces is less than 10°, the motion information determination unit 16 determines that the calculated motion information is a human motion. However, when the angle between the subspaces is 10° or more, it is determined that the calculated motion information is not a real object (photograph).

上述した類似度は、部分空間同士の角度である正準角を用いる。例えばm次元部分空間Pとn次元部分空間Qとの間にはn個(m≧n)定義することが可能である。また、正準角(n個の正準角θi)は、例えば式2及び式3を用いて算出する。 The above-mentioned similarity uses a canonical angle which is an angle between subspaces. For example, it is possible to define n (m≧n) between the m-dimensional subspace P and the n-dimensional subspace Q. Further, the canonical angles (n canonical angles θi) are calculated using, for example, Equations 2 and 3.

また、類似度は、上述した正準角により式4を用いて算出する。 The degree of similarity is calculated by using the above canonical angle and Expression 4.

ここで、例えば入力部分空間における基底ベクトル1が式5、基底ベクトル2が式6、辞書データの部分空間における基底ベクトル1が式7、基底ベクトル2が式8で表される場合について説明する。 Here, a case will be described in which, for example, the basis vector 1 in the input subspace is represented by Equation 5, the basis vector 2 is represented by Equation 6, the basis vector 1 in the dictionary data subspace is represented by Equation 7, and the basis vector 2 is represented by Equation 8.

上述した場合には、入力部分空間における基底ベクトル2と辞書データの部分空間における基底ベクトル1とを用いて求めると、「cosθ=0.9412」となる。また、入力部分空間における基底ベクトル1と辞書データの部分空間における基底ベクトル2とを用いて求めると、「cosθ=0.0917」となる。ここから、類似度は、「0.5165」として算出される。 In the above-mentioned case, when calculated using the basis vector 2 in the input subspace and the basis vector 1 in the subspace of the dictionary data, “cos 2 θ 1 =0.9412” is obtained. Further, when calculated using the basis vector 1 in the input subspace and the basis vector 2 in the subspace of the dictionary data, “cos 2 θ 1 =0.0917” is obtained. From this, the degree of similarity is calculated as “0.5165”.

動作情報判断部16は、上述のように算出された類似度が所定の閾値以上であると判断した場合には、現フレーム画像の人物領域の人物が実物であると判断する。 When it is determined that the degree of similarity calculated as described above is equal to or greater than a predetermined threshold value, the motion information determination unit 16 determines that the person in the person area of the current frame image is a real person.

なお、上述した例は、辞書データとの類似度から人物動作を判断したが、人物動作でない例を数クラスに分けて学習させておくことで、分類されるクラスにより人物動作か(人物動作でないか)判断しても良い。 In the above example, the human motion is judged from the similarity to the dictionary data. However, if the non-human motion is divided into several classes and learned, it is determined whether the human motion is a human motion according to the classified class. You may decide.

<顔領域の動作情報による実物判断処理>
図6は、第1の実施形態に係る顔領域の動作情報による実物判断処理の例を示すフローチャートである。図6の例では、人物の顔検出により顔領域を抽出して、顔領域の動作情報を用いてカメラ35により撮像された判定の対象が実物か否(例えば、写真)かを判断する。別の言い方をすれば、カメラ35により撮像された判定の対象が所定の条件を満たす生体であるか否かを顔領域の動作情報に基づいて判断する。
図6の処理は、図3の処理と比較して、事前に背景画像を取得しない点で異なる。
<Real judgment processing based on motion information of face area>
FIG. 6 is a flowchart showing an example of the actual object determination process based on the motion information of the face area according to the first embodiment. In the example of FIG. 6, the face area is extracted by detecting the face of a person, and it is determined whether the target of the determination captured by the camera 35 is a real object (for example, a photograph) by using the motion information of the face area. In other words, it is determined based on the motion information of the face area whether or not the determination target imaged by the camera 35 is a living body that satisfies a predetermined condition.
The process of FIG. 6 is different from the process of FIG. 3 in that a background image is not acquired in advance.

図6に示すように、画像処理装置10は、カメラ画像受信部11により画像を取得すると(S20)、顔領域検出部13により顔領域を検出したか判断する(S21)。画像処理装置10は、顔領域検出部13により顔領域を検出したと判断すると(S21において、YES)、検出した顔領域を切り出す(S22)。なお、顔領域検出部13は、顔領域を検出していないと判断すると(S21において、NO)、S20の処理に戻る。 As shown in FIG. 6, when the camera image receiving unit 11 acquires an image (S20), the image processing apparatus 10 determines whether the face area detecting unit 13 has detected a face area (S21). When the image processing apparatus 10 determines that the face area is detected by the face area detection unit 13 (YES in S21), the detected face area is cut out (S22). If the face area detection unit 13 determines that the face area is not detected (NO in S21), the process returns to S20.

次に、画像処理装置10は、前回フレーム画像に顔領域があったか判断する(S23)。画像処理装置10は、前回フレーム画像に顔領域があったと判断すると(S23において、YES)、画像間相関算出部17又はフローヒストグラム算出部18により動作情報を算出する(S24)。また、画像処理装置10は、前回フレーム画像に顔領域がなかったと判断すると(S23において、NO)、S20の処理に戻る。 Next, the image processing device 10 determines whether or not there was a face area in the previous frame image (S23). When the image processing apparatus 10 determines that the face area was present in the previous frame image (YES in S23), the inter-image correlation calculation unit 17 or the flow histogram calculation unit 18 calculates motion information (S24). If the image processing apparatus 10 determines that there is no face area in the previous frame image (NO in S23), the process returns to S20.

次に、画像処理装置10は、S24の処理で算出された動作情報を用いて、動作情報判断部16により現フレーム画像から検出された顔領域の人物が実物か判断する(S25)。S25の処理では、動作情報判断部16は、S24の処理で算出された動作情報と、顔領域動作辞書23に格納された辞書データとの類似度を算出して実物か判断する。 Next, the image processing apparatus 10 determines whether the person in the face area detected from the current frame image by the motion information determination unit 16 is a real person by using the motion information calculated in the process of S24 (S25). In the process of S25, the motion information determination unit 16 calculates the similarity between the motion information calculated in the process of S24 and the dictionary data stored in the face area motion dictionary 23 to determine whether the motion information is a real product.

動作情報判断部16は、S24の処理で算出された動作情報と、顔領域動作辞書23の辞書データとの類似度が所定の閾値以上であると判断した場合には(S25において、YES)、現フレーム画像の顔領域の人物を実物として判断する(S26)。別の言い方をすれば、動作情報判断部16は、撮像された判定の対象が所定の条件を満たす生体であると判定する。動作情報判断部16は、所定の閾値未満であると判断した場合には(S25において、NO)、現フレーム画像の顔領域の人物を写真として判断して(S27)、処理を終了する。 When the motion information determination unit 16 determines that the similarity between the motion information calculated in S24 and the dictionary data of the face area motion dictionary 23 is equal to or more than a predetermined threshold value (YES in S25), The person in the face area of the current frame image is determined as a real person (S26). In other words, the motion information determination unit 16 determines that the imaged determination target is a living body that satisfies a predetermined condition. If it is determined that the motion information determination unit 16 is less than the predetermined threshold value (NO in S25), the motion information determination unit 16 determines that the person in the face area of the current frame image is a photograph (S27), and ends the process.

上述した顔領域の検出の場合には、例えば照明等による画像全体のちらつきや、背景か非背景か等のテクスチャの影響に左右されずに処理を行うことが可能となる。 In the case of detecting the face area described above, the processing can be performed without being affected by the flicker of the entire image due to, for example, illumination or the like, or the influence of the texture such as the background or the non-background.

<顔領域から動作情報が算出されるまでのイメージ>
図7は、第1の実施形態に係る顔領域から動作情報が算出されるまでのイメージ図である。図7(A)は、カメラにより得られる画像の一例を示し、図7(B)は、検出された顔領域の一例を示す。図7(C)は、複数枚の顔領域の画像から算出された動作情報のイメージ図を示す。
<Image until motion information is calculated from face area>
FIG. 7 is an image diagram until the motion information is calculated from the face area according to the first embodiment. FIG. 7A shows an example of an image obtained by the camera, and FIG. 7B shows an example of a detected face area. FIG. 7C is an image diagram of motion information calculated from a plurality of images of the face area.

顔領域検出部13は、例えばテンプレートマッチングを用いて、図7(A)に示す画像から図7(B)に示す顔領域を検出する。顔領域検出部13は、図5の動作情報の計算と同様に、予め保持している顔画像のテンプレート(例えばグレースケール画像で11ピクセル×11ピクセル)と、図7(A)に示す画像(例えば22ピクセル×37ピクセル)とのそれぞれの輝度値(256階調)を用いて内積計算を行う。 The face area detection unit 13 detects the face area shown in FIG. 7B from the image shown in FIG. 7A by using, for example, template matching. Similarly to the calculation of the motion information in FIG. 5, the face area detection unit 13 holds a template of a face image that is held in advance (for example, 11 pixels×11 pixels in a grayscale image) and the image shown in FIG. For example, the inner product calculation is performed using the respective brightness values (256 gradations) of 22 pixels×37 pixels).

顔領域検出部13は、上述した式1を用いて、上述した顔画像のテンプレートと、図7(A)に示す画像とから得られる2つの行列の内積により角度(cosθ)を算出し、この角度を類似度とする。例えば、上述した式1における「a」は、図7(A)に示す画像中の各検索領域を示し、例えば式1における「b」は、顔画像のテンプレートとなる。 The face area detection unit 13 calculates the angle (cos θ) by the inner product of two matrices obtained from the above-described face image template and the image shown in FIG. The angle is the similarity. For example, “a” in Expression 1 described above indicates each search area in the image shown in FIG. 7A, and, for example, “b” in Expression 1 is a template of a face image.

上述したように、「cosθ」を用いた場合に、類似度が高ければ「1.0」に近づき、類似度が低いほど「0.0」に近づくため、顔領域検出部13は、予め設定した閾値以上の領域を顔画像として検出する。 As described above, when “cos θ” is used, the closer the similarity is to “1.0”, and the lower the similarity is to “0.0”. Therefore, the face area detecting unit 13 sets in advance. An area equal to or larger than the threshold value is detected as a face image.

なお、図7(A)に示す画像中に顔画像が複数存在する場合を考慮して、ローカルピークを計算しても良く。また、上述したHaar−like特徴による顔検出を用いる等、他の顔検出方法を用いることも可能である。 The local peak may be calculated in consideration of the case where a plurality of face images are present in the image shown in FIG. It is also possible to use another face detection method such as the face detection based on the Haar-like feature described above.

上述した図7(B)に示す顔領域の画像(顔領域検出部13により検出された顔領域から切り取られた画像)と、前回フレーム画像における顔領域の画像とにより算出された動作情報を用いて、図7(C)に示すオプティカルフローを得ることが可能となる。 The motion information calculated from the image of the face area shown in FIG. 7B (the image cut out from the face area detected by the face area detecting unit 13) and the image of the face area in the previous frame image is used. Thus, the optical flow shown in FIG. 7C can be obtained.

<背景領域が閾値未満の場合>
図8は、第1の実施形態に係る背景領域が閾値未満の場合の実物判断処理の例を示すフローチャートである。図8の例では、図3に示す処理で人物領域が検出されたのに対して、背景領域の割合が閾値未満のときに、人物領域からではなく領域全体から動作情報を算出する。
<When the background area is less than the threshold>
FIG. 8 is a flowchart showing an example of an actual object determination process when the background area according to the first embodiment is less than the threshold value. In the example of FIG. 8, when the human area is detected by the process shown in FIG. 3, when the ratio of the background area is less than the threshold value, the motion information is calculated not from the human area but from the entire area.

図8に示すように、画像処理装置10は、カメラ画像受信部11により事前に人物がいない状況で画像を取得すると(S30)、その画像を背景画像とする。また、画像処理装置10は、カメラ画像受信部11により画像を取得すると(S31)、人物領域検出部12により事前に取得した背景画像と、S31の処理で取得した画像とを比較して差分があるか判断する。 As shown in FIG. 8, when the image processing apparatus 10 acquires an image in advance in a situation where there is no person (S30), the image processing apparatus 10 sets the image as a background image. Further, when the image processing apparatus 10 acquires an image by the camera image reception unit 11 (S31), the background image acquired in advance by the person area detection unit 12 is compared with the image acquired by the process of S31, and a difference is obtained. Determine if there is.

画像処理装置10は、上述のように差分があった場合に、背景領域割合判断部14により背景領域が、背景領域割合判断閾値設定部15により設定された閾値未満か判断する(S32)。画像処理装置10は、背景領域割合判断部14により背景領域が閾値未満であると判断すると(S32において、YES)、画像全体を人物領域とする(S33)。画像処理装置10は、背景領域割合判断部14により背景領域が閾値未満ではないと判断すると(S32において、NO)、S31の処理に戻る。 When there is a difference as described above, the image processing apparatus 10 determines whether the background area ratio determination unit 14 determines that the background area is less than the threshold value set by the background area ratio determination threshold value setting unit 15 (S32). When the background area ratio determination unit 14 determines that the background area is less than the threshold value (YES in S32), the image processing apparatus 10 sets the entire image as the person area (S33). If the background area ratio determination unit 14 determines that the background area is not less than the threshold value (NO in S32), the image processing apparatus 10 returns to the processing of S31.

次に、画像処理装置10は、前回フレーム画像に人物領域があったか判断する(S34)。S34〜S38の処理は、図3に示すS14〜S18の処理と同様の処理であるため、ここでの詳しい説明は省略する。 Next, the image processing apparatus 10 determines whether or not there was a person area in the previous frame image (S34). Since the processing of S34 to S38 is the same as the processing of S14 to S18 shown in FIG. 3, detailed description thereof will be omitted here.

<背景領域が閾値未満の場合に動作情報が算出されるまでのイメージ>
図9は、第1の実施形態に係る背景領域が閾値未満の場合のイメージ図である。図9(A)は、カメラにより得られる画像の一例を示し、図9(B)は、検出された人物(顔)領域の一例を示す。図9(C)は、人物領域と非人物領域(背景領域)との割合を説明するための図である。図9(D)は、複数枚の画像全体から算出された動作情報のイメージ図を示す。
<Image until the operation information is calculated when the background area is less than the threshold>
FIG. 9 is an image diagram when the background area according to the first embodiment is less than the threshold value. 9A shows an example of an image obtained by the camera, and FIG. 9B shows an example of a detected person (face) region. FIG. 9C is a diagram for explaining the ratio between the person area and the non-person area (background area). FIG. 9D shows an image diagram of the motion information calculated from the entire plurality of images.

人物領域検出部12や顔領域検出部13は、図9(A)に示す画像から背景差分や時系列差分、顔検出等により図9(B)に示す人物(顔)領域を検出する。背景領域割合判断部14は、人物領域の総ピクセルと非人物領域(背景領域)の総ピクセルを求める。図9(C)の例では、例えば人物領域の総ピクセルが「500」であり、非人物領域の総ピクセルが「70」であった場合、背景領域割合判断部14は、500/570=0.877となるため、人物領域の割合を「87.7%」として算出する。 The person area detecting unit 12 and the face area detecting unit 13 detect the person (face) area shown in FIG. 9B from the image shown in FIG. 9A by background difference, time series difference, face detection, and the like. The background area ratio determination unit 14 obtains the total pixels of the person area and the total pixels of the non-person area (background area). In the example of FIG. 9C, for example, when the total pixel of the person area is “500” and the total pixel of the non-person area is “70”, the background area ratio determination unit 14 determines 500/570=0. Therefore, the ratio of the person area is calculated as “87.7%”.

背景領域割合判断部14は、背景領域割合判断閾値設定部15により設定された人物領域の閾値が「75%」であった場合、図9(C)の例では人物領域の割合が「87.7%」であるため、閾値を超えていると判断する。このように、例えば人物領域の割合が閾値を超えている場合には、非人物領域の影響は小さいと判断し、図9(C)の例では画像全体から動作情報を算出する。つまり、人物領域か背景領域か意識せずに動作情報を算出することが可能となる。 If the threshold value of the human area set by the background area ratio determination threshold setting unit 15 is “75%”, the background area ratio determination unit 14 determines that the ratio of the human area is “87. Since it is “7%”, it is determined that the threshold value is exceeded. In this way, for example, when the ratio of the person area exceeds the threshold value, it is determined that the influence of the non-person area is small, and in the example of FIG. 9C, the motion information is calculated from the entire image. That is, the motion information can be calculated without being aware of the person area or the background area.

上述した図9(A)に示す画像と、前回フレーム画像とにより算出された動作情報を用いて、図9(D)に示すオプティカルフローを得ることが可能となる。 It is possible to obtain the optical flow shown in FIG. 9D by using the motion information calculated from the image shown in FIG. 9A and the previous frame image.

<はずれ値除去を含む場合>
図10は、第1の実施形態に係るはずれ値除去を含む実物判断処理の例を示すフローチャートである。図10の例では、上述した処理でオプティカルフローの動作情報を算出した場合に、はずれ値除去を行う。図10の例では、はずれ値を除去することで、より正確な動作情報を算出することが可能となる。なお、図10に示すS40〜S44、S48〜S50の処理は、図8に示すS30〜S34、S36〜S38の処理と同様の処理であるため、ここでの詳しい説明は省略する。
<Including outlier removal>
FIG. 10 is a flowchart showing an example of the actual object determination process including the outlier value removal according to the first embodiment. In the example of FIG. 10, the outlier value is removed when the motion information of the optical flow is calculated by the above-described processing. In the example of FIG. 10, it is possible to calculate more accurate motion information by removing the outlier. Note that the processes of S40 to S44 and S48 to S50 shown in FIG. 10 are the same as the processes of S30 to S34 and S36 to S38 shown in FIG. 8, so detailed description thereof will be omitted here.

図10に示すS44の処理の後、画像処理装置10は、例えばフローヒストグラム算出部18により現フレーム画像と前回フレーム画像とを用いてオプティカルフローを算出すると(S45)、はずれ値除去部19によりはずれ値を除去する(S46)。画像処理装置10は、S46の処理ではずれ値が除去されると、フローのヒストグラムを算出し(S47)、S48の処理に進む。 After the processing of S44 shown in FIG. 10, when the image processing apparatus 10 calculates the optical flow using the current frame image and the previous frame image by the flow histogram calculation unit 18 (S45), the deviation value removal unit 19 causes the deviation. The value is removed (S46). When the deviation value is removed in the process of S46, the image processing apparatus 10 calculates a flow histogram (S47), and proceeds to the process of S48.

<はずれ値除去について>
図11は、第1の実施形態に係るはずれ値除去について説明する図である。図11(A)は、通常の最小二乗法の例を示し、図11(B)は、はずれ値を考慮する例を示す。フローヒストグラム算出部18は、上述したブロックマッチングによるオプティカルフローを利用して動作情報を算出する際に、画素値の差の二乗和(最小二乗)を用いると、はずれ値により精度が低下する。そこで、画像処理装置10は、はずれ値除去部19によりはずれ値を除去する。
<About removal of outliers>
FIG. 11 is a diagram for explaining outlier removal according to the first embodiment. FIG. 11A shows an example of a normal least squares method, and FIG. 11B shows an example in which an outlier value is considered. If the flow histogram calculation unit 18 uses the sum of squares (least squares) of the difference between pixel values when calculating the motion information using the optical flow based on the block matching described above, the accuracy decreases due to the outlier. Therefore, in the image processing apparatus 10, the outlier value removing unit 19 removes the outlier value.

図11(A)及び図11(B)において横軸がx座標、縦軸がy座標を示している。また、図11(A)及び図11(B)に示すプロットされた点は、マッチング対象領域(現フレーム画像)の各画素値を示し、図11(A)及び図11(B)に示す直線は、マッチング対象領域(前回フレーム画像)を示している。 11A and 11B, the horizontal axis represents the x coordinate and the vertical axis represents the y coordinate. The plotted points shown in FIGS. 11A and 11B represent pixel values of the matching target area (current frame image), and the straight lines shown in FIGS. 11A and 11B. Indicates a matching target area (previous frame image).

マッチング対象領域(現フレーム画像)とマッチング対象領域(前回フレーム画像)の各画素値の差の二乗和が小さいほど類似度が高く、つまりその領域に移動した可能性が高くなる。図11(A)及び図11(B)の例では、各画素値の差の二乗和が小さいと、直線上にプロットされた点が並ぶようになる。これに対し、照明変化等の影響で一部の画素が特異な値(はずれ値)となってしまった場合には、最小二乗和の値がその値の影響を受けて大きくなってしまうため、正しい結果が得られなくなる。 The smaller the sum of squares of the differences between the pixel values of the matching target area (current frame image) and the matching target area (previous frame image), the higher the degree of similarity, that is, the higher the possibility of moving to that area. In the examples of FIGS. 11A and 11B, when the sum of squares of the difference between the pixel values is small, the points plotted on the straight line are arranged. On the other hand, when some pixels have a unique value (outlier) due to the influence of changes in illumination, etc., the value of the sum of least squares becomes large due to the influence of the value. Correct results will not be obtained.

そこで、図11(B)に示すように、はずれ値除去部19は、最小二乗和の計算対象からその特異な値(はずれ値)を除去する。図11(B)の例では、黒丸のプロットされた点がはずれ値である。図11(B)に示すように対応するはずれ値を除くと、プロットされた点が直線上に並ぶことになり、マッチング対象の類似度が高くなる。 Therefore, as shown in FIG. 11B, the outlier value removing unit 19 removes the peculiar value (outlier value) from the calculation target of the least square sum. In the example of FIG. 11B, the plotted points of black circles are outliers. When the corresponding outliers are excluded as shown in FIG. 11B, the plotted points are arranged on a straight line, and the similarity of the matching target is high.

このようにはじれ値の除去を行うことで、動作情報の算出におけるオプティカルフロー算出精度を向上させることが可能となり、上述した実物判断における検出精度を向上させることが可能となる。 By removing the eccentricity value in this manner, it is possible to improve the optical flow calculation accuracy in the calculation of the motion information, and it is possible to improve the detection accuracy in the above-described actual object determination.

<人の向きを正規化する実物判断処理>
図12は、第1の実施形態に係る人の向きを正規化する実物判断処理の例を示すフローチャートである。図12の例では、例えば人物(顔)領域を検出した後、人物(顔)の向きを正規化して動作情報を算出する。図12の例では、人の向きの正規化を行うことで、より正確な動作情報を算出することが可能となる。なお、図12に示すS60〜S63、S65〜S69の処理は、図8に示すS30〜S33、S34〜S38の処理と同様の処理であるため、ここでの詳しい説明は省略する。
<Actual judgment process for normalizing the direction of people>
FIG. 12 is a flow chart showing an example of an actual object determination process for normalizing the orientation of a person according to the first embodiment. In the example of FIG. 12, for example, after detecting a person (face) area, the orientation of the person (face) is normalized to calculate motion information. In the example of FIG. 12, by normalizing the direction of the person, more accurate motion information can be calculated. Note that the processes of S60 to S63 and S65 to S69 shown in FIG. 12 are the same as the processes of S30 to S33 and S34 to S38 shown in FIG. 8, and thus detailed description thereof is omitted here.

図12に示すS63の処理の後、画像処理装置10は、画像向き正規化部20により人の向きを正規化する(S64)。画像向き正規化部20は、上述したように画像小域内から予めターゲットとして指定している特徴点を検出し、予め用意している3次元モデルにマッピングして、正面を向かせることで人の向きを正規化する。画像処理装置10は、S64の処理で人の向きが正規化されると、S65の処理に進む。 After the processing of S63 shown in FIG. 12, the image processing apparatus 10 normalizes the orientation of the person by the image orientation normalization unit 20 (S64). As described above, the image orientation normalization unit 20 detects a feature point designated as a target in advance from within the image subregion, maps it to a three-dimensional model prepared in advance, and turns it to face the front of the person. Normalize orientation. When the orientation of the person is normalized in the process of S64, the image processing apparatus 10 proceeds to the process of S65.

<人の向きを正規化するイメージ図>
図13は、第1の実施形態に係る人の向きを正規化するイメージ図である。図13(A)は、カメラにより得られる画像の一例を示し、図13(B)は、人(顔)の向きを補正した画像の一例を示す。
<Image diagram to normalize the direction of people>
FIG. 13 is an image diagram for normalizing the orientation of a person according to the first embodiment. 13A shows an example of an image obtained by a camera, and FIG. 13B shows an example of an image in which the orientation of a person (face) is corrected.

画像向き正規化部20は、図13(A)に示す画像が得られると、画像領域内から指定している特徴点を検出することで人物(顔)の向きを検知する。図13(A)の例では、例えば人物(顔)や体の向きが右を向いていると検知する。 When the image orientation normalization unit 20 obtains the image shown in FIG. 13A, the orientation of the person (face) is detected by detecting the specified feature points in the image area. In the example of FIG. 13A, for example, it is detected that the direction of the person (face) or body is facing right.

また、画像向き正規化部20は、図13(A)に示す画像領域から検出した特徴点を3次元モデルにマッピングし、図13(B)に示すように正面に向かせることで正規化する。 The image orientation normalization unit 20 also maps the feature points detected from the image area shown in FIG. 13A to a three-dimensional model, and normalizes them by directing them to the front as shown in FIG. 13B. ..

このように画像向きの正規化を行うことで、動作情報の算出精度を向上させることが可能となり、上述した実物判断における検出精度を向上させることが可能となる。 By normalizing the image orientation in this way, it is possible to improve the calculation accuracy of the motion information, and it is possible to improve the detection accuracy in the above-described actual object determination.

<辞書データの更新を含む場合>
図14は、第1の実施形態に係る辞書データの更新を含む実物判断処理の例を示すフローチャートである。図14の例では、実物判断処理の後に、ユーザによるパスワードの入力等、ユーザを特定する操作が行われた場合に、実物判断処理に用いた動作情報で辞書データを更新する。なお、図14に示すS70〜S78の処理は、図3に示すS10〜18の処理と同様の処理であるため、ここでの詳しい説明は省略する。
<Including update of dictionary data>
FIG. 14 is a flowchart showing an example of an actual object determination process including the update of dictionary data according to the first embodiment. In the example of FIG. 14, the dictionary data is updated with the operation information used in the actual product determination process when a user's operation such as input of a password is performed after the actual product determination process. Since the processing of S70 to S78 shown in FIG. 14 is the same as the processing of S10 to 18 shown in FIG. 3, detailed description thereof will be omitted.

図14に示すS78の処理の後、画像処理装置10は、辞書更新部21によりユーザ特定動作があったか判断する(S79)。S79の処理では、辞書更新部21は、例えばユーザによるパスワードの入力等、ユーザを特定する操作が行われたか判断する。 After the processing of S78 shown in FIG. 14, the image processing apparatus 10 determines whether or not the user specifying operation has been performed by the dictionary updating unit 21 (S79). In the process of S79, the dictionary updating unit 21 determines whether or not an operation for identifying the user, such as a password input by the user, has been performed.

画像処理装置10は、辞書更新部21によりユーザ特定動作があったと判断した場合(S79において、YES)、辞書データを更新する(S80)。S80の処理では、辞書更新部21は、例えばS75の処理で算出した動作情報を人物領域動作辞書22の辞書データに追加することで更新する。また、画像処理装置10は、辞書更新部21によりユーザ特定動作がなかったと判断した場合(S79において、NO)、処理を終了する。 The image processing apparatus 10 updates the dictionary data (S80) when the dictionary updating unit 21 determines that the user specifying operation has been performed (YES in S79). In the process of S80, the dictionary updating unit 21 updates the motion information calculated in the process of S75, for example, by adding it to the dictionary data of the person area motion dictionary 22. If the dictionary updating unit 21 determines that the user specifying operation has not been performed (NO in S79), the image processing apparatus 10 ends the process.

<辞書データの更新で用いられる動作情報>
図15は、第1の実施形態に係る辞書データの更新で用いられる動作情報を説明する図である。なお、図15に示す矢印は、オプティカルフローの場合の動作情報を示している。
<Operation information used for updating dictionary data>
FIG. 15 is a diagram illustrating operation information used in updating the dictionary data according to the first embodiment. The arrow shown in FIG. 15 indicates operation information in the case of optical flow.

辞書更新部21は、画像内の人物が実物の人物であると判断された後、ユーザ特定動作があった場合には、図15に示すように、画像内の人物が実物の人物であると判断されたときに用いた動作情報を人物領域動作辞書22に追加することで辞書データを更新する。なお、辞書更新部21は、画像内の人物が実物の人物であると判断されたときに用いた動作情報が、例えば顔領域から算出された動作情報の場合には、顔領域動作辞書23に追加することで辞書データを更新する。 When the user specifying operation is performed after it is determined that the person in the image is the real person, the dictionary updating unit 21 determines that the person in the image is the real person as shown in FIG. The dictionary data is updated by adding the motion information used when the determination is made to the person area motion dictionary 22. Note that the dictionary updating unit 21 stores in the face area motion dictionary 23 when the motion information used when the person in the image is determined to be a real person is, for example, the motion information calculated from the face area. Update the dictionary data by adding.

このように辞書データを逐次更新することで、ユーザの利用環境に応じた辞書データを作成することが可能となり、上述した実物判断における検出精度を向上させることが可能となる。 By successively updating the dictionary data in this manner, it is possible to create dictionary data according to the usage environment of the user, and it is possible to improve the detection accuracy in the above-described actual object determination.

上述した実施形態によれば、人物に対応する領域から動作情報を算出し、その動作情報を用いて画像内の人物が実物か判断することで、従来の目や口等の顔の局所的な部分の領域検出だけで判断するよりも適切な判断が可能となり、人物の検出精度を向上させることが可能となる。 According to the above-described embodiment, the motion information is calculated from the region corresponding to the person, and the motion information is used to determine whether the person in the image is a real person, thereby reducing the local area of the face such as the eyes and mouth. It is possible to make a more appropriate judgment than to make a judgment only by detecting a partial area, and it is possible to improve the detection accuracy of a person.

上述した例は、顔認証等を目的とした実施形態について説明したが、適用範囲についてはこれに限定されるものではない。例えば、カメラで撮影された画像の中に写真が含まれているか判断することも可能である。 Although the above-described example describes the embodiment for the purpose of face recognition or the like, the scope of application is not limited to this. For example, it is possible to determine whether a picture is included in the images taken by the camera.

これにより、例えばカメラに写真が写ったことを判断し、その領域に画像変換を行って取り込むことが可能となる。例えば、写真を1枚ずつ取り込みたい場合に、1枚ずつスキャンしなくても、カメラに写真をかざす作業を繰り返すことで、アフィン変換等で歪みを補正し、正規化された状態で取り込むことが可能となる。なお、変換処理を行って写真データを取り込むタイミングは、上述した実施形態により、カメラに写真が写ったこと(実際の人間が撮影されていないこと)が判断された場合となる。 This makes it possible, for example, to determine that a photograph has been captured by the camera, perform image conversion on that area, and capture it. For example, if you want to capture photos one by one, you can correct the distortion by affine transformation etc. by repeating the work of holding the photos over the camera without scanning them one by one, and capture them in a normalized state. It will be possible. Note that the timing of performing the conversion process and capturing the photographic data is the case where it is determined that the photograph has been captured by the camera (the actual person has not been photographed) according to the above-described embodiment.

次に、上記で説明した実物の判断方法を応用した画像形成装置の認証方法の例について説明する。 Next, an example of the authentication method of the image forming apparatus to which the above-described determination method of the real thing is applied will be described.

<システムの構成>
図16は第1の実施形態に係る情報処理システムの構成例を示す図である。図16において、情報処理システム100は、利用者105が所持するRFID(Radio Frequency Identifier)タグ104と通信可能な画像形成装置101を含む。
<System configuration>
FIG. 16 is a diagram showing a configuration example of the information processing system according to the first embodiment. In FIG. 16, the information processing system 100 includes an image forming apparatus 101 capable of communicating with an RFID (Radio Frequency Identifier) tag 104 possessed by a user 105.

画像形成装置101は、例えば、プリンタ、スキャナ、コピー、ファクシミリ等の機能を有するMFP(Multifunction Peripheral)や、プリンタ等の画像形成装置であり、利用者の認証を行う情報処理装置の一例である。 The image forming apparatus 101 is an image forming apparatus such as an MFP (Multifunction Peripheral) having a printer, a scanner, a copy function, a facsimile function, or a printer, and is an example of an information processing apparatus that authenticates a user.

画像形成装置101は、所定の範囲内にあるRFIDタグ104から、タグID等の所定の情報を受信するRFタグリーダ103と、画像を撮像するカメラ102を備えている。 The image forming apparatus 101 includes an RF tag reader 103 that receives predetermined information such as a tag ID from an RFID tag 104 within a predetermined range, and a camera 102 that captures an image.

RFIDは、タグID等の所定の情報を記憶したRFIDタグ104と、RFタグリーダ103との間で、電磁界や電波等を用いた近距離無線通信を行う技術であり、近距離無線通信の一例である。 RFID is a technique for performing near field communication using an electromagnetic field, radio waves, or the like between the RFID tag 104, which stores predetermined information such as a tag ID, and the RF tag reader 103, and is an example of near field communication. Is.

例えば、RFIDタグ104がパッシブタグである場合、RFタグリーダ103は、後述するRFタグリーダ103の検知範囲(所定の範囲)に所定の電波を放射する。また、RFIDタグ104は、RFタグリーダ103から放射された電波を受信すると、受信した電波を電力として動作し、予め記憶したタグID等の所定の情報をRFタグリーダ103に送信する。 For example, when the RFID tag 104 is a passive tag, the RF tag reader 103 emits a predetermined radio wave in the detection range (predetermined range) of the RF tag reader 103 described later. Further, when the RFID tag 104 receives a radio wave radiated from the RF tag reader 103, it operates by using the received radio wave as electric power and transmits predetermined information such as a tag ID stored in advance to the RF tag reader 103.

パッシブタグとは、RFタグリーダ103からの電波をエネルギー源として動作するRFIDタグ104で、電池を内蔵する必要がない。パッシブタグのアンテナは、RFタグリーダ103からの電波の一部を反射するが、タグID等の情報はこの反射波に乗せて返される。この反射の強度は非常に小さいため、パッシブタグは、自装置の電力で電波を送信するアクティブタグに比べて通信距離が短くなるが、安価で、ほぼ恒久的に動作する。 The passive tag is an RFID tag 104 that operates using radio waves from the RF tag reader 103 as an energy source, and does not need to have a battery built therein. The antenna of the passive tag reflects a part of the radio wave from the RF tag reader 103, and information such as the tag ID is returned on the reflected wave. Since the intensity of this reflection is very small, the passive tag has a shorter communication distance than an active tag that transmits radio waves with the power of its own device, but is inexpensive and operates almost permanently.

RFIDタグ104の信号の伝達方式は、電磁誘導方式と電波方式に分類される。電磁誘導方式は、RFIDタグ104のコイルとRFタグリーダ103のアンテナコイルを磁束結合させて、エネルギー・信号を伝達する方式である。電磁誘導方式は、電波方式に比べて、エネルギーを効率的に伝達できるので、開発が先に進んだ。例えば、Felica(登録商標)はこの電磁誘導方式を採用している。電磁誘導方式では、例えば、130〜135kHz、13.56MHzの周波数が用いられている。なお、電波誘導方式の通信可能距離は、例えば、1m以内である。 The signal transmission method of the RFID tag 104 is classified into an electromagnetic induction method and a radio wave method. The electromagnetic induction method is a method in which the coil of the RFID tag 104 and the antenna coil of the RF tag reader 103 are magnetically coupled to transmit an energy/signal. The electromagnetic induction method can transfer energy more efficiently than the electric wave method, so the development has advanced. For example, Felica (registered trademark) uses this electromagnetic induction method. In the electromagnetic induction method, for example, frequencies of 130 to 135 kHz and 13.56 MHz are used. In addition, the communicable distance of the radio wave induction method is within 1 m, for example.

一方、電波方式では、RFIDタグ104のアンテナとRFタグリーダ103のアンテナで電波をやりとりし、エネルギー・信号を伝達する方式である。電波方式は、電波を空間に放射して伝達するので、電磁誘導方式に比べて、より遠くのRFIDタグ104と通信が可能になる。電波方式では、例えば、433MHz、900MHz帯、2.45GHz等の周波数が用いられている。なお、電波方式の通信可能距離は、パッシブタグで、例えば、3〜5m程度である。アクティブタグは、出力電力さえ許せば、例えば、数km程度の通信も可能である。 On the other hand, the radio wave system is a system in which radio waves are exchanged between the antenna of the RFID tag 104 and the antenna of the RF tag reader 103 to transmit energy/signal. The radio wave system radiates radio waves to the space and transmits the radio waves, so that it is possible to communicate with the RFID tag 104 located farther than the electromagnetic induction system. In the radio wave system, for example, frequencies such as 433 MHz, 900 MHz band, and 2.45 GHz are used. Note that the communicable distance of the radio wave method is about 3 to 5 m for a passive tag. The active tag is capable of communication of, for example, about several km as long as output power is allowed.

カメラ102は、例えば、カメラ102が撮像した画像に、画像形成装置101を利用している利用者が含まれるように設置された撮像装置である。 The camera 102 is, for example, an imaging device installed such that an image captured by the camera 102 includes a user who is using the image forming apparatus 101.

図17は、一実施形態に係るカメラの撮像範囲、及び各センサの検知範囲の一例を示す図である。図17は、カメラ102の撮像範囲251、RFタグリーダ103の検知範囲252、及び後述する移動体センサ部の検知範囲253の例を示している。 FIG. 17 is a diagram showing an example of the imaging range of the camera and the detection range of each sensor according to the embodiment. FIG. 17 shows an example of an imaging range 251 of the camera 102, a detection range 252 of the RF tag reader 103, and a detection range 253 of a mobile body sensor unit described later.

図17では、画像形成装置101の上面から見たときの、RFタグリーダ103の検知範囲252が示されている。図17の例では、画像形成装置101は、画像形成装置101の内部に、例えば、パッチアンテナ等を有しており、画像形成装置101の前面(図17の下方向)に、扇型(例えば角度150°)の検知範囲252を形成している。 In FIG. 17, the detection range 252 of the RF tag reader 103 when viewed from the upper surface of the image forming apparatus 101 is shown. In the example of FIG. 17, the image forming apparatus 101 has, for example, a patch antenna or the like inside the image forming apparatus 101, and has a fan shape (for example, in the downward direction in FIG. 17) on the front surface of the image forming apparatus 101. A detection range 252 having an angle of 150° is formed.

RFタグリーダ103は、移動体センサ部により、移動体センサ部の検知範囲253で利用者105が検知されると、RFタグリーダ103の検知範囲252に所定の電波を放射する。これにより、例えば、RFIDタグ104を持った利用者105が、画像形成装置101の前面から所定の距離(例えば3m以内)まで近づくと、RFIDタグ104に記憶された所定の情報(例えばタグID)が、自動的に画像形成装置101に送信される。 The RF tag reader 103 emits a predetermined radio wave to the detection range 252 of the RF tag reader 103 when the user 105 is detected by the moving body sensor unit in the detection range 253 of the moving body sensor unit. Thereby, for example, when the user 105 having the RFID tag 104 approaches a predetermined distance (for example, within 3 m) from the front surface of the image forming apparatus 101, predetermined information (for example, tag ID) stored in the RFID tag 104. Is automatically transmitted to the image forming apparatus 101.

本実施形態では、画像形成装置101は、予め登録された利用者の情報を記憶しており、RFIDタグ104から受信したタグIDと、予め登録された利用者の情報とに基づいて、RFIDタグ104の認証(以下、無線認証と呼ぶ)を行う。 In the present embodiment, the image forming apparatus 101 stores the information of the user registered in advance, and based on the tag ID received from the RFID tag 104 and the information of the user registered in advance, the RFID tag. Authentication of 104 (hereinafter referred to as wireless authentication) is performed.

また、カメラ102は、移動体センサ部により、移動体センサ部の検知範囲253で利用者が検知されると起動(動作)し、撮像を開始する。 Further, the camera 102 is activated (operated) when the user is detected by the moving body sensor unit in the detection range 253 of the moving body sensor unit, and starts imaging.

画像形成装置101は、例えば、カメラ102が撮像した画像に含まれる利用者の顔画像と、予め登録された利用者の顔の特徴情報とに基づいて、画像に撮像された利用者の顔認証(以下、画像認証と呼ぶ)を行う。 The image forming apparatus 101, for example, based on the face image of the user included in the image captured by the camera 102 and the face feature information of the user registered in advance, face authentication of the user captured in the image. (Hereinafter referred to as image authentication).

また、画像形成装置101は、上記で説明した実物判断処理により、カメラ102が撮像した画像から検出された人物が実物(生体)か、写真(非生体)かを判断する。別の言い方をすれば、画像形成装置101は、カメラ102が撮像した判定の対象が所定の条件を満たす生体であるか否か判定する。なお、この判断処理による実物(生体)が、写真(非生体)の判断は、画像から検出された人物が、写真等の非生体によるなりすましではないことを判断することができるものであれば良い。なりすましは、人が写真等を用いることで行われる。 Further, the image forming apparatus 101 determines whether the person detected from the image captured by the camera 102 is a real (living body) or a photograph (non-living body) by the above-described real-life determination processing. In other words, the image forming apparatus 101 determines whether the determination target captured by the camera 102 is a living body that satisfies a predetermined condition. It should be noted that the determination as to whether the real object (living body) is a photograph (non-living body) by this determination processing can be performed as long as it can be determined that the person detected from the image is not a spoofed non-living body such as a photograph. .. Impersonation is performed by a person using a photograph or the like.

本実施形態では、上記で説明した実物判断処理等により「実物」と判断された場合、すなわち、画像から検出された人物が写真等の非生体によるなりすましでないと判断された場合、画像から検出された人物が「生体である」と表現するものとする。 In the present embodiment, when it is determined that the object is the “real object” by the actual object determination process described above, that is, when it is determined that the person detected from the image is not impersonated by a non-living body such as a photograph, it is detected from the image. It is assumed that the person who is said to be "living body".

また、上記で説明した実物判断処理等により「写真」と判断された場合、すなわち、画像から検出された人物が写真等の非生体によるなりすましであると判断された場合、画像から検出された人物が「非生体である」と表現するものとする。 In addition, when it is determined as a “photograph” by the actual determination process described above, that is, when the person detected from the image is determined to be a spoofed non-living body such as a photograph, the person detected from the image Is expressed as "non-living body".

画像形成装置101は、無線認証によって認証が許可されたRFIDタグ104の利用者と、画像認証によって認証が許可された利用者が同じ利用者であり、画像に撮像された人物が生体であると判断された場合(すなわち、撮像された判定の対象が所定の条件を満たす生体であると判定された場合)、その利用者の画像形成装置101の使用を許可する。 In the image forming apparatus 101, the user of the RFID tag 104 authorized by the wireless authentication and the user authorized by the image authentication are the same user, and the person imaged in the image is the living body. When it is determined (that is, when it is determined that the imaged determination target is a living body that satisfies a predetermined condition), the user is permitted to use the image forming apparatus 101.

本実施形態に係る画像形成装置101によれば、画像形成装置101の利用者105は、RFIDタグ104を所持しているだけで、顔認証等の画像認証の精度を向上させることができる。また、本実施形態に係る画像形成装置101によれば、利用者の顔写真等によるなりすましを低減させることができる。 According to the image forming apparatus 101 according to the present embodiment, the user 105 of the image forming apparatus 101 can improve the accuracy of image authentication such as face authentication only by having the RFID tag 104. Further, according to the image forming apparatus 101 according to the present embodiment, it is possible to reduce spoofing caused by a user's facial photograph or the like.

なお、図16に示したシステム構成はあくまで一例である。例えば、画像形成装置101は、PC、タブレット端末、スマートフォン、ゲーム機、テレビ会議装置、電子黒板、プロジェクタ等、利用者を認証する様々な情報処理装置であっても良い。また、カメラ102や、RFタグリーダ103等は、外部に外付けされているものであっても良い。 Note that the system configuration shown in FIG. 16 is merely an example. For example, the image forming apparatus 101 may be various information processing apparatuses such as a PC, a tablet terminal, a smartphone, a game machine, a video conference apparatus, an electronic blackboard, and a projector that authenticate the user. Further, the camera 102, the RF tag reader 103, and the like may be externally attached.

また、RFIDタグ104は、RFIDのアクティブタグや、セミアクティブタグ等であっても良い。なお、RFIDタグ104は、無線タグの一例である。無線タグは、RFIDとは異なる近距離無線方式、例えば、Bluetooth(登録商標) Low Energy(以下、BLEと呼ぶ)や、NFC(Near Field Communication)等で通信を行う無線端末であっても良い。また、RFIDタグ104に代えて、無線タグ等を搭載した携帯端末等を用いるのものであっても良い。 Further, the RFID tag 104 may be an RFID active tag, a semi-active tag, or the like. The RFID tag 104 is an example of a wireless tag. The wireless tag may be a short-range wireless system different from RFID, for example, a Bluetooth (registered trademark) Low Energy (hereinafter referred to as BLE) or a wireless terminal that performs communication by NFC (Near Field Communication) or the like. Further, instead of the RFID tag 104, a mobile terminal equipped with a wireless tag or the like may be used.

さらに、画像認証は、利用者を撮像した画像と、利用者の生体に関する特徴情報とを用いて利用者の認証を行う様々な認証方法、例えば、指紋認証、虹彩認証、静脈認証等であっても良い。 Further, the image authentication is various authentication methods such as fingerprint authentication, iris authentication, vein authentication, etc. for authenticating the user by using the image of the user and the characteristic information about the user's living body. Is also good.

<ハードウェア構成>
(画像形成装置のハードウェア構成)
図18は、第1の実施形態に係る画像形成装置101のハードウェア構成の例を示す図である。画像形成装置101は、例えば、コピー機能、スキャナ機能、ファクス機能、プリンタ機能などの各種の画像形成機能を実現する本体310と、ユーザの操作を受け付ける操作部320とを備える。なお、ユーザの操作を受け付けるとは、ユーザの操作に応じて入力される情報(画面の座標値を示す信号などを含む)を受け付けることを含む概念である。本体310と操作部320は、専用の通信路330を介して相互に通信可能に接続されている。通信路330は、例えばUSB(Universal Serial Bus)規格のものを用いることができるが、有線か無線かを問わず任意の規格のものであって良い。
<Hardware configuration>
(Hardware configuration of image forming apparatus)
FIG. 18 is a diagram illustrating an example of the hardware configuration of the image forming apparatus 101 according to the first embodiment. The image forming apparatus 101 includes a main body 310 that realizes various image forming functions such as a copy function, a scanner function, a fax function, and a printer function, and an operation unit 320 that receives a user operation. Note that accepting a user operation is a concept including accepting information (including a signal indicating a coordinate value of a screen) input according to a user operation. The main body 310 and the operation unit 320 are communicably connected to each other via a dedicated communication path 330. As the communication path 330, for example, a USB (Universal Serial Bus) standard can be used, but any standard may be used regardless of whether it is wired or wireless.

なお、本体310は、操作部320で受け付けた操作に応じた動作を行うことができる。また、本体310は、クライアントPC(パーソナルコンピュータ)などの外部装置とも通信可能であり、外部装置から受信した指示に応じた動作を行うこともできる。 The main body 310 can perform an operation according to the operation received by the operation unit 320. The main body 310 can also communicate with an external device such as a client PC (personal computer), and can also perform an operation in accordance with an instruction received from the external device.

まず、本体310のハードウェア構成について説明する。図18に示すように、本体310は、CPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313、ストレージ部314、通信I/F(Interface)部315、接続I/F部316、エンジン部317、移動体センサ部318、及びシステムバス319等を有する。 First, the hardware configuration of the main body 310 will be described. As shown in FIG. 18, the main body 310 includes a CPU (Central Processing Unit) 311, a ROM (Read Only Memory) 312, a RAM (Random Access Memory) 313, a storage unit 314, a communication I/F (Interface) unit 315, and a connection. It has an I/F unit 316, an engine unit 317, a moving body sensor unit 318, a system bus 319, and the like.

CPU311は、本体310の動作を統括的に制御する。CPU311は、RAM313をワークエリア(作業領域)としてROM312又はストレージ部314等に格納されたプログラムを実行することで、本体310全体の動作を制御する。例えば、CPU311は、エンジン部317を用いて、前述したコピー機能、スキャナ機能、ファクス機能、プリンタ機能などの各種機能を実現する。 The CPU 311 centrally controls the operation of the main body 310. The CPU 311 controls the overall operation of the main body 310 by executing a program stored in the ROM 312, the storage unit 314, or the like, using the RAM 313 as a work area (work area). For example, the CPU 311 uses the engine unit 317 to realize various functions such as the copy function, the scanner function, the fax function, and the printer function described above.

ROM312は、例えば、本体310の起動時に実行されるBIOS(Basic Input/Output System)や、各種の設定等を記憶する不揮発性のメモリである。RAM313は、CPU311のワークエリア等として用いられる揮発性のメモリである。ストレージ部314は、例えば、OS(Operating System)、アプリケーションプログラム、各種データ等を記憶する不揮発性の記憶装置であり、例えば、HDD(Hard Disk Drive)や、SSD(Solid State Drive)等で構成される。 The ROM 312 is a non-volatile memory that stores, for example, a BIOS (Basic Input/Output System) executed when the main body 310 is started up and various settings. The RAM 313 is a volatile memory used as a work area of the CPU 311 or the like. The storage unit 314 is, for example, a nonvolatile storage device that stores an OS (Operating System), application programs, various data, and the like, and is configured by, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like. It

通信I/F部315は、本体310をネットワーク340に接続し、ネットワーク340に接続された外部装置との通信を行うためのネットワークインタフェースである。接続I/F部316は、通信路330を介して操作部320と通信するためのインタフェースである。 The communication I/F unit 315 is a network interface for connecting the main body 310 to the network 340 and performing communication with an external device connected to the network 340. The connection I/F unit 316 is an interface for communicating with the operation unit 320 via the communication path 330.

エンジン部317は、コピー機能、スキャナ機能、ファクス機能、及びプリンタ機能等の機能を実現させるための、汎用的な情報処理及び通信以外の処理を行うハードウェアである。エンジン部317には、例えば、原稿の画像をスキャンして読み取るスキャナ(画像読取部)、用紙等のシート材への印刷を行うプロッタ(画像形成部)、ファクス通信を行うファクス部等が含まれる。さらに、エンジン部317は、印刷済みシート材を仕分けるフィニッシャや、原稿を自動給送するADF(自動原稿給送装置)のような特定のオプションが含まれていても良い。 The engine unit 317 is hardware that performs general-purpose information processing and processing other than communication for realizing functions such as a copy function, a scanner function, a fax function, and a printer function. The engine unit 317 includes, for example, a scanner (image reading unit) that scans and reads an image of a document, a plotter (image forming unit) that prints on a sheet material such as paper, a fax unit that performs fax communication, and the like. .. Further, the engine unit 317 may include a specific option such as a finisher for sorting printed sheet materials and an ADF (automatic document feeder) for automatically feeding a document.

移動体センサ部318は、画像形成装置101の周囲の検知範囲内にある移動体を検出するセンサであり、例えば焦電センサ等が用いられる。 The moving body sensor unit 318 is a sensor that detects a moving body within a detection range around the image forming apparatus 101, and for example, a pyroelectric sensor or the like is used.

システムバス319は、上記各構成要素に接続され、アドレス信号、データ信号、及び各種制御信号等を伝送する。 The system bus 319 is connected to each of the above components and transmits an address signal, a data signal, various control signals, and the like.

次に、操作部320のハードウェア構成について説明する。図18に示すように、操作部320は、CPU321、ROM322、RAM323と、フラッシュメモリ部324、通信I/F部325、操作パネル部326、接続I/F部327、外部接続I/F部328と、近距離無線部329、カメラ部332、及びシステムバス331等を有する。 Next, the hardware configuration of the operation unit 320 will be described. As illustrated in FIG. 18, the operation unit 320 includes a CPU 321, a ROM 322, a RAM 323, a flash memory unit 324, a communication I/F unit 325, an operation panel unit 326, a connection I/F unit 327, and an external connection I/F unit 328. And a short-range wireless unit 329, a camera unit 332, a system bus 331, and the like.

CPU321は、操作部320の動作を統括的に制御する。CPU321は、RAM323をワークエリア(作業領域)としてROM322又はフラッシュメモリ部324等に格納されたプログラムを実行することで、操作部320全体の動作を制御する。例えば、CPU321は、ユーザから受け付けた入力に応じた情報(画像)の表示などの各種機能を実現する。 The CPU 321 centrally controls the operation of the operation unit 320. The CPU 321 controls the overall operation of the operation unit 320 by executing a program stored in the ROM 322, the flash memory unit 324, or the like using the RAM 323 as a work area (work area). For example, the CPU 321 realizes various functions such as displaying information (image) according to the input received from the user.

ROM322は、例えば、操作部320の起動時に実行されるBIOSや、各種の設定等を記憶する不揮発性のメモリである。RAM323は、CPU321のワークエリア等として用いられる揮発性のメモリである。フラッシュメモリ部324は、例えば、OS、アプリケーションプログラム、各種データ等を記憶する不揮発性の記憶装置である。 The ROM 322 is, for example, a non-volatile memory that stores BIOS executed when the operation unit 320 is started up, various settings, and the like. The RAM 323 is a volatile memory used as a work area or the like of the CPU 321. The flash memory unit 324 is, for example, a non-volatile storage device that stores an OS, application programs, various data, and the like.

通信I/F部325は、操作部320をネットワーク340に接続し、ネットワーク340に接続された外部装置との通信を行うためのネットワークインタフェースである。 The communication I/F unit 325 is a network interface for connecting the operation unit 320 to the network 340 and performing communication with an external device connected to the network 340.

操作パネル部326は、ユーザの操作に応じた各種の入力を受け付けると共に、各種の情報(例えば受け付けた操作に応じた情報、画像形成装置101の動作状況を示す情報、設定状態等)を表示する。操作パネル部326は、例えば、タッチパネル機能を搭載した液晶表示装置(LCD: Liquid Crystal Display)で構成されるが、これに限られるものではない。操作パネル部326は、例えばタッチパネル機能が搭載された有機EL(Electro Luminescence)表示装置で構成されていても良い。さらに、操作パネル部326は、これに加えて又はこれに代えて、ハードウェアキー等の操作部や、ランプ等の表示部を設けることもできる。 The operation panel unit 326 accepts various inputs according to the user's operation and displays various information (for example, information according to the accepted operation, information indicating the operation status of the image forming apparatus 101, setting status, etc.). .. The operation panel unit 326 is composed of, for example, a liquid crystal display (LCD) having a touch panel function, but is not limited to this. The operation panel unit 326 may be composed of, for example, an organic EL (Electro Luminescence) display device having a touch panel function. Further, the operation panel unit 326 may be provided with an operation unit such as a hardware key or a display unit such as a lamp in addition to or instead of this.

接続I/F部327は、通信路330を介して本体310と通信するためのインタフェースである。外部接続I/F部328は、外部装置を接続するための、例えばUSB等のインタフェースである。 The connection I/F unit 327 is an interface for communicating with the main body 310 via the communication path 330. The external connection I/F unit 328 is an interface such as a USB for connecting an external device.

近距離無線部329は、近距離無線通信により、所定の通信範囲内の無線タグと通信を行うための近距離無線装置である。例えば、近距離無線部329は、図16のRFタグリーダ103等を含み、近距離無線部329から発信した電波に対して応答を返すRFIDのパッシブタグや、自装置から電波を発信するRFIDのアクティブタグ等から、所定の情報を受信する。また、近距離無線部329は、前述したBLEや、NFC等の近距離無線通信を行う近距離無線装置であっても良い。 The near field wireless unit 329 is a near field wireless device for communicating with a wireless tag within a predetermined communication range by near field wireless communication. For example, the short-range wireless unit 329 includes the RF tag reader 103 of FIG. 16 and the like, and includes a passive RFID tag that returns a response to a radio wave transmitted from the short-range wireless unit 329, or an active RFID that transmits a radio wave from its own device. Predetermined information is received from a tag or the like. The short-range wireless unit 329 may be a short-range wireless device that performs short-range wireless communication such as BLE and NFC described above.

カメラ部332は、撮像範囲内の画像を撮像する撮像装置である。 The camera unit 332 is an imaging device that captures an image within the imaging range.

システムバス331は、上記各構成要素に接続され、アドレス信号、データ信号、及び各種制御信号等を伝送する。 The system bus 331 is connected to each component described above and transmits an address signal, a data signal, various control signals, and the like.

<機能構成>
図19は、第1の実施形態に係る画像形成装置の機能構成の例を示す図である。画像形成装置101は、図18のCPU311、及びCPU321のうちの少なくとも1つのCPUで所定のプログラムを実行することにより、図19に示す機能構成を実現する。
<Functional configuration>
FIG. 19 is a diagram illustrating an example of the functional configuration of the image forming apparatus according to the first embodiment. The image forming apparatus 101 realizes the functional configuration shown in FIG. 19 by executing a predetermined program by at least one CPU of the CPU 311 and the CPU 321 of FIG.

なお、図19に示す機能構成は一例である。例えば、操作部320に含まれる各構成要素のうちの少なくとも一部は、本体310に含まれていても良いし、本体310に含まれる各構成要素のうちの少なくとも一部は、操作部320に含まれていても良い。 Note that the functional configuration shown in FIG. 19 is an example. For example, at least some of the components included in the operation unit 320 may be included in the main body 310, and at least some of the components included in the main unit 310 may be included in the operation unit 320. May be included.

(本体の機能構成)
画像形成装置101の本体310は、移動体検知部401、状態制御部402、画像形成部403、記憶部404、及び通信部405等を有する。
(Functional structure of the main unit)
The main body 310 of the image forming apparatus 101 includes a moving body detection unit 401, a state control unit 402, an image forming unit 403, a storage unit 404, a communication unit 405, and the like.

移動体検知部(移動体検知手段)401は、移動体センサ部318を用いて、画像形成装置101の周辺にある移動体(例えば人物)を検知する手段であり、例えば、図18のCPU311(又はCPU321)で動作するプログラムによって実現される。移動体検知部401は、例えば、移動体センサ部318の検知範囲253に移動体が検知された場合、移動体が検知されたことを状態制御部402等に通知する。 A moving body detection unit (moving body detection unit) 401 is a unit that detects a moving body (for example, a person) around the image forming apparatus 101 using the moving body sensor unit 318, and for example, the CPU 311 (FIG. 18). Alternatively, it is realized by a program operating in the CPU 321). For example, when a moving body is detected in the detection range 253 of the moving body sensor unit 318, the moving body detection unit 401 notifies the state control unit 402 and the like that the moving body is detected.

状態制御部402は、操作部320や、本体310の電力状態を制御する手段であり、例えば、図18のCPU311(又はCPU321)で動作するプログラムによって実現される。例えば、状態制御部402は、予め設定された時間を超えて、画像形成装置101の利用がない場合、画像形成装置101を、画像形成処理を実行可能な通常状態よりも消費電力が少ない省電力状態へ移行させる。画像形成装置101は、省電力状態では、例えば、操作部320、及び本体310のエンジン部317、ストレージ部314の機能を停止させること等により、消費電力を低減させることができる。 The state control unit 402 is a unit that controls the power state of the operation unit 320 and the main body 310, and is realized by, for example, a program operated by the CPU 311 (or CPU 321) in FIG. 18. For example, if the state control unit 402 has not used the image forming apparatus 101 for more than a preset time, the state control unit 402 consumes less power than the normal state in which the image forming process can be executed. Shift to the state. In the power saving state, the image forming apparatus 101 can reduce power consumption by, for example, stopping the functions of the operation unit 320, the engine unit 317 of the main body 310, and the storage unit 314.

また、本実施形態に係る状態制御部402は、画像形成装置101が省電力状態中に、例えば、移動体検知部401から、移動体が検知されたことを示す通知を受け付けると、操作部320を、省電力状態から通常の動作が可能な通常状態へ復帰させる。例えば、状態制御部402は、通信部405を介して、操作部320に復帰命令を通知することにより、操作部320を省電力状態から、通常状態へ復帰させる。 Further, when the state control unit 402 according to the present embodiment receives a notification indicating that a moving body is detected from the moving body detection unit 401, for example, while the image forming apparatus 101 is in the power saving state, the operation unit 320. Is returned from the power saving state to a normal state in which normal operation is possible. For example, the state control unit 402 returns the operation unit 320 from the power saving state to the normal state by notifying the operation unit 320 of the return instruction via the communication unit 405.

画像形成部403は、画像形成装置101が備える各種の画像形成機能(例えば、印刷、コピー、スキャン、ファックス等)を実行する手段であり、例えば、図18のエンジン部317、及び図18のCPU311で動作するプログラム等によって実現される。 The image forming unit 403 is a unit that executes various image forming functions (for example, printing, copying, scanning, and faxing) of the image forming apparatus 101. For example, the engine unit 317 of FIG. 18 and the CPU 311 of FIG. It is realized by a program or the like that operates in.

記憶部(記憶手段)404は、予め登録された画像形成装置101の利用者の情報である利用者情報A406を含む様々な情報を記憶する。記憶部404は、例えば、図18のストレージ部314、RAM313、及び図18のCPU311で動作するプログラム等によって実現される。 The storage unit (storage unit) 404 stores various information including user information A 406, which is information of the user of the image forming apparatus 101 registered in advance. The storage unit 404 is realized by, for example, the storage unit 314 of FIG. 18, the RAM 313, and a program operating by the CPU 311 of FIG.

通信部405は、操作部320と通信を行うための手段であり、例えば、図18の接続I/F部316、及び図18のCPU311で動作するプログラム等によって実現される。 The communication unit 405 is means for communicating with the operation unit 320, and is realized by, for example, the connection I/F unit 316 in FIG. 18 and a program operating in the CPU 311 in FIG.

(操作部の機能構成)
画像形成装置101の操作部320は、例えば、無線通信部411、無線認証部412、送信制御部413、撮像部414、画像認証部415、顔領域検出部416、特徴情報抽出部417、画像判定部418、装置認証部419、パスワード認証部420、ノイズ判定部421、階層判定部422、タイマ管理部423、通信部424、利用者情報管理部425、記憶部426、等を有する。
(Functional configuration of the operation unit)
The operation unit 320 of the image forming apparatus 101 includes, for example, a wireless communication unit 411, a wireless authentication unit 412, a transmission control unit 413, an image capturing unit 414, an image authentication unit 415, a face area detection unit 416, a characteristic information extraction unit 417, and image determination. It has a unit 418, a device authentication unit 419, a password authentication unit 420, a noise determination unit 421, a hierarchy determination unit 422, a timer management unit 423, a communication unit 424, a user information management unit 425, a storage unit 426, and the like.

無線通信部(無線通信手段)411は、例えば、図18の近距離無線部329を用いた近距離無線通信により、無線タグから所定の情報を受信する手段であり、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。例えば、無線通信部411は、図16のRFタグリーダ103の検知範囲252内にあるRFIDタグ104から、RFIDタグ104に記憶されたタグID等の所定の情報を受信する。 The wireless communication unit (wireless communication unit) 411 is, for example, a unit that receives predetermined information from a wireless tag by short-range wireless communication using the short-range wireless unit 329 of FIG. Alternatively, it is realized by a program operating in the CPU 311). For example, the wireless communication unit 411 receives predetermined information such as the tag ID stored in the RFID tag 104 from the RFID tag 104 within the detection range 252 of the RF tag reader 103 in FIG.

無線認証部(無線認証手段)412は、無線通信部411が受信した所定の情報と、予め登録された利用者情報とに基づいて、所定の情報を送信した無線タグを認証する手段である。無線認証部412は、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。無線認証部412は、無線通信部411が受信したRFIDタグ104のタグIDと、予め登録された利用者情報(例えば、利用者情報a431、利用者情報A406等)に基づいて、RFIDタグ104を認証する。 The wireless authentication unit (wireless authentication unit) 412 is a unit that authenticates the wireless tag that has transmitted the predetermined information based on the predetermined information received by the wireless communication unit 411 and the user information registered in advance. The wireless authentication unit 412 is realized by, for example, a program that operates in the CPU 321 (or CPU 311) in FIG. The wireless authentication unit 412 identifies the RFID tag 104 based on the tag ID of the RFID tag 104 received by the wireless communication unit 411 and the user information registered in advance (for example, user information a431, user information A406, etc.). Certify.

例えば、無線認証部412は、無線通信部411が受信したRFIDタグ104のタグIDが予め利用者情報に登録されている場合、RFIDタグ104の認証を許可する。また無線認証部412は、認証が許可されたRFIDタグ104の利用者を識別するための情報(例えば、後述する利用者番号)を装置認証部419、記憶部426等に出力する。 For example, the wireless authentication unit 412 permits authentication of the RFID tag 104 when the tag ID of the RFID tag 104 received by the wireless communication unit 411 is registered in the user information in advance. In addition, the wireless authentication unit 412 outputs information (for example, a user number described later) for identifying the user of the RFID tag 104 authorized for authentication to the device authentication unit 419, the storage unit 426, and the like.

送信制御部413は、無線通信部411による電波の送信を制御する手段であり、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。送信制御部413は、図16のRFタグリーダ103が、RFタグリーダ103の検知範囲252に送信する所定の電波を送信するか否かを制御する。 The transmission control unit 413 is a unit that controls the transmission of radio waves by the wireless communication unit 411, and is realized by, for example, a program that operates in the CPU 321 (or CPU 311) in FIG. The transmission control unit 413 controls whether or not the RF tag reader 103 of FIG. 16 transmits a predetermined radio wave to be transmitted to the detection range 252 of the RF tag reader 103.

例えば、送信制御部413は、本体310の移動体検知部401により、移動体センサ部318の検知範囲253に移動体が検知された場合、無線通信部411に電波を送信させる。また、送信制御部413は、本体310の移動体検知部401により、画像形成装置101の周囲に移動体が検知されない場合、無線通信部411に電波の送信を停止させる。 For example, when the moving body detection unit 401 of the main body 310 detects a moving body in the detection range 253 of the moving body sensor unit 318, the transmission control unit 413 causes the wireless communication unit 411 to transmit radio waves. Further, the transmission control unit 413 causes the wireless communication unit 411 to stop the transmission of radio waves when the moving body detection unit 401 of the main body 310 does not detect a moving body around the image forming apparatus 101.

撮像部(撮像手段)414は、例えば、図18のカメラ部332を用いて画像形成装置101の周辺の画像を撮像する手段であり、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。例えば、撮像部414は、画像形成装置101の前方の画像を撮像することにより、画像形成装置101の正面にいる利用者の画像を撮像する。 The image capturing unit (image capturing unit) 414 is, for example, a unit that captures an image of the periphery of the image forming apparatus 101 using the camera unit 332 in FIG. 18, and, for example, by a program operating in the CPU 321 (or CPU 311) in FIG. Will be realized. For example, the image capturing unit 414 captures an image of the user in front of the image forming apparatus 101 by capturing an image in front of the image forming apparatus 101.

画像認証部(画像認証手段)415は、撮像部414が撮像した画像と、予め登録された利用者情報とに基づいて、撮像部414が撮像した画像に含まれる利用者を認証する。画像認証部415は、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。画像認証部415は、撮像部414が撮像した画像から、特徴情報抽出部417が抽出した利用者の顔の特徴情報と、予め登録された利用者情報(例えば、利用者情報a431、利用者情報A406等)とに基づいて、画像に含まれる利用者の顔認証を行う。 The image authentication unit (image authentication unit) 415 authenticates the user included in the image captured by the image capturing unit 414 based on the image captured by the image capturing unit 414 and the user information registered in advance. The image authentication unit 415 is realized by, for example, a program that operates in the CPU 321 (or CPU 311) in FIG. The image authentication unit 415 uses the image captured by the image capturing unit 414 to extract the feature information of the user's face extracted by the feature information extracting unit 417 and the user information registered in advance (for example, the user information a431 and the user information. A406, etc.), and the face authentication of the user included in the image is performed.

例えば、画像認証部415は、特徴情報抽出部417が抽出した顔の特徴情報に対応する特徴情報が予め登録された利用者情報のいずれかに含まれる場合、画像に含まれる利用者の認証を許可する。また、画像認証部415は、認証が許可された利用者を識別するための情報(例えば、後述する利用者情報)を装置認証部419、記憶部426等に出力する。 For example, when the feature information corresponding to the face feature information extracted by the feature information extraction unit 417 is included in any of the user information registered in advance, the image authentication unit 415 authenticates the user included in the image. to approve. Further, the image authentication unit 415 outputs information (for example, user information described later) for identifying the user who is permitted to be authenticated, to the device authentication unit 419, the storage unit 426 and the like.

なお、本実施の形態では、画像認証部415は、公知の顔認証技術(例えば、特許文献1参照)を用いて、利用者の顔認証を行うことを想定している。また、画像認証部415は、撮像部414が撮像した画像に含まれる利用者の生体に関する特徴情報に基づいて、利用者の認証を行う様々な公知の画像認証方式、例えば、指紋認証、虹彩認証、静脈認証等で、利用者の認証を行うものであっても良い。 In the present embodiment, the image authentication unit 415 is assumed to perform face authentication of the user using a known face authentication technique (see, for example, Patent Document 1). The image authentication unit 415 also performs various known image authentication methods for authenticating the user based on the characteristic information regarding the user's living body included in the image captured by the image capturing unit 414, such as fingerprint authentication and iris authentication. The user may be authenticated by vein authentication or the like.

顔領域検出部416は、撮像部414が撮像した画像から顔領域を検出する手段であり、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。 The face area detection unit 416 is means for detecting a face area from the image captured by the image capturing unit 414, and is realized by, for example, a program operating by the CPU 321 (or CPU 311) in FIG. 18.

特徴情報抽出部417は、撮像部414が撮像した画像に顔画像が含まれる場合、顔画像から、顔の特徴情報を抽出する手段であり、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。顔の特徴情報には、例えば、顔の輪郭や、目、鼻、あご、ほお骨等の各パーツの形状及び相対位置等の情報が含まれる。なお、顔の特徴情報は、生体の特徴情報の一例である。 The feature information extraction unit 417 is a unit that extracts face feature information from the face image when the image captured by the imaging unit 414 includes a face image, and operates, for example, by the CPU 321 (or CPU 311) in FIG. 18. It is realized by a program. The face feature information includes, for example, information such as the contour of the face, the shape and relative position of each part such as the eyes, nose, chin, and cheekbones. The face feature information is an example of the biometric feature information.

画像判定部(画像判定手段)418は、上記で説明した実物判断処理により、撮像部414が撮像した画像に含まれる人物が生体(実物)が、非生体(写真)かを判定する。別の言い方をすれば、画像判定部418は、撮像部414が撮像した画像に含まれる判定の対象が所定の条件を満たす生体であるか否か判定する。画像判定部418は、例えば、図1に示す機能構成を含み、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。例えば、画像判定部418は、第1の実施形態の図3、6、8、10、12、14等で説明した実物判断処理により、「実物」と判断された場合、画像に撮像された人物が生体であると判断する。 The image determination unit (image determination unit) 418 determines whether the person included in the image captured by the image capturing unit 414 is a living body (real object) or a non-living body (photograph) by the above-described actual object determination processing. In other words, the image determination unit 418 determines whether the determination target included in the image captured by the imaging unit 414 is a living body that satisfies a predetermined condition. The image determination unit 418 includes, for example, the functional configuration shown in FIG. 1 and is realized by a program that operates in the CPU 321 (or CPU 311) in FIG. For example, when the image determination unit 418 determines “actual” by the actual determination process described in FIGS. 3, 6, 8, 10, 12, and 14 of the first embodiment, the person captured in the image. Is determined to be a living body.

装置認証部(装置認証手段)419は、無線認証部412によって認証が許可された利用者の情報と、画像認証部415で認証が許可された利用者の情報と、画像判定部418による写真か実物かの判断と、に基づいて、利用者の認証を行う。装置認証部419は、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。 The device authentication unit (device authentication means) 419 determines whether the information of the user authorized by the wireless authentication unit 412, the information of the user authorized by the image authentication unit 415, and the photograph by the image determination unit 418. Authenticate the user based on whether it is a real product or not. The device authentication unit 419 is realized by, for example, a program that operates in the CPU 321 (or CPU 311) in FIG.

例えば、装置認証部419は、無線認証部412によって認証が許可された無線タグの利用者と画像認証部415によって認証が許可された利用者とが同じ利用者であり、画像に撮像された人物が生体と判断された場合、利用者のログインを許可する。ログインを許可された利用者は、画像形成装置101の各種の画像形成機能を利用することができる。 For example, in the device authentication unit 419, the user of the wireless tag authorized by the wireless authentication unit 412 and the user authorized by the image authentication unit 415 are the same user, and the person captured in the image. If is judged to be a living body, the user is allowed to log in. A user who is permitted to log in can use various image forming functions of the image forming apparatus 101.

好適な一例として、装置認証部419は、無線認証部412から出力された無線タグの利用者の識別情報(利用者情報)と、画像認証部415から出力された利用者の識別情報(利用者情報)とが一致した場合、同じ利用者であると判断する。 As a preferred example, the device authentication unit 419 includes the identification information (user information) of the user of the wireless tag output from the wireless authentication unit 412 and the identification information of the user (user of the user output from the image authentication unit 415. If the information and) match, it is determined that the users are the same.

なお、「2つの識別情報が一致した場合」には、2つの識別情報が完全に一致した場合だけではなく、2つの識別情報が実質的に同じ利用者の識別情報と判断できる場合も含まれる。例えば、画像認証部415から得られた利用者の識別情報が8桁の社員IDであり、無線認証部412から得られた利用者の識別情報が社員IDに2文字を付加した10桁のログインIDであるような場合、2つの識別情報が一致したと判断される。 It should be noted that “when the two pieces of identification information match” includes not only the case where the two pieces of identification information completely match but also the case where the two pieces of identification information can be determined to be substantially the same user identification information. .. For example, the user identification information obtained from the image authentication unit 415 is an 8-digit employee ID, and the user identification information obtained from the wireless authentication unit 412 is a 10-digit login in which 2 characters are added to the employee ID. In the case of ID, it is determined that the two pieces of identification information match.

このように、装置認証部419は、無線認証部412から得られた利用者の識別情報と画像認証部415から得られた利用者の識別情報とが同じ利用者に関する識別情報である場合、同じ利用者であると判断するものであっても良い。 In this way, the device authentication unit 419 is the same when the user identification information obtained from the wireless authentication unit 412 and the user identification information obtained from the image authentication unit 415 are identification information regarding the same user. It may be determined to be the user.

パスワード認証部(パスワード認証手段)420は、利用者によって、例えば、図18の操作パネル部326に入力されたパスワードを受け付ける手段であり、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。 The password authentication unit (password authentication unit) 420 is a unit that receives a password input by the user to the operation panel unit 326 of FIG. 18, for example, by a program that operates on the CPU 321 (or CPU 311) of FIG. Will be realized.

ノイズ判定部(ノイズ判定手段)421は、画像判定部418が実物判断処理に用いる時系列のカメラ画像群の中に、例えば、蛍光灯のちらつき等、実物判断に影響を与えるノイズが乗っている画像があるかを判断する。ノイズ判定部421は、画像判定部418による実物判断に影響を与えるノイズを含む画像を破棄し、次の画像を待つことで実物判定の精度を向上させる。ノイズ判定部421は、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。 The noise determination unit (noise determination unit) 421 includes noise that affects the actual determination, such as a flicker of a fluorescent lamp, in the time-series camera image group used by the image determination unit 418 for the actual determination process. Determine if there is an image. The noise determination unit 421 discards an image including noise that affects the actual determination by the image determination unit 418, and waits for the next image to improve the accuracy of the actual determination. The noise determination unit 421 is realized by, for example, a program that operates in the CPU 321 (or CPU 311) in FIG.

例えば、ノイズ判定部421は、画像間の差分量によりノイズを判断する。ノイズ判定部421は、例えば、時系列に並んだ2枚の画像において、各画素の輝度値の差(絶対値)を求め、その総和を算出する。ノイズ判定部421は、算出された総和が、予め設定された閾値を超えている場合、画像全体の差分量が多過ぎるため、ノイズが乗っていると判断する。 For example, the noise determination unit 421 determines noise based on the difference amount between images. For example, the noise determination unit 421 obtains the difference (absolute value) between the luminance values of the pixels in the two images arranged in time series, and calculates the sum. When the calculated sum total exceeds the preset threshold value, the noise determination unit 421 determines that noise is present because the difference amount of the entire image is too large.

階層判定部422は、画像判定部418による実物判断処理を階層化する。階層化するとは、取得した生体の特徴情報を、複数の識別器を通して、最終的に画像か実物(生体)かを判断することを意味する。なお、階層判定部422の詳細については、第2の実施形態で後述する。 The layer determination unit 422 layers the actual determination processing by the image determination unit 418. Hierarchical means that the acquired characteristic information of the living body is finally judged as an image or a real body (living body) through a plurality of discriminators. The details of the hierarchy determination unit 422 will be described later in the second embodiment.

タイマ管理部(タイマ管理手段)423は、無線認証部412による認証結果、画像認証部415による認証結果、及び画像判定部418による判断結果等の有効期間を、タイマを用いて管理する。タイマ管理部423は、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。 The timer management unit (timer management unit) 423 manages the valid period of the authentication result by the wireless authentication unit 412, the authentication result by the image authentication unit 415, the determination result by the image determination unit 418, etc. using a timer. The timer management unit 423 is realized by, for example, a program that operates in the CPU 321 (or CPU 311) in FIG.

例えば、無線タグ(RFIDタグ104)を所持した利用者が、画像形成装置101の前を通過し、無線認証が許可された場合、その認証結果がいつまでも残っていると、誤認証や不正な認証を引き起す要因となり得る。タイマ管理部423は、無線認証部412による認証結果、画像認証部415による認証結果、及び画像判定部418による判断結果等を、所定の時間を経過後に削除、又は初期化することにより、誤認証や不正な認証等を低減させる。 For example, when a user carrying a wireless tag (RFID tag 104) passes in front of the image forming apparatus 101 and wireless authentication is permitted, if the authentication result remains forever, erroneous authentication or unauthorized authentication will occur. Can be a factor that causes. The timer management unit 423 deletes or initializes the authentication result by the wireless authentication unit 412, the authentication result by the image authentication unit 415, the determination result by the image determination unit 418, and the like after a predetermined time has passed, thereby erroneously authenticating. And reduce fraudulent authentication.

通信部424は、本体310と通信を行うための手段であり、例えば、図18の接続I/F部327、及び図18のCPU321(又はCPU311)で動作するプログラムによって実現される。なお、接続I/F部327には、操作部320が省電力状態の間も電力が供給されており、接続I/F部327は、本体310から送信される復帰要求を受信することができるものとする。 The communication unit 424 is a unit for communicating with the main body 310, and is realized by, for example, the connection I/F unit 327 in FIG. 18 and a program operating in the CPU 321 (or CPU 311) in FIG. The connection I/F unit 327 is supplied with power even when the operation unit 320 is in the power saving state, and the connection I/F unit 327 can receive the return request transmitted from the main body 310. I shall.

利用者情報管理部425は、記憶部426に記憶された利用者情報a431を管理する手段であり、例えば、図18のCPU321(又はCPU311)で動作するプログラムによって実現される。 The user information management unit 425 is a unit that manages the user information a431 stored in the storage unit 426, and is realized by, for example, a program that operates in the CPU 321 (or CPU 311) in FIG.

記憶部(記憶手段)426は、例えば、利用者情報a431や、階層判定部422が利用する生体情報432、非生体情報433等を記憶する手段である。記憶部426は、例えば、図18のフラッシュメモリ部324、RAM323、及び図18のCPU321で動作するプログラム等によって実現される。 The storage unit (storage unit) 426 is, for example, a unit that stores user information a431, biometric information 432 used by the hierarchy determination unit 422, non-biometric information 433, and the like. The storage unit 426 is realized by, for example, the flash memory unit 324 of FIG. 18, the RAM 323, and a program operating by the CPU 321 of FIG.

なお、記憶部426には、画像判定部418が有する図1の人物領域動作辞書22、顔領域動作辞書23等を記憶するものであっても良い。 The storage unit 426 may store the person area motion dictionary 22 and the face area motion dictionary 23 of FIG. 1 included in the image determination unit 418.

(利用者情報)
ここで、利用者情報a431の例について説明する。
(User information)
Here, an example of the user information a431 will be described.

図20は、第1の実施形態に係る利用者情報の例を示す図である。利用者情報a431は、予め登録された利用者情報の一例である。図20の例では、利用者情報a431には、「利用者番号」、「名前」、「メールアドレス」、「ログインID」、「ログインパスワード」、「無線タグID」、「顔の特徴情報」等の情報が含まれている。 FIG. 20 is a diagram showing an example of user information according to the first embodiment. The user information a431 is an example of user information registered in advance. In the example of FIG. 20, the user information a431 includes “user number”, “name”, “mail address”, “login ID”, “login password”, “wireless tag ID”, “face feature information”. Etc. is included.

「利用者番号」は、例えば、利用者情報a431に各利用者の情報が登録された際に採番されたシリアル番号等、利用者のデータ毎に固有の識別番号(又は識別情報)であり、利用者を識別する識別情報の一例である。「利用者番号」は、例えば、社員ID等の利用者のID等であっても良い。 The “user number” is, for example, an identification number (or identification information) unique to each user data, such as a serial number assigned when the information of each user is registered in the user information a431. , Is an example of identification information for identifying a user. The “user number” may be, for example, a user ID such as an employee ID.

「名前」は、利用者の名前の情報である。「メールアドレス」は、利用者のメールアドレスの情報である。「ログインID」、及び「ログインパスワード」は、利用者が画像形成装置101にログインするための認証情報の一例である。 "Name" is information on the name of the user. “Email address” is information on the user's email address. The “login ID” and the “login password” are examples of authentication information for the user to log in to the image forming apparatus 101.

「無線タグID」は、各利用者が所持しているRFIDタグ104によって送信されるタグID(識別情報)の情報であり、例えば、8桁の数字で表される。なお、「無線タグID」は、無線タグから送信される所定の情報の一例であり、所定の情報には、数字以外の情報、例えば、利用者の識別情報等が含まれていても良い。 The “wireless tag ID” is information of the tag ID (identification information) transmitted by the RFID tag 104 possessed by each user, and is represented by, for example, an 8-digit number. The "wireless tag ID" is an example of predetermined information transmitted from the wireless tag, and the predetermined information may include information other than numbers, for example, user identification information.

「顔の特徴情報」は、画像形成装置101の利用者の、例えば、顔の輪郭や、目、鼻、あご、ほお骨等の各パーツの形状及び相対位置等の情報を予め取得し、記憶した利用者の顔に関する特徴情報である。なお、図20に示す利用者の特徴情報のデータ形式は一例であり、データ形式は任意の形式であって良い。また、「顔の特徴情報」は、生体の特徴情報の一例である。 The “face characteristic information” is obtained by previously acquiring and storing information such as the contour of the face of the user of the image forming apparatus 101 and the shape and relative position of each part such as eyes, nose, chin, cheekbones, and the like. It is characteristic information about the user's face. The data format of the user characteristic information shown in FIG. 20 is an example, and the data format may be any format. The “face characteristic information” is an example of biological characteristic information.

操作部320の記憶部426には、例えば、図20に示すような利用者情報a431を300件〜1800件程度記憶することができる。例えば、操作部320の利用者情報管理部425は、本体310の記憶部404に記憶された利用者情報A406のうちの少なくとも一部を、操作部320の記憶部426に利用者情報a431として記憶しておく。これにより、無線認証部412、画像認証部415、パスワード認証部420等は、操作部320の記憶部426に記憶された利用者情報a431を用いて、本体310の記憶部404に記憶された利用者情報A406を用いるよりも速く、認証を行うことができる。操作部320の記憶部426は、例えば、本体310の記憶部404を構成するストレージ部314(例えば、HDD等)の起動を待たずにデータを読出すことができる。 The storage unit 426 of the operation unit 320 can store, for example, about 300 to 1800 user information items a431 as illustrated in FIG. For example, the user information management unit 425 of the operation unit 320 stores at least a part of the user information A406 stored in the storage unit 404 of the main body 310 in the storage unit 426 of the operation unit 320 as user information a431. I'll do it. As a result, the wireless authentication unit 412, the image authentication unit 415, the password authentication unit 420, and the like use the user information a431 stored in the storage unit 426 of the operation unit 320, and the usage stored in the storage unit 404 of the main body 310. Authentication can be performed faster than using the personal information A 406. The storage unit 426 of the operation unit 320 can read data, for example, without waiting for activation of the storage unit 314 (for example, HDD) that constitutes the storage unit 404 of the main body 310.

<処理の流れ>
続いて、画像形成装置(情報処理装置)101による情報処理方法の処理の流れについて説明する。
<Process flow>
Next, the flow of processing of the information processing method by the image forming apparatus (information processing apparatus) 101 will be described.

(無線認証処理)
図21は、第1の実施形態に係る無線認証処理の例を示すフローチャートである。
(Wireless authentication process)
FIG. 21 is a flowchart showing an example of the wireless authentication process according to the first embodiment.

ステップS2101において、無線通信部411が、無線タグ(RFIDタグ104)から無線タグID(所定の情報の一例)を受信すると、無線認証部412は、ステップS2102以降の処理を実行する。 In step S2101, when the wireless communication unit 411 receives the wireless tag ID (an example of predetermined information) from the wireless tag (RFID tag 104), the wireless authentication unit 412 executes the process of step S2102 and subsequent steps.

ステップS2102に移行すると、無線認証部412は、利用者情報(利用者情報a431、利用者情報A406)を参照して、無線通信部411が受信した無線タグIDに対応する利用者番号を取得する。例えば、図20に示す利用者情報a431において、無線通信部411が受信した無線タグIDが「00522213」である場合、無線認証部412は、無線タグID「00522213」に対応する利用者番号として「0001」を取得する。 When the process proceeds to step S2102, the wireless authentication unit 412 refers to the user information (user information a431, user information A406) and acquires the user number corresponding to the wireless tag ID received by the wireless communication unit 411. .. For example, in the user information a431 illustrated in FIG. 20, when the wireless tag ID received by the wireless communication unit 411 is “00522213”, the wireless authentication unit 412 sets “” as the user number corresponding to the wireless tag ID “00522213”. 0001" is acquired.

ステップS2103において、無線認証部412は、利用者情報(利用者情報a431、利用者情報A406)から、無線通信部411が受信した無線タグIDに対応する利用者番号を取得できたか否かによって処理を分岐させる。 In step S2103, the wireless authentication unit 412 performs processing depending on whether or not the user number corresponding to the wireless tag ID received by the wireless communication unit 411 can be acquired from the user information (user information a431, user information A406). Branch.

対応する利用者番号を取得できなかった場合、無線認証部412は、処理をステップS2106に移行させて、無線認証を許可しない(無線認証NG)と判断し、処理を終了させる。一方、対応する利用者番号を取得できた場合、無線認証部412は、処理をステップS2104に移行させる。 If the corresponding user number cannot be acquired, the wireless authentication unit 412 moves the process to step S2106, determines that wireless authentication is not permitted (wireless authentication NG), and ends the process. On the other hand, when the corresponding user number can be acquired, the wireless authentication unit 412 moves the process to step S2104.

ステップS2104に移行すると、無線認証部412は、無線認証を許可する(無線認証OK)と判断する。 Upon proceeding to step S2104, the wireless authentication unit 412 determines that wireless authentication is permitted (wireless authentication OK).

ステップS2105において、無線認証部412は、無線認証が許可されたことを示す無線認証結果(OK)と、利用者情報から取得した無線タグIDに対応する利用者番号を、装置認証部419、記憶部426等に出力する。 In step S2105, the wireless authentication unit 412 stores the wireless authentication result (OK) indicating that the wireless authentication is permitted and the user number corresponding to the wireless tag ID acquired from the user information in the device authentication unit 419. It is output to the unit 426 and the like.

上記の処理により、無線認証部412は、無線通信部411が受信した無線タグIDに対応する利用者が利用者情報に登録されている場合、無線認証を許可し、無線認証が許可された利用者の利用者番号を出力する。なお、利用者番号は、利用者を識別するための情報の一例であり、例えば、社員ID、メールアドレス等の他の情報であっても良い。 Through the above process, the wireless authentication unit 412 permits wireless authentication when the user corresponding to the wireless tag ID received by the wireless communication unit 411 is registered in the user information, and uses the wireless authentication permitted. The user's user number. The user number is an example of information for identifying the user, and may be other information such as an employee ID and an email address.

(画像認証処理)
図22は、第1の実施形態に係る画像認証処理の例を示すフローチャートである。
(Image authentication process)
FIG. 22 is a flowchart showing an example of the image authentication processing according to the first embodiment.

ステップS2201において、撮像部414は、カメラ部332を用いて画像を撮像する。このとき、撮像される画像の例を図23(a)に示す。 In step S2201, the image capturing unit 414 captures an image using the camera unit 332. An example of an image captured at this time is shown in FIG.

図23(a)に示す撮像画像2301には、画像形成装置101の前方にいる利用者2302が撮像されている。このように、カメラ部332は、画像形成装置101の前方にいる利用者が、撮像画像2301に含まれるように設置されているものとする。 In the captured image 2301 shown in FIG. 23A, a user 2302 in front of the image forming apparatus 101 is captured. In this way, the camera unit 332 is installed so that the user in front of the image forming apparatus 101 is included in the captured image 2301.

ステップS2202において、顔領域検出部416は、ステップS2201で撮像した画像から顔領域の画像(以下、顔画像と呼ぶ)を検出する。このとき、検出される顔画像の例を図23(b)に示す。顔領域検出部416は、例えば、カメラ部332で撮像された撮像画像2301から、公知のパターンマッチング技術等を用いて、利用者の顔の輪郭2304、目2305、鼻2306等のパーツを抽出し、利用者の顔画像2303を検出する。 In step S2202, the face area detection unit 416 detects an image of the face area (hereinafter referred to as a face image) from the image captured in step S2201. An example of the face image detected at this time is shown in FIG. The face area detection unit 416 extracts parts such as the user's face outline 2304, eyes 2305, and nose 2306 from the captured image 2301 captured by the camera unit 332 using a known pattern matching technique or the like. , The face image 2303 of the user is detected.

ステップS2203において、画像認証部415は、顔画像が検出されたか否かを判断する。顔画像が検出されない場合、画像認証部415は、処理をステップS2201に戻して、同様の処理を繰り返す。一方、顔画像が検出された場合、画像認証部415は、処理をステップS2204に移行させる。 In step S2203, the image authentication unit 415 determines whether a face image has been detected. If no face image is detected, the image authentication unit 415 returns the process to step S2201 and repeats the same process. On the other hand, when the face image is detected, the image authentication unit 415 shifts the processing to step S2204.

ステップS2204に移行すると、特徴情報抽出部417は、ステップS2202に検出された顔画像2303から、顔の特徴情報を抽出する。例えば、特徴情報抽出部417は、顔画像2303から、顔の輪郭、及び目、鼻、あご、ほお骨等の各パーツの形状や相対位置等の情報を取得する。 When the process moves to step S2204, the feature information extraction unit 417 extracts the face feature information from the face image 2303 detected in step S2202. For example, the feature information extraction unit 417 acquires information such as the contour of the face and the shape and relative position of each part such as the eyes, nose, chin, and cheekbones from the face image 2303.

ステップS2205において、画像認証部415は、利用者情報を取得する。例えば、画像認証部415は、記憶部426に記憶された利用者情報a431を取得する。 In step S2205, the image authentication unit 415 acquires user information. For example, the image authentication unit 415 acquires the user information a431 stored in the storage unit 426.

ステップS2206〜S2210において、画像認証部415は、ステップS2204で抽出された顔の特徴情報と、ステップS2205で取得した利用者情報に含まれる「顔の特徴情報」の各々と照合することにより、顔認証を行う。 In steps S2206 to S2210, the image authentication unit 415 compares the face characteristic information extracted in step S2204 with each of the “face characteristic information” included in the user information acquired in step S2205, thereby determining the face. Authenticate.

例えば、ステップS2206において、「i」(iは1以上の整数)を「1」に初期化する。 For example, in step S2206, “i” (i is an integer of 1 or more) is initialized to “1”.

ステップS2207において、画像認証部415は、ステップS2204で抽出された顔の特徴情報と、利用者情報の利用者番号「i」に対応する「顔の特徴情報」とが一致するか否かを判断する。なお、顔の特徴情報が一致するとは、2つの顔の特徴情報が完全に一致した場合だけではなく、2つの特徴情報の類似度が、予め定められた閾値以上である場合等も含まれる。 In step S2207, the image authentication unit 415 determines whether or not the face feature information extracted in step S2204 and the “face feature information” corresponding to the user number “i” of the user information match. To do. The matching of the face feature information includes not only the case where the two face feature information completely match, but also the case where the similarity between the two feature information is equal to or more than a predetermined threshold value.

顔の特徴情報が一致しない場合、画像認証部415は、処理をステップS2209に移行させる。一方、顔の特徴情報が一致した場合、画像認証部415は、処理をステップS2211に移行させる。 If the face characteristic information does not match, the image authentication unit 415 moves the process to step S2209. On the other hand, if the face feature information matches, the image authentication unit 415 moves the process to step S2211.

ステップS2209に移行すると、画像認証部415は、「i」が、利用者情報に登録されたユーザ数(iMAX)に達したか否かを判断する。「i」が「iMAX」に達していない場合、画像認証部415は、ステップS2210において、「i」に1を加算して、処理をステップS2207に戻す。一方、「i」が「iMAX」に達した場合、画像認証部415は、ステップS2213において、画像認証に失敗した(画像認証NG)と判断し、処理を終了させる。 In step S2209, the image authentication unit 415 determines whether “i” has reached the number of users (iMAX) registered in the user information. If “i” has not reached “iMAX”, the image authentication unit 415 adds 1 to “i” in step S2210 and returns the process to step S2207. On the other hand, when “i” reaches “iMAX”, the image authentication unit 415 determines in step S2213 that the image authentication has failed (image authentication NG), and ends the process.

一方、ステップS2211に移行すると、画像認証部415は、ステップS2211において、画像認証に成功した(画像認証OK)と判断する。また、画像認証部415は、ステップS2212において、画像認証が許可されたことを示す画像認証結果(OK)と、検出された顔画像と顔の特徴情報が一致した利用者の利用者番号を、装置認証部419、記憶部426等に出力する。 On the other hand, in step S2211, the image authentication unit 415 determines in step S2211 that the image authentication has succeeded (image authentication OK). Further, in step S2212, the image authentication unit 415 sets the image authentication result (OK) indicating that image authentication is permitted, and the user number of the user whose detected face image and face feature information match. The data is output to the device authentication unit 419, the storage unit 426 and the like.

上記の処理により、画像認証部415は、撮像部414で撮像された画像に含まれる利用者の顔の特徴情報が、利用者情報に登録されている場合、画像認証を許可し、画像認証が許可された利用者の利用者番号を出力する。 By the above processing, the image authentication unit 415 permits the image authentication when the feature information of the face of the user included in the image captured by the image capturing unit 414 is registered in the user information, and the image authentication is performed. Output the user number of the authorized user.

(画像判定処理)
図24は、第1の実施形態に係る画像判定処理の例を示すフローチャートである。
(Image determination process)
FIG. 24 is a flowchart showing an example of the image determination process according to the first embodiment.

ステップS2401において、撮像部414は、カメラ部332を用いて画像を撮像する。 In step S2401, the image capturing unit 414 captures an image using the camera unit 332.

ステップS2402において、画像判定部418は、第1に実施形態で説明した実物判断処理(例えば、図3、6、8、10、12、又は14等)を実行する。 In step S2402, the image determination unit 418 executes the physical object determination process described in the first embodiment (for example, FIG. 3, 6, 8, 10, 12, or 14).

ステップS2403において、画像判定部418は、ステップS2402で実行した実物判断処理で得られた、画像に含まれる人物が実物(生体)か写真(非生体)かの判断結果により、処理を分岐させる。 In step S2403, the image determination unit 418 branches the process depending on the determination result obtained in the actual determination process executed in step S2402 whether the person included in the image is a real (living body) or a photograph (non-living body).

ステップS2402実物判断処理により、「写真」(非生体)と判断された場合、画像判定部418は、処理をステップS2406に移行させ、画像判定NG(画像に含まれる人物が生体ではない)と判定し、処理を終了させる。 When it is determined in step S2402 that the object is a "photograph" (non-living body), the image determination unit 418 shifts the processing to step S2406 and determines that the image determination is NG (the person included in the image is not a living body). Then, the process ends.

一方、実物判断処理により、「実物」(生体)と判断された場合、画像判定部418は、処理をステップS2404に移行させる。 On the other hand, when it is determined by the actual object determination process that the object is a “real object” (living body), the image determination unit 418 shifts the process to step S2404.

ステップS2404に移行すると、画像判定部418は、画像判定OK(画像に含まれる人物が生体)と判定し、ステップS2405において、画像判定結果(OK)を、装置認証部419、記憶部426等に出力する。 When the process proceeds to step S2404, the image determination unit 418 determines that the image determination is OK (the person included in the image is a living body), and in step S2405, the image determination result (OK) is stored in the device authentication unit 419, the storage unit 426, or the like. Output.

上記の処理により、画像判定部418は、撮像部414で撮像された画像に含まれる人物が、「生体」であると判定された場合、画像判定結果(OK)を出力する。 By the above processing, the image determination unit 418 outputs an image determination result (OK) when the person included in the image captured by the image capturing unit 414 is determined to be a “living body”.

(画像形成装置の認証処理)
図25は、第1の実施形態に係る装置認証処理の例を示すフローチャートである。画像形成装置101は、例えば、移動体検知部401により移動体が検知され、状態制御部402により前述した通常状態に移行すると、図25に示す認証処理を開始する。
(Image forming apparatus authentication processing)
FIG. 25 is a flowchart showing an example of the device authentication process according to the first embodiment. For example, when the moving body detection unit 401 detects a moving body and the state control unit 402 shifts to the normal state, the image forming apparatus 101 starts the authentication process shown in FIG.

認証処理を開始すると、無線認証部412は、図21に示す無線認証処理を実行し(ステップS2501)、画像認証部415は、図22に示す画像認証処理を実行する(ステップS2502)。また、画像判定部418は、図24に示す画像判定処理を実行する(ステップS2503)。 When the authentication process is started, the wireless authentication unit 412 executes the wireless authentication process shown in FIG. 21 (step S2501), and the image authentication unit 415 executes the image authentication process shown in FIG. 22 (step S2502). The image determination unit 418 also executes the image determination processing shown in FIG. 24 (step S2503).

ステップS2504において、装置認証部419は、無線認証部412による無線認証が「OK」、画像認証部415による画像認証が「OK」、及び画像判定部418による画像判定が「OK」であるか否かを判断する。 In step S2504, the device authentication unit 419 determines whether the wireless authentication by the wireless authentication unit 412 is “OK”, the image authentication by the image authentication unit 415 is “OK”, and the image determination by the image determination unit 418 is “OK”. To judge.

無線認証が「OK」、かつ画像認証が「OK」、かつ画像判定が「OK」である場合、装置認証部419は、処理をステップS2505に移行させる。一方、無線認証、画像認証、及び画像判定のうち、1つでも「OK」でないものがある場合、装置認証部419は、処理をステップS2501、S2502、S2503に戻す。また、装置認証部419は、無線認証が「OK」、かつ画像認証が「OK」、かつ画像判定が「OK」となるのを待つ。 When the wireless authentication is “OK”, the image authentication is “OK”, and the image determination is “OK”, the device authentication unit 419 shifts the processing to step S2505. On the other hand, if any of the wireless authentication, the image authentication, and the image determination is not “OK”, the device authentication unit 419 returns the process to steps S2501, S2502, and S2503. Further, the device authentication unit 419 waits until the wireless authentication is “OK”, the image authentication is “OK”, and the image determination is “OK”.

ステップS2505に移行すると、装置認証部419は、無線認証が許可された無線タグの利用者と、画像認証が許可された利用者が同じ利用者であるか否かを判断する。例えば、装置認証部419は、無線認証部412から出力された利用者番号と、画像認証部415から出力された利用者番号が一致するか否かを判断する。なお、無線認証が許可された利用者番号、又は画像認証が許可された利用者番号が複数ある場合、そのうちのいずれか1つが一致する場合、無線認証が許可された無線タグの利用者と、画像認証が許可された利用者が同じ利用者であると判断する。 When the process proceeds to step S2505, the device authentication unit 419 determines whether the user of the wireless tag for which the wireless authentication is permitted and the user for which the image authentication is permitted are the same user. For example, the device authentication unit 419 determines whether the user number output from the wireless authentication unit 412 and the user number output from the image authentication unit 415 match. In addition, when there are a plurality of user numbers for which the wireless authentication is permitted, or a plurality of user numbers for which the image authentication is permitted, and when any one of them matches, the user of the wireless tag for which the wireless authentication is permitted, It is determined that the users who are authorized for image authentication are the same users.

無線認証が許可された無線タグの利用者と、画像認証が許可された利用者が同じ利用者でないと判断された場合、装置認証部419は、処理をステップS2501、S2502、S2503に戻す。また、装置認証部419は、無線認証が許可された無線タグの利用者と、画像認証が許可された利用者が同じ利用者となるのを待つ。 When it is determined that the user of the wireless tag permitted for wireless authentication and the user permitted for image authentication are not the same user, the device authentication unit 419 returns the process to steps S2501, S2502, and S2503. In addition, the device authentication unit 419 waits until the user of the wireless tag for which the wireless authentication is permitted and the user for which the image authentication is permitted become the same user.

一方、無線認証が許可された無線タグの利用者と、画像認証が許可された利用者が同じ利用者であると判断された場合、ステップS2506において、装置認証部419は、利用者のログインを許可する(画像形成装置の利用を許可する)。 On the other hand, when it is determined that the user of the wireless tag for which the wireless authentication is permitted and the user for which the image authentication is permitted are the same user, in step S2506, the device authentication unit 419 logs in the user. Permit (permit the use of the image forming apparatus).

上記の処理により、装置認証部419は、無線認証が許可された無線タグの利用者と、画像認証が許可された利用者とが同じ利用者であり、かつ画像に撮像された人物が生体であると判定された場合、利用者の画像形成装置101の使用を許可する。 Through the above processing, the device authentication unit 419 causes the user of the wireless tag permitted to perform the wireless authentication and the user permitted to perform the image authentication to be the same user, and the person imaged in the image is the living body. If it is determined that the user is allowed to use the image forming apparatus 101.

以上、本実施形態に係る画像形成装置101によれば、顔認証等の撮像された画像により利用者を認証する情報処理装置において、写真等の非生体によるなりすましを防止し、利用者の認証の精度を向上させることができる。 As described above, according to the image forming apparatus 101 according to the present embodiment, in an information processing apparatus that authenticates a user with a captured image such as face authentication, impersonation by a non-living body such as a photograph is prevented, and user authentication is performed. The accuracy can be improved.

なお、上記の実施形態の構成、及び処理の流れは一例であり、様々な応用や変形が可能である。続いて、第2の実施形態の様々な変形例について説明する。 It should be noted that the configuration and the flow of processing of the above-described embodiment are examples, and various applications and modifications are possible. Subsequently, various modifications of the second embodiment will be described.

<変形例1>
図26は、変形例1に係る画像判定処理の例を示すフローチャートである。なお、図26のステップS2401、及びS2402〜S2406の処理は、図24に示す第1の実施形態に係る画像判定処理と同様なので、ここでは差分を中心に説明を行う。
<Modification 1>
FIG. 26 is a flowchart showing an example of the image determination process according to the first modification. Note that the processes of steps S2401 and S2402 to S2406 of FIG. 26 are the same as the image determination process according to the first embodiment shown in FIG. 24, and therefore the difference will be mainly described here.

ステップS2401において、撮像部414が、カメラ部332を用いて画像を撮像すると、ステップS2601において、画像形成装置101の顔領域検出部416は、撮像された画像から顔画像を検知する。なお、顔画像を検出する処理は、図22のステップS2202と同様で良い。 In step S2401, the image capturing unit 414 captures an image using the camera unit 332, and in step S2601, the face area detection unit 416 of the image forming apparatus 101 detects a face image from the captured image. The process of detecting the face image may be the same as step S2202 of FIG.

ステップS2602において、画像形成装置101の画像判定部418は、撮像された画像から顔画像が検出されたか否かに応じて、処理を分岐させる。 In step S2602, the image determination unit 418 of the image forming apparatus 101 branches the process depending on whether or not a face image is detected from the captured image.

撮像された画像から顔画像が検出されない場合、画像形成装置101は、処理をステップS2401に戻して、同様の処理を繰り返す。一方、撮像された画像から顔画像が検出された場合、画像形成装置101は、処理をステップS2402に移行させて、実物判断処理を実行する。 When the face image is not detected from the captured image, the image forming apparatus 101 returns the process to step S2401 and repeats the same process. On the other hand, when the face image is detected from the captured image, the image forming apparatus 101 shifts the processing to step S2402 and executes the physical object determination processing.

上記の処理により、撮像された画像に顔が含まれない場合に、実物判断処理が行われることを回避し、画像形成装置101の負荷を軽減させることができる。 By the above processing, when the captured image does not include a face, it is possible to avoid performing the actual determination processing and reduce the load on the image forming apparatus 101.

<変形例2>
図27は、変形例2に係る画像判定処理の例を示す図である。なお、図27のステップS2402〜S2406の処理は、図24に示す第1の実施形態に係る画像判定処理と同様なので、ここでは差分を中心に説明を行う。
<Modification 2>
FIG. 27 is a diagram illustrating an example of image determination processing according to the second modification. Note that the processes of steps S2402 to S2406 of FIG. 27 are the same as the image determination process according to the first embodiment shown in FIG. 24, and therefore the difference will be mainly described here.

ステップS2701において、撮像部414は、カメラ部332を用いて、時系列で連続した2つ以上の画像を撮像する。 In step S2701, the imaging unit 414 uses the camera unit 332 to capture two or more continuous images in time series.

ステップS2702において、画像形成装置101のノイズ判定部421は、ステップS2701で撮像した画像のノイズ判定を行う。なお、ノイズ判定は、例えば、前述したように、時系列に並んだ2つの画像の各画素の輝度値の差の絶対値を求め、その総和の差がしきい値以上であるか否かによって、ノイズの有無を判断することができる。 In step S2702, the noise determination unit 421 of the image forming apparatus 101 performs noise determination of the image captured in step S2701. Note that the noise determination is performed, for example, by determining the absolute value of the difference between the luminance values of the pixels of the two images arranged in time series and determining whether the difference between the sums is equal to or greater than a threshold value, as described above. The presence or absence of noise can be determined.

ステップS2703において、画像形成装置101のノイズ判定部421は、ステップS2702において、ノイズが検知されたか否かに応じて、処理を分岐させる。 In step S2703, the noise determination unit 421 of the image forming apparatus 101 branches the process depending on whether or not noise is detected in step S2702.

撮像された画像からノイズが検知された場合、画像形成装置101は、処理をステップS2701に戻して、同様の処理を繰り返す。一方、撮像された画像からノイズが検知されない場合、画像形成装置101は、処理をステップS2402に移行させて、実物判断処理を実行する。 When noise is detected in the captured image, the image forming apparatus 101 returns the process to step S2701 and repeats the same process. On the other hand, when no noise is detected in the captured image, the image forming apparatus 101 shifts the processing to step S2402 and executes the actual object determination processing.

上記の処理により、画像形成装置101は、撮像された画像にノイズが含まれる場合に、ノイズが含まれる画像を除外して実物判断処理を行う。これにより、画像形成装置101は、画像形成装置101の負荷を軽減させると共に、誤判定を低減させることができる。 By the above processing, when the captured image contains noise, the image forming apparatus 101 excludes the image containing noise and performs the actual determination process. As a result, the image forming apparatus 101 can reduce the load on the image forming apparatus 101 and reduce erroneous determination.

<変形例3>
図28は、変形例3に係る認証処理のタイムアウト処理の例を示すフローチャートである。例えば、無線タグを所持したユーザ利用者が、画像形成装置101の近くを通行すると、無線認証が許可され、その無線認証結果(OK)が残ってしまう場合がある。このような情報は、所定の時間を経過後に削除することが望ましい。変形例3では、無線認証、画像認証、及び画像判定の結果情報を所定の時間を経過した後に削除、又は初期化する場合の処理の例について説明する。
<Modification 3>
FIG. 28 is a flowchart showing an example of the timeout process of the authentication process according to the modified example 3. For example, when a user user carrying a wireless tag passes near the image forming apparatus 101, wireless authentication may be permitted and the wireless authentication result (OK) may remain. It is desirable to delete such information after a predetermined time has elapsed. In the third modification, an example of a process for deleting or initializing the result information of the wireless authentication, the image authentication, and the image determination after a predetermined time has passed will be described.

なお、図28のステップS2501〜S2503、及びステップS2504〜S2506の処理は、図25に示す第1の実施形態に係る画像形成装置の認証処理と同様なので、ここでは、差分を中心に説明を行う。 Note that the processes of steps S2501 to S2503 and steps S2504 to S2506 of FIG. 28 are the same as the authentication process of the image forming apparatus according to the first embodiment shown in FIG. 25, and therefore the differences will be mainly described here. ..

ステップS2801において、画像形成装置101のタイマ管理部423は、ステップS2501で無線認証がOKとなった利用者の無線認証タイマをスタートさせる。なお、無線認証タイマは、無線認証がOKとなったときに開始され、その認証結果の有効期間(例えば5分間)を示すタイマであり、無線認証がOKとなった利用者毎に個別に管理される。 In step S2801, the timer management unit 423 of the image forming apparatus 101 starts the wireless authentication timer of the user whose wireless authentication is OK in step S2501. The wireless authentication timer is a timer that starts when the wireless authentication is OK and indicates a valid period (for example, 5 minutes) of the authentication result, and is managed individually for each user whose wireless authentication is OK. To be done.

同様に、ステップS2802において、タイマ管理部423は、ステップS2502で画像認証がOKとなった利用者の画像認証タイマをスタートさせる。なお、画像認証タイマは、画像認証がOKとなったときに開始され、その認証結果の有効期間(例えば5分間)を示すタイマであり、画像認証がOKとなった利用者毎に個別に管理される。 Similarly, in step S2802, the timer management unit 423 starts the image authentication timer of the user whose image authentication is OK in step S2502. The image authentication timer is a timer that is started when the image authentication is OK and indicates a valid period (for example, 5 minutes) of the authentication result, and is managed individually for each user whose image authentication is OK. To be done.

また、ステップS2803において、タイマ管理部423は、ステップS2503で画像判定がOKとなった場合、画像判定タイマをスタートさせる。なお、画像判定タイマは、画像判定がOKとなったときに開始され、その画像判定結果の有効期間(例えば3分間)を示すタイマである。 In step S2803, the timer management unit 423 starts the image determination timer when the image determination is OK in step S2503. The image determination timer is a timer that starts when the image determination is OK and indicates the valid period (for example, 3 minutes) of the image determination result.

ステップS2804において、タイマ管理部423は、無線認証がOKとなった各利用者の無線認証タイマがタイムアウトしたか否かを判断する。タイムアウトした無線認証タイマがある場合、ステップS2805において、タイマ管理部423は、無線認証タイマがタイムアウトとなった利用者の無線認証結果(OK)を無効にする(例えば、対応する無線認証結果を削除する)。 In step S2804, the timer management unit 423 determines whether or not the wireless authentication timer of each user whose wireless authentication is OK has timed out. If there is a wireless authentication timer that has timed out, in step S2805, the timer management unit 423 invalidates the wireless authentication result (OK) of the user whose wireless authentication timer has timed out (for example, deletes the corresponding wireless authentication result). To).

ステップS2806において、タイマ管理部423は、画像認証がOKとなった各利用者の画像認証タイマがタイムアウトしたか否かを判断する。タイムアウトした画像認証タイマがある場合、ステップS2807において、タイマ管理部423は、画像認証タイマがタイムアウトとなった利用者の画像認証結果(OK)を無効にする(例えば、対応する画像認証結果を削除する)。 In step S2806, the timer management unit 423 determines whether or not the image authentication timer of each user whose image authentication is OK has timed out. If there is an image authentication timer that has timed out, in step S2807, the timer management unit 423 invalidates the image authentication result (OK) of the user whose image authentication timer has timed out (for example, deletes the corresponding image authentication result). To).

ステップS2808において、タイマ管理部423は、画像判定タイマがタイムアウトしたか否かを判断する。画像判定タイマがタイムアウトした場合、ステップS2809において、タイマ管理部423は、画像判定部418の画像判定結果を無効にする(例えば、削除又は初期化する)。 In step S2808, the timer management unit 423 determines whether the image determination timer has timed out. When the image determination timer times out, in step S2809, the timer management unit 423 invalidates (for example, deletes or initializes) the image determination result of the image determination unit 418.

上記の処理により、無線認証処理、画像認証処理、及び画像判定処理の処理結果が、所定の時間を経過すると無効になる(削除、又は初期化される)。これにより、画像形成装置101は、認証結果を記憶する記憶領域の不要な情報を低減させると共に、誤認証や不正な認証を低減させることができる。 By the above processing, the processing results of the wireless authentication processing, the image authentication processing, and the image determination processing become invalid (deleted or initialized) after a predetermined time has elapsed. As a result, the image forming apparatus 101 can reduce unnecessary information in the storage area that stores the authentication result and reduce erroneous authentication and unauthorized authentication.

<変形例4>
例えば、利用者がマスクやサングラス等をしている場合、一般的に顔認証等の画像認証をパスすることは困難である。また、利用者が無線タグを所持していない場合、利用者は、無線認証をパスすることはできない。変形例4では、このような場合に、画像形成装置101が、パスワード認証等の代替の認証手段を提供する場合の例について説明する。
<Modification 4>
For example, when a user wears a mask or sunglasses, it is generally difficult to pass image authentication such as face authentication. Further, if the user does not have a wireless tag, the user cannot pass the wireless authentication. Modification 4 describes an example in which the image forming apparatus 101 provides an alternative authentication means such as password authentication in such a case.

なお、図29において、ステップS2501〜S2506の処理は、図25に示す第1の実施形態に係る画像形成装置の認証処理と同様なので、ここでは差分を中心に説明を行う。 Note that, in FIG. 29, the processes of steps S2501 to S2506 are the same as the authentication process of the image forming apparatus according to the first embodiment shown in FIG. 25, and therefore the difference will be mainly described here.

ステップS2901において、画像形成装置101のパスワード認証部420は、例えば、図18の操作パネル部326にパスワード入力画面を表示させて、利用者によるパスワードの入力を受け付ける。 In step S2901, the password authentication unit 420 of the image forming apparatus 101 displays the password input screen on the operation panel unit 326 of FIG. 18, for example, and accepts the password input by the user.

ステップS2902において、画像形成装置101の装置認証部419は、ステップS2901において、パスワードの入力を受付済か否かを判断する。パスワードの入力を受付済でない場合、画像形成装置101は、処理をステップS2501〜S2503、及びS2901に戻す。一方、パスワードの入力を受付済の場合、装置認証部419は、処理をステップS2903に移行させる。 In step S2902, the device authentication unit 419 of the image forming apparatus 101 determines whether or not the input of the password has been accepted in step S2901. If the input of the password has not been accepted, the image forming apparatus 101 returns the process to steps S2501 to S2503 and S2901. On the other hand, if the input of the password has been received, the device authentication unit 419 shifts the processing to step S2903.

ステップS2903に移行すると、装置認証部419は、受付済のパスワードが、無線認証がOKとなった利用者のパスワードと一致するか否かを判断する。 When the process proceeds to step S2903, the device authentication unit 419 determines whether or not the accepted password matches the password of the user whose wireless authentication is OK.

受付済のパスワードが、無線認証がOKとなった利用者のパスワードと一致する場合、装置認証部419は、処理をステップS2506に移行させて、利用者に画像形成装置101の利用を許可する。 When the accepted password matches the password of the user whose wireless authentication is OK, the device authentication unit 419 shifts the processing to step S2506, and permits the user to use the image forming apparatus 101.

一方、受付済のパスワードが、無線認証がOKとなった利用者のパスワードと一致しない場合、装置認証部419は、処理をステップS2904に移行させる。 On the other hand, when the accepted password does not match the password of the user whose wireless authentication is OK, the device authentication unit 419 shifts the processing to step S2904.

ステップS2904に移行すると、装置認証部419は、受付済のパスワードが、画像認証がOKとなった利用者のパスワードと一致するか否かを判断する。 When the process proceeds to step S2904, the device authentication unit 419 determines whether the accepted password matches the password of the user whose image authentication has been OK.

受付済のパスワードが、画像認証がOKとなった利用者のパスワードと一致する場合、装置認証部419は、処理をステップS2506に移行させて、利用者に画像形成装置101の利用を許可する。 When the accepted password matches the password of the user whose image authentication is OK, the device authentication unit 419 moves the process to step S2506, and permits the user to use the image forming apparatus 101.

一方、受付済のパスワードが、画像認証がOKとなった利用者のパスワードと一致しない場合、装置認証部419は、処理をステップS2501〜S2503、及びS2901に戻す。 On the other hand, when the accepted password does not match the password of the user whose image authentication is OK, the device authentication unit 419 returns the processing to steps S2501 to S2503 and S2901.

上記の処理により、画像形成装置101の利用者は、無線認証、又は画像認証を利用できない場合でも、代替の認証手段(例えばパスワード認証等)により、画像形成装置101を利用することができるようになる。 By the above processing, the user of the image forming apparatus 101 can use the image forming apparatus 101 by alternative authentication means (for example, password authentication) even when wireless authentication or image authentication cannot be used. Become.

<変形例5>
図30は、変形例5に係る画像認証処理の例を示す図である。
<Modification 5>
FIG. 30 is a diagram illustrating an example of image authentication processing according to the fifth modification.

図22に示す画像認証処理では、画像認証部415が、画像から抽出された顔の特徴情報と、利用者情報に登録された複数の利用者の顔の特徴情報とを順次に比較し、画像認証を行う場合の例について説明した。変形例5では、既に無線認証がOKとなった利用者がいる場合、画像から抽出された顔の特徴情報と、無線認証がOKとなった利用者の顔の特徴情報とを比較し、画像認証を行う場合の例について説明する。 In the image authentication processing shown in FIG. 22, the image authentication unit 415 sequentially compares the face feature information extracted from the image with the face feature information of a plurality of users registered in the user information, An example of performing authentication has been described. In Modification 5, when there is a user whose wireless authentication is already OK, the facial feature information extracted from the image is compared with the facial feature information of the user whose wireless authentication is OK, and the image is displayed. An example of authentication will be described.

なお、図30のステップS2201〜S2204、及びステップS2205〜S2213の処理は、図22に示す第1の実施形態に係る画像認証処理と同様なので、ここでは、差分を中心に説明を行う。 Note that the processes of steps S2201 to S2204 and steps S2205 to S2213 of FIG. 30 are the same as the image authentication process according to the first embodiment shown in FIG. 22, and therefore the difference will be mainly described here.

変形例5では、特徴情報抽出部417が、ステップS2204で顔画像から顔の特徴情報を抽出した後、画像認証部415は、ステップS3001において、無線認証がOKとなった利用者がいるか否かを判断する。 In the fifth modification, the feature information extraction unit 417 extracts the face feature information from the face image in step S2204, and then the image authentication unit 415 determines whether or not there is a user whose wireless authentication is OK in step S3001. To judge.

無線認証がOKとなった利用者がいない場合、画像認証部415は、処理をステップS2205に移行させて、図22と同様の処理を実行する。一方、無線認証がOKとなった利用者がいる場合、画像認証部415は、処理をステップS3002に移行させる。 If there is no user whose wireless authentication is OK, the image authentication unit 415 shifts the processing to step S2205 and executes the same processing as in FIG. On the other hand, when there is a user whose wireless authentication is OK, the image authentication unit 415 moves the process to step S3002.

ステップS3002に移行すると、画像認証部415は、無線認証がOKとなった利用者の顔の特徴情報を含む利用者情報を取得する。 In step S3002, the image authentication unit 415 acquires user information including facial feature information of the user whose wireless authentication has been OK.

ステップS3003において、画像認証部415は、ステップS2204で抽出された顔の特徴情報と、ステップS3002で取得した無線認証がOKとなった利用者の顔の特徴情報とを比較する。 In step S3003, the image authentication unit 415 compares the facial feature information extracted in step S2204 with the facial feature information of the user for whom the wireless authentication obtained in step S3002 is OK.

ステップS3004において、画像認証部415は、ステップS2204で抽出された顔の特徴情報と、ステップS3002で取得した無線認証がOKとなった利用者の顔の特徴情報とが一致したか否かを判断する。なお、顔の特徴情報が一致するとは、2つの顔の特徴情報が完全に一致した場合だけではなく、2つの特徴情報の類似度が、予め定められた閾値以上である場合等も含まれる。 In step S3004, the image authentication unit 415 determines whether or not the facial feature information extracted in step S2204 and the facial feature information of the user for whom the wireless authentication obtained in step S3002 is OK. To do. The matching of the face feature information includes not only the case where the two face feature information completely match, but also the case where the similarity between the two feature information is equal to or more than a predetermined threshold value.

顔の特徴情報が一致しない場合、画像認証部415は、処理をステップS3005に移行させる。一方、顔の特徴情報が一致した場合、画像認証部415は、処理をステップS2211に移行させ、画像認証OKの場合の処理を実行する。 If the face characteristic information does not match, the image authentication unit 415 moves the process to step S3005. On the other hand, if the face feature information matches, the image authentication unit 415 moves the process to step S2211, and executes the process in the case of image authentication OK.

ステップS3005に移行すると、画像認証部415は、画像認証に失敗した(画像認証NG)と判断し、処理を終了させる。 In step S3005, the image authentication unit 415 determines that the image authentication has failed (image authentication NG), and ends the process.

上記の処理により、無線認証がOKとなった利用者がいる場合、顔の特徴情報を比較する利用者の数が少なくなるので、画像形成装置101の処理の負荷を軽減させると共に、処理を高速化させることができる。 With the above processing, when there is a user whose wireless authentication is OK, the number of users who compare the facial feature information is reduced, so that the processing load of the image forming apparatus 101 is reduced and the processing speed is increased. Can be turned into.

<変形例6>
図31は、変形例6に係る送信制御処理の例を示すフローチャートである。
<Modification 6>
FIG. 31 is a flowchart showing an example of transmission control processing according to the sixth modification.

画像形成装置101の周辺に利用者がいない場合、近距離無線部329が送信する電波は不要と考えられる。そのため、変形例6では、画像形成装置101が、無駄な電波の送信を抑制するため、移動体検知部401による移動体の検知結果に応じて、近距離無線部329の電波の送信を制御する場合の例について説明する。 When there is no user in the vicinity of the image forming apparatus 101, the radio wave transmitted by the short-range wireless unit 329 is considered unnecessary. Therefore, in Modification 6, the image forming apparatus 101 controls the transmission of the radio waves of the short-range wireless unit 329 in accordance with the detection result of the mobile body by the mobile body detection unit 401 in order to suppress the useless transmission of the radio waves. A case example will be described.

ステップS3101において、画像形成装置101の移動体検知部401による移動体の検知状態が変化した場合、送信制御部413は、ステップS3102以降の処理を実行する。 In step S3101, when the moving body detection state of the moving body detection unit 401 of the image forming apparatus 101 changes, the transmission control unit 413 executes the processing of step S3102 and subsequent steps.

ステップS3102に移行すると、送信制御部413は、移動体検知部401の検知結果に基づいて、移動体検知部401の検知範囲内に移動体があるか否かを判断する。移動体検知部401の検知範囲内に移動体がある場合、送信制御部413は、処理をステップS3103に移行させる。一方、移動体検知部401の検知範囲内に移動体がない場合、送信制御部413は、処理をステップS3105に移行させる。 When the process proceeds to step S3102, the transmission control unit 413 determines, based on the detection result of the moving body detection unit 401, whether or not there is a moving body within the detection range of the moving body detection unit 401. When there is a moving body within the detection range of the moving body detection unit 401, the transmission control unit 413 shifts the processing to step S3103. On the other hand, when there is no moving body within the detection range of the moving body detection unit 401, the transmission control unit 413 shifts the processing to step S3105.

ステップS3103に移行すると、送信制御部413は、近距離無線部329が電波を送信中か否かを判断する。近距離無線部329が電波を送信中でない場合、ステップS3104において、送信制御部413は、近距離無線部329の電波の送信を開始させる。一方、近距離無線部329が電波を送信中の場合、送信制御部413は処理を終了させる。 When the process proceeds to step S3103, the transmission control unit 413 determines whether the short-range wireless unit 329 is transmitting radio waves. If the short-range wireless unit 329 is not transmitting radio waves, in step S3104, the transmission control unit 413 causes the short-range wireless unit 329 to start transmitting radio waves. On the other hand, when the short-range wireless unit 329 is transmitting a radio wave, the transmission control unit 413 ends the process.

ステップS3105に移行すると、送信制御部413は、近距離無線部329が電波を送信中か否かを判断する。近距離無線部329が電波を送信中の場合、ステップS3106において、送信制御部413は、近距離無線部329の電波の送信を停止させる。一方、近距離無線部329が電波を送信中でない場合、送信制御部413は処理を終了させる。 When the process proceeds to step S3105, the transmission control unit 413 determines whether the short-range wireless unit 329 is transmitting radio waves. When the short-range wireless unit 329 is transmitting radio waves, the transmission control unit 413 causes the short-range wireless unit 329 to stop transmitting radio waves in step S3106. On the other hand, when the short-range wireless unit 329 is not transmitting radio waves, the transmission control unit 413 ends the process.

上記の処理により、画像形成装置101は、画像形成装置101の周辺に移動体(人物等)がある場合、近距離無線部329に電波を送信させて、画像形成装置101の周辺に移動体がない場合、近距離無線部329に電波の送信を停止させることができる。 By the above processing, when there is a moving body (person or the like) around the image forming apparatus 101, the image forming apparatus 101 causes the short-range wireless unit 329 to transmit a radio wave so that the moving body is around the image forming apparatus 101. If not, the short-range wireless unit 329 can be stopped from transmitting radio waves.

[第2の実施形態]
第2の実施形態では、第1の実施形態に係る画像形成装置101の画像判定処理を階層化する場合の例について説明する。階層化するとは、抽出された生体の特徴情報(例えば、顔の特徴情報)を複数の識別器を通して、最終的に生体かどうかを判定することを意味する。
[Second Embodiment]
In the second embodiment, an example in which the image determination processing of the image forming apparatus 101 according to the first embodiment is layered will be described. Hierarchical means that the extracted biometric feature information (for example, facial feature information) is finally judged through a plurality of discriminators to determine whether or not it is a biometric.

例えば、画像形成装置101の設置環境や利用シーン等により、一度に生体か否かを判定することが難しい場合、画像判定部418に代えて、階層判定部422で生体の判定を行う。なお、画像判定部418と、階層判定部422のどちらで判定を行うかは、例えば、画像形成装置101の管理者や利用者等が、設定画面等から設定できることが望ましい。 For example, when it is difficult to determine whether a living body is a living body at a time due to the installation environment of the image forming apparatus 101, a usage scene, or the like, the hierarchy determining unit 422 instead of the image determining unit 418 determines the living body. It should be noted that which of the image determination unit 418 and the hierarchy determination unit 422 is to be used for the determination is preferably set by a manager or a user of the image forming apparatus 101 from a setting screen or the like.

<機能構成>
第2の実施形態に係る画像形成装置101の機能構成は、図19に示す第1の実施形態に係る画像形成装置101の機能構成と同様である。
<Functional configuration>
The functional configuration of the image forming apparatus 101 according to the second embodiment is similar to the functional configuration of the image forming apparatus 101 according to the first embodiment shown in FIG.

階層判定部(画像判定手段の別の一例)422は、画像判定部418による画像判定の判定処理を階層化する。判定処理を階層化するとは、抽出された生体の特徴情報(例えば、顔の特徴情報)を複数の識別器を通して、最終的に生体かどうかを判定することを意味する。 The layer determination unit (another example of the image determination unit) 422 hierarchically determines the image determination process performed by the image determination unit 418. Hierarchizing the determination process means finally determining whether or not the extracted biometric feature information (for example, face feature information) is passed through a plurality of discriminators.

本実施形態では、識別器として「判別分析」を使用、グルーピング方法として「k−means(k平均法)を使用、階層を「大分類」、「中分類」、「小分類」の3階層に分けた場合の例について説明する。 In the present embodiment, “discriminant analysis” is used as a discriminator, “k-means (k-means)” is used as a grouping method, and the hierarchy is divided into three layers of “large classification”, “medium classification”, and “small classification”. An example of the divided case will be described.

記憶部426には、撮像部414で撮像した生体の画像を用いて、予め作成された生体情報432と、撮像部414で撮像した非生体の画像を用いて、予め作成された非生体情報433が記憶されているものとする。 The storage unit 426 uses the biological image captured by the image capturing unit 414 to generate biological information 432 that has been created in advance, and the non-living biological image captured by the image capturing unit 414 that has previously created non-living information 433. Is stored.

(階層化の例)
図32〜36は、第2の実施形態に係る階層化について説明するための図である。
(Example of layering)
32 to 36 are diagrams for explaining the layering according to the second embodiment.

記憶部426に予め記憶された生体情報432と非生体情報433に基づいて、抽出された特徴情報を判別分析にかけたとき、上位3本の判別軸で張られる空間に射影した抽出された特徴情報をk−meansでグルーピングすると、図32に示すように非生体情報が5つ、生体情報が3つに分類されるものとする。この例では、生体情報1と非生体情報3、及び生体情報3と非生体情報4と非生体情報5とは、分布が非常に近く、識別が困難である。 When the extracted feature information is subjected to discriminant analysis based on the biometric information 432 and the non-biometric information 433 stored in advance in the storage unit 426, the extracted feature information projected on the space stretched by the upper three discriminant axes. When k is grouped by k-means, non-biological information is classified into 5 and biological information is classified into 3 as shown in FIG. In this example, the biometric information 1 and the non-biometric information 3, and the biometric information 3, the non-biometric information 4, and the non-biometric information 5 have very close distributions and are difficult to identify.

そこで、階層判定部422は、近くて分類が難しいものを1つにまとめて判別分析を行うことで、識別の空間を作成する。図33に示す空間に分類された5つの情報(グループ)の各々を「大分類」とする。例えば、階層判定部422は、図33に示すように、生体情報1と非生体情報3とを「グループA」とし、生体情報3と非生体情報4と非生体情報5とを「グループB」とする。 Therefore, the hierarchy determining unit 422 creates a space for identification by collecting discriminative items that are close together and performing a discriminant analysis. Each of the five pieces of information (group) classified into the space shown in FIG. 33 is referred to as a “major classification”. For example, as shown in FIG. 33, the hierarchy determination unit 422 sets the biometric information 1 and the non-biometric information 3 as “group A”, and the biometric information 3, the non-biometric information 4, and the non-biometric information 5 as “group B”. And

この図33に示す「大分類」の空間は、抽出された特徴情報を、非生体情報1と、生体情報2と、非生体情報2と、「グループA」と、「グループB」のいずれかにの「大分類」に分類することを目的としている。判別分析の空間は各クラスのクラス内分散を最小、クラス間分散を最大とするような空間となる。図33の例では、分布が近く、クラス間分散を大きくできなかったものを一つのグループにまとめたので、「大分類」での識別空間は全体としてより分類し易い空間となっている。また、当初の8つの分類問題から、5つの分類問題になったため、識別空間の次元数が7次元から4次元に減り、分類の処理時間も削減できる(判別分析の識別空間次元数は識別クラス数−1となる)。 In the space of “major classification” shown in FIG. 33, the extracted feature information is one of non-biometric information 1, biometric information 2, non-biometric information 2, “group A”, and “group B”. It is intended to be classified into the "major classification" of. The discriminant analysis space is such that the within-class variance of each class is minimized and the inter-class variance is maximized. In the example of FIG. 33, the distributions that are close to each other and whose inter-class variance cannot be increased are grouped into one group, so that the classification space in “major classification” is a space that is easier to classify as a whole. Also, since the initial eight classification problems became five classification problems, the number of dimensions of the identification space was reduced from seven to four, and the processing time for classification can be reduced (the number of identification space dimensions in discriminant analysis is the classification class). Number-1).

なお、抽出された特徴情報が「グループA」または、「グループB」に分類された場合は、その中で何に分類されるのかを判断する必要があるので、次の識別を行う必要がある。 When the extracted characteristic information is classified into “group A” or “group B”, it is necessary to determine what is classified in the group, and therefore it is necessary to perform the following identification. ..

「グループB」の生体情報3と非生体情報4と非生体情報5とだけで判別分析を行った場合、図34に示すような分布になったとする。この場合も、例えば、生体情報3と非生体情報4とを分離することが難しいとき、これらを前述したようにグループ化し、「グループB−I」と非生体情報5との2つの分類問題とすることができる。図35に示す空間に分類された2つの情報(グループ)の各々を「中分類」とする。 When the discriminant analysis is performed only with the biometric information 3, the non-biometric information 4, and the non-biometric information 5 of the “group B”, it is assumed that the distribution is as shown in FIG. Also in this case, for example, when it is difficult to separate the biometric information 3 and the non-biometric information 4, these are grouped as described above, and two classification problems of the “group BI” and the non-biometric information 5 are generated. can do. Each of the two pieces of information (groups) classified into the space shown in FIG. 35 is referred to as “medium classification”.

この場合も、抽出された特徴情報が「グループB−I」に分類されたときは、再度その中の何に分類されるかを識別する必要がある。すなわち、抽出された特徴情報を、非生体情報4と生体情報3のいずれかの「小分類」に分類する必要がある。これら2つの判別分析を行った結果の分布を図36に示す。図36に示す例では、非生体情報4と生体情報3を容易に識別することができる。 Also in this case, when the extracted characteristic information is classified into “group B-I”, it is necessary to identify what is classified therein again. That is, it is necessary to classify the extracted feature information into one of the “small classification” of the non-biometric information 4 and the biometric information 3. The distribution of the results of these two discriminant analyzes is shown in FIG. In the example shown in FIG. 36, the non-biometric information 4 and the biometric information 3 can be easily identified.

上記の例では、非生体情報1と生体情報2と非生体情報2とに分類された特徴情報は、「大分類」で判別が完了し、生体情報1と非生体情報3と非生体情報5とに分類されるものは、「中分類」で判別が完了する。また、生体情報3と非生体情報4に分類されるものは「小分類」で判別が完了する。 In the above example, the feature information classified into the non-biometric information 1, the biometric information 2, and the non-biometric information 2 has been discriminated by “major classification”, and the biometric information 1, the non-biometric information 3, and the non-biometric information 5 For the items classified into and, the discrimination is completed by "medium classification". In addition, the classification into the biometric information 3 and the non-biometric information 4 is completed by the “small classification”.

類似性は空間内の角度や距離で判断することが多い。複数の特徴情報をグルーピングした場合、角度や距離を求める際の空間次元数が削減され、比較対象数も削減されるので、「大分類」、「中分類」、「小分離」全てを実施するケースでも処理時間は短縮される。また、各識別空間は無理のない単位(他と比べて分類が難しいものはひとまとめになっている)での空間作成なので識別率も向上する。難しい分類は他を含まない状況で専用の識別空間を作ることで対応している。 Similarity is often judged by the angle and distance in space. When grouping multiple pieces of feature information, the number of spatial dimensions when calculating angles and distances is reduced, and the number of comparison targets is also reduced. Therefore, all "major classification", "medium classification", and "small separation" are performed. Even in the case, the processing time is shortened. In addition, each identification space is created in a reasonable unit (a group of items that are difficult to classify compared to others) is created, so the identification rate is also improved. Difficult classification is dealt with by creating a dedicated identification space in a situation that does not include others.

<処理の流れ>
図37は、第2の実施形態に係る画像判定処理の例を示すフローチャートである。
<Process flow>
FIG. 37 is a flowchart showing an example of the image determination process according to the second embodiment.

ステップS3701において、撮像部414は、カメラ部332を用いて画像を撮像する。 In step S3701, the image capturing unit 414 captures an image using the camera unit 332.

ステップS3702において、特徴情報抽出部417は、撮像された画像から人物の特徴情報を抽出する。 In step S3702, the characteristic information extraction unit 417 extracts the characteristic information of the person from the captured image.

ステップS3703において、階層判定部422は、ステップS3702で取得した特徴情報が、大分類された複数の群のうち、どの群に属するかを判定する。例えば、図33の例では、階層判定部422は、ステップS3702で取得した特徴情報が、非生体情報1、生体情報2、非生体情報2、グループA、グループBのうち、いずれの群に属するかを判別分析する。 In step S3703, the hierarchy determination unit 422 determines which group, out of the roughly classified groups, the characteristic information acquired in step S3702 belongs to. For example, in the example of FIG. 33, the hierarchy determination unit 422 belongs to which group of the non-biometric information 1, the biometric information 2, the non-biometric information 2, the group A, and the group B, the characteristic information acquired in step S3702. Discriminate and analyze.

ステップS3704において、階層判定部422は、ステップS3702で取得した特徴情報が、非生体の群(図33の例では、非生体情報1、又は非生体情報2)に含まれるか否かを判断する。ステップS3702で取得した特徴情報が非生体の群に属する場合、階層判定部422は処理を終了させる。一方、ステップS3702で取得した特徴情報が非生体の群に属さない場合、階層判定部422は、処理をS3705に移行させる。 In step S3704, the hierarchy determination unit 422 determines whether the characteristic information acquired in step S3702 is included in the non-living body group (in the example of FIG. 33, the non-living body information 1 or the non-living body information 2). .. If the characteristic information acquired in step S3702 belongs to the non-living body group, the hierarchy determining unit 422 ends the process. On the other hand, when the characteristic information acquired in step S3702 does not belong to the non-living body group, the hierarchy determination unit 422 shifts the processing to S3705.

ステップS3705において、階層判定部422は、ステップS3702で取得した特徴情報が、中分類された複数の群のうち、どの群に属するかを判定する。例えば、図35の例では、階層判定部422は、ステップS3702で取得した特徴情報が、非生体情報5、グループB−Iのうち、いずれの群に属するかを判別分析する。 In step S3705, the hierarchy determination unit 422 determines which group, out of the plurality of intermediately classified groups, the characteristic information acquired in step S3702 belongs to. For example, in the example of FIG. 35, the hierarchy determination unit 422 discriminates and analyzes which group of the non-biological information 5 and the group B-I the characteristic information acquired in step S3702 belongs to.

ステップS3706において、階層判定部422は、ステップS3702で取得した特徴情報が、非生体の群(図35の例では、非生体情報5)に含まれるか否かを判断する。ステップS3702で取得した特徴情報が非生体の群に属する場合、階層判定部422は処理を終了させる。一方、ステップS3702で取得した特徴情報が非生体の群に属さない場合、階層判定部422は、処理をS3707に移行させる。 In step S3706, the hierarchy determination unit 422 determines whether the characteristic information acquired in step S3702 is included in the non-living body group (non-living body information 5 in the example of FIG. 35). If the characteristic information acquired in step S3702 belongs to the non-living body group, the hierarchy determining unit 422 ends the process. On the other hand, when the characteristic information acquired in step S3702 does not belong to the non-living body group, the hierarchy determination unit 422 shifts the processing to S3707.

ステップS3707において、階層判定部422は、ステップS3702で取得した特徴情報が、小分類された複数の群のうち、どの群に属するかを判定する。例えば、図36の例では、階層判定部422は、ステップS3702で取得した特徴情報が、非生体情報4、生体情報3のうち、いずれの群に属するかを判別分析する。 In step S3707, the hierarchy determination unit 422 determines to which group, out of the plurality of sub-classified groups, the characteristic information acquired in step S3702 belongs. For example, in the example of FIG. 36, the hierarchy determination unit 422 discriminates and analyzes which group of the non-biometric information 4 and the biometric information 3 the characteristic information acquired in step S3702 belongs to.

ステップS3708において、ステップS3702で取得した特徴情報が非生体の群に属する場合、階層判定部422は、処理を終了させる。一方、ステップS3702で取得した特徴情報が生体の群に属する場合、階層判定部422は、処理をステップS3709に移行させる。 In step S3708, when the characteristic information acquired in step S3702 belongs to the non-living body group, the hierarchy determination unit 422 ends the process. On the other hand, when the characteristic information acquired in step S3702 belongs to the group of living bodies, the hierarchy determination unit 422 shifts the processing to step S3709.

ステップS3709に移行すると、階層判定部422は、ステップS3701で取得した画像に含まれる人物が生体であることを示す画像判定結果(OK)を、記憶部426、装置認証部419等に出力する。 When the process proceeds to step S3709, the hierarchy determination unit 422 outputs the image determination result (OK) indicating that the person included in the image acquired in step S3701 is a living body to the storage unit 426, the device authentication unit 419, and the like.

上記の処理により、画像形成装置101は、画像に含まれる人物が生体であるか否かを判定する処理の処理時間は短縮すると共に、識別率を向上させることができる。 By the above process, the image forming apparatus 101 can shorten the processing time of the process of determining whether the person included in the image is a living body and improve the identification rate.

[実施形態の補足]
図19に示す各部の機能は、図18に示すCPU311、又はCPU321が、記憶装置(例えば、ストレージ部314、フラッシュメモリ部324、ROM312、ROM322等)に格納されたプログラムを実行することにより実現される。ただし、これに限られず、上記の画像形成装置101の各部の機能の少なくとも一部は、専用のハードウェア回路(例えば半導体集積回路)で実現されるものであっても良い。
[Supplement to Embodiment]
The functions of each unit illustrated in FIG. 19 are realized by the CPU 311 or the CPU 321 illustrated in FIG. It However, the present invention is not limited to this, and at least a part of the function of each unit of the image forming apparatus 101 may be realized by a dedicated hardware circuit (for example, a semiconductor integrated circuit).

また、画像形成装置101で実行されるプログラム(制御プログラム)は、インストール可能な形式、又は実行可能な形式のファイルで、各種のディスク、メディア、USBメモリ等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。或いは、画像形成装置101で実行されるプログラムは、インターネット等のネットワーク経由で提供、又は配布するように構成しても良い。また、各種プログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するように構成しても良い。 A program (control program) executed by the image forming apparatus 101 is a file in an installable format or an executable format, and is recorded on a computer-readable recording medium such as various types of disks, media, and USB memory. It may be configured to be provided. Alternatively, the program executed by the image forming apparatus 101 may be provided or distributed via a network such as the Internet. Further, the various programs may be configured to be provided in advance by being incorporated in a nonvolatile recording medium such as a ROM.

10 画像処理装置
11 カメラ画像受信部
12 人物領域検出部(検出手段の一例)
13 顔領域検出部(検出手段の一例)
14 背景領域割合判断部
15 背景領域割合判断閾値設定部(第2の閾値設定手段)
16 動作情報判断部(判断手段)
17 画像間相関算出部(算出手段の一例)
18 フローヒストグラム算出部(算出手段の一例)
19 はずれ値除去部
20 画像向き正規化部
21 辞書更新部(更新手段)
22 人物領域動作辞書
23 顔領域動作辞書
24 動作情報判断閾値設定部(第1の閾値設定手段)
31 操作部
32 ROM
33 RAM
34 CPU
35 カメラ
101 画像形成装置(情報処理装置)
104 RFIDタグ(無線タグ)
401 移動体検知部(移動体検知手段)
411 無線通信部(無線通信手段)
412 無線認証部(無線認証手段)
413 送信制御部(送信制御手段)
414 撮像部(撮像手段)
415 画像認証部(画像認証手段)
418 画像判定部(画像判定手段)
419 装置認証部(装置認証手段)
420 パスワード認証部(パスワード認証手段)
421 ノイズ判定部(ノイズ判定手段)
422 階層判定部(画像判定手段の別の一例)
423 タイマ管理部(タイマ管理手段)
10 Image Processing Device 11 Camera Image Receiving Unit 12 Human Area Detection Unit (Example of Detecting Means)
13 Face Area Detection Unit (an example of detection means)
14 background area ratio determination unit 15 background area ratio determination threshold setting unit (second threshold setting unit)
16 Motion information determination unit (determination means)
17 inter-image correlation calculation unit (an example of calculation means)
18 Flow histogram calculation unit (an example of calculation means)
Reference numeral 19 is a deviation value removal unit 20 is an image orientation normalization unit 21 is a dictionary update unit (update means)
22 person area motion dictionary 23 face area motion dictionary 24 motion information determination threshold value setting section (first threshold value setting means)
31 Operation unit 32 ROM
33 RAM
34 CPU
35 camera 101 image forming apparatus (information processing apparatus)
104 RFID tag (wireless tag)
401 moving body detection unit (moving body detection means)
411 wireless communication unit (wireless communication means)
412 wireless authentication unit (wireless authentication means)
413 Transmission control unit (transmission control means)
414 Imaging unit (imaging means)
415 Image authentication unit (image authentication means)
418 Image determination unit (image determination means)
419 Device authentication unit (device authentication means)
420 Password authentication unit (password authentication means)
421 Noise determination unit (noise determination means)
422 Layer determination unit (another example of image determination means)
423 Timer Management Unit (Timer Management Means)

特開2015−35178号公報JP, 2015-35178, A

Claims (21)

利用者を認証する情報処理装置であって、
無線タグから所定の情報を取得する無線通信手段と、
前記取得した所定の情報に基づいて前記無線タグを認証する無線認証を行う無線認証手段と、
画像を撮像する撮像手段と、
前記画像に撮像された利用者を認証する画像認証を行う画像認証手段と、
前記画像に撮像された判定の対象が所定の条件を満たす生体であるかを判定する画像判定手段と、
前記画像に撮像された前記判定の対象が前記所定の条件を満たす生体であると判定され、かつ前記無線認証と前記画像認証とが許可された場合、前記無線認証が許可された前記無線タグの利用者と、前記画像認証が許可された利用者とが同じ利用者であるか否かを判断し、前記無線認証が許可された前記無線タグの利用者と前記画像認証許可された利用者とが同じ利用者である場合、該利用者の前記情報処理装置の使用を許可する装置認証手段と、
を有する情報処理装置。
An information processing device for authenticating a user,
A wireless communication means for acquiring predetermined information from a wireless tag,
A wireless authentication unit that performs wireless authentication to authenticate the wireless tag based on the acquired predetermined information;
An image pickup means for picking up an image,
An image authentication unit that performs image authentication to authenticate the user captured in the image,
An image determination unit that determines whether the determination target captured in the image is a living body that satisfies a predetermined condition,
When it is determined that the subject of the determination captured in the image is a living body satisfying the predetermined condition, and the wireless authentication and the image authentication are permitted, the wireless tag of the wireless authentication is permitted. It is determined whether the user is the same user as the user who is permitted the image authentication, and the user of the wireless tag permitted the wireless authentication and the user who is permitted the image authentication. And are the same user, a device authentication unit that permits the use of the information processing device by the user,
Information processing device having a.
前記画像判定手段は、
前記撮像手段により撮像された複数の画像のそれぞれに対して人物に対応する領域を検出する検出手段と、
前記検出手段により人物に対応する領域が検出された一の画像と、前記一の画像の検出より前に前記人物に対応する領域が検出された1つ又は複数の別の画像とを用いて、前記人物の動作情報を算出する算出手段と、
前記算出手段により得られた動作情報と、予め設定された人物の動作情報とに基づいて、前記一の画像から検出された人物が前記所定の条件を満たす生体であるかを判断する判断手段と、
を含む請求項1に記載の情報処理装置。
The image determination means,
Detection means for detecting an area corresponding to a person in each of the plurality of images captured by the imaging means,
Using one image in which the area corresponding to the person is detected by the detection means, and one or more other images in which the area corresponding to the person is detected before the detection of the one image, Calculating means for calculating the motion information of the person;
Determination means for determining whether the person detected from the one image is a living body satisfying the predetermined condition, based on the movement information obtained by the calculation means and the movement information of the person set in advance; ,
The information processing apparatus according to claim 1, further comprising:
前記判断手段は、
前記算出手段により得られた動作情報と、前記予め設定された人物の動作情報とが所定の閾値以上類似している場合に、前記一の画像から検出された人物が前記所定の条件を満たす生体であると判断することを特徴とする請求項2に記載の情報処理装置。
The determination means is
When the motion information obtained by the calculating means and the preset motion information of the person are similar to each other by a predetermined threshold value or more, the person detected from the one image is a living body satisfying the predetermined condition. The information processing apparatus according to claim 2, wherein the information processing apparatus determines that
前記算出手段は、
前記一の画像から検出された人物に対応する領域の、前記人物に対応しない領域に対する割合が閾値を超えている場合に、前記一の画像の全体を用いて前記人物の動作情報を算出することを特徴とする請求項2又は3に記載の情報処理装置。
The calculation means is
When the ratio of the area corresponding to the person detected from the one image to the area not corresponding to the person exceeds a threshold value, the motion information of the person is calculated using the entire one image. The information processing device according to claim 2 or 3, characterized in that:
前記検出手段は、
前記人物に対応する領域として、前記人物の顔領域を検出することを特徴とする請求項2乃至4のいずれか一項に記載の情報処理装置。
The detection means is
The information processing apparatus according to any one of claims 2 to 4, wherein a face area of the person is detected as an area corresponding to the person.
前記算出手段は、
前記動作情報としてオプティカルフローを算出する場合には、所定のはずれ値を除去することを特徴とする請求項2乃至5のいずれか一項に記載の情報処理装置。
The calculation means is
The information processing apparatus according to claim 2, wherein when an optical flow is calculated as the motion information, a predetermined outlier is removed.
前記算出手段は、
前記人物の向きを正規化することを特徴とする請求項2乃至6のいずれか一項に記載の情報処理装置。
The calculation means is
The information processing apparatus according to claim 2, wherein the orientation of the person is normalized.
前記判断手段により前記人物が前記所定の条件を満たす生体であると判断された後、ユーザを特定するユーザ特定動作が検出された場合に、前記人物が前記所定の条件を満たす前記生体であると判断された前記動作情報を用いて、前記予め設定された人物の動作情報を更新する更新手段を有することを特徴とする請求項2乃至7のいずれか一項に記載の情報処理装置。 After the determination unit determines that the person is a living body that satisfies the predetermined condition, and if a user specifying action that specifies a user is detected, the person is the living body that satisfies the predetermined condition. The information processing apparatus according to any one of claims 2 to 7, further comprising an updating unit that updates the preset motion information of the person using the determined motion information. 前記判断手段により用いられる所定の閾値を設定する第1の閾値設定手段と、
前記算出手段により用いられる所定の閾値を設定する第2の閾値設定手段と、
を有することを特徴とする請求項2乃至8のいずれか一項に記載の情報処理装置。
First threshold value setting means for setting a predetermined threshold value used by the judging means,
Second threshold value setting means for setting a predetermined threshold value used by the calculating means,
The information processing apparatus according to claim 2, further comprising:
前記画像判定手段は、
複数の階層に分けて判別分析を行うことにより、前記判定の対象が前記所定の条件を満たす生体であることを判定する請求項1に記載の情報処理装置。
The image determination means,
The information processing apparatus according to claim 1, wherein it is determined that the target of the determination is a living body that satisfies the predetermined condition by performing a discriminant analysis by dividing into a plurality of layers.
前記撮像手段により撮像された複数の画像の画素値の差分量に基づいて、ノイズを含む画像を判定するノイズ判定手段を有し、
前記画像判定手段は、
前記ノイズを含む画像を除外して前記判定の対象が前記所定の条件を満たす生体であることを判定する請求項1乃至10のいずれか一項に記載の情報処理装置。
Based on a difference amount of pixel values of a plurality of images captured by the image capturing unit, a noise determining unit for determining an image including noise,
The image determination means,
The information processing apparatus according to any one of claims 1 to 10, wherein an image including the noise is excluded to determine that the determination target is a living body that satisfies the predetermined condition.
前記無線認証手段による認証結果、前記画像認証手段による認証結果、又は前記画像判定手段による判定結果を、所定の期間を経過後に削除又は初期化するタイマ管理手段を有する請求項1乃至11のいずれか一項に記載の情報処理装置。 12. The timer management means for deleting or initializing the authentication result by the wireless authentication means, the authentication result by the image authentication means, or the determination result by the image determination means after a predetermined period has elapsed. The information processing device according to one item. 利用者によるパスワードの入力を受け付けるパスワード認証手段を有し、
前記装置認証手段は、
前記無線認証手段によって認証が許可された前記無線タグの利用者、又は前記画像認証手段によって認証が許可された利用者に対応するパスワードの入力を前記パスワード認証手段が受け付けた場合、前記利用者の前記情報処理装置の使用を許可する請求項1乃至12のいずれか一項に記載の情報処理装置。
It has a password authentication method that accepts the password input by the user,
The device authentication means,
When the password authentication means accepts the input of the password corresponding to the user of the wireless tag authorized by the wireless authentication means or the user authorized by the image authentication means, The information processing apparatus according to claim 1, wherein use of the information processing apparatus is permitted.
前記情報処理装置の周辺にある移動体を検知する移動体検知手段を有し、
前記移動体の検知結果に基づいて、前記無線通信手段が前記無線タグから前記所定の情報を取得するための電波の送信の有無を制御する送信制御部を有する請求項1乃至13のいずれか一項に記載の情報処理装置。
A moving body detecting means for detecting a moving body around the information processing device,
14. The transmission control unit according to claim 1, further comprising a transmission control unit that controls the presence or absence of transmission of a radio wave for obtaining the predetermined information from the wireless tag based on a detection result of the mobile body. The information processing device according to item.
画像認証手段は、
前記無線認証手段による認証が許可された無線タグがある場合、該無線タグの利用者に対応する生体の特徴情報を用いて、前記撮像された利用者を認証する請求項1乃至14のいずれか一項に記載の情報処理装置。
Image authentication means
15. When there is a wireless tag permitted to be authenticated by the wireless authentication means, the imaged user is authenticated using the characteristic information of the living body corresponding to the user of the wireless tag. The information processing device according to one item.
前記画像判定手段は、前記判定の対象が写真であるかを判定することで、前記判定の対象が前記所定の条件を満たす生体であるかを判定する請求項1乃至15のいずれか一項に記載の情報処理装置。 16. The image determination unit determines whether the determination target is a photograph, thereby determining whether the determination target is a living body satisfying the predetermined condition. The information processing device described. 前記無線認証が許可された前記無線タグの利用者と、前記画像認証が許可された利用者とが同じ利用者でないと判断された場合、前記装置認証手段は、前記無線認証が許可された前記無線タグの利用者と、前記画像認証が許可された利用者とが同じ利用者になるのを待つ、請求項1に記載の情報処理装置。When it is determined that the user of the wireless tag authorized for the wireless authentication is not the same user as the user authorized for the image authentication, the device authenticating unit is configured to perform the wireless authentication. The information processing apparatus according to claim 1, which waits for a user of the wireless tag and a user who is permitted to perform the image authentication to become the same user. 前記装置認証手段は、前記無線認証が許可された前記無線タグの利用者、又は前記画像認証が許可された利用者が複数いる場合、そのうちのいずれかが一致する場合、前記無線タグの利用者と、前記画像認証が許可された利用者とが同じ利用者であると判断する、請求項1に記載の情報処理装置。If there are a plurality of users of the wireless tag permitted to perform the wireless authentication, or a plurality of users permitted to perform the image authentication, and if any one of them matches, the device authentication means is a user of the wireless tag. The information processing apparatus according to claim 1, wherein it is determined that the user who is permitted to perform the image authentication is the same user. 利用者を認証する情報処理装置を、
無線タグから所定の情報を取得する無線通信手段と、
前記取得した所定の情報に基づいて前記無線タグを認証する無線認証を行う無線認証手段と、
画像を撮像する撮像手段と、
前記画像に撮像された利用者を認証する画像認証を行う画像認証手段と、
前記画像に撮像された判定の対象が所定の条件を満たす生体であるかを判定する画像判定手段と、
前記画像に撮像された前記判定の対象が前記所定の条件を満たす生体であると判定され、かつ前記無線認証と前記画像認証とが許可された場合、前記無線認証が許可された前記無線タグの利用者と、前記画像認証が許可された利用者とが同じ利用者であるか否かを判断し、前記無線認証が許可された前記無線タグの利用者と前記画像認証許可された利用者とが同じ利用者である場合、該利用者の前記情報処理装置の使用を許可する装置認証手段と、
として機能させるためのプログラム。
An information processing device that authenticates the user
A wireless communication means for acquiring predetermined information from a wireless tag,
A wireless authentication unit that performs wireless authentication to authenticate the wireless tag based on the acquired predetermined information;
An image pickup means for picking up an image,
An image authentication unit that performs image authentication to authenticate the user captured in the image,
An image determination unit that determines whether the determination target captured in the image is a living body that satisfies a predetermined condition,
When it is determined that the subject of the determination captured in the image is a living body that satisfies the predetermined condition, and the wireless authentication and the image authentication are permitted, the wireless tag of which the wireless authentication is permitted is It is determined whether or not the user and the user who is permitted the image authentication are the same user, and the user of the wireless tag who is permitted the wireless authentication and the user who is permitted the image authentication. And are the same user, a device authentication unit that permits the use of the information processing device by the user,
Program to function as.
情報処理装置による認証方法であって、
前記情報処理装置が、
無線タグから所定の情報を取得するステップと、
前記取得した所定の情報に基づいて前記無線タグを認証する無線認証を行うステップと、
画像を撮像するステップと、
前記画像に撮像された利用者を認証する画像認証を行うステップと、
前記画像に撮像された判定の対象が所定の条件を満たす生体であるかを判定するステップと、
前記画像に撮像された前記判定の対象が前記所定の条件を満たす生体であると判定され、かつ前記無線認証と前記画像認証とが許可された場合、前記無線認証が許可された前記無線タグの利用者と、前記画像認証が許可された利用者とが同じ利用者であるか否かを判断し、前記無線認証が許可された前記無線タグの利用者と前記画像認証が許可された利用者とが同じ利用者である場合、該利用者の前記情報処理装置の使用を許可するステップと、
を含む認証方法。
An authentication method using an information processing device,
The information processing device is
Acquiring predetermined information from the wireless tag,
Performing a wireless authentication to authenticate the wireless tag based on the acquired predetermined information,
Capturing an image,
A step of performing image authentication for authenticating the user captured in the image;
A step of determining whether the determination target captured in the image is a living body that satisfies a predetermined condition,
When it is determined that the subject of the determination captured in the image is a living body that satisfies the predetermined condition, and the wireless authentication and the image authentication are permitted, the wireless tag of which the wireless authentication is permitted is It is determined whether or not the user and the user who is permitted the image authentication are the same user, and the user of the wireless tag who is permitted the wireless authentication and the user who is permitted the image authentication. And are the same user, a step of allowing the user to use the information processing device,
Authentication method including.
無線タグから所定の情報を受信する近距離無線装置と、画像を撮像する撮像装置と、前記近距離無線装置、及び前記撮像装置に接続された情報処理装置と、を含む情報処理システムであって、
前記情報処理装置は、
前記近距離無線装置が受信した前記所定の情報を取得する無線通信手段と、
前記取得した所定の情報に基づいて前記無線タグを認証する無線認証を行う無線認証手段と、
前記撮像装置を用いて画像を撮像する撮像手段と、
前記撮像された利用者を認証する画像認証を行う画像認証手段と、
前記画像に撮像された判定の対象が所定の条件を満たす生体であるかを判定する画像判定を行う画像判定手段と、
前記画像に撮像された前記判定の対象が前記所定の条件を満たす生体であると判定され、かつ前記無線認証と前記画像認証とが許可された場合、前記無線認証が許可された前記無線タグの利用者と、前記画像認証が許可された利用者とが同じ利用者であるか否かを判断し、前記無線認証が許可された前記無線タグの利用者と前記画像認証許可された利用者とが同じ利用者である場合、該利用者の前記情報処理装置の使用を許可する装置認証手段と、
を有する情報処理システム。
An information processing system including a short-range wireless device that receives predetermined information from a wireless tag, an imaging device that captures an image, the short-range wireless device, and an information processing device connected to the imaging device. ,
The information processing device,
Wireless communication means for acquiring the predetermined information received by the short-range wireless device,
A wireless authentication unit that performs wireless authentication to authenticate the wireless tag based on the acquired predetermined information;
An image pickup means for picking up an image using the image pickup device;
An image authentication means for performing image authentication for authenticating the imaged user ;
An image determination unit that performs image determination to determine whether the determination target captured in the image is a living body that satisfies a predetermined condition,
When it is determined that the subject of the determination captured in the image is a living body that satisfies the predetermined condition, and the wireless authentication and the image authentication are permitted, the wireless tag of which the wireless authentication is permitted is It is determined whether the user and the user who is permitted the image authentication are the same user, and the user of the wireless tag who is permitted the wireless authentication and the user who is permitted the image authentication. And are the same user, a device authentication unit that permits the use of the information processing device by the user,
Information processing system having.
JP2016040271A 2015-03-16 2016-03-02 Information processing apparatus, information processing system, authentication method, and program Active JP6707906B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/065,458 US10079827B2 (en) 2015-03-16 2016-03-09 Information processing apparatus, information processing method, and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015052488 2015-03-16
JP2015052488 2015-03-16

Publications (2)

Publication Number Publication Date
JP2016173813A JP2016173813A (en) 2016-09-29
JP6707906B2 true JP6707906B2 (en) 2020-06-10

Family

ID=57008221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016040271A Active JP6707906B2 (en) 2015-03-16 2016-03-02 Information processing apparatus, information processing system, authentication method, and program

Country Status (1)

Country Link
JP (1) JP6707906B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6822241B2 (en) * 2017-03-16 2021-01-27 株式会社リコー Image forming equipment, image processing system, usage management method, and program
JP6891641B2 (en) * 2017-06-01 2021-06-18 株式会社リコー Information processing system, image processing device, and authentication method
JP7141238B2 (en) * 2018-04-27 2022-09-22 キヤノン株式会社 Power transmission device, control method, and program
JP7255149B2 (en) * 2018-11-29 2023-04-11 株式会社リコー Network systems, network authentication methods and access points
CN113678164A (en) * 2019-04-19 2021-11-19 富士通株式会社 Image processing apparatus, image processing method, and image processing program
WO2022172430A1 (en) 2021-02-15 2022-08-18 富士通株式会社 Determination method, determination program, and information processing device
WO2023181110A1 (en) * 2022-03-22 2023-09-28 日本電気株式会社 Information processing device, information processing method, and recording medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060090079A1 (en) * 2004-10-21 2006-04-27 Honeywell International, Inc. Voice authenticated alarm exit and entry interface system
JP4594176B2 (en) * 2005-06-22 2010-12-08 三菱電機株式会社 Image processing apparatus and entrance / exit management system
JP2008071179A (en) * 2006-09-14 2008-03-27 Toshiba Corp Face collation device, passage control device, face collation method and passage control method
JP2008217510A (en) * 2007-03-06 2008-09-18 Oki Electric Ind Co Ltd Personal identification device and personal identification method
WO2009107237A1 (en) * 2008-02-29 2009-09-03 グローリー株式会社 Biometrics device
JP5087037B2 (en) * 2009-03-25 2012-11-28 株式会社東芝 Image processing apparatus, method, and program
JP2013186851A (en) * 2012-03-12 2013-09-19 Panasonic Corp Information processor for which input of information for cancelling security is required and log-in method
JP5863611B2 (en) * 2012-09-25 2016-02-16 京セラドキュメントソリューションズ株式会社 Image forming apparatus and image forming method

Also Published As

Publication number Publication date
JP2016173813A (en) 2016-09-29

Similar Documents

Publication Publication Date Title
JP6707906B2 (en) Information processing apparatus, information processing system, authentication method, and program
US10079827B2 (en) Information processing apparatus, information processing method, and information processing system
Chan et al. Face liveness detection using a flash against 2D spoofing attack
CN106778525B (en) Identity authentication method and device
US9652663B2 (en) Using facial data for device authentication or subject identification
JP6089577B2 (en) Image processing apparatus, image processing method, and image processing program
JP4479478B2 (en) Pattern recognition method and apparatus
US7953278B2 (en) Face recognition method and apparatus
JP5010905B2 (en) Face recognition device
KR101538935B1 (en) Method for classifying elements of face using depth difference
Pala et al. Iris liveness detection by relative distance comparisons
Hassanat et al. New mobile phone and webcam hand images databases for personal authentication and identification
Islam et al. A review of recent advances in 3D ear-and expression-invariant face biometrics
Yin et al. A face anti-spoofing method based on optical flow field
CN109657627A (en) Auth method, device and electronic equipment
Anthony et al. A review of face anti-spoofing methods for face recognition systems
Marasco et al. Deep color spaces for fingerphoto presentation attack detection in mobile devices
KR101174103B1 (en) A face recognition method of Mathematics pattern analysis for muscloskeletal in basics
WO2018185574A1 (en) Apparatus and method for documents and/or personal identities recognition and validation
JP6747112B2 (en) Information processing system, image processing device, information processing device, and program
Patil et al. Survey of non-intrusive face spoof detection methods
Ramalingam et al. Fundamentals and advances in 3D face recognition
Sehgal Palm recognition using LBP and SVM
Madhu et al. Face Recognition using Gray level Cooccurrence Matrix and Snap Shot Method of the Eigen Face
Gosavi et al. An Efficient Feature Level Extractions for Facial Recognition: A Comprehensive Review

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R151 Written notification of patent or utility model registration

Ref document number: 6707906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151