JP2018077683A - Image processing device, authentication method and authentication program - Google Patents

Image processing device, authentication method and authentication program Download PDF

Info

Publication number
JP2018077683A
JP2018077683A JP2016219112A JP2016219112A JP2018077683A JP 2018077683 A JP2018077683 A JP 2018077683A JP 2016219112 A JP2016219112 A JP 2016219112A JP 2016219112 A JP2016219112 A JP 2016219112A JP 2018077683 A JP2018077683 A JP 2018077683A
Authority
JP
Japan
Prior art keywords
image
authentication
unit
subject
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016219112A
Other languages
Japanese (ja)
Other versions
JP6878842B2 (en
Inventor
哲平 中村
Teppei Nakamura
哲平 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016219112A priority Critical patent/JP6878842B2/en
Publication of JP2018077683A publication Critical patent/JP2018077683A/en
Application granted granted Critical
Publication of JP6878842B2 publication Critical patent/JP6878842B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device, an authentication method and an authentication program capable of authenticating a user who is not imaged at a position where the image processing device is operated but is imaged at a position apart from the image processing device.SOLUTION: An image processing device includes: a camera that outputs an image acquired by image pickup; a storage control unit 59 that stores the image output by the camera; an operation detecting unit 55 that detects an operation input by a user; a first authenticating unit 53 that authenticates the user on the basis of the image picked up and output by the camera after an operation of detecting the operation input by the user; and a second authenticating unit 69 that authenticates the user on the basis of the image stored before the operation when the image picked up and output by the camera after the operation does not contain an object to be authenticated.SELECTED DRAWING: Figure 4

Description

この発明は、画像処理装置、認証方法および認証プログラムに関し、特に、カメラを備えた画像処理装置、その画像処理装置で実行される認証方法および認証プログラムに関する。   The present invention relates to an image processing device, an authentication method, and an authentication program, and more particularly, to an image processing device including a camera, an authentication method and an authentication program executed by the image processing device.

ファックスやコピーやスキャナーなどといった複数の機能を併せ持つMFP(Multi Function Peripheral)で代表される画像処理装置は、複数人により使用されることが多く、画像処理装置を操作するユーザーを特定するために、ユーザーを認証する機能を備えたものがある。ユーザーを認証する技術として、カメラでユーザーの顔を撮像して得られる画像を用いて認証する技術が知られている。この場合、カメラが配置される位置および画角は固定されるため、カメラで撮像する範囲は予め定められた範囲となる。このため、カメラで、MFPを操作するユーザーの顔を撮像する必要がある。   An image processing apparatus represented by an MFP (Multi Function Peripheral) having a plurality of functions such as a fax, a copy, and a scanner is often used by a plurality of people, and in order to specify a user who operates the image processing apparatus, Some have the ability to authenticate users. As a technique for authenticating a user, a technique for performing authentication using an image obtained by imaging a user's face with a camera is known. In this case, since the position and the angle of view where the camera is arranged are fixed, the range captured by the camera is a predetermined range. For this reason, it is necessary to capture the face of the user who operates the MFP with the camera.

例えば、特開2015−011537号公報には、オン状態において撮影範囲内にいる人の画像を撮影する第1の撮像部と、オン状態において、利用者の認証に用いられる人の顔の画像を撮影する第2の撮像部と、を備え、人感センサにより人が検出されると第1の撮像部をオン状態にし、第1の撮像部により撮影された画像に基づいて人が近づいていると判定されると、稼動に必要な電力を供給することによりメインシステムをスリープモードからスタンバイモードに復帰させ、人感センサが人を検出してからメインシステムがスリープモードから復帰する前までの間に、第2の撮像部をオン状態にして認証することが記載されている。   For example, Japanese Patent Laid-Open No. 2015-011537 discloses a first image capturing unit that captures an image of a person who is in an imaging range in an on state, and an image of a human face that is used for user authentication in an on state. A second imaging unit for photographing, and when the person is detected by the human sensor, the first imaging unit is turned on, and the person is approaching based on the image photographed by the first imaging unit. If it is determined, the main system is returned from the sleep mode to the standby mode by supplying power necessary for operation, and from the time when the human sensor detects a person to before the main system returns from the sleep mode. Describes that authentication is performed by turning on the second imaging unit.

ユーザーは、立ち上がった姿勢でMFPを操作することが多いので、MFPを操作可能な位置で立ち上がった姿勢のユーザーの顔がカメラの撮像範囲に納まるように、カメラが設置される位置および画角が設定されることが多い。特開2015−011537号公報に記載の技術においても、立ち上がった姿勢でMFPを操作するユーザーを認証することができる。   Since the user often operates the MFP in a standing posture, the position and angle of view of the camera are set so that the user's face standing in a position where the MFP can be operated is within the imaging range of the camera. Often set. Also in the technique described in Japanese Patent Application Laid-Open No. 2015-011537, a user who operates the MFP in a standing posture can be authenticated.

しかしながら、複数のユーザーの身長には差がある場合があり、あるユーザーの顔を撮像できるが、そのユーザーと身長差のあるユーザーの顔を撮像できない場合がある。また、車椅子に乗るユーザーの顔の高さは、健常者の顔の高さよりも低くなるので、カメラの撮像範囲を健常者の顔の高さに合わせる場合、車椅子に乗るユーザーがMFPに近づくほど、ユーザーの顔がカメラの撮像範囲外に外れてしまうといった問題がある。
特開2015−011537号公報
However, there may be a difference in the heights of a plurality of users, and a face of a certain user can be imaged, but a face of a user having a height difference from that user may not be imaged. In addition, the height of the face of the user who rides in the wheelchair is lower than the height of the face of the healthy person. Therefore, when the camera imaging range is adjusted to the height of the face of the healthy person, the user who gets in the wheelchair gets closer to the MFP. There is a problem that the user's face falls outside the imaging range of the camera.
Japanese Patent Laying-Open No. 2015-011537

この発明は上述した問題点を解決するためになされたもので、この発明の目的の一つは、画像処理装置を操作する位置で撮像されないが、画像処理装置から離れた位置で撮像されるユーザーを認証することが可能な画像処理装置を提供することである。   The present invention has been made to solve the above-described problems, and one of the objects of the present invention is that a user who is not imaged at a position where the image processing apparatus is operated but is imaged at a position away from the image processing apparatus. Is to provide an image processing apparatus capable of authenticating the above.

この発明の他の目的は、画像処理装置を操作する位置で撮像されないが、画像処理装置から離れた位置で撮像されるユーザーを認証することが可能な認証方法を提供することである。   Another object of the present invention is to provide an authentication method capable of authenticating a user who is not imaged at a position where the image processing apparatus is operated but is imaged at a position away from the image processing apparatus.

この発明のさらに他の目的は、画像処理装置を操作する位置で撮像されないが、画像処理装置から離れた位置で撮像されるユーザーを認証することが可能な認証プログラムを提供することである。   Still another object of the present invention is to provide an authentication program capable of authenticating a user who is not imaged at a position where the image processing apparatus is operated but is imaged at a position away from the image processing apparatus.

この発明は上述した問題点を解決するためになされたもので、この発明のある局面によれば、画像処理装置は撮像して得られる画像を出力する撮像手段と撮像手段が出力する画像を記憶する記憶制御手段とユーザーが入力する操作を検出する操作検出手段と操作検出手段が操作を検出する操作時の後に撮像手段が撮像して出力する画像に基づいて、ユーザーを認証する第1認証手段と、操作時の後に撮像手段が撮像して出力する画像に認証対象となる被写体が含まれない場合に、操作時の前に記憶された画像に基づいて、ユーザーを認証する第2認証手段と、を備える。   The present invention has been made to solve the above-described problems. According to one aspect of the present invention, an image processing apparatus stores an image output unit that outputs an image obtained by capturing an image and an image output by the image capture unit. And a first authentication unit that authenticates the user based on an image captured and output by the imaging unit after an operation in which the operation detection unit detects an operation. And a second authentication unit that authenticates the user based on the image stored before the operation when the subject to be authenticated is not included in the image captured and output by the imaging unit after the operation. .

この局面に従えば、ユーザーによる操作を受け付ける操作時の後に撮像して得られる画像に基づいて、操作するユーザーを認証し、操作時の後に撮像して得られる画像に認証対象となる被写体が含まれない場合に、操作時の前に記憶された画像に基づいて、ユーザーを認証する。このため、画像処理装置を操作する位置で撮像されないが、画像処理装置から離れた位置で撮像されるユーザーを認証することが可能な画像処理装置を提供することができる。   According to this aspect, the user to be operated is authenticated based on the image obtained after the operation for accepting the operation by the user, and the subject to be authenticated is included in the image obtained after the operation. If not, the user is authenticated based on the image stored before the operation. Therefore, it is possible to provide an image processing apparatus that can authenticate a user who is not imaged at a position where the image processing apparatus is operated but is imaged at a position away from the image processing apparatus.

好ましくは、記憶された複数の画像のうちから1つの画像を選択する画像選択手段を、さらに備える。   Preferably, the image processing device further includes image selecting means for selecting one image from the plurality of stored images.

この局面に従えば、操作時の前に撮像して得られる複数の画像から1つが選択されるので、ユーザーの認証が容易となる。   According to this aspect, since one is selected from a plurality of images obtained by imaging before operation, user authentication is facilitated.

好ましくは、画像選択手段は、認証対象となる被写体の顔の部分の面積が最大の画像を選択する。   Preferably, the image selection means selects an image having the largest area of the face portion of the subject to be authenticated.

この局面に従えば、顔の部分の面積が最大の画像に基づいて認証するので、認証の精度をできるだけ高くすることができる。   According to this aspect, the authentication is performed based on the image having the largest area of the face portion, so that the authentication accuracy can be made as high as possible.

好ましくは、画像選択手段は、認証対象となる被写体の顔が正面を向く画像を選択する。   Preferably, the image selection means selects an image in which the face of the subject to be authenticated is directed to the front.

この局面に従えば、顔が正面を向く画像に基づいて認証するので、認証の精度をできるだけ高くすることができる。   According to this aspect, since authentication is performed based on an image with the face facing the front, the accuracy of authentication can be made as high as possible.

好ましくは、画像選択手段は、コントラストが最大の画像を選択する。   Preferably, the image selection unit selects an image having the maximum contrast.

この局面に従えば、コントラストが最大の画像に基づいて認証するので、認証の精度をできるだけ高くすることができる。   According to this aspect, since authentication is performed based on an image having the maximum contrast, the accuracy of authentication can be made as high as possible.

好ましくは、画像選択手段は、認証対象となる被写体の肌色の部分の面積が最大の画像を選択する。   Preferably, the image selection means selects an image having the largest area of the skin color portion of the subject to be authenticated.

この局面に従えば、肌色の部分は被写体の顔の部分に該当するので、認証の精度をできるだけ高くすることができる。   According to this aspect, since the skin color portion corresponds to the face portion of the subject, the accuracy of authentication can be made as high as possible.

好ましくは、画像選択手段は、認証対象となる被写体が最も中心に配置された画像を選択する。   Preferably, the image selection means selects an image in which the subject to be authenticated is arranged at the center.

この局面に従えば、歪の少ない画像を用いて認証するので、認証の精度をできるだけ高くすることができる。   According to this aspect, since authentication is performed using an image with less distortion, the accuracy of authentication can be made as high as possible.

好ましくは、画像選択手段は、撮像手段が異なる時刻に出力する複数の画像を比較して、認証対象となる被写体の顔の部分の面積が所定の変化がない場合には、複数の画像を選択しない。   Preferably, the image selection unit compares the plurality of images output by the imaging unit at different times, and selects the plurality of images when the area of the face portion of the subject to be authenticated does not have a predetermined change. do not do.

この局面に従えば、認証対象となる被写体の顔の部分の面積が所定の変化がない画像に基づいて認証しないので、画像処理装置に近づいていない被写体を認証しないようにすることができる。   According to this aspect, authentication is not performed based on an image in which the area of the face portion of the subject to be authenticated does not change in a predetermined manner, so that a subject that is not approaching the image processing apparatus can be prevented from being authenticated.

好ましくは、記憶された画像が複数の被写体を含む場合、複数の被写体のうちから1つを認証対象に特定する対象特定手段を、さらに備える。   Preferably, when the stored image includes a plurality of subjects, the image processing device further includes target specifying means for specifying one of the plurality of subjects as an authentication target.

この局面に従えば、複数の被写体のうちから1つを認証対象に特定するので、認証が容易となる。   According to this aspect, one of the plurality of subjects is specified as an authentication target, so that authentication becomes easy.

好ましくは、対象特定手段は、顔の部分の面積が最大の被写体を認証対象に特定する。   Preferably, the target specifying means specifies a subject having the largest face part area as an authentication target.

この局面に従えば、複数の被写体のうち顔の部分の面積が最大の被写体を認証対象に特定するので、画像処理装置に最も近い被写体を認証することができる。   According to this aspect, the subject having the largest area of the face portion among the plurality of subjects is identified as the authentication target, so that the subject closest to the image processing apparatus can be authenticated.

好ましくは、対象特定手段は、撮像手段が異なる時刻に出力する複数の画像を比較して、複数の被写体それぞれの顔の部分の面積の増加率を算出し、算出された増加率が最大の被写体を認証対象に特定する。   Preferably, the target specifying unit compares a plurality of images output at different times by the imaging unit, calculates an increase rate of the area of the face portion of each of the plurality of subjects, and a subject having the maximum calculated increase rate Is specified as an authentication target.

この局面に従えば、複数の被写体のうち顔の部分の面積の増加率が最大の被写体を認証対象に特定するので、画像処理装置に近づく速度の速い被写体を認証することができる。   According to this aspect, the subject having the largest increase in the area of the face portion among the plurality of subjects is specified as the authentication target, so that a subject with a fast speed approaching the image processing apparatus can be authenticated.

好ましくは、撮像手段は、一定時間ごとに撮像する。   Preferably, the imaging means captures images at regular time intervals.

この局面に従えば、一定時間ごとに撮像して得られる画像を記憶するので、操作時の前に撮像範囲に含まれるユーザーを撮像した画像を記憶することができる。   According to this aspect, since an image obtained by imaging every predetermined time is stored, an image obtained by imaging a user included in the imaging range can be stored before the operation.

好ましくは、被写体までの距離を検出する距離検出手段をさらに備え、撮像手段は、被写体が所定の距離を移動するごとに撮像する。   Preferably, a distance detection unit that detects a distance to the subject is further provided, and the imaging unit captures an image every time the subject moves a predetermined distance.

この局面に従えば、操作時の前に撮像範囲に含まれるユーザーを撮像した画像を記憶することができる。   If this aspect is followed, the image which imaged the user included in the imaging range can be memorize | stored before the time of operation.

好ましくは、画像選択手段により選択された第1の画像よりも後に撮像された第2の画像が認証対象となる被写体の少なくとも一部を含む場合、第1の画像に含まれる認証対象となる被写体の一部を、第2の画像に含まれる認証対象となる被写体の部分で補完した合成画像を生成する合成画像生成手段を、さらに備え、第2認証手段は、合成画像に基づいてユーザーを認証する。   Preferably, when the second image captured after the first image selected by the image selection unit includes at least a part of the subject to be authenticated, the subject to be authenticated included in the first image Is further provided with a composite image generating means for generating a composite image in which a part of the image is complemented by a part of the subject to be authenticated included in the second image, and the second authentication means authenticates the user based on the composite image To do.

この局面に従えば、撮像時の前に撮像された複数の画像のうちから選択された第1の画像に含まれる被写体の一部を、第1の画像よりも後に撮像された第2の画像に含まれる被写体の部分で補完した合成画像に基づいて、認証するので、認証精度をより高くすることができる。   According to this aspect, the second image obtained by imaging a part of the subject included in the first image selected from the plurality of images captured before the imaging is performed after the first image. Since the authentication is performed based on the composite image supplemented with the portion of the subject included in the image, the authentication accuracy can be further increased.

好ましくは、第2認証手段は、操作時の前に撮像手段が認証対象となる被写体を含む画像を最後に出力してから被写体が操作可能になるまでの到達時刻を予測する予測手段を、含み、予測された到達時刻後は、ユーザーを認証しない。   Preferably, the second authenticating unit includes a predicting unit that predicts an arrival time from when the imaging unit finally outputs an image including the subject to be authenticated before the operation becomes possible until the subject becomes operable. Do not authenticate the user after the predicted arrival time.

この局面に従えば、撮像時の前に被写体が最後に撮像されてから到達時刻が経過した後はユーザーを認証しないので、誤って別のユーザーを認証するのを防止することができる。   According to this aspect, since the user is not authenticated after the arrival time has elapsed since the subject was last imaged before imaging, it is possible to prevent another user from being authenticated accidentally.

この発明の他の局面によれば、認証方法は、撮像して得られる画像を出力する撮像手段を備えた画像処理装置で実行される認証方法であって、撮像手段が出力する画像を記憶する記憶制御ステップと、ユーザーが入力する操作を検出する操作検出ステップと、操作が検出される操作時の後に撮像手段が撮像して出力する画像に基づいて、操作受付手段を操作するユーザーを認証する第1認証ステップと、操作時の後に撮像手段が撮像して出力する画像に認証対象となる被写体が含まれない場合に、操作時の前に記憶された画像に基づいて、ユーザーを認証する第2認証ステップと、を含む。   According to another aspect of the present invention, the authentication method is an authentication method executed by an image processing apparatus including an imaging unit that outputs an image obtained by imaging, and stores an image output by the imaging unit. A storage control step, an operation detection step for detecting an operation input by the user, and an user who operates the operation reception unit are authenticated based on an image captured and output by the imaging unit after the operation is detected. A first authentication step and a step of authenticating a user based on an image stored before the operation when the subject to be authenticated is not included in the image captured and output by the imaging unit after the operation. 2 authentication steps.

この局面に従えば、画像処理装置を操作する位置で撮像されないが、画像処理装置から離れた位置で撮像されるユーザーを認証することが可能な認証方法を提供することができる。   According to this aspect, it is possible to provide an authentication method capable of authenticating a user who is not imaged at a position where the image processing apparatus is operated but is imaged at a position away from the image processing apparatus.

この発明の他の局面によれば、認証プログラムは、撮像して得られる画像を出力する撮像手段を備えた画像処理装置を制御するコンピューターで実行される認証プログラムであって、撮像手段が出力する画像を記憶する記憶制御ステップと、ユーザーが入力する操作を検出する操作検出ステップと、操作が検出される操作時の後に撮像手段が撮像して出力する画像に基づいて、操作受付手段を操作するユーザーを認証する第1認証ステップと、操作時の後に撮像手段が撮像して出力する画像に認証対象となる被写体が含まれない場合に、操作時の前に記憶された画像に基づいて、ユーザーを認証する第2認証ステップと、をコンピューターに実行させる。   According to another aspect of the present invention, the authentication program is an authentication program executed by a computer that controls an image processing apparatus including an imaging unit that outputs an image obtained by imaging, and is output by the imaging unit. A storage control step for storing an image, an operation detection step for detecting an operation input by a user, and an operation receiving unit is operated based on an image captured and output by an imaging unit after the operation is detected. Based on the first authentication step for authenticating the user and the image stored before the operation when the subject to be authenticated is not included in the image captured and output by the imaging means after the operation A second authentication step of authenticating the computer.

この局面に従えば、画像処理装置を操作する位置で撮像されないが、画像処理装置から離れた位置で撮像されるユーザーを認証することが可能な認証プログラムを提供することができる。   According to this aspect, it is possible to provide an authentication program that can authenticate a user who is not imaged at a position where the image processing apparatus is operated but is imaged at a position away from the image processing apparatus.

本発明の実施の形態の1つにおけるMFPの外観を示す斜視図である。1 is a perspective view showing an external appearance of an MFP in one embodiment of the present invention. MFPのハードウェア構成の概要を示すブロック図である。2 is a block diagram illustrating an outline of a hardware configuration of an MFP. FIG. 本実施の形態におけるMFPによる認証を説明する模式図である。It is a schematic diagram explaining authentication by MFP in the present embodiment. MFPが備えるCPUが有する機能の一例を示す図である。FIG. 3 is a diagram illustrating an example of functions of a CPU included in an MFP. 撮像制御処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an imaging control process. 認証処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an authentication process.

以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本発明の実施の形態の1つにおけるMFPの外観を示す斜視図である。図2は、MFPのハードウェア構成の概要を示すブロック図である。図1および図2を参照してMFPについて説明する。MFP(Multi Function Peripheral)100は、画像処理装置の一例であり、メイン回路110と、被写体を撮像するカメラ119と、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、ユーザーインターフェースとしての操作パネル160とを含む。   FIG. 1 is a perspective view showing an appearance of an MFP according to one embodiment of the present invention. FIG. 2 is a block diagram showing an outline of the hardware configuration of the MFP. The MFP will be described with reference to FIGS. 1 and 2. An MFP (Multi Function Peripheral) 100 is an example of an image processing apparatus. The main circuit 110, a camera 119 that captures a subject, a document reading unit 130 for reading a document, and a document are conveyed to the document reading unit 130. An automatic document feeder 120, an image forming unit 140 for forming an image on a sheet based on image data, a paper feeding unit 150 for supplying paper to the image forming unit 140, and a user interface And an operation panel 160.

撮像手段としてのカメラ119は、操作パネル160の上方で、MFP100の本体に固定して取り付けられる。カメラ119は、レンズおよび光電変換素子を備え、レンズで集光した光を光電変換素子に結像し、光電変換素子は受光した光を光電変換して画像データをCPU111に出力する。光電変換素子は、CMOS(Complementary Metal Oxide Semiconductor)センサー、CCD(Charge Coupled Device)センサー等である。カメラ119が有するレンズは、広角レンズであることが好ましい。また、カメラ119のレンズは、その画角が固定されている。このため、カメラ119の撮像範囲は固定される。カメラ119の撮像範囲がMFP100を操作するユーザーの顔を含むように、カメラ119の画角が設定される。具体的には、カメラ119は、その撮像範囲に、立った姿勢で操作パネル160を操作するユーザーの顔を含むように画角および配置される位置が設定される。ユーザーの身長はバラツキがあるので、ユーザーの顔の高さに所定の範囲を設けるようにして、カメラ119の画角および配置位置を決定すればよい。さらに、カメラ119は、その撮像範囲が、MFP100から少なくとも第1の距離だけ離れた地点で、車椅子に乗ったユーザーの顔を含むように画角および配置される位置が設定される。第1の距離は、カメラ119の解像度、焦点距離などの性能によって定まり、カメラ119から第1の距離だけ離れた位置のユーザーの顔を撮像し、カメラ119が出力する画像に基づいて、ユーザーを認証する処理の精度が、所定の値以上となる距離である。   A camera 119 as an imaging unit is fixedly attached to the main body of the MFP 100 above the operation panel 160. The camera 119 includes a lens and a photoelectric conversion element, and images light collected by the lens on the photoelectric conversion element. The photoelectric conversion element photoelectrically converts the received light and outputs image data to the CPU 111. The photoelectric conversion element is a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device) sensor, or the like. The lens included in the camera 119 is preferably a wide-angle lens. The angle of view of the lens of the camera 119 is fixed. For this reason, the imaging range of the camera 119 is fixed. The angle of view of camera 119 is set so that the imaging range of camera 119 includes the face of the user who operates MFP 100. Specifically, the angle of view and the position of the camera 119 are set so that the imaging range includes the face of the user who operates the operation panel 160 in a standing posture. Since the user's height varies, the angle of view and the arrangement position of the camera 119 may be determined by providing a predetermined range for the height of the user's face. Further, the angle of view and the position of camera 119 are set so that the imaging range includes at least a first distance from MFP 100 so as to include the face of the user on the wheelchair. The first distance is determined by the performance of the camera 119, such as resolution and focal length, and the user's face at a position away from the camera 119 by the first distance is imaged, and the user is determined based on the image output by the camera 119. This is the distance at which the accuracy of the authentication process is a predetermined value or more.

自動原稿搬送装置120は、原稿トレイ125上にセットされた複数枚の原稿を1枚ずつ自動的に原稿読取部130の原稿読み取り位置まで搬送し、原稿読取部130により原稿に形成された画像が読み取られた原稿を原稿排紙トレイ127上に排出する。自動原稿搬送装置120は、原稿トレイ125に載置される原稿を検出する原稿検出センサーを備える。   The automatic document feeder 120 automatically conveys a plurality of documents set on the document tray 125 one by one to the document reading position of the document reading unit 130, and an image formed on the document by the document reading unit 130 The read original is discharged onto the original discharge tray 127. The automatic document feeder 120 includes a document detection sensor that detects a document placed on the document tray 125.

原稿読取部130は、原稿を読み取るための矩形状の読取面を有する。読取面は、例えばプラテンガラスにより形成される。自動原稿搬送装置120は、読取面の1つの辺に平行な軸を中心に回転可能にMFP100の本体に接続され、開閉可能である。自動原稿搬送装置120の下方に、原稿読取部130が配置されており、自動原稿搬送装置120が回転して開いた開状態で、原稿読取部130の読取面が露出する。このため、ユーザーは、原稿読取部130の読取面に原稿を載置可能である。自動原稿搬送装置120は、原稿読取部130の読み取り面が露出する開状態と、読み取り面を覆う閉状態とに状態を変化可能である。自動原稿搬送装置120は、自動原稿搬送装置120の開状態を検出する状態検出センサーを備える。   The document reading unit 130 has a rectangular reading surface for reading a document. The reading surface is formed of platen glass, for example. The automatic document feeder 120 is connected to the main body of the MFP 100 so as to be rotatable about an axis parallel to one side of the reading surface, and can be opened and closed. A document reading unit 130 is disposed below the automatic document feeder 120, and the reading surface of the document reader 130 is exposed when the automatic document feeder 120 is rotated and opened. Therefore, the user can place a document on the reading surface of the document reading unit 130. The automatic document feeder 120 can change a state between an open state in which the reading surface of the document reading unit 130 is exposed and a closed state that covers the reading surface. The automatic document feeder 120 includes a state detection sensor that detects the open state of the automatic document feeder 120.

原稿読取部130は、光を照射する光源と、光を受光する光電変換素子とを含み、読取面に載置された原稿に形成されている画像を走査する。読取領域に原稿が載置されている場合、光源から照射された光は原稿で反射し、反射した光が光電変換素子で結像する。光電変換素子は、原稿で反射した光を受光すると、受光した光を電気信号に変換した画像データを生成する。原稿読取部130は、画像データをCPU111に出力する。   The document reading unit 130 includes a light source that emits light and a photoelectric conversion element that receives light, and scans an image formed on a document placed on the reading surface. When a document is placed on the reading area, the light emitted from the light source is reflected by the document, and the reflected light is imaged by the photoelectric conversion element. When the photoelectric conversion element receives the light reflected from the document, the photoelectric conversion element generates image data obtained by converting the received light into an electric signal. Document reading unit 130 outputs image data to CPU 111.

給紙部150は、給紙トレイに収納された用紙を画像形成部140に搬送する。画像形成部140は、CPU111により制御され、周知の電子写真方式により画像を形成するものであって、CPU111から入力される画像データに基づいて、給紙部150により搬送される用紙に画像を形成し、画像を形成した用紙を排紙トレイ155に排出する。CPU111が画像形成部140に出力する画像データは、原稿読取部130から入力される画像データの他、外部から受信されるプリントデータ等の画像データを含む。   The paper feed unit 150 conveys the paper stored in the paper feed tray to the image forming unit 140. The image forming unit 140 is controlled by the CPU 111 and forms an image by a well-known electrophotographic method. The image forming unit 140 forms an image on a sheet conveyed by the paper feeding unit 150 based on image data input from the CPU 111. Then, the paper on which the image is formed is discharged to the paper discharge tray 155. The image data output from the CPU 111 to the image forming unit 140 includes image data such as print data received from the outside in addition to the image data input from the document reading unit 130.

メイン回路110は、MFP100の全体を制御するCPU(中央演算処理装置)111と、通信インターフェース(I/F)部112と、ROM(Read Only Memory)113と、RAM(Random Access Memory)114と、大容量記憶装置としてのハードディスクドライブ(HDD)115と、ファクシミリ部116と、人感センサー117と、外部記憶装置118と、を含む。CPU111は、カメラ119、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150および操作パネル160と接続され、MFP100の全体を制御する。   The main circuit 110 includes a CPU (Central Processing Unit) 111 that controls the entire MFP 100, a communication interface (I / F) unit 112, a ROM (Read Only Memory) 113, a RAM (Random Access Memory) 114, A hard disk drive (HDD) 115 as a mass storage device, a facsimile unit 116, a human sensor 117, and an external storage device 118 are included. CPU 111 is connected to camera 119, automatic document feeder 120, document reading unit 130, image forming unit 140, sheet feeding unit 150, and operation panel 160, and controls the entire MFP 100.

ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。また、RAM114は、原稿読取部130から連続的に送られてくる画像データを一時的に記憶する。   The ROM 113 stores a program executed by the CPU 111 or data necessary for executing the program. The RAM 114 is used as a work area when the CPU 111 executes a program. The RAM 114 temporarily stores image data continuously sent from the document reading unit 130.

操作パネル160は、MFP100の上面に設けられる。操作パネル160は、表示部161と操作部163とを含む。表示部161は、例えば、液晶表示装置(LCD)であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。なお、LCDに代えて、画像を表示する装置であれば、例えば、有機EL(electroluminescence)ディスプレイを用いることができる。   Operation panel 160 is provided on the upper surface of MFP 100. Operation panel 160 includes a display unit 161 and an operation unit 163. The display unit 161 is, for example, a liquid crystal display device (LCD), and displays an instruction menu for a user, information about acquired image data, and the like. For example, an organic EL (electroluminescence) display can be used in place of the LCD as long as it is an apparatus that displays an image.

操作部163は、タッチパネル165と、ハードキー部167とを含む。タッチパネル165は、静電容量方式である。なお、タッチパネル165は、静電容量方式に限らず、例えば、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式等の他の方式を用いることができる。   The operation unit 163 includes a touch panel 165 and a hard key unit 167. The touch panel 165 is a capacitive type. Note that the touch panel 165 is not limited to the capacitance method, and other methods such as a resistance film method, a surface acoustic wave method, an infrared method, and an electromagnetic induction method can be used.

タッチパネル165は、その検出面が表示部161の上面または下面に表示部161に重畳して設けられる。ここでは、タッチパネル165の検出面のサイズと、表示部161の表示面のサイズとを同じにしている。このため、表示面の座標系と検出面の座標系は同じである。タッチパネル165は、ユーザーが、表示部161の表示面を指示する位置を検出面で検出し、検出した位置の座標をCPU111に出力する。表示面の座標系と検出面の座標系は同じなので、タッチパネル165が出力する座標を、表示面の座標に置き換えることができる。   The touch panel 165 is provided with its detection surface superimposed on the display unit 161 on the upper or lower surface of the display unit 161. Here, the size of the detection surface of the touch panel 165 and the size of the display surface of the display unit 161 are the same. For this reason, the coordinate system of the display surface and the coordinate system of the detection surface are the same. The touch panel 165 detects the position where the user points the display surface of the display unit 161 on the detection surface, and outputs the coordinates of the detected position to the CPU 111. Since the coordinate system of the display surface and the coordinate system of the detection surface are the same, the coordinates output from the touch panel 165 can be replaced with the coordinates of the display surface.

ハードキー部167は、複数のハードキーを含む。ハードキーは、例えば接点スイッチである。タッチパネル165は、表示部161の表示面中でユーザーにより指示された位置を検出する。ユーザーがMFP100を操作する場合は直立した姿勢となる場合が多いので、表示部161の表示面、タッチパネル165の操作面およびハードキー部167は、上方を向いて配置される。ユーザーが表示部161の表示面を容易に視認することができ、ユーザーが指で操作部163を容易に指示することができるようにするためである。   Hard key portion 167 includes a plurality of hard keys. The hard key is, for example, a contact switch. The touch panel 165 detects a position designated by the user on the display surface of the display unit 161. When the user operates the MFP 100, the user often takes an upright posture, and thus the display surface of the display unit 161, the operation surface of the touch panel 165, and the hard key unit 167 are arranged facing upward. This is because the user can easily visually recognize the display surface of the display unit 161 and the user can easily instruct the operation unit 163 with a finger.

通信I/F部112は、ネットワークにMFP100を接続するためのインターフェースである。通信I/F部112は、TCP(Transmission Control Protocol)またはFTP(File Transfer Protocol)等の通信プロトコルで、ネットワークに接続された他のコンピューターまたはデータ処理装置と通信する。なお、通信I/F部112が接続されるネットワークは、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワークは、LANに限らず、ワイドエリアネットワーク(WAN)、公衆交換電話網(PSTN)、インターネット等であってもよい。   Communication I / F unit 112 is an interface for connecting MFP 100 to a network. The communication I / F unit 112 communicates with other computers or data processing devices connected to the network using a communication protocol such as TCP (Transmission Control Protocol) or FTP (File Transfer Protocol). Note that the network to which the communication I / F unit 112 is connected is a local area network (LAN), and the connection form may be wired or wireless. The network is not limited to a LAN, and may be a wide area network (WAN), a public switched telephone network (PSTN), the Internet, or the like.

ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTNにファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶するとともに、画像形成部140でプリント可能なプリントデータに変換して、画像形成部140に出力する。これにより、画像形成部140は、ファクシミリ部116により受信されたファクシミリデータの画像を用紙に形成する。また、ファクシミリ部116は、HDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。   The facsimile unit 116 is connected to the public switched telephone network (PSTN) and transmits facsimile data to the PSTN or receives facsimile data from the PSTN. The facsimile unit 116 stores the received facsimile data in the HDD 115, converts it into print data that can be printed by the image forming unit 140, and outputs the print data to the image forming unit 140. As a result, the image forming unit 140 forms an image of facsimile data received by the facsimile unit 116 on a sheet. Further, the facsimile unit 116 converts the data stored in the HDD 115 into facsimile data, and transmits the facsimile data to a facsimile machine connected to the PSTN.

人感センサー117は、MFP100から所定の範囲内の人を検出し、人までの距離を計測する。人感センサー117は、計測した距離をCPU111に出力する。本実施の形態においては、人感センサー117として赤外線センサーを用いている。なお、人を検出し、検出した人までの距離を計測できれば、赤外線センサーとは別に、焦電センサーを用いてもよい。   Human sensor 117 detects a person within a predetermined range from MFP 100 and measures the distance to the person. The human sensor 117 outputs the measured distance to the CPU 111. In the present embodiment, an infrared sensor is used as the human sensor 117. A pyroelectric sensor may be used separately from the infrared sensor as long as a person can be detected and the distance to the detected person can be measured.

外部記憶装置118は、CPU111により制御され、CD−ROM(Compact Disk Read Only Memory)118A、または半導体メモリが装着される。本実施の形態においては、CPU111は、ROM113に記憶されたプログラムを実行する例を説明するが、CPU111は、外部記憶装置118を制御して、CD−ROM118AからCPU111が実行するためのプログラムを読出し、読み出したプログラムをRAM114に記憶し、実行するようにしてもよい。   The external storage device 118 is controlled by the CPU 111, and a CD-ROM (Compact Disk Read Only Memory) 118A or a semiconductor memory is mounted. In this embodiment, an example in which the CPU 111 executes a program stored in the ROM 113 will be described. However, the CPU 111 controls the external storage device 118 to read a program to be executed by the CPU 111 from the CD-ROM 118A. The read program may be stored in the RAM 114 and executed.

なお、CPU111が実行するためのプログラムを記憶する記録媒体としては、CD−ROM118Aに限られず、フレキシブルディスク、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)などの半導体メモリ等の媒体でもよい。さらに、CPU111がネットワークに接続されたコンピューターからプログラムをダウンロードしてHDD115に記憶する、または、ネットワークに接続されたコンピューターがプログラムをHDD115に書込みするようにして、HDD115に記憶されたプログラムをRAM114にロードしてCPU111で実行するようにしてもよい。ここでいうプログラムは、CPU111により直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The recording medium for storing the program to be executed by the CPU 111 is not limited to the CD-ROM 118A, but is a flexible disk, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc). )), A semiconductor memory medium such as an IC card, an optical card, a mask ROM, an EPROM (Erasable Programmable ROM), and an EEPROM (Electrically EPROM). Further, the CPU 111 downloads a program from a computer connected to the network and stores it in the HDD 115, or loads the program stored in the HDD 115 into the RAM 114 so that the computer connected to the network writes the program to the HDD 115. Then, it may be executed by the CPU 111. The program here includes not only a program directly executable by the CPU 111 but also a source program, a compressed program, an encrypted program, and the like.

図3は、本実施の形態におけるMFPによる認証を説明する模式図である。図3を参照して、MFP100を側面方向から見た場合のカメラ119の撮像範囲をハッチングで示している。カメラ119の撮像範囲300は、MFP100に近いほど下限の位置が高くなる。このため、車椅子に乗るユーザーAがMFP100から距離L1に位置する場合には、ユーザーAの顔はカメラ119の撮像範囲に納まっている。一方、車椅子に乗るユーザーAがMFP100の操作パネル160を操作可能な位置であるMFP100から距離L2に位置する場合には、ユーザーAの顔はカメラ119の撮像範囲から外れている。本実施の形態におけるMFP100は、車椅子に乗るユーザーAがMFP100から距離L1の位置に到達し、操作パネル160を操作した時点で、ユーザーAを顔認証を可能とする。具体的には、ユーザーがMFP100から距離L1に位置した時に撮像した画像に基づいてユーザーを顔認証する。   FIG. 3 is a schematic diagram for explaining authentication by the MFP in the present embodiment. Referring to FIG. 3, the imaging range of camera 119 when MFP 100 is viewed from the side is indicated by hatching. In the imaging range 300 of the camera 119, the lower limit position becomes higher as it is closer to the MFP 100. For this reason, when the user A getting on the wheelchair is located at a distance L1 from the MFP 100, the face of the user A is within the imaging range of the camera 119. On the other hand, when the user A getting on the wheelchair is located at a distance L2 from the MFP 100 where the operation panel 160 of the MFP 100 can be operated, the face of the user A is out of the imaging range of the camera 119. MFP 100 according to the present embodiment enables face authentication of user A when user A in the wheelchair reaches a position at distance L1 from MFP 100 and operates operation panel 160. Specifically, face authentication is performed on the user based on an image captured when the user is located at a distance L1 from MFP 100.

図4は、MFPが備えるCPUが有する機能の一例を示す図である。図4に示す機能は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118Aに記憶された認証プログラムを実行することにより、CPU111に形成される機能である。   FIG. 4 is a diagram illustrating an example of functions of the CPU provided in the MFP. 4 are functions formed in CPU 111 when CPU 111 provided in MFP 100 executes an authentication program stored in ROM 113, HDD 115, or CD-ROM 118A.

図4を参照して、CPU111は、撮像制御部51と、第1認証部53と、操作検出部55と、タイミング決定部57と、記憶制御部59と、対象特定部61と、画像選択部63と、距離検出部65と、予測部67と、第2認証部69と、を含む。   With reference to FIG. 4, the CPU 111 includes an imaging control unit 51, a first authentication unit 53, an operation detection unit 55, a timing determination unit 57, a storage control unit 59, a target identification unit 61, and an image selection unit. 63, a distance detection unit 65, a prediction unit 67, and a second authentication unit 69.

撮像制御部51は、カメラ119を制御して、カメラ119に撮像させる。カメラ119は、撮像すると静止画像を出力するので、撮像制御部51は、カメラ119が出力する静止画像を取得する。撮像制御部51は、後述する第1認証部53から第1撮像指示が入力される場合、カメラ119に撮像させ、カメラ119が出力する静止画像を第1認証部53に出力する。撮像制御部51は、後述するタイミング決定部57から第2撮像指示が入力される場合、カメラ119に撮像させ、カメラ119が出力する静止画像を記憶制御部59に出力する。   The imaging control unit 51 controls the camera 119 to cause the camera 119 to capture an image. Since the camera 119 outputs a still image when the image is captured, the imaging control unit 51 acquires the still image output from the camera 119. When a first imaging instruction is input from a first authentication unit 53 described later, the imaging control unit 51 causes the camera 119 to capture an image and outputs a still image output from the camera 119 to the first authentication unit 53. When a second imaging instruction is input from the timing determination unit 57 described later, the imaging control unit 51 causes the camera 119 to capture an image and outputs a still image output from the camera 119 to the storage control unit 59.

記憶制御部59は、撮像制御部51から静止画像が入力されることに応じて、静止画像を撮像日時と関連付けてHDD115に記憶する。撮像日時は、撮像制御部51から静止画像が入力された時点の日時とすればよい。   The storage control unit 59 stores the still image in the HDD 115 in association with the imaging date and time in response to the input of the still image from the imaging control unit 51. The imaging date and time may be the date and time when a still image is input from the imaging control unit 51.

操作検出部55は、操作部163を制御して、ユーザーが操作部163に入力する操作を検出する。例えば、ユーザーがタッチパネル165に触れる場合、タッチパネル165が表示部161の表示面中でユーザーが触れた位置を検出し、検出された位置を示す位置情報を出力するので、操作検出部55はタッチパネル165が出力する位置情報を検出すると、ユーザーによる操作を検出する。また、ユーザーがハードキー部167の備える複数のハードキーのいずれかを指示すると、ハードキー部167が指示されたハードキーを識別するためのキー識別情報を出力するので、操作検出部55は、ハードキー部167が出力するキー識別情報を検出すると、ユーザーによる操作を検出する。また、操作検出部55は、自動原稿搬送装置120が備える原稿検出センサーまたは開状態検出センサーがONになる場合、ユーザーの操作を検出する。   The operation detection unit 55 controls the operation unit 163 to detect an operation input by the user to the operation unit 163. For example, when the user touches the touch panel 165, the touch panel 165 detects the position touched by the user on the display surface of the display unit 161, and outputs position information indicating the detected position. When the position information output from is detected, an operation by the user is detected. In addition, when the user designates one of a plurality of hard keys included in the hard key unit 167, the hard key unit 167 outputs key identification information for identifying the designated hard key. When the key identification information output from the hard key unit 167 is detected, an operation by the user is detected. The operation detection unit 55 detects a user operation when a document detection sensor or an open state detection sensor included in the automatic document feeder 120 is turned on.

操作検出部55は、ユーザーによる操作を検出することなく予め定められた待機期間を経過した後、ユーザーによる操作を検出することに応じて、ユーザーによる操作が開始されたことを示す操作開始信号を第1認証部53に出力する。   The operation detection unit 55 receives an operation start signal indicating that the user's operation has started in response to detecting the user's operation after a predetermined waiting period has elapsed without detecting the user's operation. The data is output to the first authentication unit 53.

第1認証部53は、操作検出部55から操作開始信号が入力されることに応じて、撮像制御部51に第1撮像指示を出力し、撮像制御部51から出力される静止画像を取得する。第1認証部53は、静止画像に基づいてユーザーを認証する。静止画像中に含まれる被写体の顔の部分を抽出し、予め登録されたユーザーの認証情報と比較することにより認証する。被写体を撮像して得られる画像に基づいてユーザーを認証する顔認証処理の技術は、周知の技術を用いることができる。例えば、認証情報は、ユーザーの顔を撮像して得られる画像そのものであってもよいし、顔の画像から抽出された特徴データであってもよい。認証情報が画像の場合、第1認証部53は、静止画像中から抽出された顔の部分と、認証情報の画像とを比較することにより、2つの画像が類似しているか否かを判断する。認証情報が顔の特徴部分を数値化した特徴データの場合は、静止画像中から抽出された顔の部分から特徴部分を抽出し、それを数値化した値と、認証情報で予め定められた特徴データとを比較することにより類似しているか否かを判断する。特徴データは、例えば、顔の部位の形状、複数の部位の相対的な位置関係、複数の部位それぞれの色などを数値化した値である。また、特徴部分は、虹彩としてもよい。   The first authentication unit 53 outputs a first imaging instruction to the imaging control unit 51 in response to an operation start signal input from the operation detection unit 55 and acquires a still image output from the imaging control unit 51. . The first authentication unit 53 authenticates the user based on the still image. Authentication is performed by extracting the face portion of the subject included in the still image and comparing it with user authentication information registered in advance. A well-known technique can be used as the technique of face authentication processing for authenticating a user based on an image obtained by imaging a subject. For example, the authentication information may be an image itself obtained by capturing an image of the user's face, or feature data extracted from the face image. When the authentication information is an image, the first authentication unit 53 determines whether the two images are similar by comparing the face portion extracted from the still image with the image of the authentication information. . In the case where the authentication information is feature data obtained by quantifying the facial feature portion, the feature portion is extracted from the face portion extracted from the still image, and the value obtained by quantifying the feature portion and the feature predetermined by the authentication information It is determined whether or not they are similar by comparing the data. The feature data is, for example, a value obtained by quantifying the shape of the facial part, the relative positional relationship between the plurality of parts, the colors of the plurality of parts, and the like. The characteristic portion may be an iris.

第1認証部53は、認証結果を操作検出部55に出力する。第1認証部53は、撮像制御部51から取得した静止画像から顔の部分を抽出できない場合、ユーザーを認証することなく、第2認証部69に認証指示を出力する。撮像制御部51から取得した静止画像から顔の部分を抽出できない場合は、認証に必要な顔の部分を含んでいない場合であり、静止画像に顔の全体を含んでいない場合の他、顔の部分の一部を含んでいるが、全体を含んでいない場合を含む。また、認証情報を、特徴部分を虹彩とした特徴データとする場合には、第1認証部53は、静止画像に虹彩を含んでいない場合に第2認証部69に認証指示を出力する。   The first authentication unit 53 outputs the authentication result to the operation detection unit 55. If the face part cannot be extracted from the still image acquired from the imaging control unit 51, the first authentication unit 53 outputs an authentication instruction to the second authentication unit 69 without authenticating the user. When the face portion cannot be extracted from the still image acquired from the imaging control unit 51, it is a case where the face portion necessary for authentication is not included. Including the case where part of the part is included but not the whole part. When the authentication information is feature data with the feature portion as an iris, the first authentication unit 53 outputs an authentication instruction to the second authentication unit 69 when the still image does not include an iris.

距離検出部65は、MFP100の周辺に存在するユーザーとの間の距離を検出する。距離検出部65は、人感センサー117を制御して、所定時間間隔で、MFP65の周辺にユーザーが存在するか否かを検出する。距離検出部65は、MFP65の周辺にユーザーを検出する場合には、その後、ユーザーを検出しなくなるまで、人感センサー117に所定時間間隔でユーザーとの間の距離を測定させ、測定された距離をタイミング決定部57および予測部67に出力する。距離検出部65は、人感センサー177によってMFP65の周辺にユーザーを検出しない場合はタイミング決定部57に何も出力しない。   Distance detection unit 65 detects a distance to a user existing around MFP 100. The distance detection unit 65 controls the human sensor 117 to detect whether there is a user around the MFP 65 at predetermined time intervals. When detecting the user around the MFP 65, the distance detection unit 65 causes the human sensor 117 to measure the distance to the user at a predetermined time interval until no user is detected thereafter, and the measured distance Is output to the timing determination unit 57 and the prediction unit 67. The distance detection unit 65 outputs nothing to the timing determination unit 57 when the human sensor 177 does not detect a user around the MFP 65.

タイミング決定部57は、距離検出部65から距離が入力されることに応じて、撮像制御部51に被写体を撮像させるタイミングを決定し、決定されたタイミングで撮像制御部51に第2撮像指示を出力する。タイミング決定部57は、被写体が所定の距離を移動するごとに撮像制御部51に第2撮像指示を出力する。このため、タイミング決定部57は、距離検出部65から入力される距離が、MFP100からの距離が所定の距離だけ増加する複数の距離のいずれと等しくなると、撮像制御部61に第2撮像指示を出力する。また、タイミング決定部57は、距離検出部65から入力される2以上の距離に基づいて、被写体の移動速度を算出し、算出された移動速度に基づいて、被写体が所定の距離を移動するタイミングを決定するようにしてもよい。これにより、記憶制御部59に複数の静止画像が記憶され、複数の静止画像それぞれが撮像された時点における被写体とMFP100との間の距離は、静止画像より前に記憶された静止画像が撮像された時点における被写体とMFP100との間の距離よりも所定の距離だけ短く、静止画像より後に記憶された静止画像が撮像された時点における被写体とMFP100との間の距離よりも所定の距離だけ長い。   The timing determination unit 57 determines the timing at which the imaging control unit 51 images the subject in response to the distance input from the distance detection unit 65, and issues a second imaging instruction to the imaging control unit 51 at the determined timing. Output. The timing determination unit 57 outputs a second imaging instruction to the imaging control unit 51 every time the subject moves a predetermined distance. For this reason, when the distance input from the distance detection unit 65 becomes equal to any of a plurality of distances that the distance from the MFP 100 increases by a predetermined distance, the timing determination unit 57 issues a second imaging instruction to the imaging control unit 61. Output. The timing determining unit 57 calculates the moving speed of the subject based on two or more distances input from the distance detecting unit 65, and the timing at which the subject moves a predetermined distance based on the calculated moving speed. May be determined. As a result, a plurality of still images are stored in the storage control unit 59, and the distance between the subject and the MFP 100 at the time when each of the plurality of still images is captured is a still image stored before the still image. This distance is shorter than the distance between the subject and the MFP 100 at a predetermined time by a predetermined distance, and longer than the distance between the subject and the MFP 100 at the time when a still image stored after the still image is captured.

従って、タイミング決定部57が第2撮像指示を出力する間隔は、移動速度が遅い場合には、移動速度が速い場合に比較して長くなる。ただし、タイミング決定部57は、被写体の移動速度がマイナスの場合、換言すれば、移動速度が、被写体がMFP100から離れる方向の場合はタイミングを決定しない。   Accordingly, the interval at which the timing determination unit 57 outputs the second imaging instruction becomes longer when the moving speed is slow than when the moving speed is fast. However, the timing determination unit 57 does not determine the timing when the moving speed of the subject is negative, in other words, when the moving speed is in a direction away from the MFP 100.

対象特定部61は、記憶制御部59によりHDD115に記憶された複数の静止画像それぞれにおいて、HDD115に静止画像が記憶されるごとに、その静止画像から認証対象となる顔部分を抽出する。例えば、顔、目、鼻、口、眉毛等の顔の各部分の形状および色等の特徴量を予め定めておき、特徴量を参照して、静止画像中の顔部分を抽出する。対象特定部61は、複数の静止画像間で、同一の被写体を、静止画像中の位置、形状等で特定し、顔部分の面積の変化を検出する。対象特定部61は、顔部分の面積が大きくなっていない被写体の顔部分を認証対象に特定しない。時間の経過とともに顔の部分の面積が大きくならない場合は、その被写体はMFP100に向かって移動していない可能性が高く、MFP100を操作するユーザーの可能性が低いからである。   Each time a still image is stored in the HDD 115 in each of a plurality of still images stored in the HDD 115 by the storage control unit 59, the target specifying unit 61 extracts a face part to be authenticated from the still image. For example, feature amounts such as the shape and color of each part of the face such as the face, eyes, nose, mouth, and eyebrows are determined in advance, and the face portion in the still image is extracted with reference to the feature amounts. The target specifying unit 61 specifies the same subject among a plurality of still images based on the position, shape, and the like in the still images, and detects a change in the area of the face portion. The target specifying unit 61 does not specify a face part of a subject whose face area is not large as an authentication target. This is because if the area of the face portion does not increase with the passage of time, it is highly likely that the subject has not moved toward MFP 100, and the possibility of a user operating MFP 100 is low.

対象特定部61は、静止画像が顔部分を1つ含む場合は、その顔部分を認証対象に特定する。対象特定部61は、静止画像が複数の被写体の顔部分を含む場合は、面積が最大の顔部分を認証対象に特定する。面積が最大の顔部分のユーザーは、面積が最大でない顔部分のユーザーよりもMFP100との間の距離が短い確率が高く、MFP100を操作しようとしているユーザーである確率が高いからである。   When the still image includes one face part, the target specifying part 61 specifies the face part as an authentication target. When the still image includes face portions of a plurality of subjects, the target specifying unit 61 specifies the face portion having the largest area as an authentication target. This is because the user of the face part with the largest area is more likely to be a short distance to the MFP 100 than the user of the face part with the largest area and is more likely to be a user who is trying to operate the MFP 100.

対象特定部61は、静止画像ごとに認証対象を特定し、静止画像を識別するための画像識別情報と、認証対象の静止画像中の領域を示す領域識別情報との組を画像選択部63に出力する。ここでは、HDD115に記憶された静止画像に関連付けて領域識別情報を記憶する。対象特定部61は、認証対象を特定しない場合、認証対象を特定しなかった静止画像を識別するための画像識別情報を画像選択部63に出力する。   The target specifying unit 61 specifies an authentication target for each still image, and sets a set of image identification information for identifying the still image and region identification information indicating a region in the still image to be authenticated to the image selection unit 63. Output. Here, the area identification information is stored in association with the still image stored in the HDD 115. When the authentication target is not specified, the target specifying unit 61 outputs image identification information for identifying a still image that has not specified the authentication target to the image selection unit 63.

対象特定部61は、静止画像が記憶制御部59によりHDD115に記憶されるごとに、認証対象を特定する。対象特定部61は、静止画像から認証対象を特定していた状態からその認証対象と同一の認証対象を特定できない状態に変化することに応じて、予測部67に予測指示を出力する。対象特定部61は、静止画像が1つの顔部分を含む場合には、静止画像が顔部分を含む状態から顔部分を含まない状態に変化すると、予測指示を出力する。静止画像が複数の顔部分を含む場合には、対象特定部61は、静止画像から1つの認証対象を特定する。   The target specifying unit 61 specifies an authentication target every time a still image is stored in the HDD 115 by the storage control unit 59. The target specifying unit 61 outputs a prediction instruction to the prediction unit 67 in response to a change from the state in which the authentication target is specified from the still image to the state in which the same authentication target as the authentication target cannot be specified. When the still image includes one face part, the target specifying unit 61 outputs a prediction instruction when the still image changes from a state including the face part to a state not including the face part. When the still image includes a plurality of face portions, the target specifying unit 61 specifies one authentication target from the still image.

上述したように対象特定部61は、第1の静止画像に複数の顔部分を含んでいる場合、1つの顔部分を認証対象に特定する。例えば、第1の静止画像が第1の顔部分と第2の顔部分を含んでいる場合、対象特定部61が第1の顔部分を認証対象に特定したとする。この場合、第1の顔部分に対応するユーザーがカメラ119の撮像範囲外に移動し、第2の顔部分に対応するユーザーがカメラ119の撮像範囲内にとどまる場合がある。この場合、第1の静止画像の後に撮像された第2の静止画像は、第2の顔部分を含むが、第1の顔部分を含まない。対象特定部61は、第1の静止画像で認証対象に特定した第1の顔部分が第2の静止画像に第1の顔部分が存在しない場合に、第2の顔部分を認証対象に特定するとともに、予測部67に予測指示を出力する。第2の静止画像に含まれる第2の顔部分を、第1の静止画像に含まれる第1の顔部分と比較することにより、第2の静止画像に、第1の静止画像に含まれていた第1の顔部分が存在しないことを判断すればよい。   As described above, when the first still image includes a plurality of face parts, the target specifying unit 61 specifies one face part as an authentication target. For example, when the first still image includes a first face part and a second face part, it is assumed that the target specifying unit 61 specifies the first face part as an authentication target. In this case, the user corresponding to the first face portion may move outside the imaging range of the camera 119, and the user corresponding to the second face portion may remain within the imaging range of the camera 119. In this case, the second still image captured after the first still image includes the second face portion, but does not include the first face portion. The target specifying unit 61 specifies the second face portion as the authentication target when the first face portion specified as the authentication target in the first still image does not exist in the second still image. In addition, a prediction instruction is output to the prediction unit 67. By comparing the second face portion included in the second still image with the first face portion included in the first still image, the second still image is included in the first still image. What is necessary is just to judge that the 1st face part does not exist.

画像選択部63は、第2認証部69から選択指示が入力されることに応じて、記憶制御部59によりHDD115に記憶された複数の静止画像のうちから1つを決定し、決定された静止画像と、認証対象の領域を示す領域情報との組を第2認証部69に出力する。第2認証部69から選択指示が入力される場合、その時点でカメラ119が出力する静止画像には顔の部分の全体が含まれない。このため、画像選択部63は、HDD115に記憶された複数の静止画像のうち、対象特定部61により認証対象が特定された静止画像を選択する。ただし、画像選択部63は、認証対象の顔部分の面積が増加しない静止画像は選択しない。顔部分の面積が増加しない場合は、被写体がMFP100の前を横切る場合等、MFP100に近づいていない可能性が高いからである。これにより、MFP100に近づいていないユーザーを認証しないようにすることができる。   The image selection unit 63 determines one of a plurality of still images stored in the HDD 115 by the storage control unit 59 in response to the selection instruction input from the second authentication unit 69, and determines the determined still image A set of an image and area information indicating an area to be authenticated is output to the second authentication unit 69. When a selection instruction is input from the second authentication unit 69, the still image output by the camera 119 at that time does not include the entire face portion. For this reason, the image selection unit 63 selects a still image whose authentication target is specified by the target specifying unit 61 from among a plurality of still images stored in the HDD 115. However, the image selection unit 63 does not select a still image in which the area of the face part to be authenticated does not increase. This is because when the area of the face portion does not increase, there is a high possibility that the subject does not approach the MFP 100, such as when the subject crosses the front of the MFP 100. As a result, it is possible to prevent a user who is not approaching the MFP 100 from being authenticated.

画像選択部63は、選択の対象に決定された複数の静止画像のうちから認証対象となる顔部分の面積が最大の静止画像を選択する。面積が最大であれば、認証のための情報量が多くなり、認証精度が向上する。静止画像中の顔部分は、静止画像中で人の首より上側の頭部のうち肌色の部分である。したがって、静止画像中で肌色の部分の面積が最大の静止画像を選択するのが好ましい。肌色の部分の面積が大きいほど、認証に用いる情報量が多くなるからである。また、髪の毛で顔が隠れる場合、または、被写体の顔とカメラ119との間に障害物が存在する場合、被写体が下を向いた状態でカメラ119で撮像された場合等は、その状態で撮像された静止画像を選択しないようにすることができる。   The image selection unit 63 selects a still image having the largest area of the face portion to be authenticated from among a plurality of still images determined as selection targets. If the area is maximum, the amount of information for authentication increases and the authentication accuracy improves. The face portion in the still image is a skin-colored portion of the head above the person's neck in the still image. Therefore, it is preferable to select a still image having the maximum skin color area in the still image. This is because the amount of information used for authentication increases as the area of the skin color portion increases. Also, when the face is hidden by the hair, or when there is an obstacle between the face of the subject and the camera 119, or when the subject shoots with the camera 119 facing down, the image is taken in that state. The selected still image can be prevented from being selected.

第2認証部69は、第1認証部53から認証指示が入力されることに応じて、画像選択部63に選択指示を出力し、画像選択部63により選択された静止画像の領域情報で特定される領域の部分を、認証情報と比較することにより、ユーザーを認証し、認証結果を操作検出部55に出力する。第2認証部69による認証は、処理対象とする静止画像が、操作検出部55が操作開始信号を出力した後にカメラ119が出力する静止画像ではなく、操作検出部55が操作開始信号を出力する前に、カメラ119が出力する静止画像である点で、第1認証部53と異なるが、認証情報との比較は同じである。第2認証部69は、ユーザーの認証が終了すると、HDD115に記憶制御部59により記憶された静止画像を消去する。   The second authentication unit 69 outputs a selection instruction to the image selection unit 63 in response to the authentication instruction input from the first authentication unit 53, and is specified by the region information of the still image selected by the image selection unit 63. The portion of the area to be processed is compared with the authentication information to authenticate the user, and the authentication result is output to the operation detection unit 55. In the authentication by the second authentication unit 69, the still image to be processed is not the still image output by the camera 119 after the operation detection unit 55 outputs the operation start signal, but the operation detection unit 55 outputs the operation start signal. Although it differs from the 1st authentication part 53 by the point which is the still image which the camera 119 outputs before, the comparison with authentication information is the same. When the user authentication is completed, the second authentication unit 69 deletes the still image stored in the HDD 115 by the storage control unit 59.

操作検出部55は、第1認証部53または第2認証部53からユーザーの認証に成功することを示す認証結果が入力される場合、その後に操作部163に入力される操作を検出する場合、検出された操作を認証されたユーザーにより入力された操作として受け付けるが、ユーザーの認証に失敗したことを示す認証結果が入力される場合、その後に操作部163に入力される操作を検出する場合、検出された操作をゲストユーザーにより入力された操作として受け付ける。ゲストユーザーが入力可能な操作は、予め定められた操作に限定される。   When the operation detection unit 55 detects an operation input to the operation unit 163 after the authentication result indicating that the user authentication is successful is input from the first authentication unit 53 or the second authentication unit 53, When the detected operation is accepted as an operation input by an authenticated user, but when an authentication result indicating that the user authentication has failed is input, when an operation input to the operation unit 163 is detected thereafter, The detected operation is accepted as an operation input by the guest user. The operations that can be input by the guest user are limited to predetermined operations.

第2認証部69は、合成画像生成部71を含んでもよい。画像選択部63から入力される静止画像において領域情報で特定される領域の部分は、顔の全体を含む画像である。このため、画像選択部63から入力される静止画像よりも後に撮像されてHDD115に記憶された静止画像であって、顔の全体ではなく一部を含む静止画像が記憶制御部59によってHDD115に記憶されている場合がある。そのような静止画像は、画像選択部63から入力される静止画像よりも後に撮像されているので、画像選択部63から入力される静止画像が記憶される時点よりも、被写体とMFP100との間の距離が短い可能性が高い。被写体とMFP100との間の距離が短いほど、顔の部分の面積が大きく、解像度の高い画像を得ることができる。合成画像生成部71は、HDD115に記憶された静止画像であって、被写体の顔の一部を含む最新の静止画像を選択し、選択された静止画像中の顔の一部を特定し、顔の残りの部分を画像選択部63から入力される静止画像から抽出し、2つの部分のサイズを調整して合成することにより合成画像を生成する。なお、ここでは、HDD115に記憶された静止画像から被写体の顔の一部を含む最新の静止画像を選択するようにしたが、最新ではなく別の静止画像を選択するようにしてもよいし、複数の静止画像を選択するようにして、複数の静止画像それぞれから顔の複数の部分を抽出して合成するようにしてもよい。   The second authentication unit 69 may include a composite image generation unit 71. The portion of the region specified by the region information in the still image input from the image selection unit 63 is an image including the entire face. Therefore, a still image captured after the still image input from the image selection unit 63 and stored in the HDD 115 and including a part of the face instead of the entire face is stored in the HDD 115 by the storage control unit 59. May have been. Since such a still image is captured after the still image input from the image selection unit 63, the still image input from the image selection unit 63 is stored between the subject and the MFP 100 more than when the still image input from the image selection unit 63 is stored. The distance is likely to be short. The shorter the distance between the subject and the MFP 100, the larger the area of the face portion and the higher resolution image can be obtained. The composite image generation unit 71 selects the latest still image that is a still image stored in the HDD 115 and includes a part of the face of the subject, identifies a part of the face in the selected still image, Are extracted from the still image input from the image selection unit 63, and the combined image is generated by adjusting the size of the two portions and combining them. Although the latest still image including a part of the face of the subject is selected from the still images stored in the HDD 115 here, another still image may be selected instead of the latest one. A plurality of still images may be selected, and a plurality of portions of the face may be extracted from each of the plurality of still images and combined.

予測部67は、対象特定部61から予測指示が入力されることに応じて、対象特定部61により対象が特定されなくなってから被写体がMFP100に到達するまでの時間を予測する。予測部67は、対象特定部61から予測指示が入力された時点の被写体までの距離と、被写体の移動速度を、距離検出部65から入力される距離に基づいて算出する。そして、予測部67は、算出された距離と移動速度からMFP100に到達するまでの時間を算出する。予測部67は、対象特定部61から予測指示が入力されることに応じて、算出された時間を制限期間として第2認証部69に出力する。なお、制限時間を、算出された時間に、予め定められた時間を余裕期間として付加した時間としてもよい。   Prediction unit 67 predicts the time from when the target is not specified by target specifying unit 61 until the subject reaches MFP 100 in response to a prediction instruction input from target specifying unit 61. The prediction unit 67 calculates the distance to the subject when the prediction instruction is input from the target specifying unit 61 and the moving speed of the subject based on the distance input from the distance detection unit 65. Prediction unit 67 then calculates the time to reach MFP 100 from the calculated distance and moving speed. The prediction unit 67 outputs the calculated time to the second authentication unit 69 as a limited period in response to a prediction instruction input from the target specifying unit 61. The time limit may be a time obtained by adding a predetermined time as a margin period to the calculated time.

第2認証部69は、予測部67から制限期間が入力された時点から制限期間が経過するまでに、第1認証部53から認証指示が入力されない場合は、認証しない。   The second authentication unit 69 does not authenticate if an authentication instruction is not input from the first authentication unit 53 by the time the limit period elapses after the limit period is input from the prediction unit 67.

図5は、撮像制御処理の流れの一例を示すフローチャートである。撮像制御処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118Aに記憶された認証プログラムを実行することにより、CPU111により実行される処理である。図5を参照して、CPU111は、ユーザーを検出したか否かを判断する(ステップS01)。赤外線センサーがユーザーを検出したならば処理をステップS02に進めるが、そうでなければ処理をステップS01に戻す。   FIG. 5 is a flowchart illustrating an example of the flow of the imaging control process. The imaging control process is a process executed by CPU 111 when CPU 111 provided in MFP 100 executes an authentication program stored in ROM 113, HDD 115, or CD-ROM 118A. Referring to FIG. 5, CPU 111 determines whether a user has been detected (step S01). If the infrared sensor detects a user, the process proceeds to step S02; otherwise, the process returns to step S01.

ステップS02においては、カメラ119を制御して撮像させる。そして、カメラ119が出力する静止画像を取得する(ステップS03)。次のステップS04においては、静止画像から顔部分を抽出し、顔部分が抽出できたか否かを判断する。静止画像が複数の被写体それぞれの顔部分を含む場合には、複数の顔部分を抽出する。顔部分が抽出できたならば処理をステップS05に進めるが、そうでなければ処理をステップS16に進める。   In step S02, the camera 119 is controlled to capture an image. And the still image which the camera 119 outputs is acquired (step S03). In the next step S04, a face part is extracted from the still image, and it is determined whether or not the face part has been extracted. When the still image includes face portions of a plurality of subjects, a plurality of face portions are extracted. If the face portion can be extracted, the process proceeds to step S05. If not, the process proceeds to step S16.

ステップS05においては、ステップS04において抽出された1以上の顔部分のうちから面積が増加しない顔部分を処理対象から除外する。過去に撮像された時点よりも顔部分の面積が増加する場合はMFP100に被写体が近づいていると判断でき、顔部分の面積が増加しない場合は、MFP100の前を被写体が横切る場合等、MFP100に被写体が近づいていない可能性が高い。後述するステップS11またはステップS22において、ステップS02においてカメラ119が撮像する前に、カメラ119によって撮像して得られた静止画像がHDD115に記憶されている。例えば、ステップS04において抽出された顔部分を処理対象に設定し、HDD115に記憶された静止画像のうち撮像日時が最も新しい静止画像中から比較対象となる顔部分を決定し、処理対象となる顔部分の面積と、比較対象の顔部分の面積を比較することによって、面積が増加するか否かを判断する。比較対象の顔部分は、静止画像中に顔部分が複数存在する場合には、処理対象の顔部分の静止画像中の位置に近い位置の顔部分を比較対象の顔部分に決定するようにすればよい。   In step S05, the face part whose area does not increase is excluded from the processing targets among the one or more face parts extracted in step S04. If the area of the face portion increases from the time when the image was taken in the past, it can be determined that the subject is approaching the MFP 100. If the area of the face portion does not increase, the MFP 100 is informed when the subject crosses the MFP 100. There is a high possibility that the subject is not approaching. In step S11 or step S22 described later, before the camera 119 captures an image in step S02, a still image obtained by capturing with the camera 119 is stored in the HDD 115. For example, the face portion extracted in step S04 is set as a processing target, and among the still images stored in the HDD 115, the face portion to be compared is determined from among the still images having the latest imaging date and time, and the face to be processed By comparing the area of the part with the area of the face part to be compared, it is determined whether or not the area increases. When there are a plurality of face parts in the still image, the face part near the position in the still image of the processing target face part is determined as the face part to be compared. That's fine.

次のステップS06においては、処理対象とするべき顔部分が存在するか否かを判断する。処理対象とするべき顔部分が存在するならば処理をステップS07に進めるが、そうでなければ処理をステップS16に進める。ステップS07においては、処理対象とするべき顔部分が複数か否かを判断する。複数ならば処理をステップS08に進めるが、そうでなければステップS08をスキップして処理をステップS09に進める。ステップS08においては、複数の顔部分のうちから面積が最大の顔部分を選択し、処理をステップS09に進める。   In the next step S06, it is determined whether or not there is a face part to be processed. If there is a face portion to be processed, the process proceeds to step S07; otherwise, the process proceeds to step S16. In step S07, it is determined whether there are a plurality of face portions to be processed. If there is more than one, the process proceeds to step S08; otherwise, step S08 is skipped and the process proceeds to step S09. In step S08, the face part with the largest area is selected from the plurality of face parts, and the process proceeds to step S09.

ステップS09においては、処理がステップS07から進む場合、静止画像から抽出された1つの顔部分を認証対象に決定し、処理をステップS10に進め、処理がステップS08から進む場合、面積が最大の顔部分を認証対象に決定し、処理をステップS10に進める。ステップS10においては、検出フラグに「1」を設定し、処理をステップS11に進める。検出フラグは、静止画像から認証対象が決定されたか否かを示すフラグであり、静止画像から認証対象が決定される場合に「1」に設定され、静止画像から認証対象が決定されない場合に「0」に設定される。ステップS11においては、ステップS03において取得された静止画像と、認証対象と、撮像日時とを関連付けてHDD115に記憶する。認証対象は、認証対象に決定された顔部分の静止画像中の位置を示す位置情報である。   In step S09, when the process proceeds from step S07, one face part extracted from the still image is determined as an authentication target, and the process proceeds to step S10. When the process proceeds from step S08, the face having the largest area is obtained. The part is determined as an authentication target, and the process proceeds to step S10. In step S10, “1” is set in the detection flag, and the process proceeds to step S11. The detection flag is a flag indicating whether or not the authentication target is determined from the still image. The detection flag is set to “1” when the authentication target is determined from the still image, and “when the authentication target is not determined from the still image”. 0 "is set. In step S11, the still image acquired in step S03, the authentication target, and the imaging date and time are associated with each other and stored in HDD 115. The authentication target is position information indicating the position in the still image of the face portion determined as the authentication target.

ステップS12においては、ユーザーまでの距離を測定し、処理をステップS13に進める。赤外線センサーの出力に基づいて、ユーザーまでの距離を測定する。ステップS13においては、移動速度を算出する。異なる時刻に測定された2つの距離から移動速度を算出する。次のステップS14においては、撮像時刻を予測し、処理をステップS15に進める。ステップS13において算出された移動速度を用いて、ユーザーが予め定められた距離を移動する時間を算出し、現在時刻よりも算出された時間だけ後の時刻を撮像時刻として予測する。そして、現在時刻が予測された撮像時刻になるまで待機状態となり(ステップS15でNO)、現在時刻が予測された撮像時刻になると(ステップS15でYES)、処理をステップS02に戻す。   In step S12, the distance to the user is measured, and the process proceeds to step S13. Measure the distance to the user based on the output of the infrared sensor. In step S13, the moving speed is calculated. The moving speed is calculated from two distances measured at different times. In the next step S14, the imaging time is predicted, and the process proceeds to step S15. Using the moving speed calculated in step S13, the time for the user to travel a predetermined distance is calculated, and the time after the time calculated from the current time is predicted as the imaging time. And it will be in a standby state until the current time becomes the predicted imaging time (NO in step S15), and when the current time becomes the predicted imaging time (YES in step S15), the process returns to step S02.

一方、処理がステップS16に進む場合は、静止画像から顔部分が抽出されない場合(ステップS04でNO)、または、静止画像から顔部分が抽出されるが、その顔部分の面積が増加しない場合(ステップS06でNO)である。ステップS16においては、検出フラグが「1」に設定されているか否かを判断する。検出フラグが「1」に設定されているならば処理をステップS17に進めるが、そうでなければ処理をステップS22に進める。ステップS17においては、タイマーTの計時を開始し、処理をステップS18に進める。タイマーTは、静止画像から認証対象が決定された状態から、静止画像から認証対象が決定されない状態に変化してからの経過時間を計時する。   On the other hand, when the process proceeds to step S16, the face portion is not extracted from the still image (NO in step S04), or the face portion is extracted from the still image, but the area of the face portion does not increase ( NO in step S06). In step S16, it is determined whether or not the detection flag is set to “1”. If the detection flag is set to “1”, the process proceeds to step S17; otherwise, the process proceeds to step S22. In step S17, the timer T starts counting, and the process proceeds to step S18. The timer T measures the elapsed time from when the authentication target is determined from the still image to the state where the authentication target is not determined from the still image.

ステップS18においては、ユーザーまでの距離を測定し、処理をステップS19に進める。赤外線センサーの出力に基づいて、ユーザーまでの距離を測定する。ステップS19においては、移動速度を算出する。異なる時刻に測定された2つの距離から移動速度を算出する。次のステップS20においては、制限時間を決定し、処理をステップS21に進める。ステップS13において算出された移動速度で、ステップS19において測定して得られた距離を除算した値を制限時間に決定する。   In step S18, the distance to the user is measured, and the process proceeds to step S19. Measure the distance to the user based on the output of the infrared sensor. In step S19, the moving speed is calculated. The moving speed is calculated from two distances measured at different times. In the next step S20, a time limit is determined, and the process proceeds to step S21. A value obtained by dividing the distance obtained by measurement in step S19 with the movement speed calculated in step S13 is determined as the time limit.

次のステップS21においては、検出フラグを「0」に設定し、処理をステップS22に進める。ステップS22においては、ステップS03において取得された静止画像と撮像日時とを関連付けてHDD115に記憶し、処理をステップS01に戻す。   In the next step S21, the detection flag is set to “0”, and the process proceeds to step S22. In step S22, the still image acquired in step S03 and the shooting date and time are associated and stored in HDD 115, and the process returns to step S01.

図6は、認証処理の流れの一例を示すフローチャートである。認証処理は、MFP100が備えるCPU111が、ROM113、HDD115またはCD−ROM118Aに記憶された認証プログラムを実行することにより、CPU111により実行される処理である。また、CPU111は、認証処理を、図5に示した撮像制御処理と並列で実行する。図6を参照して、CPU111は、操作を検出したか否かを判断する(ステップS31)。ここでの操作は、ユーザーが操作パネル160または自動原稿搬送装置120に対する操作である。具体的には、タッチパネル165がユーザーが指示する位置を検出する場合、ハードキー部167が複数のハードキーのいずれかの押下を検出する場合に操作パネル160に対する操作を検出する。また、自動原稿搬送装置120が備える開状態検出センサーまたは原稿検出センサーがONになると自動原稿搬送装置120に対する操作を検出する。操作を検出するまで待機状態となり(ステップS31でNO)、操作を検出したならば処理をステップS32に進める。   FIG. 6 is a flowchart illustrating an example of the flow of authentication processing. The authentication process is a process executed by CPU 111 when CPU 111 provided in MFP 100 executes an authentication program stored in ROM 113, HDD 115, or CD-ROM 118A. Further, the CPU 111 executes authentication processing in parallel with the imaging control processing shown in FIG. Referring to FIG. 6, CPU 111 determines whether an operation has been detected (step S31). The operation here is an operation on the operation panel 160 or the automatic document feeder 120 by the user. Specifically, when the touch panel 165 detects the position indicated by the user, the operation on the operation panel 160 is detected when the hard key unit 167 detects pressing of any of the plurality of hard keys. Further, when the open state detection sensor or the document detection sensor included in the automatic document feeder 120 is turned on, an operation on the automatic document feeder 120 is detected. The process waits until an operation is detected (NO in step S31). If an operation is detected, the process proceeds to step S32.

ステップS32においては、カメラ119を制御して撮像させる。そして、カメラ119が出力する静止画像を取得する(ステップS33)。次のステップS34においては、静止画像から顔部分を抽出し、顔部分の全体が抽出できたか否かを判断する。顔部分の全体が抽出できたならば処理をステップS35に進めるが、そうでなければ処理をステップS36に進める。ステップS35においては、抽出された顔部分を認証情報と比較して認証し、処理をステップS44に進める。   In step S32, the camera 119 is controlled to capture an image. And the still image which the camera 119 outputs is acquired (step S33). In the next step S34, the face portion is extracted from the still image, and it is determined whether or not the entire face portion has been extracted. If the entire face portion has been extracted, the process proceeds to step S35; otherwise, the process proceeds to step S36. In step S35, the extracted face portion is authenticated by comparing with the authentication information, and the process proceeds to step S44.

処理がステップS36に進む場合、タイマーTが制限時間以下か否かを判断する。タイマーTは、図5の撮像制御処理のステップS17において計時が開始される。制限時間は、図5のステップS20において決定される。タイマーTが制限時間以下ならば処理をステップS37に進めるが、そうでなければ処理をステップS46に進める。   When the process proceeds to step S36, it is determined whether or not the timer T is equal to or shorter than the time limit. The timer T starts measuring time in step S17 of the imaging control process of FIG. The time limit is determined in step S20 of FIG. If timer T is equal to or shorter than the time limit, the process proceeds to step S37; otherwise, the process proceeds to step S46.

ステップS37においては、HDD115に記憶された静止画像のうちから認証対象が関連付けられた静止画像を抽出する。次のステップS38においては、抽出された静止画像のうちから撮像日時が最新のものから順に所定数を処理対象として抽出する。そして、所定数の静止画像のうちから認証対象のサイズが最大の静止画像を決定する(ステップS39)。   In step S <b> 37, a still image associated with the authentication target is extracted from the still images stored in HDD 115. In the next step S38, a predetermined number of extracted still images are extracted as processing targets in order from the latest captured date and time. Then, a still image having a maximum size to be authenticated is determined from a predetermined number of still images (step S39).

次のステップS40においては、ステップS33において取得された静止画像に、顔部分の一部が含まれるか否かを判断する。顔部分の一部が含まれるならば処理をステップS41に進めるが、そうでなければ処理をステップS43に進める。ステップS41においては、ステップS33において取得された静止画像から顔部分の一部を抽出し、処理をステップS42に進める。ステップS42においては、ステップS41において抽出された顔部分の一部と、ステップS39において決定された静止画像に含まれる認証対象の顔部分とに基づいて、合成画像を生成し、処理をステップS43に進める。ステップS41において抽出された顔部分の一部を第1の部分とし、ステップS39において決定された静止画像に含まれる認証対象の顔部分のうち第1の部分以外の部分を第2の部分とし、第1の部分と第2の部分とをサイズを調整して合成することにより、合成画像を生成する。   In the next step S40, it is determined whether or not a part of the face portion is included in the still image acquired in step S33. If part of the face portion is included, the process proceeds to step S41; otherwise, the process proceeds to step S43. In step S41, a part of the face part is extracted from the still image acquired in step S33, and the process proceeds to step S42. In step S42, a composite image is generated based on the part of the face part extracted in step S41 and the face part to be authenticated included in the still image determined in step S39, and the process proceeds to step S43. Proceed. A part of the face part extracted in step S41 is a first part, and a part other than the first part of the face part to be authenticated included in the still image determined in step S39 is a second part. A synthesized image is generated by synthesizing the first part and the second part by adjusting the size.

ステップS43においては、顔部分を認証情報と比較して認証し、処理をステップS44に進める。処理がステップS40から進む場合には、ステップS39において決定された静止画像に含まれる認証対象の顔部分を認証情報と比較して認証する。処理がステップS42から進む場合には、ステップS42において生成された合成画像を認証情報と比較して認証する。   In step S43, the face part is authenticated by comparing with the authentication information, and the process proceeds to step S44. When the process proceeds from step S40, authentication is performed by comparing the face portion to be authenticated included in the still image determined in step S39 with the authentication information. When the process proceeds from step S42, authentication is performed by comparing the composite image generated in step S42 with the authentication information.

ステップS44においては、ステップS35またはステップS43における認証の結果によって処理を分岐させる。認証に成功したならば処理をステップS45に進めるが、そうでなければ処理をステップS46に進める。ステップS45においては、認証されたユーザーを操作ユーザーに設定し、認証処理を終了する。ステップS46においては、ゲストユーザーを操作ユーザーに設定し、処理を終了する。   In step S44, the process is branched depending on the result of authentication in step S35 or step S43. If the authentication is successful, the process proceeds to step S45; otherwise, the process proceeds to step S46. In step S45, the authenticated user is set as the operating user, and the authentication process is terminated. In step S46, the guest user is set as the operating user, and the process ends.

<第1の変形例>
対象特定部61は、静止画像が複数の被写体の顔部分を含む場合は、撮像時期が前後の2つの静止画像間で複数の顔部分それぞれの面積を比較し、面積の増加率が最大の顔部分を認証対象に特定する。面積の増加率が最大の顔部分に対応する被写体は、MFP100に近づく速度が最大であり、MFP100を操作しようとユーザーである可能性が高い。例えば、静止画像に含まれる複数の顔部分それぞれについて、その静止画像の前に記憶された静止画像中で対応する顔部分を、画像中の位置、形状および色に基づいて特定し、2つの顔部分の面積の増加率を算出する。
<First Modification>
When the still image includes face portions of a plurality of subjects, the target specifying unit 61 compares the areas of the plurality of face portions between the two still images before and after the imaging time, and the face having the largest area increase rate Specify the part to be authenticated. The subject corresponding to the face part with the largest area increase rate has the highest speed of approaching the MFP 100, and is likely to be a user trying to operate the MFP 100. For example, for each of a plurality of face parts included in a still image, the corresponding face part in the still image stored before the still image is identified based on the position, shape, and color in the image, and two faces The increase rate of the area of the part is calculated.

対象特定部61は、面積のみで認証対象を特定するようにしてもよいし、面積の増加率のみで認証対象と特定するようにしてもよいし、面積と増加率とから認証対象を特定するようにしてもよい。面積と増加率とから認証対象を特定する場合、例えば、面積が最大の顔部分を認証対象に特定し、面積が最大の顔部分と、それより面積が小さい1以上の顔部分とで、面積の差が所定値以下の場合には、面積の差が所定値以下の2以上の顔部分のうち面積の増加率が最大の顔部分を認証対象とする。   The target specifying unit 61 may specify the authentication target only by the area, may specify the authentication target only by the area increase rate, or specify the authentication target from the area and the increase rate. You may do it. When the authentication target is specified from the area and the increase rate, for example, the face portion having the largest area is specified as the authentication target, and the area having the largest area and one or more face portions having a smaller area is determined. If the difference is less than or equal to a predetermined value, the face portion having the largest area increase rate among the two or more face portions having an area difference equal to or less than the predetermined value is set as an authentication target.

複数の被写体のうち顔の部分の面積の増加率が最大の被写体を認証対象に特定するので、画像処理装置に近づく速度の速い被写体を認証することができる。   Since the subject having the largest increase in the area of the face portion among the plurality of subjects is specified as the authentication target, it is possible to authenticate the subject with a fast speed approaching the image processing apparatus.

<第2の変形例>
画像選択部63は、選択の対象に決定された複数の静止画像のうちから認証対象となる顔の部分において最も正面を向く顔を含む静止画像を選択するようにしてもよい。正面を向く画像が、正面を向かない画像に比較して、認証のための情報、例えば、特徴量が正確に得ることができ、認証の精度をより高くすることができる。顔の部分の画像から顔の向く方向を検出する方法は、周知の技術を用いることができるが、例えば、顔の部分の画像から目、鼻、口の部分を抽出し、顔の輪郭に対して、目、鼻、口が配置される位置関係から決定する。
<Second Modification>
The image selection unit 63 may select a still image including a face that faces most in the face portion to be authenticated from among a plurality of still images determined as selection targets. Information for authentication, for example, a feature amount can be obtained more accurately and an authentication accuracy can be further improved when an image facing the front is compared with an image not facing the front. A well-known technique can be used to detect the direction of the face from the face part image. For example, the eye, nose, and mouth parts are extracted from the face part image and the face contour is extracted. The position is determined based on the positional relationship between the eyes, nose and mouth.

<第3の変形例>
画像選択部63は、選択の対象に決定された複数の静止画像のうちからコントラストが最大の静止画像を選択するようにしてもよい。コントラストが大きい画像からは、認証のための特徴データをより正確に得ることができるからである。
<Third Modification>
The image selection unit 63 may select a still image having the maximum contrast from among a plurality of still images determined as selection targets. This is because the feature data for authentication can be obtained more accurately from an image having a high contrast.

<第4の変形例>
画像選択部63は、選択の対象に決定された複数の静止画像のうちから認証対象となる顔の部分の静止画像中の位置が、最も中心に近い静止画像を選択するようにしてもよい。静止画像は、画像の周辺部分に比較して中心の部分はレンズによる歪が少ないので、認証のための特講データをより正確に得ることができるからである。
<Fourth Modification>
The image selection unit 63 may select a still image whose position in the still image of the face part to be authenticated is closest to the center from among a plurality of still images determined as selection targets. This is because the still image has less distortion due to the lens in the central portion than the peripheral portion of the image, so that special course data for authentication can be obtained more accurately.

<第5の変形例>
上述した実施の形態においては、ユーザーの検出およびユーザーとの間の距離を赤外線センサーで計測するようにしたが、焦電センサーを用いるようにしてもよい。この場合には、距離を測定することができないので、距離検出部65は、焦電センサーを制御して、焦電センサーがユーザーを検出している間、タイミング決定部57にユーザーを検出していることを示す存在信号を出力する。タイミング決定部57は、距離検出部65からユーザーを検出していることを示す存在信号が入力されている間、所定時間間隔で、撮像制御部51に撮像指示を出力する。これにより、カメラ119が、MFP100から所定の距離の範囲内にユーザーが存在する間、所定時間間隔で被写体を撮像することになる。また、予測部67は、制限期間を予め定めておき、対象特定部61から予測指示が入力されることに応じて、予め定められた制限期間を第2認証部69に出力する。なお、人の存在を検出することができれば、焦電センサーに限らない。
<Fifth Modification>
In the embodiment described above, the detection of the user and the distance to the user are measured by the infrared sensor, but a pyroelectric sensor may be used. In this case, since the distance cannot be measured, the distance detection unit 65 controls the pyroelectric sensor to detect the user in the timing determination unit 57 while the pyroelectric sensor detects the user. Outputs a presence signal indicating that The timing determination unit 57 outputs an imaging instruction to the imaging control unit 51 at predetermined time intervals while the presence signal indicating that the user is detected is input from the distance detection unit 65. Thus, camera 119 captures an image of the subject at predetermined time intervals while the user is within a predetermined distance from MFP 100. In addition, the prediction unit 67 sets a limit period in advance, and outputs a predetermined limit period to the second authentication unit 69 in response to a prediction instruction input from the target specifying unit 61. It is not limited to the pyroelectric sensor as long as the presence of a person can be detected.

<第6の変形例>
本実施の形態においては、カメラ119は、静止画像を出力する例を説明したが、動画像を出力するようにしてもよい。この場合には、動画像に含まれる複数のフレームそれぞれを静止画像と同様に解析して、MFP100の周辺に存在する人を検出することができる。また、第5の変形例における焦電センサーに代えて、カメラ119を用いることができ、フレーム中の顔画像のサイズの変化から、被写体がMFP100に近づいているのか、遠ざかっているのかを判断することができる。
<Sixth Modification>
In the present embodiment, the example in which the camera 119 outputs a still image has been described, but a moving image may be output. In this case, each of a plurality of frames included in the moving image can be analyzed in the same manner as a still image, and a person existing around MFP 100 can be detected. In addition, the camera 119 can be used instead of the pyroelectric sensor in the fifth modification, and it is determined from the change in the size of the face image in the frame whether the subject is approaching or moving away from the MFP 100. be able to.

<第7の変形例>
上述した実施の形態においては、予測部67により予測された予測時刻以前に操作を検出しない場合には、第2認証部69により認証をしないようにした。第7の変形例においては、予測部67により予測された予測時刻以前に操作を検出しない場合であっても、第2認証部69は認証するが、予測時刻からの経過時間に応じて、認証レベルを低下させる。認証レベルは、認証精度を示し、認証精度は、例えば、静止画像中の顔部分と認証情報とを比較した比較結果で、一致度の割合を示す。第2認証部69は、認証レベルを低下させる場合、認証精度が低い場合でも認証する。
<Seventh Modification>
In the above-described embodiment, when the operation is not detected before the prediction time predicted by the prediction unit 67, the second authentication unit 69 does not perform authentication. In the seventh modification, the second authenticating unit 69 authenticates even when an operation is not detected before the predicted time predicted by the predicting unit 67, but authentication is performed according to the elapsed time from the predicted time. Reduce the level. The authentication level indicates authentication accuracy, and the authentication accuracy indicates, for example, a comparison result of a comparison between a face portion in a still image and authentication information, and a percentage of coincidence. When the authentication level is lowered, the second authentication unit 69 performs authentication even when the authentication accuracy is low.

<第8の変形例>
認証精度を複数の段階で区切った複数の認証レベルを設けておき、第2認証部69による認証の結果、認証精度が属する認証レベルによって、操作部163に入力可能な操作を異ならせる。例えば、第2認証部69は、複数の認証レベルごとに、実行可能な処理を割り当てたテーブルを予め準備しておく。テーブルは、例えば、認証精度の高い認証レベルほど、多くの処理を割り当てる。第2認証部69が認証の結果、認証精度を操作検出部55に出力し、操作検出部55は、認証精度が属する認証レベルに割り当てられた処理を実行するための操作を操作部163で受け付け可能に設定する。
<Eighth Modification>
A plurality of authentication levels in which the authentication accuracy is divided at a plurality of stages are provided, and as a result of authentication by the second authentication unit 69, operations that can be input to the operation unit 163 vary depending on the authentication level to which the authentication accuracy belongs. For example, the second authentication unit 69 prepares a table in which executable processes are assigned for each of a plurality of authentication levels. For example, the table assigns more processing to an authentication level with higher authentication accuracy. As a result of authentication, the second authentication unit 69 outputs the authentication accuracy to the operation detection unit 55, and the operation detection unit 55 accepts an operation for executing a process assigned to the authentication level to which the authentication accuracy belongs by the operation unit 163. Set as possible.

<第9の変形例>
上述した実施の形態においては、カメラ119が撮像して出力する静止画像を記憶するようにしたが、対象特定部61により認証対象に特定された被写体の顔の部分を静止画像から切り出して、切り出した顔の部分の画像を記憶するようにしてもよい。これより、記憶する画像のデータ量を少なくすることができる。
<Ninth Modification>
In the above-described embodiment, the still image that is captured and output by the camera 119 is stored. However, the face portion of the subject specified as the authentication target by the target specifying unit 61 is cut out from the still image and cut out. You may make it memorize | store the image of the part of the face. As a result, the amount of image data to be stored can be reduced.

以上説明したように、本実施の形態におけるMFP100は、画像処理装置として機能し、ユーザーによる操作を受け付ける操作時の前にカメラ119で撮像して得られる静止画像を記憶しておき、操作時の後にカメラ119で撮像して得られる静止画像が顔部分を含んでいる場合、その静止画像に基づいて、ユーザーを認証し、操作時の後にカメラ119で撮像して得られる静止画像が顔部分を含んでいいない場合、操作時の前にカメラ119で撮像して得られる静止画像に基づいて、ユーザーを認証する。このため、MFP100の操作パネル160を操作する位置で撮像されないが、MFP100から離れた位置、例えば、MFP100から第1の距離だけ離れた位置で撮像されるユーザーを認証することができる。   As described above, MFP 100 according to the present embodiment functions as an image processing apparatus, stores a still image obtained by imaging with camera 119 before an operation for accepting an operation by a user, When a still image obtained later by the camera 119 includes a face portion, the user is authenticated based on the still image, and the still image obtained by the camera 119 after the operation captures the face portion. If not, the user is authenticated based on a still image obtained by imaging with the camera 119 before operation. Therefore, it is possible to authenticate a user who is not picked up at a position where the operation panel 160 of the MFP 100 is operated, but is picked up at a position away from the MFP 100, for example, a position away from the MFP 100 by a first distance.

また、MFP100は、HDD115に記憶された複数の静止画像のうちから認証対象となる被写体の顔の部分の面積が最大の画像を選択し、認証するので、認証の精度をできるだけ高くすることができる。   In addition, since MFP 100 selects and authenticates an image having the largest area of the face portion of the subject to be authenticated from among a plurality of still images stored in HDD 115, authentication accuracy can be made as high as possible. .

また、MFP199は、HDD115に記憶された複数の静止画像のうちから認証対象となる被写体の顔が正面を向く静止画像を選択し、認証するので、認証の精度をできるだけ高くすることができる。   In addition, since the MFP 199 selects and authenticates a still image in which the face of the subject to be authenticated faces the front from the plurality of still images stored in the HDD 115, the accuracy of authentication can be made as high as possible.

また、MFP199は、HDD115に記憶された複数の静止画像のうちからコントラストが最大の静止画像を選択し、認証するので、認証の精度をできるだけ高くすることができる。   In addition, since the MFP 199 selects and authenticates a still image having the maximum contrast among a plurality of still images stored in the HDD 115, the accuracy of authentication can be made as high as possible.

また、MFP199は、HDD115に記憶された複数の静止画像のうちから認証対象となる被写体の肌色の部分の面積が最大の静止画像を選択し、認証するので、認証の精度をできるだけ高くすることができる。   Further, since the MFP 199 selects and authenticates a still image having the maximum skin color area of the subject to be authenticated from among a plurality of still images stored in the HDD 115, the authentication accuracy can be made as high as possible. it can.

また、MFP199は、HDD115に記憶された複数の静止画像のうちから認証対象となる被写体が最も中心に配置された静止画像を選択するので、歪の少ない画像を用いて認証することができ、認証の精度をできるだけ高くすることができる。   In addition, since the MFP 199 selects a still image in which the subject to be authenticated is arranged at the center from among a plurality of still images stored in the HDD 115, the MFP 199 can perform authentication using an image with less distortion. Can be as high as possible.

また、MFP199は、HDD115に記憶された複数の静止画像のうち認証対象となる被写体の顔の部分の面積に所定の変化がない場合には、複数の画像を選択しないので、MFP100に近づいていないユーザーを認証しないようにすることができる。   In addition, when there is no predetermined change in the area of the face portion of the subject to be authenticated among the plurality of still images stored in the HDD 115, the MFP 199 does not select the plurality of images and thus is not approaching the MFP 100. You can prevent users from authenticating.

また、MFP100は、静止画像が複数の被写体を含む場合、複数の被写体のうちから1つを認証対象に特定するので、認証が容易となる。特に、MFP100は、顔の部分の面積が最大の被写体を認証対象に特定するので、MFP100に最も近い被写体を認証することができる。   Further, when the still image includes a plurality of subjects, MFP 100 identifies one of the plurality of subjects as an authentication target, so that authentication is facilitated. In particular, since MFP 100 identifies the subject having the largest face area as the authentication target, it is possible to authenticate the subject closest to MFP 100.

また、MFP100は、カメラ119で一定時間ごとに撮像して得られる静止画像を記憶するので、操作時の前にカメラ119の撮像範囲に含まれるユーザーを撮像して得られる静止画像を記憶することができる。   In addition, since MFP 100 stores still images obtained by imaging with camera 119 at regular intervals, it stores still images obtained by imaging a user included in the imaging range of camera 119 before operation. Can do.

また、MFP100は、ユーザーが所定の距離を移動するごとにカメラ119で撮像して得られる静止画像を記憶するので、操作時の前にカメラ119の撮像範囲に含まれるユーザーを撮像して得られる静止画像を記憶することができる。   Further, since MFP 100 stores a still image obtained by imaging with camera 119 every time the user moves a predetermined distance, MFP 100 can obtain the image included in the imaging range of camera 119 before operation. Still images can be stored.

また、MFP100は、撮像時の前にカメラ119により撮像された複数の静止画像のうち第1の画像に含まれる被写体の一部を、第1の画像よりも後に撮像された第2の画像に含まれる被写体の部分で補完した合成画像に基づいて、認証するので、認証の精度をより高くすることができる。   In addition, the MFP 100 converts a part of the subject included in the first image among the plurality of still images captured by the camera 119 before imaging to the second image captured after the first image. Since the authentication is performed based on the composite image supplemented with the included subject portion, the accuracy of the authentication can be further increased.

また、MFP100は、操作時の前にカメラ119が認証対象となる被写体を含む静止画像を最後に出力してからユーザーが操作パネル160を操作可能になるまでの到達時刻を予測し、予測された到達時刻後は、ユーザーを認証しないので、誤って別のユーザーを認証するのを防止することができる。   In addition, the MFP 100 predicts the arrival time from when the camera 119 finally outputs a still image including the subject to be authenticated to when the user can operate the operation panel 160 before the operation. Since the user is not authenticated after the arrival time, it is possible to prevent another user from being authenticated by mistake.

なお、上述した実施の形態においては、画像処理装置の一例としてMFP100を例に説明したが、図5に示した撮像制御処理および図6に示した認証処理をMFP100に実行させる認証方法および、認証方法をMFP100を制御するCPU111に実行させる認証プログラムとして発明を捉えることができるのは言うまでもない。   In the above-described embodiment, the MFP 100 has been described as an example of an image processing apparatus. However, an authentication method that causes the MFP 100 to execute the imaging control process illustrated in FIG. 5 and the authentication process illustrated in FIG. It goes without saying that the invention can be understood as an authentication program that causes the CPU 111 that controls the MFP 100 to execute the method.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 MFP、51 撮像制御部、53 第1認証部、55 操作検出部、57 タイミング決定部、59 記憶制御部、61 対象特定部、63 画像選択部、65 距離検出部、67 予測部、69 第2認証部、71 合成画像生成部、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD、116 ファクシミリ部、117 人感センサー、118 外部記憶装置、118A CD−ROM、119 カメラ、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、160 操作パネル、161 表示部、163 操作部、165 タッチパネル、167 ハードキー部。   100 MFP, 51 imaging control unit, 53 first authentication unit, 55 operation detection unit, 57 timing determination unit, 59 storage control unit, 61 target identification unit, 63 image selection unit, 65 distance detection unit, 67 prediction unit, 69 first 2 authentication unit, 71 composite image generation unit, 110 main circuit, 111 CPU, 112 communication I / F unit, 113 ROM, 114 RAM, 115 HDD, 116 facsimile unit, 117 human sensor, 118 external storage device, 118A CD- ROM, 119 camera, 120 automatic document feeder, 130 document reading unit, 140 image forming unit, 150 paper feeding unit, 160 operation panel, 161 display unit, 163 operation unit, 165 touch panel, 167 hard key unit.

Claims (17)

撮像して得られる画像を出力する撮像手段と、
前記撮像手段が出力する画像を記憶する記憶制御手段と、
ユーザーが入力する操作を検出する操作検出手段と、
前記操作検出手段が操作を検出する操作時の後に前記撮像手段が撮像して出力する画像に基づいて、ユーザーを認証する第1認証手段と、
前記操作時の後に前記撮像手段が撮像して出力する画像に認証対象となる被写体が含まれない場合に、前記操作時の前に記憶された画像に基づいて、ユーザーを認証する第2認証手段と、を備えた画像処理装置。
Imaging means for outputting an image obtained by imaging;
Storage control means for storing an image output by the imaging means;
Operation detecting means for detecting an operation input by the user;
A first authentication unit that authenticates a user based on an image that the imaging unit captures and outputs after an operation in which the operation detection unit detects an operation;
Second authentication means for authenticating a user based on an image stored before the operation when the subject to be authenticated is not included in the image captured and output by the imaging means after the operation And an image processing apparatus.
前記記憶された複数の画像のうちから1つの画像を選択する画像選択手段を、さらに備えた請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising image selection means for selecting one image from the plurality of stored images. 前記画像選択手段は、認証対象となる被写体の顔の部分の面積が最大の画像を選択する、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image selection unit selects an image having the largest area of the face portion of the subject to be authenticated. 前記画像選択手段は、認証対象となる被写体の顔が正面を向く画像を選択する、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image selection unit selects an image in which a face of a subject to be authenticated faces front. 前記画像選択手段は、コントラストが最大の画像を選択する、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image selection unit selects an image having a maximum contrast. 前記画像選択手段は、認証対象となる被写体の肌色の部分の面積が最大の画像を選択する、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image selection unit selects an image having an area of a skin color portion of a subject to be authenticated. 前記画像選択手段は、認証対象となる被写体が最も中心に配置された画像を選択する、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image selection unit selects an image in which a subject to be authenticated is arranged at the center. 前記画像選択手段は、前記撮像手段が異なる時刻に出力する複数の画像を比較して、前記認証対象となる被写体の顔の部分の面積に所定の変化がない場合には、前記複数の画像を選択しない、請求項2に記載の画像処理装置。   The image selection means compares the plurality of images output by the imaging means at different times, and if there is no predetermined change in the area of the face portion of the subject to be authenticated, the image selection means The image processing apparatus according to claim 2, which is not selected. 前記記憶された画像が複数の被写体を含む場合、前記複数の被写体のうちから1つを認証対象に特定する対象特定手段を、さらに備えた、請求項1〜8のいずれかに記載の画像処理装置。   The image processing according to claim 1, further comprising: a target specifying unit that specifies one of the plurality of subjects as an authentication target when the stored image includes a plurality of subjects. apparatus. 前記対象特定手段は、顔の部分の面積が最大の被写体を認証対象に特定する、請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the target specifying unit specifies a subject having a maximum face area as an authentication target. 前記対象特定手段は、前記撮像手段が異なる時刻に出力する複数の画像を比較して、前記複数の被写体それぞれの顔の部分の面積の増加率を算出し、算出された増加率が最大の被写体を認証対象に特定する、請求項9に記載の画像処理装置。   The target specifying unit compares a plurality of images output by the imaging unit at different times, calculates an increase rate of the area of the face portion of each of the plurality of subjects, and a subject having the maximum calculated increase rate The image processing apparatus according to claim 9, wherein the authentication target is specified. 前記撮像手段は、一定時間ごとに撮像する、請求項1〜11のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the imaging unit captures images at regular intervals. 被写体までの距離を検出する距離検出手段をさらに備え、
前記撮像手段は、前記被写体が所定の距離を移動するごとに撮像する、請求項1〜11のいずれかに記載の画像処理装置。
It further comprises distance detection means for detecting the distance to the subject,
The image processing apparatus according to claim 1, wherein the imaging unit captures an image every time the subject moves a predetermined distance.
前記画像選択手段により選択された第1の画像よりも後に撮像された第2の画像が認証対象となる被写体の少なくとも一部を含む場合、前記第1の画像に含まれる認証対象となる被写体の一部を、前記第2の画像に含まれる認証対象となる被写体の部分で補完した合成画像を生成する合成画像生成手段を、さらに備え、
前記第2認証手段は、前記合成画像に基づいてユーザーを認証する、請求項1〜13のいずれかに記載の画像処理装置。
When the second image captured after the first image selected by the image selection means includes at least a part of the subject to be authenticated, the subject to be authenticated included in the first image A composite image generating means for generating a composite image in which a part is supplemented with a portion of the subject to be authenticated included in the second image;
The image processing apparatus according to claim 1, wherein the second authentication unit authenticates a user based on the composite image.
前記第2認証手段は、前記操作時の前に前記撮像手段が認証対象となる被写体を含む画像を最後に出力してから前記被写体が操作可能になるまでの到達時刻を予測する予測手段を、含み、
前記予測された到達時刻後は、ユーザーを認証しない、請求項1〜14のいずれかに記載の画像処理装置。
The second authentication unit includes a prediction unit that predicts an arrival time from when the imaging unit finally outputs an image including a subject to be authenticated before the operation until the subject is operable. Including
The image processing apparatus according to claim 1, wherein the user is not authenticated after the predicted arrival time.
撮像して得られる画像を出力する撮像手段を備えた画像処理装置で実行される認証方法であって、
前記撮像手段が出力する画像を記憶する記憶制御ステップと、
ユーザーが入力する操作を検出する操作検出ステップと、
前記操作が検出される操作時の後に前記撮像手段が撮像して出力する画像に基づいて、前記操作受付手段を操作するユーザーを認証する第1認証ステップと、
前記操作時の後に前記撮像手段が撮像して出力する画像に認証対象となる被写体が含まれない場合に、前記操作時の前に記憶された画像に基づいて、ユーザーを認証する第2認証ステップと、を含む認証方法。
An authentication method executed by an image processing apparatus including an imaging unit that outputs an image obtained by imaging,
A storage control step for storing an image output by the imaging means;
An operation detection step for detecting an operation input by the user;
A first authentication step of authenticating a user operating the operation accepting unit based on an image captured and output by the imaging unit after the operation at which the operation is detected;
A second authentication step of authenticating the user based on the image stored before the operation when the subject to be authenticated is not included in the image captured and output by the imaging means after the operation; And an authentication method.
撮像して得られる画像を出力する撮像手段を備えた画像処理装置を制御するコンピューターで実行される認証プログラムであって、
前記撮像手段が出力する画像を記憶する記憶制御ステップと、
ユーザーが入力する操作を検出する操作検出ステップと、
前記操作が検出される操作時の後に前記撮像手段が撮像して出力する画像に基づいて、前記操作受付手段を操作するユーザーを認証する第1認証ステップと、
前記操作時の後に前記撮像手段が撮像して出力する画像に認証対象となる被写体が含まれない場合に、前記操作時の前に記憶された画像に基づいて、ユーザーを認証する第2認証ステップと、を前記コンピューターに実行させる認証プログラム。
An authentication program executed by a computer that controls an image processing apparatus including an imaging unit that outputs an image obtained by imaging,
A storage control step for storing an image output by the imaging means;
An operation detection step for detecting an operation input by the user;
A first authentication step of authenticating a user operating the operation accepting unit based on an image captured and output by the imaging unit after the operation at which the operation is detected;
A second authentication step of authenticating the user based on the image stored before the operation when the subject to be authenticated is not included in the image captured and output by the imaging means after the operation; And an authentication program for causing the computer to execute.
JP2016219112A 2016-11-09 2016-11-09 Image processor, authentication method and authentication program Active JP6878842B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016219112A JP6878842B2 (en) 2016-11-09 2016-11-09 Image processor, authentication method and authentication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016219112A JP6878842B2 (en) 2016-11-09 2016-11-09 Image processor, authentication method and authentication program

Publications (2)

Publication Number Publication Date
JP2018077683A true JP2018077683A (en) 2018-05-17
JP6878842B2 JP6878842B2 (en) 2021-06-02

Family

ID=62150487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016219112A Active JP6878842B2 (en) 2016-11-09 2016-11-09 Image processor, authentication method and authentication program

Country Status (1)

Country Link
JP (1) JP6878842B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002191044A (en) * 2001-10-15 2002-07-05 Toshiba Corp Face image supervisory system
JP2005004718A (en) * 2003-05-16 2005-01-06 Canon Inc Signal processor and controlling method
JP2006344100A (en) * 2005-06-10 2006-12-21 Konica Minolta Holdings Inc Authentication device and image output device
JP2007122454A (en) * 2005-10-28 2007-05-17 Konica Minolta Holdings Inc Authentication system, registration system and program
JP2008193278A (en) * 2007-02-02 2008-08-21 Ricoh Co Ltd Image pickup device, image pickup method, and program for computer to perform the same method
JP2010003010A (en) * 2008-06-18 2010-01-07 Toshiba Corp Face authentication device and face authentication method
JP2014010686A (en) * 2012-06-29 2014-01-20 Secom Co Ltd Face image authentication device
JP2014068183A (en) * 2012-09-26 2014-04-17 Jvc Kenwood Corp System and image pick-up device
JP2015111746A (en) * 2012-04-09 2015-06-18 ソニー株式会社 Image processing apparatus, image processing method, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002191044A (en) * 2001-10-15 2002-07-05 Toshiba Corp Face image supervisory system
JP2005004718A (en) * 2003-05-16 2005-01-06 Canon Inc Signal processor and controlling method
JP2006344100A (en) * 2005-06-10 2006-12-21 Konica Minolta Holdings Inc Authentication device and image output device
JP2007122454A (en) * 2005-10-28 2007-05-17 Konica Minolta Holdings Inc Authentication system, registration system and program
JP2008193278A (en) * 2007-02-02 2008-08-21 Ricoh Co Ltd Image pickup device, image pickup method, and program for computer to perform the same method
JP2010003010A (en) * 2008-06-18 2010-01-07 Toshiba Corp Face authentication device and face authentication method
JP2015111746A (en) * 2012-04-09 2015-06-18 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2014010686A (en) * 2012-06-29 2014-01-20 Secom Co Ltd Face image authentication device
JP2014068183A (en) * 2012-09-26 2014-04-17 Jvc Kenwood Corp System and image pick-up device

Also Published As

Publication number Publication date
JP6878842B2 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
JP5159515B2 (en) Image processing apparatus and control method thereof
JP6011470B2 (en) Apparatus, method and program for analyzing preliminary image
JP6106921B2 (en) Imaging apparatus, imaging method, and imaging program
JP5251215B2 (en) Digital camera
US8577098B2 (en) Apparatus, method and program for designating an object image to be registered
US10757284B2 (en) Image forming apparatus, storage medium, and control method that switches from sleep mode to standby mode upon detecting a job data of a registered user
US10708467B2 (en) Information processing apparatus that performs authentication processing for approaching person, and control method thereof
JP6974032B2 (en) Image display device, image forming device, control program and control method
JP2015041323A (en) Processor
JP4348028B2 (en) Image processing method, image processing apparatus, imaging apparatus, and computer program
JP2024045460A (en) Information processing system, information processing device, information processing method, and program
KR101919138B1 (en) Method and apparatus for remote multi biometric
JP7384970B2 (en) User authentication device, user authentication method, and image forming device
JP6878842B2 (en) Image processor, authentication method and authentication program
JP7131343B2 (en) Image processing device, processing control method and processing control program
US10116809B2 (en) Image processing apparatus, control method, and computer-readable storage medium, which obtains calibration image information with which to correct image data
JP2015084028A (en) Image formation apparatus
JP6097632B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6973231B2 (en) Servers, image processors, custom screen display methods and custom screen display programs
JP6973232B2 (en) Servers, image processors, custom screen display methods and custom screen display programs
JP2013157675A (en) Imaging device, method for controlling the same, program, and storage medium
JP6492483B2 (en) Detection apparatus, detection method, and program
JP6484997B2 (en) Image forming apparatus
JP6390075B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2009017134A (en) Image device, imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6878842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150