JP2017069876A - 処理装置 - Google Patents

処理装置 Download PDF

Info

Publication number
JP2017069876A
JP2017069876A JP2015196260A JP2015196260A JP2017069876A JP 2017069876 A JP2017069876 A JP 2017069876A JP 2015196260 A JP2015196260 A JP 2015196260A JP 2015196260 A JP2015196260 A JP 2015196260A JP 2017069876 A JP2017069876 A JP 2017069876A
Authority
JP
Japan
Prior art keywords
person
face
detection range
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015196260A
Other languages
English (en)
Inventor
直哉 延谷
Naoya Nobetani
直哉 延谷
真史 小野
Masashi Ono
真史 小野
林 学
Manabu Hayashi
学 林
訓稔 山本
Kunitoshi Yamamoto
訓稔 山本
透 鈴木
Toru Suzuki
透 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2015196260A priority Critical patent/JP2017069876A/ja
Priority to US14/982,738 priority patent/US20170039010A1/en
Priority to EP16153089.4A priority patent/EP3128454B1/en
Priority to CN201610089920.4A priority patent/CN106412357A/zh
Publication of JP2017069876A publication Critical patent/JP2017069876A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Facsimiles In General (AREA)

Abstract

【課題】人の顔画像の撮影結果を用いた処理が行われた時点でこの人に対応付けられた画面の表示を開始する場合と比べて、使用者ではない人に対応付けられた画面が表示されてしまうことを抑制する。【解決手段】画像形成装置10は、自装置の周囲を撮像する第1カメラを含む撮像部109と、第1カメラが撮像した人の画像に対応付けられたUI画面を表示する表示部104と、表示部104に表示の開始を指示する指示部113とを有し、第1カメラは、指示部113による指示の前に撮像を開始し、表示部104は、指示部113による指示の後に、第1カメラが撮像した人の画像に対応付けられたUI画面の表示を開始する。【選択図】図5

Description

本発明は、処理装置に関する。
公報記載の従来技術として、画像形成装置のフロント側に前方に向けて第1の撮像部を設けるとともに、画像形成装置の上部に設けられたユーザインタフェースに上方に向けて第2の撮像部を設け、第1の撮像部により撮影された画像に基づいて画像形成装置に人が近づいていると判断されると、画像形成装置のメインシステムをスリープモードからスタンバイモードに復帰させ、また、第2の撮像部にて、画像形成装置の前に立つ人の顔の画像を撮影し、得られた顔画像を用いて、この人に関する認証処理を実行するものが存在する(特許文献1参照)。
また、他の公報記載の従来技術として、アクセスカメラ(第2のセンサ)で撮影した画像に基づいて使用者の接近を検知し、検知した使用者の画像を取得し、取得した使用者の画像に基づいて使用者の固体認識情報を検出し、検出した固体認識情報に基づいて個体(使用者)の認証を行うとともに、アクセスカメラとは異なる認識カメラ(第3のセンサ)で撮影した画像に基づいて、個別ユーザに適したUI画面を選択するようにした画像処理装置が存在する(特許文献2参照)。
特開2015−11537号公報 特開2014−98894号公報
ここで、自装置の周囲に存在する人の顔画像の撮影結果を用いた処理が行われたことを契機として、この人が自装置に到達する前に、この人に対応するUI画面を表示させておくことが考えられる。しかしながら、このような手法を採用した場合には、自装置の周囲に存在する人が、この自装置の使用を目的とする人(使用者)であるとは限らないため、使用者以外の人のために用意された案内画面(UI画面)が表示されてしまうという事態が生じ得る。
本発明は、人の顔画像の撮影結果を用いた処理が行われた時点でこの人に対応付けられた画面の表示を開始する場合と比べて、使用者ではない人に対応付けられた画面が表示されてしまうことを抑制することを目的とする。
請求項1記載の発明は、自装置の周囲を撮像する撮像部と、前記撮像部が撮像した人の画像に対応付けられた画面を表示する表示部と、前記表示部に表示の開始を指示する指示部とを有し、前記撮像部は、前記指示部による指示の前に撮像を開始し、前記表示部は、前記指示部による指示の後に、前記撮像部が撮像した人の画像に対応付けられた画面の表示を開始することを特徴とする処理装置である。
請求項2記載の発明は、前記撮像部は、第1の領域内に存在する人の画像を撮像し、前記指示部は、人が前記第1の領域の内部であって当該第1の領域よりも狭い第2の領域に存在する場合に、前記表示部に表示の開始を指示することを特徴とする請求項1記載の処理装置である。
請求項3記載の発明は、前記撮像部は、第1の領域内に存在する人の画像を撮像し、前記指示部は、前記第1の領域内に存在する人が当該第1の領域に予め設定された設定時間以上滞在する場合に、前記表示部に表示の開始を指示することを特徴とする請求項1記載の処理装置である。
請求項4記載の発明は、前記撮像部は、第1の領域内に存在する人の画像を撮像し、前記指示部は、前記第1の領域に存在する人が自装置に接近している場合に、前記表示部に表示の開始を指示することを特徴とする請求項1記載の処理装置である。
請求項1記載の発明によれば、人の顔画像の撮影結果を用いた処理が行われた時点でこの人に対応付けられた画面の表示を開始する場合と比べて、使用者ではない人に対応付けられた画面が表示されてしまうことを抑制することができる。
請求項2記載の発明によれば、第1の領域内であって第2の領域内には存在しない人に対応付けられた画面を表示する場合と比べて、使用者ではない人に対応付けられた画面が表示されてしまうことを抑制することができる。
請求項3記載の発明によれば、第1の領域内に規定時間よりも短い時間滞在する人に対応付けられた画面を表示する場合と比べて、使用者ではない人に対応付けられた画面が表示されてしまうことを抑制することができる。
請求項4記載の発明によれば、第1の領域内にて自装置から離隔する人に対応付けられた画面を表示する場合と比べて、使用者ではない人に対応付けられた画面が表示されてしまうことを抑制することができる。
本実施の形態が適応される画像形成装置の斜視図である。 ユーザインタフェースの上面図である。 画像形成装置により人物の存在等が検知される範囲を説明するための上面図である。 画像形成装置により人物の存在等が検知される範囲を説明するための側面図である。 画像形成装置の機能ブロック図である。 画像形成装置のモードの制御に関する処理の流れを説明するためのフローチャートである。 画像形成装置における認証手順の流れを説明するためのフローチャートである。 認証手順における顔検出・顔画像取得処理の流れを説明するためのフローチャートである。 認証手順における顔認証処理の流れを説明するためのフローチャートである。 (a)は使用者が事前に画像形成装置に登録した登録テーブルの一例を、(b)は顔検出・顔画像取得処理で用いられる追跡テーブルの一例を、それぞれ示す図である。 (a)〜(d)は、画像形成装置の周辺にいる人物の位置の時間的変化の、第1の例における第1のパターンを示した図である。 (a)〜(d)は、顔認証処理で準備されるUI画面の一例を示す図である。 (a)、(b)は、それぞれ、第1カメラによって撮影された第1カメラ画像の一例を示す図である。 (a)、(b)は、それぞれ、第1カメラによって撮影された第1カメラ画像の他の一例を示す図である。 (a)〜(d)は、画像形成装置の周辺にいる人物の位置の時間的変化の、第1の例における第2のパターンを示した図である。 (a)〜(d)は、画像形成装置の周辺にいる人物の位置の時間的変化の、第2の例における第1のパターンを示した図である。 (a)〜(d)は、画像形成装置の周辺にいる人物の位置の時間的変化の、第2の例における第2のパターンを示した図である。 (a)〜(d)は、画像形成装置の周辺にいる人物の位置の時間的変化の、第3の例における第1のパターンを示した図である。 (a)〜(d)は、画像形成装置の周辺にいる人物の位置の時間的変化の、第3の例における第2のパターンを示した図である。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本実施の形態が適用される画像形成装置10の斜視図である。処理装置の一例としての画像形成装置10は、スキャン機能、プリント機能、コピー機能およびファクシミリ機能を備えた所謂複合機である。
画像形成装置10は、スキャナ11と、プリンタ12と、ユーザインタフェース(UI)13とを備える。これらのうち、スキャナ11は、原稿に形成された画像を読み取るための装置であり、プリンタ12は、記録材に画像を形成するための装置である。また、ユーザインタフェース13は、使用者が画像形成装置10を使用する際に、使用者による操作(指示)を受け付け、且つ、使用者に対し各種情報の表示を行うための装置である。
本実施の形態のスキャナ11は、プリンタ12の上方に配置されている。また、ユーザインタフェース13は、スキャナ11に取り付けられている。ここで、ユーザインタフェース13は、画像形成装置10を使用する際に使用者が立つ、画像形成装置10(スキャナ11)のフロント側に配置される。そして、ユーザインタフェース13は、画像形成装置10のフロント側に立った使用者が上方から下方を見た状態で操作できるように、上方に向けて配置される。
また、この画像形成装置10は、焦電センサ14と、第1カメラ15と、第2カメラ16とをさらに備える。これらのうち、焦電センサ14および第1カメラ15は、プリンタ12のフロント側且つ左側に、前方に向けて取り付けられている。そして、第1カメラ15は、焦電センサ14の上方に配置されている。また、第2カメラ16は、ユーザインタフェース13における左側に、上方に向けて取り付けられている。
ここで、焦電センサ14は、画像形成装置10のフロント側における、使用者を含む移動体(人物等)の移動を検知する機能を有している。また、第1カメラ15は所謂ビデオカメラで構成されており、画像形成装置10のフロント側の画像を撮影する機能を有している。さらに、第2カメラ16も所謂ビデオカメラで構成されており、画像形成装置10の上側の画像を撮影する機能を有している。ここで、第1カメラ15および第2カメラ16には、それぞれ魚眼レンズが取り付けられている。これにより、第1カメラ15および第2カメラ16は、一般的なレンズを用いた場合に比べ、より広角にて画像の撮影を行う。
さらに、この画像形成装置10は、プロジェクタ17をさらに備える。この例において、プロジェクタ17は、フロント側からみて画像形成装置10の本体の右側に配置されている。そして、プロジェクタ17は、画像形成装置10の背後に設けられたスクリーン(図示せず)に、各種画像を投影するようになっている。ここで、スクリーンとしては、所謂映写幕に限られるものではなく、壁等を利用してもかまわない。なお、画像形成装置10の本体に対するプロジェクタ17の設置位置については、変更することが可能である。また、この例では画像形成装置10の本体とプロジェクタ17とを別個に設けているが、例えばスキャナ11の背面側にプロジェクタ17を取り付けるなどの手法を用いることで、画像形成装置10の本体とプロジェクタ17とを一体化してもかまわない。
図2は、図1に示すユーザインタフェース13の上面図である。ただし、図2は、ユーザインタフェース13に配置される第2カメラ16も、併せて示している。
ユーザインタフェース13は、タッチパネル130と、第1操作ボタン群131と、第2操作ボタン群132と、USBメモリ装着部133とを有する。ここで、第1操作ボタン群131は、タッチパネル130の右側に配置されている。また、第2操作ボタン群132、USBメモリ装着部133および第2カメラ16は、タッチパネル130の左側に配置されている。
ここで、タッチパネル130は、使用者に対し画像を用いた情報を表示し、且つ、使用者からの入力を受け付ける機能を有している。また、第1操作ボタン群131および第2操作ボタン群132は、使用者からの入力を受け付ける機能を有している。さらに、USBメモリ装着部133は、使用者によるUSBメモリの装着を受け付ける機能を有している。
また、ユーザインタフェース13に取り付けられる第2カメラ16は、画像形成装置10を使用する使用者の顔の画像を撮影できる位置に配置されている。そして、第2カメラ16で撮影された画像(使用者の顔の画像を含む)は、タッチパネル130に表示されるようになっている。ここで、本実施の形態の画像形成装置10では、後述するように、この画像形成装置10に近づいてくる人物の顔を、第1カメラ15で撮影して得た顔画像を用いて、画像形成装置10の使用を許可するための認証を行う。このため、この画像形成装置10を使用しようとする人物(使用者)は、事前に、顔画像の登録を行う必要がある。そして、本実施の形態における第2カメラ16は、このような顔画像の登録において、人物の顔を撮影するために使用される。
また、本実施の形態では、第1カメラ15で撮影された画像も、タッチパネル130に表示することが可能となっている。なお、以下の説明においては、第1カメラ15が撮影した画像を第1カメラ画像と称し、第2カメラ16が撮影した画像を第2カメラ画像と称する。
図3は、画像形成装置10により人物の存在が検知される範囲を説明するための上面図である。図3は、画像形成装置10およびその周辺を、画像形成装置10の高さ方向上側からみたものを示している。
また、図4は、画像形成装置10により人物の存在が検知される範囲を説明するための側面図である。図4は、画像形成装置10およびその周辺を、画像形成装置10の側方(この例では画像形成装置10のフロント側からみて右側)からみたものを示している。なお、図4には、人物Hを併せて示しているが、図3に示す検出範囲Fについては記載を省略している。
ここで、図3および図4に示すように、画像形成装置10にて第1カメラ15(図1参照)が取り付けられている部位を、画像形成装置10の位置Pと呼ぶ。
この例において、焦電センサ14(図1参照)は、検出範囲F内に存在する人物Hを検知する。この検出範囲Fは、画像形成装置10のフロント側に形成され、高さ方向上側からみたときに、中心角が180度未満に設定された扇形を呈している。
また、この例では、第1カメラ15(図1参照)が撮影した第1カメラ画像を解析した結果を用いて、人検知範囲R1内、人操作範囲R2内、進入検知範囲R3内および接近検知範囲R4内に存在する人物Hを検出する。
これらのうち、人検知範囲R1は、画像形成装置10のフロント側に形成され、高さ方向上側からみたときに、中心角が180度に設定された扇形を呈している。この人検知範囲R1は、検出範囲Fの全体を含む(但し、この例では一部を含まない)ように設定される。なお、人検知範囲R1の中心角については、180度以外であってもかまわない。ただし、第1カメラ15は、少なくとも人検知範囲R1の全体を撮影範囲とする。
続いて、人操作範囲R2は、画像形成装置10のフロント側に設定され、高さ方向上側からみたときに、矩形を呈している。この例において、この矩形範囲における幅方向の長さは、画像形成装置10の幅方向の長さと同じである。また、人操作範囲R2の全域は、人検知範囲R1の内側に位置する。さらに、人操作範囲R2は、人検知範囲R1の中で画像形成装置10により近い側に配置される。
さらに、進入検知範囲R3は、画像形成装置10のフロント側に形成され、高さ方向上側からみたときに、中心角が180度に設定された扇形を呈している。また、進入検知範囲R3の全域は、人検知範囲R1の内側に位置する。さらに、進入検知範囲R3は、人検知範囲R1の中で、画像形成装置10により近い側に配置される。また、上述した人操作範囲R2の全域は、進入検知範囲R3の内側に位置する。さらに、人操作範囲R2は、進入検知範囲R3の中で、画像形成装置10により近い側に配置される。
そして、接近検知範囲R4は、画像形成装置10のフロント側に形成され、高さ方向上側からみたときに、中心角が180度に設定された扇形を呈している。また、接近検知範囲R4の全域は、進入検知範囲R3の内側に位置する。さらに、接近検知範囲R4は、進入検知範囲R3の中で、画像形成装置10により近い側に配置される。また、上述した人操作範囲R2の全域は、接近検知範囲R4の内側に位置する。さらに、人操作範囲R2は、接近検知範囲R4の中で、画像形成装置10により近い側に配置される。
本実施の形態の画像形成装置10では、後述するように、この画像形成装置10に近づいてくる人物Hの顔を第1カメラ15で撮影して得た顔画像を用いて、画像形成装置10の使用を許可するための認証を行う。また、この画像形成装置10では、後述するように、第1カメラ15が撮影した第1カメラ画像を用いて、人検知範囲R1内に存在する人物Hのつま先を検出し、この人物Hが画像形成装置10に向かってきているか否かの判断を行う。
ここで、画像形成装置10の高さは、通常、使いやすさを考慮して1000〜1300mm程度に設定されることから、第1カメラ15の高さは設置面から700〜900mm程度となる。また、上述したように、第1カメラ15を用いて人物Hのつま先を撮影する必要があることから、第1カメラ15の高さはある程度低い位置に制限される。このような理由により、設置面からの第1カメラ15の高さ(位置P)は、図4に示したように一般的な成人(人物H)の顔の高さに比べ、より低くなる。このため、画像形成装置10に人物Hが近づきすぎると、魚眼レンズを用いたとしても、第1カメラ15による人物Hの顔の撮影が困難となり、また、人物Hの顔が撮影できたとしても、得られた顔画像の解析が困難となってしまう。
そこで、この例では、第1カメラ15が撮影した第1カメラ画像を解析することで人物Hの顔画像の解析が可能な距離の限界を、顔検知限界Lとして定めている。この顔検知限界Lは、一般的な身長を有する人物Hの顔を、第1カメラ15にて撮影することが可能な距離に基づいて決められている。この例において、顔検知限界Lは、人操作範囲R2の外側且つ接近検知範囲R4の内側に位置している。
本実施の形態の画像形成装置10を使用しようとする人物Hがいた場合、この人物Hは、最初に検出範囲F内に進入する。また、検出範囲F内に進入した人物Hは、続いて人検知範囲R1内に進入し、さらに進入検知範囲R3から接近検知範囲R4を介して人操作範囲R2に進入する。なお、この例では、人検知範囲R1内を移動する人物Hが、接近検知範囲R4から人操作範囲R2に進入する間に、顔検知限界Lを突破する。そして、人操作範囲R2に進入した人物Hは、人操作範囲R2内に滞在しつつ、ユーザインタフェース13を使用した操作等を行うことになる。なお、人検知範囲R1、人操作範囲R2、進入検知範囲R3および接近検知範囲R4の各々は、厳密に図3に示すとおりに設定される必要はなく、第1カメラ15が撮影した第1カメラ画像に基づいて特定し得る精度で足りる。また、顔検知限界Lは、人操作範囲R2と接近検知範囲R4との間に設定される必要はなく、第1カメラ15の性能や取り付け位置(設置面からの位置Pの高さ)等によって変わることがある。
ここで、本実施の形態では、人検知範囲R1が第1の領域の一例となっており、進入検知範囲R3が第2の領域の一例となっている。
図5は、画像形成装置10の機能ブロック図である。本実施の形態の画像形成装置10は、制御部101と、通信部102と、操作部103と、表示部104と、記憶部105と、画像読取部106と、画像形成部107とを備える。また、この画像形成装置10は、検知部108と、撮像部109と、人検出部110と、顔検出部111と、顔登録認証部112と、指示部113と、選択部114と、報知部115とをさらに備える。
制御部101は、例えばCPU(Central Processing Unit)とメモリとを備え、画像形成装置10の各部を制御する。CPUは、メモリまたは記憶部105に記憶されたプログラムを実行する。メモリは、例えばROM(Read Only Memory)とRAM(Random Access Memory)とを備える。ROMは、予めプログラムやデータを記憶する。RAMは、プログラムやデータを一時的に記憶し、CPUがプログラムを実行する際の作業領域として用いられる。
通信部102は、図示しない通信回線に接続される通信用のインタフェースである。通信部102は、クライアント装置や他の画像形成装置(ともに図示せず)と、通信回線を介して通信を行う。
操作部103は、使用者の操作に応じた情報を制御部101に入力する。この例において、操作部103は、ユーザインタフェース13に設けられたタッチパネル130、第1操作ボタン群131および第2操作ボタン群132によって実現される。
表示部104は、使用者に対し各種情報を表示する。この例において、表示部104は、ユーザインタフェース13に設けられたタッチパネル130によって実現される。
記憶部105は、例えばハードディスクであり、制御部101により用いられる各種のプログラムやデータを記憶する。
画像読取部106は、原稿の画像を読み取って画像データを生成する。この例において、画像読取部106はスキャナ11によって実現される。
画像形成部107は、画像データに応じた画像を用紙等のシート状の記録材に形成する。この例において、画像形成部107はプリンタ12によって実現される。なお、画像形成部107は、電子写真方式により画像を形成してもよいし、その他の方式により画像を形成してもよい。
検知部108は、人物Hを含む移動体の検知を行う。この例において、検知部108は、焦電センサ14によって実現される。
撮像部109は、人物Hを含む撮影対象の撮像を行う。この例において、撮像部109は、第1カメラ15および第2カメラ16によって実現される。
人検出部110は、第1カメラ15が撮影した第1カメラ画像を解析して、人検知範囲R1内、人操作範囲R2内、進入検知範囲R3内および接近検知範囲R4内に存在する人物Hの検出を行う。
顔検出部111は、第1カメラ15が撮影した第1カメラ画像を解析して、人検知範囲R1内であって顔検知限界Lの外側に存在する人物Hの顔画像を検出する。
顔登録認証部112は、この画像形成装置10を使用することが可能な人物H(使用者)について、事前に、この使用者の顔画像を用いた登録を行う。ここで、登録においては、第2カメラ16を用いて使用者の顔画像の撮影を行うとともに、撮影で得られた顔画像から特徴量の抽出を行う。そして、使用者のID(登録ID)と、使用者が設定した各種情報(登録人物情報と称する)と、使用者の顔画像から抽出された特徴量(顔情報と称する)とを対応付けて、記憶部105に記憶させる。なお、以下の説明においては、登録IDと登録人物情報と顔情報とを対応付けたものを登録テーブルと呼び、登録テーブルに登録されている使用者(人物H)を登録人物と呼ぶ。
また、顔登録認証部112は、使用者がこの画像形成装置10を使用しようとする際に、この使用者の顔画像を用いた認証を行う。ここで、認証においては、第1カメラ15を用いて人物H(使用者)の顔画像の撮影を行うとともに、撮影で得られた顔画像から特徴量の抽出を行う。そして、今回の撮影で得られた特徴量が、既に登録されている特徴量と一致するか否かを調べ、一致するものがある場合(使用者として登録された登録人物である場合)には画像形成装置10の使用を許可し、一致するものがない場合(使用者として登録されていない未登録人物である場合)には画像形成装置10の使用を禁止する。
指示部113は、第1カメラ15を用いて撮影した顔画像を用いた認証処理を開始するための指示を、顔登録認証部112に出力する。また、指示部113は、認証処理後に認証結果をUI画面としてタッチパネル130に表示させるための指示を、表示部104に出力する。
選択部114は、同じ人物Hについて、第1カメラ15を用いて複数の顔画像が取得されている場合に、複数の顔画像の中から1つの顔画像を選択する。
報知部115は、例えば人検知範囲R1内に存在する人物Hに対し、必要に応じて、知らしめたい情報を報知する。この報知部115は、プロジェクタ17によって実現される。
ここで、本実施の形態の画像形成装置10は、「通常モード」および「スリープモード」という、消費電力量が異なる2つのモードのいずれかに従って動作する。画像形成装置10が通常モードで動作するときには、画像形成装置10の各部に、各種処理の実行に要する電力が供給される。一方、画像形成装置10がスリープモードで動作するときには、画像形成装置10の少なくとも一部への電力供給が停止させられ、画像形成装置10の消費電力量が通常モードのときよりも少なくなる。ただし、画像形成装置10がスリープモードで動作するときにも、制御部101、焦電センサ14および第1カメラ15への電力供給が行われ、これら各部が、スリープモード時においても動作を行い得るようになっている。
図6は、画像形成装置10のモードの制御に関する処理の流れを示すフローチャートである。
この例では、初期状態において、画像形成装置10がスリープモードに設定されている(ステップ1)。なお、スリープモードにおいても、焦電センサ14は起動されており、動作を行っている。一方、このとき、第1カメラ15は起動されていないものとする。画像形成装置10がスリープモードで動作するとき、制御部101は、焦電センサ14による赤外線の量の検出結果を監視して、検出範囲F内に人物Hが存在するか否かを判断する(ステップ2)。ステップ2において否定の判断(NO)を行った場合は、ステップ2に戻ってこの処理を繰り返す。
一方、ステップ2で肯定の判断(YES)を行った場合、すなわち、検出範囲F内で人物Hを検知した場合、制御部101は、第1カメラ15への電力供給を開始させるとともに、第1カメラ15を起動させて人検知範囲R1の撮影を開始させる(ステップ3)。第1カメラ15による撮影が開始されると、人検出部110は、第1カメラ15から取得した第1カメラ画像を解析して、人物Hの動きを検出する処理を開始する(ステップ4)。
ステップ4で開始される人物Hの動きを検出する処理において、人検出部110は、画像形成装置10から人物Hまでの距離を推定するとともに、人物Hの動きを示す動きベクトルを算出する。この人物Hの動きを検出する処理は公知の方法により行われてよいが、例えば、人検出部110は、撮影画像から検出した身体の部位の大きさに基づいて、画像形成装置10から人物Hまでの距離を推定する。また、人検出部110は、第1カメラ15の撮影画像に対しフレーム処理を施し、複数フレームの撮影画像を時系列順に比較する。この際、人検出部110は、人物Hの身体の部位として、例えばつま先を検出し、検出した部位の動きを解析して動きベクトルを算出する。また、人検出部110は、第1カメラ15から取得した第1カメラ画像(魚眼レンズを介して得られる歪んだ画像)を、平面画像に補正(平面視展開)してから人物Hの動きを検出する。
次に、人検出部110は、人検知範囲R1内に存在する人物Hの、画像形成装置10への接近を検知したか否かを判断する(ステップ5)。例えば、人物Hが人検知範囲R1内に存在し且つ画像形成装置10に向かって移動していると判断した場合に、人検出部110は、ステップ5で肯定の判断(YES)を行う。ステップ5で否定の判断(NO)を行った場合は、ステップ5に戻ってこの処理を繰り返す。
これに対し、ステップ5で肯定の判断(YES)を行った場合、制御部101は、画像形成装置10のモードを、スリープモードから通常モードに移行させる(ステップ6)。その際、制御部101は、通常モードに応じた電力供給を画像形成装置10の各部に行うように指示するとともに、画像形成装置10の各部を起動させる。このとき、制御部101は、第2カメラ16への電力供給を開始させ、第2カメラ16を起動させる。
本実施の形態では、人検知範囲R1内の人物Hの存在を検知することをトリガとして、スリープモードから直ちに通常モードへと移行させるのでなく、人検知範囲R1内に存在する人物Hの画像形成装置10への接近を検知したことをトリガとして、スリープモードから通常モードへと移行させている。このような制御を行うことで、例えば人物Hが人検知範囲R1内を通り過ぎただけの場合に、画像形成装置10がスリープモードから通常モードに移行してしまう機会が少なくなる。
また、ステップ6でスリープモードから通常モードへ移行することに伴い、顔検出部111は、第1カメラ15から取得した第1カメラ画像を解析して、人検知範囲R1内に存在する人物Hの顔を検出する処理を開始する(ステップ7)。
続いて、人検出部110は、第1カメラ15から取得した第1カメラ画像を解析して、人操作範囲R2内に人物Hが存在(滞在)しているか否かを判断する(ステップ8)。このとき、人検出部110は、第1カメラ15による第1カメラ画像を解析して人物Hの身体の部位を検出し、検出した部位の位置及び大きさに基づいて、人操作範囲R2内の人物Hの存在を検知する。例えば、人検出部110は、検出した身体の部位の大きさに基づいて、画像形成装置10から人物Hまでの距離を推定し、検出した身体の部位の位置に基づいて人物Hが存在する方向を特定する。
ステップ8において肯定の判断(YES)を行った場合は、ステップ8に戻り、ステップ7で開始した人物Hの顔を検出する処理を続行する。したがって、人検出部110は、人操作範囲R2内の人物Hの存在を検知しなくなるまで、通常モードのまま、人操作範囲R2内の人物Hの存在を検出する処理を繰り返す。
一方、ステップ8において否定の判断(NO)を行った場合、すなわち、人操作範囲R2に人物Hが存在しなくなった(人操作範囲R2から人物Hが退去した)場合、制御部101は、タイマによる計時を開始する(ステップ9)。すなわち、制御部101は、人操作範囲R2内に人物Hが存在しなくなったときからの経過時間をタイマで計る。
次に、人検出部110は、人操作範囲R2内に人物Hが存在するか否かを判断する(ステップ10)。ステップ10において、人検出部110は、人操作範囲R2内に人物Hが存在しなくなった後、人操作範囲R2内に再び人物Hが存在するようになったかどうかを判断する。
ステップ10で否定の判断(NO)を行った場合、制御部101は、タイマによる計時時刻が設定期間を経過したかどうかを判断する(ステップ11)。設定期間は、例えば1分であるが、1分以外の時間に設定されていてもよい。ステップ11において否定の判断(NO)を行った場合、制御部101は、ステップ10に戻って処理を続行する。すなわち、ステップ10、11では、人操作範囲R2内に人物Hが存在しない期間が、設定期間分だけ継続するかどうかを判断することとなる。
これに対し、ステップ11で肯定の判断(YES)を行った場合、制御部101は、画像形成装置10のモードを、通常モードからスリープモードに移行させる(ステップ12)。その際、制御部101は、画像形成装置10の各部にスリープモード時の電力供給をするように指示を行うとともに、スリープモード時に停止させる画像形成装置10の各部の動作を停止させる。その後、制御部101は、焦電センサ14が検出範囲F内で人物Hの存在を検知しなくなると、第1カメラ15の動作を停止させる。
ここで、ステップ9でタイマによる計時を開始した後、人操作範囲R2内に人物Hが存在しなくなったときから設定期間が経過する前に、人操作範囲R2内に再び人物Hの存在を検出した場合を考える。この場合、制御部101は、ステップ10で肯定の判断(YES)を行うとともに、タイマによる計時を停止してタイマをリセットする(ステップ13)。そして、制御部101は、ステップ8へと戻って処理を続行する。すなわち、人物Hが人操作範囲R2内に存在する場合の処理を再び実行する。なお、ここでは、同一である人物Hが人操作範囲R2内に戻ってきた場合を例としているが、前とは別の人物Hが人操作範囲R2内に移動してきた場合にも、人検出部110は、ステップ10で肯定の判断(YES)を行うことになる。
ここで、従来にあっては、画像形成装置10を使用しようとする人物H(使用者)が、自身の顔画像を用いた認証を行う場合に、使用者自身が顔画像の撮影の指示および認証の要求を行っていた。例えば、人物Hが人操作範囲R2内に立ち、自身の顔をユーザインタフェース13に設けられた第2カメラ16に向けた状態で、顔画像の撮影を行わせていた。これに対し、本実施の形態の画像形成装置10では、人検知範囲R1内に存在する人物Hの顔画像を第1カメラ15で予め撮影しておき、特定の条件が満たされた状態で、撮影済みの人物Hの顔画像を用いて、認証処理を行うようにしている。また、本実施の形態では、認証処理後に直ちに、認証結果に対応するUI画面をタッチパネル130に表示させるのではなく、認証処理後に予め定められた条件が満たされた場合に、認証結果に対応するUI画面をタッチパネル130に表示させるようにしている。
図7は、画像形成装置10における認証手順の流れを説明するためのフローチャートである。なお、図7に示す処理は、画像形成装置10が通常モードに設定された状態で実行される。
画像形成装置10が通常モードに設定されることにより、図6のステップ7に示したように、第1カメラ15から取得した第1カメラ画像を解析して、人検知範囲R1内に存在する人物Hの顔を検出する処理が開始される。これに伴い、顔検出部111は、第1カメラ画像から人物Hの顔を検出するとともに検出した顔画像を取得する顔検出・顔画像取得処理を実行する(ステップ20)。また、顔登録認証部112は、指示部113から、顔認証処理を開始する旨の指示があったか否かを判断する(ステップ40)。ステップ40において否定の判断(NO)を行った場合は、ステップ20に戻って処理を続行する。
一方、ステップ40において肯定の判断(YES)を行った場合、顔登録認証部112は、ステップ20における顔検出・顔画像取得処理の結果、すなわち、第1カメラ15による第1カメラ画像から得られた人物Hの顔画像を用いて、認証の可否を設定する顔認証処理を実行する(ステップ60)。
なお、図7では、ステップ20を実行した後にステップ40を実行するようになっているが、実際には、ステップ20およびステップ40は並列に実行される。したがって、ステップ20の顔検出・顔画像取得処理の実行中に、ステップ40において肯定の判断(YES)がなされた場合、すなわち、顔認証処理の開始指示があった場合は、ステップ20の処理を中断してステップ60へと移行する。
そして、ステップ60の顔認証処理が終了した後、制御部101は、指示部113から、顔認証処理の結果である認証結果に対応するUI画面の、タッチパネル130への表示を開始する旨の指示があったか否かを判断する(ステップ80)。
ステップ80において肯定の判断(YES)を行った場合、表示部104は、タッチパネル130に、ステップ60の顔認証処理で準備していた、認証結果に対応するUI画面を表示させる(ステップ100)。なお、ステップ60の顔認証処理で準備され、ステップ100で表示されるUI画面の内容については後述する。そして、顔登録認証部112は、追跡テーブルに登録していた全ての追跡人物の追跡IDおよび顔情報を削除し(ステップ120)、この処理を完了する。なお、追跡テーブル(追跡人物の追跡IDおよび顔情報)については後述する。
これに対し、ステップ80において否定の判断(NO)を行った場合、人検出部110は、第1カメラ15から取得した第1カメラ画像を解析して、人検知範囲R1内に、ステップ60における顔認証処理の対象となっていた人物H(対象人物と称する)が存在するか否かを判断する(ステップ140)。ステップ140で肯定の判断(YES)を行った場合は、ステップ80へと戻って処理を続行する。
一方、ステップ140において否定の判断(NO)を行った場合、顔登録認証部112は、ステップ60の顔認証処理において、対象人物に対する認証が成功していたか否か(顔認証されたか否か)を判断する(ステップ160)。ステップ160で否定の判断(NO)を行った場合は、後述するステップ200へと進む。
これに対し、ステップ160において肯定の判断(YES)を行った場合、顔登録認証部112は、ステップ60の顔認証処理で行った顔認証を解除し(ステップ180)、次のステップ200へと進む。
そして、制御部101は、ステップ60の顔認証処理で準備していた、認証結果に対応するUI画面を破棄させる(ステップ200)。ここで、ステップ200で破棄されるUI画面の内容は、上記ステップ100のところで説明したものと同じである。
その後、人検出部110は、ステップ140で存在が検出されなくなった対象人物に対応する人物H(追跡人物)の追跡IDおよび顔情報を追跡テーブルから削除し(ステップ220)、ステップ20へと戻って処理を続行する。
では、上述したステップ20の顔検出・顔画像取得処理および上述したステップ60の顔認証処理のそれぞれについて、さらに詳細な説明を行う。
図8は、本実施の形態の認証手順における顔検出・顔画像取得処理(ステップ20)の流れを説明するためのフローチャートである。また、図9は、本実施の形態の認証手順における顔認証処理(ステップ60)の流れを説明するためのフローチャートである。
最初に、図8を参照しつつ、ステップ20における顔検出・顔画像取得処理の内容について説明を行う。
ここでは、まず、人検出部110および顔検出部111が、第1カメラ15が撮影した第1カメラ画像を取得する(ステップ21)。次に、人検出部110が、ステップ21で取得した第1カメラ画像を解析して、人検知範囲R1内に人物Hが存在するか否かを判断する(ステップ22)。ステップ22で否定の判断(NO)を行った場合は、ステップ21へと戻って処理を続行する。
一方、ステップ22において肯定の判断(YES)を行った場合、人検出部110は、ステップ22で存在を検出した人物Hが、既に存在が検知済みであって追跡が行われている追跡人物であるか否かを判断する(ステップ23)。ステップ23で肯定の判断(YES)を行った場合は、後述するステップ25へと進む。
これに対し、ステップ23で否定の判断(NO)を行った場合、人検出部110は、ステップ22で存在を検出した人物Hに対する追跡IDを取得して記憶部105に記憶させるとともに、この人物Hの追跡を開始する(ステップ24)。そして、顔検出部111は、ステップ21で取得した第1カメラ画像を解析して、追跡人物の顔を探索する(ステップ25)。
次いで、顔検出部111は、第1カメラ画像から追跡人物の顔を検出できたか否かを判断する(ステップ26)。ステップ26で否定の判断(NO)を行った場合は、後述するステップ30へと進む。
一方、ステップ26で肯定の判断(YES)を行った場合、顔検出部111は、この追跡人物の追跡IDに関連付けて、この追跡人物の顔画像から抽出された顔情報を、記憶部105に登録する(ステップ27)。なお、以下の説明においては、追跡IDと顔情報とを対応付けたものを、追跡テーブルと呼ぶ。そして、顔検出部111は、この追跡人物に関し、同じ追跡人物の顔情報が、追跡テーブルに複数(この例では2つ)登録されているか否かを判断する(ステップ28)。ステップ28で否定の判断(NO)を行った場合は、後述するステップ30へと進む。
これに対し、ステップ28で肯定の判断(YES)を行った場合、選択部114は、記憶部105に追跡テーブルとして登録されている同じ追跡人物に関する2つの顔情報のうち、一方の顔情報を選択し、選択されなかった他方の顔情報を記憶部105から削除する(ステップ29)。
それから、人検出部110は、第1カメラ15が撮影した第1カメラ画像を取得する(ステップ30)。次に、人検出部110は、ステップ30で取得した第1カメラ画像を解析して、人検知範囲R1内に追跡人物が存在するか否かを判断する(ステップ31)。ステップ31で肯定の判断(YES)を行った場合は、ステップ21に戻って処理を続行する。
一方、ステップ31で否定の判断(NO)を行った場合、人検出部110は、ステップ31で存在が検出されなくなった追跡人物(人物H)の追跡IDおよび顔情報を追跡テーブルから削除し(ステップ32)、ステップ21へと戻って処理を続行する。
続いて、図9を参照しつつ、ステップ60における顔認証処理の内容について説明を行う。
ここでは、まず、選択部114が、図7に示すステップ40において顔認証処理の開始指示の対象となった人物H(対象人物)を選択し、顔登録認証部112が、この対象人物が追跡テーブルに登録された追跡人物であるか否かを判断する(ステップ61)。ステップ61において否定の判断(NO)を行った場合は、後述するステップ71へと進む。
これに対し、ステップ61において肯定の判断(YES)を行った場合、顔登録認証部112は、記憶部105に、対象人物と同じ追跡人物の顔情報が登録されているか否かを判断する(ステップ62)。ステップ62において否定の判断(NO)を行った場合も、後述するステップ71へと進む。
一方、ステップ62において肯定の判断(YES)を行った場合、顔登録認証部112は、ステップ62で追跡テーブルへの登録が確認された対象人物の顔情報を用いて、顔認証を要求する(ステップ63)。続いて、顔登録認証部112は、この対象人物の顔情報と、登録テーブルに登録されているすべての登録人物の顔情報とを照合する(ステップ64)。そして、顔登録認証部112は、認証が成功したか否かを判断する(ステップ65)。ここで、ステップ65では、対象人物の顔情報がすべての登録人物の顔情報のいずれかに一致した場合に肯定の判断(YES)が行われ、対象人物の顔情報がすべての登録人物の顔情報のいずれにも一致しなかった場合に否定の判断(NO)が行われる。
ステップ65で肯定の判断(YES)を行った場合、報知部115は、プロジェクタ17を用いて、対象人物等に対し、認証が成功したことを報知する(ステップ66)。また、表示部104は、認証された対象人物用に設定された対象人物のUI画面(認証後の画面)を準備し(ステップ67)、この処理を終了する。
一方、ステップ65で否定の判断(NO)を行った場合、人検出部110は、接近検知範囲R4内に対象人物が存在するか否かを判断する(ステップ68)。ステップ68で否定の判断(NO)を行った場合は、ステップ61へと戻って処理を続行する。
これに対し、ステップ68で肯定の判断(YES)を行った場合、報知部115は、プロジェクタ17を用いて、対象人物等に対し、認証が失敗したことを報知する(ステップ69)。また、表示部104は、認証失敗時用に設定された認証失敗のUI画面(認証前の画面)を準備し(ステップ70)、この処理を終了する。
他方、ステップ61で否定の判断(NO)を行った場合、および、ステップ62で否定の判断(NO)を行った場合、人検出部110は、接近検知範囲R4内に対象人物が存在するか否かを判断する(ステップ71)。ステップ71で否定の判断(NO)を行った場合は、ステップ61へと戻って処理を続行する。
これに対し、ステップ71で肯定の判断(YES)を行った場合、報知部115は、プロジェクタ17を用いて、対象人物等に対し、対象人物の顔画像が取得できていないことを報知する(ステップ72)。また、表示部104は、手動入力による認証処理用に設定された手動入力認証のUI画面(認証前の画面)を準備し(ステップ73)、この処理を終了する。
次に、具体的な例を挙げながら、本実施の形態についてさらに詳細に説明を行う。
図10(a)は、使用者が事前に画像形成装置10に登録した登録テーブルの一例を、図10(b)は、ステップ20の顔検出・顔画像取得処理で用いられる追跡テーブルの一例を、それぞれ示す図である。なお、これら登録テーブルおよび追跡テーブルは、記憶部105に記憶されている。
最初に、図10(a)に示す登録テーブルについて説明を行う。
図10(a)に示す登録テーブルは、上述したように、使用者に付与される登録IDと、使用者が設定した登録人物情報と、使用者の顔画像から抽出された顔情報とを対応付けたものとなっている。また、これらのうち、登録人物情報は、使用者が自らに付したユーザ名と、この使用者用のUI画面で用いられるアプリ名と、アプリ名に対応するアプリ機能と、アプリ名に対応するボタンデザインとを含んでいる。
図10(a)に示す登録テーブルには、2人の人物H(登録ID「R001」および「R002」)が、使用者(登録人物)として登録されている。なお、ここでは、2人の人物Hが、使用者として登録される場合を例としているが、1人であってもよいし3人以上であってもかまわない。
これらのうち、登録ID「R001」の使用者については、登録人物情報が次のように登録されている。まず、ユーザ名が「ふじたろう」で登録され、アプリ名として「かんたんコピー」、「スキャンオート」、「かんたんボックス保存」、「ボックス操作」、「ファクス」、「プライベートプリント(一括出力)」が登録されている。そして、各アプリ名に対応するアプリ機能およびボタンデザインも登録されている。さらに、登録ID「R001」の使用者に関する顔情報も登録されている。
また、登録ID「R002」の使用者については、登録人物情報が次のように登録されている。まず、ユーザ名が「富士花子」で登録され、アプリ名として「かんたんコピー」、「スキャンオート」、「かんたんボックス保存」、「プライベートプリント(かんたん確認)」、「いつものコピー3枚」、「節約コピー」、「一発スタートプリント」、「とてもキレイにスキャン」が登録されている。そして、各アプリ名に対応するアプリ機能およびボタンデザインも登録されている。さらに、登録ID「R002」の使用者に関する顔情報も登録されている。
次に、図10(b)に示す追跡テーブルについて説明を行う。
図10(b)に示す追跡テーブルは、上述したように、人検知範囲R1内において追跡中の人物Hである追跡人物に付与される追跡IDと、この追跡人物の顔画像から抽出された顔情報とを対応付けたものとなっている。なお、ステップ20の顔検出・顔画像取得処理で、追跡人物には設定されたがこの追跡人物の顔検出が行えなかった場合においては、追跡テーブルに追跡IDは存在するものの、この追跡IDに対応付けられた顔情報は存在しない、という事態も生じ得る。
図10(b)に示す追跡テーブルには、3人の人物H(追跡ID「C001」〜「C003」)が、追跡人物として登録されている。なお、ここでは、3人の人物Hが、追跡人物として登録される場合を例としているが、2人以下であってもよいし4人以上であってもかまわない。
では、図7(図8および図9を含む)に示す認証手順について、具体例を挙げながら説明を行う。
本実施の形態において、指示部113は、第1カメラ15が撮影した第1カメラ画像の解析結果から、人検知範囲R1内に存在する1人以上の人物Hのうち、特定(1人)の人物Hが特定の条件を満たす行動を行ったことを検出した場合に、ステップ40において、ステップ60の顔認証処理を開始させるための指示を出力するようになっている。また、本実施の形態において、指示部113は、ステップ60の顔認証処理が終了した後、この特定の人物Hが予め定められた条件を満たす行動を行ったことを検出した場合に、ステップ80において、ステップ100のUI画面表示を開始させるための指示を出力するようになっている。
なお、以下では、上記「特定の条件」および「予め定められた条件」が異なる3つの例(第1の例〜第3の例と称する)について、順に説明を行う。また、これら3つの例では、それぞれ、ステップ60における顔認証処理の対象となった特定の人物Hに対応して準備されたUI画面を、タッチパネル130に表示するパターン(第1のパターンと称する)と表示しないパターン(第2のパターンと称する)とについて、それぞれ説明を行う。
ここで、以下に説明する図11および図15(第1の例)、そして、後で説明する図16〜図19(第2の例および第3の例)は、画像形成装置10の周辺に、人物Hとして、第1の人物H1および第2の人物H2の2人が存在する場合を例示している。また、これら図11、図15〜図19には、プロジェクタ17による画像が投影されるスクリーン18も示している。
[第1の例]
はじめに、人検知範囲R1内に存在するいずれか1人の人物Hが、人検知範囲R1から進入検知範囲R3に進入してきたことを、ステップ40における顔認証処理開始の指示として利用するとともに、人検知範囲R1から進入検知範囲R3に進入してきた人物Hが、さらに進入検知範囲R3から接近検知範囲R4に進入してきたことを、ステップ80における表示開始処理の指示として利用する、『第1の例』について説明を行う。
(第1のパターン)
図11(a)〜(d)は、画像形成装置10の周辺にいる人物の位置の時間的変化の、第1の例における第1のパターンを示した図である。
図11(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1に進入し、また、第2の人物H2が人検知範囲R1の外部に存在する状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第1の人物H1に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第1の人物H1の顔の探索が行われる。なお、このとき、第2の人物H2は人検知範囲R1の外部に存在しているため、第2の人物H2は処理の対象とはならない。
図11(b)は、第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1に進入してきた状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で肯定の判断(YES)が行われることにより、引き続き、この第1の人物H1の顔の探索が行われる。また、このとき、第2の人物H2については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第2の人物H2に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第2の人物H2の顔の探索が行われる。
図11(c)は、第1の人物H1が人検知範囲R1から進入検知範囲R3に進入し、また、第2の人物H2が引き続き人検知範囲R1内に存在している状態を示している。ここで、第1の例では、特定の人物Hが、人検知範囲R1から進入検知範囲R3に進入してきた場合に、指示部113が顔認証処理開始指示を出力することで、ステップ40において肯定の判断(YES)がなされ、ステップ60の顔認証処理が開始(実行)される。したがって、この例では、選択部114が、2人の追跡人物(第1の人物H1および第2の人物H2)の中から、第1の人物H1を対象人物として選択することになる。
ここで、第1の例では、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が顔検知限界Lを突破する前に、ステップ61〜ステップ65の各処理を完了させるようになっている。また、第1の例では、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が顔検知限界Lを突破する前に、ステップ66、ステップ69またはステップ72の報知を行う。これに伴い、プロジェクタ17は、スクリーン18に伝達事項Mを表示させる。ここで、ステップ61およびステップ62で肯定の判断(YES)を行った後、ステップ65で肯定の判断(YES)を行った場合、プロジェクタ17は、ステップ66において、伝達事項Mとして「認証が成功しました」等の文字画像を表示させる。また、ステップ61およびステップ62で肯定の判断(YES)を行った後、ステップ65で否定の判断(NO)を行った場合、プロジェクタ17は、ステップ69において、伝達事項Mとして、「認証が失敗しました」、「ユーザとして登録されていません」等の文字画像を表示させる。さらに、ステップ61またはステップ62で否定の判断(NO)を行った場合、プロジェクタ17は、ステップ72において、「顔画像が取得できませんでした」等の文字画像を表示させる。
このようにすることで、認証が成功した場合、対象人物となった特定の人物H(ここでは第1の人物H1)は、そのまま画像形成装置10に近づいていこうとすることになる。また、認証が失敗した場合および顔画像が取得できなかった場合、対象人物となった特定の人物H(ここでは第1の人物H1)は、第1カメラ15を用いた顔画像の取得が困難となる顔検知限界Lを突破する前に、認証が成功しなかったことを知ることになる。
なお、ここでは、ステップ72において、「顔画像が取得できませんでした」という情報を提示する場合について説明を行ったが、これに限られるものではない。例えばステップ72において、人物Hへ自装置(画像形成装置10)に近づかないことを要請する報知、人物Hの顔認証が済んでいないので自装置(画像形成装置10)に近づかないことを要請する報知、人物Hが静止することを要請する報知、人物Hの顔認証が済んでいないので人物Hが静止することを要請する報知、人物Hの顔の一部が第1カメラ15による撮影範囲から外れることを知らしめるための報知、等を行うようにしてもかまわない。
また、第1の例では、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が接近検知範囲R4に進入する前に、ステップ67、ステップ70およびステップ73の各処理を完了させるようになっている。なお、これらステップ67、ステップ70およびステップ73のそれぞれにおいて準備されるUI画面の内容については後述する。
図11(d)は、対象人物となった第1の人物H1が進入検知範囲R3から接近検知範囲R4に進入し、また、対象人物とはならなかった第2の人物H2が引き続き人検知範囲R1内に存在している状態を示している。ここで、第1の例では、人検知範囲R1から進入検知範囲R3に進入することで対象人物となった特定の人物H(この例では第1の人物H1)が、進入検知範囲R3から接近検知範囲R4に進入した場合に、指示部113が表示処理開始指示を出力することで、ステップ80において肯定の判断(YES)がなされ、ステップ100のUI画面表示が開始される。なお、第1の例では、図11(c)に示す状態から図11(d)に示す状態へと移行する間に、プロジェクタ17が、伝達事項Mの報知を終了する。
ここで、第1の例では、接近検知範囲R4に進入した対象人物(ここでは第1の人物H1)が人操作範囲R2に進入する前に、ステップ100のUI画面表示を実行させておくとよい。このようにすることで、対象人物(ここでは第1の人物H1)が、人操作範囲R2に進入してユーザインタフェース13の前に立った状態で、対象人物の認証結果に対応したUI画面が、タッチパネル130に既に表示されていることになる。
ではここで、上記ステップ67、ステップ70およびステップ73で準備され、必要に応じてステップ100でタッチパネル130に表示されるUI画面について説明を行う。
図12(a)〜(d)は、図9に示す顔認証処理で準備されるUI画面の一例を示す図である。ここで、図12(a)、(b)は、図9に示すステップ67で準備される対象人物のUI画面(認証後の画面)の一例を示している。また、図12(c)は、図9に示すステップ70で準備される認証失敗のUI画面(認証前の画面)の一例を示している。さらに、図12(d)は、図9に示すステップ73で準備される手動入力認証のUI画面(認証前の画面)の一例を示している。
まず、図12(a)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録された登録人物である「ふじたろう」であり、この「ふじたろう」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「ふじたろう」の顔情報が登録されている(ステップ62においてYES)ことにより、ステップ65において認証が成功(YES)した場合に、ステップ67で準備される。このUI画面には、図10(a)に示す「ふじたろう」の登録テーブルにしたがって、ユーザ名および各アプリのボタン(この例では6つ)が表示される。そして、タッチパネル130において、これらのうちのいずれかのボタンが押下されることにより、そのボタンに対応付けられたアプリ機能が実行される。
次に、図12(b)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録された別の登録人物である「富士花子」であり、この「富士花子」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「富士花子」の顔情報が登録されている(ステップ62においてYES)ことにより、ステップ65において認証が成功(YES)した場合に、ステップ67で準備される。このUI画面には、図10(a)に示す「富士花子」の登録テーブルにしたがって、ユーザ名および各アプリのボタン(この例では8つ)が表示される。そして、タッチパネル130において、これらのうちのいずれかのボタンが押下されることにより、そのボタンに対応付けられたアプリ機能が実行される。
続いて、図12(c)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録されていない未登録人物(例えば「フジジロウ」)であり、この「フジジロウ」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「フジジロウ」の顔情報が登録されている(ステップ62においてYES)ことにより、ステップ65において認証が失敗(NO)した場合に、ステップ70で準備される。このUI画面には、例えば「認証に失敗しました」の文言と、「閉じる」ボタンとが表示される。
最後に、図12(d)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録された登録人物(ここでは「ふじたろう」とするが、「富士花子」でもかまわない)であり、この「ふじたろう」が追跡テーブル(図10(b)参照)に追跡人物として登録されていない(ステップ61においてNO)場合に、ステップ73で準備される。また、図12(d)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録された登録人物(ここでは「ふじたろう」とするが、「富士花子」でもかまわない)であり、この「ふじたろう」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「ふじたろう」の顔情報が登録されていない(ステップ62においてNO)場合に、ステップ73で準備される。さらに、図12(d)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録されてない未登録人物(例えば「フジジロウ」)であり、この「フジジロウ」が追跡テーブルに追跡人物として登録されていない(ステップ61においてNO)場合に、ステップ73で準備される。さらにまた、図12(d)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録されてない未登録人物(例えば「フジジロウ」)であり、この「フジジロウ」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「フジジロウ」の顔情報が登録されていない(ステップ62においてNO)場合に、ステップ73で準備される。このUI画面は、使用者の手動入力による認証要求を受け付けるために表示される。そして、このUI画面には、仮想キーボードと、仮想キーボードを用いた入力内容(ユーザIDやパスワード)を表示する表示領域と、「取り消し」ボタンおよび「確定」ボタンとが表示される。
このように、本実施の形態では、図12(a)、(b)に示す認証後(認証成功時)の画面の内容と、図12(c)に示す認証前(認証失敗時)の画面の内容と、図12(d)に示す手動入力に対応する認証前(認証不能時)の画面の内容とが異なる。また、本実施の形態では、図12(a)、(b)に示したように、登録人物毎に、認証後の画面の内容が異なる。
ここで、追跡人物に関し、顔画像が検出できる場合とできない場合とについて、簡単に説明しておく。
図13は、第1カメラ15によって撮影された第1カメラ画像の一例を示す図である。ここで、図13(a)はマスク等の着用を行っていない人物Hの顔を撮影して得た第1カメラ画像を、図13(b)はマスクを着用した人物Hの顔を撮影して得た第1カメラ画像を、それぞれ示している。
本実施の形態の顔登録認証部112では、顔登録および顔認証において、目・鼻・口など顔の複数の部位(例えば14以上の部位)における特徴点を検出し、顔のサイズ・向きなどを3次元的に補正したのちに顔の特徴量の抽出を行っている。このため、人物Hがマスクやサングラスなど顔の一部を覆い隠すものを着用していると、人物Hの顔を含む画像が第1カメラ画像にあったとしても、第1カメラ画像からこの顔の特徴点の検出および特徴量の抽出を行えなくなる。また、人物Hが第1カメラ15に対して真横を向いたり後ろを向いていたりした場合にも、第1カメラ画像から特徴点の検出および特徴量の抽出を行えなくなる。このような場合、図8に示すステップ26において、否定の判断(NO)が行われることになる。
次に、同じ追跡人物に関し複数の顔情報が取得できた場合に、どのようにして一方の顔情報を選択するのかについて、簡単に説明しておく。
図14は、第1カメラ15によって撮影された第1カメラ画像の一例を示す図である。ここで、図14(a)は、人検知範囲R1内であって顔検知限界Lから相対的に遠い位置に存在する人物Hを撮影して得た第1カメラ画像を、図14(b)は人検知範囲R1内であって顔検知限界Lから相対的に近い位置に存在する人物Hを撮影して得た第1カメラ画像を、それぞれ示している。
図14(a)および図14(b)から明らかなように、図14(b)に示す顔の画像は、第1カメラ15に人物Hが近づいている分、図14(a)に示す顔の画像よりも大きく(画素数が多く)なっており、より特徴量が抽出しやすい状態となっている。このため、例えば図14(a)に示す第1カメラ画像から人物Hの顔情報を取得して追跡テーブルに登録した後、図14(a)に示す第1カメラ画像から人物Hの顔情報を取得した場合は、ステップ29において、後者の顔情報を選択するとともに、前者の顔情報を削除する。
また、これ以外にも、例えば第1カメラ15に対し斜めを向いた人物Hの顔を撮影した第1カメラ画像から顔情報を取得して追跡テーブルに登録した後、第1カメラ15に対し正面を向いた人物Hの顔を撮影した第1カメラ画像から顔情報を取得した場合は、ステップ29において、後者の顔情報を選択するとともに、前者の顔情報を削除するようにしてもよい。
(第2のパターン)
図15(a)〜(d)は、画像形成装置10の周辺にいる人物の位置の時間的変化の、第1の例における第2のパターンを示した図である。
図15(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1に進入し、また、第2の人物H2が人検知範囲R1の外部に存在する状態を示している。
また、図15(b)は、第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1に進入してきた状態を示している。
さらに、図15(c)は、第1の人物H1が人検知範囲R1から進入検知範囲R3に進入し、また、第2の人物H2が引き続き人検知範囲R1内に存在している状態を示している。
ここで、これら図15(a)〜図15(c)は、上記図11(a)〜図11(c)に示す第1のパターンで説明したものとそれぞれ同じであるので、ここではその詳細な説明を省略する。
図15(d)は、対象人物となった第1の人物H1が進入検知範囲R3から人検知範囲R1の外部へと退去し、また、対象人物とはならなかった第2の人物H2が引き続き人検知範囲R1内に存在している状態を示している。この第1の例では、人検知範囲R1から進入検知範囲R3に進入することで対象人物となった第1の人物H1が、人検知範囲R1の外部に退去した場合に、ステップ140で否定の判断(NO)がなされる。
ここで、ステップ60の顔認証処理で認証が成功している場合(ステップ160でYES)、ステップ180でこの顔認証が解除される。また、ステップ60の顔認証処理で認証が成功している場合(ステップ160でYES)および失敗している場合(ステップ160でNO)、ステップ200において、ステップ67、ステップ70およびステップ73で準備したUI画面を破棄する。そして、ステップ220で、この対象人物(ここでは第1の人物H1)に関する追跡IDおよび顔情報が、追跡テーブルから削除される。ただし、対象人物以外の人物H(ここでは第2の人物H2)については、追跡テーブルからの削除が行われないことから、ステップ20に戻った後、引き続き、追跡および顔の探索が行われる。
(第1の例のまとめ)
このように、第1の例では、人検知範囲R1内で追跡されている第1の人物H1または第2の人物H2が進入検知範囲R3に進入しない限り、対象人物が生じることはなく、その結果、ステップ60の顔認証処理が開始されることもない。また、第1の例では、対象人物となった特定の人物Hが接近検知範囲R4にさらに進入しない限り、ステップ100における対象人物(特定の人物H)の認証結果としてのUI画面が、タッチパネル130に表示されることもない。
ここで、第1の例では、第1の人物H1および第2の人物H2の両者が人検知範囲R1に進入した後、第1の人物H1が先に進入検知範囲R3に進入することで、第1の人物H1が対象人物となる場合について説明を行った。ただし、第2の人物H2が第1の人物H1よりも先に進入検知範囲R3に進入した場合には、第2の人物H2が対象人物となる。また、第1の人物H1および第2の人物H2の両者が人検知範囲R1に進入した後、これら第1の人物H1および第2の人物H2の両者が、進入検知範囲R3に進入することなく人検知範囲R1の外部に退去した場合は、対象人物が発生しないことになり、ステップ60の顔認証処理は開始されないことになる。
さらに、第1の例では、特定の人物H(この例では第1の人物H1)が人検知範囲R1から進入検知範囲R3に進入することで対象人物として選択された後、この特定の人物Hが進入検知範囲R3内に滞在し続けている状態で、別の人物H(この例では第2の人物H2)が人検知範囲R1から進入検知範囲R3に進入したとしても、対象人物が特定の人物H(第1の人物H1)から別の人物H(第2の人物H2)に変更されることはない。
[第2の例]
次に、人検知範囲R1内に存在するいずれか1人の人物Hの、人検知範囲R1に進入してからの滞在時間が、予め決められた第1規定時間に到達したことを、ステップ40における顔認証処理開始の指示として利用するとともに、この滞在時間が、予め決められた第2規定時間(第2規定時間>第1規定時間)に到達したことを、ステップ80における表示開始処理の指示として利用する、『第2の例』について説明を行う。
(第1のパターン)
図16(a)〜(d)は、画像形成装置10の周辺にいる人物の位置の時間的変化の、第2の例における第1のパターンを示した図である。
図16(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1に進入し、また、第2の人物H2が人検知範囲R1の外部に存在する状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第1の人物H1に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第1の人物H1の顔の探索が行われる。また、第1の人物H1が人検知範囲R1の外部から人検知範囲R1に進入したことをトリガとしてタイマを用いた計時が開始され、第1の人物H1が人検知範囲R1内に滞在する第1滞在時間T1が0にセットされる(T1=0)。なお、このとき、第2の人物H2は人検知範囲R1の外部に存在しているため、第2の人物H2は処理の対象とはならない。
図16(b)は、第1の人物H1が人検知範囲R1内で移動し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1に進入してきた状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で肯定の判断(YES)が行われることにより、引き続き、この第1の人物H1の顔の探索が行われる。また、このとき、第2の人物H2については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第2の人物H2に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第2の人物H2の顔の探索が行われる。さらに、第2の人物H2が人検知範囲R1の外部から人検知範囲R1に進入したことをトリガとしてタイマを用いた計時が開始され、第2の人物H2が人検知範囲R1内に滞在する第2滞在時間T2が0にセットされる(T2=0)。なお、このとき、図16(a)に示す状態からの時間の経過に伴い、第1の人物H1の第1滞在時間T1は、第2の人物H2の第2滞在時間T2よりも長くなっている(T1>T2)。
図16(c)は、第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が人検知範囲R1内で移動している状態を示している。このとき、第1の人物H1の第1滞在時間T1は、第1規定時間Taに到達しており(T1=Ta)、第2の人物H2の第2滞在時間T2は、第1滞在時間T1すなわち規定時間Taよりも短く(T2<Ta)なっている。ここで、第2の例では、特定の人物Hの滞在時間Tが第1規定時間Taに到達した場合(T=Ta)に、指示部113が顔認証処理開始指示を出力することで、ステップ40において肯定の判断(YES)がなされ、ステップ60の顔認証処理が開始(実行)される。したがって、この例では、選択部114が、2人の追跡人物(第1の人物H1および第2の人物H2)の中から、第1の人物H1を対象人物として選択することになる。
ここで、第2の例でも、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が顔検知限界Lを突破する前に、ステップ61〜ステップ65の各処理を完了させるようになっている。また、第2の例でも、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が顔検知限界Lを突破する前に、ステップ66、ステップ69またはステップ72の報知を行う。これに伴い、プロジェクタ17は、スクリーン18に伝達事項Mを表示させる。なお、伝達事項Mの内容については、図11に示す第1の例における第1のパターンで説明したものと同じである。
また、第2の例では、第1規定時間Taに到達した対象人物(ここでは第1の人物H1)の滞在時間Tが、後述する第2規定時間Tb(Tb>Ta)に到達する前に、ステップ67、ステップ70およびステップ73の各処理を完了させるようになっている。なお、これらステップ67、ステップ70およびステップ73のそれぞれにおいて準備されるUI画面の内容は、図12を用いて説明したものと同じである。
図16(d)は、対象人物となった第1の人物H1が人検知範囲R1内で移動し、また、対象人物とはならなかった第2の人物H2が引き続き人検知範囲R1内に存在している状態を示している。このとき、第1の人物H1の第1滞在時間T1は、第2規定時間Tb(設定時間の一例)に到達しており(T1=Tb)、第2の人物H2の第2滞在時間T2は、第1滞在時間T1よりも短く(T2<T1)なっている。ここで、第2の例では、滞在時間Tが第1規定時間Taに到達することで対象人物となった特定の人物H(この例では第1の人物H1)の滞在時間T(ここでは第1滞在時間T1)が、さらに第2規定時間Tbに到達した場合(T=Tb)に、指示部113が表示処理開始指示を出力することで、ステップ80において肯定の判断(YES)がなされ、ステップ100のUI画面表示が開始される。なお、第2の例では、図16(c)に示す状態から図16(d)に示す状態へと移行する間に、プロジェクタ17が、伝達事項Mの報知を終了する。
ここで、第2の例では、滞在時間Tが第2規定時間Tbに到達した対象人物(ここでは第1の人物H1)が人操作範囲R2に進入する前に、ステップ100のUI画面表示を実行させておくとよい。このようにすることで、対象人物(ここでは第1の人物H1)が、人操作範囲R2に進入してユーザインタフェース13の前に立った状態で、対象人物の認証結果に対応したUI画面が、タッチパネル130に既に表示されていることになる。
(第2のパターン)
図17(a)〜(d)は、画像形成装置10の周辺にいる人物の位置の時間的変化の、第2の例における第2のパターンを示した図である。
図17(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1に進入し、また、第2の人物H2が人検知範囲R1の外部に存在する状態を示している。
また、図17(b)は、第1の人物H1が人検知範囲R1内で移動し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1に進入してきた状態を示している。
さらに、図17(c)は、第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が人検知範囲R1内で移動している状態を示している。
ここで、これら図17(a)〜図17(c)は、上記図16(a)〜図16(c)に示す第1のパターンで説明したものとそれぞれ同じであるので、ここではその詳細な説明を省略する。
図17(d)は、対象人物となった第1の人物H1が人検知範囲R1から人検知範囲R1の外部へと退去し、また、対象人物とはならなかった第2の人物H2が引き続き人検知範囲R1内に存在している状態を示している。このとき、第1の人物H1の第1滞在時間T1は、第2規定時間Tbに到達しておらず(T1<Tb)、第2の人物H2の第2滞在時間T2は、第1滞在時間T1よりも短く(T2<T1)なっている。この第2の例では、滞在時間T(ここでは第1滞在時間T1)が第1規定時間Taに到達することで対象人物となった第1の人物H1が、その滞在時間Tが第2規定時間Tbに到達する前に人検知範囲R1の外部に退去した場合に、ステップ140で否定の判断(NO)がなされる。
ここで、ステップ60の顔認証処理で認証が成功している場合(ステップ160でYES)、ステップ180でこの顔認証が解除される。また、ステップ60の顔認証処理で認証が成功している場合(ステップ160でYES)および失敗している場合(ステップ160でNO)、ステップ200において、ステップ67、ステップ70およびステップ73で準備したUI画面を破棄する。そして、ステップ220で、この対象人物(ここでは第1の人物H1)に関する追跡IDおよび顔情報が、追跡テーブルから削除される。ただし、対象人物以外の人物H(ここでは第2の人物H2)については、追跡テーブルから削除が行われないことから、ステップ20に戻った後、引き続き、追跡および顔の探索が行われる。
(第2の例のまとめ)
このように、第2の例では、人検知範囲R1内で追跡されている第1の人物H1または第2の人物H2の滞在時間Tが第1規定時間Taに到達しない限り、対象人物が生じることはなく、その結果、ステップ60の顔認証処理が開始されることもない。また、第2の例では、対象人物となった特定の人物Hの滞在時間Tがさらに第2規定時間Tbに到達しない限り、ステップ100における対象人物(特定の人物H)の認証結果としてのUI画面が、タッチパネル130に表示されることもない。
ここで、第2の例では、第1の人物H1および第2の人物H2の両者が人検知範囲R1に進入した後、第1の人物H1の第1滞在時間T1が第2の人物H2の第2滞在時間T2よりも先に第1規定時間Taに到達することで、第1の人物H1が対象人物となる場合について説明を行った。ただし、第2の人物H2の第2滞在時間T2が第1の人物H1の第1滞在時間T1よりも先に第1規定時間Taに到達した場合には、第2の人物H2が対象人物となる。また、第1の人物H1および第2の人物H2の両者が人検知範囲R1に進入した後、これら第1の人物H1および第2の人物H2の両者が、その滞在時間Tが第1規定時間Taに到達する前に人検知範囲R1の外部に退去した場合は、対象人物が発生しないことになり、ステップ60の顔認証処理は開始されないことになる。
さらに、第2の例では、特定の人物H(この例では第1の人物H1)の滞在時間T(ここでは第1滞在時間T1)が第1規定時間Taに到達することで対象人物として選択された後、この特定の人物Hが人検知範囲R1に滞在し続けている状態で、別の人物H(この例では第2の人物H2)の滞在時間(ここでは第2滞在時間T2)が第1規定時間Taに到達したとしても、対象人物が特定の人物H(第1の人物H1)から別の人物H(第2の人物H2)に変更されることはない。
[第3の例]
最後に、人検知範囲R1内に存在するいずれか1人の人物Hが、人検知範囲R1に進入した後に画像形成装置10に接近してきたことを、ステップ40における顔認証処理開始の指示として利用するとともに、人検知範囲R1に進入した後に画像形成装置10に接近してきた人物Hが、さらに画像形成装置10に接近してきたことを、ステップ80における表示開始処理の指示として利用する、『第3の例』について説明を行う。
(第1のパターン)
図18(a)〜(d)は、画像形成装置10の周辺にいる人物の位置の時間的変化の、第3の例における第1のパターンを示した図である。
図18(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1に進入し、また、第2の人物H2が人検知範囲R1の外部に存在する状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第1の人物H1に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第1の人物H1の顔の探索が行われる。なお、このとき、第2の人物H2は人検知範囲R1の外部に存在しているため、第2の人物H2は処理の対象とはならない。
図18(b)は、第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1に進入してきた状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で肯定の判断(YES)が行われることにより、引き続き、この第1の人物H1の顔の探索が行われる。また、このとき、第2の人物H2については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第2の人物H2に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第2の人物H2の顔の探索が行われる。
図18(c)は、第1の人物H1が人検知範囲R1内で移動し、また、第2の人物H2も人検知範囲R1内で移動している状態を示している。ただし、このとき、第1の人物H1は画像形成装置10に近づく方向に移動しており、第2の人物H2は第1の人物H1と比べて画像形成装置10に近づかない方向に移動している。ここで、第3の例では、特定の人物Hが人検知範囲R1に進入してきた後、画像形成装置10に接近してきた場合に、指示部113が顔認証処理開始指示を出力することで、ステップ40において肯定の判断(YES)がなされ、ステップ60の顔認証処理が開始(実行)される。したがって、この例では、選択部114が、2人の追跡人物(第1の人物H1および第2の人物H2)の中から、第1の人物H1を対象人物として選択することになる。
ここで、第3の例でも、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が顔検知限界Lを突破する前に、ステップ61〜ステップ65の各処理を完了させるようになっている。また、第3の例でも、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が顔検知限界Lを突破する前に、ステップ66、ステップ69またはステップ72の報知を行う。これに伴い、プロジェクタ17は、スクリーン18に伝達事項Mを表示させる。なお、伝達事項Mの内容については、図11に示す第1の例における第1のパターンで説明したものと同じである。
また、第3の例では、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が接近検知範囲R4に進入する前に、ステップ67、ステップ70およびステップ73の各処理を完了させるようになっている。なお、これらステップ67、ステップ70およびステップ73のそれぞれにおいて準備されるUI画面の内容は、図12を用いて説明したものと同じである。
図18(d)は、対象人物となった第1の人物H1が人検知範囲R1から進入検知範囲R3に進入し、また、対象人物とはならなかった第2の人物H2が人検知範囲R1内で移動している状態を示している。ただし、このとき、第1の人物H1は画像形成装置10に近づく方向に移動しており、第2の人物H2は画像形成装置10から遠ざかる方向に移動している。ここで、第3の例では、人検知範囲R1に進入した後に画像形成装置10に接近してきたことで対象人物となった特定の人物H(この例では第1の人物H1)が、さらに画像形成装置10に近づいてきた場合に、指示部113が表示処理開始指示を出力することで、ステップ80において肯定の判断(YES)がなされ、ステップ100のUI画面表示が開始される。なお、第3の例では、図18(c)に示す状態から図18(d)に示す状態へと移行する間に、プロジェクタ17が、伝達事項Mの報知を終了する。
ここで、第3の例では、人検知範囲R1内で画像形成装置10に近づいてきた対象人物(ここでは第1の人物H1)が人操作範囲R2に進入する前に、ステップ100のUI画面表示を実行させておくとよい。このようにすることで、対象人物(ここでは第1の人物H1)が、人操作範囲R2に進入してユーザインタフェース13の前に立った状態で、対象人物の認証結果に対応したUI画面が、タッチパネル130に既に表示されていることになる。
(第2のパターン)
図19(a)〜(d)は、画像形成装置10の周辺にいる人物の位置の時間的変化の、第3の例における第2のパターンを示した図である。
図19(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1に進入し、また、第2の人物H2が人検知範囲R1の外部に存在する状態を示している。
図19(b)は、第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1に進入してきた状態を示している。
図19(c)は、第1の人物H1が人検知範囲R1内で移動し、また、第2の人物H2も人検知範囲R1内で移動している状態を示している。
ここで、これら図19(a)〜図19(c)は、上記図18(a)〜図18(c)に示す第1のパターンで説明したものとそれぞれ同じであるので、ここではその詳細な説明を省略する。
図19(d)は、対象人物となった第1の人物H1が人検知範囲R1から人検知範囲R1の外部へと退去し、また、対象人物とはならなかった第2の人物H2が引き続き人検知範囲R1内で移動している状態を示している。この第3の例では、人検知範囲R1内で画像形成装置10に近づく方向に移動することで対象人物となった第1の人物H1が、人検知範囲R1の外部に退去した場合に、ステップ140で否定の判断(NO)がなされる。
ここで、ステップ60の顔認証処理で認証が成功している場合(ステップ160でYES)、ステップ180でこの顔認証が解除される。また、ステップ60の顔認証処理で認証が成功している場合(ステップ160でYES)および失敗している場合(ステップ160でNO)、ステップ200において、ステップ67、ステップ70およびステップ73で準備したUI画面を破棄する。そして、ステップ220で、この対象人物(ここでは第1の人物H1)に関する追跡IDおよび顔情報が、追跡テーブルから削除される。ただし、対象人物以外の人物H(ここでは第2の人物H2)については、追跡テーブルからの削除が行われないことから、ステップ20に戻った後、引き続き、追跡および顔の探索が行われる。
(第3の例のまとめ)
このように、第3の例では、人検知範囲R1内で追跡されている第1の人物H1または第2の人物H2が画像形成装置10に近づく方向に移動しない限り、対象人物が生じることはなく、その結果、ステップ60の顔認証処理が開始されることもない。また、第3の例では、対象人物となった特定の人物Hが画像形成装置10に近づく方向にさらに移動しない限り、ステップ100における対象人物(特定の人物H)の認証結果としてのUI画面が、タッチパネル130に表示されることもない。
ここで、第3の例では、第1の人物H1および第2の人物H2の両者が人検知範囲R1に進入した後、第1の人物H1が先に画像形成装置10に近づく方向に移動することで、第1の人物H1が対象人物となる場合について説明を行った。ただし、第2の人物H2が第1の人物H1よりも先に画像形成装置10に近づく方向に移動した場合には、第2の人物H2が対象人物となる。また、第1の人物H1および第2の人物H2の両者が人検知範囲R1に進入した後、これら第1の人物H1および第2の人物H2の両者が、画像形成装置10に近づく方向に移動することなく人検知範囲R1の外部に退去した場合は、対象人物が発生しないことになり、ステップ60の顔認証処理は開始されないことになる。
さらに、第3の例では、特定の人物H(この例では第1の人物H1)が人検知範囲R1内で画像形成装置10に近づく方向に移動することで対象人物として選択された後、この特定の人物Hが画像形成装置10に近づく方向に移動し続けている状態で、別の人物H(この例では第2の人物H2)が人検知範囲R1内で画像形成装置10に近づく方向に移動してきたとしても、対象人物が特定の人物H(第1の人物H1)から別の人物H(第2の人物H2)に変更されることはない。
[その他]
ここで、上述した第1の例〜第3の例では、2人の人物H(第1の人物H1および第2の人物H2)が画像形成装置10の周辺に存在する場合を例としたが、画像形成装置10の周辺に存在する人物Hが1人となる場合、および、画像形成装置10の周辺に存在する人物が3人以上となる場合もあり得る。
また、上述した第1の例〜第3の例では説明を行わなかったが、人検知範囲R1の外部から人検知範囲R1に進入することで、ステップ24で追跡IDが付与されたものの、ステップ60で対象人物とはなっていない追跡人物(例えば第2の人物H2)が、人検知範囲R1内から人検知範囲R1の外部に退去した場合は、ステップ32で、この追跡人物(ここでは第2の人物H2)に関する追跡IDおよび顔情報が、追跡テーブルから削除されることになる。
なお、本実施の形態では、図9に示す顔認証処理のステップ62で、対象人物(追跡人物)の顔情報が登録されていない場合(NO)に、ステップ71でタッチパネル130に手動入力認証のUI画面(図12(d)参照)を表示させて、手動入力による認証を受け付けるようにしていたが、これに限られない。例えば、ユーザインタフェース13に設けられた第2カメラ16を用いて、人操作範囲R2内に滞在する人物Hの顔画像を撮影し、得られた第2カメラ画像から顔情報を取得することにより、再度顔認証を行うようにしてもかまわない。この場合には、タッチパネル130に、第2カメラ16を用いた顔画像の撮影を促す指示とともに、第2カメラ画像を表示させるとよい。
また、本実施の形態では、図6に示す画像形成装置10のモード制御において、ステップ6でスリープモードから通常モードに移行した後、ステップ7で人物Hの顔の検出を開始するようにしたが、これに限られない。例えば、ステップ4で人物Hの動きを検出する処理を開始するのに合わせて、人物Hの顔の検出を開始するようにしてもかまわない。この場合は、スリープモードに設定された状態のまま、人物Hの顔の検出を開始することになる。また、スリープモードに設定された状態のまま、人物Hの顔の検出を開始する構成を採用した場合に、例えば、図7に示すステップ40において顔認証処理開始指示があった(ステップ40でYES)ことを契機として、画像形成装置10をスリープモードから通常モードに移行させるようにしてもよい。
さらに、本実施の形態では、報知部115として、画像を表示するプロジェクタ17を用いる場合を例として説明を行ったが、これに限られるものではない。例えば音源から音を発したり、例えば光源(ランプ)から光を発したりする等の手法を用いてもかまわない。ここで、本実施の形態では、取得した顔画像による認証が成功したとき(ステップ66)、取得した顔画像による認証が失敗したとき(ステップ69)および顔画像が取得できないことにより認証が行えなかったとき(ステップ72)に、報知を行っていたが、これに限られない。例えば、(1)第1カメラ画像から顔画像を検出する前、(2)第1カメラ画像から顔画像を検出した後であって顔画像による認証を行う前、(3)認証処理を行った後、の期間ごとに、報知を行うようにしてもかまわない。
10…画像形成装置、11…スキャナ、12…プリンタ、13…ユーザインタフェース(UI)、14…焦電センサ、15…第1カメラ、16…第2カメラ、17…プロジェクタ、18…スクリーン、101…制御部、102…通信部、103…操作部、104…表示部、105…記憶部、106…画像読取部、107…画像形成部、108…検知部、109…撮像部、110…人検出部、111…顔検出部、112…顔登録認証部、113…指示部、114…選択部、115…報知部、130…タッチパネル、131…第1操作ボタン群、132…第2操作ボタン群、133…USBメモリ装着部

Claims (4)

  1. 自装置の周囲を撮像する撮像部と、
    前記撮像部が撮像した人の画像に対応付けられた画面を表示する表示部と、
    前記表示部に表示の開始を指示する指示部と
    を有し、
    前記撮像部は、前記指示部による指示の前に撮像を開始し、
    前記表示部は、前記指示部による指示の後に、前記撮像部が撮像した人の画像に対応付けられた画面の表示を開始すること
    を特徴とする処理装置。
  2. 前記撮像部は、第1の領域内に存在する人の画像を撮像し、
    前記指示部は、人が前記第1の領域の内部であって当該第1の領域よりも狭い第2の領域に存在する場合に、前記表示部に表示の開始を指示することを特徴とする請求項1記載の処理装置。
  3. 前記撮像部は、第1の領域内に存在する人の画像を撮像し、
    前記指示部は、前記第1の領域内に存在する人が当該第1の領域に予め設定された設定時間以上滞在する場合に、前記表示部に表示の開始を指示することを特徴とする請求項1記載の処理装置。
  4. 前記撮像部は、第1の領域内に存在する人の画像を撮像し、
    前記指示部は、前記第1の領域に存在する人が自装置に接近している場合に、前記表示部に表示の開始を指示することを特徴とする請求項1記載の処理装置。
JP2015196260A 2015-08-03 2015-10-01 処理装置 Pending JP2017069876A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015196260A JP2017069876A (ja) 2015-10-01 2015-10-01 処理装置
US14/982,738 US20170039010A1 (en) 2015-08-03 2015-12-29 Authentication apparatus and processing apparatus
EP16153089.4A EP3128454B1 (en) 2015-08-03 2016-01-28 Authentication apparatus and processing apparatus
CN201610089920.4A CN106412357A (zh) 2015-08-03 2016-02-17 认证设备和处理设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015196260A JP2017069876A (ja) 2015-10-01 2015-10-01 処理装置

Publications (1)

Publication Number Publication Date
JP2017069876A true JP2017069876A (ja) 2017-04-06

Family

ID=58495412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015196260A Pending JP2017069876A (ja) 2015-08-03 2015-10-01 処理装置

Country Status (1)

Country Link
JP (1) JP2017069876A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021024093A (ja) * 2019-07-31 2021-02-22 キヤノン株式会社 画像形成装置、画像形成装置の制御方法ならびにコンピュータプログラム
JP2022507447A (ja) * 2018-11-13 2022-01-18 北京猟戸星空科技有限公司 インテリジェント機器を制御するための方法、デバイスおよび記憶媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666954A (ja) * 1992-08-19 1994-03-11 Ricoh Co Ltd 作動制御装置
JPH0678094A (ja) * 1992-08-26 1994-03-18 Ricoh Co Ltd 操作表示用制御装置
US20130250372A1 (en) * 2012-03-21 2013-09-26 Fuji Xerox Co., Ltd. Moving object detecting device, power supply control device, and image processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666954A (ja) * 1992-08-19 1994-03-11 Ricoh Co Ltd 作動制御装置
JPH0678094A (ja) * 1992-08-26 1994-03-18 Ricoh Co Ltd 操作表示用制御装置
US20130250372A1 (en) * 2012-03-21 2013-09-26 Fuji Xerox Co., Ltd. Moving object detecting device, power supply control device, and image processing apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022507447A (ja) * 2018-11-13 2022-01-18 北京猟戸星空科技有限公司 インテリジェント機器を制御するための方法、デバイスおよび記憶媒体
JP7204912B2 (ja) 2018-11-13 2023-01-16 北京猟戸星空科技有限公司 インテリジェント機器を制御するための方法、デバイスおよび記憶媒体
JP2021024093A (ja) * 2019-07-31 2021-02-22 キヤノン株式会社 画像形成装置、画像形成装置の制御方法ならびにコンピュータプログラム
US12052402B2 (en) 2019-07-31 2024-07-30 Canon Kabushiki Kaisha Image forming apparatus, method for controlling image forming apparatus, and storage medium storing computer program

Similar Documents

Publication Publication Date Title
US10965837B2 (en) Authentication device and authentication method
EP3128454B1 (en) Authentication apparatus and processing apparatus
JP6136859B2 (ja) 情報処理装置及びプログラム
JP5541407B1 (ja) 画像処理装置及びプログラム
US10205853B2 (en) Authentication apparatus, image forming apparatus, authentication method, and image forming method
CN110536069B (zh) 变焦控制装置、变焦控制装置的控制方法和记录介质
JP6112823B2 (ja) 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム
JP2010086336A (ja) 画像制御装置、画像制御プログラムおよび画像制御方法
JP2008276214A (ja) デジタルカメラ
KR20100075167A (ko) 얼굴인식 기능을 이용한 디지털 영상 촬영 장치 및 방법
JP2017033357A (ja) 認証装置
JP2015041323A (ja) 処理装置
JP5885395B2 (ja) 撮影機器及び画像データの記録方法
JP2010014783A (ja) 撮影装置
JP2018197980A (ja) 画像表示装置、画像形成装置、制御プログラムおよび制御方法
JP2009117975A (ja) 撮影装置および撮影方法
JP2006268248A (ja) 撮影装置、顔の向きの判定方法
JP2017034518A (ja) 認証装置および処理装置
JP2017069876A (ja) 処理装置
JP6963437B2 (ja) 情報処理装置及びその制御方法とプログラム
JP5109779B2 (ja) 撮影装置
US20210400202A1 (en) Imaging control system, imaging control method, control device, control method, and storage medium
JP5104517B2 (ja) 撮影装置
JP6569386B2 (ja) 画像処理装置
JP2015126369A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200520

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201110