JP2014089595A - 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム - Google Patents

情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム Download PDF

Info

Publication number
JP2014089595A
JP2014089595A JP2012239278A JP2012239278A JP2014089595A JP 2014089595 A JP2014089595 A JP 2014089595A JP 2012239278 A JP2012239278 A JP 2012239278A JP 2012239278 A JP2012239278 A JP 2012239278A JP 2014089595 A JP2014089595 A JP 2014089595A
Authority
JP
Japan
Prior art keywords
user
priority
information processing
users
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012239278A
Other languages
English (en)
Other versions
JP6112823B2 (ja
Inventor
Ryosuke Suzuki
良介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012239278A priority Critical patent/JP6112823B2/ja
Priority to US14/059,862 priority patent/US9760274B2/en
Publication of JP2014089595A publication Critical patent/JP2014089595A/ja
Application granted granted Critical
Publication of JP6112823B2 publication Critical patent/JP6112823B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00347Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with another still picture apparatus, e.g. hybrid still picture apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00501Tailoring a user interface [UI] to specific requirements
    • H04N1/00509Personalising for a particular user or group of users, e.g. a workgroup or company
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/44Secrecy systems
    • H04N1/4406Restricting access, e.g. according to user identity
    • H04N1/442Restricting access, e.g. according to user identity using a biometric data reading device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00474Output means outputting a plurality of functional options, e.g. scan, copy or print
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00482Output means outputting a plurality of job set-up options, e.g. number of copies, paper size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)

Abstract

【課題】 撮像手段によって複数のユーザが検出された場合でも、複数のユーザの少なくとも一人のユーザのためのユーザインタフェース画像を表示できるようにする。
【解決手段】 情報処理装置は、撮像して画像データを生成する撮像手段と、前記画像データから複数のユーザを特定する特定手段と、前記複数のユーザの優先度を決定する決定手段と、前記優先度に従って、前記複数のユーザのうちの少なくとも一人のユーザのためのユーザインタフェース画像を表示する表示手段と、を有することを特徴とする。
【選択図】 図3

Description

本発明は、ユーザのためのユーザインタフェース画像を表示する情報処理装置に関するものである。
従来、ユーザ名とパスワードをユーザに入力させて、ユーザ名とパスワードに基づいてユーザを認証する認証方法はあった。
また、CCD等の撮像手段を情報処理装置に設けて、撮像手段で撮った画像からユーザを特定し、当該ユーザを認証する認証方法もあった(特許文献1)。この認証方法では、ユーザがユーザ名とパスワードを入力するのを省略することが可能である。
特開2007−116602号公報
MFP(Multi Function Peripheral)などの情報処理装置は複数のユーザによって共有されることが多いため、複数のユーザが情報処理装置の前に存在していることがある。例えば、一人のユーザが情報処理装置を使用中であり、もう一人のユーザが情報処理装置の周囲で待機している場合がある。そのような場合、撮像手段を用いた認証方法では、撮像手段は複数のユーザの顔を撮影し、複数のユーザの顔を検出してしまう。
しかしながら、従来の撮像手段を用いた認証方法は複数のユーザを対象としていなかった。そのため、複数のユーザが検出された場合、複数のユーザのどのユーザに対して情報処理装置の操作を許可してよいか判断することができなかった。
そこで、本発明では、撮像手段によって複数のユーザが検出された場合でも、複数のユーザの少なくとも一人のユーザのためのユーザインタフェース画像を表示できるようにする。
本発明に係る情報処理装置は、撮像して画像データを生成する撮像手段と、前記画像データから複数のユーザを特定する特定手段と、前記複数のユーザの優先度を決定する決定手段と、前記優先度に従って、前記複数のユーザのうちの少なくとも一人のユーザのためのユーザインタフェース画像を表示する表示手段と、を有することを特徴とする。
本発明に係る情報処理方法は、情報処理装置で実行される情報処理方法であって、撮像して画像データを生成するよる撮像手段を制御する撮像ステップと、前記画像データから複数のユーザを特定する特定ステップと、前記複数のユーザの優先度を決定する決定ステップと、前記優先度に従って、前記複数のユーザのうちの少なくとも一人のユーザのためのユーザインタフェース画像を表示手段に表示させる表示ステップと、を有することを特徴とする。
本発明に係るプログラムは、コンピュータにより読み取り可能なプログラムであって、撮像して画像データを生成するよう撮像手段を制御する撮像ステップと、前記画像データから複数のユーザを特定する特定ステップと、前記複数のユーザの優先度を決定する決定ステップと、前記優先度に従って、前記複数のユーザのうちの少なくとも一人のユーザのためのユーザインタフェース画像を表示手段に表示させる表示ステップと、を前記コンピュータに実行させることを特徴とする。
本発明によれば、撮像手段によって複数のユーザが検出された場合でも、複数のユーザの少なくとも一人のユーザのためのユーザインタフェース画像を表示できるようになる。
本発明に係る情報処理装置のハードウェア構成を示す図である。 操作部105を示す図である。 MFP100で実行される情報処理のフローチャートを示す図である。 人物の検出を詳細に示すフローチャートを示す図である。 人物の認証を詳細に説明するフローチャートを示す図である。 優先順位の決定を詳細に説明するフローチャートを示す図である。 第2の実施形態で行われる人物の検出を詳細に説明するフローチャートを示す図である。 第2の実施形態で行われる優先順位の決定を詳細に説明するフローチャートを示す図である。 第2の実施形態で行われるユーザインタフェース画像の形成を詳細に説明するフローチャートを示す図である。 液晶ディスプレイ202に表示されるユーザインタフェース画像の一例を示す図である。
以下、図面を用いて本発明に係る実施形態を説明する。なお、以下で説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、実施形態として説明されている全てが発明の解決手段になるとは限らない。
<第1の実施形態>
図1は本発明に係る情報処理装置のハードウェア構成を示す図である。図1では、情報処理装置の一例としてMFP100を説明する。
CPU101はROM102やハードディスク106に格納された制御プログラムをRAM103に読み出して実行し、制御プログラムに従ってMFP100全体を制御する。ROM102は制御プログラムなどを格納する。RAM103はCPU101の主メモリであり、一時記憶領域としても用いられる。さらに、RAM103は、MFP100に投入されたジョブのジョブ情報やそのジョブで処理されるべきジョブデータを格納する。ジョブ情報は、ジョブを投入したユーザを識別するユーザ識別情報、ジョブのステータスを示すステータス情報を含む。なお、ハードディスク106がRAM103の代わりに、これらの情報を格納してもよい。
ネットワークインターフェース104はネットワークを介して外部装置と通信する。操作部105はハードウェアキーやタッチパネル付き液晶ディスプレイなどを含む。
カメラ107は、操作部105の前にいる1または複数のユーザを撮影する。スキャナ108はスキャンジョブに従って原稿を読み取り、画像データを生成する。プリンタ109は、外部装置からMFP100に投入されたプリントジョブに従って、印刷データをシートに印刷する。また、プリンタ109はコピージョブに従ってスキャナ108によって生成された画像データをシートに印刷する。ユーザが操作部105でコピーの実行指示を入力すると、コピージョブがMFP100に投入される。
システムバス110は、各デバイスを電気的に接続する。
図2は操作部105を示す図である。操作部105には、ハードウェアキー201とタッチパネル付き液晶ディスプレイ202が設けられている。ユーザは各種設定や各種操作を行うにあたってハードウェアキー201を押下する。液晶ディスプレイ202は様々な情報や仮想的なボタンを表示する。タッチパネルはユーザの指が押された位置を検知し、CPU101はその検知結果に基づいて仮想的なボタンが押下されたかどうかを判断する。CPU101はビデオメモリ(不図示)に画像データを格納し、液晶ディスプレイ202はビデオメモリに格納された画像データに基づいてユーザインタフェース画像を表示する。ビデオメモリは、液晶ディスプレイ202によって表示されるべき画像を示す画像データを格納する。なお、ビデオメモリはRAM103上に確保されていてもよいし、液晶ディスプレイ202に内蔵されていてもよい。
操作部105の付近には、CCDを用いたカメラ107が設けられている。カメラ107は、静止画を撮影するデジタルカメラでも、静止画と動画の両方を撮影可能なビデオカメラでもよい。カメラ107は、液晶ディスプレイ202の視野角範囲を撮像するのが望ましい。
MFP100は液晶ディスプレイ202にてユーザインタフェース画像を表示し、ハードウェアキー201やタッチパネルを介してユーザからの指示を受信し、その指示に従って様々な処理を実行する。カメラ107は操作部105の前を撮像し、MFP100はその映像に基づいてログイン候補となるユーザを検出する。
図3は、MFP100で実行される情報処理のフローチャートを示す。CPU101はフローチャートに基づく制御プログラムを実行することで、情報処理を実行する。
第1の実施形態では、カメラを使ってユーザのログインを容易に行う方法を説明する。複数のユーザがMFP100の前にいても、カメラを使って複数のユーザのうちの一人をログインユーザとして決定する。
CPU101はまず人物の検出を行う(S301)。図4は、人物の検出を詳細に示すフローチャートである。
CPU101は撮像処理を実行するようカメラ107を制御する(S401)。S301で撮影された画像はビットマップ画像データとしてRAM103に格納される。
CPU101は、RAM103に格納されたビットマップ画像データに対して画像処理を施し、ユーザの顔が示されている1または複数の領域(以下、顔出現領域)を全て検出する(S402)。この実施形態では、ユーザの顔が示されている領域を検出するための方法として、ハール状特徴分類手法を用いる。
ユーザの顔の特徴を示す特徴量データは予め機械学習により作成される。ハール状特徴分類手法では、グレースケール変換やエッジ検出処理による正規化処理をビットマップ画像データに対して行う。
CPU101は、Eigenface法を用いて、S402で検出した1つの顔出現領域から特徴量を計算する(S403)。Eigenface法では、固有顔を呼ばれる正規直交基底を予め求めておく。そして、これらの基底を用いて顔画像の濃淡値ベクトルを求め、濃淡値ベクトルにKarhunen−Loeve展開を施し、特徴量を得る。
ハール状特徴分類手法やEigenface法は公知の技術である。本実施形態ではこれらの公知の技術を用いて特徴量を計算するが、これらとは異なる手法を用いて特徴量を計算してもよい。
CPU101は、S503で得られた特徴量を用いてユーザの特定を試みて、ユーザが特定されたか否かを判断する(S404)。CPU101は、Eigenface法によって予め計算された各ユーザの特徴量と各ユーザの個人情報とを関連付けているデータベース(以下、第1のデータベース)にアクセスする。CPU101は、S503で得られた特徴量と第1のデータベースに登録されている特徴量とを比較して、ユーザを特定する。第1のデータベースは、MFP100が接続されているネットワーク上に存在するサーバに格納されていてもよいし、ハードディスク106に格納されていてもよい。第1のデータベースに登録されている個人情報はユーザ識別情報などを含む。
ユーザが特定された場合には、CPU101は、第1のデータベースからユーザ識別情報を取得し、そのユーザの顔が示されている顔出現領域の面積を計算し、ユーザ識別情報と面積とをユーザリストに追加する(S405)。ユーザリストはRAM103上に形成される。
CPU101は、特徴量が計算されていない別の顔出現領域があるか否かを判断する(S406)。別の顔出現領域がある場合には、CPU101はその顔出現領域についてS403〜S405を実行する。CPU101は、S402で検出された全ての顔出現領域に対してS403〜S405を実行する。
図4の処理が終了すると、CPU101は人物の認証を行う(S302)。人物の認証では、特定された各ユーザがMFP100を利用する権限を有しているかを検証する。図5は、人物の認証を詳細に説明するフローチャートである。
CPU101は、ユーザリストから、一人のユーザのユーザ識別情報を選択する(S501)。図5では、リストの先頭からユーザ識別情報を選択していくこととする。
CPU101は、S501で選択したユーザ識別情報に基づいて、ユーザがMFP100を利用する権限を有するか否かを判断する(S502)。第1のデータベースに登録されている個人情報には、各ユーザが利用できるMFPを識別するMFP識別情報が含まれている。CPU101は、S501で選択したユーザ識別情報と第1のデータベースに登録されているユーザ識別情報を比較して、ユーザ識別情報に対応するMFP識別情報を第1のデータベースから取得し、MFP識別情報がMFP100を示しているかどうかを判断する。MFP識別情報がMFP100を示している場合には、ユーザはMFP100を利用する権限を有する。
S404で用いた第1のデータベースとは異なるデータベースが用いられてもよい。例えば、CPU101は、MFP100を利用できるユーザのユーザ識別情報が登録されているデータベース(以下、第2のデータベース)にアクセスし、S501で選択したユーザ識別情報が第2のデータベースに登録されているかどうかを判断する。S501で選択したユーザ情報が第2のデータベースに登録されている場合には、ユーザはMFP100を利用する権限を有する。
ユーザがMFP100を利用する権限を有していないと判断された場合、CPU101は、そのユーザのユーザ識別情報をユーザリストから削除する(S503)。
MFP100が、カメラを用いた第1の認証処理と、ユーザ名及びパスワードを用いた第2の認証処理との両方を備える場合、ある特定のユーザは第2の認証処理で認証が成功した場合に限りMFP100を利用できる、と定められることもありうる。そのようなことを可能にするために、各ユーザが第1の認証処理でのログインが許可されているか否かを示す属性値が第1のデータベースに登録されていてもよい。第1の認証処理でのログインが許可されていないことを示す属性値がユーザ識別情報に関連付けられて第1のデータベースに登録されている場合、CPU101はユーザ識別情報をユーザリストから削除する。
CPU101は、別のユーザ識別情報がユーザリストにあるか否かを判断する(S504)。別のユーザ識別情報がある場合には、CPU101はそのユーザ識別情報についてS502を実行する。全てのユーザの権限が判断された場合には、図5の処理を終了する。
図5の処理が終了すると、CPU101は優先順位の決定を行う(S303)。優先順位の決定では、MFP100にログインさせるユーザ(ログインユーザ)を決定する。図6は、優先順位の決定を詳細に説明するフローチャートである。
CPU101は、ユーザリストに複数のユーザが登録されているかどうかを判断する(S601)。ユーザリストに登録されているユーザが一人である場合、CPU101は、ユーザリストに登録されている唯一のユーザをログインユーザと決定する(S604)。
複数のユーザが登録されている場合、CPU101は、顔出現領域の面積の大きい順に、ユーザリスト内でユーザ識別情報を並び替える(S602)。そして、CPU101は、ユーザリストの先頭にあるユーザ識別情報に対応するユーザを、つまり顔が最も大きく撮影されているユーザをログインユーザと決定する(S603)。このように、CPU101は、顔出現領域の面積に従って、ユーザリストに登録されている1または複数のユーザの優先度を決定する。
図6の処理が終了すると、CPU101はユーザインタフェース画像の形成を行う(S304)。ユーザインタフェース画像の形成では、CPU101は、ログインユーザのためのユーザインタフェース画像を示す画像データをビデオメモリに形成する。液晶ディスプレイ202は、ビデオメモリに格納されている画像データに基づいて、ログインユーザのためのユーザインタフェース画像を表示する。
ユーザがユーザインタフェースをカスタマイズできる機能をMFP100が提供している場合には、ログインユーザがカスタマイズしたユーザインタフェースがログインユーザのためのユーザインタフェース画像として表示される。
あるいは、MFP100が複数の機能を有していて、利用できる機能がユーザ毎に異なる場合には、ログインユーザが利用できる機能だけを提供するユーザインタフェースがログインユーザのためのユーザインタフェース画像として表示される。
S402で検出されたログインユーザの顔画像が、ログインユーザのためのユーザインタフェース画像に含まれていてもよい。
CPU101は、ユーザがMFP100からログアウトしたかどうかを判断する(S305)。ユーザがMFP100からログアウトした場合には、CPU101はS301に移行する。
ユーザがMFP100からログアウトする場合、ユーザが液晶ディスプレイに表示されているログアウトボタンやハードウェアキー201の一つであるログアウトキーを押下する。ユーザがMFP100からログアウトした場合でも、ログアウトしたばかりのユーザがS301で検出されてしまう可能性がある。従って、CPU101は、一定時間の間、ログアウトしたユーザのユーザ識別情報をログアウトユーザ識別情報としてRAM103に記憶し、一定時間が経過した後は、ログアウトユーザ識別情報をRAM103から削除する。図5のS502にて、ログアウトユーザ識別情報がRAM103に記憶されていて、かつS501で選択したユーザ識別情報がログアウトユーザ識別情報に一致する場合には、CPU101はS503に進む。
S305では、カメラ107が常に撮影を行い、CPU101が、撮影された画像にログインユーザの顔画像が含まれているかを判定してもよい。撮影された画像にログインユーザの顔画像が含まれていない場合には、CPU101は、ログインユーザがMFP100からログアウトしたと判断する。この方法では、判定の精度やログインユーザの挙動によっては、ログインユーザが操作部105の前にいるにもかかわらず、ログインユーザがいなくなったと判断してしまう可能性がある。そこで、撮影された画像にログインユーザの顔画像が含まれていない状態が一定時間以上続いた場合に、CPU101は、ログインユーザがMFP100からログアウトしたと判断するようにしてもよい。
第1の実施形態によれば、MFP100はカメラを使ってログイン対象となるユーザを特定できるようになる。ログインユーザが操作部105の前から立ち去り、ほかのユーザが操作部105の前に立った場合には、ほかのユーザをログインユーザとして自動的に決定することができる。また、複数のユーザが操作部105の前にいる場合でも、操作部105により近くにいるユーザをログインユーザとして決定することができる。
さらに、MFP100は、ログインユーザに対応するユーザインタフェース画像を自動的に表示することができる。複数のユーザが操作部105の前にいる場合でも、ログインユーザに対応するユーザインタフェース画像を表示することにより、どのユーザがログインしているかが分かりやすくなる。ログインしていないユーザが誤ってMFP100を利用するのを抑制することができる。
<第2の実施形態>
第1の実施形態では、MFP100は、操作部105に最も近くにいるユーザをログインユーザとして決定して、ログインユーザのためのユーザインタフェース画像を表示する。
第2の実施形態では、カメラ107を使って特定されたユーザが複数いる場合、MFP100は、複数のユーザがMFP100に同時にログインすることを可能にし、複数のユーザのそれぞれに対応するユーザインタフェース画面を表示する。
第2の実施形態におけるMFP100のハードウェア構造は図1及び図2のとおりである。
第2の実施形態でも、CPU101は図3のフローチャートに従って処理を進める。
CPU101は人物の検出を行う(S301)。第2の実施形態でのS301は第1の実施形態でのS301とは異なる。CPU101は、図4のフローチャートに基づく情報処理に代えて、図7のフローチャートに基づく情報処理を実行する。
図7は、第2の実施形態で行われる人物の検出を詳細に説明するフローチャートである。図7では、操作部105と各ユーザとの間の距離をオートフォーカスの調整量に基づいて決定する。
CPU101は撮像処理を実行するようカメラ107を制御する(S701)。S701で撮影された画像はビットマップ画像データとしてRAM103に格納される。
CPU101は、RAM103に格納されたビットマップ画像データに対して画像処理を施し、ユーザの顔が示されている1または複数の領域(以下、顔出現領域)を全て検出する(S702)。この実施形態では、ユーザの顔が示されている領域を検出するための方法として、ハール状特徴分類手法を用いる。ユーザの顔の特徴を示す特徴量データは予め機械学習により作成される。ハール状特徴分類手法では、グレースケール変換やエッジ検出処理による正規化処理をビットマップ画像データに対して行う。
CPU101は、S702で検出した1つの顔出現領域のコントラストが最大になるようにカメラ107のピントを調整する(S703)。
CPU101は、デジタルカメラでのコントラストオートフォーカス技術を用いて、ピントの調整量に基づいてユーザまでの距離を計測する(S704)。
CPU101は、Eigenface法を用いて、S703で改めて検出した顔出願領域から特徴量を計算する(S705)。
CPU101は、S705で得られた特徴量を用いてユーザの特定を試みて、ユーザが特定されたか否かを判断する(S706)。S706は図4のS404と同じである。ユーザが特定された場合には、CPU101は、第1のデータベースからユーザ識別情報を取得し、ユーザ識別情報とS704で計測された距離とをユーザリストに追加する(S707)。ユーザリストはRAM103上に形成される。
CPU101は、特徴量が計算されていない別の顔出現領域があるか否かを判断する(S708)。別の顔出現領域がある場合には、CPU101はその顔出現領域についてS703〜S707を実行する。CPU101は、S702で検出された全ての顔出現領域に対してS703〜S707を実行する。
図7の処理が終了すると、CPU101は人物の認証を行う(S302)。第2の実施形態でのS302は図3のS302と同じである。
CPU101は優先順位の決定を行う(S303)。第2の実施形態でのS303は第1の実施形態でのS303とは異なる。CPU101は、図6のフローチャートに基づく情報処理に代えて、図8のフローチャートに基づく情報処理を実行する。
図8は、第2の実施形態で行われる優先順位の決定を詳細に説明するフローチャートである。
図8の例では、ユーザリストに含まれるユーザを、これからコピー機能やファクシミリ機能などを利用しようとする最優先ユーザと、既にジョブを投入した低優先ユーザに分類する。低優先ユーザが複数いる場合には、予め定められた優先度(第2の実施形態においては、操作部105からの距離が短いほど、優先度が高い)に従って低優先ユーザをリスト化する。
CPU101は、ユーザリストに複数のユーザが登録されているかどうかを判断する(S801)。ユーザリストに登録されているユーザが一人である場合、CPU101は、ユーザリストに登録されている唯一のユーザを最優先ユーザと決定する(S809)。
複数のユーザが登録されている場合、CPU101は、ユーザリストに登録されている距離が短い順に、ユーザリスト内でユーザ識別情報を並び替える(S802)。このように、CPU101は、距離に従って、ユーザリストに登録されている1または複数のユーザの優先度を決定する。
そして、CPU101は、ユーザリストの先頭から順にユーザ識別情報を選択する(S803)。
CPU101は、最優先ユーザが既に決定されているかを判断する(S804)。最優先ユーザが未だ決定されていない場合には、CPU101は、S803で選択したユーザ識別情報に対応するユーザを最優先ユーザと決定する(S805)。
最優先ユーザが既に決定されている場合には、CPU101は、S803で選択したユーザ識別情報に対応するジョブ情報をRAM103から検索し、該当するジョブ情報が見つかったかを判断する(S806)。RAM103は、MFP100に投入されたジョブのジョブ情報やそのジョブで処理されるべきジョブデータを格納していて、ジョブ情報は、ジョブを投入したユーザを識別するユーザ識別情報、ジョブのステータスを示すステータス情報を含む。RAM103は、1または複数のジョブに関するジョブ情報をジョブリストとして管理している。
S803で選択したユーザ識別情報に対応するジョブ情報がRAM103にある場合は、CPU101は、S803で選択したユーザ識別情報を低優先ユーザリストに追加する(S807)。
CPU101は、別のユーザ識別情報がユーザリストにあるかを判断する(S808)。別のユーザ識別情報がユーザリストにある場合には、CPU101は次のユーザ識別情報を選択する(S803)。CPU101は、ユーザリストに登録されている全てのユーザ識別情報に対してS803〜S807の処理を行う。
図8の処理が終了すると、CPU101はユーザインタフェース画像の形成を行う(S304)。第2の実施形態でのS304は第1の実施形態でのS304とは異なる。図9は、第2の実施形態で行われるユーザインタフェース画像の形成を詳細に説明するフローチャートである。
CPU101は、最優先ユーザとして決定されたユーザのためのユーザインターフフェース画像を示す画像データをRAM103上に形成する(S901)。
CPU101は、低優先ユーザリストから一人のユーザのユーザ識別情報を選択し(S902)、そのユーザのためのユーザインタフェース画像を示す画像データをRAM103上に形成する(S903)。図9では、低優先ユーザリストの先頭からユーザ識別情報を選択していくこととする。
CPU101は、別のユーザ識別情報が低優先ユーザリストにあるかを判断する(S904)。別のユーザ識別情報がある場合には、CPU101は次のユーザ識別情報を選択する(S902)。CPU101は、低優先ユーザリストに登録されている全てのユーザに対してS903の処理を行う。
低優先ユーザリストに登録されている全てのユーザについてユーザインタフェース画像が生成されると、CPU101は、予め定められたレイアウトに従って、RAM103上に形成された画像データをビデオメモリに転送する(S905)。液晶ディスプレイ202は、ビデオメモリに格納された画像データに基づいて、各ユーザに対応するユーザインタフェース画像を表示する。
図10は、液晶ディスプレイ202に表示されるユーザインタフェース画像の一例を示す図である。画像1000と画像1001は、最優先ユーザのためのユーザインタフェース画像である。画像1000は、最優先ユーザに対応する顔出現領域の画像であり、最優先ユーザがどのユーザであるかが分かるように最優先ユーザの顔を示している。画像1001は、最優先ユーザのために用意された操作画面であり、各種機能を実行するためのボタンを含む。図10の例では、画像1001はコピー機能を実行するための操作画面を示していて、最優先ユーザは操作画面を使って、両面印刷の指定、仕上げの指定、カラー/モノクロの選択、印刷に使用される用紙の指定などを行うことができる。
画像1010及び1011は、低優先ユーザリストに登録されている一人のユーザ(以下、ユーザA)のためのユーザインタフェース画像である。また、画像1020及び1021は、低優先ユーザリストに登録されているもう一人のユーザ(以下、ユーザB)のためのユーザインタフェース画像である。画像1010及び1020は、各ユーザに対応する顔出現領域の画像であり、各ユーザを識別するために表示されている。画像1011及び1020は、各ユーザのために用意された操作画面である。図10の例では、画像1011及び1020は、各ユーザのジョブが含まれているジョブリストを示している。ジョブリストは、ジョブがMFP100に投入された日時、ジョブの名前、ジョブの状態を示している。各ユーザはジョブリストを見て、自分のジョブがどうなっているかを確認することができる。例えば、MFP100がコピー機能とファックス機能を有し、ユーザAがコピージョブを投入し、ユーザBがファックスジョブを投入している場合、画像1011はコピージョブのリストを示し、画像1021はファックスジョブのリストを示す。
ボタン1030及び1040は、そのほかのユーザのユーザインタフェース画面を表示するためのボタンである。図10の例では、二人のユーザに対応するユーザインタフェース画面が表示されていて、そのほかのユーザのユーザインタフェース画面は隠れている。CPU101は、ボタン1030及び1040が押下されるのを検知すると、液晶ディスプレイ202に表示されるべきユーザインタフェース画像を切り替えるために、RAM103上に形成された画像データをビデオメモリに転送しなおす。
図9のS905では、例えば図10のようにユーザインタフェース画像が表示されるように、CPU101はRAM103上に形成されたユーザインタフェース画像データをビデオメモリに転送する。また、図10の例では、CPU101は、まず初めに、低優先ユーザリストに登録されている上位二人に対応するユーザインタフェース画像データをビデオメモリに転送する。次に、ボタン1030及び1040が押下されると、CPU101はその他のユーザに対応するユーザインタフェース画像データをビデオメモリに転送する。
第2の実施形態によれば、複数のユーザのそれぞれのためのユーザインタフェース画像を同時に表示することができる。特に、これからコピー機能などを利用しようとする最優先ユーザのために、各機能を実行するための操作画面を表示し、既にジョブを投入した低優先ユーザのために、ジョブリストを表示することができる。これにより、MFP100を操作中のユーザの利便性をできるだけ損ねることなく、別のユーザのジョブに関する情報を液晶ディスプレイ202に表示することができる。一人のユーザがMFP100を操作していても、別のユーザは液晶ディスプレイ202をのぞき見て、ジョブに関する情報を見ることができる。
また、ピント調整量から各ユーザとカメラ107との距離を推測するので、より正確に各ユーザと操作部105との距離を推定することができる。
また、図8に示した優先順位の決定方法では、顔が映っている全てのユーザを低優先ユーザリストに登録するのではなく、ジョブを投入しているユーザを低優先ユーザリストに登録している。このように、低優先ユーザリストに登録すべきユーザを所定の条件に従って選択することにより、ログインする必要のないユーザをMFP100にログインさせるのを防止することができる。さらに、ユーザインタフェース画像を表示して意味のあるユーザについてのみユーザインタフェース画像を表示することができる。
図7に示した人物の検出方法では、カメラ107を使ってユーザを特定しているが、カードリーダを用いてユーザを特定してもよい。その場合、MFP100はカメラ107の代わりにあるいはカメラ107に加えて、カードリーダを備える。カードリーダは各ユーザのIDカードからユーザ識別情報を読み取り、CPU101はカードリーダに読み取られたユーザ識別情報をユーザリストに追加する。複数のユーザは順番に自分のカードをカードリーダに近づけることから、最初に読み取られたユーザ識別情報に対応するユーザが最優先ユーザとなり、その後に読み取られたユーザ識別情報に対応するユーザが低優先ユーザとなる。
ただし、カメラ107を使ってユーザを特定する方法は、ユーザがIDカードをカードリーダにかざすのを省くことができ、IDカードを使ってユーザを特定する方法よりも一層便利である。
<その他の実施形態>
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、各フローチャートに基づく処理を実行するよう設計された制御回路がCPU101の代わりに用いられていてもよい。
100 MFP
101 CPU
102 ROM
103 RAM
104 ネットワークインターフェース
105 操作部
106 ハードディスク
107 カメラ
108 スキャナ
109 プリンタ
110 システムバス
201 ハードウェアキー
202 液晶ディスプレイ

Claims (19)

  1. 情報処理装置であって、
    撮像して画像データを生成する撮像手段と、
    前記画像データから複数のユーザを特定する特定手段と、
    前記複数のユーザの優先度を決定する決定手段と、
    前記優先度に従って、前記複数のユーザのうちの少なくとも一人のユーザのためのユーザインタフェース画像を表示する表示手段と、を有することを特徴とする情報処理装置。
  2. 前記撮像手段は、前記表示手段の視野角範囲を撮像することを特徴とする請求項1に記載の情報処理装置。
  3. 前記決定手段は、前記画像データに基づいて、前記優先度を決定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記画像データから、各ユーザの顔を示す領域を検出する検出手段を有し、
    前記決定手段は、前記検出手段によって検出された領域の大きさに従って、前記優先度を決定することを特徴とする請求項3に記載の情報処理装置。
  5. 各ユーザと前記撮像手段との距離を推測する推測手段を有し、
    前記決定手段は、前記推測手段によって推測された距離に従って、前記優先度を決定することを特徴とする請求項1または2に記載の情報処理装置。
  6. 前記推測手段は、前記撮像手段のピントの調整量に従って、各ユーザと前記撮像手段との距離を推測することを特徴とする請求項5に記載の情報処理装置。
  7. 前記決定手段は、前記複数のユーザを、第1の優先度のユーザと、前記第1の優先度よりも低い第2の優先度のユーザとに分類し、
    前記表示手段は、前記第1の優先度のユーザのためのユーザインタフェース画像と、前記第2の優先度のユーザのためのユーザインタフェース画像とを表示することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記第1の優先度のユーザのためのユーザインタフェース画像は、前記第2の優先度のユーザのためのユーザインタフェース画像よりも大きくレイアウトされることを特徴とする請求項7に記載の情報処理装置。
  9. 前記第1の優先度のユーザのためのユーザインタフェース画像は、前記情報処理装置の機能を実行するための画面であり、前記第2の優先度のユーザのためのユーザインタフェース画像は、前記第2の優先度のユーザのジョブの状態を示す画面であることを特徴とする請求項7または8に記載の情報処理装置。
  10. 前記決定手段は、前記情報処理装置に投入されているジョブのユーザを前記第2の優先度のユーザとすることを特徴とする請求項9に記載の情報処理装置。
  11. 前記ユーザインタフェース画像を示す画像データを生成する生成手段を有することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. 情報処理装置で実行される情報処理方法であって、
    撮像して画像データを生成するよる撮像手段を制御する撮像ステップと、
    前記画像データから複数のユーザを特定する特定ステップと、
    前記複数のユーザの優先度を決定する決定ステップと、
    前記優先度に従って、前記複数のユーザのうちの少なくとも一人のユーザのためのユーザインタフェース画像を表示手段に表示させる表示ステップと、を有することを特徴とする情報処理方法。
  13. 前記決定ステップでは、前記画像データに基づいて、前記優先度を決定することを特徴とする請求項12に記載の情報処理方法。
  14. 前記画像データから、各ユーザの顔を示す領域を検出する検出ステップをさらに有し、
    前記決定ステップでは、前記検出ステップで検出された領域の大きさに従って、前記優先度を決定することを特徴とする請求項13に記載の情報処理方法。
  15. 各ユーザと前記撮像手段との距離を推測する推測ステップをさらに有し、
    前記決定ステップでは、前記推測ステップで推測された距離に従って、前記優先度を決定することを特徴とする請求項12に記載の情報処理方法。
  16. 前記推測ステップでは、前記撮像手段のピントの調整量に従って、各ユーザと前記撮像手段との距離を推測することを特徴とする請求項15に記載の情報処理方法。
  17. 前記決定ステップでは、前記複数のユーザを、第1の優先度のユーザと、前記第1の優先度よりも低い第2の優先度のユーザとに分類し、
    前記表示ステップでは、前記第1の優先度のユーザのためのユーザインタフェース画像と、前記第2の優先度のユーザのためのユーザインタフェース画像とを前記表示手段に表示させることを特徴とする請求項12乃至16のいずれか1項に記載の情報処理方法。
  18. 前記第1の優先度のユーザのためのユーザインタフェース画像は、前記情報処理装置の機能を実行するための画面であり、前記第2の優先度のユーザのためのユーザインタフェース画像は、前記第2の優先度のユーザのジョブの状態を示す画面であることを特徴とする請求項17に記載の情報処理方法。
  19. コンピュータにより読み取り可能なプログラムであって、
    撮像して画像データを生成するよう撮像手段を制御する撮像ステップと、
    前記画像データから複数のユーザを特定する特定ステップと、
    前記複数のユーザの優先度を決定する決定ステップと、
    前記優先度に従って、前記複数のユーザのうちの少なくとも一人のユーザのためのユーザインタフェース画像を表示手段に表示させる表示ステップと、を前記コンピュータに実行させることを特徴とするプログラム。
JP2012239278A 2012-10-30 2012-10-30 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム Expired - Fee Related JP6112823B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012239278A JP6112823B2 (ja) 2012-10-30 2012-10-30 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム
US14/059,862 US9760274B2 (en) 2012-10-30 2013-10-22 Information processing apparatus, information processing method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012239278A JP6112823B2 (ja) 2012-10-30 2012-10-30 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム

Publications (2)

Publication Number Publication Date
JP2014089595A true JP2014089595A (ja) 2014-05-15
JP6112823B2 JP6112823B2 (ja) 2017-04-12

Family

ID=50548670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012239278A Expired - Fee Related JP6112823B2 (ja) 2012-10-30 2012-10-30 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム

Country Status (2)

Country Link
US (1) US9760274B2 (ja)
JP (1) JP6112823B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018103580A (ja) * 2016-12-28 2018-07-05 コニカミノルタ株式会社 画像形成装置およびプログラム
JP2020184706A (ja) * 2019-05-09 2020-11-12 コニカミノルタ株式会社 画像形成装置および画像形成装置の制御方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9883057B2 (en) * 2013-12-12 2018-01-30 Fuji Xerox Co., Ltd. Processing apparatus and program product for creating, in response to user instruction, process receiving portions to be displayed differently and to perform a different process
US9911398B1 (en) * 2014-08-06 2018-03-06 Amazon Technologies, Inc. Variable density content display
US9794511B1 (en) 2014-08-06 2017-10-17 Amazon Technologies, Inc. Automatically staged video conversations
US9819905B1 (en) 2015-05-28 2017-11-14 Amazon Technologies, Inc. Video communication sessions between whitelisted devices
US20170034383A1 (en) * 2015-07-30 2017-02-02 Kabushiki Kaisha Toshiba Information display apparatus and information displaying method of information display apparatus
JP6780437B2 (ja) * 2016-10-18 2020-11-04 ブラザー工業株式会社 画像処理装置、処理方法およびプログラム
JP2021024093A (ja) * 2019-07-31 2021-02-22 キヤノン株式会社 画像形成装置、画像形成装置の制御方法ならびにコンピュータプログラム
JP2023036100A (ja) * 2021-09-02 2023-03-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
CN117539566A (zh) * 2023-10-18 2024-02-09 上海合芯数字科技有限公司 一种系统界面的展示方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216293A (ja) * 2007-02-28 2008-09-18 Canon Inc データ処理装置及びその制御方法、並びに制御プログラム及び記憶媒体
JP2009186588A (ja) * 2008-02-04 2009-08-20 Konica Minolta Business Technologies Inc 画像形成装置
JP2010016432A (ja) * 2008-07-01 2010-01-21 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2010020616A (ja) * 2008-07-11 2010-01-28 Fujifilm Corp コンテンツ表示装置、コンテンツ表示方法およびプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991429A (en) * 1996-12-06 1999-11-23 Coffin; Jeffrey S. Facial recognition system for security access and identification
US7634103B2 (en) * 2001-10-01 2009-12-15 L'oreal S.A. Analysis using a three-dimensional facial image
US8010402B1 (en) * 2002-08-12 2011-08-30 Videomining Corporation Method for augmenting transaction data with visually extracted demographics of people using computer vision
WO2004044829A1 (en) * 2002-11-08 2004-05-27 Data Flow / Alaska, Inc. System for uniquely identifying subjects from a target population
US7643671B2 (en) * 2003-03-24 2010-01-05 Animetrics Inc. Facial recognition system and method
EP1480104A3 (en) * 2003-05-22 2007-05-30 Ricoh Company, Ltd. Information processing apparatus entry information management method, certification function control method, a computer program and a computer readable storage medium
US7460692B2 (en) * 2004-09-10 2008-12-02 Kabushiki Kaisha Toshiba Image forming apparatus
JP2007116602A (ja) 2005-10-24 2007-05-10 Sharp Corp 電子機器
US20070162761A1 (en) * 2005-12-23 2007-07-12 Davis Bruce L Methods and Systems to Help Detect Identity Fraud
US7738124B2 (en) * 2006-02-01 2010-06-15 Kabushiki Kaisha Toshiba Image forming apparatus
US7787697B2 (en) * 2006-06-09 2010-08-31 Sony Ericsson Mobile Communications Ab Identification of an object in media and of related media objects
US8725567B2 (en) * 2006-06-29 2014-05-13 Microsoft Corporation Targeted advertising in brick-and-mortar establishments
US20080004951A1 (en) * 2006-06-29 2008-01-03 Microsoft Corporation Web-based targeted advertising in a brick-and-mortar retail establishment using online customer information
US8165352B1 (en) * 2007-08-06 2012-04-24 University Of South Florida Reconstruction of biometric image templates using match scores
JP5176447B2 (ja) * 2007-09-14 2013-04-03 株式会社リコー 画像形成装置、ジョブ制御方法、及び、情報記録媒体
US7961986B1 (en) * 2008-06-30 2011-06-14 Google Inc. Ranking of images and image labels
JP4710943B2 (ja) * 2008-09-19 2011-06-29 コニカミノルタビジネステクノロジーズ株式会社 会議用印刷システム及び同システムにおける印刷方法
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
US8194938B2 (en) * 2009-06-02 2012-06-05 George Mason Intellectual Properties, Inc. Face authentication using recognition-by-parts, boosting, and transduction
US8548206B2 (en) * 2011-01-20 2013-10-01 Daon Holdings Limited Methods and systems for capturing biometric data
US8457370B2 (en) * 2011-01-20 2013-06-04 Daon Holdings Limited Methods and systems for authenticating users with captured palm biometric data
US9082235B2 (en) * 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
KR101160681B1 (ko) * 2011-10-19 2012-06-28 배경덕 이동 통신 단말기의 활성화 시에 특정 동작이 수행되도록 하기 위한 방법, 이동 통신 단말기 및 컴퓨터 판독 가능 기록 매체
US8810825B2 (en) * 2012-02-27 2014-08-19 Ricoh Company, Ltd. Enhanced cloud print system, apparatus and method
US8855369B2 (en) * 2012-06-22 2014-10-07 Microsoft Corporation Self learning face recognition using depth based tracking for database generation and update
JP2014107695A (ja) * 2012-11-27 2014-06-09 Canon Inc ジョブ処理装置、ジョブ処理装置のジョブ処理方法、及びプログラム
US9134794B2 (en) * 2013-08-20 2015-09-15 Kabushiki Kaisha Toshiba System to identify user and device the user is intending to operate
US20160012465A1 (en) * 2014-02-08 2016-01-14 Jeffrey A. Sharp System and method for distributing, receiving, and using funds or credits and apparatus thereof
JP6409485B2 (ja) * 2014-10-14 2018-10-24 株式会社リコー 画像処理装置、情報処理システム、プログラム、情報処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216293A (ja) * 2007-02-28 2008-09-18 Canon Inc データ処理装置及びその制御方法、並びに制御プログラム及び記憶媒体
JP2009186588A (ja) * 2008-02-04 2009-08-20 Konica Minolta Business Technologies Inc 画像形成装置
JP2010016432A (ja) * 2008-07-01 2010-01-21 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2010020616A (ja) * 2008-07-11 2010-01-28 Fujifilm Corp コンテンツ表示装置、コンテンツ表示方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018103580A (ja) * 2016-12-28 2018-07-05 コニカミノルタ株式会社 画像形成装置およびプログラム
JP2020184706A (ja) * 2019-05-09 2020-11-12 コニカミノルタ株式会社 画像形成装置および画像形成装置の制御方法

Also Published As

Publication number Publication date
JP6112823B2 (ja) 2017-04-12
US20140123023A1 (en) 2014-05-01
US9760274B2 (en) 2017-09-12

Similar Documents

Publication Publication Date Title
JP6112823B2 (ja) 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム
JP6136859B2 (ja) 情報処理装置及びプログラム
US9086827B2 (en) Job processing apparatus, job processing method for job processing apparatus, and storage medium
JP2016212624A (ja) 認証装置および画像形成装置
JP2016018264A (ja) 画像形成装置、画像形成方法、及びプログラム
US11544366B2 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP2006344100A (ja) 認証装置、画像出力装置
US10484575B2 (en) Image forming apparatus and control method for the same
US20150281521A1 (en) Image display apparatus, image processing apparatus, and non-transitory computer-readable medium
JP6370052B2 (ja) 情報処理システム及び情報処理システムの制御方法
JP7384970B2 (ja) ユーザー認証装置、ユーザー認証方法および画像形成装置
US20180054534A1 (en) System and method for biometric-based device handedness accommodation
JP5213543B2 (ja) 情報処理装置、情報処理方法
US20220272229A1 (en) Image forming apparatus, method for controlling image forming apparatus, and storage medium storing computer program
JP2010026630A (ja) 画像検索装置および画像検索方法
JP6569386B2 (ja) 画像処理装置
JP2010010787A (ja) 画像処理装置、その制御方法、プログラムおよび記憶媒体
JP2019066971A (ja) 画像形成装置、画像形成装置の制御方法、及びプログラム
US10484574B2 (en) Printing apparatus performing process corresponding to user, control method therefor, and storage medium storing control program therefor
US10681237B2 (en) Information processing apparatus, information processing method, and recording medium
US11070694B2 (en) Image processing apparatus for controlling a scanner
JP2019168929A (ja) 情報処理装置、情報処理装置における認証方法、及びプログラム
US20190286388A1 (en) Information processing system and apparatus
JP2021029018A (ja) 画像形成装置、その制御方法、及びプログラム
JP2015035179A (ja) 画像処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170314

R151 Written notification of patent or utility model registration

Ref document number: 6112823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees