JP2020204643A - 画像形成装置、情報処理プログラムおよび情報処理方法 - Google Patents

画像形成装置、情報処理プログラムおよび情報処理方法 Download PDF

Info

Publication number
JP2020204643A
JP2020204643A JP2019110845A JP2019110845A JP2020204643A JP 2020204643 A JP2020204643 A JP 2020204643A JP 2019110845 A JP2019110845 A JP 2019110845A JP 2019110845 A JP2019110845 A JP 2019110845A JP 2020204643 A JP2020204643 A JP 2020204643A
Authority
JP
Japan
Prior art keywords
user
image forming
forming apparatus
language
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019110845A
Other languages
English (en)
Inventor
潔 高東
Kiyoshi Takato
潔 高東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2019110845A priority Critical patent/JP2020204643A/ja
Publication of JP2020204643A publication Critical patent/JP2020204643A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Facsimiles In General (AREA)

Abstract

【課題】ユーザの操作を必要とせずに、ユーザに応じた画面表示を行うことができる。【解決手段】画像形成装置10は、CPUを含み、CPUはユーザが画像形成装置の近くに存在すると判断した場合に、音声の検出を開始する。CPUは、検出した音声からユーザの使用言語を判定し、判定した使用言語が画面表示の表示言語と異なる場合に、表示言語をユーザの使用言語に変更する。したがって、ユーザの使用言語を用いて、ディスプレイ22の画面表示が行われる。【選択図】図1

Description

この発明は、画像形成装置、情報処理プログラムおよび情報処理方法に関し、特にたとえば、ユーザに応じた画面表示を行う画像形成装置、情報処理プログラムおよび情報処理方法を提供することである。
この種の背景技術の一例が特許文献1に開示される。この特許文献1に開示されるナビゲーションコントローラでは、予め設定された母国語で表示や音声出力が行われ、利用者が使用言語を選択する場合には、使用言語を選択するための言語選択画面が表示される。言語選択画面は、複数の言語が複数ページにわたって表示される。このとき、使用頻度が高い程、言語表示の順番が早くされる。
特許5654334号
上記の背景技術では、言語選択画面をディスプレイに表示して使用言語を切り替えるため、操作が面倒である。また、設定された母国語を理解できない場合には、言語選択画面を表示するための操作方法を知ることが難しい場合もある。
また、使用言語が異ならない場合であっても、ユーザが低年齢層または高年齢層に含まれる場合には、表示された文字を読めないこと、または、表示された内容を理解できたとしても、操作方法が分からないことがあり、改善の余地がある。
それゆえに、この発明の主たる目的は、新規な、画像形成装置、情報処理プログラムおよび情報処理方法を提供することである。
また、この発明の他の目的は、ユーザの操作を必要とせずに、ユーザに応じた画面表示を行うことができる、画像形成装置、情報処理プログラムおよび情報処理方法を提供することである。
第1の発明は、音声検出手段および表示手段を備える画像形成装置であって、音声検出手段によって検出された音声に基づいてユーザに関する情報である関連情報を取得する関連情報取得手段と、関連情報取得手段によって取得された関連情報に基づいて表示手段の画面表示を制御する制御手段を備える、画像形成装置である。
第2の発明は、第1の発明に従属し、関連情報は、ユーザの使用言語であり、使用言語が表示手段の表示言語と一致するかどうかを判断する判断手段をさらに備え、制御手段は、判断手段によって使用言語が表示言語と一致しないことを判断したとき、使用言語を表示言語として画面表示を行う。
第3の発明は、第2の発明に従属し、制御手段は、判断手段によって使用言語が表示言語と一致しないことを判断したとき、使用言語を表示言語に追加して、複数の表示言語を用いて画面表示を行う。
第4の発明は、第1の発明から第3の発明までのいずれかに従属し、音声検出手段によって検出された音声に基づいてユーザの使用言語を判定する言語判定手段をさらに備える。
第5の発明は、第1の発明から第3の発明までのいずれかに従属し、複数のユーザに対応して、複数のユーザの各々の声紋情報と複数のユーザの各々の使用言語の種類を記載した第1ユーザ情報を記憶する第1ユーザ情報記憶手段と、音声検出手段によって検出された音声に基づいてユーザの声紋情報を取得する声紋情報取得手段をさらに備え、関連情報取得手段は、第1ユーザ情報に基づいて、声紋情報取得手段によって取得された声紋情報に対応して記載された使用言語を関連情報として取得する。
第6の発明は、第5の発明に従属し、関連情報取得手段は、第1ユーザ情報に基づいて、声紋情報取得手段によって取得された声紋情報が第1ユーザ情報に含まれていない場合に、音声検出手段によって検出された音声に基づいてユーザの使用言語を判定する言語判定手段をさらに備える。
第7の発明は、第1の発明に従属し、複数のユーザに対応して、複数のユーザの各々の声紋情報と複数のユーザの各々の年齢を記載した第2ユーザ情報を記憶する第2ユーザ情報記憶手段と、第2ユーザ情報に基づいて、関連情報取得手段によって関連情報として取得されたユーザの年齢が第1閾値以上であるか、第1閾値よりも小さい第2閾値以下であるか、第1閾値と第2閾値の間であるかを判別する年齢判別手段をさらに備え、制御手段は、年齢判別手段の判別結果に応じて画面表示を行う。
第8の発明は、第7の発明に従属し、制御手段は、第2ユーザ情報に基づいて、関連情報取得手段によって関連情報として取得されたユーザの年齢が前記第1閾値以上または前記第2閾値以下である場合に、画面表示される文字のサイズを大きくするように画面表示を行う。
第9の発明は、第7の発明または第8の発明に従属し、制御手段は、第2ユーザ情報に基づいて、関連情報取得手段によって関連情報として取得されたユーザの年齢が前記第1閾値以上または前記第2閾値以下である場合に、アイコンの機能または/および操作方法の説明を追加的に記載するように画面表示を行う。
第10の発明は、第9の発明に従属し、第2ユーザ情報は前記複数のユーザの各々の方言の情報を含み、制御手段は、前記アイコンの機能または/および操作方法の説明を追加的に記載するとき、前記ユーザの方言を用いて前記画面表示を行う。
第11の発明は、第7の発明に従属し、制御手段は、第2ユーザ情報に基づいて、関連情報取得手段によって関連情報として取得されたユーザの年齢が第1閾値以上または第1閾値よりも小さい第2閾値以下である場合に、漢字または/および片仮名に振り仮名を振って画面表示を行う。
第12の発明は、第1の発明に従属し、音声検出手段によって検出された音声に基づいて前記ユーザの声紋情報を取得する声紋情報取得手段、声紋情報取得手段によって取得された前記ユーザの声紋情報に基づいて当該ユーザの年齢層を推定する推定手段、および推定手段によって推定された前記ユーザの年齢層が第1閾値以上であるか、当該第1閾値よりも小さい第2閾値以下であるか、当該第1閾値と当該第2閾値の間であるかを判別する年齢層判別手段をさらに備え、制御手段は、年齢層判別手段の判別結果に応じて前記画面表示を行う。
第13の発明は、第12の発明に従属し、制御手段は、前記推定手段によって推定された前記ユーザの年齢層が前記第1閾値以上または前記第2閾値以下である場合に、前記画面表示される文字のサイズを大きくするように前記画面表示を行う。
第14の発明は、第12の発明または第13の発明に従属し、制御手段は、推定手段によって推定された前記ユーザの年齢層が前記第1閾値以上または前記第2閾値以下である場合に、アイコンの機能または/および操作方法の説明を追加的に記載するように前記画面表示を行う。
第15の発明は、第14の発明に従属し、関連情報は、ユーザの方言の情報であり、制御手段は、前記アイコンの機能または/および操作方法の説明を追加的に記載するとき、前記ユーザの方言を用いて前記画面表示を行う。
第16の発明は、第12の発明に従属し、制御手段は、前記推定手段によって推定された前記ユーザの年齢層が前記第1閾値以上または前記第2閾値以下である場合に、漢字および片仮名に振り仮名を振って前記画面表示を行う。
第17の発明は、第1の発明から第16の発明までのいずれかに従属し、複数のユーザに対応して、当該複数のユーザの各々の声紋情報と当該複数のユーザの各々の色覚多様性の有無を記載した第3ユーザ情報を記憶する第3ユーザ情報記憶手段をさらに備え、制御手段は、前記第3ユーザ情報に基づいて、前記関連情報取得手段によって前記関連情報として前記ユーザが色覚多様性を有することを取得した場合に、明度差または/および色度差を大きくして前記画面表示を行う。
第18の発明は、第1の発明から第17の発明までのいずれかに従属し、ユーザが前記画像形成装置を使用することについての初心者であるかどうかを判断する第2判断手段をさらに備え、制御手段は、前記第2判断手段によって前記ユーザが前記画像形成装置を使用することについての初心者であることが判断された場合に、アイコンの機能または/および操作方法の説明を追加的に記載するように前記画面表示を行う。
第19の発明は、音声検出手段および表示手段を備える画像形成装置によって実行される情報処理プログラムであって、画像形成装置のプロセッサに、音声検出手段によって検出された音声に基づいてユーザに関する情報である関連情報を取得する関連情報取得ステップと、関連情報取得ステップにおいて取得した関連情報に基づいて表示手段の画面表示を制御する制御ステップを実行させる、情報処理プログラムである。
第20の発明は、音声検出手段および表示手段を備える画像形成装置の情報処理方法であって、(a)音声検出手段によって検出された音声に基づいてユーザに関する情報である関連情報を取得するステップと、(b)ステップ(a)において取得した関連情報に基づいて表示手段の画面表示を制御するステップを含む、情報処理方法である。
この発明によれば、ユーザの操作を必要とせずに、ユーザに応じた画面表示を行うことができる。このため、ユーザの操作性を向上させることができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例である画像形成装置の外観構成を示す斜視図である。 図2は画像形成装置の電気的な構成を示すブロック図である。 図3は画像形成装置のディスプレイに表示されるホーム画面の一例を示す図である。 図4は画像形成装置のディスプレイに表示されるホーム画面の他の例を示す図である。 図5は図2に示す画像形成装置のRAMのメモリマップの一例を示す図である。 図6は画像形成装置のCPUの制御処理の一例の一部を示すフロー図である。 図7は画像形成装置のCPUの制御処理の一例の他の一部であって、図6に後続するフロー図である。 図8は第2実施例の画像形成装置に記憶されるユーザ情報テーブルの一例を示す図である。 図9は第2実施例の画像形成装置のRAMのメモリマップの一例を示す図である。 図10は第2実施例の画像形成装置のCPUの制御処理の一例の一部を示すフロー図である。 図11は第3実施例の画像形成装置のディスプレイに表示されるホーム画面の一例を示す図である。 図12は第3実施例の画像形成装置のCPUの制御処理の一例の一部を示すフロー図である。 図13は第3実施例の画像形成装置のディスプレイに表示されるホーム画面の他の例を示す図である。 図14は第3実施例の画像形成装置のCPUの制御処理の他の例の一部を示すフロー図である。 図15は第4実施例のユーザ情報テーブルの一例を示す図である。 図16は第4実施例の画像形成装置のディスプレイに表示されるホーム画面の一例を示す図である。 図17は第4実施例の画像形成装置のディスプレイに表示されるホーム画面の他の例を示す図である。 図18は第4実施例の画像形成装置のCPUの制御処理の一例の一部を示すフロー図である。 図19は第4実施例の画像形成装置のCPUの制御処理の一例の他の一部であって、図18に後続するフロー図である。 図20は第4実施例の画像形成装置のディスプレイに表示されるホーム画面のその他の例を示す図である。 図21は第5実施例のユーザ情報テーブルの一例を示す図である。 図22は第5実施例の画像形成装置のCPUの制御処理の一例の一部を示すフロー図である。 図23は第6実施例の画像形成装置のCPUの併記判断処理の一例を示すフロー図である。
[第1実施例]
図1は、この発明の一実施例である画像形成装置10の外観構成を示す斜視図である。また、第1実施例では、画像形成装置10は、複写機能(コピー機能)、プリンタ機能、スキャナ機能およびファクス機能などを有する複合機(MFP:Multifunction Peripheral)である。
この明細書では、ユーザの立ち位置に対向する面、つまり後述する操作パネル26が設けられる側の面を前面(正面)として画像形成装置10およびその構成部材の前後方向(奥行方向)を規定し、画像形成装置10およびその構成部材の左右方向(横方向)は、そのユーザから画像形成装置10を見た状態を基準として規定する。
画像形成装置10は、画像読取部30、画像形成部32、手差し原稿給紙部34、給紙装置38および排紙トレイ40を含む装置本体36を備える。
画像読取部30は、透明材によって形成される原稿載置台を備え、装置本体36に内蔵される。原稿載置台の上方には、ヒンジ等を介して原稿押えカバー30aが開閉自在に取り付けられる。この原稿押えカバー30aには、手差し原稿給紙部34が設けられる。また、原稿押えカバー30aには、手差し原稿給紙部34に載置された原稿を自動的に給紙する自動原稿送り装置(ADF:Auto Document Feeder)が設けられる。
また、画像読取部30は、光源、複数のミラー、結像レンズおよびラインセンサ等を備える。この画像読取部30は、原稿表面を光源によって露光し、原稿表面から反射した反射光を複数のミラーによって結像レンズに導く。そして、結像レンズによって反射光をラインセンサの受光素子に結像させる。ラインセンサでは、受光素子に結像した反射光の輝度または色度が検出され、原稿表面の画像に基づく読取画像データが生成される。ラインセンサとしては、CCD(Charge Coupled Device)またはCIS(Contact Image Sensor)等が用いられる。
画像形成部32は、装置本体36に内蔵され、画像読取部30の下方に設けられる。この画像形成部32は、感光体ドラム、帯電装置、露光装置、現像装置、転写装置および定着装置などを備える。画像形成部32は、給紙装置38等から搬送される記録媒体(用紙)上に電子写真方式によって画像を形成し、画像形成済みの用紙を排紙トレイ40に排出する。ただし、用紙上に画像を形成するための出力画像データとしては、画像読取部30で読み取った読取画像データ、または外部コンピュータから送信された画像データ等が利用される。また、記録媒体としては、紙からなる用紙に限定されず、OHPフィルムなどの紙以外のシートも用いられる。
詳細な説明は省略するが、画像形成装置10は、カラーのプリント機能を備えており、画像形成部32は、Y(イエロー)、M(マゼンタ)、C(シアン)、K(ブラック)の各色について、4つの感光体ドラムと、4つの帯電装置と、4つの現像装置と、4つの中間転写ローラと、4つのクリーニング装置などを備える。また、色毎に、感光体ドラムと、帯電装置と、現像装置と、転写ローラと、クリーニング装置を含む画像形成ステーションが構成される。画像形成装置10は、タンデム式の画像形成装置であって、画像形成部32において、色毎の画像形成ステーションが一列に並んで配置される。
排紙トレイ40は、画像読取部30および画像形成部32の間に設けられる。排紙トレイ40の底面は、画像形成部32によって区画される。また、排紙トレイ40の天面は、画像読取部30によって区画される。さらに、排紙トレイ40の左側面(正面から見た左側面)は、連結筐体42の右側面で規定される。つまり、排紙トレイ40の前面側、背面側および左側面側は、開口する。排紙トレイ40の底面は、連結筐体42側に向かって下り勾配となる傾斜面を有する。
また、画像読取部30の前面側には、操作パネル26、音声入力部44および人感センサ46が設けられる。また、操作パネル26は、タッチパネル20付きのディスプレイ22、複数の操作ボタン26a、映像入力部48およびNFCリーダ50を含む。
音声入力部44は、マイク、A/Dコンバータおよび信号増幅部から構成される。マイクを通して入力される音声は、A/D変換された後に、音声信号が増幅され、入力された音声に対応する音声のデータ(後述する「音声データ404c」)が生成される。生成されたデータは、CPU12に入力され、RAM14に一時記憶される。また、マイクには、例えば、コンデンサマイクおよびダイナミックマイクなどの汎用のマイクが用いられる。
図1では、参照符号の「44」は、マイクに音声を入力するための孔を指示し、一例として、マイクを含む音声入力部44はその孔に対応する画像形成装置10の筐体内に設けられる。
人感センサ46は、画像形成装置10の前面側に人が存在するかどうかを判断するためのセンサである。この人感センサ46としては、焦電センサ(赤外線センサ)、光学式測距センサまたは超音波センサ等が用いられる。人感センサ46で検出可能な距離(最大距離)よりも短い所定距離(たとえば、3〜5m)を半径とする画像形成装置10の前方の半円の部分が検出領域として設定され、人感センサ46の検出結果に基づいて検出領域内の人または物が検出される。
図1では分かり難いが、人感センサ46の検知部が画像形成装置10の筐体から露出し、それ以外のコンポーネントが画像形成装置10の筐体内に配置されるように、人感センサ46は画像形成装置10の筐体に設けられる。
タッチパネル20付きのディスプレイ22には、各種設定または印刷指示などをユーザから受け付けるためのソフトウェアキーおよびメッセージ等が表示される。一例として、ディスプレイ22には、画像形成装置10が実行可能な各種の機能(またはジョブ)から所望の機能を選択するための画面であるホーム画面および各機能の動作条件を設定するための設定画面などの操作画面が表示される。ただし、この第1実施例では、機能は、コピー(原稿のスキャンを含む)機能、プリンタ機能およびファクス機能などを意味する。
操作ボタン26aは、ハードウェアキーであって、たとえば、ホームキー、電力キーおよび主電源キー、などが含まれる。ホームキーは、ホーム画面をディスプレイ22に表示させるためのキーである。ただし、ホーム画面は、ジョブを選択するための画面である。電力キーは、消費電力が制限される省電力状態(以下、「省電力モード」という)と、消費電力が制限されない通常状態(以下、「通常モード」という)とを切り替えるためのキーである。
ソフトウェアキーとは、たとえばタッチパネル20付きのディスプレイ22の表示面にソフトウェア的に再現されたキーまたはアイコンのことを言う。これに対して、ハードウェアキーとは、物理的な装置として設けられたキーまたは押しボタンのことを言う。
映像入力部48は、レンズ、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサ、A/Dコンバータ、信号処理部から構成される。レンズを通して入った光は、イメージセンサにより電気信号に変換された後に、A/D変換され、撮像された映像(静止画または動画)に対応する映像データが生成される。生成されたデータは、CPU12に入力され、RAM14に一時記憶される。
図1では分かり難いが、映像入力部48のレンズが画像形成装置10の筐体から露出し、それ以外のコンポーネントが画像形成装置10の筐体内に配置されるように、映像入力部48は画像形成装置10の筐体に設けられる。ただし、映像入力部48の配置位置は一例であり、画像形成装置10に一定距離以上近づいたユーザの顔を撮影可能な向きおよび位置であれば、他の位置に配置されてもよい。
NFCリーダ50は、制御部、記憶部およびアンテナから構成され、NFC方式によるデータの送受信が可能である。NFCリーダは、ISO/IEC18092やISO/IEC14443等の標準規格に準拠した方式に基づき、データの送受信を行う。
図2は図1に示す画像形成装置10の電気的な構成を示すブロック図である。図2を参照して、画像形成装置10はCPU12を含む。CPU12は、バス60を介してRAM14、タッチパネル制御回路16、表示制御回路18、操作ボタン検出回路24、画像読取部30、画像形成部32、音声入力部44、人感センサ46、映像入力部48、NFCリーダ50および有線通信部52に接続される。また、タッチパネル制御回路16はタッチパネル20に接続され、表示制御回路18はディスプレイ22に接続され、操作ボタン検出回路24は操作ボタン26aに接続される。
以下、図2に示す各コンポーネントについて説明するが、図1を用いて説明したコンポーネントについての説明は省略する。
CPU12は、画像形成装置10の全体的な制御を司る。RAM14は、CPU12のワーク領域およびバッファ領域として用いられる。
タッチパネル制御回路16は、タッチパネル20に必要な電圧などを付与するとともに、タッチパネル20のタッチ有効範囲内でのタッチ操作またはタッチ入力を検出して、そのタッチ入力の位置を示すタッチ座標データをCPU12に出力する。
表示制御回路18は、GPUおよびVRAMなどを含んでおり、CPU12の指示の下、GPUは、RAM14に記憶された画像生成データ404b(図5参照)を用いてディスプレイ22に種々の画面を表示するための表示画像データをVRAMに生成し、生成した表示画像データをディスプレイ22に出力する。ディスプレイ22としては、たとえばLCDまたはEL(Electro-Luminescence)ディスプレイなどを用いることができる。
タッチパネル20は、汎用のタッチパネルであり、静電容量方式、電磁誘導方式、抵抗膜方式、赤外線方式など、任意の方式のものを用いることができる。この第1実施例では、タッチパネル20としては、静電容量方式のタッチパネルが用いられ、ディスプレイ22の表示面上にタッチパネル20が設けられる。ただし、タッチパネル20とディスプレイ22とが一体的に形成されたタッチパネルディスプレイが用いられてもよい。
操作ボタン検出回路24は、上述した操作ボタン26aの操作に応じた操作信号ないし操作データをCPU12に出力する。
有線通信部52は、LANなどのネットワークに接続するための有線通信回路を含み、ネットワーク上のコンピュータおよび通信端末と通信を行うためのインターフェイスである。一例として、有線通信部52は、Ethernet(登録商標)の通信規格に準拠した有線通信方式に基づき、データの送受信を行う。
図2に示す画像形成装置10の電気的な構成は、単なる一例であり、これに限定される必要はない。たとえば、有線通信部52に代えて無線通信部が設けられてもよい。
このような画像形成装置10では、通常、設定された言語(以下、「表示言語」という)で各種の画面表示が行われる。ただし、表示言語には、画像形成装置10の設置者または管理者等のユーザによって予め設定(以下、「デフォルト設定」という)された言語(以下、「設定言語」という)が用いられる。このため、母国語が異なる様々なユーザが使用する環境に画像形成装置10が設置される場合には、設定言語とは異なる言語を使用するユーザが画像形成装置10を使用するときに、表示言語を理解できない場合がある。
このため、ユーザが使用する言語(以下、「使用言語」という)が表示言語と異なる場合には、使用言語で各種の画面表示を行うように、表示言語を変更することが考えられる。この場合、表示言語を変更するための画面(以下、「言語変更画面」という)を表示し、この言語変更画面を操作して表示言語を変更するのが一般的である。
しかし、ユーザによっては、表示言語を理解できないために、言語変更画面を表示するための操作すら困難な場合がある。
そこで、この第1実施例では、ユーザの選択操作を必要とせずに、ユーザの使用言語を用いて画面表示を行うようにしてある。つまり、ユーザに応じた画面表示が行われる。
この第1実施例では、画像形成装置10は、音声認識機能を用いた言語判定機能を有しており、言語判定機能についての処理(以下、「言語判定処理」という)を実行することにより、ユーザの使用言語を判定し、判定した使用言語(以下、「判定言語」という)が表示言語と異なる場合に、表示言語を判定言語に自動で変更するようにしてある。
音声認識機能については既に周知であるため、説明は省略する。また、言語判定処理としては、特許第5119055号に記載された処理を採用することができる。言語判定処理については、特許第5119055号に開示されるため、その詳細な説明は省略する。
簡単に説明すると、特許第5119055号に開示される言語判定処理では、認識単語定義辞書を用いて、入力音声の単語に最も合致する音響モデル列を、言語モデルの拘束下で探し出し、最も入力音声に近いと推定される単語が判定される。単語が判定されると、単語と言語を対応付けて定義された言語判別辞書を参照して、判定された単語に対応する言語が使用言語として判定される。
認識単語定義辞書および言語判別辞書は、予め決定された複数の言語(たとえば、日本語、英語、韓国語など)について用意されており、認識単語定義辞書に登録されていない単語については言語を判定することができないため、この場合には、設定言語を使用して画面表示等が行われる。
ただし、言語判定処理は、特許第5119055号に開示された技術に限定される必要は無く、他の公知の手法で言語を判定することも可能である。たとえば、特許第5672487号に開示される手法または特許第320544号に開示される技術を採用することもできる。
この第1実施例では、所定の条件(開始条件)が満たされるときに、音声の検出処理が開始され、検出した音声に基づいて言語判定処理が実行され、表示言語と判定言語が異なる場合に、表示言語が、判定言語に変更される。第1実施例では、音声の検出処理、言語判定処理および表示言語の変更処理は、所定の周期(たとえば、2秒)で繰り返し実行され、所定の条件(終了条件)を満たされるときに、音声の検出処理等は終了される。このとき、設定言語を使用した画面表示に戻される。
この第1実施例では、所定の開始条件は、画像形成装置10の周辺のユーザを認識したことであり、所定の終了条件は、ユーザが画像形成装置10の使用を終えたと判断したことである。
具体的に、画像形成装置10の周辺のユーザを認識したかどうかは、人感センサ46の検出範囲内でユーザが検出されたこと、映像入力部48から入力される映像からユーザの顔が検出されたこと、IDカードによる個人認証を実行してログインされたこと、所定のボタンが操作されるなどの画像形成装置10の使用が開始されたことなどによって判断される。
たとえば、画像形成装置10の使用が開始されたことは、省電力モードから通常モードに復帰するためのボタンが操作されたこと、タッチパネル20へのタッチ操作が行われたこと、原稿押えカバー30aが開かれたこと、手差し原稿給紙部34に原稿がセット(載置)されたこと、画像形成装置10がコインディスペンサなどの課金装置と連携される場合には、お金が投入されたことなどで判断される。
また、この実施例では、ユーザが直接的に音声の検出処理の開始を指示することによって、開始条件が満たされる場合もある。具体的には、音声の検出処理の開始が指示されたかどうかは、音声の検出処理を開始するためのアイコンまたはボタン等が操作されたことによって判断される。
これらの動作または操作を検出する方法は、既に周知であるため、個別の具体的な説明は省略する。このことは、後述する画像形成装置10の使用を終えたことを検出する方法についても同様である。
一方、ユーザが画像形成装置10の使用を終えたことは、人感センサ46の検出範囲内でユーザが検出されなくなったこと、映像入力部48から入力される映像からユーザの顔が検出されなくなったこと、ユーザによってログアウトされたこと、省電力モードに移行するための操作が検出されたこと、ジョブが終了されたこと、原稿または印刷物を取り除かれたこと、課金装置での精算が終了されたことなどで判断される。
また、開始条件と同様に、ユーザが直接的に音声の検出処理の終了を指示することによって、終了条件が満たされる場合もある。音声の検出処理の終了が指示されたかどうかは、音声の検出処理を終了するためのアイコンまたはボタン等が操作されたことによって判断される。
図3は、画像形成装置10のディスプレイ22に表示されるホーム画面100の一例を示す図である。ホーム画面100は、画像形成装置10の主電源がオンされたとき、または、画像形成装置10が省電力モードから通常モードに移行されたときに、ディスプレイ22に表示される。
ホーム画面100は、画像形成装置10のメインメニューを表示する画面であり、図3に示す例では、日本語を用いて表示される。ホーム画面100などの各種の画面を表示する場合のテキストデータは言語別にRAM14に記憶される。ただし、テキストデータは、必要に応じて、画像形成装置10に内蔵される不揮発性メモリ(図示しないHDDなど)から取得され、または、ネットワークから取得される。
ホーム画面100には、複数のアイコン102、開始アイコン104および終了アイコン106が設けられる。
複数のアイコン102は、コピー機能、ファクス機能またはスキャン機能を選択(または実行)するために設けられる。つまり、アイコン102の各々には、所定の機能が割り当てられており、図3に示すホーム画面100では、割り当てられた機能についての名称が、日本語(片仮名)で、コピー、ファクスおよびスキャンの文字が表示される。アイコン102は、タッチされると、アイコン102に割り当てられた機能を実行するための画面がディスプレイ22に表示される。
コピー機能、ファクス機能およびスキャン機能を各操作画面に従って実行等することは既に周知であり、また、本願発明の本質的な内容ではないため、各機能についての説明は省略する。
開始アイコン104は、音声の検出処理を開始するために設けられる。一例として、開始アイコン104には、マイクを模した図柄が描画される。開始アイコン104がタッチされると、音声の検出処理が開始される。
終了アイコン106は、音声の検出処理を終了するために設けられる。一例として、終了アイコン106には、マイクを模した図柄が描画され、このマイクの図柄に×印が付加される。終了アイコン106がタッチされると、音声の検出処理が終了される。
図4は、ディスプレイ22に表示されるホーム画面100の他の例を示す図である。図4に示す例では、ホーム画面100は、英語を用いて表示される。具体的には、アイコン102の各々には、日本語のコピー、ファクスおよびスキャンの文字に対応して、英語のcopy、fax、scanの文字が表示される。
たとえば、設定言語が日本語である場合には、画像形成装置10の主電源がオンされたとき、または、画像形成装置10が省電力モードから通常モードに移行されたときに、図3に示すホーム画面100がディスプレイ22に表示される。
この場合、画像形成装置10の周辺のユーザが認識され、言語判定処理によって、ユーザの使用言語が英語であることが判定されると、図4に示されるホーム画面100に切り替えられる。
また、設定言語が英語である場合には、画像形成装置10の主電源がオンされたとき、または、画像形成装置10が省電力モードから通常モードに移行されたときに、図4に示すホーム画面100がディスプレイ22に表示される。
この場合、画像形成装置10の周辺のユーザが認識され、言語判定処理によって、ユーザの使用言語が日本語であることが判定されると、図3に示すホーム画面100に切り替えられる。
図示等は省略するが、他の画面表示についても同様である。また、他の言語についても同様の切り替えが行われる。
図5は、図2に示したRAM14のメモリマップ400の一例を示す図である。図5に示すように、RAM14は、プログラム記憶領域402およびデータ記憶領域404を含む。RAM14のプログラム記憶領域402には、情報処理プログラムの一例である画像形成装置10を制御するための制御プログラムが記憶される。制御プログラムは、メイン制御プログラム402a、通信プログラム402b、操作検出プログラム402c、画像生成プログラム402d、画像表示プログラム402eおよび言語判定プログラム402fを含む。
メイン制御プログラム402aは、画像形成装置10の全体的な処理を実行するためのプログラムである。
通信プログラム402bは、有線通信部52を制御して、ネットワーク上のコンピュータ(PCまたはサーバなど)とデータの送受信を行うためのプログラムである。
操作検出プログラム402cは、画像形成装置10の各操作入力部への操作を検出するためのプログラムである。操作検出プログラム402cが実行されることにより、たとえば、タッチパネル20から出力されたタッチ座標データが取得され、取得されたタッチ座標データが操作検出データ404aとしてデータ記憶領域404に記憶される。また、操作ボタン26aからの操作入力に対応する操作ボタンデータが取得され、取得された操作ボタンデータが操作検出データ404aとしてデータ記憶領域404に記憶される。
画像生成プログラム402dは、GPUを制御して、後述する画像生成データ404bを用いて、ホーム画面100などの各種の画面に対応する表示画像データを生成するためのプログラムである。また、画像表示プログラム402eは、画像生成プログラム402dに従って生成された表示画像データをディスプレイ22に出力するためのプログラムである。
言語判定プログラム402fは、音声データ404cから、言語を判定するためのプログラムである。ただし、言語を判定できない場合には、後述する設定言語データ404dが示す設定言語が判定される。
図示は省略するが、プログラム記憶領域402には、画像形成装置10が備える各種の機能を実行するための他のプログラムも記憶される。
また、RAM14のデータ記憶領域404には、操作検出データ404a、画像生成データ404b、音声データ404c、設定言語データ404d、判定言語データ404e、表示言語データ404fおよびタイマ404gが記憶される。
操作検出データ404aは、操作検出プログラム402cに従って検出(取得)したタッチ座標データまたは/および操作ボタンデータであり、時系列に従ってデータ記憶領域404に記憶される。
画像生成データ404bは、表示画像データを生成するためのポリゴンデータまたはテクスチャデータ等のデータである。また、画像生成データ404bには、アイコン102などのソフトウェアキーの画像データ等も含まれる。
音声データ404cは、音声入力部44に入力される音声に対応するデータである。判定言語データ404eは、判定された言語を識別するためのデータである。設定言語データ404dは、設定言語を識別するためのデータである。表示言語データ404fは、画面表示に使用する言語(設定言語または判定言語)を識別するためのデータである。
タイマ404gは、音声を検出する時間間隔(第1実施例では、2秒)を計測するためのタイマである。
図示は省略するが、データ記憶領域404には、画面表示に使用するための各言語についてのテキストデータなど、制御プログラムの実行に必要な他のデータ、制御プログラムの実行に必要な他のタイマ(カウンタ)およびフラグなども記憶される。
図6および図7は、画像形成装置10のCPU12の画面表示についての制御処理の一例を示すフロー図である。図示は省略するが、この制御処理は、画像形成装置10のメインルーチンと平行して実行され、メインルーチンにおいて、ディスプレイ22に表示される画面に対応する表示画像データの生成および出力(画面表示)の処理が実行される。
画像形成装置10は、電源がオンされ、または、画像形成装置10が省電力モードから通常モードに復帰されたときに、ステップS1で、初期設定を行う。ここでは、設定言語が表示言語として設定される。つまり、CPU12は、設定言語データ404dを表示言語データ404fにコピーする。このとき、メインルーチンの処理によって、図3または図4に示したようなホーム画面100がディスプレイ22に表示される。
次のステップS3では、画像形成装置10の周辺のユーザを認識したかどうかを判断する。画像形成装置10の周辺のユーザを認識する方法は上述したとおりである。
ステップS3で“YES”であれば、つまり、画像形成装置10の周辺のユーザを認識すれば、ステップS7に進む。一方、ステップS3で“NO”であれば、つまり、画像形成装置10の周辺のユーザを認識しなければ、ステップS5で、開始の指示が有るかどうかを判断する。ここでは、CPU12は、開始アイコン104がタッチされたかどうかを判断する。
ステップS5で“NO”であれば、つまり、開始の指示が無ければ、ステップS1に戻る。一方、ステップS5で“YES”であれば、つまり、開始の指示が有れば、ステップS7に進む。
ステップS7では、音声の検出を開始する。このステップS7では、CPU12は、音声入力部44のマイクをオンする、または、音声入力部44からの音声データ404cの記録を開始する。CPU12は、音声の検出を開始すると、音声入力部44からの音声データ404cをデータ記憶領域404に記憶する処理を、制御処理と並行して実行する。
続いて、ステップS9で、言語判定処理を実行する。音声データ404cは、音声の検出を開始してから継続して記憶されるため、言語判定処理が実行される場合には、言語判定処理が実行される時点までの過去数秒分または過去数十秒分の音声データ404cが使用される。以下、言語判定処理が実行される場合において同様である。
次のステップS11では、該当する言語が有るかどうかを判断する。ステップS11で“NO”であれば、つまり、該当する言語が無ければ、ステップS13で、設定言語データ404dが示す設定言語を表示言語として使用することを決定して、図7のステップS19に進む。
詳細な説明は省略するが、CPU12は、言語判定処理において、音声認識を正しく実行できない場合にも、ステップS11で“NO”と判断し、ステップS13に進む。
一方、ステップS11で“YES”であれば、つまり、該当する言語が有れば、ステップS15で、判定言語と表示言語が異なるかどうかを判断する。このステップS15では、CPU12は、判定言語データ404eが示す判定言語と、表示言語が異なるかどうかを判断する。
ステップS15で“NO”であれば、つまり、判定言語と表示言語が一致するのであれば、ステップS19に進む。つまり、表示言語が維持される。一方、ステップS15で“YES”であれば、つまり、判定言語と表示言語が異なるのであれば、ステップS17で、判定言語を表示言語として使用することを決定して、ステップS19に進む。図示は省略するが、ステップS13およびステップS17の処理が実行されると、それ以降では、ディスプレイ22に画面を表示するときに、表示言語が使用される。
図7に示すように、ステップS19では、画像形成装置10の使用を終了したかどうかを判断する。この判断方法は、上述したとおりである。ステップS19で“YES”であれば、つまり、画像形成装置10の使用が終了したと判断すれば、ステップS21で、音声の検出を終了し、図6に示したステップS1に戻る。ステップS21では、CPU12は、音声入力部44のマイクをオフする、または、音声入力部44からの音声データ404cの記録を終了する。つまり、CPU12は、制御処理と並行して実行している、音声入力部44からの音声データ404cをデータ記憶領域404に記憶する処理を終了する。
一方、ステップS19で“NO”であれば、つまり、画像形成装置10の使用が終了していないと判断すれば、ステップS23で、終了の指示が有るかどうかを判断する。ここでは、CPU12は、終了アイコン106がタッチされたかどうかを判断する。ステップS23で“NO”であれば、つまり、終了の指示が無ければ、ステップS25に進む。一方、ステップS23で“YES”であれば、つまり、終了の指示が有れば、ステップS21に進む。
ステップS25では、タイマ404gをリセットおよびスタートし、ステップS27で、所定時間(この第1実施例では、2秒)を経過したかどうかを判断する。
ステップS27で“NO”であれば、つまり、所定時間を経過していなければ、同じステップS27に戻る。一方、ステップS27で“YES”であれば、つまり、所定時間を経過していれば、図6に示したステップS9に戻る。
この第1実施例によれば、音声認識機能を用いてユーザの使用言語を判定することにより、ユーザに関する情報(「関連情報」に相当する)としてユーザの使用言語を取得するので、ユーザの操作を必要とせずに、ユーザの使用言語に応じた画面表示を行うことができる。つまり、ユーザの操作性を向上させることができる。
上述した第1実施例では、画像形成装置10の使用が終了されるまでは、表示言語と異なる使用言語が判定される度に、表示言語が変更されるが、画像形成装置10の使用中にユーザが入れ替わることは少ないため、使用言語が一回判定され、表示言語が維持または変更された場合には、画像形成装置10の使用が終了されるまで、表示言語が更新されないようにしてもよい。
また、第1実施例では、ユーザが画像形成装置10に近づいたことが検出された場合に、音声の検出処理が開始され、言語判定処理が実行されるようにしたが、これに限定される必要はない。他の例では、制御処理が開始されたときにマイクがオンされ、マイクによって検出される音声の音量が第1所定値よりも大きくなったときに、ユーザが画像形成装置10に近づいたことが検出され、言語判定処理が実行されるようにしてもよい。
さらに、第1実施例では、所定の終了条件が満たされる場合に、音声の検出処理が終了されるようにしたが、これに限定される必要はない。検出される音声の音量が第2所定値よりも小さくなった場合に、音声の検出処理が終了されてもよい。第2所定値は、第1所定値と同じ値でも異なる値でもよい。
[第2実施例]
第2実施例における画像形成装置10は、検出した音声から声紋情報を取得し、取得した声紋情報に基づいてユーザを特定し、特定したユーザの使用言語を表示言語として設定できるようにした以外は第1実施例と同じであるため、異なる内容について説明し、重複した説明については省略する、または、簡単に説明する。
第2実施例では、ユーザの識別情報に対応して、ユーザの声紋情報(以下、「登録声紋情報」という)およびユーザの使用言語を予め登録しておき、音声入力部44に入力された音声から声紋情報を取得し、取得した声紋情報と登録声紋情報とを照合して、一致した場合に、対応する使用言語が、現在の表示言語と異なる場合に、表示言語として設定される。ただし、一致しない場合には、第1実施例で示したように、言語判定処理が実行され、判定言語が、現在の表示言語と異なる場合に、表示言語として設定される。
具体的には、図8に示すようなユーザ情報についてのテーブル(以下、「ユーザ情報テーブル」という)120が予め登録されている。このユーザ情報テーブル120のデータ(後述する「ユーザ情報データ404h」)は、RAM14に記憶される。ただし、ユーザ情報データ404hは、必要に応じて、画像形成装置10に内蔵される不揮発性メモリ(図示しないHDDなど)から取得され、または、ネットワークから取得される。
図8に示すように、ユーザ情報テーブル120は、ユーザIDに対応して、声紋IDおよび言語情報が記載される。ユーザIDは、ユーザを識別するための識別情報であり、図8に示す例では、3桁の数字が割り当てられる。ただし、これは一例であり、ユーザIDは、他の記号または/および桁数で表現されてもよい。
声紋IDは、声紋情報を識別するための識別情報であり、図8に示す例では、3つのアルファベットが割り当てられる。ただし、これは一例であり、声紋IDは、他の記号または/および個数(桁数)で表示されてもよい。各声紋IDに対応して予め登録された声紋情報(登録声情報)は、RAM14に記憶される。ただし、登録声紋情報は、必要に応じて、画像形成装置10に内蔵される不揮発性メモリ(図示しないHDDなど)から取得され、または、ネットワークから取得される。
言語情報は、ユーザIDが示すユーザの使用言語の種類である。図8に示す例では、ユーザIDが“111”のユーザの使用言語である“ドイツ語”が言語情報の欄に記載される。他のユーザについても同様である。ただし、実際には、言語情報の欄には、言語を識別するための識別情報が記載される。
図9に示す第2実施例のメモリマップ400は、図5に示したメモリマップ400と同様のメモリマップであり、新たに、声紋検出プログラム402g、ユーザ情報データ404hおよび登録声紋情報データ404iがさらに記憶される。
声紋検出プログラム402gは、音声入力部44に入力された音声から声紋情報を取得し、取得した声紋情報と一致する登録声紋情報が有るかどうかを検出するためのプログラムである。
ユーザ情報データ404hは、ユーザ情報テーブル120についてのデータである。登録声紋情報データ404iは、登録声紋情報についてのデータである。ただし、各登録声紋情報には、ユーザ情報テーブル120で示される声紋IDが付加されている。
第2実施例における画像形成装置10のCPU12の具体的な制御処理は、図6および図7に示した制御処理において、図10に示す処理が追加される。図6に示したように、ステップS7で音声の検出を開始すると、図10に示すように、ステップS41で、声紋情報を取得する。
次のステップS43では、取得した声紋情報と一致する登録声紋情報が有るかどうかを判断する。ステップS43で“NO”であれば、つまり、取得した声紋情報と一致する登録声紋情報が無ければ、図6に示したステップS9に進む。
一方、ステップS43で“YES”であれば、つまり、取得した声紋情報と一致する登録声紋情報が有れば、ステップS45で、登録声紋情報の声紋IDに対応してユーザ情報テーブル120に記載された言語情報が示す使用言語が表示言語と異なるかどうかを判断する。
ステップS45で“NO”であれば、つまり、言語情報が示す使用言語が表示言語と一致するのであればば、図7のステップS19に進む。一方、ステップS45で“YES”であれば、つまり、言語情報が示す使用言語が表示言語と異なるのであれば、ステップS47で、言語情報が示す使用言語を表示言語に設定して、ステップS19に進む。図示は省略するが、ステップS47の処理が実行されると、それ以降では、ディスプレイ22に画面を表示するときに、表示言語が使用される。
この第2実施例によれば、検出した音声データ404cから取得した声紋情報に基づいて、関連情報として、声紋情報を有するユーザの使用言語を表示言語として設定するので、ユーザの操作を必要とせずに、ユーザに応じた画面表示を行うことができる。
上述した第2実施例では、取得した声紋情報と一致する登録声紋情報が無い場合には、言語判定処理を実行するようにしたが、画像形成装置10を使用するユーザが予め決定されており、すべてのユーザがユーザ情報テーブル120に登録され、すべてのユーザの声紋情報が予め登録されている場合には、言語判定処理を実行する必要はない。かかる場合には、CPU12の制御処理から、ステップS9〜S17の処理と、ステップS43の処理が削除される。
また、第2実施例において、ユーザの操作履歴を記憶するようにしておき、ユーザが手動で表示言語を変更した履歴が残っている場合には、声紋情報に基づいてユーザを特定したときに、ユーザ情報テーブル120によらずに、操作履歴に従って表示言語を設定するようにしてもよい。
上記の第2実施例では、取得した声紋情報と一致する登録声紋情報が有るかどうかを判断するようにしたが、同一のユーザであっても、それらが完全に一致するとは限らないため、類似度が一定以上である場合に、それらが一致すると判断するようにしてもよい。以下、取得した声紋情報と一致する登録声紋情報が有るかどうかを判断する場合について同様である。
[第3実施例]
第3実施例の画像形成装置10は、判定言語が表示言語と異なる場合には、判定言語を表示言語に加えることにより、複数の言語を用いて画面表示するようにした以外は、第1実施例と同じであるため、重複した説明は省略する。
第3実施例では、画像形成装置10は、この画像形成装置10にユーザが近づいたことを検出すると、音声の検出を開始し、この画像形成装置10の使用を終了するまで、言語判定処理を所定時間(たとえば、2秒)間隔で実行する。画像形成装置10は、記録した音声データ404cを用いて言語判定処理を実行し、判定言語が表示言語と一致しない場合には、判定言語を表示言語に追加する。したがって、複数の言語が表示言語として設定され、この複数の言語を用いて画面表示が行われる。
図11は複数の表示言語を用いて表示されるホーム画面100の一例を示す。図11に示すホーム画面100では、日本語、英語およびドイツ語が使用される。たとえば、コピー機能のアイコン102には、日本語の「コピー」、英語の「copy」およびドイツ語の「kopieren」が並んで記載(表示)される。ただし、各言語で表示される文字の大きさは同じである。これらのことは、他の機能のアイコン102も同様である。一例として、ホーム画面100を表示した当初では、表示言語として、日本語のみが使用され、ユーザの使用言語して英語が判定され、さらに、別のユーザの使用言語としてドイツ語が判定され、表示言語が順次追加される。
ただし、同じユーザが異なる言語で発話された場合にも、同様に、表示言語が順次追加される。
したがって、複数のユーザがそれぞれの異なる言語で発話したり、一人のユーザが2以上の言語で発話したりした場合に、ユーザに応じた画面表示を行うことができる。
なお、表示言語に複数の言語が用いられる場合、各言語で表示される文字列の並び順が入れ替えられてもよい。たとえば、図11に示すコピー機能のアイコン102では、日本語の「コピー」、英語の「copy」およびドイツ語の「kopieren」の並び順が入れ替えられてもよい。
具体的に、判定言語が表示言語と一致する場合、判定言語と一致する表示言語で表示される文字列が、表示言語で表示される複数の文字列の最上位の位置、または、真ん中の位置に表示されるように各文字列の並び順が入れ替えられる。また、判定言語が表示言語と一致しないことで、表示言語に新たな言語が追加される場合、表示言語に追加された言語で表示された文字列は、判定言語が表示言語と一致しない場合と同様の位置に表示される。
第3実施例における画像形成装置10のCPU12の具体的な制御処理は、図6および図7に示した制御処理において、ステップS27で“YES”の場合に、ステップS9に戻らずに、図12に示す処理が実行される。以下、図12に示す処理について説明するが、既に説明した処理については簡単に説明する。
ステップS27で“YES”であれば、ステップS61で、言語判定処理を実行する。次のステップS63では、該当する言語が有るかどうかを判断する。ステップS63で“NO”であれば、図7に示したステップS19に戻る。
一方、ステップS63で“YES”であれば、ステップS65で、判定言語と表示言語が異なるかどうかを判断する。ステップS65で“NO”であれば、ステップS19に戻る。一方、ステップS65で“YES”であれば、ステップS67で、判定言語を表示言語として使用することを決定して、ステップS19に戻る。
第3実施例によれば、検出した音声データ404cに基づいて、関連情報として、表示言語と異なる使用言語が取得された場合には、取得された使用言語を表示言語に追加するので、たとえば、異なる使用言語の複数のユーザが画像形成装置10を使用する場合にも、ユーザの操作を必要とせずに、ユーザに応じた画面表示を行うことができる。
上述した第3実施例では、複数の言語が画面表示に使用される場合には、各言語の文字の大きさを同じ大きさに設定したが、これに限定される必要はない。
たとえば、言語を判定したときの音声データ404cに対応する音声の音量を記録しておき、音量の大きい順に、画面表示に使用される表示言語の文字の大きさを大きくするようにしてもよい。つまり、音量が大きい場合には、音量の音声を発したユーザが他のユーザよりも画像形成装置10の近くに存在すると考えられるため、画像形成装置10の近くに存在し、画像形成装置10を操作すると考えられるユーザについての文字の視認性を向上させることができる。
または、言語判定したときの音声データ404cに対応する音声の音量の小さい順に、画面表示に使用される表示言語の文字の大きさを大きくするようにしてもよい。つまり、音量が小さい場合には、音量の音声を発したユーザが他のユーザよりも画像形成装置10の遠くに存在すると考えられるため、画像形成装置10の遠くに存在するユーザについての文字の視認性を向上させることができる。
たとえば、表示言語の大きさを変化させたホーム画面100の例が図13に示される。この図13に示す例では、日本語の文字が最も大きいサイズで表示され、ドイツ語の文字が最も小さいサイズで表示され、英語の文字がそれらの中間のサイズで表示される。
また、第3実施例の変形は、第2実施例にも適用することが可能である。具体的には、第2実施例において、ステップS27で“YES”の後に、ステップS9に戻らずに、図14に示す処理が実行される。
具体的には、ステップS27で“YES”であれば、図14に示すように、ステップS81で声紋情報を取得する。次のステップS83では、取得した声紋情報と一致する登録声紋情報が有るかどうかを判断する。ステップS83で“NO”であれば、図7に示したステップS19に戻る。
一方、ステップS83で“YES”であれば、ステップS85で、取得した声紋情報と一致する登録声紋情報の声紋IDに対応してユーザ情報テーブル120に記載された言語情報が示す使用言語が表示言語と異なるかどうかを判断する。
ステップS85で“NO”であれば、ステップS19に戻る。一方、ステップS85で、“YES”であれば、言語情報が示す使用言語を表示言語に追加して、ステップS19に戻る。
さらに、上述したように、第3実施例では、検出した音声データ404cに基づいて、表示言語と異なる使用言語が取得された場合には、取得された使用言語を表示言語に追加するので、異なる使用言語の複数のユーザが画像形成装置10を使用する場合にも、ユーザに応じた画面表示を行うことができる。
ただし、ユーザが一人の場合にも、表示言語と異なる使用言語が取得された場合には、表示言語が追加されてしまうことが考えられる。たとえば、使用言語が日本語であるユーザが外来語を発話した場合に、表示言語と異なる使用言語が取得され、外来語についての言語が表示言語として追加される。表示言語が追加されること自体は問題ではないが、ユーザが一人の場合には、表示言語を追加しなくても良いと考えられる。
したがって、他の実施例では、画像形成装置10の前方の左側に存在するユーザの音声を検出するための指向性を有する第1のマイクと、画像形成装置10の前方の右側に存在するユーザの音声を検出するための指向性を有する第2のマイクを設け、複数のユーザが画像形成装置10を使用しているかどうかをさらに判断するようにしてもよい。
具体的には、第1のマイクで検出した音声データ404cに基づいて言語判定が行われるとともに、第2のマイクで検出した音声データ404cに基づいて言語判定が行われ、表示言語と異なる使用言語が取得され、かつ、2つの言語判定の結果が異なる場合に、異なる使用言語の複数のユーザが画像形成装置10を使用していることが判断され、取得された使用言語が表示言語に追加される。ただし、表示言語と異なる使用言語が取得されても、2つの言語判定の結果が同じである場合には、一人のユーザが画像形成装置10を使用していることが判断され、取得された使用言語が表示言語に追加されない。
なお、一方のマイクに音声が入力され、他方のマイクに音声が入力されていない場合には、音声が入力されていない他方のマイクで検出された音声データ404cに基づいて言語判定が行われても判定不能であるため、2つの言語判定の結果が異なるが、この場合には、一人のユーザが画像形成装置10を使用していることが判断される。
[第4実施例]
第4実施例の画像形成装置10は、ユーザの年齢に応じた画面表示を行うようにした以外は、第2実施例の画像形成装置10と同じであるため、重複した説明は省略する。
第4実施例の画像形成装置10では、図15に示すようなユーザ情報テーブル120がRAM14に記憶される。このユーザ情報テーブル120では、言語情報に代えて、ユーザIDが示すユーザの年齢が記載される。したがって、音声データ404cから声紋情報が取得され、取得された声紋情報と一致する登録声紋情報が有る場合には、ユーザ情報テーブル120に基づいてユーザの年齢が検出(取得)される。
第4実施例では、高年齢層に含まれるユーザの場合には、文字のサイズを通常のサイズ(以下、「デフォルトサイズ」という)よりも大きく設定する。一方、低年齢層に含まれるユーザの場合には、漢字または/および片仮名に、振り仮名(ルビ)が振られる(表示される)。
具体的には、高年齢層に該当するユーザの場合には、図16に示すようなホーム画面100がディスプレイ22に表示され、低年齢のユーザの場合には、図17に示すようなホーム画面100がディスプレイ22に表示される。図16に示すホーム画面100では、図3に示したホーム画面100と比較して分かるように、アイコン102に記載された各機能を表す文字のサイズが大きくされる。ただし、大きくされる文字のサイズは予め決定されている。また、図17に示すホーム画面100では、アイコン102に記載された各機能を表す文字の上方に振り仮名が表示される。
振り仮名を表示するためのデータは、予め用意されており、必要に応じて、RAM14に記憶される。
したがって、第4実施例では、図9に示したメモリマップ400において、言語判定プログラム402fに代えて、ユーザの年齢を検出(取得)するためのプログラム(以下、「年齢取得プログラム」という)およびユーザが高年齢層に含まれるか低年齢層に含まれるかそれ以外かを判別するためのプログラム(以下、「年齢判別プログラム」という)がRAM14に記憶される。また、判定言語データ404eに代えて、取得した年齢のデータ(以下、「年齢データ」という)がRAM14に記憶される。
ただし、この第4実施例では、年齢判別プログラムは、70歳以上のユーザを高年齢層に含まれるユーザと判別し、10歳以下のユーザを低年齢層に該当するユーザと判別し、11以上70歳未満のユーザを高年齢層および低年齢層に含まれないユーザと判別する。
図18および図19は、第4実施例におけるCPU12の制御処理を示すフロー図である。以下、図18および図19を参照しながら第4実施例の制御処理について説明するが、既に説明した処理と同じ処理については簡単に説明する、または、省略する。
図18に示すように、CPU12は、制御処理を開始すると、ステップS101で、初期設定を行う。次のステップS103では、ユーザが画像形成装置10の近くに存在するかどうかを判断する。
ステップS103で“YES”であれば、ステップS107に進む。一方、ステップS103で“NO”であれば、ステップS105で、開始の指示があるかどうかを判断する。ステップS105で“NO”であれば、ステップS101に戻る。一方、ステップS105で“YES”であれば、ステップS107に進む。
ステップS107で、音声の検出を開始し、ステップS109で、音声データ404cから声紋情報を取得する。次のステップS111では、取得した声紋情報と一致する登録声紋情報が有るかどうかを判断する。
ステップS111で“NO”であれば、図19に示すステップS121に進む。詳細な説明は省略するが、CPU12は、声紋情報を正しく取得できない場合にも、ステップS111で“NO”と判断し、ステップS121に進む。
一方、ステップS111で“YES”であれば、ステップS113で、ユーザの年齢が70歳以上であるかどうかを判断する。ここでは、CPU12は、図15に示したユーザ情報テーブル120を参照して、取得した声紋情報と一致する登録声紋情報の声紋IDに対応して記載されたユーザの年齢が70歳以上であるかどうかを判断する。このことは、後述するステップS117においても同様である。
ステップS113で“YES”であれば、つまり、ユーザの年齢が70歳以上であれば、ユーザが高年齢層に含まれると判別し、ステップS115で、文字のサイズを大きくすることを決定して、ステップS121に進む。一方、ステップS113で“NO”であれば、つまり、ユーザの年齢が70歳未満であれば、ステップS117で、ユーザの年齢が10歳以下であるかどうかを判断する。
ステップS117で“NO”であれば、つまり、ユーザの年齢が11歳以上70歳未満であれば、ステップS121に進む。一方、ステップS117で“YES”であれば、つまり、ユーザの年齢が10歳以下であれば、ユーザが低年齢層に含まれると判別し、ステップS119で、振り仮名を表示することを決定して、ステップS121進む。
図19に示すように、ステップS121では、画像形成装置10の使用を終了したかどうかを判断する。ステップS121で“YES”であれば、ステップS123で、音声の検出を終了し、図18に示したステップS101に戻る。
一方、ステップS121で“NO”であれば、ステップS125で、終了の指示が有るかどうか判断する。ステップS125で“YES”であれば、ステップS123に進む。一方、ステップS125で“NO”であれば、ステップS127に進む。
ステップS127では、タイマ404gをリセットおよびスタートし、ステップS129で、所定時間(たとえば、2秒)を経過したかどうかを判断する。ステップS129で“NO”であれば、同じステップS129に戻る。一方、ステップS129で“YES”であれば、図18に示したステップS109に戻る。
第4実施例によれば、検出した音声データ404cから取得した声紋情報に基づいて、関連情報として、ユーザが高年齢層に含まれるユーザであることを判別した場合には文字のサイズを大きくし、ユーザが低年齢層に含まれるユーザであることを判別した場合には文字の振り仮名を振るので、ユーザの操作を必要とせずに、ユーザに応じた画面表示を行うことができる。
ただし、ユーザが高年齢層または低年齢層に含まれる場合に、文字のサイズを大きくするとともに、漢字または/および片仮名に、振り仮名(ルビ)を振るようにしてもよい。
また、他の例では、文字のサイズを大きくすることに代えて、アイコンの機能または/および操作方法の説明を表示するようにしてもよい。
図20は、アイコンの機能の説明を表示する場合のホーム画面100の一例を示す。図20に示すホーム画面100では、各アイコン102に割り当てられる機能の名称とともに、各アイコンに割り当てられる機能の説明が併記される。ただし、アイコン102に割り当てられる機能の説明は、アイコン102の画像の外(たとえば、画面を正面から見た場合の下方)に表示されてもよい。
また、ユーザ情報テーブル120にユーザの使用言語としてさらに方言の情報を記載(登録)しておくことにより、アイコンの機能または/および操作方法の説明を表示する場合に、ユーザの方言で記載した説明を表示することもできる。ただし、方言の情報は、ユーザ情報テーブル120に必ずしも記載されなくてもよい。たとえば、言語判別辞書を言語別のみならず方言別に用意しておくことにより、言語判定処理を実行するときに、言語のみならず方言も判定することができる。
さらに、ユーザの年齢に応じて文字のサイズを大きくしたり、振り仮名を表示したりすることを一度決定した場合には、画像形成装置10の使用を終了するまで、その決定を維持するようにしてもよい。
また、上述した第4実施例では、検出した音声データ404cから声紋情報が取得され、取得された声紋情報と一致する登録声紋情報が有る場合には、ユーザ情報テーブル120に基づいてユーザの年齢が検出され、ユーザが高年齢層または低年齢層に含まれるか、いずれにも含まれないかを判別するようにしたが、これに限定される必要はない。検出した音声データ404cから取得した声紋情報に基づいてユーザの年齢層を推定し、推定した年齢層が高年齢層または低年齢層に含まれるか、いずれにも含まれないかを判別するようにしてもよい。
[第5実施例]
第5実施例の画像形成装置10は、ユーザの年齢に代えて、ユーザの色覚異常または色覚多様性(以下、単に「色覚多様性」という)の有無に応じて、画面表示を行うようにした以外は、第4実施例と同じであるため、重複した説明は省略する。
第5実施例の画像形成装置10では、図21に示すようなユーザ情報テーブル120がRAM14に記憶される。図21に示すように、ユーザ情報テーブル120は、ユーザIDに対応して、声紋IDが記載されるとともに、色覚多様性の有無が記載される。したがって、音声データ404cから声紋情報が取得され、取得された声紋情報と一致する登録声紋情報が有る場合には、ユーザ情報テーブル120に従ってユーザが色覚多様性を有するかどうかが検出(取得)される。
第5実施例では、色覚多様性を有するユーザの場合には、色度差または/および明度差の大きな配色で画面表示が行われる。ただし、これは一例であり、限定されるべきではない。他の例としては、アイコンの背景画像または各画面の背景に、斜線または水玉のような所定の模様を付して画面表示を行うようにしてもよい。
色度差または/および明度差の大きな配色の画面についてのデータは、予め用意されており、必要に応じて、RAM14に記憶される。ただし、必要に応じて、描画されてもよい。
したがって、第5実施例では、図9に示したメモリマップ400において、言語判定プログラム402fに代えて、ユーザが色覚多様性を有するかどうかを検出(取得)するためのプログラム(以下、「色覚情報取得プログラム」という)がRAM14に記憶される。また、判定言語データ404eに代えて、取得した色覚多様性の有無を示すデータ(以下、「色覚情報データ」という)がRAM14に記憶される。
図22は、第5実施例におけるCPU12の制御処理の一部を示すフロー図である。第5実施例では、CPU12は、図18および図19に示した制御処理において、ステップS113〜S119の処理に代えて、S141およびS143の処理を実行する。
図22に示すように、ステップS113で“YES”であれば、CPU12は、ステップS141で、色覚多様性が有るかどうかを判断する。ここでは、CPU12は、図21に示したようなユーザ情報テーブル120を参照して、取得した声紋情報と一致する登録声紋情報に対応して記載された色覚多様性の有無を判断する。
ステップS141で“NO”であれば、つまり、色覚多様性が無ければ、図19に示したステップS121に進む。一方、ステップS141で“YES”であれば、つまり、色覚多様性が有れば、ステップS143で、色度差または/および明度差の大きな配色で画面表示することを決定して、ステップS121に進む。
この第5実施例によれば、検出した音声データ404cから取得した声紋情報に基づいて、関連情報としてユーザが色覚多様性を有することを取得した場合には、色度差または/および明度差の大きな配色で画面表示を行うので、ユーザの操作を必要とせずに、ユーザに応じた画面表示を行うことができる。
また、第5実施例のように、ユーザが色覚多様性を有することを取得した場合に、色度差または/および明度差の大きな配色で画面表示を行うことは、第1実施例〜第4実施例において、追加的に実施することもできる。
[第6実施例]
第6実施例は、画像形成装置10のユーザがこの画像形成装置10を使用することについての初心者である場合に、各アイコンに割り当てられる機能等の名称に、各アイコンに割り当てられる機能等の説明を併記するようにした以外は、第1実施例と同様であるため、重複する説明は省略する。
第6実施例の画像形成装置10では、ユーザの操作に基づいて、ユーザがこの画像形成装置10を使用することについての初心者(以下、単に「初心者」という)であるかどうかが判断される。ユーザが初心者であることが判断された場合には、図20に示したホーム画面100のように、アイコン102の各々に割り当てられる機能等の名称に、機能等に対応する説明が併記される。
ユーザが初心者であるかどうかは、画像の出力を行わずに、所定のボタンを繰り返し操作していることで判断することができる。この第6実施例では、スタートキーが操作されずに、ホームボタンおよび戻るボタンが繰り返し操作されることにより、既に表示したメニュー(すなわち、ホームメニュー)が複数回再表示された場合に、ユーザが初心者であると判断し、各アイコンに割り当てられる機能等に対応する説明を併記することが設定される。
ユーザが初心者であるかどうかを判断して、ユーザが初心者である場合に、各アイコンに割り当てられる機能等に対応する説明を併記することを設定する処理(以下、「併記判断処理」という)は、制御処理と並行して実行される。また、各アイコンに割り当てられる機能等の説明を併記することの設定は、画像形成装置10の使用が終了されると、解除される。
図示は省略するが、第6実施例のメモリマップ400は、図5に示したメモリマップ400と同様のメモリマップである。プログラム記憶領域402には、ユーザの操作履歴を記憶するためのプログラム、所定のボタンの操作回数を取得(カウント)するためのプログラム、および初心者かどうかを判断するためのプログラムがさらに記憶される。
また、データ記憶領域404には、操作履歴についてのデータ、所定のボタン(この実施例では、ホームボタンおよび戻るボタン)の操作回数をカウントするためのカウンタおよび各アイコンに割り当てられる機能等の説明を併記するかどうかを判断するためのフラグ(以下、「併記フラグ」ということがある)がさらに記憶される。ただし、併記フラグは、各アイコンに割り当てられる機能等の説明を併記する場合にオンされ、各アイコンに割り当てられる機能等の説明を併記しない場合にオフされる。
図23は、第6実施例のCPU12の併記判断処理の一例を示すフロー図であり、第1実施例で示したCPU12の制御処理と並行して実行される。一例として、制御処理が開始されるときに、併記判断処理も開始される。
図23に示すように、CPU12は、併記判断処理を開始すると、ステップS151で、操作履歴をクリアするとともに、併記フラグをオフする。
次のステップS153では、所定のボタンの操作回数をカウントするためのカウンタをリセットする(カウント値=0)。
続いて、ステップS155では、現在の操作検出データ404aが有るかどうかを判断する。ここでは、CPU12は、現在の操作検出データ404aがデータ記憶領域404に記憶されているかどうかを判断する。
ステップS155で“NO”であれば、つまり、現在の操作検出データ404aが無ければ、ステップS155に戻る。一方、ステップS155で“YES”であれば、つまり、現在の操作検出データ404aが有れば、ステップS157で、操作履歴を記憶する。つまり、ステップS157では、CPU12は、現在の操作検出データ404aを操作履歴に追加する。
次のステップS159では、スタートキーであるかどうかを判断する。このステップS159では、CPU12は、現在の操作検出データ404aがスタートキーの操作(または押下)を示すかどうかを判断する。
ステップS159で“YES”であれば、つまり、スタートキーであれば、併記判断処理を終了する。一方、ステップS159で“NO”であれば、つまり、スタートキーでなければ、ステップS161で、カウンタのカウント値を1加算して、ステップS163で、カウント値が所定値(この実施例では、10)に達したかどうかを判断する。
ステップS163で“NO”であれば、つまり、カウント値が所定値に達していなければ、ステップS155に戻る。一方、ステップS163で“YES”であれば、つまり、カウント値が所定値に達していれば、ステップS165で、所定のボタンの操作履歴の個数を取得する。つまり、CPU12は、操作履歴を参照して、所定のボタンが操作された回数を検出する。
続くステップS167では、ステップS165で取得した個数が所定値(たとえば、3または4)以上であるかどうかを判断する。ステップS167で“NO”であれば、つまり、個数が所定値未満であれば、併記判断処理を終了する。一方、ステップS167で“YES”であれば、つまり、個数が所定値以上であれば、ステップS169で、併記フラグをオンして、併記判断処理を終了する。
第6実施例によれば、画像形成装置10に対するユーザ操作に基づいて、ユーザがこの画像形成装置10を使用することについての初心者であるかどうかを判断し、ユーザが初心者であることが判断された場合には、機能等の名称等が表示されるアイコンに、機能等に対応する説明を併記するので、初心者のユーザの操作性を向上させることができる。
上記の第6実施例の変形は、第2実施例〜第5実施例にも適用することができる。
また、上述の各実施例では、画像形成装置10のCPU12が制御処理をすべて実行するようにしたが、これに限定される必要はない。処理の一部を画像形成装置10と通信可能なネットワーク上の他のコンピュータが実行してもよい。たとえば、第1実施例の言語判定処理を他のコンピュータに実行させる場合には、画像形成装置10のCPU12は、検出した音声データ404cを有線通信部52を介してネットワークに送信し、言語判定の結果をネットワークから受信する。また、第2実施例、第4実施例、第5実施例および第6実施例の声紋情報に基づく各種の判断処理を他のコンピュータに実行させる場合には、音声データ404cから取得した声紋情報を有線通信部52を介してネットワークに送信し、ユーザの使用言語、年齢または色覚多様性の有無をネットワークから受信する。
10 …画像形成装置
12 …CPU
14 …RAM
16 …タッチパネル制御回路
18 …表示制御回路
20 …タッチパネル
22 …ディスプレイ
30 …画像読取部
32 …画像形成部
44 …音声入力部
46 …人感センサ
48 …映像入力部
50 …NFCリーダ
52 …有線通信部

Claims (20)

  1. 音声検出手段および表示手段を備える画像形成装置であって、
    前記音声検出手段によって検出された音声に基づいてユーザに関する情報である関連情報を取得する関連情報取得手段と、
    前記関連情報取得手段によって取得された関連情報に基づいて前記表示手段の画面表示を制御する制御手段を備える、画像形成装置。
  2. 前記関連情報は、ユーザの使用言語であり、
    前記使用言語が前記表示手段の表示言語と一致するかどうかを判断する第1判断手段をさらに備え、
    前記制御手段は、前記第1判断手段によって前記使用言語が前記表示言語と一致しないことを判断したとき、当該使用言語を当該表示言語として前記画面表示を行う、請求項1記載の画像形成装置。
  3. 前記制御手段は、前記第1判断手段によって前記使用言語が前記表示言語と一致しないことを判断したとき、当該使用言語を当該表示言語に追加して、複数の当該表示言語を用いて前記画面表示を行う、請求項2記載の画像形成装置。
  4. 前記音声検出手段によって検出された音声に基づいて前記ユーザの使用言語を判定する言語判定手段をさらに備える、請求項1から3までのいずれかに記載の画像形成装置。
  5. 複数のユーザに対応して、当該複数のユーザの各々の声紋情報と当該複数のユーザの各々の使用言語の種類を記載した第1ユーザ情報を記憶する第1ユーザ情報記憶手段と、
    前記音声検出手段によって検出された音声に基づいて前記ユーザの声紋情報を取得する声紋情報取得手段をさらに備え、
    前記関連情報取得手段は、前記第1ユーザ情報に基づいて、前記声紋情報取得手段によって取得された声紋情報に対応して記載された使用言語を前記関連情報として取得する、請求項1から3までのいずれかに記載の画像形成装置。
  6. 前記関連情報取得手段は、前記第1ユーザ情報に基づいて、前記声紋情報取得手段によって取得された声紋情報が前記第1ユーザ情報に含まれていない場合に、前記音声検出手段によって検出された音声に基づいて前記ユーザの使用言語を判定する言語判定手段をさらに備える、請求項5記載の画像形成装置。
  7. 複数のユーザに対応して、当該複数のユーザの各々の声紋情報と当該複数のユーザの各々の年齢を記載した第2ユーザ情報を記憶する第2ユーザ情報記憶手段と、
    前記第2ユーザ情報に基づいて、前記関連情報取得手段によって前記関連情報として取得された前記ユーザの年齢が第1閾値以上であるか、当該第1閾値よりも小さい第2閾値以下であるか、当該第1閾値と当該第2閾値の間であるかを判別する年齢判別手段をさらに備え、
    前記制御手段は、前記年齢判別手段の判別結果に応じて前記画面表示を行う、請求項1記載の画像形成装置。
  8. 前記制御手段は、前記第2ユーザ情報に基づいて、前記関連情報取得手段によって前記関連情報として取得された前記ユーザの年齢が前記第1閾値以上または前記第2閾値以下である場合に、前記画面表示される文字のサイズを大きくするように前記画面表示を行う、請求項7記載の画像形成装置。
  9. 前記制御手段は、前記第2ユーザ情報に基づいて、前記関連情報取得手段によって前記関連情報として取得された前記ユーザの年齢が前記第1閾値以上または前記第2閾値以下である場合に、アイコンの機能または/および操作方法の説明を追加的に記載するように前記画面表示を行う、請求項7または8記載の画像形成装置。
  10. 前記第2ユーザ情報は前記複数のユーザの各々の方言の情報を含み、
    前記制御手段は、前記アイコンの機能または/および操作方法の説明を追加的に記載するとき、前記ユーザの方言を用いて前記画面表示を行う、請求項9記載の画像形成装置。
  11. 前記制御手段は、前記第2ユーザ情報に基づいて、前記関連情報取得手段によって前記関連情報として取得された前記ユーザの年齢が前記第1閾値以上または前記第2閾値以下である場合に、漢字および片仮名に振り仮名を振って前記画面表示を行う、請求項7記載の画像形成装置。
  12. 前記音声検出手段によって検出された音声に基づいて前記ユーザの声紋情報を取得する声紋情報取得手段、
    前記声紋情報取得手段によって取得された前記ユーザの声紋情報に基づいて当該ユーザの年齢層を推定する推定手段、および
    前記推定手段によって推定された前記ユーザの年齢層が第1閾値以上であるか、当該第1閾値よりも小さい第2閾値以下であるか、当該第1閾値と当該第2閾値の間であるかを判別する年齢層判別手段をさらに備え、
    制御手段は、前記年齢層判別手段の判別結果に応じて前記画面表示を行う、請求項1記載の画像形成装置。
  13. 前記制御手段は、前記推定手段によって推定された前記ユーザの年齢層が前記第1閾値以上または前記第2閾値以下である場合に、前記画面表示される文字のサイズを大きくするように前記画面表示を行う、請求項12記載の画像形成装置。
  14. 前記制御手段は、前記推定手段によって推定された前記ユーザの年齢層が前記第1閾値以上または前記第2閾値以下である場合に、アイコンの機能または/および操作方法の説明を追加的に記載するように前記画面表示を行う、請求項12または13記載の画像形成装置。
  15. 前記関連情報は、ユーザの方言の情報であり、
    前記制御手段は、前記アイコンの機能または/および操作方法の説明を追加的に記載するとき、前記ユーザの方言を用いて前記画面表示を行う、請求項14記載の画像形成装置。
  16. 前記制御手段は、前記推定手段によって推定された前記ユーザの年齢層が前記第1閾値以上または前記第2閾値以下である場合に、漢字および片仮名に振り仮名を振って前記画面表示を行う、請求項12記載の画像形成装置。
  17. 複数のユーザに対応して、当該複数のユーザの各々の声紋情報と当該複数のユーザの各々の色覚多様性の有無を記載した第3ユーザ情報を記憶する第3ユーザ情報記憶手段をさらに備え、
    前記制御手段は、前記第3ユーザ情報に基づいて、前記関連情報取得手段によって前記関連情報として前記ユーザが色覚多様性を有することを取得した場合に、明度差または/および色度差を大きくして前記画面表示を行う、請求項1から16までのいずれかに記載の画像形成装置。
  18. 前記ユーザが前記画像形成装置を使用することについての初心者であるかどうかを判断する第2判断手段をさらに備え、
    前記制御手段は、前記第2判断手段によって前記ユーザが前記画像形成装置を使用することについての初心者であることが判断された場合に、アイコンの機能または/および操作方法の説明を追加的に記載するように前記画面表示を行う、請求項1から17までのいずれかに記載の画像形成装置。
  19. 音声検出手段および表示手段を備える画像形成装置によって実行される情報処理プログラムであって、
    前記画像形成装置のプロセッサに、
    前記音声検出手段によって検出された音声に基づいてユーザに関する情報である関連情報を取得する関連情報取得ステップと、
    前記関連情報取得ステップにおいて取得した関連情報に基づいて前記表示手段の画面表示を制御する制御ステップを実行させる、情報処理プログラム。
  20. 音声検出手段および表示手段を備える画像形成装置の情報処理方法であって、
    (a)前記音声検出手段によって検出された音声に基づいてユーザに関する情報である関連情報を取得するステップと、
    (b)前記ステップ(a)において取得した関連情報に基づいて前記表示手段の画面表示を制御するステップを含む、情報処理方法。
JP2019110845A 2019-06-14 2019-06-14 画像形成装置、情報処理プログラムおよび情報処理方法 Pending JP2020204643A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019110845A JP2020204643A (ja) 2019-06-14 2019-06-14 画像形成装置、情報処理プログラムおよび情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110845A JP2020204643A (ja) 2019-06-14 2019-06-14 画像形成装置、情報処理プログラムおよび情報処理方法

Publications (1)

Publication Number Publication Date
JP2020204643A true JP2020204643A (ja) 2020-12-24

Family

ID=73838368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110845A Pending JP2020204643A (ja) 2019-06-14 2019-06-14 画像形成装置、情報処理プログラムおよび情報処理方法

Country Status (1)

Country Link
JP (1) JP2020204643A (ja)

Similar Documents

Publication Publication Date Title
US8723805B2 (en) Information input device, information input method, and information input program
US8825484B2 (en) Character input apparatus equipped with auto-complete function, method of controlling the character input apparatus, and storage medium
JP2009116841A (ja) 入力装置
CN107203348A (zh) 图像处理系统和方法
JP2011059194A (ja) 制御装置、画像形成装置、画像形成装置の制御方法、プログラムおよび記録媒体
EP1826720A1 (en) Image processing apparatus and method, computer program, and storage medium
US10313536B2 (en) Information processing system, electronic apparatus, information processing apparatus, information processing method, electronic apparatus processing method and non-transitory computer readable medium to confirm difference in meeting contents using sound information
CN103856669A (zh) 信息处理装置及其控制方法、图像形成装置及其控制方法
US20170315963A1 (en) Image processing apparatus and image processing system
JP2017200119A5 (ja)
JP2003209643A (ja) 画像処理装置
CN111510576A (zh) 图像形成装置
JP2010272910A (ja) 制御プログラム及び画像処理装置並びに画像形成装置
EP3865993A1 (en) System and method for dynamic device user interface generation based on user characteristics
CN106331407B (zh) 操作系统
JP2021015490A (ja) 画像処理装置および認識精度改善方法
JP2020204643A (ja) 画像形成装置、情報処理プログラムおよび情報処理方法
JP7384970B2 (ja) ユーザー認証装置、ユーザー認証方法および画像形成装置
EP3370405B1 (en) Electronic imprinting device that affixes imprint data to document data
US20170346978A1 (en) Wake-up control device, image processing apparatus, and non-transitory computer readable medium
US10915800B2 (en) Image forming apparatus that acquires fixed data and plurality of pieces of variable data according to user's instruction, and executes variable printing
JP7334420B2 (ja) 情報処理装置及びプログラム
JP2020086536A (ja) 電子機器及び画像形成装置
JP2020038576A (ja) 電子機器、画像形成装置、電子メール作成支援方法、及び電子メール作成支援プログラム
JP7466011B2 (ja) 画像形成装置、情報処理システムおよび制御方法