JP7419682B2 - 画像形成装置、及び、画像形成システム - Google Patents

画像形成装置、及び、画像形成システム Download PDF

Info

Publication number
JP7419682B2
JP7419682B2 JP2019122758A JP2019122758A JP7419682B2 JP 7419682 B2 JP7419682 B2 JP 7419682B2 JP 2019122758 A JP2019122758 A JP 2019122758A JP 2019122758 A JP2019122758 A JP 2019122758A JP 7419682 B2 JP7419682 B2 JP 7419682B2
Authority
JP
Japan
Prior art keywords
user
image forming
guidance
audio
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019122758A
Other languages
English (en)
Other versions
JP2021009541A (ja
Inventor
晋平 板谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019122758A priority Critical patent/JP7419682B2/ja
Publication of JP2021009541A publication Critical patent/JP2021009541A/ja
Application granted granted Critical
Publication of JP7419682B2 publication Critical patent/JP7419682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Control Or Security For Electrophotography (AREA)

Description

本発明は、画像形成装置、及び、画像形成システムに係わる。
画像形成装置において、画像形成装置本体の操作やジョブの設定は、画像形成装置に設けられた操作パネルや、外部端末のリモートアクセス画面から行われる。最近では視覚障碍者向けとしてだけでなく健常者の入力手段としても、音声入力による操作(以下、単に音声入力、又は、音声操作と称する)が可能な画像形成装置が開発されている。画像形成装置の音声操作を行う場合には、画像形成装置の操作パネルを参照しなくても操作が行えるように、ユーザーと画像形成装置との間での対話形式で操作処理が行われることが多い。しかし、画像形成装置のスピーカー側からユーザーに向けて指示を促す音声ガイダンスや、現在の設定を復唱する音声ガイダンスを行っている間は、ユーザーはガイダンスを聞く期間だけ次の操作の開始が遅れてしまう。このため、音声操作では、表示パネル等を使用した手動操作に比べて、ユーザーの操作に余分な時間がかかってしまう。
このような、音声操作にかかる余分な時間を短縮するために、表示パネルのハードキーやコマンドボタンの操作によって音声ガイダンスの出力のON/OFF、スキップ、リピート等を制御可能な画像形成装置が提案されている(例えば、特許文献1参照)。
また、画像形成装置がユーザーが晴眼者か視覚障碍者のいずれであるかを判断し、ユーザーが視覚障碍者の場合に音声操作が可能な音声操作モードに切り替える画像形成装置が提案されている(例えば、特許文献2参照)。
特開2003-316212号公報 特開2003-140880号公報
しかしながら、ユーザーが表示パネルを用いて音声ガイダンスの出力を制御する画像形成装置では、音声操作の時間を短縮できるものの、ユーザーがボタン操作を行わなければならないため、ユーザーにとって不便である。また、ユーザーを晴眼者か視覚障碍者か判断する画像形成装置では、晴眼者が音声操作モードを使用する場合には音声ガイダンスの出力を聞かなければならない期間が発生するため、ユーザーの操作に余分な時間がかかってしまう。
上述した問題の解決のため、音声操作が可能な画像形成装置、及び、画像形成システムにおいて、ボタン操作等を行わなくても音声ガイダンスの出力を省略し、ユーザーの操作時間を短縮することが求められている。
本発明の画像形成装置は、音声が入力される音声入力部と、情報を表示する表示部と、ユーザーの操作に応じた制御を行う制御部と、制御部の制御により用紙に画像を形成する画像形成部とを備える。そして、制御部は、音声入力部に対する入力音声に基づく音声操作が可能な音声操作モードが動作時において、ユーザーが表示部を見ているかどうかを判定し、ユーザーが表示部を見ていないと判定した場合には、音声ガイダンスの出力を実行し、ユーザーが表示部を見ていると判定した場合には入力音声に基づく音声ガイダンスの少なくとも一部の内容の音声出力を停止し、入力音声に基づくガイダンス情報を表示部に表示させる。
また、本発明の画像形成システムは、画像形成装置と、端末装置とを備える。また、画像形成装置は、音声が入力される音声入力部と、情報を表示する表示部と、ユーザーの操作に応じた制御を行う制御部と、制御部の制御により用紙に画像を形成する画像形成部とを備える。そして、制御部は、音声入力部に対する入力音声に基づく音声操作が可能な音声操作モードが動作時において、ユーザーが表示部を見ているかどうかを判定し、ユーザーが表示部を見ていないと判定した場合には、音声ガイダンスの出力を実行し、ユーザーが表示部を見ていると判定した場合には入力音声に基づく音声ガイダンスの少なくとも一部の内容の音声出力を停止し、入力音声に基づくガイダンス情報を表示部に表示させ、音声ガイダンスの音声出力を停止したときに、端末装置にガイダンス情報を送信する。
本発明によれば、ボタン操作等を行わなくても音声ガイダンスの出力を省略し、ユーザーの操作時間を短縮することが可能な画像形成装置、及び、画像形成システムを提供することができる。
画像形成システムの概略構成を示す図である。 画像形成装置のハードウエア構成例を示すブロック図である。 音声入力装置のハードウエア構成例を示すブロック図である。 制御部の機能ブロック図である。 ユーザーによる音声操作と、画像形成装置からの音声ガイダンスの一例を示す図である。 音声入力とガイダンス出力とを行う処理のフローチャートである。 表示部に表示するガイダンス情報の例を示す図である。 表示部に表示するガイダンス情報の例を示す図である。 ユーザーが表示部を見ているかどうかを判定するフローチャートである。 音声ガイダンスの再開、及び、ユーザーによる音声ガイダンスの省略の承認に係わる処理のフローチャートである。
〈画像形成システムの実施の形態〉
以下、画像形成システムの具体的な実施の形態の例について説明する。図1に、本実施の形態の画像形成システムの概略構成図を示す。
[画像形成システムの構成]
図1に示す画像形成システムは、画像形成装置100と、画像形成装置100に対する音声入力を受け付ける音声入力装置200とが、LAN(Local Area Network)等のネットワークを介して接続されている。さらに、画像形成システムは、画像形成装置100や音声入力装置200とネットワークを介して接続された、印刷ジョブを送信可能な外部端末装置300等を備えていてもよい。ネットワークは有線であっても無線であってもよい。例えば、画像形成装置100と外部端末装置300とが有線LANに接続され、音声入力装置200が無線で接続されている例が挙げられる。
画像形成装置100は、画像形成機能を実現するための構成を有する。
音声入力を受け付ける音声入力装置200は、入力音声から生成された音声信号を処理する処理装置を含んでもよい。音声入力装置200としては、従来のマイクロホン(以下、マイクと称する)やスマートスピーカー等が挙げられる。音声入力装置200は、音声入力を受け付ける機能を実現するための構成としての音声入力部としてのマイクと、情報を表示(出力)するためのタッチパネル等の表示部や、スピーカー等の音声出力部とを備える。なお、画像形成システムにおいて、音声入力装置200は、少なくともこれら機能を有していれば特に限定されない。
[画像形成装置の構成]
図2に、画像形成装置100のハードウエア構成例のブロック図を示す。図2に示すように、画像形成装置100は、画像読取り部10、操作表示部20、画像処理部30、画像形成部40、及び、音声入力部50を備える。また、図2に示すように、画像形成装置100は、上記構成にさらに、通信部71、記憶部72、及び、制御部101を備える。なお、図2に示す画像形成装置100は、画像読取り機能や印刷機能を備えた一般的な装置構成を示しているが、必ずしも全ての機能を搭載する必要はなく、ファクシミリ装置やスキャナー装置等の限定的な機能を有した構成であってもよい。
操作表示部20は、例えばタッチパネル付の液晶ディスプレイ(LCD:Liquid Crystal Display)やハードキー等で構成され、表示部21及び操作部22として機能する。表示部21は、制御部101から入力される表示制御信号に従って、各種操作画面、画像の状態、各機能の動作状況等の表示を行う。操作部22は、テンキー、スタートキー等の各種操作キーを備え、ユーザーによる各種入力操作を受け付けて、操作信号を制御部101に出力する。
制御部101は、図2に示すように、CPU(Central Processing Unit)102、ROM(Read Only Memory)104、RAM(Random Access Memory)103等を備える。CPU102は、ROM104から処理内容に応じたプログラムを読み出してRAM103に展開し、展開したプログラムを実行して画像形成装置100の各ブロック等の動作を制御する。このとき、記憶部72に格納されている各種データを参照してもよい。記憶部72は、例えば不揮発性の半導体メモリやハードディスクドライブ等で構成される。
制御部101は、通信部71を介して、LAN、WAN(Wide Area Network)等の通信ネットワークに接続された外部端末装置300との間で各種データの送受信を行う。制御部101は、例えば、外部の装置から送信された画像データ(入力画像データ)を受信し、この画像データに基づいて用紙に画像を形成する。通信部71は、例えばLANカード等の通信制御カードで構成される。
画像処理部30は、初期設定又はユーザー設定に応じたデジタル画像処理を行う回路等を備える。例えば、画像処理部30は、制御部101の制御下で、階調補正データ(階調補正テーブル)に基づいて階調補正を行う。また、画像処理部30は、階調補正の他、色補正、シェーディング補正等の各種補正処理や、圧縮処理等を施す。これらの処理が施された画像データに基づいて、画像形成部40が制御される。
画像形成部40は、印刷ジョブの設定に基づいて用紙に画像を形成する。画像形成部40は、入力画像データに基づいて、Y(イエロー)、M(マゼンタ)、C(シアン)、K(ブラック)の各色トナー像をY成分、M成分、C成分、K成分の各色トナーによる画像を形成する。
画像読取り部10は、記録紙等に記載された原稿の画像を光学的に読み取って画像データを取得する。画像読取り部10は、例えば、原稿に光を照射する光源と、その反射光を受けて主走査方向に1ライン分読み取るラインイメージセンサーと、ライン単位の読取位置を副走査方向に順次移動させる駆動部と、原稿からの反射光をラインイメージセンサーに導いて結像させるレンズやミラー等からなる光学経路と、ラインイメージセンサーの出力するアナログ画像信号をデジタルの画像データに変換する変換部等を備える。
音声入力部50は、マイク等によって構成され、画像形成装置100の周囲の音声を収集し、音声入力を受け付ける。
音声出力部51は、スピーカー等によって構成され、画像形成装置100からユーザー等に音声で情報を通知する。
ユーザー検出センサー52は、画像形成装置100の周囲にユーザーがいる場合に、そのユーザーを検出する。ユーザー検出センサー52としては、例えば、人感センサーや距離測定センサーを用いることができる。
人感センサーは、画像形成装置100の操作表示部20に配置された赤外線センサーから構成され、赤外線センサーが赤外線を感知することによって画像形成装置100の操作表示部20の周囲にいる人(ユーザー)を検知する。
また、距離測定センサーは、例えば、超音波センサーや光学式センサーによって構成される。距離測定センサーは、直進性の信号を用いて画像形成装置100からの距離を算出する。例えば、画像形成装置100、又は、操作表示部20からの距離が1~2m程度までにいる人(ユーザー)を検出する。
カメラ53は、ビデオカメラ等から構成され、画像形成装置100の操作表示部20の周囲を撮像する。カメラで撮像して得られた画像データを基に、制御部101が画像を解析して、画像形成装置100を操作しているユーザーの位置を検出する。
[音声入力装置の機能構成]
図3に、音声入力装置200のハードウエア構成例のブロック図を示す。図3に示すように、音声入力装置200は、全体を制御する演算装置であるCPU210、CPU210で実行されるプログラム等を記憶する不揮発メモリ220、CPU210でプログラムを実行する際の作業領域として機能するRAM230、マイクにより音声を収集する音声入力部240、音声入力装置200からユーザー等に音声で情報を通知する音声出力部250、上記ネットワーク(図1参照)を介した無線通信を制御する無線通信部260とを含む。
[外部端末装置の構成]
外部端末装置300は、画像やテキスト等によるガイダンス情報の表示やガイダンス情報の音声出力が可能なパーソナルコンピューター(PC)等の一般的なコンピューターや、スマートフォン、ヘッドセット等で実現することができる。すなわち、外部端末装置300のハードウエア構成は、一般的なコンピューターのハードウエア構成や、ヘッドセットのハードウエア構成と同様とすることができる。このため、外部端末装置300のハードウエア構成の詳細な説明は省略する。
外部端末装置300がPCやスマートフォン等の場合、CPU210等の内蔵するプロセッサがプログラムに従って、画像形成装置100の各部の制御や各種の演算処理を実行する。例えば、外部端末装置300は、文書データ作成、文書データ等をページ記述言語に変換する処理、印刷ジョブ生成、印刷ジョブ送信等を実行する。また、外部端末装置300には、作成された原稿データについて印刷設定等するためのプリンタードライバーがインストールされている。
外部端末装置300がヘッドセットの場合、上記ネットワーク(図1参照)を介した無線通信を制御する無線通信部と、受信した音声信号を出力する音声出力部(スピーカー、イヤフォン等)と、音声入力が可能なマイクロフォン等とを含む。
[制御部の機能構成]
次に、画像形成装置100の制御部101の構成について説明する。制御部101の機能ブロック図を図4に示す。図4に示すように、制御部101は、判断部110、ガイダンス制御部111、音声出力制御部112、表示制御部113、ユーザー位置検出部114、及び、操作履歴管理部115を備える。
判断部110は、画像形成装置100を操作しているユーザーが、画像形成装置100の表示部21を見ているかどうかを判定する。例えば、判断部110は、ユーザー位置検出部114が検出したユーザーの位置情報や、操作履歴管理部115が有する操作履歴を基に、ユーザーが画像形成装置100の操作表示部20を見ているかどうかを判定する。
また、判断部110は、画像形成装置100の表示部21の表示状態や、操作部22の操作状況から、ユーザーが画像形成装置100の操作表示部20を見ているかどうかを判定する。例えば、表示部21がスリープ状態、又は、表示部21を構成するパネルのバックライトがOFF又は低消費電力状態(待機状態やスリープ状態)の場合には、ユーザーが表示部21を参照することができないため、判断部110は、ユーザーが操作表示部20を見ていないと判定する。また、操作表示部20において、ユーザーが操作部22を操作している場合には、判断部110は、ユーザーが画像形成装置100の操作表示部20を見ていると判定する。
ユーザー位置検出部114は、画像形成装置100を操作しているユーザーの位置を検出する。ユーザー位置検出部114は、例えば、ユーザー検出センサー52が出力する情報やカメラ53が出力する画像データを基に、ユーザーの位置情報を検出する。
例えば、画像形成装置100がユーザー検出センサー52として、操作表示部20の近傍に人感センサーを有する場合、人感センサーが操作表示部20の近くで赤外線を感知し、ユーザー位置検出部114が操作表示部20の近傍におけるユーザーの位置情報を検出する。ユーザー位置検出部114は、例えば、人感センサーがユーザーを検知したことを示す情報を、検出したユーザーの位置情報として判断部110に送信する。判断部110は、この人感センサーがユーザーを検知したというユーザーの位置情報を基に、ユーザーが操作表示部20を見ていると判定する。また、ユーザー位置検出部114は、人感センサーがユーザーを検知していない場合には、ユーザーが画像形成装置100の近傍にいないという情報をユーザーの位置情報として判断部110に送信する。判断部110は、このユーザーの位置情報を基に、ユーザーが操作表示部20を見ていないと判定する。
また、画像形成装置100がユーザー検出センサー52として、操作表示部20の近傍に距離測定センサーを有する場合、距離測定センサーが画像形成装置100とユーザーとの距離を測定し、ユーザー位置検出部114が画像形成装置100とユーザーとの距離をユーザーの位置情報として検出する。ユーザー位置検出部114は、検出したユーザーの位置情報を、判断部110に送信する。判断部110は、位置情報(距離)を基に、例えば、操作表示部20とユーザーとの距離が1~2m以内である場合にユーザーが操作表示部20を見ていると判定し、操作表示部20とユーザーとの距離が2mを超える場合にユーザーが画像形成装置100の操作表示部20を見ていないと判定する。
画像形成装置100の周囲を撮像するカメラ53を有する場合、ユーザー位置検出部114は、カメラで撮像して得られた画像データを基にユーザーの位置情報を検出する。例えば、ユーザー位置検出部114は、画像データを基にパターンマッチングを行いユーザーの位置や、ユーザーが向いている方向、及び、ユーザーの視線方向を検知し、これらのいずれか1つ以上の情報をユーザーの位置情報として検出する。そして、ユーザー位置検出部114は、検出したユーザーの位置情報を、判断部110に送信する。判断部110は、検出したユーザーの位置情報を基に、例えば、ユーザーが画像形成装置100の近くにいる場合、ユーザーが画像形成装置100の方向を向いている場合、及び、ユーザーの視線方向が操作表示部20に向いている場合の少なくともいずれかの場合に、ユーザーが操作表示部20を見ていると判定する。
操作履歴管理部115は、ユーザーが操作部22を操作した履歴、例えば、内容や操作したタイミング(時刻)等の操作履歴を管理する。判断部110は、操作履歴管理部115が有する操作履歴を基に、ユーザーが操作部22を最後に操作したときからの経過時間が所定の時間内であれば、ユーザーが操作表示部20を見ていると判定する。例えば、ユーザーによる操作部22の操作から10秒以内であれば、ユーザーが操作表示部20を見ていると判定する。
判断部110は、ユーザーが画像形成装置100の表示部21を見ていると判定した場合に、ガイダンス制御部111に対して判定結果を送信する。
ガイダンス制御部111は、判断部110からの指示に基づき、音声出力制御部112に対して、音声ガイダンスの情報の少なくとも一部の内容を省略するように指示する。音声出力制御部112は、ガイダンス制御部111からの指示に基づき、少なくとも一部のガイダンス情報を省略した音声データを音声入力部50に出力する。
また、ガイダンス制御部111は、判断部110からの指示に基づき、表示制御部113に対して、ガイダンス情報を表示部21に表示するように指示する。表示制御部113は、ガイダンス制御部111からの指示に基づき、テキストデータや画像データ等のガイダンス情報を表示部21に出力する。
また、ガイダンス制御部111は、画像形成装置100の通信部71を介して、外部端末装置300にガイダンス情報を送信してもよい。外部端末装置300にガイダンス情報を出力する場合においても、ユーザーが表示部21を見ていると判断部110が判定した場合には、少なくとも一部のガイダンス情報を省略した音声データを外部端末装置300に送信する。また、外部端末装置300の表示部に表示するためのテキストデータや画像データ等のガイダンス情報を、外部端末装置300に送信する。
上述の画像形成装置100では、ユーザーが表示部21を見ている場合に音声ガイダンスを省略することにより、ユーザーが音声ガイダンスの出力中に次の指示を実行できないという課題を解消し、ユーザーの操作時間を短縮することができる。また、音声ガイダンスがスピーカ等の音声出力部51で出力されている間は、画像形成装置100の音声入力部50がガイダンス音声を拾ってしまうため、音声入力を有効にできない。このため、音声ガイダンスを省略することにより、音声入力が無効になる時間を短縮することができ、ユーザーの操作時間を短縮することができる。さらに、音声ガイダンスを通信部71を介してヘッドセット等の音声再生デバイスに出力することにより、画像形成装置100の音声入力部50がガイダンス音声を拾うことがないため、音声入力が無効になる時間をなくすことができ、ユーザーの操作時間を短縮することができる。
[音声操作と音声ガイダンス]
次に、画像形成システムにおけるユーザーによる音声操作と、画像形成装置100からの音声ガイダンスについて説明する。図5に、ユーザーによる音声操作と、画像形成装置100からの音声ガイダンスの一例を示す。なお、図5に示す例では、画像形成システムの音声入力装置200を用いてユーザーが画像形成装置100を操作する例について説明する。なお、画像形成装置100の音声入力部50を用いてユーザーが画像形成装置100を操作する場合にも同様に行うことができる。
図5に示すように、ユーザーが音声入力装置200に対して、画像形成装置100への接続を指示する。例えば、ユーザーが、音声入力装置200に対して「MFP(Multifunction Peripheral)に接続して」と音声入力する。これにより、音声入力装置200は、ネットワークを介して画像形成装置100に接続する。
画像形成装置100では、制御部101が入力された音声を基に、画像形成装置100を音声による操作を受付可能な状態(音声入力モード)にする。そして制御部101は、「画像形成装置に接続しました」の音声ガイダンスを音声入力装置200から出力させる。
以降は、図5に示すように、ユーザーによる画像形成装置100への音声操作と、画像形成装置100からの音声ガイダンスとが繰り返され、ユーザーに所望の設定が完了した場合にジョブ開始の指示が行われ、画像形成装置100がジョブを開始する。例えば、ユーザーによる音声操作による指示(「Copyジョブ」、「モノクロで」、「2部で」、「スタート」)と、この音声指示を受けた画像形成装置100による条件確認のための音声ガイダンス(「Copy設定を行います」「カラー設定はカラー or モノクロ」、「カラー設定をモノクロに変更します」、「部数は?」、「部数を2部に変更します」)とが、ユーザーと音声入力装置200との間で行われる。
[音声入力とガイダンス出力処理]
次に、画像形成システムにおける音声入力と、画像形成装置100からのガイダンス出力処理について説明する。図6に、音声入力とガイダンス情報の出力処理のフローチャートを示す。
まず、画像形成装置100が音声入力の受付処理を開始した後、画像形成装置100の制御部101は、ユーザーによる音声入力を検知する(ステップS1)。制御部101は、検知した音声入力が画像形成装置100に対する指示として有効かどうかを判定する(ステップS2)。音声入力が画像形成装置100に対する指示として有効ではない場合(ステップS2のNO)、画像形成装置100に対する指示として有効な音声入力を検知するまでステップS1の音声入力の検知を繰り返す。音声入力が画像形成装置100に対する指示として有効である場合(ステップS2のYES)、制御部101は、音声入力された指示に従って画像形成装置100におけるジョブの内容や条件等の設定を変更する(ステップS3)。
次に、制御部101は判断部110において、ユーザーが画像形成装置100の操作表示部20の表示部21を見ているかどうかを判定する(ステップS4)。この判断部110における判定処理については後述する。判断部110においてユーザーが表示部21を見ていないと判定した場合(ステップS4のNO)、制御部101は、音声入力装置200や画像形成装置100の音声出力部51から音声ガイダンスを出力する(ステップS5)。
ユーザーが表示部21を見ている場合(ステップS4のYES)には、制御部101は、表示部21にガイダンス情報を表示し(ステップS6)、表示するガイダンス情報に応じて音声ガイダンスの少なくとも一部を省略する(ステップS7)。音声ガイダンスの少なくとも一部を省略する場合においては、音声ガイダンスをすべて省略してもよい。音声ガイダンスをすべて省略した場合には、ガイダンス情報の音声出力は行わない。また、音声ガイダンスの一部を省略した場合には、省略していない音声ガイダンスの情報については、音声出力を行ってもよい。
ステップS5又はステップS7の処理後、ステップS1のユーザーによる音声入力を検知する状態に戻り、本フローチャートによる処理を終了する。
次に、表示部21に表示するガイダンス情報の例を、図7及び図8に示す。図7及び図8は、表示部21と操作部22とを有する操作表示部20の例である。図7及び図8に示すように、操作表示部20の表示部21に、テキストによってガイダンス情報を表示している。図7では、表示部21に、画像形成装置100が音声入力モードで動作していること、音声ガイダンスの省略中であること、ジョブのカラー設定の選択肢(カラー、モノクロ)、情報の履歴(前回1、前回2)として画像形成装置100への接続とコピージョブ選択の情報が表示されている。
図8では、表示部21に、画像形成装置が音声入力モードで動作していること、音声ガイダンスの省略中であること、ジョブのカラー設定の選択肢(カラー、モノクロ)、現在のコピージョブの設定としてカラーモード、部数、印刷面(片面/両面)、用紙サイズの各条件が表示されている。
[ユーザーが表示部を見ているがどうかの判定処理]
次に、上述の図6に示すフローチャートのステップS4における、ユーザーが画像形成装置100の操作表示部20の表示部21を見ているかどうかの判定処理について説明する。図9に、ユーザーが表示部21を見ているかどうかを判定するフローチャートを示す。なお、以下の説明では、図3に示す画像形成装置100の制御部101の各構成と、これら各構成に付した符号とを必要に応じて用いる。
図9に示すように、まず、制御部101は、画像形成装置100にユーザー検出センサー52が搭載されているかどうかを判定する(ステップS101)。画像形成装置100に搭載されている各デバイスの情報は、デバイス情報としてあらかじめ画像形成装置100のメモリ等に記憶されている。画像形成装置100にユーザー検出センサー52が搭載されている場合(ステップS101のYES)、制御部101のユーザー位置検出部114が、ユーザー検出センサー52の情報を取得する(ステップS102)。そして、制御部101の判断部110は、ユーザー位置検出部114がユーザー検出センサー52の情報から取得したユーザーの位置情報を基に、画像形成装置100の近くに人(ユーザー)がいるかどうかを判定する(ステップS103)。
画像形成装置100にユーザー検出センサー52が搭載されていない場合(ステップS101のNO)、又は、判断部110が画像形成装置100の近くに人(ユーザー)がいないと判定した場合(ステップS103のNO)、制御部101は、画像形成装置100にカメラ53が搭載されているかどうかを判定する(ステップS104)。画像形成装置100にカメラ53が搭載されている場合(ステップS104のYES)、制御部101のユーザー位置検出部114が、カメラ53から画像データを取得し、画像データからユーザーの向いている方向や、ユーザーの視線方向等のユーザーの位置情報を算出する(ステップS105)。そして、制御部101の判断部110は、ユーザー位置検出部114が画像データから取得したユーザーの位置情報を基に、ユーザーが表示部21を見ているがどうかを判定する(ステップS106)。
画像形成装置100にカメラ53が搭載されていない場合(ステップS104のNO)、又は、判断部110においてユーザーが表示部を見ていないと判定した場合(ステップS106のNO)、判断部110は、操作履歴管理部115から、ユーザーが画像形成装置100の操作部22を操作した履歴情報を取得する(ステップS107)。そして、判断部110は、取得した操作履歴情報から、操作部22の最後の操作からの経過時間が所定時間内であるかどうかを判定する(ステップS108)。
音声操作の検知が操作部22の最後の操作からの経過時間が所定時間内ではないと判定した場合(ステップS108のNO)、判断部110は、画像形成装置100の電源状態を確認する(ステップS109)。そして、判断部110は、画像形成装置100の電源状態が待機状態かどうかを判定する(ステップS110)。この判定処理において、判断部110は、表示部21の電源状態が待機状態の場合には、ユーザーが表示部21を見ていないと判定する。なお、判断部110は、表示部21を構成する表示パネルのバックライトがOFF又は低消費電力状態の場合にも、ユーザーが表示部21を見ていないと判定してもよい。
画像形成装置100の電源状態が待機状態である場合(ステップS110のNO)、すなわち、判断部110においてユーザーが表示部21を見ていないと判定した場合、図6に示すフローチャートのステップS5へ移行し、本フローチャートによる処理を終了する。
判断部110が画像形成装置100の近くに人(ユーザー)がいると判定した場合(ステップS103のYES)、判断部110においてユーザーが表示部を見ている判定した場合(ステップS106のYES)、音声操作の検知が操作部22の最後操作から所定時間内であると判定された場合(ステップS108のYES)、又は、画像形成装置100の電源状態が待機状態ではない場合(ステップS110のYES)、図6に示すフローチャートのステップS6へ移行し、本フローチャートによる処理を終了する。
[ユーザーが表示部を見ているがどうかの判定処理]
上述の図6及び図9に示す処理により、制御部101においてユーザーが表示部21を見ていると判定し、表示部21にガイダンス情報を表示して音声ガイダンスを省略した場合において、実際にはユーザーが表示部21を見ていない場合がある。この場合には、ユーザーが音声ガイダンスの応答を待ってしまう可能性があるため、ユーザーの操作時間を短縮することができない。このようなユーザーが音声ガイダンスの応答を待ってしまう場合による操作の遅延を防ぐ方法として、音声ガイダンスの省略を判定してから一定時間経過した場合に、音声ガイダンスを再開することにより、操作の遅延を抑制することができる。
また、一定時間経過後に音声ガイダンスを再開する場合には、ユーザーが音声ガイダンスの応答を待っている場合だけでなく、ユーザーが表示部21を見ながら次の操作を考える間に時間が経過してしまう場合もある。この場合には、音声ガイダンスを再開してしまうと、ユーザーの音声操作を阻害してしまい、結果的にユーザーの操作を遅延させてしまう。このため、表示部21へのガイダンス情報の表示に合わせて、音声ガイダンスの省略を了承するかどうか選択可能な画面を表示し、ユーザーが音声ガイダンスの省略を選択した場合に、音声ガイダンスの再開を停止する。例えば、音声ガイダンスの省略を了承するかどうか選択可能な画面として、コマンドボタンの表示や、承認する機能を割り当てたソフトキーの表示を行う。そして、ユーザーが承認のためのコマンドボタンやソフトキーを押下することにより、ジョブの設定が完了するまでは音声ガイダンスを省略する。なお、コマンドボタンやソフトキーは、物理的なボタン(ハードキー)やスイッチ等でもよい。
音声ガイダンスの再開、及び、ユーザーによる音声ガイダンスの省略の承認に係わる処理のフローチャートを図10に示す。
まず、画像形成装置100の表示部21にガイダンス情報を表示した後、判断部110は、ガイダンス情報の表示から所定の時間が経過したかどうかを判定する(ステップS201)。所定の時間が経過した場合(ステップS201のYES)には、判断部110は、ユーザーが表示部21を見ていないと判断し、ガイダンス制御部111に対して省略していた音声ガイダンスを実行するように指示し(ステップS202)、本フローチャートによる処理を終了する。
所定の時間が経過していない場合(ステップS201のNO)、判断部110は、ユーザーにより音声ガイダンスの省略を承認するためのコマンドボタンやソフトキーが押下されたかどうかを判定する(ステップS203)。ユーザーにより省略を承認するコマンドボタンやソフトキーが押下されていない場合(ステップS203のNO)、所定時間が経過するまでステップS201による判定処理を繰り返す。また、ユーザーにより省略を承認するコマンドボタンやソフトキーが押下された場合(ステップS203のYES)、判断部110は、ガイダンス情報の表示からの経過時間の計測を解除し(ステップS204)、本フローチャートによる処理を終了する。
なお、本発明は上述の実施形態例において説明した構成に限定されるものではなく、その他本発明の構成を逸脱しない範囲において種々の変形、変更が可能である。
10 画像読取り部、20 操作表示部、21 表示部、22 操作部、30 画像処理部、40 画像形成部、50,240 音声入力部、51,250 音声出力部、52 ユーザー検出センサー、53 カメラ、71 通信部、72 記憶部、100 画像形成装置、101 制御部、102,210 CPU、103,230 RAM、104 ROM、110 判断部、111 ガイダンス制御部、112 音声出力制御部、113 表示制御部、114 ユーザー位置検出部、115 操作履歴管理部、200 音声入力装置、220 不揮発メモリ、260 無線通信部、300 外部端末装置

Claims (11)

  1. 音声が入力される音声入力部と、
    情報を表示する表示部と、
    ユーザーの操作に応じた制御を行う制御部と、
    前記制御部の制御により用紙に画像を形成する画像形成部と、を備え、
    前記制御部は、
    前記音声入力部に対する入力音声に基づく音声操作が可能な音声操作モードが動作時において、前記ユーザーの位置情報、操作履歴、前記表示部の表示状態、及び、操作部の操作状況の少なくともいずれか1つ以上から前記ユーザーが前記表示部を見ているかどうかを判定し、
    前記ユーザーが前記表示部を見ていないと判定した場合には、音声ガイダンスの出力を実行し、
    前記ユーザーが前記表示部を見ていると判定した場合には前記入力音声に基づく音声ガイダンスの少なくとも一部の内容の音声出力を停止し、前記入力音声に基づくガイダンス情報を前記表示部に表示させる
    画像形成装置。
  2. 前記制御部は、ユーザーの位置を検出するユーザー位置検出部を有し、
    前記ユーザー位置検出部が検出した前記ユーザーの位置情報を基に、前記ユーザーが前記表示部を見ているかどうかを判定する
    請求項1に記載の画像形成装置。
  3. 前記ユーザー位置検出部は、前記画像形成装置の近傍にいる人を検知するユーザー検出センサーからの情報を基に前記ユーザーの位置情報を検出する
    請求項2に記載の画像形成装置。
  4. カメラを備え、前記ユーザー位置検出部は、前記カメラからの画像データを元に前記ユーザーの位置情報を検出する
    請求項2に記載の画像形成装置。
  5. 前記制御部は、ユーザーの前記操作履歴を管理する操作履歴管理部を有し、
    前記制御部は、前記操作履歴管理部に格納された前記操作履歴から算出される操作時間を基に、前記ユーザーが前記表示部を見ているかどうかを判定する
    請求項1から4のいずれかに記載の画像形成装置。
  6. 前記制御部は、前記表示部の前記表示状態からユーザーが前記表示部を見ているかどうかを判定する
    請求項1から5のいずれかに記載の画像形成装置。
  7. 前記制御部は、前記音声ガイダンスを停止した後、一定期間後に前記音声ガイダンスを再開する
    請求項1から6のいずれかに記載の画像形成装置。
  8. 前記制御部は、前記音声ガイダンスの音声出力を停止した後、前記表示部に前記ガイダンス情報とともに前記音声ガイダンスの省略を了承するかどうか選択可能な画面を表示し、ユーザーが前記音声ガイダンスの省略を了承することを選択した場合には、前記音声ガイダンスを再開しない
    請求項7に記載の画像形成装置。
  9. 画像形成装置と、端末装置と、を備え、
    前記画像形成装置は、
    音声が入力される音声入力部と、
    情報を表示する表示部と、
    ユーザーの操作に応じた制御を行う制御部と、
    前記制御部の制御により用紙に画像を形成する画像形成部と、を備え、
    前記制御部は、
    前記音声入力部に対する入力音声に基づく音声操作が可能な音声操作モードが動作時において、前記ユーザーの位置情報、操作履歴、前記表示部の表示状態、及び、操作部の操作状況の少なくともいずれか1つ以上から前記ユーザーが前記表示部を見ているかどうかを判定し、
    前記ユーザーが前記表示部を見ていないと判定した場合には、音声ガイダンスの出力を実行し、
    前記ユーザーが前記表示部を見ていると判定した場合には前記入力音声に基づく音声ガイダンスの少なくとも一部の内容の音声出力を停止し、前記入力音声に基づくガイダンス情報を前記表示部に表示させ、
    前記音声ガイダンスの音声出力を停止したときに、前記端末装置にガイダンス情報を送信する
    画像形成システム。
  10. 前記制御部は、前記音声ガイダンスの音声出力を停止したときに、前記入力音声を基に表示用の前記ガイダンス情報を前記端末装置に送信する
    請求項9に記載の画像形成システム。
  11. 前記制御部は、前記音声ガイダンスの音声出力を停止したときに、前記音声ガイダンスの音声データを前記端末装置に送信する
    請求項9に記載の画像形成システム。
JP2019122758A 2019-07-01 2019-07-01 画像形成装置、及び、画像形成システム Active JP7419682B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019122758A JP7419682B2 (ja) 2019-07-01 2019-07-01 画像形成装置、及び、画像形成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019122758A JP7419682B2 (ja) 2019-07-01 2019-07-01 画像形成装置、及び、画像形成システム

Publications (2)

Publication Number Publication Date
JP2021009541A JP2021009541A (ja) 2021-01-28
JP7419682B2 true JP7419682B2 (ja) 2024-01-23

Family

ID=74200090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122758A Active JP7419682B2 (ja) 2019-07-01 2019-07-01 画像形成装置、及び、画像形成システム

Country Status (1)

Country Link
JP (1) JP7419682B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131773A (ja) 2001-08-17 2003-05-09 Ricoh Co Ltd 機器操作装置、プログラムおよび記録媒体並びに画像形成装置
JP2008276693A (ja) 2007-05-07 2008-11-13 Konica Minolta Business Technologies Inc 画像形成装置及びプログラム
JP2009094679A (ja) 2007-10-05 2009-04-30 Konica Minolta Business Technologies Inc 管理プログラム及び画像形成装置
JP2014516181A (ja) 2011-05-25 2014-07-07 株式会社ソニー・コンピュータエンタテインメント 視線によるデバイスの挙動の変更
WO2018037951A1 (ja) 2016-08-25 2018-03-01 ソニー株式会社 情報提示装置、および情報提示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131773A (ja) 2001-08-17 2003-05-09 Ricoh Co Ltd 機器操作装置、プログラムおよび記録媒体並びに画像形成装置
JP2008276693A (ja) 2007-05-07 2008-11-13 Konica Minolta Business Technologies Inc 画像形成装置及びプログラム
JP2009094679A (ja) 2007-10-05 2009-04-30 Konica Minolta Business Technologies Inc 管理プログラム及び画像形成装置
JP2014516181A (ja) 2011-05-25 2014-07-07 株式会社ソニー・コンピュータエンタテインメント 視線によるデバイスの挙動の変更
WO2018037951A1 (ja) 2016-08-25 2018-03-01 ソニー株式会社 情報提示装置、および情報提示方法

Also Published As

Publication number Publication date
JP2021009541A (ja) 2021-01-28

Similar Documents

Publication Publication Date Title
US9292088B2 (en) Display device, non-transitory computer-readable recording medium and image processing apparatus
JP6330349B2 (ja) 表示制御装置、表示システム、操作表示装置、プログラム
US10216461B2 (en) Information processing apparatus, control method of the same, and program
JP2017209815A (ja) 画像形成システム、及びこれに用いられる画像処理装置、及びその制御方法、プログラム
JP7482179B2 (ja) 画像形成装置および画像形成装置の制御方法
JP5936391B2 (ja) ジョブ処理装置およびジョブ処理装置の電源制御方法、及びプログラム
US10310775B2 (en) Job processing apparatus, method of controlling job processing apparatus, and recording medium for audio guidance
US10122890B2 (en) Image forming apparatus and tangible computer-readable recording medium
JP2019169809A (ja) 画像形成装置、その制御方法、及びプログラム
JP7419682B2 (ja) 画像形成装置、及び、画像形成システム
JP6415178B2 (ja) 印刷装置及びデータの更新方法
JP2010098653A (ja) 画像処理装置、画像形成装置、省電力状態からの復帰方法、及びコンピュータプログラム
JP2004030144A (ja) 電子装置
JP2020036261A (ja) 情報処理システムおよび操作履歴の確認方法
JP5812170B1 (ja) 画像表示装置およびプログラム
JP6047398B2 (ja) 画像形成装置
JP5546268B2 (ja) 通信装置
JP7466011B2 (ja) 画像形成装置、情報処理システムおよび制御方法
US11184492B2 (en) Image forming apparatus and voice input control
TW202010652A (zh) 事務機與事務機的操控組件之控制方法
US11463595B2 (en) Image forming device
JP2015080857A (ja) 画像形成装置、及び画像形成システム
JP7103074B2 (ja) 画像形成装置及び操作方法
WO2024024642A1 (ja) 画像形成装置
WO2024024644A1 (ja) 画像形成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R150 Certificate of patent or registration of utility model

Ref document number: 7419682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150