JP2004062867A - Function controller and its method - Google Patents

Function controller and its method Download PDF

Info

Publication number
JP2004062867A
JP2004062867A JP2003152626A JP2003152626A JP2004062867A JP 2004062867 A JP2004062867 A JP 2004062867A JP 2003152626 A JP2003152626 A JP 2003152626A JP 2003152626 A JP2003152626 A JP 2003152626A JP 2004062867 A JP2004062867 A JP 2004062867A
Authority
JP
Japan
Prior art keywords
function
control device
positions
function control
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003152626A
Other languages
Japanese (ja)
Other versions
JP4258836B2 (en
Inventor
Katsuya Mitsutake
光武 克也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2003152626A priority Critical patent/JP4258836B2/en
Publication of JP2004062867A publication Critical patent/JP2004062867A/en
Application granted granted Critical
Publication of JP4258836B2 publication Critical patent/JP4258836B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an interface with satisfactory operability for a visually impaired person. <P>SOLUTION: Positions of a user's fingers to be placed on a touch panel are detected and buttons to be used for selection of functions, etc. are provided at the detected positions. Thus, the user having visual impairment is enabled to perform an operations even without memorizing positions of the buttons and in addition, user interface environment with satisfactory operability for the visually impaired person is provided without using special components by providing the buttons so as to correspond to the positions of the user's fingers. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザからの操作を受け入れて機能を実行させる機能制御装置およびその方法に関する。
【0002】
【従来の技術】
コピー複写機などのオフィス機器、乗車切符自動販売機などの券売機、および、公共の場に置かれている情報案内機器などには、現在、タッチパネル・キースイッチと表示装置とが組み合わされたユーザインタフェース装置が応用されている。
このようなユーザインターフェース装置では、操作する機能が多かったり、表示する情報の種類が多いなどの理由で、操作用のボタンを表示する位置、および、ボタンと機能との対応付けが変更可能とされることがある。
【0003】
ここで、上記オフィス機器などの操作を、視覚障害者にとっても容易にしたいという社会的要請がある。
例えば、米国においては、「アクセシビリティに関する法律(508条)により、機械的な操作が伴うキーを触覚により識別可能にすることが求められる。
【0004】
このような要請に応える方法として、例えば、「特開平5−324987号公報」(文献1)は、タッチパネルとは別に、視覚障害者用のキーをまとめたセットトップボックスを設け、両者を切りかえる方法を開示する。
しかしながら、文献1に開示された方法によると、セットトップボックスのキーがプログラマブルではないため、操作可能な機能が限定されしまうので、機能の追加・変更のたびに、新たにセットトップボックスを製作する必要がある。
【0005】
また、「特開平5−158607号公報」(文献2)は、発熱体、あるいは、機械的可動部分により、能動的に点字を形成する方法を開示する。
しかしながら、文献2に開示された発明を実現するための機構は、複雑で高価になってしまう。
また、点字を知らないユーザは、この方法を用いた装置を使用できない。
【0006】
また、「特開平7−319623号公報」・「特開平9−265352号公報」(文献3,4)は、タッチパネルに表示されるキーに対応付けて凹凸を設ける方法を開示する。
しかしながら、タッチパネルのキーのレイアウトは機種により異なるので、文献3,4に開示された方法によると、機種ごとに異なるタッチパネルが必要とされ、タッチパネルのコストが高くなる。
また、例えば、弱視者のために文字やキーを拡大して表示すると、タッチパネルの凹凸と表示とがずれてしまうので、これらの凹凸を利用した操作案内ができなくなってしまう。
【0007】
また、「特開平8−297542号公報」(文献5)は、タッチパネルの操作面に格子線状の凹凸を設け、操作面上の位置を触覚により識別可能にし、さらに、音声ガイダンスを行う方法を開示する。
しかしながら、文献5に開示された方式では、ユーザは音声により案内された座標を記憶し、格子線を辿らなくてはならない。
従って、この方法によると、操作に時間がかかる上に、案内の内容を忘れてしまうと操作ができなくなってしまう。
【0008】
【発明が解決しようとする課題】
本発明は、上述した従来技術の問題点を解決するためになされたものであり、異なる種類の装置それぞれに対して容易に適用することができる機能制御装置およびその方法を提供することを目的とする。
また、本発明は、視覚障害者にとっても操作が簡単な機能制御装置およびその方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
[機能制御装置]
上記目的を達成するために、本発明に係る機能制御装置は、外部からの操作が受け入れられる操作面において、1つ以上の第1の操作それぞれがなされた1つ以上の第1の操作位置それぞれを検出する操作位置検出手段と、前記検出された第1の操作位置の1つ以上それぞれと、1つ以上の所定の機能それぞれとを対応付ける機能対応付け手段と、前記第1の操作位置の1つ以上それぞれに対する第2の操作を検出する操作検出手段と、前記第2の操作がなされた前記第1の操作位置の1つ以上に対応付けられた機能の実行を制御する機能実行制御手段とを有する。
【0010】
好適には、前記操作面を介して操作を受け入れるタッチパネルを有する。
【0011】
好適には、前記タッチパネルには、前記タッチパネルの操作面上の1つ以上の位置それぞれを、触覚によりそれぞれ表示する1つ以上の位置表示手段が設けられる。
【0012】
好適には、前記第1の操作は、前記操作面の1つ以上の位置をポインティングする操作であって、前記操作位置検出手段は、前記ポインティングされた操作面の1つ以上の位置それぞれを、前記第1の操作位置それぞれとして検出する。
【0013】
好適には、前記第2の操作は、前記第1の位置の1つ以上それぞれに対して所定の時間以上、継続して行われる。
【0014】
好適には、前記第2の操作は、前記第1の位置のいずれか1つ以上に対するポインティングを止めることにより行われる。
【0015】
好適には、前記第2の操作は、前記第1の操作の後に、前記第1の位置をポインティングすることにより行われる。
【0016】
好適には、前記第2の操作は、前記第1の位置のいずれかに対して1回以上、行われ、前記操作検出手段は、前記第2の操作の回数をさらに検出し、前記機能実行制御手段は、前記第2の操作がなされた前記第1の操作位置と、前記検出された第2の操作の回数とに基づいて、前記機能の実行を制御する。
【0017】
好適には、前記第2の操作は、前記第1の位置のいずれかに対して1回以上、行われ、前記操作検出手段は、前記第2の操作の回数をさらに検出し、前記機能実行制御手段は、前記第2の操作がなされた前記第1の操作位置に対応する機能の状態を、前記第2の操作の回数に応じて変更して実行するように制御する。
【0018】
好適には、前記操作面に対しては、前記第2の操作と組み合わされて、前記第1の操作位置の1つ以上それぞれに対して行われる第3の操作がさらに行われ、前記操作検出手段は、前記第3の操作をさらに検出し、前記機能実行制御手段は、前記検出された第3の操作に応じて、前記第3の操作に組み合わされて実行される機能を開始または終了させる。
【0019】
好適には、前記操作面の1つ以上の位置をポインティングする第1の操作は、前記操作面の複数の位置を、複数の指で同時に触れる操作であって、前記操作位置検出手段は、前記複数の指それぞれが触れた領域およびその周囲またはこれらのいずれかそれぞれを、前記第1の操作位置それぞれとして検出する。
【0020】
好適には、前記操作位置検出手段は、さらに、前記第1の操作位置の位置関係に基づいて、前記第1の操作位置それぞれと、親指、人差し指、中指、薬指および小指の内の1つ以上それぞれとを対応付ける。
【0021】
好適には、前記第1の操作位置に対応付けられた指の名称を用いて音声ガイダンスを行う第1の音声ガイダンス手段をさらに有する。
【0022】
好適には、前記操作面に対する操作を音声ガイダンスする第2の音声ガイダンス手段をさらに有する。
【0023】
好適には、前記操作面に対する操作に応じて、所定の音声を出力する音声出力手段をさらに有する。
【0024】
好適には、1つ以上の前記第2の操作の組み合わせを登録する操作登録手段をさらに有し、前記機能実行制御手段は、前記登録された第2の操作の組み合わせがなされる前記第1の操作位置に対応付けられた機能の実行を制御する。
【0025】
好適には、前記操作登録手段は、前記第2の操作の組み合わせ1つ以上を登録し、前記登録された第2の操作の組み合わせのいずれかを示す前記第2の操作に応じて、前記登録された第2の操作の組み合わせのいずれかを選択し、前記機能実行制御手段は、前記選択された第2の操作の組み合わせがなされる前記第1の操作位置に対応付けられた機能の実行を制御する。
【0026】
好適には、前記操作登録手段は、前記第2の操作を行うユーザの識別子1つ以上を受け入れ、前記受け入られた識別子それぞれに対応付けて、前記第2の操作の組み合わせ1つ以上を登録し、前記受け入れられた識別子と、前記登録された第2の操作の組み合わせのいずれかを示す第2の操作とに応じて、前記登録された第2の操作の組み合わせのいずれかを選択し、前記機能実行制御手段は、前記選択された第2の操作の組み合わせがなされる前記第1の操作位置に対応付けられた機能の実行をさらに制御する。
【0027】
好適には、前記選択された第2の操作の組み合わせを音声表示する第3の音声ガイダンス手段をさらに有する。
【0028】
好適には、前記検出された第1の操作位置それぞれに、これらの第1の操作位置それぞれに対応付けられた機能を示す画像を表示する画像表示手段をさらに有する。
【0029】
好適には、前記画像表示手段は、前記機能を示す画像を、前記第1の操作位置またはその近傍に表示する。
好適には、前記画像表示手段は、前記機能により設定された設定値を、前記第1の操作位置またはその近傍にさらに表示する。
【0030】
好適には、前記画像表示手段は、前記機能を示す画像を、これらの機能を指定するためのハードウエア的なボタンと、実質的に、同一または縦横任意倍率の相似な形状で表示する。
【0031】
好適には、前記画像表示手段は、前記機能を示す画像を、これらの機能を指定するためのハードウエア的なボタンと、実質的に、同一の色彩で表示する。
【0032】
好適には、前記画像表示手段は、前記機能を示す画像を、機能ごとに変更して表示する。
【0033】
好適には、前記画像表示手段は、前記機能を示す文字情報を、前記第1の操作位置またはその近傍にさらに表示する。
【0034】
好適には、前記操作検出手段は、前記第1の操作位置の1つ以上それぞれに対する第2の操作のタイミングを検出し、前記機能実行制御手段は、前記第1の操作位置の1つ以上それぞれと、前記検出された第2の操作のタイミングとに対応付けられた機能の実行を制御する。
【0035】
好適には、前記タイミングは、複数の前記第2の操作の間の時間間隔である。
【0036】
好適には、前記タイミングは、前記第2の操作の継続時間である。
【0037】
好適には、前記タイミングは、前記複数の前記第2の操作の間の時間間隔、および、前記第2の操作の継続時間の組み合わせである。
【0038】
また、本発明に係る第2の機能制御装置は、上記いずれかの機能制御装置と、操作を受け入れて機能の実行を制御する他の機能制御装置と、操作に応じて、前記機能制御装置および前記他の機能制御装置のいずれかを選択的に起動する選択手段とを有する。
【0039】
[画像形成装置]
また、本発明に係る画像形成装置は、上記いずれかの機能制御装置を有する。
【0040】
[情報処理装置]
また、本発明に係る情報処理装置は、上記いずれかの機能制御装置を有する。
【0041】
[機能制御方法]
また、本発明に係る機能制御方法は、外部からの操作が受け入れられる操作面において、1つ以上の第1の操作それぞれがなされた1つ以上の第1の操作位置それぞれを検出し、前記検出された第1の操作位置の1つ以上それぞれと、1つ以上の所定の機能それぞれとを対応付け、前記第1の操作位置の1つ以上それぞれに対する第2の操作を検出し、前記第2の操作がなされた前記第1の操作位置の1つ以上に対応付けられた機能の実行を制御する。
【0042】
[プログラム]
また、本発明に係るプログラムは、外部からの操作が受け入れられる操作面において、1つ以上の第1の操作それぞれがなされた1つ以上の第1の操作位置それぞれを検出するステップと、前記検出された第1の操作位置の1つ以上それぞれと、1つ以上の所定の機能それぞれとを対応付けるステップと、前記第1の操作位置の1つ以上それぞれに対する第2の操作を検出するステップと、前記第2の操作がなされた前記第1の操作位置の1つ以上に対応付けられた機能の実行を制御するステップとをコンピュータに実行させる。
【0043】
【発明の実施の形態】
[概要]
まず、本発明の概要を説明する。
本発明にかかる機能制御方法は、例えば、タッチパネルを用いて印刷部数などの設定を行うコピー複合機に適用される。
本発明にかかる機能制御方法は、タッチパネルにおいて、ユーザの指が触れている部分を、機能などを選択するためのボタンとして用いる。
【0044】
さらに具体的に説明する。
まず、ユーザがタッチパネル上にユーザが指を置くと、本発明にかかる機能制御方法が適用される装置は、タッチパネルに置かれた指の数と位置関係とを検出する。
例えば、(人差し指または薬指)、指2本がタッチパネルに置かれたときには、2本の指がそれぞれ置かれた位置、および、置かれた2本の指のいずれが右側の指であり、いずれが左側の指であるかを認識する。
また、例えば、本発明にかかる機能制御方法が適用される装置は、指5本がタッチパネルに置かれたときには、5本の指それぞれが置かれた位置、および、5つの位置のいずれに1番目の指(親指または小指)が置かれているか、2番目の指(人差し指または薬指)が置かれているか、3番目の指(中指)が置かれているか、4番目の指(薬指または人差し指)が置かれているか、5番目の指(小指または親指)が置かれているかを認識する。
【0045】
このようにタッチパネルにおいて、指が置かれている位置を検出し、また、いずれの指がいずれの位置に置かれているかを検出することにより、本発明にかかる機能制御方法が適用される装置は、指が置かれた位置それぞれと、実行制御の対象となる機能とを対応付けて、ユーザに、指を置いた位置それぞれをボタンのように用いて操作を行える環境を提供する。
つまり、本発明にかかる機能制御方法は、固定した位置に置いたボタンに固定的に機能を対応付け、ボタンの位置をユーザに憶えさせるという従来の発想を、ユーザが指を置いた位置に機能を対応づけ、ボタンとして用いるという発想に全面的に切り替えたものであり、ユーザの指の位置に機能を自動的に対応付けて操作を受け入れる。
【0046】
さらに、例えば、右手の5本の指がタッチパネルに置かれるときには、上述のように、一番右の位置には親指が置かれ、中央の位置には中指が置かれているなどと認識することができる。
このようにタッチパネル上の各指と音声ガイダンスとを組み合わせると、より操作性を向上することができる。
つまり、例えば、音声ガイダンスにより、「親指で、コピー、ファックス、スキャンのいずれかの機能を選択してください。」あるいは「中指をつかって、コピー部数を指定してください」などと操作の案内を行うことにより、装置の操作性をより向上させることができる。
【0047】
[第1実施形態]
以下、本発明の第1の実施形態を説明する。
図1は、本発明にかかるプリンタシステム1のハードウェア構成を、制御装置10を中心として示す図である。
図1に示すように、プリンタシステム1は、CPU102およびメモリ104などを含む制御装置10、通信装置120、プリンタ装置本体122、記録装置14、表示装置16、第1のタッチパネル180(または図16,図17を参照して後述する第2のタッチパネル190)、キーボード182およびコピー枚数管理用のカードリーダ184などを含む入力装置18から構成される。
【0048】
通信装置120は、ネットワーク(図示せず)を介してコンピュータなどの他のノードとの通信を行う。
プリンタ装置本体122は、コピー複合機として必要な構成部分(プリントエンジン、スキャナなど;図示せず)を含む。
ユーザがプリンタ装置本体122に対して実行を指定することができる機能には、通常の印刷またはコピー(以下、単に「印刷」あるいは「コピー」とも記し、必要がない限り、これらを厳密に区別しない)、両面印刷およびNアップ印刷などがあり、ユーザがプリンタ装置本体122に対してすることができる設定には、印刷の濃度、部数、倍率およびFAX番号の登録などがありうる。
【0049】
記録装置14は、HD・FD・CDなどの記録媒体140に対してデータを記録・再生する。
表示装置16は、CRT・LCDなどのディスプレイおよびスピーカ(SP)などを含む。
【0050】
入力装置18は、タッチパネル180およびキーボード182等の入力装置から構成される。
つまり、プリンタシステム1は、ネットワークを介して伝送されてくる画像データを印刷するネットワークプリンタ、あるいは、コピー装置、FAX装置およびスキャナ装置としての機能を含むコピー複合機としての構成部分を有する。
【0051】
図2は、図1に示したタッチパネル180の構成を示す図である。
図3は、図1,図2に示したタッチパネル180の操作面をユーザが指で触れる様子を示す図である。
タッチパネル180は、操作面から操作を受け入れる。
タッチパネル180の操作面には、図2に示すように、縦方向に伸びる複数の電極186と横方向に伸びる複数の電極184とが格子状に配設されている。
図3に示すように、ユーザの指などにより操作面が押下されたり、スタイラスなどにより操作面がポインティングされると、押下あるいはポインティングされた部分の格子点(図2においては丸印が付されて示されている)で電極184,186が接する。
なお、ここで示したポインティングとは、指などによる接触、あるいは、スタイラス等による接触を意味する。
【0052】
制御装置10からは、タッチパネル180(図2)の横方向に伸びる電極184に順次、電圧を印加し、横方向に伸びる電極184への電圧印加に同期して、縦方向に伸びる電極186の出力電圧を操作することにより、いずれの格子点のそれぞれにおいて電極184,186が接しているかを判定することができる。
【0053】
本発明にかかる機能制御方法においては、タッチパネル180の操作面に対しては、ユーザは、指で操作を行うことも、スタイラスなどを用いて操作を行うこともできるが、以下、説明の簡略化・具体化のために、ユーザがタッチパネル180の操作面に対して指で操作を行う場合を例とする。
【0054】
[UIプログラム20]
図4は、図1に示した制御装置10において、本発明にかかる機能制御方法を実現する第1の視覚障害者用UIプログラム20の構成を示す図である。
図4に示すように、UIプログラム20は、押下位置検出部200(操作位置検出手段)、指位置検出部202、操作検出部204(操作検出手段)、操作判定部206(機能対応付け手段)から構成される。
【0055】
UIプログラム20は、記録媒体140などを介して制御装置10に供給され、メモリ104にロードされ、実行される。
UIプログラム20は、これらの構成部分により、ユーザがタッチパネル180(図1,図2)の操作面に置いた1本以上の指の位置を検出して機能を対応付けて、機能の選択を受け入れるいわゆる「ボタン」とし、これらのボタンに対する操作を受け入れて機能実行制御部3に通知し、プリンタ装置本体122の機能の実行を制御させ、あるいは、プリンタ装置本体122に対する設定を行わせる。
【0056】
[押下位置検出部200]
押下位置検出部200は、タッチパネル180(図1,図2)の操作面のいずれの部分が押下されているかを検出する。
つまり、押下位置検出部200は、横方向に伸びる電極184に順次、電圧信号を加え、縦方向に伸びる電極186から出力される出力信号を読み取ることにより、タッチパネル180の格子点(図2)のいずれにおいて電極184,186が接触しているかを検出する。
押下位置検出部200は、検出した押下の位置を、指位置検出部202および操作検出部204に対して出力する。
【0057】
[指位置検出部202]
図5は、ユーザが、図3に示したようにタッチパネル180の操作面を右手の5本の指で押下したときにはに、図4に示した押下位置検出部200による押下の検出、および、指位置検出部202による指の位置の検出が行われる領域を例示する図である。
指位置検出部202は、押下位置検出部200から入力される押下の位置に基づいて、ユーザの指の位置を検出し、タッチパネル180の操作面において指が検出された位置に、機能の選択などのために用いられるボタンを設ける。
【0058】
つまり、ユーザが、ボタンの位置を定めるために、図3に示したように、タッチパネル180の操作面に右手の5本の指(親指・人差し指・中指・薬指・小指)を置き、押下位置検出部200が、5本の指により押下された位置を検出すると、指位置検出部202は、押下が検出された格子点を適宜、クラスタリングし、クラスタリングにより得られた格子点の範囲A〜Eを、指が置かれた位置として検出する。
さらに、指位置検出部202は、必要に応じて、図5に例示したように検出されたユーザの指の範囲A〜Eの位置関係、および、ユーザが左右いずれの手をタッチパネル180の操作面に置いたかなどに基づいて、範囲A〜Eそれぞれが、ユーザのいずれの指(親指・人差し指・中指・薬指・小指)に対応するかを判定する。
【0059】
従って、図3に例示したようにユーザがタッチパネル180の操作面に右手の指を置いたときには、図5に示した範囲A〜Eそれぞれは、親指、人差し指、中指、薬指、小指それぞれに対応付けられる。
また、ユーザがタッチパネル180の操作面に左手の指を置いたときには、図5に示した範囲A〜Eそれぞれは、指位置検出部202により、小指、薬指、中指、人差し指、親指それぞれに対応付けられる。
【0060】
なお、検出した範囲と指との対応が必要な場合であって、ボタンの数が4個以下でよいときには、指位置検出部202は、必要なボタン数に応じて、検出した範囲と指との対応付けを、以下に例示するように変更する。
つまり、ユーザが、音声ガイダンス(図7,図8を参照して後述)やマニュアルなどに従って、タッチパネル180の操作面に、必要とされるボタンの数に対応する1本の指を置いたときには、指位置検出部202により1つの範囲(図示せず)が検出される。
また、同様に、ユーザが、タッチパネル180の操作面に2本の指を置いたときには、指位置検出部202により2つの範囲(図示せず)が検出され、指位置検出部202により、必要に応じて、これらの2つの範囲は、例えば、右側の指および左側の指それぞれに対応付けられる。
【0061】
また、同様に、ユーザがタッチパネル180の操作面に3本の指を置いたときには、指位置検出部202により3つの範囲(図示せず)が検出され、指位置検出部202により、これらの3つの範囲は、必要に応じて、例えば、右側の指、真ん中の指および左側の指それぞれに対応付けられる。
また、同様に、ユーザがタッチパネル180の操作面に4本の指を置いたときには、指位置検出部202により4つの範囲(図示せず)が検出され、指位置検出部202により、必要に応じて、これらの4つの範囲は、例えば、右側から1〜4番目の指それぞれに対応付けられる。
以上説明した指位置検出部202の処理結果は、操作検出部204および操作判定部206に対して出力される。
【0062】
[操作検出部204]
操作検出部204は、指位置検出部202により、タッチパネル180の操作面にボタンが設けられた後に、設けられたボタンに対する操作を検出し、操作検出部204に対して出力する。
ボタンに対する操作としては、以下のようなものが考えられる。
タッチパネル180に設けられた全てのボタンに指を触れた状態から、選択したい機能などに対応するボタンに触れた指だけを離す(操作1;第2の操作)。タッチパネル180に設けられた全てのボタンから指を離した状態から、選択したい機能などに対応するボタンだけに指を触れる(操作2;第2の操作)。
【0063】
コピー部数を設定する場合などに、設定したい数に対応する回数だけ、設定用のボタンから指が離れた状態から指を触れ、再び指を離すという動作を繰り返す(カウントアップ操作;第2の操作)。
コピー用紙を設定する場合などに、所望の設定となるまで設定用のボタンから指が離れた状態から指を触れ、再び指を離すという動作を繰り返す(トグル操作;第2の操作)。
設定されたボタンに対する操作を開始する場合、全ての設定が終了した場合、および、UIプログラム20の動作を終了させる場合などに、これらの場合それぞれについてそれぞれ定められた特定の方法でボタンに触れる(特定操作;第3の操作)。
【0064】
[操作判定部206]
操作判定部206は、上述のように設定されたボタンそれぞれ、および、指の種類それぞれと、制御装置10およびプリンタ装置本体122において、実行制御の対象となる機能とを対応付ける。
また、操作判定部206は、操作検出部204が操作を検出した場合に、検出された操作が、いずれの機能を選択するかを判定し、判定結果を機能実行制御部3に対して出力する。
【0065】
[機能実行制御部3]
機能実行制御部3は、操作判定206の判定結果に応じて、制御装置10あるいはプリンタ装置本体122の各構成部分を制御し、機能を実行させる。
以下、通常コピーの開始、部数の設定、用紙の選択、設定のクリア、印刷の停止(ストップ)およびその他の情報の設定を、機能実行制御部3が実行を制御する機能の具体例として説明する。
【0066】
[UIプログラム20の動作]
以下、UIプログラム20(図4)の動作を説明する。
図6は、プリンタシステム1におけるボタンの設定処理(S10)を示すフローチャートである。
図6に示すように、ステップ100(S100)において、UIプログラム20の押下位置検出部200は、タッチパネル180(図1,図2)に対する操作(第1の操作)があったか否かを判断する。
操作があったときには、押下位置検出部200は押下された位置を検出してS102の処理に進み、これ以外のときにはS100の処理に留まる。
【0067】
ステップ102(S102)において、押下位置検出部200および指位置検出部202は協働して、タッチパネル180の操作面におけるユーザの指の位置(操作位置)を検出する。
【0068】
ステップ104(S104)において、指位置検出部202は、一定の位置で一定時間(例えば5秒)、継続して操作位置が検出されたか否かを判断する。
一定時間継続して操作位置が検出されたときには、UIプログラム20はS108の処理に進み、これ以外のときにはS108の処理に進む。
【0069】
ステップ106(S106)において、押下位置検出部200および指位置検出部202は、ユーザによるタッチパネル180の操作面に対する操作がなされているか否かを判断する。
操作がなされていないときには、UIプログラム20はS102の処理に進み、これ以外のときにはS100の処理に戻る。
【0070】
ステップ108(S108)において、指位置検出部202は、S102の処理において、必要な数(m)の操作位置が検出されたか否かを判断する。
必要な数の操作位置が検出されたときには、UIプログラム20はS110の処理に進み、これ以外のときにはS102の処理に進む。
【0071】
ステップ110(S110)において、指位置検出部202は、検出された操作位置をクラスタリングして記憶し、これらにボタンを設定する。
また、指位置検出部202は、必要に応じて、例えば、検出された操作位置それぞれと、親指〜小指とを対応付ける。
【0072】
ステップ112(S112)において、操作判定部206は、S110の処理において設定されたボタンそれぞれ、および、指の種類それぞれと、制御装置10およびプリンタ装置本体122において、実行制御の対象となる機能とを対応付ける。
以上説明したS10の処理により、タッチパネル180の操作面において、ユーザの指が触れた位置に、機能を選択するためなどに用いられるボタンが設定される。
【0073】
図7は、プリンタシステム1における第1の機能制御処理(S12)を示すフローチャートである。
図7を参照した説明においては、指位置検出部202により、図5に例示した範囲A〜Eそれぞれに、ボタンA〜Eが設定され、操作判定部206により、ボタンAにはコピー開始などの機能が対応付けられ、ボタンBにはコピー部数設定の機能が対応付けられ、ボタンCには用紙サイズの選択機能が対応付けられ、ボタンDには情報確定が対応付けられ、ボタンEにはそれまで設定された情報のクリアおよびコピーの停止(ストップ)などの機能が対応付けられている場合を具体例とする。
【0074】
図7に示すように、ステップ120(S120)において、押下位置検出部200および操作検出部204は協働して、ボタンに対する操作を検出する。
ステップ122(S122)において、押下位置検出部200および操作検出部204は協働して、S10の処理により設定されたボタンに対する操作があったか否かを判断する。
ボタンに対する操作があったときには、UIプログラム20はS124の処理に進み、これ以外のときにはS120の処理に戻る。
【0075】
ステップ124(S124)において、操作検出部204は、検出した操作が、S10の処理によりタッチパネル180の操作面に設定されたボタンに対する操作を開始するための操作(上記特定操作の一種)であるか否かを判断する。
検出された操作が捜査開始のための操作であるときには、UIプログラム20はS126の処理に進み、これ以外のときにはS128の処理に進む。
【0076】
ステップ126(S126)において、操作判定部206は、機能の実行制御に用いる変数を初期設定する。
つまり、例えば、操作判定部206は、コピー部数を示す変数Nの数を、初期値の1に設定するなどの初期化処理を行う。
【0077】
ステップ128(S128)において、操作検出部204は、ボタンAに対する操作(例えば、上記操作例1,2)があったか否かを判断する。
ボタンAに対する操作があったときには、ステップ130(S130)において、操作判定部206は、機能実行制御部3に対して、機能開始が選択されたことを通知する。
通知を受けた機能実行制御部3は、操作判定部206からの通知に従って、プリンタ装置本体122および制御装置10の各校成分を制御し、コピーなどの機能を開始させる。
【0078】
ステップ132(S132)において、操作検出部204は、ボタンBに対する操作(例えば、上記カウントアップ操作)があったか否かを判断する。
ボタンBに対する操作があったときには、ステップ134(S134)において、操作判定部206は、機能実行制御部3に対して、コピー部数のカウントアップが選択されたことを通知する。
通知を受けた機能実行制御部3は、操作判定部206からの通知に従って、プリンタ装置本体122および制御装置10の各構成部分を制御し、コピー部数をカウントアップ(N=N+1)させる。
【0079】
ステップ136(S136)において、操作検出部204は、ボタンCに対する操作(例えば、上記トグル操作)があったか否かを判断する。
ボタンCに対する操作があったときには、ステップ138(S138)において、操作判定部206は、機能実行制御部3に対して、用紙サイズの変更が選択されたことを通知する。
通知を受けた機能実行制御部3は、操作判定部206からの通知に従って、プリンタ装置本体122および制御装置10の各校成分を制御し、用紙サイズを変更させる。
【0080】
ステップ140(S140)において、操作検出部204は、ボタンDに対する操作(例えば、上記トグル操作)があったか否かを判断する。
ボタンDに対する操作があったときには、ステップ142(S142)において、操作判定部206は、S134,S138などの処理において選択されたコピー部数および用紙サイズなどを確定する。
【0081】
ステップ144(S144)において、操作検出部204は、ボタンEに対する操作(例えば、上記操作例1,2)があったか否かを判断する。
ボタンEに対する操作があったときには、ステップ146(S146)において、操作判定部206は、機能実行制御部3に対して、それまでの設定のクリアあるいは現在実行中のコピーなどの機能の停止(ストップ)が選択されたことを通知する。
通知を受けた機能実行制御部3は、操作判定部206からの通知に従って、それまでの設定をクリアし、あるいは、実行中の機能を停止する。
【0082】
ステップ148(S148)において、操作検出部204は、ボタンA〜Eに対して同時に操作(上記特定操作の一種)があったか否かを判断する。
ボタンA〜Eに対して同時に操作があったときには、ステップ150(S150)において、機能実行制御部3は、それまでの設定値を記憶し、UIプログラム20は、その他の設定(例えばFAX番号の設定)を行うための処理を行う。
【0083】
[第2実施形態]
以下、本発明の第2の実施形態を説明する。
図8は、図1に示した制御装置10において、本発明にかかる機能制御方法を実現する第2の視覚障害者用UIプログラム22の構成を示す図である。
なお、図8においては、図4に示した第1のUIプログラム20と同じ構成部分には、同一の符号が付してある。
図8に示すように、第2のUIプログラム22は、第1のUIプログラム20および機能実行制御部3に、音声案内部220(音声ガイダンス手段)を付加した構成を採る。
第2のUIプログラム22は、これらの構成部分により、第1のUIプログラム20と同様なユーザインターフェースを提供し、また、行うべき操作を音声により案内するようにして、視覚障害者にとっての操作性を、さらに向上させている。
【0084】
音声案内部220は、操作判定部206により判定された操作、および、機能実行制御部3によるプリンタシステム1各構成部分への制御の内容に基づいて、ユーザに対して操作を教示する音声を発生して表示装置16のスピーカ(図1)を介して出力する。
【0085】
音声案内部220が音声出力する操作案内の内容は、以下の通りである。
なお、以下に示す各操作案内(1)〜(8)の(1)〜(8)は、図7に付した操作案内のタイミング(1)〜(8)に対応する。
・「人差し指でコピー部数を入力してください。1回のクリックが1部です。;操作案内(1)」。
・「1部。よろしければ薬指で確定してください。;操作案内(2)」
・「2部。よろしければ薬指で確定してください。;操作案内(3)」
・「3部。よろしければ薬指で確定してください。;操作案内(4)」
・「中指で用紙を切り替えてください。現在はA4サイズです。よろしければ薬指で確定して下さい。;操作案内(5)」
・「現在はB4(A3)サイズです。よろしければ薬指で確定して下さい。;操作案内(6)」
・「小指で設定をクリアできます。親指でコピーをスタートできます。;操作案内(7)」
・「コピーが終了しました。;操作案内(8)」
【0086】
以下、再び図7を参照して、UIプログラム22の動作を説明する。
なお、上述した音声案内部220による操作案内(1)〜(8)に関する説明を除き、図7に示す第2のUIプログラム22の処理は、第1の実施形態おいて説明した第1のUIプログラム20の対応する処理と同じである。
【0087】
図7に示すように、S126の処理が終わると、音声案内部220は、上述した操作案内(1),(5),(7)の音声を出力する。
【0088】
ステップ132(S132)の処理により、ボタンBに対する操作が検出されると、音声案内部220は、指定されたコピー部数に応じて、上述した操作案内(2),(3),(4)などのいずれかの音声を出力する。
【0089】
ステップ136(S136)の処理により、ボタンCに対する操作が検出されると、音声案内部220は、指定された用紙サイズに応じて、上述した操作案内(6)の音声を出力する。
【0090】
ステップ130(S130)において開始された機能の実行が終了すると、音声案内部220は、上述した(8)の音声を出力する。
【0091】
[第3実施形態]
以下、本発明の第3の実施形態を説明する。
図9は、図1に示した制御装置10において、本発明にかかる機能制御方法を実現する視覚障害者・晴眼者共用の第3のUIプログラム24の構成を示す図である。
図9に示すように、UIプログラム24は、UIプログラム20,22(図4,図8)に、モード切替部240(選択手段)および晴眼者用UIプログラム242(他の機能制御装置)から構成される。
UIプログラム24は、視覚障害者用の第1および第2のUIプログラム20,22と、晴眼者用のUIプログラム242とを切り替えられるようにして、視覚障害者にも晴眼者にも操作性が良いユーザインターフェースを提供する。
【0092】
図10は、図9に示した晴眼者用UIプログラム242が表示装置16・タッチパネル180に表示するUI画像を例示する図である。
晴眼者用UIプログラム242は、表示装置16あるいはタッチパネル180(図1)に、図10に例示するような操作用の画像(UI画像)を表示し、表示した画像に対する操作に応じて、機能実行制御部3に機能の実行などを行わせる。
つまり、UIプログラム242は、晴眼者が用いる一般的なUI環境を提供する。
【0093】
モード切替部240は、タッチパネル180およびキーボード182(図1)などから入力される選択操作に応じて、UIプログラム20,22およびUIプログラム242のいずれかを起動する。
【0094】
以下、UIプログラム24の動作を説明する。
図11は、図9に示したUIプログラム24の処理(S16)を示すフローチャートである。
図11に示すように、ステップ160(S160)において、モード切替部240は、図6に示したボタンの設定処理(S10)がなされているか否かを判断する。
S10の処理がなされているときにはUIプログラム24はS162の処理に進み、これ以外のときにはS168の処理に進む。
【0095】
ステップ162(S162)において、モード切替部240は、UIプログラム20,22を起動する。
【0096】
ステップ164(S164)において、モード切替部240は、一定時間、UIプログラム20,22の利用があったかいなかを判断し、利用があったときにはS164の処理に留まり、これ以外のときにはS166の処理に進む。
【0097】
ステップ166(S166)において、モード切替部240は、UIプログラム20,22を終了させる。
【0098】
ステップ168(S168)において、モード切替部240は、UIプログラム242を起動する。
【0099】
[第4実施形態]
例えば、あるユーザが、プリンタシステム1(図1)を用いて印刷するときには、A4のコピー用紙を使い、同じ部署に属するメンバーに1部ずつ行き渡る一定部数の印刷を行うための設定、あるいは、A4のコピー用紙を使い、1部だけ印刷する設定をプリンタシステム1に対して行うことがほとんどであるといったように、ユーザがプリンタシステム1に対して頻度高く行う設定は、定型的なことが多い。
これらのような定型的操作を、予めプリンタシステム1に登録できるようにしておき、既に説明したように、タッチパネル180上の指の位置と動きで、定型的な指定し、プリンタシステム1に印刷を行わせることができるようにすると便利である。
この定型的な設定の他の例としては、ユーザが、「A4のコピー用紙に、フルカラーで、一部、印刷する設定(第1の設定)」、「B4のコピー用紙に、白黒で、1部印刷する設定(第1の設定)」などを挙げることができる。
【0100】
これらのような定型的な設定を行うための操作(定型操作)を、例えば、タッチパネル180上で検出された各指の位置(図5)それぞれに対応付け、タッチパネル180に触れた人差し指が離れた後に再度、触れたときに、上記第1の設定を行うための操作が行われたとプリンタシステム1が解釈し、あるいは、タッチパネル180に触れた中指が同様な動きをしたときに、上記第2の設定を行うための操作が行われたとプリンタシステム1が解釈し、ユーザの操作に応じた設定で印刷を行うことができるようにすると、ここまでに、第1〜第3の実施形態に示したユーザインターフェースの操作性をさらに向上させることができる。
以下に説明する本発明の第4の実施形態は、このような機能を提供し、ユーザに対してさらに便利なプリンタシステム1のユーザインターフェースを提供するためになされたものである。
【0101】
[第4の視覚障害者用UIプログラム26]
図12は、図1に示した制御装置10において、本発明にかかる機能制御方法を実現する第4の視覚障害者用UIプログラム26の構成を示す図である。
なお、第4の視覚障害者用UIプログラム26の構成の内、第1〜第3の視覚障害者用UIプログラム20〜24(図4,図8,図9)の構成部分と実質的に同じものには、同じ符号が付されている、
図12に示すように、第4の視覚障害者用UIプログラム26は、図8に示した第2の視覚障害者用UIプログラム22に、定型操作設定部260を付加した構成を採る。
視覚障害者用UIプログラム26も、視覚障害者用UIプログラム20〜24と同様にプリンタシステム1のメモリ102にロードされて実行され、上述したように、定型的操作の利便性を高めたユーザインターフェースをプリンタシステム1のユーザに提供する。
【0102】
[定型操作設定部260]
図13は、第4の実施形態において、図12に示した定型操作設定部260が作成する第1の定型操作テーブルを例示する図である。
定型操作設定部260は、タッチパネル180(図1)に対するユーザの操作に従って、ユーザがプリンタシステム1に対して定型的に行う操作(定型操作)を示す定型操作テーブル(図13)を作成し、保持する。
【0103】
また、定型操作設定部260は、ユーザの操作による定型操作番号の指定を受けて定型操作テーブルを検索し、指定された定型操作番号に対応する定型操作を示す定型操作データを、操作判定部206に対して出力する。
なお、図13に具体例を示すように、定型操作データそれぞれは、ユーザがプリンタシステム1に対して設定するコピー枚数、用紙サイズ、カラー印刷・白黒印刷の別、印刷濃度およびソートなどの後処理などの組み合わせと、これらの組み合わせそれぞれを識別するための定型操作番号とから構成される。
【0104】
図14は、プリンタシステム1における第2の機能制御処理(S18)を示すフローチャートである。
なお、図14に示した各処理の内、図7に示した各処理と実質的に同じものには同じ符号が付してある。
つまり、図14に示した第2の機能制御処理(S18)は、図7に示した第1の機能制御処理(S12)のS130,S142,S146の処理それぞれを、後述するS180,S182,S184で置換したものである。
【0105】
図14を参照した説明においては、指位置検出部202により、図5に例示した範囲A〜Eそれぞれに、ボタンA〜Eが設定され、操作判定部206により、ボタンAには登録された定型操作を呼び出すための機能が対応付けられ、ボタンBにはコピー部数設定の機能が対応付けられ、ボタンCには用紙サイズの選択機能が対応付けられ、ボタンDには定型操作番号の設定のための機能が対応付けられ、ボタンEにはそれまでの操作により設定された定型操作を確定し、登録するための機能が対応付けられている場合を具体例とする。
【0106】
図14に示すステップ120〜S126(S120〜S126)の処理は、図7を参照して既に説明した通りである。
ステップ128(S128)において、操作検出部204は、ボタンAに対する操作があったか否かを判断する。
ボタンAに対する操作があったときには、第4の視覚障害者用UIプログラム26はS180の処理に進み、これ以外のときにはS132の処理に進む。
【0107】
ステップ132〜138(S132〜S138)の処理は、図7を参照して既に説明した通りである。
ステップ140(S140)において、操作検出部204は、ボタンDに対する操作があったか否かを判断する。
第4の視覚障害者用UIプログラム26は、ボタンDに対する操作があったときにはS182の処理に進み、これ以外のときにはS144の処理に進む。
【0108】
ステップ144(S144)において、操作検出部204は、ボタンEに対する操作があったか否かを判断する。
第4の視覚障害者用UIプログラム26は、ボタンEに対する操作があったときにはS184の処理に進み、これ以外のときにはS148の処理に進む。
ステップ148,150(S148,S150)の処理は、図7を参照して既に説明した通りである。
【0109】
ステップ180(S180)において、操作検出部204は、定型操作番号の設定のための操作が行われたことを、定型操作設定部260に通知する。
定型操作設定部260は、S182の処理により得られた定型操作番号Tに対応する定型操作データ(図13)を、操作検出部204に対して出力する。
操作検出部204は、定型操作設定部260から入力された定型操作データが示す操作がなされた旨を、機能実行制御部3に対して通知する。
機能実行制御部3は、この通知に従ってプリンタシステム1の各構成部分に対する設定を行い、印刷を行わせる。
【0110】
ステップ182(S182)において、操作検出部204は、定型操作番号Tをカウントアップする。
【0111】
ステップ184(S184)において、操作検出部204は、定型操作設定部260に、定型操作データを登録するための操作が行われたことを通知する。
定型操作設定部260は、この通知を受けて、定型操作テーブル(図13)のS182の処理により得られた定型操作番号Tが示すエントリに、S134,S138の処理により得られたコピー部数Nおよびコピー用紙サイズを、定型操作データとして記憶させる。
なお、定型操作設定部260は、定型操作番号Tが定型操作テーブルに存在しないときには、定型操作番号T用の新たなエントリを作成する。
【0112】
なお、S180の処理において、実際にプリンタシステム1による印刷が開始される前に、定型操作設定部260が、音声案内部220に、選択された定型操作データの内容を音声案内させてもよい。
また、さらに、S180の処理において、この音声案内に対する確認操作(例えば、ボタンEの連続押下など)があったときに、操作検出部204が、定型操作データを機能実行制御部3に対して出力し、印刷を開始させるようにしてもよい。
【0113】
[典型的な操作例]
以下、第4の視覚障害者用UIプログラム26が適応されたプリンタシステム1に対する典型的な操作を、具体例を挙げて説明する。
まず、プリンタシステム1に、定型操作を登録するための操作を説明する。
まず、ユーザは、右手の全ての指をタッチパネル上に置く。
次に、ユーザは、右手の人差し指をコピー部数と同じ回数だけ上下させる。
例えば、3部のコピーを望むなら、ユーザは、右手の人差し指を3回、上下させ、定型操作登録ボタン上の薬指を1回、上下させる。
【0114】
次に、ユーザが中指を上下させると、用紙サイズが、A4→B4→A3→A4というようにトグルされ、選択される。
つまり、例えば、用紙サイズをB4とするときには、ユーザは、中指を2回、上下させる。
ここまでに行った操作が正しければ、ユーザは、例えば、定型操作番号ボタン上の薬指を1回、上下させ、定型操作番号Tを1とする。
あるいは、ユーザは、定型操作番号ボタン上の薬指をもう1回、上下させて、定操作定番号Tを2とする。
以上の操作の後、ユーザが、定型操作登録ボタン上の小指を1回、上下させると、設定値(コピー部数3部、用紙サイズB4)が、定型操作番号1または定型操作番号2の定型操作データとして、定型操作設定部260に記憶される。
【0115】
次に、既に定型操作設定部260に登録された定型操作が示す設定に従って、プリンタシステム1を動作させるための操作を説明する。
まず、ユーザは、右手の全ての指をタッチパネル180上に置く。
次に、ユーザは、定型操作番号ボタン上の薬指を1回、上下させ、例えば、定型操作番号1を選択する。
あるいは、ユーザは、薬指を2回、上下させ、定型操作番号2を選択する。
所望の定型操作番号を選択した後、ユーザが、定型操作設定ボタン上の親指を1回、上下させると、定型操作番号1または定型操作番号2が示す定型操作に対応する設定がプリンタシステム1に対して行われ、プリンタシステム1は、この設定に従って印刷を行う。
【0116】
[第5実施形態]
以下、本発明の第5の実施形態を説明する。
図1に示したように、プリンタシステム1には、コピー枚数の管理などの目的のために、カードリーダ184が付加されていることがある。
プリンタシステム1の制御装置10(図1)は、カードリーダ184から、磁気カード(図示せず)に記憶されたユーザIDなど読み出すことができる。
あるいは、プリンタシステム1にカードリーダ184が付加されていないときであっても、制御装置10は、必要に応じて、ユーザに対してユーザIDの入力を要求し、これに対してタッチパネル180あるいはキーボード182から入力されるユーザIDを受け入れることができる。
【0117】
ここまで説明した本発明に係るユーザインターフェースは、ユーザの少なくとも片手の全部の指に障害がないことを前提としたが、例えば、プリンタシステム1のユーザの中には、その指の一部に障害を負っている人が含まれていると、その人に対して充分に便利な操作性を提供できない可能性もある。
これに対し、カードリーダ184などを用いてユーザを特定し、さらに、図12に示した第4の視覚障害者用UIプログラム26の動作を改良して、ユーザごとに固有で最適なユーザインターフェースを提供することができるようにすると、さらに便利なユーザインターフェースを提供したり、上述のような不具合を解消することができる。
本発明の第5の実施形態は、このような背景からなされたものである。
【0118】
図15は、第5の実施形態において、図12に示した定型操作設定部260が作成する第2の定型操作テーブルを例示する図である。
定型操作設定部260は、図15に示すように、プリンタシステム1(図1)のユーザごとに、図13に示した定型操作テーブルを作成し、ユーザIDに対応付けて保持する。
また、定型操作設定部260は、図15に示すように、プリンタシステム1(図1)の全てのユーザに共通の定型操作テーブルを作成し、保持する。
また、定型操作設定部260は、カードリーダ184などから入力されたユーザIDと、ユーザの操作により指定された定型操作番号とに基づいて、あるいは、ユーザの操作により指定された定型操作番号のみに基づいて、定型操作テーブルを検索し、指定された定型操作番号に対応する各ユーザに固有の定型操作を示す定型操作データ、あるいは、全ユーザに共通の定型操作データを、操作判定部206に対して出力する。
【0119】
図16は、プリンタシステム1における第3の機能制御処理(S20)を示すフローチャートである。
なお、図16に示した各処理の内、図7,図14に示した各処理と実質的に同じものには同じ符号が付してある。
つまり、図16に示した第2の機能制御処理(S18)は、図7に示した第1の機能制御処理(S12)のS130,S142,S146の処理それぞれを、後述するS204,S182,S206で置換して第2の機能制御処理(S14)とし、さらに、後述するS200,S202の処理を付加したものである。
図16を参照した説明における範囲A〜EとボタンA〜Eとの対応付け、および、各ボタンに対する機能の設定は、図14を参照して説明した具体例の通りである。
【0120】
図16に示すように、ステップ120(S120)において、押下位置検出部200および操作検出部204は協働して、ボタンに対する操作を検出する。
ステップ122(S122)において、押下位置検出部200および操作検出部204は協働して、S10の処理により設定されたボタンに対する操作があったか否かを判断する。
ボタンに対する操作があったときには、UIプログラム20はS200の処理に進み、これ以外のときにはS120の処理に戻る。
【0121】
ステップ200(S200)において、定型操作設定部260は、カードリーダ184(図1)などに対してユーザIDの設定があったか否かを判断する。
視覚障害者用UIプログラム26(図12)は、ユーザIDの設定があったときにはS202の処理に進み、これ以外のときにはS124の処理に進む。
ステップ202(S202)において、定型操作設定部260は、設定されたユーザIDを記憶する。
なお、S200の処理においてユーザIDの設定があったときには、定型操作設定部260は、図15に示した定型操作テーブルの内、設定されたユーザIDが示す定型操作データについての処理を行い、S200の処理においてユーザIDの設定がなかったときには、図15に示した定型操作テーブルの内、全ユーザに共通の定型操作データについての処理を行うことになる。
【0122】
ステップ124,S126(S124,S126)の処理は、既に図7を参照して説明した通りである。
ステップ128(S128)において、操作検出部204は、ボタンAに対する操作があったか否かを判断する。
ボタンAに対する操作があったときには、第4の視覚障害者用UIプログラム26はS204の処理に進み、これ以外のときにはS132の処理に進む。
【0123】
ステップ132〜140,180(S132〜S140,S180)の処理は、既に図14を参照して説明した通りである。
ステップ144(S144)において、操作検出部204は、ボタンEに対する操作があったか否かを判断する。
第4の視覚障害者用UIプログラム26は、ボタンEに対する操作があったときにはS206の処理に進み、これ以外のときにはS148の処理に進む。
【0124】
ステップ148(S148)において、操作検出部204は、ボタンA〜Eに対して同時に操作があったか否かを判断する。
ボタンA〜Eに対して同時に操作があったときには、ステップ150(S150)において、機能実行制御部3は、それまでの設定値を記憶し、UIプログラム20は、その他の設定を行うための処理を行う。
【0125】
ステップ204(S204)において、操作検出部204は、定型操作番号の設定のための操作が行われたことを、定型操作設定部260に通知する。
S200においてユーザIDが設定されたと判断されたときには、定型操作設定部260は、S202の処理において記憶されたユーザID、および、S182の処理により得られた定型操作番号Tに対応する定型操作データ(図15)を、操作検出部204に対して出力する。
【0126】
あるいは、S200においてユーザIDが設定されたと判断されなかったときには、定型操作設定部260は、全ユーザに共通の定型操作データの内、S182の処理により得られた定型操作番号Tに対応するいずれかを、操作検出部204に対して出力する。
操作検出部204は、定型操作設定部260から入力された定型操作データが示す操作がなされた旨を、機能実行制御部3に対して通知する。
機能実行制御部3は、この通知に従ってプリンタシステム1の各構成部分に対する設定を行い、印刷を行わせる。
【0127】
ステップ182(S182)において、操作検出部204は、定型操作番号Tをカウントアップする。
【0128】
ステップ206(S206)において、操作検出部204は、定型操作設定部260に、定型操作データを登録するための操作が行われたことを通知する。
S200においてユーザIDが設定されたと判断されたときには、定型操作設定部260は、この通知を受けて、設定されたユーザIDおよび定型操作テーブル(図15)のS182の処理により得られた定型操作番号Tが示すエントリに、S134,S138の処理により得られたコピー部数Nおよびコピー用紙サイズを、定型操作データとして記憶させる。
【0129】
S200においてユーザIDが設定されたと判断されなかったときには、定型操作設定部260は、この通知を受けて、定型操作テーブル(図15)の全ユーザに共通のエントリの内、S182の処理により得られた定型操作番号Tが示すエントリに、S134,S138の処理により得られたコピー部数Nおよびコピー用紙サイズを、定型操作データとして記憶させる。
なお、定型操作設定部260は、ユーザIDおよび定型操作番号Tが示すエントリ、あるいは、全ユーザに共通の定型操作データのエントリの内、定型操作番号Tが示すエントリが存在しないときには、新たなエントリを作成する。
なお、第5の実施形態におけるユーザの典型的な操作は、操作の前に、カードリーダ184に対して磁気カードを挿入するなど、ユーザIDを設定する操作を行うこと以外は、第4の実施形態において説明した操作と同様である。
【0130】
[第6実施形態]
ここまでに、第1〜第5の実施形態として説明した本発明に係るユーザインターフェースは、ユーザが視覚障害者である場合を具体例とした。
しかしながら、タッチパネル180に、各指の検出位置(図5)に対応付けられたボタンが表示されないと、視覚に障害がない聴覚障害者あるいは晴眼者にとっては、本発明に係るユーザインタフェースの使い勝手が、あまり良くないものとなりかねない。
本発明の第6の実施形態は、このような背景からなされたものであって、各指の検出位置に対応付けられたボタンを、タッチパネル180に液晶表示装置192を付加した第2のタッチパネル190(図18を参照して後述)に表示し、視覚障害者の使い勝手だけでなく、聴覚障害者や晴眼者の使い勝手も良くするように工夫されている。
【0131】
図17は、図1に示した制御装置10において、本発明にかかる機能制御方法を実現する第5の視覚障害者用UIプログラム28の構成を示す図である。
なお、第5の視覚障害者用UIプログラム28の構成の内、第1〜第4の視覚障害者用UIプログラム20〜26(図4,図8,図9,図12)の構成部分と実質的に同じものには、同じ符号が付されている、
図17に示すように、第5の視覚障害者用UIプログラム28は、図12に示した第4の視覚障害者用UIプログラム26に、ボタン表示部280を付加した構成を採る。
視覚障害者用UIプログラム26も、視覚障害者用UIプログラム20〜26と同様にプリンタシステム1のメモリ102にロードされて実行され、上述したように、視覚障害者だけでなく、聴覚障害者や晴眼者の利便性を高めたユーザインターフェースをプリンタシステム1のユーザに提供する。
【0132】
[ボタン表示部280]
図18は、図17に示した第5の視覚障害者用UIプログラム28のボタン表示部280により、タッチパネル190に表示される各種ボタンを例示する図である。
図19は、図18に示したタッチパネル190の操作面をユーザが指で触れる様子を示す図である。
ボタン表示部280は、図6に示したボタンの設定処理(S10)により設定された各種ボタンを、図18,図19に例示するように、タッチパネル190(図18)の液晶表示装置192に画像表示する。
【0133】
なお、図18,図19には、図5に示した範囲Aに、ボタンAとしてスタートボタンが割り当てられて、このボタンを示す図形(例えば二重の矩形・緑色)が表示され、範囲Bに、ボタンBとしてコピー部数の選択のためのボタンが割り当てられ、このボタンを示す図形(例えば矩形・白)が表示され、範囲Cに、ボタンCとしてコピー用紙サイズの選択のためのボタンが割り当てられ、このボタンを示すための図形(例えば矩形・白)が表示され、範囲Dに、印刷の中止などのために用いられるストップボタンが割り当てられ、このボタンを示す図形(例えば二重丸・黄色)が表示され、範囲Eには、ボタンがなにも割り当てられない場合が、具体例として示されている。
また、範囲BのボタンBの近傍の指で隠れない位置には、ボタンBで選択したコピー部数の表示がなされる(例えば、図19に示す「3部」の表示)。
また、範囲CのボタンCの近傍の指で隠れない位置には、ボタンCで選択したコピー用紙サイズの表示がなされる(例えば、図19に示す「A4」の表示)。
【0134】
つまり、この具体例においては、ボタンA〜Dとして、従来からコピー複合機のボタンに用いられている形状と相似な図形、あるいは、従来からコピー複合機のボタンに用いられている形状を想起させるような図形が表示される。
さらに、この具体例においては、図18,図19に示すように、ボタンA〜Dに対応する図形の近傍に、必要に応じて、各ボタンの機能を示す文字が表示される。
好ましくは、プリンタシステム1(図1)のキーボード182に、スタート用ボタンおよびストップボタンなど(いずれも図示せず)があるときには、これらのボタンA〜Dの図形を、これらキーボード182のボタンと同じ形状にしたり、縦横任意倍率に縮小・拡大した形状とするとよい。
【0135】
以下、第5の視覚障害者用UIプログラム28の動作を説明する。
図20は、第6の実施形態におけるプリンタシステム1のボタン設定・表示および機能制御処理(S22)を示すフローチャートである。
図21は、図20に示したS24の処理(プリンタシステム1における第4の機能制御処理)を示すフローチャートである。
なお、図21に示した各処理の内、図7,図14,図16に示した各処理と実質的に同じものには、同じ符号が付してある。
つまり、S24の処理は、図7に示した第1の機能制御処理(S12)から、ボタンEに関する処理(S144,S146)を除き、S130,S142の処理を、S240,S242の処理に置換したものである。
【0136】
図20に示すように、第5の視覚障害者用UIプログラム28(図17)は、まず、図6に示したボタン設定の処理(S10)を行う。
ステップ220(S220)において、第5の視覚障害者用UIプログラム28のボタン表示部280は、図18,図19に例示したように、タッチパネル190の液晶表示装置192に、S10の処理により検出された範囲A〜Dあるいはその近傍に、各ボタンを示す図形を表示する。
【0137】
ステップ222(S222)において、押下位置検出部200および操作検出部204は協働して、ボタンに対する操作を検出し、S10の処理により設定されたボタンに対する操作があったか否かを判断する。
なお、S222の処理は、図21を参照して後述するS24の処理に含まれるS120,S122の処理に対応し、図示の都合上、これらの処理と重複して図示されたものである。
なお、ボタンBの操作で選択されたコピー部数の表示、および、ボタンCの操作で選択されたコピー用紙サイズの表示が行われるときには、ユーザによるこれらのボタンB,Cに対する操作により設定される設定値(例えば、図19に示した「3部」・「A4」の表示)が、図21に示すS24のS134,S138の処理により、範囲B,Cまたはこれらの範囲の近傍に表示される。
【0138】
ステップ24(S24)において、視覚障害者用UIプログラム28は、図21を参照して後述する第4の機能制御処理を行う。
ステップ224(S224)において、ボタン表示部280は、必要に応じてタッチパネル190のボタン表示の内容を変更する。
【0139】
例えば、押下位置検出部200および操作検出部204は、ユーザによる操作を終了させるための操作(例えば、ストップボタン(図18,図19)の連打)があったとき、あるいは、一定時間、何らの操作も行われなかったときに、全ての操作が終了したと判断する。
ステップ226(S226)において、押下位置検出部200および操作検出部204は、ここで例示したように、全ての操作が終了したか否かを判断する。視覚障害者用UIプログラム28は、全ての操作が終了したときにはS228の処理に進み、これ以外のときにはS24の処理に戻る。
ステップ228(S228)において、ボタン表示部280は、タッチパネル19上のボタンの表示をクリアする。
【0140】
図21に示すステップ120〜126(S120〜S126)は、既に図7を参照して説明した通りである。
ステップ128(S128)において、操作検出部204は、ボタンAに対する操作(例えば、上記操作例1,2)があったか否かを判断する。
ボタンAに対する操作があったときには、ステップ240(S240)において、操作判定部206は、機能実行制御部3に対して、コピーなどの開始が選択されたことを通知する。
通知を受けた機能実行制御部3は、操作判定部206からの通知に従って、プリンタ装置本体122および制御装置10の各校成分を制御し、コピーなどを開始させる。
【0141】
ステップ132〜138(S132〜S138)の処理は、既に図14を参照して説明した通りである。
なお、コピー枚数および用紙サイズの表示が行われるときには、S134,S138の処理において、ユーザにより設定されたコピー枚数および用紙サイズが、図19に例示したように、ボタンB,Cまたはその近傍に表示される。
ステップ140(S140)において、操作検出部204は、ボタンDに対する操作(例えば、上記トグル操作)があったか否かを判断する。
ボタンDに対する操作があったときには、ステップ142(S142)において、操作判定部206は、機能実行制御部3に対して、その時点で実行されているコピーの中止、あるいは、それまでに入力されたコピー枚数およびコピー用紙サイズの選択がクリアされたことを通知する。
通知を受けた機能実行制御部3は、操作判定部206からの通知に従って、コピーなどを中止したり、それまでに設定されたコピー枚数などをクリアする。
ステップ148,150(S148,S150)の処理は、既に図7を参照して説明した通りである。
【0142】
以上説明したように、タッチパネル190上に割り当てられたボタンを表示することにより、聴覚障害者や晴眼者に対して、従来と同様な感覚のプリンタシステム1のユーザインターフェースを提供することができ、その操作効率を高めることができる。
なお、ボタン表示部280(図17)は、図18,図19に示したボタンの他、例えば、ボタンAとして、コピー、ファックスおよびスキャンのいずれかの機能を選択するためのボタンなど、S10の処理により対応付けられた他の種類のボタンを表示してもよい。
また、ボタン表示部280は、タッチパネル190において、ユーザの親指が触れている位置にではなく、その少し上にボタンを表示するなど、ボタンの図形を、さらに聴覚障害者や晴眼者のユーザが視認しやすいように表示してもよい。
【0143】
[第7実施形態]
例えば、ユーザが、タッチパネル180,190(図1,図18)上に置いた指の動きのリズムの違いで、その指に対応するボタンに割り当てる機能を切り替えることができると、プリンタシステム1の操作に必要な指の数を、さらに減らすことができる。
このリズムには、例えば、ユーザが、タッチパネル180,190から指を離してから再び触れさせるまでの時間、この時間を同一にするか、異なる時間長の組み合わせにするかなどが含まれる。
従って、多種多様なリズムが定義されうる。
【0144】
ユーザの指の動きに応じた機能割り当ての変更の具体例を以下に示す。
(1)タッチパネル180,190に触れた指を、離したのち、1秒未満で再度タッチパネルに触れるようなリズムで、ユーザが人指し指を動かしたときには、人差し指に対応するボタンに、コピー部数Nを設定する機能を割り当てる。
(2)タッチパネル180,190に触れた指を、離したのち、1秒以上3秒未満で再度タッチパネルに触れるようなリズムで、ユーザが人指し指を動かしたときには、人差し指に対応するボタンに、用紙サイズを設定する機能を割り当てる。
(3)タッチパネル180,190に触れた指を、離したのち、3秒以上で再度タッチパネルに触れるようなリズムで、ユーザが人指し指を動かしたときには、人差し指に対応するボタンに、定型操作番号を設定する機能を割り当てる。
【0145】
図22は、プリンタシステム1における第5の機能制御処理(S26)を示すフローチャートである。
図23は、図22に示したS28の処理を示す図である。
上述したユーザの指の動きのリズムに応じた機能割り当ての変更は、例えば、図17に示した第5の視覚障害者用UIプログラム28の動作を変更することにより実現されうる。
なお、図22に示した各処理の内、図7,図14,図16,図21に示した各処理と実質的に同じものには、同じ符号が付してある。
【0146】
つまり、S26の処理は、図7に示した第1の機能制御処理(S12)から、ボタンEに関する処理(S144,S146)を除き、S130,S134,S142の処理を、S240,S28,S242の処理に置換したものである。
図22を参照した説明においては、指位置検出部202により、図5に例示した範囲A〜Eそれぞれに、ボタンA〜Eが設定され、操作判定部206により、ボタンAにはコピー開始などの機能が対応付けられ、ボタンBにはユーザの指のリズムに応じた機能が対応付けられ、ボタンCには設定を確定する機能が対応付けられ、ボタンDにはクリア/ストップ機能が対応付けられている場合を具体例とする。
【0147】
図22に示すステップ120〜S128,240(S120〜S128,S240)の処理は、図21を参照して説明した通りである。
ステップ132(S132)において、操作検出部204は、ボタンBに対する操作があったか否かを判断する。
視覚障害者用UIプログラム28は、ボタンBに対する操作があったときにはS28の処理に進み、これ以外のときにはS136の処理に進む。
【0148】
ステップ136(S136)において、操作検出部204は、ボタンCに対する操作があったか否かを判断する。
視覚障害者用UIプログラム28は、ボタンCに対する操作があったときにはS142の処理に進み、これ以外のときにはS140の処理に進む。
ステップ242(S242)の処理は、図21を参照して説明した通りであり、ステップ140,142,148,150(S140,S142,S148,S150)の処理は、図7を参照して説明した通りである。
【0149】
図23に示すように、ステップ280(S280)において、操作判定部206は、ユーザの指の動きのリズムの判定に用いられるタイマを初期化し、時間計測を開始させる。
ステップ282(S282)において、操作検出部204は、ボタンBに対する操作があったか否かを判断する。
視覚障害者用UIプログラム28は、ボタンBに対する操作があったときにはS284の処理に進み、これ以外のときにはS284の処理に進む。
【0150】
ステップ284(S284)において、操作判定部206は、S280の処理において時間計測を開始したタイマが示すタイマ値(時間)を判断し、タイマ値が、条件1,2,3のいずれに該当するかに応じて、それぞれS286,S288,S290の処理に進む。
例えば、上述のように、この条件1としては1秒未満、条件2としては1〜3秒、条件3としては3秒以上が、操作判定部206に対して設定される。
【0151】
ステップ286(S286)において、操作判定部206は、コピー部数Nをカウントアップし、機能実行制御部3に対して通知する。
ステップ288(S288)において、操作判定部206は、コピー用紙サイズのトグルを行い、選択されたコピー用紙サイズを機能実行制御部3に通知する。
ステップ290(S290)において、操作判定部206は、定型操作番号Tをカウントアップし、機能実行制御部3に通知する。
【0152】
[変形例]
音声ガイダンスを行う場合であっても、ユーザが操作に慣れた場合などには、音声ガイダンスを止めることができるようにしてもよい。
つまり、ユーザが、指の種類と操作とを対応付けて憶えてしまったようなときには、音声ガイダンス案内なしに操作が可能になるので、このようなときには、ユーザの操作などに応じて、音声ガイダンスを止めればよい。
また、難しく複雑な操作についてのみ音声ガイダンスを行い、簡単な操作については音声ガイダンスを行わないといったように、操作の内容に応じて、適応的に音声ガイダンスを行うようにしてもよい。
【0153】
また、タッチパネル180は、図2に示した接触型の構成の他、光線の遮断を検出することにより位置を検出する光結合型の構成、あるいは、抵抗膜の両端に設けられた電極の電位により位置を検出する抵抗型の構成であってもよい。
また、プリンタシステム1において、本発明にかかる機能制御方法による機能実行制御の対象は、プリンタ装置本体122である場合を例示したが、本発明にかかる機能制御方法は、印刷機、プリンタ単体、複写機単体、スキャナ単体、FAX単体、券売機、情報案内装置および病院の診察受付装置など、他の種類の装置の機能制御にも応用可能である。
【0154】
なお、タッチパネル180には、表示装置16のディスプレイに表示される画像が表示され、タッチパネル180は、表示装置としても入力装置としても用いられる。
また、タッチパネル180を透明あるいは半透明とし、表示装置16のディスプレイの表示面に貼って使用することも可能である。
【0155】
また、指位置検出部202が検出する指の位置は、押下位置検出部200により押下が検出された位置を、クラスタリングせずにそのまま用いても、クラスタリングして得られた範囲をそのまま、あるいは、周囲を広げたり、狭めたりして用いてもよい。
また、図7などにおいて説明したボタンDにより変更される情報の設定は、コピー濃度および倍率の他に、ソータの設定、片面/両面設定、FAX機能およびスキャン機能など、他の機能に関する設定であってもよい。
【0156】
また、図7などに示したボタン操作は例示であって、例えば図7のS142の処理において、操作判定部206は、ボタンB,Cに対する操作があった場合に設定を変更する情報を、例えばコピー部数からコピー濃度などへと変更し、また、用紙サイズからコピー倍率などへと変更してもよい。
【0157】
また、UIプログラム22において、例えば、音声案内部220が、ユーザの操作の応じて、上述した操作案内(1)〜(8)と、単なるピープとを切り替えて出力するようにしてもよい。
このように、音声案内部220が音声ではなく、単なるピープ音を出力すると、ユーザは、確実にボタンに対する操作ができたと確認でき、また、ユーザが操作に慣れて、音声案内を欲しなくなった場合に、不要な音声案内を止めることができて便利である。
また、音声案内部220が、ユーザの指定に応じて、音声もピープ音も出力しないようにしてもよい。
【0158】
図24は、タッチパネル180,190(図1,図18)に設けられる操作用の凹凸を例示する図である。
タッチパネル180の操作面に、に図12に例示するような格子状あるいは円状の凹凸を設けると、指を置くべき位置を触覚により認識することができるので、さらに操作性を向上させることができる。
【0159】
[効果]
本発明にかかる機能制御方法によれば、ユーザは、手をタッチパネルの上に置くだけで、視覚を用いることなしに、多くの種類の操作が可能となり、さらに、操作手順、および、操作に応じた装置の状態遷移を工夫することにより、より多くの種類の操作が可能になる。
また、本発明にかかる機能制御方法において用いられるタッチパネルは、機種ごとに仕様を変更する必要がないので、量産に向き、コストを低減しやすい。
また、本発明にかかる機能制御方法によれば、ユーザの指の位置が、機能選択などのためのボタンとして適応的に用いられるので、ユーザは、タッチパネル内に固定の位置に設けられたボタンの位置を憶えなくてすむので、操作性が向上する。
従って、本発明にかかる機能制御方法は、コンピュータなどの情報処理装置のためのユーザインターフェースとして適している。
【0160】
また、本発明にかかる機能制御方法によれば、ユーザは、特定の位置に設けられたボタンに正確にアクセスしなくても、所望の操作ができるので、操作性が向上する。
また、本発明にかかる機能制御方法は、視覚障害者にとって操作性がよいユーザーインターフェースを提供するだけでなく、例えば、ディスプレイの表示内容を視認しにくい状況においては、聴覚障害者や晴眼者にとっても操作性がよいユーザーインターフェースを提供することができる。
【0161】
また、本発明にかかる機能制御方法によれば、指に障害があるユーザの機器操作の作業効率を向上させることができる。
また、本発明にかかる機能制御方法によれば、タッチパネル上に割り当てられたボタンを画像表示することにより、視覚障害者だけでなく、聴覚障害者や晴眼者の機器操作の作業効率を向上させることができる。
【0162】
【発明の効果】
以上説明したように、本発明にかかる機能制御装置およびその方法によれば、視覚障害者用のユーザインターフェースを、異なる種類の装置それぞれに対して容易に適用することができる。
また、本発明にかかる機能制御装置およびその方法は、視覚障害者にとって操作が簡単である。
【図面の簡単な説明】
【図1】図1は、本発明にかかるプリンタシステムのハードウェア構成を、制御装置を中心として示す図である。
【図2】図1に示したタッチパネルの構成を示す図である。
【図3】図1,図2に示したタッチパネルの操作面をユーザが指で触れる様子を示す図である。
【図4】図1に示した制御装置において、本発明にかかる機能制御方法を実現する第1の視覚障害者用UIプログラムの構成を示す図である。
【図5】ユーザが、図3に示したようにタッチパネルの操作面を右手の5本の指で押下した場合に、図4に示した押下位置検出部による押下の検出、および、指位置検出部による指の位置の検出が行われる領域を例示する図である。
【図6】プリンタシステムにおけるボタンの設定処理(S10)を示すフローチャートである。
【図7】プリンタシステムにおける第1の機能制御処理(S12)を示すフローチャートである。
【図8】図1に示した制御装置において、本発明にかかる機能制御方法を実現する第2の視覚障害者用UIプログラムの構成を示す図である。
【図9】図1に示した制御装置において、本発明にかかる機能制御方法を実現する視覚障害者・晴眼者共用の第3のUIプログラムの構成を示す図である。
【図10】図9に示した晴眼者用UIプログラムが表示装置・タッチパネルに表示するUI画像を例示する図である。
【図11】図9に示したUIプログラムの処理(S16)を示フローチャートである。タッチパネルに設けられる操作用の凹凸を例示する図である。
【図12】図1に示した制御装置において、本発明にかかる機能制御方法を実現する第4の視覚障害者用UIプログラムの構成を示す図である。
【図13】第4の実施形態において、図12に示した定型操作設定部が作成する第1の定型操作テーブルを例示する図である。
【図14】プリンタシステムにおける第2の機能制御処理(S18)を示すフローチャートである。
【図15】第5の実施形態において、図12に示した定型操作設定部が作成する第2の定型操作テーブルを例示する図である。
【図16】プリンタシステムにおける第3の機能制御処理(S20)を示すフローチャートである。
【図17】図1に示した制御装置において、本発明にかかる機能制御方法を実現する第5の視覚障害者用UIプログラムの構成を示す図である。
【図18】図17に示した第5の視覚障害者用UIプログラムのボタン表示部により、タッチパネルに表示される各種ボタンを例示する図である。
【図19】図18に示したタッチパネルの操作面をユーザが指で触れる様子を示す図である。
【図20】第6の実施形態におけるプリンタシステムのボタン設定・表示および機能制御処理(S22)を示すフローチャートである。
【図21】図20に示したS24の処理(プリンタシステムにおける第4の機能制御処理)を示すフローチャートである。
【図22】プリンタシステムにおける第5の機能制御処理(S26)を示すフローチャートである。
【図23】図22に示したS28の処理を示すフローチャートである。
【図24】タッチパネルに設けられる操作用の凹凸を例示する図である。
【符号の説明】
1・・・プリンタシステム、
10・・・制御装置、
102・・・CPU、
104・・・メモリ、
120・・・通信装置、
122・・・プリンタ装置本体、
14・・・記録装置、
140・・・記録媒体、
16・・・表示装置、
180,190・・・タッチパネル
182・・・キーボード、
184・・・カードリーダ、
192・・・液晶表示装置、
20,22,24,26,28・・・UIプログラム、
200・・・押下位置検出部、
202・・・指位置検出部、
204・・・操作検出部、
206・・・操作判定部、
260・・・定型操作設定部、
280・・・ボタン表示部、
220・・・音声案内部、
240・・・モード切替部、
242・・・晴眼者用UIプログラム、
3・・・機能実行制御部、
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a function control device and a method for executing a function by accepting an operation from a user.
[0002]
[Prior art]
Office equipment such as copy copiers, ticket vending machines such as boarding ticket vending machines, and information guidance equipment placed in public places are currently used by users with touch panel keys and display devices combined. Interface devices have been applied.
In such a user interface device, a position at which an operation button is displayed, and a correspondence between a button and a function can be changed because of a large number of functions to be operated or a large number of types of information to be displayed. Sometimes.
[0003]
Here, there is a social demand to make the operation of the office equipment and the like easy even for visually impaired persons.
For example, in the United States, "Accessibility Law (Article 508) requires that keys accompanying mechanical operations be identifiable by touch.
[0004]
As a method for responding to such a request, for example, Japanese Unexamined Patent Application Publication No. Hei 5-324987 (Document 1) discloses a method of providing a set-top box in which keys for visually impaired persons are provided separately from a touch panel and switching between the two. Is disclosed.
However, according to the method disclosed in Reference 1, since the keys of the set-top box are not programmable, operable functions are limited. Therefore, a new set-top box is manufactured each time a function is added or changed. There is a need.
[0005]
Further, Japanese Patent Application Laid-Open No. 5-158607 (Document 2) discloses a method of actively forming Braille using a heating element or a mechanically movable portion.
However, the mechanism for realizing the invention disclosed in Document 2 is complicated and expensive.
In addition, a user who does not know Braille cannot use a device using this method.
[0006]
Also, Japanese Patent Application Laid-Open Nos. 7-319623 and 9-265352 (References 3 and 4) disclose a method of providing unevenness in association with keys displayed on a touch panel.
However, since the layout of the keys of the touch panel differs depending on the model, according to the methods disclosed in References 3 and 4, a different touch panel is required for each model, which increases the cost of the touch panel.
In addition, for example, when characters and keys are enlarged and displayed for a low-vision person, the irregularities on the touch panel are displaced from the display, so that operation guidance using these irregularities cannot be performed.
[0007]
Japanese Unexamined Patent Application Publication No. 8-297542 (Reference 5) discloses a method of providing grid line-shaped irregularities on an operation surface of a touch panel so that a position on the operation surface can be identified by tactile sensation, and further, a voice guidance is provided. Disclose.
However, in the method disclosed in Reference 5, the user must store the coordinates guided by the voice and follow the grid lines.
Therefore, according to this method, it takes time for the operation, and the operation cannot be performed if the contents of the guidance are forgotten.
[0008]
[Problems to be solved by the invention]
The present invention has been made in order to solve the above-described problems of the related art, and has as its object to provide a function control device and a method thereof that can be easily applied to different types of devices. I do.
Another object of the present invention is to provide a function control device and a method thereof that are easy to operate even for visually impaired persons.
[0009]
[Means for Solving the Problems]
[Function control device]
In order to achieve the above object, a function control device according to the present invention includes, in an operation surface on which an operation from the outside is accepted, one or more first operation positions where one or more first operations are performed, respectively. Operating position detecting means for detecting the first operating position, function associating means for associating one or more of the detected first operating positions with each of one or more predetermined functions, and one of the first operating positions. Operation detection means for detecting a second operation for each of the two or more operation functions, and function execution control means for controlling execution of a function associated with one or more of the first operation positions where the second operation has been performed; Having.
[0010]
Preferably, there is provided a touch panel for receiving an operation via the operation surface.
[0011]
Preferably, the touch panel is provided with one or more position display means for displaying each of one or more positions on the operation surface of the touch panel by touch.
[0012]
Preferably, the first operation is an operation of pointing at one or more positions of the operation surface, and the operation position detection unit is configured to detect one or more positions of the pointed operation surface, It is detected as each of the first operation positions.
[0013]
Preferably, the second operation is continuously performed for at least one of the first positions for a predetermined time or more.
[0014]
Preferably, the second operation is performed by stopping pointing at any one or more of the first positions.
[0015]
Preferably, the second operation is performed by pointing the first position after the first operation.
[0016]
Preferably, the second operation is performed at least once on any of the first positions, and the operation detecting means further detects the number of times of the second operation, and executes the function execution. The control unit controls the execution of the function based on the first operation position where the second operation is performed and the number of times of the detected second operation.
[0017]
Preferably, the second operation is performed at least once on any of the first positions, and the operation detecting means further detects the number of times of the second operation, and executes the function execution. The control unit controls the state of the function corresponding to the first operation position where the second operation has been performed according to the number of times of the second operation.
[0018]
Preferably, a third operation performed on each of one or more of the first operation positions is further performed on the operation surface in combination with the second operation, and the operation detection is performed. The means further detects the third operation, and the function execution control means starts or ends a function executed in combination with the third operation according to the detected third operation. .
[0019]
Preferably, the first operation of pointing at one or more positions on the operation surface is an operation of simultaneously touching a plurality of positions on the operation surface with a plurality of fingers, and the operation position detection unit includes: The region touched by each of the plurality of fingers and its surroundings or any of them is detected as each of the first operation positions.
[0020]
Preferably, the operation position detecting means further includes at least one of a thumb, an index finger, a middle finger, a ring finger, and a little finger, based on a positional relationship between the first operation positions. Correspond with each.
[0021]
Preferably, the apparatus further includes first voice guidance means for performing voice guidance using the name of the finger associated with the first operation position.
[0022]
Preferably, there is further provided a second voice guidance means for voice guidance of an operation on the operation surface.
[0023]
Preferably, the apparatus further includes a sound output unit that outputs a predetermined sound according to an operation on the operation surface.
[0024]
Preferably, the apparatus further comprises an operation registration unit for registering one or more combinations of the second operations, wherein the function execution control unit is configured to perform the first operation in which the registered combination of the second operations is performed. The execution of the function associated with the operation position is controlled.
[0025]
Preferably, the operation registration unit registers one or more combinations of the second operations, and performs the registration in response to the second operation indicating any of the registered combinations of the second operations. One of the selected combinations of the second operations, and the function execution control unit executes the function associated with the first operation position where the selected combination of the second operations is performed. Control.
[0026]
Preferably, the operation registration unit receives one or more identifiers of a user who performs the second operation, and registers one or more combinations of the second operations in association with each of the received identifiers. And selecting one of the registered combinations of the second operations in accordance with the accepted identifier and a second operation indicating one of the registered combinations of the second operations; The function execution control unit further controls execution of a function associated with the first operation position where the selected combination of the second operations is performed.
[0027]
Preferably, the apparatus further includes a third voice guidance unit that voice-displays the selected combination of the second operations.
[0028]
Preferably, the apparatus further includes image display means for displaying, at each of the detected first operation positions, an image indicating a function associated with each of the first operation positions.
[0029]
Preferably, the image display means displays an image indicating the function at the first operation position or in the vicinity thereof.
Preferably, the image display unit further displays the set value set by the function at the first operation position or in the vicinity thereof.
[0030]
Preferably, the image display means displays an image indicating the function in a similar shape to a hardware button for designating the function or at substantially the same or an arbitrary magnification in the vertical and horizontal directions.
[0031]
Preferably, the image display means displays an image indicating the function in substantially the same color as a hardware button for designating the function.
[0032]
Preferably, the image display means changes and displays an image indicating the function for each function.
[0033]
Preferably, the image display means further displays character information indicating the function at or near the first operation position.
[0034]
Preferably, the operation detection means detects a timing of a second operation for each of one or more of the first operation positions, and the function execution control means detects a timing of the second operation for each of one or more of the first operation positions. And the execution of the function associated with the detected second operation timing.
[0035]
Preferably, the timing is a time interval between a plurality of the second operations.
[0036]
Preferably, the timing is a duration of the second operation.
[0037]
Preferably, the timing is a combination of a time interval between the plurality of second operations and a duration of the second operation.
[0038]
In addition, the second function control device according to the present invention is any one of the above function control devices, another function control device that accepts an operation and controls execution of a function, and the function control device and Selecting means for selectively activating any of the other function control devices.
[0039]
[Image forming apparatus]
Further, an image forming apparatus according to the present invention includes any one of the above function control devices.
[0040]
[Information processing device]
Further, an information processing device according to the present invention includes any one of the above function control devices.
[0041]
[Function control method]
In addition, the function control method according to the present invention detects each of one or more first operation positions where one or more first operations have been performed on an operation surface where an external operation is accepted, One or more of the performed first operation positions are associated with one or more predetermined functions, and a second operation for each of the one or more first operation positions is detected. Controls the execution of the function associated with one or more of the first operation positions where the operation has been performed.
[0042]
[program]
Further, the program according to the present invention includes a step of detecting each of one or more first operation positions where one or more first operations are performed on an operation surface on which an external operation is accepted; Associating one or more of the performed first operation positions with one or more predetermined functions, and detecting a second operation of each of the one or more of the first operation positions, Controlling the execution of a function associated with one or more of the first operation positions where the second operation has been performed.
[0043]
BEST MODE FOR CARRYING OUT THE INVENTION
[Overview]
First, the outline of the present invention will be described.
The function control method according to the present invention is applied to, for example, a multifunction peripheral that sets the number of copies and the like using a touch panel.
In the function control method according to the present invention, a portion of the touch panel touched by a user's finger is used as a button for selecting a function or the like.
[0044]
This will be described more specifically.
First, when the user places a finger on the touch panel, the device to which the function control method according to the present invention is applied detects the number and positional relationship of the finger placed on the touch panel.
For example, (index finger or ring finger), when two fingers are placed on the touch panel, the position where the two fingers are placed, and which of the two fingers is the right finger and which is the right finger Recognize whether it is the left finger.
Further, for example, the device to which the function control method according to the present invention is applied is configured such that when five fingers are placed on the touch panel, the first position may be any one of the positions where the five fingers are placed and the five positions. Finger (thumb or little finger), second finger (index finger or ring finger), third finger (middle finger), fourth finger (ring finger or index finger) Is recognized or the fifth finger (little finger or thumb) is placed.
[0045]
As described above, by detecting the position where the finger is placed on the touch panel and detecting which finger is placed at which position, the device to which the function control method according to the present invention is applied is By associating each position where a finger is placed with a function to be executed and controlled, the user is provided with an environment where the user can perform an operation using each position where the finger is placed like a button.
In other words, the function control method according to the present invention is based on the conventional idea that the function is fixedly associated with the button placed at the fixed position, and the position of the button is memorized by the user at the position where the user places the finger. Is completely switched to the idea of using it as a button, and the function is automatically associated with the position of the user's finger to accept the operation.
[0046]
Further, for example, when five fingers of the right hand are placed on the touch panel, as described above, it is recognized that the thumb is placed at the rightmost position, the middle finger is placed at the center position, and the like. Can be.
By combining each finger on the touch panel with the voice guidance in this way, the operability can be further improved.
In other words, for example, with voice guidance, the operation guidance such as "Please select one of the functions of copy, fax and scan with your thumb" or "Please specify the number of copies with your middle finger" By doing so, the operability of the device can be further improved.
[0047]
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described.
FIG. 1 is a diagram showing a hardware configuration of a printer system 1 according to the present invention, focusing on a control device 10.
As shown in FIG. 1, the printer system 1 includes a control device 10 including a CPU 102 and a memory 104, a communication device 120, a printer device main body 122, a recording device 14, a display device 16, a first touch panel 180 (or FIG. A second touch panel 190 described later with reference to FIG. 17), an input device 18 including a keyboard 182, a card reader 184 for managing the number of copies, and the like.
[0048]
The communication device 120 communicates with another node such as a computer via a network (not shown).
The printer main body 122 includes components (a print engine, a scanner, and the like; not shown) required as a copy multifunction peripheral.
Functions that can be designated by the user for execution on the printer main body 122 include ordinary printing or copying (hereinafter simply referred to as “printing” or “copying”, and these are not strictly distinguished unless necessary. ), Double-sided printing, N-up printing, and the like, and the settings that the user can make on the printer main body 122 may include registration of print density, number of copies, magnification, and FAX number.
[0049]
The recording device 14 records / reproduces data on / from a recording medium 140 such as an HD / FD / CD.
The display device 16 includes a display such as a CRT / LCD and a speaker (SP).
[0050]
The input device 18 includes an input device such as a touch panel 180 and a keyboard 182.
That is, the printer system 1 has a component part as a network printer that prints image data transmitted via a network, or a multifunction peripheral including functions as a copier, a facsimile, and a scanner.
[0051]
FIG. 2 is a diagram showing a configuration of the touch panel 180 shown in FIG.
FIG. 3 is a diagram showing a state in which the user touches the operation surface of touch panel 180 shown in FIGS. 1 and 2 with a finger.
Touch panel 180 receives an operation from an operation surface.
As shown in FIG. 2, a plurality of electrodes 186 extending in the vertical direction and a plurality of electrodes 184 extending in the horizontal direction are arranged on the operation surface of the touch panel 180 in a grid pattern.
As shown in FIG. 3, when the operation surface is pressed by a user's finger or the like, or when the operation surface is pointed by a stylus or the like, grid points of the pressed or pointed portion (in FIG. Electrodes 184, 186 are in contact.
Note that the pointing indicated here means contact with a finger or the like or contact with a stylus or the like.
[0052]
The control device 10 sequentially applies a voltage to the electrodes 184 extending in the horizontal direction of the touch panel 180 (FIG. 2), and outputs the output of the electrodes 186 extending in the vertical direction in synchronization with the voltage application to the electrodes 184 extending in the horizontal direction. By manipulating the voltage, it is possible to determine at which of the grid points the electrodes 184 and 186 are in contact.
[0053]
In the function control method according to the present invention, the user can operate the operation surface of the touch panel 180 with his / her finger or with a stylus or the like. For the sake of specific example, a case where the user operates the operation surface of the touch panel 180 with a finger will be described as an example.
[0054]
[UI program 20]
FIG. 4 is a diagram showing a configuration of a first visually impaired person UI program 20 for realizing the function control method according to the present invention in the control device 10 shown in FIG.
As shown in FIG. 4, the UI program 20 includes a pressed position detection unit 200 (operation position detection unit), a finger position detection unit 202, an operation detection unit 204 (operation detection unit), and an operation determination unit 206 (function association unit). Consists of
[0055]
The UI program 20 is supplied to the control device 10 via the recording medium 140 or the like, loaded into the memory 104, and executed.
With these components, the UI program 20 detects the position of one or more fingers placed on the operation surface of the touch panel 180 (FIGS. 1 and 2), associates the function, and accepts the selection of the function. These are so-called “buttons”, and accept operations of these buttons and notify the function execution control unit 3 to control the execution of the functions of the printer main body 122 or to make settings for the printer main body 122.
[0056]
[Pressed position detection unit 200]
The pressed position detection unit 200 detects which part of the operation surface of the touch panel 180 (FIGS. 1 and 2) is pressed.
That is, the pressed position detection unit 200 sequentially applies a voltage signal to the electrode 184 extending in the horizontal direction and reads an output signal output from the electrode 186 extending in the vertical direction, thereby reading the grid point (FIG. 2) of the touch panel 180. Which of the electrodes 184 and 186 is in contact is detected.
The pressed position detecting unit 200 outputs the detected pressed position to the finger position detecting unit 202 and the operation detecting unit 204.
[0057]
[Finger position detection unit 202]
FIG. 5 shows a state in which when the user presses the operation surface of the touch panel 180 with the five fingers of the right hand as shown in FIG. 3, the pressing position detection unit 200 shown in FIG. FIG. 4 is a diagram illustrating an area where a position of a finger is detected by a position detection unit 202;
The finger position detection unit 202 detects the position of the user's finger based on the pressed position input from the pressed position detection unit 200, and selects a function at the position where the finger is detected on the operation surface of the touch panel 180. Provide buttons used for
[0058]
That is, the user places five fingers (thumb, index finger, middle finger, ring finger, little finger) on the operation surface of the touch panel 180 to determine the position of the button as shown in FIG. When the unit 200 detects the position pressed by the five fingers, the finger position detection unit 202 appropriately clusters the grid points where the press is detected, and determines the ranges A to E of the grid points obtained by the clustering. Is detected as the position where the finger is placed.
Further, the finger position detection unit 202 may perform, as necessary, the positional relationship between the user's finger ranges A to E detected as illustrated in FIG. It is determined which of the user's fingers (thumb, index finger, middle finger, ring finger, little finger) each of the ranges A to E is based on, for example, whether or not the user places the finger.
[0059]
Therefore, when the user places his right finger on the operation surface of the touch panel 180 as illustrated in FIG. 3, each of the ranges A to E illustrated in FIG. 5 corresponds to the thumb, index finger, middle finger, ring finger, and little finger, respectively. Can be
When the user places his or her left finger on the operation surface of touch panel 180, each of ranges A to E shown in FIG. 5 is associated with little finger, ring finger, middle finger, index finger, and thumb by finger position detection unit 202. Can be
[0060]
In a case where correspondence between the detected range and the finger is necessary and the number of buttons may be four or less, the finger position detecting unit 202 may determine the detected range and the finger in accordance with the required number of buttons. Is changed as exemplified below.
That is, when the user places one finger corresponding to the number of required buttons on the operation surface of the touch panel 180 according to voice guidance (described later with reference to FIGS. 7 and 8) and a manual, One range (not shown) is detected by the finger position detection unit 202.
Similarly, when the user places two fingers on the operation surface of the touch panel 180, two ranges (not shown) are detected by the finger position detection unit 202, and the finger position detection unit 202 Accordingly, these two ranges are associated with, for example, the right finger and the left finger, respectively.
[0061]
Similarly, when the user places three fingers on the operation surface of touch panel 180, three ranges (not shown) are detected by finger position detection unit 202, and these three ranges are detected by finger position detection unit 202. The three ranges are associated with, for example, the right finger, the middle finger, and the left finger as needed.
Similarly, when the user places four fingers on the operation surface of the touch panel 180, four ranges (not shown) are detected by the finger position detection unit 202, and the finger position detection unit 202 Thus, these four ranges are associated with, for example, the first to fourth fingers from the right side, respectively.
The processing result of the finger position detection unit 202 described above is output to the operation detection unit 204 and the operation determination unit 206.
[0062]
[Operation detection unit 204]
After the buttons are provided on the operation surface of the touch panel 180 by the finger position detection unit 202, the operation detection unit 204 detects an operation on the provided buttons and outputs the operation to the operation detection unit 204.
The following can be considered as an operation for the button.
From the state in which the finger touches all the buttons provided on the touch panel 180, only the finger that touches the button corresponding to the function to be selected is released (operation 1; second operation). From a state in which the finger is released from all the buttons provided on the touch panel 180, the finger is touched only with the button corresponding to the function to be selected (operation 2; second operation).
[0063]
When setting the number of copies, for example, the operation of touching the finger from the state where the finger is released from the setting button and releasing the finger again is repeated by the number of times corresponding to the number to be set (count-up operation; second operation ).
When setting copy paper, the operation of touching the finger from a state where the finger is separated from the setting button and releasing the finger again is repeated until the desired setting is obtained (toggle operation; second operation).
When the operation for the set button is started, when all the settings are completed, and when the operation of the UI program 20 is ended, the button is touched by a specific method respectively defined in each of these cases ( Specific operation; third operation).
[0064]
[Operation determination unit 206]
The operation determination unit 206 associates each of the buttons set as described above and each of the types of the finger with a function to be executed and controlled in the control device 10 and the printer device main body 122.
When the operation detection unit 204 detects an operation, the operation determination unit 206 determines which function is to be selected by the detected operation, and outputs a determination result to the function execution control unit 3. .
[0065]
[Function execution control unit 3]
The function execution control unit 3 controls each component of the control device 10 or the printer main body 122 according to the result of the operation determination 206 to execute the function.
Hereinafter, the start of the normal copy, the setting of the number of copies, the selection of the paper, the clearing of the settings, the stop (stop) of the printing, and the setting of other information will be described as specific examples of the functions that the function execution control unit 3 controls the execution. .
[0066]
[Operation of UI program 20]
Hereinafter, the operation of the UI program 20 (FIG. 4) will be described.
FIG. 6 is a flowchart showing the button setting process (S10) in the printer system 1.
As shown in FIG. 6, in step 100 (S100), the pressed position detection unit 200 of the UI program 20 determines whether or not an operation (first operation) on the touch panel 180 (FIGS. 1 and 2) has been performed.
When an operation has been performed, the pressed position detection unit 200 detects the pressed position and proceeds to the process of S102. Otherwise, the process of S100 remains.
[0067]
In step 102 (S102), the pressed position detection unit 200 and the finger position detection unit 202 detect the position (operation position) of the user's finger on the operation surface of the touch panel 180 in cooperation.
[0068]
In step 104 (S104), the finger position detection unit 202 determines whether or not the operation position has been continuously detected at a predetermined position for a predetermined time (for example, 5 seconds).
When the operation position is continuously detected for a certain period of time, the UI program 20 proceeds to the process of S108, and otherwise, proceeds to the process of S108.
[0069]
In step 106 (S106), the pressed position detection unit 200 and the finger position detection unit 202 determine whether the user has performed an operation on the operation surface of the touch panel 180.
If no operation has been performed, the UI program 20 proceeds to the process of S102, and otherwise returns to the process of S100.
[0070]
In step 108 (S108), the finger position detection unit 202 determines whether a necessary number (m) of operation positions have been detected in the processing of S102.
When the required number of operation positions has been detected, the UI program 20 proceeds to the processing of S110, and otherwise, proceeds to the processing of S102.
[0071]
In step 110 (S110), the finger position detection unit 202 clusters and stores the detected operation positions, and sets buttons for these.
Further, the finger position detection unit 202 associates, for example, each of the detected operation positions with the thumb to the little finger, as necessary.
[0072]
In step 112 (S112), the operation determining unit 206 determines each of the buttons and each of the finger types set in the process of S110, and the functions to be executed and controlled by the control device 10 and the printer device main body 122. Correspond.
By the processing of S10 described above, a button used for selecting a function or the like is set on the operation surface of the touch panel 180 at a position touched by the user's finger.
[0073]
FIG. 7 is a flowchart showing the first function control processing (S12) in the printer system 1.
In the description with reference to FIG. 7, the buttons A to E are set in the ranges A to E illustrated in FIG. 5 by the finger position detection unit 202, and the operation determination unit 206 sets the button A to start copying. Button B is associated with a function of setting the number of copies, button C is associated with a paper size selection function, button D is associated with information confirmation, and button E is associated therewith. A specific example is a case where functions such as clearing of information set up to and stop of copying (stop) are associated with each other.
[0074]
As shown in FIG. 7, in step 120 (S120), the pressed position detection unit 200 and the operation detection unit 204 detect an operation on a button in cooperation.
In step 122 (S122), the pressed position detection unit 200 and the operation detection unit 204 cooperate to determine whether or not an operation has been performed on the button set in the process of S10.
If an operation has been performed on the button, the UI program 20 proceeds to the process of S124, and otherwise returns to the process of S120.
[0075]
In step 124 (S124), the operation detection unit 204 determines whether the detected operation is an operation for starting an operation on a button set on the operation surface of the touch panel 180 by the processing of S10 (a type of the specific operation). Determine whether or not.
If the detected operation is an operation for starting a search, the UI program 20 proceeds to the process of S126, otherwise proceeds to the process of S128.
[0076]
In step 126 (S126), the operation determination unit 206 initializes variables used for controlling execution of functions.
That is, for example, the operation determination unit 206 performs an initialization process such as setting the number of variables N indicating the number of copies to an initial value of 1.
[0077]
In step 128 (S128), the operation detection unit 204 determines whether or not an operation has been performed on the button A (for example, the above operation examples 1 and 2).
When there is an operation on button A, in step 130 (S130), operation determination unit 206 notifies function execution control unit 3 that the function start has been selected.
The function execution control unit 3 that has received the notification controls the respective school components of the printer device main body 122 and the control device 10 according to the notification from the operation determination unit 206, and starts a function such as copying.
[0078]
In step 132 (S132), the operation detection unit 204 determines whether or not an operation on the button B (for example, the count-up operation) has been performed.
When an operation has been performed on the button B, in step 134 (S134), the operation determination unit 206 notifies the function execution control unit 3 that count-up of the number of copies has been selected.
In response to the notification from the operation determining unit 206, the function execution control unit 3 controls the components of the printer device main body 122 and the control device 10 and counts up the number of copies (N = N + 1).
[0079]
In step 136 (S136), the operation detection unit 204 determines whether or not an operation on the button C (for example, the toggle operation) has been performed.
When an operation has been performed on the button C, in step 138 (S138), the operation determination unit 206 notifies the function execution control unit 3 that the change of the paper size has been selected.
The function execution control unit 3 that has received the notification controls the respective school components of the printer device main body 122 and the control device 10 according to the notification from the operation determination unit 206 to change the paper size.
[0080]
In step 140 (S140), the operation detection unit 204 determines whether or not an operation on the button D (for example, the toggle operation) has been performed.
When an operation is performed on the button D, in step 142 (S142), the operation determination unit 206 determines the number of copies and the paper size selected in the processing of S134, S138 and the like.
[0081]
In step 144 (S144), the operation detection unit 204 determines whether or not an operation has been performed on the button E (for example, the above operation examples 1 and 2).
When the operation on the button E is performed, in step 146 (S146), the operation determining unit 206 instructs the function execution control unit 3 to clear the settings so far or stop the function such as the copy currently being executed (stop). ) Is selected.
In response to the notification from the operation determination unit 206, the function execution control unit 3 that has received the notification clears the settings so far or stops the function being executed.
[0082]
In step 148 (S148), the operation detection unit 204 determines whether the buttons A to E have been simultaneously operated (a type of the specific operation).
When the buttons A to E are simultaneously operated, in step 150 (S150), the function execution control unit 3 stores the set values up to that time, and the UI program 20 executes other settings (for example, FAX number setting). Settings).
[0083]
[Second embodiment]
Hereinafter, a second embodiment of the present invention will be described.
FIG. 8 is a diagram showing the configuration of the second UI program 22 for the visually impaired person that realizes the function control method according to the present invention in the control device 10 shown in FIG.
In FIG. 8, the same components as those of the first UI program 20 shown in FIG. 4 are denoted by the same reference numerals.
As shown in FIG. 8, the second UI program 22 has a configuration in which a voice guidance unit 220 (voice guidance means) is added to the first UI program 20 and the function execution control unit 3.
With these components, the second UI program 22 provides a user interface similar to that of the first UI program 20 and guides the operation to be performed by voice so that the operability for the visually impaired is improved. Has been further improved.
[0084]
The voice guidance unit 220 generates a voice for instructing the user on the operation based on the operation determined by the operation determination unit 206 and the content of the control of each component of the printer system 1 by the function execution control unit 3. Then, it is output via a speaker (FIG. 1) of the display device 16.
[0085]
The content of the operation guidance output by the voice guidance unit 220 by voice is as follows.
In addition, (1) to (8) of each of the operation guides (1) to (8) described below correspond to the operation guide timings (1) to (8) shown in FIG.
・ "Please enter the number of copies with your index finger. One click is one copy; operation guide (1)."
・ "1 copy. If you like, please confirm with your ring finger. Operation guide (2)"
・ "2 copies. Please confirm with your ring finger if you like; operation guide (3)"
・ "3 copies. Please confirm with your ring finger if you like; operation guide (4)"
・ "Please switch papers with your middle finger. Currently A4 size. Please confirm with your ring finger if you like .; Operation guide (5)"
・ "Currently B4 (A3) size. Please confirm with ring finger if you like. Operation guide (6)"
-"You can clear the settings with your little finger. You can start copying with your thumb. Operation guide (7)"
・ "Copy completed; operation guide (8)"
[0086]
Hereinafter, the operation of the UI program 22 will be described with reference to FIG. 7 again.
The processing of the second UI program 22 shown in FIG. 7 is the same as that of the first UI described in the first embodiment, except for the description of the operation guidance (1) to (8) by the voice guidance unit 220 described above. This is the same as the corresponding processing of the program 20.
[0087]
As shown in FIG. 7, when the process of S126 ends, the voice guidance unit 220 outputs the voices of the above-described operation guidance (1), (5), and (7).
[0088]
When an operation on the button B is detected by the process of step 132 (S132), the voice guidance unit 220 performs the above-described operation guidance (2), (3), (4), or the like according to the designated number of copies. Either of the sounds is output.
[0089]
When the operation on the button C is detected by the process of step 136 (S136), the voice guidance unit 220 outputs the voice of the operation guidance (6) described above according to the specified paper size.
[0090]
When the execution of the function started in step 130 (S130) ends, the voice guidance unit 220 outputs the voice of (8) described above.
[0091]
[Third embodiment]
Hereinafter, a third embodiment of the present invention will be described.
FIG. 9 is a diagram showing a configuration of a third UI program 24 for the visually impaired person / sighted person realizing the function control method according to the present invention in the control device 10 shown in FIG.
As shown in FIG. 9, the UI program 24 includes the UI programs 20 and 22 (FIGS. 4 and 8), a mode switching unit 240 (selection unit), and a sighted person UI program 242 (another function control device). Is done.
The UI program 24 can switch between the first and second UI programs 20 and 22 for the visually impaired and the UI program 242 for the visually impaired, so that the operability is improved for both visually impaired and sighted. Provide a good user interface.
[0092]
FIG. 10 is a diagram exemplifying a UI image displayed on the display device 16 and the touch panel 180 by the sighted person UI program 242 shown in FIG.
The sighted-user UI program 242 displays an operation image (UI image) as illustrated in FIG. 10 on the display device 16 or the touch panel 180 (FIG. 1), and executes a function according to an operation on the displayed image. The control section 3 causes the function to be executed.
That is, the UI program 242 provides a general UI environment used by sighted persons.
[0093]
The mode switching unit 240 activates one of the UI programs 20 and 22 and the UI program 242 according to a selection operation input from the touch panel 180 and the keyboard 182 (FIG. 1).
[0094]
Hereinafter, the operation of the UI program 24 will be described.
FIG. 11 is a flowchart showing the processing (S16) of the UI program 24 shown in FIG.
As shown in FIG. 11, in step 160 (S160), the mode switching unit 240 determines whether or not the button setting process (S10) shown in FIG. 6 has been performed.
When the processing in S10 is being performed, the UI program 24 proceeds to the processing in S162, and otherwise, proceeds to the processing in S168.
[0095]
In step 162 (S162), the mode switching unit 240 activates the UI programs 20, 22.
[0096]
In step 164 (S164), the mode switching unit 240 determines whether or not the UI programs 20 and 22 have been used for a certain period of time. If the UI programs 20 and 22 have been used, the process remains at S164. Otherwise, the process proceeds to S166. .
[0097]
In step 166 (S166), the mode switching unit 240 ends the UI programs 20, 22.
[0098]
In step 168 (S168), the mode switching unit 240 activates the UI program 242.
[0099]
[Fourth embodiment]
For example, when a certain user prints using the printer system 1 (FIG. 1), the user can use A4 copy paper and perform a setting for printing a fixed number of copies that are distributed to members belonging to the same department one by one. In many cases, a user frequently makes settings for the printer system 1 frequently, such as making settings for printing only one copy on the printer system 1 using copy paper.
Such routine operations can be registered in the printer system 1 in advance, and as described above, the routine operation is performed by designating the routine based on the position and movement of the finger on the touch panel 180. It is convenient to be able to do this.
As other examples of the standard settings, the user may select “setting to print a part of full-color on A4 copy paper (first setting)” or “setting to print B4 copy paper in black and white. Copy print setting (first setting) ”and the like.
[0100]
An operation for performing such a standard setting (a standard operation) is associated with, for example, each position of each finger detected on the touch panel 180 (FIG. 5), and the index finger touching the touch panel 180 is separated. When touching the touch panel 180 again later, the printer system 1 interprets that the operation for performing the first setting has been performed, or when the middle finger touching the touch panel 180 performs the same movement, If the printer system 1 interprets that an operation for setting has been performed, and can perform printing with a setting corresponding to the operation of the user, the printer system 1 has been described so far in the first to third embodiments. The operability of the user interface can be further improved.
A fourth embodiment of the present invention described below is provided to provide such a function and to provide a more convenient user interface of the printer system 1 to a user.
[0101]
[Fourth visually impaired UI program 26]
FIG. 12 is a diagram showing the configuration of the fourth visually impaired person UI program 26 for realizing the function control method according to the present invention in the control device 10 shown in FIG.
The configuration of the fourth UI program 26 for the visually impaired is substantially the same as the configuration of the first to third UI programs 20 to 24 for the visually impaired (FIGS. 4, 8, and 9). Things are given the same reference numerals,
As shown in FIG. 12, the fourth visually impaired person UI program 26 employs a configuration in which a routine operation setting unit 260 is added to the second visually impaired person UI program 22 shown in FIG.
The UI program 26 for the visually impaired is also loaded and executed in the memory 102 of the printer system 1 in the same manner as the UI programs 20 to 24 for the visually impaired, and as described above, the user interface that enhances the convenience of the routine operation Is provided to the user of the printer system 1.
[0102]
[Regular operation setting section 260]
FIG. 13 is a diagram illustrating a first fixed operation table created by the fixed operation setting unit 260 illustrated in FIG. 12 in the fourth embodiment.
The standard operation setting section 260 creates and holds a standard operation table (FIG. 13) indicating an operation (standard operation) performed by the user on the printer system 1 according to a user operation on the touch panel 180 (FIG. 1). I do.
[0103]
In addition, the standard operation setting unit 260 receives the specification of the standard operation number by the user's operation, searches the standard operation table, and outputs the standard operation data indicating the standard operation corresponding to the specified standard operation number to the operation determining unit 206. Output to
As shown in a specific example in FIG. 13, each of the standard operation data includes post-processing such as the number of copies, paper size, color printing / monochrome printing, print density and sorting set by the user for the printer system 1. And a fixed operation number for identifying each of these combinations.
[0104]
FIG. 14 is a flowchart showing the second function control processing (S18) in the printer system 1.
Note that among the processes shown in FIG. 14, those substantially the same as the processes shown in FIG. 7 are denoted by the same reference numerals.
In other words, the second function control processing (S18) shown in FIG. 14 replaces the processing of S130, S142, and S146 of the first function control processing (S12) shown in FIG. 7 with S180, S182, and S184 described later. Is replaced by
[0105]
In the description with reference to FIG. 14, the buttons A to E are set in the ranges A to E illustrated in FIG. 5 by the finger position detection unit 202, and the standard pattern registered for the button A by the operation determination unit 206. A function for invoking an operation is associated, a button B is associated with a function for setting the number of copies, a button C is associated with a paper size selection function, and a button D is for setting a standard operation number. A specific example is a case where the button E is associated with a function for determining and registering a standard operation set by the previous operation.
[0106]
The processing of steps 120 to S126 (S120 to S126) shown in FIG. 14 is as described above with reference to FIG.
In step 128 (S128), the operation detection unit 204 determines whether an operation has been performed on the button A.
When there is an operation on the button A, the fourth UI program 26 for the visually impaired proceeds to the process of S180, and otherwise, proceeds to the process of S132.
[0107]
The processing of steps 132 to 138 (S132 to S138) is as described above with reference to FIG.
In step 140 (S140), the operation detection unit 204 determines whether an operation has been performed on the button D.
The fourth UI program 26 for the visually impaired proceeds to the process of S182 when there is an operation on the button D, and otherwise proceeds to the process of S144.
[0108]
In step 144 (S144), the operation detection unit 204 determines whether an operation has been performed on the button E.
The fourth UI program 26 for the visually impaired proceeds to the process of S184 when an operation is performed on the button E, and otherwise proceeds to the process of S148.
The processing of steps 148, 150 (S148, S150) is as described above with reference to FIG.
[0109]
In step 180 (S180), the operation detection unit 204 notifies the routine operation setting unit 260 that an operation for setting a routine operation number has been performed.
The routine operation setting unit 260 outputs to the operation detection unit 204 the routine operation data (FIG. 13) corresponding to the routine operation number T obtained by the processing of S182.
The operation detection unit 204 notifies the function execution control unit 3 that the operation indicated by the standard operation data input from the standard operation setting unit 260 has been performed.
The function execution control unit 3 makes settings for each component of the printer system 1 according to this notification, and causes printing to be performed.
[0110]
In step 182 (S182), the operation detection unit 204 counts up the standard operation number T.
[0111]
In step 184 (S184), the operation detection unit 204 notifies the routine operation setting unit 260 that an operation for registering the routine operation data has been performed.
Receiving this notification, the standard operation setting section 260 sets the entry indicated by the standard operation number T obtained by the processing of S182 in the standard operation table (FIG. 13) and the number of copies N obtained by the processing of S134 and S138 and The copy paper size is stored as standard operation data.
It should be noted that the routine operation setting section 260 creates a new entry for the routine operation number T when the routine operation number T does not exist in the routine operation table.
[0112]
In the process of S180, the routine operation setting unit 260 may cause the voice guidance unit 220 to provide voice guidance of the content of the selected routine operation data before the printing by the printer system 1 is actually started.
Further, in the process of S180, when there is a confirmation operation (for example, continuous pressing of the button E) for the voice guidance, the operation detection unit 204 outputs the routine operation data to the function execution control unit 3. Then, printing may be started.
[0113]
[Typical operation example]
Hereinafter, a typical operation of the printer system 1 to which the fourth visually impaired person UI program 26 is applied will be described with a specific example.
First, an operation for registering a standard operation in the printer system 1 will be described.
First, the user places all fingers of the right hand on the touch panel.
Next, the user moves the index finger of the right hand up and down the same number of times as the number of copies.
For example, if three copies are desired, the user moves the index finger of the right hand up and down three times, and moves the ring finger on the standard operation registration button up and down once.
[0114]
Next, when the user moves the middle finger up and down, the paper size is toggled in the order of A4 → B4 → A3 → A4 and selected.
That is, for example, when setting the paper size to B4, the user moves the middle finger up and down twice.
If the operation performed so far is correct, the user moves the ring finger on the standard operation number button up and down once, for example, and sets the standard operation number T to 1.
Alternatively, the user raises and lowers the ring finger on the routine operation number button once again, and sets the regular operation constant number T to 2.
After the above operation, when the user moves the little finger on the regular operation registration button up and down once, the set value (3 copies, paper size B4) is changed to the standard operation number 1 or the standard operation number 2 The data is stored in the standard operation setting section 260 as data.
[0115]
Next, an operation for operating the printer system 1 according to the settings indicated by the standard operation registered in the standard operation setting section 260 will be described.
First, the user places all fingers of the right hand on the touch panel 180.
Next, the user moves the ring finger on the standard operation number button up and down once, and selects, for example, the standard operation number 1.
Alternatively, the user moves the ring finger up and down twice and selects the routine operation number 2.
After selecting a desired fixed operation number, the user moves the thumb on the fixed operation setting button up and down once, and the setting corresponding to the fixed operation indicated by the fixed operation number 1 or the fixed operation number 2 is transmitted to the printer system 1. The printer system 1 performs printing according to this setting.
[0116]
[Fifth Embodiment]
Hereinafter, a fifth embodiment of the present invention will be described.
As shown in FIG. 1, a card reader 184 may be added to the printer system 1 for the purpose of managing the number of copies.
The control device 10 (FIG. 1) of the printer system 1 can read, for example, a user ID stored in a magnetic card (not shown) from the card reader 184.
Alternatively, even when the card reader 184 is not added to the printer system 1, the control device 10 requests the user to input a user ID as necessary, and The user ID input from 182 can be accepted.
[0117]
The user interface according to the present invention described up to this point is based on the premise that at least one finger of at least one hand does not have any obstacle. If a person who is suffering from the problem is included, it may not be possible to provide sufficiently convenient operability to the person.
On the other hand, the user is specified using the card reader 184 or the like, and the operation of the fourth UI program 26 for the visually impaired shown in FIG. When the information can be provided, a more convenient user interface can be provided and the above-described problem can be solved.
The fifth embodiment of the present invention has been made in such a background.
[0118]
FIG. 15 is a diagram exemplifying a second fixed operation table created by the fixed operation setting unit 260 shown in FIG. 12 in the fifth embodiment.
As shown in FIG. 15, the routine operation setting unit 260 creates the routine operation table shown in FIG. 13 for each user of the printer system 1 (FIG. 1), and holds the table in association with the user ID.
Further, as shown in FIG. 15, the routine operation setting unit 260 creates and holds a routine operation table common to all users of the printer system 1 (FIG. 1).
In addition, the routine operation setting unit 260 performs the routine based on the user ID input from the card reader 184 or the like and the routine operation number designated by the user operation, or only to the routine operation number designated by the user operation. Based on the standard operation table, the standard operation data indicating the standard operation specific to each user corresponding to the specified standard operation number, or the standard operation data common to all the users is transmitted to the operation determination unit 206. Output.
[0119]
FIG. 16 is a flowchart illustrating the third function control process (S20) in the printer system 1.
Note that among the processes shown in FIG. 16, those substantially the same as the processes shown in FIGS. 7 and 14 are denoted by the same reference numerals.
In other words, the second function control processing (S18) shown in FIG. 16 replaces the processing of S130, S142, and S146 of the first function control processing (S12) shown in FIG. 7 with S204, S182, and S206 described later. In the second function control process (S14), and the processes of S200 and S202 described later are added.
The correspondence between the ranges A to E and the buttons A to E and the setting of the function for each button in the description with reference to FIG. 16 are as in the specific example described with reference to FIG.
[0120]
As shown in FIG. 16, in step 120 (S120), the pressed position detection unit 200 and the operation detection unit 204 detect an operation on a button in cooperation.
In step 122 (S122), the pressed position detection unit 200 and the operation detection unit 204 cooperate to determine whether or not an operation has been performed on the button set in the process of S10.
When an operation is performed on the button, the UI program 20 proceeds to the process of S200, and otherwise returns to the process of S120.
[0121]
In step 200 (S200), the routine operation setting section 260 determines whether a user ID has been set for the card reader 184 (FIG. 1) or the like.
The visually impaired user UI program 26 (FIG. 12) proceeds to the process of S202 when the user ID is set, and otherwise proceeds to the process of S124.
In step 202 (S202), the routine operation setting section 260 stores the set user ID.
When a user ID is set in the process of S200, the routine operation setting unit 260 performs a process on the routine operation data indicated by the set user ID in the routine operation table shown in FIG. When the user ID is not set in the processing of the above, the processing for the common operation data common to all users in the standard operation table shown in FIG. 15 is performed.
[0122]
The processing of steps 124 and S126 (S124 and S126) is as described with reference to FIG.
In step 128 (S128), the operation detection unit 204 determines whether an operation has been performed on the button A.
When the operation on the button A is performed, the fourth UI program 26 for the visually impaired proceeds to the process of S204, and otherwise, proceeds to the process of S132.
[0123]
The processing of steps 132 to 140, 180 (S132 to S140, S180) is as described with reference to FIG.
In step 144 (S144), the operation detection unit 204 determines whether an operation has been performed on the button E.
The fourth UI program 26 for the visually impaired proceeds to the process of S206 when an operation is performed on the button E, and otherwise proceeds to the process of S148.
[0124]
In step 148 (S148), the operation detection unit 204 determines whether the buttons A to E have been operated simultaneously.
When the buttons A to E are simultaneously operated, in step 150 (S150), the function execution control unit 3 stores the set values up to that time, and the UI program 20 executes a process for performing other settings. I do.
[0125]
In step 204 (S204), the operation detection unit 204 notifies the routine operation setting unit 260 that an operation for setting a routine operation number has been performed.
When it is determined in S200 that the user ID has been set, the routine operation setting section 260 determines the user ID stored in the processing of S202 and the routine operation data (R) corresponding to the routine operation number T obtained in the processing of S182. 15) is output to the operation detection unit 204.
[0126]
Alternatively, when it is not determined that the user ID has been set in S200, the routine operation setting unit 260 selects one of the routine operation data common to all users corresponding to the routine operation number T obtained by the processing of S182. Is output to the operation detection unit 204.
The operation detection unit 204 notifies the function execution control unit 3 that the operation indicated by the standard operation data input from the standard operation setting unit 260 has been performed.
The function execution control unit 3 makes settings for each component of the printer system 1 according to this notification, and causes printing to be performed.
[0127]
In step 182 (S182), the operation detection unit 204 counts up the standard operation number T.
[0128]
In step 206 (S206), the operation detection unit 204 notifies the routine operation setting unit 260 that an operation for registering the routine operation data has been performed.
When it is determined in S200 that the user ID has been set, the routine operation setting section 260 receives this notification, and sets the user ID and the routine operation number obtained by the processing of S182 in the routine operation table (FIG. 15). In the entry indicated by T, the number of copies N and the copy paper size obtained by the processing of S134 and S138 are stored as standard operation data.
[0129]
If it is not determined in S200 that the user ID has been set, the routine operation setting unit 260 receives this notification and obtains the entry common to all users in the routine operation table (FIG. 15) by the processing of S182. In the entry indicated by the standard operation number T, the number of copies N and the copy paper size obtained by the processing of S134 and S138 are stored as standard operation data.
When the entry indicated by the user ID and the fixed operation number T or the entry indicated by the fixed operation number T among the entries of the fixed operation data common to all users does not exist, the new operation Create
Note that the typical operation of the user in the fifth embodiment is the same as that of the fourth embodiment except that an operation of setting a user ID such as inserting a magnetic card into the card reader 184 before the operation is performed. This is the same as the operation described in the embodiment.
[0130]
[Sixth embodiment]
The user interface according to the present invention described as the first to fifth embodiments has been described as a specific example in which the user is a visually impaired person.
However, if the button corresponding to the detection position of each finger (FIG. 5) is not displayed on the touch panel 180, for a hearing-impaired person or a sighted person who has no visual impairment, the usability of the user interface according to the present invention is It can be very bad.
The sixth embodiment of the present invention is based on such a background, and a button corresponding to a detection position of each finger is provided on a second touch panel 190 in which a liquid crystal display device 192 is added to the touch panel 180. (To be described later with reference to FIG. 18), and it is devised not only to improve the usability for visually impaired persons but also for the hearing impaired persons and sighted persons.
[0131]
FIG. 17 is a diagram showing a configuration of a fifth visually impaired person UI program 28 for realizing the function control method according to the present invention in the control device 10 shown in FIG.
Note that, of the configuration of the fifth UI program 28 for the visually impaired, the configuration is substantially the same as that of the first to fourth UI programs 20 to 26 for the visually impaired (FIGS. 4, 8, 9, and 12). The same components are denoted by the same reference numerals,
As shown in FIG. 17, the fifth visually impaired person UI program 28 has a configuration in which a button display unit 280 is added to the fourth visually impaired person UI program 26 shown in FIG.
Similarly to the UI programs 20 to 26 for the visually impaired, the UI program 26 for the visually impaired is loaded and executed in the memory 102 of the printer system 1, and as described above, not only the visually impaired but also the hearing impaired or The user interface of the printer system 1 is provided with a user interface with enhanced convenience for sighted persons.
[0132]
[Button display section 280]
FIG. 18 is a diagram exemplifying various buttons displayed on the touch panel 190 by the button display section 280 of the fifth visually impaired person UI program 28 shown in FIG.
FIG. 19 is a diagram illustrating a state in which the user touches the operation surface of the touch panel 190 illustrated in FIG. 18 with a finger.
The button display unit 280 displays the various buttons set by the button setting process (S10) shown in FIG. 6 on the liquid crystal display device 192 of the touch panel 190 (FIG. 18) as illustrated in FIGS. indicate.
[0133]
18 and 19, a start button is assigned to the range A shown in FIG. 5 as the button A, and a figure (for example, a double rectangle / green color) indicating this button is displayed. A button for selecting the number of copies is assigned as the button B, a figure (for example, a rectangle or white) indicating this button is displayed, and a button for selecting the copy paper size is assigned as the button C to the range C. A graphic (eg, rectangle / white) for indicating this button is displayed, and a stop button used for stopping printing or the like is assigned to the range D, and a graphic (eg, double circle / yellow) indicating this button is assigned. Is displayed, and a case where no button is assigned to the range E is shown as a specific example.
Further, at a position in the range B that is not hidden by the finger near the button B, the number of copies selected by the button B is displayed (for example, “3 copies” shown in FIG. 19).
In addition, a position of the copy paper size selected by the button C is displayed at a position in the range C that is not hidden by the finger near the button C (for example, “A4” shown in FIG. 19).
[0134]
That is, in this specific example, the buttons A to D recall a figure similar to the shape conventionally used for the button of the multifunction peripheral or the shape conventionally used for the button of the multifunction peripheral. Such a figure is displayed.
Further, in this specific example, as shown in FIGS. 18 and 19, characters indicating the function of each button are displayed as needed near the graphic corresponding to the buttons A to D.
Preferably, when the keyboard 182 of the printer system 1 (FIG. 1) has a start button, a stop button, and the like (neither is shown), the shapes of these buttons A to D are the same as those of the keyboard 182. The shape may be a shape or a shape reduced or enlarged to an arbitrary magnification in the vertical and horizontal directions.
[0135]
Hereinafter, the operation of the fifth visually impaired person UI program 28 will be described.
FIG. 20 is a flowchart illustrating button setting / display and function control processing (S22) of the printer system 1 according to the sixth embodiment.
FIG. 21 is a flowchart showing the process of S24 (fourth function control process in the printer system 1) shown in FIG.
Note that among the processes shown in FIG. 21, those substantially the same as the processes shown in FIGS. 7, 14, and 16 are denoted by the same reference numerals.
That is, in the process of S24, the processes of S130 and S142 are replaced with the processes of S240 and S242, except for the processes related to the button E (S144 and S146) from the first function control process (S12) shown in FIG. Things.
[0136]
As shown in FIG. 20, the fifth UI program 28 for the visually impaired (FIG. 17) first performs the button setting process (S10) shown in FIG.
In step 220 (S220), the button display unit 280 of the fifth visually impaired user UI program 28 is detected by the liquid crystal display device 192 of the touch panel 190 by the processing of S10 as illustrated in FIGS. A graphic indicating each button is displayed in the range A to D or in the vicinity thereof.
[0137]
In step 222 (S222), the pressed position detection unit 200 and the operation detection unit 204 cooperate to detect an operation on the button and determine whether or not an operation on the button set in the process of S10 has been performed.
Note that the process of S222 corresponds to the processes of S120 and S122 included in the process of S24 described later with reference to FIG. 21, and for convenience of illustration, these processes are illustrated in an overlapping manner.
When the display of the number of copies selected by the operation of the button B and the display of the copy paper size selected by the operation of the button C are performed, the setting set by the operation on the buttons B and C by the user. The values (for example, “3 copies” and “A4” shown in FIG. 19) are displayed in the ranges B and C or in the vicinity of these ranges by the processing of S134 and S138 in S24 shown in FIG.
[0138]
In step 24 (S24), the visually impaired user's UI program 28 performs a fourth function control process described later with reference to FIG.
In step 224 (S224), button display unit 280 changes the content of the button display on touch panel 190 as necessary.
[0139]
For example, the pressed position detection unit 200 and the operation detection unit 204 perform any operation for ending the operation by the user (for example, continuous hitting of the stop button (FIGS. 18 and 19)), or for a certain period of time. When no operation has been performed, it is determined that all operations have been completed.
In step 226 (S226), the pressed position detection unit 200 and the operation detection unit 204 determine whether or not all operations have been completed, as exemplified here. The UI program for the visually impaired 28 proceeds to the process of S228 when all operations are completed, and otherwise returns to the process of S24.
In step 228 (S228), button display unit 280 clears the display of the button on touch panel 19.
[0140]
Steps 120 to 126 (S120 to S126) shown in FIG. 21 are as already described with reference to FIG.
In step 128 (S128), the operation detection unit 204 determines whether or not an operation has been performed on the button A (for example, the above operation examples 1 and 2).
When there is an operation on button A, in step 240 (S240), operation determination unit 206 notifies function execution control unit 3 that the start of copying or the like has been selected.
In response to the notification from the operation determination unit 206, the function execution control unit 3 controls the respective school components of the printer device main body 122 and the control device 10 to start copying and the like.
[0141]
The processes of steps 132 to 138 (S132 to S138) are as described with reference to FIG.
When the number of copies and the paper size are displayed, the number of copies and the paper size set by the user are displayed on the buttons B and C or in the vicinity thereof as illustrated in FIG. 19 in the processing of S134 and S138. Is done.
In step 140 (S140), the operation detection unit 204 determines whether or not an operation on the button D (for example, the toggle operation) has been performed.
When an operation is performed on the button D, in step 142 (S142), the operation determination unit 206 stops the copy being executed at that time or inputs the information to the function execution control unit 3 up to that time. Notifies that the selection of the number of copies and the copy paper size has been cleared.
In response to the notification from the operation determining unit 206, the function execution control unit 3 that has received the notification stops copying or the like or clears the number of copies set up to that time.
The processing of steps 148, 150 (S148, S150) is as described with reference to FIG.
[0142]
As described above, by displaying the assigned button on the touch panel 190, a user interface of the printer system 1 can be provided to a hearing-impaired person or a sighted person, and the user interface has the same feeling as in the related art. Operation efficiency can be increased.
The button display unit 280 (FIG. 17) includes buttons shown in FIGS. 18 and 19 and, for example, a button A for selecting any one of the copy, fax, and scan functions. Another type of button associated with the process may be displayed.
In addition, the button display unit 280 allows the user of a hearing-impaired person or a sighted person to visually recognize the button shape on the touch panel 190, such as displaying a button slightly above the user's thumb, not at the position touched by the user's thumb. You may display it so that it may be easy to do.
[0143]
[Seventh embodiment]
For example, if the user can switch the function assigned to the button corresponding to the finger on the touch panels 180 and 190 (FIGS. 1 and 18) due to the difference in the rhythm of the movement of the finger, the operation of the printer system 1 will be described. , The number of fingers required can be further reduced.
The rhythm includes, for example, the time from when the user removes his / her finger from the touch panels 180 and 190 until the user touches it again, whether this time is the same or a combination of different time lengths.
Thus, a wide variety of rhythms can be defined.
[0144]
Specific examples of changing the function assignment according to the movement of the user's finger will be described below.
(1) After releasing the finger touching the touch panels 180 and 190, when the user moves the index finger in a rhythm that touches the touch panel again in less than one second, the number of copies N is set to the button corresponding to the index finger. Assign functions to be performed.
(2) When the user moves the index finger in a rhythm that touches the touch panel again within 1 second to less than 3 seconds after releasing the finger touching the touch panels 180 and 190, the paper size is displayed on the button corresponding to the index finger. Assign the function to set.
(3) After releasing the finger touching the touch panels 180 and 190, when the user moves the index finger in a rhythm that touches the touch panel again in 3 seconds or more, a fixed operation number is set to a button corresponding to the index finger. Assign functions to be performed.
[0145]
FIG. 22 is a flowchart illustrating the fifth function control process (S26) in the printer system 1.
FIG. 23 is a diagram showing the processing in S28 shown in FIG.
The change of the function assignment according to the rhythm of the user's finger movement described above can be realized by, for example, changing the operation of the fifth UI program 28 for the visually impaired shown in FIG.
Note that among the processes shown in FIG. 22, those substantially the same as the processes shown in FIGS. 7, 14, 16, and 21 are denoted by the same reference numerals.
[0146]
In other words, the process of S26 is the same as the first function control process (S12) shown in FIG. This is replaced by processing.
In the description with reference to FIG. 22, the buttons A to E are set in the ranges A to E illustrated in FIG. 5 by the finger position detection unit 202, and the operation determination unit 206 sets the button A to start copying. The functions are associated with each other, the button B is associated with a function corresponding to the rhythm of the user's finger, the button C is associated with a function for determining a setting, and the button D is associated with a clear / stop function. Is a specific example.
[0147]
The processing of steps 120 to S128 and 240 (S120 to S128 and S240) shown in FIG. 22 is as described with reference to FIG.
In step 132 (S132), the operation detection unit 204 determines whether an operation has been performed on the button B.
The UI program 28 for the visually impaired proceeds to the process of S28 when there is an operation on the button B, and otherwise proceeds to the process of S136.
[0148]
In step 136 (S136), the operation detection unit 204 determines whether an operation has been performed on the button C.
The visually impaired user's UI program 28 proceeds to the process of S142 when an operation is performed on the button C, and otherwise proceeds to the process of S140.
The processing in step 242 (S242) is as described with reference to FIG. 21, and the processing in steps 140, 142, 148, and 150 (S140, S142, S148, and S150) is described with reference to FIG. It is on the street.
[0149]
As shown in FIG. 23, in step 280 (S280), the operation determining unit 206 initializes a timer used for determining the rhythm of the user's finger movement, and starts time measurement.
In step 282 (S282), the operation detection unit 204 determines whether an operation has been performed on the button B.
The visually impaired user's UI program 28 proceeds to the process of S284 when the button B is operated, and otherwise proceeds to the process of S284.
[0150]
In step 284 (S284), the operation determining unit 206 determines the timer value (time) indicated by the timer that has started the time measurement in the process of S280, and determines which of the conditions 1, 2, and 3 the timer value corresponds to. , The process proceeds to S286, S288, and S290, respectively.
For example, as described above, the condition 1 is set to the operation determination unit 206 with less than 1 second, the condition 2 with 1 to 3 seconds, and the condition 3 with 3 seconds or more.
[0151]
In step 286 (S286), the operation determination unit 206 counts up the number of copies N and notifies the function execution control unit 3 of the count.
In step 288 (S288), the operation determination unit 206 toggles the copy paper size and notifies the function execution control unit 3 of the selected copy paper size.
In step 290 (S290), the operation determination unit 206 counts up the standard operation number T and notifies the function execution control unit 3 of the count.
[0152]
[Modification]
Even when the voice guidance is performed, the voice guidance may be stopped when the user is used to the operation.
That is, when the user remembers the type of finger and the operation in association with each other, the operation can be performed without voice guidance guidance. In such a case, the voice guidance is performed in accordance with the operation of the user. Can be stopped.
Further, the voice guidance may be adaptively performed according to the content of the operation, such that voice guidance is performed only for difficult and complicated operations and voice guidance is not performed for simple operations.
[0153]
In addition to the contact type configuration shown in FIG. 2, the touch panel 180 has an optical coupling type configuration that detects a position by detecting the interruption of a light beam, or a potential of electrodes provided at both ends of a resistive film. A resistance type configuration for detecting the position may be used.
Also, in the printer system 1, the case where the function execution control by the function control method according to the present invention is performed on the printer device body 122 is exemplified. However, the function control method according to the present invention includes a printing machine, a printer alone, and a copying machine. The present invention can also be applied to the function control of other types of devices such as a single machine, a single scanner, a single fax, a ticket vending machine, an information guidance device, and a medical examination reception device of a hospital.
[0154]
Note that an image displayed on the display of the display device 16 is displayed on the touch panel 180, and the touch panel 180 is used as both a display device and an input device.
Further, the touch panel 180 can be made transparent or translucent, and can be used by being attached to the display surface of the display of the display device 16.
[0155]
In addition, the position of the finger detected by the finger position detection unit 202 can be obtained by using the position where the press is detected by the press position detection unit 200 without clustering, or using the range obtained by clustering as it is, or The circumference may be widened or narrowed.
The setting of the information changed by the button D described with reference to FIG. 7 and the like is, in addition to the copy density and the magnification, settings related to other functions such as a sorter setting, a one-sided / two-sided setting, a FAX function, and a scanning function. You may.
[0156]
The button operation illustrated in FIG. 7 and the like is an example. For example, in the process of S142 in FIG. 7, the operation determination unit 206 transmits information for changing a setting when an operation is performed on the buttons B and C, for example. The number of copies may be changed to a copy density or the like, or the paper size may be changed to a copy magnification or the like.
[0157]
Further, in the UI program 22, for example, the voice guidance unit 220 may switch and output the above-described operation guidance (1) to (8) and simple peep according to the operation of the user.
As described above, when the voice guidance unit 220 outputs a simple beep instead of voice, the user can surely confirm that the operation on the button has been performed, and if the user is accustomed to the operation and does not want the voice guidance. In addition, unnecessary voice guidance can be stopped, which is convenient.
Further, the voice guidance unit 220 may be configured not to output a voice or a peep sound according to a user's designation.
[0158]
FIG. 24 is a diagram exemplifying operation irregularities provided on touch panels 180 and 190 (FIGS. 1 and 18).
If the operation surface of the touch panel 180 is provided with lattice-like or circular irregularities as illustrated in FIG. 12, the position where the finger should be placed can be recognized by tactile sense, so that the operability can be further improved. .
[0159]
[effect]
ADVANTAGE OF THE INVENTION According to the function control method concerning this invention, a user can perform many types of operation only by putting a hand on a touch panel, without using a visual sense, furthermore, according to an operation procedure and operation. By devising the state transition of the device, more types of operations can be performed.
Further, since the touch panel used in the function control method according to the present invention does not need to change the specifications for each model, it is suitable for mass production and the cost can be easily reduced.
Further, according to the function control method of the present invention, the position of the user's finger is adaptively used as a button for selecting a function, so that the user can operate the button provided at a fixed position in the touch panel. Since it is not necessary to remember the position, the operability is improved.
Therefore, the function control method according to the present invention is suitable as a user interface for an information processing device such as a computer.
[0160]
Further, according to the function control method of the present invention, the user can perform a desired operation without accurately accessing a button provided at a specific position, so that operability is improved.
In addition, the function control method according to the present invention not only provides a user interface with good operability for visually impaired persons, but also for hearing impaired persons and sighted persons, for example, in a situation where it is difficult to visually recognize the display contents of the display. A user interface with good operability can be provided.
[0161]
Further, according to the function control method of the present invention, it is possible to improve the operation efficiency of device operation of a user having a finger trouble.
Further, according to the function control method of the present invention, by displaying the buttons assigned on the touch panel in an image, not only the visually impaired but also the hearing impaired or the sighted can improve the operation efficiency of the device operation. Can be.
[0162]
【The invention's effect】
As described above, according to the function control device and the method thereof according to the present invention, the user interface for the visually impaired can be easily applied to each of different types of devices.
Further, the function control device and method according to the present invention are easy to operate for visually impaired persons.
[Brief description of the drawings]
FIG. 1 is a diagram showing a hardware configuration of a printer system according to the present invention, focusing on a control device.
FIG. 2 is a diagram showing a configuration of a touch panel shown in FIG.
FIG. 3 is a diagram illustrating a state in which a user touches an operation surface of the touch panel illustrated in FIGS. 1 and 2 with a finger.
FIG. 4 is a diagram showing a configuration of a first UI program for the visually impaired to realize the function control method according to the present invention in the control device shown in FIG. 1;
FIG. 5 is a diagram illustrating a state in which the user presses the operation surface of the touch panel with five fingers of the right hand as illustrated in FIG. It is a figure which illustrates the area | region where the detection of the position of the finger by the part is performed.
FIG. 6 is a flowchart illustrating a button setting process (S10) in the printer system.
FIG. 7 is a flowchart showing a first function control process (S12) in the printer system.
8 is a diagram showing a configuration of a second UI program for the visually impaired that realizes the function control method according to the present invention in the control device shown in FIG. 1;
9 is a diagram showing the configuration of a third UI program for the visually impaired person / sighted person realizing the function control method according to the present invention in the control device shown in FIG. 1;
10 is a diagram exemplifying a UI image displayed on a display device / touch panel by the UI program for sighted persons shown in FIG. 9;
FIG. 11 is a flowchart showing processing (S16) of the UI program shown in FIG. 9; It is a figure which illustrates the unevenness | corrugation for operation provided in a touch panel.
12 is a diagram showing the configuration of a fourth UI program for the visually impaired that realizes the function control method according to the present invention in the control device shown in FIG. 1;
13 is a diagram exemplifying a first fixed operation table created by a fixed operation setting unit shown in FIG. 12 in the fourth embodiment.
FIG. 14 is a flowchart showing a second function control process (S18) in the printer system.
FIG. 15 is a diagram exemplifying a second fixed operation table created by the fixed operation setting unit shown in FIG. 12 in the fifth embodiment.
FIG. 16 is a flowchart showing a third function control process (S20) in the printer system.
17 is a diagram showing the configuration of a fifth UI program for the visually impaired that realizes the function control method according to the present invention in the control device shown in FIG. 1;
18 is a diagram illustrating various buttons displayed on the touch panel by the button display unit of the fifth visually impaired person UI program shown in FIG. 17;
FIG. 19 is a diagram illustrating a state in which a user touches the operation surface of the touch panel illustrated in FIG. 18 with a finger.
FIG. 20 is a flowchart illustrating button setting / display and function control processing (S22) of the printer system according to the sixth embodiment.
FIG. 21 is a flowchart showing the processing of S24 shown in FIG. 20 (fourth function control processing in the printer system).
FIG. 22 is a flowchart illustrating a fifth function control process (S26) in the printer system.
FIG. 23 is a flowchart showing the process of S28 shown in FIG.
FIG. 24 is a diagram illustrating operation irregularities provided on the touch panel.
[Explanation of symbols]
1 ... printer system,
10 ... Control device,
102 ... CPU,
104 ... memory,
120 ... communication device,
122 ... printer apparatus main body,
14 ・ ・ ・ Recording device,
140 ... recording medium,
16 display devices,
180, 190 ・ ・ ・ Touch panel
182: keyboard,
184: card reader,
192 ... liquid crystal display device,
20, 22, 24, 26, 28 ... UI program,
200 ... pressed position detection unit,
202 ... finger position detection unit,
204 ... operation detection unit,
206 ... operation determination unit,
260 ... fixed operation setting unit,
280 ... button display section,
220 ... voice guidance unit,
240: mode switching unit
242: UI program for sighted people,
3 ... function execution control unit,

Claims (35)

外部からの操作が受け入れられる操作面において、1つ以上の第1の操作それぞれがなされた1つ以上の第1の操作位置それぞれを検出する操作位置検出手段と、
前記検出された第1の操作位置の1つ以上それぞれと、1つ以上の所定の機能それぞれとを対応付ける機能対応付け手段と、
前記第1の操作位置の1つ以上それぞれに対する第2の操作を検出する操作検出手段と、
前記第2の操作がなされた前記第1の操作位置の1つ以上に対応付けられた機能の実行を制御する機能実行制御手段と
を有する機能制御装置。
Operation position detection means for detecting each of one or more first operation positions at which one or more first operations are performed on an operation surface on which an operation from the outside is accepted;
Function associating means for associating one or more of each of the detected first operation positions with each of one or more predetermined functions;
Operation detection means for detecting a second operation for each of one or more of the first operation positions;
A function execution control unit that controls execution of a function associated with one or more of the first operation positions where the second operation is performed.
前記操作面を介して操作を受け入れるタッチパネル
を有する請求項1に記載の機能制御装置。
The function control device according to claim 1, further comprising a touch panel that receives an operation via the operation surface.
前記タッチパネルには、
前記タッチパネルの操作面上の1つ以上の位置それぞれを、触覚によりそれぞれ表示する1つ以上の位置表示手段
が設けられる請求項2に記載の機能制御装置。
In the touch panel,
3. The function control device according to claim 2, further comprising one or more position display means for displaying each of one or more positions on the operation surface of the touch panel by touch.
前記第1の操作は、前記操作面の1つ以上の位置をポインティングする操作であって、
前記操作位置検出手段は、前記ポインティングされた操作面の1つ以上の位置それぞれを、前記第1の操作位置それぞれとして検出する
請求項1〜3のいずれかに記載の機能制御装置。
The first operation is an operation of pointing at one or more positions on the operation surface,
4. The function control device according to claim 1, wherein the operation position detection unit detects one or more positions of the pointed operation surface as the first operation positions. 5.
前記第2の操作は、前記第1の位置の1つ以上それぞれに対して所定の時間以上、継続して行われる
請求項4に記載の機能制御装置。
The function control device according to claim 4, wherein the second operation is continuously performed for at least one of the first positions for a predetermined time or more.
前記第2の操作は、前記第1の位置のいずれか1つ以上に対するポインティングを止めることにより行われる
請求項4のいずれかに記載の機能制御装置。
The function control device according to claim 4, wherein the second operation is performed by stopping pointing at any one or more of the first positions.
前記第2の操作は、前記第1の操作の後に、前記第1の位置をポインティングすることにより行われる
請求項4に記載の機能制御装置。
The function control device according to claim 4, wherein the second operation is performed by pointing the first position after the first operation.
前記第2の操作は、前記第1の位置のいずれかに対して1回以上、行われ、
前記操作検出手段は、前記第2の操作の回数をさらに検出し、
前記機能実行制御手段は、前記第2の操作がなされた前記第1の操作位置と、前記検出された第2の操作の回数とに基づいて、前記機能の実行を制御する
請求項1〜7のいずれかに記載の機能制御装置。
The second operation is performed at least once on any of the first positions;
The operation detecting means further detects the number of times of the second operation,
The function execution control unit controls execution of the function based on the first operation position where the second operation is performed and the number of times of the detected second operation. The function control device according to any one of the above.
前記第2の操作は、前記第1の位置のいずれかに対して1回以上、行われ、
前記操作検出手段は、前記第2の操作の回数をさらに検出し、
前記機能実行制御手段は、前記第2の操作がなされた前記第1の操作位置に対応する機能の状態を、前記第2の操作の回数に応じて変更して実行するように制御する
請求項1〜8のいずれかに記載の機能制御装置。
The second operation is performed at least once on any of the first positions;
The operation detecting means further detects the number of times of the second operation,
The function execution control means controls to change and execute a state of a function corresponding to the first operation position where the second operation is performed in accordance with the number of times of the second operation. A function control device according to any one of claims 1 to 8.
前記操作面に対しては、前記第2の操作と組み合わされて、前記第1の操作位置の1つ以上それぞれに対して行われる第3の操作がさらに行われ、
前記操作検出手段は、前記第3の操作をさらに検出し、
前記機能実行制御手段は、前記検出された第3の操作に応じて、前記第3の操作に組み合わされて実行される機能を開始または終了させる
請求項1〜9のいずれかに記載の機能制御装置。
On the operation surface, a third operation performed on each of one or more of the first operation positions in combination with the second operation is further performed,
The operation detecting means further detects the third operation,
The function control according to any one of claims 1 to 9, wherein the function execution control unit starts or ends a function executed in combination with the third operation in accordance with the detected third operation. apparatus.
前記操作面の1つ以上の位置をポインティングする第1の操作は、前記操作面の複数の位置を、複数の指で同時に触れる操作であって、
前記操作位置検出手段は、前記複数の指それぞれが触れた領域およびその周囲またはこれらのいずれかそれぞれを、前記第1の操作位置それぞれとして検出する
請求項4〜7のいずれかに記載の機能制御装置。
A first operation of pointing at one or more positions on the operation surface is an operation of simultaneously touching a plurality of positions on the operation surface with a plurality of fingers,
The function control according to any one of claims 4 to 7, wherein the operation position detection unit detects an area touched by each of the plurality of fingers and a surrounding area thereof or any one of them as the first operation position. apparatus.
前記操作位置検出手段は、さらに、前記第1の操作位置の位置関係に基づいて、前記第1の操作位置それぞれと、親指、人差し指、中指、薬指および小指の内の1つ以上それぞれとを対応付ける
請求項11に記載の機能制御装置。
The operation position detection unit further associates each of the first operation positions with at least one of a thumb, an index finger, a middle finger, a ring finger, and a little finger, based on a positional relationship between the first operation positions. The function control device according to claim 11.
前記第1の操作位置に対応付けられた指の名称を用いて音声ガイダンスを行う第1の音声ガイダンス手段
をさらに有する請求項12に記載の機能制御装置。
13. The function control device according to claim 12, further comprising a first voice guidance unit that performs voice guidance using a name of a finger associated with the first operation position.
前記操作面に対する操作を音声ガイダンスする第2の音声ガイダンス手段
をさらに有する請求項1〜13のいずれかに記載の機能制御装置。
The function control device according to claim 1, further comprising a second voice guidance unit that performs voice guidance on an operation on the operation surface.
前記操作面に対する操作に応じて、所定の音声を出力する音声出力手段
をさらに有する請求項1〜14のいずれかに記載の機能制御装置。
The function control device according to claim 1, further comprising a sound output unit that outputs a predetermined sound in response to an operation on the operation surface.
1つ以上の前記第2の操作の組み合わせを登録する操作登録手段
をさらに有し、
前記機能実行制御手段は、
前記登録された第2の操作の組み合わせがなされる前記第1の操作位置に対応付けられた機能の実行を制御する
請求項1〜7のいずれかに記載の機能制御装置。
Further comprising operation registration means for registering one or more combinations of the second operations,
The function execution control means includes:
The function control device according to claim 1, wherein the function control device controls execution of a function associated with the first operation position in which the registered second operation combination is performed.
前記操作登録手段は、
前記第2の操作の組み合わせ1つ以上を登録し、
前記登録された第2の操作の組み合わせのいずれかを示す前記第2の操作に応じて、前記登録された第2の操作の組み合わせのいずれかを選択し、
前記機能実行制御手段は、
前記選択された第2の操作の組み合わせがなされる前記第1の操作位置に対応付けられた機能の実行を制御する
請求項16に記載の機能制御装置。
The operation registration means includes:
Registering one or more combinations of the second operation,
In response to the second operation indicating any of the registered combinations of the second operations, selecting any of the registered combinations of the second operations,
The function execution control means includes:
17. The function control device according to claim 16, wherein the function control device controls execution of a function associated with the first operation position where the combination of the selected second operations is performed.
前記操作登録手段は、
前記第2の操作を行うユーザの識別子1つ以上を受け入れ、
前記受け入られた識別子それぞれに対応付けて、前記第2の操作の組み合わせ1つ以上を登録し、
前記受け入れられた識別子と、前記登録された第2の操作の組み合わせのいずれかを示す第2の操作とに応じて、前記登録された第2の操作の組み合わせのいずれかを選択し、
前記機能実行制御手段は、
前記選択された第2の操作の組み合わせがなされる前記第1の操作位置に対応付けられた機能の実行をさらに制御する
請求項16に記載の機能制御装置。
The operation registration means includes:
Accepting one or more identifiers of the user performing the second operation;
Registering one or more combinations of the second operation in association with each of the received identifiers,
In response to the accepted identifier and a second operation indicating one of the registered combinations of the second operations, selecting one of the registered combinations of the second operations,
The function execution control means includes:
17. The function control device according to claim 16, further comprising: controlling execution of a function associated with the first operation position at which the combination of the selected second operations is performed.
前記選択された第2の操作の組み合わせを音声表示する第3の音声ガイダンス手段
をさらに有する請求項17または18に記載の機能制御装置。
19. The function control device according to claim 17, further comprising a third voice guidance unit that voice-displays the selected combination of the second operations.
前記検出された第1の操作位置それぞれに、これらの第1の操作位置それぞれに対応付けられた機能を示す画像を表示する画像表示手段
をさらに有する請求項1〜19のいずれかに記載の機能制御装置。
20. The function according to claim 1, further comprising image display means for displaying, at each of the detected first operation positions, an image indicating a function associated with each of the first operation positions. Control device.
前記画像表示手段は、前記機能を示す画像を、前記第1の操作位置またはその近傍に表示する
請求項20に記載の機能制御装置。
21. The function control device according to claim 20, wherein the image display means displays an image indicating the function at or near the first operation position.
前記画像表示手段は、前記機能を示す画像を、これらの機能を指定するためのハードウエア的なボタンと、実質的に、同一または縦横任意倍率の相似な形状で表示する
請求項20または21に記載の機能制御装置。
22. The image display device according to claim 20, wherein the image display unit displays the image indicating the function in a similar shape to a hardware button for designating the function, or substantially the same or an arbitrary magnification in the vertical and horizontal directions. Function control device as described.
前記画像表示手段は、前記機能を示す画像を、これらの機能を指定するためのハードウエア的なボタンと、実質的に、同一の色彩で表示する
請求項20〜22のいずれかに記載の機能制御装置。
The function according to any one of claims 20 to 22, wherein the image display means displays an image indicating the function in substantially the same color as a hardware button for designating the function. Control device.
前記画像表示手段は、前記機能を示す画像を、機能ごとに変更して表示する
請求項20〜23のいずれかに記載の機能制御装置。
The function control device according to any one of claims 20 to 23, wherein the image display unit changes and displays an image indicating the function for each function.
前記画像表示手段は、前記機能を示す文字情報を、前記第1の操作位置またはその近傍にさらに表示する
請求項20〜24のいずれかに記載の機能制御装置。
25. The function control device according to claim 20, wherein the image display unit further displays character information indicating the function at or near the first operation position.
前記画像表示手段は、前記機能により設定された設定値を、前記第1の操作位置またはその近傍にさらに表示する
請求項20〜24のいずれかに記載の機能制御装置。
25. The function control device according to claim 20, wherein the image display unit further displays a set value set by the function at or near the first operation position.
前記操作検出手段は、
前記第1の操作位置の1つ以上それぞれに対する第2の操作のタイミングを検出し、
前記機能実行制御手段は、前記第1の操作位置の1つ以上それぞれと、前記検出された第2の操作のタイミングとに対応付けられた機能の実行を制御する
請求項1〜7のいずれかに記載の機能制御装置。
The operation detecting means,
Detecting a timing of a second operation for each of one or more of the first operation positions;
The function execution control unit controls execution of a function associated with one or more of the first operation positions and a timing of the detected second operation. 3. The function control device according to item 1.
前記タイミングは、複数の前記第2の操作の間の時間間隔である
請求項27に記載の機能制御装置。
28. The function control device according to claim 27, wherein the timing is a time interval between a plurality of the second operations.
前記タイミングは、前記第2の操作の継続時間である
請求項27に記載の機能制御装置。
28. The function control device according to claim 27, wherein the timing is a duration of the second operation.
前記タイミングは、前記複数の前記第2の操作の間の時間間隔、および、前記第2の操作の継続時間の組み合わせである
請求項27に記載の機能制御装置。
The function control device according to claim 27, wherein the timing is a combination of a time interval between the plurality of second operations and a duration of the second operation.
請求項1〜30のいずれかに記載の機能制御装置と、
操作を受け入れて機能の実行を制御する他の機能制御装置と、
操作に応じて、前記機能制御装置および前記他の機能制御装置のいずれかを選択的に起動する選択手段と
を有する機能制御装置。
A function control device according to any one of claims 1 to 30,
Other function controllers that accept operations and control the execution of functions;
A function control device comprising: a selection unit that selectively activates one of the function control device and the other function control device in accordance with an operation.
請求項1〜31のいずれかに記載の機能制御装置
を有する画像形成装置。
An image forming apparatus comprising the function control device according to claim 1.
請求項1〜31のいずれかに記載の機能制御装置
を有する情報処理装置。
An information processing apparatus comprising the function control device according to claim 1.
外部からの操作が受け入れられる操作面において、1つ以上の第1の操作それぞれがなされた1つ以上の第1の操作位置それぞれを検出し、
前記検出された第1の操作位置の1つ以上それぞれと、1つ以上の所定の機能それぞれとを対応付け、
前記第1の操作位置の1つ以上それぞれに対する第2の操作を検出し、
前記第2の操作がなされた前記第1の操作位置の1つ以上に対応付けられた機能の実行を制御する
機能制御方法。
Detecting at least one first operation position at which at least one first operation has been performed on the operation surface at which an external operation is accepted;
Associating one or more of the detected first operation positions with one or more predetermined functions,
Detecting a second operation for each of one or more of the first operation positions;
A function control method for controlling execution of a function associated with one or more of the first operation positions where the second operation has been performed.
外部からの操作が受け入れられる操作面において、1つ以上の第1の操作それぞれがなされた1つ以上の第1の操作位置それぞれを検出するステップと、
前記検出された第1の操作位置の1つ以上それぞれと、1つ以上の所定の機能それぞれとを対応付けるステップと、
前記第1の操作位置の1つ以上それぞれに対する第2の操作を検出するステップと、
前記第2の操作がなされた前記第1の操作位置の1つ以上に対応付けられた機能の実行を制御するステップと
をコンピュータに実行させるプログラム。
Detecting each of one or more first operation positions on which one or more first operations have been performed on an operation surface where an operation from the outside is accepted;
Associating one or more of each of the detected first operation positions with each of one or more predetermined functions;
Detecting a second operation for each of one or more of the first operation positions;
Controlling the execution of a function associated with one or more of the first operation positions where the second operation has been performed.
JP2003152626A 2002-06-03 2003-05-29 Function control apparatus and method Expired - Fee Related JP4258836B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003152626A JP4258836B2 (en) 2002-06-03 2003-05-29 Function control apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002161271 2002-06-03
JP2003152626A JP4258836B2 (en) 2002-06-03 2003-05-29 Function control apparatus and method

Publications (2)

Publication Number Publication Date
JP2004062867A true JP2004062867A (en) 2004-02-26
JP4258836B2 JP4258836B2 (en) 2009-04-30

Family

ID=31949236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003152626A Expired - Fee Related JP4258836B2 (en) 2002-06-03 2003-05-29 Function control apparatus and method

Country Status (1)

Country Link
JP (1) JP4258836B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172034A (en) * 2004-12-15 2006-06-29 Hitachi Omron Terminal Solutions Corp Automatic controller
JP2008186279A (en) * 2007-01-30 2008-08-14 Tokai Rika Co Ltd Remotely-operated input device
JP2009301094A (en) * 2008-06-10 2009-12-24 Sharp Corp Input device and control method for input device
JP2010067217A (en) * 2008-09-12 2010-03-25 Panasonic Corp Input device and input method
JP2010112927A (en) * 2008-11-10 2010-05-20 Sony Corp Tactile action recognition device and tactile action recognition method, information processor, and computer program
WO2013008615A1 (en) * 2011-07-14 2013-01-17 Necカシオモバイルコミュニケーションズ株式会社 Input device, image display method, and program
JP2013175158A (en) * 2012-01-24 2013-09-05 Panasonic Corp Electronic device
KR20140081423A (en) * 2012-12-21 2014-07-01 삼성전자주식회사 Apparatus and method for key input and computer readable media storing program for method therefor
JP2014191750A (en) * 2013-03-28 2014-10-06 Kyocera Document Solutions Inc Input device, input method, and electronic apparatus
JP2015064813A (en) * 2013-09-26 2015-04-09 京セラドキュメントソリューションズ株式会社 Operation input device, and information processing apparatus including the same
JP2015064815A (en) * 2013-09-26 2015-04-09 京セラドキュメントソリューションズ株式会社 Operation input device, and information processing apparatus including the same
JP2015090523A (en) * 2013-11-05 2015-05-11 コニカミノルタ株式会社 Image processor and input reception device
JP2015170102A (en) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 Information processor
JP2015225502A (en) * 2014-05-28 2015-12-14 京セラドキュメントソリューションズ株式会社 Indication input device, image forming apparatus, and setting value input program
JP2015225503A (en) * 2014-05-28 2015-12-14 京セラドキュメントソリューションズ株式会社 Indication input device, image forming apparatus, and setting value input program
JP2016143391A (en) * 2015-02-05 2016-08-08 京セラドキュメントソリューションズ株式会社 Display input device and image forming apparatus including the same

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172034A (en) * 2004-12-15 2006-06-29 Hitachi Omron Terminal Solutions Corp Automatic controller
JP2008186279A (en) * 2007-01-30 2008-08-14 Tokai Rika Co Ltd Remotely-operated input device
JP2009301094A (en) * 2008-06-10 2009-12-24 Sharp Corp Input device and control method for input device
JP2010067217A (en) * 2008-09-12 2010-03-25 Panasonic Corp Input device and input method
JP2010112927A (en) * 2008-11-10 2010-05-20 Sony Corp Tactile action recognition device and tactile action recognition method, information processor, and computer program
JPWO2013008615A1 (en) * 2011-07-14 2015-02-23 Necカシオモバイルコミュニケーションズ株式会社 Input device, image display method and program
WO2013008615A1 (en) * 2011-07-14 2013-01-17 Necカシオモバイルコミュニケーションズ株式会社 Input device, image display method, and program
US9983700B2 (en) 2011-07-14 2018-05-29 Nec Corporation Input device, image display method, and program for reliable designation of icons
JP2013175158A (en) * 2012-01-24 2013-09-05 Panasonic Corp Electronic device
KR20140081423A (en) * 2012-12-21 2014-07-01 삼성전자주식회사 Apparatus and method for key input and computer readable media storing program for method therefor
JP2014123949A (en) * 2012-12-21 2014-07-03 Samsung Electronics Co Ltd Input method, terminal apparatus applying input method, and computer-readable storage medium storing program performing the same
KR102007651B1 (en) 2012-12-21 2019-08-07 삼성전자주식회사 Touchscreen keyboard configuration method, apparatus, and computer-readable medium storing program
US9851890B2 (en) 2012-12-21 2017-12-26 Samsung Electronics Co., Ltd. Touchscreen keyboard configuration method, apparatus, and computer-readable medium storing program
US9547292B2 (en) 2013-03-28 2017-01-17 Kyocera Document Solutions Inc. Input device, input method, and electronic apparatus that suppresses information leakage
JP2014191750A (en) * 2013-03-28 2014-10-06 Kyocera Document Solutions Inc Input device, input method, and electronic apparatus
JP2015064815A (en) * 2013-09-26 2015-04-09 京セラドキュメントソリューションズ株式会社 Operation input device, and information processing apparatus including the same
JP2015064813A (en) * 2013-09-26 2015-04-09 京セラドキュメントソリューションズ株式会社 Operation input device, and information processing apparatus including the same
JP2015090523A (en) * 2013-11-05 2015-05-11 コニカミノルタ株式会社 Image processor and input reception device
JP2015170102A (en) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 Information processor
JP2015225502A (en) * 2014-05-28 2015-12-14 京セラドキュメントソリューションズ株式会社 Indication input device, image forming apparatus, and setting value input program
JP2015225503A (en) * 2014-05-28 2015-12-14 京セラドキュメントソリューションズ株式会社 Indication input device, image forming apparatus, and setting value input program
JP2016143391A (en) * 2015-02-05 2016-08-08 京セラドキュメントソリューションズ株式会社 Display input device and image forming apparatus including the same

Also Published As

Publication number Publication date
JP4258836B2 (en) 2009-04-30

Similar Documents

Publication Publication Date Title
US7461356B2 (en) Function control unit and method thereof
JP4258836B2 (en) Function control apparatus and method
US8648820B2 (en) Operation console, electronic equipment and image processing apparatus with the console, and operation method
US7184032B2 (en) Tactile overlays for screens
US8085242B2 (en) Input control device and image forming apparatus
CN110989826B (en) Guiding device, control system, and recording medium
JP4826184B2 (en) User interface device
JP2012093612A (en) Operation device and image forming apparatus
JP2002342035A (en) Touch panel input device and image recorder
JP4898585B2 (en) Operating device and image forming apparatus
JP2010191973A (en) Information input device and control method thereof
JP2004145791A (en) Touch panel control device and operation device or image forming apparatus equipped with it
JP2018124847A (en) Image processing apparatus, condition display method, and computer program
JP2012053925A (en) Information input device and control method thereof
JP5269182B2 (en) Information input device and control method thereof
JP5356270B2 (en) Operation device and image forming apparatus provided with the same
EP3125517B1 (en) Display device and image processing device
JP2006031273A (en) Information input device and control method thereof
JP7087821B2 (en) Control systems, multifunction devices, and control programs
JPH10109459A (en) Control panel for combined device
JP2018012334A (en) Image forming apparatus and display control method
JP5454436B2 (en) Display processing apparatus and computer program
JP7070105B2 (en) Control system and control program
JP2007013460A (en) Image forming apparatus
JP2010217402A (en) Image forming apparatus, method for display of operation picture, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4258836

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees