JP2004302958A - Information input device and image forming device - Google Patents

Information input device and image forming device Download PDF

Info

Publication number
JP2004302958A
JP2004302958A JP2003095938A JP2003095938A JP2004302958A JP 2004302958 A JP2004302958 A JP 2004302958A JP 2003095938 A JP2003095938 A JP 2003095938A JP 2003095938 A JP2003095938 A JP 2003095938A JP 2004302958 A JP2004302958 A JP 2004302958A
Authority
JP
Japan
Prior art keywords
item
displayed
display
enlarged
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003095938A
Other languages
Japanese (ja)
Inventor
Kenta Higashiyamazaki
健太 東山崎
Takeshi Nishio
健 西尾
Takayuki Furumoto
隆行 古本
Akifumi Seto
彰史 瀬戸
Original Assignee
Kyocera Mita Corp
京セラミタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Mita Corp, 京セラミタ株式会社 filed Critical Kyocera Mita Corp
Priority to JP2003095938A priority Critical patent/JP2004302958A/en
Publication of JP2004302958A publication Critical patent/JP2004302958A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve operability for the input of an operation instruction and to prevent an erroneous operation instruction from being inputted. <P>SOLUTION: In the information input device, a user's finger or the position of an indication tool is detected (S1) and an operation item displayed on the position is displayed in an enlarged size (S2, S3). When the displayed enlarged operation item is specified on a touch panel (S5), operation instruction information corresponding to the displayed enlarged operation item is inputted (S6). When a user brings a finger or the like close to a part on which a required operation item is displayed on a display at the time of inputting an operation instruction, the operation item is displayed in an enlarged size. When the displayed enlarged operation item is specified, an operation instruction corresponding to the operation item is inputted. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、タッチパネルを備えた情報入力装置における操作指示入力時の操作性を向上させる技術に関する。
【0002】
【従来の技術】
従来から、コピー機やファクス機等の画像形成装置には、印刷操作指示等を入力するために、タッチパネル機能を有する情報入力装置が設けられている。この情報入力装置は、液晶ディスプレイに複数の操作項目が表示され、ユーザが所望の操作項目表示部分を指や指示具等で触れると、ディスプレイ表面に設けられているタッチパネルにより指等の触れた位置が認識され、この位置に表示されている操作項目に対応する操作指示情報が入力されるようになっている。今日では、画像形成装置に文字情報等を入力可能とするために、ディスプレイ画面にキーボードが表示される等、多くの入力ボタンが表示されることも多い。
【0003】
【発明が解決しようとする課題】
しかしながら、上記のようにディスプレイ画面にキーボード等の多くの入力ボタンが表示される場合は、ディスプレイの表示面積の都合上、各入力ボタンの表示が小さくなるため、ユーザが指や指示具によって所望の入力ボタンに触れようとしても、誤って隣接する他の入力ボタンに触れてしまい、所望の操作指示とは異なる操作指示が入力されてしまうことがある。
【0004】
本発明は、上述した問題点を解決するためになされたものであり、操作指示の入力時における操作性を向上させて、誤った操作指示の入力を防止することができる情報入力装置及び画像形成装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するために請求項1に記載の発明は、外部からの操作に基づいて任意の操作指示情報の指定を受け付けて入力する情報入力装置であって、
画像が表示可能なディスプレイと、
前記ディスプレイに操作項目を示す画像を表示させる表示制御手段と、
前記表示制御手段によって前記ディスプレイに表示される操作項目から任意の操作項目を指定可能なタッチパネルと、
前記タッチパネルで指定された操作項目に対応する操作指示情報を入力する入力処理手段と、
前記表示制御手段によって前記ディスプレイに表示されている操作項目に対する指又は指示具の位置を検出する位置検出手段と、
前記位置検出手段によって検出された位置に表示されている操作項目を前記表示制御手段に拡大表示させ、前記タッチパネルにより当該拡大表示された操作項目が指定された場合は、当該拡大表示された操作項目に対応する操作指示情報を前記入力処理手段に入力させる制御手段と
を備えたことを特徴とする情報入力装置である。
【0006】
この構成によれば、ユーザの指又は指示具の位置が検出され、この位置に表示されている操作項目が拡大表示され、タッチパネルにより当該拡大表示された操作項目が指定されると、当該拡大表示された操作項目に対応する操作指示情報が入力されるので、操作指示入力時にユーザがディスプレイ上で所望の操作項目が表示された部分に指等を近付けると、当該操作項目が拡大表示され、この拡大表示された操作項目を指定することで操作指示を入力できることになる。これにより、操作指示の入力時における操作性が向上し、ユーザが所望の操作項目とは異なる操作項目を誤って指定してしまう事態の発生を低減できるので、誤った操作指示の入力を防止することができる。
【0007】
また、請求項2に記載の発明は、請求項1に記載の情報入力装置であって、前記制御手段は、前記位置検出手段によって検出された位置に表示されている操作項目を、隣接して表示される操作項目の全てが隠れないように、前記表示制御手段に拡大表示させるものである。
【0008】
この構成によれば、表示制御手段によって操作項目が拡大表示された場合であっても、隣接する操作項目が完全には隠れないので、拡大表示されている操作項目以外の操作項目が表示されている位置をユーザが把握しやすくなる。そのため、ユーザが、拡大表示中の操作項目に隣接する操作項目を次に指定する場合であっても、その操作項目の位置を簡単に認識して、指又は指示具を移動させることができる。
【0009】
また、請求項3に記載の発明は、請求項2に記載の情報入力装置であって、前記制御手段は、前記表示制御手段によって拡大表示されている操作項目の表示位置で指又は指示具が前記位置検出手段によって検出されている間は、前記表示制御手段にそれまでの拡大表示を維持させ、指又は指示具が前記表示制御手段によって拡大表示されている操作項目の表示位置から外れ、隣接して表示される操作項目の表示位置で前記位置検出手段によって検出された場合には、前記表示制御手段に当該隣接する操作項目を拡大表示させるものである。
【0010】
この構成によれば、拡大表示されている操作項目の表示位置にユーザの指又は指示具がある間は当該操作項目の拡大表示が維持され、ユーザの指又は指示具が拡大表示されている操作項目の表示位置から外れて、これに隣接して表示されている操作項目の表示位置に移動した場合は、当該隣接する操作項目が拡大表示されるので、ある操作項目が拡大表示された後に、ユーザが隣接する操作項目の表示位置に指又は指示具を移動させると、当該隣接する操作項目が拡大表示され、ユーザが当該隣接する操作項目を指定する場合の操作性が向上する。
【0011】
また、請求項4に記載の発明は、請求項1乃至請求項3のいずれかに記載の情報入力装置であって、前記制御手段は、前記拡大表示されている操作項目に対応する操作指示情報が前記入力処理手段によって入力されると、前記検出手段によって検出される指又は指示具の検出位置に拘わらず、前記表示制御手段に前記操作項目の拡大表示を中止させるものである。
【0012】
この構成によれば、拡大表示されている操作項目がユーザにより指定され、この操作項目に対応する操作指示情報が入力されると、例え、ユーザの指又は指示具が当該拡大表示中の操作項目の表示位置にあったとしても、当該操作項目の拡大表示が中止され、1つの操作項目のみが強調して拡大表示された状態が解除されるので、他の操作項目(特に、それまで拡大表示されていた操作項目に隣接して表示されている操作項目)に対する視認性が向上する。
【0013】
また、請求項5に記載の発明は、請求項1乃至請求項4のいずれかに記載の情報入力装置を備え、この情報入力装置から入力される操作指示情報に基づいて画像形成動作が制御されることを特徴とする画像形成装置である。
【0014】
この構成によれば、画像形成装置への操作指示入力時の操作性を向上させることができ、ユーザが所望の操作項目とは異なる隣接した操作項目を指定してしまう事態の発生を低減して、誤った操作指示の入力を防止することができる。
【0015】
【発明の実施の形態】
以下、本発明の一実施形態に係る情報入力装置及び画像形成装置について図面を参照して説明する。図1は、本発明に係る情報入力装置を備えた画像形成装置の一例である複合機の内部構成を概略的に示す側面図、図2は複合機の操作部を示す図である。複合機1は、コピー機能、プリンタ機能、スキャナ機能及びファクシミリ機能等の機能を兼ね備えたものである。この複合機1は、本体部2と、本体部2の左方に配設されたスタックトレイ3と、本体部2の上部に配設された原稿読取部5と、原稿読取部5の上方に配設された原稿給送部6とを有している。
【0016】
また、複合機1のフロント部には、操作部47(図2)が設けられている。この操作部47は、ユーザが印刷実行指示を入力するためのスタートキー471と、印刷部数等を入力するためのテンキー472と、各種複写動作の操作ガイド情報等を表示し、これら各種設定入力用にタッチパネル機能を有する液晶ディスプレイ等からなる表示部473を備えている。この表示部473を囲う枠組4730には、表示部473に表示された各操作項目(図2において、表示部473の画面に表示されている「A4」ボタン、「自動用紙」ボタン等の項目)に対するユーザ(操作者)の指又は指示具の位置を検出する位置検出センサが設けられており(詳細は後述)、この表示部473、及び以下に説明する操作項目の拡大処理に必要な複合機1の各部からなる機構が、本発明に係る情報入力装置を構成する。
【0017】
さらに、操作部47は、表示部473で設定された設定内容等をリセットするリセットキー474と、実行中の印刷(画像形成)動作を停止させるためのストップキー475と、コピー機能、プリンタ機能、スキャナ機能及びファクシミリ機能を切り換えるための機能切換キー477とを備えられている。
【0018】
原稿読取部5は、CCD(Charge Coupled Device)センサ及び露光ランプ等からなるスキャナ部51と、ガラス等の透明部材により構成された原稿台52及び原稿読取スリット53とを備える。スキャナ部51は、図略の駆動部によって移動可能に構成され、原稿台52に載置された原稿を読み取るときは、原稿台52に対向する位置で原稿面に沿って移動され、原稿画像を走査しつつ取得した画像データを制御部100(図2)へ出力する。また、原稿給送部6により給送された原稿を読み取るときは、原稿読取スリット53と対向する位置に移動され、原稿読取スリット53を介して原稿給送部6による原稿の搬送動作と同期して原稿の画像を取得し、その画像データを制御部100へ出力する。
【0019】
原稿給送部6は、原稿を載置するための原稿載置部61と、画像読み取り済みの原稿を排出するための原稿排出部62と、原稿載置部61に載置された原稿を1枚ずつ繰り出して原稿読取スリット53に対向する位置へ搬送し、原稿排出部62へ排出するための給紙ローラ(図略)、搬送ローラ(図略)等からなる原稿搬送機構63を備える。原稿搬送機構63は、さらに原稿を表裏反転させて原稿読取スリット53と対向する位置へ再搬送する用紙反転機構(図略)を備え、原稿の両面の画像を原稿読取スリット53を介してスキャナ部51から読取可能にしている。
【0020】
また、原稿給送部6は、その前面側が上方に移動可能となるように本体部2に対して回動自在に設けられている。原稿給送部6の前面側を上方に移動させて原稿台52上面を開放することにより、原稿台52の上面に読み取り原稿、例えば見開き状態にされた書籍等を操作者が載置できるようになっている。
【0021】
本体部2は、複数の給紙カセット461と、給紙カセット461から記録紙を1枚ずつ繰り出して記録部40へ搬送する給紙ローラ462と、給紙カセット461から搬送されてきた記録紙に画像を形成する記録部40とを備える。
【0022】
記録部40は、スキャナ部51で取得された画像データに基づきレーザ光等を出力して感光体ドラム43を露光する光学ユニット42と、感光体ドラム43上にトナー像を形成する現像部44と、感光体ドラム43上のトナー像を記録紙に転写する転写部41と、トナー像が転写された記録紙を加熱してトナー像を記録紙に定着させる定着部45と、記録部40内の用紙搬送路中に設けられ、記録紙をスタックトレイ3又は排出トレイ48まで搬送する搬送ローラ463,464等とを備える。
【0023】
また、記録紙の両面に画像を形成する場合は、記録部40で記録紙の一方の面に画像を形成した後、この記録紙を排出トレイ48側の搬送ローラ462にニップされた状態とする。この状態で搬送ローラ463を反転させて記録紙をスイッチバックさせ、記録紙を用紙搬送路Lに送って記録部40の上流域に再度搬送し、記録部40により他方の面に画像を形成した後、記録紙をスタックトレイ3又は排出トレイ48に排出する。
【0024】
図3は複合機1の概略構成を示す機能ブロック図である。複合機1には、装置全体の動作制御を司る制御部100が備えられている。この制御部100には、露光ランプ511及びCCD512等からなる原稿画像の読み取りが可能なスキャナ部51と、給紙カセット461(図1)から記録部40に記録紙を搬送して、画像形成後の記録紙をスタックトレイ3又は排出トレイ48まで搬送する用紙搬送部110,感光体ドラム43及び現像部44等からなる画像形成部111,転写部41,及び定着部45等で構成される記録部40とが接続されている。また、制御部100には、スキャナ部51で読み取られた文書データが一時的に保存される等の作業領域として使用される画像メモリ112と、大量の文書データを保存可能な記憶容量を有する大容量のHDD(内部記憶装置)113が接続されている。
【0025】
画像処理部120は、スキャナ部51による原稿読み取り時には、スキャナ部51から出力されるアナログ画像信号をデジタル画像に変換し、画質を向上させる画像処理を施した後、圧縮画像に変換する。この圧縮画像は画像メモリ112に書き込まれる。制御部100は、画像メモリ112に書き込まれた圧縮画像を、文書管理の対象となるファイルデータとしてHDD113に格納する。また、登録文書のプリントアウト時には、HDD113又はネットワーク上の各コンピュータから、プリントアウト対象のファイルデータ(圧縮画像)が画像メモリ112に書き出され、画像処理部120は、当該圧縮されたファイルデータを伸張処理し、出力状態に応じた画像処理を施し、例えばレーザ露光の場合には、レーザ信号にアナログ変調する。このアナログ変調された信号に基づいて記録部40(画像形成部111)でプリントアウトが行われる。
【0026】
ROM71には、装置全体の動作制御用のシステムプログラムや表示部473の表示用画像データ等が記憶されている。RAM72は、制御部100の作業領域等に用いられる。
【0027】
また、制御部100は、複合機1が実行可能な各機能を制御するスキャナコントローラ101,ファクシミリコントローラ102,プリンタコントローラ103,コピーコントローラ104及びネットワークコントローラ105として機能する。
【0028】
スキャナコントローラ101は、スキャナ部51の動作に必要な各部の動作制御を行うものである。ファクシミリコントローラ102は、ファクシミリ動作に必要な各部の動作制御を行うものであり、ファクシミリ通信に必要なデータの調整を行うファクシミリ通信部121を制御する。ファクシミリ通信部121には、データ送受信相手である相手先ファクシミリとの電話回線の接続を制御するNCU(Network Control Unit)が備えられている。コピーコントローラ104は、コピー動作に必要な各部の動作制御を行うものである。
【0029】
プリンタコントローラ103は、プリンタ動作に必要な各部の動作制御を行うものである。このプリンタコントローラ103には、複数の信号線を用いて同時に数ビットまとめてデータを送るパラレル伝送で外部機器と接続するパラレルI/F部122と、単一の信号線を用いて1ビットずつ順次データを送るシリアル伝送で外部機器と接続するシリアルI/F部123とが接続されている。
【0030】
ネットワークコントローラ105は、本複合機1とネットワーク上のコンピュータ等との間で行われるデータ送受信を制御するものである。ネットワークコントローラ105は、ネットワークI/F部124を介して外部とデータを送受信させる。
【0031】
また、制御部100によって、操作部47の制御が行われる。操作部47には、液晶ディスプレイ等からなる表示部473、及び操作キー部470(スタートキー471、テンキー472、リセットキー474と、ストップキー475、及び機能切換キー477等からなる)が備えられる他、タッチパネル478と、第1検出センサ4791、第2検出センサ4792、表示画像生成用メモリ480、VRAM(Video RAM)481が備えられている。
【0032】
タッチパネル478は、表示部473の画面上において指定されたポイントを検出するものである。第1検出センサ4791及び第2検出センサ4792は、例えば、表示部473の画面の上方において、それぞれユーザの指又は指示具を光学的にX又はY方向で検出し、表示部473の画面上でユーザの指等が存在するポイントの座標値を検出する光学的座標検出センサであり、これによって、表示部473に表示された各操作項目に対するユーザの指又は指示具の位置が検出される。
【0033】
表示画像生成用メモリ480は、表示部473に表示するための画像データを生成するために使用される作業領域である。例えば、ROM71等に保存されている表示用画像データに基づいて、この表示用画像データに含まれる1又は2以上の操作項目を拡大した画像データを生成するために使用される。VRAM481は、表示画像生成用メモリ480で生成された表示部473に表示する画像データが保持されるメモリである。
【0034】
さらに、制御部100は、各種操作項目が表示される表示用画像データを表示部473に表示するための制御を行う表示制御部106と、タッチパネル478で指定されたポイントに表示されている各操作項目を判定し、判定した操作項目に対応させて予め割り当てられている操作指示情報を判別して入力を受け付ける入力処理部107としても機能する。また、制御部100は、各部の動作制御を司ることによって、後述する操作項目の拡大処理後に、拡大処理された操作項目に対応する操作指示情報の入力処理に必要となる制御を行う。
【0035】
表示部473について詳細に説明する。図4は表示部473、タッチパネル478、第1検出センサ4791及び第2検出センサ4792を示す分解斜視図である。
【0036】
タッチパネル478は、例えば、表示部473の画面上部に設けられた透明な上部パネル4781及び下部パネル4782の2層構造からなり、表示部473の画面上でユーザが操作項目の表示箇所にあたる上部パネル4781に指又は指示具等で触れると、その圧力で上部パネル4781が撓み、上部パネル4781側に設けられたタッチスイッチが、下部パネル4782側のタッチスイッチに接触し、この接触した両方のタッチスイッチから、表示部473の画面上におけるポイントが検出されるようになっている。
【0037】
第1検出センサ4791は、表示部473の枠組4730を構成する4辺のうち、例えばX方向に向き合って対向する各辺4731に設けられており、その1辺側に発光素子80aが多数設けられ、この発光素子80aに対向させるようにして、他方の辺側に受光素子80bが同数設けられた構成でなる。第2検出センサ4792は、表示部473の枠組4730を構成する4辺のうち、例えば、第1検出センサ4791が設けられていないY方向に向き合って対向する各辺4732に設けられている。第2検出センサ4792が、複数の発光素子80a及び受光素子80bからなる構成は、第1検出センサ4791と同様である。
【0038】
これら第1検出センサ4791及び第2検出センサ4792により、発光素子80aをX方向及びY方向に発光させて表示部473の上方をスキャンし、発光素子80aからの光線が遮断された位置を検出することにより、表示部473の上方に存在するユーザの指又は指示具の位置が検出され、表示部473の画面上における座標値(X,Y)が特定される。
【0039】
上記第1検出センサ4791及び第2検出センサ4792によるユーザの指等の検出は、ユーザの指等が表示部473表面(タッチパネル478)から、例えば、約1cm前後離れた位置で行われることが好ましい。なお、図4は、あくまで第1検出センサ4791及び第2検出センサ4792の概略構成を示す図であり、発光素子80a及び受光素子80bの数は、図4に示す数に限定されないことは勿論である。
【0040】
次に、複合機1において、ユーザの指等の位置に応じて表示部473に表示される各操作項目を拡大表示する処理について説明する。図5はユーザの指等の位置に応じて、表示部473に表示される操作項目を拡大表示する処理のフローチャート、図6(a)は操作項目の拡大表示前における表示部473の表示画面を示す図、(b)は操作項目の拡大表示後における表示部473の表示画面を示す図である。なお、図6は、表示部473に多くのボタンが表示される場合の例として、カナ50音文字キーボードを表示した画面を示している。
【0041】
例えば、表示部473に、図6(a)に示すカナ50音文字キーボードが表示されている場合に、ユーザが表示部473の画面に指等を近付け、第1検出センサ4791及び第2検出センサ4792によってユーザの指等の位置が検出されると(S1)、表示画面における座標値(X,Y)と、各操作項目の表示位置との関係を示すデータテーブル(ROM71等に記憶されている)に基づいて、この検出位置に表示されている操作項目(「ア」,「ク」,「削除」等のキー)が何であるかが判定される(S2)。
【0042】
そして、上記判定された操作項目を拡大表示するための処理が実行されると共に(S3)、拡大表示後の操作項目に合わせて、タッチパネル478押下時に入力処理される操作指示の設定が変更される(S4)。例えば、図6(b)に示すように、表示画面の「ク」キーを拡大表示する場合は、ROM71等に保存されている表示用画像データに基づいて、「ク」キーを拡大した画像データを生成してVRAM481に格納し、これと共に、拡大した状態の「ク」キーをユーザが押下すれば「ク」の文字情報が入力されるように、拡大表示後の「ク」キーの表示範囲内の座標と、タッチスイッチ押下時に入力される操作指示(ここでは「ク」の文字情報の入力指示)との関係を変更する。
【0043】
拡大表示されるキーの拡大率は特に制限されるものではないが、図6(b)に示すように、拡大表示するキーによって、隣接するキーの全ての部分が覆われないようにすることで、拡大表示されているキー以外のキーの表示位置をユーザに視認及び把握しやすくすることができる。これにより、ユーザは、拡大表示中のキーに隣接するキーを次に指定したい場合でも、次に指定するキーの位置を簡単に認識して指又は指示具を移動させることができる。
【0044】
この後、ユーザによってタッチパネル478のいずれかのタッチスイッチが押下されると、その押下位置の座標(X,Y)が判定され(S5)、この座標に対応して設定されている操作指示の入力が受け付けられる(S6)。
【0045】
すなわち、複合機1では、ユーザが表示部473の表示画面に指等を近付けると、ユーザがタッチパネル478に触れる前の第1段階で、まず、第1検出センサ4791及び第2検出センサ4792によってユーザの指等の位置が検出され、さらに、ユーザがタッチパネル478に触れた第2段階で、タッチパネル478のタッチセンサによりユーザの指の位置(ユーザが押下した位置)が更に検出される。
【0046】
これにより、ユーザの指等の位置が検出されても、即座にその座標位置(操作項目)に対応する操作指示を入力する処理を行うのではなく、まず、第1段階で表示部473の表示画面にユーザが未だ接触していない状態で検出された座標に基づいて操作項目を拡大表示処理し、次に、第2段階でユーザがタッチパネル478に触れた状態で検出された座標に基づいて、その座標に対応する操作指示の入力処理を行うことで、表示部473から操作指示を入力する際におけるユーザの視認性及び操作性の向上が図られている。
【0047】
次に、ユーザの指等の位置に応じて表示部473に表示される各操作項目を拡大表示する処理の他の実施形態について説明する。図7はユーザの指等の位置に応じて表示部473に表示される各操作項目を拡大表示する処理の他の実施形態を示すフローチャートである。なお、上記図5と同様の処理は説明を省略する。
【0048】
この実施形態では、操作項目の拡大表示処理が実行され(S13)、拡大表示後の操作項目に合わせて、タッチパネル478押下時に入力される操作指示が変更された後は(S14)、第1検出センサ4791及び第2検出センサ4792によってユーザの指等の位置が検出され、ユーザの指等の位置が拡大表示中のキー(図6(b)では「ク」キー)の表示領域内にあるか否かが、制御部100によって判別される(S15)。
【0049】
ユーザの指等が、拡大表示中のキーの表示領域から外れた場合(S15でYES)、すなわち、ユーザの指等が、その時点で拡大表示中のキーに隣接するキーの表示領域に移動した場合は、S12乃至S14の処理を繰り返し、当該隣接するキーを拡大表示する処理が行われる。
【0050】
また、ユーザの指等が、拡大表示中のキーの表示領域内にある間は(S15でNO)、その時点で拡大表示中のキーの拡大表示が維持され、ユーザによってタッチパネル478で指定されたポイントを判定する処理に移る(S16)。そして、ユーザによって指定された位置のキーに対応する操作指示の入力が受け付けられた後は(S17)、その時点で拡大表示されているキーの拡大表示が中止され、拡大表示前の元の大きさでのキー表示が行われる(S18)。元の大きさでのキー表示に戻った後は、例えば、制御部100に内蔵されたタイマ等によって時間計測が開始され(S19)、所定時間(例えば、約1〜2秒間)が経過するまで、元の大きさでのキー表示が維持される。
【0051】
所定時間が経過すると(S19でYES)、ユーザの指等の位置が第1検出センサ4791及び第2検出センサ4792で検出できる範囲内にあるか、すなわち、第1検出センサ4791及び第2検出センサ4792からユーザの指等の位置を検出したデータが制御部100に入力されているかが検出される(S20)。ユーザの指等が第1検出センサ4791及び第2検出センサ4792による検出範囲内にある場合は(S20でNO)、S12乃至S14の処理に戻り、ユーザの指等の位置に表示されているキーを拡大表示する処理が続けて行われる。
【0052】
また、ユーザの指が第1検出センサ4791及び第2検出センサ4792によって検出されなくなった場合(S20でYES)、すなわち、第1検出センサ4791及び第2検出センサ4792からユーザの指等の検出位置のデータが制御部100に入力されない場合は、ユーザが表示部473から離れた位置に指等を遠ざけ、操作指示を入力しないとして、処理が終了される。
【0053】
この実施形態によれば、拡大表示されている操作項目がユーザにより指定され、この操作項目に対応する操作指示情報が入力されると、例え、ユーザの指又は指示具が当該拡大表示中の操作項目の表示位置にあったとしても、当該操作項目の拡大表示が中止されるので、1つの操作項目のみが強調して拡大表示されている状態が解除され、他の操作項目(特に、それまで拡大表示されていた操作項目に隣接して表示されている操作項目)に対する視認性が向上する。
【0054】
なお、本発明は上記実施の形態の構成に限られず種々の変形が可能である。例えば、上記実施の形態では、本発明に係る情報入力装置が複合機1に備えられるものとして説明しているが、本発明に係る情報入力機器は他の機器に備えられるものであってもよい。
【0055】
また、上記実施形態では、図6(a)(b)を用いて、カナ50音文字キーボードの各キーが拡大表示される例を示しているが、本発明に係る技術は、用紙サイズ入力画面や、ソート機能操作入力画面等の他の操作画面の表示においても適用可能であることは勿論である。
【0056】
【発明の効果】
以上のように請求項1に記載の発明によれば、ユーザの指又は指示具の位置が検出され、この位置に表示されている操作項目が拡大表示され、タッチパネルにより当該拡大表示された操作項目が指定されると、当該拡大表示された操作項目に対応する操作指示情報が入力されるので、操作指示入力時にユーザがディスプレイ上で所望の操作項目が表示された部分に指等を近付けると、当該操作項目が拡大表示され、この拡大表示された操作項目を指定することで操作指示を入力できることになる。これにより、操作指示の入力時における操作性が向上し、ユーザが所望の操作項目とは異なる操作項目を誤って指定してしまう事態の発生を低減できるので、誤った操作指示の入力を防止することができる。
【0057】
また、請求項2に記載の発明によれば、表示制御手段によって操作項目が拡大表示された場合であっても、隣接する操作項目が完全には隠れないので、拡大表示されている操作項目以外の操作項目が表示されている位置をユーザが把握しやすくなる。そのため、ユーザが、拡大表示中の操作項目に隣接する操作項目を次に指定する場合であっても、その操作項目の位置を簡単に認識して、指又は指示具を移動させることができる。
【0058】
また、請求項3に記載の発明によれば、拡大表示されている操作項目の表示位置にユーザの指又は指示具がある間は当該操作項目の拡大表示が維持され、ユーザの指又は指示具が拡大表示されている操作項目の表示位置から外れて、これに隣接して表示されている操作項目の表示位置に移動した場合は、当該隣接する操作項目が拡大表示されるので、ある操作項目が拡大表示された後に、ユーザが隣接する操作項目の表示位置に指又は指示具を移動させると、当該隣接する操作項目が拡大表示され、ユーザが隣接する操作項目を指定する場合の操作性が向上する。
【0059】
また、請求項4に記載の発明によれば、拡大表示されている操作項目がユーザにより指定され、この操作項目に対応する操作指示情報が入力されると、例え、ユーザの指又は指示具が当該拡大表示中の操作項目の表示位置にあったとしても、当該操作項目の拡大表示が中止され、1つの操作項目のみが強調して拡大表示された状態が解除されるので、他の操作項目(特に、それまで拡大表示されていた操作項目に隣接して表示されている操作項目)に対する視認性が向上する。
【0060】
また、請求項5に記載の発明によれば、画像形成装置への操作指示入力時の操作性を向上させることができ、ユーザが所望の操作項目とは異なる隣接した操作項目を指定してしまう事態の発生を低減して、誤った操作指示の入力を防止することができる。
【図面の簡単な説明】
【図1】本発明に係る情報入力装置を備えた画像形成装置の一例である複合機の内部構成を概略的に示す側面図である。
【図2】複合機の操作部を示す図である。
【図3】複合機の概略構成を示す機能ブロック図である。
【図4】表示部、タッチパネル、第1検出センサ及び第2検出センサを示す分解斜視図である。
【図5】ユーザの指等の位置に応じて、表示部に表示される操作項目を拡大表示する処理のフローチャートである。
【図6】(a)は操作項目の拡大表示前における表示部473の表示画面を示す図、(b)は操作項目の拡大表示後における表示部473の表示画面を示す図である。
【図7】ユーザの指等の位置に応じて、表示部に表示される各操作項目を拡大表示する処理の他の実施形態を示すフローチャートである。
【符号の説明】
1 複合機(画像形成装置)
80b 受光素子(位置検出手段)
80a 発光素子(位置検出手段)
100 制御部(制御手段)
106 表示制御部(表示制御手段)
107 入力処理部(入力処理手段)
473 表示部(ディスプレイ)
480 表示画像生成用メモリ
4730 枠組
478 タッチパネル
4781 上部パネル(タッチパネル)
4782 下部パネル(タッチパネル)
4791 第1検出センサ(位置検出手段)
4792 第2検出センサ(位置検出手段)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for improving operability when inputting an operation instruction in an information input device having a touch panel.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an image forming apparatus such as a copying machine or a fax machine is provided with an information input device having a touch panel function for inputting a print operation instruction or the like. In this information input device, a plurality of operation items are displayed on a liquid crystal display, and when a user touches a desired operation item display portion with a finger or a pointing device, a position where the finger or the like is touched by a touch panel provided on the display surface. Is recognized, and operation instruction information corresponding to the operation item displayed at this position is input. Today, many input buttons are often displayed, such as a keyboard displayed on a display screen, in order to be able to input character information and the like to the image forming apparatus.
[0003]
[Problems to be solved by the invention]
However, when many input buttons such as a keyboard are displayed on the display screen as described above, the display of each input button becomes small due to the display area of the display. Even if an attempt is made to touch an input button, another adjacent input button may be touched by mistake and an operation instruction different from a desired operation instruction may be input.
[0004]
SUMMARY An advantage of some aspects of the invention is to provide an information input apparatus and an image forming apparatus capable of improving operability when inputting an operation instruction and preventing an erroneous operation instruction from being input. It is intended to provide a device.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 is an information input device that receives and inputs designation of arbitrary operation instruction information based on an external operation,
A display capable of displaying images,
Display control means for displaying an image indicating an operation item on the display,
A touch panel capable of designating any operation item from the operation items displayed on the display by the display control means,
Input processing means for inputting operation instruction information corresponding to the operation item specified on the touch panel,
Position detection means for detecting the position of a finger or pointing tool with respect to the operation item displayed on the display by the display control means,
When the operation item displayed at the position detected by the position detection unit is enlarged and displayed on the display control unit, and when the operation item that is enlarged and displayed by the touch panel is specified, the enlarged operation item is displayed. And control means for causing the input processing means to input operation instruction information corresponding to the information input device.
[0006]
According to this configuration, the position of the user's finger or the pointing device is detected, the operation item displayed at this position is enlarged and displayed, and when the enlarged operation item is designated by the touch panel, the enlarged display is performed. Since the operation instruction information corresponding to the operated operation item is input, when the user brings a finger or the like close to a portion where the desired operation item is displayed on the display at the time of inputting the operation instruction, the operation item is enlarged and displayed. By specifying the enlarged operation item, an operation instruction can be input. Thereby, the operability at the time of inputting the operation instruction is improved, and the occurrence of the situation where the user erroneously specifies the operation item different from the desired operation item can be reduced, so that the input of the erroneous operation instruction is prevented. be able to.
[0007]
According to a second aspect of the present invention, in the information input device according to the first aspect, the control unit adjacently displays an operation item displayed at a position detected by the position detection unit. The display control means enlarges the displayed operation items so that all of the displayed operation items are not hidden.
[0008]
According to this configuration, even when the operation item is enlarged and displayed by the display control unit, the adjacent operation item is not completely hidden, so that operation items other than the operation item being enlarged and displayed are displayed. It becomes easy for the user to grasp the position where the user is. Therefore, even when the user next specifies an operation item adjacent to the operation item being displayed in an enlarged manner, the user can easily recognize the position of the operation item and move the finger or the pointing tool.
[0009]
According to a third aspect of the present invention, in the information input device according to the second aspect, the control means includes a finger or a pointing device at a display position of the operation item enlarged and displayed by the display control means. While being detected by the position detecting means, the display control means keeps the enlarged display up to that point, and a finger or an indicator deviates from the display position of the operation item which is enlarged and displayed by the display control means, and an adjacent item is displayed. When the position detection means detects the display position of the displayed operation item, the display control means enlarges and displays the adjacent operation item.
[0010]
According to this configuration, the enlarged display of the operation item is maintained while the user's finger or the indicator is at the display position of the enlargedly displayed operation item, and the operation in which the user's finger or the indicator is enlarged is displayed. If the user moves out of the display position of the item and moves to the display position of the operation item displayed adjacent thereto, the adjacent operation item is enlarged and displayed. When the user moves the finger or the pointing tool to the display position of the adjacent operation item, the adjacent operation item is enlarged and displayed, and the operability when the user specifies the adjacent operation item is improved.
[0011]
According to a fourth aspect of the present invention, in the information input device according to any one of the first to third aspects, the control means includes an operation instruction information corresponding to the enlarged and displayed operation item. Is input by the input processing means, the display control means stops the enlarged display of the operation item regardless of the detection position of the finger or the pointing tool detected by the detection means.
[0012]
According to this configuration, when the operation item that is enlarged and displayed is specified by the user, and the operation instruction information corresponding to the operation item is input, for example, the user's finger or pointing tool is moved to the operation item that is being enlarged and displayed. Is displayed, the enlarged display of the operation item is stopped, and the state in which only one operation item is emphasized and enlarged is released. Therefore, other operation items (particularly, the enlarged display The visibility of the operation item displayed adjacent to the operation item that has been displayed is improved.
[0013]
According to a fifth aspect of the present invention, there is provided the information input device according to any one of the first to fourth aspects, wherein an image forming operation is controlled based on operation instruction information input from the information input device. An image forming apparatus characterized in that:
[0014]
According to this configuration, the operability at the time of inputting the operation instruction to the image forming apparatus can be improved, and the occurrence of the situation where the user specifies an adjacent operation item different from the desired operation item can be reduced. In addition, it is possible to prevent input of an incorrect operation instruction.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an information input device and an image forming apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a side view schematically showing an internal configuration of a multifunction peripheral as an example of an image forming apparatus provided with an information input device according to the present invention, and FIG. 2 is a view showing an operation unit of the multifunction peripheral. The multifunction device 1 has functions such as a copy function, a printer function, a scanner function, and a facsimile function. The multifunction device 1 includes a main body 2, a stack tray 3 disposed on the left side of the main body 2, a document reading section 5 disposed on the top of the main body 2, and an upper part of the document reading section 5. And a document feeding section 6 disposed therein.
[0016]
An operation unit 47 (FIG. 2) is provided at the front of the multifunction device 1. The operation unit 47 displays a start key 471 for the user to input a print execution instruction, a numeric keypad 472 for inputting the number of print copies, etc., operation guide information for various copying operations, and the like. And a display unit 473 including a liquid crystal display having a touch panel function. A frame 4730 surrounding the display unit 473 includes operation items displayed on the display unit 473 (in FIG. 2, items such as an “A4” button and an “automatic paper” button displayed on the screen of the display unit 473). A position detection sensor for detecting the position of a user's (operator's) finger or pointing tool with respect to the camera is provided (details will be described later), and the display unit 473 and a multifunction machine required for processing for enlarging operation items described below The mechanism consisting of the respective components constitutes the information input device according to the present invention.
[0017]
Further, the operation unit 47 includes a reset key 474 for resetting the setting contents and the like set on the display unit 473, a stop key 475 for stopping a printing (image forming) operation being executed, a copy function, a printer function, A function switching key 477 for switching between a scanner function and a facsimile function is provided.
[0018]
The document reading unit 5 includes a scanner unit 51 including a CCD (Charge Coupled Device) sensor and an exposure lamp, and a document table 52 and a document reading slit 53 formed of a transparent member such as glass. The scanner unit 51 is configured to be movable by a drive unit (not shown). When reading a document placed on the document table 52, the scanner unit 51 is moved along the document surface at a position facing the document table 52, and scans the document image. The image data acquired while scanning is output to the control unit 100 (FIG. 2). When reading the original fed by the original feeding unit 6, the original is moved to a position facing the original reading slit 53, and is synchronized with the operation of transporting the original by the original feeding unit 6 through the original reading slit 53. Then, the image of the document is acquired, and the image data is output to the control unit 100.
[0019]
The document feeding unit 6 includes a document placement unit 61 for placing a document, a document ejection unit 62 for discharging a document whose image has been read, and a document placement unit 61 for placing a document placed on the document placement unit 61. An original transport mechanism 63 including a paper feed roller (not shown), a transport roller (not shown), and the like for feeding out the originals one by one and transporting the originals to a position facing the original reading slit 53 and discharging the originals to the original discharge unit 62 is provided. The document transport mechanism 63 further includes a sheet reversing mechanism (not shown) that reverses the document and re-transports the document to a position facing the document reading slit 53, and scans both sides of the document via the document reading slit 53 through the scanner unit. It is made readable from 51.
[0020]
The document feeding section 6 is provided rotatably with respect to the main body 2 so that the front side thereof can move upward. By moving the front side of the document feeder 6 upward and opening the upper surface of the document table 52, the operator can place a read document, for example, a book in a double-page spread state on the upper surface of the document table 52. Has become.
[0021]
The main unit 2 includes a plurality of paper feed cassettes 461, a paper feed roller 462 that feeds out recording paper one by one from the paper feed cassette 461 and conveys the recording paper to the recording unit 40, and a recording paper conveyed from the paper feed cassette 461. A recording unit 40 for forming an image.
[0022]
The recording unit 40 includes an optical unit 42 that outputs a laser beam or the like based on the image data acquired by the scanner unit 51 to expose the photosensitive drum 43, and a developing unit 44 that forms a toner image on the photosensitive drum 43. A transfer unit 41 for transferring the toner image on the photosensitive drum 43 to the recording paper; a fixing unit 45 for heating the recording paper to which the toner image has been transferred and fixing the toner image to the recording paper; Transport rollers 463 and 464 are provided in the paper transport path and transport the recording paper to the stack tray 3 or the discharge tray 48.
[0023]
When forming an image on both sides of a recording sheet, the recording section 40 forms an image on one side of the recording sheet, and then the recording sheet is nipped by the transport rollers 462 on the discharge tray 48 side. . In this state, the conveyance roller 463 is reversed to switch back the recording paper, the recording paper is sent to the paper conveyance path L, and is conveyed again to the upstream area of the recording unit 40, and an image is formed on the other surface by the recording unit 40. Thereafter, the recording paper is discharged to the stack tray 3 or the discharge tray 48.
[0024]
FIG. 3 is a functional block diagram illustrating a schematic configuration of the multifunction peripheral 1. The multifunction device 1 includes a control unit 100 that controls the operation of the entire device. The control unit 100 includes a scanner unit 51 including an exposure lamp 511, a CCD 512, and the like, which can read a document image, and a recording sheet that is conveyed from the paper supply cassette 461 (FIG. 1) to the recording unit 40, and is used for image formation. A recording unit including a paper transport unit 110 that transports the recording paper to the stack tray 3 or the discharge tray 48, an image forming unit 111 including the photosensitive drum 43 and the developing unit 44, a transfer unit 41, and a fixing unit 45. 40 are connected. The control unit 100 includes an image memory 112 used as a work area for temporarily storing the document data read by the scanner unit 51, and a large memory having a storage capacity capable of storing a large amount of document data. An HDD (internal storage device) 113 having a capacity is connected.
[0025]
The image processing unit 120 converts an analog image signal output from the scanner unit 51 into a digital image at the time of reading a document by the scanner unit 51, performs image processing for improving image quality, and then converts the image signal into a compressed image. This compressed image is written to the image memory 112. The control unit 100 stores the compressed image written in the image memory 112 in the HDD 113 as file data to be managed. When the registered document is printed out, file data (compressed image) to be printed out is written out from the HDD 113 or each computer on the network to the image memory 112, and the image processing unit 120 stores the compressed file data in the image memory 112. The image is expanded and subjected to image processing according to the output state. For example, in the case of laser exposure, analog modulation is performed on a laser signal. Printout is performed in the recording unit 40 (image forming unit 111) based on the analog modulated signal.
[0026]
The ROM 71 stores a system program for operation control of the entire apparatus, display image data of the display unit 473, and the like. The RAM 72 is used as a work area of the control unit 100 and the like.
[0027]
Further, the control unit 100 functions as a scanner controller 101, a facsimile controller 102, a printer controller 103, a copy controller 104, and a network controller 105 that control each function that can be executed by the MFP 1.
[0028]
The scanner controller 101 controls the operation of each unit necessary for the operation of the scanner unit 51. The facsimile controller 102 controls the operation of each unit necessary for facsimile operation, and controls the facsimile communication unit 121 that adjusts data necessary for facsimile communication. The facsimile communication unit 121 includes an NCU (Network Control Unit) that controls connection of a telephone line to a destination facsimile that is a data transmission / reception partner. The copy controller 104 controls the operation of each unit necessary for the copy operation.
[0029]
The printer controller 103 controls the operation of each unit necessary for the operation of the printer. The printer controller 103 includes a parallel I / F unit 122 connected to an external device by parallel transmission in which several bits are simultaneously transmitted using a plurality of signal lines, and one bit by one bit using a single signal line. A serial I / F unit 123 connected to an external device by serial transmission for transmitting data is connected.
[0030]
The network controller 105 controls data transmission and reception performed between the multifunction peripheral 1 and a computer or the like on a network. The network controller 105 transmits and receives data to and from the outside via the network I / F unit 124.
[0031]
The control unit 100 controls the operation unit 47. The operation unit 47 includes a display unit 473 including a liquid crystal display and the like, and an operation key unit 470 (including a start key 471, a numeric keypad 472, a reset key 474, a stop key 475, a function switching key 477, and the like). , A touch panel 478, a first detection sensor 4791, a second detection sensor 4792, a display image generation memory 480, and a VRAM (Video RAM) 481.
[0032]
The touch panel 478 detects a designated point on the screen of the display unit 473. The first detection sensor 4791 and the second detection sensor 4792 optically detect the user's finger or pointing tool in the X or Y direction, for example, above the screen of the display unit 473, and This is an optical coordinate detection sensor that detects the coordinate value of a point where the user's finger or the like exists, and thereby detects the position of the user's finger or pointing tool with respect to each operation item displayed on the display unit 473.
[0033]
The display image generation memory 480 is a work area used to generate image data to be displayed on the display unit 473. For example, it is used to generate image data in which one or more operation items included in the display image data are enlarged based on the display image data stored in the ROM 71 or the like. The VRAM 481 is a memory in which image data generated by the display image generation memory 480 and displayed on the display unit 473 is stored.
[0034]
Further, the control unit 100 includes a display control unit 106 that performs control for displaying image data for display on which various operation items are displayed on the display unit 473, and each operation displayed at a point designated on the touch panel 478. It also functions as the input processing unit 107 that determines an item, determines operation instruction information assigned in advance corresponding to the determined operation item, and receives an input. Further, by controlling the operation of each unit, the control unit 100 performs control necessary for input processing of operation instruction information corresponding to the enlarged operation item after the operation item enlargement processing described later.
[0035]
The display unit 473 will be described in detail. FIG. 4 is an exploded perspective view showing the display unit 473, the touch panel 478, the first detection sensor 4791, and the second detection sensor 4792.
[0036]
The touch panel 478 has, for example, a two-layer structure of a transparent upper panel 4781 and a lower panel 4782 provided at the upper part of the screen of the display unit 473, and an upper panel 4781 on which the user displays the operation items on the screen of the display unit 473. When the finger is touched with a finger or an indicator, the upper panel 4781 bends due to the pressure, and the touch switch provided on the upper panel 4781 contacts the touch switch on the lower panel 4782, and the touch switches on both sides come into contact with each other. , A point on the screen of the display unit 473 is detected.
[0037]
The first detection sensor 4791 is provided, for example, on each of the sides 4731 facing and facing in the X direction among the four sides constituting the frame 4730 of the display portion 473, and a large number of light emitting elements 80a are provided on one side thereof. The same number of light receiving elements 80b are provided on the other side so as to face the light emitting elements 80a. The second detection sensor 4792 is provided, for example, on each side 4732 of the four sides constituting the frame 4730 of the display unit 473, which faces the Y direction where the first detection sensor 4791 is not provided. The configuration in which the second detection sensor 4792 includes a plurality of light emitting elements 80a and light receiving elements 80b is the same as that of the first detection sensor 4791.
[0038]
With the first detection sensor 4791 and the second detection sensor 4792, the light emitting element 80a emits light in the X direction and the Y direction to scan above the display unit 473 and detect a position where light from the light emitting element 80a is blocked. Accordingly, the position of the user's finger or the pointing device existing above the display unit 473 is detected, and the coordinate value (X, Y) on the screen of the display unit 473 is specified.
[0039]
The detection of the user's finger or the like by the first detection sensor 4791 and the second detection sensor 4792 is preferably performed at a position where the user's finger or the like is, for example, about 1 cm away from the surface of the display unit 473 (the touch panel 478). . FIG. 4 is a diagram schematically showing the configuration of the first detection sensor 4791 and the second detection sensor 4792, and the numbers of the light emitting elements 80a and the light receiving elements 80b are not limited to the numbers shown in FIG. is there.
[0040]
Next, a description will be given of a process in the MFP 1 for enlarging and displaying each operation item displayed on the display unit 473 in accordance with the position of the user's finger or the like. FIG. 5 is a flowchart of a process for enlarging and displaying the operation items displayed on the display unit 473 in accordance with the position of the user's finger or the like. FIG. 6A shows the display screen of the display unit 473 before the enlarged display of the operation items. FIG. 17B is a diagram showing a display screen of the display unit 473 after the operation item is enlarged and displayed. FIG. 6 shows a screen displaying a kana syllabary character keyboard as an example of the case where many buttons are displayed on the display unit 473.
[0041]
For example, when the kana syllabary character keyboard shown in FIG. 6A is displayed on the display unit 473, the user approaches the screen of the display unit 473 with a finger or the like, and the first detection sensor 4791 and the second detection sensor 4791. When the position of the user's finger or the like is detected by 4792 (S1), a data table (stored in the ROM 71 or the like) indicating the relationship between the coordinate values (X, Y) on the display screen and the display position of each operation item. ), It is determined what the operation items (keys such as “A”, “C”, “Delete”) displayed at this detection position are (S2).
[0042]
Then, the process for enlarging and displaying the determined operation item is executed (S3), and the setting of the operation instruction input when the touch panel 478 is pressed is changed in accordance with the operation item after the enlarged display. (S4). For example, as shown in FIG. 6B, when the “「 ”key on the display screen is enlarged and displayed, the image data obtained by enlarging the“ ク ”key based on the display image data stored in the ROM 71 or the like. Is generated and stored in the VRAM 481. At the same time, when the user presses the enlarged “ku” key, the character information of the “ku” is input so that the display range of the “ku” key after the enlarged display is displayed. The relationship between the coordinates in the parentheses and the operation instruction input when the touch switch is pressed (here, the input instruction of the character information of “C”) is changed.
[0043]
The enlargement ratio of the key displayed in an enlarged manner is not particularly limited. However, as shown in FIG. 6 (b), all the portions of the adjacent keys are not covered by the enlarged displayed key. In addition, it is possible to make it easy for the user to visually recognize and grasp the display positions of the keys other than the keys displayed in an enlarged manner. This allows the user to easily recognize the position of the key to be specified next and move the finger or the pointing tool even when the user wants to specify the next key adjacent to the key being displayed in an enlarged manner.
[0044]
Thereafter, when any one of the touch switches on the touch panel 478 is pressed by the user, the coordinates (X, Y) of the pressed position are determined (S5), and an operation instruction set corresponding to the coordinates is input. Is received (S6).
[0045]
That is, in the multifunction device 1, when the user brings a finger or the like close to the display screen of the display unit 473, first, before the user touches the touch panel 478, the user first uses the first detection sensor 4791 and the second detection sensor 4792. In addition, at the second stage when the user touches the touch panel 478, the position of the user's finger (the position pressed by the user) is further detected by the touch sensor of the touch panel 478 at the second stage when the user touches the touch panel 478.
[0046]
As a result, even if the position of the user's finger or the like is detected, a process of inputting an operation instruction corresponding to the coordinate position (operation item) is not performed immediately. Based on the coordinates detected in a state where the user has not yet touched the screen, the operation item is enlarged and displayed. Next, based on the coordinates detected in the second stage while the user is touching the touch panel 478, By performing the input processing of the operation instruction corresponding to the coordinates, the visibility and operability of the user when inputting the operation instruction from the display unit 473 are improved.
[0047]
Next, another embodiment of processing for enlarging and displaying each operation item displayed on the display unit 473 in accordance with the position of the user's finger or the like will be described. FIG. 7 is a flowchart illustrating another embodiment of processing for enlarging and displaying each operation item displayed on the display unit 473 in accordance with the position of the user's finger or the like. The description of the same processing as in FIG. 5 will be omitted.
[0048]
In this embodiment, the enlarged display processing of the operation item is executed (S13), and after the operation instruction input when the touch panel 478 is pressed is changed in accordance with the operation item after the enlarged display (S14), the first detection is performed. The position of the user's finger or the like is detected by the sensor 4791 and the second detection sensor 4792, and whether the position of the user's finger or the like is in the display area of the key being enlarged and displayed (the “ク” key in FIG. 6B). Whether it is or not is determined by the control unit 100 (S15).
[0049]
When the user's finger or the like deviates from the display area of the key being enlarged (YES in S15), that is, the user's finger or the like has moved to the display area of the key adjacent to the key being enlarged at that time. In this case, the processing of S12 to S14 is repeated, and the processing of enlarging and displaying the adjacent key is performed.
[0050]
Further, while the user's finger or the like is within the display area of the key being enlarged (NO in S15), the enlarged display of the key being enlarged at that time is maintained, and the key specified by the user on the touch panel 478 is maintained. The process proceeds to a point determination process (S16). Then, after the input of the operation instruction corresponding to the key at the position designated by the user is received (S17), the enlarged display of the key enlarged and displayed at that time is stopped, and the original size before the enlarged display is returned. Then, the key is displayed (S18). After returning to the key display at the original size, for example, time measurement is started by a timer or the like built in the control unit 100 (S19), and until a predetermined time (for example, about 1 to 2 seconds) elapses. , The key display in the original size is maintained.
[0051]
When the predetermined time has elapsed (YES in S19), the position of the user's finger or the like is within a range that can be detected by first detection sensor 4791 and second detection sensor 4792, that is, first detection sensor 4791 and second detection sensor It is detected from 4792 whether or not data obtained by detecting the position of the user's finger or the like has been input to the control unit 100 (S20). If the user's finger or the like is within the detection range of the first detection sensor 4791 and the second detection sensor 4792 (NO in S20), the process returns to S12 to S14 and the key displayed at the position of the user's finger or the like. Is continuously performed.
[0052]
When the user's finger is no longer detected by the first detection sensor 4791 and the second detection sensor 4792 (YES in S20), that is, the detection position of the user's finger and the like from the first detection sensor 4791 and the second detection sensor 4792 Is not input to the control unit 100, the user moves the finger or the like away from the display unit 473 and does not input an operation instruction, and the process ends.
[0053]
According to this embodiment, when the operation item that is displayed in an enlarged manner is specified by the user and operation instruction information corresponding to the operation item is input, for example, the user's finger or pointing tool is operated during the enlarged display. Even if the item is at the display position, the enlarged display of the operation item is stopped, so that the state in which only one operation item is highlighted and enlarged is released, and another operation item (particularly, The visibility of the operation item that is displayed adjacent to the operation item that has been enlarged and displayed is improved.
[0054]
Note that the present invention is not limited to the configuration of the above embodiment, and various modifications are possible. For example, in the above embodiment, the information input device according to the present invention is described as being provided in the multifunction peripheral 1, but the information input device according to the present invention may be provided in another device. .
[0055]
Further, in the above-described embodiment, an example in which each key of the kana syllabary character keyboard is displayed in an enlarged manner with reference to FIGS. 6A and 6B is described. Of course, the present invention is also applicable to the display of other operation screens such as a sort function operation input screen.
[0056]
【The invention's effect】
As described above, according to the first aspect of the present invention, the position of the user's finger or the pointing device is detected, the operation item displayed at this position is enlarged, and the operation item enlarged and displayed by the touch panel Is designated, the operation instruction information corresponding to the enlarged and displayed operation item is input, so that when the user enters the operation instruction, the user brings his / her finger or the like close to the portion where the desired operation item is displayed on the display. The operation item is enlarged and displayed, and an operation instruction can be input by designating the enlarged operation item. Thereby, the operability at the time of inputting the operation instruction is improved, and the occurrence of the situation where the user erroneously specifies the operation item different from the desired operation item can be reduced, so that the input of the erroneous operation instruction is prevented. be able to.
[0057]
According to the second aspect of the present invention, even when an operation item is enlarged and displayed by the display control means, the adjacent operation item is not completely hidden, so that the operation item other than the enlarged and displayed operation item is not displayed. The user can easily grasp the position where the operation item is displayed. Therefore, even when the user next specifies an operation item adjacent to the operation item being displayed in an enlarged manner, the user can easily recognize the position of the operation item and move the finger or the pointing tool.
[0058]
According to the third aspect of the present invention, while the user's finger or pointing device is at the display position of the operation item being displayed in an enlarged manner, the enlarged display of the operation item is maintained, and the user's finger or pointing device is maintained. Is moved out of the display position of the operation item that is displayed in an enlarged manner and moves to the display position of the operation item that is displayed adjacent thereto, the operation item adjacent to the operation item is displayed in an enlarged manner. When the user moves the finger or the pointing device to the display position of the adjacent operation item after is displayed in an enlarged manner, the adjacent operation item is enlarged and displayed, and the operability when the user specifies the adjacent operation item is reduced. improves.
[0059]
According to the fourth aspect of the present invention, when an operation item displayed in an enlarged manner is specified by a user and operation instruction information corresponding to the operation item is input, for example, the user's finger or pointing tool is turned off. Even when the operation item is at the display position of the operation item being enlarged, the enlarged display of the operation item is stopped, and the state in which only one operation item is enlarged and displayed is canceled. The visibility for the operation item (particularly, the operation item displayed adjacent to the operation item that has been enlarged and displayed until then) is improved.
[0060]
According to the invention described in claim 5, operability at the time of inputting an operation instruction to the image forming apparatus can be improved, and the user specifies an adjacent operation item different from a desired operation item. Occurrence of a situation can be reduced, and input of an erroneous operation instruction can be prevented.
[Brief description of the drawings]
FIG. 1 is a side view schematically showing an internal configuration of a multifunction peripheral as an example of an image forming apparatus provided with an information input device according to the present invention.
FIG. 2 is a diagram illustrating an operation unit of the multifunction peripheral.
FIG. 3 is a functional block diagram illustrating a schematic configuration of the multifunction peripheral.
FIG. 4 is an exploded perspective view showing a display unit, a touch panel, a first detection sensor, and a second detection sensor.
FIG. 5 is a flowchart of a process of enlarging and displaying operation items displayed on a display unit according to the position of a user's finger or the like.
6A is a diagram illustrating a display screen of a display unit 473 before an operation item is enlarged and displayed, and FIG. 6B is a diagram illustrating a display screen of the display unit 473 after the operation item is enlarged and displayed.
FIG. 7 is a flowchart illustrating another embodiment of a process for enlarging and displaying each operation item displayed on the display unit according to the position of a user's finger or the like.
[Explanation of symbols]
1 MFP (image forming device)
80b light receiving element (position detecting means)
80a light emitting element (position detecting means)
100 control unit (control means)
106 display control unit (display control means)
107 input processing unit (input processing means)
473 display (display)
480 Display image generation memory 4730 Frame 478 Touch panel 4781 Upper panel (touch panel)
4782 Lower panel (touch panel)
4791 First detection sensor (position detection means)
4792 Second detection sensor (position detecting means)

Claims (5)

  1. 外部からの操作に基づいて任意の操作指示情報の指定を受け付けて入力する情報入力装置であって、
    画像が表示可能なディスプレイと、
    前記ディスプレイに操作項目を示す画像を表示させる表示制御手段と、
    前記表示制御手段によって前記ディスプレイに表示される操作項目から任意の操作項目を指定可能なタッチパネルと、
    前記タッチパネルで指定された操作項目に対応する操作指示情報を入力する入力処理手段と、
    前記表示制御手段によって前記ディスプレイに表示されている操作項目に対する指又は指示具の位置を検出する位置検出手段と、
    前記位置検出手段によって検出された位置に表示されている操作項目を前記表示制御手段に拡大表示させ、前記タッチパネルにより当該拡大表示された操作項目が指定された場合は、当該拡大表示された操作項目に対応する操作指示情報を前記入力処理手段に入力させる制御手段と
    を備えたことを特徴とする情報入力装置。
    An information input device that receives and inputs designation of arbitrary operation instruction information based on an external operation,
    A display capable of displaying images,
    Display control means for displaying an image indicating an operation item on the display,
    A touch panel capable of designating any operation item from the operation items displayed on the display by the display control means,
    Input processing means for inputting operation instruction information corresponding to the operation item specified on the touch panel,
    Position detection means for detecting the position of a finger or pointing tool with respect to the operation item displayed on the display by the display control means,
    When the operation item displayed at the position detected by the position detection unit is enlarged and displayed on the display control unit, and when the operation item that is enlarged and displayed by the touch panel is specified, the enlarged operation item is displayed. And a control means for inputting operation instruction information corresponding to the above to the input processing means.
  2. 前記制御手段は、前記位置検出手段によって検出された位置に表示されている操作項目を、隣接して表示される操作項目の全てが隠れないように、前記表示制御手段に拡大表示させることを特徴とする請求項1に記載の情報入力装置。The control means enlarges the operation item displayed at the position detected by the position detection means on the display control means such that all of the operation items displayed adjacently are not hidden. The information input device according to claim 1, wherein
  3. 前記制御手段は、前記表示制御手段によって拡大表示されている操作項目の表示位置で指又は指示具が前記位置検出手段によって検出されている間は、前記表示制御手段にそれまでの拡大表示を維持させ、前記表示制御手段によって拡大表示されている操作項目の表示位置から外れ、指又は指示具が隣接して表示される操作項目の表示位置で前記位置検出手段によって検出された場合には、前記表示制御手段に当該隣接する操作項目を拡大表示させることを特徴とする請求項2に記載の情報入力装置。The control unit maintains the enlarged display on the display control unit while the finger or the indicator is detected by the position detection unit at the display position of the operation item enlarged and displayed by the display control unit. When the display control means deviates from the display position of the operation item that is enlarged and displayed, and a finger or an indicator is detected by the position detection means at the display position of the operation item displayed adjacent thereto, 3. The information input device according to claim 2, wherein the display control means causes the adjacent operation item to be enlarged and displayed.
  4. 前記制御手段は、前記拡大表示されている操作項目に対応する操作指示情報が前記入力処理手段によって入力されると、前記検出手段によって検出される指又は指示具の検出位置に拘わらず、前記表示制御手段に前記操作項目の拡大表示を中止させることを特徴とする請求項1乃至請求項3のいずれかに記載の情報入力装置。The control means, when operation instruction information corresponding to the enlarged and displayed operation item is input by the input processing means, irrespective of the detection position of the finger or the pointing device detected by the detection means, 4. The information input device according to claim 1, wherein a control unit stops the enlarged display of the operation item.
  5. 請求項1乃至請求項4のいずれかに記載の情報入力装置を備え、この情報入力装置から入力される操作指示情報に基づいて画像形成動作が制御されることを特徴とする画像形成装置。An image forming apparatus comprising the information input device according to any one of claims 1 to 4, wherein an image forming operation is controlled based on operation instruction information input from the information input device.
JP2003095938A 2003-03-31 2003-03-31 Information input device and image forming device Withdrawn JP2004302958A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003095938A JP2004302958A (en) 2003-03-31 2003-03-31 Information input device and image forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003095938A JP2004302958A (en) 2003-03-31 2003-03-31 Information input device and image forming device

Publications (1)

Publication Number Publication Date
JP2004302958A true JP2004302958A (en) 2004-10-28

Family

ID=33408145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003095938A Withdrawn JP2004302958A (en) 2003-03-31 2003-03-31 Information input device and image forming device

Country Status (1)

Country Link
JP (1) JP2004302958A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236143A (en) * 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc Input processing program, portable terminal device and input processing method
JP2008305174A (en) * 2007-06-07 2008-12-18 Sony Corp Information processor, information processing method, and program
JP2009086612A (en) * 2007-09-10 2009-04-23 Ricoh Co Ltd Input control device and image forming apparatus
CN102177486A (en) * 2008-11-06 2011-09-07 索尼爱立信移动通讯有限公司 Communication device with multilevel virtual keyboard
JP2012522415A (en) * 2009-03-27 2012-09-20 ソニーモバイルコミュニケーションズ, エービー System and method for changing touch screen functionality
GB2462171B (en) * 2008-07-31 2013-04-10 Northrop Grumman Space & Msn Image magnification system for computer interface
JP2014021933A (en) * 2012-07-23 2014-02-03 Ricoh Co Ltd Projection device, and projection method
JP2017168113A (en) * 2013-03-15 2017-09-21 アップル インコーポレイテッド Device, method, and graphical user interface for organizing and presenting collection of media items
EP2034367B1 (en) * 2007-09-10 2018-06-20 Ricoh Company, Ltd. Input control device and image forming apparatus
JP2018190469A (en) * 2018-08-22 2018-11-29 キヤノン株式会社 Image forming apparatus, computer program, and recording medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236143A (en) * 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc Input processing program, portable terminal device and input processing method
JP2008305174A (en) * 2007-06-07 2008-12-18 Sony Corp Information processor, information processing method, and program
US8508487B2 (en) 2007-06-07 2013-08-13 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2009086612A (en) * 2007-09-10 2009-04-23 Ricoh Co Ltd Input control device and image forming apparatus
EP2034367B1 (en) * 2007-09-10 2018-06-20 Ricoh Company, Ltd. Input control device and image forming apparatus
GB2462171B (en) * 2008-07-31 2013-04-10 Northrop Grumman Space & Msn Image magnification system for computer interface
CN102177486A (en) * 2008-11-06 2011-09-07 索尼爱立信移动通讯有限公司 Communication device with multilevel virtual keyboard
JP2012522415A (en) * 2009-03-27 2012-09-20 ソニーモバイルコミュニケーションズ, エービー System and method for changing touch screen functionality
JP2014021933A (en) * 2012-07-23 2014-02-03 Ricoh Co Ltd Projection device, and projection method
JP2017168113A (en) * 2013-03-15 2017-09-21 アップル インコーポレイテッド Device, method, and graphical user interface for organizing and presenting collection of media items
JP2018190469A (en) * 2018-08-22 2018-11-29 キヤノン株式会社 Image forming apparatus, computer program, and recording medium

Similar Documents

Publication Publication Date Title
JP2004302958A (en) Information input device and image forming device
JP4443596B2 (en) Image forming apparatus
JP5138653B2 (en) Image reading device
JP5129080B2 (en) Input / output control device, image reading device, and image forming device
JP2005172948A (en) Image forming apparatus
JPH10271260A (en) Method and system for displaying user interface proper for multifunction machine
JP4669025B2 (en) Image processing apparatus and image processing method
JP4252475B2 (en) Image forming apparatus
JP6005621B2 (en) Image forming apparatus
JP2001339550A (en) Image forming device
JP4246643B2 (en) Image processing device
JP2006039470A (en) Image forming apparatus
JP2010054559A (en) Display control device and image forming apparatus
JP4455134B2 (en) Recording paper setting system and recording paper setting program
JP4944516B2 (en) Image forming apparatus
JP2005242922A (en) Operation instruction receiving device
JP2004104190A (en) Image processor, control method for image processor, and control program for image processor
JP4102685B2 (en) Image forming apparatus
JP2008182436A (en) Image forming apparatus
JP2020204962A (en) Information processing apparatus
JP4076521B2 (en) Input device, equipment system
JP4644225B2 (en) Image forming apparatus
JP3934646B2 (en) Image forming apparatus
JP2004186784A (en) Image forming apparatus
JP4035518B2 (en) Input device, equipment system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606