JP6221622B2 - Touch panel device and image forming apparatus - Google Patents

Touch panel device and image forming apparatus Download PDF

Info

Publication number
JP6221622B2
JP6221622B2 JP2013219781A JP2013219781A JP6221622B2 JP 6221622 B2 JP6221622 B2 JP 6221622B2 JP 2013219781 A JP2013219781 A JP 2013219781A JP 2013219781 A JP2013219781 A JP 2013219781A JP 6221622 B2 JP6221622 B2 JP 6221622B2
Authority
JP
Japan
Prior art keywords
image
display screen
touch panel
area
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013219781A
Other languages
Japanese (ja)
Other versions
JP2015082210A (en
Inventor
村石 理恵
理恵 村石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2013219781A priority Critical patent/JP6221622B2/en
Publication of JP2015082210A publication Critical patent/JP2015082210A/en
Application granted granted Critical
Publication of JP6221622B2 publication Critical patent/JP6221622B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチパネル装置および画像形成装置に関する。   The present invention relates to a touch panel device and an image forming apparatus.

画像形成装置やその他の様々な装置にタッチパネル装置が搭載されている。   A touch panel device is mounted on an image forming apparatus and other various apparatuses.

ここで、特許文献1には、アプリケーションごとにタッチ操作領域スキーマを格納し、実行制御時に必要なスキーマを呼び出してアプリケーションを操作することが記載されている。   Here, Patent Document 1 describes that a touch operation area schema is stored for each application, and the application is operated by calling a schema required for execution control.

また、特許文献2には、タッチ操作前後の静電容量値の推移と操作方向に基づいて、タップ操作とドラッグ操作とで検出感度を変更し、また、操作領域、走行モードによって感度を変更することが記載されている。   Further, in Patent Document 2, the detection sensitivity is changed between the tap operation and the drag operation based on the transition of the capacitance value before and after the touch operation and the operation direction, and the sensitivity is changed depending on the operation region and the travel mode. It is described.

さらに、特許文献3には、オブジェクトのタップ領域を学習して更新することが記載されている。   Further, Patent Document 3 describes learning and updating the tap region of an object.

特開2004−355106号公報JP 2004-355106 A 特開2012−242924号公報JP 2012-242924 A 特開2012−216127号公報JP2012-216127A

本発明は、ユーザの操作意図が正しく反映されるタッチパネル装置およびそのタッチパネル装置を備えた画像形成装置を提供することを目的とする。   An object of the present invention is to provide a touch panel device in which a user's operation intention is correctly reflected and an image forming apparatus including the touch panel device.

請求項1は、
画像表示を担う表示画面該表示画面上の接触位置の検出を担うセンサを備えたタッチパネル、および
前記表示画面に画像を描画する画像描画部と、前記表示画面への接触開始点を含み前記画像描画部により描画される画像もしくは該画像上の領域に応じた広がりを有する境界領域を設定する境界設定部と、前記表示画面への接触を検知した後接触開始点を含むように設定された境界領域を越える接触点の移動なしに該表示画面からの離間を検出した第1の操作モードと、該表示画面への接触を検出し該境界領域を越える接触点の移動の後に該表示画面からの離間を検出した第2の操作モードとを判別する操作判別部とを備えた描画・操作判別装置を備え
前記画像描画部により描画される画像もしくは該画像上の領域が、前記第2の操作モードによる操作を横方向についてのみ受け付け、該第2の操作モードによる操作を縦方向には受け付けない画像もしくは該画像上の領域である場合に、前記境界設定部が、横幅よりも縦に長い境界領域を設定するものであることを特徴とするタッチパネル装置である。
Claim 1
Including an image drawing unit that draws a touch panel, and an image on the display screen and a sensor responsible for detecting the contact position on the display screen and the display screen serving for a display image, a contact touch start point to the display screen a boundary setting unit that sets a boundary region that have a spread corresponding to the areas on the image or the image is drawn by viewing before Symbol image drawing unit, a contact start point after detecting contact to the display screen A first operation mode in which separation from the display screen is detected without movement of the contact point exceeding the boundary region set to include, and movement of the contact point exceeding the boundary region by detecting contact to the display screen a second operating mode and draws-operation determination equipment having an operation determination unit for determining that detected the spaced from the display screen after,
An image drawn by the image drawing unit or an area on the image accepts an operation in the second operation mode only in the horizontal direction and an image in which the operation in the second operation mode is not accepted in the vertical direction In the touch panel device, the boundary setting unit sets a boundary area that is longer than a horizontal width when the boundary setting unit is an area on an image .

請求項は、請求項1記載のタッチパネル装置と、前記タッチパネル装置での操作に応じた画像形成処理を実行する画像形成部とを備えたことを特徴とする画像形成装置である。
Claim 2 is an image forming apparatus characterized by comprising 1 SL and mounting of the touch panel device according to claim, and an image forming unit which executes image forming processing according to the operation on the touch panel device.

請求項1のタッチパネル装置および請求項の画像形成装置によれば、常に一定の広がりを有する境界領域が設定されている場合と比べ、ユーザの操作意図が正しく反映される。
According to the touch panel device of the first aspect and the image forming apparatus of the second aspect , the user's operation intention is correctly reflected as compared with the case where the boundary region having a constant spread is always set.

また、請求項のタッチパネル装置および請求項2の画像形成装置によれば、ユーザの操作意図が、縦、横それぞれについて一層正しく反映される。

Further, according to the touch panel device and an image forming apparatus according to claim 2 of claim 1, operation intended users, vertical, are reflected more correctly the horizontal, respectively.

本発明の画像形成装置の一実施形態としての複合機の外観図である。1 is an external view of a multifunction peripheral as an embodiment of an image forming apparatus of the present invention. 図1に外観を示す複合機の内部構成を示すブロック図である。FIG. 2 is a block diagram showing an internal configuration of the multi-function peripheral whose appearance is shown in FIG. 1. タッチパネルを指で操作するときの問題点の説明図である。It is explanatory drawing of the problem when operating a touch panel with a finger | toe. タッチパネルとUIコントローラの構成を示した図である。It is the figure which showed the structure of the touchscreen and UI controller. UIコントローラにおける、押下イベント受信時の処理を示したフローチャートである。It is the flowchart which showed the process at the time of receiving the pressing event in UI controller. 境界領域設定処理を示したフローチャートである。It is the flowchart which showed the boundary area | region setting process. タッチパネルの表示画面に表示される画像の一例を示した図である。It is the figure which showed an example of the image displayed on the display screen of a touch panel. 2ページ目が表示された状態のメニュー画像を示した図である。It is the figure which showed the menu image of the state in which the 2nd page was displayed. 図7のメニュー画像において「コピー」の押ボタンがタップ操作されたときにそのメニュー画像に代わって表示されるコピーメニュー画像を示した図である。FIG. 8 is a diagram showing a copy menu image displayed in place of the menu image when the “copy” push button is tapped in the menu image of FIG. 7. 「出力形式」のサブメニュー画像の2ページ目を示した図である。It is the figure which showed the 2nd page of the submenu image of "output format". スキャンプレビュー画像の一例を示した図である。It is the figure which showed an example of the scan preview image. 図11と同じスキャンプレビュー画像に、スキャナで読み取って得た画像データに基づく1枚の画像全域を重ねて示した模式図である。FIG. 12 is a schematic diagram showing the same scan preview image as in FIG. 11 with the entire area of one image overlaid on the basis of image data read by a scanner. 図6に代わる境界領域設定処理を示したフローチャートである。It is the flowchart which showed the boundary area | region setting process replaced with FIG.

以下、本発明の実施の形態を説明する。   Embodiments of the present invention will be described below.

図1は、本発明の画像形成装置の一実施形態としての複合機の外観図である。   FIG. 1 is an external view of a multifunction peripheral as an embodiment of the image forming apparatus of the present invention.

この複合機10には、スキャナ11とプリンタ12が備えられている。また、プリンタ12の下にはプリント前の用紙が収容された用紙トレイ13が備えられている。また、この複合機10には、ユーザインタフェース(以下、「UI」と略記する)14が備えれられている。このUI14は、表示画面を備えたタッチパネル141と、操作ボタンが並んだ操作パネル142を備えている。また、タッチパネル141は、表示画面だけでなくタッチセンサを備えていて、指でタッチパネル141に触れるとそのタッチパネル141上の指の接触位置が検出される。すなわち、このタッチパネル141に操作ボタンを含む画像を表示しておいて、その画像上の操作ボタンに重なるようにタッチパネル141に指を接触させると、この複合機10にその操作ボタンを押したことに相当する指示が入力される。   The multifunction machine 10 includes a scanner 11 and a printer 12. A paper tray 13 for storing paper before printing is provided below the printer 12. The multifunction machine 10 is provided with a user interface (hereinafter abbreviated as “UI”) 14. The UI 14 includes a touch panel 141 having a display screen and an operation panel 142 in which operation buttons are arranged. The touch panel 141 includes not only a display screen but also a touch sensor. When the touch panel 141 is touched with a finger, the contact position of the finger on the touch panel 141 is detected. That is, when an image including an operation button is displayed on the touch panel 141 and a finger is brought into contact with the touch panel 141 so as to overlap the operation button on the image, the operation button is pressed on the multifunction device 10. Corresponding instructions are entered.

本実施形態で採用されているタッチパネル141は感圧式センサを備えたものである。この感圧式センサは、対面する2枚のITO膜(透明導電膜)を有し、そのITO膜を指で押すとその押された箇所で2枚のITO膜が互いに接触して導通し、ITO膜の抵抗がその接触箇所で分割されることを利用して、接触箇所を検出するものである。押された箇所に広がりがあると、その重心的な一点が検出される。   The touch panel 141 employed in the present embodiment includes a pressure sensitive sensor. This pressure-sensitive sensor has two ITO films (transparent conductive film) facing each other, and when the ITO film is pressed with a finger, the two ITO films are brought into contact with each other at the pressed position to conduct electricity. The contact location is detected by utilizing the fact that the resistance of the film is divided at the contact location. If there is a spread in the pressed location, a point at the center of gravity is detected.

図2は、図1に外観を示す複合機の内部構成を示すブロック図である。   FIG. 2 is a block diagram showing the internal configuration of the multi-function peripheral whose appearance is shown in FIG.

この複合機10は、図1を参照して説明したスキャナ11、プリンタ12、およびUI14のほか、さらに、ファクシミリ送受信部15、ネットワークインタフェース部16、および制御部17を備えている。   In addition to the scanner 11, printer 12, and UI 14 described with reference to FIG. 1, the multifunction machine 10 further includes a facsimile transmission / reception unit 15, a network interface unit 16, and a control unit 17.

スキャナ11は、原稿上の画像を読み取ってその原稿上の画像を表わす画像データを生成する装置である。このスキャナ11で生成された画像データは、プリンタ12、ファクシミリ送受信部15、ネットワークインタフェース部16のいずれかに渡される。   The scanner 11 is an apparatus that reads an image on a document and generates image data representing the image on the document. The image data generated by the scanner 11 is transferred to any one of the printer 12, the facsimile transmission / reception unit 15, and the network interface unit 16.

また、プリンタ12は、画像データに基づく画像を用紙上にプリント出力する装置である。このプリンタ12で用紙上にプリント出力する画像の基になる画像データは、スキャナ11で生成された画像データであってもよいが、それには限られない。このプリンタ12では、ファクシミリ送受信部15で受信した画像データ、あるいは、ネットワークインタフェース部16で受信した画像データに基づく画像もプリント出力される。   The printer 12 is a device that prints out an image based on the image data on paper. The image data that is the basis of the image printed on the paper by the printer 12 may be image data generated by the scanner 11, but is not limited thereto. The printer 12 prints out image data received by the facsimile transmission / reception unit 15 or an image based on the image data received by the network interface unit 16.

ファクシミリ送受信部15は、図示しない電話回線に接続されてファクシミリの送受信を担う要素である。このファクシミリ送受信部15は、スキャナ11で生成された画像データあるいは、以下に説明するネットワークインタフェース部16で受信した画像データを受け取ってファクシミリ送信を行なう。また、このファクシミリ送受信部15は、ファクシミリ受信により画像データを受け取って、プリンタ12あるいはネットワークインタフェース部16に渡す。   The facsimile transmission / reception unit 15 is an element that is connected to a telephone line (not shown) and performs facsimile transmission / reception. The facsimile transmission / reception unit 15 receives image data generated by the scanner 11 or image data received by a network interface unit 16 described below and performs facsimile transmission. The facsimile transmission / reception unit 15 receives image data by facsimile reception and passes the image data to the printer 12 or the network interface unit 16.

ネットワークインタフェース部16は、図示しない、例えば画像編集用のパーソナルコンピュータ(以下、PCと略記する)とネットワークを介して接続され、スキャナ11で生成された画像データをPCに送信し、あるいは、PCから画像データを受信してプリンタ12やファクシミリ送受信部15に渡す。   The network interface unit 16 is connected to a personal computer for image editing (hereinafter abbreviated as PC) (not shown) via a network, and transmits the image data generated by the scanner 11 to the PC, or from the PC. The image data is received and transferred to the printer 12 and the facsimile transmission / reception unit 15.

ユーザインタフェース(UI)14は、図1を参照して説明した通り、タッチパネル141と操作パネル142を備えている。このUI14は、ユーザとこの複合機10との間での情報のやりとりを担っている。   The user interface (UI) 14 includes a touch panel 141 and an operation panel 142 as described with reference to FIG. The UI 14 is responsible for exchanging information between the user and the multifunction machine 10.

制御部16は、この複合機10の全ての要素の制御を担っている。この図2には、制御部17を構成する要素のうち、特にタッチパネル141の制御を担うUIインタフェース171が示されている。本実施形態におけるタッチパネル141とUIインタフェース171の組合せが、本発明のタッチパネル装置の一例に相当する。   The control unit 16 is responsible for controlling all elements of the multifunction machine 10. FIG. 2 shows a UI interface 171 that controls the touch panel 141 among the elements constituting the control unit 17. The combination of the touch panel 141 and the UI interface 171 in the present embodiment corresponds to an example of the touch panel device of the present invention.

このように、この複合機10は、コピー機としての機能、ファクシミリ機としての機能、スキャナとしての機能を兼ね備えた装置である。   As described above, the multifunction machine 10 is a device having a function as a copier, a function as a facsimile machine, and a function as a scanner.

本実施形態では、タッチパネル141に指を触れることによるユーザ操作に特徴があり、以下、この点について詳細に説明する。   The present embodiment is characterized by a user operation by touching the touch panel 141 with a finger, and this will be described in detail below.

図3は、タッチパネルを指で操作するときの問題点の説明図である。   FIG. 3 is an explanatory diagram of problems when the touch panel is operated with a finger.

図3(A)は、押込みによる誤検出の説明図である。   FIG. 3A is an explanatory diagram of erroneous detection by pressing.

指2でタッチパネル141を押し込むと、圧力の中心が指先から指の腹へと移動していく。このため、検出される座標が時間的に移動し、ユーザはタッチパネル141を単純に押したタッチ操作のつもりが、指を移動させたドラッグ操作が行なわれたと誤認識されることがある。このような押し方は、指の爪の長いユーザに多く見られ、タッチパネル上に表示された押ボタンを押す操作において発生し易い。   When the touch panel 141 is pushed in with the finger 2, the center of pressure moves from the fingertip to the belly of the finger. For this reason, the detected coordinates move in time, and the user may misrecognize that the user intends to perform a touch operation simply by pressing the touch panel 141 but has performed a drag operation by moving a finger. Such a pressing method is often seen by users with long fingernails and is likely to occur in an operation of pressing a push button displayed on the touch panel.

図3(B),(C)はフリック操作(タッチパネルに指を当てタッチパネルを擦るように指を動かしながら指を離す操作)における誤検出の説明図である。   FIGS. 3B and 3C are explanatory diagrams of erroneous detection in a flick operation (operation in which a finger is applied to the touch panel and the finger is moved while rubbing the touch panel while moving the finger).

図3(B)は強いフリック操作を示しており、検出点が時間的に検出点p,p,pと移動していることが認識される。これに対して、図3(C)は、軽いフリック操作を示していて、接触開始点pは検出されるものの、それに続く移動後の接触点pでは接触圧が弱まって検出されず、ユーザはフリック操作を行なったつもりであるにもかかわらずタップ操作(タッチパネルを押してそのまま離す操作)が行なわれたと誤認識されることがある。これは、ページ送りが多い画像で発生し易い傾向にある。 FIG. 3B shows a strong flick operation, and it is recognized that the detection points have moved to the detection points p 1 , p 2 , and p 3 in terms of time. On the other hand, FIG. 3 (C) shows a light flick operation, and the contact start point p 1 is detected, but the contact point p 2 after the subsequent movement is not detected because the contact pressure is weakened. Although the user intends to perform a flick operation, the user may misrecognize that a tap operation (an operation of pressing and releasing the touch panel) has been performed. This tends to occur in images with many page feeds.

本実施形態では、これらの誤認識の発生が抑えられている。   In this embodiment, the occurrence of these erroneous recognitions is suppressed.

図4は、タッチパネルとUIコントローラの構成を示した図である。   FIG. 4 is a diagram illustrating the configuration of the touch panel and the UI controller.

この図4には、UI14(図1,図2参照)を構成するタッチパネル141と、制御部17(図2参照)を構成するUIコントローラ171が示されている。   4 shows a touch panel 141 constituting the UI 14 (see FIGS. 1 and 2) and a UI controller 171 constituting the control unit 17 (see FIG. 2).

タッチパネル141は、ハードウエアとしての表示画面141aと感圧式のタッチセンサ141bを備えている。   The touch panel 141 includes a display screen 141a as hardware and a pressure-sensitive touch sensor 141b.

図2に示す制御部17には、図示しないCPUやメモリ等が備えられていて、そのCPUでプログラムが実行されることにより、以下に説明するUIコントローラ171としての機能や、その他この複合機10の各要素を制御する機能を実現している。   The control unit 17 shown in FIG. 2 includes a CPU, a memory, and the like (not shown). When the program is executed by the CPU, functions as a UI controller 171 described below, and other functions of the multifunction machine 10 are described. The function to control each element is realized.

UIコントローラ171には、UI制御装置171aと描画・操作判別装置171bが備えられている。上記の通り、これらUI制御装置171aや描画・操作判別装置171bは、CPU等のハードウエアとそこで実行されるプログラムとの組合せにより構成されている。   The UI controller 171 includes a UI control device 171a and a drawing / operation determination device 171b. As described above, the UI control device 171a and the drawing / operation determination device 171b are configured by a combination of hardware such as a CPU and a program executed there.

UI制御装置171aは、描画・操作判別装置171bに対し、タッチパネル141の表示画面171a上に表示すべき画像を指示する。またこのUI制御装置171aは、描画・操作判別装置171bからタッチパネル141上の今回の操作位置(指で押された座標)および今回の操作の種類(タップ、ドラッグ等)の情報を受け取り、例えば、タッチパネル141上に現在表示されている画像と対比してどの操作ボタンが押されたか、あるいはどの方向に画像の移動やページ更新を行なうかが認識される。そして、このUI制御装置171aは、タッチパネル141の表示画面141aに表示させる画像を変更する必要があるときは、描画・操作判別装置171bに向けて画像の変更を指示する。あるいは、このUI制御装置171aは、画像の表示以外の処理が必要な押ボタンが押されたときは、どの押ボタンが押されたかという情報を出力する。図2に示す制御部17では、その情報を受けて、その押された押ボタンに応じた処理が実行される。   The UI control device 171a instructs the drawing / operation determination device 171b to display an image to be displayed on the display screen 171a of the touch panel 141. Also, the UI control device 171a receives information on the current operation position (coordinates pressed by the finger) on the touch panel 141 and the type of operation (tap, drag, etc.) on the touch panel 141 from the drawing / operation determination device 171b. It is recognized which operation button has been pressed as compared with the image currently displayed on the touch panel 141, or in which direction the image is moved or the page is updated. When it is necessary to change the image to be displayed on the display screen 141a of the touch panel 141, the UI control device 171a instructs the drawing / operation determining device 171b to change the image. Alternatively, the UI control device 171a outputs information indicating which push button has been pressed when a push button requiring processing other than image display is pressed. The control unit 17 shown in FIG. 2 receives the information and executes a process corresponding to the pressed button.

また、描画・操作判別装置171bは、画像描画部71、操作判定部72、および境界設定部73を備えている。   The drawing / operation determination device 171 b includes an image drawing unit 71, an operation determination unit 72, and a boundary setting unit 73.

画像描画部71は、UI制御装置171aの指示に応じた画像をタッチパネル141の表示画面141a上に描画する。   The image drawing unit 71 draws an image corresponding to the instruction from the UI control device 171a on the display screen 141a of the touch panel 141.

操作判別部72は、タッチパネル141のタッチセンサ141bから、タッチパネル141(表示画面141a)上の接触点の座標およびその時間変化を取得して、どの種別の操作が行なわれたかを判別する。この判別結果は、接触点の座標の情報とともに、UI制御装置171aに通知される。この通知を受けたUI制御装置171aは、この通知に基づいて、表示画面141aに表示すべき画像の変更を指示し、あるいは、操作が行なわれた押ボタンに応じた処理の実行を制御部17の他の要素(不図示)に指示する。   The operation determination unit 72 acquires the coordinates of the contact point on the touch panel 141 (display screen 141a) and the time change thereof from the touch sensor 141b of the touch panel 141, and determines which type of operation has been performed. This determination result is notified to the UI control device 171a together with information on the coordinates of the contact point. Upon receiving this notification, the UI control device 171a instructs the change of the image to be displayed on the display screen 141a based on this notification, or executes the processing corresponding to the operated push button. To other elements (not shown).

また、境界設定部73は、境界領域を操作判定部72に設定する。この境界領域は、タッチパネル14への指の接触開始点を含むように設定される領域であり、この操作判別部72は、この設定された境界領域を用いて、表示画面141aに接触した指が表示画面141aに接触したままこの境界領域を越えて移動したか否かにより、ドラッグ操作が行なわれたか、あるいはタップ操作が行なわれたか等が判別される。すなわち、この操作判別部72では、表示画面141aへの接触を検出した後、その接触開始点を含むように設定された境界領域を越える接触点の移動なしに表示画面141aからのリリース(指を離す操作)を検出した場合にはタップ操作が行なわれた旨、判別される。また、この操作判別部72では、表示画面141aへの接触を検出した後、その設定された境界領域を越える指の移動を検出した場合にはドラッグ操作が行なわれた旨、判別される。この操作制御部72はさらに、ドラッグ操作が行なわれた後のリリース操作の際の指の移動速度に応じて、ドラッグリリース操作かフリック操作かが判別される。したがってここでは、タップ操作、ドラッグ操作/フリック操作が、本発明にいう、それぞれ第1の操作モード、第2の操作モードの各一例に相当する。   In addition, the boundary setting unit 73 sets a boundary region in the operation determination unit 72. This boundary area is an area set so as to include the touch start point of the finger on the touch panel 14, and the operation determination unit 72 uses the set boundary area to move the finger that touches the display screen 141a. Whether a drag operation or a tap operation has been performed is determined based on whether or not the display screen 141a has been touched and moved beyond the boundary region. That is, the operation discriminating unit 72 detects a contact with the display screen 141a and then releases the finger from the display screen 141a without moving the contact point beyond the boundary region set to include the contact start point. When a release operation is detected, it is determined that a tap operation has been performed. In addition, the operation determining unit 72 determines that the drag operation has been performed when the movement of the finger exceeding the set boundary region is detected after detecting contact with the display screen 141a. The operation control unit 72 further determines whether the operation is a drag release operation or a flick operation according to the moving speed of the finger in the release operation after the drag operation is performed. Therefore, here, the tap operation and the drag operation / flick operation correspond to examples of the first operation mode and the second operation mode, respectively, according to the present invention.

ここで、境界設定部73には、表示画面141aに表示されることがある複数の画像それぞれに対応づけられて各境界領域が登録されている。それらの境界領域の中には互いに異なる広がりを有する境界領域が存在する。そしてこの境界設定部73は、操作判別部72に対し境界領域を設定するにあたり、画像描画部71により表示画面141aに描画されている画像に応じた境界領域を設定する。すなわちこの設定された境界領域は、その画像に応じた広がりを有する境界領域である。したがって操作判別部72は、表示画面141aに表示されている画像に応じて、指が多少動いてもタップ操作であると判別し、あるいは指が少し動いただけでドラッグ操作が行なわれたと判別することになる。後述する具体例に示すように、この境界設定部73は、操作判別部72に、画像描画部71により表示画面141aに描画されている画像がタップ操作を主操作とする画像、例えば押ボタンが並んだ画像のときは、ドラッグ操作/フリック操作を主操作とする画像のときと比べ、広い境界領域を設定する。また、その画像によっては、境界設定部73は、操作判定部72に、縦と横の寸法が互いに異なる境界領域を設定する。詳細は後述する。   Here, each boundary area is registered in the boundary setting unit 73 in association with each of a plurality of images that may be displayed on the display screen 141a. Among these boundary regions, there are boundary regions having different spreads. The boundary setting unit 73 sets the boundary region corresponding to the image drawn on the display screen 141 a by the image drawing unit 71 when setting the boundary region for the operation determination unit 72. In other words, the set boundary region is a boundary region having a spread corresponding to the image. Therefore, the operation determination unit 72 determines that the tap operation is performed even if the finger moves slightly according to the image displayed on the display screen 141a, or determines that the drag operation is performed only by a slight movement of the finger. become. As shown in a specific example to be described later, the boundary setting unit 73 causes the operation determination unit 72 to display an image drawn on the display screen 141a by the image drawing unit 71 as a main operation such as a push button. In the case of images arranged side by side, a wider boundary region is set as compared with an image in which a drag operation / flick operation is the main operation. Depending on the image, the boundary setting unit 73 sets boundary regions having different vertical and horizontal dimensions in the operation determination unit 72. Details will be described later.

図5は、UIコントローラにおける、押下イベント受信時の処理を示したフローチャートである。   FIG. 5 is a flowchart showing processing at the time of receiving a press event in the UI controller.

押下イベント、すなわちタッチセンサ141bからのタッチパネル141が指で押されたという情報を受信すると、この図5に示す処理の実行が開始される。   When a pressing event, that is, information indicating that the touch panel 141 from the touch sensor 141b is pressed with a finger is received, execution of the processing shown in FIG. 5 is started.

ここでは先ず、押下時の、タッチパネル141上の座標と押下した時刻が記憶され(ステップS01)、次いで、境界領域設定処理が行なわれる(ステップS02)。   Here, first, the coordinates on the touch panel 141 at the time of pressing and the pressing time are stored (step S01), and then the boundary region setting process is performed (step S02).

図6は、図5のステップS02における境界領域設定処理を示したフローチャートである。   FIG. 6 is a flowchart showing the boundary area setting process in step S02 of FIG.

ここでは、タッチパネル141上に現在表示されている画像に対応する境界領域が登録されているか否かが判定される(ステップS31)。そして、その画像に対応する境界領域が登録されているときはその登録されている境界領域が、図5のステップS04で参照される境界領域として設定される(ステップS32)。一方、その画像に対応する境界領域の登録がないときは、このシステムのデフォルトとしての境界領域が設定される(ステップS33)。   Here, it is determined whether or not a boundary region corresponding to the image currently displayed on the touch panel 141 is registered (step S31). When the boundary area corresponding to the image is registered, the registered boundary area is set as the boundary area referred to in step S04 in FIG. 5 (step S32). On the other hand, when no boundary area corresponding to the image is registered, a boundary area as a default of this system is set (step S33).

図5に戻って説明を続ける。   Returning to FIG.

ステップS02において境界領域が設定されると、次にリリースイベントを受信したか否かの判定(ステップS03)と、押下している座標がx方向(横方向)とy方向(縦方向)のうちのいずれかの方向に境界領域を越えたか否かの判定(ステップS04)とが繰り返される。   When the boundary region is set in step S02, it is next determined whether or not a release event has been received (step S03), and the pressed coordinates are among the x direction (horizontal direction) and the y direction (vertical direction). The determination of whether or not the boundary area has been exceeded in any direction (step S04) is repeated.

境界領域を越える前にリリースイベントが受信されると(ステップS03)、タップ操作が検知されてそのタップ操作に伴う処理が実行され、あるいはその処理の実行が制御部17(図2参照)に指示される。すなわちここでは、そのタップ操作が行なわれたことに伴い、表示画面141aに表示される画像の切り替えや、例えばコピーの開始を指示する押ボタンが押下された場合のコピー動作の開始等、そのタップ操作に応じた様々な処理が実行される。   When a release event is received before crossing the boundary region (step S03), a tap operation is detected and processing associated with the tap operation is executed, or execution of the processing is instructed to the control unit 17 (see FIG. 2). Is done. In other words, here, when the tap operation is performed, the tap of the image displayed on the display screen 141a, for example, the start of the copy operation when the push button for instructing the start of the copy is pressed, etc. Various processes according to the operation are executed.

一方、リリースイベントの受信がないまま(ステップS03)、境界領域を越える座標変化があると(ステップS04)、ドラッグ操作が検知され(ステップS06)、現在の座標と時刻が記憶される(ステップS07)。ここでは、そのドラッグ操作の検知に伴って、表示画面141aに表示されている画像をそのドラッグ操作に応じた方向および移動量だけ移動させる処理が行なわれる。   On the other hand, if no release event is received (step S03) and there is a coordinate change exceeding the boundary region (step S04), a drag operation is detected (step S06), and the current coordinate and time are stored (step S07). ). Here, in accordance with the detection of the drag operation, processing for moving the image displayed on the display screen 141a by the direction and the movement amount according to the drag operation is performed.

次に、リリースイベントの受信の有無の判定(ステップS08)および座標移動の有無の判定(ステップS09)が繰り返される。リリースイベントの受信がないまま(S08)、座標が移動したことが判定されると、再びドラッグ検知処理(ステップS10)、すなわちそのドラッグ動作に伴う表示画面141a上の画像の移動処理が行なわれ、さらに現在の座標、時刻の記憶(ステップS07)が行なわれる。   Next, the determination on whether or not a release event has been received (step S08) and the determination on whether or not coordinate movement has occurred (step S09) are repeated. If it is determined that the coordinates have moved without receiving the release event (S08), the drag detection process (step S10) is performed again, that is, the image moving process on the display screen 141a associated with the drag operation is performed. Further, the current coordinates and time are stored (step S07).

リリースイベントを受信すると(ステップS08)、これまで記憶しておいた座標と時刻の一覧に基づいて、リリース時の指の移動速度が計算される(ステップS11)。そしてそのリリース時の指の移動速度が閾値速度以上であるか否かが判定される(ステップS12)。リリース時の指の移動速度が閾値速度未満のときは、ドラッグ動作の終了を意味するドラッグリリースが検知される(ステップS13)。そして、そのドラッグリリースに伴う処理、例えば表示画面141a上の画像の移動をそのまま停止させ、あるいはページ変更処理を行なうなど、そのアプリケーションに応じた処理が実行される。   When the release event is received (step S08), the finger moving speed at the time of release is calculated based on the list of coordinates and time stored so far (step S11). Then, it is determined whether or not the finger moving speed at the time of release is equal to or higher than the threshold speed (step S12). When the moving speed of the finger at the time of release is less than the threshold speed, a drag release that means the end of the drag operation is detected (step S13). Then, processing according to the application is executed, such as processing accompanying the drag release, for example, stopping the movement of the image on the display screen 141a as it is or performing page change processing.

ステップS12において、リリース時の指の移動速度が閾値速度以上であると判定されると、フリック動作が検知されて(ステップS14)、そのフリック動作に伴う処理、例えばページ変更処理、惰性で移動させてから停止させる処理等、そのアプリケーションに応じた処理が実行される。   In step S12, when it is determined that the moving speed of the finger at the time of release is equal to or higher than the threshold speed, a flick action is detected (step S14), and the process associated with the flick action, for example, a page change process, is moved by inertia. Processing according to the application, such as processing to be stopped after that, is executed.

尚、ドラッグリリースに伴う処理やフリック操作に伴う処理は、そのアプリケーションによっては、指が縦方向に移動したか横方向に移動したかなど、指の移動軌跡に応じて異なる処理が実行されることもある。   Depending on the application, the processing that accompanies drag release or the processing that accompanies the flick operation may be different depending on the movement trajectory of the finger, such as whether the finger has moved vertically or horizontally. There is also.

図7は、タッチパネルの表示画面に表示される画像の一例を示した図である。   FIG. 7 is a diagram illustrating an example of an image displayed on the display screen of the touch panel.

この図7は、メニュー画像31であり、このメニュー画像31は、「コピー」、「ファックス」、「スキャナ」、「らくらくコピー」等の押ボタン311が縦横に並んだ第1の領域31aと、「言語切り替え」、「画像輝度調整」等の押ボタン312が縦に並んだ第2の表示領域31bを有する。   FIG. 7 shows a menu image 31. The menu image 31 includes a first area 31a in which push buttons 311 such as “copy”, “fax”, “scanner”, and “easy copy” are arranged vertically and horizontally; It has a second display area 31b in which push buttons 312 such as “language switch” and “image brightness adjustment” are vertically arranged.

ここで、「コピー」、「ファックス」、および「スキャナ」の各押ボタンは、それぞれ、コピー、ファックス、及びスキャナに関するサブメニュー画像への変更を表示するボタンである。また、「らくらくコピー」の押ボタンは、設定が簡単化されたコピーに関するサブメニュー画像への変更を指示するボタンである。この第1の領域31aには、この他にも様々な押ボタン311が配置されている。それらの押ボタン311の説明は省略する。   Here, the “copy”, “fax”, and “scanner” push buttons are buttons for displaying changes to the sub-menu images for copy, fax, and scanner, respectively. Further, the “Easy Copy” push button is a button for instructing a change to a submenu image related to copying with simplified settings. Various other push buttons 311 are arranged in the first area 31a. Description of these push buttons 311 is omitted.

また、第2の領域31bに並ぶ「言語切り替え」は、表示画面141aの上に表示される画像上の言語を日本語、英語等に切り替えるときに押されるボタンである。また「画像輝度調整」はこの表示画面141aに表示される画像の輝度を調整するときに押されるボタンである。この第2の領域31bにもさらに多くの押ボタン312が配列されているが、説明は省略する。   “Language switching” arranged in the second area 31b is a button that is pressed when the language on the image displayed on the display screen 141a is switched to Japanese, English, or the like. "Image brightness adjustment" is a button that is pressed when adjusting the brightness of the image displayed on the display screen 141a. Even more push buttons 312 are arranged in the second region 31b, but the description thereof is omitted.

第1の表示領域31aは2ページ構成となっており、この図7には1ページ目が表示されている。この第1の領域31aの上に指を置き、横方向に大きくドラッグ操作を行なうか、あるいは横方向にフリック操作を行なうと、2ページ目の表示に切り替わる。   The first display area 31a has a two-page configuration, and the first page is displayed in FIG. When a finger is placed on the first area 31a and a large drag operation is performed in the horizontal direction or a flick operation is performed in the horizontal direction, the display is switched to the second page.

図8は、2ページ目が表示された状態のメニュー画像を示した図である。   FIG. 8 is a diagram showing a menu image in a state where the second page is displayed.

第1の領域31aについてはページが更新されて2ページ目が表示されるが、第2の領域31bは両ページに渡って共通である。このメニュー画像31の第1の領域31aの2ページ目には、1ページ目に配置しきれなかった押ボタン311が配置されている。各押ボタン311についての説明は省略する。   For the first area 31a, the page is updated and the second page is displayed, but the second area 31b is common to both pages. On the second page of the first area 31a of the menu image 31, a push button 311 that cannot be arranged on the first page is arranged. A description of each push button 311 is omitted.

図7に戻って説明を続ける。   Returning to FIG. 7, the description will be continued.

この図7には、メニュー画像31に重ねて、そのメニュー画像31を押している指2が示されている。指2で表示画像141aを押すと、その押下点を含む、その押下点の回りに境界領域D1が設定される(図5、ステップS02、図6参照)。このメニュー画像31に対応する境界領域D1は、図7に示す通り、縦に長く横に短い長方形の領域であって、押下点がその長方形の中心となるように設定される。尚、この境界領域D1は、表示画面上には表示されず、内部にデータとして設定される領域である。指2による押下点がこの境界領域D1を越えて横に移動するとドラッグ操作が検出されて、このメニュー画像31がその指の動きに伴って横に移動する。その後、このメニュー画像31からゆっくりと指を離すと、そのときの移動量に応じて、この図7に示す通りの1ページ目の表示に戻り、あるいは図8に示す2ページ目に変更される。また。この境界領域D1を越えて横に素早く指を移動させながら指を離すと、移動量自体は小さくても、2ページ目の表示に変更される。   In FIG. 7, the finger 2 pressing the menu image 31 is shown superimposed on the menu image 31. When the display image 141a is pressed with the finger 2, a boundary region D1 including the pressed point is set around the pressed point (see FIG. 5, step S02, and FIG. 6). As shown in FIG. 7, the boundary area D1 corresponding to the menu image 31 is a rectangular area that is vertically long and short horizontally, and is set so that the pressed point is the center of the rectangle. The boundary area D1 is an area that is not displayed on the display screen and is set as data inside. When the pressed point by the finger 2 moves sideways beyond the boundary region D1, a drag operation is detected, and the menu image 31 moves sideways as the finger moves. Thereafter, when the menu image 31 is slowly released, the display returns to the first page as shown in FIG. 7 or is changed to the second page shown in FIG. 8 according to the amount of movement at that time. . Also. When the finger is released while moving quickly across the boundary region D1, the display is changed to the second page display even if the movement amount itself is small.

また、指2で画像を押してその押下点の回りに設定された境界領域D1を越える動きなしに指を離すと、タップ操作が検知され、その押下点に表示されていた押ボタンに対応づけられている処理が実行される。   Further, when the image is pressed with the finger 2 and the finger is released without moving beyond the boundary area D1 set around the pressing point, a tap operation is detected and associated with the push button displayed at the pressing point. Process is executed.

指2で表示画面を押した後、その押下点に重なる押ボタンの押下をキャンセルしたいときは、指2を縦方向に、その押下点が境界領域D1を越えるまで移動させてから指2を離す。このメニュー画像31に関しては、この縦方向へのドラッグ操作が検知されると、押ボタンの押下がなされなかったことになる。   After pressing the display screen with the finger 2, to cancel the pressing of the push button that overlaps the pressing point, move the finger 2 in the vertical direction until the pressing point exceeds the boundary region D1, and then release the finger 2. . With respect to the menu image 31, if the drag operation in the vertical direction is detected, the push button is not pressed.

ここで、境界領域D1として縦に長い領域を設定したのは、図3(A)を参照して説明した、押し込みによる押下点の移動によってドラッグ操作と誤検知されないためである。横方向に関しては、ページ切替えのためのドラッグ操作やフリック操作が行なわれることがあり、また横方向には指の押し込みによる押下点の変化は生じにくいため、境界領域D1の横幅は縦と比べ狭く設定されている。   Here, the reason why the vertically long region is set as the boundary region D1 is that it is not erroneously detected as a drag operation due to the movement of the pressed point by pressing as described with reference to FIG. In the horizontal direction, a drag operation or a flick operation for switching pages may be performed, and in the horizontal direction, a change in the pressing point due to the pressing of a finger is unlikely to occur, so the horizontal width of the boundary region D1 is narrower than the vertical width. Is set.

ここでは、図7を参照して説明したが、本実施形態では、図8に示す、2ページ目に切り替わった後のメニュー画像31についても、同一形状、同一寸法の境界領域が設定される。また、本実施形態では、図7,図8に示すメニュー画像31における第2の領域31bに並ぶ押ボタンの操作に関しても図7に示す境界領域D1の形状、寸法がそのまま採用される。   Although the description has been given with reference to FIG. 7, in this embodiment, the boundary area having the same shape and the same size is set for the menu image 31 shown in FIG. 8 after switching to the second page. In the present embodiment, the shape and size of the boundary region D1 shown in FIG. 7 are also used as they are for the operation of the push buttons arranged in the second region 31b in the menu image 31 shown in FIGS.

図9は、図7のメニュー画像において「コピー」の押ボタンがタップ操作されたときに、そのメニュー画像に代わって表示されるコピーメニュー画像を示した図である。   FIG. 9 is a diagram showing a copy menu image displayed in place of the menu image when the “copy” push button is tapped in the menu image of FIG. 7.

このコピーメニュー画像32にはさらに、「コピー」、「画質調整」、「読み取り方法」、「出力形式」、および「ジョブ編集」の各サブメニュー画像が存在する。それらの押ボタンをタップ操作すると、それぞれのサブメニュー画像が表示される。この図9には、それらのうちの「出力形式」のサブメニュー画像321が示されている。さらにこの図9には、その「出力形式」のサブメニュー画像321のうちの1ページ目が示されている。   The copy menu image 32 further includes sub-menu images of “copy”, “image quality adjustment”, “reading method”, “output format”, and “job editing”. When these push buttons are tapped, the respective sub menu images are displayed. FIG. 9 shows a submenu image 321 of “output format” among them. Further, FIG. 9 shows the first page of the “output format” submenu image 321.

この図9に示す「出力形式」のサブメニュー画像321も2ページで構成されていて、縦方向に大きくドラッグ操作するか、縦方向に境界領域D2を越えてフリック操作を行なうと、ページが切り替わる。   The “output format” sub-menu image 321 shown in FIG. 9 is also composed of two pages, and the page is switched when a large drag operation in the vertical direction or a flick operation beyond the boundary region D2 in the vertical direction is performed. .

この「出力形式」のサブメニュー画像321には例えば「両面/片面選択」の押ボタン等の多数の押ボタンが縦横に配列されている。   In this “output format” sub-menu image 321, a large number of push buttons such as “double / single side selection” push buttons are arranged vertically and horizontally.

図10は、「出力形式」のサブメニュー画像の2ページ目を示した図である。   FIG. 10 is a diagram showing the second page of the “output format” submenu image.

ここには、図9に示す1ページ目に配置しきれなかった押ボタンが配置されている。   Here, push buttons that cannot be arranged on the first page shown in FIG. 9 are arranged.

図9に示すようにこのサブメニュー画像を指2で押すと、その指2の押下点を中心とする正方形の境界領域D2が設定される。このサブメニュー画像321においてもドラッグ操作/フリック操作が行なわれるが、このサブメニュー画像321上での主な操作はタップ操作である。このため、ここでは図3(A)に示した指の押し込みによる押下点の移動を考慮し、図7に示すメニュー画像31と同様、縦方向に広い境界領域D2が設定されている。また、この図9に示すサブメニュー画像321は横方向へのページ切換えはないため、横方向についても境界領域を広げ、誤検知の発生防止にさらに万全を期している。このサブメニュー画像321では、縦方向に大きくドラッグ操作が行なわれ、あるいは縦方向にこの境界領域D2を越えるフリック操作が行なわれるとページが切り替えられる。また、横方向に、この境界領域D2を越えるドラッグ操作が行なわれると、押ボタンの押下がなされなかったことになる。この境界領域D2の内側での動きにとどまったまま指2が離されたときは、その指2が重ねられていた押ボタンに応じた処理が実行される。   As shown in FIG. 9, when this submenu image is pressed with the finger 2, a square boundary region D <b> 2 centering on the pressing point of the finger 2 is set. A drag operation / flick operation is also performed on the submenu image 321, but a main operation on the submenu image 321 is a tap operation. For this reason, here, in consideration of the movement of the pressing point due to the pressing of the finger shown in FIG. 3A, a wide boundary region D2 is set in the vertical direction as in the menu image 31 shown in FIG. Further, since the submenu image 321 shown in FIG. 9 does not switch pages in the horizontal direction, the boundary area is expanded in the horizontal direction to further prevent occurrence of erroneous detection. In this submenu image 321, a page is switched when a large drag operation is performed in the vertical direction, or when a flick operation exceeding the boundary region D <b> 2 is performed in the vertical direction. If a drag operation is performed in the horizontal direction beyond the boundary area D2, the push button is not pressed. When the finger 2 is released while staying in the movement inside the boundary region D2, processing corresponding to the push button on which the finger 2 is overlapped is executed.

また、このサブメニュー画像321の上部に横に並ぶ、「コピー」、「画質調整」、・・・等の押ボタンに関しても、この図9に示した境界領域D2と同一形状、同一寸法の境界領域が適用される。   Further, for the push buttons such as “copy”, “image quality adjustment”,..., Which are arranged horizontally on the upper part of the submenu image 321, a boundary having the same shape and the same size as the boundary region D2 shown in FIG. The area is applied.

尚ここでは、図9に示す1ページ目の操作について説明したが、図10に示す2ページ目の操作についても同様である。   Although the operation on the first page shown in FIG. 9 has been described here, the same applies to the operation on the second page shown in FIG.

図11は、スキャンプレビュー画像の一例を示した図である。   FIG. 11 is a diagram illustrating an example of a scan preview image.

このスキャンプレビュー画像33は、スキャナ11(図1,図2参照)で得た画像データをPCに送信する場面において、送信前にその画像データに基づく画像を表示画面141aに表示して確認するためのものである。   The scan preview image 33 is used for displaying and confirming an image based on the image data on the display screen 141a before the image data obtained by the scanner 11 (see FIGS. 1 and 2) is transmitted to the PC. belongs to.

図12は、図11と同じスキャンプレビュー画像に、スキャナ11で読み取って得た画像データに基づく1枚の画像全域を重ねて示した模式図である。   FIG. 12 is a schematic diagram showing the same scan preview image as in FIG. 11, with the entire area of one image based on the image data read by the scanner 11 superimposed.

図12に示すように、スキャナ11で得た画像データに基づく画像34は、表示画面141aと比べ大面積の画像であって、表示画面141aには、その画像34の一部しか表示されない。   As shown in FIG. 12, the image 34 based on the image data obtained by the scanner 11 is an image having a larger area than the display screen 141a, and only a part of the image 34 is displayed on the display screen 141a.

そこでユーザは、ドラッグ操作やフリック操作により、表示画面141aに、この画像34の別の領域を表示させながら確認を行なう。このスキャナプレビュー画像33上には、「中止」や「送信開始」の押ボタンも存在するが、このスキャンプレビュー画像33上での主操作は、ドラッグ操作やフリック操作である。そこで、このスキャンプレビュー画像33では、指2による押下開始点の回りには、その押下点を中心とする小さな正方形の境界領域D3が設定される。これにより、図3(C)参照して説明した誤検知が回避され、画像のスムーズな動きが実現する。   Therefore, the user performs confirmation while displaying another region of the image 34 on the display screen 141a by dragging or flicking. On this scanner preview image 33, there are also push buttons such as “stop” and “start transmission”, but the main operation on the scan preview image 33 is a drag operation or a flick operation. Therefore, in this scan preview image 33, a small square boundary region D3 centering on the pressing point is set around the pressing start point by the finger 2. Thereby, the erroneous detection described with reference to FIG. 3C is avoided, and smooth movement of the image is realized.

尚、本実施形態では、境界領域は画像ごとに設定されているため、図11に示すスキャンプレビュー画像33上の操作ボタンのタップ操作の際も、この図11に示す境界領域D3と同一形状、同一寸法の境界領域が設定される。   In the present embodiment, since the boundary area is set for each image, the same shape as the boundary area D3 shown in FIG. 11 is obtained when the operation button on the scan preview image 33 shown in FIG. A boundary region having the same dimensions is set.

このように、本実施形態では、表示画面141aに表示された画像に応じて、境界領域の広がりを変更しているため、図3を参照して説明した誤検知の発生が抑えられ、良好な操作性の複合機10を実現している。   Thus, in this embodiment, since the expansion of the boundary region is changed according to the image displayed on the display screen 141a, the occurrence of the false detection described with reference to FIG. An operability multifunction machine 10 is realized.

以上で、第1実施形態の説明を終了し、次に第2実施形態について説明する。以下の第2実施形態の説明では、これまで説明してきた第1実施形態との相違点についてのみ説明する。   Above, description of 1st Embodiment is complete | finished and 2nd Embodiment is described next. In the following description of the second embodiment, only differences from the first embodiment described so far will be described.

図13は、第1実施形態における図6に示した境界領域設定処理に代わる境界領域設定処理を示したフローチャートである。   FIG. 13 is a flowchart showing a boundary area setting process instead of the boundary area setting process shown in FIG. 6 in the first embodiment.

この第2実施形態における図5に示す処理は、ステップS02における境界領域設定処理が図6に示す処理から図13に示す処理に変更される点を除き、第1実施形態の場合と同一である。   The process shown in FIG. 5 in the second embodiment is the same as that in the first embodiment except that the boundary area setting process in step S02 is changed from the process shown in FIG. 6 to the process shown in FIG. .

この図13に示す境界領域設定処理では、表示画面141aに表示されている画像が指で押された時に、その押下点の座標がその画像上の押ボタン領域内であるか否かが判定される(ステップS41)。ここでは例えば、図11に示すスキャンプレビュー画像33において、図12に示す画像34の一部が表示されている領域は押ボタン領域内ではないと判定され、「中止」や「送信開始」の押ボタンが配置されている領域は押ボタン領域であると判定される。   In the boundary area setting process shown in FIG. 13, when the image displayed on the display screen 141a is pressed with a finger, it is determined whether or not the coordinates of the pressed point are within the push button area on the image. (Step S41). Here, for example, in the scan preview image 33 shown in FIG. 11, it is determined that the area where a part of the image 34 shown in FIG. 12 is displayed is not within the push button area, and the “stop” or “start transmission” button is pressed. The area where the buttons are arranged is determined to be a push button area.

図13に示す境界領域設定処理では、押下時の座標が押ボタン領域内であると判定されると、その座標の周りに、押ボタン領域内用の、相対的に広い境界領域(図9に示す境界領域D2参照)が設定される(ステップS42)。一方、その押下時の座標が押ボタン領域内ではない、と判定されると、その座標の周りに押ボタン領域外用の、相対的に狭い境界領域(図11に示す境界領域D3参照)が設定される。   In the boundary area setting process shown in FIG. 13, when it is determined that the coordinates at the time of pressing are within the push button area, a relatively wide boundary area (in FIG. 9) for the push button area is formed around the coordinates. The boundary region D2 shown) is set (step S42). On the other hand, if it is determined that the coordinates at the time of pressing are not within the pushbutton area, a relatively narrow boundary area (see the boundary area D3 shown in FIG. 11) outside the pushbutton area is set around the coordinates. Is done.

前述の第1実施形態では、境界領域は画像ごとに設定されるが、この第2実施形態では、画像の領域ごとに設定されている。   In the first embodiment described above, the boundary region is set for each image. In the second embodiment, the boundary region is set for each image region.

尚、ここにいう領域は、図11を参照して説明したような、表示画面141aを広く分けた領域であってもよいが、それに限られるものではない。例えば、図7,図8に示すメニュー画像31では、隣接する押ボタン311どうしの間が空いている。そこで、押ボタン311のマークの外形をなぞった内側のみを押ボタン領域内とし、隣接する押ボタンどうしの間の空いた領域を押ボタン領域外としてもよい。この場合、押ボタン311と重なるように指を置くと、タップ動作に適した、相対的に広い境界領域が設定され、押ボタン311から外れた領域に指を置くと、ドラッグ動作やフリック動作に適した、相対的に狭い境界領域が設定される。   The area referred to here may be an area where the display screen 141a is widely divided as described with reference to FIG. 11, but is not limited thereto. For example, in the menu image 31 shown in FIGS. 7 and 8, the space between the adjacent push buttons 311 is vacant. Therefore, only the inside of the push button 311 that traces the outer shape of the mark may be set as the push button area, and the empty area between the adjacent push buttons may be set outside the push button area. In this case, when a finger is placed so as to overlap the push button 311, a relatively wide boundary region suitable for the tap operation is set, and when the finger is placed in a region away from the push button 311, the drag operation or the flick operation is performed. A suitable relatively narrow boundary region is set.

また、この図13に示す、画像の領域ごとの境界領域の設定と、図6に示す、画像ごとの境界領域の設定とを組み合わせてもよい。   The setting of the boundary area for each area of the image shown in FIG. 13 and the setting of the boundary area for each image shown in FIG. 6 may be combined.

すなわち、画像を、押ボタン領域内と押ボタン領域外とに区分し、かつ、押ボタン領域内であっても画像ごとに境界領域の形状や寸法を変更し、あるいは、押ボタン領域外であっても画像ごとに境界領域の形状や寸法を変更してもよい。   In other words, the image is divided into the push button area and the outside of the push button area, and the shape and dimensions of the boundary area are changed for each image even within the push button area, or the image is outside the push button area. However, the shape and size of the boundary region may be changed for each image.

例えば、図7に示すメニュー画像31と図9に示す「出力形式」のサブメニュー画像321とでは、いずれも押ボタン領域内であっても境界領域D1,D2の形状や寸法が異なっている。   For example, in the menu image 31 shown in FIG. 7 and the “output format” submenu image 321 shown in FIG. 9, the shapes and dimensions of the boundary areas D1 and D2 are different even in the push button area.

この図13に示す、画像の領域ごとの境界領域の設定と、図6に示す、画像ごとの境界領域の設定とを組み合わせると、同種の領域(例えば押ボタン領域)であっても画像ごとに境界領域の形状や寸法を変更することができる。   Combining the setting of the boundary area for each image area shown in FIG. 13 and the setting of the boundary area for each image shown in FIG. 6, even for the same kind of area (for example, a push button area), The shape and dimensions of the boundary area can be changed.

このように、上述の各種実施形態によれば、図3を参照して説明した誤検知の発生が抑えられ、操作性のよい複合機10が実現する。   As described above, according to the above-described various embodiments, the occurrence of the erroneous detection described with reference to FIG.

ここでは、本発明を図1,図2に示す複合機10に適用した例について説明したが、本発明の画像形成装置は、複合機である必要はなく、コピー機能のみを持つコピー機であってもよく、スキャナ機能のないプリンタであってもよく、あるいはファクシミリ機能のみを備えた装置であってもよい。また、本発明の画像形成装置は、画像を形成する方式も電子写真方式に限られるものではなく、インクジェット方式、感熱方式等、画像を形成する方式の如何を問うものではない。   Here, an example in which the present invention is applied to the multifunction machine 10 shown in FIGS. 1 and 2 has been described. However, the image forming apparatus of the present invention does not have to be a multifunction machine, and is a copier having only a copy function. Alternatively, it may be a printer without a scanner function or an apparatus having only a facsimile function. In the image forming apparatus of the present invention, the method for forming an image is not limited to the electrophotographic method, and any method for forming an image, such as an ink jet method or a heat sensitive method, may be used.

さらに本発明のタッチパネル装置は、画像形成装置のみに適用されるものではなく、ユーザとの間で情報のやりとりをする必要のある装置に広く適用することができる。   Furthermore, the touch panel device of the present invention is not applied only to an image forming apparatus, but can be widely applied to devices that need to exchange information with a user.

2 指
10 複合機
11 スキャナ
12 プリンタ
13 用紙トレイ
14 ユーザインタフェース(UI)
15 ファクシミリ送受信部
16 ネットワークインタフェース部
17 制御部
71 画像描画部
72 操作判定部
73 境界設定部
141 タッチパネル
141a 表示画面
141b タッチセンサ
171 UIコントローラ
171a UI制御装置
171b 描画・操作判別装置
2 fingers 10 MFP 11 scanner 12 printer 13 paper tray 14 user interface (UI)
DESCRIPTION OF SYMBOLS 15 Facsimile transmission / reception part 16 Network interface part 17 Control part 71 Image drawing part 72 Operation determination part 73 Boundary setting part 141 Touch panel 141a Display screen 141b Touch sensor 171 UI controller 171a UI control apparatus 171b Drawing / operation discrimination | determination apparatus

Claims (2)

画像表示を担う表示画面該表示画面上の接触位置の検出を担うセンサを備えたタッチパネル、および
前記表示画面に画像を描画する画像描画部と、前記表示画面への接触開始点を含み前記画像描画部により描画される画像もしくは該画像上の領域に応じた広がりを有する境界領域を設定する境界設定部と、前記表示画面への接触を検知した後接触開始点を含むように設定された境界領域を越える接触点の移動なしに該表示画面からの離間を検出した第1の操作モードと、該表示画面への接触を検出し該境界領域を越える接触点の移動の後に該表示画面からの離間を検出した第2の操作モードとを判別する操作判別部とを備えた描画・操作判別装置を備え
前記画像描画部により描画される画像もしくは該画像上の領域が、前記第2の操作モードによる操作を横方向についてのみ受け付け、該第2の操作モードによる操作を縦方向には受け付けない画像もしくは該画像上の領域である場合に、前記境界設定部が、横幅よりも縦に長い境界領域を設定するものであることを特徴とするタッチパネル装置。
Including an image drawing unit that draws a touch panel, and an image on the display screen and a sensor responsible for detecting the contact position on the display screen and the display screen serving for a display image, a contact touch start point to the display screen a boundary setting unit that sets a boundary region that have a spread corresponding to the areas on the image or the image is drawn by viewing before Symbol image drawing unit, a contact start point after detecting contact to the display screen A first operation mode in which separation from the display screen is detected without movement of the contact point exceeding the boundary region set to include, and movement of the contact point exceeding the boundary region by detecting contact to the display screen a second operating mode and draws-operation determination equipment having an operation determination unit for determining that detected the spaced from the display screen after,
An image drawn by the image drawing unit or an area on the image accepts an operation in the second operation mode only in the horizontal direction and an image in which the operation in the second operation mode is not accepted in the vertical direction The touch panel device according to claim 1, wherein, in the case of an area on an image, the boundary setting unit sets a boundary area that is longer than a horizontal width .
請求項1記載のタッチパネル装置と、前記タッチパネル装置での操作に応じた画像形成処理を実行する画像形成部とを備えたことを特徴とする画像形成装置。An image forming apparatus comprising: the touch panel device according to claim 1; and an image forming unit that executes an image forming process according to an operation on the touch panel device.
JP2013219781A 2013-10-23 2013-10-23 Touch panel device and image forming apparatus Active JP6221622B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013219781A JP6221622B2 (en) 2013-10-23 2013-10-23 Touch panel device and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013219781A JP6221622B2 (en) 2013-10-23 2013-10-23 Touch panel device and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2015082210A JP2015082210A (en) 2015-04-27
JP6221622B2 true JP6221622B2 (en) 2017-11-01

Family

ID=53012779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013219781A Active JP6221622B2 (en) 2013-10-23 2013-10-23 Touch panel device and image forming apparatus

Country Status (1)

Country Link
JP (1) JP6221622B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7119408B2 (en) * 2018-02-15 2022-08-17 コニカミノルタ株式会社 Image processing device, screen handling method, and computer program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101185634B1 (en) * 2007-10-02 2012-09-24 가부시키가이샤 아쿠세스 Terminal device, link selection method, and computer-readable recording medium stored thereon display program
JP5418187B2 (en) * 2009-12-02 2014-02-19 ソニー株式会社 Contact operation determination device, contact operation determination method, and program
JP5479414B2 (en) * 2010-11-24 2014-04-23 キヤノン株式会社 Information processing apparatus and control method thereof

Also Published As

Publication number Publication date
JP2015082210A (en) 2015-04-27

Similar Documents

Publication Publication Date Title
US11106348B2 (en) User interface apparatus, image forming apparatus, content operation method, and control program
US9189140B2 (en) Image processing apparatus, control method thereof and storage medium storing program
JP5894454B2 (en) Image forming apparatus, control method thereof, and program
JP5945926B2 (en) Operation display device
JP6399834B2 (en) Information processing apparatus, information processing apparatus control method, and program
CN108513029B (en) Image processing apparatus, control method of image processing apparatus, and storage medium
WO2013121770A1 (en) Image processing apparatus, method for controlling the same, and storage medium
JP6141221B2 (en) Numerical input device and electronic device
US11630565B2 (en) Image processing apparatus, control method for image processing apparatus, and recording medium for displaying a screen with inverted colors
US11789587B2 (en) Image processing apparatus, control method for image processing apparatus, and storage medium
US9417771B2 (en) Information processing apparatus, information processing method, and computer readable-recording medium
KR102105492B1 (en) Information processing apparatus, control method of information processing apparatus, and storage medium
US10691293B2 (en) Display device and computer-readable non-transitory recording medium with display control program stored thereon
US10506116B2 (en) Image processing apparatus causing display to display images, method, and non-transitory computer-readable recording medium storing computer-readable instructions
JP6221622B2 (en) Touch panel device and image forming apparatus
US20180220018A1 (en) Image processing apparatus, method for displaying conditions, and non-transitory recording medium storing computer readable program
US20160156793A1 (en) Operation display apparatus and input method thereto
US9819817B2 (en) Display input device and method of controlling display input device
JP2018124613A (en) Display device and display program
JP6014558B2 (en) Display device
JP6190925B2 (en) Display device
JP6179785B2 (en) Operation display program
JP2020119323A (en) Information processing device and program
JP2017157118A (en) Image processing device, display input device, process execution method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170918

R150 Certificate of patent or registration of utility model

Ref document number: 6221622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350