JP6394757B2 - Image forming apparatus - Google Patents

Image forming apparatus Download PDF

Info

Publication number
JP6394757B2
JP6394757B2 JP2017138074A JP2017138074A JP6394757B2 JP 6394757 B2 JP6394757 B2 JP 6394757B2 JP 2017138074 A JP2017138074 A JP 2017138074A JP 2017138074 A JP2017138074 A JP 2017138074A JP 6394757 B2 JP6394757 B2 JP 6394757B2
Authority
JP
Japan
Prior art keywords
hand
touch panel
image
finger
hands
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017138074A
Other languages
Japanese (ja)
Other versions
JP2017224314A (en
Inventor
匡晃 坂
匡晃 坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017138074A priority Critical patent/JP6394757B2/en
Publication of JP2017224314A publication Critical patent/JP2017224314A/en
Application granted granted Critical
Publication of JP6394757B2 publication Critical patent/JP6394757B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、MFP(マルチ・ファンクション・ペリフェラル(Multi-Functional Peripheral))などの画像形成装置に関する。   The present invention relates to an image forming apparatus such as an MFP (Multi-Functional Peripheral).

MFPなどの画像形成装置においては、タッチパネルを有する操作部が設けられている。操作者は、当該タッチパネルに対する押下操作を用いて、画像形成装置に対する各種の操作入力指示を付与することが可能である。   In an image forming apparatus such as an MFP, an operation unit having a touch panel is provided. An operator can give various operation input instructions to the image forming apparatus by using a pressing operation on the touch panel.

また、タッチパネルを有する操作部に対しては、片手(右手あるいは左手)の一本指を用いた操作が行われる(特許文献1参照)。   An operation using a single finger (right hand or left hand) is performed on an operation unit having a touch panel (see Patent Document 1).

特開2012−108674号公報JP 2012-108674 A

タッチパネルに対する操作は、片手の一本指を用いて行われることが多い。また、片手の二本指を用いた操作も存在する。いずれにしても、MFPに対する操作は、通常、片手で行われる。   Operations on the touch panel are often performed using one finger of one hand. There is also an operation using two fingers of one hand. In any case, the operation on the MFP is usually performed with one hand.

しかしながら、片手による操作のみならず両手による操作もが受け付けられることによれば、MFPに対する操作性をさらに向上させることが可能である。   However, by accepting not only an operation with one hand but also an operation with both hands, the operability for the MFP can be further improved.

そこで、本発明は、片手による操作のみならず両手による操作をも受け付けることが可能な画像形成装置を提供することを課題とする。   Therefore, an object of the present invention is to provide an image forming apparatus that can accept not only an operation with one hand but also an operation with both hands.

上記課題を解決すべく、請求項1の発明は、画像形成装置であって、操作者からの操作入力を受け付けるタッチパネルと、前記タッチパネルに対する操作を行っている前記操作者の両手のうちの一方の手である第1の手を検知する第1検知手段と、前記両手のうちの他方の手である第2の手を検知する第2検知手段と、前記第1検知手段により前記第1の手が検知され且つ前記第2検知手段により前記第2の手が検知されるときには、両手モードによる操作が行われている旨を判定し、前記第1検知手段および前記第2検知手段により前記両手のうちの一の手のみが検知されるときには、片手モードによる操作が行われている旨を判定し、前記片手モードと前記両手モードとのいずれによる操作が行われているかに関する判定結果に基づいて、前記タッチパネルに対する操作内容を判定する判定手段と、前記判定手段による判定結果に応じた動作を実行する動作制御手段と、を備え、前記判定手段は、前記タッチパネルにて異なる2つの位置に対する押下操作が検出される場合、前記片手モードと前記両手モードとのいずれによる操作が行われているかに関する判定結果に基づいて、前記片手による二本指操作が行われている状況と前記両手のそれぞれによって一本指操作が行われている状況とを区別して判定し、前記タッチパネルにて異なる2つの位置に対する押下操作が検出される場合において、前記第1検知手段と前記第2検知手段とにより前記両手のうちの片手のみが検知され前記片手モードによる操作が行われている旨の判定結果が得られるときには、前記片手による二本指操作が行われている状況である旨を当該判定結果に基づいて判定し、前記タッチパネルにて異なる2つの位置に対する押下操作が検出される場合において、前記第1検知手段と前記第2検知手段とにより前記両手の双方が検知され前記両手モードによる操作が行われている旨の判定結果が得られるときには、前記両手のそれぞれによって一本指操作が行われている状況である旨を当該判定結果に基づいて判定することを特徴とする。 In order to solve the above-mentioned problem, the invention of claim 1 is an image forming apparatus, which is a touch panel that receives an operation input from an operator, and one of both hands of the operator performing an operation on the touch panel. A first detection means for detecting a first hand that is a hand; a second detection means for detecting a second hand that is the other hand of the two hands; and the first hand by the first detection means. Is detected and the second detection means detects the second hand, it is determined that an operation in a two-hand mode is being performed, and the first detection means and the second detection means detect the both hands. When only one of the hands is detected, it is determined that the operation in the one-handed mode is being performed, and based on the determination result regarding which of the one-handed mode or the two-handed mode is being performed. Determining means for determining the operation contents for the touch panel, and an operation control means for performing an operation corresponding to the determination result by said determining means, said determining means, pressing operation on the two different positions in the touch panel If it is detected, based on the determination result regarding whether the one-handed mode or the two-handed mode is being operated, the situation where the one-handed two-finger operation is being performed and one for each of the two hands In a case where a determination is made by distinguishing the situation where a finger operation is being performed and a pressing operation on two different positions is detected on the touch panel, the first detection means and the second detection means when the determination result indicating that only one-handed operation by the single hand mode is detected is being performed is obtained, the double by the hand The effect is a situation where a finger operation is being performed is determined based on the determination result, when the pressing operation on the two different positions in the touch panel is detected, the first detection means and said second detecting means the determination to the effect that the when both the determination that operation by detected the hands mode is performed results of both hands are obtained, one finger operation by each of the hands is a situation which is carried out by the The determination is based on the result .

請求項2の発明は、請求項1の発明に係る画像形成装置において、前記判定手段は、前記第1検知手段と前記第2検知手段とにより前記両手のうちの片手のみが検知され且つ前記タッチパネル上の単一の位置に対する押下操作が行われるときには、前記片手による一本指操作が行われている旨を判定し、前記第1検知手段と前記第2検知手段とにより前記両手の双方が検知され且つ前記タッチパネル上の異なる4つの位置に対する押下操作が行われるときには、前記両手のそれぞれによって二本指操作が行われている旨を判定することを特徴とする。 According to a second aspect of the present invention, in the image forming apparatus according to the first aspect of the invention, the determination unit detects only one hand of the two hands by the first detection unit and the second detection unit, and the touch panel. When a pressing operation is performed on a single upper position, it is determined that a one-finger operation with the one hand is being performed, and both the hands are detected by the first detection unit and the second detection unit. In addition, when a pressing operation is performed on four different positions on the touch panel, it is determined that a two-finger operation is performed by each of the two hands.

請求項3の発明は、請求項2の発明に係る画像形成装置において、前記判定手段は、前記第1検知手段と前記第2検知手段とにより前記両手の双方が検知され且つ前記タッチパネル上の異なる3つの位置に対する押下操作が行われるときには、前記両手のうちの一の手によって二本指操作が行われ且つ、前記両手のうちの他の手によって一本指操作が行われている旨を判定することを特徴とする。 According to a third aspect of the present invention, in the image forming apparatus according to the second aspect of the invention, the determination unit detects both the hands by the first detection unit and the second detection unit, and is different on the touch panel. When a pressing operation is performed on three positions, it is determined that a two-finger operation is performed by one hand of the two hands and a one-finger operation is performed by the other hand of the two hands. It is characterized by doing.

請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る画像形成装置において、前記タッチパネルは、第1の画像と第2の画像とを表示し、前記動作制御手段は、前記第1の手による前記一本指操作に応じて前記第1の画像の移動動作を実行し、前記第2の手による前記一本指操作に応じて前記第2の画像の移動動作を実行し、前記第1の手による前記二本指操作に応じて前記第1の画像の回転動作および/または変倍動作を実行し、前記第2の手による前記二本指操作に応じて前記第2の画像の回転動作および/または変倍動作を実行することを特徴とする。 According to a fourth aspect of the present invention, in the image forming apparatus according to any one of the first to third aspects, the touch panel displays a first image and a second image, and the operation control unit includes: The moving operation of the first image is executed in response to the one-finger operation by the first hand, and the moving operation of the second image is executed in response to the one-finger operation by the second hand. Then, a rotation operation and / or a scaling operation of the first image is executed in response to the two-finger operation by the first hand, and the second finger operation is executed in response to the two-finger operation by the second hand. The rotation operation and / or scaling operation of the second image is performed.

請求項5の発明は、請求項4の発明に係る画像形成装置において、前記第1の画像は、両面プレビューにおける表面画像であり、前記第2の画像は、前記両面プレビューにおける裏面画像であり、前記タッチパネルにおいて、前記表面画像と前記裏面画像とは互いに重複して表示されていることを特徴とする。 According to a fifth aspect of the invention, in the image forming apparatus according to the fourth aspect of the invention, the first image is a front image in a double-sided preview, and the second image is a back side image in the double-sided preview, In the touch panel, the front image and the back image are displayed overlapping each other.

請求項6の発明は、請求項4の発明に係る画像形成装置において、前記第1の画像は、前記タッチパネル内における左右方向における一方側に配置された画像であり、前記第2の画像は、前記タッチパネル内における左右方向における他方側に配置された画像であり、前記タッチパネルにおいて、前記第1の画像と前記第2の画像とは互いに離間されて表示されていることを特徴とする。 According to a sixth aspect of the invention, in the image forming apparatus according to the fourth aspect of the invention, the first image is an image arranged on one side in the left-right direction in the touch panel, and the second image is It is an image disposed on the other side in the left-right direction in the touch panel, and the first image and the second image are displayed separately from each other on the touch panel.

請求項7の発明は、請求項1ないし請求項3のいずれかの発明に係る画像形成装置において、前記動作制御手段は、入力欄を含む操作画面が前記タッチパネルに表示されている場合において、前記両手モードによる操作が行われた旨が前記判定手段により判定されるときには、前記入力欄に対する入力用のキーボード入力画像を前記タッチパネルに表示することを特徴とする。 According to a seventh aspect of the present invention, in the image forming apparatus according to any one of the first to third aspects, the operation control means is configured such that the operation screen including an input field is displayed on the touch panel. When the determination unit determines that an operation in the two-hand mode has been performed, a keyboard input image for input to the input field is displayed on the touch panel.

請求項8の発明は、請求項1ないし請求項3のいずれかの発明に係る画像形成装置において、前記動作制御手段は、入力欄を含む操作画面が前記タッチパネルに表示されている場合において、前記両手のそれぞれによって一本指操作が行われている旨が前記判定手段により判定されるときには、前記入力欄に対する文字入力用のキーボード入力画像を前記タッチパネルに表示し、前記片手による前記二本指操作が行われている旨が前記判定手段により判定されるときには、前記入力欄に対する数字入力用のソフトウエアテンキー画像を前記タッチパネルに表示することを特徴とする。 According to an eighth aspect of the present invention, in the image forming apparatus according to any one of the first to third aspects, the operation control means is configured such that the operation screen including an input field is displayed on the touch panel. When the determination means determines that a one-finger operation is being performed by each of both hands, a keyboard input image for character input to the input field is displayed on the touch panel, and the two-finger operation with the one hand When it is determined by the determining means that the number is being performed, a software numeric keypad image for inputting numbers in the input field is displayed on the touch panel.

請求項1ないし請求項8に記載の発明によれば、片手による操作のみならず両手による操作をも受け付けることが可能である。 According to the first to eighth aspects of the invention, it is possible to accept not only an operation with one hand but also an operation with both hands.

特に、請求項1に記載の発明によれば、タッチパネル内にて2つの位置に対する押下操作が行われている場合において、両手それぞれによる一本指操作と片手による二本指操作とが良好に区別され得る。 In particular, according to the first aspect of the present invention, when a pressing operation is performed on two positions in the touch panel, one-finger operation with both hands and two-finger operation with one hand are well distinguished. Can be done.

また特に、請求項4に記載の発明によれば、2つの画像に関して、操作者は、第1の手で第1の画像を操作し、第2の手で第2の画像を操作することが可能である。また、操作者は、一本指操作と二本指操作とを区別して用いることによって、各画像に関する移動動作と回転動作等とをそれぞれ実現することが可能である。 In particular, according to the invention described in claim 4 , regarding two images, the operator can operate the first image with the first hand and operate the second image with the second hand. Is possible. In addition, the operator can realize a moving operation, a rotating operation, and the like for each image by distinguishing between the single-finger operation and the two-finger operation.

また特に、請求項7に記載の発明によれば、両手モードによる操作が行われた旨が判定手段により判定されるときには、入力欄に対する入力用のキーボード入力画像がタッチパネルに自動的に表示されるので、操作者の操作性を向上させることが可能である。 In particular, according to the invention described in claim 7 , when the determination means determines that the operation in the two-hand mode has been performed, the keyboard input image for input to the input field is automatically displayed on the touch panel. Therefore, the operability for the operator can be improved.

第1実施形態に係る画像形成装置の外観を示す図である。1 is a diagram illustrating an appearance of an image forming apparatus according to a first embodiment. 画像形成装置の機能ブロックを示す図である。It is a figure which shows the functional block of an image forming apparatus. 操作パネル部を示す図である。It is a figure which shows an operation panel part. 画像形成装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image forming apparatus. 右手一本指操作を示す図である。It is a figure which shows right-hand one finger operation. 左手一本指操作を示す図である。It is a figure which shows left-hand one finger operation. 両手各一本指操作を示す図である。It is a figure which shows one finger operation of both hands. 右手二本指操作を示す図である。It is a figure which shows right-handed two-finger operation. 左手二本指操作を示す図である。It is a figure which shows left-handed two-finger operation. 両手各二本指操作を示す図である。It is a figure which shows two-finger operation for both hands. 右手二本指操作と左手一本指操作とを示す図である。It is a figure which shows right-hand two-finger operation and left-hand one-finger operation. 近接センサの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a proximity sensor. 近接センサの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a proximity sensor. 近接センサの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a proximity sensor. 近接センサの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a proximity sensor. 近接センサの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a proximity sensor. 第2実施形態に係る操作を示す図である。It is a figure which shows operation which concerns on 2nd Embodiment. 第2実施形態に係る操作を示す図である。It is a figure which shows operation which concerns on 2nd Embodiment. 第3実施形態に係る操作を示す図である。It is a figure which shows operation which concerns on 3rd Embodiment. 文字入力用のソフトウエアキーボードが表示された様子を示す図である。It is a figure which shows a mode that the software keyboard for character input was displayed. 第3実施形態に係る操作を示す図である。It is a figure which shows operation which concerns on 3rd Embodiment. 数字入力用のソフトウエアキーボードが表示された様子を示す図である。It is a figure which shows a mode that the software keyboard for number input was displayed. 第4実施形態に係る画面遷移を示す図である。It is a figure which shows the screen transition which concerns on 4th Embodiment. 第4実施形態に係る画面遷移を示す図である。It is a figure which shows the screen transition which concerns on 4th Embodiment. 第4実施形態に係る画面遷移を示す図である。It is a figure which shows the screen transition which concerns on 4th Embodiment. 比較例に係る画面遷移を示す図である。It is a figure which shows the screen transition which concerns on a comparative example. 比較例に係る画面遷移を示す図である。It is a figure which shows the screen transition which concerns on a comparative example. 比較例に係る画面遷移を示す図である。It is a figure which shows the screen transition which concerns on a comparative example. 比較例に係る画面遷移を示す図である。It is a figure which shows the screen transition which concerns on a comparative example. 近接センサの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a proximity sensor. 近接センサの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a proximity sensor.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1実施形態>
<1−1.構成概要>
図1は、第1実施形態に係る画像形成装置10(10Aとも称する)の外観を示す図であり、図2は、画像形成装置10の機能ブロックを示す図である。ここでは、画像形成装置10として、MFP(マルチ・ファンクション・ペリフェラル(Multi-Functional Peripheral))を例示する。
<1. First Embodiment>
<1-1. Outline of configuration>
FIG. 1 is a diagram illustrating an appearance of an image forming apparatus 10 (also referred to as 10A) according to the first embodiment, and FIG. 2 is a diagram illustrating functional blocks of the image forming apparatus 10. Here, an MFP (Multi-Functional Peripheral) is exemplified as the image forming apparatus 10.

MFP10は、スキャン機能、コピー機能、ファクシミリ機能およびボックス格納機能などを備える装置(複合機とも称する)である。具体的には、MFP10は、図2の機能ブロック図に示すように、画像読取部2、印刷出力部3、通信部4、格納部5、操作部6およびコントローラ9等を備えており、これらの各部を複合的に動作させることによって、各種の機能を実現する。   The MFP 10 is a device (also referred to as a multi-function device) having a scan function, a copy function, a facsimile function, a box storage function, and the like. Specifically, as shown in the functional block diagram of FIG. 2, the MFP 10 includes an image reading unit 2, a print output unit 3, a communication unit 4, a storage unit 5, an operation unit 6, a controller 9, and the like. Various functions are realized by operating each part of the above in a complex manner.

画像読取部2は、MFP10の所定の位置に載置された原稿を光学的に読み取って(すなわちスキャンして)、当該原稿の画像データ(原稿画像なしいスキャン画像とも称する)を生成する処理部である。この画像読取部2は、スキャン部であるとも称される。   The image reading unit 2 optically reads (that is, scans) a document placed at a predetermined position of the MFP 10 and generates image data of the document (also referred to as a scanned image). It is. The image reading unit 2 is also referred to as a scanning unit.

印刷出力部3は、印刷対象に関するデータに基づいて紙などの各種の媒体に画像を印刷出力する出力部である。   The print output unit 3 is an output unit that prints out an image on various media such as paper based on data related to a print target.

通信部4は、公衆回線等を介したファクシミリ通信を行うことが可能な処理部である。さらに、通信部4は、ネットワークNWを介したネットワーク通信を行うことも可能である。このネットワーク通信では、たとえば、TCP/IP(Transmission Control Protocol / Internet Protocol)等の各種のプロトコルが利用される。当該ネットワーク通信を利用することによって、MFP10は、所望の相手先との間で各種のデータを授受することが可能である。   The communication unit 4 is a processing unit capable of performing facsimile communication via a public line or the like. Further, the communication unit 4 can perform network communication via the network NW. In this network communication, for example, various protocols such as TCP / IP (Transmission Control Protocol / Internet Protocol) are used. By using the network communication, the MFP 10 can exchange various data with a desired destination.

格納部5は、ハードディスクドライブ(HDD)等の記憶装置で構成される。格納部5は、印刷ジョブに係るデータ等を記憶する。   The storage unit 5 includes a storage device such as a hard disk drive (HDD). The storage unit 5 stores data related to the print job.

操作部(ユーザインターフェイス部とも称する)6は、MFP10に対する入力を受け付ける操作入力部6aと、各種情報の表示出力を行う表示部6bとを備えている。   The operation unit (also referred to as a user interface unit) 6 includes an operation input unit 6a that receives an input to the MFP 10 and a display unit 6b that displays and outputs various types of information.

このMFP10においては、略板状の操作パネル部6c(図1参照)が設けられている。また、操作パネル部6cは、その正面側にタッチパネル25(図1参照)を有している。タッチパネル25は、液晶表示パネルに圧電センサ等が埋め込まれて構成され、各種情報を表示するとともに操作者からの操作入力を受け付けることが可能である。たとえば、タッチパネル25においては、メニュー画像(ボタン画像等を含む)が表示される。操作者は、タッチパネル25内に仮想的に配置されるボタン(ボタン画像で表現されるボタン)を押下することによって、画像形成装置10の各種動作内容を設定することなどが可能である。タッチパネル25は、操作入力部6aの一部としても機能するとともに、表示部6bの一部としても機能する。   The MFP 10 is provided with a substantially plate-like operation panel unit 6c (see FIG. 1). Further, the operation panel unit 6c has a touch panel 25 (see FIG. 1) on the front side thereof. The touch panel 25 is configured by embedding a piezoelectric sensor or the like in a liquid crystal display panel, and can display various kinds of information and accept an operation input from an operator. For example, on the touch panel 25, menu images (including button images and the like) are displayed. The operator can set various operation contents of the image forming apparatus 10 by pressing a button (button represented by a button image) virtually arranged in the touch panel 25. The touch panel 25 functions as a part of the operation input unit 6a and also functions as a part of the display unit 6b.

また、操作パネル部6cは、図3に示すように、タッチパネル25の周囲において近接センサ21(21a,21b)を有する。具体的には、略矩形状のタッチパネル25の右辺の近傍領域において近接センサ21aが設けられ、タッチパネル25の左辺の近傍領域において近接センサ21bが設けられる。右側の近接センサ21aは、タッチパネル25に対して操作を行っている操作者の右手を検知する検知手段として機能する。より詳細には、近接センサ21aは、操作者の右手がタッチパネル25上および/またはタッチパネルの近傍に存在することを検知する。同様に、左側の近接センサ21bは、タッチパネル25に対して操作を行っている操作者の左手を検知する検知手段として機能する。より詳細には、近接センサ21bは、操作者の左手がタッチパネル25上および/またはタッチパネルの近傍に存在することを検知する。   Further, the operation panel unit 6c includes a proximity sensor 21 (21a, 21b) around the touch panel 25 as shown in FIG. Specifically, the proximity sensor 21 a is provided in a region near the right side of the substantially rectangular touch panel 25, and the proximity sensor 21 b is provided in a region near the left side of the touch panel 25. The right proximity sensor 21 a functions as a detection unit that detects the right hand of the operator who is operating the touch panel 25. More specifically, the proximity sensor 21a detects that the operator's right hand is present on the touch panel 25 and / or in the vicinity of the touch panel. Similarly, the left proximity sensor 21 b functions as a detection unit that detects the left hand of the operator who is operating the touch panel 25. More specifically, the proximity sensor 21b detects that the left hand of the operator exists on the touch panel 25 and / or in the vicinity of the touch panel.

コントローラ9は、MFP10に内蔵され、MFP10を統括的に制御する制御装置である。コントローラ9は、CPUおよび各種の半導体メモリ(RAMおよびROM)等を備えるコンピュータシステムとして構成される。コントローラ9は、CPUにおいて、ROM(例えば、EEPROM)内に格納されている所定のソフトウエアプログラム(以下、単にプログラムとも称する)PG1を実行することによって、各種の処理部を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)PG1は、USBメモリなどの可搬性の記録媒体、あるいはネットワークNW等を介してMFP10にインストールされてもよい。   The controller 9 is a control device that is built in the MFP 10 and controls the MFP 10 in an integrated manner. The controller 9 is configured as a computer system including a CPU and various semiconductor memories (RAM and ROM). The controller 9 implements various processing units by executing a predetermined software program (hereinafter also simply referred to as a program) PG1 stored in a ROM (for example, EEPROM) in the CPU. The program (specifically, a program module group) PG1 may be installed in the MFP 10 via a portable recording medium such as a USB memory, or a network NW.

具体的には、図2に示すように、コントローラ9は、プログラムPG1の実行により、判定部12と動作制御部14とを含む各種の処理部を実現する。   Specifically, as shown in FIG. 2, the controller 9 realizes various processing units including a determination unit 12 and an operation control unit 14 by executing a program PG1.

判定部12は、近接センサ21aによる検知結果および近接センサ21bによる検知結果等に基づいてタッチパネル25に対する操作内容を判定する処理部である。   The determination unit 12 is a processing unit that determines the operation content for the touch panel 25 based on the detection result by the proximity sensor 21a, the detection result by the proximity sensor 21b, and the like.

動作制御部14は、判定部12による判定結果に応じた動作を実行する処理部である。動作制御部14は、操作者からの操作入力(操作指示)に基づき、タッチパネル25における表示動作を制御する。また、動作制御部14は、画像形成装置10における印刷出力動作およびスキャン動作などの各種動作を制御する。   The operation control unit 14 is a processing unit that executes an operation according to the determination result by the determination unit 12. The operation control unit 14 controls the display operation on the touch panel 25 based on an operation input (operation instruction) from the operator. The operation control unit 14 controls various operations such as a print output operation and a scan operation in the image forming apparatus 10.

<1−2.動作>
<概要>
図3は、操作パネル部6cを示す図である。以下では、操作パネル部6cのタッチパネル25に両面プレビューが表示されるとともに、両面プレビューの表(おもて)面の画像と裏面の画像との2つの画像を、操作者の両手あるいは片手を用いて操作する態様について、さらに詳細に説明する。この両面プレビューでは、表(おもて)面画像GAと裏面画像GBとが互いに重複して表示される(図5等参照)。当該両面プレビューにおいては、操作者の操作に応じて、用紙PA内での表面画像GAの位置および大きさ等、ならびに用紙PA内での裏面画像GBの位置および大きさ等をそれぞれ変更(調整)することが可能である。
<1-2. Operation>
<Overview>
FIG. 3 is a diagram showing the operation panel unit 6c. In the following, a double-sided preview is displayed on the touch panel 25 of the operation panel unit 6c, and two images, a front side image and a back side image, are used with both hands or one hand of the operator. The mode of operation will be described in more detail. In this double-sided preview, the front (front) face image GA and the back face image GB are displayed overlapping each other (see FIG. 5 etc.). In the double-sided preview, the position and size of the front image GA in the paper PA and the position and size of the back image GB in the paper PA are changed (adjusted) according to the operation of the operator. Is possible.

上述のように、タッチパネル25の右側に隣接配置された近接センサ21aは、タッチパネル25に対して操作を行っている操作者の右手を検知する。また、タッチパネル25の左側に隣接配置された近接センサ21bは、タッチパネル25に対して操作を行っている操作者の左手を検知する。   As described above, the proximity sensor 21 a disposed adjacent to the right side of the touch panel 25 detects the right hand of the operator who is operating the touch panel 25. The proximity sensor 21 b disposed adjacent to the left side of the touch panel 25 detects the left hand of the operator who is operating the touch panel 25.

また、判定部12(図2)は、近接センサ21aにより操作者の右手が検知され且つ近接センサ21bにより操作者の左手が検知されるときには、両手モード(両手によって操作指示が付与されるモード)による操作が行われている旨を判定する。   Further, the determination unit 12 (FIG. 2) is configured to use the two-hand mode (a mode in which an operation instruction is given by both hands) when the proximity sensor 21a detects the operator's right hand and the proximity sensor 21b detects the operator's left hand. It is determined that the operation according to is performed.

一方、近接センサ21a,21bのうち近接センサ21aのみが反応して操作者の右手のみが検知されるときには、判定部12は、片手モード(片手によって操作指示が付与されるモード)による操作が行われている旨を判定する。また、判定部12は、近接センサ21a,21bのうち近接センサ21bのみが反応して操作者の左手のみが検知されるときにも、片手モードによる操作が行われている旨を判定する。このように、近接センサ21a,21bにより操作者の両手のうちの一の手のみが検知されるときには、片手モードによる操作が行われている旨を判定する。   On the other hand, when only the proximity sensor 21a reacts and only the right hand of the operator is detected among the proximity sensors 21a and 21b, the determination unit 12 performs an operation in a one-hand mode (a mode in which an operation instruction is given by one hand). Judgment is made. The determination unit 12 also determines that the operation in the one-handed mode is being performed when only the proximity sensor 21b of the proximity sensors 21a and 21b reacts to detect only the left hand of the operator. Thus, when only one hand of the operator's hands is detected by the proximity sensors 21a and 21b, it is determined that the operation in the one-hand mode is being performed.

動作制御部14は、両手モードによる操作が行われている旨が判定される場合と片手モードによる操作が行われている旨が判定される場合とで、互いに異なる動作を実行する。   The operation control unit 14 performs different operations depending on whether it is determined that an operation in the two-handed mode is being performed or an operation in the one-handed mode is being performed.

また、この実施形態においては、操作者の右手および/または左手によって、一本指操作と二本指操作との双方が行われ得る。   In this embodiment, both the one-finger operation and the two-finger operation can be performed by the operator's right hand and / or left hand.

一本指操作は、操作対象画像を移動する指示(移動指示)を付与する操作として用いられる。また、二本指操作は、操作対象画像を回転する指示(回転指示)および/または変倍する指示(変倍指示)を付与する操作として用いられる。   The single finger operation is used as an operation for giving an instruction to move the operation target image (movement instruction). The two-finger operation is used as an operation for giving an instruction to rotate the operation target image (rotation instruction) and / or an instruction to change the magnification (magnification instruction).

また、判定部12は、近接センサ21a,21bによる判定結果とタッチパネル25内における押下操作位置の数とに応じて、両手モードと片手モードとのいずれの操作モードによる操作が行われているか、および一本指操作と二本指操作とのいずれの操作が行われているのか等を判定する。   In addition, the determination unit 12 determines whether the operation is performed in either the two-hand mode or the one-hand mode according to the determination result by the proximity sensors 21a and 21b and the number of pressing operation positions in the touch panel 25, and It is determined which one of the one-finger operation and the two-finger operation is being performed.

詳細には、近接センサ21a,21bにより両手のうちの一の手のみが検知され且つタッチパネル25上の単一の位置に対する押下操作が行われるときには、当該一の手による一本指操作が行われている旨が判定される。   Specifically, when only one of the two hands is detected by the proximity sensors 21a and 21b and a pressing operation is performed on a single position on the touch panel 25, a one-finger operation with the one hand is performed. Is determined.

また、近接センサ21a,21bにより両手の双方が検知され且つタッチパネル25上の異なる2つの位置に対する押下操作が行われるときには、両手のそれぞれによって一本指操作が行われている旨が判定される。   Further, when both hands are detected by the proximity sensors 21a and 21b and a pressing operation is performed on two different positions on the touch panel 25, it is determined that a one-finger operation is being performed by both hands.

近接センサ21a,21bにより両手の双方が検知され且つタッチパネル25上の異なる4つの位置に対する押下操作が行われるときには、両手のそれぞれによって二本指操作が行われている旨が判定される。   When both hands are detected by the proximity sensors 21a and 21b and pressing operations are performed on four different positions on the touch panel 25, it is determined that a two-finger operation is being performed by both hands.

近接センサ21a,21bにより両手のうちの一の手のみ(右手のみ或いは左手のみ)が検知され且つタッチパネル25上の異なる2つの位置に対する押下操作が行われるときには、当該一の手(右手あるいは左手)による二本指操作が行われている旨を判定する。   When only one of the two hands (only the right hand or only the left hand) is detected by the proximity sensors 21a and 21b and a pressing operation is performed on two different positions on the touch panel 25, the one hand (the right hand or the left hand) It is determined that a two-finger operation is being performed.

また、近接センサ21a,21bにより両手の双方が検知され且つタッチパネル25上の異なる3つの位置に対する押下操作が行われるときには、両手のうちの一の手(たとえば右手)によって二本指操作が行われ且つ、両手のうちの他の手(たとえば左手)によって一本指操作が行われている旨が判定される。   Further, when both hands are detected by the proximity sensors 21a and 21b and a pressing operation is performed on three different positions on the touch panel 25, a two-finger operation is performed with one of the two hands (for example, the right hand). In addition, it is determined that the one-finger operation is being performed by the other hand (for example, the left hand) of both hands.

以下では、このような動作判定を用いて、両面プレビュー画像の表(おもて)面の画像と裏面の画像との2つの画像を、右手と左手とでそれぞれ操作する態様について、さらに詳細に説明する。   In the following, a mode in which two images, a front image and a back image, of a double-sided preview image are operated with a right hand and a left hand using such an operation determination will be described in more detail. explain.

また、この実施形態においては、右手によるタッチパネル25の押下操作に応じて表(おもて)面画像GAに対する編集動作が行われ、左手によるタッチパネル25の押下に応じて裏面画像GBに対する編集動作が行われる。より詳細には、右手による一本指操作に応じて表面画像GAの移動動作が実行され、左手による一本指操作に応じて裏面画像GBの移動動作が実行される。また、右手による二本指操作に応じて表面画像GAの回転動作および/または変倍動作が実行され、左手による二本指操作に応じて裏面画像GBの回転動作および/または変倍動作が実行される。   Further, in this embodiment, an editing operation is performed on the front surface image GA in accordance with the pressing operation of the touch panel 25 with the right hand, and an editing operation on the back surface image GB is performed in accordance with the pressing of the touch panel 25 with the left hand. Done. More specifically, the movement operation of the front image GA is executed in response to a single finger operation with the right hand, and the movement operation of the back image GB is executed in response to a single finger operation with the left hand. Further, the rotation operation and / or scaling operation of the front image GA is executed according to the two-finger operation with the right hand, and the rotation operation and / or scaling operation of the back image GB is executed according to the two-finger operation with the left hand. Is done.

図4は、第1実施形態に係るMFP10の動作を示すフローチャートである。   FIG. 4 is a flowchart showing the operation of the MFP 10 according to the first embodiment.

ステップS11では、タッチパネル25に対する押下操作(タッチ操作)の有無が判定される。操作者による押下操作がなされた旨が判定されると、ステップS12に進む。   In step S11, it is determined whether or not there is a pressing operation (touch operation) on the touch panel 25. If it is determined that the pressing operation has been performed by the operator, the process proceeds to step S12.

ステップS12では、近接センサ21a,21bにより片手又は両手が検知されたか否かが判定される。近接センサ21a,21bの双方が反応した場合には両手モードによる操作が行われた旨が判定され、近接センサ21a,21bの一方のみが反応した場合には片手モードによる操作が行われた旨が判定される。   In step S12, it is determined whether one or both hands are detected by the proximity sensors 21a and 21b. When both the proximity sensors 21a and 21b have reacted, it is determined that the operation in the two-handed mode has been performed, and when only one of the proximity sensors 21a and 21b has reacted, the fact that the operation has been performed in the one-handed mode has been performed. Determined.

ステップS12において片手モードによる操作が行われた旨が判定される場合には、ステップS14に進む。ステップS14においては、片手モードに関する操作解析動作等が実行される。これにより、図5、図6、図8、および図9に示すような各タッチ動作が検知されるとともに、当該検知結果に応じた画像編集動作が実行される。   If it is determined in step S12 that the operation in the one-handed mode has been performed, the process proceeds to step S14. In step S14, an operation analysis operation or the like related to the one-hand mode is executed. Thereby, each touch operation as shown in FIGS. 5, 6, 8, and 9 is detected, and an image editing operation corresponding to the detection result is executed.

一方、ステップS12において両手モードによる操作が行われた旨が判定される場合には、ステップS16に進む。ステップS16においては、両手モードにおける操作解析動作等が実行される。これにより、図7、図10、図11等に示すような各タッチ動作が検知されるとともに、当該検知結果に応じた画像編集動作が実行される。   On the other hand, if it is determined in step S12 that the operation in the two-hand mode has been performed, the process proceeds to step S16. In step S16, an operation analysis operation or the like in the two-hand mode is executed. Thereby, each touch operation as shown in FIG. 7, FIG. 10, FIG. 11, etc. is detected, and an image editing operation corresponding to the detection result is executed.

以下では、図5〜図11を参照して各操作に関して詳細に説明する。   Below, with reference to FIGS. 5-11, it demonstrates in detail regarding each operation.

<右手一本指操作>
図5は、右手による一本指操作を示す図である。ここではまず、図5に示すように、操作者がその右手をタッチパネル25に向けて伸ばし、右手が近接センサ21aの近傍に存在する状態でタッチパネル25を右手の1本の指(たとえば人差し指)で押下(タッチ)する状況を想定する。
<Right-handed single finger operation>
FIG. 5 is a diagram illustrating a one-finger operation with the right hand. Here, first, as shown in FIG. 5, the operator extends his right hand toward the touch panel 25, and the right hand is in the vicinity of the proximity sensor 21a, and the touch panel 25 is moved with one finger (for example, index finger) of the right hand. Assume a situation of pressing (touching).

この状況では、近接センサ21aが当該近接センサ21a付近に右手が存在することを検知する。すなわち、近接センサ21aにより右手が検知される。一方、近接センサ21bは当該近接センサ21b付近に左手が存在しないことを検知する。すなわち、左手は近接センサ21bにより検知されず、タッチパネル25付近における左手の不存在が検知される。このように、近接センサ21a,21bのうち近接センサ21aのみが反応(「オン」)し、両手のうちの右手のみが検知される。   In this situation, the proximity sensor 21a detects that the right hand is present near the proximity sensor 21a. That is, the right hand is detected by the proximity sensor 21a. On the other hand, the proximity sensor 21b detects that there is no left hand near the proximity sensor 21b. That is, the left hand is not detected by the proximity sensor 21b, and the absence of the left hand in the vicinity of the touch panel 25 is detected. Thus, only the proximity sensor 21a reacts ("ON") among the proximity sensors 21a and 21b, and only the right hand of both hands is detected.

また、タッチパネル25においては、単一の位置PG1に対する押下操作が検出される。   On the touch panel 25, a pressing operation with respect to the single position PG1 is detected.

このように、近接センサ21a,21bにより両手のうちの右手のみが検知される場合において、タッチパネル25上の単一の位置に対する押下操作が検出されるときには、右手による一本指操作が行われている旨が判定される。なお、右手のみが検知される場合には、タッチパネル25内の任意の位置に対する押下操作が右手による押下操作であると判定される。   As described above, when only the right hand of both hands is detected by the proximity sensors 21a and 21b, when a pressing operation on a single position on the touch panel 25 is detected, a one-finger operation with the right hand is performed. Is determined to be present. When only the right hand is detected, it is determined that the pressing operation on an arbitrary position in the touch panel 25 is the pressing operation with the right hand.

そして、操作者の右手の一本指をタッチパネル25に接触させつつタッチパネル25上でスライドさせる操作に応じて、動作制御部14は、表面画像GAを任意の方向(上下左右方向)に移動する動作((並進)移動動作)を行う。   Then, the operation control unit 14 moves the surface image GA in an arbitrary direction (up / down / left / right direction) in accordance with an operation of sliding on the touch panel 25 while bringing one finger of the operator's right hand into contact with the touch panel 25. ((Translation) movement operation).

<左手一本指操作>
同様に、図6に示すように、操作者がその左手をタッチパネル25に向けて伸ばし、左手が近接センサ21bの近傍に存在する状態でタッチパネル25を左手の1本の指(たとえば人差し指)で押下(タッチ)する状況を想定する。
<Left-handed single finger operation>
Similarly, as shown in FIG. 6, the operator extends his left hand toward the touch panel 25, and presses the touch panel 25 with one finger of the left hand (for example, the index finger) in a state where the left hand is in the vicinity of the proximity sensor 21 b. Assume a situation of touching.

この状況では、近接センサ21bが当該近接センサ21b付近に左手が存在することを検知する。すなわち、近接センサ21bにより左手が検知される。一方、近接センサ21aは当該近接センサ21a付近に右手が存在しないことを検知する。すなわち、右手は近接センサ21aにより検知されず、タッチパネル25付近における右手の不存在が検知される。このように、近接センサ21a,21bのうち近接センサ21bのみが反応(「オン」)し、両手のうちの左手のみが検知される。   In this situation, the proximity sensor 21b detects that the left hand is present near the proximity sensor 21b. That is, the left hand is detected by the proximity sensor 21b. On the other hand, the proximity sensor 21a detects that there is no right hand near the proximity sensor 21a. That is, the right hand is not detected by the proximity sensor 21a, and the absence of the right hand in the vicinity of the touch panel 25 is detected. Thus, only the proximity sensor 21b reacts ("ON") among the proximity sensors 21a and 21b, and only the left hand of both hands is detected.

また、タッチパネル25においては、単一の位置PG2に対する押下操作が検出される。   On the touch panel 25, a pressing operation on the single position PG2 is detected.

このように、近接センサ21a,21bにより両手のうちの左手のみが検知される場合において、タッチパネル25上の単一の位置に対する押下操作が検出されるときには、左手による一本指操作が行われている旨が判定される。なお、左手のみが検知される場合には、タッチパネル25内の任意の位置に対する押下操作が左手による押下操作であると判定される。   As described above, when only the left hand of both hands is detected by the proximity sensors 21a and 21b, when a pressing operation on a single position on the touch panel 25 is detected, a one-finger operation with the left hand is performed. Is determined to be present. When only the left hand is detected, it is determined that the pressing operation with respect to an arbitrary position in the touch panel 25 is the pressing operation with the left hand.

そして、操作者の左手の一本指をタッチパネル25に接触させつつタッチパネル25上でスライドさせる操作に応じて、動作制御部14は、今度は裏面画像GBを任意の方向(上下左右方向)に移動する動作(移動動作)を行う。   Then, in response to an operation of sliding one touching left finger of the operator on the touch panel 25 and sliding on the touch panel 25, the operation control unit 14 moves the back image GB in an arbitrary direction (up / down / left / right direction). To perform (moving operation).

<両手各一本指操作>
また、図7に示すように、操作者がその右手をタッチパネル25に向けて伸ばし右手が近接センサ21aの近傍に存在する状態でタッチパネル25を右手の1本の指で押下(タッチ)し、且つ、操作者がその左手をもタッチパネル25に向けて伸ばし左手が近接センサ21bの近傍に存在する状態でタッチパネル25を左手の1本の指で押下(タッチ)する状況を想定する。
<One finger operation for each hand>
In addition, as shown in FIG. 7, the operator extends his right hand toward the touch panel 25 and presses (touches) the touch panel 25 with one finger of the right hand while the right hand is in the vicinity of the proximity sensor 21a. Assume that the operator extends his / her left hand toward the touch panel 25 and presses (touches) the touch panel 25 with one finger of the left hand while the left hand is in the vicinity of the proximity sensor 21b.

この状況では、近接センサ21aは、当該近接センサ21a付近に右手が存在することを検知する。すなわち、近接センサ21aにより右手が検知される。さらに、近接センサ21bは、当該近接センサ21b付近に左手が存在することを検知する。すなわち、近接センサ21bにより左手が検知される。このように、近接センサ21a,21bの両方が反応(「オン」)し、両手が検知される。   In this situation, the proximity sensor 21a detects that the right hand is present near the proximity sensor 21a. That is, the right hand is detected by the proximity sensor 21a. Further, the proximity sensor 21b detects that the left hand is present near the proximity sensor 21b. That is, the left hand is detected by the proximity sensor 21b. Thus, both proximity sensors 21a and 21b react ("ON") and both hands are detected.

また、タッチパネル25においては、2つの位置PG1,PG2に対する押下操作が検出される。   Further, on the touch panel 25, a pressing operation on the two positions PG1 and PG2 is detected.

このように近接センサ21a,21bにより両手の双方が検知される場合において、タッチパネル25上の2つの位置に対する押下操作が検出されるときには、右手による一本指操作と左手による一本指操作とが行われている旨が判定される。   As described above, when both hands are detected by the proximity sensors 21a and 21b, when a pressing operation on two positions on the touch panel 25 is detected, a one-finger operation by the right hand and a one-finger operation by the left hand are performed. It is determined that it is being performed.

なお、近接センサ21a,21bにより両手が検知され且つタッチパネル25内での2つの押下位置(PG1,PG2)が検出される場合には、当該2つの押下位置のうち、右手検知用の近接センサ21aに比較的近い位置(PG1)が右手の押下操作位置であり且つ他方の位置(PG2)が左手の押下操作位置である旨、が判定される。   When both hands are detected by the proximity sensors 21a and 21b and two pressed positions (PG1, PG2) in the touch panel 25 are detected, the right hand detecting proximity sensor 21a of the two pressed positions. It is determined that the position (PG1) relatively close to is the right hand pressing operation position and the other position (PG2) is the left hand pressing operation position.

そして、操作者の右手の一本指をタッチパネル25上でスライドさせる操作に応じて、動作制御部14は、表面画像GAを任意の方向(上下左右方向)に移動する動作(移動動作)を行う。また、操作者の左手の一本指をタッチパネル25上でスライドさせる操作に応じて、動作制御部14は、裏面画像GBを任意の方向(上下左右方向)に移動する動作(移動動作)を行う。   And according to operation which slides one finger of an operator's right hand on touch panel 25, operation control part 14 performs operation (moving operation) which moves surface image GA to arbitrary directions (up and down, right and left directions). . Further, in response to an operation of sliding one finger of the left hand of the operator on the touch panel 25, the operation control unit 14 performs an operation (moving operation) of moving the back image GB in an arbitrary direction (up / down / left / right direction). .

<右手二本指操作>
図8に示すように、操作者がその右手をタッチパネル25に向けて伸ばし、右手が近接センサ21aの近傍に存在する状態でタッチパネル25を右手の2本の指(たとえば人差し指および親指)で押下(タッチ)する状況を想定する。
<Right-handed two-finger operation>
As shown in FIG. 8, the operator extends his right hand toward the touch panel 25, and presses the touch panel 25 with two fingers (for example, index finger and thumb) in a state where the right hand is in the vicinity of the proximity sensor 21a ( Assume a situation of touching.

この状況では、近接センサ21aが当該近接センサ21a付近に右手が存在することを検知する。すなわち、近接センサ21aにより右手が検知される。一方、近接センサ21bは当該近接センサ21b付近に左手が存在しないことを検知する。すなわち、左手は近接センサ21bにより検知されず、タッチパネル25付近における左手の不存在が検知される。このように、近接センサ21a,21bのうち近接センサ21aのみが反応(「オン」)し、両手のうちの右手のみが検知される。   In this situation, the proximity sensor 21a detects that the right hand is present near the proximity sensor 21a. That is, the right hand is detected by the proximity sensor 21a. On the other hand, the proximity sensor 21b detects that there is no left hand near the proximity sensor 21b. That is, the left hand is not detected by the proximity sensor 21b, and the absence of the left hand in the vicinity of the touch panel 25 is detected. Thus, only the proximity sensor 21a reacts ("ON") among the proximity sensors 21a and 21b, and only the right hand of both hands is detected.

また、タッチパネル25においては、2つの位置PG1,PG3に対する押下操作が検出される。   Further, on the touch panel 25, pressing operations on the two positions PG1 and PG3 are detected.

このように、近接センサ21a,21bにより両手のうちの右手のみが検知される場合において、タッチパネル25上の2つの位置に対する押下操作が検出されるときには、右手による二本指操作が行われている旨が判定される。なお、上述のように、右手のみが検知される場合には、タッチパネル25内の任意の位置に対する押下操作が右手による押下操作であると判定される。   As described above, when only the right hand of both hands is detected by the proximity sensors 21a and 21b, when a pressing operation on two positions on the touch panel 25 is detected, a two-finger operation with the right hand is performed. It is determined. As described above, when only the right hand is detected, it is determined that the pressing operation with respect to an arbitrary position in the touch panel 25 is the pressing operation with the right hand.

そして、操作者の右手の二本指をタッチパネル25上で相対的に回転移動させる操作に応じて、動作制御部14は、表面画像GAを回転する動作(回転動作)を行う。また、操作者の右手の二本指の少なくとも一方をタッチパネル25上でスライドして当該二本指の相互間の距離を変更する操作に応じて、動作制御部14は、表面画像GAを変倍(拡大あるいは縮小)する動作(変倍動作)を行う。   Then, in response to an operation of relatively rotating and moving the two fingers of the right hand of the operator on the touch panel 25, the operation control unit 14 performs an operation (rotating operation) of rotating the surface image GA. Further, in response to an operation of sliding at least one of the two fingers of the operator's right finger on the touch panel 25 to change the distance between the two fingers, the motion control unit 14 scales the surface image GA. An operation (enlargement or reduction) (magnification operation) is performed.

<左手二本指操作>
同様に、図9に示すように、操作者がその左手をタッチパネル25に向けて伸ばし、左手が近接センサ21bの近傍に存在する状態でタッチパネル25を左手の2本の指(たとえば人差し指および親指)で押下(タッチ)する状況を想定する。
<Left-handed two-finger operation>
Similarly, as shown in FIG. 9, the operator extends his left hand toward the touch panel 25, and the left hand is in the vicinity of the proximity sensor 21b, so that the touch panel 25 has two fingers (for example, index finger and thumb). Assume that the button is pressed (touched).

この状況では、近接センサ21bが当該近接センサ21b付近に左手が存在することを検知する。すなわち、近接センサ21bにより左手が検知される。一方、近接センサ21aは当該近接センサ21a付近に右手が存在しないことを検知する。すなわち、右手は近接センサ21aにより検知されず、タッチパネル25付近における右手の不存在が検知される。このように、近接センサ21a,21bのうち近接センサ21bのみが反応(「オン」)し、両手のうちの左手のみが検知される。   In this situation, the proximity sensor 21b detects that the left hand is present near the proximity sensor 21b. That is, the left hand is detected by the proximity sensor 21b. On the other hand, the proximity sensor 21a detects that there is no right hand near the proximity sensor 21a. That is, the right hand is not detected by the proximity sensor 21a, and the absence of the right hand in the vicinity of the touch panel 25 is detected. Thus, only the proximity sensor 21b reacts ("ON") among the proximity sensors 21a and 21b, and only the left hand of both hands is detected.

また、タッチパネル25においては、2つの位置PG2,PG4に対する押下操作が検出される。   Further, on the touch panel 25, pressing operations on the two positions PG2 and PG4 are detected.

このように、近接センサ21a,21bにより両手のうちの左手のみが検知される場合において、タッチパネル25上の2つの位置に対する押下操作が検出されるときには、左手による二本指操作が行われている旨が判定される。なお、上述のように、左手のみが検知される場合には、タッチパネル25内の任意の位置に対する押下操作が左手による押下操作であると判定される。   As described above, when only the left hand of both hands is detected by the proximity sensors 21a and 21b, when a pressing operation on two positions on the touch panel 25 is detected, a two-finger operation with the left hand is performed. It is determined. As described above, when only the left hand is detected, it is determined that the pressing operation for an arbitrary position in the touch panel 25 is the pressing operation by the left hand.

そして、操作者の左手の二本指をタッチパネル25上で相対的に回転移動させる操作に応じて、動作制御部14は、裏面画像GBを回転する動作(回転動作)を行う。また、操作者の左手の二本指の少なくとも一方をタッチパネル25上でスライドして当該二本指の相互間の距離を変更する操作に応じて、動作制御部14は、裏面画像GBを変倍(拡大あるいは縮小)する動作(変倍動作)を行う。   Then, in response to an operation of relatively rotating and moving the two fingers of the left hand of the operator on the touch panel 25, the operation control unit 14 performs an operation of rotating the back image GB (rotating operation). Further, in response to an operation of sliding at least one of the two fingers of the left hand of the operator on the touch panel 25 to change the distance between the two fingers, the motion control unit 14 scales the back image GB. An operation (enlargement or reduction) (magnification operation) is performed.

<両手各二本指操作>
また、図10のような状況も存在する。図10においては、操作者はその右手をタッチパネル25に向けて伸ばし右手が近接センサ21aの近傍に存在する状態で、当該操作者はタッチパネル25を右手の2本の指(たとえば人差し指および親指)で押下(タッチ)している。また、これに加えて、図10においては、操作者はその左手をもタッチパネル25に向けて伸ばし左手が近接センサ21bの近傍に存在する状態で、当該操作者はタッチパネル25を左手の2本の指(たとえば人差し指および親指)で押下(タッチ)している。
<Two fingers for each finger operation>
There is also a situation as shown in FIG. In FIG. 10, the operator extends his right hand toward the touch panel 25 and the right hand is in the vicinity of the proximity sensor 21a, and the operator holds the touch panel 25 with two fingers of the right hand (for example, forefinger and thumb). Pressed (touched). In addition, in FIG. 10, the operator extends his left hand toward the touch panel 25 and the left hand is in the vicinity of the proximity sensor 21b, and the operator holds the touch panel 25 with two left hands. Pressing (touching) with a finger (for example, an index finger and a thumb).

この状況では、近接センサ21aは、当該近接センサ21a付近に右手が存在することを検知する。すなわち、近接センサ21aにより右手が検知される。さらに、近接センサ21bは、当該近接センサ21b付近に左手が存在することを検知する。すなわち、近接センサ21bにより左手が検知される。このように、近接センサ21a,21bの両方が反応(「オン」)し、両手が検知される。   In this situation, the proximity sensor 21a detects that the right hand is present near the proximity sensor 21a. That is, the right hand is detected by the proximity sensor 21a. Further, the proximity sensor 21b detects that the left hand is present near the proximity sensor 21b. That is, the left hand is detected by the proximity sensor 21b. Thus, both proximity sensors 21a and 21b react ("ON") and both hands are detected.

また、タッチパネル25においては、合計4つの位置PG1〜PG4に対する押下操作が検出される。   Further, on the touch panel 25, pressing operations on a total of four positions PG1 to PG4 are detected.

このように、近接センサ21a,21bにより両手の双方が検知される場合において、タッチパネル25内の4つの位置が押下されているときには、右手による二本指操作と左手による二本指操作とが行われている旨が判定される。   As described above, when both hands are detected by the proximity sensors 21a and 21b, when four positions in the touch panel 25 are pressed, the two-finger operation with the right hand and the two-finger operation with the left hand are performed. It is determined that

なお、近接センサ21a,21bにより両手が検知され且つタッチパネル25内での4つの押下位置(PG1〜PG4)が検知される場合には、当該4つの押下位置のうち、右手検知用の近接センサ21aに比較的近い2つの位置(PG1,PG3)が右手の押下操作位置であり且つ残りの2つ位置(PG2,PG4)が左手の押下操作位置である旨、が判定される。   When both hands are detected by the proximity sensors 21a and 21b and four pressed positions (PG1 to PG4) in the touch panel 25 are detected, the right hand detecting proximity sensor 21a among the four pressed positions. It is determined that two positions (PG1, PG3) that are relatively close to are the right hand pressing operation position and the remaining two positions (PG2, PG4) are the left hand pressing operation position.

そして、操作者の右手の二本指をタッチパネル25上で相対的に回転移動させる操作に応じて、動作制御部14は、表面画像GAを回転する動作(回転動作)を行う。また、操作者の右手の二本指の少なくとも一方をタッチパネル25上でスライドして当該二本指の相互間の距離を変更する操作に応じて、動作制御部14は、表面画像GAを変倍(拡大あるいは縮小)する動作(変倍動作)を行う。   Then, in response to an operation of relatively rotating and moving the two fingers of the right hand of the operator on the touch panel 25, the operation control unit 14 performs an operation (rotating operation) of rotating the surface image GA. Further, in response to an operation of sliding at least one of the two fingers of the operator's right finger on the touch panel 25 to change the distance between the two fingers, the motion control unit 14 scales the surface image GA. An operation (enlargement or reduction) (magnification operation) is performed.

また、操作者の左手の二本指をタッチパネル25上で相対的に回転移動させる操作に応じて、動作制御部14は、裏面画像GBを回転する動作(回転動作)を行う。また、操作者の左手の二本指の少なくとも一方をタッチパネル25上でスライドして当該二本指の相互間の距離を変更する操作に応じて、動作制御部14は、裏面画像GBを変倍(拡大あるいは縮小)する動作(変倍動作)を行う。   Further, the operation control unit 14 performs an operation of rotating the back image GB (rotating operation) in accordance with an operation of relatively rotating and moving the two fingers of the left hand of the operator on the touch panel 25. Further, in response to an operation of sliding at least one of the two fingers of the left hand of the operator on the touch panel 25 to change the distance between the two fingers, the motion control unit 14 scales the back image GB. An operation (enlargement or reduction) (magnification operation) is performed.

<右手二本指操作&左手一本指操作>
さらに、図11のような状況も存在する。図11においては、操作者はその右手をタッチパネル25に向けて伸ばし右手が近接センサ21aの近傍に存在する状態で、当該操作者はタッチパネル25を右手の2本の指(たとえば人差し指および親指)で押下(タッチ)している。また、これに加えて、図11においては、操作者はその左手をもタッチパネル25に向けて伸ばし左手が近接センサ21bの近傍に存在する状態で、当該操作者はタッチパネル25を左手の「1本」の指(たとえば人差し指)で押下(タッチ)している。
<Right-handed two-finger operation & Left-handed one-finger operation>
Further, there is a situation as shown in FIG. In FIG. 11, the operator extends his right hand toward the touch panel 25 and the right hand is in the vicinity of the proximity sensor 21a, and the operator touches the touch panel 25 with two fingers (for example, index finger and thumb). Pressed (touched). In addition to this, in FIG. 11, the operator extends his left hand toward the touch panel 25 and the left hand is in the vicinity of the proximity sensor 21b. "(For example, the index finger) is pressed (touched).

この状況では、近接センサ21aは、当該近接センサ21a付近に右手が存在することを検知する。すなわち、近接センサ21aにより右手が検知される。さらに、近接センサ21bは、当該近接センサ21b付近に左手が存在することを検知する。すなわち、近接センサ21bにより左手が検知される。このように、近接センサ21a,21bの両方が反応(「オン」)し、両手が検知される。   In this situation, the proximity sensor 21a detects that the right hand is present near the proximity sensor 21a. That is, the right hand is detected by the proximity sensor 21a. Further, the proximity sensor 21b detects that the left hand is present near the proximity sensor 21b. That is, the left hand is detected by the proximity sensor 21b. Thus, both proximity sensors 21a and 21b react ("ON") and both hands are detected.

また、タッチパネル25においては、合計3つの位置PG1〜PG3に対する押下操作が検出される。   Further, on the touch panel 25, pressing operations on a total of three positions PG1 to PG3 are detected.

このように、近接センサ21a,21bにより両手の双方が検知される場合において、タッチパネル25内の3つの位置が押下されているときには、一方の手による二本指操作と他方の手による一本指操作とが行われている旨が判定される。   As described above, when both hands are detected by the proximity sensors 21a and 21b, when three positions in the touch panel 25 are pressed, a two-finger operation with one hand and a single finger with the other hand are performed. It is determined that an operation is being performed.

近接センサ21a,21bにより両手が検知され且つタッチパネル25内での3つの押下位置(PG1〜PG3)が検出される場合には次のような判定動作が行われる。   When both hands are detected by the proximity sensors 21a and 21b and three pressed positions (PG1 to PG3) in the touch panel 25 are detected, the following determination operation is performed.

まず、当該3つの押下位置のうち、右手検知用の近接センサ21aに最も近い1つの位置(PG1)が右手の押下操作位置であり且つ左手検知用の近接センサ21bに最も近い1つの位置(PG2)が左手の押下操作位置である旨、が判定される。また、残りの位置PG3は、近接センサ21a,21bのうちいずれに近い位置であるかに応じて、いずれの手による押下操作位置であるかが決定される。   First, of the three pressing positions, one position (PG1) closest to the right hand detection proximity sensor 21a is the right hand pressing operation position and one position (PG2) closest to the left hand detection proximity sensor 21b. ) Is the left hand pressing operation position. Further, the remaining position PG3 is determined by which hand is the pressing operation position depending on which of the proximity sensors 21a and 21b is close to.

たとえば、残りの位置PG3が両近接センサ21a,21bのうち右手検知用の近接センサ21aに比較的近い場合には、位置PG3は右手による押下操作位置である旨が判定される。この場合には、右手によって2つの位置PG1,PG3が押下されており、右手による二本指操作が行われている旨が判定される。また、左手によって単一位置PG2が押下されており、左手による一本指操作が行われている旨も判定される。このように、右手による二本指操作と左手による一本指操作とが行われている旨が判定される。   For example, when the remaining position PG3 is relatively close to the proximity sensor 21a for detecting the right hand among the proximity sensors 21a and 21b, it is determined that the position PG3 is a pressing operation position by the right hand. In this case, it is determined that the two positions PG1 and PG3 are pressed with the right hand, and the two-finger operation with the right hand is being performed. Further, it is also determined that the single position PG2 is pressed with the left hand, and that a single finger operation is being performed with the left hand. Thus, it is determined that a two-finger operation with the right hand and a one-finger operation with the left hand are being performed.

そして、操作者の右手の二本指をタッチパネル25上で相対的に回転移動させる操作に応じて、動作制御部14は、表面画像GAを回転する動作(回転動作)を行う。また、操作者の右手の二本指の少なくとも一方をタッチパネル25上でスライドして当該二本指の相互間の距離を変更する操作に応じて、動作制御部14は、表面画像GAを変倍(拡大あるいは縮小)する動作(変倍動作)を行う。   Then, in response to an operation of relatively rotating and moving the two fingers of the right hand of the operator on the touch panel 25, the operation control unit 14 performs an operation (rotating operation) of rotating the surface image GA. Further, in response to an operation of sliding at least one of the two fingers of the operator's right finger on the touch panel 25 to change the distance between the two fingers, the motion control unit 14 scales the surface image GA. An operation (enlargement or reduction) (magnification operation) is performed.

そして、操作者の左手の一本指をタッチパネル25上でスライドさせる操作に応じて、動作制御部14は、裏面画像GBを任意の方向(上下左右方向)に移動する動作(移動動作)を行う。   Then, in response to an operation of sliding one finger of the left hand of the operator on the touch panel 25, the operation control unit 14 performs an operation (moving operation) of moving the back image GB in an arbitrary direction (up / down / left / right direction). .

なお、右手一本指操作且つ左手二本指操作についても、左右が逆転する点を除き、同様にして判定される。   Note that the right-handed one-finger operation and the left-handed two-finger operation are similarly determined except that the left and right are reversed.

<1−3.実施形態に係る効果>
以上の動作によれば、近接センサ21a,21bにより右手と左手との双方が検知されるときには、両手モードによる操作が行われている旨が判定され、近接センサ21a,21bにより両手のうちの一の手のみが検知されるときには、片手モードによる操作が行われている旨が判定される。したがって、両手による操作と片手による操作とを良好に区別しつつ、片手による操作のみならず両手による操作をも受け付けることが可能である。
<1-3. Effect of Embodiment>
According to the above operation, when both the right hand and the left hand are detected by the proximity sensors 21a and 21b, it is determined that the operation in the two-hand mode is performed, and one of the two hands is detected by the proximity sensors 21a and 21b. When only one hand is detected, it is determined that the operation in the one-hand mode is being performed. Therefore, it is possible to accept not only an operation with one hand but also an operation with both hands, with good discrimination between an operation with both hands and an operation with one hand.

特に、近接センサ21a,21bにより両手のうちの一の手のみが検知され且つタッチパネル25上の異なる2つの位置に対する押下操作が行われるときには、一の手による二本指操作が行われている旨が判定される(図8および図9参照)。一方、近接センサ21a,21bにより両手の双方が検知され且つタッチパネル25上の異なる2つの位置に対する押下操作が行われるときには、両手のそれぞれによって一本指操作が行われている旨が判定される(図7参照)。したがって、タッチパネル25内にて2つの位置に対する押下操作が行われている場合において、両手のそれぞれによる一本指操作と片手による二本指操作とが良好に区別され得る。   In particular, when only one hand of both hands is detected by the proximity sensors 21a and 21b and a pressing operation is performed on two different positions on the touch panel 25, a two-finger operation with one hand is performed. Is determined (see FIGS. 8 and 9). On the other hand, when both hands are detected by the proximity sensors 21a and 21b and a pressing operation is performed on two different positions on the touch panel 25, it is determined that a one-finger operation is being performed by each of both hands ( (See FIG. 7). Therefore, when a pressing operation is performed on two positions in the touch panel 25, a one-finger operation with both hands and a two-finger operation with one hand can be distinguished well.

また、上記実施形態では、タッチパネル25上の異なる2つの位置に対する押下操作が行われる場合において、両手モードによる操作が行われている旨が判定されるときと片手モードによる操作が行われている旨が判定されるときとで、互いに異なる動作が実行される。   Further, in the above embodiment, when a pressing operation is performed on two different positions on the touch panel 25, it is determined that an operation in the two-handed mode is performed and an operation in the one-handed mode is performed. Different operations are executed when the determination is made.

たとえば、近接センサ21a,21bにより両手のうちの右手のみが検知され且つタッチパネル25上の異なる2つの位置に対する押下操作が行われるときには、上述ように、判定部12は、右手による二本指操作が行われている旨を判定する。そして、このときには、動作制御部14は、表面画像GAに対する回転動作等を行う(図8)。   For example, when only the right hand of both hands is detected by the proximity sensors 21a and 21b and a pressing operation is performed on two different positions on the touch panel 25, the determination unit 12 performs the two-finger operation with the right hand as described above. Determine that it is being done. At this time, the operation control unit 14 performs a rotation operation or the like on the surface image GA (FIG. 8).

一方、近接センサ21a,21bにより両手の双方が検知され且つタッチパネル25上の異なる2つの位置に対する押下操作が行われるときには、判定部12は、両手のそれぞれによって一本指操作が行われている旨を判定する。このときには、動作制御部14は、右手の一本指操作に基づく表面画像GAの移動動作と左手の一本指操作に基づく裏面画像GBの移動動作とを行う(図7)。   On the other hand, when both hands are detected by the proximity sensors 21a and 21b and a pressing operation is performed on two different positions on the touch panel 25, the determination unit 12 indicates that a one-finger operation is being performed by both hands. Determine. At this time, the motion control unit 14 performs the movement operation of the front image GA based on the single finger operation of the right hand and the movement operation of the back surface image GB based on the single finger operation of the left hand (FIG. 7).

このように、両手モードと片手モードとに応じて互いに異なる動作が実行される。換言すれば、操作者は、両手モードと片手モードとを適宜に使い分けることによって、両手あるいは片手を使って様々な動作をMFP10に適切に行わせることが可能である。   In this way, different operations are executed according to the two-handed mode and the one-handed mode. In other words, the operator can appropriately cause the MFP 10 to perform various operations using both hands or one hand by appropriately using the two-hand mode and the one-hand mode.

さらには、上記実施形態においては、片手一本指動作が行われる状況(図5および図6)、両手それぞれによる各二本指動作が行われる状況(図10)、両手のうちの一方の手による二本指動作と他方の手による一本指動作とが行われる状況(図11)とが適切に互いに区別されて判定され、各状況に応じた動作が実行される。   Furthermore, in the above-described embodiment, a situation in which one-handed one-finger movement is performed (FIGS. 5 and 6), a situation in which each two-fingered movement is performed with both hands (FIG. 10), and one of the two hands The situation (FIG. 11) in which the two-finger movement by and the one-finger movement by the other hand is performed is appropriately distinguished from each other, and the action corresponding to each situation is executed.

特に、両面プレビューにおいて互いに重複して表示される両画像GA,GBに関して、操作者は、右手で表面画像GAを操作し、左手で裏面画像GBを操作することが可能である。すなわち、操作者は、右手と左手とによってそれぞれ対応する画像を同時に操作することが可能である。なお、上記実施形態とは異なる操作技術、具体的には表面画像GAと裏面画像GBとの間で操作対象画像を切り換える操作を伴いつつ片手で2つの画像GA,GBを操作する技術も考えられる。一方、当該技術とは異なる上記実施形態によれば、操作者は、操作対象画像を切り換える操作を行うことを要さず、直感的な操作を行うことが可能である。さらに、上記実施形態によれば、操作者は、一本指操作と二本指操作とを区別して用いることによって、各画像に関する移動動作と回転動作等とをそれぞれ実現することが可能である。   In particular, regarding both images GA and GB displayed overlapping each other in the double-side preview, the operator can operate the front image GA with the right hand and operate the back image GB with the left hand. That is, the operator can simultaneously operate the corresponding images with the right hand and the left hand. An operation technique different from that of the above embodiment, specifically, a technique of operating two images GA and GB with one hand while switching an operation target image between the front image GA and the back image GB is also conceivable. . On the other hand, according to the embodiment different from the technique, the operator can perform an intuitive operation without performing an operation of switching the operation target image. Furthermore, according to the above-described embodiment, the operator can realize a moving operation, a rotating operation, and the like related to each image by separately using a single-finger operation and a two-finger operation.

<1−4.変形例>
なお、この実施形態においては、右手によるタッチパネル25の押下操作に応じて表(おもて)面画像GAに対する編集動作が行われ、左手によるタッチパネル25の押下に応じて裏面画像GBに対する編集動作が行われる態様が例示されている。ただし、本発明はこれに限定されず、左手によるタッチパネル25の押下操作に応じて表(おもて)面画像GAに対する編集動作が行われ、右手によるタッチパネル25の押下に応じて裏面画像GBに対する編集動作が行われてもよい。すなわち、右手あるいは左手による操作対象画像が左右逆であってもよい。
<1-4. Modification>
In this embodiment, an editing operation is performed on the front image GA according to the pressing operation of the touch panel 25 with the right hand, and an editing operation is performed on the back image GB according to the pressing of the touch panel 25 with the left hand. The manner in which it is performed is illustrated. However, the present invention is not limited to this, and an editing operation is performed on the front surface image GA in accordance with the pressing operation of the touch panel 25 with the left hand, and the back surface image GB in response to the pressing of the touch panel 25 with the right hand. An editing operation may be performed. That is, the operation target image with the right hand or the left hand may be reversed left and right.

また、上記実施形態においては、近接センサ21a,21bがタッチパネル25の左側と右側とにそれぞれ配置されている態様が例示されている。しかしながら、本発明はこれに限定されない。たとえば、図12に示すように、右手検知用の近接センサ21aがタッチパネル25の上側に配置され、左手検知用の近接センサ21bがタッチパネル25の左側に配置されるようにしてもよい。あるいは、図13に示すように、右手検知用の近接センサ21aがタッチパネル25の下側に配置され、左手検知用の近接センサ21bがタッチパネル25の左側に配置されるようにしてもよい。あるいは、図14に示すように、右手検知用の近接センサ21aがタッチパネル25の右側に配置され、左手検知用の近接センサ21bがタッチパネル25の上側に配置されるようにしてもよい。あるいは、図15に示すように、右手検知用の近接センサ21aがタッチパネル25の右側に配置され、左手検知用の近接センサ21bがタッチパネル25の下側に配置されるようにしてもよい。あるいは、図16に示すように、右手検知用の近接センサ21aがタッチパネル25の下側に配置され、左手検知用の近接センサ21bがタッチパネル25の上側に配置されるようにしてもよい。なお、図16とは逆に、右手検知用の近接センサ21aがタッチパネル25の上側に配置され、左手検知用の近接センサ21bがタッチパネル25の下側に配置されるようにしてもよい。   Moreover, in the said embodiment, the aspect by which proximity sensor 21a, 21b is each arrange | positioned at the left side and the right side of the touch panel 25 is illustrated. However, the present invention is not limited to this. For example, as shown in FIG. 12, the proximity sensor 21 a for detecting the right hand may be disposed on the upper side of the touch panel 25, and the proximity sensor 21 b for detecting the left hand may be disposed on the left side of the touch panel 25. Alternatively, as shown in FIG. 13, the right hand detection proximity sensor 21 a may be disposed below the touch panel 25, and the left hand detection proximity sensor 21 b may be disposed on the left side of the touch panel 25. Alternatively, as shown in FIG. 14, the right hand detection proximity sensor 21 a may be disposed on the right side of the touch panel 25, and the left hand detection proximity sensor 21 b may be disposed on the upper side of the touch panel 25. Alternatively, as shown in FIG. 15, the right hand detection proximity sensor 21 a may be disposed on the right side of the touch panel 25, and the left hand detection proximity sensor 21 b may be disposed on the lower side of the touch panel 25. Alternatively, as shown in FIG. 16, the right hand detection proximity sensor 21 a may be disposed below the touch panel 25, and the left hand detection proximity sensor 21 b may be disposed above the touch panel 25. In contrast to FIG. 16, the right hand detection proximity sensor 21 a may be disposed above the touch panel 25, and the left hand detection proximity sensor 21 b may be disposed below the touch panel 25.

これらの改変は、第1実施形態のみならず、他の実施形態についても同様に行うことが可能である。   These modifications can be made not only in the first embodiment but also in other embodiments.

<2.第2実施形態>
第2実施形態は、第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明する。
<2. Second Embodiment>
The second embodiment is a modification of the first embodiment. Below, it demonstrates centering on difference with 1st Embodiment.

上記第1実施形態では、タッチパネル25において、両面プレビューの表(おもて)面画像GAと裏面画像GBとが重複して表示される場合において、両手あるいは片手を用いて表面画像GAと裏面画像GBとを操作する態様が例示されている。   In the first embodiment, when the front side image GA and the back side image GB of the double-sided preview are displayed on the touch panel 25 in an overlapping manner, the front side image GA and the back side image using both hands or one hand. The mode which operates GB is illustrated.

第2実施形態においては、2つの画像GC,GDが互いに離間した状態でタッチパネル25に表示される場合において、両手あるいは片手を用いて2つの画像GC,GDを操作する態様について説明する。   In the second embodiment, a mode in which two images GC and GD are operated using both hands or one hand when two images GC and GD are displayed on the touch panel 25 in a state of being separated from each other will be described.

この第2実施形態では、図17および図18に示すように、右側画像GCと左側画像GDとが互いに離間された状態でタッチパネル25に表示される。なお、図17および図18は、第2実施形態に係る操作画面等を示す図である。   In the second embodiment, as shown in FIGS. 17 and 18, the right image GC and the left image GD are displayed on the touch panel 25 in a state of being separated from each other. FIGS. 17 and 18 are diagrams showing an operation screen and the like according to the second embodiment.

また、タッチパネル25内における各操作入力の内容は次のようにして判定される。   The contents of each operation input in the touch panel 25 are determined as follows.

まず、片手モードの場合(近接センサ21a,21bの一方のみが反応する場合)には、タッチパネル25内における各押下位置(各検出位置)は、操作している手(片手)による一本指操作あるいは二本指操作による押下操作位置であるものと判定される。たとえば、右手検知用の近接センサ21aのみが反応している場合において、タッチパネル25内の単一の押下位置が検出されるときには、右手(反応している近接センサ21aに対応する手)による一本指操作であると判定される。また、図18に示すように、右手検知用の近接センサ21aのみが反応している場合において、タッチパネル25内の2つの押下位置(たとえばPG1,PG2)が検出されるときには、右手(反応している近接センサ21aに対応する手)による二本指操作であると判定される。   First, in the one-handed mode (when only one of the proximity sensors 21a and 21b reacts), each pressed position (each detected position) in the touch panel 25 is a one-finger operation by the operating hand (one hand). Alternatively, the position is determined to be a pressing operation position by a two-finger operation. For example, in the case where only the right hand detection proximity sensor 21a is reacting, when a single pressed position in the touch panel 25 is detected, the right hand (the hand corresponding to the reacting proximity sensor 21a) is used. It is determined that the operation is a finger operation. Also, as shown in FIG. 18, when only the right hand detection proximity sensor 21a is reacting, when two pressing positions (for example, PG1, PG2) in the touch panel 25 are detected, the right hand (reacting) It is determined that the operation is a two-finger operation by the hand corresponding to the proximity sensor 21a.

一方、両手モードの場合(近接センサ21a,21bの双方が反応する場合)には、タッチパネル25内での押下位置の数にも応じて各押下位置が左手の押下操作位置と右手の押下操作位置とのいずれに該当するかが決定される。たとえば、図17に示すように、タッチパネル25内において2つの押下位置(PG1,PG2)が検知されるときには、当該2つの押下位置のうち、右手検知用の近接センサ21aに比較的近い位置(PG1)が右手の押下操作位置であり且つ他方の位置(PG2)が左手の押下操作位置である旨、が判定される。また、タッチパネル25内での4つの押下位置(PG1〜PG4)が検出されるときには、当該4つの押下位置のうち、右手検知用の近接センサ21aに比較的近い2つの位置(PG1,PG3)が右手の押下操作位置であり且つ残りの2つ位置(PG2,PG4)が左手の押下操作位置である旨、が判定される。さらに、タッチパネル25内にて3つの押下位置(PG1〜PG3)が検出される場合には、当該3つの押下位置のうち、右手検知用の近接センサ21aに最も近い1つの位置(PG1)が右手の押下操作位置であり且つ左手検知用の近接センサ21bに最も近い1つの位置(PG2)が左手の押下操作位置である旨、が判定される。また、残りの位置PG3は、近接センサ21a,21bのうちいずれに近い位置であるかに応じて、いずれの手による押下操作位置であるかが決定される。   On the other hand, in the case of the two-handed mode (when both the proximity sensors 21a and 21b react), the respective pressing positions correspond to the pressing operation positions of the left hand and the right hand depending on the number of pressing positions in the touch panel 25. Is determined. For example, as shown in FIG. 17, when two pressed positions (PG1, PG2) are detected in the touch panel 25, a position relatively close to the proximity sensor 21a for detecting the right hand (PG1) among the two pressed positions. ) Is the right hand pressing operation position and the other position (PG2) is the left hand pressing operation position. When four pressed positions (PG1 to PG4) in the touch panel 25 are detected, two positions (PG1, PG3) that are relatively close to the proximity sensor 21a for detecting the right hand among the four pressed positions are detected. It is determined that the position is the right hand pressing operation position and the remaining two positions (PG2, PG4) are the left hand pressing operation position. Further, when three pressed positions (PG1 to PG3) are detected in the touch panel 25, one position (PG1) closest to the right hand detecting proximity sensor 21a among the three pressed positions is the right hand. It is determined that one position (PG2) that is the pressing operation position of the left hand and that is closest to the proximity sensor 21b for detecting the left hand is the pressing operation position of the left hand. Further, the remaining position PG3 is determined by which hand is the pressing operation position depending on which of the proximity sensors 21a and 21b is close to.

そして、右手による一本指操作に応じて右側画像GCの移動動作が実行され、左手による一本指操作に応じて左側画像GDの移動動作が実行される。また、右手による二本指操作に応じて右側画像GCの回転動作および/または変倍動作が実行され、左手による二本指操作に応じて左側画像GDの回転動作および/または変倍動作が実行される。   Then, the movement operation of the right image GC is executed according to the one finger operation with the right hand, and the movement operation of the left image GD is executed according to the one finger operation with the left hand. The right image GC is rotated and / or zoomed in response to a two-finger operation with the right hand, and the left image GD is rotated and / or zoomed in response to a two-finger operation with the left hand. Is done.

なお、この実施形態においても、右手および左手の各指は、タッチパネル25内において、必ずしも操作対象画像を押下していることを要さず、操作対象画像とは異なる部分(空白領域等)を押下していてもよい。   Also in this embodiment, each finger of the right hand and the left hand does not necessarily need to press the operation target image in the touch panel 25, and presses a portion (a blank area or the like) different from the operation target image. You may do it.

以上のような態様によれば、両手あるいは片手を利用して2つの画像を適宜に操作することが可能である。   According to the above aspect, it is possible to appropriately operate two images using both hands or one hand.

特に、近接センサ21a,21bを用いて片手モードか両手モードかを判定することによれば、MFP10は、片手モードにおける一方の手の2本指操作と両手モードにおける左右両方の手の各一本指操作とを明確に区別して判定することが可能である。また特に、右手の指と左手の指とがそれぞれ互いに近接した位置を押下して左右両方の手による各一本指操作が行われている状況(図17参照)と、片手の二本指が互いに近接した位置を押下して片手による二本指操作が行われている状況(図18参照)とが明確に区別され得る。   In particular, by using the proximity sensors 21a and 21b to determine the one-handed mode or the two-handed mode, the MFP 10 can operate the two-finger operation of one hand in the one-handed mode and the left and right hands in the two-handed mode. It is possible to make a distinction from a finger operation. In particular, the situation in which each finger is operated by both the left and right hands by pressing the positions where the right and left fingers are close to each other (see FIG. 17), and the two fingers of one hand are It can be clearly distinguished from the situation (see FIG. 18) where a two-finger operation with one hand is performed by pressing positions close to each other.

<3.第3実施形態>
第3実施形態は、第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明する。
<3. Third Embodiment>
The third embodiment is a modification of the first embodiment. Below, it demonstrates centering on difference with 1st Embodiment.

上記第1実施形態等では、タッチパネル25において、2つの画像が表示される場合において、両手あるいは片手を用いて当該2つの画像を操作する態様が例示されている。   In the said 1st Embodiment etc., when two images are displayed on the touch panel 25, the aspect which operates the said two images using both hands or one hand is illustrated.

この第3実施形態では、入力欄CTを含む操作画面(より詳細には、電子メールの宛先入力画面)SC2がタッチパネル25に表示されている場合において両手あるいは片手を用いて操作画面を操作する態様が例示される(図19〜図22参照)。   In the third embodiment, when the operation screen (more specifically, the e-mail destination input screen) SC2 including the input field CT is displayed on the touch panel 25, the operation screen is operated using both hands or one hand. Is exemplified (see FIGS. 19 to 22).

図19は、タッチパネル25において、操作画面(より詳細には、電子メールの宛先入力画面)SC2が表示されている様子を示す図である。図19に示すように、この操作画面SC2には、予め宛先が登録された複数の宛先指定キーDS1,DS2,...等と、入力欄CTとが設けられている。   FIG. 19 is a diagram showing a state where an operation screen (more specifically, an e-mail destination input screen) SC2 is displayed on the touch panel 25. As shown in FIG. 19, this operation screen SC2 is provided with a plurality of destination designation keys DS1, DS2,...

操作者は、操作画面SC2に表示された複数の宛先指定キーDS1,DS2,...の中から、所望の宛先指定キー(たとえばDS1)を指定することによって、宛先を指定することが可能である。具体的には、操作者は、片手の一本指操作を用いることによって操作画面SC2に対して通常の操作指示(第1の操作指示とも称する)を付与する。詳細には、操作者の両手のうちの一方の手(右手あるいは左手)の1つの指(例えば人差し指)でいずれかの宛先指定キーが押下されると、近接センサ21a,21bのうちの一方のみが反応し、片手モードによる操作が行われている旨が判定部12により判定される。そして、当該各宛先指定キーに対応する宛先が選択され、当該宛先が送信先として決定される。   The operator can designate a destination by designating a desired destination designation key (for example, DS1) from among a plurality of destination designation keys DS1, DS2,... Displayed on the operation screen SC2. is there. Specifically, the operator gives a normal operation instruction (also referred to as a first operation instruction) to the operation screen SC2 by using a single finger operation with one hand. Specifically, when one of the destination designation keys is pressed with one finger (for example, the index finger) of one of the hands (right hand or left hand) of the operator, only one of the proximity sensors 21a and 21b is pressed. And the determination unit 12 determines that the operation in the one-handed mode is being performed. Then, a destination corresponding to each destination designation key is selected, and the destination is determined as a transmission destination.

また、操作者は、図19に示すように、両手を用いることによって、上述の第1の操作指示とは異なる第2の操作指示を操作画面SC2に対して付与することができる。より具体的には、操作者は、右手と左手とでタッチパネル25内の所定部分(たとえば、各宛先指定キー以外の部分における2つの位置PG1,PG2)をそれぞれ押下する。このような押下操作に応じて、近接センサ21a,21bのうちの双方が反応し、両手モードによる操作が行われている旨が判定部12により判定される。そして、図20に示すように、文字入力用のキーボード入力画像(ソフトウエアキーボード)KBが、動作制御部14等によってタッチパネル25に表示される。このキーボード入力画像KBは、キーボードを模した画像であり、操作者は、タッチパネル25に表示されたキーボード入力画像(ソフトウエアキーボード)KBを用いることにより、入力欄CTに対して文字(たとえば電子メールアドレスを示す文字列)を入力し、宛先を直接的に指定することが可能である。   Further, as shown in FIG. 19, the operator can give a second operation instruction different from the first operation instruction described above to the operation screen SC2 by using both hands. More specifically, the operator presses a predetermined portion (for example, two positions PG1 and PG2 in portions other than each destination designation key) in the touch panel 25 with the right hand and the left hand. In response to such a pressing operation, both of the proximity sensors 21a and 21b react and the determination unit 12 determines that the operation in the two-handed mode is being performed. Then, as shown in FIG. 20, a keyboard input image (software keyboard) KB for character input is displayed on the touch panel 25 by the operation control unit 14 or the like. The keyboard input image KB is an image imitating a keyboard, and the operator uses the keyboard input image (software keyboard) KB displayed on the touch panel 25, so that characters (for example, e-mail) are input to the input field CT. It is possible to directly specify a destination by inputting a character string indicating an address.

このように、入力欄CTを含む操作画面SC2がタッチパネル25に表示されている場合において、両手モードによる操作が行われた旨が判定されるときには、入力欄に対する入力用のキーボード入力画像KBがタッチパネル25に表示される。   As described above, when the operation screen SC2 including the input field CT is displayed on the touch panel 25, when it is determined that the operation in the two-hand mode is performed, the keyboard input image KB for input to the input field is displayed on the touch panel. 25.

また、操作者は、片手の二本指操作を用いることによって、操作画面SC2(図19参照)に対して、第2の操作指示とも異なる第3の操作指示を付与することができる。具体的には、図21に示すように操作者の右手でタッチパネル25内の所定部分(たとえば、各宛先指定キー以外の右側部分における2つの位置PG1,PG3)が押下されると、近接センサ21a,21bのうちの近接センサ21aのみが反応し、片手モードによる操作が行われている旨が判定部12により判定される。また、2つの位置に対して押下操作が行われていることも判定され、操作者による操作が右手二本指操作であることが判定される。このような判定結果に基づいて、図22に示すように、数字入力用のキーボード入力画像(テンキー画像)KTが、動作制御部14等によってタッチパネル25に表示される。このキーボード入力画像KTは、キーボードを模した画像であり、操作者は、タッチパネル25に表示されたキーボード入力画像(テンキー画像)KTを用いることにより、入力欄CTに対して数字(たとえば、電子メールアドレスを示す文字列に含まれる数字)を入力し、宛先を直接的に指定することが可能である。   Further, the operator can give a third operation instruction different from the second operation instruction to the operation screen SC2 (see FIG. 19) by using a two-finger operation of one hand. Specifically, as shown in FIG. 21, when a predetermined portion in the touch panel 25 (for example, two positions PG1 and PG3 in the right portion other than each destination designation key) is pressed with the operator's right hand, the proximity sensor 21a. , 21b, only the proximity sensor 21a reacts and the determination unit 12 determines that the operation in the one-handed mode is being performed. It is also determined that a pressing operation is performed on two positions, and it is determined that the operation by the operator is a right-handed two-finger operation. Based on such a determination result, a keyboard input image (tenkey image) KT for inputting numbers is displayed on the touch panel 25 by the operation control unit 14 or the like, as shown in FIG. The keyboard input image KT is an image imitating a keyboard, and the operator uses the keyboard input image (ten-key image) KT displayed on the touch panel 25 to input a number (for example, e-mail) for the input field CT. It is possible to directly specify a destination by inputting a number included in a character string indicating an address.

このように、入力欄CTを含む操作画面SC2がタッチパネル25に表示されている場合において、片手モードにおいて二本指操作が行われた旨が判定されるときには、入力欄に対する入力用のテンキー画像KTがタッチパネル25に表示される。   As described above, when the operation screen SC2 including the input field CT is displayed on the touch panel 25, when it is determined that the two-finger operation is performed in the one-hand mode, the numeric keypad image KT for input with respect to the input field is displayed. Is displayed on the touch panel 25.

以上のような態様によれば、両手モードによる操作が行われている旨が判定されるときには、入力欄CTに対する文字入力用のキーボード入力画像KBがタッチパネルに自動的に表示される(図20)ので、操作者の操作性を向上させることが可能である。   According to the above aspect, when it is determined that the operation in the two-hand mode is being performed, the keyboard input image KB for character input to the input field CT is automatically displayed on the touch panel (FIG. 20). Therefore, the operability for the operator can be improved.

また、片手モードによる二本指操作が行われている旨が判定される場合には、入力欄CTに対する数字入力用のテンキー画像KTがタッチパネルに自動的に表示される(図22)ので、操作者の操作性を向上させることが可能である。   When it is determined that a two-finger operation is being performed in the one-hand mode, the numeric keypad image KT for the input field CT is automatically displayed on the touch panel (FIG. 22). It is possible to improve the user's operability.

特に、2種類の操作(詳細には、両手各1本指操作および片手二本指操作)に応じて2種類のキーボード画像KB,KTが選択的に表示されるため、操作者は高い操作性を得ることが可能である。ただし、本発明はこれに限定されず、操作者の操作に応じて、キーボード画像KBのみ(あるいはキーボード画像KTのみ)が表示されるようにしてもよい。   In particular, since two types of keyboard images KB and KT are selectively displayed according to two types of operations (specifically, one-finger operation for both hands and two-finger operation for one hand), the operator has high operability. It is possible to obtain However, the present invention is not limited to this, and only the keyboard image KB (or only the keyboard image KT) may be displayed according to the operation of the operator.

なお、ここでは、テンキー画像KT(図22)が右手二本指操作に応じて表示される態様が例示されているが、これに限定されない。たとえば、左手二本指操作に応じてテンキー画像KTが表示されるようにしてもよい。あるいは、右手および左手の双方による各二本指操作に応じてテンキー画像KTが表示されるようにしてもよい。あるいは、右手および左手の双方による各一本指操作に応じてテンキー画像KTが表示されるようにしてもよい。   Note that, here, a mode in which the numeric keypad image KT (FIG. 22) is displayed in response to a right-handed two-finger operation is illustrated, but the present invention is not limited to this. For example, the numeric keypad image KT may be displayed in response to a left-handed two-finger operation. Alternatively, the numeric keypad image KT may be displayed in accordance with each two-finger operation by both the right hand and the left hand. Alternatively, the numeric keypad image KT may be displayed in accordance with each one-finger operation by both the right hand and the left hand.

キーボード入力画像KB(図20)についても同様である。たとえば、右手および左手の双方による各二本指操作に応じてキーボード入力画像KBが表示されるようにしてもよい。あるいは、片手(右手あるいは左手)のみによる二本指操作に応じてキーボード入力画像KBが表示されるようにしてもよい。   The same applies to the keyboard input image KB (FIG. 20). For example, the keyboard input image KB may be displayed in accordance with each two-finger operation by both the right hand and the left hand. Alternatively, the keyboard input image KB may be displayed in response to a two-finger operation with only one hand (right hand or left hand).

これらの改変例においても、2種類のキーボード画像KB,KTが2種類の操作(両手操作および片手操作)に応じて選択的に表示されることが好ましい。   Also in these modified examples, it is preferable that two types of keyboard images KB and KT are selectively displayed according to two types of operations (two-handed operation and one-handed operation).

また、上記においては、右手と左手との双方が近接センサ21a,21bによって検知され且つタッチパネル25を押下したことに応答して、ソフトウエアキーボードが表示される態様が例示されているが、これに限定されない。たとえば、タッチパネル25の押下操作の有無にかかわらず、右手と左手との双方が近接センサ21a,21bによって検知されたことに応答して、ソフトウエアキーボードが表示されるようにしてもよい。   Further, in the above, a mode in which a software keyboard is displayed in response to detection of both the right hand and the left hand by the proximity sensors 21a and 21b and pressing the touch panel 25 is illustrated. It is not limited. For example, the software keyboard may be displayed in response to detection of both the right hand and the left hand by the proximity sensors 21a and 21b regardless of whether or not the touch panel 25 is pressed.

また、上記においては、電子メールの宛先入力画面について例示したが、これに限定されない。たとえば、ファクシミリ送信等の宛先入力画面(宛先指定画面)についても同様である。また、電子メールおよび/またはファクシミリ送信等の「宛先登録画面」に関しても、上記と同様の思想を適用することが可能である。具体的には、宛先登録画面が表示されている際に両手モードによる操作を行うことによって、宛先登録画面内に設けられた入力欄(たとえばファクシミリ番号入力欄(登録欄))に対する入力用のソフトウエアキーボード(KT等)が、当該宛先登録画面に表示されるようにしてもよい。   In the above description, the e-mail destination input screen is exemplified, but the present invention is not limited to this. For example, the same applies to a destination input screen (destination designation screen) for facsimile transmission or the like. The same idea as described above can also be applied to a “destination registration screen” such as e-mail and / or facsimile transmission. Specifically, input software for an input field (for example, a facsimile number input field (registration field)) provided in the address registration screen by performing an operation in the two-hand mode while the address registration screen is displayed. A wear keyboard (such as KT) may be displayed on the destination registration screen.

<4.第4実施形態>
第4実施形態は、第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明する。
<4. Fourth Embodiment>
The fourth embodiment is a modification of the first embodiment. Below, it demonstrates centering on difference with 1st Embodiment.

第4実施形態においては、両手モードを用いたメニュー設定操作について説明する。なお、この実施形態においては、図13のような態様で近接センサ21a,21bが配置されているものとする。   In the fourth embodiment, a menu setting operation using the two-hand mode will be described. In this embodiment, it is assumed that the proximity sensors 21a and 21b are arranged in a manner as shown in FIG.

図23〜図25は、第4実施形態における画面遷移を示す図である。一方、図26〜図29は、比較例に係る画面遷移を示す図である。   23 to 25 are diagrams showing screen transitions in the fourth embodiment. On the other hand, FIGS. 26 to 29 are diagrams illustrating screen transitions according to the comparative example.

以下では、まず比較例に係る画面遷移操作について、図26〜図29を参照しながら説明する。この比較例においては、近接センサ21は設けられておらず、タッチパネル25に対する押下操作のみに応答して画面が遷移する。   In the following, the screen transition operation according to the comparative example will be described with reference to FIGS. In this comparative example, the proximity sensor 21 is not provided, and the screen changes in response to only a pressing operation on the touch panel 25.

図26は、コピー用のメニュー画面MG1(操作画面)がタッチパネル25に表示されている様子を示す図である。メニュー画面MG1には、複数のソフトウエアキー画像SK(SK1〜SK7)が表示されている。これらの複数のソフトウエアキー画像SKのいずれかが押下されることによって、押下されたソフトウエアキー画像に対応する詳細設定画面SG(操作画面)が表示される。たとえば、ソフトウエアキー画像SK6が操作者の右手の指(たとえば人差し指)で押下されると、動作制御部14は、「両面/ページ集約」設定に関する詳細設定画面SG(SG6)をタッチパネル25にポップアップ表示する(図27)。   FIG. 26 is a diagram showing a state in which a copy menu screen MG1 (operation screen) is displayed on the touch panel 25. A plurality of software key images SK (SK1 to SK7) are displayed on the menu screen MG1. When any one of the plurality of software key images SK is pressed, a detailed setting screen SG (operation screen) corresponding to the pressed software key image is displayed. For example, when software key image SK6 is pressed with the finger (for example, index finger) of the right hand of the operator, operation control unit 14 pops up on touch panel 25 a detailed setting screen SG (SG6) regarding the “both sides / page aggregation” setting. Displayed (FIG. 27).

次に、操作者は、右手(人差し指)をタッチパネル25から一旦離した後に、今度は、詳細設定画面SG内に表示されたソフトウエアキーSBを押下することによって適宜の設定操作を行う。たとえば、ソフトウエアキー「片面>両面」SBが右手の指(たとえば人差し指)で押下されると、「片面」原稿を「両面」印刷する旨が設定される。   Next, the operator once releases the right hand (index finger) from the touch panel 25 and then performs an appropriate setting operation by pressing the software key SB displayed in the detailed setting screen SG. For example, when the software key “single side> double side” SB is pressed with the finger of the right hand (for example, the index finger), it is set that “single side” original is printed “double side”.

その後、操作者は、右手(人差し指)をタッチパネル25から一旦離した後に、今度は、詳細設定画面SGを閉じるための操作を行い、当該操作に応じて詳細設定画面SGからメニュー画面MG1への画面遷移が生じる。具体的には、図28に示すように、詳細設定画面SGを閉じるための「OKボタン(閉じるボタン)」BCが操作者によって押下されると、詳細設定画面SGから元のメニュー画面MG1への画面遷移が生じる(図29参照)。   Thereafter, the operator once releases the right hand (index finger) from the touch panel 25, and then performs an operation for closing the detailed setting screen SG, and the screen from the detailed setting screen SG to the menu screen MG1 according to the operation. A transition occurs. Specifically, as shown in FIG. 28, when an “OK button (close button)” BC for closing the detailed setting screen SG is pressed by the operator, the detailed setting screen SG returns to the original menu screen MG1. Screen transition occurs (see FIG. 29).

次に、第4実施形態に係る画面遷移操作(両手モードを用いた画面遷移操作)について、図23〜図25を参照しながら説明する。   Next, a screen transition operation according to the fourth embodiment (screen transition operation using the two-handed mode) will be described with reference to FIGS.

図23は、図29と同様の状態を示す図であり、メニュー画面MG1がタッチパネル25に表示されている様子を示している。メニュー画面MG1には、複数のソフトウエアキー画像SK(SK1〜SK7)が動作制御部14によって表示されている。これらの複数のソフトウエアキー画像(単にソフトウエアキーとも称する)SKのいずれかを操作者が押下することによって、押下されたソフトウエアキーSKに対応する詳細設定画面SGが表示される。たとえば、ソフトウエアキーSK6が押下されると、動作制御部14は、「両面/ページ集約」設定に関する詳細設定画面SG(SG6)(図24参照)をタッチパネル25にポップアップ表示する。ここでは、ソフトウエアキーSK6が操作者の右手(詳細にはその人差し指)で押下されるとともに、当該ソフトウエアキーSK6の押下状態が暫時継続されるものとする。なお、この時点では、近接センサ21a,21bのうち近接センサ21aのみが反応し右手のみが検知されているため、片手モードによる操作が行われている旨が判定される。   FIG. 23 is a diagram illustrating a state similar to that in FIG. 29, and illustrates a state in which the menu screen MG1 is displayed on the touch panel 25. A plurality of software key images SK (SK1 to SK7) are displayed by the operation control unit 14 on the menu screen MG1. When the operator presses one of the plurality of software key images (also simply referred to as software keys) SK, a detailed setting screen SG corresponding to the pressed software key SK is displayed. For example, when the software key SK6 is pressed, the operation control unit 14 pops up a detailed setting screen SG (SG6) (see FIG. 24) regarding the “both sides / page aggregation” setting on the touch panel 25. Here, it is assumed that software key SK6 is pressed with the operator's right hand (specifically, the index finger) and the pressed state of software key SK6 is continued for a while. At this time, only the proximity sensor 21a reacts and only the right hand is detected among the proximity sensors 21a and 21b, so that it is determined that the operation in the one-handed mode is being performed.

次に、操作者は、詳細設定画面SG内に表示された別のソフトウエアキーSBを今度はもう一方の手(左手)で押下することによって適宜の設定操作を行う。たとえば、図24に示すように、ソフトウエアキー「片面>両面」キーSBが操作者の左手(詳細にはその人差し指)で押下されると、動作制御部14は、「片面」原稿を「両面」印刷する旨を設定する。   Next, the operator performs an appropriate setting operation by pressing another software key SB displayed in the detailed setting screen SG with the other hand (left hand). For example, as shown in FIG. 24, when the software key “single side> double side” key SB is pressed with the left hand of the operator (specifically, the index finger), the operation control unit 14 reads the “single side” document into “double side”. Set to print.

左手によるこの操作時点においては、操作者の右手(詳細にはその人差し指)でソフトウエアキーSK6が押下された状態が維持されている。そのため、近接センサ21a,21bはいずれも反応し、判定部12は両手モードによる操作が行われている旨を判定する。その後、左手がタッチパネル25上に残っている期間においては、近接センサ21a,21bの双方が反応し、両手モードによる操作が行われている旨が引き続き判定される。両手モードによる操作が行われている期間中においては、動作制御部14は、ソフトウエアキーSK6の押下状態が継続されていることを条件に、詳細設定画面SGを引き続きタッチパネル25に表示するとともに詳細設定画面SG内のソフトウエアキーSBの押下操作に応答して詳細設定動作を行う。   At the time of this operation with the left hand, the state where the software key SK6 is pressed with the operator's right hand (specifically, the index finger) is maintained. Therefore, both the proximity sensors 21a and 21b react, and the determination unit 12 determines that an operation in the two-hand mode is being performed. Thereafter, during the period in which the left hand remains on the touch panel 25, it is determined that both the proximity sensors 21a and 21b have reacted and the operation in the two-hand mode is being performed. During the operation in the two-hand mode, the operation control unit 14 continues to display the detailed setting screen SG on the touch panel 25 on the condition that the software key SK6 is continuously pressed. The detailed setting operation is performed in response to the pressing operation of the software key SB in the setting screen SG.

なお、右手がソフトウエアキーSK6から離れる前に左手がタッチパネル25から離れた場合には、近接センサ21bが反応しなくなる。これに応じて、両手モードから片手モードへの切換が行われれ、上記比較例と同様の動作が実行される。   If the left hand leaves the touch panel 25 before the right hand leaves the software key SK6, the proximity sensor 21b does not respond. In response to this, switching from the two-handed mode to the one-handed mode is performed, and the same operation as in the comparative example is executed.

ここでは、ソフトウエアキーSBの押下後においても左手がタッチパネル25上に暫時存在しており、両手モードによる操作が行われている旨が引き続き判定されるものとする。そして、両手モードによる操作が行われている期間中に操作者が右手(詳細にはその人差し指)をソフトウエアキーSK6から離すものとする。このとき、詳細設定画面SGから元のメニュー画面MG1への画面遷移が生じる(図25参照)。具体的には、ソフトウエアキーSK6の押下状態を解除する操作(解除操作)が両手モードによる操作期間中に実行されることに応答して、動作制御部14は、ポップアップ表示されていた詳細設定画面SGを閉じる(詳細設定画面SGを非表示状態に変更する)。   Here, it is assumed that even after the software key SB is pressed, it is determined that the left hand is present on the touch panel 25 for a while and the operation in the two-hand mode is being performed. Then, it is assumed that the operator releases the right hand (specifically, the index finger) from the software key SK6 during the period in which the operation in the two-hand mode is performed. At this time, a screen transition from the detailed setting screen SG to the original menu screen MG1 occurs (see FIG. 25). Specifically, in response to the operation (cancellation operation) for releasing the pressed state of the software key SK6 being executed during the operation period in the two-hand mode, the operation control unit 14 performs the detailed setting displayed in the pop-up display. The screen SG is closed (the detailed setting screen SG is changed to a non-display state).

このような両手モードによる画面遷移操作によれば、比較例のような「OKボタン(閉じるボタン)」BC(図28)の操作を行うことを要さず、ソフトウエアキーSK6の押下状態を解除することにより詳細設定画面SGを閉じること(元のメニュー画面MG1への画面遷移を実現すること)が可能である。したがって、詳細設定画面SGを閉じるために更に別のキー操作(キーSK6,SB以外のキーに対する操作)を行うことを要しないので、操作者は高い操作性を得ることが可能である。換言すれば、両手モードによる操作を利用することによって、操作者は高い操作性を得ることができる。   According to the screen transition operation in such a two-handed mode, it is not necessary to operate the “OK button (close button)” BC (FIG. 28) as in the comparative example, and the pressed state of the software key SK6 is released. By doing so, it is possible to close the detailed setting screen SG (to realize screen transition to the original menu screen MG1). Therefore, since it is not necessary to perform another key operation (operation on keys other than the keys SK6 and SB) in order to close the detailed setting screen SG, the operator can obtain high operability. In other words, the operator can obtain high operability by using the operation in the two-hand mode.

<5.変形例等>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<5. Modified example>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

たとえば、上記各実施形態等においては、2つの近接センサ21が設けられる態様が例示されているが、これに限定されず、3つ以上の近接センサ21が設けられるようにしてもよい。   For example, in each of the above embodiments and the like, a mode in which two proximity sensors 21 are provided is illustrated, but the present invention is not limited to this, and three or more proximity sensors 21 may be provided.

具体的には、図30に示すように、4つの近接センサ21a〜21dがタッチパネル25の右側、左側、上側、下側にそれぞれ設けられるようにしてもよい。この場合、4つの近接センサ21のうちの2つの近接センサ21(たとえば右側の近接センサ21aおよび上側の近接センサ21c)が右手検知用のセンサとして機能し、残りの2つの近接センサ21が左手検知用のセンサとして機能するようにすればよい。具体的には、近接センサ21a,21cの少なくとも一方が反応するとともに近接センサ21b,21dの少なくとも一方もが反応する場合に、両手による操作が行われている旨が判定されるようにすればよい。あるいは、近接センサ21a,21bのうちの一方(例えば近接センサ21a)が反応している際に、残り3つの近接センサ(例えば近接センサ21b,21c,21d)の少なくとも1つが反応する場合に、両手による操作が行われている旨が判定されるようにしてもよい。たとえば、近接センサ21aが反応(右手検知)し且つ近接センサ21cが反応(左手検知)する場合に、両手による操作が行われている旨が判定されるとともに、近接センサ21bが反応(左手検知)し且つ近接センサ21cが反応(右手検知)する場合にも、両手による操作が行われている旨が判定されるようにしてもよい。換言すれば、近接センサ21cは左手検知用のセンサと右手検知用のセンサとを兼用するものとして設けられるようにしてもよい。下側の近接センサ21dも、同様に、右手検知用のセンサと左手検知用のセンサとを兼用するものとして設けられるようにしてもよい。   Specifically, as shown in FIG. 30, four proximity sensors 21a to 21d may be provided on the right side, left side, upper side, and lower side of the touch panel 25, respectively. In this case, two of the four proximity sensors 21 (for example, the right proximity sensor 21a and the upper proximity sensor 21c) function as right-hand detection sensors, and the remaining two proximity sensors 21 detect the left-hand detection. It may be configured to function as a sensor for use. Specifically, when at least one of the proximity sensors 21a and 21c reacts and at least one of the proximity sensors 21b and 21d reacts, it may be determined that an operation with both hands is being performed. . Alternatively, when one of the proximity sensors 21a and 21b (for example, the proximity sensor 21a) is reacting, both hands are used when at least one of the remaining three proximity sensors (for example, the proximity sensors 21b, 21c, and 21d) is reacted. It may be determined that the operation according to is performed. For example, when the proximity sensor 21a reacts (right hand detection) and the proximity sensor 21c reacts (left hand detection), it is determined that an operation with both hands is being performed, and the proximity sensor 21b reacts (left hand detection). Even when the proximity sensor 21c reacts (detects the right hand), it may be determined that an operation with both hands is being performed. In other words, the proximity sensor 21c may be provided as both a left-hand detection sensor and a right-hand detection sensor. Similarly, the lower proximity sensor 21d may be provided to serve as both a right hand detection sensor and a left hand detection sensor.

あるいは、図31に示すように、3つの近接センサ21a,21b,21dがタッチパネル25の右側、左側、下側にそれぞれ設けられるようにしてもよい。この場合、近接センサ21a,21bのうちの一方(例えば近接センサ21b)が反応している際に、残り2つの近接センサ(例えば近接センサ21a,21d)のうちの1つ(たとえば下側の近接センサ21d)もが反応することによって、両手による操作が行われている旨が判定されればよい。端的に言えば、右側の近接センサ21aは右手検知用のセンサとして設けられ且つ左側の近接センサ21bは左手検知用のセンサとして設けられるとともに、下側の近接センサ21dは、右手検知用のセンサと左手検知用のセンサとを兼用するものとして設けられるようにしてもよい。   Alternatively, as shown in FIG. 31, three proximity sensors 21a, 21b, and 21d may be provided on the right side, left side, and lower side of the touch panel 25, respectively. In this case, when one of the proximity sensors 21a and 21b (for example, the proximity sensor 21b) is reacting, one of the remaining two proximity sensors (for example, the proximity sensors 21a and 21d) (for example, the lower proximity sensor). It is only necessary to determine that the operation with both hands is performed by the reaction of the sensor 21d). In short, the right proximity sensor 21a is provided as a right hand detection sensor, the left proximity sensor 21b is provided as a left hand detection sensor, and the lower proximity sensor 21d is a right hand detection sensor. You may make it provide as what also uses the sensor for left-hand detection.

また、上述の図16においては、近接センサ21aが右手検知用のセンサとしてのみ機能し、近接センサ21bが左手検知用のセンサとしてのみ機能する態様が例示されているが、これに限定されない。たとえば、図16における2つの近接センサ21a,21bが、それぞれ、右手検知用のセンサと左手検知用のセンサとを兼用するものとして設けられるようにしてもよい。具体的には、2つの近接センサ21a,21bのうちの一方のみが反応している場合に、片手による操作が行われている旨が判定され、2つの近接センサ21a,21bの双方が反応している場合に、両手による操作が行われている旨が判定されればよい。   Further, in FIG. 16 described above, the proximity sensor 21a functions only as a right-hand detection sensor and the proximity sensor 21b functions only as a left-hand detection sensor. However, the present invention is not limited to this. For example, the two proximity sensors 21a and 21b in FIG. 16 may be provided as both a right-hand detection sensor and a left-hand detection sensor. Specifically, when only one of the two proximity sensors 21a and 21b is reacting, it is determined that an operation with one hand is being performed, and both the two proximity sensors 21a and 21b react. It is only necessary to determine that an operation with both hands is being performed.

また、上記第4実施形態(詳細には、両手モードを用いた画面遷移操作)においては、ソフトウエアキーSK6の押下状態が継続している場合には、ソフトウエアキーSBが押下された後においても詳細設定画面SGは引き続き表示される態様が例示されているが、これに限定されない。たとえば、ソフトウエアキーSK6の押下状態が継続している場合(換言すれば、両手モードによる操作期間中)には、ソフトウエアキーSBの押下操作に応答して詳細設定画面SGが直ちに非表示状態に変更されるようにしてもよい。   In the fourth embodiment (specifically, the screen transition operation using the two-hand mode), when the software key SK6 is continuously pressed, after the software key SB is pressed. However, the detailed setting screen SG is continuously displayed, but is not limited thereto. For example, when the pressed state of the software key SK6 continues (in other words, during the operation period in the two-hand mode), the detailed setting screen SG is immediately hidden in response to the pressed operation of the software key SB. You may make it change to.

より詳細には、まず、タッチパネル25に表示されたメニュー画面MG1内のソフトウエアキーSK6が右手で押下されることに応答して詳細設定画面SGがタッチパネル25にポップアップ表示される(図24参照)。その後、右手によるソフトウエアキーSK6の押下状態が継続されたまま左手によるソフトウエアキーSBに対する押下操作が行われる場合には、両手モードによる操作が行われている旨が判定される。そして、両手モードによる操作期間中に詳細設定画面SG内のソフトウエアキーSBに対する押下操作が実行されることに応答して詳細設定画面SGが直ちに非表示状態に変更される(図25参照)。   More specifically, first, in response to the software key SK6 in the menu screen MG1 displayed on the touch panel 25 being pressed with the right hand, the detailed setting screen SG pops up on the touch panel 25 (see FIG. 24). . Thereafter, when the pressing operation of the software key SB with the left hand is continued while the pressing state of the software key SK6 with the right hand is continued, it is determined that the operation in the two-hand mode is being performed. Then, the detail setting screen SG is immediately changed to the non-display state in response to the pressing operation on the software key SB in the detail setting screen SG during the operation period in the two-hand mode (see FIG. 25).

このように、右手によるソフトウエアキーSK6の押下状態が継続されたまま左手によるソフトウエアキーSBを押下する操作が、両手モードによる操作として実行されることに応答して、詳細設定画面SGが直ちに非表示状態に変更されるようにしてもよい。   In this way, in response to the operation of pressing the software key SB with the left hand while the software key SK6 is pressed with the right hand being executed as an operation in the two-hand mode, the detailed setting screen SG is immediately displayed. You may make it change to a non-display state.

なお、逆に、ソフトウエアキーSK6の押下状態が一旦解除されて片手モードによる操作が行われる場合には、上記比較例と同様に、詳細設定画面SGにおける設定用の各ソフトウエアキーSBが押下されても、詳細設定画面SGは閉じられることなく引き続き表示されるようにしてもよい。   On the other hand, when the software key SK6 is once released and the operation in the one-handed mode is performed, each setting software key SB on the detailed setting screen SG is pressed as in the comparative example. However, the detailed setting screen SG may be continuously displayed without being closed.

このような態様においても、両手モードにおいて操作画面SGを閉じるために更に別のキー操作(キーSK6,SB以外のキーに対する操作)を行うことを要しないので、操作者は高い操作性を得ることが可能である。すなわち、両手モードによる操作を利用することによって、操作者は高い操作性を得ることができる。また、ソフトウエアキーSBの押下により設定が完了した場合において、直ちに詳細設定画面SGを非表示状態に変更することが可能である。   Even in such a mode, since it is not necessary to perform another key operation (operation on keys other than the keys SK6 and SB) in order to close the operation screen SG in the two-hand mode, the operator can obtain high operability. Is possible. That is, the operator can obtain high operability by using the operation in the two-hand mode. In addition, when the setting is completed by pressing the software key SB, the detailed setting screen SG can be immediately changed to the non-display state.

また、上記各実施形態等においては、近接センサ21によって右手および左手が検知される態様が例示されているが、これに限定されない。たとえば、他のセンサ(画像センサ等)によって右手および/または左手が検知されるようにしてもよい。   Moreover, in each said embodiment etc., although the right hand and the left hand are detected by the proximity sensor 21, it is illustrated, It is not limited to this. For example, the right hand and / or the left hand may be detected by another sensor (image sensor or the like).

10 MFP(画像形成装置)
6c 操作パネル部
21,21a〜21d 近接センサ
25 タッチパネル
GA 表(おもて)面画像
GB 裏面画像
GC 右側画像
GD 左側画像
KB,KT キーボード画像
10 MFP (image forming apparatus)
6c Operation panel part 21, 21a-21d Proximity sensor 25 Touch panel GA Front (front) surface image GB Back surface image GC Right image GD Left image KB, KT Keyboard image

Claims (8)

画像形成装置であって、
操作者からの操作入力を受け付けるタッチパネルと、
前記タッチパネルに対する操作を行っている前記操作者の両手のうちの一方の手である第1の手を検知する第1検知手段と、
前記両手のうちの他方の手である第2の手を検知する第2検知手段と、
前記第1検知手段により前記第1の手が検知され且つ前記第2検知手段により前記第2の手が検知されるときには、両手モードによる操作が行われている旨を判定し、前記第1検知手段および前記第2検知手段により前記両手のうちの一の手のみが検知されるときには、片手モードによる操作が行われている旨を判定し、前記片手モードと前記両手モードとのいずれによる操作が行われているかに関する判定結果に基づいて、前記タッチパネルに対する操作内容を判定する判定手段と、
前記判定手段による判定結果に応じた動作を実行する動作制御手段と、
を備え、
前記判定手段は、
前記タッチパネルにて異なる2つの位置に対する押下操作が検出される場合、前記片手モードと前記両手モードとのいずれによる操作が行われているかに関する判定結果に基づいて、前記片手による二本指操作が行われている状況と前記両手のそれぞれによって一本指操作が行われている状況とを区別して判定し、
前記タッチパネルにて異なる2つの位置に対する押下操作が検出される場合において、前記第1検知手段と前記第2検知手段とにより前記両手のうちの片手のみが検知され前記片手モードによる操作が行われている旨の判定結果が得られるときには、前記片手による二本指操作が行われている状況である旨を当該判定結果に基づいて判定し、
前記タッチパネルにて異なる2つの位置に対する押下操作が検出される場合において、前記第1検知手段と前記第2検知手段とにより前記両手の双方が検知され前記両手モードによる操作が行われている旨の判定結果が得られるときには、前記両手のそれぞれによって一本指操作が行われている状況である旨を当該判定結果に基づいて判定することを特徴とする画像形成装置。
An image forming apparatus,
A touch panel that accepts operation input from an operator;
First detection means for detecting a first hand that is one of both hands of the operator performing an operation on the touch panel;
A second detection means for detecting a second hand which is the other hand of the two hands;
When the first hand is detected by the first detection means and the second hand is detected by the second detection means, it is determined that an operation in a two-hand mode is being performed, and the first detection When only one of the two hands is detected by the means and the second detecting means, it is determined that the operation in the one-handed mode is performed, and the operation in either the one-handed mode or the two-handed mode is performed. Determination means for determining operation details on the touch panel based on a determination result relating to whether the operation is performed;
An operation control means for executing an action according to a determination result by the determination means;
With
The determination means includes
When a pressing operation on two different positions is detected on the touch panel, a two-finger operation with the one hand is performed based on a determination result regarding which operation is performed in the one-hand mode or the two-hand mode. Discriminating between the situation where one finger is operated by each of the both hands,
In the case where pressing operations at two different positions are detected on the touch panel, only one of the two hands is detected by the first detection means and the second detection means, and the operation in the one-hand mode is performed. Is determined based on the determination result that the two-finger operation with one hand is being performed,
When a pressing operation on two different positions is detected on the touch panel , both the hands are detected by the first detection means and the second detection means, and the operation in the two-hand mode is performed. When the determination result is obtained, it is determined based on the determination result that the one-finger operation is performed by each of the both hands.
請求項1に記載の画像形成装置において、
前記判定手段は、
前記第1検知手段と前記第2検知手段とにより前記両手のうちの片手のみが検知され且つ前記タッチパネル上の単一の位置に対する押下操作が行われるときには、前記片手による一本指操作が行われている旨を判定し、
前記第1検知手段と前記第2検知手段とにより前記両手の双方が検知され且つ前記タッチパネル上の異なる4つの位置に対する押下操作が行われるときには、前記両手のそれぞれによって二本指操作が行われている旨を判定することを特徴とする画像形成装置。
The image forming apparatus according to claim 1 .
The determination means includes
When only one hand of the two hands is detected by the first detection means and the second detection means and a pressing operation is performed on a single position on the touch panel, a one-finger operation with the one hand is performed. It is determined that
When both the hands are detected by the first detection means and the second detection means and a pressing operation is performed on four different positions on the touch panel, a two-finger operation is performed by each of the both hands. An image forming apparatus that determines whether the image is present.
請求項2に記載の画像形成装置において、
前記判定手段は、
前記第1検知手段と前記第2検知手段とにより前記両手の双方が検知され且つ前記タッチパネル上の異なる3つの位置に対する押下操作が行われるときには、前記両手のうちの一の手によって二本指操作が行われ且つ、前記両手のうちの他の手によって一本指操作が行われている旨を判定することを特徴とする画像形成装置。
The image forming apparatus according to claim 2 .
The determination means includes
When both the hands are detected by the first detection means and the second detection means and a pressing operation is performed on three different positions on the touch panel, a two-finger operation is performed by one of the hands. And determining that a one-finger operation is being performed by the other hand of the two hands.
請求項1ないし請求項3のいずれかに記載の画像形成装置において、
前記タッチパネルは、第1の画像と第2の画像とを表示し、
前記動作制御手段は、
前記第1の手による前記一本指操作に応じて前記第1の画像の移動動作を実行し、
前記第2の手による前記一本指操作に応じて前記第2の画像の移動動作を実行し、
前記第1の手による前記二本指操作に応じて前記第1の画像の回転動作および/または変倍動作を実行し、
前記第2の手による前記二本指操作に応じて前記第2の画像の回転動作および/または変倍動作を実行することを特徴とする画像形成装置。
It claims 1 An image forming apparatus according to claim 3,
The touch panel displays a first image and a second image,
The operation control means includes
Performing a movement operation of the first image in response to the one-finger operation by the first hand;
Performing a movement operation of the second image in response to the one-finger operation by the second hand;
Performing a rotation operation and / or a scaling operation of the first image in response to the two-finger operation by the first hand;
An image forming apparatus, wherein a rotation operation and / or a scaling operation of the second image is executed in response to the two-finger operation by the second hand.
請求項4に記載の画像形成装置において、
前記第1の画像は、両面プレビューにおける表面画像であり、
前記第2の画像は、前記両面プレビューにおける裏面画像であり、
前記タッチパネルにおいて、前記表面画像と前記裏面画像とは互いに重複して表示されていることを特徴とする画像形成装置。
The image forming apparatus according to claim 4 .
The first image is a surface image in a double-sided preview;
The second image is a back image in the double-sided preview,
In the touch panel, the front surface image and the back surface image are displayed overlapping each other.
請求項4に記載の画像形成装置において、
前記第1の画像は、前記タッチパネル内における左右方向における一方側に配置された画像であり、
前記第2の画像は、前記タッチパネル内における左右方向における他方側に配置された画像であり、
前記タッチパネルにおいて、前記第1の画像と前記第2の画像とは互いに離間されて表示されていることを特徴とする画像形成装置。
The image forming apparatus according to claim 4 .
The first image is an image arranged on one side in the left-right direction in the touch panel,
The second image is an image arranged on the other side in the left-right direction in the touch panel,
In the touch panel, the first image and the second image are displayed separately from each other.
請求項1ないし請求項3のいずれかに記載の画像形成装置において、
前記動作制御手段は、入力欄を含む操作画面が前記タッチパネルに表示されている場合において、前記両手モードによる操作が行われた旨が前記判定手段により判定されるときには、前記入力欄に対する入力用のキーボード入力画像を前記タッチパネルに表示することを特徴とする画像形成装置。
The image forming apparatus according to any one of claims 1 to 3 ,
In the case where an operation screen including an input field is displayed on the touch panel and the determination means determines that the operation in the two-hand mode has been performed, the operation control unit is configured to input the input field. An image forming apparatus, wherein a keyboard input image is displayed on the touch panel.
請求項1ないし請求項3のいずれかに記載の画像形成装置において、
前記動作制御手段は、入力欄を含む操作画面が前記タッチパネルに表示されている場合において、
前記両手のそれぞれによって一本指操作が行われている旨が前記判定手段により判定されるときには、前記入力欄に対する文字入力用のキーボード入力画像を前記タッチパネルに表示し、
前記片手による前記二本指操作が行われている旨が前記判定手段により判定されるときには、前記入力欄に対する数字入力用のソフトウエアテンキー画像を前記タッチパネルに表示することを特徴とする画像形成装置。
The image forming apparatus according to any one of claims 1 to 3 ,
In the case where an operation screen including an input field is displayed on the touch panel, the operation control means
When the determination means determines that a one-finger operation is being performed by each of the two hands, a keyboard input image for character input to the input field is displayed on the touch panel,
An image forming apparatus, wherein when the determination unit determines that the two-finger operation with the one hand is being performed, a numeric software numeric keypad image for the input field is displayed on the touch panel. .
JP2017138074A 2017-07-14 2017-07-14 Image forming apparatus Active JP6394757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017138074A JP6394757B2 (en) 2017-07-14 2017-07-14 Image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017138074A JP6394757B2 (en) 2017-07-14 2017-07-14 Image forming apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012276088A Division JP6205716B2 (en) 2012-12-18 2012-12-18 Image forming apparatus

Publications (2)

Publication Number Publication Date
JP2017224314A JP2017224314A (en) 2017-12-21
JP6394757B2 true JP6394757B2 (en) 2018-09-26

Family

ID=60686072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017138074A Active JP6394757B2 (en) 2017-07-14 2017-07-14 Image forming apparatus

Country Status (1)

Country Link
JP (1) JP6394757B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4014790B2 (en) * 2000-08-11 2007-11-28 セイコーエプソン株式会社 Medium recording print preview program, print preview apparatus, and print preview method
JP5601997B2 (en) * 2010-12-06 2014-10-08 シャープ株式会社 Image forming apparatus and display control method
JP5373836B2 (en) * 2011-03-01 2013-12-18 シャープ株式会社 Operation instruction apparatus and image forming apparatus having the same

Also Published As

Publication number Publication date
JP2017224314A (en) 2017-12-21

Similar Documents

Publication Publication Date Title
JP5314887B2 (en) Setting method of output image including image processing information and setting control program thereof
JP5958233B2 (en) Image forming apparatus and program
JP5874465B2 (en) Information processing apparatus, image forming apparatus, information processing apparatus control method, image forming apparatus control method, information processing apparatus control program, and image forming apparatus control program
US10812682B2 (en) Scan privacy tool and methods using sensors or control buttons
JP6053332B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2010003098A (en) Input device, operation acceptance method and operation acceptance program
JP5234097B2 (en) Image forming apparatus, display control apparatus, and program
JP6840571B2 (en) Image processing device, control method of image processing device, and program
JP6217576B2 (en) Image forming apparatus and screen operation method
JP6080461B2 (en) Operation receiving apparatus and method, and program
JP6394757B2 (en) Image forming apparatus
JP6205716B2 (en) Image forming apparatus
JP6428693B2 (en) Display operation device and operation instruction receiving program
JP2015014888A (en) Operation device, image forming apparatus, control method of operation device, and program
JP2013164659A (en) Image processing apparatus, method for controlling image processing apparatus, and program
JP6539328B2 (en) Image forming apparatus and program
JP6213581B2 (en) Information processing apparatus and control program for information processing apparatus
JP6435879B2 (en) Input device, image forming apparatus, display method, and program
JP4581581B2 (en) Document processing device
JP2013084024A (en) Information apparatus, image processing device, display control method of operation screen, and computer program
JP2006113765A (en) Document processor
JP6427234B2 (en) INPUT DEVICE, IMAGE READING DEVICE, IMAGE FORMING DEVICE, INPUT METHOD, AND PROGRAM
JP6246958B2 (en) Image forming apparatus and program
JP6455476B2 (en) Display operation device and operation instruction receiving program
JP6190925B2 (en) Display device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180813

R150 Certificate of patent or registration of utility model

Ref document number: 6394757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150