JP2017185821A - Image formation device and image processing method - Google Patents

Image formation device and image processing method Download PDF

Info

Publication number
JP2017185821A
JP2017185821A JP2017135215A JP2017135215A JP2017185821A JP 2017185821 A JP2017185821 A JP 2017185821A JP 2017135215 A JP2017135215 A JP 2017135215A JP 2017135215 A JP2017135215 A JP 2017135215A JP 2017185821 A JP2017185821 A JP 2017185821A
Authority
JP
Japan
Prior art keywords
image
paper
unit
editing
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017135215A
Other languages
Japanese (ja)
Inventor
松本 雅則
Masanori Matsumoto
雅則 松本
健 谷
Ken Tani
健 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017135215A priority Critical patent/JP2017185821A/en
Publication of JP2017185821A publication Critical patent/JP2017185821A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image formation device and an image processing method, capable of editing any of an object image which represents an object related to image formation, being contained in a display image that is displayed on a display part and a medium image representing a recording medium, for reduced labor of a user.SOLUTION: In an image formation device, editing is made on any one of a selected object image and a medium image, by selecting any one of the object image and the medium image based on two points of touch positions on a display screen, for a display image that is displayed on the display screen of a display part containing the object image and the medium image representing respectively the object related to image formation and the recording medium. The display part displays, for discrimination, any one of the selected object image and the medium image.SELECTED DRAWING: Figure 2

Description

本発明は、表示部に表示された表示画像に基づき、シート状の記録媒体に画像形成を行なう画像形成装置及び画像処理方法に関する。   The present invention relates to an image forming apparatus and an image processing method for forming an image on a sheet-like recording medium based on a display image displayed on a display unit.

近年、表示部に例えば透明のタッチパネルを重ねて、該表示部に表示された表示画像に対するタッチ操作を検出して所定の指示を受け付ける電子機器が広く普及されている。   2. Description of the Related Art In recent years, electronic devices that receive a predetermined instruction by superimposing a transparent touch panel, for example, on a display unit and detecting a touch operation on a display image displayed on the display unit have been widely spread.

例えば、特許文献1には、地図のような表示画像を表示部に表示し、利用者が該表示画像に対して透明タッチパネルを介して2本の指をタッチして、該2本の指の間隔を変化させるいわゆるピンチイン又はピンチアウトの操作を行なうことにより、前記表示画像を拡大・縮小できる携帯情報機器が開示されている。   For example, in Patent Document 1, a display image such as a map is displayed on a display unit, and a user touches two fingers on the display image via a transparent touch panel, and the two fingers There has been disclosed a portable information device capable of enlarging / reducing the display image by performing a so-called pinch-in or pinch-out operation for changing the interval.

特開2000−163031号公報JP 2000-163031 A

一方、表示部に表示されている表示画像の編集においては、該表示画像の一部に対して編集を行なう部分的編集の要望が存在する。しかし、このような部分的編集のためには、斯かる編集の度に、対象となる部分を選択すると言う煩雑な操作が必要とされる。上述した特許文献1の携帯情報機器においては、このような問題に対する解決方法に関して何ら工夫も開示もされていない。   On the other hand, in editing the display image displayed on the display unit, there is a demand for partial editing for editing a part of the display image. However, for such partial editing, a complicated operation of selecting a target portion every time such editing is required. In the portable information device of Patent Document 1 described above, no contrivance or disclosure is disclosed regarding a solution to such a problem.

本発明は、斯かる事情に鑑みてなされたものであり、その目的とするところは、表示部の表示画面への2点の接触位置を検出し、検出された2点の位置に基づき、前記表示画像に含まれる、画像形成に係るオブジェクトを表すオブジェクト画像、及び、記録媒体を表す媒体画像の何れか一方を選択し、選択された前記オブジェクト画像、及び、前記媒体画像の何れか一方に対して編集を行なうことができ、利用者の手間を減らすことが出来る画像形成装置及び画像処理方法を提供することにある。   The present invention has been made in view of such circumstances, and the object of the present invention is to detect two contact positions on the display screen of the display unit, and based on the detected two positions, One of an object image representing an object relating to image formation and a medium image representing a recording medium included in the display image is selected, and the selected object image and the medium image are selected. It is an object of the present invention to provide an image forming apparatus and an image processing method capable of performing editing and reducing labor of a user.

本発明に係る画像形成装置は、表示部と、該表示部の表示画面への接触位置を検出する位置検出部とを備え、前記表示部に表示された表示画像に基づき、シート状の記録媒体に画像形成を行なう画像形成装置において、大きさが異なる複数種の記録媒体を有しており、前記位置検出部によって検出された2点間の距離の伸縮に基づき、画像形成に係る記録媒体を決定する媒体決定手段を備えることを特徴とする。   An image forming apparatus according to the present invention includes a display unit and a position detection unit that detects a contact position of the display unit on a display screen, and based on the display image displayed on the display unit, a sheet-like recording medium The image forming apparatus for forming an image has a plurality of types of recording media having different sizes, and the recording medium for image formation is based on the expansion and contraction of the distance between the two points detected by the position detection unit. A medium determining means for determining is provided.

本発明にあっては、前記位置検出部によって前記表示画面上の2点が検出された場合、該2点間の距離の伸縮に基づき、前記表示部に表示された表示画像を画像形成すべき対象たる記録媒体を決定し、決定された記録媒体に画像形成が行なわれる。   In the present invention, when two points on the display screen are detected by the position detection unit, the display image displayed on the display unit should be imaged based on the expansion and contraction of the distance between the two points. A target recording medium is determined, and image formation is performed on the determined recording medium.

本発明に係る画像形成装置は、前記媒体決定手段によって決定された記録媒体に係る情報を前記表示部に表示する手段を備えることを特徴とする。   The image forming apparatus according to the present invention includes means for displaying information on the recording medium determined by the medium determining means on the display unit.

本発明にあっては、前記媒体決定手段によって所定の記録媒体が決定された場合、決定された記録媒体に係る情報が前記表示部に表示される。   In the present invention, when a predetermined recording medium is determined by the medium determining means, information relating to the determined recording medium is displayed on the display unit.

本発明に係る記録媒体決定方法は、表示部と、該表示部の表示画面への接触位置を検出する位置検出部とを備え、前記表示部に表示された表示画像に基づき、大きさが異なる複数種のシート状の記録媒体に画像形成を行なう画像形成装置にて、前記記録媒体の決定を行なう記録媒体決定方法において、前記位置検出部によって検出された2点間の距離の伸縮に基づき、画像形成に係る記録媒体を決定するステップを含むことを特徴とする。   The recording medium determination method according to the present invention includes a display unit and a position detection unit that detects a contact position of the display unit on the display screen, and the sizes are different based on the display image displayed on the display unit. In an image forming apparatus for forming an image on a plurality of types of sheet-like recording media, in the recording medium determination method for determining the recording medium, based on the expansion and contraction of the distance between the two points detected by the position detection unit, The method includes a step of determining a recording medium for image formation.

本発明に係るコンピュータプログラムは、表示部と、該表示部の表示画面への接触位置を検出する位置検出部とを備え、前記表示部に表示された表示画像に基づき、大きさが異なる複数種のシート状の記録媒体に画像形成を行なう画像形成装置を構成するコンピュータに、前記表示画像の編集を行なわせるコンピュータプログラムにおいて、コンピュータに、前記位置検出部によって検出された2点間の距離の伸縮に基づき、画像形成に係る記録媒体を決定させるステップを実行させることを特徴とする。   A computer program according to the present invention includes a display unit and a position detection unit that detects a contact position of the display unit on the display screen, and a plurality of types having different sizes based on a display image displayed on the display unit. In a computer program for causing a computer constituting an image forming apparatus that forms an image on a sheet-like recording medium to edit the display image, the computer causes the distance between the two points detected by the position detection unit to be expanded or contracted. Based on the above, a step of determining a recording medium for image formation is executed.

本発明にあっては、前記位置検出部によって前記表示画面上の2点が検出された場合、該2間の距離の伸縮に基づき、前記表示部に表示された表示画像を画像形成すべき対象たる記録媒体が決定され、決定された記録媒体に画像形成が行なわれる。   In the present invention, when two points on the display screen are detected by the position detection unit, the display image displayed on the display unit is to be imaged based on the expansion and contraction of the distance between the two. The recording medium is determined, and image formation is performed on the determined recording medium.

本発明に係る記録媒体は、前述の発明のコンピュータプログラムを記録してあることを特徴とする。   A recording medium according to the present invention records the computer program of the above-described invention.

本発明にあっては、前記記録媒体に前述のコンピュータプログラムを記録する。コンピュータが前記記録媒体からコンピュータプログラムを読み出して、前述の画像形成装置及び記録媒体決定方法がコンピュータにより実現される。
また、本発明に係る画像形成装置は、画像形成に係るオブジェクト及び記録媒体を夫々表すオブジェクト画像及び媒体画像を含んで表示部の表示画面に表示される表示画像に対し、前記表示画面上の2点のタッチ位置に基づき、前記オブジェクト画像及び前記媒体画像の何れか一方を選択し、選択されたオブジェクト画像及び媒体画像の何れか一方に対して編集を行う画像形成装置において、前記表示部は選択されたオブジェクト画像及び媒体画像の何れか一方を識別可能に表示することを特徴とする。
また、本発明に係る画像形成装置は、前記表示部は選択に係るオブジェクト画像及び媒体画像の何れか一方に対する表示形態を、前記選択の前後にて変更することを特徴とする。
また、本発明に係る画像形成装置は、前記表示部は、選択されたオブジェクト画像及び媒体画像の何れか一方に色を付け、又は、点滅させることを特徴とする。
また、本発明に係る画像形成装置は、前記表示部は、選択されたオブジェクト画像及び媒体画像の何れか一方に関する情報のみを表示することを特徴とする。
また、本発明に係る画像処理方法は、画像形成に係るオブジェクト及び記録媒体を夫々表すオブジェクト画像及び媒体画像を含んで表示部の表示画面に表示される表示画像に対し、前記表示画面上の2点のタッチ位置に基づき、前記オブジェクト画像及び前記媒体画像の何れか一方を選択し、選択されたオブジェクト画像及び媒体画像の何れか一方に対して編集を行う画像形成装置での画像処理方法において、前記表示部は選択されたオブジェクト画像及び媒体画像の何れか一方を識別可能に表示することを特徴とする。
In the present invention, the aforementioned computer program is recorded on the recording medium. The computer reads the computer program from the recording medium, and the above-described image forming apparatus and recording medium determination method are realized by the computer.
In addition, the image forming apparatus according to the present invention is configured to display two images on the display screen with respect to a display image displayed on the display screen of the display unit including the object image and the medium image representing the object related to image formation and the recording medium. In the image forming apparatus that selects either the object image or the medium image based on the touch position of the point, and edits either the selected object image or the medium image, the display unit selects Any one of the object image and the medium image thus displayed is displayed in an identifiable manner.
Further, the image forming apparatus according to the present invention is characterized in that the display unit changes a display form for any one of the object image and the medium image related to the selection before and after the selection.
Further, the image forming apparatus according to the present invention is characterized in that the display unit colors or blinks any one of the selected object image and medium image.
Further, the image forming apparatus according to the present invention is characterized in that the display unit displays only information relating to any one of the selected object image and medium image.
Further, the image processing method according to the present invention provides a display image displayed on a display screen of a display unit including an object image and a medium image respectively representing an object related to image formation and a recording medium. In an image processing method in an image forming apparatus that selects one of the object image and the medium image based on a touch position of a point and edits either the selected object image or the medium image. The display unit displays any one of the selected object image and medium image in an identifiable manner.

本発明によれば、前記位置検出部によって検出された2点の位置に基づき、前記表示画像に含まれる、画像形成に係るオブジェクトを表すオブジェクト画像、及び、前記記録媒体を表す媒体画像の何れか一方を選択し、選択された前記オブジェクト画像、及び、前記媒体画像の何れか一方に対して編集を行なうことができ、利用者の手間を減らすことが出来る。   According to the present invention, one of an object image representing an object related to image formation and a medium image representing the recording medium included in the display image based on the positions of the two points detected by the position detection unit. One can be selected and any one of the selected object image and medium image can be edited, reducing the user's effort.

本発明の実施の形態1の複合機の要部構成を示すブロック図である。1 is a block diagram illustrating a main configuration of a multifunction machine according to a first embodiment of the present invention. 本発明の実施の形態1の複合機における、制御部の要部構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a main configuration of a control unit in the multifunction machine according to the first embodiment of the present invention. 本発明の実施の形態1に係る複合機における、画像編集処理を説明するフローチャートである。6 is a flowchart for explaining image editing processing in the multifunction peripheral according to the first embodiment of the present invention. 本発明の実施の形態1に係る複合機における、画像編集処理を説明するフローチャートである。6 is a flowchart for explaining image editing processing in the multifunction peripheral according to the first embodiment of the present invention. 本発明の実施の形態1に係る複合機における、プレビュー画像の回転処理を説明する説明図である。FIG. 6 is an explanatory diagram for explaining preview image rotation processing in the multifunction peripheral according to the first embodiment of the present invention; 本発明の実施の形態1に係る複合機における、オブジェクト画像の編集を説明する説明図である。FIG. 5 is an explanatory diagram for explaining editing of an object image in the multifunction machine according to the first embodiment of the present invention. 本発明の実施の形態1に係る複合機における、用紙画像の編集を説明する説明図である。FIG. 5 is an explanatory diagram illustrating editing of a paper image in the multifunction machine according to the first embodiment of the present invention. 本発明の実施の形態1に係る複合機における、用紙画像の編集を説明する説明図である。FIG. 5 is an explanatory diagram illustrating editing of a paper image in the multifunction machine according to the first embodiment of the present invention. 本発明の実施の形態2に係る複合機において、記憶部に記憶されている対応テーブルの一例を示す例示図である。FIG. 6 is an exemplary diagram illustrating an example of a correspondence table stored in a storage unit in a multifunction peripheral according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る複合機における、画像編集処理を説明するフローチャートである。7 is a flowchart for explaining image editing processing in a multifunction peripheral according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る複合機における、画像編集処理を説明するフローチャートである。7 is a flowchart for explaining image editing processing in a multifunction peripheral according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る複合機における、画像編集処理を説明するフローチャートである。7 is a flowchart for explaining image editing processing in a multifunction peripheral according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る複合機における、オブジェクト画像の編集を説明する説明図である。It is explanatory drawing explaining the edit of an object image in the multi-function device which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る複合機における、用紙画像の拡大の編集を説明する説明図である。FIG. 12 is an explanatory diagram for explaining enlargement editing of a paper image in a multifunction peripheral according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る複合機において、用紙画像及びオブジェクト画像を共に編集する場合を説明する説明図である。FIG. 10 is an explanatory diagram for explaining a case where both a paper image and an object image are edited in a multifunction machine according to a second embodiment of the present invention. 本発明の実施の形態2に係る複合機において、用紙画像及びオブジェクト画像を共に編集する場合を説明する説明図である。FIG. 10 is an explanatory diagram for explaining a case where both a paper image and an object image are edited in a multifunction machine according to a second embodiment of the present invention. 本発明の実施の形態3の複合機の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the multifunctional device of Embodiment 3 of this invention.

以下に、本発明の実施の形態に係る画像形成装置及び画像処理方法を、いわゆるタッチパネルの機能を有する複合機100に適用した場合を例として、図面に基づいて詳述する。   Hereinafter, an example in which the image forming apparatus and the image processing method according to the embodiment of the present invention are applied to a multifunction device 100 having a so-called touch panel function will be described in detail with reference to the drawings.

(実施の形態1)
図1は本発明の実施の形態1の複合機100の要部構成を示すブロック図である。複合機100は、制御部1と、CPU2と、ROM3と、RAM4と、記憶部5と、表示部6と、表示制御部7と、位置検出部8と、画像入力部9と、画像出力部10と、画像処理部11と、操作パネル12と、トレイ部13とを備えている。
(Embodiment 1)
FIG. 1 is a block diagram showing a main configuration of a multifunction machine 100 according to the first embodiment of the present invention. The multifunction device 100 includes a control unit 1, a CPU 2, a ROM 3, a RAM 4, a storage unit 5, a display unit 6, a display control unit 7, a position detection unit 8, an image input unit 9, and an image output unit. 10, an image processing unit 11, an operation panel 12, and a tray unit 13.

ROM3には各種の制御プログラム、演算用のパラメータのうちの基本的に固定のデータ等が予め格納されており、RAM4はデータを一時的に記憶し、記憶順、記憶位置等に関係なく読み出すことが可能である。また、RAM4は、例えば、ROM3から読み出されたプログラム、該プログラムを実行することにより発生する各種データ、該実行の際適宜変化するパラメータ等を記憶する。   The ROM 3 stores various types of control programs, basically fixed data among parameters for calculation, and the like. The RAM 4 temporarily stores the data and reads it regardless of the storage order, storage position, etc. Is possible. The RAM 4 stores, for example, a program read from the ROM 3, various data generated by executing the program, parameters that change as appropriate during the execution, and the like.

CPU2は、ROM3に予め格納されている制御プログラムをRAM4上にロードして実行することによって、上述した各種ハードウェアの制御を行ない、装置全体を本発明の複合機100として動作させる。また、CPU2は、位置検出部8を介して、利用者から所定処理の指示を受け付ける。   The CPU 2 loads the control program stored in advance in the ROM 3 onto the RAM 4 and executes it, thereby controlling the various hardware described above and operating the entire apparatus as the multifunction peripheral 100 of the present invention. In addition, the CPU 2 receives an instruction for predetermined processing from the user via the position detection unit 8.

記憶部5は、例えば、フラッシュメモリ、EEPROM、HDD、MRAM(磁気抵抗メモリ)、FeRAM(強誘電体メモリ)、又は、OUM等の不揮発性の記憶媒体により構成されている。   The storage unit 5 is configured by a nonvolatile storage medium such as flash memory, EEPROM, HDD, MRAM (magnetoresistance memory), FeRAM (ferroelectric memory), or OUM.

表示部6は、例えば、LCD又はEL(Electroluminescence)パネル等からなり、画像出力部10を介して、所定の記録用紙へ出力(印刷)すべき画像(表示画像)が表示される。また、表示部6は、複合機100の状態、ジョブ処理の状況、画像入力部9が読み取った原稿の画像及び操作パネル12の操作内容の確認等、利用者に対して報知すべき情報を表示する。また、表示部6の表示画面は位置検出部8によって覆われている。   The display unit 6 includes, for example, an LCD or an EL (Electroluminescence) panel, and displays an image (display image) to be output (printed) on a predetermined recording sheet via the image output unit 10. The display unit 6 displays information to be notified to the user, such as the status of the multifunction peripheral 100, the job processing status, the image of the original read by the image input unit 9 and the operation content of the operation panel 12. To do. Further, the display screen of the display unit 6 is covered with a position detection unit 8.

表示制御部7は、DSP(Digital Signal Processor)のようなプロセッサにより構成され、表示部6への画像表示を制御する。例えば、CPU2の指示に応じて表示部6に表示すべき画像の画像データを生成する。   The display control unit 7 is configured by a processor such as a DSP (Digital Signal Processor), and controls image display on the display unit 6. For example, image data of an image to be displayed on the display unit 6 is generated in accordance with an instruction from the CPU 2.

位置検出部8は、タッチパネル81を有しており、タッチパネル81は表示部6の表示画面を覆うように設けられている。従って、位置検出部8は利用者のタッチ操作により表示部6の表示画面上における所定位置を検出することができる。位置検出部8は利用者の指先のタッチ操作による圧力の変化を検知し、又は静電気による電気信号を検知して、利用者の指先の接触位置に対応する表示部6の表示画面上の座標を検出し、該座標を特定する信号を発生する。また、位置検出部8は、これに限るものでなく、ポインティングデバイス(例えば、スタイラスペン)等を用いる構成であっても良い。   The position detection unit 8 includes a touch panel 81, and the touch panel 81 is provided so as to cover the display screen of the display unit 6. Therefore, the position detection unit 8 can detect a predetermined position on the display screen of the display unit 6 by a user's touch operation. The position detection unit 8 detects a change in pressure due to the touch operation of the user's fingertip or detects an electric signal due to static electricity, and obtains coordinates on the display screen of the display unit 6 corresponding to the contact position of the user's fingertip. A signal for detecting and specifying the coordinates is generated. The position detection unit 8 is not limited to this, and may be configured to use a pointing device (for example, a stylus pen).

画像入力部9は、読み取り用の原稿に光を照射する光源、CCD(Charge Coupled Device)のようなイメージセンサ等を有し、該原稿の画像データの光学的読み取りを行なう。また、画像入力部9では、所定の読取り位置に載置された原稿からの反射光像を当該イメージセンサに結像させ、RGB(R : Red, G : Green, B : Blue)のアナログデータを出力する。   The image input unit 9 includes a light source that irradiates light to a reading document, an image sensor such as a CCD (Charge Coupled Device), and the like, and optically reads image data of the document. The image input unit 9 forms a reflected light image from a document placed at a predetermined reading position on the image sensor, and generates RGB (R: Red, G: Green, B: Blue) analog data. Output.

画像出力部10は、画像処理部11から出力される画像データに基づく画像を記録用紙、OHPフィルム等の記録媒体上に印刷する。画像出力部10は、感光体ドラム、該感光体ドラムを所定の電位に帯電させる帯電器、外部から受付けた画像データに応じてレーザ光を発して感光体ドラム上に静電潜像を生成させるレーザ書込装置、感光体ドラム表面に形成された静電潜像にトナーを供給して現像化する現像器、感光体ドラム表面に形成されたトナー像を記録媒体上に転写する転写器等を備えており、例えば、電子写真方式にて画像を記録媒体上に出力する。   The image output unit 10 prints an image based on the image data output from the image processing unit 11 on a recording medium such as recording paper or an OHP film. The image output unit 10 generates a electrostatic latent image on the photosensitive drum by emitting a laser beam in accordance with the photosensitive drum, a charger for charging the photosensitive drum to a predetermined potential, and image data received from the outside. A laser writing device, a developing device for supplying toner to the electrostatic latent image formed on the surface of the photosensitive drum for development, a transfer device for transferring the toner image formed on the surface of the photosensitive drum onto a recording medium, etc. For example, an image is output onto a recording medium by electrophotography.

画像処理部11は、例えば、画像入力部9から入力されるアナログデータを基にディジタル形式の画像データを生成し、又は記憶部5に記憶されている画像データを読み出し、夫々の画像の種類に応じた処理を施した後、出力(印刷)すべき画像データを生成する。画像処理部11によって生成された出力用画像データは、画像出力部10に出力される。   For example, the image processing unit 11 generates digital image data based on the analog data input from the image input unit 9 or reads out the image data stored in the storage unit 5 and sets each image type. After performing the corresponding processing, image data to be output (printed) is generated. The output image data generated by the image processing unit 11 is output to the image output unit 10.

また、操作パネル12は、複合機100における「ファックス」、「複写」、「印刷」、「メール」等の機能を切り替える機能ボタン、テンキー、スタートキー、キャンセルキー、受け付けた指示を確定するためのエンターキー、画像入力部9を介して読み取った原稿の画像をシート状の記録媒体上に画像形成するための「出力」キー又は「コピー」キー等を備えている。   Further, the operation panel 12 is a function button for switching functions such as “fax”, “copy”, “print”, “mail”, etc. in the multi-function device 100, a numeric keypad, a start key, a cancel key, and a command for confirming the received instruction. An enter key, an “output” key, a “copy” key, and the like are provided for forming an image of a document read via the image input unit 9 on a sheet-like recording medium.

トレイ部13は、複数のトレイ(図示せず)を有しており、各々トレイには複数種の記録用紙が収納されている。詳しくは、A4、A3、B4、B5等の定形の大きさを有する複数種の定形用紙が対応するトレイに収納されている。また、夫々のトレイにはトレイセンサ(図示せず)が設けられている。該トレイセンサは当該トレイに用紙が収納されているか否かを検出する公知のものである。   The tray unit 13 includes a plurality of trays (not shown), and each tray stores a plurality of types of recording paper. Specifically, a plurality of types of regular sheets having regular sizes such as A4, A3, B4, and B5 are stored in corresponding trays. Each tray is provided with a tray sensor (not shown). The tray sensor is a known sensor that detects whether or not a sheet is stored in the tray.

以上の構成を用いて、本発明の実施の形態1に係る複合機100は、利用者から表示部6へのタッチ操作を受け付け、表示部6に表示されている画像の編集を行なう。   Using the configuration described above, multifunction device 100 according to Embodiment 1 of the present invention receives a touch operation on display unit 6 from a user and edits an image displayed on display unit 6.

例えば、利用者が表示部6の表示画面(位置検出部8)に指先を触れることにより、位置検出部8はタッチ操作を受け付ける。この場合、位置検出部8は、タッチされた点の位置を検出し、この点の座標を特定する信号をCPU2に送出する。   For example, when the user touches the display screen (position detection unit 8) of the display unit 6 with a fingertip, the position detection unit 8 receives a touch operation. In this case, the position detection unit 8 detects the position of the touched point and sends a signal specifying the coordinates of this point to the CPU 2.

CPU2は、位置検出部8から前記信号(座標)を取得して、表示部6に表示されているソフトキーの内、該座標に対応する位置のソフトキーが操作されたものと認識する。   The CPU 2 acquires the signal (coordinates) from the position detection unit 8 and recognizes that the soft key at the position corresponding to the coordinates among the soft keys displayed on the display unit 6 has been operated.

一方、例えば、利用者が親指及び食指を使って、表示部6の表示画面(位置検出部8)に両指を共に触れた場合、位置検出部8は2点のタッチ操作を受け付ける。この場合、位置検出部8は、親指でタッチされた第1点と、食指でタッチされた第2点との位置を検出し、これらの2点の座標を特定する信号を制御部1及びCPU2に送出する。   On the other hand, for example, when the user touches both the fingers on the display screen (position detection unit 8) of the display unit 6 using the thumb and the forefinger, the position detection unit 8 accepts two touch operations. In this case, the position detection unit 8 detects the position of the first point touched with the thumb and the second point touched with the thumb, and sends a signal specifying the coordinates of these two points to the control unit 1 and the CPU 2. To send.

続いて、利用者がいわゆるピンチイン又はピンチアウトとの操作を行なった場合は、更に、該操作に従って、斯かる2点の座標を特定する信号が位置検出部8から制御部1及びCPU2に送出される。この際、制御部1及びCPU2は、前記2点の位置関係、及び斯かる操作による位置変更、すなわち、第1点及び第2点の間の距離変化に基づき、表示部6に表示された画像の編集指示を受け付ける。   Subsequently, when the user performs a so-called pinch-in or pinch-out operation, a signal for specifying the coordinates of these two points is further sent from the position detection unit 8 to the control unit 1 and the CPU 2 in accordance with the operation. The At this time, the control unit 1 and the CPU 2 display the image displayed on the display unit 6 based on the positional relationship between the two points and the position change by such an operation, that is, the distance change between the first point and the second point. The editing instruction is accepted.

例えば、制御部1及びCPU2は、位置検出部8からの前記信号に基づき、位置検出部8が検出した2つの点を結ぶ直線の方向に応じて、前記画像の編集指示に係る編集の対象の選択を受け付ける。また、制御部1及びCPU2は、第1点及び第2点の間の距離変化に基づき、斯かる画像の拡大又は縮小の編集指示を受け付ける。   For example, based on the signal from the position detection unit 8, the control unit 1 and the CPU 2 determine the target of editing related to the image editing instruction according to the direction of a straight line connecting two points detected by the position detection unit 8. Accept selection. Further, the control unit 1 and the CPU 2 receive an instruction to edit such image enlargement or reduction based on a change in the distance between the first point and the second point.

図2は本発明の実施の形態1の複合機100における、制御部1の要部構成を示す機能ブロック図である。制御部1は、選択受付部14と、用紙決定部15(媒体決定手段)と、情報表示部16と、編集部17とを備えている。   FIG. 2 is a functional block diagram showing a main configuration of the control unit 1 in the multifunction machine 100 according to the first embodiment of the present invention. The control unit 1 includes a selection receiving unit 14, a paper determination unit 15 (medium determination unit), an information display unit 16, and an editing unit 17.

選択受付部14は、利用者から2点のタッチ操作を受け付けた場合、位置検出部8が発する信号に基づき、該2つの点を結ぶ直線の方向に応じて、その際、表示部6に表示されている画像(表示画像)に対する編集の対象の選択を受け付ける。例えば、選択受付部14は、前記直線の方向が、表示部6に表示されている画像の中心部で交差する2つの方向の中、どの方向に沿うものであるかに応じて、編集の対象の選択を受け付ける。   When the selection receiving unit 14 receives a two-point touch operation from the user, the selection receiving unit 14 displays on the display unit 6 according to the direction of the straight line connecting the two points based on the signal generated by the position detection unit 8. Selection of an editing target for the displayed image (display image) is accepted. For example, the selection receiving unit 14 can edit the line depending on which direction the two directions intersect in the center of the image displayed on the display unit 6. Accept the selection.

例えば、表示部6には、画像出力部10を介して出力すべきである、絵、図、文字等のオブジェクト画像と、該オブジェクト画像が書き込まれており、該オブジェクト画像の出力の際に用いられる記録用紙を表す用紙画像(媒体画像)とからなる画像(表示画像)が表示される。   For example, an object image such as a picture, a figure, or a character that should be output via the image output unit 10 and the object image are written on the display unit 6 and are used when the object image is output. An image (display image) composed of a paper image (medium image) representing the recording paper to be printed is displayed.

この際、利用者から2点のタッチ操作があった場合、選択受付部14は、斯かる2つの点を結ぶ直線の方向に基づいて、表示部6に表示されている画像(表示画像)に対する編集の対象として、前記オブジェクト画像及び/又は用紙画像の選択を受け付ける。   At this time, if there is a two-point touch operation from the user, the selection receiving unit 14 performs an operation on an image (display image) displayed on the display unit 6 based on the direction of a straight line connecting the two points. Selection of the object image and / or the paper image is accepted as an editing target.

用紙決定部15は、選択受付部14が編集の対象として用紙画像の選択を受け付けた場合、前記オブジェクト画像が画像出力部10を介した実際に出力されるときに用いられる記録用紙を決定する。   The paper determination unit 15 determines a recording paper to be used when the object image is actually output via the image output unit 10 when the selection reception unit 14 receives a selection of a paper image as an editing target.

詳しくは、本発明の実施の形態1に係る複合機100においては、上述したように、A4、A3、B4、B5等の定形の大きさを有する複数種の定形用紙が対応するトレイに各々収納されており、用紙決定部15は、斯かる2つの点の間の距離変化に基づき、前記トレイの何れかに収納されている定形用紙を選択する。以下の説明においては、A4、A3、B4、B5の大きさを有する定形用紙を、各々A4用紙、A3用紙、B4用紙、B5用紙と言う。   Specifically, in the multi-function device 100 according to the first embodiment of the present invention, as described above, a plurality of types of regular sheets having a regular size such as A4, A3, B4, and B5 are respectively stored in the corresponding trays. Thus, the sheet determination unit 15 selects a standard sheet stored in one of the trays based on the change in the distance between the two points. In the following description, the standard sheets having sizes A4, A3, B4, and B5 are referred to as A4 sheets, A3 sheets, B4 sheets, and B5 sheets, respectively.

例えば、斯かる2つの点の間の距離が増加又は減少し、後述するように、編集部17が用紙画像の大きさを編集する際、用紙決定部15は、前記距離の1cm毎に、A3用紙、B4用紙、A4用紙、B5用紙の順に、用紙の決定を行なう。例えば、前記2つの点の間の距離が増加する場合は、その増加値が1cmである場合、2cmである場合、3cmである場合、4cm以上である場合、用紙決定部15は、夫々B5用紙、A4用紙、B4用紙、A3用紙の順に沿って記録用紙を選択する。一方、前記2つの点の間の距離が減少する場合は、その減少値が1cmである場合、2cmである場合、3cmである場合、4cm以上である場合、用紙決定部15は、A3用紙、B4用紙、A4用紙、B5用紙の順に沿って記録用紙を選択する。   For example, when the distance between the two points increases or decreases, and the editing unit 17 edits the size of the paper image, as will be described later, the paper determination unit 15 determines that A3 for every 1 cm of the distance. The paper is determined in the order of paper, B4 paper, A4 paper, and B5 paper. For example, when the distance between the two points increases, if the increase value is 1 cm, 2 cm, 3 cm, or 4 cm or more, the sheet determination unit 15 sets the B5 sheet. , A4 paper, B4 paper, and A3 paper are selected in this order. On the other hand, when the distance between the two points decreases, the decrease value is 1 cm, 2 cm, 3 cm, 4 cm or more, the sheet determining unit 15 determines that the A3 sheet, The recording paper is selected in the order of B4 paper, A4 paper, and B5 paper.

情報表示部16は、表示制御部7を介して、用紙決定部15によって決定された用紙に対する情報を表示部6に表示する。情報表示部16は、例えば、「A3用紙」、「B4用紙」、「A4用紙」等のテキストを表示部6に表示し、又は夫々の記録用紙の大きさを表す「297mm×420mm」、「257mm×364mm」、「210mm×297mm」等のテキストを表示部6に表示する。   The information display unit 16 displays information on the paper determined by the paper determination unit 15 on the display unit 6 via the display control unit 7. For example, the information display unit 16 displays text such as “A3 paper”, “B4 paper”, “A4 paper” on the display unit 6, or “297 mm × 420 mm”, “ Text such as “257 mm × 364 mm” and “210 mm × 297 mm” is displayed on the display unit 6.

また、情報表示部16は、編集部17によってオブジェクト画像を拡大/縮小する編集が行なわれる場合においても、該オブジェクト画像の拡大/縮小の倍率を表示部6に表示する。   The information display unit 16 also displays the magnification / reduction magnification of the object image on the display unit 6 even when the editing unit 17 performs editing for enlarging / reducing the object image.

編集部17は、前記2つの点を結ぶ直線の方向、及び該2つの点の間の距離変化に基づき、表示部6に表示されている画像を部分的に又は全体的に編集する。詳しくは、上述したように、オブジェクト画像及び用紙画像からなる画像において、編集部17は、オブジェクト画像及び用紙画像の何れか一方を編集する部分的編集、又はこれら両方を共に編集する全体的編集を行なう。   The editing unit 17 partially or entirely edits the image displayed on the display unit 6 based on the direction of the straight line connecting the two points and the change in the distance between the two points. Specifically, as described above, in the image composed of the object image and the paper image, the editing unit 17 performs partial editing for editing one of the object image and the paper image, or overall editing for editing both of them. Do.

例えば、編集部17は、前記2つの点を結ぶ直線の方向に基づいて選択受付部14が受け付けた選択に係る編集の対象に対し、該2つの点の間の距離変化に基づいて拡張/縮小の部分的編集を行なう。   For example, the editing unit 17 expands / reduces an object to be edited according to the selection received by the selection receiving unit 14 based on the direction of a straight line connecting the two points based on a change in the distance between the two points. Partial editing of

例えば、前記2つの点の間の距離が増加する場合は、1mm増加毎に、オブジェクト画像又は用紙画像を1%拡大し、前記2つの点の間の距離が減少する場合は、1mm減少毎にオブジェクト画像又は用紙画像を1%縮小する編集を、編集部17が行なう。   For example, when the distance between the two points increases, the object image or the paper image is enlarged by 1% for every 1 mm increase, and when the distance between the two points decreases, for every 1 mm decrease. The editing unit 17 performs editing for reducing the object image or the paper image by 1%.

また、利用者が、前記2つの点の中、何れか一方、又は両方の移動することにつれて、これらを結ぶ直線の方向が回転する変更があった場合、CPU2は、表示部6に表示されている画像の向きを回転させる回転指示として受け付ける。また、編集部17は、該変更に基づき、表示部6に表示されている画像の向きを回転させる編集を行なう(全体的編集)。例えば、前記直線の方向が時計回り方向に回転した場合、斯かる画像を時計回り方向に回転させる編集が行なわれる。   Further, when the user moves either one or both of the two points, the CPU 2 is displayed on the display unit 6 when the direction of the straight line connecting them changes. This is accepted as a rotation instruction to rotate the orientation of the existing image. The editing unit 17 performs editing by rotating the orientation of the image displayed on the display unit 6 based on the change (overall editing). For example, when the direction of the straight line is rotated in the clockwise direction, editing is performed to rotate the image in the clockwise direction.

このように、編集部17による編集が施された画像に係るデータに基づき、表示制御部7は表示部6に編集後のオブジェクト画像又は用紙画像を表示させる。   As described above, based on the data related to the image edited by the editing unit 17, the display control unit 7 causes the display unit 6 to display the edited object image or paper image.

なお、以上の選択受付部14、用紙決定部15、情報表示部16及び編集部17は、ハードウェアロジックによって構成してもよいし、CPUを用いてソフトウェアによって実現してもよい。   Note that the selection receiving unit 14, the paper determination unit 15, the information display unit 16, and the editing unit 17 described above may be configured by hardware logic, or may be realized by software using a CPU.

以下、本発明の実施の形態1に係る複合機100における、画像編集処理について説明する。図3及び図4は本発明の実施の形態1に係る複合機100における、画像編集処理を説明するフローチャートである。説明の便宜上、利用者が親指及び食指を使って前記ピンチイン又はピンチアウト操作を行なう場合を例として説明する。また、以下の説明においては、トレイ部13の各トレイにはA4用紙、A3用紙、B4用紙、B5用紙が収納されており、表示部6に表示される画像は矩形であって、該画像の対角線の方向に沿うピンチイン又はピンチアウト操作によって、選択受付部14がオブジェクト画像又は用紙画像の選択を受け付けるものとする。   Hereinafter, an image editing process in the multifunction peripheral 100 according to the first embodiment of the present invention will be described. 3 and 4 are flowcharts for explaining image editing processing in the multi-function device 100 according to the first embodiment of the present invention. For convenience of explanation, a case where a user performs the pinch-in or pinch-out operation using a thumb and a forefinger will be described as an example. In the following description, A4 paper, A3 paper, B4 paper, and B5 paper are stored in each tray of the tray unit 13, and the image displayed on the display unit 6 is rectangular, and It is assumed that the selection accepting unit 14 accepts selection of an object image or a paper image by a pinch-in or pinch-out operation along the diagonal direction.

CPU2は、画像入力部9の前記読取り位置に原稿が載置されたか否かを判定する(ステップS101)。斯かる判定は、例えば、前記読取り位置をプリスキャンして取得される画像に基づき、行なわれる。   The CPU 2 determines whether or not a document is placed at the reading position of the image input unit 9 (step S101). Such a determination is made based on, for example, an image obtained by pre-scanning the reading position.

CPU2は、原稿が載置されていないと判定した場合(ステップS101:NO)、原稿が載置されるまで斯かる判定を繰り返して行なう。   If the CPU 2 determines that the document is not placed (step S101: NO), the CPU 2 repeats such determination until the document is placed.

一方、CPU2は、原稿が載置されたと判定した場合(ステップS101:YES)、載置された原稿のサイズを検出する(ステップS102)。斯かる検出は、例えば、原稿のサイズを検出するいわゆる反射型サイズ検出センサを用いる構成であってもよく、原稿サイズ検出用の画像を取得するべくプリスキャンを行なうように構成しても良い。   On the other hand, when the CPU 2 determines that the document is placed (step S101: YES), the CPU 2 detects the size of the placed document (step S102). Such detection may be, for example, a configuration using a so-called reflection type size detection sensor for detecting the size of the document, or may be configured to perform pre-scan to acquire an image for document size detection.

次いで、CPU2は用紙状況の確認を行なう(ステップS103)。すなわち、CPU2はトレイ部13の各トレイに設けられた前記トレイセンサの検出結果に基づき、夫々のトレイにA4用紙、A3用紙、B4用紙、B5用紙が収納されているか否かを確認する。   Next, the CPU 2 checks the sheet status (step S103). That is, the CPU 2 checks whether or not A4 paper, A3 paper, B4 paper, and B5 paper are stored in each tray based on the detection result of the tray sensor provided in each tray of the tray unit 13.

CPU2は、ステップS102で検出された原稿のサイズ、及び前記用紙状況の確認の結果に基づき、適正サイズの記録用紙があるか否かを判定する(ステップS104)。CPU2は適正サイズの記録用紙がないと判定した場合(ステップS104:NO)、適正なサイズの記録用紙を要求する(ステップS108)。例えば、CPU2は、表示制御部7に指示することにより、トレイに記録用紙を充填すること又は、適正なサイズの紙を手差しトレイに供給することを促す旨のテキストを表示部6に表示する。以降、処理はステップS104に戻る。   The CPU 2 determines whether or not there is a recording paper of an appropriate size based on the document size detected in step S102 and the result of checking the paper status (step S104). If the CPU 2 determines that there is no appropriate size recording sheet (step S104: NO), the CPU 2 requests an appropriate size recording sheet (step S108). For example, the CPU 2 instructs the display control unit 7 to display on the display unit 6 text that prompts the user to fill the tray with recording paper or to supply paper of an appropriate size to the manual feed tray. Thereafter, the process returns to step S104.

CPU2は適正サイズの記録用紙があると判定した場合(ステップS104:YES)、斯かる記録用紙を適正用紙として選択し(ステップS105)、該選択の結果をRAM4に記憶しておく。現実施の形態においては、適正用紙としてA4用紙が選択されたものとする。   When the CPU 2 determines that there is a recording sheet of an appropriate size (step S104: YES), the CPU 2 selects such a recording sheet as an appropriate sheet (step S105), and stores the selection result in the RAM 4. In the present embodiment, it is assumed that A4 paper is selected as the appropriate paper.

次いで、CPU2は、操作パネル12を監視することにより、複写指示を受け付けたか否かを判定する(ステップS106)。   Next, the CPU 2 determines whether or not a copy instruction has been accepted by monitoring the operation panel 12 (step S106).

例えば、利用者が操作パネル12の「コピー」キーを操作した場合、CPU2は複写指示を受け付けたと判定し(ステップS106:YES)、画像入力部9及び画像出力部10に複写に係る指示を行なう。すなわち、画像入力部9の前記読取り位置に載置された原稿の画像データが画像入力部9によって読み取られ、該原稿の画像データに基づき、画像出力部10が記録用紙上への印刷を行なう(ステップS107)。   For example, when the user operates the “copy” key on the operation panel 12, the CPU 2 determines that a copy instruction has been received (step S 106: YES), and instructs the image input unit 9 and the image output unit 10 regarding copying. . That is, the image data of the document placed at the reading position of the image input unit 9 is read by the image input unit 9, and the image output unit 10 prints on the recording paper based on the image data of the document ( Step S107).

一方、CPU2は複写指示を受け付けていないと判定した場合(ステップS106:NO)、スキャン指示を受け付けたか否かを判定する(ステップS109)。CPU2はスキャン指示を受け付けていないと判定した場合(ステップS109:NO)、処理をステップS106に戻す。   On the other hand, if the CPU 2 determines that a copy instruction has not been received (step S106: NO), it determines whether a scan instruction has been received (step S109). If the CPU 2 determines that the scan instruction has not been received (step S109: NO), the process returns to step S106.

CPU2はスキャン指示を受け付けたと判定した場合(ステップS109:YES)、画像入力部9の前記読取り位置に載置された原稿の読取を画像入力部9に指示する。CPU2の指示に応じて画像入力部9は斯かる原稿の読取を行なう(ステップS110)。画像入力部9によって読み取られた原稿の画像データはRAM4に記憶される。   When the CPU 2 determines that the scan instruction has been received (step S109: YES), the CPU 2 instructs the image input unit 9 to read the document placed at the reading position of the image input unit 9. In response to an instruction from the CPU 2, the image input unit 9 reads the original (step S110). The document image data read by the image input unit 9 is stored in the RAM 4.

表示制御部7はRAM4に記憶されている原稿の画像データに基づき、表示部6にプレビュー画像を表示する(ステップS111)。該プレビュー画像は矩形の画像である。   The display control unit 7 displays a preview image on the display unit 6 based on the document image data stored in the RAM 4 (step S111). The preview image is a rectangular image.

表示部6に表示されたプレビュー画像は、絵、図、文字等の原稿のコンテンツを表すオブジェクト画像と、該オブジェクト画像の出力の際に用いられる記録用紙を表す用紙画像とからなる。該プレビュー画像に基づく印刷を希望する利用者は、操作パネル12の前記スタートキーを操作することにより、印刷を指示する。   The preview image displayed on the display unit 6 includes an object image representing the content of the original document such as a picture, a figure, and a character, and a sheet image representing a recording sheet used when the object image is output. A user who desires printing based on the preview image operates the start key on the operation panel 12 to instruct printing.

一方、該プレビュー画像の編集を希望する利用者は、上述したように、2点をタッチすることにより、前記オブジェクト画像又は用紙画像に対して編集を行なう。   On the other hand, a user who desires to edit the preview image edits the object image or the paper image by touching two points as described above.

CPU2は、位置検出部8からの信号に基づき、表示部6の表示画面に2点のタッチがあったか否かを判定する(ステップS112)。   Based on the signal from the position detection unit 8, the CPU 2 determines whether or not there are two touches on the display screen of the display unit 6 (step S112).

CPU2は、2点のタッチがなかったと判定した場合(ステップS112:NO)、印刷をスタートする指示を受け付けたか否かを判定する(ステップS119)。斯かる判定は、CPU2が操作パネル12の前記スタートキーの操作を監視することにより行われる。   When it is determined that there is no touch at two points (step S112: NO), the CPU 2 determines whether an instruction to start printing has been received (step S119). Such a determination is made by the CPU 2 monitoring the operation of the start key on the operation panel 12.

CPU2は、印刷をスタートする指示を受け付けたと判定した場合(ステップS119:YES)、処理をステップS107に移動させ、画像出力部10による印刷が行なわれる。   If the CPU 2 determines that an instruction to start printing has been received (step S119: YES), it moves the process to step S107, and printing by the image output unit 10 is performed.

一方、CPU2は、印刷をスタートする指示を受け付けていないと判定した場合(ステップS119:NO)、斯かる原稿の処理をキャンセルする旨の指示を受け付けたか否かを判定する(ステップS120)。斯かる判定は、CPU2が操作パネル12の前記キャンセルキーの操作を監視することにより行われる。   On the other hand, if the CPU 2 determines that an instruction to start printing has not been received (step S119: NO), the CPU 2 determines whether an instruction to cancel such document processing has been received (step S120). Such a determination is made by the CPU 2 monitoring the operation of the cancel key on the operation panel 12.

CPU2は、原稿の処理をキャンセルする旨の指示を受け付けたと判定した場合(ステップS120:YES)、処理を終了する。   If the CPU 2 determines that an instruction to cancel document processing has been received (step S120: YES), the process is terminated.

また、CPU2は、原稿の処理をキャンセルする旨の指示を受け付けていないと判定した場合(ステップS120:NO)、処理をステップS112に戻す。   If the CPU 2 determines that an instruction to cancel the document processing is not received (step S120: NO), the process returns to step S112.

一方、ステップS112にて、CPU2が表示部6の表示画面に2点のタッチがあったと判定した場合(ステップS112:YES)、CPU2は、斯かるプレビュー画像を回転する旨の指示を受け付けたか否かを更に判定する(ステップS113)。   On the other hand, if the CPU 2 determines in step S112 that two touches have been made on the display screen of the display unit 6 (step S112: YES), the CPU 2 has received an instruction to rotate such a preview image. Is further determined (step S113).

詳しくは、位置検出部8からの信号に基づき、CPU2は、前記2点の中、何れか一方、又は両方が移動し、これらを結ぶ直線の方向が回転する変更があったか否かを監視し、該変更があった場合、プレビュー画像を回転する旨の指示を受け付けたと判定する。   Specifically, based on the signal from the position detection unit 8, the CPU 2 monitors whether any one or both of the two points move and the direction of the straight line connecting them has changed, If the change has occurred, it is determined that an instruction to rotate the preview image has been received.

図5は本発明の実施の形態1に係る複合機100における、プレビュー画像の回転処理を説明する説明図である。図5では、オブジェクト画像にfの参照番号が、用紙画像にはpの参照符号が付されている。以下においては、編集部17による編集が行なわれる前のオブジェクト画像f及び用紙画像pは点線にて表示し、編集部17による編集が行なわれた後のオブジェクト画像f及び用紙画像pは実線にて表示する。   FIG. 5 is an explanatory diagram for explaining the preview image rotation process in the multifunction peripheral 100 according to the first embodiment of the present invention. In FIG. 5, the object image is given a reference number f, and the paper image is given a reference number p. In the following, the object image f and the paper image p before editing by the editing unit 17 are displayed by dotted lines, and the object image f and the paper image p after editing by the editing unit 17 are solid lines. indicate.

例えば、利用者が左手の親指及び食指を使って、表示部6の表示画面61をタッチした状態で、図5に示すように、反時計回り方向に(図中、矢印方向)左手をねじって、親指及び食指の2点の両方が移動した場合、これらを結ぶ直線の方向が回転する変更が生じる。この際、CPU2は、表示部6に表示されているプレビュー画像の向きを回転させる回転指示として受け付け、該反時計回り方向への回転量に応じて、編集部17は表示部6に表示されているプレビュー画像の向きを反時計回り方向に回転させる編集を行なう。   For example, in a state where the user touches the display screen 61 of the display unit 6 using the left thumb and the forefinger, as shown in FIG. 5, the left hand is twisted in the counterclockwise direction (the arrow direction in the figure). When both the thumb and the forefinger move, a change occurs in which the direction of the straight line connecting them moves. At this time, the CPU 2 receives a rotation instruction for rotating the orientation of the preview image displayed on the display unit 6, and the editing unit 17 is displayed on the display unit 6 in accordance with the rotation amount in the counterclockwise direction. Editing is performed by rotating the direction of the preview image in the counterclockwise direction.

CPU2は、前記プレビュー画像を回転する旨の指示を受け付けたと判定した場合(ステップS113:YES)、編集部17に該プレビュー画像を回転させる編集を指示する。CPU2の指示に応じて、編集部17は、図5に示すように、該プレビュー画像の向きを回転させる編集処理を行なう(ステップS121)。以降、処理はステップS111に戻る。   When the CPU 2 determines that an instruction to rotate the preview image has been received (step S113: YES), the CPU 2 instructs the editing unit 17 to edit the preview image. In response to the instruction from the CPU 2, the editing unit 17 performs an editing process for rotating the orientation of the preview image as shown in FIG. 5 (step S121). Thereafter, the process returns to step S111.

CPU2は、前記プレビュー画像を回転する旨の指示を受け付けていないと判定した場合(ステップS113:NO)、位置検出部8からの信号、及び該プレビュー画像(座標)に基づき、斯かる2点を結ぶ直線の方向が、該プレビュー画像の対角線の中一方(以下、第1方向と言う。)に沿う方向であるか否かを判定する(ステップS114)。   If the CPU 2 determines that an instruction to rotate the preview image has not been received (step S113: NO), the CPU 2 determines these two points based on the signal from the position detection unit 8 and the preview image (coordinates). It is determined whether the direction of the connecting straight line is a direction along one of the diagonal lines of the preview image (hereinafter referred to as the first direction) (step S114).

図6は本発明の実施の形態1に係る複合機100における、オブジェクト画像fの編集を説明する説明図である。図6においては、表示部6に表示された矩形のプレビュー画像の対角線の中、一方(第1方向)には参照番号L1が付され、他方(第2方向)には参照番号L2が付されている。本実施の形態においては、当該2点を結ぶ直線の方向が、第1方向に沿う場合、オブジェクト画像fに対する編集が行なわれる。また、該直線の方向が第2方向に沿う場合は、用紙画像pに対する編集が行なわれる。   FIG. 6 is an explanatory diagram for explaining editing of the object image f in the multi-function device 100 according to the first embodiment of the present invention. In FIG. 6, among the diagonal lines of the rectangular preview image displayed on the display unit 6, one (first direction) is given a reference number L1, and the other (second direction) is given a reference number L2. ing. In the present embodiment, when the direction of the straight line connecting the two points is along the first direction, the object image f is edited. If the direction of the straight line is along the second direction, the paper image p is edited.

CPU2は、前記2点を結ぶ直線の方向が、前記第1方向に沿う方向であると判定した場合(ステップS114:YES)、選択受付部14は、オブジェクト画像fの選択として受け付ける(ステップS115)。この際、斯かる旨を利用者に視認させるために、オブジェクト画像fに所定の色を付け、又は点滅させるように構成しても良い。   When the CPU 2 determines that the direction of the straight line connecting the two points is the direction along the first direction (step S114: YES), the selection receiving unit 14 receives the selection of the object image f (step S115). . At this time, in order to make the user visually recognize such a fact, the object image f may be configured to have a predetermined color or blink.

以降、利用者はピンチイン又はピンチアウト操作を行ない、オブジェクト画像fの縮小又は拡大を指示する。   Thereafter, the user performs a pinch-in or pinch-out operation, and instructs to reduce or enlarge the object image f.

CPU2は、位置検出部8からの信号に基づき、オブジェクト画像fを拡大する指示を受け付けたか否かを判定する(ステップS116)。換言すれば、CPU2は、位置検出部8からの信号に基づき、ピンチアウトの操作があったか否かを判定する。   The CPU 2 determines whether or not an instruction for enlarging the object image f has been received based on the signal from the position detection unit 8 (step S116). In other words, the CPU 2 determines whether or not a pinch-out operation has been performed based on a signal from the position detection unit 8.

CPU2がオブジェクト画像fを拡大する指示を受け付けたと判定した場合(ステップS116:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、オブジェクト画像fを拡大する編集処理を行なう(ステップS117)。編集部17による拡大の編集については既に説明しているので、詳しい説明を省略する。   When it is determined that the CPU 2 has received an instruction to enlarge the object image f (step S116: YES), that is, when a pinch-out operation is performed by the user, the editing unit 17 performs a process between two points in the pinch-out operation. Editing processing for enlarging the object image f is performed according to the change in distance (step S117). Since enlargement editing by the editing unit 17 has already been described, detailed description thereof will be omitted.

CPU2が、オブジェクト画像fを拡大する指示を受け付けていないと判定した場合(ステップS116:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、オブジェクト画像fを縮小する編集処理を行なう(ステップS127)。編集部17による縮小の編集については既に説明しているので、詳しい説明を省略する。   When the CPU 2 determines that an instruction to enlarge the object image f has not been received (step S116: NO), that is, when a pinch-in operation is performed by the user, the editing unit 17 performs a point-to-point operation in the pinch-in operation. Editing processing for reducing the object image f in accordance with the change in the distance (step S127). Since the reduction editing by the editing unit 17 has already been described, detailed description thereof will be omitted.

例えば、図6に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチイン操作を行なった場合、用紙画像pの大きさは変わらず、オブジェクト画像fの大きさのみが縮小される。   For example, as shown in FIG. 6, when the user performs a pinch-in operation by moving the thumb and the forefinger in the direction of the arrow in the figure, the size of the paper image p does not change, only the size of the object image f. Reduced.

なお、この際、情報表示部16は、図6に示すように、当該ピンチイン操作によるオブジェクト画像fの大きさの倍率変化を表示する。   At this time, the information display unit 16 displays the magnification change of the size of the object image f by the pinch-in operation, as shown in FIG.

以降、プレビュー画像を編集するための操作を完了した利用者は指を表示部6の表示画面61から離す。一方、オブジェクト画像fを編集するための操作を続ける利用者は、再び、指の回転、ピンチイン又はピンチアウトの操作を行なう。   Thereafter, the user who has completed the operation for editing the preview image releases his / her finger from the display screen 61 of the display unit 6. On the other hand, a user who continues an operation for editing the object image f performs a finger rotation, a pinch-in operation, or a pinch-out operation again.

CPU2は、位置検出部8からの信号に基づき、利用者の指が表示部6の表示画面61から離れたか否かを判定する(ステップS118)。   The CPU 2 determines whether or not the user's finger has left the display screen 61 of the display unit 6 based on the signal from the position detection unit 8 (step S118).

CPU2は、利用者の指が表示部6の表示画面61から離れたと判定した場合(ステップS118:YES)、処理を終了する。また、CPU2は、利用者の指が表示部6の表示画面61から離れていないと判定した場合(ステップS118:NO)、処理を再びステップS113に戻す。   CPU2 complete | finishes a process, when it determines with a user's finger having left | separated from the display screen 61 of the display part 6 (step S118: YES). If the CPU 2 determines that the user's finger is not away from the display screen 61 of the display unit 6 (step S118: NO), the process returns to step S113 again.

一方、ステップS114にて、CPU2は、前記2点を結ぶ直線の方向が前記第1方向に沿う方向でないと判定した場合(ステップS114:NO)、すなわち、前記2点を結ぶ直線の方向が前記第2方向(図6中、L2)である場合、選択受付部14は、用紙画像pの選択として受け付ける(ステップS122)。この際、斯かる旨を利用者に視認させるために、用紙画像pに所定の色を付け、又は点滅させるように構成しても良い。   On the other hand, when the CPU 2 determines in step S114 that the direction of the straight line connecting the two points is not the direction along the first direction (step S114: NO), that is, the direction of the straight line connecting the two points is the above-described direction. In the case of the second direction (L2 in FIG. 6), the selection receiving unit 14 receives the selection of the paper image p (step S122). At this time, in order to make the user visually recognize such a fact, a predetermined color may be given to the paper image p, or the paper image p may be blinked.

以降、利用者はピンチイン又はピンチアウト操作を行ない、用紙画像pの縮小又は拡大を指示する。   Thereafter, the user performs a pinch-in or pinch-out operation, and instructs the reduction or enlargement of the paper image p.

CPU2は、位置検出部8からの信号に基づき、用紙画像pを拡大する指示を受け付けたか否かを判定する(ステップS123)。換言すれば、CPU2は、位置検出部8からの信号に基づき、ピンチアウトの操作があったか否かを判定する。   The CPU 2 determines whether or not an instruction for enlarging the paper image p has been received based on the signal from the position detection unit 8 (step S123). In other words, the CPU 2 determines whether or not a pinch-out operation has been performed based on a signal from the position detection unit 8.

CPU2が用紙画像pを拡大する指示を受け付けたと判定した場合(ステップS123:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、用紙画像pを拡大する編集処理を行なう(ステップS124)。編集部17による拡大の編集については既に説明しているので、詳しい説明を省略する。   When it is determined that the CPU 2 has received an instruction to enlarge the paper image p (step S123: YES), that is, when a pinch-out operation is performed by the user, the editing unit 17 performs a process between two points in the pinch-out operation. An editing process for enlarging the paper image p is performed according to the change in distance (step S124). Since enlargement editing by the editing unit 17 has already been described, detailed description thereof will be omitted.

CPU2が、用紙画像pを拡大する指示を受け付けていないと判定した場合(ステップS123:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、用紙画像pを縮小する編集処理を行なう(ステップS125)。編集部17による縮小の編集については既に説明しているので、詳しい説明を省略する。   When the CPU 2 determines that an instruction to enlarge the paper image p is not received (step S123: NO), that is, when a pinch-in operation is performed by the user, the editing unit 17 performs a point-to-point operation in the pinch-in operation. In response to the change in the distance, an editing process for reducing the paper image p is performed (step S125). Since the reduction editing by the editing unit 17 has already been described, detailed description thereof will be omitted.

ステップS124にて用紙画像pを拡大する編集が行なわれる際、又はステップS125にて用紙画像pを縮小する編集が行なわれる際、情報表示部16は、斯かる編集によって変更される記録用紙に対する情報を表示部6に表示する(ステップS126)。すなわち、編集部17が用紙画像pの大きさを編集する際、用紙決定部15は出力すべき記録用紙を決定し、決定された記録用紙に関する情報が情報表示部16によって表示される。   When editing for enlarging the paper image p is performed in step S124, or when editing for reducing the paper image p is performed in step S125, the information display unit 16 displays information on the recording paper changed by such editing. Is displayed on the display unit 6 (step S126). That is, when the editing unit 17 edits the size of the paper image p, the paper determination unit 15 determines the recording paper to be output, and information regarding the determined recording paper is displayed by the information display unit 16.

図7及び図8は本発明の実施の形態1に係る複合機100における、用紙画像pの編集を説明する説明図である。   7 and 8 are explanatory diagrams for explaining the editing of the paper image p in the multifunction machine 100 according to the first embodiment of the present invention.

例えば、図7に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチイン操作を行なった場合、オブジェクト画像fの大きさは変わらず、用紙画像pの大きさのみが縮小される。この際、情報表示部16は、図7に示すように、当該ピンチイン操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報を表示部6に表示する。図7では、ステップS105にて選択されたA4用紙の代わりに、より小さなサイズの記録用紙である「B5用紙」のテキストが前記情報として表示された例を示している。   For example, as shown in FIG. 7, when the user performs a pinch-in operation by moving the thumb and the forefinger in the direction of the arrow in the figure, the size of the object image f does not change, but only the size of the paper image p. Reduced. At this time, as shown in FIG. 7, the information display unit 16 displays on the display unit 6 information regarding the recording paper that has been changed by the pinch-in operation, that is, determined by the paper determination unit 15. FIG. 7 shows an example in which the text “B5 paper”, which is a recording paper of a smaller size, is displayed as the information instead of the A4 paper selected in step S105.

また、図8に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチアウト操作を行なった場合、オブジェクト画像fの大きさは変わらず、用紙画像pの大きさのみが拡大される。この際、情報表示部16は、図8に示すように、当該ピンチアウト操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報を表示部6に表示する。図8では、ステップS105にて選択されたA4用紙の代わりに、より大きなサイズの記録用紙である「B4用紙」のテキストが前記情報として表示された例を示している。   As shown in FIG. 8, when the user performs a pinch-out operation by moving the thumb and the forefinger in the direction of the arrow in the figure, the size of the object image f does not change, only the size of the paper image p. Is enlarged. At this time, as shown in FIG. 8, the information display unit 16 displays on the display unit 6 information on the recording paper that has been changed by the pinch-out operation, that is, determined by the paper determination unit 15. FIG. 8 shows an example in which the text “B4 paper”, which is a recording paper of a larger size, is displayed as the information instead of the A4 paper selected in step S105.

以降、編集部17によって編集されたオブジェクト画像fが、用紙決定部15によって決定された記録用紙に印刷される。   Thereafter, the object image f edited by the editing unit 17 is printed on the recording paper determined by the paper determining unit 15.

本発明に係る複合機100においては、以上に記載したように、編集部17によって部分的編集が行なわれる場合、部分的編集の対象の選択指示及び編集指示を共に受け付けることができ、利用者の手間を減らすことが出来る。   In the MFP 100 according to the present invention, as described above, when partial editing is performed by the editing unit 17, both the selection instruction and the editing instruction for the target of partial editing can be received, and the user's Time and effort can be reduced.

また、以上の説明においては、表示部6に表示された画像が、オブジェクト画像及び用紙画像というコンテンツを有し、部分的編集が該コンテンツ別に行われる場合を例として説明したが、これに限るものでない。例えば、前記部分的編集が、写真、文字等のコンテンツの種類別に行われてもよく、色別に行われるように構成しても良い。   In the above description, the case where the image displayed on the display unit 6 has content such as an object image and a paper image and partial editing is performed for each content has been described as an example. Not. For example, the partial editing may be performed for each type of content such as photographs and characters, or may be performed for each color.

換言すれば、位置検出部8が検出した2つの点を結ぶ直線の方向に基づいて、異なる種類のコンテンツが選択され、異なる色のコンテンツが選択されるように構成しても良い。   In other words, different types of content may be selected and content of different colors may be selected based on the direction of a straight line connecting two points detected by the position detection unit 8.

例えば、表示部6に表示されたオブジェクト画像に対して拡大・縮小する等の編集が行なわれた場合、斯かる編集による前記オブジェクト画像の大きさ変化に伴い、印刷すべき記録用紙を適宜変える必要が生じる。従って、利用者は記録用紙を選択するために他の画面を立ち上げて適切な大きさの記録用紙を選択する煩雑な操作を強いられることとなる。しかし、本発明に係る複合機100においては、以上に記載したように、画像の編集及び記録用紙の選択が同一の画面上にて行われるので、煩雑な操作を省くことが出来る。   For example, when editing such as enlarging / reducing the object image displayed on the display unit 6 is performed, it is necessary to appropriately change the recording paper to be printed in accordance with the size change of the object image due to such editing. Occurs. Therefore, the user is forced to perform a cumbersome operation of starting another screen and selecting an appropriate size recording sheet in order to select the recording sheet. However, in the MFP 100 according to the present invention, as described above, since image editing and recording sheet selection are performed on the same screen, complicated operations can be omitted.

(実施の形態2)
本発明の実施の形態2に係る複合機100は、実施の形態1に係る複合機100と略同様の構成を有していが、記憶部5及び制御部1の構成及び作用において異なる。
(Embodiment 2)
The multi-function device 100 according to the second embodiment of the present invention has substantially the same configuration as that of the multi-function device 100 according to the first embodiment, but differs in the configuration and operation of the storage unit 5 and the control unit 1.

記憶部5は、例えば、フラッシュメモリ、EEPROM、HDD、MRAM、FeRAM、又は、OUM等の不揮発性の記憶媒体により構成されている。また、記憶部5は、出力すべき記録用紙の変更と、オブジェクト画像fの大きさの倍率とを対応付けた対応テーブルを記憶している。   The storage unit 5 is configured by a nonvolatile storage medium such as flash memory, EEPROM, HDD, MRAM, FeRAM, or OUM, for example. In addition, the storage unit 5 stores a correspondence table in which the change of the recording paper to be output is associated with the magnification of the size of the object image f.

図9は本発明の実施の形態2に係る複合機100において、記憶部5に記憶されている対応テーブルの一例を示す例示図である。該対応テーブルにおいては、例えば、出力に係るオブジェクト及び記録用紙の大きさが共に拡大・縮小される場合、換言すれば、オブジェクト画像f及び用紙画像pの大きさが共に編集される場合の対応関係が示されている。詳しくは、用紙画像pが「A4用紙」に係る大きさから「A3用紙」に係る大きさに拡大される場合、これに対応するオブジェクト画像fの倍率は「141%」であり、用紙画像pが「A4用紙」に係る大きさから「B5用紙」に係る大きさに縮小される場合、これに対応するオブジェクト画像fの倍率は「86%」である旨等か、前記対応テーブルに示されている。   FIG. 9 is an exemplary diagram illustrating an example of a correspondence table stored in the storage unit 5 in the multifunction peripheral 100 according to the second embodiment of the present invention. In the correspondence table, for example, when the size of the output object and the recording paper are both enlarged or reduced, in other words, the correspondence relationship when the sizes of the object image f and the paper image p are both edited. It is shown. Specifically, when the paper image p is enlarged from the size related to “A4 paper” to the size related to “A3 paper”, the magnification of the corresponding object image f is “141%”, and the paper image p Is reduced from the size related to “A4 paper” to the size related to “B5 paper”, the fact that the magnification of the corresponding object image f is “86%” is shown in the correspondence table. ing.

制御部1の選択受付部14は、利用者から2点のタッチ操作を受け付けた場合、位置検出部8が発する信号に基づき、該2つの点を結ぶ直線の方向に応じて、表示部6に表示されている画像に対する編集の対象として、オブジェクト画像f又は用紙画像pの選択を受け付ける。   When the selection receiving unit 14 of the control unit 1 receives a touch operation of two points from the user, the selection receiving unit 14 displays the signal on the display unit 6 according to the direction of the straight line connecting the two points based on the signal generated by the position detection unit 8. Selection of an object image f or a paper image p is accepted as an object for editing the displayed image.

例えば、選択受付部14は、前記直線の方向が、表示部6に表示されている画像の中心部で交差する2つの方向の中、どの方向に沿うものであるかに応じて、オブジェクト画像f又は用紙画像pの選択を受け付ける。   For example, the selection receiving unit 14 determines whether the direction of the straight line is the object image f according to which of the two directions intersecting at the center of the image displayed on the display unit 6. Alternatively, selection of the paper image p is accepted.

一方、前記直線の方向が、前記2つの方向の何れにも沿っていない場合、選択受付部14は、オブジェクト画像f及び用紙画像pの選択を受け付ける。すなわち、オブジェクト画像f及び用紙画像pが共に選択される。   On the other hand, when the direction of the straight line is not along any of the two directions, the selection receiving unit 14 receives selection of the object image f and the paper image p. That is, both the object image f and the paper image p are selected.

また、このように、選択受付部14がオブジェクト画像f及び用紙画像pの選択を受け付けた場合においては、編集部17による前記画像の編集は前記対応テーブルに基づいて行われる。   As described above, when the selection receiving unit 14 receives the selection of the object image f and the paper image p, the editing of the image by the editing unit 17 is performed based on the correspondence table.

すなわち、選択受付部14がオブジェクト画像f及び用紙画像pの選択を受け付けており、利用者によりピンチイン又はピンチアウトの操作が行なわれた場合において、該操作によるオブジェクト画像fの倍率が122%に該当する場合、編集部17は「A4用紙」であった用紙画像pを「B4用紙」の用紙画像pに拡大する編集を共に行なう。また、利用者によりピンチイン又はピンチアウトの操作が行なわれ、該操作によるオブジェクト画像fの倍率が81%に該当する場合、編集部17は「B4用紙」であった用紙画像pを「A4用紙」の用紙画像pに縮小する編集を共に行なう。   That is, when the selection receiving unit 14 receives selection of the object image f and the paper image p, and the user performs a pinch-in or pinch-out operation, the magnification of the object image f by the operation corresponds to 122%. In this case, the editing unit 17 performs both editing for enlarging the paper image p that was “A4 paper” to the paper image p of “B4 paper”. When the user performs a pinch-in or pinch-out operation and the magnification of the object image f by the operation corresponds to 81%, the editing unit 17 changes the paper image p that was “B4 paper” to “A4 paper”. Editing to reduce the paper image p.

以下、本発明の実施の形態2に係る複合機100における、画像編集処理について説明する。図10から図12は本発明の実施の形態2に係る複合機100における、画像編集処理を説明するフローチャートである。説明の便宜上、利用者が親指及び食指を使って前記ピンチイン又はピンチアウト操作を行なう場合を例として説明する。また、以下の説明においては、トレイ部13の各トレイにはA4用紙、A3用紙、B4用紙、B5用紙が収納されており、表示部6に表示される画像は矩形であって、該画像の縦横の方向に沿うピンチイン又はピンチアウト操作によって、選択受付部14がオブジェクト画像f又は用紙画像pの選択を受け付けるものとする。   Hereinafter, an image editing process in the multifunction peripheral 100 according to the second embodiment of the present invention will be described. 10 to 12 are flowcharts for explaining image editing processing in the multi-function device 100 according to the second embodiment of the present invention. For convenience of explanation, a case where a user performs the pinch-in or pinch-out operation using a thumb and a forefinger will be described as an example. In the following description, A4 paper, A3 paper, B4 paper, and B5 paper are stored in each tray of the tray unit 13, and the image displayed on the display unit 6 is rectangular, and It is assumed that the selection receiving unit 14 receives selection of the object image f or the paper image p by a pinch-in or pinch-out operation along the vertical and horizontal directions.

CPU2は、画像入力部9の前記読取り位置に原稿が載置されたか否かを判定する(ステップS201)。CPU2は、原稿が載置されていないと判定した場合(ステップS201:NO)、原稿が載置されるまで斯かる判定を繰り返して行なう。   The CPU 2 determines whether or not a document is placed at the reading position of the image input unit 9 (step S201). When the CPU 2 determines that the document is not placed (step S201: NO), the CPU 2 repeatedly performs such determination until the document is placed.

一方、CPU2は、原稿が載置されたと判定した場合(ステップS201:YES)、載置された原稿のサイズを検出する(ステップS202)。   On the other hand, when the CPU 2 determines that the document is placed (step S201: YES), the CPU 2 detects the size of the placed document (step S202).

次いで、CPU2は用紙状況の確認を行なう(ステップS203)。すなわち、CPU2はトレイ部13の各トレイに設けられた前記トレイセンサの検出結果に基づき、夫々のトレイにA4用紙、A3用紙、B4用紙、B5用紙が収納されているか否かを確認する。   Next, the CPU 2 checks the sheet status (step S203). That is, the CPU 2 checks whether or not A4 paper, A3 paper, B4 paper, and B5 paper are stored in each tray based on the detection result of the tray sensor provided in each tray of the tray unit 13.

CPU2は、ステップS202で検出された原稿のサイズ、及び前記用紙状況の確認の結果に基づき、適正サイズの記録用紙があるか否かを判定する(ステップS204)。CPU2は適正サイズの記録用紙がないと判定した場合(ステップS204:NO)、適正なサイズの記録用紙を要求する(ステップS208)。以降、処理はステップS204に戻る。   The CPU 2 determines whether there is a recording paper of an appropriate size based on the size of the original detected in step S202 and the result of checking the paper status (step S204). If the CPU 2 determines that there is no appropriate size recording sheet (step S204: NO), the CPU 2 requests an appropriate size recording sheet (step S208). Thereafter, the process returns to step S204.

CPU2は適正サイズの記録用紙があると判定した場合(ステップS204:YES)、斯かる記録用紙を適正用紙として選択し(ステップS205)、該選択の結果をRAM4に記憶しておく。現実施の形態においては、適正用紙としてA4用紙が選択されたものとする。   When the CPU 2 determines that there is a recording paper of an appropriate size (step S204: YES), the CPU 2 selects such a recording paper as an appropriate paper (step S205) and stores the selection result in the RAM 4. In the present embodiment, it is assumed that A4 paper is selected as the appropriate paper.

次いで、CPU2は、操作パネル12を監視することにより、複写指示を受け付けたか否かを判定する(ステップS206)。   Next, the CPU 2 determines whether a copy instruction has been accepted by monitoring the operation panel 12 (step S206).

例えば、利用者が操作パネル12の「コピー」キーを操作した場合、CPU2は複写指示を受け付けたと判定し(ステップS206:YES)、画像入力部9によって画像入力部9の前記読取り位置に載置された原稿の画像データが読み取られ、該原稿の画像データに基づき、画像出力部10が記録用紙上への印刷を行なう(ステップS207)。   For example, when the user operates the “copy” key on the operation panel 12, the CPU 2 determines that a copy instruction has been accepted (step S 206: YES), and the image input unit 9 places the image at the reading position of the image input unit 9. The image data of the original document read is read, and the image output unit 10 prints on the recording paper based on the image data of the original document (step S207).

一方、CPU2は複写指示を受け付けていないと判定した場合(ステップS206:NO)、スキャン指示を受け付けたか否かを判定する(ステップS209)。CPU2はスキャン指示を受け付けていないと判定した場合(ステップS209:NO)、処理をステップS206に戻す。   On the other hand, if the CPU 2 determines that a copy instruction has not been received (step S206: NO), it determines whether a scan instruction has been received (step S209). If the CPU 2 determines that a scan instruction has not been received (step S209: NO), the process returns to step S206.

CPU2はスキャン指示を受け付けたと判定した場合(ステップS209:YES)、画像入力部9の前記読取り位置に載置された原稿の読取を画像入力部9に指示し、画像入力部9は斯かる原稿の読取を行なう(ステップS210)。画像入力部9によって読み取られた原稿の画像データはRAM4に記憶される。   If the CPU 2 determines that the scan instruction has been received (step S209: YES), the image input unit 9 is instructed to read the document placed at the reading position of the image input unit 9, and the image input unit 9 is informed of such document. Is read (step S210). The document image data read by the image input unit 9 is stored in the RAM 4.

表示制御部7はRAM4に記憶されている原稿の画像データに基づき、表示部6にプレビュー画像を表示する(ステップS211)。該プレビュー画像は矩形の画像であり、実施の形態1と同様、オブジェクト画像f及び用紙画像pからなる。   The display control unit 7 displays a preview image on the display unit 6 based on the document image data stored in the RAM 4 (step S211). The preview image is a rectangular image, and includes an object image f and a paper image p as in the first embodiment.

該プレビュー画像に基づく印刷を希望する利用者は、操作パネル12の前記スタートキーを操作することにより、印刷を指示する。一方、該プレビュー画像の編集を希望する利用者は、上述したように、2点をタッチすることにより、オブジェクト画像f又は用紙画像pに対して編集を行なう。   A user who desires printing based on the preview image operates the start key on the operation panel 12 to instruct printing. On the other hand, a user who desires to edit the preview image edits the object image f or the paper image p by touching two points as described above.

CPU2は、位置検出部8からの信号に基づき、表示部6の表示画面に2点のタッチがあったか否かを判定する(ステップS212)。CPU2は、2点のタッチがなかったと判定した場合(ステップS212:NO)、印刷をスタートする指示を受け付けたか否かを判定する(ステップS219)。   Based on the signal from the position detection unit 8, the CPU 2 determines whether or not there are two touches on the display screen of the display unit 6 (step S212). When it is determined that there is no touch at two points (step S212: NO), the CPU 2 determines whether an instruction to start printing has been received (step S219).

CPU2は、印刷をスタートする指示を受け付けたと判定した場合(ステップS219:YES)、処理をステップS207に移動させ、画像出力部10による印刷が行なわれる。   If the CPU 2 determines that an instruction to start printing has been received (step S219: YES), the process moves to step S207, and printing by the image output unit 10 is performed.

一方、CPU2は、印刷をスタートする指示を受け付けていないと判定した場合(ステップS219:NO)、斯かる原稿の処理をキャンセルする旨の指示を受け付けたか否かを判定する(ステップS220)。   On the other hand, if the CPU 2 determines that an instruction to start printing has not been received (step S219: NO), the CPU 2 determines whether an instruction to cancel such document processing has been received (step S220).

CPU2は、原稿の処理をキャンセルする旨の指示を受け付けたと判定した場合(ステップS220:YES)、処理を終了する。また、CPU2は、原稿の処理をキャンセルする旨の指示を受け付けていないと判定した場合(ステップS220:NO)、処理をステップS212に戻す。   If the CPU 2 determines that an instruction to cancel document processing has been received (step S220: YES), the CPU 2 ends the processing. If the CPU 2 determines that an instruction to cancel the document processing is not received (step S220: NO), the process returns to step S212.

一方、ステップS212にて、CPU2が表示部6の表示画面に2点のタッチがあったと判定した場合(ステップS212:YES)、CPU2は、斯かるプレビュー画像を回転する旨の指示を受け付けたか否かを更に判定する(ステップS213)。   On the other hand, if the CPU 2 determines in step S212 that there are two touches on the display screen of the display unit 6 (step S212: YES), the CPU 2 has received an instruction to rotate such a preview image. Is further determined (step S213).

CPU2は、前記プレビュー画像を回転する旨の指示を受け付けたと判定した場合(ステップS213:YES)、編集部17に該プレビュー画像を回転させる編集を指示し、編集部17は該プレビュー画像の向きを回転させる編集処理を行なう(ステップS221)。   When the CPU 2 determines that an instruction to rotate the preview image has been received (step S213: YES), the CPU 2 instructs the editing unit 17 to edit the preview image, and the editing unit 17 determines the orientation of the preview image. Edit processing for rotation is performed (step S221).

CPU2は、前記プレビュー画像を回転する旨の指示を受け付けていないと判定した場合(ステップS213:NO)、位置検出部8からの信号、及び該プレビュー画像(座標)に基づき、斯かる2点を結ぶ直線の方向が、該プレビュー画像の中心部で交差する縦横線の中、縦線方向(以下、第1方向と言う。)に沿う方向であるか否かを判定する(ステップS214)。   When the CPU 2 determines that an instruction to rotate the preview image has not been received (step S213: NO), the CPU 2 determines these two points based on the signal from the position detection unit 8 and the preview image (coordinates). It is determined whether or not the direction of the connecting straight line is a direction along a vertical line direction (hereinafter referred to as a first direction) among vertical and horizontal lines intersecting at the center of the preview image (step S214).

図13は本発明の実施の形態2に係る複合機100における、オブジェクト画像fの編集を説明する説明図である。図13においては、表示部6に表示された矩形のプレビュー画像の縦線方向(第1方向)には参照番号L1が付され、横線方向(第2方向)には参照番号L2が付されている。本実施の形態においては、当該2点を結ぶ直線の方向が、第1方向に沿う場合、オブジェクト画像fに対する編集が行なわれる。また、該直線の方向が第2方向に沿う場合は、用紙画像pに対する編集が行なわれる。   FIG. 13 is an explanatory diagram for explaining editing of the object image f in the multi-function device 100 according to the second embodiment of the present invention. In FIG. 13, a reference number L1 is attached to the vertical line direction (first direction) of the rectangular preview image displayed on the display unit 6, and a reference number L2 is attached to the horizontal line direction (second direction). Yes. In the present embodiment, when the direction of the straight line connecting the two points is along the first direction, the object image f is edited. If the direction of the straight line is along the second direction, the paper image p is edited.

CPU2は、前記2点を結ぶ直線の方向が、前記第1方向に沿う方向であると判定した場合(ステップS214:YES)、選択受付部14は、オブジェクト画像fの選択として受け付ける(ステップS215)。この際、斯かる旨を利用者に視認させるために、オブジェクト画像fに所定の色を付け、又は点滅させるように構成しても良い。以降、利用者はピンチイン又はピンチアウト操作を行ない、オブジェクト画像fの縮小又は拡大を指示する。   When the CPU 2 determines that the direction of the straight line connecting the two points is the direction along the first direction (step S214: YES), the selection receiving unit 14 receives the selection of the object image f (step S215). . At this time, in order to make the user visually recognize such a fact, the object image f may be configured to have a predetermined color or blink. Thereafter, the user performs a pinch-in or pinch-out operation, and instructs to reduce or enlarge the object image f.

CPU2は、位置検出部8からの信号に基づき、オブジェクト画像fを拡大する指示を受け付けたか否かを判定する(ステップS216)。CPU2がオブジェクト画像fを拡大する指示を受け付けたと判定した場合(ステップS216:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、オブジェクト画像fを拡大する編集処理を行なう(ステップS217)。編集部17による拡大の編集については既に説明しているので、詳しい説明を省略する。   The CPU 2 determines whether or not an instruction for enlarging the object image f has been received based on the signal from the position detection unit 8 (step S216). When it is determined that the CPU 2 has received an instruction to enlarge the object image f (step S216: YES), that is, when a pinch-out operation is performed by the user, the editing unit 17 performs a process between two points in the pinch-out operation. Editing processing for enlarging the object image f is performed according to the change in distance (step S217). Since enlargement editing by the editing unit 17 has already been described, detailed description thereof will be omitted.

CPU2が、オブジェクト画像fを拡大する指示を受け付けていないと判定した場合(ステップS216:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、オブジェクト画像fを縮小する編集処理を行なう(ステップS228)。編集部17による縮小の編集については既に説明しているので、詳しい説明を省略する。   When the CPU 2 determines that an instruction to enlarge the object image f has not been received (step S216: NO), that is, when a pinch-in operation is performed by the user, the editing unit 17 performs a point-to-point operation in the pinch-in operation. In accordance with the change in the distance, an editing process for reducing the object image f is performed (step S228). Since the reduction editing by the editing unit 17 has already been described, detailed description thereof will be omitted.

例えば、図13に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチイン操作を行なった場合、用紙画像pの大きさは変わらず、オブジェクト画像fの大きさのみが縮小される。この際、情報表示部16は、図13に示すように、当該ピンチイン操作によるオブジェクト画像fの大きさの倍率変化を表示する。   For example, as shown in FIG. 13, when the user performs a pinch-in operation by moving the thumb and the forefinger in the direction of the arrow in the figure, the size of the paper image p does not change, only the size of the object image f. Reduced. At this time, the information display unit 16 displays a change in magnification of the size of the object image f by the pinch-in operation, as shown in FIG.

以降、プレビュー画像を編集するための操作を完了した利用者は指を表示部6の表示画面61から離す。一方、オブジェクト画像fを編集するための操作を続ける利用者は、再び、指の回転、ピンチイン又はピンチアウトの操作を行なう。   Thereafter, the user who has completed the operation for editing the preview image releases his / her finger from the display screen 61 of the display unit 6. On the other hand, a user who continues an operation for editing the object image f performs a finger rotation, a pinch-in operation, or a pinch-out operation again.

CPU2は、位置検出部8からの信号に基づき、利用者の指が表示部6の表示画面61から離れたか否かを判定する(ステップS218)。CPU2は、利用者の指が表示部6の表示画面61から離れたと判定した場合(ステップS218:YES)、処理を終了する。また、CPU2は、利用者の指が表示部6の表示画面61から離れていないと判定した場合(ステップS218:NO)、処理を再びステップS213に戻す。   Based on the signal from the position detection unit 8, the CPU 2 determines whether or not the user's finger has left the display screen 61 of the display unit 6 (step S218). CPU2 complete | finishes a process, when it determines with a user's finger having left | separated from the display screen 61 of the display part 6 (step S218: YES). If the CPU 2 determines that the user's finger is not away from the display screen 61 of the display unit 6 (step S218: NO), the process returns to step S213 again.

一方、ステップS214にて、CPU2は、前記2点を結ぶ直線の方向が前記第1方向に沿う方向でないと判定した場合(ステップS214:NO)、位置検出部8からの信号に基づき、該直線の方向が前記第2方向(図13中、L2)に沿う方向であるか否かを判定する(ステップS222)。   On the other hand, if the CPU 2 determines in step S214 that the direction of the straight line connecting the two points is not the direction along the first direction (step S214: NO), based on the signal from the position detection unit 8, the straight line Is determined to be a direction along the second direction (L2 in FIG. 13) (step S222).

CPU2が前記直線の方向を前記第2方向に沿う方向であると判定した場合(ステップS222:YES)、選択受付部14は、用紙画像pの選択として受け付ける(ステップS223)。この際、斯かる旨を利用者に視認させるために、用紙画像pに所定の色を付け、又は点滅させるように構成しても良い。以降、利用者はピンチイン又はピンチアウト操作を行ない、用紙画像pの縮小又は拡大を指示する。   When the CPU 2 determines that the direction of the straight line is the direction along the second direction (step S222: YES), the selection receiving unit 14 receives the selection of the paper image p (step S223). At this time, in order to make the user visually recognize such a fact, a predetermined color may be given to the paper image p, or the paper image p may be blinked. Thereafter, the user performs a pinch-in or pinch-out operation, and instructs the reduction or enlargement of the paper image p.

CPU2は、位置検出部8からの信号に基づき、用紙画像pを拡大する指示を受け付けたか否かを判定する(ステップS224)。CPU2が用紙画像pを拡大する指示を受け付けたと判定した場合(ステップS224:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、用紙画像pを拡大する編集処理を行なう(ステップS225)。編集部17による拡大の編集については既に説明しているので、詳しい説明を省略する。   The CPU 2 determines whether an instruction for enlarging the paper image p has been received based on the signal from the position detection unit 8 (step S224). When it is determined that the CPU 2 has received an instruction to enlarge the paper image p (step S224: YES), that is, when a pinch-out operation is performed by the user, the editing unit 17 performs a process between two points in the pinch-out operation. An editing process for enlarging the paper image p is performed according to the change in distance (step S225). Since enlargement editing by the editing unit 17 has already been described, detailed description thereof will be omitted.

CPU2が、用紙画像pを拡大する指示を受け付けていないと判定した場合(ステップS224:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、用紙画像pを縮小する編集処理を行なう(ステップS226)。編集部17による縮小の編集については既に説明しているので、詳しい説明を省略する。   When the CPU 2 determines that an instruction to enlarge the paper image p is not received (step S224: NO), that is, when a pinch-in operation is performed by the user, the editing unit 17 performs a point-to-point operation in the pinch-in operation. In response to the change in the distance, an editing process for reducing the paper image p is performed (step S226). Since the reduction editing by the editing unit 17 has already been described, detailed description thereof will be omitted.

ステップS225にて用紙画像pを拡大する編集が行なわれる際、又はステップS226にて用紙画像pを縮小する編集が行なわれる際、情報表示部16は、斯かる編集によって変更される記録用紙に対する情報を表示部6に表示する(ステップS227)。   When editing for enlarging the paper image p is performed in step S225, or when editing for reducing the paper image p is performed in step S226, the information display unit 16 displays information on the recording paper changed by such editing. Is displayed on the display unit 6 (step S227).

図14は本発明の実施の形態2に係る複合機100における、用紙画像pの拡大の編集を説明する説明図である。   FIG. 14 is an explanatory view for explaining enlargement editing of the paper image p in the multi-function device 100 according to the second embodiment of the present invention.

例えば、図14に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチアウト操作を行なった場合、オブジェクト画像fの大きさは変わらず、用紙画像pの大きさのみが拡大される。この際、情報表示部16は、図14に示すように、当該ピンチアウト操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報を表示部6に表示する。図14では、ステップS205にて選択されたA4用紙の代わりに、より大きなサイズの記録用紙である「B4用紙」のテキストが前記情報として表示された例を示している。   For example, as shown in FIG. 14, when the user performs a pinch-out operation by moving the thumb and the forefinger in the direction of the arrow in the figure, the size of the object image f does not change, only the size of the paper image p. Is enlarged. At this time, as shown in FIG. 14, the information display unit 16 displays on the display unit 6 information on the recording paper that has been changed by the pinch-out operation, that is, determined by the paper determination unit 15. FIG. 14 shows an example in which the text “B4 paper”, which is a recording paper of a larger size, is displayed as the information instead of the A4 paper selected in step S205.

一方、ステップS222にて、CPU2が前記直線の方向を前記第2方向に沿う方向でないと判定した場合(ステップS222:NO)、換言すれば、前記2点を結ぶ直線の方向が前記第1方向でもなく、前記第2方向でもない場合、選択受付部14は、用紙画像p及びオブジェクト画像fの選択として受け付ける(ステップS229)。   On the other hand, when the CPU 2 determines in step S222 that the direction of the straight line is not the direction along the second direction (step S222: NO), in other words, the direction of the straight line connecting the two points is the first direction. If it is neither the second direction nor the second direction, the selection receiving unit 14 receives the selection of the paper image p and the object image f (step S229).

本実施の形態においては、利用者の親指及び食指に係る2点を結ぶ直線の方向は、表示部6に表示された矩形の画像の対角線方向であるとし、以降、利用者はピンチイン又はピンチアウト操作を行ない、用紙画像p及びオブジェクト画像fの縮小又は拡大を指示するものとする。   In the present embodiment, the direction of the straight line connecting the two points related to the user's thumb and the forefinger is assumed to be the diagonal direction of the rectangular image displayed on the display unit 6, and thereafter, the user pinches in or out. It is assumed that an operation is performed to instruct to reduce or enlarge the paper image p and the object image f.

CPU2は、位置検出部8からの信号に基づき、用紙画像p及びオブジェクト画像fを拡大する指示を受け付けたか否かを判定する(ステップS230)。CPU2が用紙画像p及びオブジェクト画像fを拡大する指示を受け付けたと判定した場合(ステップS230:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、用紙画像pを拡大する編集処理を行なう(ステップS231)。   The CPU 2 determines whether or not an instruction for enlarging the paper image p and the object image f has been received based on the signal from the position detection unit 8 (step S230). When the CPU 2 determines that an instruction to enlarge the paper image p and the object image f has been received (step S230: YES), that is, when a pinch-out operation is performed by the user, the editing unit 17 performs the pinch-out operation. An editing process for enlarging the paper image p is performed according to a change in the distance between the two points (step S231).

また、編集部17は、記憶部5に記憶されている対応テーブルに基づき、上述した用紙画像pの拡大の編集に対応するオブジェクト画像fの倍率だけ、オブジェクト画像fを拡大する編集処理を行なう(ステップS232)。   The editing unit 17 performs an editing process for enlarging the object image f by the magnification of the object image f corresponding to the above-described editing of enlarging the paper image p based on the correspondence table stored in the storage unit 5 ( Step S232).

続いて、用紙決定部15は上述した方法によって用紙を決定し、用紙決定部15によって決定された用紙に対する情報を、情報表示部16が表示部6に表示する(ステップS235)。   Subsequently, the paper determination unit 15 determines the paper by the above-described method, and the information display unit 16 displays information on the paper determined by the paper determination unit 15 on the display unit 6 (step S235).

一方、CPU2が用紙画像p及びオブジェクト画像fを拡大する指示を受け付けていないと判定した場合(ステップS230:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、用紙画像pを縮小する編集処理を行なう(ステップS233)。   On the other hand, when the CPU 2 determines that an instruction to enlarge the paper image p and the object image f is not received (step S230: NO), that is, when a pinch-in operation is performed by the user, the editing unit 17 performs the pinch-in operation. An editing process for reducing the paper image p is performed according to the change in the distance between the two points in the operation (step S233).

また、編集部17は、記憶部5に記憶されている対応テーブルに基づき、上述した用紙画像pの縮小の編集に対応するオブジェクト画像fの倍率だけ、オブジェクト画像fを縮小する編集処理を行なう(ステップS234)。   Further, the editing unit 17 performs an editing process for reducing the object image f by the magnification of the object image f corresponding to the reduction editing of the paper image p described above based on the correspondence table stored in the storage unit 5 ( Step S234).

続いて、用紙決定部15は上述した方法によって用紙を決定し、用紙決定部15によって決定された用紙に対する情報を、情報表示部16が表示部6に表示する(ステップS235)。この際、情報表示部16がオブジェクト画像fの編集に係る倍率も共に表示するように構成しても良い。   Subsequently, the paper determination unit 15 determines the paper by the above-described method, and the information display unit 16 displays information on the paper determined by the paper determination unit 15 on the display unit 6 (step S235). At this time, the information display unit 16 may be configured to display the magnification for editing the object image f.

図15及び図16は本発明の実施の形態2に係る複合機100において、用紙画像p及びオブジェクト画像fを共に編集する場合を説明する説明図である。   15 and 16 are explanatory diagrams for explaining a case where both the paper image p and the object image f are edited in the multi-function device 100 according to the second embodiment of the present invention.

例えば、図15に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチイン操作を行なった場合、用紙画像pと共にオブジェクト画像fの大きさが縮小される。この際、情報表示部16は、図15に示すように、当該ピンチイン操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報、及びオブジェクト画像fの編集に係る倍率を表示部6に表示する。図15では、ステップS205にて選択されたA4用紙の代わりに、より小さなサイズの記録用紙である「B5用紙」のテキストが前記情報として表示されている。また、用紙画像pが「A4用紙」に係る大きさから「B5用紙」に係る大きさに縮小される場合に対応するオブジェクト画像fの倍率である「86%」が共に表示されている(図9参照)。   For example, as shown in FIG. 15, when the user performs a pinch-in operation by moving the thumb and the forefinger in the direction of the arrow in the figure, the size of the object image f is reduced together with the paper image p. At this time, as shown in FIG. 15, the information display unit 16 displays information regarding the recording paper changed by the pinch-in operation, that is, the information determined by the paper determination unit 15 and the magnification for editing the object image f. Displayed in part 6. In FIG. 15, instead of the A4 paper selected in step S205, the text “B5 paper”, which is a recording paper of a smaller size, is displayed as the information. Further, “86%” which is the magnification of the object image f corresponding to the case where the paper image p is reduced from the size related to “A4 paper” to the size related to “B5 paper” is also displayed (FIG. 9).

また、図16に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチアウト操作を行なった場合、用紙画像pと共にオブジェクト画像fの大きさが拡大される。この際、情報表示部16は、図16に示すように、当該ピンチアウト操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報、及びオブジェクト画像fの編集に係る倍率を表示部6に表示する。図16では、ステップS205にて選択されたA4用紙の代わりに、より大きなサイズの記録用紙である「B4用紙」のテキストが前記情報として表示されている。また、用紙画像pが「A4用紙」に係る大きさから「B4用紙」に係る大きさに拡大される場合に対応するオブジェクト画像fの倍率である「122%」が共に表示されている(図9参照)。   Also, as shown in FIG. 16, when the user performs a pinch-out operation by moving the thumb and the forefinger in the direction of the arrow in the figure, the size of the object image f is enlarged together with the paper image p. At this time, as shown in FIG. 16, the information display unit 16 displays the information regarding the recording paper changed by the pinch-out operation, that is, the recording paper determined by the paper determination unit 15, and the magnification for editing the object image f. It is displayed on the display unit 6. In FIG. 16, instead of the A4 paper selected in step S205, the text “B4 paper”, which is a larger recording paper, is displayed as the information. Also, “122%”, which is the magnification of the object image f corresponding to the case where the paper image p is enlarged from the size related to “A4 paper” to the size related to “B4 paper”, is displayed (FIG. 9).

以上の実施の形態2の記載においては、用紙画像pの拡大・縮小の編集の後に、該編集にあわせてオブジェクト画像fの編集が行なわれる場合を例にあげて説明したが、これに限るものでない。先ず、オブジェクト画像fの拡大・縮小の編集が行なわれ、この後に該編集にあわせて用紙画像pの編集が行なわれるように構成しても良い。   In the above description of the second embodiment, the case where the object image f is edited after the enlargement / reduction editing of the paper image p has been described as an example. However, the present invention is not limited to this. Not. First, the object image f may be edited for enlargement / reduction, and then the paper image p may be edited in accordance with the editing.

なお、本発明に係る複合機100の構成は以上の記載に限るものでない。以上の記載においては、選択受付部14がオブジェクト画像fの選択を受け付け、利用者のピンチイン又はピンチアウトの操作に基づいてオブジェクト画像fの編集が行なわれる際、利用者の2本の指に係る2点間の距離変化に応じて順にオブジェクト画像fの倍率が変更される場合を例として説明したがこれに限るものでない。例えば、斯かるオブジェクト画像fの倍率の変更は、図9の対応テーブルにて示すように、141%、122%、…、81%、70%の順(又は逆順)に変更されるように構成しても良い。   Note that the configuration of the MFP 100 according to the present invention is not limited to the above description. In the above description, when the selection accepting unit 14 accepts the selection of the object image f and the object image f is edited based on the user's pinch-in or pinch-out operation, the selection accepting unit 14 relates to the user's two fingers. Although the case where the magnification of the object image f is sequentially changed according to the change in the distance between the two points has been described as an example, the present invention is not limited thereto. For example, the magnification of the object image f is changed in the order of 141%, 122%,..., 81%, 70% (or reverse order) as shown in the correspondence table of FIG. You may do it.

実施の形態1と同様の部分については、同一の符号を付して詳細な説明を省略する。   The same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

(実施の形態3)
図17は本発明の実施の形態3の複合機100の要部構成を示すブロック図である。実施の形態3の複合機100は、動作を行なうためのコンピュータプログラムが、I/F20を介してCD−ROM等の可搬型記録媒体Aで提供することも可能であるように構成されている。さらに、実施の形態3の複合機100は、前記コンピュータプログラムを、図示しない外部装置から通信部30を介してダウンロードすることも可能であるように構成されている。以下に、その内容を説明する。
(Embodiment 3)
FIG. 17 is a block diagram showing a main configuration of the multifunction machine 100 according to the third embodiment of the present invention. The multifunction machine 100 according to the third embodiment is configured such that a computer program for performing the operation can be provided on the portable recording medium A such as a CD-ROM via the I / F 20. Furthermore, the multi-function device 100 according to the third embodiment is configured such that the computer program can be downloaded from an external device (not shown) via the communication unit 30. The contents will be described below.

実施の形態3の複合機100は外装(又は内装)の記録媒体読み取り装置(図示せず)を備えており、該記録媒体読み取り装置に、位置検出部8によって検出された2点を結ぶ直線の方向に基づき、表示部6に表示された画像(表示画像)を編集させるプログラム等が記録された可搬型記録媒体Aを挿入して、例えば、CPU2がROM3にこのプログラムをインストールする。かかるプログラムはRAM4にロードして実行される。これにより、実施の形態3の本発明の複合機100として機能する。   The multifunction machine 100 according to the third embodiment includes an exterior (or interior) recording medium reading device (not shown), and a linear line connecting the two points detected by the position detection unit 8 to the recording medium reading device. Based on the direction, the portable recording medium A in which a program for editing an image (display image) displayed on the display unit 6 is inserted is inserted, and for example, the CPU 2 installs the program in the ROM 3. Such a program is loaded into the RAM 4 and executed. As a result, it functions as the MFP 100 of the present invention according to the third embodiment.

前記記録媒体としては、いわゆるプログラムメディアであっても良く、磁気テープ及びカセットテープ等のテープ系、フレキシブルディスク及びハードディスク等の磁気ディスク並びにCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM、EEPROM、フラッシュROM等による半導体メモリを含めた固定的にプログラムコードを担持する媒体であっても良い。   The recording medium may be a so-called program medium, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a flexible disk and a hard disk, and a disk system of an optical disk such as a CD-ROM / MO / MD / DVD, It may be a medium carrying a fixed program code including a card system such as an IC card (including a memory card) / optical card or a semiconductor memory such as a mask ROM, EPROM, EEPROM, flash ROM or the like.

通信部30を介してネットワークからプログラムコードをダウンロードするように流動的にプログラムコードを担持する媒体であっても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。なお、本発明は、前記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   It may be a medium that fluidly carries the program code so as to download the program code from the network via the communication unit 30. When the program is downloaded from the communication network in this way, the download program may be stored in the main device in advance or may be installed from another recording medium. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

実施の形態1と同様の部分については、同一の符号を付して詳細な説明を省略する。   The same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

以上の記載においては、1つの原稿画像に対して、用紙サイズの変換指示、画像サイズの変換指示、又は画像の回転指示等の編集指示を2本の指で操作する場合を例として説明したが、本発明はこれに限るものでない。
例えば、原稿束の複数ページの原稿に係る原稿画像が読み取られた場合には、所定の原稿画像に対する編集指示に係る編集結果が、全ての原稿画像においても反映されるように構成しても良く、選択された特定ページの原稿画像に対してのみ反映されるように構成しても良い。また、これらの何れかをユーザが選択できるように構成しても良い。
In the above description, a case where an instruction for editing a paper size conversion instruction, an image size conversion instruction, or an image rotation instruction is operated with two fingers for one document image has been described as an example. However, the present invention is not limited to this.
For example, when a document image related to a plurality of pages of a document in a document bundle is read, an editing result related to an editing instruction for a predetermined document image may be reflected in all document images. Alternatively, it may be configured to be reflected only on the original image of the selected specific page. Moreover, you may comprise so that a user can select either of these.

この場合は、選択された特定ページの原稿画像に対する編集指示を他の原稿画像にも反映する指示をユーザから受け付けるためのキーを、本発明に係る複合機に設けることにより実現できる。   In this case, the multifunction apparatus according to the present invention can be realized by providing a key for accepting, from the user, an instruction to reflect an editing instruction for the selected original page original image on other original images.

また、本発明に係る複合機は以上の記載に限るものでなく、従来の拡大、縮小、用紙サイズ選択、回転等の操作キーとの併用、また他の編集機能との組み合わせ指示も可能である。   The multifunction peripheral according to the present invention is not limited to the above description, and can be used in combination with conventional operation keys such as enlargement / reduction, paper size selection, rotation, and other editing functions. .

1 制御部
2 CPU
5 記憶部
6 表示部
61 表示画面
8 位置検出部
14 選択受付部
15 用紙決定部
16 情報表示部
17 編集部
100 複合機
A 記録媒体
p 用紙画像
f オブジェクト画像
1 Control unit 2 CPU
DESCRIPTION OF SYMBOLS 5 Memory | storage part 6 Display part 61 Display screen 8 Position detection part 14 Selection reception part 15 Paper determination part 16 Information display part 17 Editing part 100 MFP A Recording medium p Paper image f Object image

Claims (5)

画像形成に係るオブジェクト及び記録媒体を夫々表すオブジェクト画像及び媒体画像を含んで表示部の表示画面に表示される表示画像に対し、前記表示画面上の2点のタッチ位置に基づき、前記オブジェクト画像及び前記媒体画像の何れか一方を選択し、選択されたオブジェクト画像及び媒体画像の何れか一方に対して編集を行う画像形成装置において、
前記表示部は選択されたオブジェクト画像及び媒体画像の何れか一方を識別可能に表示することを特徴とする画像形成装置。
Based on the touch positions of two points on the display screen, the object image and the display image including the object image and the medium image respectively representing the object and the recording medium for image formation are displayed on the display screen. In the image forming apparatus that selects any one of the medium images and edits any one of the selected object image and medium image,
The image forming apparatus, wherein the display unit displays any one of the selected object image and medium image so as to be identifiable.
前記表示部は選択に係るオブジェクト画像及び媒体画像の何れか一方に対する表示形態を、前記選択の前後にて変更することを特徴とする請求項1に記載の画像形成装置。   The image forming apparatus according to claim 1, wherein the display unit changes a display form for any one of the object image and the medium image according to selection before and after the selection. 前記表示部は、選択されたオブジェクト画像及び媒体画像の何れか一方に色を付け、又は、点滅させることを特徴とする請求項1に記載の画像形成装置。   The image forming apparatus according to claim 1, wherein the display unit colors or blinks any one of the selected object image and medium image. 前記表示部は、選択されたオブジェクト画像及び媒体画像の何れか一方に関する情報のみを表示することを特徴とする請求項1から3の何れか一つに記載の画像形成装置。   4. The image forming apparatus according to claim 1, wherein the display unit displays only information relating to any one of the selected object image and medium image. 5. 画像形成に係るオブジェクト及び記録媒体を夫々表すオブジェクト画像及び媒体画像を含んで表示部の表示画面に表示される表示画像に対し、前記表示画面上の2点のタッチ位置に基づき、前記オブジェクト画像及び前記媒体画像の何れか一方を選択し、選択されたオブジェクト画像及び媒体画像の何れか一方に対して編集を行う画像形成装置での画像処理方法において、
前記表示部は選択されたオブジェクト画像及び媒体画像の何れか一方を識別可能に表示することを特徴とする画像処理方法。
Based on the touch positions of two points on the display screen, the object image and the display image including the object image and the medium image respectively representing the object and the recording medium for image formation are displayed on the display screen. In an image processing method in an image forming apparatus that selects any one of the medium images and edits either the selected object image or medium image.
An image processing method, wherein the display unit displays any one of a selected object image and medium image in a distinguishable manner.
JP2017135215A 2017-07-11 2017-07-11 Image formation device and image processing method Pending JP2017185821A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017135215A JP2017185821A (en) 2017-07-11 2017-07-11 Image formation device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017135215A JP2017185821A (en) 2017-07-11 2017-07-11 Image formation device and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016009806A Division JP6200528B2 (en) 2016-01-21 2016-01-21 Image forming apparatus and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018204257A Division JP6581709B2 (en) 2018-10-30 2018-10-30 Image processing method

Publications (1)

Publication Number Publication Date
JP2017185821A true JP2017185821A (en) 2017-10-12

Family

ID=60044623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017135215A Pending JP2017185821A (en) 2017-07-11 2017-07-11 Image formation device and image processing method

Country Status (1)

Country Link
JP (1) JP2017185821A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001047708A (en) * 1999-08-09 2001-02-20 Konica Corp Imaging apparatus
JP2007081854A (en) * 2005-09-14 2007-03-29 Ricoh Co Ltd Image forming apparatus, method and program therefor
JP2009015331A (en) * 2008-07-18 2009-01-22 Fujifilm Corp Electronic photograph album
US20090282332A1 (en) * 2008-05-12 2009-11-12 Nokia Corporation Apparatus, method and computer program product for selecting multiple items using multi-touch
JP2010154365A (en) * 2008-12-25 2010-07-08 Olympus Imaging Corp Color correction device, camera, color correction method, and color correction program
JP2010226466A (en) * 2009-03-24 2010-10-07 Seiko Epson Corp Image processing apparatus and method therefor
WO2011005318A2 (en) * 2009-07-10 2011-01-13 Roel Vertegaal Interaction techniques for flexible displays
JP2011028356A (en) * 2009-07-22 2011-02-10 Fujitsu Ltd Information processor, program, and decoration method for display element
JP2011034216A (en) * 2009-07-30 2011-02-17 Canon Inc Selection object decision method, decision method for anteroposterior relation of object, and apparatus therefor

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001047708A (en) * 1999-08-09 2001-02-20 Konica Corp Imaging apparatus
JP2007081854A (en) * 2005-09-14 2007-03-29 Ricoh Co Ltd Image forming apparatus, method and program therefor
US20090282332A1 (en) * 2008-05-12 2009-11-12 Nokia Corporation Apparatus, method and computer program product for selecting multiple items using multi-touch
JP2009015331A (en) * 2008-07-18 2009-01-22 Fujifilm Corp Electronic photograph album
JP2010154365A (en) * 2008-12-25 2010-07-08 Olympus Imaging Corp Color correction device, camera, color correction method, and color correction program
JP2010226466A (en) * 2009-03-24 2010-10-07 Seiko Epson Corp Image processing apparatus and method therefor
WO2011005318A2 (en) * 2009-07-10 2011-01-13 Roel Vertegaal Interaction techniques for flexible displays
JP2011028356A (en) * 2009-07-22 2011-02-10 Fujitsu Ltd Information processor, program, and decoration method for display element
JP2011034216A (en) * 2009-07-30 2011-02-17 Canon Inc Selection object decision method, decision method for anteroposterior relation of object, and apparatus therefor

Similar Documents

Publication Publication Date Title
JP5518009B2 (en) Image forming apparatus, image editing method, computer program, and recording medium
US8462378B2 (en) Image forming apparatus for producing plural images on a single sheet with a user selected integration pattern
US9197785B2 (en) Operation device, operation method, and image forming apparatus including the operation device
US11237701B2 (en) Non-transitory storage medium with functionality in response to an object and change in capacitance
JP5795465B2 (en) Display device
JP6581709B2 (en) Image processing method
JP6200528B2 (en) Image forming apparatus and image processing method
JP5876451B2 (en) Image forming apparatus, recording medium determination method, computer program, and recording medium
US10757278B2 (en) Image forming apparatus that executes first job and second job in parallel
JP2017185821A (en) Image formation device and image processing method
JP6264482B2 (en) Display control apparatus and program
JP5364665B2 (en) Image forming apparatus
JP4644225B2 (en) Image forming apparatus
JP6504238B2 (en) Display control device and program
JP6322272B2 (en) Display device, setting method, computer program, and recording medium recording the same
JP6572852B2 (en) Image forming apparatus and image forming method
JP6150689B2 (en) Image forming apparatus and setting reception method
JP2005316678A (en) Display device, display method, display program, program recording medium, and image processor
JP2014010764A (en) Display device, deletion method, computer program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180731