JP2015026944A - Information apparatus and computer program - Google Patents

Information apparatus and computer program Download PDF

Info

Publication number
JP2015026944A
JP2015026944A JP2013154599A JP2013154599A JP2015026944A JP 2015026944 A JP2015026944 A JP 2015026944A JP 2013154599 A JP2013154599 A JP 2013154599A JP 2013154599 A JP2013154599 A JP 2013154599A JP 2015026944 A JP2015026944 A JP 2015026944A
Authority
JP
Japan
Prior art keywords
image
editing
unit
processing
transmission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013154599A
Other languages
Japanese (ja)
Other versions
JP6135360B2 (en
Inventor
南 猛
Takeshi Minami
猛 南
俊彦 大竹
Toshihiko Otake
俊彦 大竹
山口 武久
Takehisa Yamaguchi
武久 山口
橋本 昌也
Masaya Hashimoto
昌也 橋本
智章 中島
Tomoaki Nakajima
智章 中島
武士 前川
Takeshi Maekawa
武士 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2013154599A priority Critical patent/JP6135360B2/en
Publication of JP2015026944A publication Critical patent/JP2015026944A/en
Application granted granted Critical
Publication of JP6135360B2 publication Critical patent/JP6135360B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To reduce labor in operating an edition/processing instruction on an image to be transmitted.SOLUTION: An information apparatus can perform a plurality of types of edition/processing on an original image designated by a user. When an edited image generated according to the user operation is transmitted, the information apparatus records, in an associative manner, a transmission destination and the edition/processing type performed when the edited image is generated. When new transmission to the recorded transmission destination is instructed, the information apparatus automatically performs edition/processing of the type, recorded in association with the transmission destination, on an original image G16 designated at the current transmission. The information apparatus performs preview display of generated automatically edited images G26a, G26b, G26c, to transmit the automatically edited images to the transmission destination according to a user operation instructing transmission.

Description

本発明は、画像データを送信する技術に関する。   The present invention relates to a technique for transmitting image data.

MFP(Multi-functional Peripheral)は、コピー機、プリンター、ネットワークスキャナー、ファクシミリ機、ドキュメントサーバーなどとして使用される複合型の情報機器である。MFPは、イメージスキャナーによって原稿シートから読み取ったスキャン画像を、パーソナルコンピューターやサーバーへ転送したり、ファクシミリデータに変換して送信したり、電子メールに添付して送信したりすることができる。   An MFP (Multi-functional Peripheral) is a composite information device used as a copier, printer, network scanner, facsimile machine, document server, and the like. The MFP can transfer a scanned image read from an original sheet by an image scanner to a personal computer or a server, convert it into facsimile data and send it, or send it attached to an e-mail.

画像の送信においてユーザーによる操作に応じた画像編集を行なう情報機器がある。特許文献1に記載されたデジタル複合機は、ファクシミリ送信に際して、元の画像にヘッダーまたはフッターとして日付や電話番号といった文字列を付加した画像をプレビュー表示する。そして、このデジタル複合機は、プレビュー表示画面におけるユーザーによる操作に従って、付加した文字列の位置やフォントを変更する。   There is an information device that performs image editing according to an operation by a user in transmitting an image. The digital multi-function peripheral described in Patent Document 1 previews an image in which a character string such as a date or a telephone number is added to the original image as a header or footer at the time of facsimile transmission. The digital multi-function peripheral changes the position and font of the added character string in accordance with a user operation on the preview display screen.

一方、原稿シートから読み取ったスキャン画像から文字情報を抽出する技術がある。特許文献2では、スキャン画像データから原稿シートを識別する情報としてページ番号や見出し情報を抽出する画像形成装置が開示されている。特許文献3では、スキャン画像データに含まれる全ての文字をOCR(Optical Character Reader)の文字認識技術を用いて抽出するMFPが記載されている。   On the other hand, there is a technique for extracting character information from a scanned image read from an original sheet. Patent Document 2 discloses an image forming apparatus that extracts a page number and heading information as information for identifying a document sheet from scanned image data. Patent Document 3 describes an MFP that extracts all characters included in scanned image data using an OCR (Optical Character Reader) character recognition technique.

特開2010−021855号公報JP 2010-021855 A 特開2009−239578号公報JP 2009-239578 A 特開2011−039580号公報JP 2011-039580 A

ファクシミリ通信のようにページ画像の送信による情報伝達において、送信者が受信者に注目してほしい箇所を枠線で囲んだり、強調したい文字列にマーカー線を付したりすることがよくある。このような場合には各種の編集・加工が可能な情報機器が有用である。編集・加工が可能な情報機器を画像の送信に使用すれば、予め枠線やマーカー線を付した原稿を例えばパーソナルコンピューターによって作成しておく必要がない。また、同じ原稿を複数の送信先に送信する場合に、送信先ごとに編集・加工の内容を変えることも容易である。   In information transmission by transmission of page images as in facsimile communication, the sender often encloses a portion that the receiver wants to pay attention to with a frame line, or adds a marker line to a character string to be emphasized. In such a case, an information device capable of various editing and processing is useful. If an information device that can be edited and processed is used for image transmission, it is not necessary to prepare a document with a frame line or a marker line in advance by a personal computer, for example. In addition, when the same document is transmitted to a plurality of transmission destinations, it is easy to change the contents of editing / processing for each transmission destination.

しかし、画像を送信する情報機器において編集・加工をした場合には、ユーザーは以前と同じように編集・加工して送信したいときに、改めて以前と同じように編集・加工の内容を指定する操作をしなければならなかった。   However, when editing or processing is performed on an information device that transmits images, when the user wants to edit and process the image as before, the operation to specify the content of editing or processing again as before. Had to do.

本発明は、このような事情に鑑み、送信対象の画像に対する編集・加工の指示操作の手間を低減することを目的としている。   In view of such circumstances, an object of the present invention is to reduce the trouble of editing / processing instruction operations on an image to be transmitted.

上記目的を達成する装置は、画像を送信する情報機器であって、ユーザーによる操作を受け付ける操作入力部と、指定された原画像に対して複数の種類の編集・加工を行なうことが可能な画像編集部と、前記ユーザーによる操作に従って前記画像編集部によって作成された編集画像が送信されたときに、送信先と当該編集画像の作成に際して行なわれた編集・加工の種類とを対応づけて記録する記録部と、前記記録部によって記録された前記送信先への新たな送信が指示されたときに、今回の送信において指定された原画像に対して、当該送信先に対応づけて記録されている種類の編集・加工を行なわせる指示を前記画像編集部に与える自動編集指示部と、前記自動編集指示部による前記指示に従って前記画像編集部によって作成された自動編集画像をプレビュー表示する表示部と、前記自動編集画像の送信を指示する前記ユーザーによる操作に従って、当該自動編集画像を前記送信先へ送信させる出力制御部と、を備える。   An apparatus that achieves the above object is an information device that transmits an image, an operation input unit that receives an operation by a user, and an image that can perform a plurality of types of editing / processing on a specified original image When an edited image created by the image editing unit according to an operation by the user is transmitted, the transmission destination and the type of editing / processing performed at the time of creating the edited image are recorded in association with each other When a new transmission to the recording unit and the transmission destination recorded by the recording unit is instructed, the original image specified in the current transmission is recorded in association with the transmission destination An automatic editing instruction unit for giving an instruction to perform editing and processing of a type to the image editing unit, and an automatic created by the image editing unit in accordance with the instruction by the automatic editing instruction unit Comprising a display unit displaying a preview of current image, in accordance with operation by the user to instruct transmission of the automatic editing images, and an output control unit for transmitting the automatic editing images to the destination, the.

本発明によれば、送信対象の画像に対する編集・加工の指示操作の手間を低減することができる。   According to the present invention, it is possible to reduce the labor of editing / processing instruction operations on an image to be transmitted.

本発明の実施形態に係るMFPを有したネットワーク環境を示す図である。1 is a diagram showing a network environment having an MFP according to an embodiment of the present invention. MFPのハードウェア構成の概略を示す図である。2 is a diagram illustrating an outline of a hardware configuration of an MFP. FIG. MFPにおける画像の編集・加工に関わる要部の機能構成を示す図である。2 is a diagram illustrating a functional configuration of a main part related to image editing / processing in an MFP. FIG. 送信先選択画面の例を示す図である。It is a figure which shows the example of a transmission destination selection screen. 原稿入力先選択画面の例を示す図である。6 is a diagram illustrating an example of a document input destination selection screen. FIG. 原稿選択画面の例を示す図である。6 is a diagram illustrating an example of a document selection screen. FIG. プレビュー画面の例を示す図である。It is a figure which shows the example of a preview screen. 編集・加工の第1例を示す図である。It is a figure which shows the 1st example of an edit and process. 領域指定操作の例を示す図である。It is a figure which shows the example of area | region designation | designated operation. 編集・加工の第2例を示す図である。It is a figure which shows the 2nd example of an edit and process. 編集・加工の第3例を示す図である。It is a figure which shows the 3rd example of an edit and process. 編集・加工の第4例を示す図である。It is a figure which shows the 4th example of an edit and process. 編集記録テーブルのデータ構成を示す図である。It is a figure which shows the data structure of an edit recording table. 自動編集・加工の第1例を示す図である。It is a figure which shows the 1st example of automatic edit and a process. 自動編集・加工の第2例を示す図である。It is a figure which shows the 2nd example of automatic edit and a process. MFPが実行する画像送信処理のフローチャートである。6 is a flowchart of image transmission processing executed by the MFP. 画像送信処理における指定操作の受付ルーチンのフローチャートである。It is a flowchart of the reception routine of designation | designated operation in an image transmission process. 画像送信処理における見出し抽出ルーチンのフローチャートである。It is a flowchart of the headline extraction routine in an image transmission process. 画像送信処理における文字写真抽出ルーチンのフローチャートである。It is a flowchart of the character photograph extraction routine in an image transmission process. 画像送信処理における文字列抽出ルーチンのフローチャートである。It is a flowchart of the character string extraction routine in an image transmission process. 画像送信処理における自動編集・加工ルーチンのフローチャートである。5 is a flowchart of an automatic editing / processing routine in image transmission processing. 画像送信処理における編集入力/編集情報登録ルーチンのフローチャートである。10 is a flowchart of an edit input / edit information registration routine in image transmission processing.

画像データを送信する情報機器の一例としてMFPを挙げる。MFPは、コピー機、プリンター、ネットワークスキャナー、ファクシミリ機、ドキュメントサーバーなどとして使用される。MFPは、ネットワークに接続され、原稿シートから読み取った画像やストレージに保存されている画像を、パーソナルコンピューターやサーバーへ転送したり、ファクシミリデータに変換して送信したり、電子メールに添付して送信したりすることができる。   An MFP is taken as an example of an information device that transmits image data. MFPs are used as copiers, printers, network scanners, facsimile machines, document servers, and the like. The MFP is connected to a network and transfers images read from original sheets and images stored in storage to personal computers and servers, converted into facsimile data, sent, and sent as e-mail attachments. You can do it.

図1に例示されるMFP1は、企業のオフィスに構築されたLAN(Local Area Network)3に接続され、複数のユーザーによって共用される。LAN3には、複数のパーソナルコンピューター4A,4B、ファイルサーバー5、メールサーバー6などの情報機器が接続されている。MFP1は、LAN3上の情報機器およびクラウドサーバー8を含むインターネット7上の情報機器との通信が可能である。また、MFP1は、図示しない公衆電話回線を用いるファクシミリ通信を行なうことができる。   An MFP 1 illustrated in FIG. 1 is connected to a LAN (Local Area Network) 3 built in a corporate office and is shared by a plurality of users. Information devices such as a plurality of personal computers 4A and 4B, a file server 5, and a mail server 6 are connected to the LAN 3. The MFP 1 can communicate with information devices on the LAN 3 and information devices on the Internet 7 including the cloud server 8. The MFP 1 can perform facsimile communication using a public telephone line (not shown).

図2にように、MFP1は、ADF(Auto Document Feeder)15およびイメージスキャナー16を備えている。ADF15は、イメージ入力、ファクシミリ送信、またはコピーにおいて、原稿シートをイメージスキャナー16の読取り位置へ搬送する。イメージスキャナー16は原稿シートに記録されている画像を光学的に読み取る。読み取られた画像は、通信インタフェース19を用いて外部機器へ送信されたり、ストレージ21内のボックス(BOX)22に保存されたり、プリンターエンジン17によって用紙に印刷されたりする。   As shown in FIG. 2, the MFP 1 includes an ADF (Auto Document Feeder) 15 and an image scanner 16. The ADF 15 conveys the original sheet to the reading position of the image scanner 16 during image input, facsimile transmission, or copying. The image scanner 16 optically reads an image recorded on a document sheet. The read image is transmitted to an external device using the communication interface 19, stored in a box (BOX) 22 in the storage 21, or printed on paper by the printer engine 17.

なお、通信インタフェース19は、公衆電話回線によるファクシミリ通信のためのモデム20を含んでいる。ストレージ21は例えばハードディスクドライブであり、プログラムやデータの保存およびデータ処理における一時的なデータ記憶に用いられる。ボックス22は、ドキュメントの保存用に設けられるメモリ領域である。   The communication interface 19 includes a modem 20 for facsimile communication via a public telephone line. The storage 21 is, for example, a hard disk drive and is used for temporary data storage in storage of programs and data and data processing. A box 22 is a memory area provided for storing a document.

MFP1に対する直接の操作に用いられる操作パネル12は、ディスプレイ13およびタッチパネル14を有している。ディスプレイ13は例えば液晶パネルである。タッチパネル14はディスプレイ13の表示面上のタッチ操作を検出し、タッチ点の位置を示す信号を出力する。本例のタッチパネル14は2点を同時にタッチするマルチタッチ操作を検出することができる。   An operation panel 12 used for direct operations on the MFP 1 includes a display 13 and a touch panel 14. The display 13 is a liquid crystal panel, for example. The touch panel 14 detects a touch operation on the display surface of the display 13 and outputs a signal indicating the position of the touch point. The touch panel 14 of this example can detect a multi-touch operation in which two points are touched simultaneously.

MFP1はメインコントローラー11によって制御される。メインコントローラー11は、各種のプログラムを実行するコンピューターとしてのCPU100、制御プログラムを記憶するROM(Read Only Memory)121、およびプログラム実行のワークエリアとされるRAM(Random Access Memory)122を有する。   The MFP 1 is controlled by the main controller 11. The main controller 11 includes a CPU 100 as a computer that executes various programs, a ROM (Read Only Memory) 121 that stores a control program, and a RAM (Random Access Memory) 122 that is a work area for executing the program.

このようなMFP1には、直接の操作またはる外部機器からの遠隔操作によってジョブが与えられる。MFP1に与えられる各種のジョブの中に、画像を外部機器へ送信するジョブ(これを「送信ジョブ」という)がある。送信ジョブにおいて送信される画像は、イメージスキャナー16によって原稿シートから読み取ったスキャン画像、またはストレージ21から読み出されるドキュメントのページ画像である。スキャン画像はラスター画像である。ドキュメントのページ画像の態様はドキュメントのファイル形式に依存し、ラスター画像の場合もあればそうではない場合もある。   A job is given to the MFP 1 by a direct operation or a remote operation from an external device. Among various jobs given to the MFP 1, there is a job for transmitting an image to an external device (this is referred to as “transmission job”). The image transmitted in the transmission job is a scanned image read from an original sheet by the image scanner 16 or a document page image read from the storage 21. The scanned image is a raster image. The aspect of the page image of a document depends on the file format of the document, and may or may not be a raster image.

送信ジョブのうち、スキャン画像を送信するジョブは、送信先に応じて“スキャン・トゥー・エフティーピー(Scan to FTP)”、“スキャン・トゥー・イーメイル(Scan to E-mail)”、または“スキャン・トゥー・クラウド(Scan to Cloud)”と呼ばれる。スキャン・トゥー・エフティーピーでは、スキャン画像はFTP(File Transfer Protocol)を用いてファイルサーバー5へ転送される。スキャン・トゥー・イーメイルでは、スキャン画像は電子メールに添付してメールサーバー6へ転送される。スキャン・トゥー・クラウドでは、スキャン画像はクラウドサーバー8へ転送される。   Of the transmission jobs, the job to send the scanned image is “Scan to FTP”, “Scan to E-mail”, or “Scan” depending on the destination.・ This is called “Scan to Cloud”. In scan-to-FP, the scanned image is transferred to the file server 5 using FTP (File Transfer Protocol). In scan-to-email, a scanned image is attached to an electronic mail and transferred to the mail server 6. In scan-to-cloud, the scanned image is transferred to the cloud server 8.

外部機器への送信ではないが、スキャン画像をボックス22へ格納するジョブが“スキャン・トゥー・ボックス(Scan to Box)”と呼ばれている。本実施形態では、スキャン・トゥー・ボックスにおいても送信ジョブと同様にボックス22へ格納されるスキャン画像のプレビュー表示が行なわれる。以下の説明では、スキャン・トゥー・ボックスを送信ジョブの一種とみなし、スキャン・トゥー・ボックスにおけるボックス22を送信先の一つにみなすものとする。   A job for storing the scanned image in the box 22 although it is not transmitted to an external device is called a “scan to box”. In the present embodiment, a preview display of the scanned image stored in the box 22 is also performed in the scan-to-box as with the transmission job. In the following description, it is assumed that the scan to box is regarded as a kind of transmission job, and the box 22 in the scan to box is regarded as one of transmission destinations.

MFP1は、送信ジョブにおいて画像をプレビュー表示することができるとともに、プレビュー表示した画像に対して複数の種類の編集・加工(画像処理)を行なうことができる。以下、この編集・加工を行なう機能について説明する。   The MFP 1 can display an image preview in a transmission job, and can perform a plurality of types of editing / processing (image processing) on the preview displayed image. The function for performing this editing / processing will be described below.

図3はMFPにおける画像の編集・加工に関わる要部の機能構成を示している。メインコントローラー11は、操作入力部101、入力制御部102、画像編集部103、プレビュー表示部104、出力制御部105、記録部106、および自動編集指示部107を有している。これらの構成要素は、メインコントローラー11のCPU100が所定のコンピュータープログラムを実行することによって実現される機能要素である。   FIG. 3 shows a functional configuration of a main part related to image editing / processing in the MFP. The main controller 11 includes an operation input unit 101, an input control unit 102, an image editing unit 103, a preview display unit 104, an output control unit 105, a recording unit 106, and an automatic editing instruction unit 107. These constituent elements are functional elements realized by the CPU 100 of the main controller 11 executing a predetermined computer program.

図3では操作パネル12を用いる直接の操作が行なわれる場合を想定して構成要素どうしの関連が描かれている。ただし、上述のとおりMFP1に対して外部機器からのアクセスによってジョブが与えられる場合もある。   In FIG. 3, the relationship between the components is drawn on the assumption that a direct operation using the operation panel 12 is performed. However, as described above, a job may be given to the MFP 1 by an access from an external device.

操作入力部101は、操作パネル12に操作画面を表示させてユーザーによる操作を受け付ける。操作画面は操作の進行に応じて切り替えられる。操作を受け付けた操作入力部101は、ユーザーの指示をそれに応じるべき所定の機能要素に伝える。例えば、送信する画像の入力先を指定する操作が行なわれたとき、操作入力部101は、指定された入力先を入力制御部102に通知する。   The operation input unit 101 displays an operation screen on the operation panel 12 and accepts an operation by the user. The operation screen is switched according to the progress of the operation. The operation input unit 101 that has received the operation transmits a user instruction to a predetermined functional element that should respond to the instruction. For example, when an operation for specifying an input destination of an image to be transmitted is performed, the operation input unit 101 notifies the input control unit 102 of the specified input destination.

入力制御部102は、指定された入力先からメインコントローラー11への原画像G10の入力を制御する。入力先がイメージスキャナー16であれば、入力制御部102はイメージスキャナー16による読み取り動作を制御し、スキャン画像を原画像G10として画像編集部103へ入力させる。入力先がボックス22であれば、入力制御部102は指定されたドキュメントのファイルをボックス22から読み出して、ドキュメントのページ画像を原画像G10として画像編集部103へ入力させる。   The input control unit 102 controls the input of the original image G10 from the designated input destination to the main controller 11. If the input destination is the image scanner 16, the input control unit 102 controls the reading operation by the image scanner 16, and inputs the scanned image to the image editing unit 103 as the original image G10. If the input destination is the box 22, the input control unit 102 reads the designated document file from the box 22 and inputs the page image of the document to the image editing unit 103 as the original image G 10.

画像編集部103は、入力された原画像G10に対して、ユーザーによる編集指示に応じて編集・加工を施す。画像編集部103は、後述のように枠囲み、マスキング、マーカー線の付与といった複数の種類の編集・加工を行なうことができる。画像編集部103によって編集・加工の行なわれた編集画像G20は、プレビュー表示部104および出力制御部105に引き渡される。なお、原画像G10が入力されてから編集指示操作が行なわれる以前の段階では、原画像G10がそのまま編集画像G20とされる。   The image editing unit 103 edits and processes the input original image G10 according to an editing instruction from the user. The image editing unit 103 can perform a plurality of types of editing / processing such as frame enclosing, masking, and marker line assignment as described later. The edited image G20 edited and processed by the image editing unit 103 is delivered to the preview display unit 104 and the output control unit 105. Note that in the stage before the editing instruction operation is performed after the input of the original image G10, the original image G10 is directly used as the edited image G20.

プレビュー表示部104は、画像編集部103によって作成された編集画像G20を、操作パネル12のディスプレイ13に表示させる。操作パネル12のディスプレイ13とは別にプレビュー用のディスプレイがMFP1に取り付けられている場合には、プレビュー表示部104は、プレビュー用のディスプレイに編集画像G20を表示させる。   The preview display unit 104 displays the edited image G20 created by the image editing unit 103 on the display 13 of the operation panel 12. When a preview display is attached to the MFP 1 in addition to the display 13 of the operation panel 12, the preview display unit 104 displays the edited image G20 on the preview display.

出力制御部105は、ユーザーによる出力指示を受けて、画像編集部103から引き渡された編集画像G20をジョブに応じた出力先へ送る。すなわち、送信ジョブにおいて、出力制御部105は、通信インタフェース19を制御して編集画像G20を指定された外部機器へ送信する。スキャン・トゥー・ボックスにおいて、出力制御部105は編集画像G20をボックス22に格納する。   In response to an output instruction from the user, the output control unit 105 sends the edited image G20 delivered from the image editing unit 103 to an output destination corresponding to the job. That is, in the transmission job, the output control unit 105 controls the communication interface 19 to transmit the edited image G20 to the designated external device. In the scan-to-box, the output control unit 105 stores the edited image G20 in the box 22.

記録部106は、出力制御部105によって編集画像G20が外部機器またはボックス22へ送信されたときに、送信先と当該編集画像G20の作成に際して行なわれた編集・加工の種類とを対応づけて記録する。記録には編集記録テーブルT1が用いられる。編集記録テーブルT1は、例えばストレージ21において記憶される。外部のサーバーに記憶させることもできる。   When the edited image G20 is transmitted to the external device or the box 22 by the output control unit 105, the recording unit 106 records the transmission destination and the type of editing / processing performed at the time of creating the edited image G20 in association with each other. To do. An edit record table T1 is used for recording. The edit record table T1 is stored in the storage 21, for example. It can also be stored on an external server.

本実施形態においては、編集・加工の種類と合わせて、原画像G10のうちのユーザーによって編集・加工の対象に指定された領域を特徴づけるキーワードが記録される。記録すべきキーワードの抽出を可能にする機能要素として、画像編集部103は領域判別部131、見出し抽出部132、および文字認識部133を備えている。   In the present embodiment, along with the type of editing / processing, a keyword that characterizes an area designated as an object of editing / processing by the user in the original image G10 is recorded. The image editing unit 103 includes an area determination unit 131, a headline extraction unit 132, and a character recognition unit 133 as functional elements that enable extraction of keywords to be recorded.

自動編集指示部107は、記録部106によって記録された送信先への新たな送信が同じユーザーによって指示されたときに、今回の送信において指定された原画像G10に対して、当該送信先に対応づけて記録されている種類の編集・加工を行なうように、画像編集部103に自動編集指示を与える。自動編集指示部107と画像編集部103との連携によって、以前と同じユーザーに指示された同じ送信先への送信に際して、以前に行なわれたのと同様の編集・加工が自動的に行なわれる。   The automatic editing instruction unit 107 responds to the transmission destination for the original image G10 designated in the current transmission when a new transmission to the transmission destination recorded by the recording unit 106 is instructed by the same user. Then, an automatic editing instruction is given to the image editing unit 103 so as to perform the type of editing / processing recorded. By cooperation between the automatic editing instruction unit 107 and the image editing unit 103, the same editing / processing as previously performed is automatically performed at the time of transmission to the same destination instructed by the same user as before.

自動的に行なわれた編集・加工の結果を示す編集画像(自動編集画像)はプレビュー表示部104によってプレビュー表示される。プレビュー表示が行なわれている状態においてユーザーが自動編集画像の送信を指示すると、出力制御部105が自動編集画像をMFP1に送信させる。   An edited image (automatically edited image) indicating the result of the automatically performed editing / processing is displayed as a preview by the preview display unit 104. When the user instructs transmission of the automatically edited image in the preview display state, the output control unit 105 causes the MFP 1 to transmit the automatically edited image.

図4〜図7に送信ジョブに関わる操作画面の例が示される。操作画面は操作パネル12によって表示される。   Examples of operation screens related to transmission jobs are shown in FIGS. The operation screen is displayed by the operation panel 12.

図4に示される送信先選択画面Q11では、予め登録された複数の送信先のそれぞれ対応する選択ボタン39,40,41が表示される。図4の状態では、送信先をグループ分けした8個のグループのうちの第1のグループが選択されており、この第1のグループに属する三つの送信先が選択ボタン39,40,41によって選択可能である。ユーザーが選択ボタン39,40,41のいずれかにタッチして送信先を指定した後、OKボタン(エンターキー)33にタッチすると、送信先が確定する。   On the transmission destination selection screen Q11 shown in FIG. 4, selection buttons 39, 40, 41 corresponding to a plurality of transmission destinations registered in advance are displayed. In the state of FIG. 4, the first group is selected from the eight groups in which the transmission destinations are grouped, and the three transmission destinations belonging to the first group are selected by the selection buttons 39, 40, and 41. Is possible. When the user touches one of the selection buttons 39, 40, and 41 to specify a transmission destination and then touches an OK button (enter key) 33, the transmission destination is determined.

図5において、原稿入力先選択画面Q12は、二つの選択ボタン31,32を有している。スキャン画像を送信したい場合、ユーザーは選択ボタン31にタッチする。ボックス22内のドキュメントを送信したい場合、ユーザーは選択ボタン32にタッチする。選択ボタン31,32のいずれかにタッチして入力先を指定した後、OKボタン33にタッチすると、入力先が確定する。   In FIG. 5, the document input destination selection screen Q12 has two selection buttons 31 and 32. When the user wants to transmit a scanned image, the user touches the selection button 31. The user touches the select button 32 to send the document in box 22. After touching one of the selection buttons 31 and 32 to specify an input destination and then touching an OK button 33, the input destination is determined.

図6に示される原稿選択画面Q13は、入力先としてボックス22が指定された場合に表示される。原稿選択画面Q13では、ボックス22内で保存されているドキュメントにそれぞれ対応する選択ボタン34,35,36,37,38が表示される。ユーザーは、選択ボタン34,35,36,37,38のいずれかにタッチして送信対象を指定する。   The document selection screen Q13 shown in FIG. 6 is displayed when the box 22 is designated as the input destination. On the document selection screen Q13, selection buttons 34, 35, 36, 37, 38 corresponding to the documents stored in the box 22 are displayed. The user touches any one of the selection buttons 34, 35, 36, 37, and 38 to designate a transmission target.

図7に例示されるプレビュー画面Q20では、左半部にプレビュー表示領域50が設けられている。プレビュー表示領域50には、原画像G10または編集画像G20(自動編集画像を含む)が例えばページ単位で表示される。複数ページ分の画像を送信する場合、ユーザーはプレビュー表示させるページを切り替えることができる。複数のページを並べて表示するモードを指定することもできる。   In the preview screen Q20 illustrated in FIG. 7, a preview display area 50 is provided on the left half. In the preview display area 50, an original image G10 or an edited image G20 (including an automatically edited image) is displayed, for example, in units of pages. When transmitting images for a plurality of pages, the user can switch pages to be previewed. You can also specify a mode to display multiple pages side by side.

プレビュー表示領域50の右側に、編集・加工に関わる指定操作のための各種のボタンが配置されている。ボタン51は、原画像の任意の領域を枠線で囲む“枠囲み”に対応し、ボタン52は、任意の文字列にマーカー線を付す“マーカー”に対応する。ボタン54は“マスキング”に対応し、ボタン55は“トリミング”に対応する。マスキングおよびトリミングの対象領域として任意領域、文字領域および写真領域が選択可能であり、これら選択肢の択一選択のためのボタン56,57,58がボタン54,55に隣接配置されている。ボタン59,60,61,62は、所定の文字列を追記する“スタンプ”の文字列の選択肢に対応する。そして、カラーパレット53は、“枠囲み”、“マーカー”および“スタンプ”はおける色の指定に用いられる。   On the right side of the preview display area 50, various buttons for specifying operations related to editing / processing are arranged. The button 51 corresponds to a “frame” that surrounds an arbitrary area of the original image with a frame line, and the button 52 corresponds to a “marker” that adds a marker line to an arbitrary character string. The button 54 corresponds to “masking”, and the button 55 corresponds to “trimming”. Arbitrary areas, character areas, and photo areas can be selected as areas to be masked and trimmed, and buttons 56, 57, 58 for selecting one of these options are arranged adjacent to the buttons 54, 55. The buttons 59, 60, 61, and 62 correspond to “stamp” character string options for additionally writing a predetermined character string. In the color palette 53, “frame”, “marker”, and “stamp” are used to specify colors.

図8は“枠囲み”の例を示している。図8では複数ページのドキュメントを送信する場合が想定されている。複数のページのそれぞれに対して編集・加工を行なうことができるが、図では先頭のページに対して“枠囲み”を行なう場合が示されている。   FIG. 8 shows an example of “frame”. In FIG. 8, it is assumed that a document having a plurality of pages is transmitted. Although editing and processing can be performed for each of a plurality of pages, the figure shows a case where “frame” is performed for the first page.

図8の上半部に描かれた原画像G11には、見出し71,72,73の付された三つの部分から構成される画像情報が記載されている。図8の下半部に描かれた編集画像G21のように、例示では「主な機能」という見出し73の付された部分を例えば青色の枠線75で囲む枠囲みが行なわれている。   In the original image G11 drawn in the upper half of FIG. 8, image information composed of three parts with headings 71, 72, 73 is described. As shown in the edited image G21 drawn in the lower half of FIG. 8, in the example, a frame enclosing a portion with a heading 73 of “main function” by, for example, a blue frame 75 is performed.

枠線75で囲む領域のサイズおよび位置をユーザーが指定する方法として、図9に示されるマルチタッチ操作による方法がある。ユーザーがプレビュー表示領域50内の任意の2点に同時にタッチすると、タッチされた2点を対角の頂点とする四角形の枠線75が表示される。その状態でユーザーが2点間の距離を拡げたり狭めたりするピンチアウト/ピンチイン操作をすると、枠線75による囲み(四角形)のサイズが変わる。そして、枠線75をドラッグするスライド操作によって、枠線75で囲む領域の位置を変更することができる。所望の領域を囲んだ状態でタッチ面から指を離すと、枠線75が確定する。   As a method for the user to specify the size and position of the area surrounded by the frame line 75, there is a method by a multi-touch operation shown in FIG. When the user touches any two points in the preview display area 50 at the same time, a rectangular frame 75 having the two touched points as diagonal vertices is displayed. In this state, when the user performs a pinch out / pinch in operation to increase or decrease the distance between the two points, the size of the enclosure (rectangle) by the frame line 75 changes. Then, the position of the region surrounded by the frame line 75 can be changed by a slide operation for dragging the frame line 75. When the finger is released from the touch surface while surrounding the desired region, the frame line 75 is fixed.

図10は“文字マスキング”および“写真トリミング”の例を示している。図10の上半部に描かれた原画像G12は、一つの写真76とテキストとから構成されている。“文字マスキング”は文字領域を対象とするマスキングであり、プレビュー画面Q20におけるボタン54とボタン57とによって指定される。一方、“写真トリミング”は写真領域を対象とするトリミングであり、ボタン55とボタン58とによって指定される。   FIG. 10 shows an example of “character masking” and “photo trimming”. The original image G12 drawn in the upper half of FIG. 10 is composed of one photograph 76 and text. “Character masking” is masking for a character area, and is designated by the button 54 and the button 57 on the preview screen Q20. On the other hand, “photo trimming” is trimming for a photo area, and is designated by a button 55 and a button 58.

図10の下半部の左側に描かれた編集画像G22aでは“文字マスキング”が行なわれている。すなわち、原画像G12のうちのテキストの部分に例えば黒色の網点パターンがマスクとして合成され、それによってテキストの文字が判読不能になっている。“文字マスキング”では、画像編集部103における領域判別部131によって、属性判別技術を用いて原画像G12における文字領域と写真領域とが判別され、判別された文字領域に対してマスクが合成される。   In the edited image G22a drawn on the left side of the lower half of FIG. 10, “character masking” is performed. That is, for example, a black halftone dot pattern is combined with the text portion of the original image G12 as a mask, thereby making the text characters unreadable. In “character masking”, the area discriminating unit 131 in the image editing unit 103 discriminates the character area and the photograph area in the original image G12 using the attribute discriminating technique, and a mask is combined with the discriminated character area. .

図10の下半部の右側に描かれた編集画像G22bでは“写真トリミング”が行なわれている。すなわち、原画像G12のうちの写真76のみが残され他の部分の画像情報が消去されている。“写真トリミング”では、領域判別部131によって写真領域が抽出される。   In the edited image G22b drawn on the right side of the lower half of FIG. 10, “photo trimming” is performed. That is, only the photograph 76 of the original image G12 is left and the image information of the other part is deleted. In “photo trimming”, a photo area is extracted by the area discriminating unit 131.

図11は“任意マスキング”および“スタンプ”の例を示している。図11の上半部に描かれた原画像G13は、見出し81,82,83の付された三つの情報記載部分84,85,86を有している。“任意マスキング”は、ユーザーが任意に指定した領域を対象とするマスキングであり、ボタン55とボタン56とによって指定される。   FIG. 11 shows an example of “arbitrary masking” and “stamp”. The original image G13 drawn in the upper half of FIG. 11 has three information description portions 84, 85, 86 with headings 81, 82, 83 attached. “Arbitrary masking” is masking for an area arbitrarily designated by the user, and is designated by the button 55 and the button 56.

図11の下半部に描かれた編集画像G23では、「販売契約」という見出し82の付された情報記載部分85がマスキングされ、「販売価格」という見出し83の付された情報記載部分86に『社外秘』というスタンプ87が合成されている。情報記載部分85をマスキングの対象としてユーザーが指定する方法としては、マスキングしたい領域を上述の枠囲みの場合と同様に枠線で囲む方法がある。また、段落間の空白や見出しなどからテキストの各段落を判別する場合には、マスキングしたい段落にタッチする方法を用いることができる。スタンプ87の配置位置をユーザーが指定する方法としては、ボタン59をタッチすることでデフォルト位置に表示されるスタンプ87を所望の位置へドラッグする方法、およびボタン59のタッチに続いてプレビュー表示領域50内の所望の位置にタッチする方法がある。   In the edited image G23 drawn in the lower half of FIG. 11, the information description portion 85 with the heading “sales contract” 82 is masked, and the information description portion 86 with the heading 83 “sales price” is displayed. A stamp 87 “confidential” is synthesized. As a method for the user to designate the information description portion 85 as a masking target, there is a method in which the area to be masked is surrounded by a frame line as in the case of the above-mentioned frame frame. Further, when each paragraph of text is discriminated from a space between paragraphs or a heading, a method of touching a paragraph to be masked can be used. As a method for the user to specify the arrangement position of the stamp 87, a method of dragging the stamp 87 displayed at the default position by touching the button 59 to a desired position, and a preview display area 50 following the touch of the button 59. There is a method of touching a desired position inside.

図12は“マーカー”の例を示している。図示の原画像G14は、「営業部 山○ △郎 様」という宛名を表わす文字列88を有している。編集画像G24では、文字列88の背景を着色するように、文字列88の全長にわたる例えば黄色のマーカー線89が付加されている。文字列88の文字色とマーカー線89の色とが異なるので、文字列88は判読可能である。   FIG. 12 shows an example of “marker”. The illustrated original image G <b> 14 has a character string 88 representing an address “Sales department mountain ○ △”. In the edited image G24, for example, a yellow marker line 89 extending over the entire length of the character string 88 is added so as to color the background of the character string 88. Since the character color of the character string 88 and the color of the marker line 89 are different, the character string 88 is legible.

以上の図8および図10〜図12の例のような編集・加工の内容は、編集記録テーブルT1に送信先と対応づけて記録される。編集記録テーブルT1による記録に基づいて、以後の送信に際して編集・加工が自動的に行なわれる。編集記録テーブルT1のデータ構成が図13に示される。   The contents of editing / processing as in the examples of FIGS. 8 and 10 to 12 are recorded in the editing record table T1 in association with the transmission destination. Based on the record in the edit record table T1, editing / processing is automatically performed in subsequent transmissions. The data structure of the edit record table T1 is shown in FIG.

図13のように、編集記録テーブルT1は、「送信元(ユーザー)」、「送信先」、「ユーザーによる編集の内容」、および「キーワード抽出」というフィールドを有している。「ユーザーによる編集の内容」は「種類」および「色」という二つのサブフィールドからなり、「キーワード抽出」は「属性」および「キーワード」という二つのサブフィールドからなる。   As shown in FIG. 13, the edit record table T1 has fields of “transmission source (user)”, “transmission destination”, “contents of editing by the user”, and “keyword extraction”. “Contents edited by the user” is composed of two subfields “kind” and “color”, and “keyword extraction” is composed of two subfields “attribute” and “keyword”.

編集記録テーブルT1では、1種類の編集・加工が行なわれるごとにレコードが設けられる。したがって、一つの原画像に対して複数の種類の編集・加工が行なわれた場合には、送信先が同じ複数のレコードが記録されることになる。   In the edit record table T1, a record is provided every time one kind of editing / processing is performed. Therefore, when a plurality of types of editing / processing are performed on one original image, a plurality of records having the same transmission destination are recorded.

「送信元(ユーザー)」には、MFP1に送信ジョブを与えたユーザーの識別コードが記録される。MFP1は、ユーザーの識別コードを当該ユーザーがMFP1にログインする際に取得する。   In the “transmission source (user)”, the identification code of the user who gave the transmission job to the MFP 1 is recorded. The MFP 1 acquires the user identification code when the user logs in to the MFP 1.

「キーワード抽出」には、原画像のうちの編集・加工の対象になった領域から抽出されたキーワードと当該キーワードの属性が記録される。本実施形態において記録されるキーワードの属性は、見出し抽出部132が判別する“見出し”またはユーザーによって指定されたことを意味する“指定文字列”である。   In the “keyword extraction”, a keyword extracted from an area to be edited / processed in the original image and an attribute of the keyword are recorded. The keyword attribute recorded in the present embodiment is a “headline” determined by the headline extraction unit 132 or a “designated character string” that is designated by the user.

図示の編集記録テーブルT1における第1番目のレコードR1は、図8の例に対応する。このレコードR1の「ユーザーによる編集の内容」において、編集・加工の種類が“枠囲み”であり、その対象領域がユーザーによって指定された領域であり、枠線75の色が青色であることが記録されている。対象領域の指定が文字や写真といった属性の指定ではない任意領域の指定である場合、対象領域内の見出しの有無が判別され、見出しがあれば、見出しの文字列がキーワードとして記録される。レコードR1の「キーワード抽出」において、キーワードとして見出し73の文字列である『主な機能』が記録され、属性として見出しが記録されている。なお、原画像を表わす画像データがラスター形式である場合には、文字認識部133によってキーワードを表わす文字コードが取得される。   The first record R1 in the illustrated edit record table T1 corresponds to the example of FIG. In the “contents edited by the user” of the record R1, the type of editing / processing is “framed”, the target area is the area specified by the user, and the color of the frame 75 is blue. It is recorded. If the target area is specified as an arbitrary area that is not an attribute specification such as characters or photos, the presence or absence of a heading in the target area is determined, and if there is a heading, the heading character string is recorded as a keyword. In the “keyword extraction” of the record R1, “main function” that is a character string of the heading 73 is recorded as a keyword, and a heading is recorded as an attribute. If the image data representing the original image is in raster format, the character recognition unit 133 obtains a character code representing the keyword.

第2番目のレコードR2は、図10の例における写真トリミングに対応する。このレコードR2において、“トリミング”が行なわれ、その対象領域が写真領域であることが記録されている。対象領域の指定が属性指定であるので、キーワードは抽出されていない。   The second record R2 corresponds to the photo trimming in the example of FIG. In this record R2, “trimming” is performed, and it is recorded that the target area is a photographic area. Since the designation of the target area is attribute designation, no keyword is extracted.

第3番目のレコードR3および第4番目のレコードR4は、図11の例に対応する。レコードR3において、“マスキング”が行なわれたこと、対象領域がユーザーによって指定された領域であること、抽出したキーワードが『販売契約』であることなどが記録されている。また、レコードR4において、“スタンプ”が行なわれたこと、スタンプ文字が『社外秘』で色が赤色であること、抽出したキーワードが『販売価格』であることなどが記録されている。   The third record R3 and the fourth record R4 correspond to the example of FIG. Record R3 records that “masking” has been performed, that the target area is an area designated by the user, and that the extracted keyword is “sales contract”. Record R4 records that “stamp” has been performed, the stamp character is “confidential” and the color is red, and the extracted keyword is “sales price”.

第5番目のレコードR5は、図12の例に対応する。レコードR5において、“マーカー”が行なわれたこと、マーカー色が黄色であること、マーカー線89の付加された文字列88であるキーワードが『営業部 山○ △郎 様』であることなどが記憶されている。   The fifth record R5 corresponds to the example of FIG. In the record R5, the fact that “marker” has been performed, the marker color is yellow, and the keyword which is the character string 88 with the marker line 89 added is “sales department mountain ○ △ shiro” etc. Has been.

図14は自動編集・加工の第1例を示している。   FIG. 14 shows a first example of automatic editing / processing.

図14の原画像G15は、見出し91の付された情報記載部分93および見出し92の付された情報記載部分94を有している。見出し91の文字列(『主な機能』)は、図8の原画像G11の見出し73の文字列と同じであり、編集記録テーブルT1のレコードR1にキーワードとして記憶されている。また、見出し92の文字列(『販売契約』)は、図11の原画像G13の見出し83の文字列と同じであり、編集記録テーブルT1のレコードR3にキーワードとして記憶されている。言い換えれば、原画像G15は、過去に行なわれた2種の編集・加工に対応づけられている二つのキーワードを含んでいる。   The original image G15 in FIG. 14 has an information description portion 93 with a heading 91 and an information description portion 94 with a heading 92. The character string of the heading 91 (“main function”) is the same as the character string of the heading 73 of the original image G11 in FIG. 8, and is stored as a keyword in the record R1 of the editing record table T1. The character string of the heading 92 (“sales contract”) is the same as the character string of the heading 83 of the original image G13 in FIG. 11, and is stored as a keyword in the record R3 of the editing record table T1. In other words, the original image G15 includes two keywords associated with two types of editing / processing performed in the past.

このような原画像G15に対して、三つの自動編集画像G25a,G25b,G25cが作成される。第1の自動編集画像G25aでは、レコードR1のキーワードと同じ文字列をもつ情報記載部分93に対してレコードR1の記録と同じ“枠囲み”が行なわれ、かつレコードR3のキーワードと同じ文字列をもつ情報記載部分94に対してレコードR3の記録と同じ“マスキング”が行なわれている。第2の自動編集画像G25bでは、情報記載部分93に対する“枠囲み”のみが行なわれ、第3の自動編集画像G25cでは、情報記載部分94に対する“マスキング”のみが行なわれている。   Three automatically edited images G25a, G25b, and G25c are created for such an original image G15. In the first automatically edited image G25a, the same “frame” as the record of the record R1 is performed on the information description portion 93 having the same character string as the keyword of the record R1, and the same character string as the keyword of the record R3 is used. The same “masking” as the recording of the record R3 is performed on the information description portion 94. In the second automatic edit image G25b, only “framed” for the information description portion 93 is performed, and in the third automatic edit image G25c, only “masking” for the information description portion 94 is performed.

つまり、原画像G15に当てはまる過去に行なわれた2種の編集・加工の両方を施した第1の自動編集画像G25aと、片方の編集・加工の両方を施した第2の自動編集画像G25bと、他の片方の編集・加工の両方を施した第3の自動編集画像G25bとが作成される。言い換えれば、原画像G15に対して過去の編集記録に基づいて選ばれた複数の編集・加工のうちの少なくとも一つを施すという条件を満たすように、自動編集・加工が行なわれる。   That is, a first automatic edit image G25a that has been subjected to both of the two types of editing and processing performed in the past that apply to the original image G15, and a second automatic edit image G25b that has been subjected to both of the editing and processing, Then, the third automatic edit image G25b subjected to both editing and processing of the other one is created. In other words, automatic editing / processing is performed so as to satisfy the condition that at least one of a plurality of editing / processing selected based on past editing records is applied to the original image G15.

三つの自動編集画像G25a,G25b,G25cは、送信する画像の候補1〜3としてプレビュー表示される。ひとつずつプレビュー表示する表示モードが設定されている場合、ユーザーはフリック操作または所定のボタン操作によって表示を切り替える。ユーザーが所定の送信開始操作(例えば操作パネル12上のスタートキーの押下)をすると、自動編集画像G25a,G25b,G25cのうちの選択されたひとつが送信される。ユーザーは、送信開始操作の前に編集指示操作をして自動編集画像G25a,G25b,G25cにさらに他の編集・加工を施すことができる。自動編集画像G25a,G25b,G25cのうちの複数を送信の対象として選択可能にするようにしてもよい。   The three automatically edited images G25a, G25b, and G25c are preview-displayed as image candidates 1 to 3 to be transmitted. When the display mode for preview display one by one is set, the user switches the display by a flick operation or a predetermined button operation. When the user performs a predetermined transmission start operation (for example, pressing a start key on the operation panel 12), a selected one of the automatically edited images G25a, G25b, and G25c is transmitted. The user can perform further editing / processing on the automatically edited images G25a, G25b, and G25c by performing an editing instruction operation before the transmission start operation. A plurality of automatically edited images G25a, G25b, and G25c may be selected as transmission targets.

図15は自動編集・加工の第2例を示している。   FIG. 15 shows a second example of automatic editing / processing.

図15の原画像G16は、文字列95および写真96を有している。文字列95(『営業部 山○ △郎 様』)は文字コードの比較の上で図12の原画像G14の文字列88と同じであり、編集記録テーブルT1のレコードR5にキーワードとして記憶されている。なお、文字列95と文字列88との間で、フォント、文字サイズ、位置は異なっていてもよい。   The original image G16 in FIG. 15 includes a character string 95 and a photograph 96. The character string 95 (“Sales Department Yama ○ △”) is the same as the character string 88 of the original image G14 in FIG. 12 in comparison of the character codes, and is stored as a keyword in the record R5 of the edit record table T1. Yes. Note that the font, character size, and position may be different between the character string 95 and the character string 88.

この原画像G16に対して、三つの自動編集画像G26a,G26b,G26cが作成される。第1の自動編集画像G26aでは、レコードR5の記録と同じ“マーカー”が行なわれ、文字列95にマーカー線97が付加されている。第2の自動編集画像G26bでは、レコードR2の記録と同じ“写真トリミング”が行なわれ、写真96を残して他の画像情報が消去されている。第3の自動編集画像G26cでは、文字列95および写真96を残して他の画像情報が消去するトリミングが行なわれ、文字列95にマーカー線97を付加する“マーカー”が行なわれている。   Three automatically edited images G26a, G26b, and G26c are created for the original image G16. In the first automatically edited image G26a, the same “marker” as the record R5 is recorded, and a marker line 97 is added to the character string 95. In the second automatically edited image G26b, the same “photo trimming” as the recording of the record R2 is performed, and other image information is deleted except for the photo 96. In the third automatically edited image G26c, trimming is performed to erase other image information while leaving the character string 95 and the photograph 96, and “marker” for adding a marker line 97 to the character string 95 is performed.

次にフローチャートを参照してMFP1の動作を説明する。   Next, the operation of the MFP 1 will be described with reference to a flowchart.

図16は画像送信処理のフローチャートである。メインコントローラー11の操作入力部101が指定操作の受付ルーチンを実行する(S01)。詳しくは図17のとおり、まず、送信先選択画面Q11(図4参照)を表示させてユーザーによる送信先の指定操作を受け付け(S21)、次に原稿入力先選択画面Q12を表示させて入力先の指定操作を受け付ける(S22)。そして、指定された入力先がボックス22である場合、操作入力部101は、原稿選択画面Q13(図6参照)を表示させて、ユーザーによるドキュメントの指定操作を受け付ける(S23、S24)。   FIG. 16 is a flowchart of the image transmission process. The operation input unit 101 of the main controller 11 executes a designation operation receiving routine (S01). Specifically, as shown in FIG. 17, first, a transmission destination selection screen Q11 (see FIG. 4) is displayed to accept a transmission destination designation operation by the user (S21), and then an original input destination selection screen Q12 is displayed to display the input destination. The designation operation is accepted (S22). If the designated input destination is the box 22, the operation input unit 101 displays the document selection screen Q13 (see FIG. 6) and accepts a document designation operation by the user (S23, S24).

図16に戻って、入力制御部102が指定された入力先から原画像G10を取り込んで画像編集部103に入力する(S02)。入力先がイメージスキャナー14である場合の原画像G10はスキャン画像であり、入力先がボックス22である場合の原画像G10はドキュメントのページ画像である。   Returning to FIG. 16, the input control unit 102 captures the original image G10 from the designated input destination and inputs it to the image editing unit 103 (S02). The original image G10 when the input destination is the image scanner 14 is a scanned image, and the original image G10 when the input destination is the box 22 is a page image of a document.

画像編集部103に入力された原画像G10を、プレビュー表示部104が操作入力部101と連携してディスプレイ13にプレビュー表示させる(S03)。プレビュー表示はプレビュー画面Q20において行なわれる。   The preview display unit 104 causes the display 13 to display a preview of the original image G10 input to the image editing unit 103 in cooperation with the operation input unit 101 (S03). The preview display is performed on the preview screen Q20.

原画像G10のプレビュー表示と並行して、自動編集指示部107が編集記録テーブルT1にアクセスして編集記録を検索する(S04)。検索対象のレコードは、現在のユーザーに対応するレコードである。ステップS01で指定された今回の送信の送信先と同じ送信先を格納したレコードがなければ、注目すべき編集記録はない(S05でNO)。この場合、メインコントローラー11はステップS12へ進み、ユーザーによる編集指示操作に従って原画像G10に対する編集・加工を行なう。   In parallel with the preview display of the original image G10, the automatic editing instruction unit 107 accesses the editing record table T1 and searches for editing records (S04). The search target record is a record corresponding to the current user. If there is no record storing the same transmission destination as the transmission destination of the current transmission specified in step S01, there is no edit record to be noted (NO in S05). In this case, the main controller 11 proceeds to step S12, and edits / processes the original image G10 according to an editing instruction operation by the user.

今回の送信先と同じ送信先が記録されている場合(S05でYES)、自動編集指示部107は、該当するレコードのデータを編集記録テーブルT1から読み出す(S06)。例えば図13の編集記録テーブルT1において、現在のユーザーがユーザーAであり送信先が送信先1である場合には、レコードR1〜R5が読み出される。自動編集指示部107は読み出したレコードのうち「属性」および「キーワード」を含む所定フィールドのデータを画像編集部103に与える。   When the same transmission destination as the current transmission destination is recorded (YES in S05), the automatic editing instruction unit 107 reads the data of the corresponding record from the editing recording table T1 (S06). For example, in the edit record table T1 of FIG. 13, when the current user is the user A and the transmission destination is the transmission destination 1, records R1 to R5 are read. The automatic editing instruction unit 107 gives data of a predetermined field including “attribute” and “keyword” in the read record to the image editing unit 103.

画像編集部103は、見出し抽出、文字写真抽出および文字列抽出の各ルーチンを実行する(S07、S08、S09)。これによって得られる情報(位置範囲)が、次のステップS10の自動編集・加工ルーチンにおける自動編集画像の作成に用いられる。   The image editing unit 103 executes routines for headline extraction, character photo extraction, and character string extraction (S07, S08, S09). Information (position range) obtained in this way is used to create an automatically edited image in the automatic editing / processing routine of the next step S10.

その後、作成された自動編集画像のプレビュー表示(S11)、および編集・加工ルーチン(S12)が実行される。編集・加工ルーチンでは、自動編集画像または原画像に対して、ユーザーの指示に従って編集・加工が施される。ユーザーが編集・加工を指示する操作をしなければ、プレビュー表示された時点の自動編集画像(または原画像)が送信の対象画像となる。   Thereafter, a preview display (S11) of the automatically edited image created and an editing / processing routine (S12) are executed. In the editing / processing routine, the automatically edited image or the original image is edited / processed according to a user instruction. If the user does not perform an operation for instructing editing / modification, the automatically edited image (or original image) at the time when the preview is displayed becomes the transmission target image.

送信開始を指示する操作が行なわれると(S13でYES)、出力制御部106がその時点の対象画像の送信のための制御を行なう(S14)。対象画像は、プレビュー表示されてユーザーに選択された自動編集画像、原画像、またはユーザーの指示に従って作成された編集画像である。   When an operation to instruct the start of transmission is performed (YES in S13), the output control unit 106 performs control for transmission of the target image at that time (S14). The target image is an automatically edited image, an original image, or an edited image created in accordance with a user instruction displayed in a preview and selected by the user.

画像が送信されると、記録部106が、送信した画像に関わる編集・加工の内容と送信先とを対応づけるレコードを編集記録テーブルT1に追加する(S15)。プレビュー表示された自動編集画像がそのまま送信された場合には、既存のレコードと重複することになるので、レコードは追加されない。自動編集画像に対してユーザーの指示に従ってさらに編集・加工が追加実施された場合には、追加実施された編集・加工の内容を記録するレコードが追加される。   When the image is transmitted, the recording unit 106 adds a record that associates the contents of editing / processing related to the transmitted image and the transmission destination to the editing record table T1 (S15). When the automatically edited image displayed as a preview is transmitted as it is, it is duplicated with an existing record, so that no record is added. When further editing / processing is performed on the automatically edited image according to the user's instruction, a record for recording the contents of the additional editing / processing is added.

図18は見出し抽出ルーチンのフローチャートである。画像編集部103の見出し抽出部132は、自動編集指示部107から編集記録として伝えられた編集記録テーブルT1のデータのうち、「属性」のデータに注目する。そして、「属性」のデータに『見出し』があった場合(S71でYES)、見出し抽出部132は原画像G10から所定の抽出条件を満たす見出し文字列を抽出する(S72)。   FIG. 18 is a flowchart of the header extraction routine. The headline extraction unit 132 of the image editing unit 103 pays attention to the “attribute” data among the data of the editing record table T1 transmitted from the automatic editing instruction unit 107 as the edit record. When “headline” is included in the “attribute” data (YES in S71), the headline extraction unit 132 extracts a headline character string satisfying a predetermined extraction condition from the original image G10 (S72).

続いて、見出し抽出部132は、抽出した見出し文字列が編集記録のうちの属性が『見出し』であるキーワードと一致するかどうかをチェックする(S73)。抽出した見出し文字列の中にキーワードと一致するものがあれば(S73でYES)、見出し抽出部132は、原画像G10のうちのキーワードと一致した見出し文字列を有した情報記載部分の位置範囲と当該キーワードに対応するレコードの番号とを自動編集指示部107に通知する(S74)。   Subsequently, the headline extraction unit 132 checks whether or not the extracted headline character string matches a keyword whose attribute is “headline” in the edit record (S73). If any of the extracted headline character strings matches the keyword (YES in S73), the headline extraction unit 132 has the position range of the information description portion having the headline character string that matches the keyword in the original image G10. And the number of the record corresponding to the keyword are notified to the automatic editing instruction unit 107 (S74).

図19は文字写真抽出ルーチンのフローチャートである。画像編集部103の領域判別部131は、自動編集指示部107から伝えられた編集記録のうち、「種類」のデータに注目する。そして、「種類」のデータが示す対象領域が『写真領域』または『文字領域』であった場合に(S81でYES)、領域判別部131は、原画像G10から写真領域または文字領域を抽出する(S82)。このとき、編集記録テーブルT1における『写真領域』をデータとしてもつレコードと『文字領域』をデータとしてもつレコードとを含む複数のレコードが編集記録として伝えられていた場合には、写真領域および文字領域の両方を抽出する。   FIG. 19 is a flowchart of a character photo extraction routine. The region discriminating unit 131 of the image editing unit 103 pays attention to “type” data in the editing record transmitted from the automatic editing instruction unit 107. When the target area indicated by the “type” data is “photo area” or “character area” (YES in S81), the area determination unit 131 extracts a photo area or a character area from the original image G10. (S82). At this time, if a plurality of records including a record having “photo area” as data and a record having “character area” as data in the edit record table T1 are transmitted as edit records, the photo area and the character area Extract both.

原画像G10が抽出すべき領域(写真領域/文字領域)を有していた場合、すなわち写真領域/文字領域を抽出することができた場合(S83でYES)、領域判別部131は、抽出した写真領域/文字領域の原画像G10における位置範囲および対応するレコードの番号を自動編集指示部107に通知する(S84)。   If the original image G10 has an area to be extracted (photo area / character area), that is, if the photo area / character area can be extracted (YES in S83), the area determination unit 131 extracts the area. The automatic edit instruction unit 107 is notified of the position range of the photograph area / character area in the original image G10 and the corresponding record number (S84).

図20は文字列抽出ルーチンのフローチャートである。画像編集部103の文字認識部133は、自動編集指示部107から伝えられた編集記録のうち、「属性」のデータに注目する。そして、「属性」のデータに『指定文字列』があった場合に(S91でYES)、文字認識部133は原画像G10内の文字像を文字コード化するOCR走査を行なう(S92)。   FIG. 20 is a flowchart of the character string extraction routine. The character recognition unit 133 of the image editing unit 103 pays attention to “attribute” data in the editing record transmitted from the automatic editing instruction unit 107. If “designated character string” is present in the “attribute” data (YES in S91), the character recognition unit 133 performs OCR scanning for character encoding the character image in the original image G10 (S92).

続いて、文字認識部133は、OCR走査によって認識した原画像G10内の文字群の中に、編集記録のうちの属性が『指定文字列』であるキーワードと一致する文字列の有無をチェックする(S93)。原画像G10の中にキーワードと一致する文字列があれば(S93でYES)、文字認識部133は、キーワードと一致した文字列の原画像G10における位置範囲と当該キーワードに対応するレコードの番号とを自動編集指示部107に通知する(S94)。   Subsequently, the character recognition unit 133 checks whether or not there is a character string that matches the keyword whose attribute is “designated character string” in the edit record in the character group in the original image G10 recognized by OCR scanning. (S93). If there is a character string that matches the keyword in the original image G10 (YES in S93), the character recognition unit 133 determines the position range of the character string that matches the keyword in the original image G10 and the number of the record corresponding to the keyword. Is notified to the automatic editing instruction unit 107 (S94).

図21は自動編集・加工ルーチンのフローチャートである。自動編集指示部107は、見出し抽出部132と領域判別部131と文字認識部133とからそれぞれ通知された位置範囲を、原画像G10における自動編集・加工の対象領域として定める(S101)。   FIG. 21 is a flowchart of an automatic editing / processing routine. The automatic editing instruction unit 107 determines the position ranges notified from the headline extraction unit 132, the region determination unit 131, and the character recognition unit 133 as the target region for automatic editing / processing in the original image G10 (S101).

続いて、自動編集指示部107は、通知された番号のレコードに記録されている編集・加工の種類を調べ、当該種類の数を求める。一つのレコードに複数の対象領域が対応する場合があるので(例えば原画像が二つの写真を有する)、必ずしも対象領域の総数と編集・加工の種類の数とが一致するとは限らない。自動編集指示部107は、求めた種類の数に応じて、実施する自動編集・加工の種類を決める(S102)。   Subsequently, the automatic editing instruction unit 107 checks the type of editing / processing recorded in the notified record of the number, and obtains the number of the type. Since a plurality of target areas may correspond to one record (for example, the original image has two photographs), the total number of target areas does not always match the number of types of editing / processing. The automatic editing instruction unit 107 determines the type of automatic editing / processing to be performed according to the number of types obtained (S102).

求めた種類の数が1であれば、自動編集指示部107は、通知された番号のレコードの種類をそのまま実施する自動編集・加工の種類に決める。この場合、作成される自動編集画像は一つとなる。求めた種類の数が複数である場合には、自動編集指示部107は、複数通りの自動編集画像のそれぞれに対応する種類の組合せを、複数の種類のうちの少なくとも一つを選択するやり方で決める。組合せの数Nは、求めた種類の数をnとして次の式で表わされる。   If the obtained number of types is 1, the automatic editing instruction unit 107 determines the type of the record with the notified number as the type of automatic editing / processing to be performed as it is. In this case, only one automatically edited image is created. When there are a plurality of obtained types, the automatic editing instruction unit 107 selects a combination of types corresponding to each of a plurality of types of automatically edited images by selecting at least one of the plurality of types. Decide. The number N of combinations is expressed by the following equation, where n is the number of types obtained.

N=nnn(n-1)+ …+n2n1=2n−1 N = n C n + n C (n−1) +... + N C 2 + n C 1 = 2 n −1

例えば、求めた種類の数nが2である場合(図14、15の例が当てはまる)、3通りの組合せを決める。求めた種類の数nが3である場合には、7通りの組合せを決める。ただし、必ずしもN通りの組合せの全てを決める必要はなく、N通りのうちの一部を抜粋して決めてもよい。例えば、n個からn個を選ぶというように選ぶ個数の多い順、逆に選ぶ個数の少ない順、またはランダムにM(M<N)通りを抜粋することができる。任意の抜粋規則を予め適宜設定しておくことができる。   For example, when the number n of types obtained is 2 (the examples of FIGS. 14 and 15 apply), three combinations are determined. When the obtained number of types n is 3, seven combinations are determined. However, it is not always necessary to determine all of the N combinations, and some of the N combinations may be extracted and determined. For example, it is possible to extract M (M <N) ways in the order from the largest selection number, such as selecting from n to n, or in the order from the smallest selection number. Arbitrary extraction rules can be appropriately set in advance.

その後、自動編集指示部107が単一または複数の自動編集画像の作成を画像編集部103に指示する。その際、原画像G10内の対象領域を指定するとともに、編集記録テーブルT1から読み出した該当対象領域に対応するレコードが示す「種類」および「色」の各サブフィールドのデータを画像編集部103に与える。指示を受けて、画像編集部103は、以前の編集・加工と同じ種類および色の編集・加工を指定された対象領域に対して実施する(S103)。それによって作成された自動編集画像は、上述のとおり画像送信処理のステップS11(図16参照)においてプレビュー表示される。   Thereafter, the automatic editing instruction unit 107 instructs the image editing unit 103 to create one or a plurality of automatically edited images. At that time, the target area in the original image G10 is designated, and the data of each of the “type” and “color” subfields indicated by the record corresponding to the target area read from the editing record table T1 is sent to the image editing unit 103. give. In response to the instruction, the image editing unit 103 performs the same type and color editing / processing as the previous editing / processing on the designated target region (S103). The automatically edited image created thereby is preview-displayed in step S11 (see FIG. 16) of the image transmission process as described above.

図22は編集・加工ルーチンのフローチャートである。   FIG. 22 is a flowchart of the editing / processing routine.

操作入力部101は、プレビュー画面Q20における編集指示操作を受け付ける(S121)。プレビュー表示領域50内の1点または2点をタッチする領域指定入力があった場合(S122でYES)、画像編集部103は指定された領域を記憶する(S123)。指定された領域について、文字認識部133がOCR走査を行なって文字を認識する(S124)。   The operation input unit 101 receives an edit instruction operation on the preview screen Q20 (S121). When there is an area designation input for touching one or two points in the preview display area 50 (YES in S122), the image editing unit 103 stores the designated area (S123). For the designated area, the character recognition unit 133 performs OCR scanning to recognize characters (S124).

指定された領域が文字領域である場合(S125でYES)、ユーザーの指定した編集・加工の種類を画像編集部103がチェックする(S126)。編集・加工の種類が“枠囲み”であれば、指定された領域内の見出し文字列を見出し抽出部132が抽出し(S127)、抽出された見出し文字列をキーワードとして画像編集部103が記憶する(S128)。編集・加工の種類が“マーカー”であれば、指定された領域の文字列の全体(または先頭から設定文字数番目の文字までの部分)を、画像編集部103がキーワードとして記憶する(S128)。記憶されたキーワードは適時に記録部106に取り込まれ、画像が送信されたときに編集記録テーブルT1に書き込まれる。   If the designated area is a character area (YES in S125), the image editing unit 103 checks the type of editing / processing designated by the user (S126). If the type of editing / processing is “framed”, the headline extraction unit 132 extracts the headline character string in the designated area (S127), and the image editing unit 103 stores the extracted headline character string as a keyword. (S128). If the type of editing / processing is “marker”, the image editing unit 103 stores the entire character string in the specified area (or the portion from the beginning to the set number of characters) as a keyword (S128). The stored keyword is taken into the recording unit 106 in a timely manner, and is written into the edit recording table T1 when the image is transmitted.

一方、上述のステップS122のチェック結果がNOであった場合、画像編集部103は、ユーザーの指定した編集・加工の種類が“マスキング”または“トリミング”であるかどうかをチェックする(S131)。指定された種類が“マスキング”または“トリミング”であれば(S131でYES)、領域判別部131が編集・加工の対象領域を抽出する(S132)。ユーザーによって指定された領域属性が「写真」であれば写真領域を抽出し、指定された領域属性が「文字」であれば文字領域を抽出する。   On the other hand, if the check result in step S122 is NO, the image editing unit 103 checks whether the type of editing / processing specified by the user is “masking” or “trimming” (S131). If the designated type is “masking” or “trimming” (YES in S131), the region discriminating unit 131 extracts a region to be edited / processed (S132). If the region attribute designated by the user is “photograph”, a photo region is extracted. If the region attribute designated is “character”, a character region is extracted.

抽出した対象領域が文字領域である場合(S133でYES)、文字認識部133が対象領域についてOCR走査を行ない(S134)、見出し抽出部132が対象領域内の見出し文字列を抽出する(S135)。そして、抽出された見出し文字列をキーワードとして画像編集部103が記憶する(S136)。キーワードは上述の場合と同様に編集記録テーブルT1における編集記録に反映される。   If the extracted target area is a character area (YES in S133), the character recognition unit 133 performs OCR scanning on the target area (S134), and the headline extraction unit 132 extracts a headline character string in the target area (S135). . Then, the image editing unit 103 stores the extracted heading character string as a keyword (S136). The keyword is reflected in the edit record in the edit record table T1 as in the case described above.

ステップS121で受け付けた操作に従って、ステップS129において原画像に編集・加工を施した編集画像を作成し、または編集画像にさらに編集・加工を施す。ユーザーが編集指示作業の終了を示す所定の操作を行なうまで(S139でYES)、ステップS121からステップS129までの処理が繰り返される。   In accordance with the operation received in step S121, an edited image obtained by editing / modifying the original image is created in step S129, or the edited image is further edited / modified. Until the user performs a predetermined operation indicating the end of the editing instruction work (YES in S139), the processing from step S121 to step S129 is repeated.

以上の実施形態によれば、原画像のうちの編集・加工の対象とされた領域からキーワードを抽出して記録するので、全く同じ原画像だけでなく、以前とはレイアウトが異なる原画像についても、自動的に編集・加工を施すことができ、MFP1の利便性を高めることができる。   According to the above embodiment, since keywords are extracted and recorded from an area of the original image that is the target of editing / processing, not only the same original image but also an original image having a different layout from the previous one. Editing and processing can be automatically performed, and the convenience of the MFP 1 can be enhanced.

また、ユーザー別に各ユーザーが指定した編集・加工の内容が記録されるので、MFP1を共用する複数のユーザーのそれぞれが、手間を掛けずに自己が望む編集・加工を施した画像の送信することができる。   In addition, since the contents of editing and processing designated by each user are recorded for each user, each of a plurality of users who share the MFP 1 can transmit an image subjected to editing and processing desired by the user without taking time and effort. Can do.

プレビュー画面Q20に編集・加工に関わる操作用のボタンが表示されるので、編集指示作業をするユーザーの操作性が向上する。   Since the operation buttons related to editing / processing are displayed on the preview screen Q20, the operability of the user who performs the editing instruction work is improved.

上述の実施形態において、以前に行なわれた編集・加工の対象領域と同じかまたは類似する領域を有した原画像に対して以前と異なる編集・加工が行なわれた場合に、編集記録テーブルT1にレコードを追加してもよいし、先の編集・加工に対応するレコードを後の編集・加工に対応するレコードに置き換えてもよい。例えば“写真トリミング”をした編集画像の送信と、“写真マスキング”をした編集画像の送信とが行なわれた場合に、これらの編集をそれぞれ示す二つのレコードを記録しておく。この場合、以後の送信に際し、写真を有した原画像に対して写真トリミングをした自動編集画像および写真マスキングをした自動編集画像の両方を送信画像の候補として作成し、それらをプレビュー表示すればよい。また、宛名Aに“黄色マーカー”をした編集画像が送信され、後日に同じ宛名Aに“水色マーカー”をした編集画像が送信された場合に、“黄色マーカー”のレコードを削除して“水色マーカー”のレコードを記録しておく。この場合、以後における宛名Aを有した原画像に対して、“水色マーカー”をした自動編集画像を作成することになる。   In the above-described embodiment, when editing / processing different from the previous one is performed on the original image having the same or similar area as the target of editing / processing performed previously, the editing record table T1 is displayed. A record may be added, or a record corresponding to the previous editing / processing may be replaced with a record corresponding to the subsequent editing / processing. For example, when transmission of an edited image with “photo trimming” and transmission of an edited image with “photo masking” are performed, two records indicating these edits are recorded. In this case, at the time of subsequent transmission, both an automatically edited image obtained by trimming a photo with respect to an original image having a photo and an automatically edited image subjected to photo masking may be created as candidates for a transmitted image and previewed. . In addition, when an edited image with “yellow marker” is sent to address A and an edited image with “light blue marker” is sent to the same address A at a later date, the record of “yellow marker” is deleted and “light blue” Record the “marker” record. In this case, an automatically edited image with a “light blue marker” is created for the original image having the address A thereafter.

頻繁に行なわれる編集・加工を優先的に編集記録テーブルT1に記録したり、設定期間にわたって行なわれていない編集・加工に対応するレコードを抹消したりするようにしてもよい。   Frequent editing / processing may be preferentially recorded in the editing record table T1, or records corresponding to editing / processing not performed over a set period may be deleted.

編集・加工の種類の優先順位を定めておき、自動編集・加工の種類の組合せを決める際に、優先順位の上位から設定数個の種類を選ぶようにすることができる。   Priorities of editing / processing types can be determined, and when a combination of automatic editing / processing types is determined, several types can be selected from the higher priority order.

原画像G10の入力先を示す情報を送信先と対応づけて記録し、ユーザーと入力先と送信先とが過去の送信と一致する送信において自動編集画像を作成するようにしてもよい。ユーザーを区別せずに、入力先と送信先とが過去の送信と一致する送信において自動編集画像を作成するようにしてもよい。   Information indicating the input destination of the original image G10 may be recorded in association with the transmission destination, and an automatically edited image may be created in transmission in which the user, the input destination, and the transmission destination match the past transmission. An automatically edited image may be created in a transmission in which the input destination and the transmission destination match the past transmission without distinguishing the user.

操作パネル12のディスプレイ13とは別にプレビュー用のディスプレイを設けてもよい。タッチパネルによるタッチ操作に限らず、マウスやトラックボールといったポインティングデバイスによる操作によって編集・加工の対象として任意の領域を指定するようにしてもよい。外部のパーソナルコンピューターに付随するディスプレイにMFP1の操作パネルを表示させて、編集・加工を遠隔操作で行なうことも可能である。   A preview display may be provided separately from the display 13 of the operation panel 12. Not only a touch operation with a touch panel, but also an arbitrary region may be designated as an object of editing / processing by an operation with a pointing device such as a mouse or a trackball. The operation panel of the MFP 1 can be displayed on a display attached to an external personal computer, and editing and processing can be performed by remote control.

原画像G10を用紙に印刷する画像出力において、プレビュー表示した原画像G10に対してユーザーの指示し従って行なった編集・加工の内容を記録し、以降における原画像G10と同じか類似する内容の画像の印刷時に、記録に基づいて自動編集・加工を施して印刷をするようにしてもよい。   In the image output for printing the original image G10 on paper, the contents of editing / processing performed in accordance with the user's instruction to the previewed original image G10 are recorded, and the image having the same or similar content as the original image G10 thereafter is recorded. At the time of printing, automatic editing / processing may be performed based on the recording to perform printing.

1 MFP(情報機器)
101 操作入力部
103 画像編集部
104 プレビュー表示部(表示部)
105 出力制御部
106 記録部
107 自動編集指示部
G10,G11,G12,G13,G14,G15,G16 原画像
G20,G21,G22a,G22b,G23、G24 編集画像
G25a,G25b,G25c,G26a,G26b,G26c 自動編集画像
T1 編集記録テーブル
1 MFP (information equipment)
101 Operation input unit 103 Image editing unit 104 Preview display unit (display unit)
105 Output control unit 106 Recording unit 107 Automatic editing instruction unit G10, G11, G12, G13, G14, G15, G16 Original images G20, G21, G22a, G22b, G23, G24 Edited images G25a, G25b, G25c, G26a, G26b, G26c Automatic edit image T1 Edit record table

Claims (11)

画像を送信する情報機器であって、
ユーザーによる操作を受け付ける操作入力部と、
指定された原画像に対して複数の種類の編集・加工を行なうことが可能な画像編集部と、
前記ユーザーによる操作に従って前記画像編集部によって作成された編集画像が送信されたときに、送信先と当該編集画像の作成に際して行なわれた編集・加工の種類とを対応づけて記録する記録部と、
前記記録部によって記録された前記送信先への新たな送信が指示されたときに、今回の送信において指定された原画像に対して、当該送信先に対応づけて記録されている種類の編集・加工を行なわせる指示を前記画像編集部に与える自動編集指示部と、
前記自動編集指示部による前記指示に従って前記画像編集部によって作成された自動編集画像を前記送信先へ送信させる出力制御部と、を備える
ことを特徴とする情報機器。
An information device that transmits images,
An operation input unit that accepts user operations;
An image editing unit capable of performing multiple types of editing and processing on a specified original image;
When the edited image created by the image editing unit is transmitted according to the operation by the user, a recording unit that records the transmission destination and the type of editing / processing performed at the time of creating the edited image in association with each other,
When a new transmission to the transmission destination recorded by the recording unit is instructed, the type of editing / recording associated with the transmission destination is performed on the original image specified in the current transmission. An automatic editing instruction unit for giving an instruction to perform processing to the image editing unit;
An information device comprising: an output control unit that transmits an automatically edited image created by the image editing unit to the transmission destination according to the instruction by the automatic editing instruction unit.
前記画像編集部によって作成された前記自動編集画像をプレビュー表示する表示部を備え、
前記出力制御部は、プレビュー表示された前記自動編集画像の送信を指示する前記ユーザーによる操作に従って、当該自動編集画像を前記送信先へ送信させる
請求項1記載の情報機器。
A display unit that displays a preview of the automatically edited image created by the image editing unit;
The information device according to claim 1, wherein the output control unit causes the automatic editing image to be transmitted to the transmission destination according to an operation by the user instructing transmission of the automatic editing image displayed as a preview.
前記自動編集指示部は、前記送信先に対応づけて複数の種類が記憶されている場合に、当該複数の種類のうちの1つ以上の種類の編集・加工を行なう互いに異なる複数の自動編集画像を、前記画像編集部に作成させ、
前記出力制御部は、前記複数の自動編集画像のうちの前記ユーザーによって選択された自動編集画像を前記送信先へ送信させる
請求項1または2記載の情報機器。
The automatic editing instruction unit, when a plurality of types are stored in association with the transmission destination, a plurality of different automatically edited images that perform one or more types of editing / processing of the plurality of types Is created by the image editing unit,
The information device according to claim 1, wherein the output control unit causes the automatic edit image selected by the user from the plurality of automatic edit images to be transmitted to the transmission destination.
前記画像編集部は、前記原画像のうちの編集・加工の対象領域から文字列を抽出する機能を有し、
前記記録部は、前記画像編集部によって抽出された前記文字列を、前記編集・加工の種類とともに前記送信先に対応づけて記録し、
前記自動編集指示部は、前記今回の送信において指定された原画像のうちの前記文字列を含む領域に対して当該文字列に対応付けて記録されている種類の編集・加工を行なうように、前記画像編集部に指示を与える
請求項1ないし3のいずれかに記載の情報機器。
The image editing unit has a function of extracting a character string from an editing / processing target area of the original image,
The recording unit records the character string extracted by the image editing unit in association with the transmission destination together with the type of editing / processing,
The automatic editing instruction unit performs editing / processing of a type recorded in association with the character string with respect to an area including the character string in the original image designated in the current transmission, The information device according to claim 1, wherein an instruction is given to the image editing unit.
前記文字列は、前記対象領域内の文字情報のうちの見出しに該当する文字列である
請求項4記載の情報機器。
The information device according to claim 4, wherein the character string is a character string corresponding to a heading among character information in the target area.
前記複数の種類の編集・加工のうちのひとつは、写真領域または文字領域を選択的に不可視化する画像処理である
請求項1ないし5のいずれかに記載の情報機器。
The information device according to any one of claims 1 to 5, wherein one of the plurality of types of editing / processing is image processing for selectively making a photo region or a character region invisible.
前記複数の種類の編集・加工のうちのひとつは、前記原画像のうちの前記ユーザーが指定した任意の領域に線を追加する画像処理である
請求項1ないし6のいずれかに記載の情報機器。
The information device according to claim 1, wherein one of the plurality of types of editing / processing is image processing for adding a line to an arbitrary region designated by the user in the original image. .
追加される前記線は、前記任意の領域を囲む枠線または背景色と異なる色のマーカー線である
請求項7記載の情報機器。
The information device according to claim 7, wherein the added line is a frame line surrounding the arbitrary region or a marker line having a color different from a background color.
原稿シートからの読取りによって得られたスキャン画像を前記原画像として前記画像編集部に入力させる入力制御部を備える
請求項1ないし8のいずれかに記載の情報機器。
The information device according to claim 1, further comprising: an input control unit configured to input a scanned image obtained by reading from a document sheet to the image editing unit as the original image.
前記入力制御部は、前記ユーザーによる操作に従って、前記スキャン画像またはストラージに保存されているドキュメントのページ画像を前記原画像として前記画像編集部に入力させる
請求項9記載の情報機器。
The information device according to claim 9, wherein the input control unit causes the image editing unit to input a page image of a document stored in the scanned image or storage as the original image in accordance with an operation by the user.
画像を送信する情報機器において実行されるコンピュータープログラムであって、
前記情報機器が有するコンピューターに、
ユーザーによる操作を受け付ける操作入力処理と、
指定された原画像に対して複数の種類の編集・加工のうちの少なくともひとつを行なう画像編集処理と、
前記ユーザーによる操作に従って前記画像編集処理によって作成された編集画像が送信されたときに、送信先と当該編集画像の作成に際して行なわれた編集・加工の種類とを対応づけて記録する記録処理と、
前記記録処理によって記録された前記送信先への新たな送信が指示されたときに、今回の送信において指定された原画像に対して、当該送信先に対応づけて記録されている種類の編集・加工を行なわせる自動編集指示処理と、
前記自動編集指示処理による指示に従って前記画像編集処理によって作成された自動編集画像を前記送信先へ送信させる出力制御処理と、を実行させる
ことを特徴とするコンピュータープログラム。
A computer program executed in an information device for transmitting an image,
In the computer that the information device has,
An operation input process that accepts user operations,
Image editing processing for performing at least one of a plurality of types of editing / processing on the specified original image;
When the edited image created by the image editing process according to the operation by the user is transmitted, a recording process for recording the transmission destination and the type of editing / processing performed at the time of creating the edited image,
When a new transmission to the transmission destination recorded by the recording process is instructed, the type of editing / recording associated with the transmission destination is performed on the original image designated in the current transmission. Automatic editing instruction processing for processing,
An output control process for transmitting an automatically edited image created by the image editing process to the transmission destination according to an instruction by the automatic editing instruction process.
JP2013154599A 2013-07-25 2013-07-25 Information equipment and computer programs Expired - Fee Related JP6135360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013154599A JP6135360B2 (en) 2013-07-25 2013-07-25 Information equipment and computer programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013154599A JP6135360B2 (en) 2013-07-25 2013-07-25 Information equipment and computer programs

Publications (2)

Publication Number Publication Date
JP2015026944A true JP2015026944A (en) 2015-02-05
JP6135360B2 JP6135360B2 (en) 2017-05-31

Family

ID=52491283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013154599A Expired - Fee Related JP6135360B2 (en) 2013-07-25 2013-07-25 Information equipment and computer programs

Country Status (1)

Country Link
JP (1) JP6135360B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114024A (en) * 2017-12-22 2019-07-11 キヤノン株式会社 Device, method and program for setting information related to scan image
JP2019121868A (en) * 2017-12-28 2019-07-22 キヤノン株式会社 Information processing apparatus and control method thereof, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124641A (en) * 2007-11-19 2009-06-04 Murata Mach Ltd Image editing apparatus
JP2010021855A (en) * 2008-07-11 2010-01-28 Sharp Corp Image transmission apparatus
JP2011182242A (en) * 2010-03-02 2011-09-15 Canon Inc Image processing apparatus, method of controlling the same, and program
JP2013138423A (en) * 2012-12-19 2013-07-11 Canon Marketing Japan Inc Information processing system, control method therefor, and program, and management server, control method therefor, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124641A (en) * 2007-11-19 2009-06-04 Murata Mach Ltd Image editing apparatus
JP2010021855A (en) * 2008-07-11 2010-01-28 Sharp Corp Image transmission apparatus
JP2011182242A (en) * 2010-03-02 2011-09-15 Canon Inc Image processing apparatus, method of controlling the same, and program
JP2013138423A (en) * 2012-12-19 2013-07-11 Canon Marketing Japan Inc Information processing system, control method therefor, and program, and management server, control method therefor, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114024A (en) * 2017-12-22 2019-07-11 キヤノン株式会社 Device, method and program for setting information related to scan image
JP7030505B2 (en) 2017-12-22 2022-03-07 キヤノン株式会社 Devices, methods, and programs for setting information related to scanned images
JP2019121868A (en) * 2017-12-28 2019-07-22 キヤノン株式会社 Information processing apparatus and control method thereof, and program
JP7033917B2 (en) 2017-12-28 2022-03-11 キヤノン株式会社 Image processing equipment, its control method, and programs
US11277531B2 (en) 2017-12-28 2022-03-15 Canon Kabushiki Kaisha Information processing apparatus, method of controlling the same, and storage medium

Also Published As

Publication number Publication date
JP6135360B2 (en) 2017-05-31

Similar Documents

Publication Publication Date Title
JP6891073B2 (en) A device for setting a file name, etc. on a scanned image, its control method, and a program.
JP6953230B2 (en) A device for setting a file name, etc. on a scanned image, its control method, and a program.
JP5268274B2 (en) Search device, method, and program
JP6968647B2 (en) A device for setting a file name for a scanned image, its control method, and a program.
JP5534666B2 (en) Document processing apparatus and control method thereof, document management system, data processing method in the system, and computer program
WO2007013399A1 (en) Search device and search method
JP5847807B2 (en) Data processing apparatus, data processing apparatus control method, and program
US11144189B2 (en) Determination and relocation of movement targets based on a drag-and-drop operation of a thumbnail across document areas
JP2006079271A (en) Data controller and its control method, image output device and computer program
JP2023164541A (en) Image processing device, method for controlling the same, and program
KR20200115263A (en) Image processing apparatus, method for controlling the same, and storage medium
US8531694B2 (en) Appending restriction information to a job before transmission
US10893165B2 (en) Information processing apparatus, method of controlling the same, and storage medium
JP2017069943A (en) Image processing apparatus and composite device
US20210287187A1 (en) Image processing apparatus and non-transitory computer readable medium storing program
JP6376295B2 (en) Electronic device and marker processing method
JP6135360B2 (en) Information equipment and computer programs
JP4715413B2 (en) Document management apparatus and program
JP4558009B2 (en) Image output apparatus, control method therefor, and computer program
JP2014116737A (en) Image formation device, image formation device control method, and program
JP4968937B2 (en) Image forming apparatus
JP6173522B2 (en) INPUT DEVICE, INPUT DEVICE CONTROL METHOD, AND PROGRAM
JP5963643B2 (en) Image forming apparatus and image forming method
JP2005065067A (en) Image processor
US20200344366A1 (en) Image processing apparatus, control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170309

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170410

R150 Certificate of patent or registration of utility model

Ref document number: 6135360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees