JP2015069248A - Image processing apparatus, program, and image forming apparatus - Google Patents

Image processing apparatus, program, and image forming apparatus Download PDF

Info

Publication number
JP2015069248A
JP2015069248A JP2013200629A JP2013200629A JP2015069248A JP 2015069248 A JP2015069248 A JP 2015069248A JP 2013200629 A JP2013200629 A JP 2013200629A JP 2013200629 A JP2013200629 A JP 2013200629A JP 2015069248 A JP2015069248 A JP 2015069248A
Authority
JP
Japan
Prior art keywords
editing
image
unit
target object
edited
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013200629A
Other languages
Japanese (ja)
Other versions
JP6018555B2 (en
Inventor
陽介 樫本
Yosuke Kashimoto
陽介 樫本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2013200629A priority Critical patent/JP6018555B2/en
Publication of JP2015069248A publication Critical patent/JP2015069248A/en
Application granted granted Critical
Publication of JP6018555B2 publication Critical patent/JP6018555B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus configured to prevent images in all objects from being missed in edited data, in moving an object having an area overlapping another object.SOLUTION: An image processing apparatus includes: an object recognition unit 61 which recognizes attributes of an object to be edited in scan image data and a background object having an area overlapping the object to be edited; editing units (62, 65, 66) for editing the object to be edited on the basis of editing conditions set in a setting unit 4; and an object complementing unit 63 which complements a blank area of an image generated in the object to be edited and the background object due to editing of the object to be edited, according to the attribute recognized by the object recognition unit 61.

Description

本発明は、スキャン等によって読み取られた読み取り画像データに含まれるオブジェクトの編集を行う画像処理装置及びプログラム並びに画像形成装置に関する。   The present invention relates to an image processing apparatus and program for editing an object included in read image data read by scanning or the like, and an image forming apparatus.

近年では、ストレージデバイスの低価格化等に伴い、紙原稿(原稿画像)をスキャンによりデータ化して保管・再利用するケースが増えている。データ化によって得られるスキャン画像データ(読み取り画像データ)の保管に関しては、例えばデータ中の各領域を文字、写真、グラフィックス等のオブジェクト毎に保管する方法がある(特許文献1)。また、スキャン画像データから分離するオブジェクトしては、例えば、手書き文書なども含まれる(特許文献2及び3参照)。   In recent years, with the price reduction of storage devices, etc., cases of paper originals (original images) converted into data by scanning and stored / reused are increasing. Regarding storage of scanned image data (read image data) obtained by data conversion, for example, there is a method of storing each area in the data for each object such as a character, a photograph, and a graphic (Patent Document 1). Examples of the object separated from the scanned image data include a handwritten document (see Patent Documents 2 and 3).

上述のようにスキャン画像データをオブジェクト単位で扱う画像処理装置においては、各オブジェクトを編集することも可能となるが、例えば編集対象のオブジェクトを移動等させて編集した場合に背景オブジェクトに画像の欠落部が発生することがある。   As described above, in an image processing apparatus that handles scanned image data in units of objects, each object can be edited. For example, when an object to be edited is moved and edited, an image is missing in the background object. May occur.

このような背景オブジェクトの欠落部については、編集後のスキャン画像データを再利用可能とするために補完する技術がある(特許文献4)。   There is a technique for complementing such a missing portion of the background object so that the scanned image data after editing can be reused (Patent Document 4).

しかしながら、引用文献4等の補完技術は、編集対象オブジェクトに対する背景オブジェクトを補完することができるにとどまり、編集後のスキャン画像データを再利用するには不十分であった。   However, the complementary technique such as cited document 4 can only complement the background object for the object to be edited, and is insufficient to reuse the scanned image data after editing.

すなわち、編集対象オブジェクトは、前景オブジェクトとの間にも重なり領域を有することがあるので、移動により前景オブジェクトとの重なり領域に画像の欠落部が生じることがある。このため、編集後のスキャン画像データにも、画像の欠落部が残るおそれがあった。   In other words, the editing target object may have an overlapping area with the foreground object, so that an image loss may occur in the overlapping area with the foreground object due to movement. For this reason, there is a possibility that a missing portion of the image remains in the scanned image data after editing.

特開2009−193254号公報JP 2009-193254 A 特開2005−175565号公報JP 2005-175565 A 特開平10−162102号公報Japanese Patent Laid-Open No. 10-162102 特開平11−355548号公報JP-A-11-355548

本発明が解決しようとする問題点は、他のオブジェクトとの重なり領域を有するオブジェクトの編集により、編集後の読み取り画像データに画像の欠落部が生じるおそれがあった点である。   The problem to be solved by the present invention is that there is a possibility that an image missing portion may occur in the read image data after editing by editing an object having an overlapping area with another object.

本発明は、他のオブジェクトとの重なり領域を有するオブジェクトの編集による編集後の読み取り画像データ上の画像の欠落部をなくすために、読み取り画像データ中の編集対象オブジェクト及びこの編集対象オブジェクトに対する重なり領域を有する他のオブジェクトの属性を認識するオブジェクト認識部と、前記編集対象オブジェクトを設定された編集条件に基づき編集処理する編集処理部と、前記編集対象オブジェクトの編集処理により前記編集対象オブジェクト及び他のオブジェクトに生じる画像の欠落部を前記オブジェクト認識部により認識された属性に応じて補完する補完部とを備えることを画像処理装置の最も主な特徴とする。   The present invention provides an edit target object in read image data and an overlap region for the edit target object in order to eliminate a missing portion of the image on the read image data after editing by editing an object having an overlap region with another object. An object recognition unit for recognizing an attribute of another object, an editing processing unit for editing the editing target object based on a set editing condition, and the editing target object and the other object by editing the editing target object The main feature of the image processing apparatus is that the image processing apparatus includes a complementing unit that complements the missing part of the image generated in the object according to the attribute recognized by the object recognition unit.

本発明によれば、読み取り画像データ上の編集対象オブジェクトに生じる画像の欠落部をも補完することで、他のオブジェクトとの重なり領域を有するオブジェクトの編集による編集後の読み取り画像データ上の画像の欠落部をなくすことができる。   According to the present invention, the missing portion of the image generated in the object to be edited on the read image data is also complemented, so that the image on the read image data after editing by editing an object having an overlapping area with another object can be obtained. Missing parts can be eliminated.

画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image processing apparatus. スキャン画像の一例を示す概略図である。It is the schematic which shows an example of a scan image. スキャン画像のオブジェクト認識処理を示すフローチャートである。It is a flowchart which shows the object recognition process of a scanned image. オブジェクト認識処理結果に基づくオブジェクトテーブルを示す図表である。It is a graph which shows the object table based on an object recognition process result. スキャン画像の編集処理を示すフローチャートである。6 is a flowchart illustrating scan image editing processing. スキャン画像に対する編集条件の設定例を示す概念図である。It is a conceptual diagram which shows the example of a setting of the edit conditions with respect to a scanned image. スキャン画像から削除されて空白領域を有する編集対象オブジェクトを示す図である。It is a figure which shows the edit object which has been deleted from the scanned image and has a blank area. 編集対象オブジェクトの背景オブジェクトに空白領域を有するスキャン画像例を示す図である。It is a figure which shows the example of a scanned image which has a blank area | region in the background object of an edit object. 図7の空白領域を補完した編集対象オブジェクトを示す図である。FIG. 8 is a diagram illustrating an object to be edited in which the blank area in FIG. 7 is complemented. 図8の空白領域を補完した背景オブジェクトを有するスキャン画像例を示す図である。It is a figure which shows the example of a scan image which has a background object which complemented the blank area | region of FIG. オブジェクト編集後のスキャン画像例を示す図である。It is a figure which shows the example of a scanned image after object editing.

他のオブジェクトとの重なり領域を有するオブジェクトの編集による編集後の読み取り画像データ上の画像の欠落部をなくす目的を、読み取り画像データ上の編集対象オブジェクトに生じる画像の欠落部をも補完する画像処理装置により実現した。   Image processing that complements the missing part of the image on the read image data for the purpose of eliminating the missing part of the read image data after editing by editing the object that has an overlapping area with other objects Realized by the device.

すなわち、画像処理装置は、読み取り画像データ中の編集対象オブジェクト及びこの編集対象オブジェクトに対する重なり領域を有する他のオブジェクトの属性を認識するオブジェクト認識部と、編集対象オブジェクトを設定された編集条件に基づき編集処理する編集処理部と、編集対象オブジェクトの編集処理により編集対象オブジェクト及び他のオブジェクトに生じる画像の欠落部を各オブジェクトの属性に応じて補完する保管部とを備える。   In other words, the image processing apparatus edits an edit target object in the read image data and an object recognition unit for recognizing the attribute of another object having an overlapping area with respect to the edit target object, and the edit target object is edited based on the set editing condition. An editing processing unit to process, and a storage unit that complements the missing part of the image generated in the editing target object and other objects by the editing process of the editing target object according to the attribute of each object.

編集処理部は、編集対象オブジェクトを読み取り画像データから削除すると共に編集条件に応じた大きさ及び位置で読み取り画像データに付加することで編集を行い、補完部は、編集対象オブジェクトを削除することにより編集対象オブジェクト及び他のオブジェクトに生じる画像の欠落部を補完する。   The editing processing unit performs editing by deleting the editing target object from the read image data and adding it to the reading image data in a size and position according to the editing conditions, and the complementing unit deletes the editing target object. The missing part of the image generated in the object to be edited and other objects is complemented.

本発明の画像処理装置は、コピー機、デジタル複合機、或いはスキャナー装置等に適用することが可能であり、最終的に編集後の読み取り画像データに基づく画像出力を行わせることもできる。画像出力は、コピー機やデジタル複合機の場合に印刷出力、スキャナー装置の場合にモニター上への画像出力等で実現される。   The image processing apparatus of the present invention can be applied to a copier, a digital multifunction peripheral, a scanner apparatus, or the like, and can finally output an image based on read image data after editing. Image output is realized by printing output in the case of a copier or digital multifunction peripheral, and by outputting an image on a monitor in the case of a scanner device.

以下、本発明の実施例について説明する。   Examples of the present invention will be described below.

[画像処理装置]
図1は、本実施例に係る画像処理装置の構成を示すブロック図である。
[Image processing device]
FIG. 1 is a block diagram illustrating the configuration of the image processing apparatus according to the present embodiment.

図1の画像処理装置1は、例えば、コピー機やデジタル複合機として構成され、紙原稿(原稿画像)を読み取るスキャナー(原稿読み取り)機能、スキャナー機能により読み取ったスキャン画像データに基づく印刷出力する複写等の印刷機能、スキャン画像データをオブジェク毎に編集する編集機能等を有する。   The image processing apparatus 1 shown in FIG. 1 is configured as, for example, a copier or a digital multi-function peripheral. A scanner (original reading) function for reading a paper original (original image), and a copy for printing out based on scanned image data read by the scanner function. And a printing function such as an editing function for editing scanned image data for each object.

このため、本実施例の画像処理装置1は、画像読取部2と、操作パネル部3と、出力部5と、制御部6と、記憶部7と等をハードウェア構成として備えている。   For this reason, the image processing apparatus 1 according to the present embodiment includes an image reading unit 2, an operation panel unit 3, an output unit 5, a control unit 6, a storage unit 7, and the like as hardware configurations.

画像読取部2は、光学的に原稿画像を読み取って、原稿画像に対応するスキャン画像データを生成する。生成したスキャン画像データは、制御部6及び記憶部7に出力される。   The image reading unit 2 optically reads a document image and generates scan image data corresponding to the document image. The generated scan image data is output to the control unit 6 and the storage unit 7.

表示部3は、画像処理装置1に対する操作状況の表示を行う画面等であり、スキャン画像データの編集設定の操作状況等を表示可能とする。   The display unit 3 is a screen or the like for displaying an operation status for the image processing apparatus 1 and can display an operation status or the like for editing setting of scan image data.

設定部4は、各種キー等により、画像処理装置1に対する操作入力を行うものである。設定部4は、例えば表示部3と共にタッチパネル式の画面によって構成され或いはその画面とは別のボタン等によって構成される。この設定部4は、スキャン画像データの編集操作を可能とする。   The setting unit 4 performs operation input to the image processing apparatus 1 using various keys. The setting unit 4 is configured by, for example, a touch panel screen together with the display unit 3, or is configured by a button or the like different from the screen. The setting unit 4 enables editing operation of scanned image data.

出力部5は、スキャン画像データ等に基づいて用紙上に画像形成(画像出力)する。   The output unit 5 forms an image on a sheet (image output) based on the scanned image data or the like.

制御部6は、ソフトウェアプログラムを実行して各種制御や作業を行わせるCPU(Central Process Unit)等の制御要素である。   The control unit 6 is a control element such as a CPU (Central Process Unit) that executes a software program to perform various controls and operations.

記憶部7は、各種制御や作業のソフトウェアプログラムやデータを記憶するROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等の記憶装置である。   The storage unit 7 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), or a hard disk for storing various control and work software programs and data.

本実施例では、制御部6が、記憶部7に記憶されたプログラムを実行することにより、オブジェクト認識部61、削除部62、補完部であるオブジェクト補完部63、選択部64、編集部65、付加部66として動作する。   In the present embodiment, the control unit 6 executes the program stored in the storage unit 7, thereby causing the object recognition unit 61, the deletion unit 62, the complementing object complementing unit 63, the selection unit 64, the editing unit 65, It operates as an adding unit 66.

オブジェクト認識部61は、画像読取部2からのスキャン画像データが入力され、そのスキャン画像データ中のオブジェクトの属性を認識する。本実施例では、オブジェクトの属性に加えて、その位置及び大きさ(領域座標)を認識する。これらのオブジェクトの属性及び領域座標は、オブジェクトを識別するためのオブジェクトIDと共にオブジェクト情報として記憶部7内のオブジェクトテーブ71(図4参照)に記憶される。   The object recognition unit 61 receives the scan image data from the image reading unit 2 and recognizes the attribute of the object in the scan image data. In this embodiment, in addition to the attribute of the object, its position and size (region coordinates) are recognized. The attributes and area coordinates of these objects are stored in the object table 71 (see FIG. 4) in the storage unit 7 as object information together with an object ID for identifying the object.

図2は、スキャン画像の一例を示す。図2のスキャン画像G1は、写真等の図画からなるイメージ領域IR、線画からなるベクター領域VR1及びVR2、文字からなるテキスト領域TR1及びTR2からなっている。   FIG. 2 shows an example of a scanned image. The scan image G1 in FIG. 2 includes an image area IR composed of drawings such as photographs, vector areas VR1 and VR2 composed of line drawings, and text areas TR1 and TR2 composed of characters.

これらのイメージ領域IR、ベクター領域VR1及びVR2、テキスト領域TR1及びTR2が、それぞれイメージオブジェクトIO、ベクターオブジェクトVO1及びVO2、テキストオブジェクトTO1及びTO2として認識されることになる。   These image area IR, vector areas VR1 and VR2, and text areas TR1 and TR2 are recognized as image object IO, vector objects VO1 and VO2, and text objects TO1 and TO2, respectively.

図1のオブジェクト認識部61は、イメージオブジェクト認識部611、ベクターオブジェクト認識部612、テキストオブジェクト認識部613で構成されており、オブジェクト毎に認識及びオブジェクト情報の記憶部7への記憶を行う。   The object recognition unit 61 of FIG. 1 includes an image object recognition unit 611, a vector object recognition unit 612, and a text object recognition unit 613, and performs recognition and storage of object information in the storage unit 7 for each object.

図2の例で説明すると、イメージオブジェクト認識部611は、スキャン画像G1のイメージオブジェクトIOを認識しオブジェクト情報の記憶を行う。   Referring to the example of FIG. 2, the image object recognition unit 611 recognizes the image object IO of the scanned image G1 and stores object information.

イメージオブジェクトIOの認識は、周知のレイアウト解析技術を用いて行えばよい。例えば、スキャン画像G1から2値画像を生成し、2値画像から得られた黒画素の固まりを含む矩形領域に基づいて属性を認識する。ベクターオブジェクトVO1及びVO2、テキストオブジェクトTO1及びTO2の認識についても、同様のレイアウト解析技術を用いればよい。   The recognition of the image object IO may be performed using a well-known layout analysis technique. For example, a binary image is generated from the scanned image G1, and the attribute is recognized based on a rectangular region including a cluster of black pixels obtained from the binary image. Similar layout analysis techniques may be used for the recognition of the vector objects VO1 and VO2 and the text objects TO1 and TO2.

ベクターオブジェクト認識部612は、スキャン画像G1のベクターオブジェクトVO1及びVO2を認識し、テキストオブジェクト認識部613は、テキストオブジェクトTO1及びTO2を認識し、それぞれオブジェクト情報を記憶部7に記憶する。   The vector object recognition unit 612 recognizes the vector objects VO1 and VO2 of the scan image G1, and the text object recognition unit 613 recognizes the text objects TO1 and TO2, and stores the object information in the storage unit 7, respectively.

削除部62は、後述する編集部65及び付加部66と共に編集処理部を構成するものであり、オブジェクト取得部621と、前後オブジェクト取得部622と、削除実行部623とを備える。   The deleting unit 62 constitutes an editing processing unit together with an editing unit 65 and an adding unit 66 described later, and includes an object acquisition unit 621, a front and rear object acquisition unit 622, and a deletion execution unit 623.

オブジェクト取得部621は、スキャン画像に対する編集に際して、記憶部7から編集対象オブジェクトのオブジェクト情報を取得する。   The object acquisition unit 621 acquires object information of an object to be edited from the storage unit 7 when editing a scanned image.

前後オブジェクト取得部622は、記憶部7から編集対象オブジェクトに対する重なり領域を有する前後のオブジェクトのオブジェクト情報を検索する。ここで、前後のオブジェクトとは、それぞれ、編集対象オブジェクトの上にある前景オブジェクトと編集対象オブジェクトの下にある背景オブジェクトに相当する。   The front and rear object acquisition unit 622 searches the storage unit 7 for object information of the front and rear objects having an overlapping area with respect to the editing target object. Here, the preceding and following objects correspond to a foreground object above the editing target object and a background object below the editing target object, respectively.

削除実行部623は、スキャン画像G1中の編集対象オブジェクトを削除する。   The deletion execution unit 623 deletes the editing target object in the scanned image G1.

なお、スキャン画像において、編集対象オブジェクトと前景及び背景オブジェクトの重なり具合によっては、編集対象オブジェクトを削除することにより、編集対象オブジェクト及び背景オブジェクトの一方又は双方に画像の欠落部(空白領域)が生じることがある(図7のKR1、図8のKR2参照)。   In the scanned image, depending on the degree of overlap between the editing target object and the foreground and background objects, the deletion of the editing target object causes a missing portion (blank area) of one or both of the editing target object and the background object. (See KR1 in FIG. 7 and KR2 in FIG. 8).

オブジェクト補完部63は、そうした編集対象オブジェクトの画像の欠落部及び背景オブジェクトの画像の欠落部を属性に応じた異なる処理で補完するものであり、イメージ用補完部631、ベクター用補完部632、テキスト用補完部633を備えている。   The object complementing unit 63 complements the missing part of the image of the edit target object and the missing part of the background object image by different processes according to attributes, and includes an image complementing part 631, a vector complementing part 632, text The supplement part 633 is provided.

イメージ用補完部631は、イメージオブジェクト中の空白領域を埋めて補完を行う。具体的には、空白部分の周囲の画素からグラデーションを作成し、作成されたグラデーションにより空白部分を埋める。   The image complementing unit 631 fills a blank area in the image object and performs complementation. Specifically, a gradation is created from pixels around the blank part, and the blank part is filled with the created gradation.

ベクター用補完部632は、ベクターオブジェクト中の空白領域を埋めて補完を行うものであり、ベクターオブジェクトのベクトル化によって実現できる。なお、ベクトル化が困難な場合は、ベクターオブジェクトをイメージオブジェクトとしてイメージ用補完部631による補完を行わせればよい。   The vector complementing unit 632 performs complementation by filling a blank area in the vector object, and can be realized by vectorization of the vector object. If vectorization is difficult, complementation by the image complementing unit 631 may be performed using a vector object as an image object.

テキスト用補完部633は、テキストオブジェクト中の空白を埋めて補完を行う。補完は、テキストオブジェクト内のフォントと記憶部7内に保持しているフォントとの比較により、対応するフォントに一致又は近似させるように空白部分を埋めればよい。   The text complementing unit 633 fills in blanks in the text object and performs complementation. Completion may be performed by filling a blank portion so as to match or approximate the corresponding font by comparing the font in the text object with the font held in the storage unit 7.

選択部64は、補完が必要とされる編集対象オブジェクト及び背景オブジェクトの属性に応じて、イメージ用補完部631、ベクター用補完部632、及びテキスト用補完部633から相対的に補完性の高い処理で補完を行うものを選択する。選択は、削除部62で取得された編集対象オブジェクト及び背景オブジェクトのオブジェクト情報に基づいて行われる。   The selection unit 64 performs processing with relatively high complementarity from the image complementing unit 631, the vector complementing unit 632, and the text complementing unit 633 according to the attributes of the editing target object and the background object that need to be complemented. Select what you want to complete in. The selection is performed based on the object information of the editing target object and the background object acquired by the deletion unit 62.

編集部65は、スキャン画像から削除実行部623により削除された編集対象オブジェクトを設定部4で設定された編集条件に従って編集する。具体的は、編集対象オブジェクトの拡大、縮小、回転、移動等の編集を行う。   The editing unit 65 edits the editing target object deleted from the scanned image by the deletion executing unit 623 according to the editing conditions set by the setting unit 4. Specifically, editing such as enlargement, reduction, rotation, and movement of the object to be edited is performed.

付加部65は、編集部65により編集された後の編集対象オブジェクトを、編集対象オブジェクトが削除されたスキャン画像に編集条件に応じた大きさ及び位置で付加する。
[画像処理装置の動作]
以下、本実施例の画像処理装置の動作と共にスキャン画像の編集処理について説明する。
The adding unit 65 adds the object to be edited after being edited by the editing unit 65 to the scanned image from which the object to be edited has been deleted with a size and a position corresponding to the editing condition.
[Operation of image processing apparatus]
The scan image editing process will be described below together with the operation of the image processing apparatus of the present embodiment.

本実施例の画像処理装置1は、事前に原稿画像を読み取ったスキャン画像データに対するオブジェクト認識処理を行い、オブジェクト毎のオブジェクト情報を記憶部7内に記憶しておく。   The image processing apparatus 1 of this embodiment performs object recognition processing on scanned image data obtained by reading a document image in advance, and stores object information for each object in the storage unit 7.

図3は、図1の画像処理装置におけるオブジェクト認識処理を示すフローチャートである。図3のオブジェクト認識処理は、例えば画像読取部2によって原稿画像を読み取ることでスタートする。   FIG. 3 is a flowchart showing object recognition processing in the image processing apparatus of FIG. The object recognition process in FIG. 3 starts by reading a document image by the image reading unit 2, for example.

ステップS1では、「スキャン画像データの取得」が行われる。この処理では、画像読取部2が読み取った原稿画像から対応するスキャン画像G1の画像データを生成してオブジェクト認識部61及び記憶部7へ出力する。   In step S1, “acquisition of scanned image data” is performed. In this process, the image data of the corresponding scan image G1 is generated from the document image read by the image reading unit 2 and output to the object recognition unit 61 and the storage unit 7.

こうしてステップS1が完了すると、図3のステップS2〜S4のように、「イメージオブジェクトの認識」、「ベクターオブジェクトの認識」、「テキストオブジェクトの認識」の処理が順に行われる。なお、これらステップS2〜S4の処理は、異なる順序とすることも可能である。   When step S1 is completed in this way, as in steps S2 to S4 in FIG. 3, the processes of “image object recognition”, “vector object recognition”, and “text object recognition” are performed in order. Note that these steps S2 to S4 can be performed in a different order.

イメージオブジェクトの認識は、図2の例で説明すると、イメージオブジェクト認識部611がスキャン画像G1からイメージ領域IRをイメージオブジェクトIOとして認識し、その属性(「イメージ」)、並びに位置及び大きさ(領域座標)のオブジェクト情報を記憶部7に記憶する。本実施例のオブジェクトの位置及び大きさ(領域座標)としては、例えば、スキャン画像G1上において、オブジェクトの左上の座標と領域の幅及び高さを(x,y,width(幅),height(高さ))として表す。   The image object recognition will be described with reference to the example of FIG. 2. The image object recognition unit 611 recognizes the image area IR as the image object IO from the scanned image G 1, its attribute (“image”), and its position and size (area). (Coordinate) object information is stored in the storage unit 7. As the position and size (region coordinates) of the object of this embodiment, for example, the upper left coordinates of the object and the width and height of the region (x, y, width (width), height ( Expressed as height)).

同様に、ベクターオブジェクトの認識は、ベクターオブジェクト認識部612がベクター領域VR1及びVR2をベクターオブジェクトVO1及びVO2として認識し、その属性(「ベクター」)、並びに位置及び大きさをオブジェクト情報として記憶部7に記憶する。   Similarly, in the recognition of the vector object, the vector object recognition unit 612 recognizes the vector regions VR1 and VR2 as the vector objects VO1 and VO2, and stores the attribute (“vector”), position, and size as object information. To remember.

テキストオブジェクトの認識は、テキストオブジェクト認識部613がテキスト領域TR1及びTR2を、テキストオブジェクトTO1及びTO2として認識し、その属性(「テキスト」)、並びに位置及び大きさをオブジェクト情報として記憶部7に記憶する。   In the text object recognition, the text object recognition unit 613 recognizes the text regions TR1 and TR2 as the text objects TO1 and TO2, and stores the attributes (“text”), the position, and the size in the storage unit 7 as object information. To do.

オブジェクト情報の記憶は、図1の記憶部7内でオブジェクトテーブル71として行われる。   The object information is stored as an object table 71 in the storage unit 7 of FIG.

図4は、オブジェクトテーブルを示す図表である。なお、図4は、例えば図2に示すスキャン画像G1から認識された「イメージ」、「テキスト」、「テキスト」、「ベクター」、「ベクター」の5つのオブジェクトのオブジェクト情報が登録されている例である。   FIG. 4 is a chart showing the object table. 4 shows an example in which object information of five objects “image”, “text”, “text”, “vector”, and “vector” recognized from the scan image G1 shown in FIG. 2 is registered. It is.

具体的に、オブジェクトテーブル71は、オブジェクトIDカラム、オブジェクト属性カラム、領域座標カラムで構成されるテーブルである。   Specifically, the object table 71 is a table composed of an object ID column, an object attribute column, and an area coordinate column.

オブジェクトIDカラムは、オブジェクトを識別するための0から始まる整数値であり、入力順等に応じてインクリメントされる。   The object ID column is an integer value starting from 0 for identifying the object, and is incremented according to the input order or the like.

オブジェクト属性カラムは、オブジェクトの属性を示し、「イメージ」、「ベクター」、「テキスト」となっている。   The object attribute column indicates the attribute of the object, and is “image”, “vector”, and “text”.

領域座標カラムは、上記図2のスキャン画像G1上でのオブジェクト領域の位置及び大きさの座標を表す。   The area coordinate column represents the coordinates of the position and size of the object area on the scan image G1 in FIG.

図3のオブジェクト認識処理によってスキャン画像G1内の各オブジェクトのオブジェクト情報の記憶が完了すると、スキャン画像の編集処理が実行可能となる。   When the object information storage of each object in the scan image G1 is completed by the object recognition process of FIG. 3, the scan image editing process can be executed.

図5は、スキャン画像の編集処理を示すフローチャートである。   FIG. 5 is a flowchart showing the scan image editing process.

スキャン画像の編集処理は、記憶部7に記憶されているスキャン画像データに対し、ユーザが設定部4を介して特定のオブジェクトに対する拡大、縮小、回転、移動等の編集条件の設定操作を行うことにより開始される。なお、これらの編集条件は、いずれも編集対象オブジェクトを他のオブジェクトに対する相対的な位置を変えるような編集を実現するものである。   In the scan image editing process, the user performs an editing condition setting operation such as enlargement, reduction, rotation, and movement of a specific object via the setting unit 4 with respect to the scan image data stored in the storage unit 7. Is started. Note that all of these editing conditions realize editing that changes the relative position of the object to be edited with respect to other objects.

図6は、スキャン画像に対する編集条件の設定例を示す概念図である。この例では、図2のスキャン画像G1に対して、ベクターオブジェクトVO1を元の位置P0から二点鎖線で示す位置P1まで移動させることを編集条件として設定している。   FIG. 6 is a conceptual diagram illustrating an example of setting editing conditions for a scanned image. In this example, with respect to the scan image G1 of FIG. 2, the editing condition is set to move the vector object VO1 from the original position P0 to the position P1 indicated by the two-dot chain line.

この場合、編集対象オブジェクトは、ベクターオブジェクトVO1であり、イメージオブジェクトIOが背景オブジェクト、テキストオブジェクトTO2が前景オブジェクトとなる。   In this case, the editing object is a vector object VO1, the image object IO is a background object, and the text object TO2 is a foreground object.

編集対象オブジェクトの編集条件(図6ではベクターオブジェクトVO1の移動)の設定によって編集処理が開始されると、まずステップS11において、「編集対象オブジェクトのオブジェクト情報の取得」が行われる。   When the editing process is started by setting the editing conditions of the editing target object (movement of the vector object VO1 in FIG. 6), “obtain object information of the editing target object” is first performed in step S11.

この処理では、削除部62のオブジェクト取得部621が、スキャン画像データ中の編集条件の設定操作が行われた特定の編集対象オブジェクトのオブジェクト情報を取得する。図6の例では、ベクターオブジェクトVO1のオブジェクト情報が取得されることになる。   In this process, the object acquisition unit 621 of the deletion unit 62 acquires object information of a specific editing target object for which an editing condition setting operation has been performed in the scanned image data. In the example of FIG. 6, the object information of the vector object VO1 is acquired.

こうしてステップS11の処理が完了すると、ステップS12に移行する。   When the process of step S11 is completed in this way, the process proceeds to step S12.

ステップS12では、「前後オブジェクトのオブジェクト情報の検索」を行う。この処理では、削除部62の前後オブジェクト取得部622が、スキャン画像の編集対象オブジェクトの前景及び背景オブジェクトのオブジェクト情報を検索する。   In step S12, “search for object information of preceding and following objects” is performed. In this process, the object acquisition unit 622 before and after the deletion unit 62 searches for object information of the foreground and background objects of the edit target object of the scanned image.

具体的には、前後オブジェクト取得部622が、オブジェクトテーブル71を参照して領域座標等の情報から編集対象オブジェクトと重なる領域を有する背景オブジェクトと前景オブジェクトのオブジェクト情報を検索する。   Specifically, the front and rear object acquisition unit 622 refers to the object table 71 and searches for object information of a background object and a foreground object having a region overlapping with the editing target object from information such as region coordinates.

こうしてステップS12の処理が完了すると、ステップS13に移行する。   When the process of step S12 is completed in this way, the process proceeds to step S13.

ステップS13では、「編集対象オブジェクトの削除」を行う。この処理では、削除部62の削除実行部623が、スキャン画像データから編集対象オブジェクトを削除して、ステップ14へ移行する。   In step S13, “deletion of edit target object” is performed. In this process, the deletion execution unit 623 of the deletion unit 62 deletes the editing target object from the scanned image data, and the process proceeds to step 14.

ステップS14では、「オブジェクトに画像の空白領域あり?」の処理が行われる。この処理では、削除した編集対象オブジェクト及びその削除後のスキャン画像内のオブジェクトに画像の空白領域が存在するか否かを判断する。   In step S <b> 14, a process of “Is there an image blank area in the object?” Is performed. In this process, it is determined whether or not a blank area of the image exists in the deleted object to be edited and the object in the scanned image after the deletion.

すなわち、編集対象オブジェクトに対して重なる背景オブジェクトが存在する場合は、編集対象オブジェクトの削除によって背景オブジェクトに編集対象オブジェクトとの重なり領域に相当する空白領域が生じる。一方、編集対象オブジェクトに対して重なる前景オブジェクトが存在する場合は、削除された編集対象オブジェクト自体に前景オブジェクトとの重なり領域に相当する空白領域が生じる。   That is, when there is a background object that overlaps the editing target object, the deletion of the editing target object causes a blank area corresponding to the overlapping area with the editing target object in the background object. On the other hand, when there is a foreground object that overlaps the editing target object, a blank area corresponding to the overlapping area with the foreground object is generated in the deleted editing target object itself.

本実施例では、これらの空白領域の有無を、元のスキャン画像(図6のG1)内で編集対象オブジェクト(図6のVO1)に重なる前景及び背景オブジェクトの有無によって判断している。具体的には、ステップS12での検索結果に基づいて元のスキャン画像内で編集対象オブジェクトに重なる前景及び背景オブジェクトの有無を判断する。   In this embodiment, the presence or absence of these blank areas is determined by the presence or absence of foreground and background objects that overlap the object to be edited (VO1 in FIG. 6) in the original scan image (G1 in FIG. 6). Specifically, based on the search result in step S12, it is determined whether or not there are foreground and background objects overlapping the editing target object in the original scan image.

図7は、スキャン画像から削除した空白領域を有する編集対象オブジェクトを示し、図8は、編集対象オブジェクトの背景オブジェクトに空白領域を有するスキャン画像例を示す。   FIG. 7 shows an edit target object having a blank area deleted from the scan image, and FIG. 8 shows an example of a scan image having a blank area in the background object of the edit target object.

図7では、編集対象オブジェクトとしてスキャン画像G1から削除されたベクターオブジェクトVO1に、前景オブジェクトであるテキストオブジェクトTO2のテキスト(「ABC」)部分に相当する画像の空白領域KR1を生じている。   In FIG. 7, a blank area KR1 of an image corresponding to the text (“ABC”) portion of the text object TO2 that is the foreground object is generated in the vector object VO1 deleted from the scanned image G1 as the editing target object.

また、図8では、編集対象オブジェクトであるベクターオブジェクトVO1が削除されることにより、その背景オブジェクトであるイメージオブジェクトIOにベクターオブジェクトVO1との重なり領域に相当する画像の空白領域KR2を生じている。   Further, in FIG. 8, the vector object VO1 that is the object to be edited is deleted, so that an image blank area KR2 corresponding to the overlapping area with the vector object VO1 is generated in the image object IO that is the background object.

ステップS14においては、上述の判断の結果、図7及び図8のように編集対象オブジェクト又は背景オブジェクトに空白領域が存在する場合、ステップS15へ移行する(YES)。一方、編集対象オブジェクト又は背景オブジェクトに空白領域が存在しない場合は、ステップS16へ移行する(NO)。   In step S14, as a result of the above determination, if there is a blank area in the object to be edited or the background object as shown in FIGS. 7 and 8, the process proceeds to step S15 (YES). On the other hand, if there is no blank area in the object to be edited or the background object, the process proceeds to step S16 (NO).

ステップS15では、「空白領域の補完」が行われる。この処理では、オブジェクト補完部63が、編集対象オブジェクト及びその背景オブジェクトの一方又は双方に生じる画像の空白領域を補完する。   In Step S15, “blank area complement” is performed. In this processing, the object complementing unit 63 complements the blank area of the image generated in one or both of the editing object and the background object.

具体的には、選択部64が空白領域のある編集対象オブジェクト及びその背景オブジェクトの一方又は双方に対してオブジェクト属性に応じた補完方法(補完アルゴリズム)、つまりイメージ用補完部631、ベクター用補完部632、又はテキスト用補完部633を選択する。   Specifically, the selection unit 64 performs a complementing method (complementing algorithm) corresponding to the object attribute for one or both of the editing object and the background object having a blank area, that is, an image complementing unit 631 and a vector complementing unit. 632 or the text complementing unit 633 is selected.

そして、選択された補完部により、編集対象オブジェクト及びその背景オブジェクトの一方又は双方の空白領域がオブジェクト属性に応じて補完されることになる。   Then, the blank area of one or both of the editing object and the background object is complemented according to the object attribute by the selected complement unit.

図9は、図7の空白領域を補完した編集対象オブジェクトを示し、図10は、図8の空白領域を補完した背景オブジェクトを有するスキャン画像例を示す。   FIG. 9 shows an object to be edited that complements the blank area of FIG. 7, and FIG. 10 shows an example of a scanned image having a background object that complements the blank area of FIG.

図9では、図7のように編集対象オブジェクトであるベクターオブジェクトVO1に生じていた空白領域KR1が、ベクター用補完部632により周辺の画像と同じ画像を埋め込んで補完されている。   In FIG. 9, the blank area KR <b> 1 generated in the vector object VO <b> 1 that is the object to be edited as shown in FIG. 7 is complemented by embedding the same image as the surrounding image by the vector complementing unit 632.

同様に、図10では、図8のように背景オブジェクト背景オブジェクトであるイメージオブジェクトIOに生じていた空白領域KR2が、イメージ用補完部631によって周辺の画像と同等の画像を埋め込んで補完されている。   Similarly, in FIG. 10, the blank area KR <b> 2 generated in the image object IO that is the background object background object as shown in FIG. 8 is complemented by embedding an image equivalent to the surrounding image by the image complementing unit 631. .

こうしてオブジェクトの補完が完了すると、ステップS16に移行する。   When the completion of the object is thus completed, the process proceeds to step S16.

ステップS16では、「編集対象オブジェクトの編集」を行う。この処理では、ユーザが設定した編集条件に基づき、編集部65がステップS15で空白領域が補完された編集対象オブジェクトの拡大、縮小、回転、移動等による編集処理を行う。なお、ここでの編集対象オブジェクトには、空白領域がなかったものも含まれる。   In step S16, "edit object to be edited" is performed. In this process, based on the editing conditions set by the user, the editing unit 65 performs an editing process by enlarging, reducing, rotating, moving, etc. the object to be edited in which the blank area is complemented in step S15. Note that the objects to be edited here include those without a blank area.

こうしてステップS16が完了すると、ステップS17に移行する。   When step S16 is completed in this way, the process proceeds to step S17.

ステップS17では、「編集後オブジェクトの付加」を行う。この処理では、付加部66が、ステップS16で編集が完了した編集後オブジェクトを、空白領域が補完された背景オブジェクトを有するスキャン画像G2に付加する。なお、ここでのスキャン画像G2には、空白領域がなかった背景オブジェクトを有するものも含まれる。   In step S17, “add object after editing” is performed. In this process, the adding unit 66 adds the edited object that has been edited in step S16 to the scanned image G2 having the background object in which the blank area is complemented. Note that the scan image G2 here includes an image having a background object without a blank area.

このとき、付加部66は、編集後オブジェクトが付加されたスキャン画像G2のスキャン画像データにより、記憶部7に記憶されている編集前のスキャン画像データを上書きする。この上書きが完了にすることによりスキャン画像の編集処理が終了する。   At this time, the adding unit 66 overwrites the scanned image data before editing stored in the storage unit 7 with the scanned image data of the scanned image G2 to which the edited object is added. When this overwriting is completed, the scan image editing process is completed.

図11は、オブジェクト編集後のスキャン画像例を示す図である。この例では、図9のように画像の空白領域KR1が補完されたベクターオブジェクトVO1が、位置P1へ移動する編集の完了後、図10のように画像の空白領域KR2が補完されたイメージオブジェクトIOを有するスキャン画像データG2に付加されている。
[実施例1の効果]
本実施例の画像処理装置1では、スキャン画像データ中の編集対象オブジェクト及びこの編集対象オブジェクトに対する重なり領域を有する背景オブジェクトの属性を認識するオブジェクト認識部61と、編集対象オブジェクトを設定部4で設定された編集条件に基づき編集処理する編集処理部(62、65、66)と、編集対象オブジェクトの編集処理により編集対象オブジェクト及び背景オブジェクトに生じる画像の空白領域をオブジェクト認識部61により認識された属性に応じて補完するオブジェクト補完部63とを備える。
FIG. 11 is a diagram illustrating an example of a scanned image after object editing. In this example, the vector object VO1 in which the blank area KR1 of the image is complemented as shown in FIG. 9 is completed, and after the editing to move to the position P1, the image object IO in which the blank area KR2 of the image is complemented as shown in FIG. Is added to the scanned image data G2.
[Effect of Example 1]
In the image processing apparatus 1 according to the present embodiment, an object recognition unit 61 that recognizes attributes of an editing target object in scanned image data and a background object having an overlapping area with respect to the editing target object, and an editing target object are set by the setting unit 4. An editing processing unit (62, 65, 66) that performs an editing process based on the edited editing conditions, and an attribute in which a blank area of an image generated in the editing target object and the background object by the editing process of the editing target object is recognized by the object recognition unit 61 And an object complementing unit 63 that complements according to the above.

従って、本実施例では、編集対象オブジェクトとの重なり領域を有する背景オブジェクトに生じる画像の空白領域だけでなく、編集対象オブジェクト自体に生じる画像の欠落部をも補完することができ、編集後のスキャンデータに対する画像の欠落部をなくすことができる。   Therefore, in this embodiment, not only the blank area of the image generated in the background object having the overlapping area with the object to be edited but also the missing part of the image generated in the object to be edited itself can be complemented, and the scan after editing It is possible to eliminate the missing part of the image with respect to the data.

また、本実施例では、削除実行部623編集処理部が、編集対象オブジェクトをオブジェクト補完部63によりスキャン画像データから削除すると共に編集部65により編集した大きさ及び位置で付加部66によりスキャン画像データに付加することで編集する。オブジェクト補完部63は、編集対象オブジェクトを削除することにより編集対象オブジェクト及び背景オブジェクトに生じる画像の空白領域を補完する。   In this embodiment, the deletion execution unit 623 edit processing unit deletes the object to be edited from the scan image data by the object complementing unit 63 and also uses the adding unit 66 to scan image data at the size and position edited by the editing unit 65. Edit by adding to. The object complementing unit 63 supplements the blank area of the image generated in the editing target object and the background object by deleting the editing target object.

従って、本実施例では、編集対象オブジェクト及び背景オブジェクトに生じる空白領域を確実に補完することが可能となる。   Therefore, in this embodiment, it is possible to reliably complement the blank areas generated in the editing object and the background object.

また、本実施例では、画像の空白領域を異なる処理で補完する複数の補完部631、632、633と、補完処理を行う補完部631、632、633を、編集対象オブジェクト及び背景オブジェクトの属性に応じて選択する選択部64とを有する。   In the present embodiment, a plurality of complementing units 631, 632, and 633 that complement a blank area of an image by different processes and complementing units 631, 632, and 633 that perform complementing processing are used as attributes of the object to be edited and the background object. And a selection unit 64 that selects according to this.

従って、本実施例では、編集対象オブジェクト及び背景オブジェクトに生じた画像の空白領域を最適な補完アルゴリズムを用いて補完することができる。   Therefore, in this embodiment, it is possible to complement the blank area of the image generated in the editing target object and the background object using the optimum complementing algorithm.

1 画像処理装置(画像形成装置)
61 オブジェクト認識部
62 削除部(編集処理部)
63 オブジェクト補完部(補完部)
631 イメージ用補完部(補完部)
632 ベクター用補完部(補完部)
633 テキスト用補完部(補完部)
65 編集部(編集処理部)
66 付加部(編集処理部)
1 Image processing device (image forming device)
61 Object recognition unit 62 Deletion unit (editing processing unit)
63 Object complement part (complement part)
631 Image complement (complement)
632 Complement part for vector (complement part)
633 Text completion (complement)
65 Editing Department (Editing Processing Department)
66 Additional part (editing part)

Claims (5)

読み取り画像データ中の編集対象オブジェクト及びこの編集対象オブジェクトに対する重なり領域を有する他のオブジェクトの属性を認識するオブジェクト認識部と、
前記編集対象オブジェクトを設定された編集条件に基づき編集処理する編集処理部と、
前記編集対象オブジェクトの編集処理により前記編集対象オブジェクト及び他のオブジェクトに生じる画像の欠落部を前記オブジェクト認識部により認識された属性に応じて補完する補完部と、
を備えることを特徴とする画像処理装置。
An object recognition unit for recognizing an attribute of an edit target object in read image data and an attribute of another object having an overlapping area with respect to the edit target object;
An editing processing unit for editing the editing target object based on a set editing condition;
A complementing unit that complements the missing part of the image generated in the editing target object and other objects by the editing process of the editing target object according to the attribute recognized by the object recognition unit;
An image processing apparatus comprising:
請求項1記載の画像処理装置であって、
前記編集処理部は、前記編集対象オブジェクトを前記読み取り画像データから削除すると共に前記編集条件に応じた大きさ及び位置で前記読み取り画像データに付加することで編集し、
前記補完部は、前記編集対象オブジェクトを削除することにより前記編集対象オブジェクト及び他のオブジェクトに生じる画像の欠落部を補完する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The editing processing unit edits the editing target object by deleting it from the read image data and adding it to the read image data in a size and position according to the editing conditions,
The complementing part complements the missing part of the image generated in the editing target object and other objects by deleting the editing target object,
An image processing apparatus.
請求項1又は2記載の画像処理装置であって、
前記画像の欠落部を異なる処理で補完する複数の補完部と、
前記補完処理を行う補完部を、前記編集対象オブジェクト及び前記他のオブジェクトの属性に応じて選択する選択部と、
を備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
A plurality of complementary parts that complement the missing part of the image by different processing;
A selection unit that selects the complementing unit that performs the complementing process according to the attributes of the object to be edited and the other object; and
An image processing apparatus comprising:
請求項1〜3の何れか一項に記載の画像処理装置を備える画像形成装置。   An image forming apparatus comprising the image processing apparatus according to claim 1. 読み取り画像データ中の編集対象オブジェクト及びこの編集対象オブジェクトに対する重なり領域を有する他のオブジェクトの属性を認識するオブジェクト認識機能と、
前記編集対象オブジェクトを設定された編集条件に基づき編集処理する編集機能と、
前記編集対象オブジェクトの編集処理により前記編集対象オブジェクト及び他のオブジェクトに生じる画像の欠落部を前記オブジェクト認識部により認識された属性に応じて補完する補完機能と、
をコンピューターに実行させることを特徴とする編集データ作成プログラム。
An object recognition function for recognizing an attribute of an edit target object in read image data and an attribute of another object having an overlapping area for the edit target object;
An editing function for editing the object to be edited based on a set editing condition;
A complementing function for complementing the missing part of the image generated in the editing target object and other objects by the editing process of the editing target object according to the attribute recognized by the object recognition unit;
Editing data creation program characterized by causing a computer to execute.
JP2013200629A 2013-09-26 2013-09-26 Image forming apparatus Expired - Fee Related JP6018555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013200629A JP6018555B2 (en) 2013-09-26 2013-09-26 Image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013200629A JP6018555B2 (en) 2013-09-26 2013-09-26 Image forming apparatus

Publications (2)

Publication Number Publication Date
JP2015069248A true JP2015069248A (en) 2015-04-13
JP6018555B2 JP6018555B2 (en) 2016-11-02

Family

ID=52835895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013200629A Expired - Fee Related JP6018555B2 (en) 2013-09-26 2013-09-26 Image forming apparatus

Country Status (1)

Country Link
JP (1) JP6018555B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0337770A (en) * 1989-07-05 1991-02-19 Fujitsu Ltd Image editing system
JP2013172260A (en) * 2012-02-20 2013-09-02 Kyocera Document Solutions Inc Image processing apparatus and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0337770A (en) * 1989-07-05 1991-02-19 Fujitsu Ltd Image editing system
JP2013172260A (en) * 2012-02-20 2013-09-02 Kyocera Document Solutions Inc Image processing apparatus and program

Also Published As

Publication number Publication date
JP6018555B2 (en) 2016-11-02

Similar Documents

Publication Publication Date Title
JP5979168B2 (en) Screen display device, screen display system, screen display method, and computer program
CN107133615B (en) Information processing apparatus, information processing method, and computer program
JP4574313B2 (en) Image processing apparatus and method
JP2010262584A (en) Apparatus, system, and method for processing information and program
JP2006018630A (en) Method, device, program and computer-readable memory for data retrieval
JP2009164965A (en) Image processing device and method and program for the same
US10750042B2 (en) Scan privacy tool and methods
JP2008092451A (en) Scanner system
JP6018555B2 (en) Image forming apparatus
US10404872B2 (en) Multi-function device with selective redaction
JP5723803B2 (en) Image processing apparatus and program
JP2015215637A (en) Image forming apparatus, image processing apparatus, and program
JP6414475B2 (en) Computer program and control device
JP6985931B2 (en) An image processing apparatus, an image processing program, an image processing method, and an image forming apparatus including the image processing apparatus.
JP4412211B2 (en) Skew correction method, program, image processing apparatus, and image processing system
JP2006309622A (en) Image processor, image processing method, image processing program and recording medium
JP2006279090A (en) Image processor, image processing method, and image processing system
JP2015106289A (en) Display device, display method and computer program
JP7404943B2 (en) Information processing device and information processing program
JP7354697B2 (en) Information processing device and information processing program
JP2018023022A (en) Image processing system and image processing method
JP6680203B2 (en) Editing support device and editing support method
JP2015159554A (en) image processing apparatus and program
JP6326744B2 (en) Information processing system, information processing method, and program
JP6540389B2 (en) Image editing apparatus, image editing method and image editing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160930

R150 Certificate of patent or registration of utility model

Ref document number: 6018555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees