JP2006309622A - Image processor, image processing method, image processing program and recording medium - Google Patents

Image processor, image processing method, image processing program and recording medium Download PDF

Info

Publication number
JP2006309622A
JP2006309622A JP2005133613A JP2005133613A JP2006309622A JP 2006309622 A JP2006309622 A JP 2006309622A JP 2005133613 A JP2005133613 A JP 2005133613A JP 2005133613 A JP2005133613 A JP 2005133613A JP 2006309622 A JP2006309622 A JP 2006309622A
Authority
JP
Japan
Prior art keywords
image
mask
extraction
document
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005133613A
Other languages
Japanese (ja)
Inventor
Toshio Miyazawa
利夫 宮澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005133613A priority Critical patent/JP2006309622A/en
Publication of JP2006309622A publication Critical patent/JP2006309622A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automate mask processing of a document image having a regular form. <P>SOLUTION: This image processor has: the document image 210 that is a processing target; an input part 101 receiving input of a mask image 220 for hiding a partial area of the document image 210; an extraction part 103 extracting a mask area 221 shown by the mask image 220 inputted by the input part 101 to obtain a mask extraction image 230; and a superimposing part 106 superimposing the mask extraction image 230 extracted by the extraction part 103 and the document image 210 to hide the partial area of the document image 210. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、文書画像の一部をマスク処理する画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体に関する。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, and a recording medium that perform mask processing on a part of a document image.

アンケート用紙等の定型形式を有する原稿には、住所、氏名、年齢等の個人情報を記載することがある。これらの個人情報は、個人情報保護の立場から個人情報の部分を黒塗りし、再配布や保存したりする。   Personal information such as address, name, and age may be written on a manuscript having a standard format such as a questionnaire. From the standpoint of personal information protection, the personal information is blacked out and redistributed and stored.

従来、これらのアンケート用紙等に記載された個人情報保護のため、該当部分を手作業で一枚ずつ黒塗りしていた。また、定型帳票の領域指定に作業を軽減し、罫線に囲まれた黒枠内を過不足無く認識領域と指定することができる技術が知られている(たとえば、下記特許文献1参照。)。   Conventionally, in order to protect the personal information described in these questionnaire forms, the corresponding portions have been manually painted black one by one. In addition, a technique is known in which the work can be reduced to specify the area of the standard form, and the black frame surrounded by the ruled line can be specified as the recognition area without excess or deficiency (see, for example, Patent Document 1 below).

また、帳票画像に基づいて、文字記入枠等の枠領域の領域情報や罫線に囲まれていない文字記入枠等に関する情報を含む詳細な内容の帳票定義データを作成し、文字記入枠の識別の処理等を高精度おこなう技術が知られている(たとえば、下記特許文献2参照。)。   Also, based on the form image, form definition data with detailed contents including area information of the frame area such as the character entry frame and information about the character entry frame not surrounded by the ruled line, etc. is created to identify the character entry frame. A technique for performing processing and the like with high accuracy is known (for example, see Patent Document 2 below).

特許第3614253号公報Japanese Patent No. 3614253 特開2001−126010号公報Japanese Patent Laid-Open No. 2001-12610

しかしながら、上述した従来技術では、個人情報部分の黒塗りには、個人情報等が記載された文字記入枠や黒枠内の領域を認識(識別)し、その認識(識別)した文字記入枠や領域を黒塗り(枠内の画素の変換)する。そのため、画像の入力から黒塗りまで一枚ずつ処理しなければならず、作業が煩雑になるという問題点があった。   However, in the above-described prior art, the personal information portion is painted black by recognizing (identifying) a character entry frame in which personal information or the like is written or an area within the black frame, and recognizing (identifying) the character entry frame or area. Are painted black (the pixels in the frame are converted). For this reason, it is necessary to process one by one from input of an image to black painting, and there is a problem that the work becomes complicated.

この発明は、上述した従来技術による問題点を解消するため、定型形式を有する文書画像の個人情報や機密情報等が記載された部分をマスクする処理を自動的におこなうことができる画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体を提供することを目的とする。   The present invention is an image processing apparatus capable of automatically performing a process of masking a part in which personal information, confidential information, etc. of a document image having a fixed format are described in order to solve the above-described problems caused by the prior art. An object is to provide an image processing method, an image processing program, and a recording medium.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかる画像処理装置は、処理対象となる文書画像と、当該文書画像のうちの一部の領域を隠すためのマスク画像の入力を受け付ける入力手段と、前記入力手段によって入力されたマスク画像が示すマスク領域を抽出してマスク抽出画像を得る抽出手段と、前記抽出手段によって抽出されたマスク抽出画像と、前記文書画像とを重ね合わせて前記文書画像のうちの一部の領域を隠す重ね合わせ手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to a first aspect of the present invention provides a document image to be processed and a mask image for hiding a part of the document image. An input unit that receives an input; an extraction unit that extracts a mask region indicated by a mask image input by the input unit to obtain a mask extraction image; a mask extraction image extracted by the extraction unit; and the document image Superimposing means for superimposing and concealing a partial area of the document image.

この請求項1の発明によれば、文書画像の一部の領域(個人情報等)を隠すためのマスク抽出画像を作成し、文書画像に重ね合わせることができる。そのため、一部の領域を特定して画像を入力すれば、一部の領域がマスクされた文書画像を自動的に作成することができる。   According to the first aspect of the present invention, it is possible to create a mask extraction image for hiding a partial area (personal information, etc.) of a document image and to superimpose it on the document image. For this reason, if a partial area is specified and an image is input, a document image in which the partial area is masked can be automatically created.

また、請求項2の発明にかかる画像処理装置は、請求項1に記載の発明において、前記入力手段によって入力された前記文書画像と、前記マスク画像とをそれぞれ判別する画像判別手段を備え、前記抽出手段は、前記画像判別手段によってマスク画像と判別された画像の中から前記マスク領域を抽出してマスク抽出画像を得ることを特徴とする。   According to a second aspect of the present invention, there is provided an image processing apparatus according to the first aspect of the present invention, further comprising image discriminating means for discriminating each of the document image input by the input means and the mask image. The extracting means extracts the mask area from the image determined as the mask image by the image determining means to obtain a mask extracted image.

この請求項2の発明によれば、入力された画像が文書画像であるか、マスク画像であるかを判別することができる。そのため、マスク画像と判別された画像のみにマスク領域の抽出処理をすることができる。   According to the second aspect of the present invention, it is possible to determine whether the input image is a document image or a mask image. Therefore, the mask area extraction process can be performed only on the image determined to be the mask image.

また、請求項3の発明にかかる画像処理装置は、請求項1に記載の発明において、前記抽出手段は、前記マスク画像を走査してマスクするか否かを画素ごとに判別する判別手段を備え、当該判別手段によって判別された結果に基づいて、前記マスク領域を抽出して前記マスク抽出画像を得ることを特徴とする。   According to a third aspect of the present invention, in the image processing apparatus according to the first aspect of the present invention, the extracting unit includes a determining unit that determines, for each pixel, whether the mask image is scanned and masked. Further, the mask extraction image is obtained by extracting the mask region based on the result determined by the determining means.

この請求項3の発明によれば、マスク画像の中の画素ごとにマスクするかどうかを判別することができる。そのため、マスク領域のみを抽出することができる。   According to the third aspect of the present invention, it is possible to determine whether or not to mask each pixel in the mask image. Therefore, only the mask area can be extracted.

また、請求項4の発明にかかる画像処理装置は、請求項1または3に記載の発明において、前記抽出手段によって抽出されたマスク抽出画像を記憶する記憶手段を備え、前記重ね合わせ手段は、前記記憶手段によって記憶されたマスク抽出画像と、前記文書画像とを重ね合わせて前記文書画像のうちの一部の領域を隠すことを特徴とする。   According to a fourth aspect of the present invention, there is provided an image processing apparatus according to the first or third aspect of the present invention, further comprising storage means for storing the mask extracted image extracted by the extracting means, wherein the superimposing means The mask extracted image stored by the storage unit and the document image are overlapped to hide a partial area of the document image.

この請求項4の発明によれば、抽出したマスク抽出画像を記憶することができる。そのため、文書画像にマスクをする場合に、記憶してあるマスク抽出画像を重ね合わせることができる。   According to the fourth aspect of the present invention, the extracted mask extraction image can be stored. Therefore, when masking a document image, the stored mask extracted image can be superimposed.

また、請求項5の発明にかかる画像処理装置は、請求項1に記載の発明において、前記重ね合わせ手段によって重ね合わされた文書画像を印刷する印刷手段を、さらに備えることを特徴とする。   An image processing apparatus according to a fifth aspect of the present invention is the image processing apparatus according to the first aspect, further comprising printing means for printing the document image superimposed by the superimposing means.

この請求項5の発明によれば、マスク抽出画像を重ね合わせた文書画像を印刷出力することができる。そのため、文書画像の一部がマスクされた文書画像を得ることができる。   According to the fifth aspect of the present invention, it is possible to print out a document image in which the mask extraction images are superimposed. Therefore, a document image in which a part of the document image is masked can be obtained.

上述した課題を解決し、目的を達成するため、請求項6の発明にかかる画像処理方法は、処理対象となる文書画像と、当該文書画像のうちの一部の領域を隠すためのマスク画像の入力を受け付ける入力工程と、前記入力工程によって入力されたマスク画像が示すマスク領域を抽出してマスク抽出画像を得る抽出工程と、前記抽出工程によって抽出されたマスク抽出画像と、前記文書画像とを重ね合わせて前記文書画像のうちの一部の領域を隠す重ね合わせ工程と、を含むことを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing method according to a sixth aspect of the present invention includes a document image to be processed and a mask image for hiding a part of the document image. An input step for receiving an input; an extraction step for extracting a mask region indicated by the mask image input by the input step to obtain a mask extraction image; a mask extraction image extracted by the extraction step; and the document image. And a superimposing step of concealing a partial area of the document image.

この請求項6の発明によれば、文書画像の一部の領域を隠すマスク抽出画像を作成し、文書画像に重ね合わせることができる。そのため、一部の領域を特定して画像を入力すれば、一部の領域がマスクされた文書画像を自動的に作成することができる。   According to the sixth aspect of the present invention, it is possible to create a mask extraction image that hides a partial area of a document image and to superimpose it on the document image. For this reason, if a partial area is specified and an image is input, a document image in which the partial area is masked can be automatically created.

また、請求項7に記載の画像処理プログラムは、請求項6に記載の画像処理方法をコンピュータに実行させることを特徴とする。   An image processing program according to claim 7 causes a computer to execute the image processing method according to claim 6.

この請求項7の発明によれば、請求項6に記載の画像処理方法をコンピュータに実行させることができる。   According to the seventh aspect of the present invention, the computer can execute the image processing method according to the sixth aspect.

また、請求項8に記載の記録媒体は、請求項7に記載の画像処理プログラムを記録したコンピュータに読み取り可能であることを特徴とする。   According to an eighth aspect of the present invention, there is provided a recording medium that can be read by a computer that records the image processing program according to the seventh aspect.

この請求項8の発明によれば、請求項7に記載された画像処理プログラムを記録したことで、そのプログラムをコンピュータに読み取り可能となり、これによって、請求項7の動作をコンピュータによって実現することが可能である。   According to the eighth aspect of the present invention, since the image processing program according to the seventh aspect is recorded, the program can be read by the computer, and thereby the operation of the seventh aspect can be realized by the computer. Is possible.

本発明にかかる画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体によれば、定型形式を有する文書画像において、個人情報や機密情報等が記載された部分のマスク処理を自動的におこなうことができるという効果を奏する。   According to the image processing apparatus, the image processing method, the image processing program, and the recording medium according to the present invention, a mask process is automatically performed on a part in which personal information, confidential information, and the like are described in a document image having a fixed format. There is an effect that can be.

以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体の好適な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an image processing method, an image processing program, and a recording medium according to the present invention will be described below in detail with reference to the accompanying drawings.

(実施の形態)
図1は、この発明の実施の形態にかかる画像処理装置の機能的構成を示す説明図である。図1において、画像処理装置100は、入力部101と、画像判別部102と、抽出部103と、変倍部104と、記憶部105と、重ね合わせ部106と、出力部107と、により構成されている。
(Embodiment)
FIG. 1 is an explanatory diagram showing a functional configuration of an image processing apparatus according to an embodiment of the present invention. In FIG. 1, the image processing apparatus 100 includes an input unit 101, an image determination unit 102, an extraction unit 103, a scaling unit 104, a storage unit 105, a superposition unit 106, and an output unit 107. Has been.

入力部101は、所定の部分が黒塗りされた原稿と一枚または複数枚の黒塗りする対象となる原稿(以下、「黒塗り対象原稿」という。)の入力を受け付ける。具体的には、たとえば、黒塗りされた原稿と一枚または複数枚の黒塗り対象原稿をADF(Auto Document Feeder)にセットして、これらの原稿を読み取る。ここで、黒塗りされた原稿と黒塗り対象原稿について説明する。また、ここでは、「原稿」という場合は、入力される前の状態を意味し、また、「画像」という場合は、原稿が入力された後の状態を意味する。   The input unit 101 receives an input of a document in which a predetermined portion is blacked out and one or more originals to be blacked out (hereinafter referred to as “black target document”). Specifically, for example, a blacked original and one or a plurality of black target originals are set in an ADF (Auto Document Feeder), and these originals are read. Here, the blacked original and the black target original will be described. Here, “original” means a state before input, and “image” means a state after the original is input.

図2−1は、入力された黒塗り対象原稿(文書画像)の一例を示す説明図である。この実施の形態では、図2に示す文書画像210のように特定の形式を持った画像を例にとって説明する。そして、ここでは、文書画像210の前渡金コードの欄211を黒塗り(マスク)する場合を例として説明する。   FIG. 2A is an explanatory diagram of an example of an input blacked original (document image). In this embodiment, an example of an image having a specific format such as the document image 210 shown in FIG. 2 will be described. Here, a case where the advance payment code field 211 of the document image 210 is painted black (masked) will be described as an example.

図2−2は、入力された黒塗りされた原稿(マスク画像)の一例を示す説明図である。図2−2のマスク画像220において、符号221に示す黒塗りされた部分は、図2−1に示した前渡金コードの欄210に相当する。この黒塗りされた前渡金コードの欄221は、ユーザがマジック等を用いて、入力する前に原稿の該当部分を黒塗りしておく。この黒塗りする原稿には、すでに必要事項が記載された原稿をコピーして用いてもよく、必要事項を記載する前にコピーしておいたものを用いてもよい。   FIG. 2B is an explanatory diagram of an example of an input black document (mask image). In the mask image 220 in FIG. 2B, the blackened portion indicated by reference numeral 221 corresponds to the advance payment code column 210 shown in FIG. The blacked advance payment code field 221 is used to black out the corresponding part of the document before the user inputs it using magic or the like. As the original to be painted black, a document on which necessary items are already described may be copied and used, or a document copied before describing the necessary items may be used.

図2−3は、図2−2に示すマスク画像をもとにして作成された黒べたを示す説明図である。図2−3において、マスク抽出画像230は、マスク画像220に基づいて作成された画像である。また、マスク抽出画像230は文書画像210と同じ大きさである。ここで、黒べた231のマスク抽出画像230内における位置は、前渡金コード211の文書画像210内における位置に相当する。黒べた231の作成方法については後述する。   FIG. 2C is an explanatory diagram illustrating a black solid created based on the mask image illustrated in FIG. In FIG. 2-3, the mask extraction image 230 is an image created based on the mask image 220. The mask extraction image 230 is the same size as the document image 210. Here, the position of the black solid 231 in the mask extraction image 230 corresponds to the position of the advance payment code 211 in the document image 210. A method for creating the black solid 231 will be described later.

画像判別部102は、入力部101によって入力を受け付けた画像がマスク画像220であるか、文書画像210であるかを判別する。具体的には、たとえば、入力された原稿のうち一枚目に読み取られた画像をマスク画像220と判別し、2枚目以降を文書画像210と判別する。また、たとえば、原稿にバーコードを付して、そのバーコードを読み取ることによって原稿(あるいは画像)の種別を判別するようにしてもよい。   The image determination unit 102 determines whether the image received by the input unit 101 is a mask image 220 or a document image 210. Specifically, for example, the first read image of the input document is determined as the mask image 220, and the second and subsequent images are determined as the document image 210. In addition, for example, a barcode may be attached to the document, and the type of the document (or image) may be determined by reading the barcode.

抽出部103は、マスク画像220から文書画像210に重ね合わせるマスク抽出画像の黒べた231を作成する。黒べた231の作成は、まず、マスク画像220の原点(0,0)を基準(以下、小領域の基準とする座標を「始点」という。)として、原点からn×m(n=mでもよい)の小領域を走査する。そして、その小領域の中に含まれる画素がすべて黒画素であるかを判別する。抽出部103は、このような判別機能を備えている。   The extraction unit 103 creates a black solid 231 of the mask extracted image to be superimposed on the document image 210 from the mask image 220. To create the black solid 231, first, the origin (0, 0) of the mask image 220 is used as a reference (hereinafter, coordinates based on the small area are referred to as “starting points”), and n × m (n = m even from the origin). Scan a small area of (good). Then, it is determined whether all pixels included in the small area are black pixels. The extraction unit 103 has such a discrimination function.

つぎに、(0,1)を始点とするn×mの小領域の中に含まれる画素がすべて黒画素であるかを判別する。このように、始点を主走査方向、副走査方向に走査して、n×mの小領域に対して上述した判別をする。また、ここでは、小領域内の画素がすべて黒画素であるかを判別するが、たとえば、小領域内の黒画素の数が所定の個数以上であるかによって判別してもよい。つぎに、図3−1を用いて、上述した抽出処理の詳細を説明する。   Next, it is determined whether or not all pixels included in the n × m small region starting from (0, 1) are black pixels. In this way, the start point is scanned in the main scanning direction and the sub-scanning direction, and the above-described determination is performed on the small area of n × m. Here, it is determined whether or not all the pixels in the small area are black pixels, but may be determined based on, for example, whether the number of black pixels in the small area is equal to or greater than a predetermined number. Next, details of the extraction process described above will be described with reference to FIG.

図3−1は、拡大したマスク画像の一部を示す説明図である。図3−1において、符号300に示されるのはマスク画像220の一部を拡大したものであり、各四角(白、黒両方含む)は画素を示している。また、画素301を原点(0,0)として、各画素の位置を座標(k,l)で示す。ここでは、画素の座標を原点の画素301をから横(右)方向の3つ目の画素302の座標を(0,3)とする。また、原点の画素301から縦(下)方向4つ目の画素303の座標を(4,0)とする。   FIG. 3A is an explanatory diagram illustrating a part of an enlarged mask image. In FIG. 3A, reference numeral 300 indicates an enlarged part of the mask image 220, and each square (including both white and black) indicates a pixel. The position of each pixel is indicated by coordinates (k, l) with the pixel 301 as the origin (0, 0). Here, the coordinates of the third pixel 302 in the lateral (right) direction from the origin pixel 301 are (0, 3). The coordinate of the fourth pixel 303 in the vertical (downward) direction from the origin pixel 301 is (4, 0).

また、図3−1において、画素は原点の縦方向に(K,0)まで、原点の横方向に(0,L)まであり、総画素数は(k+1)×(l+1)個ある。原点の位置や画像の座標の定義の仕方については、上述した座標の取り方に限らず、たとえば、原点の座標(0,0)を右下にとってもよい。また、画素の座標を表すために「−」を用いて表してもよい。   In FIG. 3A, the number of pixels is up to (K, 0) in the vertical direction of the origin and (0, L) in the horizontal direction of the origin, and the total number of pixels is (k + 1) × (l + 1). The method of defining the position of the origin and the coordinates of the image is not limited to the above-described method of taking the coordinates, and for example, the coordinates of the origin (0, 0) may be set to the lower right. Further, “−” may be used to represent the coordinates of the pixel.

つぎに、実際の黒べたの抽出処理について説明する。ここで、黒べたの抽出処理の説明のために、図示しない、入力されたマスク画像220と大きさ、画素数が同じで、すべて白画素に初期化された画像(以下、「白画像」という。)を用意する。また、白画像の画素の座標の取り方は、マスク画像220の画素の座標の取り方と同様にする。そして、上述したように、マスク画像220の原点から、n×mの小領域を走査する。その小領域に含まれる画素がすべて黒画素の場合には、小領域と同一座標の白画像の座標を黒画素にする。また、小領域内がすべて黒画素でない場合には、処理をしない。以下に具体的な処理について説明する。   Next, the actual black solid extraction process will be described. Here, for the purpose of explaining black solid extraction processing, an image (hereinafter referred to as a “white image”) that is the same as the input mask image 220 (not shown), has the same size and the same number of pixels, and is initialized to all white pixels. Prepare). The white image pixel coordinates are determined in the same manner as the pixel image pixel coordinates of the mask image 220. Then, as described above, a small area of n × m is scanned from the origin of the mask image 220. When all the pixels included in the small area are black pixels, the coordinates of the white image having the same coordinates as the small area are set to black pixels. Further, when all the small areas are not black pixels, no processing is performed. Specific processing will be described below.

まず、原点301を始点としてn×mの小領域に含まれる画素について判別をする。ここでは、小領域を示すn,mをそれぞれn=2、m=2とし、原点301を始点とした場合には、符号310のような小領域内に含まれる画素がすべて黒画素であるか判別する。   First, the pixel included in the n × m small area is determined from the origin 301 as a starting point. Here, if n and m indicating a small area are n = 2 and m = 2, respectively, and the origin 301 is the starting point, are all the pixels included in the small area as indicated by reference numeral 310 being black pixels? Determine.

具体的には、原点301を始点とする小領域310には、(0,0)、(0,1)、(1,0)および(1,1)の座標の画素が含まれる。ここで、座標(0,0)、(0,1)の画素は白画素であり、また、座標(1,0)、(1,1)の画素は黒画素である。この小領域310内に含まれている画素はすべて黒画素でないため、白画像の座標(0,0)、(0,1)、(1,0)および(1,1)には何も処理しない(白画素のまま)。つぎに、座標(0,1)、(0,2)、・・・、(0,L)と順に走査していき、それぞれの座標を始点とする小領域について処理していく。また、これらの座標を始点とした小領域は、どの小領域内にも白画素を含むため、白画像には何も処理しない。そして、座標(0,L)の処理が終了したら、つぎに、座標(1,0)を始点とする小領域に対して判別する。   Specifically, the small region 310 starting from the origin 301 includes pixels having coordinates of (0, 0), (0, 1), (1, 0), and (1, 1). Here, the pixels at coordinates (0, 0) and (0, 1) are white pixels, and the pixels at coordinates (1, 0) and (1, 1) are black pixels. Since all the pixels included in the small area 310 are not black pixels, no processing is performed on the coordinates (0,0), (0,1), (1,0), and (1,1) of the white image. Do not (white pixels). Next, scanning is performed in the order of coordinates (0, 1), (0, 2),..., (0, L), and processing is performed for a small region starting from each coordinate. In addition, since the small area starting from these coordinates includes white pixels in any small area, no processing is performed on the white image. Then, when the processing of the coordinates (0, L) is completed, next, the small region starting from the coordinates (1, 0) is determined.

図3−2は、座標(1,0)を始点とする小領域について判別した結果を反映させた白画像の一部を示す説明図である。図3−2において、符号320は、判別結果によって処理された白画像の一部である。また、画素321は、白画像の原点(0,0)の画素であり、画素322は、座標(1,0)の画素である。まず、図3−1において、座標(1,0)を始点とする小領域には、座標(1,0)、(1,1)、(2,0)および(2,1)が含まれる。これらの4つの座標に示される画素はすべて黒画素なので、白画像の座標(1,0)、(1,1)、(2,0)および(2,1)を黒画素に変換する。つぎに、図3−1に示される座標(1,1)を始点とする小領域について判別する。   FIG. 3B is an explanatory diagram illustrating a part of a white image in which a result of determination regarding a small region starting from the coordinates (1, 0) is reflected. In FIG. 3B, reference numeral 320 denotes a part of the white image processed based on the determination result. The pixel 321 is a pixel at the origin (0, 0) of the white image, and the pixel 322 is a pixel at coordinates (1, 0). First, in FIG. 3A, the small region starting from the coordinates (1, 0) includes coordinates (1, 0), (1, 1), (2, 0), and (2, 1). . Since the pixels indicated by these four coordinates are all black pixels, the coordinates (1, 0), (1, 1), (2, 0), and (2, 1) of the white image are converted into black pixels. Next, a small area starting from the coordinates (1, 1) shown in FIG.

図3−3は、座標(1,1)を始点とする小領域について判別した結果を反映させた白画像の一部を示す説明図である。図3−3において、符号330は、白画像の一部である。画素321は原点(0,0)の画素であり、画素331は、座標(1,1)の画素である。また、座標(1,0)、(1,1)、(2,0)および(2,1)は、座標(1,0)を始点とする小領域の判別結果により、すでに黒画素に変換されている。   FIG. 3C is an explanatory diagram of a part of a white image that reflects the result of determination on a small region starting from the coordinates (1, 1). In FIG. 3C, reference numeral 330 denotes a part of the white image. The pixel 321 is a pixel at the origin (0, 0), and the pixel 331 is a pixel at coordinates (1, 1). Also, the coordinates (1, 0), (1, 1), (2, 0) and (2, 1) have already been converted to black pixels based on the discrimination result of the small area starting from the coordinates (1, 0). Has been.

ここで、図3−1において、座標(1,1)を始点とする小領域には、座標(1,1)、(1,2)、(2,1)および(2,2)が含まれる。これらの4つの座標に示される画素はすべて黒画素なので、白画像の座標(1,1)、(1,2)、(2,1)および(2,2)が黒画素に変換される。実際には、座標(1,1)および(1,2)はすでに黒画素に変換されているため、座標(1,2)および(2,2)が黒画素に変換される。上述したような処理を座標(K,L)まで繰り返す。   Here, in FIG. 3A, the coordinates (1,1), (1,2), (2,1), and (2,2) are included in the small region starting from the coordinates (1,1). It is. Since the pixels indicated by these four coordinates are all black pixels, the coordinates (1,1), (1,2), (2,1) and (2,2) of the white image are converted into black pixels. Actually, since the coordinates (1, 1) and (1, 2) have already been converted to black pixels, the coordinates (1, 2) and (2, 2) are converted to black pixels. The above processing is repeated up to the coordinates (K, L).

図3−4は、図3−1に示したマスク画像について抽出処理により作成された結果を示す説明図である。符号340に示されるのは、マスク抽出画像230の一部を拡大した図である。上述した例では、始点を1画素ずつ走査して小領域について判別したが、数画素おきに始点を走査して判別処理をしてもよい。数画素おきに走査して判別処理することにより、黒べた231の作成の高速化が可能となる。   FIG. 3-4 is an explanatory diagram of a result created by the extraction process for the mask image shown in FIG. 3-1. What is indicated by reference numeral 340 is an enlarged view of a part of the mask extraction image 230. In the example described above, the start point is scanned one pixel at a time to determine the small area, but the start point may be scanned every several pixels to perform the determination process. By performing the discrimination processing by scanning every several pixels, it is possible to speed up the creation of the black solid 231.

また、数画素おきに走査する場合に、主走査方向と副走査方向でステップ数が異なっていてもよい。たとえば、詳細に抽出する走査方向のステップ数を細かくして、別の走査方向を粗くすることにより、処理時間を短縮することができる。また、上述した例では、マスク画像220には、手書きされた文字や罫線を含んでいるため、これらの文字や罫線が残らないように、小領域n×mのn、mを文字や罫線の線幅よりも大きくなるように設定する。   Further, when scanning every several pixels, the number of steps may be different between the main scanning direction and the sub-scanning direction. For example, the processing time can be shortened by reducing the number of steps in the scanning direction to be extracted in detail and making the other scanning direction rough. In the above-described example, the mask image 220 includes handwritten characters and ruled lines. Therefore, n and m of the small area n × m are used as characters and ruled lines so that these characters and ruled lines do not remain. Set to be larger than the line width.

変倍部104は、抽出部103によって抽出された黒べた231を拡大・縮小する。たとえば、黒塗りされた原稿と黒塗り対象原稿の位置が入力時にずれてしまい、処理したい部分が完全に隠れていない場合には、黒べた231を拡大することにより処理したい部分の全体を隠すことができる。また、上述したように原稿の位置がずれてしまい、意図していない文字や罫線に重なる場合には、縮小して文字や罫線に重ならないようにすることもできる。ここで、黒べた231を拡大する方法について説明する。   The scaling unit 104 enlarges / reduces the black solid 231 extracted by the extraction unit 103. For example, when the positions of the blacked original and the black target original are shifted at the time of input and the part to be processed is not completely hidden, the entire part to be processed is hidden by enlarging the black solid 231. Can do. Further, as described above, when the position of the original is shifted and overlaps with an unintended character or ruled line, it can be reduced so that it does not overlap with the character or ruled line. Here, a method of enlarging the black solid 231 will be described.

図4−1および図4−2は、黒べたを拡大する方法の一例を示す説明図である。図4−1は拡大前の図であり、図4−2は拡大後の図である。図4−1において、符号400は、マスク抽出画像230の一部である。領域410の中には6つの黒画素が存在している。これらの6つの黒画素は、黒べた231を形成している。また、図4−2において、符号420は、拡大後のマスク抽出画像の一部である。黒べた231を拡大する場合には、図4−2に示すように、枠410の中の黒画素の周囲をそれぞれ1画素塗りつぶすことにより、黒べた231を拡大できる。   4A and 4B are explanatory diagrams illustrating an example of a method for enlarging the black solid. FIG. 4A is a diagram before enlargement, and FIG. 4B is a diagram after enlargement. In FIG. 4A, reference numeral 400 is a part of the mask extraction image 230. There are six black pixels in region 410. These six black pixels form a black solid 231. Moreover, in FIG. 4B, the code | symbol 420 is a part of mask extraction image after expansion. When enlarging the black solid 231, as shown in FIG. 4B, the black solid 231 can be enlarged by painting one pixel around the black pixel in the frame 410.

また、黒べた231の拡大は、縦方向や横方向に黒画素を増やして拡大してもよい。そして、黒べた231を縮小する場合には、黒べた231を拡大するときの逆の操作によって縮小することができる。具体的には、たとえば、図4−2において、一番外側にある黒画素を消すことによって、黒べた231を縮小することができる。また、黒べた231の縮小は、縦方向や横方向の黒画素を減らして縮小してもよい。   Further, the black solid 231 may be enlarged by increasing black pixels in the vertical direction or the horizontal direction. When the black solid 231 is reduced, the black solid 231 can be reduced by a reverse operation when the black solid 231 is enlarged. Specifically, for example, in FIG. 4B, the black solid 231 can be reduced by erasing the outermost black pixel. Further, the black solid 231 may be reduced by reducing the black pixels in the vertical direction or the horizontal direction.

記憶部105は、入力されたマスク画像220、文書画像210、マスク抽出画像230等を記憶する。抽出部103によって作成されたマスク抽出画像230を記憶しておけば、同じ文書画像210の一部をマスクする場合に、マスク画像220から抽出処理する必要がなくなる。また、複数のマスク抽出画像230を作成し、記憶部105に記憶しておけば、マスクする部分が複数ある場合でも複数のマスク抽出画像230を用いることにより、新たにマスク画像220を入力することなく文書画像210に重ね合わせることができる。   The storage unit 105 stores the input mask image 220, document image 210, mask extraction image 230, and the like. If the mask extraction image 230 created by the extraction unit 103 is stored, it is not necessary to perform extraction processing from the mask image 220 when masking a part of the same document image 210. In addition, if a plurality of mask extraction images 230 are created and stored in the storage unit 105, a new mask image 220 can be input by using the plurality of mask extraction images 230 even when there are a plurality of portions to be masked. And can be superimposed on the document image 210.

重ね合わせ部106は、抽出部103によって抽出されたマスク抽出画像230を文書画像210に重ね合わせる。つぎに、文書画像210とマスク抽出画像230を重ね合わせ処理について説明する。   The superimposing unit 106 superimposes the mask extracted image 230 extracted by the extracting unit 103 on the document image 210. Next, the overlay process of the document image 210 and the mask extraction image 230 will be described.

図5は、文書画像とマスク抽出画像の重ね合わせについて示す説明図である。図5において、マスク抽出画像230を文書画像210に別レイヤーとして重ねる。マスク抽出画像230の黒べた231以外を透過色として再現することにより、黒べた231が重ねられた部分以外の文書画像210の情報を読み取ることができる。   FIG. 5 is an explanatory diagram showing the overlay of the document image and the mask extraction image. In FIG. 5, the mask extraction image 230 is superimposed on the document image 210 as a separate layer. By reproducing the color other than the black solid 231 of the mask extraction image 230 as the transmission color, it is possible to read the information of the document image 210 other than the portion where the black solid 231 is superimposed.

文書画像210とマスク抽出画像230を、別レイヤーとして一つのファイル形式としてもよく、一枚のビットマップ画像を作成してもよい。また、マスク抽出画像230が文書画像210に上書きされる形で一つのファイル形式として、マスクにより情報が確認できなくなったファイルを作成してもよい。ここで、作成されたファイルは、画像ファイル形式であってもよく、PDF(Portable Document Format)等のレイヤー構造を持てるファイル形式であってもよい。   The document image 210 and the mask extraction image 230 may be in a single file format as separate layers, or a single bitmap image may be created. In addition, a file in which information cannot be confirmed by a mask may be created as one file format in which the mask extraction image 230 is overwritten on the document image 210. Here, the created file may be in an image file format or a file format having a layer structure such as PDF (Portable Document Format).

つぎに、文書画像210とマスク抽出画像230の重ね合わせの他の例について説明する。まず、上述した小領域を示すn×mのn、mの値のうち小さい方の値を求める。以下では、n<mとして説明する。そして、マスク抽出画像230を1/nにOR圧縮し、文書画像210と1/nに圧縮されたマスク抽出画像230を別レイヤーにまとめる。この時、マスク抽出画像230の解像度は1/nであることを画像ファイルの解像度情報ヘッダに記録しておく。   Next, another example of overlaying the document image 210 and the mask extraction image 230 will be described. First, the smaller one of the values of n and m of n × m indicating the small area described above is obtained. In the following description, it is assumed that n <m. Then, the mask extraction image 230 is OR-compressed to 1 / n, and the document image 210 and the mask extraction image 230 compressed to 1 / n are combined into different layers. At this time, the fact that the resolution of the mask extraction image 230 is 1 / n is recorded in the resolution information header of the image file.

上述したように、n×mの小領域を走査しているため、n画素未満の線幅のドットは存在しない。たとえば、n=2であれば、1画素の線幅のドットは抽出処理の際に消えるからである。そのため、最も小さいものでもnドットなので、1/nに縮小してもほぼ同様の画像を再現することができる。つぎに、OR圧縮について具体的に説明する。   As described above, since an n × m small area is scanned, there is no dot having a line width less than n pixels. For example, if n = 2, a dot having a line width of one pixel disappears during extraction processing. For this reason, even the smallest image has n dots, so that substantially the same image can be reproduced even if it is reduced to 1 / n. Next, the OR compression will be specifically described.

図6−1は、OR圧縮の一例を示す説明図である。マスク抽出画像230を1/nにOR圧縮する場合には、マスク抽出画像230をn×nのメッシュに分割する。このメッシュ内に1画素でも黒画素がある場合には、縮小画像のメッシュに対応する画素を黒画素とする。また、メッシュ内の画素がすべて白画素の場合には、縮小画像のメッシュに対応する画素を白画素とする。   FIG. 6A is an explanatory diagram of an example of OR compression. When OR-compressing the mask extraction image 230 to 1 / n, the mask extraction image 230 is divided into n × n meshes. If even one pixel is present in the mesh, the pixel corresponding to the mesh of the reduced image is set as a black pixel. When all the pixels in the mesh are white pixels, the pixel corresponding to the mesh of the reduced image is set as a white pixel.

具体的には、たとえば、図6−1において、メッシュ601内には、4つの画素が含まれている。これらの画素はすべて白画素であるため、縮小画像のメッシュに対応する画素を白画素にする。また、メッシュ602内には、4つの画素が含まれており、黒画素が一つ含まれているため、縮小画像のメッシュに対応する画素を黒画素にする。以上の処理により、1/nに縮小された画像を作成する。   Specifically, for example, in FIG. 6A, the mesh 601 includes four pixels. Since these pixels are all white pixels, the pixels corresponding to the mesh of the reduced image are set as white pixels. Since the mesh 602 includes four pixels and includes one black pixel, the pixel corresponding to the mesh of the reduced image is set to a black pixel. By the above processing, an image reduced to 1 / n is created.

つぎに、文書画像210と縮小されたマスク抽出画像230を重ね合わせる処理について説明する。文書画像210と縮小されたマスク抽出画像230を別レイヤーファイルとして保持しておく。文書画像210の印刷時あるいは表示時には、縮小されたマスク抽出画像230の解像度(1/n)を画像ファイルの解像度情報ヘッダから読み込む。そして、縮小されたマスク抽出画像230を解像度変換処理する。そして、解像度変換処理後の画像を文書画像に重ね合わせる。   Next, a process for superimposing the document image 210 and the reduced mask extraction image 230 will be described. The document image 210 and the reduced mask extraction image 230 are held as separate layer files. When the document image 210 is printed or displayed, the resolution (1 / n) of the reduced mask extraction image 230 is read from the resolution information header of the image file. Then, the reduced mask extraction image 230 is subjected to resolution conversion processing. Then, the image after the resolution conversion process is superimposed on the document image.

図6−2は、解像度変換処理の一例を示す説明図である。図6−2において、黒画素621は、縮小されたマスク抽出画像である。この黒画素621を画像ファイルの解像度情報ヘッダから読み込んだ解像度に基づいて、解像度変換処理する。具体的には、n=2の場合には、符号622に示す画像となる。また、白画素623の場合も同様の処理をして、符号624に示す画像となる。上述した圧縮処理および解像度変換処理により、ファイルサイズを小さくして、マスク抽出画像230を保持することが可能となる。   FIG. 6B is an explanatory diagram of an example of the resolution conversion process. In FIG. 6B, a black pixel 621 is a reduced mask extraction image. The black pixel 621 is subjected to resolution conversion processing based on the resolution read from the resolution information header of the image file. Specifically, when n = 2, an image indicated by reference numeral 622 is obtained. In the case of the white pixel 623, the same processing is performed to obtain an image indicated by reference numeral 624. By the compression processing and resolution conversion processing described above, the file size can be reduced and the mask extraction image 230 can be held.

作成されたファイルはネットワークを介して、電子メール等により配信したり、ネットワークにつながっているコンピュータの指定されたフォルダに配信することができる。また、MFP(Multi Function Printer)のような装置によって、上述したような処理をすることにより、あたかも複写と同様の操作をしていながら、マスクにより情報が確認できなくなった文書画像210を得ることができる。また、ユーザにとって使い慣れた複写動作であるため、ユーザにとって使いやすいユーザインターフェースを提供することができる。出力部107は、重ね合わせ処理部106によってマスク抽出画像230を重ね合わせた原稿を出力する。出力には、レーザプリンタやインクジェットプリンタを採用することができる。   The created file can be distributed via a network by e-mail or the like, or can be distributed to a specified folder on a computer connected to the network. Further, by performing the processing as described above by an apparatus such as an MFP (Multi Function Printer), it is possible to obtain a document image 210 in which information cannot be confirmed by a mask while performing the same operation as copying. it can. In addition, since the copying operation is familiar to the user, a user interface that is easy to use for the user can be provided. The output unit 107 outputs the document on which the mask extraction image 230 is superimposed by the overlay processing unit 106. For output, a laser printer or an ink jet printer can be employed.

また、上述した入力から出力までの一連の処理は、たとえば、スキャナによって読み取った画像をコンピュータ(PC)に送信し、PCでマスク処理した画像を、プリンタによって出力することができる。また、MFPによって原稿を読み取り、MFP内でマスク処理した文書画像210を作成し、出力することもできる。   In the series of processes from input to output described above, for example, an image read by a scanner can be transmitted to a computer (PC), and an image masked by the PC can be output by a printer. It is also possible to read a document by the MFP, create a document image 210 masked in the MFP, and output it.

図7は、マスク抽出画像を重ね合わせた文書画像を示す説明図である。図7において、文書画像210の中の前渡金コード211の欄に記載された情報が黒べた231によって確認することができなくなっている。   FIG. 7 is an explanatory diagram showing a document image in which mask extracted images are superimposed. In FIG. 7, the information described in the advance payment code 211 column in the document image 210 cannot be confirmed by the black solid 231.

(画像処理装置の処理手順)
つぎに、この発明の実施の形態にかかる画像処理装置100の処理手順の一例について説明する。図8は、この発明の実施の形態にかかる画像処理装置の処理手順の一例を示すフローチャートである。図8のフローチャートにおいて、まず、画像の入力を受け付ける(ステップS801)。つぎに、画像の種類の判別をする(ステップS802)。ここで、画像の種類の判別は、入力された画像がマスク画像220であるか、文書画像210であるかを判別している。
(Processing procedure of image processing apparatus)
Next, an example of a processing procedure of the image processing apparatus 100 according to the embodiment of the present invention will be described. FIG. 8 is a flowchart showing an example of a processing procedure of the image processing apparatus according to the embodiment of the present invention. In the flowchart of FIG. 8, first, an input of an image is received (step S801). Next, the type of image is determined (step S802). Here, the image type is determined by determining whether the input image is the mask image 220 or the document image 210.

そして、マスク画像220から黒べた231を抽出し(ステップS803)、マスク抽出画像230を得る。そして、黒べた231の変倍処理をするかを判断する(ステップS804)。変倍処理をしない場合(ステップS804:No)、ステップS806に移行する。一方、変倍処理をする場合(ステップS804:Yes)、変倍処理をする(ステップS805)。そして、マスク抽出画像231を文書画像210に重ね合わせて(ステップS806)、文書画像210画像を出力する(ステップS807)。これにより、一連の処理を終了する。つぎに、ステップS803の黒べた231の抽出処理について説明する。   Then, the black solid 231 is extracted from the mask image 220 (step S803), and the mask extraction image 230 is obtained. Then, it is determined whether or not to change the magnification of the black solid 231 (step S804). When the scaling process is not performed (step S804: No), the process proceeds to step S806. On the other hand, when the scaling process is performed (step S804: Yes), the scaling process is performed (step S805). Then, the mask extraction image 231 is superimposed on the document image 210 (step S806), and the document image 210 image is output (step S807). As a result, the series of processes is completed. Next, the black solid 231 extraction process in step S803 will be described.

図9は、ステップS803の黒べたの抽出処理手順の一例を示すフローチャートである。また、図9のフローチャートにおいて、始点を1画素ずつ走査して判別処理する場合について説明するが、上述したように、数画素おきに始点を走査して判別処理してもよい。図8において、画像の種類の判別をすると(ステップS802)、まず、画素の座標の縦方向の座標をk=0とし(ステップS901)、横方向の座標をl=0とする(ステップS902)。つぎに、座標(0,0)を始点とするn×mの小領域を走査し(ステップS903)、小領域に含まれる画素はすべて黒画素かを判断する(ステップS904)。   FIG. 9 is a flowchart illustrating an example of the black solid extraction processing procedure in step S803. Further, in the flowchart of FIG. 9, the case of performing the discrimination process by scanning the start point pixel by pixel will be described. However, as described above, the discrimination may be performed by scanning the start point every several pixels. In FIG. 8, when the type of image is determined (step S802), first, the vertical coordinate of the pixel coordinate is set to k = 0 (step S901), and the horizontal coordinate is set to l = 0 (step S902). . Next, an n × m small area starting from the coordinates (0, 0) is scanned (step S903), and it is determined whether all the pixels included in the small area are black pixels (step S904).

小領域内に含まれる画素がすべて黒画素の場合(ステップS904:Yes)、対応する白画像の小領域内の画素を黒画素にする(ステップS905)。一方、小領域に含まれる画素がすべて黒画素でない場合(ステップS904:No)、処理をしないで(ステップS906)、ステップS907に移行する。そして、現在の横方向の座標lがl=Lであるかを判断する(ステップS907)。   When all the pixels included in the small area are black pixels (step S904: Yes), the corresponding pixels in the small area of the white image are set as black pixels (step S905). On the other hand, when all the pixels included in the small area are not black pixels (step S904: No), the process is not performed (step S906), and the process proceeds to step S907. Then, it is determined whether or not the current horizontal coordinate 1 is l = L (step S907).

l=Lでない場合(ステップS907:No)、現在の横方向の座標lをインクリメントして(ステップS908)、つぎの画素の座標(k,l)を始点とする小領域を検出する(ステップS903)。一方、l=Lの場合(ステップS907:Yes)、現在の縦方向の座標kがk=Kであるかを判断する(ステップS909)。   If l = L is not satisfied (step S907: No), the current horizontal coordinate l is incremented (step S908), and a small area starting from the next pixel coordinate (k, l) is detected (step S903). ). On the other hand, if l = L (step S907: Yes), it is determined whether the current vertical coordinate k is k = K (step S909).

k=Kでない場合(ステップS909:No)、現在の縦方向の座標kをインクリメントして(ステップS910)、横方向の座標をl=0とする(ステップS802)。一方、k=Kの場合(ステップS909:Yes)、ステップS804に移行して、変倍処理をするかを判断する。   When k is not K (step S909: No), the current vertical coordinate k is incremented (step S910), and the horizontal coordinate is set to l = 0 (step S802). On the other hand, when k = K (step S909: Yes), the process proceeds to step S804, and it is determined whether or not the scaling process is performed.

以上説明したように、この発明にかかる画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体によれば、定型形式を有する文書画像において、個人情報や機密情報等が記載された部分のマスク処理を自動的におこなうことができる。   As described above, according to the image processing apparatus, the image processing method, the image processing program, and the recording medium according to the present invention, mask processing of a part in which personal information, confidential information, and the like are described in a document image having a fixed format Can be performed automatically.

なお、本実施の形態で説明した画像処理方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネット等のネットワークを介して配布することが可能な伝送媒体であってもよい。   The image processing method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. Further, this program may be a transmission medium that can be distributed via a network such as the Internet.

以上のように、本発明にかかる画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体は、定型形式を有する文書画像の処理に有用であり、特に、個人情報や機密情報を有する書類等に適している。   As described above, the image processing apparatus, the image processing method, the image processing program, and the recording medium according to the present invention are useful for processing a document image having a fixed format, particularly for documents having personal information or confidential information. Is suitable.

この発明の実施の形態にかかる画像処理装置の機能的構成を示す説明図である。It is explanatory drawing which shows the functional structure of the image processing apparatus concerning embodiment of this invention. 入力された黒塗り対象原稿(文書画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the input black object original (document image). 入力された黒塗りされた原稿(マスク画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the inputted black original (mask image). 図2−2に示すマスク画像をもとにして作成された黒べたを示す説明図である。It is explanatory drawing which shows the black solid created based on the mask image shown to FIGS. 2-2. 拡大したマスク画像の一部を示す説明図である。It is explanatory drawing which shows a part of enlarged mask image. 座標(1,0)を始点とする小領域について判別した結果を反映させた白画像の一部を示す説明図である。It is explanatory drawing which shows a part of white image in which the result discriminate | determined about the small area | region which starts a coordinate (1, 0) was reflected. 座標(1,1)を始点とする小領域について判別した結果を反映させた白画像の一部を示す説明図である。It is explanatory drawing which shows a part of white image which reflected the result discriminate | determined about the small area | region which uses a coordinate (1, 1) as a starting point. 図3−1に示したマスク画像について抽出処理により作成された図である。It is the figure produced by the extraction process about the mask image shown to FIGS. 黒べたを拡大する方法の一例を示す説明図(その1)である。It is explanatory drawing (the 1) which shows an example of the method of expanding a black solid. 黒べたを拡大する方法の一例を示す説明図(その2)である。It is explanatory drawing (the 2) which shows an example of the method of expanding a black solid. 文書画像とマスク抽出画像の重ね合わせについて示す説明図である。It is explanatory drawing shown about the superimposition of a document image and a mask extraction image. OR圧縮の一例を示す説明図である。It is explanatory drawing which shows an example of OR compression. 解像度変換処理の一例を示す説明図である。It is explanatory drawing which shows an example of the resolution conversion process. マスク抽出画像を重ね合わせた文書画像を示す説明図である。It is explanatory drawing which shows the document image which overlap | superposed the mask extraction image. この発明の実施の形態にかかる画像処理装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the image processing apparatus concerning embodiment of this invention. ステップS703の黒べたの抽出処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the black solid extraction process procedure of step S703.

符号の説明Explanation of symbols

100 画像処理装置
101 入力部
102 画像判別部
103 抽出部
104 変倍部
105 記憶部
106 重ね合わせ部
107 出力部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Input part 102 Image discrimination | determination part 103 Extraction part 104 Scaling part 105 Storage part 106 Superimposition part 107 Output part

Claims (8)

処理対象となる文書画像と、当該文書画像のうちの一部の領域を隠すためのマスク画像の入力を受け付ける入力手段と、
前記入力手段によって入力されたマスク画像が示すマスク領域を抽出してマスク抽出画像を得る抽出手段と、
前記抽出手段によって抽出されたマスク抽出画像と、前記文書画像とを重ね合わせて前記文書画像のうちの一部の領域を隠す重ね合わせ手段と、
を備えることを特徴とする画像処理装置。
An input means for receiving input of a document image to be processed and a mask image for hiding a part of the document image;
Extraction means for extracting a mask region indicated by the mask image input by the input means to obtain a mask extraction image;
Superimposing means for superimposing the mask extracted image extracted by the extracting means and the document image to hide a part of the document image;
An image processing apparatus comprising:
前記入力手段によって入力された前記文書画像と、前記マスク画像とをそれぞれ判別する画像判別手段を備え、
前記抽出手段は、前記画像判別手段によってマスク画像と判別された画像の中から前記マスク領域を抽出してマスク抽出画像を得ることを特徴とする請求項1に記載の画像処理装置。
Image discriminating means for discriminating each of the document image inputted by the input means and the mask image;
The image processing apparatus according to claim 1, wherein the extraction unit extracts the mask region from an image determined as a mask image by the image determination unit to obtain a mask extraction image.
前記抽出手段は、前記マスク画像を走査してマスクするか否かを画素ごとに判別する判別手段を備え、
当該判別手段によって判別された結果に基づいて、前記マスク領域を抽出して前記マスク抽出画像を得ることを特徴とする請求項1に記載の画像処理装置。
The extraction unit includes a determination unit that determines, for each pixel, whether the mask image is scanned and masked.
The image processing apparatus according to claim 1, wherein the mask extraction image is obtained by extracting the mask region based on a result determined by the determination unit.
前記抽出手段によって抽出されたマスク抽出画像を記憶する記憶手段を備え、
前記重ね合わせ手段は、前記記憶手段によって記憶されたマスク抽出画像と、前記文書画像とを重ね合わせて前記文書画像のうちの一部の領域を隠すことを特徴とする請求項1または3に記載の画像処理装置。
Storage means for storing the mask extraction image extracted by the extraction means;
The superimposing unit superimposes the mask extraction image stored in the storage unit and the document image to hide a partial area of the document image. Image processing apparatus.
前記重ね合わせ手段によって重ね合わされた文書画像を印刷する印刷手段を、さらに備えることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a printing unit that prints the document image superimposed by the superimposing unit. 処理対象となる文書画像と、当該文書画像のうちの一部の領域を隠すためのマスク画像の入力を受け付ける入力工程と、
前記入力工程によって入力されたマスク画像が示すマスク領域を抽出してマスク抽出画像を得る抽出工程と、
前記抽出工程によって抽出されたマスク抽出画像と、前記文書画像とを重ね合わせて前記文書画像のうちの一部の領域を隠す重ね合わせ工程と、
を含むことを特徴とする画像処理方法。
An input step for receiving input of a document image to be processed and a mask image for hiding a part of the document image;
An extraction step of extracting a mask region indicated by the mask image input by the input step to obtain a mask extraction image;
A masking image extracted by the extracting step and a superimposing step of superimposing the document image and hiding a part of the document image;
An image processing method comprising:
請求項6に記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。   An image processing program causing a computer to execute the image processing method according to claim 6. 請求項7に記載の画像処理プログラムを記録したコンピュータに読み取り可能な記録媒体。

A computer-readable recording medium on which the image processing program according to claim 7 is recorded.

JP2005133613A 2005-04-28 2005-04-28 Image processor, image processing method, image processing program and recording medium Pending JP2006309622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005133613A JP2006309622A (en) 2005-04-28 2005-04-28 Image processor, image processing method, image processing program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005133613A JP2006309622A (en) 2005-04-28 2005-04-28 Image processor, image processing method, image processing program and recording medium

Publications (1)

Publication Number Publication Date
JP2006309622A true JP2006309622A (en) 2006-11-09

Family

ID=37476416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005133613A Pending JP2006309622A (en) 2005-04-28 2005-04-28 Image processor, image processing method, image processing program and recording medium

Country Status (1)

Country Link
JP (1) JP2006309622A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017184A (en) * 2006-07-06 2008-01-24 Hitachi Software Eng Co Ltd Electronic blackboard system, and concealing process method of drawing object thereof
JP2009153021A (en) * 2007-12-21 2009-07-09 Oki Electric Ind Co Ltd Image input system, image input method, and program
JP6077625B1 (en) * 2015-10-23 2017-02-08 株式会社ヒメナ・アンド・カンパニー Scanner system and computer program that can protect personal information

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0865488A (en) * 1994-08-26 1996-03-08 Canon Inc Method and device for image processing
JPH09167228A (en) * 1995-12-14 1997-06-24 Omron Corp Method and device for transformation, method and device for reshaping picture using them and system using them
JP2000216972A (en) * 1999-01-25 2000-08-04 Sharp Corp Facsimile information service system
JP2003259113A (en) * 2002-02-28 2003-09-12 Konica Corp Image processor
JP2005020549A (en) * 2003-06-27 2005-01-20 Oki Electric Ind Co Ltd Entry document creation apparatus and entry document

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0865488A (en) * 1994-08-26 1996-03-08 Canon Inc Method and device for image processing
JPH09167228A (en) * 1995-12-14 1997-06-24 Omron Corp Method and device for transformation, method and device for reshaping picture using them and system using them
JP2000216972A (en) * 1999-01-25 2000-08-04 Sharp Corp Facsimile information service system
JP2003259113A (en) * 2002-02-28 2003-09-12 Konica Corp Image processor
JP2005020549A (en) * 2003-06-27 2005-01-20 Oki Electric Ind Co Ltd Entry document creation apparatus and entry document

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017184A (en) * 2006-07-06 2008-01-24 Hitachi Software Eng Co Ltd Electronic blackboard system, and concealing process method of drawing object thereof
JP4683560B2 (en) * 2006-07-06 2011-05-18 株式会社日立ソリューションズ Method for concealing drawing object in electronic blackboard system and electronic blackboard system
JP2009153021A (en) * 2007-12-21 2009-07-09 Oki Electric Ind Co Ltd Image input system, image input method, and program
JP6077625B1 (en) * 2015-10-23 2017-02-08 株式会社ヒメナ・アンド・カンパニー Scanner system and computer program that can protect personal information

Similar Documents

Publication Publication Date Title
JP5247601B2 (en) Image processing apparatus, image processing method, and computer program
JP4555212B2 (en) Watermark information embedding device, watermark information embedding method, and computer program
JP4819723B2 (en) Information extraction apparatus, information extraction method, information extraction program, and recording medium
JP2010021771A (en) Image processing unit and image processing program
JP2010034683A (en) Image processing apparatus, and program
JP2008154106A (en) Concealing method, image processor and image forming apparatus
US8493629B2 (en) Image processing apparatus, method, and computer program
JP5147583B2 (en) Image processing apparatus and method
US8660357B2 (en) Image processing apparatus, method, and computer program
JP4926589B2 (en) Image composition apparatus, image composition method, and program
JP5159345B2 (en) Device, method, and program for handling embedded code
JP2006309622A (en) Image processor, image processing method, image processing program and recording medium
JP2009294870A (en) Image processing apparatus and method
JP5644062B2 (en) Image processing device
JP4775723B2 (en) Image processing apparatus and image processing program
JP2009081791A (en) Image processing apparatus, and image processing program
JP2015215637A (en) Image forming apparatus, image processing apparatus, and program
JP2003046746A (en) Method and apparatus for processing image
JP6145877B2 (en) Color mode determination apparatus and program
JP2008205559A (en) Image processing unit, and image processing method, and program thereof
CN100511267C (en) Graph and text image processing equipment and image processing method thereof
JP2006254199A (en) Image processing apparatus
JP2007142986A (en) Image processor and image processing method
JP2006261772A (en) Image forming apparatus and image forming method
JP5009414B2 (en) Background pattern superimposing apparatus and background pattern superimposing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110208