JP2002252756A - Image processing unit, recording medium and program - Google Patents
Image processing unit, recording medium and programInfo
- Publication number
- JP2002252756A JP2002252756A JP2001048687A JP2001048687A JP2002252756A JP 2002252756 A JP2002252756 A JP 2002252756A JP 2001048687 A JP2001048687 A JP 2001048687A JP 2001048687 A JP2001048687 A JP 2001048687A JP 2002252756 A JP2002252756 A JP 2002252756A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- area
- image processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、デジタル画像を処
理する画像処理技術に関し、特に、網点画像領域と文字
領域とを有するデジタル画像を処理する画像処理技術に
関する。The present invention relates to an image processing technique for processing a digital image, and more particularly to an image processing technique for processing a digital image having a halftone image area and a character area.
【0002】[0002]
【関連技術】スキャナなどの画像読取装置を用いて入力
した画像をさらに出力する場合が存在する。2. Related Art There is a case where an input image is further output using an image reading device such as a scanner.
【0003】このような場合において、入力されたデジ
タル画像の解像度が比較的大きく、かつ、出力機器の解
像度が比較的小さい場合(例えば133線以上の線数を
有する網点画像をそれよりも小さな線数(例えば106
線)を有する画像として出力する場合)には、階調のつ
ぶれやトーンジャンプが発生することがある。In such a case, when the resolution of an input digital image is relatively large and the resolution of an output device is relatively small (for example, a halftone image having a line number of 133 lines or more is reduced to a smaller size). Number of lines (for example, 106
When the image is output as an image having a line), the gradation may be lost or the tone jump may occur.
【0004】このような状況を回避するためには、入力
画像に対してぼかし処理を施した後さらに網点数を変換
する処理(以下では、「スクリーン線数変換処理」とも
称する)を施すことが考えられる。なお、ぼかし処理を
行わずに網点数を変換する処理のみを行うと、新旧の網
点線数を有するスクリーンパターンが周期的な干渉状態
を生じるためモアレが発生する。したがって、これを回
避するため、スクリーン線数変化処理において、ぼかし
処理を行うことが必要になる。In order to avoid such a situation, a process of converting the number of halftone dots (hereinafter also referred to as a "screen ruling conversion process") after subjecting the input image to a blurring process is performed. Conceivable. If only the process of converting the halftone frequency is performed without performing the blurring process, moire occurs because the screen patterns having the new and old halftone frequencies produce a periodic interference state. Therefore, in order to avoid this, it is necessary to perform a blurring process in the screen ruling changing process.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、網点画
像領域と文字領域との両領域を有するデジタル画像に対
して上記のぼかし処理を含むスクリーン線数変換処理を
施すと、文字領域内の文字がぼけてしまうという事態が
生じる。図28は、網点画像領域SRと文字領域CRと
を有する処理対象画像の一例を示す図であり、図29
は、図28の左上側の文字部分を拡大して示す図であ
る。そして、図30は、この処理対象画像に対して上記
のスクリーン線数変換処理を施した画像である。図30
には、スクリーン線数変換処理の結果、文字がぼけてし
まっている状況が示されている。However, when a digital image having both a halftone dot image area and a character area is subjected to the screen ruling conversion processing including the above-mentioned blur processing, the characters in the character area become unclear. A situation that blurs occurs. FIG. 28 is a diagram illustrating an example of a processing target image having a halftone image region SR and a character region CR.
FIG. 29 is an enlarged view of the upper left character portion of FIG. 28. FIG. 30 is an image obtained by performing the above-described screen ruling conversion processing on the processing target image. FIG.
Shows a situation in which characters are blurred as a result of the screen ruling conversion process.
【0006】この現象は、性質が互いに異なる両領域
(網点画像領域および文字領域)に対して同一の処理を
行うことに起因する問題である。すなわち、デジタル画
像内における網点画像領域と文字領域とを分離すること
が要請されている。This phenomenon is a problem caused by performing the same processing on both areas (halftone image area and character area) having different properties. That is, it is required to separate a halftone image area and a character area in a digital image.
【0007】また、上記のような網点画像領域と文字領
域とを分離することは、スクリーン線数変換処理を行う
際のみならず、両領域を有するデジタル画像処理におけ
る様々な処理を行う際に要請される技術である。Separating the halftone image area and the character area as described above is not only performed when performing the screen ruling conversion processing, but also when performing various processing in digital image processing having both areas. This is a required technology.
【0008】そこで、本発明は前記問題点に鑑み、デジ
タル画像内における網点画像領域と文字領域とを分離す
ることが可能な技術を提供することを目的とする。In view of the above problems, it is an object of the present invention to provide a technique capable of separating a halftone image area and a character area in a digital image.
【0009】[0009]
【課題を解決するための手段】上記目的を達成するた
め、請求項1に記載の画像処理装置は、デジタル画像を
処理する画像処理装置であって、網点情報を取得する網
点情報取得手段と、前記網点情報に基づいて、所定の網
点と4つの隣接網点のそれぞれとを結ぶ4つのベクトル
を求める手段と、注目画素から前記4つのベクトルのそ
れぞれに相当するベクトル量だけ移動させた4つの近傍
画素を選択する手段と、前記注目画素と前記4つの近傍
画素とを用いて、前記注目画素が網点画像領域内の画素
であるか文字領域内の画素であるかについての判定処理
を行う判定手段と、を備えることを特徴とする。In order to achieve the above object, an image processing apparatus according to claim 1 is an image processing apparatus for processing a digital image, wherein halftone dot information obtaining means for obtaining halftone dot information. Means for obtaining four vectors connecting a predetermined halftone dot and each of four adjacent halftone dots based on the halftone dot information, and moving the target pixel by a vector amount corresponding to each of the four vectors from the pixel of interest. Determining whether the pixel of interest is a pixel in a halftone dot image area or a pixel in a character area using the means for selecting the four neighboring pixels and the pixel of interest and the four neighboring pixels. Determining means for performing processing.
【0010】請求項2に記載の画像処理装置は、請求項
1に記載の画像処理装置において、前記判定手段は、前
記注目画素と前記4つの近傍画素のそれぞれとの差分の
絶対値を加算した加算結果を求め、前記加算結果と所定
値との大小関係に基づいて前記判定処理を行うことを特
徴とする。According to a second aspect of the present invention, in the image processing apparatus of the first aspect, the determination unit adds an absolute value of a difference between the target pixel and each of the four neighboring pixels. An addition result is obtained, and the determination process is performed based on a magnitude relationship between the addition result and a predetermined value.
【0011】請求項3に記載の画像処理装置は、請求項
1または請求項2に記載の画像処理装置において、前記
デジタル画像に対する平滑化処理を行う手段、をさらに
備え、前記判定手段は、前記平滑化処理が施された画像
について前記判定処理を行うことを特徴とする。According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect, the image processing apparatus further includes means for performing a smoothing process on the digital image. The above-described determination processing is performed on the image that has been subjected to the smoothing processing.
【0012】請求項4に記載の画像処理装置は、請求項
1ないし請求項3のいずれかに記載の画像処理装置にお
いて、前記判定手段は、前記注目画素およびその周辺画
素を含む領域に対するメディアンフィルタ処理を用い
て、当該判定処理における判定結果を修正することを特
徴とする。According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the determining means includes a median filter for an area including the target pixel and its peripheral pixels. The processing is used to correct the determination result in the determination processing.
【0013】請求項5に記載の画像処理装置は、請求項
1ないし請求項4のいずれかに記載の画像処理装置にお
いて、前記判定手段は、文字領域として判定される領域
を拡張する太らせ処理を用いて、前記判定結果を修正す
ることを特徴とする。According to a fifth aspect of the present invention, in the image processing apparatus according to any one of the first to fourth aspects, the determining means expands an area determined as a character area. Is used to correct the determination result.
【0014】請求項6に記載の画像処理装置は、請求項
1ないし請求項5のいずれかに記載の画像処理装置にお
いて、前記網点情報取得手段は、前記網点情報を入力す
る網点情報入力手段を有し、当該網点情報入力手段を用
いて入力された情報を前記網点情報として取得すること
を特徴とする。According to a sixth aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects, the halftone information obtaining means is configured to input the halftone information. An input unit is provided, and information input using the dot information input unit is obtained as the dot information.
【0015】請求項7に記載の画像処理装置は、請求項
1ないし請求項5のいずれかに記載の画像処理装置にお
いて、前記網点情報取得手段は、前記網点情報を前記デ
ジタル画像から抽出する網点情報抽出手段を有し、当該
網点情報抽出手段によって抽出された情報を前記網点情
報として取得することを特徴とする。According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects, the halftone dot information obtaining means extracts the halftone dot information from the digital image. And extracting information extracted by the dot information extracting means as the dot information.
【0016】請求項8に記載の画像処理装置は、請求項
1ないし請求項7のいずれかに記載の画像処理装置にお
いて、前記判定処理を行うべき領域を指定する領域指定
手段、をさらに備えることを特徴とする。An image processing apparatus according to an eighth aspect of the present invention is the image processing apparatus according to any one of the first to seventh aspects, further comprising an area designating unit for designating an area in which the determination process is to be performed. It is characterized by.
【0017】請求項9に記載の画像処理装置は、請求項
8に記載の画像処理装置において、前記網点情報取得手
段は、前記領域指定手段により指定された領域ごとに前
記網点情報を取得することを特徴とする。According to a ninth aspect of the present invention, in the image processing apparatus of the eighth aspect, the halftone dot information obtaining means obtains the halftone dot information for each area specified by the area specifying means. It is characterized by doing.
【0018】請求項10に記載の画像処理装置は、請求
項1ないし請求項7のいずれかに記載の画像処理装置に
おいて、前記網点情報抽出手段は、前記網点情報を所定
のブロック単位で抽出することを特徴とする。According to a tenth aspect of the present invention, in the image processing apparatus according to any one of the first to seventh aspects, the halftone dot information extracting means converts the halftone dot information into predetermined block units. It is characterized by extracting.
【0019】請求項11に記載の画像処理装置は、請求
項1ないし請求項10のいずれかに記載の画像処理装置
において、前記網点画像領域内の画素であると判定され
た画素についてはぼかし処理および再網点化処理を施し
た結果を採用し、前記文字領域内の画素であると判定さ
れた画素についてはぼかし処理および再網点化処理を施
さない結果を採用することを特徴とする。According to an eleventh aspect of the present invention, in the image processing device of the first aspect, a pixel determined to be a pixel in the halftone dot image area is blurred. A result of performing the processing and the re-dotting process, and a result of not performing the blurring process and the re-dotting process for a pixel determined to be a pixel in the character area. .
【0020】請求項12に記載の記録媒体は、コンピュ
ータを、請求項1ないし請求項11のいずれかに記載の
画像処理装置として機能させるためのプログラムを記録
したコンピュータ読み取り可能な記録媒体であることを
特徴とする。A recording medium according to a twelfth aspect is a computer-readable recording medium that records a program for causing a computer to function as the image processing apparatus according to any one of the first to eleventh aspects. It is characterized by.
【0021】請求項13に記載のプログラムは、コンピ
ュータを、請求項1ないし請求項11のいずれかに記載
の画像処理装置として機能させるためのプログラムであ
ることを特徴とする。A program according to a thirteenth aspect is a program for causing a computer to function as the image processing apparatus according to any one of the first to eleventh aspects.
【0022】[0022]
【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0023】<A.構成>図1は、本発明の実施形態に
係る画像処理装置1のハードウエア構成を表す概念図で
ある。図1に示すように、画像処理装置1は、CPU
2、半導体メモリおよびハードディスクなどを含む記憶
部3、各種の記録媒体から情報を読み出すメディアドラ
イブ4、モニタなどを含む表示部5、キーボートおよび
マウスなどを含む入力部6、他の機器との通信を行う通
信部7を備えるコンピュータシステム(以下、単に「コ
ンピュータ」とも称する)によって構成されている。C
PU2は、バスラインBLおよび入出力インターフェー
スIFを介して、記憶部3、メディアドライブ4、表示
部5、入力部6、通信部7などに接続されている。ま
た、メディアドライブ4は、CD−ROM、DVD(Di
gital Versatile Disk)、フレキシブルディスクなどの
可搬性の記録媒体9からその中に記録されている情報を
読み出す。<A. Configuration> FIG. 1 is a conceptual diagram showing a hardware configuration of an image processing apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 1 has a CPU
2, a storage unit 3 including a semiconductor memory and a hard disk, a media drive 4 for reading information from various recording media, a display unit 5 including a monitor, etc., an input unit 6 including a keyboard and a mouse, and communication with other devices. It is configured by a computer system (hereinafter, also simply referred to as “computer”) including a communication unit 7 that performs the communication. C
The PU 2 is connected to the storage unit 3, the media drive 4, the display unit 5, the input unit 6, the communication unit 7, and the like via the bus line BL and the input / output interface IF. In addition, the media drive 4 includes a CD-ROM, a DVD (Di-
The information recorded therein is read from a portable recording medium 9 such as a digital versatile disk or a flexible disk.
【0024】このコンピュータは、記録媒体9に記録さ
れたソフトウエアプログラム(以下、単に「プログラ
ム」とも称する)を読み込み、そのプログラムをCPU
2等を用いて実行することによって、後述するような各
種の動作を実現する画像処理装置1として機能する。な
お、各機能を有するプログラムは、記録媒体9を介して
供給(ないし配給)される場合に限定されず、LANや
インターネットなどのネットワーク(通信回線)および
通信部7を介して、このコンピュータに対して供給(な
いし配給)されてもよい。This computer reads a software program (hereinafter, also simply referred to as a “program”) recorded on a recording medium 9 and stores the program in a CPU.
When the image processing apparatus 1 is executed by using the image processing apparatus 2 or the like, it functions as the image processing apparatus 1 that realizes various operations described below. Note that the program having each function is not limited to being supplied (or distributed) via the recording medium 9, and may be transmitted to the computer via a network (communication line) such as a LAN or the Internet and the communication unit 7. May be supplied (or distributed).
【0025】このように、この画像処理装置1は、コン
ピュータにおいてソフト的に構築される。As described above, the image processing apparatus 1 is constructed by software in a computer.
【0026】図2は、画像処理装置1の機能ブロック図
である。図2に示すように、画像処理装置1は、スキャ
ナなどの画像読取装置70から入力されたデジタル画像
に対する画像処理を行い、印刷出力装置などの画像出力
装置80に対してその処理結果としての画像を出力す
る。FIG. 2 is a functional block diagram of the image processing apparatus 1. As shown in FIG. 2, the image processing apparatus 1 performs image processing on a digital image input from an image reading device 70 such as a scanner, and outputs the processed image to an image output device 80 such as a print output device. Is output.
【0027】画像処理装置1は、処理対象となる領域を
指定する領域指定部12と、網点情報を入力する網点情
報入力部20と、所定の網点から4方向の隣接網点へと
向かう4つのベクトルを求める4方向ベクトル算出部4
0と、文字網点分離処理部50と、スクリーン線数変換
処理部60とを備えている。また、文字網点分離処理部
50は、平滑化処理部51、差分値加算処理部52、二
値化処理部53、メディアンフィルタ処理部54、およ
び太らせ処理部55を有しており、スクリーン線数変換
処理部60は、ぼかし等処理部61および合成処理部6
2を有している。これらの各部は、所定のプログラムを
実行することによってコンピュータにおいてソフト的に
構築される。The image processing apparatus 1 includes an area designating section 12 for designating an area to be processed, a halftone information input section 20 for inputting halftone information, and a predetermined halftone area to four adjacent halftone areas. Four-direction vector calculation unit 4 for obtaining four heading vectors
0, a character halftone separation processing section 50, and a screen ruling conversion processing section 60. Further, the character halftone dot separation processing unit 50 has a smoothing processing unit 51, a difference value addition processing unit 52, a binarization processing unit 53, a median filter processing unit 54, and a fattening processing unit 55. The line number conversion processing unit 60 includes a blur processing unit 61 and a synthesis processing unit 6.
Two. Each of these units is constructed in software on a computer by executing a predetermined program.
【0028】この画像処理装置1は、文字網点分離処理
部50などを用いることによって、各注目画素が網点画
像領域内の画素であるか文字領域内の画素であるかを判
定することができ、また、その判定結果を利用してスク
リーン線数変換処理部60などを用いてスクリーン線数
変換処理を行うことが可能である。各処理部の詳細動作
等については、後述する。The image processing apparatus 1 determines whether each pixel of interest is a pixel in a halftone image area or a pixel in a character area by using a character halftone dot separation processing section 50 or the like. It is also possible to perform the screen ruling conversion processing using the screen ruling conversion processing unit 60 or the like using the determination result. The detailed operation of each processing unit will be described later.
【0029】<B.動作> <概略動作>図3は、画像処理装置1におけるスクリー
ン線数変換処理の動作を示すフローチャートである。図
3を参照しながら、このスクリーン線数変換処理につい
て説明する。<B. Operation><SchematicOperation> FIG. 3 is a flowchart showing the operation of the screen ruling conversion process in the image processing apparatus 1. The screen ruling conversion processing will be described with reference to FIG.
【0030】まず、ステップSP10において、画像処
理装置1は、画像読取装置70などからのデジタル画像
を取得する。図4に示すように、このデジタル画像に
は、網点画像領域SRと文字領域CRとが含まれてい
る。また、このデジタル画像は、たとえば、二値画像と
して取得される。ここでは、以下の処理において多階調
化することが好ましいので、この時点において、二値画
像の各画素の階調値0,1のそれぞれを便宜的に0,2
55にあらかじめ変換しておく。後述の各処理によっ
て、この二値画像は、256段階の階調値を有する多値
画像に実際に変換される。First, in step SP10, the image processing device 1 acquires a digital image from the image reading device 70 or the like. As shown in FIG. 4, the digital image includes a halftone image area SR and a character area CR. This digital image is acquired, for example, as a binary image. Here, since it is preferable to increase the number of gradations in the following processing, at this point, the gradation values 0 and 1 of each pixel of the binary image are respectively set to 0 and 2 for convenience.
55 in advance. This binary image is actually converted into a multi-valued image having 256 gradation values by the processes described below.
【0031】また、画像処理装置1の操作者(オペレー
タ)は、必要に応じて、ステップSP30,SP40
(後述)の処理を行うべき領域を手動で指定するように
しても良い。言い換えれば、処理対象領域をトリミング
によって指定することができる。このようにして処理対
象領域を限定することによって、処理の高速化を図るこ
とが可能である。Further, the operator (operator) of the image processing apparatus 1 can execute steps SP30 and SP40 as necessary.
An area to be processed (described later) may be manually specified. In other words, the processing target area can be designated by trimming. By limiting the processing target area in this way, it is possible to increase the processing speed.
【0032】具体的には、図4に示すように、画面に表
示されるデジタル画像Pにおいて、網点画像領域SRを
含む領域DRを処理対象領域として指定することができ
る。また、この指定領域DRは、網点画像領域SRのみ
ならず、文字領域CRを含んでいても良く、また、同一
の網点情報を有する複数の網点画像領域SRを含んでい
ても良い。そのような場合であっても、以降の処理を良
好に行うことが可能である。ただし、複数の網点画像領
域SRが互いに異なる網点情報を有する場合には、各網
点画像領域SRを別個の領域として指定することが好ま
しい。Specifically, as shown in FIG. 4, in the digital image P displayed on the screen, an area DR including the halftone image area SR can be designated as a processing target area. Further, the designated area DR may include not only the halftone image area SR but also a character area CR, or may include a plurality of halftone image areas SR having the same halftone information. Even in such a case, the subsequent processing can be performed well. However, when the plurality of dot image regions SR have different dot information from each other, it is preferable to designate each dot image region SR as a separate region.
【0033】この指定処理は、領域指定部12を用いて
行われる。さらに詳細には、この指定領域DRは、マウ
ス操作などによって任意の大きさを有する矩形領域など
として指定することができる。This designation processing is performed using the area designation section 12. More specifically, the designated area DR can be designated as a rectangular area having an arbitrary size by a mouse operation or the like.
【0034】つぎに、ステップSP20において、処理
対象領域に含まれる網点画像領域SRについての網点情
報を取得する。この網点情報は、網点画像領域SR生成
時に用いられたスクリーンパターンについての「網点線
数」および「網点角度」を含む情報である。網点線数
は、スクリーンパターンの1インチあたりのスクリーン
線数であり、網点角度は、スクリーンパターンと画像と
がなす角度である。Next, in step SP20, dot information about the dot image region SR included in the processing target region is obtained. The halftone information is information including “halftone frequency” and “halftone angle” of the screen pattern used at the time of generating the halftone image area SR. The screen frequency is the screen frequency per inch of the screen pattern, and the screen angle is the angle between the screen pattern and the image.
【0035】ここでは、操作者がこの網点情報を入力す
るものとする。具体的には、網点情報入力部20(図
2)を用いて、操作者が上記の網点画像領域SRについ
ての網点情報(より詳細には、網点線数と網点角度とを
含む情報)を入力する。これによって、画像処理装置1
は網点情報を取得する。Here, it is assumed that the operator inputs the dot information. Specifically, the operator uses the halftone dot information input unit 20 (FIG. 2) to display the halftone dot information (more specifically, the halftone frequency and the halftone angle) on the halftone image region SR. Information). Thereby, the image processing apparatus 1
Obtains dot information.
【0036】また、図4に示すように複数の領域が処理
対象領域DRとして指定されている場合には、処理対象
領域(指定領域)ごとに網点情報を取得することが好ま
しい。これにより、網点線数などの網点情報が指定領域
ごとに異なっている場合にも網点情報を正確に抽出する
ことが可能である。When a plurality of areas are designated as processing target areas DR as shown in FIG. 4, it is preferable to obtain dot information for each processing target area (designated area). This makes it possible to accurately extract halftone information even when halftone information such as halftone frequency differs for each designated area.
【0037】なお、網点情報抽出部30を用いることに
より、網点画像領域SRの網点情報を網点画像領域SR
に基づいて自動的に抽出することも可能であるが、その
動作等については後に説明する。By using the halftone dot information extracting section 30, the halftone dot information of the halftone dot image region SR is converted to the halftone dot image region SR.
It is also possible to automatically extract based on the information, but the operation and the like will be described later.
【0038】また、このステップSP20においては、
網点情報に基づいて、所定の網点と隣接網点とを結ぶ異
なる4つのベクトルを求める処理がさらに行われる。こ
の処理は、4方向ベクトル算出部40によって行われ
る。In this step SP20,
Based on the dot information, a process of obtaining four different vectors connecting a predetermined dot and an adjacent dot is further performed. This process is performed by the four-direction vector calculation unit 40.
【0039】図5は、その原理を説明する図である。た
とえば、図5に示すように、網点画像領域SRの網点角
度Θが45度である場合には、所定の網点D0に隣接す
る網点D1〜D4は、当該所定の網点D0からみて、右
下、左下、左上、右上の4つの方向に位置している。さ
らに、この網点画像領域SRの網点線数(1インチあた
りの線数)が150線であり、かつ、処理対象画像の解
像度(1インチあたりの画素数)が600(dpi)で
ある場合には、600/150=4画素に相当する距離
が網点D0から隣接網点までの距離Dに相当する。した
がって、この場合には、網点D0から隣接網点D1まで
の水平方向距離dXは、その値D(=4)にcosΘ
(cos45度)を乗じた値(すなわち約2.8)とな
り、垂直方向距離dYは、その値D(=4)にsinΘ
(sin45度)を乗じた値(すなわち約2.8)とな
る。したがって、網点D0を始点とし且つ隣接網点D1
を終点とするベクトルV1=(dX,dY)が求められ
る。FIG. 5 is a diagram for explaining the principle. For example, as shown in FIG. 5, when the halftone dot angle の of the halftone dot image region SR is 45 degrees, the halftone dots D1 to D4 adjacent to the predetermined halftone dot D0 are separated from the predetermined halftone dot D0. As you can see, they are located in four directions: lower right, lower left, upper left, and upper right. Further, when the halftone frequency (lines per inch) of the halftone image area SR is 150 lines and the resolution (pixels per inch) of the processing target image is 600 (dpi). The distance corresponding to 600/150 = 4 pixels corresponds to the distance D from the halftone dot D0 to the adjacent halftone dot. Therefore, in this case, the horizontal distance dX from the halftone dot D0 to the adjacent halftone dot D1 is calculated by adding the value D (= 4) to cosΘ
(Cos 45 degrees) (ie, about 2.8), and the vertical distance dY is obtained by adding sin 値 to the value D (= 4).
(Sin 45 degrees) (that is, about 2.8). Therefore, the halftone dot D0 is the starting point and the adjacent halftone dot D1
Is obtained as a vector V1 = (dX, dY).
【0040】そして、その他の3方向の隣接網点D2〜
D4の全てについても、同様の距離dX,dYを求め
る。すなわち、網点D0を始点とし且つ隣接網点D2を
終点とするベクトルV2を求め、さらに、網点D0を始
点とし且つ隣接網点D3を終点とするベクトルV3と、
網点D0を始点とし且つ隣接網点D4を終点とするベク
トルV4とを求める。このように、所定の網点D0と各
隣接網点D1〜D4のそれぞれとを結ぶ異なる4つのベ
クトルV1〜V4を求める。この4つのベクトルV1〜
V4は後述するステップSP30において利用される。The other three adjacent halftone dots D2
Similar distances dX and dY are obtained for all of D4. That is, a vector V2 starting from the halftone dot D0 and ending at the adjacent halftone dot D2 is obtained, and further, a vector V3 starting from the halftone dot D0 and ending at the adjacent halftone dot D3,
A vector V4 starting from the halftone dot D0 and ending at the adjacent halftone dot D4 is determined. Thus, four different vectors V1 to V4 connecting the predetermined halftone dot D0 and each of the adjacent halftone dots D1 to D4 are obtained. These four vectors V1 to V1
V4 is used in step SP30 described later.
【0041】さらに、ステップSP30(図3)におい
ては、指定領域DRについての文字領域CR(図4)と
網点画像領域SRとを分離するためのマスク画像を生成
する処理を行い、その後、ステップSP40において、
そのマスク画像を用いて、スクリーン線数変換処理を行
う。以下においては、図6および図7を参照しながら、
ステップSP30およびステップSP40における動作
について詳述する。なお、図6は、ステップSP30の
詳細動作を表すフローチャートであり、図7は、ステッ
プSP40の詳細動作を示すフローチャートである。Further, in step SP30 (FIG. 3), processing for generating a mask image for separating the character area CR (FIG. 4) and the halftone image area SR for the specified area DR is performed. In SP40,
A screen ruling conversion process is performed using the mask image. In the following, referring to FIGS. 6 and 7,
The operation in step SP30 and step SP40 will be described in detail. FIG. 6 is a flowchart showing the detailed operation of step SP30, and FIG. 7 is a flowchart showing the detailed operation of step SP40.
【0042】<マスク画像の生成動作>次に、マスク画
像の生成動作(ステップSP30)について説明する。<Mask Image Generation Operation> Next, a mask image generation operation (step SP30) will be described.
【0043】図8〜図13は、この動作を説明する図で
ある。図8は、処理対象画像の一部領域を抜き出した拡
大図であり、図8(a)は網点画像領域SR中の一部領
域を示しており、図8(b)は文字領域CR中の一部領
域を示している。図8における正方形の各単位領域は1
つの画素を表現しており、斜線で示される画素は処理対
象画像中の黒色画素を表している。また、図9は、この
各領域の画素値を示す図であり、また、図9(a)は図
8(a)に対応しており、図9(b)は図8(b)に対
応している。さらに、図10〜図13は、以下の各ステ
ップの進行に応じた各領域の画素値を示す図であり、図
10(a)は図9(a)に対する処理結果を示してお
り、図10(b),図11,図13は、図9(b)に対
する処理結果を示している。FIGS. 8 to 13 are diagrams for explaining this operation. FIG. 8 is an enlarged view showing a partial region of the processing target image. FIG. 8A shows a partial region in the halftone dot image region SR, and FIG. 8B shows a partial region in the character region CR. Of FIG. Each unit area of the square in FIG.
One pixel is represented, and the pixel indicated by oblique lines represents a black pixel in the processing target image. FIG. 9 is a diagram showing the pixel values of the respective regions. FIG. 9 (a) corresponds to FIG. 8 (a), and FIG. 9 (b) corresponds to FIG. 8 (b). are doing. Further, FIGS. 10 to 13 are diagrams showing the pixel values of each area according to the progress of each of the following steps, and FIG. 10 (a) shows the processing result for FIG. 9 (a). (B), FIG. 11, and FIG. 13 show processing results for FIG. 9 (b).
【0044】以下では、図6を参照しながら、各ステッ
プの処理について説明する。Hereinafter, the processing of each step will be described with reference to FIG.
【0045】まず、図6に示すように、ステップSP3
1において、平滑化処理部51によって、デジタル画像
に対する平滑化処理が行われる。この平滑化処理は、た
とえば、図14に示すような平滑化フィルタを用いるこ
とにより実現することができる。この平滑化フィルタ
は、3×3画素のサイズを有するフィルタであり、中央
の重み付け係数が4に対して、その周辺8画素の重み付
け係数が1,2となっている。この平滑化フィルタを用
いることによって、注目画素(中央の画素)の画素値を
周辺画素の画素値を考慮した加重平均値を算出すること
ができる。First, as shown in FIG. 6, step SP3
In 1, the smoothing processing section 51 performs a smoothing process on the digital image. This smoothing process can be realized, for example, by using a smoothing filter as shown in FIG. This smoothing filter is a filter having a size of 3 × 3 pixels. The weighting coefficient of the center is 4, and the weighting coefficients of the surrounding 8 pixels are 1 and 2. By using this smoothing filter, it is possible to calculate the weighted average value of the pixel value of the target pixel (center pixel) in consideration of the pixel values of the peripheral pixels.
【0046】ここにおいて、このステップSP31の処
理(平滑化処理)は必ずしも行うことを要しないが、判
定時のノイズを抑制するためには、次の各ステップSP
33〜SP38の前にこのステップSP31の平滑化処
理を行っておくことが好ましい。言い換えれば、平滑化
処理が施された画像に対して、次のステップSP33〜
SP37などの判定処理を施すことが好ましい。Here, the processing of step SP31 (smoothing processing) is not necessarily performed, but in order to suppress noise at the time of determination, the following steps SP31 are required.
It is preferable to perform the smoothing process of step SP31 before 33 to SP38. In other words, the following steps SP33 to SP33 are performed on the image subjected to the smoothing process.
It is preferable to perform a determination process such as SP37.
【0047】また、処理対象画像が二値画像である場合
には、この平滑化処理を施すことによって、その各画素
の画素値を多値化する処理をも同時に行うことができ
る。たとえば、この二値画像を256段階の階調値を有
する多値画像に変換する場合には、上述したように、そ
の二値画像の各画素の階調値0,1のそれぞれを便宜的
に0,255にあらかじめ変換した後に、この平滑化処
理を施す。この平滑化処理後の画像の各画素は、0,2
55以外の階調値をも有することになり、周辺画素の画
素値をも考慮した加重平均処理が施された上で、多値化
される。When the image to be processed is a binary image, by performing this smoothing process, the process of multi-valued pixel values of each pixel can be performed at the same time. For example, when converting this binary image into a multi-valued image having 256 levels of gradation values, as described above, each of the gradation values 0 and 1 of each pixel of the binary image is conveniently used. This smoothing process is performed after conversion to 0,255 in advance. Each pixel of the image after the smoothing process is 0, 2
It also has a gradation value other than 55, and is subjected to weighted averaging processing in consideration of the pixel values of the peripheral pixels, and then multi-valued.
【0048】つぎに、ステップSP33〜SP37(図
6)において、注目画素が網点画像領域内の画素である
か文字領域内の画素であるかについての判定処理が行わ
れる。この判定処理は、大まかに次の5つの処理、すな
わち、(1)注目画素から4つのベクトルのそれぞれに
相当するベクトル量だけ移動させた4つの近傍画素を選
択する処理(ステップSP33)と、(2)注目画素と
4つの近傍画素のそれぞれとの差分の絶対値を求める処
理(ステップSP34)と、(3)これらの4つの差分
絶対値を加算した加算結果を求める処理(ステップSP
35)と、(4)その加算結果と所定の閾値との大小関
係に基づく判定処理(ステップSP36)と、(5)そ
の判定結果に対してメディアンフィルタを作用させる処
理(ステップSP37)と、を含んでいる。以下、各処
理について説明する。Next, in steps SP33 to SP37 (FIG. 6), a determination is made as to whether the pixel of interest is a pixel in the halftone dot image area or a pixel in the character area. This determination process is roughly performed by the following five processes, namely, (1) a process of selecting four neighboring pixels moved by a vector amount corresponding to each of the four vectors from the target pixel (step SP33), and ( 2) a process of obtaining the absolute value of the difference between the pixel of interest and each of the four neighboring pixels (step SP34); and (3) a process of obtaining an addition result obtained by adding these four differential absolute values (step SP34).
35), (4) a determination process based on the magnitude relationship between the addition result and a predetermined threshold (step SP36), and (5) a process of applying a median filter to the determination result (step SP37). Contains. Hereinafter, each process will be described.
【0049】まず、ステップSP33においては、
(1)注目画素から4つのベクトルのそれぞれに相当す
るベクトル量だけ移動させた4つの近傍画素を選択する
処理が行われる。図8(a)においては、注目画素PE
に対して、それぞれ、ベクトルV1〜V4だけ移動した
位置に存在する4つの近傍画素E1〜E4が示されてい
る。ここで、ベクトルV1〜V4としては、上記のステ
ップSP20において求められたものが用いられる。し
たがって、当該注目画素PEが所定の網点D0の位置に
存在すると仮定したときに隣接網点D1〜D4のそれぞ
れの位置に存在する4つの画素が、4つの近傍画素E1
〜E4として選択されることになる。First, in step SP33,
(1) A process of selecting four neighboring pixels moved by a vector amount corresponding to each of the four vectors from the target pixel is performed. In FIG. 8A, the pixel of interest PE
, Four neighboring pixels E1 to E4 existing at positions shifted by the vectors V1 to V4, respectively, are shown. Here, the vectors obtained in step SP20 described above are used as the vectors V1 to V4. Therefore, when it is assumed that the pixel of interest PE exists at the position of the predetermined halftone dot D0, the four pixels existing at the respective positions of the adjacent halftone dots D1 to D4 become four neighboring pixels E1.
To E4.
【0050】つぎに、ステップSP34において、
(2)注目画素PEと4つの近傍画素E1〜E4のそれ
ぞれとの差分の絶対値を求める処理が行われる。具体的
には、注目画素PEの画素値EVと近傍画素E1の画素
値EV1との差分の絶対値A1を求め、また、注目画素
PEの画素値EVと近傍画素E2の画素値EV2との差
分の絶対値を求める。同様に、注目画素PEの画素値E
Vと近傍画素E3の画素値EV3との差分の絶対値、お
よび注目画素PEの画素値EVと近傍画素E4の画素値
EV4との差分の絶対値を求める。Next, in step SP34,
(2) A process of calculating the absolute value of the difference between the target pixel PE and each of the four neighboring pixels E1 to E4 is performed. Specifically, the absolute value A1 of the difference between the pixel value EV of the pixel of interest PE and the pixel value EV1 of the neighboring pixel E1 is obtained, and the difference between the pixel value EV of the pixel of interest PE and the pixel value EV2 of the neighboring pixel E2 is obtained. Find the absolute value of. Similarly, the pixel value E of the pixel of interest PE
The absolute value of the difference between V and the pixel value EV3 of the neighboring pixel E3, and the absolute value of the difference between the pixel value EV of the target pixel PE and the pixel value EV4 of the neighboring pixel E4 are obtained.
【0051】そして、ステップSP35において、ステ
ップSP34において求められた4つの差分絶対値を加
算し、その加算結果RVを求める処理を行う。ここで
は、さらに、加算結果を4で割った値(すなわち平均
値)を新たな加算結果RVとして求めておき、この新た
な加算結果RVと閾値THとを比較する。図10は、こ
の加算結果RVを示す図である。なお、この図10は、
図9に対する処理結果を表しており、簡略化のため、ス
テップSP31が行われない場合を例示している。上述
したように、図10(a)は図9(a)についての処理
結果(すなわち網点画像領域SRに対する処理結果)を
示しており、図10(b)は、図9(b)についての処
理結果(すなわち文字領域CRに対する処理結果)を示
している。なお、上記のステップSP33〜SP35の
処理は、差分値加算処理部52によって行われる。Then, in step SP35, a process of adding the four absolute differences obtained in step SP34 and obtaining an addition result RV is performed. Here, a value obtained by dividing the addition result by 4 (that is, an average value) is obtained as a new addition result RV, and the new addition result RV is compared with the threshold value TH. FIG. 10 is a diagram showing the addition result RV. This FIG.
9 illustrates a processing result for FIG. 9, and illustrates a case where step SP31 is not performed for simplification. As described above, FIG. 10A shows the processing result of FIG. 9A (that is, the processing result for the halftone image region SR), and FIG. 10B shows the processing result of FIG. 9B. The processing result (that is, the processing result for the character area CR) is shown. Note that the processing in steps SP33 to SP35 is performed by the difference value addition processing unit 52.
【0052】次のステップSP36においては、この加
算結果RVを所定の閾値THと比較し、その大小関係に
基づいて二値化処理を行う。この二値化処理は、二値化
処理部53によって行われる。具体的には、加算結果R
Vが閾値TH以上の場合には注目画素PEの画素値を
「1」とし、加算結果RVが閾値THよりも小さい場合
には注目画素PEの画素値を「0」とすることにより注
目画素の画素値を二値化することができる。図11は、
ステップSP36の処理結果を示す図であり、図9
(b)についての処理結果を示している。図11に示す
ように、閾値THを130に設定した場合を想定する
と、図10の「255」を有する画素の画素値のみが
「1」に変換され、それ以外の画素の画素値は「0」に
変換される。In the next step SP36, this addition result RV is compared with a predetermined threshold value TH, and a binarization process is performed based on the magnitude relation. This binarization processing is performed by the binarization processing unit 53. Specifically, the addition result R
When V is greater than or equal to the threshold value TH, the pixel value of the target pixel PE is set to “1”. When the addition result RV is smaller than the threshold value TH, the pixel value of the target pixel PE is set to “0”. Pixel values can be binarized. FIG.
FIG. 9 is a diagram showing a processing result of step SP36, and FIG.
The processing result regarding (b) is shown. As shown in FIG. 11, assuming that the threshold value TH is set to 130, only the pixel value of the pixel having “255” in FIG. 10 is converted to “1”, and the pixel values of the other pixels are set to “0”. Is converted to
【0053】なお、この所定の閾値THは、網点画像領
域SRが形成される際の網点化手法の種類(たとえば、
誤差拡散法であるか単純二値化法であるか)に応じて異
なる値を定めるようにしても良い。具体的には、網点化
手法の種類が判っている場合には、その種類に応じた閾
値THを設定することができる。たとえば、誤差拡散法
による網点画像領域SRに対する閾値THを80に設定
し、単純二値化法による網点画像領域SRに対する閾値
THを100に設定することができる。このように閾値
THを網点化手法の種類に応じた値として設定すること
により、この二値化処理をより適切に行うことができ
る。なお、網点化手法の種類に関する情報としては、網
点情報として操作者によって網点情報入力部20を用い
て入力された情報を用いることができる。It should be noted that the predetermined threshold value TH is determined by the type of halftoning method used when the halftone image region SR is formed (for example,
A different value may be determined according to the error diffusion method or the simple binarization method). Specifically, if the type of the halftoning method is known, the threshold value TH according to the type can be set. For example, the threshold value TH for the halftone dot image region SR by the error diffusion method can be set to 80, and the threshold value TH for the halftone dot image region SR by the simple binarization method can be set to 100. By setting the threshold value TH as a value corresponding to the type of halftoning method, the binarization process can be performed more appropriately. Note that, as the information on the type of the halftoning method, information input by the operator using the halftone information input unit 20 as halftone information can be used.
【0054】また、ここでは、加算結果を4で割った値
(すなわち平均値)を新たな加算結果RVとして求めて
おき、この新たな加算結果RVと閾値THとを比較して
いるが、差分絶対値の加算結果RVをそのまま閾値TH
と比較しても良い。その場合の閾値THは、平均化した
加算結果を用いる場合の閾値THの4倍の値を有するも
のとして定めればよい。Here, a value obtained by dividing the addition result by 4 (that is, an average value) is obtained as a new addition result RV, and the new addition result RV is compared with the threshold value TH. The addition result RV of the absolute value is directly used as the threshold value TH.
It may be compared with. The threshold value TH in this case may be determined as having a value four times the threshold value TH when using the averaged addition result.
【0055】このように、加算結果RVと閾値THとの
大小関係に基づいて、処理対象画像が二値化される。そ
して、二値化処理の結果、値「0」を有する部分は、網
点画像領域内の画素である可能性が高いものとして判定
され、値「1」を有する部分は、文字領域内の画素であ
る可能性が高いものとして判定される。As described above, the image to be processed is binarized based on the magnitude relationship between the addition result RV and the threshold value TH. Then, as a result of the binarization processing, the portion having the value “0” is determined to be highly likely to be a pixel in the halftone image region, and the portion having the value “1” is determined to be a pixel in the character region. Is determined to be highly likely.
【0056】この判定動作は、次のような原理に基づく
ものである。This determination operation is based on the following principle.
【0057】図15の上段に示すように、網点画像領域
SRにおいて、同程度の中間階調値を表現する網点が連
続する場合には、注目画素PEとその4つの近傍画素E
1〜E4とが互いにほぼ等しい画素値を有する。そのた
め、図15の下段に示すように、その差分絶対値は小さ
くなり(理想的には差分絶対値=0)、加算結果RVは
小さな値となる。したがって、値「0」を有する部分
は、網点画像領域内の画素である可能性が高い。なお、
図15の下段は、図10(a)の結果に対応する状態を
示している。As shown in the upper part of FIG. 15, in the halftone dot image area SR, when halftone dots expressing the same level of halftone value are continuous, the target pixel PE and its four neighboring pixels E
1 to E4 have substantially equal pixel values. Therefore, as shown in the lower part of FIG. 15, the absolute value of the difference becomes small (ideally, the absolute value of the difference = 0), and the addition result RV becomes a small value. Therefore, it is highly possible that the portion having the value “0” is a pixel in the halftone dot image area. In addition,
The lower part of FIG. 15 shows a state corresponding to the result of FIG.
【0058】一方、図16に示すように、文字領域CR
においては、画素値の分布が不均一であるため、注目画
素PEとその4つの近傍画素E1〜E4とはその画素値
が大きく異なることが多いので、その差分絶対値は大き
くなり加算結果RVは大きな値となる。したがって、値
「1」を有する部分は、文字領域内の画素である可能性
が高い。なお、図16の下段は、図10(b)の結果に
対応する状態を示している。また、図16においては、
白抜きの正方形領域は、黒色領域と白色領域との間の画
素値を有する領域を示している。On the other hand, as shown in FIG.
Since the pixel value distribution is not uniform, the pixel value of the pixel of interest PE and its four neighboring pixels E1 to E4 often differ greatly, so that the absolute value of the difference becomes large and the addition result RV becomes This is a large value. Therefore, the portion having the value “1” is likely to be a pixel in the character area. The lower part of FIG. 16 shows a state corresponding to the result of FIG. Also, in FIG.
The white square area indicates an area having a pixel value between the black area and the white area.
【0059】図16の下段および図10(b)には、1
画素ないし数画素(図10(b)では2画素)程度の幅
を有する細線が一方向に連続する場合について、ステッ
プSP33〜SP36の処理を適用した結果を示してい
る。これらの図に示されるように、差分絶対値は比較的
大きな値となって残ることになる。The lower part of FIG. 16 and FIG.
The results obtained by applying the processing of steps SP33 to SP36 when a thin line having a width of about one pixel or several pixels (two pixels in FIG. 10B) are continuous in one direction. As shown in these figures, the absolute difference value remains as a relatively large value.
【0060】このような原理に基づいて、値「0」を有
する画素は、網点画像領域内の画素であるとして判定
し、値「1」を有する部分は、文字領域内の画素である
として判定することができる。Based on such a principle, a pixel having a value “0” is determined to be a pixel in the halftone image area, and a portion having a value “1” is determined to be a pixel in the character area. Can be determined.
【0061】ここにおいて、隣接網点へと向かう4方向
の全ての近傍画素との差分絶対値を考慮しているので、
方向依存性に起因する誤判断を防止できる。言い換えれ
ば、4方向のうちの2方向のみを考慮する場合に比べ
て、正確な判定動作を実現することができる。Here, since the absolute values of the differences from all the neighboring pixels in the four directions toward the adjacent halftone dot are considered,
Misjudgment due to direction dependency can be prevented. In other words, an accurate determination operation can be realized as compared with a case where only two of the four directions are considered.
【0062】さらに、ステップSP37においては、上
記の判定結果に対するメディアンフィルタ処理が行われ
る。このメディアンフィルタは、所定の大きさ(たとえ
ば3×3画素)のサイズを有するフィルタであり、注目
画素およびその周辺画素を含む所定数(ここでは9つ)
の画素のうちの中央の値を注目画素の画素値とするフィ
ルタである。たとえば、3×3画素サイズのメディアン
フィルタを用いる場合には、注目画素およびその周辺画
素を含む9つの画素のうちの5番目の値を注目画素の画
素値とすることができる。このメディアンフィルタを作
用させることにより、閾値TH以上の画素値を有する画
素が、高階調値の画素を周辺に有することなく単独で存
在する場合(端的に言えば「飛び地」として存在してい
る場合)に、その画素の画素値を修正(より具体的には
ゼロに修正)することができる。このように、メディア
ンフィルタ処理を用いて判定結果を修正することによっ
て、「飛び地」の存在に起因するノイズを抑制すること
ができる。なお、図11の処理結果にこのメディアンフ
ィルタを施した場合は、図11と同一の結果となる。Further, in step SP37, a median filter process is performed on the above determination result. This median filter is a filter having a predetermined size (for example, 3 × 3 pixels), and has a predetermined number (here, nine) including a target pixel and its peripheral pixels.
Is a filter that uses the central value of the pixels of the pixel of interest as the pixel value of the pixel of interest. For example, when a median filter having a size of 3 × 3 pixels is used, the fifth value of the nine pixels including the target pixel and its surrounding pixels can be set as the pixel value of the target pixel. By applying this median filter, a pixel having a pixel value equal to or greater than the threshold value TH exists alone without having a pixel with a high gradation value in the periphery (in short, when the pixel exists as an “enclave”). ), The pixel value of the pixel can be corrected (more specifically, corrected to zero). As described above, by correcting the determination result using the median filter processing, it is possible to suppress noise due to the presence of the “enclave”. When the median filter is applied to the processing result of FIG. 11, the result is the same as that of FIG.
【0063】また、図12は、ステップSP37のメデ
ィアンフィルタ処理の他の一例を示す図であり、図12
(a)はステップSP36までの処理結果を示してお
り、図12(b)は、図12(a)の処理結果にメディ
アンフィルタ処理を施した結果を示している。この図1
2(b)を参照すると、図12(a)に存在していた
「飛び地」(この場合には、その周囲に同一画素値の画
素を3つ以下しか有していない画素を意味する)が消失
していることが判る。このように、ステップSP37の
処理の後に、ステップSP36の二値化処理を行うこと
によって、上記のような飛び地を解消することが可能で
ある。なお、このメディアンフィルタ処理は、メディア
ンフィルタ処理部54によって行われる。FIG. 12 is a diagram showing another example of the median filter processing in step SP37.
(A) shows the processing result up to step SP36, and FIG. 12 (b) shows the result of applying the median filter processing to the processing result of FIG. 12 (a). This figure 1
Referring to FIG. 2B, “enclave” existing in FIG. 12A (in this case, a pixel having only three or less pixels having the same pixel value around it) is shown. You can see that it has disappeared. As described above, by performing the binarization process of step SP36 after the process of step SP37, it is possible to eliminate the above-mentioned enclave. This median filter processing is performed by the median filter processing unit 54.
【0064】そして、次のステップSP38において
は、この判定結果である二値画像に対して、太らせ処理
(具体的には、文字領域として判定される部分を拡大す
る処理)を行う。たとえば、8×8画素、16×16画
素などのサイズを有する最大値選択フィルタを用いるこ
とができる。この最大値選択フィルタは、注目画素を含
む所定領域内の画素値のうちの最大値をその注目画素の
画素値とするフィルタである。これによって、画素値
「1」の領域を拡大させる(端的には太らせる)ことが
可能である。図13は、図11(ないし図12(b))
の結果に対して、8×8画素のサイズを有する最大値選
択フィルタを用いて、ステップSP38の太らせ処理を
施した結果を示している。図13に示すように、中央の
太線で囲まれた細線に相当する領域のみならずその周辺
領域の画素についても、その画素値が「1」になってい
る。すなわち、文字領域CRとして判定される領域が拡
大されるように、判定結果が修正されることになる。こ
のように、ステップSP38の太らせ処理を用いれば、
文字領域CRと網点画像領域SRとを分離するにあたっ
て、その境界領域(すなわち文字領域CRと網点画像領
域SRとの境界領域)において文字領域CRとしての判
定が優先される。したがって、後述のスクリーン線数変
更処理において、文字を鮮明に維持した上で網点画像領
域SRの線数を変換することが可能になる。なお、この
処理は、太らせ処理部55によって行われる。Then, in the next step SP38, a fattening process (specifically, a process for enlarging a portion determined as a character area) is performed on the binary image that is the result of this determination. For example, a maximum value selection filter having a size of 8 × 8 pixels, 16 × 16 pixels, or the like can be used. The maximum value selection filter is a filter that sets the maximum value of the pixel values in a predetermined area including the target pixel to the pixel value of the target pixel. As a result, it is possible to enlarge the area of the pixel value “1” (to make it thicker). FIG. 13 corresponds to FIG. 11 (or FIG. 12 (b)).
This shows the result of performing the fattening process in step SP38 on the result of the above using a maximum value selection filter having a size of 8 × 8 pixels. As shown in FIG. 13, the pixel value is “1” not only for the region corresponding to the thin line surrounded by the thick line in the center but also for the pixels in the peripheral region. That is, the determination result is corrected so that the area determined as the character area CR is enlarged. Thus, if the fattening process of step SP38 is used,
In separating the character region CR from the halftone image region SR, the determination as the character region CR is prioritized in the boundary region (that is, the boundary region between the character region CR and the halftone image region SR). Therefore, in the screen ruling changing process described later, it is possible to convert the ruling of the halftone dot image region SR while keeping the characters clear. This process is performed by the fattening processing unit 55.
【0065】以上のような処理によって、ステップSP
38までの処理を終えた画像がマスク画像として生成さ
れる。このマスク画像を用いることにより、各注目画素
が網点画像領域内の画素であるか文字領域内の画素であ
るかを判定することができる。すなわち、デジタル画像
内における網点画像領域と文字領域とを分離することが
可能である。By the processing as described above, step SP
An image after the processing up to 38 is generated as a mask image. By using this mask image, it is possible to determine whether each pixel of interest is a pixel in the halftone dot image area or a pixel in the character area. That is, it is possible to separate the halftone dot image area and the character area in the digital image.
【0066】次に、ステップSP40のスクリーン線数
変換処理について図7を参照しながら説明する。たとえ
ば、網点線数が150線である網点画像領域SRを別の
網点線数(ここでは106線)の網点画像へと再変換す
ることができる。Next, the screen ruling conversion processing in step SP40 will be described with reference to FIG. For example, a halftone dot image region SR having a halftone frequency of 150 lines can be re-converted into a halftone image having another halftone frequency (here, 106 lines).
【0067】そのため、まずステップSP41におい
て、平均化処理(ぼかし処理)を行う。具体的には、6
画素×6画素のサイズの単純平均化処理を行うぼかしフ
ィルタ(平均化フィルタ)などを用いることができる。For this purpose, first, in step SP41, an averaging process (blur process) is performed. Specifically, 6
A blur filter (averaging filter) that performs a simple averaging process with a size of pixels × 6 pixels can be used.
【0068】次のステップSP42においては、網点画
像領域SRとは異なる線数のスクリーンパターンを用い
て、再び網点化処理(再RIP)を行う。これにより、
再RIP画像QA(図2参照)を得ることができる。な
お、ステップSP41,SP42の処理は、ぼかし等処
理部61により行われる。In the next step SP42, a halftone process (re-RIP) is performed again using a screen pattern having a different number of lines from the halftone image region SR. This allows
A re-RIP image QA (see FIG. 2) can be obtained. The processing in steps SP41 and SP42 is performed by the blurring processing unit 61.
【0069】さらに、ステップSP43において、合成
処理を行う。具体的には、上記のステップSP30の処
理結果画像をマスク画像QM(図2参照)として用い
る。すなわち、マスク画像QMにおいて画素値が「0」
の画素については、ステップSP41,SP42で生成
された再RIP画像QAの対応画素を出力し、マスク画
像QMにおいて画素値が「1」の画素については、元の
画像QB(図2参照)の対応画素をそのまま出力する。Further, in step SP43, a synthesizing process is performed. Specifically, the processing result image of step SP30 is used as a mask image QM (see FIG. 2). That is, the pixel value is “0” in the mask image QM.
The corresponding pixel of the re-RIP image QA generated in steps SP41 and SP42 is output for the pixel of, and the pixel having a pixel value of "1" in the mask image QM corresponds to the original image QB (see FIG. 2). The pixel is output as it is.
【0070】すなわち、網点画像領域内の画素であると
判定された画素についてはステップSP41,SP42
の処理を施した結果を採用し、文字領域内の画素である
と判定された画素についてはステップSP41,SP4
2の処理を施さない結果を採用することによって、指定
領域DRにおける文字領域と網点画像領域とを分離した
上で、画像の劣化を抑制しつつスクリーン線数変換処理
を行うことができる。That is, steps SP41 and SP42 are performed for pixels determined to be pixels in the halftone dot image area.
Are applied, and the pixels determined to be pixels in the character area are determined in steps SP41 and SP4.
By adopting the result of not performing the processing of 2, the screen ruling conversion processing can be performed while separating the character area and the halftone image area in the designated area DR and suppressing the deterioration of the image.
【0071】なお、ここでは、指定領域DR内の全ての
画素について、ステップSP41,SP42の処理を行
う場合について説明したが、マスク画像QMの画素値が
「0」の画素のみについてステップSP41,SP42
の処理を行った上で、合成するようにしても良い。マス
ク画像QMにおいて画素値が「1」の画素については、
ステップSP41,SP42の処理を行わないので、効
率的に処理することができる。すなわち、処理の高速化
が可能である。Here, the case where the processing of steps SP41 and SP42 is performed for all the pixels in the designated area DR has been described. However, only the pixels of which the pixel value of the mask image QM is "0" are subjected to steps SP41 and SP42.
After performing the above processing, the images may be combined. For a pixel having a pixel value of “1” in the mask image QM,
Since the processing in steps SP41 and SP42 is not performed, the processing can be performed efficiently. That is, the processing can be speeded up.
【0072】図26は、図28の処理対象画像について
生成されたマスク画像QMの一例を表す図である。図2
6においては、黒色領域が画素値「1」を表しており、
文字に該当する領域およびその近傍領域に黒色領域が存
在している様子が示されている。言い換えれば、文字領
域CRが網点画像領域SRから的確に分離されているこ
とが判る。FIG. 26 is a diagram showing an example of a mask image QM generated for the processing target image of FIG. FIG.
In 6, the black area represents the pixel value “1”,
A state in which a black area exists in an area corresponding to a character and an area adjacent thereto is shown. In other words, it can be seen that the character area CR is accurately separated from the halftone image area SR.
【0073】また、図27は、図26のマスク画像QM
を用いて、ステップSP40のスクリーン線数変換処理
を行った結果を示す図であり、図30に対応する一部拡
大図である。このように、従来技術に見られた文字のぼ
けを解消して、文字を鮮明に出力することが可能であ
る。FIG. 27 shows the mask image QM of FIG.
FIG. 31 is a diagram showing a result of performing a screen ruling conversion process in step SP40 by using, and is a partially enlarged view corresponding to FIG. 30. In this way, it is possible to eliminate the blurring of the characters seen in the prior art and output the characters clearly.
【0074】<C.変形例等> <網点情報の自動抽出>上記においては、網点画像領域
SRの網点情報を操作者の入力によって得る場合につい
て説明した。しかしながら、上述したように、網点画像
領域SRに基づいてこの網点画像領域SRの網点情報を
自動的に抽出することも可能である。以下では、この自
動抽出動作について説明する。なお、この自動抽出動作
は、網点情報抽出部30によって行われる。<C. Modified Example><Automatic Extraction of Halftone Information> In the above description, the case has been described in which halftone information of the halftone image area SR is obtained by input from the operator. However, as described above, it is also possible to automatically extract the dot information of the dot image region SR based on the dot image region SR. Hereinafter, this automatic extraction operation will be described. This automatic extraction operation is performed by the dot information extraction unit 30.
【0075】また、領域指定部12を用いて指定された
領域が複数存在する場合には、それらの複数の指定領域
のそれぞれについて、網点情報を取得することが好まし
い。これにより、各指定領域に含まれる網点画像領域S
Rの網点情報が互いに異なっている場合にも、各網点画
像領域SRの網点情報を的確に抽出することができる。When there are a plurality of areas designated using the area designation section 12, it is preferable to obtain dot information for each of the plurality of designated areas. Thereby, the halftone image area S included in each designated area
Even when the dot information of R is different from each other, the dot information of each dot image region SR can be accurately extracted.
【0076】図17は、網点情報抽出処理の概要を表す
フローチャートであり、図18は、網点情報の抽出処理
に関する説明図である。FIG. 17 is a flowchart showing the outline of the dot information extraction processing, and FIG. 18 is an explanatory diagram relating to the dot information extraction processing.
【0077】図17に示すように、中間値領域抽出処理
(ステップSP21)、自己相関データ算出処理(ステ
ップSP22)、網点情報決定処理(ステップSP2
3)の各処理が行われる。As shown in FIG. 17, the intermediate value area extraction processing (step SP21), the autocorrelation data calculation processing (step SP22), and the dot information determination processing (step SP2)
Each process of 3) is performed.
【0078】まず、図17のステップSP21におい
て、中間値領域抽出処理が行われる。First, in step SP21 of FIG. 17, an intermediate value area extraction process is performed.
【0079】具体的には、この処理は、指定領域DR
(もしくは処理対象画像全体)に対する縮小平均処理を
用いて行う。たとえば、図18(a)に示すように、元
の画像の指定領域DR内の64画素×64画素の画素値
を加算して平均化することによって、変換後画像(言い
換えれば縮小画像)DSの1画素の画素値を一旦算出す
る。そして、図18(b)に示すように、この縮小画像
DSにおける画素のうちその画素値が中間的な値(たと
えば最大階調値の10%〜90%の階調値)となる画素
ESを選択し、その縮小画像DSにおける各選択画素E
Sに対応する各領域ERを元画像の指定領域DRから抽
出する処理を行う。Specifically, this processing is performed in the designated area DR
(Or the entire image to be processed) by using a reduced averaging process. For example, as shown in FIG. 18A, by adding and averaging the pixel values of 64 × 64 pixels in the designated area DR of the original image, the converted image (in other words, the reduced image) DS The pixel value of one pixel is calculated once. Then, as shown in FIG. 18B, a pixel ES whose pixel value is an intermediate value (for example, a gradation value of 10% to 90% of the maximum gradation value) among the pixels in the reduced image DS. Selected and each selected pixel E in the reduced image DS
A process of extracting each area ER corresponding to S from the designated area DR of the original image is performed.
【0080】ここにおいて、この指定領域DR内の黒塗
りのベタ領域や空白部分の変換後の画素値は非常に大き
な値もしくは非常に小さな値になる一方で、指定領域D
R内の文字領域部分や網点画像領域部分に対応する変換
後の画素ESの画素値は、中間的な値(中間値)とな
る。したがって、元画像の網点画像領域SRの部分は、
縮小画像において中間値を有する画素として表現され
る。ここでは、この性質を利用して、縮小画像DSにお
いて中間値を有する複数の画素のうち幾つかの画素ES
を抽出し、その各抽出画素ESに対応する元の画像の各
領域を中間値領域ERとして抽出するのである。すなわ
ち、これらの中間値領域ERは、網点画像領域SRの候
補として抽出される。Here, the converted pixel value of the solid black area or blank area in the designated area DR becomes a very large value or a very small value, while the designated area D
The pixel value of the converted pixel ES corresponding to the character area portion and the halftone image area portion in R is an intermediate value (intermediate value). Therefore, the portion of the halftone image region SR of the original image is
It is represented as a pixel having an intermediate value in the reduced image. Here, by utilizing this property, some pixels ES among a plurality of pixels having an intermediate value in the reduced image DS are used.
Is extracted, and each area of the original image corresponding to each extracted pixel ES is extracted as an intermediate value area ER. That is, these intermediate value areas ER are extracted as candidates for the dot image area SR.
【0081】つぎに、ステップSP22において、これ
らの各中間値領域ERに対して、以下に説明する自己相
関データの算出処理を行う。Next, in step SP22, a process of calculating autocorrelation data described below is performed on each of these intermediate value regions ER.
【0082】図19は、各中間値領域ER内の注目画素
(xc,yc)の自己相関データを求める手法について説明す
る図である。注目画素としては、たとえば中間値領域E
Rの中央に位置する画素を採用することができる。FIG. 19 shows a target pixel in each intermediate value area ER.
FIG. 9 is a diagram illustrating a method for obtaining autocorrelation data of (xc, yc). As the pixel of interest, for example, the intermediate value area E
A pixel located at the center of R can be employed.
【0083】この注目画素(xc,yc)についての周期性デ
ータは、処理対象画像における周期的な画像パターンの
繰り返しを調べることにより算出される。The periodic data for the pixel of interest (xc, yc) is calculated by examining the repetition of a periodic image pattern in the processing target image.
【0084】具体的には、まず、以下の数1によって注
目画素(xc,yc)の周辺領域の自己相関データS(a,b)を求
める。Specifically, first, the autocorrelation data S (a, b) of the peripheral area of the target pixel (xc, yc) is obtained by the following equation (1).
【0085】[0085]
【数1】 (Equation 1)
【0086】但し、ABS{}は絶対値を求める関数、
P(x,y)は処理前画像の画素(x,y)の階調値、m,nは差
分積算領域Eを決める定数、a,bは自己相関を比較す
るズラシ量、wx,wyは1つの中心画素(xc,yc)に対し
て自己相関特性を調べる範囲Wを決める定数である。Where ABS {} is a function for obtaining an absolute value,
P (x, y) is the gradation value of the pixel (x, y) of the image before processing, m and n are constants that determine the difference integration area E, a and b are shift amounts for comparing autocorrelation, and wx and wy are It is a constant that determines a range W for examining the autocorrelation characteristic for one central pixel (xc, yc).
【0087】(xc,yc)=(4,4)、m=n=1(差分積算領域:3
×3)、wx=xy=2(a=b=-2〜+2)とした場合において、a=b=
+2のときの自己相関データS(a,b)の算出形態を図19
に示す。(Xc, yc) = (4, 4), m = n = 1 (difference accumulation area: 3
× 3), wx = xy = 2 (a = b = -2 to +2), a = b =
The calculation form of the autocorrelation data S (a, b) at +2 is shown in FIG.
Shown in
【0088】なお、m,n,wx,wyは予め設定された
固定値として処理するようにしてもよいし、入力部6か
らオペレータによって適宜に変更可能に構成してもよ
い。Note that m, n, wx, and wy may be processed as fixed values set in advance, or may be configured to be appropriately changed by the operator from the input unit 6.
【0089】ところで、上記の数1では、自己相関デー
タを2次元的に求めているが、以下では簡単化のため、
1次元的な自己相関データを用いてその抽出原理を説明
する。In the above equation (1), the autocorrelation data is obtained two-dimensionally.
The extraction principle will be described using one-dimensional autocorrelation data.
【0090】具体的には、2次元の処理前画像内で互い
に直交する2つの画素列方向であるx方向、y方向それ
ぞれに沿った周期的な画像パターンの繰り返しの存在を
調べて周期画像領域を抽出する場合を想定して説明す
る。具体的には、x方向、y方向それぞれに沿った1次
元的な自己相関データH(a)、V(b)を以下の数2、数3
によって求める。More specifically, in the two-dimensional pre-processed image, the existence of a repetition of a periodic image pattern in each of two pixel row directions orthogonal to each other, that is, the x direction and the y direction, is examined to determine the periodic image area. The description will be made assuming a case of extracting Specifically, the one-dimensional autocorrelation data H (a) and V (b) along the x direction and the y direction are respectively expressed by the following equations (2) and (3).
Ask by.
【0091】[0091]
【数2】 (Equation 2)
【0092】[0092]
【数3】 (Equation 3)
【0093】(xc,yc)=(4,4)、m=1(差分積算領域:3×
1)、wx=2(a=-2〜+2)とした場合において、a=+2のとき
のx方向に沿った自己相関データH(a)の算出形態を図
20に、また、(xc,yc)=(4,4)、n=1(差分積算領域:1
×3)、wy=2(b=-2〜+2)とした場合において、b=+2のと
きのy方向に沿った自己相関データV(b)の算出形態を
図21にそれぞれ示す。(Xc, yc) = (4, 4), m = 1 (difference integration area: 3 ×
1), when wx = 2 (a = −2 to +2), the calculation form of the autocorrelation data H (a) along the x direction when a = + 2 is shown in FIG. xc, yc) = (4,4), n = 1 (difference integration area: 1
× 3), wy = 2 (b = −2 to +2), and FIG. 21 shows the calculation form of the autocorrelation data V (b) along the y direction when b = + 2.
【0094】つぎに、ステップSP23において、上記
で求めた自己相関データ(S(a,b)、または、H(a)、V
(b))に基づき、画像中における周期的な画像パターンの
繰り返しの有無を調べることにより、網点情報を決定す
る処理を行う。Next, in step SP23, the autocorrelation data (S (a, b) or H (a), V (
Based on (b)), a process of determining halftone dot information is performed by checking whether or not a periodic image pattern is repeated in the image.
【0095】網点画像において同程度の中間階調値を有
する部分のように、周期的な画像パターンの繰り返しが
存在する部分では、その画像パターンの周期ごとに自己
相関が高くなり、上記数1、数2、数3で求まる自己相
関データは規則的に小さくなる。従って、まず、(A)
自己相関データの極小値を検索し、(B)それら極小値
が所定レベル以下で、かつ、(C)それら極小値が規則
的に存在していることを調べる。なお、(C)の処理
は、注目画素に対する対称性を考慮する処理であるとも
いえる。In a portion where a periodic image pattern is repeated, such as a portion having the same intermediate gradation value in a halftone dot image, the autocorrelation increases in each cycle of the image pattern. , And the autocorrelation data obtained by the equations (3) become regularly smaller. Therefore, first, (A)
The minimum value of the autocorrelation data is searched, and it is checked that (B) those minimum values are equal to or lower than a predetermined level and (C) that these minimum values are regularly present. Note that the process (C) can be said to be a process in which symmetry with respect to the target pixel is considered.
【0096】以下では、自己相関データH(a)を用いて
その抽出原理を説明する。In the following, the principle of the extraction will be described using the autocorrelation data H (a).
【0097】図22は(xc,yc)=(7,3)、m=1、wx=5(a=-5
〜+5)とした場合のP(x,y)、H(a)の一例を示すデータ
とそのH(a)をグラフ化した図である。すなわち、同図
は注目画素(xc,yc)=(7,3)について、当該注目画素を含
む注目領域と当該注目領域以外の周辺領域との相関特性
を示すものである。なお、a=0は、同じ画素どうしの自
己相関であるので、H(0)=0となり極小値になる。FIG. 22 shows (xc, yc) = (7, 3), m = 1, wx = 5 (a = -5
FIG. 11 is a diagram showing data indicating an example of P (x, y) and H (a) when the value is set to +5) and a graph of the H (a). That is, FIG. 11 shows the correlation characteristics between the attention area including the attention pixel and the surrounding area other than the attention area for the attention pixel (xc, yc) = (7, 3). Since a = 0 is the autocorrelation between the same pixels, H (0) = 0, which is the minimum value.
【0098】自己相関データH(a)について、上記
(A)の処理は、〔(H(k-1)>H(k))and(H(k)<H(k+
1))〕の条件を満たすkを+側と−側とで求める。この条
件を満たすkについてのH(k)の値が極小値となる。For the autocorrelation data H (a), the process of (A) is performed as follows: [(H (k-1)> H (k)) and (H (k) <H (k +
1)) k that satisfies the condition of [+] is obtained on the + side and-side. The value of H (k) for k that satisfies this condition is the minimum value.
【0099】上記(B)の処理は、上記(A)の条件を
満たすH(k)、すなわち極小値となるH(k)が所定のしき
い値以下となるか否かで判定する。このしきい値は、予
め入力部6等によって複数が設定されており、例えば図
22においては、”SL1=7.5”が設定されている。そ
して、極小値となるH(k)がしきい値SL1以下となっ
ていれば、上記(B)の処理において、所定レベル以下
であると判定される。The process (B) determines whether H (k) that satisfies the condition (A), that is, H (k), which is the minimum value, is equal to or less than a predetermined threshold value. A plurality of the thresholds are set in advance by the input unit 6 or the like. For example, in FIG. 22, “SL1 = 7.5” is set. If the minimum value H (k) is equal to or less than the threshold value SL1, it is determined in the process (B) that the value is equal to or less than the predetermined level.
【0100】上記(C)の処理では、例えば、上記
(A)の条件を満たす+側のkをkp、−側のkをkmとした
とき(ABS{kp+km}≦1)を満たすか否かで規則性の有無
を判定する。H(a)に極小値が存在しても、ある程度大
きかったり(しきい値SL1を越えていたり)、それら極
小値が不規則に存在しているような場合は周期性が有る
とは言い難い。この処理においては、上記(B)により
レベル判定が行えるので、周期性の有無をより確実に判
定できる。また、上記(C)を用いて極小値の規則性を
判別することにより、周期性の有無をさらに確実に判定
できる。In the processing of (C), for example, if k on the + side and k on the − side satisfying the condition of (A) are kP and km on the − side, whether or not (ABS {kp + km} ≦ 1) is satisfied To determine the presence or absence of regularity. Even if there is a minimum value in H (a), it is hard to say that there is periodicity if the value is somewhat large (exceeds threshold value SL1) or if these minimum values are present irregularly. . In this processing, since the level determination can be performed by the above (B), the presence or absence of the periodicity can be determined more reliably. Further, by determining the regularity of the minimum value using the above (C), the presence or absence of the periodicity can be more reliably determined.
【0101】従って、上記(A)、(B)、(C)の条
件を全て満たす場合、注目画素(xc,yc)の周囲の範囲W
内の画像に周期的な画像パターンの繰り返しが存在する
ことになる。これに対して、図23に示すような自己相
関データH(a)には周期性が無く、周期的な画像パター
ンの繰り返しが存在しないこととなる。なお、文字領域
CRにおいては、通常、図23の状態になる。Therefore, when all of the above conditions (A), (B) and (C) are satisfied, the range W around the pixel of interest (xc, yc)
Will have a periodic image pattern repetition. On the other hand, the autocorrelation data H (a) as shown in FIG. 23 has no periodicity, and there is no periodic image pattern repetition. Note that, in the character area CR, the state shown in FIG.
【0102】上記では1次元的な処理について説明した
が、上記と同様の処理を2次元的に行うことが好まし
い。具体的には、1次元的な自己相関データH(a)の
代わりに2次元的な自己相関データS(a,b)を用いて同
様の処理を行うことにより、距離dX,dYを得ること
ができる。Although the one-dimensional processing has been described above, the same processing as described above is preferably performed two-dimensionally. Specifically, distances dX and dY are obtained by performing similar processing using two-dimensional autocorrelation data S (a, b) instead of one-dimensional autocorrelation data H (a). Can be.
【0103】具体的には、図24に示すように、上記条
件(A),(B),(C)を満たす極小値を有する画素
のうち、注目画素からの距離が最も小さな画素EMを求
める。そして、その画素EMの位置に応じた距離dX,
dYを求めればよい。この各距離dX,dYは、周期値
算出部33によって求められる。また、周期方向算出部
32は、画像パターンの繰り返しの方向である周期方向
θを(arctan(dY/dX))として算出することも可能で
ある。なお、精度をそれほど必要としない場合などに
は、条件(C)を満足しないものをも画素EMとして採
用しても良い。Specifically, as shown in FIG. 24, among the pixels having the minimum values satisfying the above conditions (A), (B) and (C), the pixel EM having the shortest distance from the target pixel is obtained. . Then, a distance dX according to the position of the pixel EM,
dY may be obtained. The distances dX and dY are obtained by the cycle value calculator 33. Further, the periodic direction calculation unit 32 can also calculate the periodic direction θ, which is the direction in which the image pattern is repeated, as (arctan (dY / dX)). In the case where precision is not so required, a pixel which does not satisfy the condition (C) may be adopted as the pixel EM.
【0104】以上のようにして、指定された複数の注目
画素(xc,yc)のそれぞれについて、距離dX,dYが周
期性データとして算出される。なお、上記の画素EM
は、注目画素に対して4つの方向に存在し得るが、この
ステップSP23においては、このうち1つの方向の画
素EMに関する距離dX,dYを求めるだけでも良い。
具体的には、各注目画素について、第1象限から第4象
限の4つの象限のうちの所定の1つの象限に存在する画
素の中から、画素EMを選択するようにすればよい。As described above, the distances dX and dY are calculated as the periodicity data for each of the plurality of designated target pixels (xc, yc). It should be noted that the above pixel EM
May exist in four directions with respect to the pixel of interest, but in this step SP23, the distances dX and dY with respect to the pixel EM in one direction may be obtained.
Specifically, for each pixel of interest, the pixel EM may be selected from pixels existing in a predetermined one of four quadrants from the first quadrant to the fourth quadrant.
【0105】さらに、このようにして得られた複数の注
目画素についての距離dX,dYを用いて、各距離d
X,dYの平均値を求める。そして、この平均値が、網
点画像領域SRに関する距離dX,dYに関する算出結
果として得られる。Further, using the distances dX and dY for a plurality of pixels of interest obtained in this manner, each distance d
An average value of X and dY is obtained. Then, the average value is obtained as a calculation result regarding the distances dX and dY regarding the dot image region SR.
【0106】ここで、(距離dX,距離dY)の組合せ
は、(網点線数,網点角度)の組合せとして表現される
ことも可能であり、これらの表現は互いに等価である。
すなわち、距離dX,距離dYを求めることは、網点情
報を求めことと等価である。以上のようにして、網点情
報決定処理が行われる。Here, the combination of (distance dX, distance dY) can be expressed as a combination of (dot frequency, halftone angle), and these expressions are equivalent to each other.
That is, obtaining the distances dX and dY is equivalent to obtaining dot information. As described above, the dot information determination processing is performed.
【0107】なお、4方向ベクトル算出部40は、この
距離dX,距離dYの情報を用いることによって、4方
向ベクトルV1〜V4を求めることができる。具体的に
は、たとえば、距離dX,dYに基づいて1つのベクト
ル(たとえばV1)を求めるとともに、そのベクトル
(V1)に対して90度ずつずらしたベクトルを他の3
つのベクトル(V2〜V4)として求めることができ
る。また、その他の動作は、上記実施形態と同様に行え
ばよい。The four-direction vector calculation unit 40 can obtain the four-direction vectors V1 to V4 by using the information of the distance dX and the distance dY. Specifically, for example, one vector (for example, V1) is obtained based on the distances dX and dY, and a vector shifted by 90 degrees with respect to the vector (V1) is used for the other three vectors.
And two vectors (V2 to V4). Other operations may be performed in the same manner as in the above embodiment.
【0108】<その他>上記の階調値(ないしは画素
値)の大小と画像の明暗(黒白)との関係は、階調値が
大きいほど画像が白くなる(言い換えれば階調値が小さ
いほど画像が黒くなる)ものとして規定される場合と、
階調値が大きいほど画像が黒くなる(言い換えれば階調
値が小さいほど画像が白くなる)ものとして規定される
場合とが存在する。本発明はいずれの場合にも適用する
ことが可能である。<Others> The relationship between the magnitude of the above-mentioned gradation value (or pixel value) and the brightness (black and white) of the image is such that the larger the gradation value, the whiter the image (in other words, the smaller the gradation value, Is blackened) and
There is a case where an image is defined as being blacker as the gradation value is larger (in other words, the image is whitener as the gradation value is smaller). The present invention can be applied to both cases.
【0109】また、上記実施形態においては、画像中に
複数の種類の網点情報を有する網点画像領域SRが混在
する場合に、網点情報を各指定領域DRごとに別個に求
める技術について例示した。しかしながら、本発明はこ
れに限定されず、網点情報を所定のブロック単位で抽出
することによっても、網点情報を的確に求めることが可
能である。Further, in the above embodiment, when a halftone image area SR having a plurality of types of halftone information is mixed in an image, a technique for separately obtaining halftone information for each designated area DR is exemplified. did. However, the present invention is not limited to this, and it is also possible to accurately obtain dot information by extracting dot information in units of predetermined blocks.
【0110】たとえば、図25に示すように、所定の区
分領域であるブロックBi(図25参照)ごとに網点情
報を抽出することができる。図25は、処理対象画像で
あるデジタル画像を複数のブロック(区分領域)Bi
(i=1,...,N;ただしNは区分数であり、ここで
はN=24)に区分した状態を表す図である。この図2
5においては、各ブロックBiは破線で区分された各領
域として示されている。For example, as shown in FIG. 25, dot information can be extracted for each block Bi (see FIG. 25) which is a predetermined divided area. FIG. 25 shows a case where a digital image as a processing target image is divided into a plurality of blocks (partition areas) Bi
(I = 1,..., N; where N is the number of sections, here N = 24). This figure 2
In FIG. 5, each block Bi is shown as each area divided by a broken line.
【0111】ここでは、1つのブロックBi内に最大1
個の網点画像領域SRが存在するように、処理対象画像
が区分されているものとする。このように区分されたブ
ロックBiごとに網点情報を抽出することにより、画像
中に複数の種類の網点情報を有する網点画像領域SRが
混在する場合であっても、各網点画像領域SRごとに異
なる網点情報を的確に求めることができる。Here, a maximum of one block Bi
It is assumed that the processing target image is partitioned such that there are halftone dot image regions SR. By extracting the halftone dot information for each of the divided blocks Bi in this way, even if the halftone image region SR having a plurality of types of halftone dot information is mixed in the image, each halftone dot image region SR Different dot information can be accurately obtained for each SR.
【0112】さらに、上記実施形態においては、コンピ
ュータにおいてソフト的に上記各機能を実現することに
より画像処理装置1を構成したが、これに限定されず、
ロジック回路などのハードウエアを用いて同様の処理を
実現する画像処理装置を構築するようにしても良い。Further, in the above embodiment, the image processing apparatus 1 is configured by realizing each of the above functions by software in a computer, but is not limited thereto.
An image processing device that realizes the same processing using hardware such as a logic circuit may be constructed.
【0113】[0113]
【発明の効果】以上のように、請求項1ないし請求項1
3に記載の発明によれば、網点情報に基づいて所定の網
点と4つの隣接網点のそれぞれとを結ぶ4つのベクトル
を求め、注目画素からその4つのベクトルのそれぞれに
相当するベクトル量だけ移動させた4つの近傍画素を選
択し、その4つの近傍画素と注目画素とを用いて、注目
画素が網点画像領域内の画素であるか文字領域内の画素
であるかについての判定することができるので、デジタ
ル画像内における網点画像領域と文字領域とを分離する
ことが可能である。As described above, claims 1 to 1 are described.
According to the invention described in (3), four vectors connecting a predetermined halftone dot and each of four adjacent halftone dots are obtained based on the halftone information, and a vector amount corresponding to each of the four vectors is obtained from the target pixel. Is selected, and using the four neighboring pixels and the pixel of interest, it is determined whether the pixel of interest is a pixel in the dot image area or a pixel in the character area. Therefore, it is possible to separate the halftone dot image area and the character area in the digital image.
【0114】特に、請求項3に記載の発明によれば、デ
ジタル画像に対する平滑化処理を行う手段をさらに備
え、判定手段は、平滑化処理が施された画像に対して判
定処理を行うので、ノイズを抑制することができる。In particular, according to the third aspect of the present invention, there is further provided a means for performing a smoothing process on the digital image, and the determining means performs the determining process on the image subjected to the smoothing process. Noise can be suppressed.
【0115】また、請求項4に記載の発明によれば、判
定手段は、注目画素およびその周辺画素を含む領域に対
するメディアンフィルタ処理を用いて、当該判定処理に
おける判定結果を修正するので、ノイズを抑制すること
ができる。According to the fourth aspect of the present invention, the judgment means corrects the judgment result in the judgment processing by using the median filter processing for the area including the target pixel and its surrounding pixels. Can be suppressed.
【0116】さらに、請求項5に記載の発明によれば、
判定手段は、文字領域として判定される領域を拡張する
太らせ処理を用いて判定結果を修正するので、文字領域
と網点画像領域との境界領域において文字領域としての
判定を優先することができる。したがって、たとえばス
クリーン線数変更処理をさらに行う場合においては、文
字を鮮明に維持した上で網点画像領域の線数を変換する
ことが可能になる。Further, according to the fifth aspect of the present invention,
Since the determination unit corrects the determination result by using a fattening process for expanding an area determined as a character area, the determination as a character area can be prioritized in a boundary area between the character area and the dot image area. . Therefore, for example, in the case where the screen ruling change processing is further performed, it is possible to convert the ruling of the halftone dot image area while keeping the characters clear.
【0117】また、請求項7に記載の発明によれば、網
点情報抽出手段によって抽出された情報を網点情報とし
て自動的に取得するので、操作性が高い。According to the seventh aspect of the present invention, the information extracted by the dot information extracting means is automatically obtained as the dot information, so that the operability is high.
【0118】さらに、請求項8に記載の発明によれば、
判定処理を行うべき領域を指定するので、処理対象領域
を限定することによる高速化を図ることができる。Further, according to the invention described in claim 8,
Since the area to be subjected to the determination processing is specified, the processing speed can be increased by limiting the processing target area.
【0119】さらに、請求項9に記載の発明によれば、
網点情報取得手段は、領域指定手段により指定された領
域ごとに網点情報を取得するので、的確に網点情報を取
得することができる。Further, according to the ninth aspect of the present invention,
Since the dot information obtaining means obtains the dot information for each area specified by the area specifying means, it is possible to obtain the dot information accurately.
【0120】また、請求項10に記載の発明によれば、
網点情報抽出手段は、網点情報を所定のブロック単位で
抽出するので、的確に網点情報を取得することができ
る。According to the tenth aspect of the present invention,
Since the dot information extracting means extracts the dot information in a predetermined block unit, the dot information can be accurately obtained.
【0121】さらに、請求項11に記載の発明によれ
ば、網点画像領域内の画素であると判定された画素につ
いてはぼかし処理および再網点化処理を施した結果を採
用し、文字領域内の画素であると判定された画素につい
てはぼかし処理および再網点化処理を施さない結果を採
用するので、網点画像領域と文字領域とを分離してスク
リーン線数変換処理を行うことが可能である。According to the eleventh aspect of the present invention, a result of performing a blurring process and a re-dotting process on a pixel determined to be a pixel in a halftone image region is adopted, and a character region is obtained. Since the result of not performing the blurring process and the re-dotting process is adopted for the pixel determined to be a pixel within, the screen frequency conversion process can be performed by separating the halftone image region and the character region. It is possible.
【図1】本発明の実施形態に係る画像処理装置1のハー
ドウエア構成を表す図である。FIG. 1 is a diagram illustrating a hardware configuration of an image processing apparatus 1 according to an embodiment of the present invention.
【図2】画像処理装置1の機能ブロック図である。FIG. 2 is a functional block diagram of the image processing apparatus 1.
【図3】画像処理装置1におけるスクリーン線数変換処
理の動作を示すフローチャートである。FIG. 3 is a flowchart illustrating an operation of a screen ruling conversion process in the image processing apparatus 1.
【図4】網点画像領域SR等を表す図である。FIG. 4 is a diagram illustrating a halftone image region SR and the like.
【図5】4方向ベクトルの算出原理を説明する図であ
る。FIG. 5 is a diagram illustrating the principle of calculating a four-direction vector.
【図6】ステップSP30の詳細動作を表すフローチャ
ートである。FIG. 6 is a flowchart showing a detailed operation of step SP30.
【図7】ステップSP40の詳細動作を示すフローチャ
ートである。FIG. 7 is a flowchart showing a detailed operation of step SP40.
【図8】元の画像の網点画像領域SRおよび文字領域C
Rを示す図である。FIG. 8 is a halftone image region SR and a character region C of an original image.
It is a figure showing R.
【図9】元の画像の各領域SR,CRの画素値を表す図
である。FIG. 9 is a diagram illustrating pixel values of respective regions SR and CR of an original image.
【図10】加算結果RVを示す図である。FIG. 10 is a diagram showing an addition result RV.
【図11】二値化処理の結果を示す図である。FIG. 11 is a diagram illustrating a result of a binarization process.
【図12】メディアンフィルタ処理結果の他の一例を示
す図である。FIG. 12 is a diagram showing another example of the median filter processing result.
【図13】太らせ処理の結果を示す図である。FIG. 13 is a diagram illustrating a result of a fattening process.
【図14】平滑化フィルタの一例を示す図である。FIG. 14 is a diagram illustrating an example of a smoothing filter.
【図15】網点画像領域SRに対する処理結果を示す概
念図である。FIG. 15 is a conceptual diagram showing a processing result for the halftone image region SR.
【図16】文字領域CRに対する処理結果を示す概念図
である。FIG. 16 is a conceptual diagram showing a processing result for a character area CR.
【図17】網点情報抽出処理の概要を表すフローチャー
トである。FIG. 17 is a flowchart illustrating an outline of a dot information extraction process.
【図18】網点情報抽出処理の説明図である。FIG. 18 is an explanatory diagram of halftone dot information extraction processing.
【図19】中間値領域内の注目画素(xc,yc)の自己相関
データを求める手法について説明する図である。FIG. 19 is a diagram illustrating a method of obtaining autocorrelation data of a target pixel (xc, yc) in an intermediate value area.
【図20】x方向に沿った自己相関データH(a)の算出
形態を示す図である。FIG. 20 is a diagram showing a calculation form of autocorrelation data H (a) along the x direction.
【図21】y方向に沿った自己相関データV(b)の算出
形態を示す図である。FIG. 21 is a diagram showing a calculation form of autocorrelation data V (b) along the y direction.
【図22】P(x,y)、H(a)の一例を示すデータとそのH
(a)をグラフ化した図である。FIG. 22 shows data indicating an example of P (x, y) and H (a), and H
It is the figure which plotted (a).
【図23】周期的な画像パターンの繰り返しが存在しな
い自己相関データH(a)の一例を示す図である。FIG. 23 is a diagram showing an example of autocorrelation data H (a) in which there is no periodic image pattern repetition.
【図24】周期方向θを示す図である。FIG. 24 is a diagram showing a periodic direction θ.
【図25】複数のブロックBiを示す図である。FIG. 25 is a diagram showing a plurality of blocks Bi.
【図26】図28の処理対象画像について生成されたマ
スク画像QMの一例を表す図である。26 is a diagram illustrating an example of a mask image QM generated for the processing target image of FIG. 28.
【図27】本発明を用いたスクリーン線数変換処理結果
の一例を示す図である。FIG. 27 is a diagram illustrating an example of a screen ruling conversion processing result using the present invention.
【図28】処理対象画像の一例を示す図である。FIG. 28 is a diagram illustrating an example of a processing target image.
【図29】図28の左上側の文字部分を拡大して示す図
である。FIG. 29 is an enlarged view of the upper left character portion of FIG. 28;
【図30】この処理対象画像に対して従来技術に係るス
クリーン線数変換処理を施した画像を示す図である。FIG. 30 is a diagram showing an image obtained by performing a screen ruling conversion process according to the related art on the processing target image.
1 画像処理装置 50 文字網点分離処理部 60 スクリーン線数変換処理部 Bi ブロック CR 文字領域 D0 網点 D1〜D4 各隣接網点 DR 指定領域 E1〜E4 近傍画素 PE 注目画素 QM マスク画像 SR 網点画像領域 V1〜V4 ベクトル Θ 網点角度 Reference Signs List 1 image processing device 50 character halftone separation processing unit 60 screen ruling conversion processing unit Bi block CR character area D0 halftone dot D1 to D4 each adjacent halftone dot DR designated area E1 to E4 neighboring pixel PE attention pixel QM mask image SR halftone dot Image area V1 to V4 Vector Θ Halftone angle
Claims (13)
あって、 網点情報を取得する網点情報取得手段と、 前記網点情報に基づいて、所定の網点と4つの隣接網点
のそれぞれとを結ぶ4つのベクトルを求める手段と、 注目画素から前記4つのベクトルのそれぞれに相当する
ベクトル量だけ移動させた4つの近傍画素を選択する手
段と、 前記注目画素と前記4つの近傍画素とを用いて、前記注
目画素が網点画像領域内の画素であるか文字領域内の画
素であるかについての判定処理を行う判定手段と、を備
えることを特徴とする画像処理装置。1. An image processing apparatus for processing a digital image, comprising: dot information obtaining means for obtaining dot information; and a predetermined halftone dot and four adjacent halftone dots based on the halftone information. Means for obtaining four vectors connecting the target pixel, means for selecting four neighboring pixels shifted by a vector amount corresponding to each of the four vectors from the pixel of interest, and means for selecting the pixel of interest and the four neighboring pixels A determination unit for determining whether the pixel of interest is a pixel in a halftone dot image area or a pixel in a character area.
て、 前記判定手段は、前記注目画素と前記4つの近傍画素の
それぞれとの差分の絶対値を加算した加算結果を求め、
前記加算結果と所定値との大小関係に基づいて前記判定
処理を行うことを特徴とする画像処理装置。2. The image processing apparatus according to claim 1, wherein the determination unit obtains an addition result obtained by adding an absolute value of a difference between the target pixel and each of the four neighboring pixels.
An image processing apparatus, wherein the determination process is performed based on a magnitude relationship between the addition result and a predetermined value.
理装置において、 前記デジタル画像に対する平滑化処理を行う手段、をさ
らに備え、 前記判定手段は、前記平滑化処理が施された画像につい
て前記判定処理を行うことを特徴とする画像処理装置。3. The image processing apparatus according to claim 1, further comprising: a unit configured to perform a smoothing process on the digital image, wherein the determination unit performs processing on the image that has been subjected to the smoothing process. An image processing apparatus for performing the determination processing.
載の画像処理装置において、 前記判定手段は、前記注目画素およびその周辺画素を含
む領域に対するメディアンフィルタ処理を用いて、当該
判定処理における判定結果を修正することを特徴とする
画像処理装置。4. The image processing apparatus according to claim 1, wherein the determination unit uses a median filter process on an area including the target pixel and its surrounding pixels to perform the determination process. An image processing device for correcting a determination result.
載の画像処理装置において、 前記判定手段は、文字領域として判定される領域を拡張
する太らせ処理を用いて、前記判定結果を修正すること
を特徴とする画像処理装置。5. The image processing apparatus according to claim 1, wherein the determination unit corrects the determination result by using a fattening process for expanding an area determined as a character area. An image processing apparatus comprising:
載の画像処理装置において、 前記網点情報取得手段は、前記網点情報を入力する網点
情報入力手段を有し、当該網点情報入力手段を用いて入
力された情報を前記網点情報として取得することを特徴
とする画像処理装置。6. The image processing apparatus according to claim 1, wherein said halftone dot information obtaining means has halftone dot information input means for inputting said halftone dot information, and An image processing apparatus, wherein information input using information input means is obtained as the halftone dot information.
載の画像処理装置において、 前記網点情報取得手段は、前記網点情報を前記デジタル
画像から抽出する網点情報抽出手段を有し、当該網点情
報抽出手段によって抽出された情報を前記網点情報とし
て取得することを特徴とする画像処理装置。7. The image processing apparatus according to claim 1, wherein the halftone dot information obtaining unit includes a halftone dot information extracting unit that extracts the halftone dot information from the digital image. An image processing apparatus for acquiring information extracted by the dot information extracting means as the dot information.
載の画像処理装置において、 前記判定処理を行うべき領域を指定する領域指定手段、
をさらに備えることを特徴とする画像処理装置。8. The image processing apparatus according to claim 1, wherein an area specifying unit that specifies an area in which the determination process is to be performed.
An image processing apparatus, further comprising:
て、 前記網点情報取得手段は、前記領域指定手段により指定
された領域ごとに前記網点情報を取得することを特徴と
する画像処理装置。9. An image processing apparatus according to claim 8, wherein said halftone dot information obtaining means obtains said halftone dot information for each area designated by said area designating means. .
記載の画像処理装置において、 前記網点情報抽出手段は、前記網点情報を所定のブロッ
ク単位で抽出することを特徴とする画像処理装置。10. The image processing apparatus according to claim 1, wherein said halftone dot information extracting means extracts said halftone dot information in a predetermined block unit. apparatus.
に記載の画像処理装置において、 前記網点画像領域内の画素であると判定された画素につ
いてはぼかし処理および再網点化処理を施した結果を採
用し、前記文字領域内の画素であると判定された画素に
ついてはぼかし処理および再網点化処理を施さない結果
を採用することを特徴とする画像処理装置。11. The image processing apparatus according to claim 1, wherein a pixel determined to be a pixel in the halftone image region is subjected to a blurring process and a re-dotting process. An image processing apparatus which adopts a result obtained by applying a blurring process and a re-dotting process to a pixel determined to be a pixel in the character area.
装置として機能させるためのプログラムを記録したコン
ピュータ読み取り可能な記録媒体。12. A computer-readable recording medium on which a program for causing a computer to function as the image processing apparatus according to claim 1 is recorded.
装置として機能させるためのプログラム。13. A program for causing a computer to function as the image processing device according to claim 1. Description:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001048687A JP3934353B2 (en) | 2001-02-23 | 2001-02-23 | Image processing apparatus, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001048687A JP3934353B2 (en) | 2001-02-23 | 2001-02-23 | Image processing apparatus, recording medium, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002252756A true JP2002252756A (en) | 2002-09-06 |
JP2002252756A5 JP2002252756A5 (en) | 2004-12-02 |
JP3934353B2 JP3934353B2 (en) | 2007-06-20 |
Family
ID=18909914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001048687A Expired - Fee Related JP3934353B2 (en) | 2001-02-23 | 2001-02-23 | Image processing apparatus, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3934353B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7312900B2 (en) | 2002-12-17 | 2007-12-25 | Dainippon Screen Mfg. Co., Ltd. | Method of descreening screened image, method of separating screened image into regions, image processing device, and program |
JP2011037037A (en) * | 2009-08-06 | 2011-02-24 | Canon Inc | Image recording apparatus and control method thereof |
-
2001
- 2001-02-23 JP JP2001048687A patent/JP3934353B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7312900B2 (en) | 2002-12-17 | 2007-12-25 | Dainippon Screen Mfg. Co., Ltd. | Method of descreening screened image, method of separating screened image into regions, image processing device, and program |
JP2011037037A (en) * | 2009-08-06 | 2011-02-24 | Canon Inc | Image recording apparatus and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP3934353B2 (en) | 2007-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7149355B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program | |
JP5768590B2 (en) | Image processing apparatus, image processing method, and program | |
JP6781406B2 (en) | Image processing equipment and computer programs | |
US7885486B2 (en) | Image processing system, method for processing image and computer readable medium | |
EP2782065B1 (en) | Image-processing device removing encircling lines for identifying sub-regions of image | |
JP2020197915A (en) | Image processing device, image processing method, and program | |
JP5300639B2 (en) | Image processing method, image processing apparatus, and program | |
US20100040304A1 (en) | Image quality improvement processing apparatus, image quality improvement processing method and computer-readable recording medium storing image quality improvement processing computer program | |
JP3438440B2 (en) | Image processing device | |
JP6957665B2 (en) | Image processing equipment, image processing methods and programs | |
JP2004199622A (en) | Apparatus and method for image processing, recording media, and program | |
JP6440305B2 (en) | Super-resolution apparatus and program | |
JP3934353B2 (en) | Image processing apparatus, recording medium, and program | |
JP2008263465A (en) | Image processing system and image processing program | |
JP6196517B2 (en) | Target image generation support apparatus, target image generation support method, and program | |
JP4257264B2 (en) | Pattern matching device, image quality verification method, and image quality verification program | |
JP4035696B2 (en) | Line segment detection apparatus and image processing apparatus | |
JPH11345331A (en) | Picture processing method and picture processor | |
JP4084719B2 (en) | Image processing apparatus, image forming apparatus including the image processing apparatus, image processing method, image processing program, and computer-readable recording medium | |
JP6159211B2 (en) | Target image generation support apparatus, target image generation support method, and program | |
JP6711031B2 (en) | Image processing apparatus, image processing method, image processing system and program | |
JP2001160903A (en) | Image correction method and device, and recording medium with program for executing its method recorded thereon | |
JP5934019B2 (en) | Gradation restoration device and program thereof | |
JP2006050481A (en) | Image processing apparatus, image processing method and program thereof | |
JP2009135564A (en) | Image processor, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070315 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100330 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100330 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120330 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120330 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130330 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130330 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130330 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140330 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |