JP2005109807A - Image processing method, image processor, image forming device and image processing system - Google Patents

Image processing method, image processor, image forming device and image processing system Download PDF

Info

Publication number
JP2005109807A
JP2005109807A JP2003339673A JP2003339673A JP2005109807A JP 2005109807 A JP2005109807 A JP 2005109807A JP 2003339673 A JP2003339673 A JP 2003339673A JP 2003339673 A JP2003339673 A JP 2003339673A JP 2005109807 A JP2005109807 A JP 2005109807A
Authority
JP
Japan
Prior art keywords
light
dark
image
data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003339673A
Other languages
Japanese (ja)
Inventor
Kazuyuki Miyaki
和行 宮木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2003339673A priority Critical patent/JP2005109807A/en
Publication of JP2005109807A publication Critical patent/JP2005109807A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method for precisely detecting a shading part, and to provide an image processor, an image forming device and an image processing system. <P>SOLUTION: In image data D1 (refer to diagram (a)) obtained by reading a double spread original, a histogram H1 (refer to diagram (b)) is obtained when concentration integrated values obtained by integrating a concentration value on a pixel data string for one line along a Y-axis direction are obtained for all X-coordinate values. Peaks H1a, H1b and H1c in the histogram H1 respectively correspond to a saddle stitch shading part D1a, a right end shading part D1b and a left end shading part D1c. When Fourier transformation is performed on the histogram H1, a spatial frequency distribution F1 (refer to diagram (c)) is obtained. Peaks F1a and F1b are extracted as strong peaks at a low spatial frequency. When inverse Fourier transformation is performed on the peaks, a histogram H2 (refer to diagram (d)) showing only a saddle stitch shading part, a right end shading part and a left end shading part is obtained. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、スキャナ等の読取装置により読み取った画像データを処理する技術に関する。   The present invention relates to a technique for processing image data read by a reading device such as a scanner.

書籍や雑誌などの中綴じされた原稿をコピーする場合には、複写機やスキャナ等の読取テーブル上に見開き状態で原稿面を下にして原稿をセットする必要がある。そして、原稿面を照光し、その反射光をCCD等の光センサにより検知することにより、原稿の画像データが取得される。   When copying a saddle-stitched original such as a book or a magazine, it is necessary to set the original with the original face down on a reading table such as a copying machine or a scanner. Then, the image surface of the original is obtained by illuminating the original surface and detecting the reflected light by an optical sensor such as a CCD.

この時、見開き状態で原稿をセットすると、中綴じ部分が読取テーブルから浮き上がった状態になるために、読み取った画像データには中綴じ部の近傍で陰影部が形成され、見栄えが損なわれるという問題があった。   At this time, if the document is set in a spread state, the saddle stitching portion is lifted from the reading table, so that a shaded portion is formed in the vicinity of the saddle stitching portion in the read image data, and the appearance is impaired. was there.

陰影部を除去する方法としては、文字や図形等と異なり中綴じ部は原稿の見開き方向と直交する方向に対して、原稿の全長に亘って線状に伸びていることに着目し、原稿の全長に亘って伸びている線を中綴じ部として検出し、その部分を中心として所定の範囲の画像を消去する(マスキング)というものが知られている(例えば、特許文献1参照。)。
特開平10−255024号公報
As a method of removing the shadow portion, focusing on the fact that the saddle stitching portion extends linearly over the entire length of the document with respect to the direction orthogonal to the spread direction of the document, unlike characters and figures. It is known that a line extending over the entire length is detected as a saddle stitch portion, and an image in a predetermined range is erased (masking) around that portion (see, for example, Patent Document 1).
JP-A-10-255024

しかし、上記方法では、中綴じ部の近傍にその中綴じ部と平行な比較的長い線が存在する場合には、この長い線を中綴じ部と検出することがあるために、長い線のような本来の画像の一部を間違って消去してしまうという問題があった。   However, in the above method, when a relatively long line parallel to the saddle stitching portion exists in the vicinity of the saddle stitching portion, this long line may be detected as the saddle stitching portion. There is a problem that a part of the original image is deleted by mistake.

本発明は、こうした問題に鑑みなされたものであり、精度良く陰影部を検出することができる画像処理方法、画像処理装置、画像形成装置及び画像処理システムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing method, an image processing apparatus, an image forming apparatus, and an image processing system capable of accurately detecting a shadow portion.

係る目的を達成するためになされた請求項1に記載の画像処理方法は、原稿上の画像を読み取ることで得られ、明暗を表す明暗パラメータを含む複数の画素データから構成され、該画素データに基づく画素が2次元に配列されることにより前記原稿画像に応じた画像を形成可能な画像データの中から、該明暗パラメータが該原稿画像の本来の明暗を反映していない明暗異常部を抽出するための画像処理方法であって、該画像データにおける予め設定された走査方向に配列された画素データ列のそれぞれについて前記明暗パラメータの値を積分した明暗積分値から、該走査方向に直交する直交走査方向の明暗積分値分布を求める明暗積分値分布処理ステップと、該明暗積分値分布処理ステップにより求められた明暗積分値分布の空間周波数解析を行う周波数解析ステップと、該周波数解析ステップにより行われた空間周波数解析の結果から、予め設定されている正常周波数領域よりも低い低周波数領域にある周波数成分の内、前記明暗異常部を抽出するために予め設定された周波数成分強度の条件に基づいて、処理対象となる周波数成分を抽出する周波数成分抽出ステップと、該周波数成分抽出ステップにより抽出された抽出周波数成分について、前記空間周波数解析に対する逆変換を行うことにより、該抽出周波数成分によって構成される画像データの前記直交走査方向の抽出明暗積分値分布を求める抽出明暗積分値分布処理ステップと、該抽出明暗積分値分布に基づいて、明暗異常部の有無を判定する明暗異常部判定ステップと、を有することを特徴とする。   The image processing method according to claim 1, which has been made to achieve such an object, includes a plurality of pixel data obtained by reading an image on a document and including light and dark parameters representing light and dark. From the image data that can form an image corresponding to the original image by arranging the pixels based on the two-dimensional arrangement, the light / dark abnormal portion in which the light / dark parameter does not reflect the original light / dark of the original image is extracted. An image processing method for performing orthogonal scanning orthogonal to the scanning direction from a light / dark integrated value obtained by integrating the values of the light / dark parameter for each of pixel data arrays arranged in a preset scanning direction in the image data Light / dark integral value distribution processing step for obtaining the light / dark integral value distribution in the direction, and spatial frequency analysis of the light / dark integral value distribution obtained by the light / dark integral value distribution processing step In order to extract the light and dark abnormal portion from the frequency analysis step to be performed and the frequency components in the low frequency region lower than the preset normal frequency region from the result of the spatial frequency analysis performed by the frequency analysis step A frequency component extraction step for extracting a frequency component to be processed based on a frequency component strength condition set in advance, and an inverse transform of the extracted frequency component extracted by the frequency component extraction step with respect to the spatial frequency analysis The extracted light / dark integral value distribution processing step for obtaining the extracted light / dark integral value distribution in the orthogonal scanning direction of the image data constituted by the extracted frequency components, and based on the extracted light / dark integral value distribution, And a light / dark abnormality portion determination step for determining the presence or absence of light.

このように構成された画像処理方法によれば、明暗異常部に相当する画素データは、空間周波数解析の結果において、正常周波数領域よりも低い低周波数領域にある周波数成分の、空間周波数解析に対する逆変換を行うことにより抽出することができるので、直交走査方向に沿って幅の広い画像を形成している部分が、明暗異常部の候補となる。つまり、画素データにおいて、走査方向に沿って長い線が存在する場合には、この長い線に相当する画素データに対して空間周波数解析を行うと、この長い線に相当する周波数成分の空間周波数は、上記低周波数領域にある周波数成分よりも十分高くなるので、明暗異常部として抽出されない。   According to the image processing method configured as described above, the pixel data corresponding to the light / dark abnormality portion is obtained by reversing the spatial component of the frequency component in the low frequency region lower than the normal frequency region in the spatial frequency analysis result. Since the image can be extracted by performing conversion, a portion forming a wide image along the orthogonal scanning direction is a candidate for a light / dark abnormal portion. That is, in the pixel data, when there is a long line along the scanning direction, when the spatial frequency analysis is performed on the pixel data corresponding to the long line, the spatial frequency of the frequency component corresponding to the long line is Since it becomes sufficiently higher than the frequency component in the low frequency region, it is not extracted as a light / dark abnormal part.

従って、明暗異常部の近傍に長い線が存在する場合でも、この長い線を明暗異常部であると誤って検出することなく、正しく明暗異常部を検出することができる。
また、正常周波数領域は、走査方向に沿った長い線が形成されている領域の画像データについての明暗積分値分布を空間周波数解析して得られる周波数成分が含まれるようにすればよいが、請求項2に記載のように、正常周波数領域は、文字や図形が形成されている領域の画像データについての明暗積分値分布を空間周波数解析して得られる周波数成分に基づいて設定されるようにしてもよい。
Therefore, even when a long line exists in the vicinity of the light / dark abnormal part, the light / dark abnormal part can be detected correctly without erroneously detecting the long line as the light / dark abnormal part.
The normal frequency region may include a frequency component obtained by performing spatial frequency analysis on the light-dark integrated value distribution of the image data in the region where the long line along the scanning direction is formed. As described in item 2, the normal frequency region is set based on a frequency component obtained by performing spatial frequency analysis on a light-dark integrated value distribution for image data in a region where characters and figures are formed. Also good.

このように構成された画像処理方法によれば、文字や図形が形成される部分に相当する周波数成分の空間周波数は、長い線に相当する周波数成分の空間周波数より低いので、正常周波数領域の空間周波数範囲が広くなる。   According to the image processing method configured as described above, since the spatial frequency of the frequency component corresponding to the portion where the character or figure is formed is lower than the spatial frequency of the frequency component corresponding to the long line, the space in the normal frequency region Wide frequency range.

このため、明暗異常部を判定するために使用する低周波数領域の空間周波数範囲は狭くなり、周波数成分抽出ステップにおいて、低周波数領域にある周波数成分の内、処理対象となる周波数成分を抽出するための処理負荷を低減することができる。   For this reason, the spatial frequency range of the low frequency region used for determining the light / dark abnormal part is narrowed, and in the frequency component extraction step, the frequency component to be processed is extracted from the frequency components in the low frequency region. The processing load can be reduced.

尚、見開き原稿を読み取った場合の中綴じ部分に相当する画素データを少なくとも明暗異常部として検出する場合には、中綴じ部分の線は、見開き原稿の見開き方向に対する直交方向に沿って、見開き原稿の一端から他端まで連続的に存在するので、見開き原稿を読み取った場合の画像データについて上記明暗積分値分布を求め、この明暗積分値分布の空間周波数解析を行うと、中綴じ部分に相当する周波数成分の強度が最も強くなることが多い。このため、請求項3に記載のように、前記周波数成分抽出ステップは、前記低周波数領域において最も強度の強い周波数成分を少なくとも抽出するようにするとよい。   When the pixel data corresponding to the saddle-stitched portion when the double-page spread document is read is detected as at least a light / dark abnormality portion, the line of the saddle-stitched portion extends along the direction orthogonal to the double-page spread direction. Therefore, if the above-mentioned light-dark integral value distribution is obtained for the image data when the spread original is read and the spatial frequency analysis of this light-dark integral value distribution is performed, it corresponds to the saddle stitch portion. The intensity of the frequency component is often the strongest. Therefore, as described in claim 3, the frequency component extracting step may extract at least a frequency component having the strongest intensity in the low frequency region.

また、見開き原稿を読み取った場合の中綴じ部分と両端部分に相当する画素データを少なくとも前記明暗異常部として検出する場合には、中綴じ部分と両端部分の線は、見開き原稿の見開き方向に対する直交方向に沿って、見開き原稿の一端から他端まで連続的に存在するので、見開き原稿を読み取った場合の画像データについて上記明暗積分値分布を求め、この明暗積分値分布の空間周波数解析を行うと、中綴じ部分と両端部分に相当する周波数成分が、強度の強い上位3つになることが多い。このため、請求項4に記載のように、前記周波数成分抽出ステップは、前記低周波数領域において、強度の強い上位3つの周波数成分を抽出するようにしてもよい。   In addition, when detecting pixel data corresponding to the saddle-stitched portion and both end portions when reading a double-page spread document as at least the light and dark abnormality portion, the lines of the saddle-stitched portion and both end portions are orthogonal to the spread direction of the spread original. Since the spread document exists continuously from one end to the other end of the spread document, the above-mentioned brightness integral value distribution is obtained for the image data when the spread document is read, and the spatial frequency analysis of the brightness integral value distribution is performed. In many cases, the frequency components corresponding to the saddle stitch portion and the both end portions are the top three strongest. For this reason, as described in claim 4, the frequency component extraction step may extract the top three frequency components having a strong intensity in the low frequency region.

また、請求項4に記載の画像処理方法において、両端部分の内の一端部分の明暗異常部の直交走査方向に沿った幅と、両端部分の内の他端部分の明暗異常部の直交走査方向に沿った幅とが異なる場合には、一端部分の明暗異常部に相当する周波数成分と他端部分の明暗異常部に相当する周波数成分の空間周波数は異なるが、一端部分と他端部分の明暗異常部の直交走査方向に沿った幅が同じ場合には、一端部分と他端部分の周波数成分は同じ空間周波数をもつので、強度の強い上位3つの周波数成分を抽出すると、中綴じ部分と両端部分以外の周波数成分を抽出することになる。このため、請求項5に記載のように、前記周波数成分抽出ステップは、強度の強い上位3つの周波数成分の内、予め設定された所定値以上の強度をもつ周波数成分を抽出するようにすることが望ましい。   Further, in the image processing method according to claim 4, the width along the orthogonal scanning direction of the light and dark abnormal part at one end part in the both end parts and the orthogonal scanning direction of the light and dark abnormal part at the other end part of the both end parts. However, the spatial frequency of the frequency component corresponding to the light and dark abnormal part at one end and the frequency component corresponding to the light and dark abnormal part at the other end are different, but the light and dark at one end and the other end are different. When the width of the abnormal part along the orthogonal scanning direction is the same, the frequency components at one end and the other end have the same spatial frequency. The frequency components other than the portion are extracted. Therefore, as described in claim 5, the frequency component extracting step extracts a frequency component having an intensity equal to or higher than a predetermined value from among the top three frequency components having a high intensity. Is desirable.

このように構成された画像処理方法によれば、中綴じ部分と両端部分以外の周波数成分の強度は、中綴じ部分と両端部分の周波数成分の強度より小さいので、一端部分と他端部分の明暗異常部の直交走査方向に沿った幅が同じ場合でも、中綴じ部分と両端部分以外の画素データを明暗異常部とすることを防ぐことができる。   According to the image processing method configured as described above, the intensity of the frequency components other than the saddle stitching portion and both end portions is smaller than the intensity of the frequency component of the saddle stitching portion and both end portions. Even when the width of the abnormal portion along the orthogonal scanning direction is the same, it is possible to prevent pixel data other than the saddle stitching portion and the both end portions from being a light and dark abnormal portion.

尚、中綴じ部分は、画像データの内の走査方向における中心部に位置することが多いので、請求項3に記載の画像処理方法においては、請求項6に記載のように、前記明暗異常部判定ステップは、前記抽出明暗積分値分布において、前記画像データの内、前記原稿画像の前記走査方向における中心部に相当する予め設定された所定範囲内にピークがあるか否かを判断し、該所定範囲内に該ピークがある場合には、該ピークに対応する画素データを前記明暗異常部データとするようにしてもよい。   The saddle stitching portion is often located at the center of the image data in the scanning direction. Therefore, in the image processing method according to claim 3, as described in claim 6, the light / dark abnormality portion. The determination step determines whether or not there is a peak in a predetermined range that corresponds to a central portion in the scanning direction of the document image in the image data in the extracted light / dark integral value distribution, If the peak is within a predetermined range, the pixel data corresponding to the peak may be used as the light / dark abnormal portion data.

このように構成された画像処理方法によれば、中綴じ部分の明暗異常部を特定することができる。
また、中綴じ部は両端部の中間部に位置することが多いので、請求項4または請求項5に記載の画像処理方法においては、請求項7に記載のように、前記明暗異常部判定ステップは、前記抽出明暗積分値分布において、前記原稿画像の両端部を示す両端部ピークを抽出して、該両端部ピークの位置に基づいて、その両端部ピークの中間部にピークがあるか否かを判断し、ある場合には該ピークを該中綴じ部ピークと判断し、該ピークに対応する画素データを前記明暗異常部データとするようにしてもよい。
According to the image processing method configured as described above, it is possible to identify the light / dark abnormal portion of the saddle stitch portion.
In addition, since the saddle stitching portion is often located at an intermediate portion between both end portions, in the image processing method according to claim 4 or 5, as described in claim 7, the light / dark abnormality portion determination step. In the extracted light-dark integrated value distribution, whether or not there is a peak in the middle of both end peaks based on the positions of the both end peaks extracted from both end peaks indicating both ends of the original image. In some cases, the peak may be determined as the saddle stitch portion peak, and the pixel data corresponding to the peak may be used as the light / dark abnormality portion data.

このように構成された画像処理方法によれば、中綴じ部分の明暗異常部を特定することができる。
また、請求項6または請求項7に記載の画像処理方法において、中綴じ部分が直交走査方向に沿って存在していない、つまり中綴じ部分が走査方向に沿って存在している場合には、明暗積分値分布において中綴じ部に対応するピークが存在しないため、明暗異常部を抽出することができない。このため、請求項8に記載のように、前記画像データを前記走査方向に対して90°回転させる画像データ回転ステップを有し、前記明暗異常部判定ステップにおいて、前記明暗異常部データを抽出しない場合には、前記画像データ回転ステップを実行した後に、前記明暗積分値分布処理ステップを再度実行するようにすることが望ましい。
According to the image processing method configured as described above, it is possible to identify the light / dark abnormal portion of the saddle stitch portion.
Further, in the image processing method according to claim 6 or 7, when the saddle stitch portion does not exist along the orthogonal scanning direction, that is, when the saddle stitch portion exists along the scan direction, Since there is no peak corresponding to the saddle stitch portion in the light / dark integrated value distribution, the light / dark abnormal portion cannot be extracted. For this reason, as described in claim 8, the image data rotation step of rotating the image data by 90 ° with respect to the scanning direction is included, and the light / dark abnormality portion determination step does not extract the light / dark abnormality portion data. In this case, it is desirable that the light / dark integral value distribution processing step is executed again after the image data rotation step is executed.

このように構成された画像処理方法によれば、原稿をセットする向きの違いにより中綴じ部分が走査方向に沿って存在している場合には、明暗異常部判定ステップにおいて明暗異常部データを抽出しないので、画像データ回転ステップにより、画像データが走査方向に対して90°回転する。これにより、中綴じ部分が直交走査方向に沿って存在するようになるので、明暗異常部を抽出することができる。   According to the image processing method configured as described above, when the saddle stitch portion exists along the scanning direction due to a difference in the orientation in which the document is set, the light / dark abnormal portion data is extracted in the light / dark abnormal portion determination step. Therefore, the image data rotation step rotates the image data by 90 ° with respect to the scanning direction. As a result, the saddle stitch portion is present along the orthogonal scanning direction, so that the light / dark abnormal portion can be extracted.

また、請求項1〜請求項8何れかに記載の画像処理方法においては、請求項9に記載のように、前記明暗異常部判定ステップにより抽出された明暗異常部データに対して、画像データ本来の明暗状態に近づくように補正を行う明暗異常部補正ステップを有するようにしてもよい。   Further, in the image processing method according to any one of claims 1 to 8, as described in claim 9, the original image data is compared with the light / dark abnormality portion data extracted by the light / dark abnormality portion determination step. There may be provided a light / dark abnormality portion correcting step for performing correction so as to approach the light / dark state.

このように構成された画像処理方法によれば、明暗異常部の近傍に長い線が存在する場合でも、明暗異常部判定ステップにおいて、この長い線を明暗異常部であると誤って検出することがないので、明暗異常部でない部分を補正することなく、明暗異常部に対して画像データ本来の明暗状態に近づくように補正を行うことができる。   According to the image processing method configured as described above, even when a long line exists in the vicinity of the light / dark abnormality portion, the long line is erroneously detected as the light / dark abnormality portion in the light / dark abnormality portion determination step. Therefore, it is possible to perform correction so that the light / dark abnormal portion approaches the original light / dark state of the image data without correcting the portion that is not the light / dark abnormal portion.

この場合、画像データ本来の明暗状態に近づくように補正を行うものとしては、例えば請求項10に記載のように、前記画像データの前記直交走査方向に配列された画素データ列のそれぞれについて、該画素データ列の前記直交走査方向に対する前記明暗パラメータ分布の前記空間周波数解析を行い、さらに、該空間周波数解析の結果から、前記周波数成分抽出ステップにより抽出された明暗異常部データに対応する周波数成分を除去し、該除去した空間周波数解析の結果について、該空間周波数解析に対する逆変換を行うものがある。   In this case, the correction is performed so as to approach the original light and dark state of the image data. For example, as described in claim 10, the pixel data array arranged in the orthogonal scanning direction of the image data The spatial frequency analysis of the brightness / darkness parameter distribution with respect to the orthogonal scanning direction of the pixel data string is performed, and a frequency component corresponding to the brightness / darkness abnormal portion data extracted by the frequency component extraction step is obtained from the result of the spatial frequency analysis. Some of them are removed, and the result of the removed spatial frequency analysis is subjected to inverse transformation with respect to the spatial frequency analysis.

このように構成された画像処理方法によれば、画素データ列の空間周波数解析の結果から、直交走査方向に沿って幅の広い画像を形成している部分に相当する周波数成分を除去するので、明暗異常部の中に長い線や文字が含まれている場合においても、長い線や文字を消去することなく、明暗異常部を除去することができる。   According to the image processing method configured as described above, the frequency component corresponding to the portion forming the wide image along the orthogonal scanning direction is removed from the result of the spatial frequency analysis of the pixel data string. Even when a long line or character is included in the light / dark abnormal part, the light / dark abnormal part can be removed without erasing the long line or character.

また、請求項9に記載の画像処理方法においては、請求項11に記載のように、前記明暗異常部データに対して、前記画像データの前記走査方向における全画素数の値で割った補正用明暗異常部データを求め、前記画像データの前記直交走査方向に配列された画素データ列のそれぞれについて、前記補正用明暗異常部データに基づいて前記明暗パラメータ補正するようにしてもよい。   In the image processing method according to claim 9, as described in claim 11, for correction, the light / dark abnormal portion data is divided by the value of the total number of pixels in the scanning direction of the image data. Brightness / darkness abnormal portion data may be obtained, and the lightness / darkness parameter correction may be performed on each pixel data array arranged in the orthogonal scanning direction of the image data based on the correction lightness / darkness abnormal portion data.

このように構成された画像処理方法によれば、空間周波数解析と、空間周波数解析に対する逆変換とを行う必要がなく、補正用明暗異常部データに基づいて明暗パラメータ補正すればよいので、処理負荷を低減することができる。   According to the image processing method configured in this way, it is not necessary to perform spatial frequency analysis and inverse transformation with respect to spatial frequency analysis, and it is only necessary to perform light and dark parameter correction based on the correction light and dark abnormal part data. Can be reduced.

尚、請求項11に記載において、前記補正用明暗異常部データに基づいて前記明暗パラメータ補正するとは、具体的には、請求項12に記載のように、前記空間周波数解析結果における空間周波数が0である周波数成分の強度に基づいて、前記画像データにおける地肌部分が明るいと見做せるか否かを判断し、地肌部分が明るいと見做せると判断した場合には、前記画像データの前記直交走査方向に配列された画素データ列のそれぞれについて、前記補正用明暗異常部データを減算し、地肌部分が明るいと見做せないと判断した場合には、前記画像データの前記直交走査方向に配列された画素データ列のそれぞれについて、前記補正用明暗異常部データを加算することである。   In addition, in claim 11, specifically, the light / dark parameter correction based on the correction light / dark abnormal portion data means that, as described in claim 12, the spatial frequency in the spatial frequency analysis result is 0. Based on the intensity of the frequency component, it is determined whether or not the background portion in the image data can be considered bright. If it is determined that the background portion can be considered bright, the orthogonality of the image data is determined. For each of the pixel data rows arranged in the scanning direction, the correction light / dark abnormality portion data is subtracted, and if it is determined that the background portion is not bright, the image data is arranged in the orthogonal scanning direction. The correction light / dark abnormality portion data is added to each of the pixel data trains.

つまり、空間周波数解析結果における空間周波数が0である周波数成分の強度は地肌部分の明暗パラメータの値を反映しており、この強度により地肌部分の明暗を判断する。そして、地肌部分が明るいと見做せる場合には明暗異常部は地肌部分より暗い部分であると判断し、補正用明暗異常部データを減算することで本来の明暗状態に近づくように補正する。一方、地肌部分が明るくないと見做せる場合には、明暗異常部は地肌部分より明るい部分であると判断し、補正用明暗異常部データを加算することで本来の明暗状態に近づくように補正している。   That is, the intensity of the frequency component having a spatial frequency of 0 in the spatial frequency analysis result reflects the value of the brightness parameter of the background portion, and the brightness of the background portion is determined based on this strength. If the background portion is considered bright, it is determined that the light / dark abnormal portion is darker than the background portion, and correction is performed so as to approach the original light / dark state by subtracting the correction light / dark abnormal portion data. On the other hand, if the background part is not bright, it is determined that the light and dark abnormal part is brighter than the background part, and correction is made to approximate the original light and dark state by adding correction light and dark abnormal part data. doing.

また、請求項9〜請求項12何れかに記載の画像処理方法において、画像データが白黒画像データである場合には、請求項13に記載のように、前記明暗異常部補正ステップにより前記明暗異常部データに対する補正が行われた画像データにおける地肌部分が白色と見做せるか否かを判断し、地肌部分が白色と見做せると判断した場合には、地肌部分を構成する画素データの内、前記白黒画像データにおいて表現可能な最小濃度値に近い白色と見做せる第1所定値以下の濃度の画素データの濃度値を該最小濃度値に変換し、地肌部分が白色と見做せないと判断した場合には、地肌部分を構成する画素データの内、前記白黒画像データにおいて表現可能な最大濃度値に近い黒色と見做せる第2所定値以上の濃度の画素データの濃度値を該最大濃度値に変換する第1地肌変換ステップを有するようにしてもよい。   Furthermore, in the image processing method according to any one of claims 9 to 12, when the image data is monochrome image data, the light / dark abnormality is corrected by the light / dark abnormality portion correcting step as described in claim 13. It is determined whether or not the background portion of the image data that has been corrected for the partial data can be regarded as white, and if it is determined that the background portion can be considered as white, the pixel data constituting the background portion The density value of pixel data having a density equal to or lower than a first predetermined value that can be regarded as white that is close to the minimum density value that can be expressed in the black and white image data is converted to the minimum density value, and the background portion cannot be regarded as white. If it is determined that the density value of the pixel data having a density equal to or higher than a second predetermined value that can be regarded as black that is close to the maximum density value that can be expressed in the black and white image data among the pixel data constituting the background portion. Maximum darkness It may have a first background conversion step of converting the value.

このように構成された画像処理方法によれば、最小濃度値に近い白色と見做せる第1所定値以下の濃度の画素は最小濃度値の白色になり、最大濃度値に近い黒と見做せる第2所定値以上の濃度の画素は最大濃度値の黒色になる。即ち、地肌部分に最小濃度値から第1所定値までの濃度変化がある場合には最小濃度値の白色の地肌に統一され、地肌部分に第2所定値から最大濃度値までの濃度変化がある場合には最大濃度値の黒色の地肌に統一されるので、地肌部分に濃度変化がなく見やすい画像を構成する画像データを生成することができる。   According to the image processing method configured as described above, a pixel having a density equal to or lower than the first predetermined value that can be regarded as white close to the minimum density value is white as the minimum density value, and black is regarded as close to the maximum density value. A pixel having a density equal to or higher than the second predetermined value is black with the maximum density value. That is, when there is a density change from the minimum density value to the first predetermined value in the background portion, the white background surface is unified to the minimum density value, and there is a density change from the second predetermined value to the maximum density value in the background portion. In this case, since the black background of the maximum density value is unified, it is possible to generate image data constituting an easy-to-see image with no density change in the background.

また、請求項9〜請求項12何れかに記載の画像処理方法において、画像データがカラー画像データである場合には、請求項14に記載のように、前記明暗異常部補正ステップにより前記明暗異常部データに対する補正が行われた前記画像データにおける地肌部分の色相を検出し、地肌部分を構成する画素データの内、該検出色相に近い色相と見做せる所定範囲内の色相を有する画素データの色相を該検出色相に変換する第2地肌変換ステップを有するようにしてもよい。   Furthermore, in the image processing method according to any one of claims 9 to 12, when the image data is color image data, the light / dark abnormality is corrected by the light / dark abnormality portion correcting step as described in claim 14. The hue of the background portion in the image data corrected for the partial data is detected, and the pixel data having a hue within a predetermined range that can be regarded as a hue close to the detected hue among the pixel data constituting the background portion. A second background conversion step for converting the hue into the detected hue may be included.

このように構成された画像処理方法によれば、地肌部分を構成する画素の内、検出色相に近い色相と見做せる所定範囲内の色相を有する画素は検出色相になる。即ち、地肌部分に検出色相を中心とした所定範囲内の色相変化がある場合には検出色相に統一されるので、地肌部分に色相変化がなく見やすい画像を構成する画像データを生成することができる。   According to the image processing method configured as described above, a pixel having a hue within a predetermined range that can be regarded as a hue close to the detected hue among the pixels constituting the background portion becomes the detected hue. In other words, when there is a hue change within a predetermined range centered on the detected hue in the background portion, the detected hue is unified, so that it is possible to generate image data that constitutes an easy-to-view image with no hue change in the background portion. .

また、請求項9〜請求項12及び請求項14何れかに記載の画像処理方法において、画像データがカラー画像データである場合には、請求項15に記載のように、前記明暗異常部補正ステップにより前記明暗異常部データに対する補正が行われた前記画像データを、指定された表色形式に変換する形式変換ステップを有するようにしてもよい。   Further, in the image processing method according to any one of claims 9 to 12 and claim 14, when the image data is color image data, the light / dark abnormality portion correcting step as described in claim 15 is performed. The image data that has been corrected for the light / dark abnormal portion data may be converted into a specified color specification format.

このように構成された画像処理方法によれば、画像データの出力先に応じて指定した表色形式に画像データを変換するので、画像データの出力先において表色形式を変換する手間を省くことができる。   According to the image processing method configured as described above, since the image data is converted into the color specification format designated according to the output destination of the image data, it is possible to save the trouble of converting the color specification format at the output destination of the image data. Can do.

また、画像データが白黒画像データである場合には画素データの明暗は通常、濃度で表されるので、請求項1〜請求項13何れかに記載の画像処理方法において、画像データが白黒画像データである場合には、請求項16に記載のように、前記明暗パラメータは、濃度であることが望ましい。   In addition, when the image data is monochrome image data, the brightness of the pixel data is usually expressed by density. Therefore, in the image processing method according to any one of claims 1 to 13, the image data is monochrome image data. In this case, as described in claim 16, it is desirable that the brightness parameter is a density.

このように構成された画像処理方法によれば、画素データの濃度を、当該画像処理方法が用いる明暗パラメータに変換する手間を省くことができる。
また、画像データがカラー画像データである場合には画素データの明暗は通常、明度で表されるので、請求項1〜請求項12及び請求項14〜請求項15の何れかに記載の画像処理方法において、画像データがカラー画像データである場合には、請求項17に記載のように、前記明暗パラメータは、明度であることが望ましい。
According to the image processing method configured as described above, it is possible to save the trouble of converting the density of pixel data into the light and dark parameters used by the image processing method.
In addition, when the image data is color image data, the brightness of the pixel data is usually represented by brightness, and therefore the image processing according to any one of claims 1 to 12 and claims 14 to 15. In the method, when the image data is color image data, it is preferable that the brightness parameter is brightness as described in claim 17.

このように構成された画像処理方法によれば、画素データの明度を、当該画像処理方法が用いる明暗パラメータに変換する手間を省くことができる。
また、請求項18に記載の画像処理装置は、原稿上の画像を読み取ることで得られ、明暗を表す明暗パラメータを含む複数の画素データから構成され、該画素データに基づく画素が2次元に配列されることにより前記原稿画像に応じた画像を形成可能な画像データの中から、該明暗パラメータが該原稿画像の本来の明暗を反映していない明暗異常部を抽出するための画像処理装置であって、該画像データを記憶する記憶手段と、該画像データにおける予め設定された走査方向に配列された画素データ列のそれぞれについて前記明暗パラメータの値を積分した明暗積分値から、該走査方向に直交する直交走査方向の明暗積分値分布を求める明暗積分値分布処理手段と、該明暗積分値分布処理手段により求められた明暗積分値分布の空間周波数解析を行う周波数解析手段と、該周波数解析手段により行われた空間周波数解析の結果から、予め設定されている正常周波数領域よりも低い低周波数領域において、前記明暗異常部を抽出するために予め設定された強度条件に基づいて、処理対象となる周波数成分を抽出する周波数成分抽出手段と、該周波数成分抽出手段により抽出された抽出周波数成分について、前記空間周波数解析に対する逆変換を行うことにより、該抽出周波数成分によって構成される画像データの前記直交走査方向の抽出明暗積分値分布を求める抽出明暗積分値分布処理手段と、該抽出明暗積分値分布に基づいて、明暗異常部の有無を判定する明暗異常部判定手段と、を有することを特徴とする。
According to the image processing method configured as described above, it is possible to save the trouble of converting the brightness of the pixel data into the brightness parameter used by the image processing method.
An image processing apparatus according to claim 18 is obtained by reading an image on a document, and is composed of a plurality of pixel data including a light and dark parameter representing light and dark, and pixels based on the pixel data are arranged in a two-dimensional manner. Thus, an image processing apparatus for extracting from the image data that can form an image according to the original image, an abnormal light / dark part in which the light / dark parameter does not reflect the original light / dark of the original image. From the light / dark integral value obtained by integrating the value of the light / dark parameter for each of the storage means for storing the image data and the pixel data array arranged in the preset scanning direction in the image data, A light / dark integral value distribution processing means for obtaining a light / dark integral value distribution in the orthogonal scanning direction, and a spatial frequency solution of the light / dark integral value distribution obtained by the light / dark integral value distribution processing means. And a frequency analysis means for performing the above-mentioned, and from the result of the spatial frequency analysis performed by the frequency analysis means, a preset is set in order to extract the light / dark abnormal part in a low frequency region lower than a preset normal frequency region. The frequency component extraction means for extracting the frequency component to be processed based on the intensity condition, and the extraction frequency component extracted by the frequency component extraction means by performing an inverse transform on the spatial frequency analysis, thereby extracting the frequency component Extracted light / dark integrated value distribution processing means for obtaining an extracted light / dark integrated value distribution in the orthogonal scanning direction of image data composed of frequency components, and determining whether there is a light / dark abnormal portion based on the extracted light / dark integrated value distribution Part determining means.

このように構成された画像処理装置は、請求項1に記載の画像処理方法を実現するものであり、請求項1に記載の画像処理方法と同様の効果を得ることができる。
また、請求項18に記載の画像処理装置において、記憶手段が画像データの全体を記憶可能な容量を有していない場合には、原稿上の画像の一部を読み取り、読み取った画像データを記憶手段に記憶した後に、記憶した画像データについて明暗積分値分布を求めて、その後、再び、原稿上の画像の残りの部分を読み取り、読み取った画像データを記憶手段に記憶した後に、記憶した画像データについて明暗積分値分布を求めるというように、原稿上の画像を少しずつ読み取って、順次、明暗積分値分布を求めるようにしてもよいが、原稿を読み取る処理と明暗積分値分布を求める処理を繰り返すことになるので処理が煩雑になる。このため、請求項19に記載のように、前記記憶手段は、前記画像データの全体を記憶可能な容量を有することが望ましい。
The image processing apparatus configured as described above realizes the image processing method according to claim 1, and can obtain the same effects as the image processing method according to claim 1.
In the image processing apparatus according to claim 18, when the storage means does not have a capacity capable of storing the entire image data, a part of the image on the original is read and the read image data is stored. After storing in the means, the light-dark integrated value distribution is obtained for the stored image data, and then the remaining portion of the image on the original is read again, and the read image data is stored in the storage means, and then the stored image data For example, it is possible to read the image on the document little by little and sequentially obtain the light / dark integral value distribution as in the case of obtaining the light / dark integral value distribution. Therefore, the process becomes complicated. Therefore, as described in claim 19, it is desirable that the storage means has a capacity capable of storing the entire image data.

このように構成された画像処理装置によれば、原稿上の画像の全体を読み取り、画像データの全体を記憶手段に記憶した後に、明暗積分値分布処理手段において画像データ全体の明暗積分値分布を求めることができるので、原稿を読み取る処理と明暗積分値分布を求める処理を繰り返すことがなく、原稿を読み取る処理と明暗積分値分布を求める処理を簡略化できる。   According to the image processing apparatus configured as described above, after reading the entire image on the document and storing the entire image data in the storage unit, the light / dark integral value distribution processing unit calculates the light / dark integral value distribution of the entire image data. Therefore, it is possible to simplify the process of reading the document and the process of obtaining the light / dark integral value distribution without repeating the process of reading the document and the process of obtaining the light / dark integral value distribution.

また、請求項20に記載の画像形成装置は、被記録媒体上に印刷された画像を読み取り、読み取った画像データに基づいて画像形成する画像形成装置であって、請求項18または請求項19に記載の画像処理装置を備えたことを特徴とする。   An image forming apparatus according to claim 20 is an image forming apparatus that reads an image printed on a recording medium and forms an image based on the read image data. The image processing apparatus described above is provided.

このように構成された画像形成装置によれば、請求項18に記載の画像処理装置と同様の効果を得ることができる。
また、請求項21に記載の画像処理システムは、請求項18または請求項19に記載の画像処理装置と、被記録媒体上に印刷された画像を読み取り、画像データを取得する読取手段と、画像データに基づいて画像形成する画像形成手段と、を備え、該読取手段により取得された画像データを該画像処理装置に送信可能に、該読取手段と該画像処理装置とが接続されるとともに、該画像処理装置が備える明暗異常部補正手段によって明暗異常部が補正された画像データを、該画像形成手段に送信可能に、該画像形成手段と該画像処理装置とが接続される、ことを特徴とする。
According to the image forming apparatus configured as described above, an effect similar to that of the image processing apparatus according to claim 18 can be obtained.
An image processing system according to a twenty-first aspect includes an image processing device according to the eighteenth or nineteenth aspect, a reading unit that reads an image printed on a recording medium and acquires image data, and an image An image forming means for forming an image based on the data, and the reading means and the image processing apparatus are connected to each other so that the image data acquired by the reading means can be transmitted to the image processing apparatus. The image forming unit and the image processing device are connected so that image data in which the light / dark abnormality portion is corrected by the light / dark abnormality portion correcting unit included in the image processing apparatus can be transmitted to the image forming unit. To do.

このように構成された画像処理システムによれば、請求項18に記載の画像処理装置と同様の効果を得ることができる。さらに、当該画像処理装置に接続可能な範囲で、読取手段および画像形成手段を、それぞれ異なる場所に配置でき、配置の自由度が向上する。   According to the image processing system configured as described above, an effect similar to that of the image processing device according to claim 18 can be obtained. Furthermore, the reading unit and the image forming unit can be arranged in different places within a range that can be connected to the image processing apparatus, and the degree of freedom of arrangement is improved.

(実施の形態1)
以下、画像処理装置を利用して構成された画像処理システムを本発明の実施の形態1として説明する。
(Embodiment 1)
Hereinafter, an image processing system configured using an image processing apparatus will be described as a first embodiment of the present invention.

まず、画像処理システム1の構成を図1に基づいて説明する。
画像処理システム1は、原稿を画像データとして読み取るスキャナ10、画像データに基づいて記録紙にカラー画像を形成するインクジェットプリンタ20及び画像データを処理する画像処理装置100から構成されている。
First, the configuration of the image processing system 1 will be described with reference to FIG.
The image processing system 1 includes a scanner 10 that reads a document as image data, an inkjet printer 20 that forms a color image on recording paper based on the image data, and an image processing apparatus 100 that processes the image data.

画像処理装置100は、図1に示すように、所定の処理プログラムに基づいて処理を実行するCPU102,記憶装置としてのハードディスク(以降、HDDとする)104,種々の制御プログラムが格納されたROM106,外部装置から入力したデータ等を格納するRAM108,スキャナ10から画像データを入力するとともにインクジェットプリンタ20に画像データを出力する入出力インターフェース(以降、入出力I/Fとする)110,利用者により操作可能な複数の操作キー112aおよび各種情報を表示する表示パネル112bからなるユーザインターフェース(以降、ユーザI/Fとする)112を備えており、周知のパーソナルコンピュータにより構成される。   As shown in FIG. 1, the image processing apparatus 100 includes a CPU 102 that executes processing based on a predetermined processing program, a hard disk (hereinafter referred to as HDD) 104 as a storage device, a ROM 106 that stores various control programs, A RAM 108 for storing data input from an external device, an input / output interface (hereinafter referred to as an input / output I / F) 110 for inputting image data from the scanner 10 and outputting image data to the inkjet printer 20, and a user operation A user interface (hereinafter referred to as a user I / F) 112 including a plurality of possible operation keys 112a and a display panel 112b for displaying various types of information is provided, and is configured by a known personal computer.

また、HDD104には、CPU102が画像処理を実行するための画像処理プログラム104aの記憶領域が確保されている。
また、RAM108は、後述する入力画像データD1の全体を記憶可能な容量を有している。
The HDD 104 has a storage area for an image processing program 104a for the CPU 102 to execute image processing.
The RAM 108 has a capacity capable of storing the entire input image data D1, which will be described later.

また、ユーザI/F112は、コピーを開始するための操作が操作キー112aにより行われた場合にはCPU102にコピー開始指令を出力する。さらに、スキャナ10で原稿を読み取る際に白黒またはカラー画像として読み込むための指定や、インクジェットプリンタ20へ出力する画像データを高画質にする高画質モードに設定するか否かの指定をするための操作を操作キー112aを介して行うことができる。   The user I / F 112 outputs a copy start command to the CPU 102 when an operation for starting copying is performed by the operation key 112a. Further, an operation for designating whether the scanner 10 reads a document as a black and white or color image, or designating whether to set a high image quality mode in which image data to be output to the ink jet printer 20 is set to a high image quality. Can be performed via the operation key 112a.

このように構成された画像処理装置100において、まず、CPU102は、スキャナ10から入力される画像データを取り込んで、RAM108へ格納する。その後にCPU102は、画像データをRAM108から読み込み、画像処理プログラム104aに基づいて画像処理する。そして、画像処理した画像データを入出力I/F110を介してインクジェットプリンタ20に出力する。   In the image processing apparatus 100 configured as described above, first, the CPU 102 captures image data input from the scanner 10 and stores it in the RAM 108. Thereafter, the CPU 102 reads image data from the RAM 108 and performs image processing based on the image processing program 104a. Then, the image data subjected to image processing is output to the inkjet printer 20 via the input / output I / F 110.

次に、本発明の画像処理の概要を図2に基づいて説明する。
図2(a)は、スキャナ10から読み取られた入力画像データD1を示している。入力画像データD1は、中綴じされた書籍等をスキャナ10の読取テーブル上に見開き状態でセットして、スキャナ10で読み取ることにより得られたものである。
Next, the outline of the image processing of the present invention will be described with reference to FIG.
FIG. 2A shows input image data D <b> 1 read from the scanner 10. The input image data D1 is obtained by setting a saddle-stitched book or the like on the reading table of the scanner 10 in a spread state and reading it with the scanner 10.

そして、入力画像データD1は、横方向(以降、X軸方向とも称す)にX_SIZE個、縦方向(以降、Y軸方向とも称す)にY_SIZE個の画素データが並んでいる(X_SIZE:入力データ横サイズ(ピクセル):Y_SIZE:入力データ縦サイズ(ピクセル))。即ち、X_SIZE個×Y_SIZE個の画素データP(X,Y)から構成されている。Xは画素の横方向の座標値、Yは縦方向の座標値であり、Xについては0,1,2,・・・・,(X_SIZE−1)、Yについては0,1,2,・・・・,(Y_SIZE−1)の値が付されている。なお、X_SIZE,Y_SIZEは、画像データにより異なる。また、画素データP(X,Y)は、0〜255の範囲で0が黒,255が白という情報を有しており、この情報はテーブルあるいは関数に基づき0〜100の範囲の濃度値に変換されている。通常0が最小濃度値で最も明るく、100が最大濃度値で最も暗い状態を示す。   In the input image data D1, X_SIZE pixel data is arranged in the horizontal direction (hereinafter also referred to as X-axis direction), and Y_SIZE pixel data is arranged in the vertical direction (hereinafter also referred to as Y-axis direction) (X_SIZE: input data horizontal). Size (pixel): Y_SIZE: Input data vertical size (pixel)). That is, it is composed of X_SIZE × Y_SIZE pixel data P (X, Y). X is the horizontal coordinate value of the pixel, Y is the vertical coordinate value, 0, 1, 2,..., (X_SIZE-1) for X, 0, 1, 2,. ..., the value of (Y_SIZE-1) is given. X_SIZE and Y_SIZE differ depending on the image data. Further, the pixel data P (X, Y) has information that 0 is black and 255 is white in the range of 0 to 255, and this information has density values in the range of 0 to 100 based on a table or function. It has been converted. Usually, 0 is the brightest at the minimum density value, and 100 is the darkest at the maximum density value.

入力画像データD1内には、その中央部にY軸方向に長い線として存在する中綴じ部D1d、中綴じ部D1dの近傍において周囲より暗くなっている中綴じ陰影部D1a、右端において周囲より暗くなっている右端陰影部D1b、左端において周囲より暗くなっている左端陰影部D1c及び複数の文字や図形が存在している。   In the input image data D1, a saddle stitch portion D1d that exists as a long line in the Y-axis direction at the center, a saddle stitch shadow portion D1a that is darker than the periphery in the vicinity of the saddle stitch portion D1d, and darker than the periphery at the right end There are a right end shadow portion D1b, a left end shadow portion D1c darker than the surroundings at the left end, and a plurality of characters and figures.

そして、入力画像データD1において、Y軸方向に沿う1ラインの画素データ列についての濃度値を積分した濃度積分値を0〜(X_SIZE−1)の全てのX座標値に対して求める。尚、1ラインの画素データ列についての濃度値を積分する方向は、予めY軸方向と設定されている。つまり、Y軸方向は本発明における走査方向、X軸方向は本発明における直交走査方向であり、走査方向はスキャナ10の読み取り方向とは関係なく書籍等の見開き原稿に対して設定されるもので、中綴じ部D1dと平行となる方向を走査方向と設定する必要がある。   Then, in the input image data D1, density integrated values obtained by integrating density values for one line of pixel data strings along the Y-axis direction are obtained for all X coordinate values from 0 to (X_SIZE-1). Note that the direction in which density values for one line of pixel data string are integrated is set in advance as the Y-axis direction. That is, the Y-axis direction is the scanning direction in the present invention, the X-axis direction is the orthogonal scanning direction in the present invention, and the scanning direction is set for a spread original such as a book regardless of the reading direction of the scanner 10. The direction parallel to the saddle stitch portion D1d needs to be set as the scanning direction.

また、図2(b)に示すヒストグラムH1は、横軸を画素データ列のX座標、縦軸を画素データ列の濃度積分値として示したものである。
このヒストグラムH1には、X=(X_SIZE/2)近傍にピークH1a,X=(X_SIZE−1)近傍にピークH1b,X=0近傍にピークH1cが存在し、ピークH1a,ピークH1b,ピークH1cはそれぞれ中綴じ陰影部D1a,右端陰影部D1b,左端陰影部D1cに対応している。
The histogram H1 shown in FIG. 2B shows the X coordinate of the pixel data string on the horizontal axis and the density integrated value of the pixel data string on the vertical axis.
In this histogram H1, there are a peak H1a in the vicinity of X = (X_SIZE / 2), a peak H1b in the vicinity of X = (X_SIZE-1), a peak H1c in the vicinity of X = 0, and a peak H1a, a peak H1b, and a peak H1c are These correspond to the saddle stitch shadow portion D1a, the right end shadow portion D1b, and the left end shadow portion D1c, respectively.

そして更に、ヒストグラムH1で表されるデータに対してフーリエ変換を行うと、図2(c)に示すような空間周波数分布F1で表されるデータが得られる。空間周波数分布F1におけるピークF1aはヒストグラムH1のピークH1aに、ピークF1bはピークH1bとピークH1cに対応している。つまり、ヒストグラムH1におけるピークH1aは立ち上がりがピークH1b,H1cよりも緩やかであるので、空間周波数分布F1においてピークF1aはピークF1bより低い空間周波数になる。また、ピークH1bとピークH1cの立ち上がりは略同じであるので同じ空間周波数をもつピークF1bとして現れている。   Further, when Fourier transform is performed on the data represented by the histogram H1, data represented by the spatial frequency distribution F1 as shown in FIG. 2C is obtained. The peak F1a in the spatial frequency distribution F1 corresponds to the peak H1a of the histogram H1, and the peak F1b corresponds to the peak H1b and the peak H1c. That is, the peak H1a in the histogram H1 rises more slowly than the peaks H1b and H1c, so that the peak F1a has a lower spatial frequency than the peak F1b in the spatial frequency distribution F1. Moreover, since the rise of the peak H1b and the peak H1c is substantially the same, it appears as a peak F1b having the same spatial frequency.

そして、文字が形成されている領域の画像データについての濃度積分値をフーリエ変換して得られる周波数成分より低い空間周波数(例えば1サイクル/mm以下)で強度の強いピークとして、ピークF1aとピークF1bを抽出し、この抽出したピークで表されるデータに対して逆フーリエ変換を行うと、図2(d)に示すような、中綴じ陰影部D1a,右端陰影部D1b,左端陰影部D1cのみの濃度積分値を示すヒストグラムH2で表されるデータが得られる。ところで、図2(a)と異なり、入力画像データD1において、中中綴じ部D1dがY軸方向と直交している場合には、中綴じ陰影部D1aに対応するピークH1aを抽出することができない。この場合には、中綴じ部D1dとY軸方向とを平行にするために、入力画像データD1を90°回転させる。これにより、Y軸方向が本発明における走査方向となる。   Then, the peak F1a and the peak F1b are strong peaks at a spatial frequency (for example, 1 cycle / mm or less) lower than the frequency component obtained by Fourier transforming the density integral value of the image data in the region where the characters are formed. When the inverse Fourier transform is performed on the data represented by the extracted peak, only the saddle stitched shadow portion D1a, the right end shadow portion D1b, and the left end shadow portion D1c as shown in FIG. Data represented by a histogram H2 indicating the density integrated value is obtained. Incidentally, unlike FIG. 2A, in the input image data D1, when the saddle stitch portion D1d is orthogonal to the Y-axis direction, the peak H1a corresponding to the saddle stitch shadow portion D1a cannot be extracted. . In this case, the input image data D1 is rotated by 90 ° in order to make the saddle stitch portion D1d and the Y-axis direction parallel to each other. Thereby, the Y-axis direction becomes the scanning direction in the present invention.

そして、ヒストグラムH2で表されるデータが得られた後、入力画像データD1のX軸方向に配列された画素データ列のそれぞれについて、以下に説明する処理を行う。
即ち、図2(a)に示される走査線SC1上の画素データ列を例にして説明すると、走査線SC1上で且つ中綴じ陰影部D1a近傍は図3(a)に示すように、「G」を表す文字D1e,「H」を表す文字D1f,「E」を表す文字D1g及び「F」を表す文字D1hが配置されており、この部分の走査線SC1上の画素について、横軸を画素データP(X,Y)のX座標、縦軸を濃度としたヒストグラムを作成すると、図3(b)に示すようなヒストグラムH3が作成される。
Then, after the data represented by the histogram H2 is obtained, the processing described below is performed for each of the pixel data strings arranged in the X-axis direction of the input image data D1.
That is, the pixel data string on the scanning line SC1 shown in FIG. 2A will be described as an example. As shown in FIG. 3A, the vicinity of the saddle stitched shadow portion D1a on the scanning line SC1 is “G , A character D1f representing “H”, a character D1g representing “E”, and a character D1h representing “F” are arranged, and the horizontal axis of the pixel on the scanning line SC1 of this portion is represented by a pixel When a histogram having the X coordinate of the data P (X, Y) and the density on the vertical axis is created, a histogram H3 as shown in FIG. 3B is created.

このヒストグラムH3において、ピークH3a,ピークH3d,ピークH3e,ピークH3f,ピークH3g,ピークH3hはそれぞれ中綴じ陰影部D1a,中綴じ部D1d,文字D1e,文字D1f,文字D1g,文字D1hに対応している。尚、図3(a)中では明確になっていないが、中綴じ部D1dは中綴じ部D1dの周囲から中央に向かうにつれて徐々に濃度が高くなっているために、中綴じ部D1dに対応したピークH3dは徐々に濃度が高くなる形状になっている。   In this histogram H3, peak H3a, peak H3d, peak H3e, peak H3f, peak H3g, and peak H3h correspond to the saddle stitched portion D1a, saddle stitch portion D1d, character D1e, character D1f, character D1g, and character D1h, respectively. Yes. Although not clearly shown in FIG. 3A, the density of the saddle stitching portion D1d gradually increases from the periphery of the saddle stitching portion D1d toward the center, and therefore corresponds to the saddle stitching portion D1d. The peak H3d has a shape in which the concentration gradually increases.

そして更に、ヒストグラムH3で表されるデータに対してフーリエ変換を行うと、図3(c)に示すような空間周波数分布F2で表されるデータが得られる。図3(c)におけて最も空間周波数が低いピークF2aはピークH3aに、2番目に空間周波数が低いピークF2bはピークH3dに、最も空間周波数が高いピークF2cはピークH3e,ピークH3f,ピークH3g及びピークH3hに対応している。   Further, when Fourier transform is performed on the data represented by the histogram H3, data represented by the spatial frequency distribution F2 as shown in FIG. 3C is obtained. In FIG. 3C, the peak F2a having the lowest spatial frequency is the peak H3a, the peak F2b having the second lowest spatial frequency is the peak H3d, and the peak F2c having the highest spatial frequency is the peak H3e, the peak H3f, and the peak H3g. And peak H3h.

つまり、ピークH3aはヒストグラムH3において最も立ち上がりが緩やかであるので、空間周波数分布F2においてピークF2aは最も低い空間周波数になる。さらに、ピークH3dは、ピークH3e,ピークH3f,ピークH3g及びピークH3hより立ち上がりが緩やかであるので、空間周波数分布F2においてピークF2bは2番目に低い空間周波数になる。そして、ピークH3e,ピークH3f,ピークH3g及びピークH3hの立ち上がりは略同じであるので同じ空間周波数をもつピークF2cとして現れている。   That is, since the peak H3a has the slowest rise in the histogram H3, the peak F2a has the lowest spatial frequency in the spatial frequency distribution F2. Furthermore, since the peak H3d rises more slowly than the peaks H3e, H3f, H3g, and H3h, the peak F2b has the second lowest spatial frequency in the spatial frequency distribution F2. The rises of the peak H3e, the peak H3f, the peak H3g, and the peak H3h are substantially the same, and thus appear as a peak F2c having the same spatial frequency.

そして、空間周波数分布F2のピークF2aの空間周波数は空間周波数分布F1のピークF1aの空間周波数と一致するため、空間周波数分布F2で表されるデータにおいて、空間周波数分布F1で抽出したものと同じ空間周波数成分のデータを除去すると、ピークF2aに対応したデータが除去される。   Since the spatial frequency of the peak F2a of the spatial frequency distribution F2 matches the spatial frequency of the peak F1a of the spatial frequency distribution F1, in the data represented by the spatial frequency distribution F2, the same space as that extracted by the spatial frequency distribution F1 is used. When the frequency component data is removed, the data corresponding to the peak F2a is removed.

さらに、ピークF2aが除去された空間周波数分布F2で表されるデータに対して逆フーリエ変換を行うと、図3(d)に示すように、ヒストグラムH3に対してピークH3aが除去されたヒストグラムH4で表されるデータが得られる。   Further, when inverse Fourier transform is performed on the data represented by the spatial frequency distribution F2 from which the peak F2a has been removed, as shown in FIG. 3D, the histogram H4 from which the peak H3a has been removed from the histogram H3. Is obtained.

そして、X軸方向に配列された全ての画素データ列について上述の処理を行うと、図3(e)に示すように、陰影部D1aが除去された入力画像データD1が得られる。
次に、図5を用いて、画像処理装置100のCPU102が実行する画像処理について説明する。図5は、画像処理を表すフローチャートである。尚、以下の説明において、上述の概要で説明した語句と同一の語句は、概要における語句と同一の意味で用いるものとする。
Then, when the above-described processing is performed on all the pixel data strings arranged in the X-axis direction, input image data D1 from which the shaded portion D1a has been removed is obtained as shown in FIG.
Next, image processing executed by the CPU 102 of the image processing apparatus 100 will be described with reference to FIG. FIG. 5 is a flowchart showing image processing. In the following description, the same words and phrases as described in the above outline are used in the same meaning as the words in the outline.

この画像処理を実行すると、CPU102は、まずS10にて、操作キー112aを介してコピー開始指令が入力されたか否かを判断する。ここで、コピー開始指令が入力されたと判断すると(S10:YES)、S20に処理を移す。一方、コピー開始指令が入力されていないと判断すると(S10:NO)、S10の処理を繰り返す。   When this image processing is executed, the CPU 102 first determines whether or not a copy start command is input via the operation key 112a in S10. If it is determined that a copy start command has been input (S10: YES), the process proceeds to S20. On the other hand, if it is determined that the copy start command has not been input (S10: NO), the process of S10 is repeated.

また、処理がS20に移ると、コピー開始指令が入力される前にスキャナ10に予めセットされた原稿をスキャナ10で読み取り、入力画像データD1(図2(a)参照)を生成する。そして、S30にて、RAM108内に設けられた陰影部・てかり部検出フラグをクリアする。なお、以下の説明において、フラグをセットするとは、そのフラグの値を1にすることを示し、フラグをクリアするとは、そのフラグの値を0にすることを示している。さらに、S40にて、読み取った入力画像データD1をRAM108に記憶する。   When the process proceeds to S20, an original set in the scanner 10 is read by the scanner 10 before the copy start command is input, and input image data D1 (see FIG. 2A) is generated. In S30, the shadow / light detection flag provided in the RAM 108 is cleared. In the following description, setting a flag indicates that the value of the flag is 1, and clearing the flag indicates that the value of the flag is 0. Further, in S40, the read input image data D1 is stored in the RAM 108.

次に、S50にて、入力画像データD1が白黒画像であるか否かを判断する。ここでは、コピー開始指令が入力される前に原稿を白黒画像またはカラー画像として読み込むかの指定を操作キー112aを介して行っており、白黒画像として読み込む指定が行われている場合には白黒画像であると判断し(S50:YES)、S70に移行する。一方、カラー画像として読み込む指定が行われている場合には、白黒画像でないと判断し(S50:NO)、S60に移行する。   Next, in S50, it is determined whether or not the input image data D1 is a monochrome image. Here, before the copy start command is input, whether or not the original is read as a monochrome image or a color image is specified via the operation key 112a. (S50: YES), the process proceeds to S70. On the other hand, if it is designated to read as a color image, it is determined that the image is not a monochrome image (S50: NO), and the process proceeds to S60.

S60では、RAM108に記憶されたデータ入力画像D1を、周知のL*C*h表色形式に変換する。尚、Lは明度、Cは彩度、hは色相を表している。例えば、明度については、各画素データP(X,Y)が有する、それぞれ0〜255の256階調のR(レッド)・G(グリーン)・B(ブルー)で定義される3種の色成分に基づいて、テーブル或いは関数により0〜100の範囲の明度値に変換される。そして、S70に移行する。   In S60, the data input image D1 stored in the RAM 108 is converted into a well-known L * C * h color specification format. Note that L represents lightness, C represents saturation, and h represents hue. For example, regarding the lightness, three types of color components defined by R (red), G (green), and B (blue) of 256 gradations of 0 to 255, respectively, included in each pixel data P (X, Y). Is converted into a brightness value in the range of 0 to 100 by a table or function. Then, the process proceeds to S70.

S70では、データ入力画像D1が白黒画像である場合には、Y軸方向に沿う1ラインの画素データ列についての濃度値を積分した濃度積分値を0〜(X_SIZE−1)の全てのX座標の画素データ列に対して求める。ここで得られたデータは、図2(b)に示すヒストグラムH1で表される。一方、データ入力画像D1が白黒画像でない場合には、Y軸方向に沿う1ラインの画素データ列についての明度値を積分した明度積分値を0〜(X_SIZE−1)の全てのX座標の画素データ列に対して求める。ここで得られたデータは、図4(a)に示すように、横軸を画素データP(X,Y)のX座標、縦軸を明度積分値としたヒストグラムH1Lで表される。尚、明度は0〜100の範囲で値を有しており、濃度とは逆に、通常0は最も暗く、100は最も明るい状態を示す。即ち、ヒストグラムH1Lは、図2(b)で示されるヒストグラムH1に対して濃度積分値が反転したものとなる。   In S70, when the data input image D1 is a black and white image, density integrated values obtained by integrating density values for one line of pixel data strings along the Y-axis direction are set to all X coordinates of 0 to (X_SIZE-1). The pixel data string is obtained. The data obtained here is represented by a histogram H1 shown in FIG. On the other hand, if the data input image D1 is not a black and white image, all X coordinate pixels from 0 to (X_SIZE-1) are integrated with the brightness values obtained by integrating the brightness values of one line of pixel data along the Y-axis direction. Calculate for data columns. As shown in FIG. 4A, the data obtained here is represented by a histogram H1L in which the horizontal axis is the X coordinate of the pixel data P (X, Y) and the vertical axis is the brightness integrated value. The brightness has a value in the range of 0 to 100. In contrast to the density, 0 is usually the darkest and 100 is the brightest. That is, the histogram H1L is obtained by inverting the integrated density value with respect to the histogram H1 shown in FIG.

そして、S80にて、S70で得られたデータに対してフーリエ変換を行うことにより、図2(c)に示すような空間周波数分布で表されるデータを得る。尚、ヒストグラムH1とヒストグラムH1Lとは、ヒストグラムの縦軸の値が反転しているという違いがあるものの、X軸方向に対しての縦軸の値の変化の大きさは同じである。このため、ヒストグラムH1Lで表されるデータに対してフーリエ変換を行うと、図4(b)に示すように、空間周波数分布F1に対して空間周波数が0の成分である初項F1Lcが加わった空間周波数分布F1Lで表されるデータが得られる。   In S80, Fourier transform is performed on the data obtained in S70, thereby obtaining data represented by a spatial frequency distribution as shown in FIG. The histogram H1 and the histogram H1L have the same magnitude of change in the value of the vertical axis with respect to the X-axis direction, although there is a difference that the value of the vertical axis of the histogram is inverted. Therefore, when the Fourier transform is performed on the data represented by the histogram H1L, the first term F1Lc, which is a component having a spatial frequency of 0, is added to the spatial frequency distribution F1, as shown in FIG. 4B. Data represented by the spatial frequency distribution F1L is obtained.

次に、S90にて、S50と同様にして、入力画像データD1が白黒画像であるか否かを判断する。ここで、入力画像データD1が白黒画像であると判断すると(S90:YES)、S100に移行する。一方、入力画像データD1が白黒画像でないと判断すると(S90:NO)、S110に移行する。   Next, in S90, similarly to S50, it is determined whether or not the input image data D1 is a monochrome image. If it is determined that the input image data D1 is a monochrome image (S90: YES), the process proceeds to S100. On the other hand, if it is determined that the input image data D1 is not a monochrome image (S90: NO), the process proceeds to S110.

S100では、空間周波数分布F1における初項の強度が大きいか否かを判断する。この初項は、空間周波数分布F1において空間周波数が0の成分であり、データ入力画像D1の地肌の濃度に対応した成分である。つまり、地肌の濃度が高くなるほど初項の強度が大きくなる。尚、図2(a)では入力画像データD1の地肌の濃度値は0であるので、空間周波数分布F1の初項の値は0になっている。   In S100, it is determined whether or not the intensity of the first term in the spatial frequency distribution F1 is large. This first term is a component having a spatial frequency of 0 in the spatial frequency distribution F1, and corresponds to the background density of the data input image D1. That is, the strength of the first term increases as the background density increases. In FIG. 2A, since the background density value of the input image data D1 is 0, the value of the first term of the spatial frequency distribution F1 is 0.

そして、空間周波数分布F1の全空間周波数成分における強度を積分した値に対して、この初項の強度が例えば30%以上である場合には、初項の強度が大きいと判断し(S100:YES)、S130に移行する。一方、この初項の強度が例えば30%未満である場合には、初項の強度が小さいと判断し(S100:NO)、S120に移行する。つまり、初項の強度が30%以上の場合には地肌を黒色、30%未満の場合には地肌を白色と見做している。   Then, when the intensity of the first term is, for example, 30% or more with respect to the value obtained by integrating the intensities of all the spatial frequency components of the spatial frequency distribution F1, it is determined that the intensity of the first term is large (S100: YES). ), The process proceeds to S130. On the other hand, if the strength of the first term is less than 30%, for example, it is determined that the strength of the first term is small (S100: NO), and the process proceeds to S120. That is, when the strength of the first term is 30% or more, the background is considered black, and when it is less than 30%, the background is considered white.

また、S110では、空間周波数分布F1Lにおける初項の強度が小さいか否かを判断する。この初項は、データ入力画像D1の地肌の明度に対応した成分である。つまり、地肌の明度が高くなるほど初項の強度が大きくなる。   In S110, it is determined whether the intensity of the first term in the spatial frequency distribution F1L is small. This first term is a component corresponding to the lightness of the background of the data input image D1. That is, the intensity of the first term increases as the lightness of the background increases.

そして、空間周波数分布F1Lの全空間周波数成分における強度を積分した値に対して、この初項の強度が例えば70%未満である場合には、初項の強度が小さいと判断し(S110:YES)、S120に移行する。一方、この初項の強度が例えば70%以上である場合には、初項の強度が大きいと判断し(S110:NO)、S130に移行する。つまり、初項の強度が70%未満の場合には地肌が暗い、70%以上の場合には地肌を明るいと見做している。   Then, when the intensity of the first term is less than 70%, for example, with respect to the value obtained by integrating the intensities of all the spatial frequency components of the spatial frequency distribution F1L, it is determined that the intensity of the first term is small (S110: YES). ), The process proceeds to S120. On the other hand, if the strength of the first term is 70% or more, for example, it is determined that the strength of the first term is high (S110: NO), and the process proceeds to S130. That is, the background is dark when the intensity of the first term is less than 70%, and the background is bright when it is 70% or more.

そしてS120に移行した場合には、陰影部検出処理を行う。つまり、地肌を白色と見做した場合に陰影部検出処理を実行する。この陰影部検出処理は、図6に示す手順で実行される。図6は、陰影部検出処理を表すフローチャートである。   When the process proceeds to S120, a shadow part detection process is performed. That is, the shadow portion detection process is executed when the background is considered white. This shadow portion detection process is executed according to the procedure shown in FIG. FIG. 6 is a flowchart showing the shadow detection process.

この陰影部検出処理を実行すると、CPU102は、まずS310にて、S70で得られたデータで表される空間周波数分布において、例えば1サイクル/mm以下の空間周波数で、空間周波数分布の全空間周波数成分における強度の平均値をAVG,空間周波数分布における最大強度をMAXとすると、「[(MAX−AVG)/2}+AVG]」以上の強度を有する周波数成分があるか否かを判断する。つまり、空間周波数分布F1においてピークF1aとピークF1bのみを抽出し、或いは空間周波数分布F1LにおいてピークF1LaとピークF1Lbのみを抽出するための判断を行っている。   When this shadow portion detection process is executed, first, in S310, the CPU 102, in the spatial frequency distribution represented by the data obtained in S70, for example, with a spatial frequency of 1 cycle / mm or less, the total spatial frequency of the spatial frequency distribution. If the average value of the intensity in the component is AVG and the maximum intensity in the spatial frequency distribution is MAX, it is determined whether there is a frequency component having an intensity of “[(MAX−AVG) / 2} + AVG]” or more. That is, the determination is made to extract only the peak F1a and the peak F1b in the spatial frequency distribution F1, or to extract only the peak F1La and the peak F1Lb in the spatial frequency distribution F1L.

そして、1サイクル/mm以下の空間周波数で「[(MAX−AVG)/2}+AVG]」以上の強度を有する周波数成分があると判断すると(S310:YES)、S320に移行し、S310での条件を満たす周波数成分に対応するデータを抽出する。つまり、空間周波数分布F1においてピークF1aとピークF1bに対応するデータのみを抽出し、或いは空間周波数分布F1LにおいてピークF1LaとピークF1Lbに対応するデータのみを抽出する。   If it is determined that there is a frequency component having an intensity equal to or higher than “[(MAX−AVG) / 2} + AVG]” at a spatial frequency of 1 cycle / mm or less (S310: YES), the process proceeds to S320. Data corresponding to a frequency component that satisfies the condition is extracted. That is, only data corresponding to the peak F1a and the peak F1b in the spatial frequency distribution F1 is extracted, or only data corresponding to the peak F1La and the peak F1Lb is extracted in the spatial frequency distribution F1L.

そして、S330にて、S320で抽出したピークに対応するデータに対して逆フーリエ変換を行うことにより、図2(d)に示すような、中綴じ陰影部D1a,右端陰影部D1b,左端陰影部D1cのそれぞれに対応するピークH2a,H2b,H2cを有するヒストグラムH2で表されるデータが得られる。   Then, in S330, by performing inverse Fourier transform on the data corresponding to the peak extracted in S320, the saddle stitch shadow part D1a, the right end shadow part D1b, and the left end shadow part as shown in FIG. Data represented by a histogram H2 having peaks H2a, H2b, and H2c corresponding to each of D1c is obtained.

さらに、S340にて、ヒストグラムH2について、ピークH2a,H2b,H2cのそれぞれで強度が最も強くなっているX座標値であるピーク位置P2a,P2b,P2cを求める(図2(d)参照)。そして、(P2b+P2c)/2の値を中心とした所定範囲内(例えば、(P2b+P2c)/2±10mm)にピーク位置P2aがある否かを判断する。ここで、ピーク位置P2aの値が所定範囲内にあると判断すると(S340:YES)、S350に移行し、「陰影部あり」と判定し、当該陰影部検出処理を終了する。一方、ピーク位置P2aが所定範囲内にないと判断すると(S340:NO)、S360に移行し、「陰影部なし」と判定し、当該陰影部検出処理を終了する。   Further, in S340, peak positions P2a, P2b, and P2c, which are X coordinate values having the strongest intensity in each of the peaks H2a, H2b, and H2c, are obtained for the histogram H2 (see FIG. 2D). Then, it is determined whether or not the peak position P2a is within a predetermined range (for example, (P2b + P2c) / 2 ± 10 mm) centered on the value of (P2b + P2c) / 2. Here, when it is determined that the value of the peak position P2a is within the predetermined range (S340: YES), the process proceeds to S350, it is determined that “there is a shadow part”, and the shadow part detection process is ended. On the other hand, when it is determined that the peak position P2a is not within the predetermined range (S340: NO), the process proceeds to S360, where it is determined that “there is no shadow part”, and the shadow part detection process ends.

つまり、書籍などの中綴じ原稿では右端部の位置と左端部の位置との中間位置が中綴じ部になるために、ピークH2aがピークH2bとピークH2cから求められる中心位置の近傍にある場合には、ピークH2aは、中綴じ部に起因する陰影部であると判断している。同様に、中心位置の近傍にない場合には、中綴じ部に起因しない陰影部であると判断している。   That is, in the case of a saddle-stitched document such as a book, an intermediate position between the position of the right end portion and the position of the left end portion is a saddle stitch portion, so that the peak H2a is in the vicinity of the center position obtained from the peaks H2b and H2c. Has determined that the peak H2a is a shadow portion caused by the saddle stitching portion. Similarly, when it is not in the vicinity of the center position, it is determined that the shadow portion is not caused by the saddle stitch portion.

また、S310に戻り、1サイクル/mm以下の空間周波数で[(MAX−AVG)/2}+AVG]以上の強度を有する周波数成分がないと判断すると(S310:NO)、S360に移行し、「陰影部なし」と判定し、当該陰影部検出処理を終了する。   Returning to S310, if it is determined that there is no frequency component having an intensity of [(MAX−AVG) / 2} + AVG] at a spatial frequency of 1 cycle / mm or less (S310: NO), the process proceeds to S360. It is determined that there is no shadow part, and the shadow part detection process is terminated.

また図5に戻り、S130に移行した場合には、てかり部検出処理を行う。つまり、地肌を黒色と見做した場合にてかり部検出処理を実行する。このてかり部検出処理は、図7に示す手順で実行される。図7は、てかり部検出処理を表すフローチャートである。   Returning to FIG. 5, when the process proceeds to S <b> 130, the light detection unit detection process is performed. That is, the scale portion detection process is executed when the background is regarded as black. This lever part detection process is executed according to the procedure shown in FIG. FIG. 7 is a flowchart showing the light detection unit detection process.

「てかり」とは、地肌部分が暗い原稿を見開き状態でスキャナにセットすると、中綴じ部分が読取テーブルから浮き上がった状態になっているために、スキャナによる読み取り時に、この浮き上がった部分において地肌部の表面で反射が起こり地肌部が白くなることをいう。   “Tekari” means that when a document with a dark background is set in a scanner with the page facing apart, the saddle stitching part is lifted from the reading table. This means that reflection occurs on the surface of the skin and the background becomes white.

このてかり部検出処理を実行すると、CPU102は、まずS410にて、S310の処理と同様に、[(MAX−AVG)/2}+AVG]以上の強度を有する周波数成分があるか否かを判断する。   After executing this lever part detection process, the CPU 102 first determines in S410 whether or not there is a frequency component having an intensity of [(MAX−AVG) / 2} + AVG] or more, as in the process of S310. To do.

そして、例えば1サイクル/ミリメートル以下の空間周波数で[(MAX−AVG)/2}+AVG]以上の強度を有する周波数成分があると判断すると(S410:YES)、S420に移行し、S320の処理と同様にして、S410での条件を満たす周波数成分を抽出する。   For example, if it is determined that there is a frequency component having an intensity of [(MAX−AVG) / 2} + AVG] at a spatial frequency of 1 cycle / millimeter or less (S410: YES), the process proceeds to S420, and the process of S320 is performed. Similarly, frequency components satisfying the conditions in S410 are extracted.

そして、S430にて、S420で抽出したピークに対応するデータに対して逆フーリエ変換を行うことにより、図2(d)に示すような、中綴じ陰影部D1a,右端陰影部D1b,左端陰影部D1cのそれぞれに対応するピークH2a,H2b,H2cを有するヒストグラムH2で表されるデータが得られる。   Then, in S430, by performing inverse Fourier transform on the data corresponding to the peak extracted in S420, the saddle stitch shadow part D1a, the right end shadow part D1b, and the left end shadow part as shown in FIG. Data represented by a histogram H2 having peaks H2a, H2b, and H2c corresponding to each of D1c is obtained.

さらに、S440にて、S340の処理と同様にして、ヒストグラムH2について、ピークH2a,H2b,H2cのそれぞれで強度が最も強くなっているX座標値であるピーク位置P2a,P2b,P2cを求める(図2(d)参照)。そして、(P2b+P2c)/2の値を中心とした所定範囲内(例えば、(P2b+P2c)/2±10mm)にP2aが位置しているか否かを判断する。ここで、P2aの値が所定範囲内に位置している判断すると(S440:YES)、S350に移行し、「てかり部あり」と判定し、当該てかり部検出処理を終了する。一方、P2aの値が所定範囲内に位置していないと判断すると(S440:NO)、S460に移行し、「てかり部なし」と判定し、当該てかり部検出処理を終了する。   Further, in S440, as in the process of S340, peak positions P2a, P2b, and P2c, which are X coordinate values having the strongest intensity in each of the peaks H2a, H2b, and H2c, are obtained for the histogram H2 (FIG. 2 (d)). Then, it is determined whether or not P2a is located within a predetermined range (for example, (P2b + P2c) / 2 ± 10 mm) centered on the value of (P2b + P2c) / 2. Here, if it is determined that the value of P2a is located within the predetermined range (S440: YES), the process proceeds to S350, it is determined that “there is a lighted portion”, and the lighted portion detection process ends. On the other hand, if it is determined that the value of P2a is not located within the predetermined range (S440: NO), the process proceeds to S460, where it is determined that there is no “lighting portion”, and the lightening portion detection process is terminated.

また、S410に戻り、1サイクル/mm以下の空間周波数で[(MAX−AVG)/2}+AVG]以上の強度を有する周波数成分がないと判断すると(S410:NO)、S460に移行し、「てかり部なし」と判定し、当該てかり部検出処理を終了する。   Returning to S410, if it is determined that there is no frequency component having an intensity of [(MAX−AVG) / 2} + AVG] at a spatial frequency of 1 cycle / mm or less (S410: NO), the process proceeds to S460, and “ It is determined that there is no “lighting portion”, and the light detection portion detection process ends.

また図5に戻り、S120の陰影部検出処理を終了すると、S140にて、陰影部があるか否かを判断する。つまり、S120において「陰影部あり」と判定した場合には(S350参照)、陰影部があると判断し(S140:YES)、S160に移行する。一方、S120において「陰影部なし」と判定した場合には(S360参照)、陰影部がないと判断し(S140:NO)、S170に移行する。   Returning to FIG. 5, when the shadow portion detection process in S120 is completed, it is determined in S140 whether or not there is a shadow portion. That is, when it is determined that there is a “shadow part” in S120 (see S350), it is determined that there is a shadow part (S140: YES), and the process proceeds to S160. On the other hand, if it is determined in S120 that there is no shadow (see S360), it is determined that there is no shadow (S140: NO), and the process proceeds to S170.

また同様に、S130のてかり部検出処理を終了すると、S150にて、てかり部があるか否かを判断する。つまり、S130において「てかり部あり」と判定した場合には(S450参照)、てかり部があると判断し(S140:YES)、S160に移行する。一方、S130において「てかり部なし」と判定した場合には(S460参照)、てかり部がないと判断し(S150:NO)、S170に移行する。   Similarly, when the focus part detection process in S130 is completed, it is determined in S150 whether or not there is a focus part. That is, if it is determined in S130 that there is a “lighting portion” (see S450), it is determined that there is a lighting portion (S140: YES), and the process proceeds to S160. On the other hand, if it is determined in S130 that there is no “lighting part” (see S460), it is determined that there is no lighting part (S150: NO), and the process proceeds to S170.

そしてS160に移行した場合には、補正処理を行う。この補正処理は、図8に示す手順で実行される。図8は、補正処理を表すフローチャートである。
この補正処理を実行すると、CPU102は、まずS510にて、フーリエ変換補正処理を行う。このフーリエ変換補正処理は、図9に示す手順で実行される。図9は、フーリエ変換補正処理を表すフローチャートである。
If the process proceeds to S160, correction processing is performed. This correction processing is executed according to the procedure shown in FIG. FIG. 8 is a flowchart showing the correction process.
When this correction process is executed, the CPU 102 first performs a Fourier transform correction process in S510. This Fourier transform correction process is executed according to the procedure shown in FIG. FIG. 9 is a flowchart showing the Fourier transform correction process.

このフーリエ変換補正処理を実行すると、CPU102は、まずS710にて、画素データP(X,Y)のY座標値の初期設定としてYを0にセットする。
そして、S720に移行し、Yで示されるY座標値をもつ画素データ列の濃度(明度)値のX方向分布(図3(b)参照)を表すデータに対してフーリエ変換を行うことにより、図3(c)に示すような空間周波数分布で表されるデータを得る。
When this Fourier transform correction process is executed, the CPU 102 first sets Y to 0 as the initial setting of the Y coordinate value of the pixel data P (X, Y) in S710.
Then, the process proceeds to S720, and Fourier transform is performed on the data representing the X-direction distribution (see FIG. 3B) of the density (brightness) value of the pixel data string having the Y coordinate value indicated by Y. Data represented by a spatial frequency distribution as shown in FIG.

さらに、S730にて、S720で得られたデータについて、S320またはS420で抽出した空間周波数成分と同じ空間周波数をもつ空間周波数成分に対応するデータを除去する。   Further, in S730, data corresponding to the spatial frequency component having the same spatial frequency as the spatial frequency component extracted in S320 or S420 is removed from the data obtained in S720.

次に、S740にて、S340で処理されたデータに対して逆フーリエ変換を行うことにより、図3(d)に示すような、中綴じ陰影部D1aに対応するピークH3aが除去されたヒストグラムで表されるデータが得られる。そして、S750にて、S740で得られたデータを、データ入力画像D1のYで示されるY座標値をもつ画素データ列の濃度(明度)値に反映させ、S760に移行する。   Next, in S740, a histogram obtained by removing the peak H3a corresponding to the saddle stitch portion D1a as shown in FIG. 3D by performing inverse Fourier transform on the data processed in S340. The data represented is obtained. In S750, the data obtained in S740 is reflected in the density (lightness) value of the pixel data string having the Y coordinate value indicated by Y in the data input image D1, and the process proceeds to S760.

そして、S760にて、Yをインクリメントする。その後、S770に移行し、Yの値がY_SIZE以上であるか否か判断する。ここで、Yの値がY_SIZEより小さいと判断すると(S770:NO)、S720に処理を移し上記の処理を繰り返す。一方、Yの値がY_SIZE以上であると判断すると(S770:YES)、当該フーリエ変換補正処理を終了する。   In step S760, Y is incremented. Thereafter, the process proceeds to S770, where it is determined whether or not the value of Y is equal to or greater than Y_SIZE. If it is determined that the value of Y is smaller than Y_SIZE (S770: NO), the process proceeds to S720 and the above process is repeated. On the other hand, if it is determined that the value of Y is greater than or equal to Y_SIZE (S770: YES), the Fourier transform correction process is terminated.

図8の補正処理に戻り、S510のフーリエ変換補正処理を終了すると、S520に移行し、高画質モードに設定されているか否かを判断する。尚、高画質モードの設定は、コピー開始前に操作者が操作キー112aを操作することにより行われる。ここで、高画質モードに設定されていると判断すると(S520:YES)、S530に移行する。一方、高画質モードに設定されていないと判断すると(S520:NO)、当該補正処理を終了する。   Returning to the correction process of FIG. 8, when the Fourier transform correction process of S <b> 510 is completed, the process proceeds to S <b> 520 to determine whether or not the high-quality mode is set. The high image quality mode is set by operating the operation key 112a by the operator before starting copying. If it is determined that the high image quality mode is set (S520: YES), the process proceeds to S530. On the other hand, if it is determined that the high image quality mode is not set (S520: NO), the correction process is terminated.

そしてS530に移行した場合には、S50と同様にして、入力画像データD1が白黒画像であるか否かを判断する。ここで、入力画像データD1が白黒画像であると判断すると(S530:YES)、S540に移行する。一方、入力画像データD1が白黒画像でないと判断すると(S530:NO)、S570に移行する。   When the process proceeds to S530, it is determined whether or not the input image data D1 is a monochrome image in the same manner as S50. If it is determined that the input image data D1 is a black and white image (S530: YES), the process proceeds to S540. On the other hand, if it is determined that the input image data D1 is not a monochrome image (S530: NO), the process proceeds to S570.

S540に移行した場合には、図5の画像処理で陰影部を検出したか否かを判断する。ここで、陰影部を検出したと判断すると(S540:YES)、S550に移行し、S510で補正した画像データにおいて、例えば最大濃度値の10%以下の濃度値を有する画素データP(X,Y)の濃度値を0にして、当該補正処理を終了する。一方、陰影部を検出していないと判断した場合にはてかり部を検出したと判断し(S540:NO)、S510で補正した画像データにおいて、例えば最大濃度値の90%以上の濃度値を有する画素データP(X,Y)の濃度値を100にして、当該補正処理を終了する。   When the process proceeds to S540, it is determined whether or not a shadow portion has been detected in the image processing of FIG. If it is determined that a shadow portion has been detected (S540: YES), the process proceeds to S550, and the pixel data P (X, Y having a density value of 10% or less of the maximum density value in the image data corrected in S510, for example. ) Is set to 0, and the correction process is terminated. On the other hand, if it is determined that the shadow portion has not been detected, it is determined that the focus portion has been detected (S540: NO), and in the image data corrected in S510, for example, a density value of 90% or more of the maximum density value is obtained. The density value of the pixel data P (X, Y) it has is set to 100, and the correction process is terminated.

またS570に移行した場合には、S510で補正した画像データの全画素について同じ(L*C*h)を持つ画素数を求める。そしてS580にて、最も画素数が多い(L*C*h)を抽出し、この抽出した(L*C*h)のhを地肌の色相と決定する。   When the process proceeds to S570, the number of pixels having the same (L * C * h) is obtained for all the pixels of the image data corrected in S510. In S580, (L * C * h) having the largest number of pixels is extracted, and h of the extracted (L * C * h) is determined as the hue of the background.

さらに、S590にて、S580にて決定された色相を中心として所定範囲内(例えば、色相角度±3°)の色相角度を有する画素データP(X,Y)の色相を、S580にて決定された色相に変換して、当該補正処理を終了する。   Further, in S590, the hue of the pixel data P (X, Y) having a hue angle within a predetermined range (for example, hue angle ± 3 °) around the hue determined in S580 is determined in S580. The correction process is terminated after conversion to a new hue.

また図5に戻り、S160の補正処理を終了すると、S200に移行する。
また、S170に移行した場合には、陰影部・てかり部検出フラグがクリアされているか否かを判断する。ここで、陰影部・てかり部検出フラグがクリアされていないと判断すると(S170:NO)、S200に移行する。一方、陰影部・てかり部検出フラグがクリアされていると判断すると(S170:YES)、S180に移行し、陰影部・てかり部検出フラグをセットし、更にS190にて、RAM108に記憶されているデータ入力画像D1を90°回転させる。そして、S70に移行し上記の処理を繰り返す。
Returning to FIG. 5, when the correction process of S160 is completed, the process proceeds to S200.
When the process proceeds to S170, it is determined whether or not the shadow / light detection flag is cleared. If it is determined that the shadow / light detection flag is not cleared (S170: NO), the process proceeds to S200. On the other hand, if it is determined that the shadow / light detection flag is cleared (S170: YES), the process proceeds to S180, the shadow / light detection flag is set, and further stored in the RAM 108 in S190. The data input image D1 being rotated is rotated by 90 °. And it transfers to S70 and repeats said process.

そして、S200に移行した場合には、S50と同様にして、入力画像データD1が白黒画像であるか否かを判断する。ここで、入力画像データD1が白黒画像であると判断すると(S200:YES)、S220に移行する。一方、入力画像データD1が白黒画像でないと判断すると(S200:NO)、S210にて、入力画像データD1をL*C*h表色形式から周知のRGB表色形式に変換する。尚、R,G,Bはそれぞれレッド,グリーン,ブルーを表している。   When the process proceeds to S200, it is determined whether or not the input image data D1 is a monochrome image in the same manner as S50. If it is determined that the input image data D1 is a monochrome image (S200: YES), the process proceeds to S220. On the other hand, if it is determined that the input image data D1 is not a monochrome image (S200: NO), the input image data D1 is converted from the L * C * h color specification format to the well-known RGB color specification format in S210. R, G, and B represent red, green, and blue, respectively.

そして、S220に移行すると、RAM108に記憶された入力画像データD1をインクジェットプリンタ20に出力し、当該画像処理を終了する。
以上説明した実施形態において、図5におけるS70の処理は本発明における明暗積分値分布処理ステップ、図5におけるS80の処理は本発明における周波数解析ステップ、図6におけるS320の処理は本発明における周波数成分抽出ステップ、図6におけるS330及び図7におけるS430の処理は本発明における抽出明暗積分値分布処理ステップ、図6におけるS340〜S360及び図7におけるS440〜S460の処理は本発明における明暗異常部判定ステップである。
In step S220, the input image data D1 stored in the RAM 108 is output to the inkjet printer 20, and the image processing ends.
In the embodiment described above, the processing of S70 in FIG. 5 is the bright / dark integrated value distribution processing step in the present invention, the processing of S80 in FIG. 5 is the frequency analysis step in the present invention, and the processing in S320 in FIG. The extraction step, S330 in FIG. 6 and S430 in FIG. 7 are the extracted light / dark integral value distribution processing step in the present invention, S340 to S360 in FIG. 6 and S440 to S460 in FIG. It is.

また、図5におけるS190の処理は本発明における画像データ回転ステップ、図5におけるS160の処理は本発明における明暗異常部補正ステップ、図8におけるS540〜S560の処理は本発明における第1地肌変換ステップ、図8におけるS570〜S590の処理は本発明における第2地肌変換ステップ、図5におけるS210の処理は本発明における形式変換ステップである。   5 is the image data rotation step in the present invention, the process in S160 in FIG. 5 is the light / dark abnormality correction step in the present invention, and the processes in S540 to S560 in FIG. 8 are the first background conversion step in the present invention. 8, the process of S570 to S590 is a second background conversion step in the present invention, and the process of S210 in FIG. 5 is a format conversion step in the present invention.

また、RAM108は本発明における記憶手段、スキャナ10は本発明における読取手段、インクジェットプリンタ20は本発明における画像形成手段である。
また、「陰影部」および「てかり部」は本発明における明暗異常部、Y軸方向は本発明における走査方向、X軸方向は本発明における直交走査方向、濃度積分値及び明度積分値は本発明における明暗積分値、ヒストグラムH1およびヒストグラムH1Lは本発明における明暗積分値分布、フーリエ変換は本発明における空間周波数解析、逆フーリエ変換は本発明における空間周波数解析に対する逆変換、ピークH2aは本発明における抽出明暗積分値分布、ヒストグラムH2は本発明における明暗異常部データである。
The RAM 108 is a storage unit in the present invention, the scanner 10 is a reading unit in the present invention, and the inkjet printer 20 is an image forming unit in the present invention.
The “shaded part” and the “lighting part” are the light and dark abnormal parts in the present invention, the Y axis direction is the scanning direction in the present invention, the X axis direction is the orthogonal scanning direction in the present invention, and the density integral value and the lightness integral value are the present In the present invention, the light / dark integral value, histogram H1 and histogram H1L are the light / dark integral value distribution in the present invention, Fourier transform is the spatial frequency analysis in the present invention, inverse Fourier transform is the inverse transform to the spatial frequency analysis in the present invention, and peak H2a is in the present invention. The extracted light / dark integral value distribution and histogram H2 are light / dark abnormal portion data in the present invention.

また、S550での「最大濃度値の10%」は本発明における第1所定値、S550での「最大濃度値の90%」は本発明における第2所定値、S590での所定範囲は本発明における所定範囲である。   Further, “10% of the maximum density value” in S550 is the first predetermined value in the present invention, “90% of the maximum density value” in S550 is the second predetermined value in the present invention, and the predetermined range in S590 is the present invention. Is a predetermined range.

このように構成された本実施形態の画像処理装置100によれば、入力画像データD1においてY軸方向に配列された画素データ列のそれぞれについて濃度の値を積分した濃度積分値を求め(S70)、ヒストグラムH1で表されるデータに対してフーリエ変換を行う(S80)。さらに、空間周波数分布F1で表されるデータから、文字が形成されている領域の画像データについての濃度積分値をフーリエ変換して得られる周波数成分より低い空間周波数で、予め設定された強度以上のピークを抽出し(S320)、この抽出したピークで表されるデータに対して逆フーリエ変換を行うことにより、ヒストグラムH2を求める(S330)。そして、ヒストグラムH2において、原稿画像の両端部を示すピークH2b,H2cを抽出して、ピークH2aがピークH2bとH2cとの中間部にあるか否かを判断する。そして、中間部にあると判断するとピークH2aを陰影部(てかり部)と判断する(S340,S350(S440,S450))。   According to the image processing apparatus 100 of the present embodiment configured as described above, a density integrated value obtained by integrating the density value for each of the pixel data strings arranged in the Y-axis direction in the input image data D1 is obtained (S70). The Fourier transform is performed on the data represented by the histogram H1 (S80). Furthermore, from the data represented by the spatial frequency distribution F1, a spatial frequency lower than a frequency component obtained by Fourier-transforming the density integral value of the image data in the region where the characters are formed, and a predetermined intensity or more. A peak is extracted (S320), and the histogram H2 is obtained by performing inverse Fourier transform on the data represented by the extracted peak (S330). Then, in the histogram H2, peaks H2b and H2c indicating both end portions of the original image are extracted, and it is determined whether or not the peak H2a is at an intermediate portion between the peaks H2b and H2c. And if it determines that it exists in an intermediate part, it will determine peak H2a as a shadow part (light part) (S340, S350 (S440, S450)).

即ち、陰影部(てかり部)に相当する画素データは、空間周波数分布F1において、予め設定されている低い空間周波数の周波数成分に対して逆フーリエ変換を行うことにより抽出することができるので、X軸方向に沿って幅の広い画像を形成している部分が、陰影部(てかり部)の候補となる。つまり、画素データにおいて、Y軸方向に沿って長い線が存在する場合には、この長い線に相当する画素データに対してフーリエ変換を行うと、この長い線に相当する周波数成分の空間周波数は、上記低周波数領域にある周波数成分よりも十分高くなるので、陰影部(てかり部)として抽出されない。   That is, the pixel data corresponding to the shadow portion (light portion) can be extracted by performing an inverse Fourier transform on a frequency component having a low spatial frequency set in advance in the spatial frequency distribution F1. A portion that forms a wide image along the X-axis direction is a candidate for a shadow portion (lighting portion). That is, in the pixel data, when there is a long line along the Y-axis direction, when the Fourier transform is performed on the pixel data corresponding to the long line, the spatial frequency of the frequency component corresponding to the long line is Since it is sufficiently higher than the frequency component in the low frequency region, it is not extracted as a shadow portion (lighting portion).

従って、陰影部(てかり部)の近傍に長い線が存在する場合でも、この長い線を陰影部(てかり部)であると誤って検出することなく、正しく陰影部(てかり部)を検出することができる。   Therefore, even if a long line exists in the vicinity of the shadow part (lighting part), the shadow part (lighting part) is correctly detected without erroneously detecting the long line as a shadow part (lighting part). Can be detected.

また、画像処理装置100は、入力画像データD1のX軸方向に配列された画素データ列のそれぞれについて、Y軸方向に対する濃度分布のフーリエ変換を行い(S720)、さらに、フーリエ変換の結果からピークH2aに対応する周波数成分を除去し(S730)、除去したフーリエ変換の結果について、フーリエ変換に対する逆変換を行う(S740)ので、陰影部(てかり部)の中に長い線や文字が含まれている場合においても、長い線や文字を消去することなく、陰影部(てかり部)を除去することができる。   Further, the image processing apparatus 100 performs a Fourier transform of the density distribution with respect to the Y-axis direction for each of the pixel data strings arranged in the X-axis direction of the input image data D1 (S720), and further peaks from the result of the Fourier transform. The frequency component corresponding to H2a is removed (S730), and the result of the removed Fourier transform is inversely transformed with respect to the Fourier transform (S740), so that a long line or character is included in the shaded portion (light portion). Even in such a case, it is possible to remove the shadow portion (light portion) without erasing long lines or characters.

また、画像処理装置100は、「陰影部(てかり部)なし」と判断すると(S360(S460))、入力画像データD1を90°回転させるので、90°回転の前に陰影部(てかり部)がX軸方向に沿って存在していた場合でも、陰影部(てかり部)を抽出することができる。   When the image processing apparatus 100 determines that “there is no shadow part (lighting part)” (S360 (S460)), the input image data D1 is rotated by 90 °. Portion) can be extracted along the X-axis direction.

また、画像処理装置100は、最大濃度値の10%以下の濃度値を有する画素データP(X,Y)の濃度値を0にし(S550)、最大濃度値の90%以上の濃度値を有する画素データP(X,Y)の濃度値を100にするため、地肌部分に濃度変化がなく見やすい画像を構成する画像データを生成することができる。   Further, the image processing apparatus 100 sets the density value of the pixel data P (X, Y) having a density value of 10% or less of the maximum density value to 0 (S550), and has a density value of 90% or more of the maximum density value. Since the density value of the pixel data P (X, Y) is set to 100, it is possible to generate image data that forms an easy-to-view image with no density change in the background portion.

また、画像処理装置100は、S580にて決定された色相を中心として所定範囲内(例えば、色相角度±3°)の色相角度を有する画素データP(X,Y)の色相を、S580にて決定された色相に変換する(S590)ため、地肌部分に色相変化がなく見やすい画像を構成する画像データを生成することができる。   Further, the image processing apparatus 100 determines the hue of the pixel data P (X, Y) having a hue angle within a predetermined range (for example, hue angle ± 3 °) with the hue determined in S580 as the center in S580. Since the hue is converted to the determined hue (S590), it is possible to generate image data that forms an easy-to-view image with no hue change in the background portion.

また、RAM108は、入力画像データD1の全体を記憶可能な容量を有しているので、原稿上の画像の全体を読み取り、画像データの全体をRAM108に記憶した後に、S70の処理を行うことができる。   Since the RAM 108 has a capacity capable of storing the entire input image data D1, the entire image on the original is read and the entire image data is stored in the RAM 108, and then the process of S70 is performed. it can.

(実施の形態2)
以下、コピー装置に本発明の画像形成装置としての構成を適用したものを本発明の実施の形態2として説明する。
(Embodiment 2)
Hereinafter, a configuration in which the configuration of the image forming apparatus of the present invention is applied to a copying apparatus will be described as a second embodiment of the present invention.

まず、コピー装置200の構成を図10に基づいて説明する。
コピー装置200は、図10に示すように、所定の処理プログラムに基づいて処理を実行するCPU202,種々の制御プログラムが格納されたROM206,外部装置から入力したデータ等を格納するRAM208,利用者により操作可能な複数の操作キー212aおよび各種情報を表示する表示パネル212bからなるユーザI/F212,原稿を画像データとして読み取るスキャナ214,スキャナ214とのデータ通信を行うスキャナ用インターフェース(以降、スキャナ用I/Fとする)216,画像データに基づいて記録紙にカラー画像を形成するプリンタエンジン218,プリンタエンジン218とのデータ通信を行うプリンタエンジン用インターフェース(以降、プリンタエンジン用I/Fとする)220を備えている。
First, the configuration of the copy apparatus 200 will be described with reference to FIG.
As shown in FIG. 10, the copying apparatus 200 includes a CPU 202 that executes processing based on a predetermined processing program, a ROM 206 that stores various control programs, a RAM 208 that stores data input from an external device, and the like. A user interface 212 comprising a plurality of operable keys 212a and a display panel 212b for displaying various information, a scanner 214 for reading a document as image data, a scanner interface for data communication with the scanner 214 (hereinafter referred to as scanner I) 216, a printer engine 218 that forms a color image on recording paper based on image data, and a printer engine interface (hereinafter referred to as printer engine I / F) 220 that performs data communication with the printer engine 218. It has.

ROM206には、CPU202が画像処理を実行するための画像処理プログラム206aの記憶領域が確保されている。
プリンタエンジン220は、Y,M,C,K各色のインクノズルを備え、大・中・小ドットによる印字が可能な印字ヘッドと、Y,M,C,K各色のインクカートリッジ等から構成されており、インクを下方に噴射して、印刷媒体に画像を形成することができる。
In the ROM 206, a storage area for an image processing program 206a for the CPU 202 to execute image processing is secured.
The printer engine 220 includes Y, M, C, and K ink nozzles, and includes a print head capable of printing with large, medium, and small dots, and ink cartridges of each of Y, M, C, and K colors. Ink can be ejected downward to form an image on the print medium.

実施の形態1では画像処理(図5参照)をCPU102が実行するが、本発明の実施の形態2ではコピー装置200内のCPU202が実行する。画像処理の方法は実施の形態1と同様であるので説明は省略する。   In the first embodiment, the CPU 102 executes image processing (see FIG. 5), but in the second embodiment of the present invention, the CPU 202 in the copying apparatus 200 executes. Since the image processing method is the same as that of the first embodiment, description thereof is omitted.

このように構成されたコピー装置200によれば、実施の形態1と同様にして生成した画像データを用いて画像を形成することができる。
このため、陰影部(てかり部)の近傍に長い線が存在する場合でも、この長い線を陰影部(てかり部)であると誤って検出することなく、正しく陰影部(てかり部)を検出することができる。
According to the copying apparatus 200 configured as described above, an image can be formed using image data generated in the same manner as in the first embodiment.
For this reason, even when a long line exists in the vicinity of the shadow portion (light portion), the long line is correctly detected without being erroneously detected as the shadow portion (light portion). Can be detected.

以上、本発明の一実施例について説明したが、本発明は上記実施例に限定されるものではなく、種々の態様を採ることができる。
例えば、本実施形態においては、コピー装置200に画像形成装置としての構成を適用したものを例示した。しかし、画像データを入出力する機能を有していれば、プリンタ,ファクシミリ等についても同様に適用可能である。
As mentioned above, although one Example of this invention was described, this invention is not limited to the said Example, A various aspect can be taken.
For example, in the present embodiment, an example in which a configuration as an image forming apparatus is applied to the copy apparatus 200 is illustrated. However, as long as it has a function of inputting and outputting image data, it can be similarly applied to a printer, a facsimile, and the like.

また、本実施形態では、原稿上の画像を読み取ることにより得られる画像データを画像処理するのも示したが、カメラ等を用いて撮影することにより得られる画像データを画像処理する場合についても同様に適用可能である。   In the present embodiment, the image data obtained by reading the image on the document is also image-processed. However, the same applies to the case where the image data obtained by photographing using a camera or the like is image-processed. It is applicable to.

また、本実施形態では、S340およびS440の処理において、右端陰影部D1b,左端陰影部D1cのそれぞれに対応するピークH2b,H2cの位置に基づき、ピークH2aが中綴じ部に起因する陰影部であるか否かを判定した。しかし、入力画像データD1のX軸方向の中心(X=X_SIZE/2)近傍にピークH2aが位置するか否かを判断し、近傍にピークH2aが位置する場合に、ピークH2aが中綴じ部に起因する陰影部であると判定するものでもよい。   In the present embodiment, in the processes of S340 and S440, the peak H2a is a shadow portion caused by the saddle stitch portion based on the positions of the peaks H2b and H2c corresponding to the right end shadow portion D1b and the left end shadow portion D1c, respectively. It was determined whether or not. However, it is determined whether or not the peak H2a is located in the vicinity of the center (X = X_SIZE / 2) in the X-axis direction of the input image data D1, and when the peak H2a is located in the vicinity, the peak H2a is at the saddle stitch portion. It may be determined that the shadow portion is caused.

また、本実施形態では、S190の処理において、入力画像データD1を90°回転させるものを示した。しかし、走査方向を90°回転させるものでもよい。
また、本実施形態においては、画像データを補正する処理として、図3の手順で構成されるものを示した。しかし、図11において示される手順で構成されるものでもよい。
In the present embodiment, the input image data D1 is rotated by 90 ° in the process of S190. However, the scanning direction may be rotated by 90 °.
Further, in the present embodiment, the processing configured by the procedure of FIG. 3 is shown as the processing for correcting the image data. However, it may be configured by the procedure shown in FIG.

即ち、図2(a)に示される走査線SC1上の画素列を例にして説明すると、走査線SC1上で且つ中綴じ陰影部D1a近傍は図11(a)に示すように、「G」を表す文字D1e,「H」を表す文字D1f,「E」を表す文字D1g及び「F」を表す文字D1hが配置されており、この部分の走査線SC1上の画素について、横軸を画素データP(X,Y)のX座標、縦軸を濃度としたヒストグラムを作成すると、図11(b)に示すようなヒストグラムH3が作成される(図11(a),図11(b)はそれぞれ図3(a),図3(b)と同一である。)
そして、図2(d)で示されるヒストグラムH2で表されるデータについて、その濃度積分値をY軸方向の画素数Y_SIZEで割った値を求めることにより、中綴じ陰影部D1a,右端陰影部D1b,左端陰影部D1cのみの1画素分の濃度分布を示すヒストグラムH5で表される補正用データを得る(図11(c)は中綴じ陰影部D1a近傍の分布であり、中綴じ陰影部D1aに対応するピークH5aが示されている。)。尚、ヒストグラムH5で表される補正用データは、本発明における補正用明暗異常部データである。
In other words, the pixel column on the scanning line SC1 shown in FIG. 2A will be described as an example. As shown in FIG. 11A, the vicinity of the saddle stitched portion D1a on the scanning line SC1 is “G”. A character D1e representing “H”, a character D1f representing “H”, a character D1g representing “E”, and a character D1h representing “F” are arranged, and the horizontal axis of the pixel on this scanning line SC1 is represented by pixel data. When a histogram with the X coordinate of P (X, Y) and the density on the vertical axis is created, a histogram H3 as shown in FIG. 11B is created (FIG. 11A and FIG. 11B are respectively shown). (It is the same as FIG. 3 (a) and FIG. 3 (b).)
Then, with respect to the data represented by the histogram H2 shown in FIG. 2D, the value obtained by dividing the integrated density value by the number of pixels Y_SIZE in the Y-axis direction is obtained, so that the saddle stitched shadow part D1a and the right edge shadow part D1b are obtained. , The correction data represented by the histogram H5 indicating the density distribution for one pixel of only the left end shadow portion D1c is obtained (FIG. 11C shows the distribution in the vicinity of the saddle stitched shadow portion D1a. The corresponding peak H5a is shown). The correction data represented by the histogram H5 is correction light / dark abnormality portion data in the present invention.

さらに、それぞれのX座標値について、ヒストグラムH3で表される濃度値からヒストグラムH5で表される濃度値を減算すると、図11(d)に示すように、ヒストグラムH3に対してピークH3aが除去されたヒストグラムH4で表されるデータを得る。この時、ピークH3d,ピークH3f,ピークH3gにおいてピークH3aと重なっている部分が同時に除去されるため、図11(d)に示すように、ピークH3d,ピークH3f,ピークH3gの濃度値が小さくなる。   Furthermore, for each X coordinate value, when the density value represented by the histogram H5 is subtracted from the density value represented by the histogram H3, the peak H3a is removed from the histogram H3 as shown in FIG. Data represented by the histogram H4 is obtained. At this time, portions of peak H3d, peak H3f, and peak H3g that overlap with peak H3a are simultaneously removed, so that the concentration values of peak H3d, peak H3f, and peak H3g become small as shown in FIG. .

そして、Y軸方向に配列された全ての画素データ列について上述の処理を行うと、図11(e)に示すように、陰影部D1aが除去されるとともに、陰影部D1aと重なっていた文字部分が薄くなった入力画像データD1が得られる。   Then, when the above-described processing is performed on all the pixel data strings arranged in the Y-axis direction, as shown in FIG. 11E, the shadow portion D1a is removed and the character portion that overlaps the shadow portion D1a Is obtained.

図11に示した処理は、図8の補正処理におけるS510のフーリエ変換補正処理に代えて、以下に説明する簡易補正処理を実行することにより実現できる。
次に、図12を用いて、画像処理装置100のCPU102が実行する簡易補正処理について説明する。図12は、簡易補正処理を表すフローチャートである。
The process shown in FIG. 11 can be realized by executing a simple correction process described below instead of the Fourier transform correction process of S510 in the correction process of FIG.
Next, simple correction processing executed by the CPU 102 of the image processing apparatus 100 will be described with reference to FIG. FIG. 12 is a flowchart showing the simple correction process.

この簡易補正処理を実行すると、CPU102は、まずS910にて、Y座標値の初期設定としてYを0にセットする。そして、S920に移行し、S330またはS430における逆フーリエ変換で得られたデータについて、その積分値をY軸方向の画素数Y_SIZEで割ることにより、図11(c)で示されるような1画素分の濃度(明度)分布を表す補正用データを得る。   When this simple correction process is executed, the CPU 102 first sets Y to 0 as the initial setting of the Y coordinate value in S910. Then, the process proceeds to S920, and for the data obtained by the inverse Fourier transform in S330 or S430, the integral value is divided by the number of pixels Y_SIZE in the Y-axis direction, so that one pixel as shown in FIG. Correction data representing the density (lightness) distribution of the.

そして、S930に移行し、S90と同様にして、入力画像データD1が白黒画像であるか否かを判断する。ここで、入力画像データD1が白黒画像であると判断すると(S930:YES)、S940に移行する。一方、入力画像データD1が白黒画像でないと判断すると(S930:NO)、S950に移行する。   Then, the process proceeds to S930, and similarly to S90, it is determined whether or not the input image data D1 is a monochrome image. If it is determined that the input image data D1 is a black and white image (S930: YES), the process proceeds to S940. On the other hand, if it is determined that the input image data D1 is not a monochrome image (S930: NO), the process proceeds to S950.

S940では、S100と同様にして、空間周波数分布F1における初項の強度が大きいか否かを判断する。そして、空間周波数分布F1の全空間周波数成分における強度を積分した値に対して、この初項の強度が例えば30%以上である場合には、初項の強度が大きいと判断し(S940:YES)、S1000に移行する。一方、この初項の強度が例えば30%未満である場合には、初項の強度が小さいと判断し(S940:NO)、S960に移行する。尚、初項は、本発明における空間周波数が0である周波数成分である。   In S940, similarly to S100, it is determined whether or not the intensity of the first term in the spatial frequency distribution F1 is large. Then, when the intensity of the first term is, for example, 30% or more with respect to the value obtained by integrating the intensities of all the spatial frequency components of the spatial frequency distribution F1, it is determined that the intensity of the first term is large (S940: YES) ), The process proceeds to S1000. On the other hand, when the strength of the first term is less than 30%, for example, it is determined that the strength of the first term is small (S940: NO), and the process proceeds to S960. The first term is a frequency component having a spatial frequency of 0 in the present invention.

また、S950では、S110と同様にして、空間周波数分布F1Lにおける初項の強度が小さいか否かを判断する。そして、空間周波数分布F1Lの全空間周波数成分における強度を積分した値に対して、この初項の強度が例えば70%未満である場合には、初項の強度が小さいと判断し(S950:YES)、S960に移行する。一方、この初項の強度が例えば70%以上である場合には、初項の強度が大きいと判断し(S950:NO)、S1000に移行する。   In S950, similarly to S110, it is determined whether or not the intensity of the first term in the spatial frequency distribution F1L is small. Then, when the intensity of the first term is less than 70%, for example, with respect to the value obtained by integrating the intensities of all spatial frequency components of the spatial frequency distribution F1L, it is determined that the intensity of the first term is small (S950: YES) ), The process proceeds to S960. On the other hand, if the strength of the first term is 70% or more, for example, it is determined that the strength of the first term is large (S950: NO), and the process proceeds to S1000.

つまり、S960に移行した場合には地肌が明るい、S1000に移行した場合には地肌を暗いと見做している。
そして、S960に移行した場合には、Yで示されるY座標値をもつ画素データ列において、それぞれの画素データP(X,Y)の濃度(明度)値から、S920で得られた補正用データにおけるX座標値に対応する濃度(明度)値を減算する。つまり、補正用データは陰影部として補正を行っている。その後、S970にて、S960で処理されたデータを入力画像D1データのYで示されるY座標値をもつ画素データ列の濃度(明度)値に反映させる。
That is, it is assumed that the background is bright when the process proceeds to S960, and the background is dark when the process proceeds to S1000.
When the process proceeds to S960, correction data obtained in S920 is obtained from the density (lightness) value of each pixel data P (X, Y) in the pixel data string having the Y coordinate value indicated by Y. The density (lightness) value corresponding to the X coordinate value is subtracted. That is, the correction data is corrected as a shaded part. Thereafter, in S970, the data processed in S960 is reflected in the density (lightness) value of the pixel data string having the Y coordinate value indicated by Y of the input image D1 data.

そして更に、S980にて、Yをインクリメントする。その後、S990に移行し、Yの値がY_SIZE以上であるか否か判断する。ここで、Yの値がY_SIZEより小さいと判断すると(S990:NO)、S960に処理を移し上記の処理を繰り返す。一方、Yの値がY_SIZE以上であると判断すると(S990:YES)、当該簡易補正処理を終了する。   Further, in S980, Y is incremented. Thereafter, the process proceeds to S990, where it is determined whether or not the value of Y is equal to or greater than Y_SIZE. If it is determined that the value of Y is smaller than Y_SIZE (S990: NO), the process proceeds to S960 and the above process is repeated. On the other hand, if it is determined that the value of Y is greater than or equal to Y_SIZE (S990: YES), the simple correction process is terminated.

また、S1000に移行した場合には、Yで示されるY座標値をもつ画素データ列において、それぞれの画素データP(X,Y)の濃度(明度)値から、S920で得られた補正用データにおけるX座標値に対応する濃度(明度)値を加算する。つまり、補正用データはてかり部として補正を行っている。その後、S1010にて、S1000で処理されたデータを入力画像D1データのYで示されるY座標値をもつ画素データ列の濃度(明度)値に反映させる。   When the process proceeds to S1000, correction data obtained in S920 is obtained from the density (lightness) value of each pixel data P (X, Y) in the pixel data string having the Y coordinate value indicated by Y. The density (lightness) value corresponding to the X coordinate value at is added. That is, the correction data is corrected as a measuring portion. Thereafter, in S1010, the data processed in S1000 is reflected in the density (lightness) value of the pixel data string having the Y coordinate value indicated by Y of the input image D1 data.

そして更に、S1020にて、Yをインクリメントする。その後、S1030に移行し、Yの値がY_SIZE以上であるか否か判断する。ここで、Yの値がY_SIZEより小さいと判断すると(S1030:NO)、S1000に処理を移し上記の処理を繰り返す。一方、Yの値がY_SIZE以上であると判断すると(S1030:YES)、当該簡易補正処理を終了する。   Further, in S1020, Y is incremented. Thereafter, the process proceeds to S1030, and it is determined whether or not the value of Y is equal to or greater than Y_SIZE. If it is determined that the value of Y is smaller than Y_SIZE (S1030: NO), the process proceeds to S1000 and the above process is repeated. On the other hand, if it is determined that the value of Y is greater than or equal to Y_SIZE (S1030: YES), the simple correction process is terminated.

このように構成された本実施形態の画像処理装置100によれば、S330またはS430における逆フーリエ変換で得られたデータについて、その積分値をY軸方向の画素数Y_SIZEで割った補正用データを求め(S920)、空間周波数分布F1,F1Lにおける初項の強度に基づいて、入力画像データD1における地肌部分が明るいと見做せるか否かを判断する(S930〜S950)。ここで、地肌部分が明るいと見做せると判断した場合には、補正用データは陰影部に対応するものとして、X軸方向に配列された画素データ列のそれぞれについて補正用データを減算する(S960〜S990)。一方、地肌部分が明るいと見做せないと判断した場合には、補正用データはてかり部に対応するものとして、X軸方向に配列された画素データ列のそれぞれについて補正用データを加算する(S960〜S990)。   According to the image processing apparatus 100 of the present embodiment configured as described above, correction data obtained by dividing the integral value by the number of pixels Y_SIZE in the Y-axis direction is obtained for the data obtained by the inverse Fourier transform in S330 or S430. Determination (S920), based on the intensity of the first term in the spatial frequency distributions F1 and F1L, it is determined whether or not the background portion in the input image data D1 can be considered bright (S930 to S950). If it is determined that the background portion is bright, the correction data is assumed to correspond to the shaded portion, and the correction data is subtracted for each of the pixel data strings arranged in the X-axis direction ( S960-S990). On the other hand, if it is determined that the background portion is not bright, the correction data is added to each of the pixel data strings arranged in the X-axis direction, assuming that the correction data corresponds to the measuring portion. (S960-S990).

即ち、フーリエ変換と、逆フーリエ変換とを行う必要がなく、補正用データに基づいて補正すればよいので、処理負荷を低減することができる。但し、陰影部(てかり部)の中に含まれている長い線や文字に対応する画素データの明暗は、補正用データの影響により、本来の明暗状態から外れたものとなる。   That is, it is not necessary to perform Fourier transform and inverse Fourier transform, and it is sufficient to perform correction based on the correction data, so that the processing load can be reduced. However, the brightness and darkness of the pixel data corresponding to the long lines and characters included in the shaded part (lighting part) is out of the original light and dark state due to the influence of the correction data.

画像処理装置の構成を表すブロック図。1 is a block diagram illustrating a configuration of an image processing apparatus. 陰影部検出の概要説明図。Outline | summary explanatory drawing of a shadow part detection. 画像補正の概要説明図Outline of image correction 明度を用いたヒストグラムおよび空間周波数分布の説明図。Explanatory drawing of the histogram and spatial frequency distribution which used the brightness. 画像処理手順を表すフローチャート。The flowchart showing an image processing procedure. 陰影部検出処理手順を表すフローチャート。The flowchart showing the shadow part detection processing procedure. てかり部検出処理手順を表すフローチャート。The flowchart showing the procedure part detection process procedure. 補正処理手順を表すフローチャート。10 is a flowchart showing a correction processing procedure. フーリエ変換補正処理手順を表すフローチャート。The flowchart showing the Fourier-transform correction process procedure. コピー装置の構成を表すブロック図。FIG. 2 is a block diagram illustrating a configuration of a copy apparatus. 別の実施形態の画像補正処理の概要説明図。FIG. 6 is a schematic explanatory diagram of image correction processing according to another embodiment. 簡易補正処理手順を表すフローチャート。The flowchart showing the simple correction process procedure.

符号の説明Explanation of symbols

1…画像処理システム、10…スキャナ、20…インクジェットプリンタ、100…画像処理装置、102…CPU、104…HDD、106…ROM、108…RAM、110…入出力I/F、112…ユーザI/F、112a…操作キー、112b…表示パネル、200…コピー装置、202…CPU、206…ROM、208…RAM、212…ユーザI/F、212a…操作キー、212b…表示パネル、214…スキャナ、216…スキャナ用I/F、218…プリンタエンジン、220…プリンタエンジン用I/F。   DESCRIPTION OF SYMBOLS 1 ... Image processing system, 10 ... Scanner, 20 ... Inkjet printer, 100 ... Image processing apparatus, 102 ... CPU, 104 ... HDD, 106 ... ROM, 108 ... RAM, 110 ... Input / output I / F, 112 ... User I / F, 112a ... operation keys, 112b ... display panel, 200 ... copy device, 202 ... CPU, 206 ... ROM, 208 ... RAM, 212 ... user I / F, 212a ... operation keys, 212b ... display panel, 214 ... scanner, 216 ... Scanner I / F, 218 ... Printer engine, 220 ... Printer engine I / F.

Claims (21)

原稿上の画像を読み取ることで得られ、明暗を表す明暗パラメータを含む複数の画素データから構成され、該画素データに基づく画素が2次元に配列されることにより前記原稿画像に応じた画像を形成可能な画像データの中から、該明暗パラメータが該原稿画像の本来の明暗を反映していない明暗異常部を抽出するための画像処理方法であって、
該画像データにおける予め設定された走査方向に配列された画素データ列のそれぞれについて前記明暗パラメータの値を積分した明暗積分値から、該走査方向に直交する直交走査方向の明暗積分値分布を求める明暗積分値分布処理ステップと、
該明暗積分値分布処理ステップにより求められた明暗積分値分布の空間周波数解析を行う周波数解析ステップと、
該周波数解析ステップにより行われた空間周波数解析の結果から、予め設定されている正常周波数領域よりも低い低周波数領域にある周波数成分の内、前記明暗異常部を抽出するために予め設定された周波数成分強度の条件に基づいて、処理対象となる周波数成分を抽出する周波数成分抽出ステップと、
該周波数成分抽出ステップにより抽出された抽出周波数成分について、前記空間周波数解析に対する逆変換を行うことにより、該抽出周波数成分によって構成される画像データの前記直交走査方向の抽出明暗積分値分布を求める抽出明暗積分値分布処理ステップと、
該抽出明暗積分値分布に基づいて、明暗異常部の有無を判定する明暗異常部判定ステップと、
を有することを特徴とする画像処理方法。
An image corresponding to the original image is formed by two-dimensionally arranging the pixels based on the pixel data, which is obtained by reading an image on the original and is composed of a plurality of pixel data including light and dark parameters representing light and dark. An image processing method for extracting, from possible image data, a light / dark abnormal portion in which the light / dark parameter does not reflect the original light / dark of the document image,
A light / dark integrated value distribution in an orthogonal scanning direction orthogonal to the scanning direction is obtained from a light / dark integrated value obtained by integrating the value of the light / dark parameter for each of pixel data sequences arranged in a preset scanning direction in the image data. An integrated value distribution processing step;
A frequency analysis step for performing a spatial frequency analysis of the light-dark integral value distribution obtained by the light-dark integral value distribution processing step;
From the result of the spatial frequency analysis performed by the frequency analysis step, a frequency set in advance for extracting the light / dark abnormal portion from the frequency components in the low frequency region lower than the preset normal frequency region. A frequency component extraction step for extracting a frequency component to be processed based on a component intensity condition;
Extracting the extracted frequency component extracted in the orthogonal scanning direction of the image data constituted by the extracted frequency component by performing inverse transformation on the spatial frequency analysis with respect to the extracted frequency component extracted in the frequency component extracting step A light-dark integrated value distribution processing step;
Based on the extracted light / dark integrated value distribution, a light / dark abnormal portion determination step for determining the presence / absence of a light / dark abnormal portion;
An image processing method comprising:
前記正常周波数領域は、文字や図形が形成されている領域の画像データについての明暗積分値分布を空間周波数解析して得られる周波数成分に基づいて設定されることを特徴とする請求項1に記載の画像処理方法。 The normal frequency region is set based on a frequency component obtained by performing spatial frequency analysis on a light-dark integrated value distribution for image data in a region where characters and figures are formed. Image processing method. 見開き原稿を読み取った場合の中綴じ部分に相当する画素データを少なくとも前記明暗異常部として検出するものであり、
前記周波数成分抽出ステップは、前記低周波数領域において最も強度の強い周波数成分を少なくとも抽出することを特徴とする請求項1または請求項2に記載の画像処理方法。
Detecting at least the pixel data corresponding to the saddle-stitched portion at the time of reading a double-page spread as the light and dark abnormality portion,
The image processing method according to claim 1, wherein the frequency component extraction step extracts at least a frequency component having the strongest intensity in the low frequency region.
見開き原稿を読み取った場合の中綴じ部分と両端部分に相当する画素データを少なくとも前記明暗異常部として検出するものであり、
前記画像データは、見開き方向における両端部と中綴じされた中綴じ部とを含む見開き原稿を読み取ったものであり、
前記周波数成分抽出ステップは、前記低周波数領域において、強度の強い上位3つの周波数成分を抽出する、
ことを特徴とする請求項3に記載の画像処理方法。
Detecting at least the pixel data corresponding to the saddle stitching portion and both end portions when reading a double-page spread as the light / dark abnormality portion,
The image data is obtained by reading a spread original including both ends in the spread direction and the saddle stitched saddle stitch portion,
The frequency component extraction step extracts the top three frequency components having a strong intensity in the low frequency region.
The image processing method according to claim 3.
前記周波数成分抽出ステップは、強度の強い上位3つの周波数成分の内、予め設定された所定値以上の強度をもつ周波数成分を抽出することを特徴とする請求項4に記載の画像処理方法。 5. The image processing method according to claim 4, wherein the frequency component extraction step extracts a frequency component having an intensity equal to or higher than a predetermined value from among the top three frequency components having high intensity. 前記明暗異常部判定ステップは、前記抽出明暗積分値分布において、前記画像データの内、前記原稿画像の前記走査方向における中心部に相当する予め設定された所定範囲内にピークがあるか否かを判断し、該所定範囲内に該ピークがある場合には、該ピークに対応する画素データを前記明暗異常部データとすることを特徴とする請求項3に記載の画像処理方法。 In the light / dark abnormal portion determination step, in the extracted light / dark integral value distribution, it is determined whether or not there is a peak in a predetermined range corresponding to a central portion in the scanning direction of the document image in the image data. 4. The image processing method according to claim 3, wherein when the peak is within the predetermined range, the pixel data corresponding to the peak is used as the light / dark abnormality portion data. 前記明暗異常部判定ステップは、前記抽出明暗積分値分布において、前記原稿画像の両端部を示す両端部ピークを抽出して、該両端部ピークの位置に基づいて、その両端部ピークの中間部にピークがあるか否かを判断し、ある場合には該ピークを該中綴じ部ピークと判断し、該ピークに対応する画素データを前記明暗異常部データとすることを特徴とする請求項4または請求項5に記載の画像処理方法。 In the extracted light / dark integral value distribution, the light / dark abnormal portion determination step extracts both end peaks indicating both end portions of the document image, and based on the positions of the both end peaks, 5. The method according to claim 4, wherein it is determined whether or not there is a peak, in which case the peak is determined as the saddle stitch portion peak, and pixel data corresponding to the peak is used as the light-dark abnormality portion data. The image processing method according to claim 5. 前記画像データを前記走査方向に対して90°回転させる画像データ回転ステップを有し、
前記明暗異常部判定ステップにおいて、前記明暗異常部データを抽出しない場合には、前記画像データ回転ステップを実行した後に、前記明暗積分値分布処理ステップを再度実行する、
ことを特徴とする請求項6または請求項7に記載の画像処理方法。
An image data rotation step of rotating the image data by 90 ° with respect to the scanning direction;
In the light / dark abnormality portion determination step, when the light / dark abnormality portion data is not extracted, the light / dark integral value distribution processing step is executed again after executing the image data rotation step,
The image processing method according to claim 6 or 7, wherein:
前記明暗異常部判定ステップにより抽出された明暗異常部データに対して、画像データ本来の明暗状態に近づくように補正を行う明暗異常部補正ステップを有することを特徴とする請求項1〜請求項8何れかに記載の画像処理方法。 9. The light / dark abnormal part correction step of correcting the light / dark abnormal part data extracted in the light / dark abnormal part determination step so as to approach the original light / dark state of the image data. The image processing method according to any one of the above. 前記明暗異常部補正ステップは、前記画像データの前記直交走査方向に配列された画素データ列のそれぞれについて、該画素データ列の前記直交走査方向に対する前記明暗パラメータ分布の前記空間周波数解析を行い、さらに、該空間周波数解析の結果から、前記周波数成分抽出ステップにより抽出された明暗異常部データに対応する周波数成分を除去し、該除去した空間周波数解析の結果について、該空間周波数解析に対する逆変換を行うことを特徴とする請求項9に記載の画像処理方法。 The light / dark abnormality portion correcting step performs the spatial frequency analysis of the light / dark parameter distribution with respect to the orthogonal scanning direction of the pixel data string for each of the pixel data strings arranged in the orthogonal scanning direction of the image data, and The frequency component corresponding to the light / dark abnormal part data extracted in the frequency component extraction step is removed from the result of the spatial frequency analysis, and the result of the removed spatial frequency analysis is inversely transformed with respect to the spatial frequency analysis. The image processing method according to claim 9. 前記明暗異常部補正ステップは、前記明暗異常部データに対して、前記画像データの前記走査方向における全画素数の値で割った補正用明暗異常部データを求め、前記画像データの前記直交走査方向に配列された画素データ列のそれぞれについて、前記補正用明暗異常部データに基づいて前記明暗パラメータ補正することを特徴とする請求項9に記載の画像処理方法。 The light / dark abnormal portion correction step obtains light / dark abnormal portion data for correction obtained by dividing the light / dark abnormal portion data by the value of the total number of pixels in the scanning direction of the image data, and the orthogonal scanning direction of the image data. 10. The image processing method according to claim 9, wherein the brightness / darkness parameter correction is performed on each of the pixel data strings arranged in a manner based on the correction light / dark abnormality portion data. 前記明暗異常部補正ステップは、前記空間周波数解析結果における空間周波数が0である周波数成分の強度に基づいて、前記画像データにおける地肌部分が明るいと見做せるか否かを判断し、地肌部分が明るいと見做せると判断した場合には、前記画像データの前記直交走査方向に配列された画素データ列のそれぞれについて、前記補正用明暗異常部データを減算し、地肌部分が明るいと見做せないと判断した場合には、前記画像データの前記直交走査方向に配列された画素データ列のそれぞれについて、前記補正用明暗異常部データを加算する、
ことを特徴とする請求項11に記載の画像処理方法。
The light / dark abnormality portion correcting step determines whether or not the background portion in the image data can be considered bright based on the intensity of the frequency component having a spatial frequency of 0 in the spatial frequency analysis result, If it is determined that it is bright, the correction light / dark abnormal portion data is subtracted for each pixel data sequence arranged in the orthogonal scanning direction of the image data, and the background portion is considered bright. If it is determined that there is no correction, for each of the pixel data sequences arranged in the orthogonal scanning direction of the image data, the correction light / dark abnormality portion data is added,
The image processing method according to claim 11.
前記画像データは、白黒画像データであり、
前記明暗異常部補正ステップにより前記明暗異常部データに対する補正が行われた画像データにおける地肌部分が白色と見做せるか否かを判断し、地肌部分が白色と見做せると判断した場合には、地肌部分を構成する画素データの内、前記白黒画像データにおいて表現可能な最小濃度値に近い白色と見做せる第1所定値以下の濃度の画素データの濃度値を該最小濃度値に変換し、地肌部分が白色と見做せないと判断した場合には、地肌部分を構成する画素データの内、前記白黒画像データにおいて表現可能な最大濃度値に近い黒色と見做せる第2所定値以上の濃度の画素データの濃度値を該最大濃度値に変換する第1地肌変換ステップを有する、
ことを特徴とする請求項9〜請求項12何れかに記載の画像処理方法。
The image data is black and white image data,
When it is determined whether the background portion in the image data corrected for the light / dark abnormality portion data in the light / dark abnormality portion correction step can be regarded as white, and when it is determined that the background portion can be regarded as white The density value of pixel data having a density equal to or lower than a first predetermined value that can be regarded as white that is close to the minimum density value that can be expressed in the black-and-white image data is converted into the minimum density value. When it is determined that the background portion cannot be regarded as white, the pixel data constituting the background portion is equal to or greater than a second predetermined value that can be regarded as black that is close to the maximum density value that can be expressed in the monochrome image data. A first background conversion step of converting the density value of the pixel data of the density to the maximum density value;
The image processing method according to claim 9, wherein the image processing method is performed.
前記画像データは、カラー画像データであり、
前記明暗異常部補正ステップにより前記明暗異常部データに対する補正が行われた前記画像データにおける地肌部分の色相を検出し、地肌部分を構成する画素データの内、該検出色相に近い色相と見做せる所定範囲内の色相を有する画素データの色相を該検出色相に変換する第2地肌変換ステップを有する、
ことを特徴とする請求項9〜請求項12何れかに記載の画像処理方法。
The image data is color image data,
The hue of the background portion in the image data that has been corrected for the light / dark abnormal portion data in the light / dark abnormal portion correction step is detected, and can be regarded as a hue close to the detected hue in the pixel data constituting the background portion. A second background conversion step of converting the hue of pixel data having a hue within a predetermined range into the detected hue;
The image processing method according to claim 9, wherein the image processing method is performed.
前記画像データは、カラー画像データであり、
前記明暗異常部補正ステップにより前記明暗異常部データに対する補正が行われた前記画像データを、指定された表色形式に変換する形式変換ステップを有することを特徴とする請求項9〜請求項12及び請求項14何れかに記載の画像処理方法。
The image data is color image data,
The method according to claim 9, further comprising a format conversion step of converting the image data that has been corrected for the light / dark abnormal portion data in the light / dark abnormal portion correcting step into a specified color specification format. The image processing method according to claim 14.
前記画像データは、白黒画像データであり、
前記明暗パラメータは、濃度である、
ことを特徴とする請求項1〜請求項13何れかに記載の画像処理方法。
The image data is black and white image data,
The brightness parameter is density.
The image processing method according to any one of claims 1 to 13, wherein the image processing method is performed.
前記画像データは、カラー画像データであり、
前記明暗パラメータは、明度である、
ことを特徴とする請求項1〜請求項12及び請求項14〜請求項15の何れかに記載の画像処理方法。
The image data is color image data,
The brightness parameter is brightness.
The image processing method according to any one of claims 1 to 12 and claims 14 to 15.
原稿上の画像を読み取ることで得られ、明暗を表す明暗パラメータを含む複数の画素データから構成され、該画素データに基づく画素が2次元に配列されることにより前記原稿画像に応じた画像を形成可能な画像データの中から、該明暗パラメータが該原稿画像の本来の明暗を反映していない明暗異常部を抽出するための画像処理装置であって、
該画像データを記憶する記憶手段と、
該画像データにおける予め設定された走査方向に配列された画素データ列のそれぞれについて前記明暗パラメータの値を積分した明暗積分値から、該走査方向に直交する直交走査方向の明暗積分値分布を求める明暗積分値分布処理手段と、
該明暗積分値分布処理手段により求められた明暗積分値分布の空間周波数解析を行う周波数解析手段と、
該周波数解析手段により行われた空間周波数解析の結果から、予め設定されている正常周波数領域よりも低い低周波数領域において、前記明暗異常部を抽出するために予め設定された強度条件に基づいて、処理対象となる周波数成分を抽出する周波数成分抽出手段と、
該周波数成分抽出手段により抽出された抽出周波数成分について、前記空間周波数解析に対する逆変換を行うことにより、該抽出周波数成分によって構成される画像データの前記直交走査方向の抽出明暗積分値分布を求める抽出明暗積分値分布処理手段と、
該抽出明暗積分値分布に基づいて、明暗異常部の有無を判定する明暗異常部判定手段と、
を有することを特徴とする画像処理装置。
An image corresponding to the original image is formed by two-dimensionally arranging the pixels based on the pixel data, which is obtained by reading an image on the original and is composed of a plurality of pixel data including light and dark parameters representing light and dark. An image processing apparatus for extracting from the possible image data, a light / dark abnormal part in which the light / dark parameter does not reflect the original light / dark of the document image,
Storage means for storing the image data;
A light / dark integrated value distribution in an orthogonal scanning direction orthogonal to the scanning direction is obtained from a light / dark integrated value obtained by integrating the value of the light / dark parameter for each of pixel data sequences arranged in a preset scanning direction in the image data. Integral value distribution processing means;
Frequency analysis means for performing spatial frequency analysis of the light-dark integral value distribution obtained by the light-dark integral value distribution processing means;
From the result of the spatial frequency analysis performed by the frequency analysis means, in a low frequency region lower than a preset normal frequency region, based on a strength condition set in advance to extract the light and dark abnormal part, A frequency component extracting means for extracting a frequency component to be processed;
Extracting the extracted frequency component extracted by the frequency component extracting means to obtain the extracted light-dark integral value distribution in the orthogonal scanning direction of the image data constituted by the extracted frequency component by performing an inverse transform on the spatial frequency analysis A light-dark integrated value distribution processing means;
Based on the extracted light / dark integrated value distribution, a light / dark abnormal part determining means for determining the presence / absence of a light / dark abnormal part;
An image processing apparatus comprising:
前記記憶手段は、前記画像データの全体を記憶可能な容量を有することを特徴とする請求項18に記載の画像処理装置。 The image processing apparatus according to claim 18, wherein the storage unit has a capacity capable of storing the entire image data. 被記録媒体上に印刷された画像を読み取り、読み取った画像データに基づいて画像形成する画像形成装置であって、
請求項18または請求項19に記載の画像処理装置を備えたことを特徴とする画像形成装置。
An image forming apparatus that reads an image printed on a recording medium and forms an image based on the read image data,
An image forming apparatus comprising the image processing apparatus according to claim 18.
請求項18または請求項19に記載の画像処理装置と、
被記録媒体上に印刷された画像を読み取り、画像データを取得する読取手段と、
画像データに基づいて画像形成する画像形成手段と、
を備え、
該読取手段により取得された画像データを該画像処理装置に送信可能に、該読取手段と該画像処理装置とが接続されるとともに、
該画像処理装置が備える明暗異常部補正手段によって明暗異常部が補正された画像データを、該画像形成手段に送信可能に、該画像形成手段と該画像処理装置とが接続される、
ことを特徴とする画像処理システム。
An image processing device according to claim 18 or 19,
Reading means for reading an image printed on a recording medium and acquiring image data;
Image forming means for forming an image based on the image data;
With
The reading means and the image processing apparatus are connected so that the image data acquired by the reading means can be transmitted to the image processing apparatus, and
The image forming means and the image processing apparatus are connected so that the image data in which the light / dark abnormality portion is corrected by the light / dark abnormality portion correcting means provided in the image processing apparatus can be transmitted to the image forming means.
An image processing system characterized by that.
JP2003339673A 2003-09-30 2003-09-30 Image processing method, image processor, image forming device and image processing system Pending JP2005109807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003339673A JP2005109807A (en) 2003-09-30 2003-09-30 Image processing method, image processor, image forming device and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003339673A JP2005109807A (en) 2003-09-30 2003-09-30 Image processing method, image processor, image forming device and image processing system

Publications (1)

Publication Number Publication Date
JP2005109807A true JP2005109807A (en) 2005-04-21

Family

ID=34534798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003339673A Pending JP2005109807A (en) 2003-09-30 2003-09-30 Image processing method, image processor, image forming device and image processing system

Country Status (1)

Country Link
JP (1) JP2005109807A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109448A (en) * 2008-10-28 2010-05-13 Canon Inc Image processing method and image reading apparatus
CN102196148A (en) * 2010-03-01 2011-09-21 佳能株式会社 Image processing method, image processing equipment and image scanning equipment
US9066038B2 (en) 2012-12-25 2015-06-23 Kyocera Document Solutions Inc. Image processing and scanning apparatus identifying points having maximum density along a scanning direction so that binding position of input image is identified
WO2017018244A1 (en) * 2015-07-30 2017-02-02 京セラドキュメントソリューションズ株式会社 Image processing device
US9667832B2 (en) 2015-05-27 2017-05-30 Kyocera Document Solutions, Inc. Image processing apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109448A (en) * 2008-10-28 2010-05-13 Canon Inc Image processing method and image reading apparatus
US8390896B2 (en) 2008-10-28 2013-03-05 Canon Kabushiki Kaisha Image reading method, image reading apparatus, and program recording medium
CN102196148A (en) * 2010-03-01 2011-09-21 佳能株式会社 Image processing method, image processing equipment and image scanning equipment
US9066038B2 (en) 2012-12-25 2015-06-23 Kyocera Document Solutions Inc. Image processing and scanning apparatus identifying points having maximum density along a scanning direction so that binding position of input image is identified
US9667832B2 (en) 2015-05-27 2017-05-30 Kyocera Document Solutions, Inc. Image processing apparatus
WO2017018244A1 (en) * 2015-07-30 2017-02-02 京セラドキュメントソリューションズ株式会社 Image processing device
CN107852444A (en) * 2015-07-30 2018-03-27 京瓷办公信息系统株式会社 Image processing apparatus
JPWO2017018244A1 (en) * 2015-07-30 2018-04-12 京セラドキュメントソリューションズ株式会社 Image processing device
CN107852444B (en) * 2015-07-30 2019-04-26 京瓷办公信息系统株式会社 Image processing apparatus

Similar Documents

Publication Publication Date Title
US9053556B2 (en) Image processing apparatus for panoramic synthesis of a plurality of sub-images
JP4683654B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP5525548B2 (en) Image processing system for processing digital image and image processing method for processing digital image
JP2008011267A (en) Image processor, image processing method, image processing program, and memory medium
JP2008011269A (en) Image processor, image processing method, image processing program, and storage medium
JP6808325B2 (en) Image processing equipment, image processing methods and programs
JP6198521B2 (en) Image processing apparatus, image processing method, and program
JP2006025139A (en) Image processor, image processing method and program
JP2006262481A (en) Image processing apparatus
US8040563B2 (en) Printing method, printing apparatus, corresponding table creating method and programs
JP2008191723A (en) Face detection device, face detection method and face detection program
JP4379460B2 (en) Image forming system, image forming program, and recording medium
JP2009031978A (en) Coloring, coloring picture producing device, coloring picture producing method, and program thereof
JP2015173419A (en) Image processing device, control method of the same and program
JP2005109807A (en) Image processing method, image processor, image forming device and image processing system
US8189235B2 (en) Apparatus, method and program product that calculates a color blending ratio so security dots reproduced in a monochrome image are substantially undetectable
JP7034742B2 (en) Image forming device, its method and program
JP2007088741A (en) Image processing apparatus and image processing method
JP4189654B2 (en) Image processing device
JP4941157B2 (en) Coloring production apparatus, coloring production method and program thereof
JP2005115768A (en) Image processing method, apparatus, and system, and image forming apparatus, and image processing system
JP5020777B2 (en) Image processing apparatus, image processing method, and program
JP2010004300A (en) Image processing method, image processing apparatus, image processing program, and printer
JP2006109482A (en) Image processing method, image processing apparatus and image processing program
KR20140063378A (en) Image forminag apparatus, method for image forming and computer-readable recording medium