JP2006197239A - Image processor and image processing program - Google Patents
Image processor and image processing program Download PDFInfo
- Publication number
- JP2006197239A JP2006197239A JP2005006575A JP2005006575A JP2006197239A JP 2006197239 A JP2006197239 A JP 2006197239A JP 2005006575 A JP2005006575 A JP 2005006575A JP 2005006575 A JP2005006575 A JP 2005006575A JP 2006197239 A JP2006197239 A JP 2006197239A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- character
- image data
- edge
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
この発明は画像処理装置および画像処理プログラムに関し、特に、画像データにスクリーン処理を実行する画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program, and more particularly to an image processing apparatus and an image processing program for executing screen processing on image data.
特開平07−333822号公報(特許文献1)には、原画像を表わす画像信号から印刷版画像を作成する方法であって、(A)前記原画像を複数の領域に分割し、前記複数の領域のそれぞれに対して、互いに異なる形状または/および線数を有する複数種類のドットのいずれか一種類をそれぞれ割当てる工程と、(B)前記画像信号の階調特性と、前記複数種類のドットを形成するためのしきい値を表わす複数種類のドットパターン信号の階調特性とのうちの少なくとも一方を、前記複数種類のドットのそれぞれのドットゲイン特性に応じて補正する工程と、(C)補正済みの画像信号とドットパターン信号とを比較することによって、前記複数の領域を前記複数種類のドットでそれぞれ再現した印刷版画像を表わす画像記録信号を生成する工程と、を備えることを特徴とする印刷版画像の作成方法が記載されている。 Japanese Patent Application Laid-Open No. 07-333822 (Patent Document 1) is a method for creating a printing plate image from an image signal representing an original image, and (A) the original image is divided into a plurality of regions, Assigning each one of a plurality of types of dots having different shapes or / and the number of lines to each of the regions, and (B) gradation characteristics of the image signal and the plurality of types of dots. A step of correcting at least one of the gradation characteristics of a plurality of types of dot pattern signals representing threshold values for forming according to the respective dot gain characteristics of the plurality of types of dots; and (C) correction By comparing the completed image signal and the dot pattern signal, an image recording signal representing a printing plate image in which the plurality of areas are respectively reproduced by the plurality of types of dots is generated. Create a binary halftone image, characterized in that it comprises a step, is described.
しかしながら、特開平07−333822号公報では、形状または/および線数を有する複数種類のドットのいずれか一種類をそれぞれ割当てるので、文字にスクリーン処理が実行されることになる。このため、文字エッジが鮮明に表すことができないといった問題があった。また、画像データの文字部分にエッジ強調処理を実行することも考えられるが、この場合には、階調のある文字を表現することができないといった問題がある。
この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、文字をくっきりさせるとともに文字内部で階調を表現した画像を生成することが可能な画像処理装置および画像処理プログラムを提供することである。 The present invention has been made to solve the above-described problems, and one of the objects of the present invention is an image processing apparatus capable of generating an image in which a character is sharpened and a gradation is expressed inside the character. And providing an image processing program.
上述した目的を達成するためにこの発明のある局面によれば、画像処理装置は、画像データを入力する画像データ入力手段と、文字を構成する画素を含む文字領域と文字の輪郭部分を構成する輪郭画素とを他の画素と区別する属性データを取得する属性データ取得手段と、属性データに基づき、画像データにスクリーン処理を実行するスクリーン処理手段とを備え、スクリーン処理手段は、画像データの輪郭画素に第1のスクリーン処理を実行し、画像データの文字領域に含まれ、かつ、輪郭画素でない画素に第2のスクリーン処理を実行し、画像データの文字領域に含まれない画素に第3のスクリーン処理を実行する。 In order to achieve the above-described object, according to one aspect of the present invention, an image processing apparatus forms image data input means for inputting image data, a character region including pixels constituting a character, and a character outline portion. Attribute data acquisition means for acquiring attribute data for distinguishing contour pixels from other pixels, and screen processing means for executing screen processing on image data based on the attribute data. The screen processing means includes contours of image data. The first screen processing is performed on the pixel, the second screen processing is performed on the pixel that is included in the character region of the image data and is not the contour pixel, and the third pixel is not included in the character region of the image data. Perform screen processing.
この発明に従えば、画像データの輪郭画素に第1のスクリーン処理が実行され、文字領域に含まれるが輪郭画素でない画素に第2のスクリーン処理が実行され、文字領域に含まれない画素に第3のスクリーン処理が実行される。このため、例えば、文字の輪郭を強調して、文字の内部と文字の背景に階調性を持たせることができる。その結果、文字をくっきりさせるとともに、文字内部で階調を表現した画像を生成することが可能な画像処理装置を提供することができる。 According to the present invention, the first screen processing is performed on the contour pixels of the image data, the second screen processing is performed on the pixels that are included in the character region but are not the contour pixels, and the pixels that are not included in the character region are processed. 3 screen processing is executed. For this reason, for example, the outline of a character can be emphasized to give gradation to the inside of the character and the background of the character. As a result, it is possible to provide an image processing apparatus that can sharpen characters and generate an image expressing gradation inside the characters.
好ましくは、第1のスクリーン処理は、エッジ強調処理であり、第2のスクリーン処理は、解像度を優先したスクリーン処理であり、第3のスクリーン処理は、階調を優先したスクリーン処理である。 Preferably, the first screen processing is edge enhancement processing, the second screen processing is screen processing giving priority to resolution, and the third screen processing is screen processing giving priority to gradation.
好ましくは、属性データ取得手段は、入力された画像データから文字領域を抽出する文字領域抽出手段と、抽出された文字領域に基づき、文字の輪郭部分を構成する輪郭画素を抽出する輪郭画素抽出手段とを含む。 Preferably, the attribute data acquisition unit includes a character region extraction unit that extracts a character region from the input image data, and a contour pixel extraction unit that extracts a contour pixel constituting a contour portion of the character based on the extracted character region. Including.
好ましくは、文字領域抽出手段は、入力された画像データからエッジ画素を抽出するエッジ画素抽出手段と、エッジ画素と、エッジ画素で囲まれた画素とを含む文字領域を抽出する文字領域決定手段とを含む。 Preferably, the character area extraction means includes edge pixel extraction means for extracting edge pixels from the input image data, and character area determination means for extracting a character area including the edge pixels and pixels surrounded by the edge pixels. including.
好ましくは、輪郭画素抽出手段は、文字領域抽出手段により抽出された文字領域を拡張する拡張手段と、文字画素抽出手段により抽出された文字領域を収縮する収縮手段と、拡張手段により拡張された後の文字領域に含まれ、かつ、収縮手段により収縮された後の文字領域に含まれない画素を輪郭画素とする輪郭画素決定手段とを含む。 Preferably, the contour pixel extracting means includes an expanding means for expanding the character area extracted by the character area extracting means, a contracting means for contracting the character area extracted by the character pixel extracting means, and after being expanded by the expanding means. And a contour pixel determining unit that uses a pixel that is included in the character region and not included in the character region after being contracted by the contracting unit as a contour pixel.
好ましくは、属性データ取得手段は、入力された画像データからエッジ画素を輪郭画素として抽出するエッジ画素抽出手段と、抽出されたエッジ画素を含む矩形の文字属性領域を文字領域として抽出する文字属性領域抽出手段とを含む。 Preferably, the attribute data acquisition means extracts edge pixel from the input image data as edge pixels, and character attribute area that extracts a rectangular character attribute area including the extracted edge pixels as a character area Extraction means.
好ましくは、画像データの階調性を補正するガンマ補正手段をさらに備え、ガンマ補正手段は、画像データの輪郭画素、画像データの文字領域に含まれ、かつ、輪郭画素でない画素、および画像データの文字領域に含まれない画素に、それぞれに対して予め準備された特性曲線に応じてガンマ補正する。 Preferably, the image data further includes a gamma correction unit that corrects the gradation of the image data, and the gamma correction unit includes a contour pixel of the image data, a pixel that is included in the character region of the image data and is not a contour pixel, and the image data Gamma correction is performed on the pixels not included in the character area in accordance with a characteristic curve prepared in advance for each pixel.
この発明の他の局面によれば画像処理プログラムは、画像データを入力するステップと、文字を構成する画素を含む文字領域と文字の輪郭部分を構成する輪郭画素とを他の画素と区別する属性データを取得するステップと、画像データの輪郭画素に第1のスクリーン処理を実行するステップと、画像データの文字領域に含まれ、かつ、輪郭画素でない画素に第2のスクリーン処理を実行するステップと、画像データの文字領域に含まれない画素に第3のスクリーン処理を実行するステップとをコンピュータに実行させる。 According to another aspect of the present invention, an image processing program has an attribute for distinguishing a step of inputting image data and a character region including pixels constituting a character and a contour pixel constituting a contour portion of the character from other pixels. A step of acquiring data; a step of executing a first screen process on a contour pixel of image data; and a step of executing a second screen process on a pixel that is included in a character region of image data and is not a contour pixel; And causing the computer to execute a third screen process on pixels not included in the character area of the image data.
この発明に従えば、文字をくっきりさせるとともに、文字内部で階調を表現した画像を生成することが可能な画像処理プログラムを提供することができる。 According to the present invention, it is possible to provide an image processing program capable of generating an image that sharpens characters and expresses gradation inside the characters.
この発明のさらに他の局面によれば、画像処理装置は、画像データを入力する画像データ入力手段と、入力された画像データからエッジ画素を抽出するエッジ画素抽出手段と、画像データにスクリーン処理を実行するスクリーン処理手段とを備え、スクリーン処理手段は、画像データのエッジ画素にエッジ強調処理を実行し、画像データのエッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行する。 According to still another aspect of the present invention, an image processing apparatus includes image data input means for inputting image data, edge pixel extraction means for extracting edge pixels from the input image data, and screen processing for the image data. And a screen processing unit that executes edge enhancement processing on the edge pixels of the image data, and performs screen processing that prioritizes resolution for pixels that are not extracted as edge pixels of the image data.
この発明に従えば、画像データのエッジ画素にエッジ強調処理が実行され、画像データのエッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行が実行される。このため、例えば、文字の輪郭を強調して、文字の内部と文字の背景に階調性を持たせることができる。その結果、文字をくっきりさせるとともに、文字内部で階調を表現した画像を生成することが可能な画像処理装置を提供することができる。 According to the present invention, the edge emphasis process is executed on the edge pixels of the image data, and the screen process giving priority to the resolution is executed on the pixels that are not extracted as the edge pixels of the image data. For this reason, for example, the outline of a character can be emphasized to give gradation to the inside of the character and the background of the character. As a result, it is possible to provide an image processing apparatus that can sharpen characters and generate an image expressing gradation inside the characters.
この発明のさらに他の局面によれば、画像処理プログラムは、画像データを入力するステップと、入力された画像データからエッジ画素を抽出するステップと、画像データのエッジ画素にエッジ強調処理を実行するステップと、画像データのエッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行するステップとをコンピュータに実行させる。 According to still another aspect of the present invention, an image processing program executes a step of inputting image data, a step of extracting edge pixels from the input image data, and an edge enhancement process on the edge pixels of the image data. Causing the computer to execute a step and a step of executing a screen process giving priority to the resolution of the pixels that are not extracted as edge pixels of the image data.
この発明に従えば、文字をくっきりさせるとともに、文字内部で階調を表現した画像を生成することが可能な画像処理プログラムを提供することができる。 According to the present invention, it is possible to provide an image processing program capable of generating an image that sharpens characters and expresses gradation inside the characters.
以下、図面を参照しつつ本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<第1の実施の形態>
図1は、本発明の第1の実施の形態におけるMFP(Multi Function Peripheral)の斜視図である。図1を参照して、MFPは、原稿画像を読取るための画像読取装置10と、画像読取装置10の下部に設けられた画像形成装置20とを含む。MFPは、画像読取装置10で読取られた画像を紙などの記録媒体に形成する。また、MFPは、フアクシミリ装置、ローカルエリアネットワーク(LAN)、公衆回線などのネットワークと接続するための通信インターフェースを備える。
<First Embodiment>
FIG. 1 is a perspective view of an MFP (Multi Function Peripheral) according to the first embodiment of the present invention. Referring to FIG. 1, the MFP includes an
また、MFPには、フラッシュROM30が装着可能である。このフラッシュROM30に記憶された画像処理プログラムが、MFPが備える中央演算装置(CPU)で実行される。なお、プログラムを、フラッシュROM30から読出すのに代えて、EEPROM(electrically erasable/programable read only memory)に記憶するようにしてもよい。MFPは、EEPROMに記憶されたプログラムをCPUで実行する。またこのEEPROMは、記憶内容を書換えるまたは追加して書込みすることが可能なので、ネットワークに接続された他のコンピュータが、MFPのEEPROMに記憶されたプログラムを書換えたり、新たなプログラムを追加して書込んだりするようにしてもよい。さらに、MFPが、ネットワークに接続されたコンピュータからプログラムをダウンロードして、そのプログラムをEEPROMに記憶するようにしてもよい。
A
なお、MFPで実行されるプログラムはフラッシュROM30に記憶されて流通される例を示すが、他の記録媒体、たとえば、フレキシブルディスク、カセットテープ、CD−ROM(Compact Disc − Read Only Memory)、ハードディスク、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード(メモリカードを含む)、光カード、マスクROM、EPROM、EEPROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。
The program executed by the MFP is shown as an example of being stored in the
また、ここでいうプログラムは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム方式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。 The program referred to here includes not only a program that can be directly executed by the CPU but also a source program type program, a compressed program, an encrypted program, and the like.
図2は、本実施の形態におけるMFPの構成を示すブロック図である。図2を参照して、MFPは、原稿をライン単位で読取りR(赤)、G(緑)およびB(青)のアナログ信号を出力するCCD(Charge Coupled Device)101と、CCD101から入力された偶数番目の信号Reven,Geven,Bevenと奇数番目の信号Rodd,Godd,Boddを合成する画像合成部102と、アナログ信号をデジタル信号に変換するためのアナログデジタル変換部(A/D変換部)103と、光源の照明ムラ等を補正するためのシェーディング補正部104と、R信号,G信号およびB信号が原稿の同一ラインとなるように同期させるためのライン間補正部105と、レンズによる主走査方向の歪を補正するための色収差補正部106と、倍率の変更および画像データ中の位置を移動させる変倍・移動処理部107と、RGB色空間で表わされた画像データをCMY色空間で表わされる画像データ(CMYKデータ)に変換する色変換部108とを含む。
FIG. 2 is a block diagram showing the configuration of the MFP in the present embodiment. Referring to FIG. 2, the MFP reads a document line by line and outputs an R (red), G (green), and B (blue) analog signal, and a CCD (Charge Coupled Device) 101, and the
MFPは、さらに、R信号、G信号、B信号が入力されて画像データの各画素の属性を判別する属性判別部109と、属性判別部109による属性判別結果に応じてスクリーン処理等を行なうプリントデータ生成部110と、生成されたプリントデータを画像形成装置20に出力するためのプリンタI/F111とを備えている。
The MFP further receives an R signal, a G signal, and a B signal to determine the attribute of each pixel of the image data, and prints that perform screen processing or the like according to the attribute determination result by the
なお、ここでは、画像読取装置10で原稿を読取って得られた画像データを、画像形成装置20から出力する例を示すが、MFPとネットワークを介して接続された他のコンピュータから送信された画像データを画像形成装置20から出力するようにしてもよい。この場合には、MFPが備える通信インターフェースで画像データが受信され、その画像データが色変換部108および属性判別部109に入力される。また、MFPが備えるハードディスクから読み出された画像データを画像形成装置20から出力するようにしてもよい。この場合には、MFPが備えるハードディスクから読み出された画像データが色変換部108および属性判別部109に入力される。
Although an example in which image data obtained by reading an original with the
次に、図3および図4を用いて、属性判別部109を説明する。図3は、属性判別部109の構成を示すブロック図である。図4は、属性判別部で生成されるエッジデータの一例を示す図である。
Next, the
属性判別部109には、R,G,Bそれぞれの画像データが1ラインずつ入力される。属性判別部109は、R,G,Bの3つの画像データを明度データに変換し、明度データを処理する。属性判別部109は、ラインバッファ(FIFO)を有し、複数ライン分の明度データを処理することが可能となっている。
The
属性判別部109は、明度データからエッジ画素を抽出するエッジ抽出部131と、エッジ画素を拡張する第1ダイレーション処理部132と、拡張されたエッジを縮める第1エロージョン処理部133と、縮められたエッジを拡張する第2ダイレーション処理部134と、縮められたエッジをさらに縮める第2エロージョン処理部135と、第2ダイレージョン処理部134の出力から第2エロージョン処理部135の出力を減算して差のある差分領域を抽出して属性信号を出力する差分抽出部136とを含む。
The
エッジ抽出部131は、明度データが入力される。エッジ抽出部131は、1次微分フィルタおよび2次微分フィルタを備え、明度データに1次微分フィルタを用いたフィルタ処理と、明度データに2次微分フィルタを用いたフィルタ処理とを実行する。そして、1次微分フィルタを用いたフィルタ処理でエッジと判定された画素(エッジ画素)、および、2次微分フィルタを用いたフィルタ処理でエッジと判定された画素(エッジ画素)を「1」とし、他の画素を「0」とするエッジデータを、第1ダイレーション処理部132に出力する。図4(A)は、エッジ抽出部131が出力するエッジデータの一例を示す図である。図では、文字「L」に対応するエッジデータを示している。文字を構成する線の輪郭部分をエッジ画素とされる。図では実線で示している。文字「L」を構成する線の輪郭の内部は、エッジ画素とされていない。
The
第1ダイレーション処理部132は、エッジデータが入力される。第1ダイレーション処理部132は、エッジ画素の周辺の画素をエッジ画素とすることにより、エッジ画素を拡張する。周辺の画素は、エッジ画素から所定の数だけ離れた画素を含む。文字がある程度の太さを有する場合に、エッジ画素は、その文字の輪郭として抽出される。第1ダイレーション処理部132による処理は、文字の輪郭として抽出されたエッジ画素を、文字を構成する線にまで拡張する処理である。このため、周辺の画素の範囲は、文字を構成する線幅の1/2の範囲とすればよい。また、周辺の画素を徐々に拡大していき、2つのエッジ画素を拡張した2つの領域が重なった時点で周辺の画素の範囲を定めるようにしてもよい。第1ダイレーション処理部132は、エッジ画素を拡張したエッジデータを第1エロージョン処理部133に出力する。
Edge data is input to the first
図4(B)は、第1ダイレーション処理部132が出力するエッジデータの一例を示す図である。図中斜線部分がエッジ画素であることを示している。図4(A)に示したエッジ画素が周辺の画素にまで拡張されて、文字「L」を構成する線の内部がエッジ画素とされているとともに、線幅が拡張されている。
FIG. 4B is a diagram illustrating an example of edge data output from the first
第1エロージョン処理部133は、エッジ画素をエッジでない画素とすることにより文字の線幅を縮ませる。第1ダイレーション処理部132により文字の線幅が拡張されたため、これを元の線幅にまで縮小させる。縮小させる画素数は、第1ダイレーション処理部132で拡張した画素数と同じにすればよい。これにより、第1エロージョン処理部133は、文字を構成する線の内側のエッジ画素はそのままエッジ画素とし、文字を構成する線の外側のエッジ画素をエッジでない画素とする。第1エロージョン処理部133は、エッジ画素を縮めたエッジデータを第2ダイレーション処理部134および第2エロージョン処理部135に出力する。第1エロージョン処理部133が出力するエッジデータは、文字の線を構成する画素をエッジ画素とし、他の画素をエッジ画素としないデータである。
The first
図4(C)は、第1エロージョン処理部133が出力するエッジデータの一例を示す図である。図中斜線部分がエッジ画素であることを示している。エッジ画素を含む領域が文字領域である。図4(B)に示したエッジ画素で構成される領域が縮められ、文字の線幅が縮小されている。図4(C)に示すエッジ画素で示される文字の大きさは、図4(A)に示したエッジ画素でその輪郭が示される文字の大きさと同じとなる。
FIG. 4C is a diagram illustrating an example of edge data output from the first
このように、エッジ抽出部131、第1ダイレーション処理部132および第1エロージョン処理部133とで、画像データから文字を含む文字領域が抽出される。
In this manner, the
第2ダイレーション処理部134は、エッジ画素の周辺の画素をエッジ画素とすることによりエッジ画素を拡張する。これにより、文字の線幅が拡張される。エッジ画素の周辺の画素は、ここではエッジ画素から1画素だけ離れた画素としている。第2ダイレーション処理部134は、文字の線幅を拡張したエッジデータを差分抽出部136に出力する。
The second
図4(D)は、第2ダイレーション処理部134が出力するエッジデータの一例を示す図である。図中斜線部分がエッジ画素であることを示している。図4(C)に示したエッジ画素で構成される領域が拡張され、文字の線幅が拡張されている。
FIG. 4D is a diagram illustrating an example of edge data output from the second
第2エロージョン処理部135は、エッジ画素をエッジでない画素とすることにより文字の線幅を縮ませる。連続するエッジ画素の両端の所定数の画素をエッジでない画素とする。ここでは、連続するエッジ画素の両端の1画素をエッジでない画素とする。第2エロージョン処理部135は、文字の線幅を縮めたエッジデータを差分抽出部136に出力する。
The second
図4(E)は、第2エロージョン処理部135が出力するエッジデータの一例を示す図である。図中斜線部分がエッジ画素であることを示している。図4(C)に示したエッジ画素で構成される領域が縮小され、文字の線幅が縮められている。
FIG. 4E is a diagram illustrating an example of edge data output from the second
差分抽出部136は、第2ダイレーション処理部134から出力されるエッジデータから、第2エロージョン処理部135から出力されるエッジデータを減算して、差分領域を抽出する。この差分領域は、文字の輪郭部分に該当する。
The
図4(F)は、差分抽出部136で生成されるエッジデータの一例を示す図である。図中斜線部分が差分領域(輪郭部分)を示している。
FIG. 4F is a diagram illustrating an example of edge data generated by the
このように、第2ダイレーション処理部134、第2エロージョン処理部135および差分抽出部136で、文字領域から輪郭部分が抽出される。
As described above, the second
差分抽出部136は、第2ダイレーション処理部134から出力されるエッジデータでエッジとされるエッジ画素のうち、差分領域に含まれる画素を輪郭部分の属性(属性値「00」)とし、差分領域に含まれない画素を文字内の属性(属性値「01」)とし、第2ダイレーション処理部134から出力されるエッジデータでエッジとされていない画素を文字以外の属性(属性値「11」)とする。この属性値は、画素ごとに付され、属性信号としてプリントデータ生成部110に出力される。
The
図5は、画素の属性と属性信号との関係を示す図である。図5を参照して、画素の属性が輪郭部分の属性に対して属性信号「00」が割当てられ、画素の属性が文字内の属性に対して属性信号「01」が割当てられ、画素の属性が文字以外の属性に対して属性信号「11」が割当てられられている。 FIG. 5 is a diagram illustrating the relationship between pixel attributes and attribute signals. Referring to FIG. 5, an attribute signal “00” is assigned to the attribute of the contour portion of the pixel, an attribute signal “01” is assigned to the attribute of the pixel in the character, and the pixel attribute The attribute signal “11” is assigned to the attribute other than the character.
なお、本実施の形態においては、属性判別部109を、エッジ抽出部131と、第1ダイレーション処理部132と、第1エロージョン処理部133と、第2ダイレーション処理部134と、第2エロージョン処理部135と、差分抽出部136とで構成する例をしめしたが、属性判別部109はこれに限られるものではない。本実施の形態における属性判別部109は、文字の輪郭部分と、文字の内側部分と、文字以外の部分とを区別する他の方法を用いて、属性を判別するようにしてもよい。
In the present embodiment, the
図6は、プリントデータ生成部110の構成を示すブロック図である。図6を参照して、プリントデータ生成部110には、色変換部108からC(シアン),M(マゼンタ),Y(イエロ),K(黒)それぞれの画像データと、属性判別部109から属性信号が入力される。ここでは、C、M,Y,Kの4つの画像データは、すべて同じ処理が施されるので、それらを総称して単に画像データという。
FIG. 6 is a block diagram illustrating a configuration of the print
プリントデータ生成部110には、画像データが1ラインずつ入力される。また、複数ラインを格納するバッファ(FIFO)を有しており、複数ライン単位で処理を実行することが可能である。なお、画像データの全てを格納可能なバッファを設けても良い。
Image data is input line by line to the print
プリントデータ生成部110は、エッジ強調処理部121と、第1および第2スムージング処理部122A,122Bと、エッジ強調処理部121、第1および第2スムージング処理部122A,122Bが出力する画素値のいずれかを選択する第1選択部123と、第1選択部123で選択された画素値をガンマ補正するガンマ補正部124と、ガンマ補正された画素値が入力される第1〜第3スクリーン処理部125A,125B,125Cと、第1〜第3スクリーン処理部125A,125B,125Cが出力する画素値のいずれかを選択する第2選択部126とを含む。
The print
エッジ強調処理部121は、画像データが入力される。エッジ強調処理部121は、画像データのエッジを強調するように画像データの値を変換する。具体的には、エッジ強調処理部121は、エッジ強調用のフィルタを有し、処理対象画素の画素値と周辺の画素の画素値とを用いて処理対象画素の画素値を補正する。そして、エッジ強調した画素値を第1選択部123に出力する。
The edge
第1スムージング処理部122Aは、画像データが入力される。第1スムージング処理部122Aは、解像度をできるだけ減少させることなく画像データの階調の変化がなだらかとなるように画像データの値を変換する。具体的には、第1スムージング処理部122Aは、解像度を優先させた平滑化フィルタを有し、処理対象画素の画素値と周辺の画素の画素値とを用いて処理対象画素の画素値を補正する。そして、解像度を優先させて平滑化した画素値を第1選択部123に出力する。
Image data is input to the first
第2スムージング処理部122Bは、画像データが入力される。第2スムージング処理部122Bは、画像データの階調の変化が滑らかとなるように画像データの値を変換する。具体的には、第1スムージング処理部122Bは、階調の変化を優先させた平滑化フィルタを有し、処理対象画素の画素値と周辺の画素の画素値とを用いて処理対象画素の画素値を補正する。そして、階調を優先させて平滑化した画素値を第1選択部123に出力する。
Image data is input to the second
第1選択部123は、属性判別部109から入力される属性信号に従って、エッジ強調処理部121が出力する画素値、第1スムージング処理部122Aが出力する画素値および第2スムージング処理部122Bが出力する画素値のいずれか1つを選択し、選択した画素値をガンマ補正部124に出力する。具体的には、入力された属性信号が輪郭部分の属性を示す「00」の場合にはエッジ強調処理部121が出力する画素値を選択し、入力された属性信号が文字内の属性を示す「01」の場合には第1スムージング処理部122Aが出力する画素値を選択し、入力された属性信号が文字以外の属性を示す「11」の場合には第2スムージング処理部122Bが出力する画素値を選択する。
The
ガンマ補正部124は、選択部123から画素値が入力され、属性判別部109から属性信号が入力される。ガンマ補正部124は、画素の属性に対応して特性曲線を備えている。そして、入力された画素値を、入力された属性信号に対応する特性曲線を用いてその特性曲線に応じて階調を補正する。これにより、画素の属性に応じて階調性が補正される。そして、ガンマ補正部124は、補正した画素値を第1〜第3スクリーン処理部125A,125B,125Cに出力する。
The
第1スクリーン処理部125Aは、ガンマ補正部124からガンマ補正された画素値が入力される。第1スクリーン処理部125Aは、エッジ強調用のスクリーンを有する。第1スクリーン処理部125Aは、複数あるスクリーンのうちから画素値に対応する1のスクリーンを選択して、第2選択部126に出力する。
The first screen processing unit 125 </ b> A receives the gamma corrected pixel value from the
第2スクリーン処理部125Bは、ガンマ補正部124からガンマ補正された画素値が入力される。第2スクリーン処理部125Bは、解像度をできるだけ減少させることなく画像データの階調の変化がなだらかとなるスクリーンを有する。第2スクリーン処理部125Bは、複数あるスクリーンのうちから画素値に対応する1のスクリーンを選択して、第2選択部126に出力する。
The second screen processing unit 125B receives the gamma corrected pixel value from the
第3スクリーン処理部125Cは、ガンマ補正部124からガンマ補正された画素値が入力される。第3スクリーン処理部125Cは、階調の変化がなだらかとなるスクリーンを有する。第3スクリーン処理部125Cは、複数あるスクリーンのうちから画素値に対応する1のスクリーンを選択して、第2選択部126に出力する。第3スクリーン処理部125Cが有するスクリーンは、第2スクリーン処理部125Bがスクリーンよりも同じ階調であれば線数が少ない。換言すれば、第3スクリーン処理部125Cが実行するスクリーン処理は、写真などが表された領域に実行するのに適している。第2スクリーン処理部125Bが実行するスクリーン処理は、文字が表された領域に実行するのに適している。
The third
第2選択部126は、第1〜第3スクリーン処理部125A,125B,125Cそれぞれからスクリーンが入力され、属性判別部109から属性信号が入力される。第2選択部126は、属性判別部109から入力される属性信号に従って、第1〜第3スクリーン処理部125A,125B,125Cそれぞれから入力されるスクリーンのいずれか1つを選択し、選択したスクリーンを画像データとして出力する。具体的には、入力された属性信号が輪郭部分の属性を示す「00」の場合には第1スクリーン処理部125Aが出力するスクリーンを選択し、入力された属性信号が文字内の属性を示す「01」の場合には第2スクリーン処理部125Bが出力するスクリーンを選択し、入力された属性信号が文字以外の属性を示す「11」の場合には第3スクリーン処理部125Cが出力するスクリーンを選択する。
The
図7は、本実施の形態におけるMFPで実行される画像処理の流れを示すフローチャートである。図7を参照して、MFPには、画像データが入力される(ステップS01)。画像データは、画像読取装置10で原稿を読取って出力される画像データ、通信インターフェースを介して他のコンピュータから送信された画像データのいずれであってもよい。
FIG. 7 is a flowchart showing a flow of image processing executed by the MFP in the present embodiment. Referring to FIG. 7, image data is input to the MFP (step S01). The image data may be either image data output by reading a document with the
次のステップS02では、ステップS01で入力された画像データから文字を抽出する。この処理は、上述した、エッジ抽出部131、第1ダイレーション処理部132および第1エロージョン処理部133で実行される処理と同様である。これにより、図4(C)に示した文字をエッジ画素とするエッジデータが生成される。
In the next step S02, characters are extracted from the image data input in step S01. This processing is the same as the processing executed by the
次のステップS03では、ステップS02で抽出された文字からその文字の輪郭部分が抽出される。この処理は、第2ダイレーション処理部134、第2エロージョン処理部135および差分抽出部136で実行される処理と同様である。これにより、図4(F)に示した輪郭部分をエッジ画素とするエッジデータが生成される。
In the next step S03, the outline portion of the character is extracted from the character extracted in step S02. This processing is the same as the processing executed by the second
以下、ステップS02で抽出された文字に含まれる画素であって、ステップS03で抽出された輪郭部分に含まれない画素を文字内画素といい、輪郭部分に含まれる画素でなく、文字内画素でもない画素を文字以外の画素という。 Hereinafter, pixels included in the character extracted in step S02 and not included in the contour portion extracted in step S03 are referred to as intra-character pixels, and pixels included in the character are not included in the contour portion. Non-character pixels are referred to as pixels other than characters.
次のステップS04では、ステップS01で入力されたRGB表色系の画像データの各画素値を、CMY表色系の画像データに変換する。これにより、以降の処理で処理対象となる画像データは、CMY表色系の画像データとなる。 In the next step S04, each pixel value of the RGB color system image data input in step S01 is converted into CMY color system image data. As a result, the image data to be processed in the subsequent processing becomes CMY color system image data.
次のステップS05では、画像データのうちから1画素を選択して処理対象画素とし、その処理対象画素が文字か否かが判定される。文字と判定された場合にはステップS06に進み、そうでない場合にはステップS13に進む。ステップS05の判断は、処理対象画素がステップS02で抽出された文字に含まれるか否かにより判断される。具体的には、文字をエッジ画素とするエッジデータを用いて、処理対象画素がエッジ画素か否かが判断される。 In the next step S05, one pixel is selected from the image data as a processing target pixel, and it is determined whether or not the processing target pixel is a character. If it is determined that the character is a character, the process proceeds to step S06, and if not, the process proceeds to step S13. The determination in step S05 is determined based on whether or not the pixel to be processed is included in the character extracted in step S02. Specifically, it is determined whether or not the processing target pixel is an edge pixel by using edge data having a character as an edge pixel.
ステップS06では、処理対象画素が輪郭部分か否かが判定される。輪郭部分と判定された場合にはステップS07に進み、そうでない場合にはステップS10に進む。ステップS06の判断は、処理対象画素がステップS03で抽出された輪郭に含まれるか否かにより判断される。具体的には、輪郭部分をエッジ画素とするエッジデータを用いて、処理対象画素がエッジ画素か否かが判断される。 In step S06, it is determined whether or not the processing target pixel is a contour portion. If it is determined that the contour portion is determined, the process proceeds to step S07. If not, the process proceeds to step S10. The determination in step S06 is determined based on whether or not the pixel to be processed is included in the contour extracted in step S03. Specifically, it is determined whether or not the processing target pixel is an edge pixel by using edge data having an edge portion as an edge pixel.
すなわち、ステップS07に進む場合は、処理対象画素が輪郭部分に含まれる場合であり、ステップS10に進む場合は処理対象画素が文字内画素の場合であり、ステップS13に進む場合には処理対象画素が文字以外の画素の場合である。 That is, when the process proceeds to step S07, the process target pixel is included in the contour portion, when the process proceeds to step S10, the process target pixel is a pixel in the character, and when proceeding to step S13, the process target pixel is processed. Is a pixel other than a character.
ステップS07では、処理対象画素にエッジを強調するエッジ強調処理を行なう。具体的には、エッジ強調用のフィルタを用いて、処理対象画素の画素値と周辺の画素の画素値とから処理対象画素の画素値を補正する。 In step S07, edge emphasis processing for emphasizing the edge of the processing target pixel is performed. Specifically, the pixel value of the processing target pixel is corrected from the pixel value of the processing target pixel and the pixel values of surrounding pixels using an edge enhancement filter.
次のステップS08では、ステップS07で補正された処理対象画素の画素値をエッジ強調用に準備された特性曲線を用いてガンマ補正する。 In the next step S08, the pixel value of the pixel to be processed corrected in step S07 is gamma-corrected using a characteristic curve prepared for edge enhancement.
次のステップS09では、エッジ強調用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS16に進む。 In the next step S09, one screen corresponding to the pixel value of the processing target pixel subjected to gamma correction is selected from the screens prepared in advance for edge enhancement. Then, the process proceeds to step S16.
ステップS10では、処理対象画素に解像度を優先したスムージング処理を行なう。具体的には、解像度を優先させた平滑化フィルタを用いて、処理対象画素の画素値とその周辺の画素の画素値とに基づき処理対象画素の画素値を補正する。 In step S10, a smoothing process giving priority to resolution is performed on the processing target pixel. Specifically, the pixel value of the processing target pixel is corrected based on the pixel value of the processing target pixel and the pixel values of surrounding pixels using a smoothing filter that prioritizes resolution.
次のステップS11では、ステップS10でスムージング処理された処理対象画素の画素値を、文字内の画素用に準備された特性曲線を用いてガンマ補正する。 In the next step S11, the pixel value of the processing target pixel subjected to the smoothing process in step S10 is gamma-corrected using the characteristic curve prepared for the pixels in the character.
次のステップS12では、文字内画素用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS16に進む。 In the next step S12, one screen corresponding to the pixel value of the processing target pixel subjected to gamma correction is selected from screens prepared in advance for the pixels in the character. Then, the process proceeds to step S16.
ステップS13では、処理対象画素に階調を優先したスムージング処理を行なう。具体的には、階調を優先させた平滑化フィルタを用いて、処理対象画素の画素値とその周辺の画素の画素値とに基づき処理対象画素の画素値を補正する。 In step S13, a smoothing process is performed with priority given to the gradation for the processing target pixel. Specifically, the pixel value of the processing target pixel is corrected based on the pixel value of the processing target pixel and the pixel values of surrounding pixels using a smoothing filter that prioritizes gradation.
次のステップS14では、ステップS13でスムージング処理された処理対象画素の画素値を、文字以外の画素用に準備された特性曲線を用いてガンマ補正する。 In the next step S14, the pixel value of the processing target pixel subjected to the smoothing process in step S13 is gamma-corrected using a characteristic curve prepared for pixels other than characters.
次のステップS15では、文字以外の画素用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS16に進む。 In the next step S15, one screen corresponding to the pixel value of the pixel to be processed subjected to gamma correction is selected from screens prepared for pixels other than characters. Then, the process proceeds to step S16.
ステップS16では、次に処理対象とするべき画素があるか否かが判断され、真の場合にはステップS05に戻り、次の画素を処理対象画素に選択して上述した処理を繰り返し実行する。偽の場合にはステップS17に進む。 In step S16, it is determined whether or not there is a pixel to be processed next. If true, the process returns to step S05, the next pixel is selected as the processing target pixel, and the above-described processing is repeatedly executed. If not, the process proceeds to step S17.
ステップS17では、スクリーン処理された画像データを出力する。これにより、画像形成装置20で画像形成され、画像データに基づいて、用紙などの記録媒体に画像が形成される。
In step S17, the screen-processed image data is output. As a result, an image is formed by the
以上説明したように第1の実施の形態におけるMFPでは、画像データから抽出された文字の輪郭部分にエッジを強調するスクリーン処理を実行し、文字内部分に解像度を優先したスクリーン処理を実行し、文字以外の部分に階調を優先したスクリーン処理を実行する。このため、文字の輪郭部分がエッジ強調され、文字の外部に加えて文字の内部の領域に階調を表現することができる。このため、文字の輪郭を鮮明にするとともに、文字の内部に階調性を持たせた画像を形成することができる。さらに文字の内部に解像度を優先させたスクリーン処理を実行し、文字の外部に階調を優先させたスクリーン処理を実行するので、文字を鮮明に表現することができる。 As described above, in the MFP according to the first embodiment, the screen processing for emphasizing the edge is performed on the outline portion of the character extracted from the image data, and the screen processing with priority on the resolution is performed on the inner portion of the character. Executes screen processing that prioritizes gradation for parts other than characters. For this reason, the outline portion of the character is edge-enhanced, and gradation can be expressed in the area inside the character in addition to the outside of the character. For this reason, it is possible to form an image in which the outline of the character is clear and the character has gradation. Furthermore, screen processing with priority given to resolution is executed inside the character, and screen processing with priority given to gradation outside the character is executed, so that the character can be expressed clearly.
<属性判別部の変形例>
上述した属性判別部109では、画像データから文字を抽出するようにした。変形された属性判別部109Aでは、文字を抽出することなく、エッジとそのエッジを含む矩形のエッジ領域を抽出することによって、画素の属性を判別する。
<Modification of attribute discrimination unit>
The
図8は、変形された属性判別部109Aの構成を示すブロック図である。図9は、変形された属性判別部109Aで生成されるエッジデータの一例を示す図である。図8および図9を参照して、属性判別部109Aは、エッジ抽出部131と、文字属性領域抽出部137と、属性信号生成部138とを含む。
FIG. 8 is a block diagram showing the configuration of the modified
エッジ抽出部131は、明度データが入力される。エッジ抽出部131は、1次微分フィルタおよび2次微分フィルタを備え、明度データに1次微分フィルタを用いたフィルタ処理と、明度データに2次微分フィルタを用いたフィルタ処理とを実行する。そして、1次微分フィルタを用いたフィルタ処理でエッジと判定された画素(エッジ画素)、および、2次微分フィルタを用いたフィルタ処理でエッジと判定された画素(エッジ画素)を「1」とし、他の画素を「0」とするエッジデータを、文字属性領域抽出部137および属性信号生成部138に出力する。図9(A)は、エッジ抽出部131が出力するエッジデータの一例を示す図である。図では、文字「L」に対応するエッジデータを示している。文字を構成する線の輪郭部分をエッジ画素とされる。図では実線で示している。文字「L」を構成する線の輪郭の内部は、エッジ画素とされていない。
The
文字属性領域抽出部137は、エッジ抽出部131からエッジデータが入力される。そして、入力されたエッジデータから、エッジ画素に外接する矩形の領域を文字属性領域として抽出する。そして、抽出した文字属性領域に含まれる画素を「1」とし、他の画素を「0」とする文字属性領域データを属性信号生成部138に出力する。図9(B)は、文字属性領域抽出部137が出力する文字属性領域データの一例を示す図である。図中斜線で示す部分が文字属性領域を示している。他の領域は、文字以外の例えば写真等が表された領域である。
The character attribute
属性信号生成部138は、入力されるエッジデータおよび文字属性領域データから属性信号を生成して、生成した属性信号をプリントデータ生成部110に出力する。属性信号生成部138は、文字属性領域に含まれるエッジ画素に属性信号「00」を割当て、文字属性領域に含まれるがエッジ画素でない画素に属性信号「01」を割当て、文字属性領域に含まれない画素に属性信号「11」を割当てる。
The attribute
図10は、画素の属性とエッジと属性信号との関係を示す図である。図5と比較すると、文字属性領域に含まれるエッジ画素に、属性が輪郭部分と同じ属性信号「00」が割当てられ、文字属性領域に含まれるがエッジ画素でない画素に属性が文字内の属性信号「01」が割当てられ、文字属性領域に含まれない画素に属性が文字以外の属性信号「11」が割当てられている。 FIG. 10 is a diagram illustrating a relationship among pixel attributes, edges, and attribute signals. Compared with FIG. 5, the attribute signal “00” having the same attribute as that of the contour portion is assigned to the edge pixel included in the character attribute region, and the attribute signal in the character is included in the pixel included in the character attribute region but not the edge pixel. “01” is assigned, and an attribute signal “11” other than a character is assigned to a pixel not included in the character attribute area.
したがって、変形された属性判別部109Aに従えば、プリントデータ生成部110は、文字属性領域のうちエッジ画素は第1スクリーン処理部125Aによりスクリーン処理された画素値を選択し、エッジ画素以外の画素は第2スクリーン処理部125Bによりスクリーン処理された画素値を選択し、文字属性領域以外の画素は第3スクリーン処理部125Cによりスクリーン処理された画素値を選択する。
Therefore, according to the modified
なお、変形された属性判別部109Aは、エッジ画素を文字の輪郭部分とし、輪郭部分の画素と、エッジ画素以外の文字属性領域の画素と、文字属性領域以外の画素とを区別するようにしたが、属性判別部109Aはこれに限られるものではない。変形された属性判別部109Aは、文字の輪郭部分と、文字の内側部分および外側の周辺部分と、写真等が表された部分とを区別する他の方法を用いて、属性を判別するようにしてもよい。
The modified
図11は、変形された属性判別部109Aを適用したMFPで実行される画像処理の流れを示すフローチャートである。図11を参照して、MFPには、画像データが入力される(ステップS21)。次のステップS22では、ステップS01で入力された画像データからエッジ画素を抽出する。この処理は、上述した、エッジ抽出部131で実行される処理と同様である。これにより、図9(A)に示したエッジデータが生成される。
FIG. 11 is a flowchart showing a flow of image processing executed by the MFP to which the modified
次のステップS23では、ステップS02で抽出されたエッジ画素に外接する矩形の文字属性領域を抽出する。この処理は、文字属性領域抽出部137で実行される処理と同様である。これにより、図9(B)に示した文字属性領域データが生成される。
In the next step S23, a rectangular character attribute area circumscribing the edge pixel extracted in step S02 is extracted. This process is the same as the process executed by the character attribute
次のステップS24では、ステップS01で入力されたRGB表色系の画像データの各画素値を、CMY表色系の画像データに変換する。これにより、以降の処理で処理対象となる画像データは、CMY表色系の画像データとなる。 In the next step S24, each pixel value of the RGB color system image data input in step S01 is converted into CMY color system image data. As a result, the image data to be processed in the subsequent processing becomes CMY color system image data.
次のステップS25では、画像データのうちから1画素を選択して処理対象画素とし、その処理対象画素が文字属性領域に含まれるか否かが判定される。文字属性領域に含まれると判定された場合にはステップS26に進み、そうでない場合にはステップS33に進む。 In the next step S25, one pixel is selected from the image data as a processing target pixel, and it is determined whether or not the processing target pixel is included in the character attribute area. If it is determined that it is included in the character attribute area, the process proceeds to step S26, and if not, the process proceeds to step S33.
ステップS26では、処理対象画素がエッジ画素が否かが判定される。処理対象画素がエッジ画素と判定された場合にはステップS27に進み、そうでない場合にはステップS30に進む。 In step S26, it is determined whether the processing target pixel is an edge pixel. If it is determined that the pixel to be processed is an edge pixel, the process proceeds to step S27, and if not, the process proceeds to step S30.
ステップS27〜S37の処理は、図7に示した画像処理のステップS07〜ステップS17の処理とそれぞれ同様であるので、ここでは説明を繰返さない。 The processing in steps S27 to S37 is the same as the processing in steps S07 to S17 of the image processing shown in FIG. 7, and therefore description thereof will not be repeated here.
以上説明したように、画像データから抽出された文字の輪郭部分にエッジを強調するスクリーン処理を実行し、文字内部分および文字の外側の文字属性領域に解像度を優先したスクリーン処理を実行し、文字属性領域以外の部分に階調を優先したスクリーン処理を実行する。このため、文字の輪郭部分がエッジ強調され、文字の外部に加えて文字の内部の領域に階調を表現することができる。このため、文字の輪郭を鮮明にするとともに、文字の内部に階調性を持たせた画像を形成することができる。 As described above, the screen processing for emphasizing the edge is performed on the outline portion of the character extracted from the image data, the screen processing giving priority to the resolution is performed on the character inner portion and the character attribute area outside the character, and the character Screen processing that prioritizes gradation is executed for portions other than the attribute region. For this reason, the outline portion of the character is edge-enhanced, and gradation can be expressed in the area inside the character in addition to the outside of the character. For this reason, it is possible to form an image in which the outline of the character is clear and the character has gradation.
<第2の実施の形態>
第2の実施の形態におけるMFPは、第1の実施の形態における属性判別部109とプリントデータ生成部110を変更したものである。他の構成は第1の実施の形態におけるMFPと同様であるのでここでは、異なる点を主に説明する。
<Second Embodiment>
The MFP in the second embodiment is obtained by changing the
図12は、第2の実施の形態におけるMFPの属性判別部の構成を示すブロック図である。図13は、属性判別部で生成されるエッジデータの一例を示す図である。 FIG. 12 is a block diagram illustrating a configuration of the attribute determination unit of the MFP according to the second embodiment. FIG. 13 is a diagram illustrating an example of edge data generated by the attribute determination unit.
属性判別部109Bは、明度データから内エッジ画素を抽出する内エッジ抽出部139と、外エッジ画素を抽出する外エッジ抽出部140と、内エッジ画素と外エッジ画素とから属性信号を生成する合成部141とを含む。
The attribute determination unit 109B generates an attribute signal from the inner edge pixel and the outer edge pixel, and the inner
内エッジ抽出部139は、明度データが入力される。内エッジ抽出部139は、内エッジを検出するためのフィルタを備え、明度データに内エッジフィルタを用いたフィルタ処理を実行する。そして、内エッジフィルタを用いたフィルタ処理で内エッジと判定された画素(内エッジ画素)を「1」とし、他の画素を「0」とする内エッジデータを、合成部141に出力する。内エッジとは、文字の輪郭の内側を構成する画素をいう。ここで、図13を参照して、文字の輪郭151に対して、その内側の1画素分の幅を有する領域152が内エッジである。
The inner
外エッジ抽出部140は、明度データが入力される。外エッジ抽出部140は、外エッジを検出するためのフィルタを備え、明度データに外エッジフィルタを用いたフィルタ処理を実行する。そして、外エッジフィルタを用いたフィルタ処理で外エッジと判定された画素(外エッジ画素)を「1」とし、他の画素を「0」とする外エッジデータを、合成部141に出力する。外エッジとは、文字の輪郭の外側を構成する画素をいう。ここで、図13を参照して、文字の輪郭151に対して、その外側の1画素分の幅を有する領域153が外エッジである。
The outer
合成部141は、内エッジデータと外エッジデータが入力される。合成部141は、論理和回路であり、内エッジデータおよび外エッジデータのいずれかで「1」とされる画素の値を「1」とし、他の画素の値を「0」とする合成データを生成する。そして、合成データで画素値が「1」とされる画素(内エッジ画素または外エッジ画素)に属性信号「00」を割当て、合成データで画素値が「0」とされる画素に属性信号「11」を割当てる。
The
図14は、エッジと属性信号との関係を示す図である。図5と比較すると、内エッジ画素または外エッジ画素に、属性が輪郭部分と同じ属性信号「00」が割当てられ、内エッジでも外エッジでもない背景部分の画素に属性が文字以外の属性信号「11」が割当てられている。 FIG. 14 is a diagram illustrating the relationship between edges and attribute signals. Compared with FIG. 5, the attribute signal “00” having the same attribute as that of the contour portion is assigned to the inner edge pixel or the outer edge pixel, and the attribute signal “non-character” is assigned to the pixel of the background portion that is neither the inner edge nor the outer edge. 11 "is assigned.
図15は、第2の実施の形態におけるプリントデータ生成部の構成を示す図である。図15を参照して、プリントデータ生成部110Aは、エッジ強調処理部121と、第2スムージング処理部122Bと、エッジ強調処理部121および第2スムージング処理部122Bが出力する画素値のいずれかを選択する第1選択部123Aと、第1選択部123Aで選択された画素値をガンマ補正するガンマ補正部124Aと、ガンマ補正された画素値が入力される第1および第3スクリーン処理部125A,125Cと、第1および第3スクリーン処理部125A,125Cが出力する画素値のいずれかを選択する第2選択部126Aとを含む。
FIG. 15 is a diagram illustrating a configuration of a print data generation unit according to the second embodiment. Referring to FIG. 15, print
第1選択部123Aは、属性判別部109Bから入力される属性信号に従って、エッジ強調処理部121が出力する画素値および第2スムージング処理部122Bが出力する画素値のいずれか1つを選択し、選択した画素値をガンマ補正部124Aに出力する。具体的には、入力された属性信号が内エッジ画素または外エッジ画素を示す「00」の場合にはエッジ強調処理部121が出力する画素値を選択し、入力された属性信号が内エッジ画素でも外エッジ画素でもない画素であることを示す「11」の場合には第2スムージング処理部122Bが出力する画素値を選択する。
The
ガンマ補正部124Aは、選択部123Aから画素値が入力され、属性判別部109Bから属性信号が入力される。ガンマ補正部124Aは、入力された画素値を、入力された属性信号に対応する特性曲線を用いてその特性曲線に応じて階調を補正する。これにより、画素の属性に応じて階調性が補正される。そして、ガンマ補正部124Aは、補正した画素値を第1および第3スクリーン処理部125A,125Cに出力する。
The
第2選択部126Aは、第1および第3スクリーン処理部125A,125Cそれぞれからスクリーンが入力され、属性判別部109Bから属性信号が入力される。第2選択部126Aは、属性判別部109Bから入力される属性信号に従って、第1および第3スクリーン処理部125A,125Cそれぞれから入力されるスクリーンのいずれか1つを選択し、選択したスクリーンを画像データとして出力する。具体的には、入力された属性信号が内エッジ画素または外エッジ画素を示す「00」の場合には第1スクリーン処理部125Aが出力するスクリーンを選択し、入力された属性信号が内エッジ画素でも外エッジ画素でもない画素であることを示す「11」の場合には第3スクリーン処理部125Cが出力するスクリーンを選択する。
The
なお、第2の実施の形態における属性判別部109Bは、内エッジ画素と外エッジ画素とを文字の輪郭部分とし、輪郭部分の画素と、輪郭部分以外の画素とを区別するようにしたが、属性判別部109Bはこれに限られるものではない。属性判別部109Bは、文字の輪郭部分の画素と、それ以外の画素とを区別する他の方法を用いて、属性を判別するようにしてもよい。例えば、内エッジ画素のみ、外エッジ画素のみのように、1つのエッジ抽出フィルタを用いて抽出されたエッジ画素を輪郭部分とするようにしてもよい。 Note that the attribute determination unit 109B in the second embodiment uses the inner edge pixel and the outer edge pixel as the contour portion of the character, and distinguishes the pixel of the contour portion from the pixels other than the contour portion. The attribute determination unit 109B is not limited to this. The attribute discriminating unit 109B may discriminate the attribute by using another method for distinguishing the pixel in the outline portion of the character from the other pixels. For example, an edge pixel extracted using one edge extraction filter, such as only the inner edge pixel and only the outer edge pixel, may be used as the contour portion.
図16は、第2の実施の形態におけるMFPで実行される画像処理の流れを示すフローチャートである。図16を参照して、MFPには、画像データが入力される(ステップS41)。次のステップS42では、ステップS01で入力された画像データからエッジ画素を抽出する。この処理は、上述した、内エッジ抽出部139、外エッジ抽出部140で実行される処理と同様である。これにより、図13に示した内エッジ画素および外エッジ画素を「1」とし他の画素を「0」とするエッジデータが生成される。
FIG. 16 is a flowchart showing the flow of image processing executed by the MFP in the second embodiment. Referring to FIG. 16, image data is input to the MFP (step S41). In the next step S42, edge pixels are extracted from the image data input in step S01. This process is the same as the process executed by the inner
次のステップS43では、ステップS01で入力されたRGB表色系の画像データの各画素値を、CMY表色系の画像データに変換する。これにより、以降の処理で処理対象となる画像データは、CMY表色系の画像データとなる。 In the next step S43, each pixel value of the RGB color system image data input in step S01 is converted into CMY color system image data. As a result, the image data to be processed in the subsequent processing becomes CMY color system image data.
次のステップS44では、画像データのうちから1画素を選択して処理対象画素とし、その処理対象画素が内エッジ画素または外エッジ画素か否かが判定される。内エッジ画素または外エッジ画素と判定された場合にはステップS45に進み、そうでない場合にはステップS48に進む。 In the next step S44, one pixel is selected from the image data as a processing target pixel, and it is determined whether the processing target pixel is an inner edge pixel or an outer edge pixel. If it is determined that the pixel is an inner edge pixel or an outer edge pixel, the process proceeds to step S45, and if not, the process proceeds to step S48.
ステップS45では、処理対象画素にエッジを強調するエッジ強調処理を行なう。具体的には、エッジ強調用のフィルタを用いて、処理対象画素の画素値と周辺の画素の画素値とから処理対象画素の画素値を補正する。次のステップS46では、ステップS45で補正された処理対象画素の画素値をエッジ強調用に準備された特性曲線を用いてガンマ補正する。次のステップS47では、エッジ強調用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS51に進む。 In step S45, an edge enhancement process for enhancing an edge on the processing target pixel is performed. Specifically, the pixel value of the processing target pixel is corrected from the pixel value of the processing target pixel and the pixel values of surrounding pixels using an edge enhancement filter. In the next step S46, the pixel value of the processing target pixel corrected in step S45 is gamma-corrected using a characteristic curve prepared for edge enhancement. In the next step S47, one screen corresponding to the pixel value of the processing target pixel subjected to gamma correction is selected from the screens prepared in advance for edge enhancement. Then, the process proceeds to step S51.
ステップS48では、処理対象画素に階調を優先したスムージング処理を行なう。具体的には、階調を優先させた平滑化フィルタを用いて、処理対象画素の画素値とその周辺の画素の画素値とに基づき処理対象画素の画素値を補正する。次のステップS49では、ステップS48でスムージング処理された処理対象画素の画素値を、文字以外の画素用に準備された特性曲線を用いてガンマ補正する。次のステップS50では、文字以外の画素用に予め準備されたスクリーンのうちから、ガンマ補正された処理対象画素の画素値に対応する1のスクリーンを選択する。そして、ステップS51に進む。 In step S48, a smoothing process is performed with priority given to gradation for the processing target pixel. Specifically, the pixel value of the processing target pixel is corrected based on the pixel value of the processing target pixel and the pixel values of surrounding pixels using a smoothing filter that prioritizes gradation. In the next step S49, the pixel value of the processing target pixel subjected to the smoothing process in step S48 is gamma-corrected using a characteristic curve prepared for pixels other than characters. In the next step S50, one screen corresponding to the pixel value of the processing target pixel subjected to gamma correction is selected from screens prepared in advance for pixels other than characters. Then, the process proceeds to step S51.
ステップS51では、次に処理対象とするべき画素があるか否かが判断され、真の場合にはステップS44に戻り、次の画素を処理対象画素に選択して上述した処理を繰り返し実行する。偽の場合にはステップS52に進む。ステップS52では、スクリーン処理された画像データを出力する。これにより、画像形成装置20で画像形成され、画像データに基づいて、用紙などの記録媒体に画像が形成される。
In step S51, it is determined whether or not there is a pixel to be processed next. If true, the process returns to step S44, the next pixel is selected as the processing target pixel, and the above-described processing is repeatedly executed. If not, the process proceeds to step S52. In step S52, the screen-processed image data is output. As a result, an image is formed by the
<属性判別部の変形例>
図17は、第2の実施の形態におけるMFPの変形された属性判別部の構成を示す図である。図17を参照して、変形された属性判別部109Cは、内エッジ抽出部139で構成される。
<Modification of attribute discrimination unit>
FIG. 17 is a diagram illustrating a configuration of a modified attribute determination unit of the MFP according to the second embodiment. Referring to FIG. 17, the modified
以上説明したように第2の実施の形態におけるMFPでは、画像データのエッジ画素にエッジを強調するスクリーン処理を実行し、エッジ画素でない画素に階調を優先したスクリーン処理を実行する。このため、文字の輪郭部分がエッジ強調され、文字の内部および外部の領域に階調が表現される画像となる。このため、文字の輪郭を鮮明にするとともに、文字の内部に階調性を持たせた画像を形成することができる。 As described above, in the MFP according to the second embodiment, screen processing for emphasizing edges is performed on edge pixels of image data, and screen processing is performed with priority given to gradation on pixels that are not edge pixels. For this reason, the outline portion of the character is edge-enhanced, and an image in which gradation is expressed in the inside and outside regions of the character is obtained. For this reason, it is possible to form an image in which the outline of the character is clear and the character has gradation.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
10 画像読取装置、20 画像形成装置、102 画像合成部、104 シェーディング補正部、105 ライン間補正部、106 色収差補正部、107 変倍・移動処理部、108 色変換部、109,109A、109B,109C 属性判別部、110,110A プリントデータ生成部、121 エッジ強調処理部、122A 第1スムージング処理部、122B 第2スムージング処理部、123,123A 第1選択部、124,124A ガンマ補正部、125A 第1スクリーン処理部、125B 第2スクリーン処理部、125C 第3スクリーン処理部、126 第2選択部、126A 選択部、131 エッジ抽出部、132 第1ダイレーション処理部部、133 第1エロージョン処理部、134 第2ダイレージョン処理部、135 第2エロージョン処理部、136 差分抽出部、137 文字領域抽出部、138 属性信号生成部、139 内エッジ抽出部、140 外エッジ抽出部、141 合成部、111 プリンタI/F。
DESCRIPTION OF
Claims (10)
文字を構成する画素を含む文字領域と文字の輪郭部分を構成する輪郭画素とを他の画素と区別する属性データを取得する属性データ取得手段と、
前記属性データに基づき、前記画像データにスクリーン処理を実行するスクリーン処理手段とを備え、
前記スクリーン処理手段は、前記画像データの前記輪郭画素に第1のスクリーン処理を実行し、前記画像データの前記文字領域に含まれ、かつ、前記輪郭画素でない画素に第2のスクリーン処理を実行し、前記画像データの前記文字領域に含まれない画素に第3のスクリーン処理を実行する、画像処理装置。 Image data input means for inputting image data;
Attribute data acquisition means for acquiring attribute data for distinguishing a character region including a pixel constituting a character and a contour pixel constituting a contour portion of the character from other pixels;
Screen processing means for executing screen processing on the image data based on the attribute data;
The screen processing means performs a first screen process on the contour pixel of the image data, and executes a second screen process on a pixel that is included in the character area of the image data and is not the contour pixel. An image processing apparatus that performs a third screen process on pixels that are not included in the character area of the image data.
前記第2のスクリーン処理は、解像度を優先したスクリーン処理であり、
前記第3のスクリーン処理は、階調を優先したスクリーン処理である、請求項1に記載の画像処理装置。 The first screen processing is edge enhancement processing;
The second screen process is a screen process giving priority to resolution,
The image processing apparatus according to claim 1, wherein the third screen processing is screen processing giving priority to gradation.
前記抽出された文字領域に基づき、文字の輪郭部分を構成する輪郭画素を抽出する輪郭画素抽出手段とを含む、請求項1に記載の画像処理装置。 The attribute data acquisition means includes character area extraction means for extracting the character area from the input image data,
The image processing apparatus according to claim 1, further comprising: a contour pixel extracting unit that extracts a contour pixel that forms a contour portion of a character based on the extracted character region.
前記エッジ画素と、前記エッジ画素で囲まれた画素とを含む文字領域を抽出する文字領域決定手段とを含む、請求項3に記載の画像処理装置。 The character region extraction means includes edge pixel extraction means for extracting edge pixels from the input image data;
The image processing apparatus according to claim 3, further comprising: a character area determining unit that extracts a character area including the edge pixels and pixels surrounded by the edge pixels.
前記文字画素抽出手段により抽出された前記文字領域を収縮する収縮手段と、
前記拡張手段により拡張された後の文字領域に含まれ、かつ、前記収縮手段により収縮された後の文字領域に含まれない画素を輪郭画素とする輪郭画素決定手段とを含む、請求項3に記載の画像処理装置。 The contour pixel extraction means includes an expansion means for extending the character area extracted by the character area extraction means;
Contraction means for contracting the character region extracted by the character pixel extraction means;
And a contour pixel determining unit including a pixel that is included in the character region expanded by the expansion unit and not included in the character region contracted by the contraction unit as a contour pixel. The image processing apparatus described.
抽出された前記エッジ画素を含む矩形の文字属性領域を前記文字領域として抽出する文字属性領域抽出手段とを含む、請求項1に記載の画像処理装置。 Attribute data acquisition means, edge pixel extraction means for extracting edge pixels from the input image data as the contour pixels,
The image processing apparatus according to claim 1, further comprising: a character attribute area extracting unit that extracts a rectangular character attribute area including the extracted edge pixel as the character area.
前記ガンマ補正手段は、前記画像データの前記輪郭画素、前記画像データの前記文字領域に含まれ、かつ、前記輪郭画素でない画素、および前記画像データの前記文字領域に含まれない画素に、それぞれに対して予め準備された特性曲線に応じてガンマ補正する、請求項1に記載の画像処理装置。 Further comprising gamma correction means for correcting the gradation of the image data;
The gamma correction means may be applied to each of the outline pixel of the image data, the pixel that is included in the character area of the image data and is not the outline pixel, and the pixel that is not included in the character area of the image data. The image processing apparatus according to claim 1, wherein gamma correction is performed according to a characteristic curve prepared in advance.
文字を構成する画素を含む文字領域と文字の輪郭部分を構成する輪郭画素とを他の画素と区別する属性データを取得するステップと、
前記画像データの前記輪郭画素に第1のスクリーン処理を実行するステップと、
前記画像データの前記文字領域に含まれ、かつ、前記輪郭画素でない画素に第2のスクリーン処理を実行するステップと、
前記画像データの前記文字領域に含まれない画素に第3のスクリーン処理を実行するステップとをコンピュータに実行させる、画像処理プログラム。 Inputting image data;
Obtaining attribute data for distinguishing a character region including pixels constituting a character and a contour pixel constituting a contour portion of the character from other pixels;
Performing a first screen process on the contour pixels of the image data;
Performing a second screen process on pixels that are included in the character region of the image data and that are not the contour pixels;
The image processing program which makes a computer perform the step which performs a 3rd screen process to the pixel which is not contained in the said character area of the said image data.
入力された前記画像データからエッジ画素を抽出するエッジ画素抽出手段と、
前記画像データにスクリーン処理を実行するスクリーン処理手段とを備え、
前記スクリーン処理手段は、前記画像データの前記エッジ画素にエッジ強調処理を実行し、前記画像データの前記エッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行する、画像処理装置。 Image data input means for inputting image data;
Edge pixel extraction means for extracting edge pixels from the input image data;
Screen processing means for executing screen processing on the image data,
The image processing apparatus, wherein the screen processing means executes edge enhancement processing on the edge pixels of the image data, and executes screen processing giving priority to resolution to pixels not extracted as the edge pixels of the image data.
入力された前記画像データからエッジ画素を抽出するステップと、
前記画像データの前記エッジ画素にエッジ強調処理を実行するステップと、
前記画像データの前記エッジ画素として抽出されなかった画素に解像度を優先したスクリーン処理を実行するステップとをコンピュータに実行させる、画像処理プログラム。 Inputting image data;
Extracting edge pixels from the input image data;
Performing edge enhancement processing on the edge pixels of the image data;
An image processing program that causes a computer to execute a screen process that prioritizes resolution for pixels that are not extracted as the edge pixels of the image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005006575A JP4135714B2 (en) | 2005-01-13 | 2005-01-13 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005006575A JP4135714B2 (en) | 2005-01-13 | 2005-01-13 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006197239A true JP2006197239A (en) | 2006-07-27 |
JP4135714B2 JP4135714B2 (en) | 2008-08-20 |
Family
ID=36802957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005006575A Active JP4135714B2 (en) | 2005-01-13 | 2005-01-13 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4135714B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232444A (en) * | 2008-02-25 | 2009-10-08 | Konica Minolta Business Technologies Inc | Image processing apparatus and line-pair pattern identification method |
JP2013012938A (en) * | 2011-06-29 | 2013-01-17 | Kyocera Document Solutions Inc | Image processing device, image forming device, and image processing method |
JP2013070359A (en) * | 2011-09-05 | 2013-04-18 | Konica Minolta Business Technologies Inc | Image processor and image processing method |
-
2005
- 2005-01-13 JP JP2005006575A patent/JP4135714B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232444A (en) * | 2008-02-25 | 2009-10-08 | Konica Minolta Business Technologies Inc | Image processing apparatus and line-pair pattern identification method |
JP4524714B2 (en) * | 2008-02-25 | 2010-08-18 | コニカミノルタビジネステクノロジーズ株式会社 | Image processing apparatus and line pair pattern discrimination method |
US8213056B2 (en) | 2008-02-25 | 2012-07-03 | Konica Minolta Business Technologies, Inc. | Image processing apparatus and line pair pattern identification method |
JP2013012938A (en) * | 2011-06-29 | 2013-01-17 | Kyocera Document Solutions Inc | Image processing device, image forming device, and image processing method |
JP2013070359A (en) * | 2011-09-05 | 2013-04-18 | Konica Minolta Business Technologies Inc | Image processor and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4135714B2 (en) | 2008-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4568460B2 (en) | Image processing apparatus and recording medium | |
JP4749477B2 (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
JP2009232085A (en) | Image processing method, image processor, image forming apparatus, program, and storage medium | |
JP6840884B2 (en) | Image processing system and image processing method | |
JP2009278363A (en) | Image processor and image processing method | |
US6396947B1 (en) | Placing tags on surface string sequences representing a raster image | |
JP4135714B2 (en) | Image processing apparatus and image processing program | |
JP4047356B2 (en) | Image processing device | |
JP2006229817A (en) | Background detection method, program, recording medium, image processing apparatus, and image forming apparatus | |
JP4545167B2 (en) | Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium | |
JP2005252701A (en) | Image processing device, method, and program, image forming apparatus, and recording medium | |
JP4230435B2 (en) | Image processing method, image processing apparatus, and image forming apparatus including the same | |
JP3944032B2 (en) | Image processing apparatus and method | |
JP3989636B2 (en) | Image processing device | |
JP4334498B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and computer program | |
JP3506848B2 (en) | Image processing device | |
JP3564216B2 (en) | Image processing device | |
JP4464261B2 (en) | Image processing apparatus, image processing method, and program | |
JP4590168B2 (en) | Image processing device | |
JP2557479B2 (en) | Color image processor | |
JP3723666B2 (en) | Image processing device | |
JP2007156750A (en) | Image processing method, image processor, image formation apparatus, and computer program | |
JP2020043461A (en) | Image processing system and image processing method, and program | |
JPH1023251A (en) | Image-processing unit | |
JPH1079852A (en) | Image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080513 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080526 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4135714 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110613 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130613 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |