JP2000278522A - Image processor - Google Patents

Image processor

Info

Publication number
JP2000278522A
JP2000278522A JP11077653A JP7765399A JP2000278522A JP 2000278522 A JP2000278522 A JP 2000278522A JP 11077653 A JP11077653 A JP 11077653A JP 7765399 A JP7765399 A JP 7765399A JP 2000278522 A JP2000278522 A JP 2000278522A
Authority
JP
Japan
Prior art keywords
data
small area
edge
small
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11077653A
Other languages
Japanese (ja)
Inventor
Keisuke Hashimoto
圭介 橋本
Yoshihiko Hirota
好彦 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP11077653A priority Critical patent/JP2000278522A/en
Publication of JP2000278522A publication Critical patent/JP2000278522A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of expressing natural images at the time of dividing pixels into small areas and raising a resolution. SOLUTION: A small area division part 402 divides the pixel of an edge part into plural small areas and raises the resolution of the edge part. For input image data, an edge attribute judgment part judges edge attributes (thickening pattern and thinning pattern for instance) and a gradation value to be supplied to the small area corresponding to the edge attributes is decided by taking the degradation values of the peripheral small areas into consideration in an edge smoothing processing part 406. In such a manner, by deciding the gradation value by using the small area and the peripheral gradation values, even in the case that multi-valued image data are inputted, the kind of an area is accurately discriminated and the gradation value to be outputted does not become unnatural.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複写機、プリンタ
などで用いられている画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus used in a copying machine, a printer, and the like.

【0002】[0002]

【従来の技術】画像のエッジ部の品質を向上するため、
主に2値画像について、エッジ部分を高解像度化する技
術が提案されている。たとえば、2値入力画像を多値画
像に変換し、複数の2値化回路でそれぞれ異なるしきい
値で多値画像データを2値化する。これにより、エッジ
を滑らかに表現できる。また、2値画像について高解像
度化する場合、変倍率に合わせて置換データを切り替え
ることにより適切な置換データを設定することも知られ
ている。また、多値画像について、階調差からどのよう
なエッジかを判定し、1画素内の濃度重心をずらしてエ
ッジ部分を高解像度化する技術も提案されている。
2. Description of the Related Art In order to improve the quality of an edge portion of an image,
A technique for increasing the resolution of an edge portion of a binary image has been proposed. For example, a binary input image is converted into a multi-valued image, and a plurality of binarization circuits binarize the multi-valued image data with different thresholds. Thereby, edges can be expressed smoothly. It is also known that when increasing the resolution of a binary image, appropriate replacement data is set by switching the replacement data in accordance with the magnification. In addition, there has been proposed a technique of determining what edge the multi-valued image has based on the gradation difference, and shifting the density center of gravity within one pixel to increase the resolution of the edge portion.

【0003】[0003]

【発明が解決しようとする課題】しかし、上述のエッジ
スムージング技術は2値画像データを対象としており、
多値画像データが入力されることは考慮されていない。
多値画像データに対応するには、属性に応じた多くの出
力階調値を設定しなければならない。また、1画素内の
濃度重心をずらす方法では、周辺画素に対し階調値が非
常に高くなったり低くなったりする部分が存在するた
め、見た目に不自然な画像となることがある。たとえ
ば、中間調の文字などの場合にはエッジの部分の濃度が
高くなり縁取り文字のような現象が起こり、また、濃度
下地の上の文字の場合にはエッジ部付近に白抜けが起こ
っていた。
However, the above-described edge smoothing technique is intended for binary image data.
It is not considered that multi-valued image data is input.
In order to support multi-valued image data, it is necessary to set many output gradation values according to the attributes. Further, in the method of shifting the density center of gravity in one pixel, there is a portion where the tone value becomes extremely high or low with respect to the peripheral pixels, and therefore, an image may look unnatural. For example, in the case of halftone characters, the density of the edge part becomes high and a phenomenon like a border character occurs, and in the case of the character on the density base, white spots occur near the edge part. .

【0004】本発明の目的は、画素を小領域に分割して
高解像度化するとき、自然な画像が表現できる画像処理
装置を提供することである。
An object of the present invention is to provide an image processing apparatus capable of expressing a natural image when dividing a pixel into small areas and increasing the resolution.

【0005】[0005]

【課題を解決するための手段】本発明に係る画像形成装
置は、入力画像データについて各画素を複数の小領域に
分割する分割部と、入力画像データについて、分割部に
より分割された小領域の単位で、注目小領域とその周辺
の小領域のデータを考慮してエッジ属性を判定する属性
判定部と、分割部により分割された小領域の単位で、属
性判定部により判定されたエッジ属性に応じて、当該小
領域の階調値を当該小領域とその周辺の小領域の階調値
から設定する階調値設定部とからなる。ここで、分割部
は、エッジ部の画素を複数の小領域に分割し、エッジ部
の解像度を上げることによって画像の文字エッジ部など
を高解像度化しエッジを滑らかに見せる。このエッジ高
解像度化(スムージング化)処理において、属性判定部
は、注目小領域とその周辺小領域の階調値を比較し、エ
ッジ属性(たとえば太らせパターンと細らせパターン)
を決定する。階調値は、決定されたエッジ属性に応じて
設定される。こうして、当該小領域とその周辺の階調値
を用いることにより、多値画像データが入力された場合
でも、どのような領域であるかを正確に判別でき、エッ
ジ部の画素を複数の小領域に分割して高解像度化したと
きでも、それぞれの小領域の階調値は、周辺の階調値か
ら決定される。したがって、簡単な構成により、出力さ
れる階調値が周辺領域との連続性を保つため、不自然な
画像にならない。たとえば、前記の階調値設定部は、エ
ッジ属性に応じて、当該小領域の階調値、および、当該
小領域とその周辺の小領域の階調値の最大値と最小値の
中から当該小領域の階調値を設定する。
According to the present invention, there is provided an image forming apparatus comprising: a dividing section for dividing each pixel into a plurality of small areas in input image data; In units, the attribute determination unit that determines the edge attribute in consideration of the data of the small region of interest and its surrounding small regions, and the edge attribute determined by the attribute determination unit in units of the small region divided by the division unit. Accordingly, a gradation value setting unit for setting the gradation value of the small area from the gradation value of the small area and the surrounding small areas. Here, the dividing unit divides the pixel of the edge into a plurality of small areas, and increases the resolution of the edge to increase the resolution of the character edge and the like of the image so that the edge looks smooth. In the edge resolution increasing (smoothing) process, the attribute determination unit compares the tone values of the small area of interest and its surrounding small areas and determines the edge attribute (for example, a thickened pattern and a thinned pattern).
To determine. The gradation value is set according to the determined edge attribute. In this manner, by using the small area and the gradation values around the small area, even when multi-valued image data is input, it is possible to accurately determine what kind of area the multi-valued image data is. Even when the resolution is increased and the resolution is increased, the gradation value of each small area is determined from the surrounding gradation values. Therefore, with a simple configuration, the output gradation value maintains continuity with the peripheral region, so that an unnatural image does not occur. For example, the gradation value setting unit may select the gradation value of the small area and the maximum value and the minimum value of the gradation value of the small area and the surrounding small areas according to the edge attribute. Set the gradation value of the small area.

【0006】[0006]

【発明の実施の形態】以下、添付の図面を参照して本発
明の実施の形態を説明する。なお、図面において、同じ
参照記号は同一または同等のものを示す。図1は、カラ
ーデジタル複写機の全体構成を示す。この複写機は、自
動原稿送り装置100と画像読取部200と画像形成部
300から構成される。通常は自動原稿送り装置100
により画像読取位置に搬送された原稿を画像読取部20
0で読み取り、読み取られた画像データを画像形成部3
00に転送し、画像を形成できる。またインターフェイ
ス207により外部機器との接続が可能である。
Embodiments of the present invention will be described below with reference to the accompanying drawings. In the drawings, the same reference symbols indicate the same or equivalent ones. FIG. 1 shows the overall configuration of a color digital copying machine. The copying machine includes an automatic document feeder 100, an image reading unit 200, and an image forming unit 300. Normally, the automatic document feeder 100
The document conveyed to the image reading position by the
0, and reads the read image data into the image forming unit 3.
00 to form an image. The interface 207 enables connection with an external device.

【0007】次に、画像読取部200について説明する
と、露光ランプ201により照射された原稿ガラス20
8上の原稿の反射光は、3枚のミラー群202によりレ
ンズ203に導かれCCDセンサ204に結像する。露
光ランプ201はスキャナモータにより矢印の方向へ倍
率に応じた速度でスキャンすることにより原稿ガラス2
08上の原稿を全面にわたって走査することができる。
CCDセンサ204に入射した原稿の反射光はセンサ内
で電気信号に変換され、画像処理回路205により電気
信号のアナログ処理、A/D変換、デジタル画像処理が
行なわれた後、インターフェイス部207と画像形成部
300へ送られる。
Next, the image reading unit 200 will be described.
The reflected light of the original on 8 is guided to a lens 203 by a group of three mirrors 202 and forms an image on a CCD sensor 204. The exposure lamp 201 scans the document glass 2 in the direction indicated by the arrow by the scanner motor at a speed corresponding to the magnification.
08 can be scanned over the entire surface.
The reflected light of the document incident on the CCD sensor 204 is converted into an electric signal in the sensor, and the image processing circuit 205 performs analog processing, A / D conversion, and digital image processing of the electric signal. It is sent to the forming unit 300.

【0008】次に、タンデム構成の画像形成部300に
ついて説明する。イメージングユニット302c、30
2m、302y、302kは、用紙搬送ベルト304の
用紙搬送方向にそって縦に1列に並んで配置される。画
像読取部200またはインターフェイス部207から送
られてきた画像データは、シアン(C)、マゼンタ
(M)、イエロー(Y)、ブラック(K)の印字用デー
タに変換され、各露光ヘッドの制御部(図示せず)に送
られる。各露光ヘッド制御部では送られてきた画像デー
タの電気信号に応じてレーザーを発光させて、その光を
ポリゴンミラー301により1次元走査し、各イメージ
ングユニット302c、302m、302y、302k
内の感光体を露光する。各イメージングユニット内部に
は感光体を中心に電子写真プロセスを行なうために必要
なエレメントが配置されている。C,M,Y,K用の各
感光体が時計周りに回転することにより各画像形成プロ
セスが連続的に行なわれる。各イメージングユニット内
の感光体上の潜像は各色現像器により現像される。所望
のサイズの用紙が給紙カセット310a、310b、3
10cから給紙ローラー312と搬送ローラー対313
により用紙搬送ベルト304へ送られる。感光体上のト
ナー像は、用紙搬送ベルト304内に上述の各感光体と
対向して設置された転写チャージャ303c、303
m、303y、303kにより、用紙搬送ベルト304
上の用紙に重ねて転写される。ここではタイミングセン
サ306により、用紙搬送ベルト304上の基準マーク
を検出し、搬送される用紙の搬送タイミング合わせが行
われる。転写された用紙上のトナー像は定着ローラー対
307により加熱され溶かされて用紙上に定着された
後、トレイ311へ排出される。
Next, the tandem image forming section 300 will be described. Imaging units 302c, 30
2m, 302y, and 302k are arranged vertically in a line along the sheet conveying direction of the sheet conveying belt 304. The image data sent from the image reading unit 200 or the interface unit 207 is converted into cyan (C), magenta (M), yellow (Y), and black (K) print data, and the control unit of each exposure head. (Not shown). Each exposure head control unit emits a laser in accordance with an electric signal of the image data sent thereto, and the light is one-dimensionally scanned by a polygon mirror 301, and each of the imaging units 302c, 302m, 302y, 302k.
Expose the photoconductor inside. Inside each imaging unit, elements necessary for performing an electrophotographic process centering on a photoreceptor are arranged. Each image forming process is continuously performed by rotating each of the photoconductors for C, M, Y, and K clockwise. The latent image on the photoconductor in each imaging unit is developed by each color developing unit. Sheets of a desired size are supplied to the sheet cassettes 310a, 310b, 3b.
From 10c, the feed roller 312 and the transport roller pair 313
To the paper transport belt 304. The toner images on the photoconductors are transferred to transfer chargers 303 c and 303 installed in the paper transport belt 304 so as to face the above-described photoconductors.
m, 303y, and 303k, the sheet transport belt 304
The image is transferred onto the upper sheet. Here, the timing sensor 306 detects a reference mark on the paper transport belt 304, and adjusts the transport timing of the transported paper. The transferred toner image on the sheet is heated and melted by the fixing roller pair 307 to be fixed on the sheet, and then discharged to the tray 311.

【0009】また、イメージングユニットの最下流に
は、3個のレジスト補正センサ312が、ベルト304
の搬送方向と垂直な方向(主走査方向に)に一列に配置
されている。用紙搬送ベルト304上のレジストパター
ンを形成した際、このセンサによってY,M,C,K画
像の主・副走査方向の色ずれ量を検出し、画像データ制
御部での描画位置補正と画像歪み補正を行うことによっ
て、ペーパー上のC,M,Y,K画像の色ずれを防止し
ている。
Further, at the most downstream of the imaging unit, three registration correction sensors 312 are connected to the belt 304.
Are arranged in a line in a direction (in the main scanning direction) perpendicular to the carrying direction of the image forming apparatus. When a resist pattern on the paper transport belt 304 is formed, the sensor detects the amount of color misregistration of the Y, M, C, and K images in the main and sub scanning directions, and corrects the drawing position correction and image distortion in the image data controller. By performing the correction, the color shift of the C, M, Y, and K images on the paper is prevented.

【0010】図2に示される画像データ制御部におい
て、画像読取部200の画像処理部またはインターフェ
イス部207からの画像データは、画像インターフェー
ス部320を介して、固定長圧縮と可変長コード変換と
を行う符号化部322に送られる。具体的には、ブロッ
クトランケーション符号化により、画像を4*4ドット
のブロックに分割し、各ブロックのデータを48ビット
に圧縮する。次に、この固定長データをGBTC符号デ
ータLDにより2、10または50ビットに変換する。
次に、フレームメモリ部324は、副走査方向に遅延制
御を行い、Y,M,C,Kの感光体の間隔に対応した画
像位置を補正する。次に、固定長データ変換部326
は、可変長コードデータを固定長データ(GBTC圧縮
データ)に変換する。次に、主走査位置調整部・600
dpiスキュー補正部・GBTC伸長部328は、主走
査方向の描画位置を補正し、片側原稿位置基準を中央用
紙位置基準に変換し、副走査方向のスキューを600d
piで補正し、GBTC圧縮データを8ビット(256
階調)データに伸長する。この600dpiスキュー補
正では、装置ごとの機械的なばらつきに対して大まかに
スキューを補正する。次に、階調再現部330は、副走
査方向のスキューについて2400dpi解像度変換を
し、エッジスムージング処理、ガンマ補正およびスクリ
ーン処理をする。得られたY、M、C、Kデータは露光
ヘッド制御部に送られる。
In the image data control unit shown in FIG. 2, image data from the image processing unit or the interface unit 207 of the image reading unit 200 is subjected to fixed-length compression and variable-length code conversion via an image interface unit 320. To the encoding unit 322. Specifically, the image is divided into 4 * 4 dot blocks by block truncation coding, and the data of each block is compressed to 48 bits. Next, the fixed length data is converted into 2, 10 or 50 bits by the GBTC code data LD.
Next, the frame memory unit 324 performs delay control in the sub-scanning direction, and corrects an image position corresponding to the distance between the Y, M, C, and K photoconductors. Next, the fixed-length data conversion unit 326
Converts variable-length code data into fixed-length data (GBTC compressed data). Next, the main scanning position adjustment unit 600
The dpi skew correction unit / GBTC decompression unit 328 corrects the drawing position in the main scanning direction, converts the one-sided document position reference to the center sheet position reference, and reduces the skew in the sub-scanning direction by 600d.
pi, and the GBTC compressed data is 8-bit (256
(Gradation) data. In the 600 dpi skew correction, the skew is roughly corrected for the mechanical variation of each device. Next, the tone reproduction unit 330 performs 2400 dpi resolution conversion on the skew in the sub-scanning direction, and performs edge smoothing processing, gamma correction, and screen processing. The obtained Y, M, C, K data is sent to the exposure head control unit.

【0011】図3は、階調再現部330を示す。600
dpiの画像データが、ラインメモリブロック400
(図4参照)に入力され、6ラインのデータが並列に出
力される。次に、小領域分割部402(図5参照)にお
いて、600dpiの1画素を4つの小領域に分割し、
5*4=20ライン分の2400dpiの解像度のデー
タに画像データが変換される。4つの小領域のそれぞれ
について並列に以下の処理がなされる。
FIG. 3 shows the tone reproduction section 330. 600
The image data of dpi is stored in the line memory block 400.
(See FIG. 4), and six lines of data are output in parallel. Next, in the small area dividing unit 402 (see FIG. 5), one pixel of 600 dpi is divided into four small areas,
The image data is converted into data having a resolution of 2400 dpi for 5 * 4 = 20 lines. The following processing is performed in parallel for each of the four small areas.

【0012】高解像度化されたデータは、次にエッジ部
と非エッジ部で異なる画像処理がなされる。非エッジ部
については、小領域分割部402において内挿補間型の
解像度変換が行なわれ、変換後のデータについてガンマ
補正部404でガンマ補正が行なわれる。非エッジ部の
処理については以下ではこれ以上説明しない。エッジ部
については、エッジスムージング処理部406(図1
4、図15参照)でエッジが滑らかにされた後で、ガン
マ補正部408でガンマ補正が行なわれる。エッジスム
ージング処理部406では、後で詳細に説明するよう
に、エッジ画素の属性(太らせパターン、細らせパター
ン)に応じて小領域の単位で階調値が決定される。ここ
で、階調値は周辺の階調値から決定するので、出力され
る階調値が不自然にならない。それぞれの属性に対応し
た処理がなされデータはデータ選択部410に送られ
る。データ選択部410は、領域判定部412での判定
結果に従って、処理後の画像データを選択して出力す
る。このように、エッジスムージング処理において、小
領域の階調値は周辺の階調値を考慮して決定するので、
出力される階調値が不自然にならない。従来は、処理対
象の画素を分割した小領域の階調値は、周辺画素の階調
値との連続性がなかったため、周辺画素に比べて濃度が
高くなったり、低くなったりして不自然な画像が出力さ
れることがあった。本実施形態では、このような現象が
防止される。
Next, different image processing is performed on the high-resolution data at the edge portion and the non-edge portion. For the non-edge portion, the small area division section 402 performs interpolation interpolation type resolution conversion, and the gamma correction section 404 performs gamma correction on the converted data. The processing of the non-edge part will not be further described below. For the edge portion, an edge smoothing processing unit 406 (FIG. 1)
After the edge is smoothed in (4, FIG. 15), gamma correction is performed in the gamma correction unit 408. As described in detail later, the edge smoothing processing unit 406 determines a gradation value in small area units according to the attributes (thickening pattern and thinning pattern) of the edge pixels. Here, since the gradation value is determined from the surrounding gradation values, the outputted gradation value does not become unnatural. Processing corresponding to each attribute is performed, and the data is sent to the data selection unit 410. The data selection unit 410 selects and outputs the processed image data according to the determination result of the area determination unit 412. As described above, in the edge smoothing processing, the gradation value of the small area is determined in consideration of the surrounding gradation values.
The output gradation value does not become unnatural. Conventionally, the gradation value of a small area obtained by dividing a pixel to be processed does not have continuity with the gradation value of a peripheral pixel, so that the density becomes higher or lower than that of the peripheral pixel, resulting in unnaturalness. Image was sometimes output. In the present embodiment, such a phenomenon is prevented.

【0013】図4は、ラインメモリブロック400を示
す。ラインメモリブロック400は、5個のラインメモ
リ(FIFOメモリ)4001、4002、4003、
4004、4005からなる。入力データVIは、ライ
ンメモリ4001〜4005で順次遅延され、6ライン
のデータV1〜V6が並列に出力される。
FIG. 4 shows a line memory block 400. The line memory block 400 includes five line memories (FIFO memories) 4001, 4002, 4003,
4004 and 4005. The input data VI is sequentially delayed by the line memories 4001 to 4005, and six lines of data V1 to V6 are output in parallel.

【0014】図5〜図9は、小領域分割部402を示
す。600dpiの1つの画素Vは、副走査方向に複数
(4つ)の小領域に分割される。ここで、画素のデータ
Vは、小領域のデータVA、VB、VC、VDに変換さ
れる。図5に示すように、ラインメモリブロック400
からの6ラインのデータV1〜V6が並列に入力され
る。解像度変換処理部4021〜4025は、隣接する
2ラインのデータから解像度を4倍に変換したデータを
出力する。エッジ部では、小領域に単純に同じデータを
割り当てて、高解像度化する。たとえば、解像度変換処
理部4023は、隣接する2ラインのデータV3、V4
から解像度を4倍に変換したデータVA3、VB3、V
C3、VD3を出力する。
FIGS. 5 to 9 show the small area dividing unit 402. FIG. One pixel V of 600 dpi is divided into a plurality (four) of small areas in the sub-scanning direction. Here, the pixel data V is converted into small area data VA, VB, VC, and VD. As shown in FIG. 5, the line memory block 400
Are input in parallel. The resolution conversion processing units 4021 to 4025 output data obtained by quadrupling the resolution of two adjacent lines of data. At the edge portion, the same data is simply assigned to the small area to increase the resolution. For example, the resolution conversion processing unit 4023 outputs the data V3 and V4 of two adjacent lines.
VA3, VB3, V obtained by converting the resolution to 4 times
C3 and VD3 are output.

【0015】小領域分割部402において、同じ小領域
ごとに、図6〜図9に示すように、中心画素を含む5行
*5列のマトリクスの画素から得られる5*20の小領
域のデータが並列に出力される。たとえば、図6に示す
ように、5ラインのデータVA(すなわち、VA1、V
A2、VA3、VA4、VA5)が遅延用の素子を用い
て出力タイミングを順次ずらせて、それぞれ、5列のデ
ータVA11〜VA55として出力される(図10参
照)。こうして、データVA3は、4個の遅延素子によ
り、信号VA31〜VA35として出力される。同様
に、図7に示すように、5ラインのVB(すなわち、V
B1、VB2、VB3、VB4、VB5)が遅延素子を
用いて、それぞれ、5列のデータVB11〜VB55と
して出力され(図11参照)、図8に示すように、5ライ
ンのVC(すなわち、VC1、VC2、VC3、VC
4、VC5)が遅延素子を用いて、それぞれ、5列のデ
ータVC11〜VC55として出力され(図12参照)、
図9に示すように、5ラインのVD(すなわち、VD
1、VD2、VD3、VD4、VD5)が遅延素子を用
いて、それぞれ、5列のデータVD11〜VD55とし
て出力される(図13参照)。
In the small area dividing section 402, as shown in FIGS. 6 to 9, data of a 5 * 20 small area obtained from a pixel of a matrix of 5 rows * 5 columns including a center pixel for each same small area. Are output in parallel. For example, as shown in FIG. 6, five lines of data VA (that is, VA1, V
A2, VA3, VA4, and VA5) are sequentially shifted in output timing using delay elements, and output as data VA11 to VA55 in five columns, respectively (see FIG. 10). Thus, the data VA3 is output as the signals VA31 to VA35 by the four delay elements. Similarly, as shown in FIG. 7, VB of five lines (that is, VB
B1, VB2, VB3, VB4, and VB5) are respectively output as data VB11 to VB55 in five columns using delay elements (see FIG. 11), and as shown in FIG. , VC2, VC3, VC
4, VC5) are output as data VC11 to VC55 in five columns using delay elements (see FIG. 12).
As shown in FIG. 9, five lines of VD (ie, VD
1, VD2, VD3, VD4, and VD5) are output as five columns of data VD11 to VD55 using delay elements (see FIG. 13).

【0016】図14は、小領域データVAについての領
域判定部412を示す。(なお、小領域データVB、V
C、VDについての領域判定部412も同様に構成され
る。)エッジ判定のため、小分割部402から出力され
る中心画素の小領域データVA33とその周辺画素の小
領域データVA22、VA23、VA24、VA32、
VA34、VA42、VA43、VA44との差がそれ
ぞれ減算器4120により求められ、得られた差は、そ
れぞれ白側のしきい値EDGREF17−10と比較器
4121において比較される。周辺画素の小領域データ
VA22、VA23、VA24、VA32、VA34、
VA42、VA43、VA44と中心画素の小領域デー
タVA33との差がすべてしきい値より小さいと負論理
ORゲート4122が判断した場合、エッジではないの
で、ORゲート41210から信号が出力されない。
FIG. 14 shows the area determination unit 412 for the small area data VA. (Note that the small area data VB, V
The area determination unit 412 for C and VD is similarly configured. ) For the edge determination, the small area data VA33 of the central pixel output from the small division unit 402 and the small area data VA22, VA23, VA24, VA32,
Differences between VA34, VA42, VA43, and VA44 are respectively obtained by the subtractor 4120, and the obtained differences are compared in the comparator 4121 with the threshold EDGREF17-10 on the white side, respectively. Small area data VA22, VA23, VA24, VA32, VA34,
If the negative logic OR gate 4122 determines that the differences between VA42, VA43, VA44 and the small area data VA33 of the central pixel are all smaller than the threshold value, no signal is output from the OR gate 41210 because it is not an edge.

【0017】同様に、小分割部402から出力される中
心画素の小領域データVA33とその周辺画素の小領域
データVA22、VA23、VA24、VA32、VA
34、VA42、VA43、VA44との差が減算器4
123により求められ、得られた差は、それぞれ、黒側
のしきい値EDGREF27−20と比較器4124で
比較される。中心画素の小領域データVA33と周辺画
素の小領域データVA22、VA23、VA24、VA
32、VA34、VA42、VA43、VA44との差
がすべてしきい値より小さいと負論理ORゲート412
5が判断した場合、エッジではないので、OR回路41
210から信号が出力されない。
Similarly, the small area data VA33 of the center pixel output from the small division unit 402 and the small area data VA22, VA23, VA24, VA32, VA of the peripheral pixels around the center pixel are output.
34, VA42, VA43, and VA44 are subtracters 4.
The obtained difference is compared by the comparator 4124 with the black-side threshold value EDGREF27-20, respectively. Small area data VA33 of the center pixel and small area data VA22, VA23, VA24, VA of the peripheral pixels.
32, VA34, VA42, VA43, and VA44, all of which are smaller than the threshold value, the negative logic OR gate 412.
5 is not an edge, the OR circuit 41
No signal is output from 210.

【0018】また、中心画素の小領域データVA33、
その周辺画素の小領域データおよびさらにその周辺の小
領域データが比較される。たとえば、中心画素の小領域
データVA33と周辺画素の小領域データVA11との
差と、周辺画素の小領域データVA22とVA11の差
が減算器4126で求められ、いずれも比較器4127
で第2の黒側のしきい値EDGREF37−30と比較
される。いずれかの差がしきい値より大きいと負論理A
NDゲート4128が判断した場合、エッジであるので
ORゲート4129、41210を経て信号が出力され
る。同様に、中心画素の小領域データVA33と周辺画
素の小領域データVA13との差と周辺画素の小領域デ
ータVA23とVA13の差がそれぞれしきい値と比較
され、また、中心画素の小領域データVA33と周辺画
素の小領域データVA15との差と周辺画素の小領域デ
ータVA24とVA15の差がそれぞれしきい値と比較
され、また、中心画素の小領域データVA33と周辺画
素の小領域データVA31との差と周辺画素の小領域デ
ータVA32とVA31の差がそれぞれしきい値と比較
され、また、中心画素の小領域データVA33と周辺画
素の小領域データVA35との差と周辺画素の小領域デ
ータVA34とVA35の差がそれぞれしきい値と比較
され、また、中心画素の小領域データVA33と周辺画
素の小領域データVA51との差と周辺画素の小領域デ
ータVA42とVA51の差がそれぞれしきい値と比較
され、また、中心画素の小領域データVA33と周辺画
素の小領域データVA53との差と周辺画素の小領域デ
ータVA43とVA53の差がそれぞれしきい値と比較
され、また、中心画素の小領域データVA33と周辺画
素の小領域データVA55との差と周辺画素の小領域デ
ータVA44とVA55の差がそれぞれしきい値と比較
される。いずれかの差がしきい値より大きい場合、エッ
ジであるので信号が出力される。
Also, the small area data VA33 of the center pixel,
The small area data of the surrounding pixels and the small area data of the surrounding pixels are compared. For example, a difference between the small area data VA33 of the central pixel and the small area data VA11 of the peripheral pixel and a difference between the small area data VA22 and VA11 of the peripheral pixel are obtained by the subtractor 4126.
Is compared with a second threshold value EDGREF37-30 on the black side. If any difference is greater than the threshold, negative logic A
If the ND gate 4128 determines that the signal is an edge, a signal is output through the OR gates 4129 and 41210. Similarly, the difference between the small area data VA33 of the central pixel and the small area data VA13 of the peripheral pixel and the difference between the small area data VA23 and VA13 of the peripheral pixel are compared with threshold values, respectively. The difference between VA33 and the small area data VA15 of the peripheral pixel and the difference between the small area data VA24 and VA15 of the peripheral pixel are respectively compared with the threshold value, and the small area data VA33 of the central pixel and the small area data VA31 of the peripheral pixel are compared. , And the difference between the small area data VA32 and VA31 of the peripheral pixels are respectively compared with the threshold value. The difference between the small area data VA33 of the central pixel and the small area data VA35 of the peripheral pixel and the small area The difference between the data VA34 and VA35 is compared with the threshold value, respectively, and the small area data VA33 of the central pixel and the small area data VA of the peripheral pixels are compared. 1 and the difference between the small area data VA42 and VA51 of the peripheral pixel are compared with threshold values, respectively, and the difference between the small area data VA33 of the central pixel and the small area data VA53 of the peripheral pixel and the small value of the peripheral pixel are compared. The difference between the area data VA43 and VA53 is compared with a threshold value, respectively, and the difference between the small area data VA33 of the central pixel and the small area data VA55 of the peripheral pixel and the difference between the small area data VA44 and VA55 of the peripheral pixel are respectively Compared to the threshold. If any of the differences is larger than the threshold value, it is an edge and a signal is output.

【0019】図15は、小領域データVAについてのエ
ッジスムージングを行うエッジスムージング処理部40
6を示す。なお、小領域データVB、VC、VDについ
てのエッジスムージング処理部412も同様に構成され
る。エッジスムージング処理部406において、小分割
部402から出力される中心画素の小領域データVA3
3とその周辺画素の小領域データVA22、VA23、
VA24、VA32、VA34、VA42、VA43、
VA44との差が減算器4060により求められ、得ら
れた差は、それぞれ、細らせパターン用しきい値ESR
EF17−10と比較器4061において比較される。
比較結果は、それぞれ、エッジ属性判定部4064に送
られ、図16の左側に示した細らせるべきエッジ画像の
パターン(細らせパターン)に該当するか否か判定され
る。このエッジスムージング判定条件に該当する場合
は、ESOUTP=1を出力する。
FIG. 15 shows an edge smoothing processing section 40 for performing edge smoothing on the small area data VA.
6 is shown. The edge smoothing processing unit 412 for the small area data VB, VC, VD has the same configuration. In the edge smoothing processing unit 406, the small area data VA3 of the center pixel output from the small division unit 402
3, and small area data VA22, VA23,
VA24, VA32, VA34, VA42, VA43,
A difference from VA44 is obtained by a subtractor 4060, and the obtained difference is respectively used as a thinning pattern threshold ESR.
The EF 17-10 is compared with the comparator 4061.
The comparison results are respectively sent to the edge attribute determination unit 4064, and it is determined whether or not the comparison corresponds to the edge image pattern (thinning pattern) to be thinned shown on the left side of FIG. If the edge smoothing determination condition is satisfied, ESOUTP = 1 is output.

【0020】同様に、小分割部402から出力される中
心画素の小領域データVA33とその周辺画素の小領域
データVA22、VA23、VA24、VA32、VA
34、VA42、VA43、VA44との差が減算器4
062により求められ、得られた差は、それぞれ、太ら
せパターン用しきい値ESREF27−20と比較器4
063において比較される。比較結果は、それぞれ、エ
ッジ属性判定部4064に送られ、図16の右側に示し
た太らせるべきエッジ画像のパターン(太らせパター
ン)に該当するか否かが判定される。このエッジスムー
ジング判定条件に該当する場合は、ESOUTN=1を
出力する。ESOUTP=1とESOUTN=1の判定
結果は、EXORゲート4065を経てセレクタに出力
される。
Similarly, the small area data VA33 of the central pixel output from the small division section 402 and the small area data VA22, VA23, VA24, VA32, VA of the peripheral pixels around the central pixel.
34, VA42, VA43, and VA44 are subtracters 4.
062, and the obtained differences are respectively the fattening pattern threshold value ESREF27-20 and the comparator 4
063. Each of the comparison results is sent to the edge attribute determination unit 4064, and it is determined whether or not the pattern corresponds to the pattern of the edge image to be thickened (thickened pattern) shown on the right side of FIG. If the edge smoothing determination condition is met, ESOUTN = 1 is output. The determination results of ESOUTP = 1 and ESOUTN = 1 are output to the selector via the EXOR gate 4065.

【0021】一方、最大値回路4066と最小値回路4
067により中心小領域とその周辺のデータVA、V
B、VCの最大値と最小値が求められ、セレクタ406
8に出力される。セレクタ4058の出力は、ESOU
TNにより選択されるので、太らせパターンである場合
は、最大値が出力され、そうでない場合は、最小値が出
力される。このセレクタ4068の出力値はセレクタ4
069に送られる。セレクタ4069には、中心の小領
域のデータVA33も入力される。したがって、セレク
タ4069は、太らせパターンである場合は、最大値を
出力し、細らせパターンである場合は、最小値を出力
し、それ以外の場合は、中心の小領域のデータを出力す
る。
On the other hand, the maximum value circuit 4066 and the minimum value circuit 4
067, the data VA and V of the central small area and its surroundings
The maximum and minimum values of B and VC are obtained, and the selector 406
8 is output. The output of selector 4058 is ESOU
Since the selection is made by the TN, the maximum value is output when the pattern is a fat pattern, and otherwise, the minimum value is output. The output value of this selector 4068 is
069. The selector 4069 also receives the data VA33 of the central small area. Therefore, the selector 4069 outputs the maximum value in the case of the fattening pattern, outputs the minimum value in the case of the thinning pattern, and outputs the data of the central small area otherwise. .

【0022】また、図16は、エッジスムージング処理
部406におけるエッジ属性判定部4064におけるエ
ッジスムージング判定の条件を示す。左側の6つの条件
は細らせるべき画像のパターンである。ここで、E1〜
E8は、周辺の画素の比較結果を表す。この6つの条件
のいずれかに当てはまった場合、細らせパターンである
と判定し、ESOUTP=1とする。また、右側の6つ
の条件は太らせるべき画像のパターンである。ここで、
F1〜F8は、周辺の画素の比較結果を表す。この6つ
の条件のいずれかに当てはまった場合、太らせパターン
であると判定し、ESOUTN=1とする。
FIG. 16 shows conditions for edge smoothing determination in the edge attribute determination section 4064 in the edge smoothing processing section 406. The six conditions on the left are image patterns to be narrowed. Here, E1
E8 represents the comparison result of the peripheral pixels. If any of these six conditions is met, it is determined that the pattern is a thinning pattern, and ESOUTP = 1. The six conditions on the right side are the pattern of the image to be fattened. here,
F1 to F8 represent comparison results of peripheral pixels. If any of these six conditions is satisfied, it is determined that the pattern is a fat pattern and ESOUTN = 1.

【0023】図17は、エッジスムージング処理部40
6のデータ処理の効果の1例を示す。上側に示す600
*600dpiのパターンの画素データが入力されたと
き、エッジスムージング処理部406による処理の結
果、下側に示す600*2400dpiのパターンに高
解像度化される。これにより、エッジが滑らかになり、
エッジ画像がより自然になる。
FIG. 17 shows an edge smoothing processing section 40.
6 shows an example of the effect of the data processing of No. 6. 600 shown above
When the pixel data of the * 600 dpi pattern is input, as a result of the processing by the edge smoothing processing unit 406, the resolution is increased to the lower 600 * 2400 dpi pattern. This makes the edges smoother,
The edge image becomes more natural.

【0024】先に説明したように、本実施形態では、エ
ッジスムージング処理において、エッジ部の階調値は、
周辺画素の階調値の最大値と最小値から決定され、処理
対象の画素を分割した小領域に相当する解像度で画像形
成を行う。具体的な例として、図18〜図21は、エッ
ジスムージング処理による注目画素の階調値の変化の例
を示す。図18に示すように、エッジスムージングの判
定には、注目画素VA33の周辺の8画素(VA22〜
VA44)を用いる。このときは、600dpi、1ド
ットの距離にある小領域のデータを用いる。図19に示
すように、エッジスムージング判定によりエッジスムー
ジングを行う場合、注目小領域の階調値(VA33)を
置き換えるために用いる階調値は、注目小領域から24
00dpi、1ドットの距離にある小領域(VD23、
VB33)の階調値を用いる。ここで、データVD23
は、データVA33、VB33とは異なる画素の小領域
のデータである。
As described above, in the present embodiment, in the edge smoothing process, the gradation value of the edge portion is
An image is formed at a resolution determined from the maximum value and the minimum value of the gradation values of the peripheral pixels and corresponding to a small area obtained by dividing the pixel to be processed. As specific examples, FIGS. 18 to 21 show examples of changes in the tone value of the pixel of interest due to the edge smoothing process. As shown in FIG. 18, eight pixels (VA22 to VA22) around the target pixel VA33 are used to determine the edge smoothing.
VA44) is used. In this case, data of a small area at a distance of 600 dpi and one dot is used. As shown in FIG. 19, when performing the edge smoothing by the edge smoothing determination, the tone value used to replace the tone value (VA33) of the attention small area is 24
00dpi, a small area (VD23,
VB33) is used. Here, the data VD23
Is data of a small area of a pixel different from the data VA33 and VB33.

【0025】いま、図20に示すようなパターンについ
て、エッジスムージングを行う場合を説明する。図20
のパターンにおいて、注目小領域の周囲のパターンはデ
ータVA33、VB33、VC33、VD33により、
太らせパターンであることがわかる(図16参照)。注
目小領域について置き換えるために用いる階調値は、そ
れぞれ、隣接する小領域の階調値のうち、最大値を用い
ることになる。このため、VA33、VB33、VC3
3、VD33のうち、VA33のみが白から黒に階調値
が置き換わる。したがって、エッジスムージング処理の
結果は、図21に示すパターンとなる。
Now, a case where edge smoothing is performed on a pattern as shown in FIG. 20 will be described. FIG.
Of the pattern of interest, patterns around the small area of interest are represented by data VA33, VB33, VC33, and VD33.
It can be seen that the pattern is a fat pattern (see FIG. 16). As the gradation value used for replacing the target small region, the maximum value among the gradation values of the adjacent small regions is used. Therefore, VA33, VB33, VC3
3. Of the VDs 33, only the VAs 33 are replaced with gray values from white to black. Therefore, the result of the edge smoothing process is the pattern shown in FIG.

【0026】[0026]

【発明の効果】エッジを高解像度化して滑らかに表現す
る場合、該当小領域の周辺のデータの最大値と最小値か
ら小領域の階調値を決定するため、周辺小領域との階調
の連続性が保証される。このため、中間調の文字などの
場合や、濃度下地の上の文字の場合にでも、エッジ部は
濃度的に連続性のある滑らかなエッジ部になる。したが
って、多値画像データを入力してエッジ部を高解像度化
し、かつ、滑らかなエッジを実現できる。
According to the present invention, when the edge is expressed with high resolution and smoothly expressed, the gradation value of the small area is determined from the maximum value and the minimum value of the data around the small area. Continuity is guaranteed. Therefore, even in the case of halftone characters and the like, and in the case of characters on a density background, the edge portion is a smooth edge portion having density continuity. Therefore, it is possible to increase the resolution of the edge portion by inputting the multi-valued image data and realize a smooth edge.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 カラーデジタル複写機の全体構成の断面図FIG. 1 is a cross-sectional view of the overall configuration of a color digital copying machine.

【図2】 画像データ制御部のブロック図FIG. 2 is a block diagram of an image data control unit.

【図3】 階調再現部のブロック図FIG. 3 is a block diagram of a tone reproduction unit.

【図4】 ラインメモリブロックのブロック図FIG. 4 is a block diagram of a line memory block;

【図5】 小領域分割部の1部のブロック図FIG. 5 is a block diagram of a part of a small area dividing unit.

【図6】 小領域分割部の1部のブロック図FIG. 6 is a block diagram of a part of a small area dividing unit.

【図7】 小領域分割部の1部のブロック図FIG. 7 is a block diagram of a part of a small area dividing unit.

【図8】 小領域分割部の1部のブロック図FIG. 8 is a block diagram of a part of a small area dividing unit.

【図9】 小領域分割部の1部のブロック図FIG. 9 is a block diagram of a part of a small area dividing unit.

【図10】 図6の回路から出力されるデータを示す図FIG. 10 is a diagram showing data output from the circuit of FIG. 6;

【図11】 図7の回路から出力されるデータを示す図FIG. 11 is a diagram showing data output from the circuit of FIG. 7;

【図12】 図8の回路から出力されるデータを示す図FIG. 12 is a diagram showing data output from the circuit of FIG. 8;

【図13】 図9の回路から出力されるデータを示す図FIG. 13 is a diagram showing data output from the circuit of FIG. 9;

【図14】 小領域データVAについての領域判定部の
FIG. 14 is a diagram of an area determination unit for small area data VA;

【図15】 エッジスムージング処理部のブロック図FIG. 15 is a block diagram of an edge smoothing processing unit;

【図16】 エッジ属性判定の条件を示す図FIG. 16 is a diagram showing conditions for edge attribute determination.

【図17】 エッジスムージング処理部のデータ処理の
1例を示す図
FIG. 17 is a diagram showing an example of data processing of an edge smoothing processing unit.

【図18】 エッジスムージングの判定に用いる画素を
示す図
FIG. 18 is a diagram showing pixels used for determining edge smoothing.

【図19】 エッジスムージング処理を行なう画素を示
す図
FIG. 19 is a diagram showing pixels on which edge smoothing processing is performed.

【図20】 エッジスムージング処理の前のパターンを
示す図
FIG. 20 is a diagram showing a pattern before edge smoothing processing;

【図21】 図20のパターンについてのエッジスムー
ジング処理の結果を示す図
FIG. 21 is a diagram showing a result of edge smoothing processing on the pattern of FIG. 20;

【符号の説明】[Explanation of symbols]

402 小領域分割部、 406 エッジスムージン
グ処理部、 412領域判定部、 4064 エッ
ジ属性判定部、 4069 セレクタ。
402 small area dividing section, 406 edge smoothing processing section, 412 area determining section, 4064 edge attribute determining section, 4069 selector.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA11 BA02 CA06 CA08 CA12 CB06 CB08 CB12 CC02 CD06 CE05 CE11 DB02 DB08 DB09 DC16 5C076 AA21 AA22 AA27 AA32 BB04 5C077 LL05 MP06 MP07 PP03 PP20 PP21 PP27 PP28 PP47 PP68 TT02 TT06  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference)

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 入力画像データについて各画素を複数の
小領域に分割する分割部と、 入力画像データについて、分割部により分割された小領
域の単位で、注目小領域とその周辺の小領域のデータを
考慮してエッジ属性を判定する属性判定部と、 分割部により分割された小領域の単位で、属性判定部に
より判定されたエッジ属性に応じて、当該小領域の階調
値を当該小領域とその周辺の小領域の階調値から設定す
る階調値設定部とからなる画像処理装置。
A dividing unit that divides each pixel of the input image data into a plurality of small regions; and a dividing unit that divides the input image data into a small region of interest and its surrounding small regions in units of small regions divided by the dividing unit. An attribute determining unit that determines an edge attribute in consideration of data; and a gradation value of the small region in the unit of the small region divided by the dividing unit according to the edge attribute determined by the attribute determining unit. An image processing apparatus comprising: a region and a gradation value setting unit that sets the gradation value from a gradation value of a small region around the region.
【請求項2】 前記の階調値設定部は、エッジ属性に応
じて、当該小領域の階調値、および、当該小領域とその
周辺の小領域の階調値の最大値と最小値の中から当該小
領域の階調値を設定する画像処理装置。
2. The tone value setting unit according to claim 1, wherein said tone value of said small area and a maximum value and a minimum value of tone values of said small area and surrounding small areas are determined according to an edge attribute. An image processing device that sets the gradation value of the small area from the middle.
JP11077653A 1999-03-23 1999-03-23 Image processor Pending JP2000278522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11077653A JP2000278522A (en) 1999-03-23 1999-03-23 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11077653A JP2000278522A (en) 1999-03-23 1999-03-23 Image processor

Publications (1)

Publication Number Publication Date
JP2000278522A true JP2000278522A (en) 2000-10-06

Family

ID=13639856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11077653A Pending JP2000278522A (en) 1999-03-23 1999-03-23 Image processor

Country Status (1)

Country Link
JP (1) JP2000278522A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003032256A1 (en) * 2001-09-20 2003-04-17 Naltec Inc. Method of preparing bit map
US7783126B2 (en) 2003-09-11 2010-08-24 Panasonic Corporation Visual processing device, visual processing method, visual processing program, and semiconductor device
US7860339B2 (en) 2003-09-11 2010-12-28 Panasonic Corporation Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003032256A1 (en) * 2001-09-20 2003-04-17 Naltec Inc. Method of preparing bit map
US7502144B2 (en) 2001-09-20 2009-03-10 Naltec, Inc. Method of preparing bit map
US7783126B2 (en) 2003-09-11 2010-08-24 Panasonic Corporation Visual processing device, visual processing method, visual processing program, and semiconductor device
US7860339B2 (en) 2003-09-11 2010-12-28 Panasonic Corporation Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal
US7945115B2 (en) 2003-09-11 2011-05-17 Panasonic Corporation Visual processing device, visual processing method, visual processing program, and semiconductor device
US8165417B2 (en) 2003-09-11 2012-04-24 Panasonic Corporation Visual processing device, visual processing method, visual processing program, integrated circuit, display device, image-capturing device, and portable information terminal

Similar Documents

Publication Publication Date Title
JP3777785B2 (en) Image processing device
JP3700381B2 (en) Image processing device
US6625331B1 (en) Image forming apparatus
JP3436828B2 (en) Image processing device
US6567544B1 (en) Image processing apparatus
JPH11352744A (en) Image forming device
US7158271B2 (en) Image processing apparatus
JPH11348352A (en) Image formation apparatus
JPH11266372A (en) Color image processor
JP2002290737A (en) Image processing apparatus and image forming apparatus
JP3302041B2 (en) Image processing device
JP4026271B2 (en) Image processing device
JP2000278522A (en) Image processor
JP2002223369A (en) Image processing method, image processor and image forming device
JPH0993438A (en) Image processor and its method
JPH11266360A (en) Image processor
US6999632B2 (en) Image processing apparatus, image forming apparatus and image processing method
JP3064896B2 (en) Image processing device
JPH10210314A (en) Digital image-processing unit
JPH09233323A (en) Digital image reader
JPH10173913A (en) Image forming device
JP4074397B2 (en) Image processing device
JP2000341511A (en) Image processor
JP2000015871A (en) Image-processing apparatus
JP2002125121A (en) Image processing method and image processing unit, and image forming device provided with them

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051215

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071009