JP2012239012A - Image processing device, image processing method, and computer program - Google Patents

Image processing device, image processing method, and computer program Download PDF

Info

Publication number
JP2012239012A
JP2012239012A JP2011106277A JP2011106277A JP2012239012A JP 2012239012 A JP2012239012 A JP 2012239012A JP 2011106277 A JP2011106277 A JP 2011106277A JP 2011106277 A JP2011106277 A JP 2011106277A JP 2012239012 A JP2012239012 A JP 2012239012A
Authority
JP
Japan
Prior art keywords
edge
data
processing
pixel
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011106277A
Other languages
Japanese (ja)
Other versions
JP2012239012A5 (en
JP5812678B2 (en
Inventor
Hikaru Uchidate
光 内舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011106277A priority Critical patent/JP5812678B2/en
Publication of JP2012239012A publication Critical patent/JP2012239012A/en
Publication of JP2012239012A5 publication Critical patent/JP2012239012A5/ja
Application granted granted Critical
Publication of JP5812678B2 publication Critical patent/JP5812678B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To perform high-quality edge correction processing for an image data edge.SOLUTION: An image processing device comprises: density determination means for determining a density of target pixel data; error diffusion processing means for performing error diffusion processing for the target pixel data; dither processing means for performing dither processing for the target pixel data; edging processing means for performing edging processing on the basis of the target pixel data and data generated by the dither processing means; and selection means for selecting the data generated by the edging processing means as data for the edge correction processing with respect to the target pixel when the density determination means determines that the target pixel is a high density having a higher value than a threshold value and for selecting the data generated by the error diffusion processing means as the data for the edge correction processing with respect to the target pixel when the density determination means determines that the target pixel is a low density having a lower value than the threshold value.

Description

本発明は、画像のエッジに対しての補正処理を実行可能な画像処理装置、画像処理方法及びコンピュータプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a computer program capable of executing correction processing on an edge of an image.

一般に、デジタル化した画像データをレーザービームプリンタ等のデジタルプリンタから出力して画像を再現するデジタル複写装置等のデジタル画像処理装置は、デジタル機器の発展により従来のアナログ画像処理装置に代わり広く普及している。このデジタル画像処理装置は、中間調を再現するためディザ処理法等のハーフトーン処理により階調再現を行う方法が一般にとられている。   In general, a digital image processing apparatus such as a digital copying apparatus that reproduces an image by outputting digitized image data from a digital printer such as a laser beam printer is widely used instead of a conventional analog image processing apparatus due to the development of digital equipment. ing. This digital image processing apparatus generally employs a method of reproducing gradation by halftone processing such as a dither processing method in order to reproduce a halftone.

ディザ処理法による階調再現は、中間調の文字・細線部のエッジ部のような高周波成分が多い部分においてはジャギーと呼ばれる途切れが発生するという問題があった。これは、入力画像に含まれる周波数成分がディザの持つ周期よりも高いためにディザの周期で折り返し雑音が発生し、見た目の解像度が低下してしまいエッジ部分の輪郭を不明瞭にするためである。   The gradation reproduction by the dither processing method has a problem that a break called jaggy occurs in a portion with a lot of high-frequency components such as a halftone character and an edge portion of a fine line portion. This is because the frequency component included in the input image is higher than the period of the dither, so that aliasing noise occurs in the dither period, the apparent resolution is lowered, and the contour of the edge portion is obscured. .

この問題に対し、入力画像のエッジを判定しエッジ部分については縁取り処理を行い、輪郭を強調する手法が幅広く用いられている(例えば、特許文献1参照)。   In order to solve this problem, a technique is widely used in which an edge of an input image is determined, edge processing is performed on the edge portion, and a contour is emphasized (see, for example, Patent Document 1).

また、エッジ部の高周波成分を再現するために、エッジ部誤差拡散を使用する(例えば、特許文献2参照)ものも提案されている。   Moreover, in order to reproduce the high frequency component of an edge part, what uses edge part error diffusion (for example, refer patent document 2) is also proposed.

特開2005−341249号公報JP 2005-341249 A 特開昭63−288565号公報JP 63-288565 A

しかしながら、特許文献1によるエッジ補正処理は、縁取り処理を安定して行うことができる高濃度のエッジ部においては非常に有効な手法であるが、低濃度のエッジ部に関してはドットの再現性が不安定となり、エッジが適切に補正されない場合がある。   However, the edge correction processing according to Patent Document 1 is a very effective method for a high density edge portion where the edging process can be performed stably, but the dot reproducibility is not good for the low density edge portion. The edge may become stable and the edge may not be corrected appropriately.

また、特許文献2によるエッジ補正処理は、誤差拡散処理による高解像度化・また最適な量子化値の設定などにより低濃度部におけるエッジ再現が向上する。しかし、高濃度のエッジ部においては、誤差拡散処理によりランダムにドットを発生させている為スクリーンによって発生するジャギー部分にドットが付加されない場合、ジャギーが低減されないといった課題がある。   Further, the edge correction processing according to Patent Document 2 improves edge reproduction in a low density portion by increasing the resolution by error diffusion processing and setting an optimum quantization value. However, in the high density edge portion, since dots are randomly generated by error diffusion processing, there is a problem that jaggy is not reduced when dots are not added to the jaggy portion generated by the screen.

本願発明における画像処理装置は、画像におけるエッジに対してエッジ補正処理を行う画像処理装置であって、注目画素のデータの濃度を判定する濃度判定手段と、前記注目画素のデータに対して誤差拡散処理を行う誤差拡散処理手段と、前記注目画素のデータに対してディザ処理を行うディザ処理手段と、前記注目画素のデータと前記ディザ処理手段より生成されたデータとに基づきエッジ縁取り処理を行うエッジ縁取り処理手段と、前記注目画素が、前記濃度判定手段により閾値以上の高い値の濃度である高濃度と判定された場合は、前記注目画素に対する前記エッジ補正処理のデータとして、前記エッジ縁取り処理手段により生成されるデータを選択し、前記注目画素が、前記濃度判定手段により閾値よりも小さい値の濃度である低濃度と判定された場合は、前記注目画素に対する前記エッジ補正処理のデータとして、前記誤差拡散処理手段により生成されるデータを選択する選択手段とを有することを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that performs edge correction processing on edges in an image, and includes density determination means for determining a density of data of a target pixel, and error diffusion for the data of the target pixel. An error diffusion processing unit that performs processing, a dither processing unit that performs dither processing on the data of the target pixel, and an edge that performs edge fringing processing based on the data of the target pixel and data generated by the dither processing unit If the edge determination processing unit and the target pixel are determined to have a high density, which is a density higher than a threshold value, by the density determination unit, the edge edge processing unit is used as data of the edge correction processing for the target pixel. Is selected, and the pixel of interest is a low density whose density is smaller than a threshold value by the density determination means. And when it is determined as data of the edge correction process for the pixel of interest, characterized by having a selection means for selecting the data generated by the error diffusion processing means.

或いは、本発明における画像処理装置は、画像におけるエッジに対してエッジ補正処理を行う画像処理装置であって、注目画素のデータの濃度を判定する濃度判定手段と、前記注目画素のデータに対して誤差拡散処理を行う誤差拡散処理手段と、前記注目画素のデータに対してディザ処理を行うディザ処理手段と、前記注目画素のデータと前記ディザ処理手段より生成されたデータからエッジ縁取り処理を行うエッジ縁取り処理手段と、前記エッジ補正処理として、前記エッジ縁取り処理手段より生成されたデータと、前記誤差拡散処理手段より生成されたデータと、に基づきエッジ補正処理後のデータを生成するデータ混合手段とを有し、前記混合手段は、前記注目画素の濃度が高いほど前記誤差拡散処理に対する前記エッジ縁取り処理の割合を大きくし、前記注目画素の濃度が低いほど前記エッジ縁取り処理に対する前記誤差拡散処理の割合を大きくすることを特徴とする。   Alternatively, an image processing apparatus according to the present invention is an image processing apparatus that performs edge correction processing on an edge in an image, the density determination unit that determines the density of data of the pixel of interest, and the data of the pixel of interest. Error diffusion processing means for performing error diffusion processing, dither processing means for performing dither processing on the data of the target pixel, and an edge for performing edge border processing from the data of the target pixel and data generated by the dither processing means Edge processing means, and data mixing means for generating data after edge correction processing based on data generated by the edge border processing means and data generated by the error diffusion processing means as the edge correction processing And the mixing means increases the density of the target pixel so that the edge fringing process is performed with respect to the error diffusion process. The case is increased, characterized by increasing the proportion of the error diffusion processing on the edge bordering process the lower the concentration of the target pixel.

或いは、本発明における画像処理装置は、画像におけるエッジに対してエッジ補正処理を行う画像処理装置であって、注目画素のデータのエッジ強度であって、前記注目画素の周辺画素との濃度コントラストであるエッジ強度を演算をするエッジ強度演算手段と、前記注目画素のデータに対して誤差拡散処理を行う誤差拡散処理手段と、前記注目画素のデータに対してディザ処理を行うディザ処理手段と、前記注目画素のデータと前記ディザ処理手段より生成されたデータとに基づきエッジ縁取り処理を行うエッジ縁取り処理手段と、前記エッジ強度演算手段により演算された前記注目画素の前記エッジ強度が大きい場合は、前記エッジ縁取り処理手段により生成されたデータを選択し、前記エッジ強度演算手段の結果が小さい場合は前記誤差拡散処理手段により生成されたデータを選択する選択手段とを有することを特徴とする。   Alternatively, an image processing apparatus according to the present invention is an image processing apparatus that performs edge correction processing on an edge in an image, the edge intensity of data of a target pixel, and a density contrast with peripheral pixels of the target pixel. Edge strength calculating means for calculating a certain edge strength, error diffusion processing means for performing error diffusion processing on the data of the target pixel, dither processing means for performing dither processing on the data of the target pixel, When the edge strength of the target pixel calculated by the edge strength calculating means is large, the edge border processing means for performing edge border processing based on the data of the target pixel and the data generated by the dither processing means, If the data generated by the edge border processing means is selected and the result of the edge strength calculating means is small, the error is It characterized by having a selection means for selecting the data generated by the diffusion processing unit.

本発明によれば、画像データのエッジに対して、高品位なエッジ補正処理を行うことが出来る。   According to the present invention, high-quality edge correction processing can be performed on the edge of image data.

第1の実施形態に係る画像処理装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image processing apparatus which concerns on 1st Embodiment. バッファ102の機能的構成を示すブロック図である。2 is a block diagram showing a functional configuration of a buffer 102. FIG. エッジ強度検出部106の機能的構成を示すブロック図である。3 is a block diagram showing a functional configuration of an edge strength detection unit 106. FIG. フィルタ演算部300で使用するフィルタの一例である。4 is an example of a filter used in the filter calculation unit 300. エッジ判定部110の機能的構成を示すブロック図である。3 is a block diagram illustrating a functional configuration of an edge determination unit 110. FIG. エッジ縁取り補正部105の処理フロー図である。FIG. 6 is a processing flowchart of the edge fringing correction unit 105. 第1の実施形態に係る補正処理判定部107の処理フロー図である。It is a processing flowchart of the correction process determination part 107 which concerns on 1st Embodiment. エッジ縁取り補正部105からの出力ENを用いたエッジ補正処理結を示す図である。It is a figure which shows the edge correction process result using the output EN from the edge fringing correction | amendment part 105. FIG. 誤差拡散処理部104からの出力EDを用いたエッジ補正処理結果を示す図である。It is a figure which shows the edge correction process result using output ED from the error diffusion process part 104. FIG. エッジ部の濃度が高い画像データに対して、エッジ縁取りによるエッジ補正処理と、誤差拡散処理によるエッジ補正処理を行った場合の図である。It is a figure at the time of performing the edge correction process by an edge edging, and the edge correction process by an error diffusion process with respect to the image data with a high density | concentration of an edge part. エッジ部の濃度が低い画像データに対して、エッジ縁取りによるエッジ補正処理と、誤差拡散処理によるエッジ補正処理を行った場合の図である。It is a figure at the time of performing the edge correction process by an edge edging, and the edge correction process by an error diffusion process with respect to the image data with a low density | concentration of an edge part. 第2の実施形態に係る.画像処理装置の機能的構成を示すブロック図である。According to the second embodiment. It is a block diagram which shows the functional structure of an image processing apparatus. 第2の実施形態に係る混合比率選択部1201の処理フロー図である。It is a processing flow figure of the mixture ratio selection part 1201 which concerns on 2nd Embodiment. 第2の実施形態に係る混合部1202の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the mixing part 1202 which concerns on 2nd Embodiment. 第2の実施形態に係る混合比率テーブル1401に格納されているテーブルの一例である。It is an example of the table stored in the mixture ratio table 1401 which concerns on 2nd Embodiment. エッジ縁取り補正部105からの出力ENと誤差拡散処理部104からの出力EDとを用いたエッジ補正処理結果を示す図である。FIG. 10 is a diagram illustrating a result of edge correction processing using an output EN from the edge fringing correction unit 105 and an output ED from the error diffusion processing unit 104. 第3の実施形態に係る画像処理装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image processing apparatus which concerns on 3rd Embodiment.

以下に、本発明の実施の形態について添付図面を参照して詳細に説明する。なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明は、その趣旨を逸脱しない範囲で以下の実施形態を修正又は変形したものに適用可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiment described below is an example as means for realizing the present invention, and the present invention can be applied to a modified or modified embodiment described below without departing from the spirit of the present invention.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る画像処理装置の機能的構成を示すブロック図である。図中では画像処理装置101と、プリンタ11と、が接続されている。以下、画像処理装置101の説明を順次行う。
[First Embodiment]
FIG. 1 is a block diagram showing a functional configuration of an image processing apparatus according to the first embodiment of the present invention. In the figure, an image processing apparatus 101 and a printer 11 are connected. Hereinafter, the image processing apparatus 101 will be described sequentially.

バッファ102は、入力画像データを一旦蓄積するものであり、複数ライン分のデータを記憶する。なお、本実施形態では、各画素を8ビットで表現した画像データを1ページ分記憶する容量を持つものとして説明する。ここで、入力画像データIMAGEは、不図示の外部装置(例えば、コンピュータ装置やコントローラ原稿読み取り装置)等から受信する画像が入力されたもので、入力画像データIMAGEは、例えば8ビットの階調データである。   The buffer 102 temporarily accumulates input image data, and stores data for a plurality of lines. In the present embodiment, it is assumed that the image data representing each pixel in 8 bits has a capacity for storing one page of image data. Here, the input image data IMAGE is an image input from an external device (not shown) (for example, a computer device or a controller document reading device), and the input image data IMAGE is, for example, 8-bit gradation data. It is.

バッファ102に蓄積された画像データは、ラスタ順に画素単位でディザ処理部103、誤差拡散処理部104、エッジ縁取り補正部105、エッジ強度演算部106、補正処理判定部107にそれぞれ入力される。ここでは、ラスタ順に各画像処理部に入力される画像データを注目画素と表現する。   The image data stored in the buffer 102 is input to the dither processing unit 103, the error diffusion processing unit 104, the edge fringing correction unit 105, the edge strength calculation unit 106, and the correction processing determination unit 107 in pixel order in raster order. Here, image data input to each image processing unit in raster order is expressed as a pixel of interest.

ディザ処理部103は、入力画像データに含まれる注目画素データからディザ処理法に従って階調画素データDITHER(以下、DITHERと称する)を生成する。ディザ処理部103は、注目画素データに適用する閾値を予め記憶された閾値マトリクスより選択し、選択された閾値と注目画素データを比較し量子化値を出力する処理である。閾値マトリクスは、閾値が画素の位置関係に基づきマトリクスとして保持されたものである。ディザ処理により、注目画素の位置関係基づく閾値が閾値マトリクスより選択され、注目画素値と比較される。このとき、注目画素が閾値を上回っていれば、閾値に対応した量子化値が出力され、注目画素が閾値を下回っていれば、量子化レベルをひとつ下げた量子化値が出力される。量子化幅はプリンタ111の解像度によって異なり、例えば、1画素を複数の階調で表現することのできるパルス幅制御が可能なプリンタに適用する場合には、表現可能な階調数の量子化幅を最大で持つことができる。   The dither processing unit 103 generates gradation pixel data DITHER (hereinafter referred to as DITHER) from the target pixel data included in the input image data according to a dither processing method. The dither processing unit 103 is a process of selecting a threshold value to be applied to the target pixel data from a threshold matrix stored in advance, comparing the selected threshold value with the target pixel data, and outputting a quantized value. In the threshold matrix, thresholds are held as a matrix based on the positional relationship of pixels. By the dither processing, a threshold value based on the positional relationship of the target pixel is selected from the threshold matrix and compared with the target pixel value. At this time, if the target pixel exceeds the threshold value, a quantized value corresponding to the threshold value is output, and if the target pixel is lower than the threshold value, a quantized value obtained by lowering the quantization level by one is output. The quantization width differs depending on the resolution of the printer 111. For example, when applied to a printer capable of pulse width control capable of expressing one pixel with a plurality of gradations, the quantization width of the number of gradations that can be expressed. Can have up to.

他方、誤差拡散処理部104は、入力画像データに含まれる注目画素データから誤差拡散法に従って階調画素データEDを生成する。   On the other hand, the error diffusion processing unit 104 generates gradation pixel data ED from the target pixel data included in the input image data according to the error diffusion method.

エッジ縁取り補正部105は、注目画素データとディザ処理部103より出力されるDITHERに基づきエッジ縁取り補正に用いるデータENを出力する。   The edge fringing correction unit 105 outputs data EN used for edge fringing correction based on the target pixel data and DITHER output from the dither processing unit 103.

エッジ強度演算部106は、入力画像データに含まれる注目画素データとその周辺画素データからエッジ強度を検出して出力信号1061を出力する。そして、エッジ判定部110は入力されたエッジ強度(出力信号1061)に応じてエッジ判定信号EDGE_DETECTを出力する。   The edge strength calculation unit 106 detects the edge strength from the target pixel data included in the input image data and its peripheral pixel data, and outputs an output signal 1061. Then, the edge determination unit 110 outputs an edge determination signal EDGE_DETECT according to the input edge strength (output signal 1061).

補正処理判定部107は、入力画像データに含まれる注目画素データの濃度に基づきエッジ縁取り補正部105から出力されるデータENを用いるか、誤差拡散処理部104から出力される階調画素データEDを用いるかを指定する。具体的には、データENと階調画素データEDのどちらを選択するかの選択信号SELECTをエッジ補正選択部108に出力する。   The correction processing determination unit 107 uses the data EN output from the edge fringing correction unit 105 based on the density of the target pixel data included in the input image data, or the gradation pixel data ED output from the error diffusion processing unit 104. Specify whether to use. Specifically, the selection signal SELECT for selecting which of the data EN and the gradation pixel data ED is output to the edge correction selection unit 108.

エッジ補正処理選択部108は、指示された選択信号SELECTに基づき、誤差拡散によるエッジ補正処理EDか、縁取り処理によるエッジ補正処理ENかを選択し、そのどちらかをEDGEとして出力する。尚、ここで出力されるEDGEは、EDGE_DETECT信号がエッジを示している場合にのみ、平坦エッジ選択部109により利用される。また、ここでは1画素のデータが順次出力されることとなる。   The edge correction processing selection unit 108 selects the edge correction processing ED by error diffusion or the edge correction processing EN by edge processing based on the instructed selection signal SELECT, and outputs either of them as EDGE. The EDGE output here is used by the flat edge selection unit 109 only when the EDGE_DETECT signal indicates an edge. Here, the data for one pixel is sequentially output.

平坦エッジ処理選択部109は、エッジ判定部110より出力された選択信号SELECTに従い、ディザ処理部103より出力されるDITHERと、エッジ補正処理選択部108で出力されたエッジ補正処理画像データEDGEのどちらかを選択する。そしてそれを出力画像データ信号1091として出力する。   The flat edge processing selection unit 109 selects either DITER output from the dither processing unit 103 or edge correction processing image data EDGE output from the edge correction processing selection unit 108 in accordance with the selection signal SELECT output from the edge determination unit 110. Select. Then, it is output as an output image data signal 1091.

プリンタ111は、例えば、レーザービームプリンタであり、出力画像データ1091に従って、各画素のレーザー照射時間を決定して画像形成を行う。また、プリンタ111が、LEDアレイを用いたLEDプリンタの場合には、LEDの照射時間を決定して画像形成を行 う。また、本実施形態では、1画素を複数の階調で表現することのできるパルス幅制御が可能なプリンタについて記載する。以下、図1における各ブロックの詳細について説明を行っていく。   The printer 111 is, for example, a laser beam printer, and performs image formation by determining the laser irradiation time of each pixel in accordance with the output image data 1091. In the case where the printer 111 is an LED printer using an LED array, the LED irradiation time is determined to form an image. In the present embodiment, a printer capable of pulse width control capable of expressing one pixel with a plurality of gradations will be described. The details of each block in FIG. 1 will be described below.

○バッファ102
図2はバッファ102の機能を示すブロック図である。バッファ102では、まず入力画像データIMAGEをページメモリ201に格納する。頁メモリの画像データIMAGEは縦(n画素)×横(m画素)である。そして、ページメモリ201上に格納されたデータは、セレクタ203により、注目画素Cを中心とした3×3画素(202)のマトリクスで選択される。マトリクスの1行目の3画素を信号線204a、注目画素を含む2行目の3画素を信号線204b、3行目の3画素を信号線204cを通じてエッジ強度演算部106へと送られる。尚、このとき、(行番号、列番号)とすると、セレクタ203は、注目画素Cを、(2、2)(2、3)・・(2、n−1)と順次選択していく。またセレクタ203は、同様にして、注目画素Cの選択を2行目〜(n―1)行目までについて行う。また、このときに、204a〜204cとしてエッジ強度演算部106に送られる画素も順次変更されていく。
Buffer 102
FIG. 2 is a block diagram illustrating functions of the buffer 102. In the buffer 102, first, the input image data IMAGE is stored in the page memory 201. The image data IMAGE of the page memory is vertical (n pixels) × horizontal (m pixels). The data stored in the page memory 201 is selected by the selector 203 in a 3 × 3 pixel (202) matrix centered on the pixel of interest C. The three pixels in the first row of the matrix are sent to the edge strength calculation unit 106 through the signal line 204a, the three pixels in the second row including the pixel of interest through the signal line 204b, and the three pixels in the third row through the signal line 204c. At this time, assuming that (row number, column number), the selector 203 sequentially selects the target pixel C as (2, 2) (2, 3)... (2, n−1). Similarly, the selector 203 selects the target pixel C from the second row to the (n−1) th row. At this time, the pixels sent to the edge intensity calculation unit 106 as 204a to 204c are also changed sequentially.

また、この時、注目画素データCは、ディザ処理部103、誤差拡散処理部104、エッジ縁取り補正部105、補正処理判定部107へも同時に送られる。   At this time, the target pixel data C is also sent to the dither processing unit 103, the error diffusion processing unit 104, the edge fringing correction unit 105, and the correction processing determination unit 107 at the same time.

○エッジ強度演算部106
図3は、エッジ強度演算部106の機能構成を示すブロック図である。バッファ102から信号線204a〜204cを通して入力されてきた画像データは、バッファ301に蓄積される。バッファ301は、3画素分の画像データを蓄積可能な3つのシフトレジスタ301a〜301cを有する。従って、バッファ301は、9画素分の画像データを蓄積可能である。ここで、中央に位置する画素を注目画素308とする。
○ Edge strength calculation unit 106
FIG. 3 is a block diagram illustrating a functional configuration of the edge strength calculation unit 106. Image data input from the buffer 102 through the signal lines 204 a to 204 c is stored in the buffer 301. The buffer 301 includes three shift registers 301a to 301c that can store image data for three pixels. Accordingly, the buffer 301 can store image data for nine pixels. Here, the pixel located at the center is set as the target pixel 308.

バッファ301に蓄積された9画素分の画像データは、バッファ301aの先頭アドレスから順に信号線302を通じてフィルタ演算部300へ入力される。バッファ301aに蓄積されたデータの伝送がおわると、次はバッファ301bの先頭アドレスから順に伝送を行う。以後、同様にして301aから301cまでのデータを伝送する。   The image data for nine pixels stored in the buffer 301 is input to the filter operation unit 300 through the signal line 302 in order from the head address of the buffer 301a. When transmission of the data stored in the buffer 301a is completed, transmission is performed sequentially from the top address of the buffer 301b. Thereafter, data from 301a to 301c are transmitted in the same manner.

フィルタ演算部300は、入力された9画素分の画像データとフィルタ演算処理を行う。このフィルタ演算部300は、注目画素Cがエッジであるか否かを、注目画素Cと、素周辺の画素と、の濃度の差分(濃度コントラスト)に基づき、判定する。以下、その詳細について説明するフィルタ演算処理に使用されるフィルタとしては、図4ではラプラシアンフィルタが用いられている。フィルタ演算部300はバッファ301より順次入力される画像データとフィルタとの乗算処理を行い、すべての画素の乗算処理を行った結果を加算処理を行う。例えば、フィルタに図4のラプラシアンフィルタを用いている場合は、バッファ301aの先頭アドレスの画像データが入力されると同時にフィルタの先頭アドレス400aから値を読み込み、入力データとの乗算処理を行う。バッファ301aのアドレスが変更され次のデータが入力されるとフィルタの読み込みアドレスもシフトし、アドレス400bから読み込んだ値と入力データとの乗算処理を行う。以下同様に入力データとフィルタの乗算処理を順次行い、その結果を加算処理した値をエッジ強度値1061として出力する。この加算処理は、実質的に、注目画素とその周辺の画素との濃度差分を評価する処理に相当する。   The filter calculation unit 300 performs filter calculation processing on the input image data for nine pixels. The filter calculation unit 300 determines whether or not the target pixel C is an edge based on the density difference (density contrast) between the target pixel C and the surrounding pixels. In the following, a Laplacian filter is used in FIG. 4 as a filter used for the filter calculation processing described in detail. The filter operation unit 300 performs a multiplication process of the image data sequentially input from the buffer 301 and the filter, and performs an addition process on the result of the multiplication process of all the pixels. For example, when the Laplacian filter of FIG. 4 is used as the filter, the image data at the head address of the buffer 301a is input, and at the same time, a value is read from the head address 400a of the filter, and multiplication processing with the input data is performed. When the address of the buffer 301a is changed and the next data is input, the read address of the filter is also shifted, and the value read from the address 400b is multiplied by the input data. In the same manner, input data and a filter are sequentially multiplied, and a value obtained by adding the results is output as an edge strength value 1061. This addition process substantially corresponds to a process for evaluating the density difference between the pixel of interest and its surrounding pixels.

○エッジ判定部110
図5はエッジ判定部110の機能構成を示すブロック図である。エッジ判定決定部502は、エッジ強度検出部106より入力されるエッジ強度値1061からエッジ判定閾値を参照して、注目画素308のエッジ補正処理をするかどうかを決定し、エッジ判定結果EDGE_DETECTとして出力する。
Edge determination unit 110
FIG. 5 is a block diagram illustrating a functional configuration of the edge determination unit 110. The edge determination determination unit 502 refers to the edge determination threshold value from the edge intensity value 1061 input from the edge intensity detection unit 106, determines whether or not to perform edge correction processing on the target pixel 308, and outputs it as an edge determination result EDGE_DETECT To do.

図6を用いてエッジ縁取り補正部105の出力画像データの選択方法について説明する。エッジ縁取り補正部105では、ディザ処理部103の出力であるDITHERと、注目画素の画像データCが順次入力されるごとにDITHERかCのどちらかを選択し、出力信号ENとして出力する。まず、ディザ処理部103より出力されるDITHERを参照する(S601)。DITHER=0の場合、注目画素の画像データCを選択し、出力データENとして出力する(S602)。また、DITHER≠0の場合、DITHERを出力データENとして出力する(S603)。   A method of selecting output image data by the edge fringing correction unit 105 will be described with reference to FIG. The edge fringing correction unit 105 selects either DITER or C each time image data C of the pixel of interest is sequentially input, and outputs it as an output signal EN. First, the DITER output from the dither processing unit 103 is referred to (S601). When DITHER = 0, the image data C of the target pixel is selected and output as output data EN (S602). If DITTER ≠ 0, DITHER is output as output data EN (S603).

○補正処理判定部107
図11は補正処理判定部107の処理フローである。まず、補正処理判定部107はエッジ補正処理を選択するために閾値THを読み込む(S1101)。なお、本実施形態では閾値THは予め記憶されている値を読み込むこととしたが、センサで測定した濃度情報によって決定される値を読み込んでもよいし、各色ごとにTHを変更させてもよい。つまり、閾値THは一義的に決定するのではなく、最適なエッジ補正処理を選択することができるようにしてもよい。
○ Correction processing determination unit 107
FIG. 11 is a processing flow of the correction processing determination unit 107. First, the correction process determination unit 107 reads a threshold value TH in order to select an edge correction process (S1101). In the present embodiment, the threshold TH is read from a value stored in advance, but a value determined by density information measured by a sensor may be read, or TH may be changed for each color. That is, the threshold value TH is not uniquely determined, but an optimum edge correction process may be selected.

閾値THと、補正処理判定部107に入力された画像データC(注目画素のデータC)を比較する(S1102)。これは濃度判定に相当する。入力画像データCが閾値TH以上の値ならば高濃度用のエッジ補正処理を選択する信号をSELECT=0として出力する(S1103)。また、入力画像データCが閾値THより小さい値ならば低濃度用のエッジ補正処理を選択する信号をSELECT=1として出力する(S1104)。   The threshold value TH is compared with the image data C (target pixel data C) input to the correction processing determination unit 107 (S1102). This corresponds to density determination. If the input image data C is greater than or equal to the threshold value TH, a signal for selecting edge correction processing for high density is output as SELECT = 0 (S1103). If the input image data C is smaller than the threshold value TH, a signal for selecting edge correction processing for low density is output as SELECT = 1 (S1104).

○エッジ補正処理選択部108
次に、エッジ補正処理選択部108について説明する。エッジ補正処理選択部108は補正処理判定部107から入力される選択信号SELECTの値を元にエッジ縁取り補正ENか誤差拡散処理EDかを選択する。
○ Edge correction processing selection unit 108
Next, the edge correction process selection unit 108 will be described. The edge correction process selection unit 108 selects the edge fringing correction EN or the error diffusion process ED based on the value of the selection signal SELECT input from the correction process determination unit 107.

選択信号SELECTが高濃度用のエッジ補正処理を示している場合、前述しているようにエッジ縁取り補正部105による補正処理が最適である。よって、この場合には、エッジ補正処理選択部108は、エッジ補正処理のデータとして、エッジ縁取り処理部105により生成されたENのデータを選択し、出力値EDGE(EDGE=EN)とする。   When the selection signal SELECT indicates edge correction processing for high density, as described above, the correction processing by the edge fringing correction unit 105 is optimal. Therefore, in this case, the edge correction processing selection unit 108 selects the EN data generated by the edge edging processing unit 105 as the edge correction processing data, and sets it as the output value EDGE (EDGE = EN).

一方、選択信号SELECTが低濃度用のエッジ補正処理を選択している場合、エッジ補正処理選択部108は、エッジ補正処理のデータとして、誤差拡散処理部104により生成されたEDのデータを生成し、出力値EDGE(EDGE=ED)とする。   On the other hand, when the selection signal SELECT selects edge correction processing for low density, the edge correction processing selection unit 108 generates ED data generated by the error diffusion processing unit 104 as edge correction processing data. The output value EDGE (EDGE = ED).

○平坦エッジ処理選択部109
平坦エッジ処理選択部109は、エッジ判定部110からのEDGE_DETECT信号によりエッジとみなされた場合にEDGEを、エッジとみなされない場合は平坦部としてDITHERを出力画像データ1091として出力する。
○ Flat edge processing selection unit 109
The flat edge processing selection unit 109 outputs EDGE as output image data 1091 as a flat part when it is regarded as an edge by the EDGE_DETECT signal from the edge determination unit 110, and as a flat part when it is not regarded as an edge.

平坦エッジ処理選択部109は、結果として、エッジ縁取り補正部105の出力ENを、注目画素Cがエッジ判定部110でエッジと判断され、且つエッジ補正処理選択部108で高濃度と判断された場合にエッジ補正データとして選択する。また平坦エッジ処理選択部109は、結果として、誤差拡散処理部104の出力EDを、注目画素Cがエッジ判定部110でエッジと判断され、且つエッジ補正処理選択部108で低濃度と判断された場合にエッジ補正データとして選択する。   As a result, the flat edge processing selection unit 109 determines that the output EN of the edge fringing correction unit 105 is determined that the target pixel C is an edge by the edge determination unit 110 and the edge correction processing selection unit 108 determines a high density. Is selected as edge correction data. Further, as a result, the flat edge processing selection unit 109 determines that the output ED of the error diffusion processing unit 104 has the target pixel C determined as an edge by the edge determination unit 110 and a low density by the edge correction processing selection unit 108. In this case, it is selected as edge correction data.

以上が図1における各ブロックの詳細説明である。以下、図8、9を用いて、エッジ補正処理として、エッジ縁取り補正部105によるエッジ縁取り補正処理を反映した場合と、誤差拡散処理部104による誤差拡散処理を反映した場合との画像について説明する。   The above is the detailed description of each block in FIG. In the following, an image when the edge fringing correction process by the edge fringing correction unit 105 is reflected and when the error diffusion processing by the error diffusion processing unit 104 is reflected as the edge correction processing will be described with reference to FIGS. .

まず、平坦エッジ処理選択部109により、エッジ縁取り補正部105の出力ENがエッジ補正処理として選択された場合について、図8を用いて詳細に説明する。   First, the case where the output EN of the edge fringing correction unit 105 is selected as the edge correction processing by the flat edge processing selection unit 109 will be described in detail with reference to FIG.

図8(a)は入力画像データの一例を示す図である。図8(a)の入力画像データに、ディザ処理部103でディザ処理を行ったものが図8(b)の画像データである。ディザの有する位相成分と近い角度を有するエッジ部においては、702のように量子化誤差が大きくなってしまい、エッジを適切に再現することができずにジャギーが発生してしまう。図8(c)は、エッジ判定部110によりエッジを判定し、判定結果を画像データとして示した図である。エッジ強度検出部106は、前述したとおりラインバッファ301に格納された9画素の画像データからエッジ強度値を演算する。ここで例えばラインバッファ301に格納される画像データが703であるとする。   FIG. 8A shows an example of input image data. The image data of FIG. 8B is obtained by dithering the input image data of FIG. 8A by the dither processing unit 103. In the edge portion having an angle close to the phase component of the dither, the quantization error becomes large as in 702, and the edge cannot be reproduced properly, and jaggy occurs. FIG. 8C is a diagram in which an edge is determined by the edge determination unit 110 and the determination result is shown as image data. The edge intensity detection unit 106 calculates an edge intensity value from the image data of 9 pixels stored in the line buffer 301 as described above. Here, it is assumed that the image data stored in the line buffer 301 is 703, for example.

次に、フィルタ演算部300においてラインバッファ301に格納されたデータとエッジ判定用フィルタとのフィルタ演算を行う。ここで、仮にエッジ判定用のフィルタは図4に示すラプラシアンフィルタであるとする。ラインバッファに格納されたデータ703とラプラシアンフィルタ400とフィルタ演算をすると、エッジ強度値として、384が信号線1061を通じて出力される。   Next, the filter operation unit 300 performs a filter operation between the data stored in the line buffer 301 and the edge determination filter. Here, it is assumed that the edge determination filter is a Laplacian filter shown in FIG. When the filter operation is performed with the data 703 stored in the line buffer and the Laplacian filter 400, 384 is output as an edge intensity value through the signal line 1061.

エッジ判定部110は信号線1061を介して入力されるエッジ強度値と、エッジ判定閾値501より読み込んだ閾値とを比較する。そして、エッジ判定部110は、エッジ強度値が閾値以上の場合はエッジ検出信号を、閾値より小さい場合はエッジ非検出信号をEDGE_DETECTとして出力する。ここで、501に格納されているエッジ判定の閾値を192とすると、エッジ強度値の方が大きいため、入力画像データ703の中心画素はエッジが検出されたとみなすことができる。   The edge determination unit 110 compares the edge intensity value input via the signal line 1061 with the threshold value read from the edge determination threshold value 501. Then, the edge determination unit 110 outputs an edge detection signal as an EDGE_DETECT when the edge intensity value is greater than or equal to the threshold, and an edge non-detection signal when the edge strength value is smaller than the threshold. Here, assuming that the edge determination threshold value stored in 501 is 192, the edge intensity value is larger, and therefore it can be considered that the center pixel of the input image data 703 has detected an edge.

以上のエッジ判定処理を、図8(a)の入力画像データに対して行った結果が図8(c)である。画像データに対して、エッジ検出部を示す画素を703aのイメージで、エッジ非検出部を示す画素を703bのイメージで示す。図8(c)に示すとおり画像内のエッジ部だけが検出されていることが確認できる。   FIG. 8C shows a result obtained by performing the above edge determination processing on the input image data in FIG. For image data, a pixel indicating an edge detection unit is indicated by an image 703a, and a pixel indicating an edge non-detection portion is indicated by an image 703b. As shown in FIG. 8C, it can be confirmed that only the edge portion in the image is detected.

図8(d)はエッジ判定結果図8(c)でエッジ検出部とみなされ且つエッジ補正処理選択部108で高濃度と判断された箇所にのみ、エッジ縁取り補正部105の出力ENを適用した場合の画像データを示している。704a、704bのそれぞれの箇所について、図6のエッジ縁取り処理フローを用いて詳細に説明する。   FIG. 8D shows the edge determination result. The output EN of the edge fringing correction unit 105 is applied only to the portion that is regarded as the edge detection unit in FIG. 8C and is determined to have a high density by the edge correction processing selection unit 108. The image data in the case is shown. Each location of 704a and 704b will be described in detail using the edge border processing flow of FIG.

まず、704aの箇所の場合、エッジ縁取り処理105に入力される入力画像値Cは128(704a)であり、DITHERは255(704b)である。図6のS601より、DITHERは0ではないため、S603を実行し、出力値ENとして255が出力される(704d)。   First, in the case of the location of 704a, the input image value C input to the edge fringing process 105 is 128 (704a), and DITHER is 255 (704b). From S601 in FIG. 6, since DITHER is not 0, S603 is executed and 255 is output as the output value EN (704d).

同様に705aの箇所の場合、エッジ縁取り処理105に入力される入力画像値Cは128(705a)であり、DITHERは0(705b)である。図6のS601より、DITHERは0であるため、S602を実行し、出力値ENとして128が出力される(705d)。   Similarly, in the case of the location of 705a, the input image value C input to the edge fringing process 105 is 128 (705a), and DITHER is 0 (705b). From S601 in FIG. 6, since DITER is 0, S602 is executed and 128 is output as the output value EN (705d).

以上のようにエッジが検出された箇所のみエッジ縁取り補正部105の出力ENを適用した結果が図8(d)となる。図8(d)ではエッジの縁取り効果によって高解像度な補正をすることになり、量子化誤差が大きい箇所のデータも補うことが可能になるため、ジャギーの抑制を図ることができる。   FIG. 8D shows the result of applying the output EN of the edge fringing correction unit 105 only to the portion where the edge is detected as described above. In FIG. 8D, high-resolution correction is performed by the edge trimming effect, and it is possible to compensate for data at a portion where the quantization error is large, so that jaggies can be suppressed.

本実施形態ではエッジ縁取り補正処理としてディザスクリーンデータが0の際に入力画像データを付加する構成について記載したが、その他の縁取り処理でもかまわない。たとえば、エッジ部分には入力画像データをそのまま出力する構成や、ディザスクリーンデータと入力画像データを比較して、値の大きい方を出力するようなエッジ補正処理を施してもよい。   In the present embodiment, the configuration in which the input image data is added when the dither screen data is 0 is described as the edge edging correction processing, but other edging processing may be used. For example, a configuration in which input image data is directly output to the edge portion, or edge correction processing in which dither screen data and input image data are compared and the larger value is output may be performed.

図9を用いて、平坦エッジ処理選択部109により、エッジ検出箇所に、誤差拡散処理の出力EDを適用した場合について説明する。図9(a)は図8(a)で示す入力画像データを誤差拡散処理した画像データを示す図である。図9(b)は、図8(c)でエッジ部と判断された箇所に対して、図9(a)に示す誤差拡散処理した画像データを適用した場合の画像データを示す図である。また、図9(b)は、非エッジ部と判断された箇所に対して、図8(b)に示すディザ処理をした画像データを適用した場合の画像データを示す図である。図9(a)では誤差拡散処理の一例として3値の誤差拡散処理を施した場合の画像データである。誤差拡散処理を用いた場合、エッジ部の途切れが発生しないためジャギーの発生を抑制することができるが、画像にランダムにドット抜けが生じるため、画像劣化の原因となる縞パターンが生成される。そこで、エッジ部のみ誤差拡散処理を適用することで図9(b)のように平坦部の粒状性を維持し、ジャギーを抑制することができる。   The case where the flat edge processing selection unit 109 applies the error diffusion processing output ED to the edge detection portion will be described with reference to FIG. FIG. 9A shows image data obtained by performing error diffusion processing on the input image data shown in FIG. FIG. 9B is a diagram illustrating image data when the image data subjected to the error diffusion processing illustrated in FIG. 9A is applied to the portion determined as the edge portion in FIG. 8C. FIG. 9B is a diagram showing image data when the image data subjected to the dither processing shown in FIG. 8B is applied to a portion determined as a non-edge portion. FIG. 9A shows image data when ternary error diffusion processing is performed as an example of error diffusion processing. When the error diffusion process is used, the occurrence of jaggies can be suppressed because no interruption of the edge portion occurs, but since a missing dot is randomly generated in the image, a fringe pattern that causes image degradation is generated. Therefore, by applying error diffusion processing only to the edge portion, the granularity of the flat portion can be maintained as shown in FIG. 9B, and jaggy can be suppressed.

以上説明したように、エッジ縁取り補正部105によるエッジ補正処理と誤差拡散処理部104によるエッジ補正処理はそれぞれジャギーの抑制に効果的である。   As described above, the edge correction processing by the edge fringing correction unit 105 and the edge correction processing by the error diffusion processing unit 104 are effective in suppressing jaggies, respectively.

○縁取り補正処理と誤差拡散処理と濃度との関係
図10は、エッジ部の濃度が高い画像データに対して、エッジ縁取り補正部105によるエッジ補正処理と、誤差拡散処理部104によるエッジ補正処理を行った場合の図である。また、図11は、エッジ部の濃度が低い画像データに対して、エッジ縁取り補正部105によるエッジ補正処理と、誤差拡散処理部104によるエッジ補正処理を行った場合の図である。
FIG. 10 illustrates the edge correction processing by the edge fringing correction unit 105 and the edge correction processing by the error diffusion processing unit 104 for image data with high edge portion density. It is a figure at the time of going. FIG. 11 is a diagram in a case where edge correction processing by the edge fringing correction unit 105 and edge correction processing by the error diffusion processing unit 104 are performed on image data having a low density of the edge portion.

図10、11を用いて、本件の特徴部分である画像濃度に応じてエッジ縁取り補正部105によるエッジ補正処理と、誤差拡散処理部104によるエッジ補正処理を切り替える処理の有効性について説明する。   The effectiveness of the processing for switching the edge correction processing by the edge fringing correction unit 105 and the edge correction processing by the error diffusion processing unit 104 according to the image density which is the characteristic part of the present case will be described with reference to FIGS.

図10において、(a)はエッジ部の濃度が高い画像データの一例を示す図である。図10(b)は、図10(a)で示す入力画像データをディザ処理した画像データを示す図である。図10(c)は、図10(a)で示す入力画像データを誤差拡散処理した画像データを示す図である。図10(d)はエッジ部と判断された箇所に対して、エッジ縁取り処理部105によってエッジ補正処理した画像データを適用し、非エッジ部と判断された場合は図10(b)で示すディザ処理した画像データを適用した場合を示す図である。図10(e)はエッジ部と判断された箇所に対して、図10(c)で示す誤差拡散処理した画像データを適用し、非エッジ部と判断された場合は図10(b)で示すディザ処理した画像データを適用した場合を示す図である。また、エッジと判断される箇所は図8(c)と同一箇所であるため記載を割愛する。   In FIG. 10, (a) is a diagram showing an example of image data in which the density of the edge portion is high. FIG. 10B shows image data obtained by dithering the input image data shown in FIG. FIG. 10C is a diagram showing image data obtained by performing error diffusion processing on the input image data shown in FIG. In FIG. 10D, the image data subjected to the edge correction processing by the edge edging processing unit 105 is applied to the portion determined as the edge portion, and when it is determined as the non-edge portion, the dither shown in FIG. It is a figure which shows the case where the processed image data is applied. FIG. 10E applies the image data subjected to the error diffusion processing shown in FIG. 10C to the portion determined as the edge portion, and FIG. 10B shows the case where it is determined as the non-edge portion. It is a figure which shows the case where the image data which carried out the dither process is applied. Further, the portion determined to be an edge is the same as that in FIG.

図10(a)のような濃度の高い画像情報にディザ処理を行うと図10(b)に示すように下地に対してスクリーンの占める割合が増えてくるため、ジャギーの発生頻度は減少するものの、901bの部分のように一部にエッジのがたつきが生じてしまう。   When dither processing is performed on image information having a high density as shown in FIG. 10A, the ratio of the screen to the background increases as shown in FIG. 10B, but the occurrence frequency of jaggies decreases. , 901b, part of the edge rattling occurs.

図10(d)は図10(a)の画像データをエッジ縁取り補正部105によってエッジ補正処理した画像データである。図10(d)に示すとおり、901bでジャギーが生じている部分に対して、スクリーンの間に入力画像である901aのドットが付加されているため、ジャギーが抑制されエッジ部を最適に表現できていることがわかる。また、スクリーンの間にドットを付加することでエッジ部が強調され、輪郭を強調したい文字などにおいては非常に高精細で滑らかにエッジを表現することができる。   FIG. 10D illustrates image data obtained by performing edge correction processing on the image data illustrated in FIG. As shown in FIG. 10 (d), since the dot 901a, which is the input image, is added between the screens where the jaggy is generated in 901b, the jaggy is suppressed and the edge portion can be expressed optimally. You can see that In addition, by adding dots between the screens, the edge portion is emphasized, and an edge can be expressed with very high definition and smoothness in a character or the like whose outline is to be emphasized.

一方、図10(e)は図10(a)の画像データのエッジ部を誤差拡散処理部104によるデータに置き換えることでエッジ補正処理を行った結果の画像データである。図10(e)に示すとおり、901eのような箇所ではエッジ部のジャギーがとりきれていないことがわかる。これは、エッジ部に誤差拡散処理を用いているため、ランダムにドット抜けが生じてしまい、ジャギーを抑制させたい箇所にドットが発生せず、ジャギーが取りきれないことがあるためである。   On the other hand, FIG. 10E shows image data obtained as a result of performing edge correction processing by replacing the edge portion of the image data in FIG. 10A with data by the error diffusion processing unit 104. As shown in FIG. 10 (e), it can be seen that the jaggy of the edge portion is not completely removed at a location such as 901e. This is because, since error diffusion processing is used for the edge portion, dot dropout occurs randomly, dots do not occur at locations where jaggies are to be suppressed, and jaggies may not be completely removed.

以上より、図10(a)のようなエッジ部の濃度が高い画像データの場合には、エッジ縁取り補正部105による補正処理によってエッジを強調する方が、誤差拡散処理部104によるエッジ補正処理よりも最適であることがわかる。
また、図11において、(a)はエッジ部の濃度が低い画像データの一例を示す図である。図11(b)は図11(a)で示す入力画像データをディザ処理した画像データを示す図である。図11(c)は図11(a)で示す入力画像データを誤差拡散処理した画像データを示す図である。図11(d)はエッジ部と判断された箇所に対して、エッジ縁取り処理部105によってエッジ補正処理した画像データを適用し、非エッジ部と判断された場合は図11(b)で示すディザ処理した画像データを適用した場合を示す図である。図11(e)はエッジ部と判断された箇所に対して、図11(c)で示す誤差拡散処理した画像データを適用し、非エッジ部と判断された場合は図11(b)で示すディザ処理した画像データを適用した場合を示す図である。また、エッジと判断される箇所は図8(c)と同一箇所である。
As described above, in the case of image data having a high edge density as shown in FIG. 10A, the edge is emphasized by the correction process by the edge fringing correction unit 105 rather than the edge correction process by the error diffusion processing unit 104. Is also found to be optimal.
Further, in FIG. 11, (a) is a diagram showing an example of image data having a low density of the edge portion. FIG. 11B shows image data obtained by dithering the input image data shown in FIG. FIG. 11C illustrates image data obtained by performing error diffusion processing on the input image data illustrated in FIG. In FIG. 11D, the image data subjected to the edge correction processing by the edge edging processing unit 105 is applied to the portion determined to be an edge portion, and when it is determined to be a non-edge portion, the dither shown in FIG. It is a figure which shows the case where the processed image data is applied. FIG. 11E applies the image data subjected to the error diffusion processing shown in FIG. 11C to the portion determined as the edge portion, and FIG. 11B shows the case where it is determined as the non-edge portion. It is a figure which shows the case where the image data which carried out the dither process is applied. Further, the location determined to be an edge is the same location as in FIG.

図11(a)のような濃度の低い画像情報にディザ処理を行うと図11(b)に示すように下地に対してスクリーンの占める割合が小さいため、1001bの部分のようにエッジのがたつきが生じてしまう。   When dither processing is performed on image information having a low density as shown in FIG. 11A, the ratio of the screen to the background is small as shown in FIG. There will be a touch.

図11(d)は図11(a)の画像データをエッジ縁取り補正部105によってエッジ補正処理した画像データである。図11(d)に示すとおり、1001bでジャギーが生じている部分に対して、スクリーンの間に入力画像である1001aのドットが付加されていることがわかる。しかし、一般的に低濃度のドットはエンジンの耐久状況や、使用環境等の影響を受けやすく、ドットの再現性が不安定であるという課題がある。また、エッジ部においてスクリーンとスクリーンの間の距離が長くなる箇所がある(例えば1002〜1003間)。つまり、濃度が低い画像データに対してエッジ縁取り補正部105によるエッジ補正処理を行うと、再現性が不安定なドットを使用して長い距離のエッジを補正することになってしまう(例えば1004の部分)。   FIG. 11D illustrates image data obtained by performing edge correction processing on the image data illustrated in FIG. As shown in FIG. 11D, it can be seen that the dot 1001a as the input image is added between the screens in the portion where the jaggy is generated in 1001b. However, in general, a low-density dot is easily affected by the durability of the engine and the use environment, and there is a problem that the dot reproducibility is unstable. In addition, there is a portion where the distance between the screens becomes long at the edge portion (for example, between 1002 and 1003). That is, when edge correction processing by the edge fringing correction unit 105 is performed on image data having a low density, a long distance edge is corrected using dots with unstable reproducibility (for example, 1004). portion).

例えば1001dのドットが出力したい濃度よりも低く再現されてしまう場合は、エッジ縁取り処理の効果が薄く、ジャギーの改善がなされないことになる。また、1001dのドットが出力したい濃度よりも高く再現されてしまう場合は、エッジ縁取り処理が必要以上にかかってしまい、エッジ内部の平坦部と比べて不自然に縁取られた画像になってしまう。   For example, when a dot of 1001d is reproduced at a lower density than desired, the edge edging process is not effective and jaggy is not improved. Also, if the 1001d dot is reproduced higher than the desired density, the edge edging process is more than necessary, resulting in an image that is unnaturally edged compared to the flat part inside the edge.

一方、図11(e)は図11(a)の画像データのエッジ部を誤差拡散処理部104のデータに置き換えることでエッジ補正処理を行った結果の画像データである。誤差拡散処理によるエッジ補正処理は、ランダムにドット抜けを発生させるためジャギーを完全に抑制させることはできないものの、スクリーンの周期よりも高い周期でエッジ部を表現することができる。また、誤差拡散の量子化値をあまり増やさずに、出力値を安定な高濃度部を使用することでドットの再現性を向上させることが可能となる。つまり、濃度が低い画像データに対して誤差拡散処理部によるエッジ補正処理を行うことで、再現性の安定したドットを使用して高解像度にエッジ部を表現することができる。   On the other hand, FIG. 11E shows image data obtained as a result of performing edge correction processing by replacing the edge portion of the image data in FIG. 11A with the data of the error diffusion processing unit 104. The edge correction process by the error diffusion process generates dot missing at random, so that jaggies cannot be completely suppressed, but the edge part can be expressed with a period higher than the period of the screen. In addition, the dot reproducibility can be improved by using a high-density portion where the output value is stable without increasing the quantization value of error diffusion so much. That is, by performing edge correction processing by the error diffusion processing unit on low-density image data, it is possible to express the edge portion with high resolution using dots with stable reproducibility.

このように図11(a)のようなエッジ部の濃度が低い画像データの場合には、誤差拡散処理部104によるエッジ補正処理によって、安定して高解像度にエッジを表現する方がエッジ縁取り補正部105による補正処理によりも最適であることがわかる。   Thus, in the case of image data having a low edge density as shown in FIG. 11A, it is more appropriate to express the edge at a higher resolution by the edge correction processing by the error diffusion processing unit 104. It can be seen that the correction processing by the unit 105 is also optimal.

以上の処理によって、注目画素の濃度情報を元にエッジ縁取り処理と誤差拡散処理を切り替えてエッジ補正処理を行うことによって高濃度から低濃度のエッジまでジャギーを抑制し滑らかにエッジを表現することができる。尚、上の図1の説明においては、平坦エッジ処理選択部109にディザ処理部103からの出力(DITHER)を直接入力し、非エッジ部についてそのDITHERを割り当てるよう説明した。しかし、非エッジ部の画像処理についてこの形態に限定されるものではない。例えば、誤差拡散処理部104からの出力EDを代わりに入力し、そのEDを非エッジ部に割り当てるようにしても良い。或いは、ディザ処理部109の出力DITHERと、誤差拡散処理部104の出力EDと、の双方を入力し、非エッジ部の画像の画像内容によって、何れかを選択的に用いるようにしても良い。   By performing the above processing, edge correction processing is performed by switching between edge fringing processing and error diffusion processing based on the density information of the target pixel, thereby suppressing jaggies from high density to low density edges and smoothly expressing edges. it can. In the description of FIG. 1 above, it has been described that the output (DITHER) from the dither processing unit 103 is directly input to the flat edge processing selection unit 109 and the DITER is assigned to the non-edge portion. However, the image processing of the non-edge portion is not limited to this form. For example, the output ED from the error diffusion processing unit 104 may be input instead, and the ED may be assigned to the non-edge portion. Alternatively, both the output DITER of the dither processing unit 109 and the output ED of the error diffusion processing unit 104 may be input, and either one may be selectively used depending on the image content of the non-edge portion image.

[第2の実施形態]
上述の第1の実施形態では、注目画素の濃度情報を元にエッジ縁取り処理と誤差拡散処理を切り替える構成について説明した。しかしこのような画像処理では、グラデーションのような画像の場合にはエッジ縁取り処理と誤差拡散処理によるエッジ補正処理との切り替わりが見えてしまう場合がある。このため、本実施形態では、エッジ縁取り処理と誤差拡散によるエッジ補正処理を段々と切り替えることによって切り替わりを目立たなくする構成について説明する。
[Second Embodiment]
In the first embodiment described above, the configuration in which the edge fringing process and the error diffusion process are switched based on the density information of the target pixel has been described. However, in such image processing, in the case of an image such as a gradation, there may be a case where switching between edge fringing processing and edge correction processing by error diffusion processing is visible. For this reason, in the present embodiment, a configuration will be described in which switching is made inconspicuous by gradually switching between edge fringing processing and edge correction processing by error diffusion.

図12は、第2の実施形態に係る画像処理装置の機能的構成を示すブロック図である。図1との差異を中心に説明を行うと、1201は入力画像データに応じてエッジ縁取り処理と誤差拡散処理の混合する割合を選択する混合比率選択部である。混合比率選択部1201は入力画像の濃度に応じて、エッジ縁取り処理データと誤差拡散処理データを混合する割合を選択する信号をSELECT信号として出力する。また、1202はSELECT信号に応じて、混合比率テーブルより混合比率を読み込み、読み込んだ混合比率でエッジ縁取り処理データENと誤差拡散処理データEDの濃度を混合して出力する混合部である。この混合部1202(データ混合部)により、エッジ補正処理として、エッジ縁取り補正部1202(エッジ縁取り処理部に対応)より生成されたデータと、前記誤差拡散処理手段より生成されたデータと、に基づき、エッジ補正処理後のデータを生成する。そして、ここで生成されたエッジ補正用のデータにより、エッジ縁取り処理と誤差拡散処理によるエッジ補正処理との切り替わりを目立たなくすることが出来る。尚、他の構成は、第1の実施形態と同様であるため、同一の符合を付して説明を省略する。   FIG. 12 is a block diagram illustrating a functional configuration of the image processing apparatus according to the second embodiment. Description will be made centering on the difference from FIG. 1. Reference numeral 1201 denotes a mixing ratio selection unit that selects a mixing ratio of edge fringing processing and error diffusion processing according to input image data. The mixing ratio selection unit 1201 outputs a signal for selecting a ratio for mixing the edge border processing data and the error diffusion processing data as a SELECT signal according to the density of the input image. A mixing unit 1202 reads the mixing ratio from the mixing ratio table in accordance with the SELECT signal, and mixes and outputs the density of the edge fringe processing data EN and the error diffusion processing data ED at the read mixing ratio. Based on the data generated by the edge fringing correction unit 1202 (corresponding to the edge fringing processing unit) and the data generated by the error diffusion processing unit as edge correction processing by the mixing unit 1202 (data mixing unit). The data after the edge correction process is generated. Then, the edge correction data generated here can make the switching between the edge edging process and the edge correction process by the error diffusion process inconspicuous. Since other configurations are the same as those of the first embodiment, the same reference numerals are given and description thereof is omitted.

図13は、混合比率選択部1201の処理フロー図である。混合比率選択部1201は、まずステップS1301で、混合比率を選択するために閾値TH1〜TH3を不図示のメモリから読み込む。尚、TH1>TH2>TH3となっている。また、本実施形態ではでは閾値は3つ読み込むこととしたが、その数は1つでも2つでも混合する割合の数の分だけ増やすことでも処理は可能である。   FIG. 13 is a processing flow diagram of the mixing ratio selection unit 1201. In step S1301, the mixing ratio selection unit 1201 first reads threshold values TH1 to TH3 from a memory (not shown) in order to select a mixing ratio. Note that TH1> TH2> TH3. In the present embodiment, three threshold values are read. However, the number of the threshold values can be increased by the number of mixing ratios of one or two.

次に、ステップS1302において、混合比率選択部1201は、閾値TH1と入力された画像データCとを比較する。そして、入力画像データCが閾値TH1以上の値ならば、混合比率選択部1201は、高濃度用のエッジ補正処理100%と低濃度エッジ補正処理0%を混合する混合比率を選択する信号をSELECT=0として出力する(S1303)。一方、入力画像データCが閾値TH1より小さい値ならば、混合比率選択部1201は処理をステップS1304へ移行させる。   In step S1302, the mixture ratio selection unit 1201 compares the threshold value TH1 with the input image data C. If the input image data C is a value greater than or equal to the threshold value TH1, the mixing ratio selection unit 1201 selects a signal for selecting a mixing ratio for mixing the high-density edge correction processing 100% and the low-density edge correction processing 0%. Is output as 0 (S1303). On the other hand, if the input image data C is a value smaller than the threshold value TH1, the mixture ratio selection unit 1201 shifts the processing to step S1304.

ステップS1304において、混合比率選択部1201は、閾値TH2と、補正処理判定部1201に入力された画像データCを比較する。そして、混合比率選択部1201は、入力画像データCが閾値TH2以上の値ならば高濃度用のエッジ補正処理75%と低濃度エッジ補正処理25%を混合する混合比率を選択する信号をSELECT=1として出力する(S1305)。一方、入力画像データCが閾値TH2より小さい値ならば、混合比率選択部1201は処理をステップS1306へ移行させる。   In step S1304, the mixture ratio selection unit 1201 compares the threshold value TH2 with the image data C input to the correction processing determination unit 1201. Then, if the input image data C is greater than or equal to the threshold value TH2, the mixing ratio selection unit 1201 outputs a signal for selecting a mixing ratio for mixing the high density edge correction processing 75% and the low density edge correction processing 25%. 1 is output (S1305). On the other hand, if the input image data C is smaller than the threshold value TH2, the mixture ratio selection unit 1201 shifts the processing to step S1306.

ステップS1306において、混合比率選択部1201は、閾値TH3と、補正処理判定部1201に入力された画像データCを比較する。そして、入力画像データCが閾値TH3以上の値ならば、混合比率選択部1201は、高濃度用のエッジ補正処理50%と低濃度エッジ補正処理50%を混合する混合比率を選択する信号をSELECT=2として出力する(S1307)。一方、入力画像データCが閾値TH3より小さい値ならば、混合広津選択部1201は、ステップS1308で、高濃度用のエッジ補正処理0%と低濃度エッジ補正処理100%を混合する混合比率を選択する信号をSELECT=3として出力する。   In step S1306, the mixture ratio selection unit 1201 compares the threshold value TH3 with the image data C input to the correction process determination unit 1201. If the input image data C is a value equal to or greater than the threshold value TH3, the mixture ratio selection unit 1201 selects a signal for selecting a mixture ratio for mixing the high density edge correction process 50% and the low density edge correction process 50%. = 2 is output (S1307). On the other hand, if the input image data C is smaller than the threshold value TH3, the mixing Hirotsu selection unit 1201 selects a mixing ratio for mixing the edge correction processing 0% for high density and the low density edge correction processing 100% in step S1308. The signal to be output is output as SELECT = 3.

この図13のフローチャートにより、混合比率選択部1201が、適切な混合比率を選択し、混合部1202にSELECT信号として通知する。従って、混合部1202は、注目画素の濃度が高いほど誤差拡散処理に対するエッジ縁取り処理の割合を大きくし、注目画素Cの濃度が低いほどエッジ縁取り処理に対する誤差拡散処理の割合を大きくすることが出来る。これにより、エッジ縁取り処理と誤差拡散処理によるエッジ補正処理との切り替わりを目立たなくすることが出来る。   According to the flowchart of FIG. 13, the mixing ratio selection unit 1201 selects an appropriate mixing ratio and notifies the mixing unit 1202 as a SELECT signal. Accordingly, the mixing unit 1202 can increase the ratio of the edge edging process to the error diffusion process as the density of the target pixel is higher, and can increase the ratio of the error diffusing process to the edge edging process as the density of the target pixel C is lower. . As a result, the switching between the edge edging process and the edge correction process by the error diffusion process can be made inconspicuous.

図14は混合部1202の機能的構成を示すブロック図である。1401はSELECT信号の値によって、エッジ縁取り処理と誤差拡散処理の濃度を混合する比率が格納された混合比率テーブルである。不図示のメモリに格納されている。混合演算処理部1402は、混合比率テーブルより読み込まれた比率を元にエッジ縁取り処理と誤差拡散処理の濃度を混合演算処理する。   FIG. 14 is a block diagram showing a functional configuration of the mixing unit 1202. A mixing ratio table 1401 stores a ratio of mixing the density of the edge fringing process and the error diffusion process according to the value of the SELECT signal. It is stored in a memory (not shown). The mixing calculation processing unit 1402 performs a mixing calculation process on the density of the edge fringing process and the error diffusion process based on the ratio read from the mixing ratio table.

図15に混合比率テーブル1401の一例を示す。選択信号SELECTの値に応じて高濃度エッジ補正処理の割合xと低濃度エッジ補正処理の割合yが格納されている。   FIG. 15 shows an example of the mixing ratio table 1401. The ratio x of the high density edge correction process and the ratio y of the low density edge correction process are stored in accordance with the value of the selection signal SELECT.

混合演算処理部1402は入力された混合比率選択信号SELECTの値に応じて、混合比率テーブル1401より高濃度エッジ補正処理の割合xと低濃度エッジ補正処理の割合yを取得する。取得した割合に応じて以下の式で演算を行い、EDGEを出力値として出力する。尚、EDGEの出力は画素単位とする。
EDGE=x×EN+y×ED ・・・式1
The mixing calculation processing unit 1402 acquires the high density edge correction processing ratio x and the low density edge correction processing ratio y from the mixing ratio table 1401 according to the value of the input mixing ratio selection signal SELECT. The calculation is performed according to the following expression according to the acquired ratio, and EDGE is output as an output value. Note that the output of EDGE is in units of pixels.
EDGE = x × EN + y × ED Equation 1

図16において、(a)は入力画像データの一例を示す図である。図16(b)は、図16(a)で示す入力画像データをディザ処理した画像データを示す図である。図16(c)は、図16(a)で示す入力画像データと、図16(b)で示すディザ画像データからエッジ縁取り補正部105でエッジ縁取り補正処理をした画像データを示す図である。図16(d)は、図16(a)で示す入力画像データを誤差拡散処理した画像データを示す図である。図16(e)は、図16(a)で示す入力画像データをエッジ判定部110でエッジ判定を行い、エッジ判定結果を画像データとして示した図である。図16(f)は、図16(a)で示す入力画像データを混合比率選択部1201で判定し、判定結果である混合比率選択信号を画像データとして示した図である。図16(g)は、混合比率に応じて図16(c)に示すエッジ縁取り補正処理データと図16(d)に示す誤差拡散処理データとを混合し、該混合後のデータを図16(e)で示すエッジ部と判定された箇所のみに適用した図である。ここでの混合比率は、混合比率選択部1201により、図16(f)で示す混合比率選択信号の値に基づいて、混合比率テーブル1401から読み込んだものである。   In FIG. 16, (a) is a diagram showing an example of input image data. FIG. 16B is a diagram showing image data obtained by dithering the input image data shown in FIG. FIG. 16C is a diagram showing the input image data shown in FIG. 16A and the image data obtained by performing edge border correction processing by the edge border correction unit 105 from the dither image data shown in FIG. FIG. 16D is a diagram showing image data obtained by performing error diffusion processing on the input image data shown in FIG. FIG. 16E is a diagram in which the edge determination unit 110 performs edge determination on the input image data illustrated in FIG. 16A and the edge determination result is displayed as image data. FIG. 16F is a diagram in which the input image data shown in FIG. 16A is determined by the mixing ratio selection unit 1201 and a mixing ratio selection signal as a determination result is shown as image data. FIG. 16 (g) mixes the edge border correction processing data shown in FIG. 16 (c) and the error diffusion processing data shown in FIG. 16 (d) in accordance with the mixing ratio, and the mixed data is shown in FIG. It is the figure applied only to the location determined as the edge part shown by e). The mixing ratio here is read from the mixing ratio table 1401 by the mixing ratio selection unit 1201 based on the value of the mixing ratio selection signal shown in FIG.

また、図16(a)、(b)、(c)、(d)、(g)は8bit画像データを示しており、画像データの各画素に対して、濃度値255の画素を黒画素として1601aに示す画素イメージで表し、濃度値0の画素を白画素とし、1601gに示す画素イメージで表す。それ以外の中間調の濃度値については、濃度値1〜63の画素は1601fに示す画素イメージで表し、濃度値64〜95の画素は1601eに示す画素イメージで表し、濃度値96〜127の画素は1601dに示す画素イメージで表し、濃度値128〜191の画素は1601cに示す画素イメージで表し、濃度値192〜254の画素は1601bに示す画素イメージで表す。図16(a)は入力画素群1604a〜1604dはそれぞれ同一濃度を示しており1604a内は濃度が146、1604b内は濃度が109、1604c内は濃度が73、1604d内は濃度が36であるとする。   FIGS. 16A, 16B, 16C, 16D, and 16G show 8-bit image data. For each pixel of the image data, a pixel having a density value of 255 is set as a black pixel. The pixel image shown in 1601a is a white pixel, and the pixel image shown in 1601g is a pixel having a density value of 0. For other halftone density values, pixels with density values 1 to 63 are represented by a pixel image indicated by 1601f, pixels having density values 64 to 95 are represented by a pixel image indicated by 1601e, and pixels having density values 96 to 127 are displayed. Is represented by a pixel image represented by 1601d, pixels having density values of 128 to 191 are represented by pixel images represented by 1601c, and pixels having density values of 192 to 254 are represented by pixel images represented by 1601b. FIG. 16A shows that the input pixel groups 1604a to 1604d have the same density. The density is 146 in 1604a, the density is 109 in 1604b, the density is 73 in 1604c, and the density is 36 in 1604d. To do.

図16を用いて混合比率選択部1201、混合部1202の動作について説明する。図16(a)に示す入力画像が混合比率選択部1201に入力されると、図13に示す処理フローに従って混合比率選択信号SELECTを出力する。補正処理判定部1201の閾値が例えば、TH1=128、TH2=112、TH3=96であるとすると、画素位置1605aの濃度値は146であるので、TH1以上となり、SELECT=0を出力する。また、画素位置1606aの濃度値は114であるので、TH1より小でTH2以上となり、SELECT=1を出力する。   The operations of the mixing ratio selection unit 1201 and the mixing unit 1202 will be described with reference to FIG. When the input image shown in FIG. 16A is input to the mixing ratio selection unit 1201, a mixing ratio selection signal SELECT is output according to the processing flow shown in FIG. If the threshold values of the correction processing determination unit 1201 are, for example, TH1 = 128, TH2 = 112, and TH3 = 96, the density value at the pixel position 1605a is 146, so it is equal to or higher than TH1 and SELECT = 0 is output. Further, since the density value of the pixel position 1606a is 114, it is smaller than TH1 and equal to or higher than TH2, and SELECT = 1 is output.

図16(a)の入力画像に対して混合比率選択部1201の混合比率選択を行い、出力された混合比率選択信号SELECTを示したものが図16(f)である。なお、SELECT=0の画素を1603aの画像イメージで表し、SELECT=1の画素を1603bの画像イメージで表し、SELECT=3の画素を1603cの画素イメージで表す。   FIG. 16 (f) shows the mixture ratio selection signal SELECT output by performing the mixture ratio selection of the mixture ratio selector 1201 on the input image of FIG. 16 (a). Note that a pixel with SELECT = 0 is represented by an image image 1603a, a pixel with SELECT = 1 is represented by an image image 1603b, and a pixel with SELECT = 3 is represented by a pixel image 1603c.

前述したとおり、混合部1202は混合比率選択信号SELECTが入力されると混合比率テーブル1401を参照し高濃度エッジ補正処理の割合x、低濃度エッジ補正処理の割合yを読み込む。例えば混合比率テーブルとして図15のテーブルが格納されているとする。   As described above, when the mixing ratio selection signal SELECT is input, the mixing unit 1202 reads the ratio x of the high density edge correction process and the ratio y of the low density edge correction process with reference to the mixing ratio table 1401. For example, assume that the table of FIG. 15 is stored as the mixing ratio table.

画素位置1605fはSELECT=0であるのでx=1.0,y=0となる。読み込まれた割合を元に、入力データであるエッジ縁取り処理データEN、誤差拡散処理データEDからエッジ補正値EDGEを演算する。画素位置1605cよりエッジ縁取り処理データEN=146、画素位置1605dより誤差拡散処理データED=192である。混合部1202の出力EDGEは、EDGE=x×EN+y×ED=1.0×146+0×192=146となる。また、エッジ判定部110より画素位置1605eはエッジ部と検出されているため平坦エッジ処理選択部109はEDGE=146を出力画像データ(1605g)として111へ出力する。   Since the pixel position 1605f is SELECT = 0, x = 1.0 and y = 0. Based on the read ratio, the edge correction value EDGE is calculated from the edge border processing data EN and the error diffusion processing data ED as input data. Edge border processing data EN = 146 from pixel position 1605c, and error diffusion processing data ED = 192 from pixel position 1605d. The output EDGE of the mixing unit 1202 is EDGE = x × EN + y × ED = 1.0 × 146 + 0 × 192 = 146. Further, since the pixel position 1605e is detected as an edge by the edge determination unit 110, the flat edge processing selection unit 109 outputs EDGE = 146 to 111 as output image data (1605g).

また、画素位置1606fはSELECT=1であるのでx=0.75、y=0.25となる。読み込まれた割合を元に、入力データであるエッジ縁取り処理データEN、誤差拡散処理データEDからエッジ補正値EDGEを演算する。画素位置1606cよりエッジ縁取り処理データEN=255、画素位置1605dより誤差拡散処理データED=192である。混合部1202の出力EDGEは、EDGE=x×EN+y×ED=0.75×255+0.25×192=239となる。また、エッジ判定部110より画素位置1606eはエッジ部と検出されているため平坦エッジ処理選択部109はEDGE=146を出力画像データ(1606g)として111へ出力する。   Since the pixel position 1606f is SELECT = 1, x = 0.75 and y = 0.25. Based on the read ratio, the edge correction value EDGE is calculated from the edge border processing data EN and the error diffusion processing data ED as input data. Edge border processing data EN = 255 from pixel position 1606c, and error diffusion processing data ED = 192 from pixel position 1605d. The output EDGE of the mixing unit 1202 is EDGE = x × EN + y × ED = 0.75 × 255 + 0.25 × 192 = 239. Further, since the pixel position 1606e is detected as an edge by the edge determination unit 110, the flat edge processing selection unit 109 outputs EDGE = 146 to 111 as output image data (1606g).

以上述べた通り、本実施形態によればグラデーションのような画像の場合にでもエッジ縁取り処理と誤差拡散処理によるエッジ補正処理との切り替わり部が目立つことなく高品位なエッジ補正処理が可能となる。   As described above, according to the present embodiment, even in the case of an image such as a gradation, high-quality edge correction processing can be performed without noticeable a switching portion between edge fringing processing and edge correction processing by error diffusion processing.

[第3の実施形態]
上述の第1の実施形態では、注目画素の濃度情報を元にエッジ縁取り処理と誤差拡散処理を切り替える構成について説明した。しかし、エッジ部でかつ背景がある程度高濃度である場合は、エッジ縁取り補正が輪郭を強調させすぎてしまい、輪郭として不自然となる場合がある。本実施例ではエッジ縁取りのし過ぎを防止するためにエッジの強度値を元にエッジ縁取り処理と誤差拡散処理を切り替える構成について説明する。
[Third Embodiment]
In the first embodiment described above, the configuration in which the edge fringing process and the error diffusion process are switched based on the density information of the target pixel has been described. However, when the edge portion and the background have a high density to some extent, the edge fringing correction may emphasize the contour too much, resulting in an unnatural contour. In the present embodiment, a configuration for switching between edge fringing processing and error diffusion processing based on edge intensity values in order to prevent excessive edge fringing will be described.

図17は、第3の実施形態に係る画像処理装置の機能的構成を示すブロック図である。補正処理判定部1702は、エッジ強度演算部106で演算されたエッジエッジ強度値1061に基づき、エッジ縁取り補正部105によるエッジ補正処理と、誤差拡散処理部104によるエッジ補正処理の切り替えを行う。尚、この補正処理判定部1702動作については、以下で詳細に説明する。また、他の構成は、第1の実施形態と同様であるため、同一の符合を付して説明を省略する。   FIG. 17 is a block diagram illustrating a functional configuration of an image processing apparatus according to the third embodiment. The correction processing determination unit 1702 switches between edge correction processing by the edge fringing correction unit 105 and edge correction processing by the error diffusion processing unit 104 based on the edge edge strength value 1061 calculated by the edge strength calculation unit 106. The operation of the correction process determination unit 1702 will be described in detail below. Since other configurations are the same as those of the first embodiment, the same reference numerals are given and description thereof is omitted.

補正処理判定部1702では、エッジ強度検出部の出力1061が閾値Eth以上の値ならば高濃度用のエッジ補正処理(エッジ縁取り処理)を選択する信号出力する。また、エッジ検出部の出力1061が閾値Ethより小さい値ならば低濃度用のエッジ補正処理(誤差拡散処理)を選択する信号を出力する。   The correction processing determination unit 1702 outputs a signal for selecting edge correction processing for high density (edge fringing processing) if the output 1061 of the edge intensity detection unit is a value equal to or larger than the threshold Eth. If the output 1061 of the edge detection unit is smaller than the threshold value Eth, a signal for selecting the edge correction process (error diffusion process) for low density is output.

そして、補正処理判定部1702による信号の出力により、エッジ補正処理選択部108は、適切なエッジ補正処理のデータを選択することができる。より具体的には、エッジ補正処理選択部108は、注目画素Cに対して演算されたエッジ強度が大きい場合は、エッジ縁取り補正部105により生成されたデータENを選択する。また、エッジ補正処理選択部108は、注目画素Cに対して演算されたエッジ強度が小さい場合は誤差拡散処理部104により生成されたデータEDを選択する。これにより、画像データのエッジに対して、高品位なエッジ補正処理を行うことが出来る。   The edge correction processing selection unit 108 can select appropriate data for edge correction processing by outputting a signal from the correction processing determination unit 1702. More specifically, the edge correction processing selection unit 108 selects the data EN generated by the edge fringing correction unit 105 when the edge intensity calculated for the target pixel C is large. The edge correction processing selection unit 108 selects the data ED generated by the error diffusion processing unit 104 when the edge intensity calculated for the target pixel C is small. Thus, high-quality edge correction processing can be performed on the edge of the image data.

補正処理判定部1702はエッジ強度値を元にエッジ補正処理を選択するため、例えばエッジの濃度がある程度濃い場合でも誤差拡散処理によるエッジ補正処理が施されるためエッジ部の濃度が保存され、過度な縁取り処理を抑制することができる。   The correction process determination unit 1702 selects the edge correction process based on the edge intensity value. For example, even when the edge density is high to some extent, the edge correction process is performed by the error diffusion process. Can be suppressed.

尚、図17における説明においては、補正処理判定部1702の判定のみに従い、エッジ縁取り補正部105によるエッジ補正処理と、誤差拡散処理部104によるエッジ補正処理の切り替えを行うよう説明した。しかしこれに限定されない。例えば、図17のブロック図中に、図1で説明した補正処理判定部107を設けるようにしても良い。その場合には、まず、補正処理判定部107の出力(判定結果)と、エッジ強度演算部106の出力もエッジ補正処理選択部108のブロックに入力する。そして、双方の出力が高濃度エッジ補正の選択を指示する場合に限って、高濃度用のエッジ補正処理(エッジ縁取り処理)を選択するようにすればよい。こうすることで、より高精度なエッジ補正処理を実現することができる。   In the description in FIG. 17, it has been described that the edge correction processing by the edge fringing correction unit 105 and the edge correction processing by the error diffusion processing unit 104 are switched according to only the determination by the correction processing determination unit 1702. However, it is not limited to this. For example, the correction processing determination unit 107 described in FIG. 1 may be provided in the block diagram of FIG. In that case, first, the output (determination result) of the correction processing determination unit 107 and the output of the edge strength calculation unit 106 are also input to the block of the edge correction processing selection unit 108. The high density edge correction process (edge fringing process) may be selected only when both outputs indicate selection of high density edge correction. By doing so, it is possible to realize edge correction processing with higher accuracy.

[他の実施形態]
上述までの実施形態ではエッジ強度演算部106のフィルタ演算部300に400のような3×3のラプラシアンフィルタを用いてエッジの強度を演算しているが、エッジの強度を演算可能であればこれに限らない。例えば5×5のラプラシアンフィルタやその他のフィルタ、3×3マトリクス内の最大・最小の差分値からエッジ強度を演算しても本発明の目的を達成できることは言うまでもない。
[Other Embodiments]
In the embodiments described above, the edge strength is calculated using a 3 × 3 Laplacian filter such as 400 for the filter calculation unit 300 of the edge strength calculation unit 106, but if the edge strength can be calculated, this is used. Not limited to. For example, it is needless to say that the object of the present invention can be achieved even if the edge strength is calculated from the maximum / minimum difference values in a 5 × 5 Laplacian filter or other filters or 3 × 3 matrix.

コンピュータに前述した実施形態の機能を実現するコンピュータプログラムを読み込ませ実行させることで、コンピュータを前述の画像処理装置として機能させても構わない。更に、このコンピュータプログラムを格納したコンピュータ可読記憶媒体に本発明を適用することも可能である。即ち、前述した実施形態の機能を実現するソフトウエアのコンピュータプログラムのプログラムコードを記録したコンピュータ可読記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPU又はMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   The computer may function as the above-described image processing apparatus by reading and executing a computer program that realizes the functions of the above-described embodiments. Furthermore, the present invention can also be applied to a computer-readable storage medium that stores this computer program. That is, a computer-readable storage medium that records a program code of a software computer program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. This can also be achieved by reading and executing the program code stored in. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, a DVD, or the like is used. it can.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指指示に基づき、コンピュータ上で稼動しているOperating System(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) operating on the computer based on a finger instruction of the program code. However, it is needless to say that some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU of the expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

101 画像処理装置
105 エッジ縁取り補正処理部
106 エッジ強度検出部
107 補正処理選択部
108 エッジ補正選択部
109 平坦エッジ処理選択部
DESCRIPTION OF SYMBOLS 101 Image processing apparatus 105 Edge edging correction | amendment process part 106 Edge strength detection part 107 Correction process selection part 108 Edge correction selection part 109 Flat edge process selection part

Claims (9)

画像におけるエッジに対してエッジ補正処理を行う画像処理装置であって、
注目画素のデータの濃度を判定する濃度判定手段と、
前記注目画素のデータに対して誤差拡散処理を行う誤差拡散処理手段と、
前記注目画素のデータに対してディザ処理を行うディザ処理手段と、
前記注目画素のデータと前記ディザ処理手段より生成されたデータとに基づきエッジ縁取り処理を行うエッジ縁取り処理手段と、
前記注目画素が、前記濃度判定手段により閾値以上の高い値の濃度である高濃度と判定された場合は、前記注目画素に対する前記エッジ補正処理のデータとして、前記エッジ縁取り処理手段により生成されるデータを選択し、前記注目画素が、前記濃度判定手段により閾値よりも小さい値の濃度である低濃度と判定された場合は、前記注目画素に対する前記エッジ補正処理のデータとして、前記誤差拡散処理手段により生成されるデータを選択する選択手段とを有することを特徴とする画像処理装置。
An image processing apparatus that performs edge correction processing on edges in an image,
Density determination means for determining the density of data of the pixel of interest;
Error diffusion processing means for performing error diffusion processing on the data of the pixel of interest;
Dither processing means for performing dither processing on the data of the pixel of interest;
Edge edging processing means for performing edge edging processing based on the data of the pixel of interest and the data generated by the dither processing means;
When the target pixel is determined to have a high density, which is a density higher than a threshold value, by the density determination unit, data generated by the edge border processing unit as data of the edge correction processing for the target pixel And when the pixel of interest is determined to be a low density that is a density smaller than a threshold value by the density determination unit, the error diffusion processing unit uses the edge correction processing data for the pixel of interest as data. An image processing apparatus comprising: selection means for selecting data to be generated.
前記注目画素がエッジのデータであるか否かを、前記注目画素と前記注目画素の周辺の画素と、の濃度の差分に基づき、判定するエッジ判定手段を有することを特徴とする請求項1に記載の画像処理装置。   The edge determination means for determining whether or not the target pixel is edge data based on a difference in density between the target pixel and pixels around the target pixel. The image processing apparatus described. 画像におけるエッジに対してエッジ補正処理を行う画像処理装置であって、
注目画素のデータの濃度を判定する濃度判定手段と、
前記注目画素のデータに対して誤差拡散処理を行う誤差拡散処理手段と、
前記注目画素のデータに対してディザ処理を行うディザ処理手段と、
前記注目画素のデータと前記ディザ処理手段より生成されたデータからエッジ縁取り処理を行うエッジ縁取り処理手段と、
前記エッジ補正処理として、前記エッジ縁取り処理手段より生成されたデータと、前記誤差拡散処理手段より生成されたデータと、に基づきエッジ補正処理後のデータを生成するデータ混合手段とを有し、
前記データ混合手段は、前記注目画素の濃度が高いほど前記誤差拡散処理に対する前記エッジ縁取り処理の割合を大きくし、前記注目画素の濃度が低いほど前記エッジ縁取り処理に対する前記誤差拡散処理の割合を大きくすることを特徴とする画像処理装置。
An image processing apparatus that performs edge correction processing on edges in an image,
Density determination means for determining the density of data of the pixel of interest;
Error diffusion processing means for performing error diffusion processing on the data of the pixel of interest;
Dither processing means for performing dither processing on the data of the pixel of interest;
Edge border processing means for performing edge border processing from the data of the target pixel and the data generated by the dither processing means;
As the edge correction processing, data mixing means for generating data after edge correction processing based on the data generated by the edge edging processing means and the data generated by the error diffusion processing means,
The data mixing means increases the ratio of the edge edging process to the error diffusion process as the density of the target pixel is higher, and increases the ratio of the error diffusion process to the edge edging process as the density of the target pixel is lower. An image processing apparatus.
画像におけるエッジに対してエッジ補正処理を行う画像処理装置であって、
注目画素のデータのエッジ強度であって、前記注目画素の周辺画素との濃度コントラストであるエッジ強度を演算をするエッジ強度演算手段と、
前記注目画素のデータに対して誤差拡散処理を行う誤差拡散処理手段と、
前記注目画素のデータに対してディザ処理を行うディザ処理手段と、
前記注目画素のデータと前記ディザ処理手段より生成されたデータとに基づきエッジ縁取り処理を行うエッジ縁取り処理手段と、
前記エッジ強度演算手段により演算された前記注目画素の前記エッジ強度が大きい場合は、前記エッジ縁取り処理手段により生成されたデータを選択し、前記エッジ強度演算手段の結果が小さい場合は前記誤差拡散処理手段により生成されたデータを選択する選択手段とを有することを特徴とする画像処理装置。
An image processing apparatus that performs edge correction processing on edges in an image,
Edge intensity calculation means for calculating the edge intensity of the data of the pixel of interest and the edge intensity which is the density contrast with the peripheral pixels of the pixel of interest;
Error diffusion processing means for performing error diffusion processing on the data of the pixel of interest;
Dither processing means for performing dither processing on the data of the pixel of interest;
Edge edging processing means for performing edge edging processing based on the data of the pixel of interest and the data generated by the dither processing means;
When the edge intensity of the pixel of interest calculated by the edge intensity calculating means is large, the data generated by the edge edging processing means is selected, and when the result of the edge intensity calculating means is small, the error diffusion processing is performed. An image processing apparatus comprising: selection means for selecting data generated by the means.
画像におけるエッジに対してエッジ補正処理を行う画像処理装置における画像処理方法であって、
注目画素のデータの濃度を判定する濃度判定工程と、
前記注目画素のデータに対して誤差拡散処理を行う誤差拡散処理工程と、
前記注目画素のデータに対してディザ処理を行うディザ処理工程と、
前記注目画素のデータと前記ディザ処理工程より生成されたデータとに基づきエッジ縁取り処理を行うエッジ縁取り処理工程と、
前記注目画素が、前記濃度判定工程により閾値以上の高い値の濃度である高濃度と判定された場合は、前記注目画素に対する前記エッジ補正処理のデータとして、前記エッジ縁取り処理工程により生成されるデータを選択し、前記注目画素が、前記濃度判定工程により閾値よりも小さい値の濃度である低濃度と判定された場合は、前記注目画素に対する前記エッジ補正処理のデータとして、前記誤差拡散処理工程により生成されるデータを選択する選択工程とを有することを特徴とする画像処理方法。
An image processing method in an image processing apparatus for performing edge correction processing on edges in an image,
A density determination step for determining the density of the data of the pixel of interest;
An error diffusion processing step of performing error diffusion processing on the data of the pixel of interest;
A dither processing step of performing dither processing on the data of the pixel of interest;
An edge edging process step of performing an edge edging process based on the data of the pixel of interest and the data generated by the dithering process;
If the target pixel is determined to have a high density, which is a density higher than a threshold value, by the density determination step, data generated by the edge edging process step as data of the edge correction process for the target pixel And when the pixel of interest is determined to be a low density that is a density smaller than a threshold value by the density determination step, the error diffusion processing step uses the edge correction processing data for the pixel of interest. And a selection step for selecting data to be generated.
前記注目画素がエッジのデータであるか否かを、前記注目画素と前記注目画素の周辺の画素と、の濃度の差分に基づき、判定するエッジ判定工程を有することを特徴とする請求項5に記載の画像処理方法。   6. The edge determination step of determining whether or not the target pixel is edge data based on a difference in density between the target pixel and pixels around the target pixel. The image processing method as described. 画像におけるエッジに対してエッジ補正処理を行う画像処理装置における画像処理方法であって、
注目画素のデータの濃度を判定する濃度判定工程と、
前記注目画素のデータに対して誤差拡散処理を行う誤差拡散処理工程と、
前記注目画素のデータに対してディザ処理を行うディザ処理工程と、
前記注目画素のデータと前記ディザ処理工程より生成されたデータからエッジ縁取り処理を行うエッジ縁取り処理工程と、
前記エッジ補正処理として、前記エッジ縁取り処理工程より生成されたデータと、前記誤差拡散処理工程より生成されたデータと、に基づきエッジ補正処理後のデータを生成するデータ混合工程とを有し、
前記混合工程は、前記注目画素の濃度が高いほど前記誤差拡散処理に対する前記エッジ縁取り処理の割合を大きくし、前記注目画素の濃度が低いほど前記エッジ縁取り処理に対する前記誤差拡散処理の割合を大きくすることを特徴とする画像処理方法。
An image processing method in an image processing apparatus for performing edge correction processing on edges in an image,
A density determination step for determining the density of the data of the pixel of interest;
An error diffusion processing step of performing error diffusion processing on the data of the pixel of interest;
A dither processing step of performing dither processing on the data of the pixel of interest;
An edge edging process for performing edge edging from the data of the pixel of interest and the data generated from the dithering process;
As the edge correction process, it has a data mixing process for generating data after the edge correction process based on the data generated by the edge edging process process and the data generated by the error diffusion process process,
In the mixing step, the ratio of the edge edging process to the error diffusion process is increased as the density of the target pixel is higher, and the ratio of the error diffusion process to the edge edging process is increased as the density of the target pixel is lower. An image processing method.
画像におけるエッジに対してエッジ補正処理を行う画像処理装置における画像処理方法であって、
注目画素のデータのエッジ強度であって、前記注目画素の周辺画素との濃度コントラストであるエッジ強度を演算をするエッジ強度演算工程と、
前記注目画素のデータに対して誤差拡散処理を行う誤差拡散処理工程と、
前記注目画素のデータに対してディザ処理を行うディザ処理工程と、
前記注目画素のデータと前記ディザ処理工程より生成されたデータとに基づきエッジ縁取り処理を行うエッジ縁取り処理工程と、
前記エッジ強度演算工程により演算された前記注目画素の前記エッジ強度が大きい場合は、前記エッジ縁取り処理工程により生成されたデータを選択し、前記エッジ強度演算工程の結果が小さい場合は前記誤差拡散処理工程により生成されたデータを選択する選択工程とを有することを特徴とする画像処理方法。
An image processing method in an image processing apparatus for performing edge correction processing on edges in an image,
An edge strength calculation step of calculating an edge strength of the data of the pixel of interest, which is a density contrast with a peripheral pixel of the pixel of interest;
An error diffusion processing step of performing error diffusion processing on the data of the pixel of interest;
A dither processing step of performing dither processing on the data of the pixel of interest;
An edge edging process step of performing an edge edging process based on the data of the pixel of interest and the data generated by the dithering process;
When the edge intensity of the pixel of interest calculated by the edge intensity calculation process is high, the data generated by the edge edging process is selected, and when the result of the edge intensity calculation process is small, the error diffusion process is selected. And a selection step of selecting data generated by the step.
請求項1乃至4の何れか1項に記載の各手段として、コンピュータを機能させることを特徴とするコンピュータプログラム。   5. A computer program for causing a computer to function as each means according to claim 1.
JP2011106277A 2011-05-11 2011-05-11 Image processing apparatus, image processing method, and computer program Expired - Fee Related JP5812678B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011106277A JP5812678B2 (en) 2011-05-11 2011-05-11 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011106277A JP5812678B2 (en) 2011-05-11 2011-05-11 Image processing apparatus, image processing method, and computer program

Publications (3)

Publication Number Publication Date
JP2012239012A true JP2012239012A (en) 2012-12-06
JP2012239012A5 JP2012239012A5 (en) 2014-06-26
JP5812678B2 JP5812678B2 (en) 2015-11-17

Family

ID=47461537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011106277A Expired - Fee Related JP5812678B2 (en) 2011-05-11 2011-05-11 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP5812678B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165773A (en) * 2013-02-26 2014-09-08 Kyocera Document Solutions Inc Image processing apparatus and image forming apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157539A (en) * 2004-11-30 2006-06-15 Kyocera Mita Corp Image processing apparatus
JP2007312010A (en) * 2006-05-17 2007-11-29 Konica Minolta Business Technologies Inc Image processor, image processing method, and program
JP2010161504A (en) * 2009-01-06 2010-07-22 Canon Inc Image processing apparatus, image processing method, computer program, and computer readable storage medium
JP2010252194A (en) * 2009-04-17 2010-11-04 Canon Inc Image processing apparatus and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157539A (en) * 2004-11-30 2006-06-15 Kyocera Mita Corp Image processing apparatus
JP2007312010A (en) * 2006-05-17 2007-11-29 Konica Minolta Business Technologies Inc Image processor, image processing method, and program
JP2010161504A (en) * 2009-01-06 2010-07-22 Canon Inc Image processing apparatus, image processing method, computer program, and computer readable storage medium
JP2010252194A (en) * 2009-04-17 2010-11-04 Canon Inc Image processing apparatus and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165773A (en) * 2013-02-26 2014-09-08 Kyocera Document Solutions Inc Image processing apparatus and image forming apparatus

Also Published As

Publication number Publication date
JP5812678B2 (en) 2015-11-17

Similar Documents

Publication Publication Date Title
JP4548733B2 (en) Image processing apparatus, method, program, and recording medium
JP6649750B2 (en) Image processing apparatus and image processing method
JP4743596B2 (en) Image processing apparatus, method, program, and recording medium
JP5071721B2 (en) Image processing apparatus and method, and program
KR20080006112A (en) Halftoning method and apparatus to improve sharpness in boundary region
JP5534787B2 (en) Image processing apparatus and image processing method
US7050066B2 (en) Image processing apparatus and image processing program
JP5072751B2 (en) Image processing apparatus, image processing method, and program
JP5812678B2 (en) Image processing apparatus, image processing method, and computer program
JP5623473B2 (en) Image processing apparatus, image processing method, and program.
JP2011119824A (en) Image processor and image processing program
JP4883613B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2006026183A (en) Image processing device, image outputting device, image processing method, program and recording medium
JP5225123B2 (en) Moving image processing apparatus, moving image processing method, program, and recording medium
JP5199897B2 (en) Image processing apparatus, image processing apparatus control method, computer program, and computer-readable storage medium
US8345157B2 (en) Image processing apparatus and image processing method thereof
JP3944221B2 (en) Signal processing apparatus and method
JP2006270655A (en) Apparatus and method for image processing
JP2008130058A (en) Image processing system and image processing program
JP5121639B2 (en) Image processing apparatus and image processing method
JP2014045398A (en) Image processing apparatus, and image processing method, and program
JP2012205190A (en) Image processing apparatus and program
US11749232B2 (en) Image generation apparatus and image generation method
WO2021192887A1 (en) Image processing device, image processing method, and program
JP2011040910A (en) Signal processing device, reproducing device, signal processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150915

R151 Written notification of patent or utility model registration

Ref document number: 5812678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees