KR20020059531A - Method and apparatus for improving printing quality of document in which a text and an image exist together - Google Patents
Method and apparatus for improving printing quality of document in which a text and an image exist together Download PDFInfo
- Publication number
- KR20020059531A KR20020059531A KR1020010000966A KR20010000966A KR20020059531A KR 20020059531 A KR20020059531 A KR 20020059531A KR 1020010000966 A KR1020010000966 A KR 1020010000966A KR 20010000966 A KR20010000966 A KR 20010000966A KR 20020059531 A KR20020059531 A KR 20020059531A
- Authority
- KR
- South Korea
- Prior art keywords
- pixel
- text
- pixels
- determination target
- target pixel
- Prior art date
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J2/00—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed
- B41J2/485—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by the process of building-up characters or image elements applicable to two or more kinds of printing or marking processes
- B41J2/505—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by the process of building-up characters or image elements applicable to two or more kinds of printing or marking processes from an assembly of identical printing elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J2/00—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed
- B41J2/005—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by bringing liquid or particles selectively into contact with a printing material
- B41J2/01—Ink jet
- B41J2/205—Ink jet for printing a discrete number of tones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J2/00—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed
- B41J2/005—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by bringing liquid or particles selectively into contact with a printing material
- B41J2/01—Ink jet
- B41J2/21—Ink jet for multi-colour printing
- B41J2/2132—Print quality control characterised by dot disposition, e.g. for reducing white stripes or banding
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J2/00—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed
- B41J2/52—Arrangement for printing a discrete number of tones, not covered by group B41J2/205, e.g. applicable to two or more kinds of printing or marking process
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J3/00—Typewriters or selective printing or marking mechanisms characterised by the purpose for which they are constructed
- B41J3/44—Typewriters or selective printing mechanisms having dual functions or combined with, or coupled to, apparatus performing other functions
- B41J3/46—Printing mechanisms combined with apparatus providing a visual indication
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J7/00—Type-selecting or type-actuating mechanisms
- B41J7/54—Selecting arrangements including combinations, permutation, summation, or aggregation means
- B41J7/68—Selecting arrangements including combinations, permutation, summation, or aggregation means with means for selectively closing an electric circuit for type presentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K15/00—Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers
- G06K15/02—Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers using printers
- G06K15/10—Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers using printers by matrix printers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J2/00—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed
- B41J2/005—Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by bringing liquid or particles selectively into contact with a printing material
- B41J2/01—Ink jet
- B41J2/205—Ink jet for printing a discrete number of tones
- B41J2/2056—Ink jet for printing a discrete number of tones by ink density change
- B41J2002/2058—Ink jet for printing a discrete number of tones by ink density change selecting different ink densities from one colour
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
본 발명은 텍스트와 이미지가 혼재된 문서의 프린팅화질 개선방법 및 장치에 관한 것으로서, 보다 상세하게는, 출력될 화면 내의 텍스트와 이미지 중 텍스트 부분만을 강조하여 출력함으로써 혼재 문서의 프린팅 화질을 개선하는 방법 및 장치에 관한 것이다.The present invention relates to a method and an apparatus for improving the printing quality of a mixed document with text, and more particularly, to a method of improving the printing quality of a mixed document by highlighting and outputting only the text portion of the text and the image in the screen to be output. And to an apparatus.
최소한 하나의 글(텍스트)과 그림(이미지)를 가지고 있는 문서를 혼재문서(mixed document)라고 한다. 여기서 이미지는 그래픽(graphic)과 사진(photograph)를 포함한다. 프린터를 이용하여 문서를 프린트할 경우, 프린트된 출력화면은 모양을 이루는 부분과 그렇지 않은 부분과의 경계인 윤곽선이 정확하게 설정되지 않으면 프린트된 화면의 화질이 떨어지게 된다. 따라서, 통상적으로 출력될 모양의 윤곽선에 해당되는 픽셀에 대해서는 그 명도를 변화시키거나 또는 그 픽셀을 중심으로 주변 픽셀들간의 명도차를 확대하여 두드러지게 출력함으로써 프린팅 화질을 개선하는 방법을 사용한다. 이를 위하여 통상적으로 각 픽셀의 명도의 데이터와 그 주변의 픽셀의 명도의 데이터를 함께 고려하여, 판단대상이 되는 픽셀이 윤곽선에 해당되는 픽셀인가를 판별하는 과정을 수행한다.A document containing at least one text (text) and picture (image) is called a mixed document. The image here includes a graphic and a photograph. When a document is printed using a printer, the printed output screen is deteriorated in quality of the printed screen unless an outline, which is a boundary between a shape part and the other part is not set correctly. Therefore, a method of improving printing image quality is typically used by changing the brightness of the pixel corresponding to the outline of the shape to be output or by prominently outputting the brightness difference between the pixels around the pixel. To this end, a process of determining whether a pixel to be determined is a pixel corresponding to an outline is performed by considering data of brightness of each pixel and data of brightness of a neighboring pixel together.
도 1은 종래에 일반적으로 사용되는 윤곽선의 강조에 의한 출력화면 개선방법의 흐름도이다. 먼저, R,G,B 성분으로 입력받은 원 화상을 색상(hue), 명도(luminance), 채도(saturation) 성분으로 표시되는 좌표계의 값을 이용하여 L값, 즉 명도성분을 계산한다(S11). 이는 다음과 같은 수식으로 얻을 수 있다.1 is a flowchart of a method for improving an output screen by emphasizing a contour line generally used in the related art. First, an L value, that is, a brightness component is calculated using a value of a coordinate system represented by a hue, brightness, and saturation component of an original image input as an R, G, or B component (S11). . This can be obtained by the following formula.
L(x,y) = 0.3 R(x,y) + 0.59 G(x,y) + 0.11 B(x,y)L (x, y) = 0.3 R (x, y) + 0.59 G (x, y) + 0.11 B (x, y)
그리고 나서, 이 명도성분을 이용하여 윤곽선을 검출한다(S12). 검정 색상에 가까운 글자의 윤곽선을 강조하는 것을 목표로 하기 때문에, 검출하려는 윤곽선은, 윤곽선에 해당되는 픽셀인지 여부의 판별 대상이 되는 픽셀의 명도 성분이 주변 픽셀의 명도성분의 평균값보다 일정한 값(Te)보다 큰 경우에 해당되는지의 여부로 판별한다. 이는 다음과 같은 수식으로 표현될 수 있다.Then, the contour is detected using this lightness component (S12). Since the aim is to emphasize the outline of letters near black color, the outline to be detected is a value whose brightness component of the pixel to be determined whether or not the pixel corresponds to the outline is constant than the average value of the brightness component of the surrounding pixels (T It is determined whether or not the case is larger than e ). This can be expressed as the following equation.
Lw(x,y) = |Lx(x,y)| + |Ly(x,y)| > Te L w (x, y) = | L x (x, y) | + | L y (x, y) |> T e
여기에서, Lx는 판별대상 픽셀의 이웃 픽셀에 대해 수평방향의 윤곽선을 검출하는 윈도우를 적용하여 얻은 값이고, Ly는 판별대상 픽셀의 이웃픽셀에 대해 수직방향의 윤곽선을 검출하는 윈도우를 적용하여 얻은 값이다.Here, L x is a value obtained by applying a window that detects a horizontal contour line to a neighboring pixel of the pixel to be discriminated, and L y is a window that detects a vertical line contour to a neighboring pixel of the pixel to be discriminated. Is the value obtained.
위의 수식은 판별대상 픽셀의 명도성분과 그 이웃 픽셀의 명도성분의 평균값의 차의 절대값을 윤곽선 판단기준의 역치인 Te와 비교하는 것인데, 이 식을 만족하면 물체와 배경의 경계 부근인 윤곽선에 해당하는 픽셀이라고 판단한다.The above formula compares the absolute value of the difference between the brightness component of the pixel to be discriminated and the brightness component of the neighboring pixel with T e , the threshold of the contour criterion. It is determined that the pixel corresponds to the outline.
그리고 나서, 채도정보를 이용하여 판별대상 픽셀의 무채색 정도를 판단한다.Then, the chromaticity of the pixel to be discriminated is determined using the chroma information.
S(x,y) = 1 - 3 × min[r(x,y),g(x,y),b(x,y)] < Ts S (x, y) = 1-3 × min [r (x, y), g (x, y), b (x, y)] <T s
여기서,here,
r(x,y) = R(x,y) / [R(x,y) + G(x,y) + B(x,y)]r (x, y) = R (x, y) / [R (x, y) + G (x, y) + B (x, y)]
g(x,y) = G(x,y) / [R(x,y) + G(x,y) + B(x,y)]g (x, y) = G (x, y) / [R (x, y) + G (x, y) + B (x, y)]
b(x,y) = B(x,y) / [R(x,y) + G(x,y) + B(x,y)]b (x, y) = B (x, y) / [R (x, y) + G (x, y) + B (x, y)]
이고, S(x,y)는 판별대상 픽셀의 채도성분이며, Ts는 미리 결정된 역치이다. 채도성분 S(x,y)는 채도가 높을수록 1에 가까운 값을 가진다. 따라서 회색 등과 같은 무채색의 경우에는 0에 가까운 값을 나타낸다. 그러므로, 위의 수식은 판별대상 화소의 채도 정도가 Ts보다 작은지를 판단하며, 위의 수식이 만족되면, 판별대상 화소는 회색에 가까운 무채색을 가진다는 것을 의미한다. 따라서, 검정색상의 글자와 같은 회색 성분의 윤곽선만을 강조하려는 경우에 위의 수식이 적용된다.Where S (x, y) is the chroma component of the pixel to be discriminated, and T s is a predetermined threshold. The chroma component S (x, y) has a value closer to 1 as the chroma is higher. Therefore, in the case of achromatic colors such as gray, the value is close to zero. Therefore, the above equation determines whether the degree of saturation of the pixel to be discriminated is smaller than T s , and if the above equation is satisfied, it means that the pixel to be discriminated has achromatic color close to gray. Therefore, the above formula is applied when only the outline of gray components such as letters on black is emphasized.
다음으로, 윤곽선으로 판별된 픽셀에 대해 다음과 같은 수식을 적용하여 윤곽선을 강조한다(S13).Next, the outline is emphasized by applying the following formula to the pixel determined as the outline (S13).
Le(x,y) = L(x,y) + k[L(x,y) - Lavg(x,y)]L e (x, y) = L (x, y) + k [L (x, y)-L avg (x, y)]
윤곽선으로 판단되지 않은 픽셀은 그 명도성분을 유지한다.Pixels not judged as outlines retain their brightness components.
Le(x,y) = L(x,y)L e (x, y) = L (x, y)
명도성분 L과 Le로부터 강조된 R',G',B' 값을 다음과 같이 구한다.From the lightness components L and L e , the value of R ', G', B 'is calculated as follows.
R'(x,y) = R(x,y) × Le(x,y) / L(x,y)R '(x, y) = R (x, y) × L e (x, y) / L (x, y)
G'(x,y) = G(x,y) × Le(x,y) / L(x,y)G '(x, y) = G (x, y) × L e (x, y) / L (x, y)
B'(x,y) = B(x,y) × Le(x,y) / L(x,y)B '(x, y) = B (x, y) × L e (x, y) / L (x, y)
위의 식으로부터 강조된 R',G',B' 사이의 비율은 원화상의 R,G,B 비율과 동일하기 때문에 원화상의 색상은 그대로 유지되며, 강조된 명도성분으로부터 윤곽선이 강조되는 효과가 있다. (참고로, 칼라신호의 색상(Hue) 성분은 R,G,B 사이의 비율이 동일하면 같은 색상을 나타낸다.)Since the ratio between R ', G', and B 'highlighted from the above equation is the same as the ratio of R, G, B of the original image, the color of the original image is maintained as it is, and the outline is emphasized from the highlighted brightness components. . (For reference, the Hue component of the color signal represents the same color if the ratio between R, G, and B is the same.)
그리고, R',G',B' 를 최대값에 정규화하여 최종적으로 윤곽선이 강조된 픽셀값을 얻는다(S14). 이에 필요한 수식은 다음과 같다.Then, R ', G', and B 'are normalized to the maximum value to finally obtain a pixel value of which the outline is emphasized (S14). The formula required for this is as follows.
만약, max[R'(x,y),G'(x,y),B'(x,y)] > 255 이면,If max [R '(x, y), G' (x, y), B '(x, y)]> 255,
R0(x,y) = R'(x,y) × 255/ max[R'(x,y), G'(x,y), B'(x,y)]R 0 (x, y) = R '(x, y) × 255 / max [R' (x, y), G '(x, y), B' (x, y)]
G0(x,y) = G'(x,y) × 255 / max[R'(x,y), G'(x,y), B'(x,y)]G 0 (x, y) = G '(x, y) × 255 / max [R' (x, y), G '(x, y), B' (x, y)]
B0(x,y) = B'(x,y) × 255 / max[R'(x,y), G'(x,y), B'(x,y)]B 0 (x, y) = B '(x, y) × 255 / max [R' (x, y), G '(x, y), B' (x, y)]
이고,ego,
그렇지 않은 경우에는,Otherwise,
R0(x,y) = R'(x,y)R 0 (x, y) = R '(x, y)
G0(x,y) = G'(x,y)G 0 (x, y) = G '(x, y)
B0(x,y) = B'(x,y)B 0 (x, y) = B '(x, y)
혼재문서에 대해 텍스트 부분은 선명하게 보이고 이미지 영역은 계조가 자연스럽게 나타나도록 하여 고화질의 출력문서를 얻는 것이 필요하다. 그런데, 상기와 같이 윤곽선을 검출하고 이를 강조하는 종래의 방법에 의하면, 텍스트 뿐만 아니라 이미지도 함께 강조되게 되므로 프린트된 문서의 화질이 원하는 바와는 다른결과가 발생할 수 있다. 즉, 이미지영역에서도 상기와 같은 윤곽선 검출에 의한 강조방법을 적용할 경우에는, 본래 강조되지 않는 것이 바람직한 부위에 대해서도 윤곽선으로 검출되는 경우가 발생하므로, 출력된 화면상에 눈에 거슬리는 잡음이 발생하게 되는 것이다. 또한, 이미지 화면은 윤곽선으로 검출된 부위를 강조하기 위해 특정 픽셀의 명도가 원래의 명도에 비해 낮아지거나 높아지는 경우가 발생할 경우, 원래의 이미지와는 다른 이미지로 변화되거나 실제로는 윤곽선이 아닌 픽셀이 윤곽선에 해당하는 픽셀로 인실될 수 있기 때문에 원하는 이미지와는 다른 이미지가 출력될 우려가 있게 된다.For mixed documents, it is necessary to obtain a high-quality output document by making the text part clearly and the image area appear naturally. However, according to the conventional method of detecting and emphasizing the outline as described above, since not only the text but also the image is emphasized together, the image quality of the printed document may be different from that desired. That is, in the image area, when the above-described emphasis method is applied to the contour detection, the contour detection may occur even in a region where it is not desired to be emphasized. Therefore, unobtrusive noise may be generated on the output screen. Will be. In addition, if the brightness of a specific pixel becomes lower or higher than the original brightness in order to emphasize the area detected as the contour, the image screen is changed to an image different from the original image, or the pixel that is not the contour is the contour. Because it can be mistaken for the pixel corresponding to, there is a fear that an image different from the desired image is output.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 텍스트와 이미지가 혼재된 문서를 출력할 때, 텍스트 부분만을 강조하고 이미지 부분은 강조하지 않으므로써 프린팅화질을 개선하는 방법 및 그 장치를 제공하는 것이다.The present invention has been made to solve the above problems, and an object of the present invention is to improve printing quality by emphasizing only the text portion and not the image portion when outputting a mixed document with text. It is to provide a method and an apparatus thereof.
도 1은 종래의 프린팅화질 개선방법의 흐름도,1 is a flow chart of a conventional printing quality improvement method,
도 2는 본 발명에 따른 프린팅화질 개선장치의 블록도,2 is a block diagram of a printing quality improvement apparatus according to the present invention;
도 3은 본 발명에 따른 프린팅화질 개선방법의 흐름도,3 is a flow chart of a printing quality improvement method according to the present invention;
도 4는 윤곽선 여부의 판별을 위한 윈도우의 구성의 예시도,4 is an exemplary view illustrating a configuration of a window for determining whether an outline is present;
도 5는 도 4에 도시된 샘플링된 픽셀들의 명도값의 예시도,5 is an exemplary diagram of brightness values of the sampled pixels shown in FIG. 4;
도 6은 수평 및 수직 방향의 명도의 경도를 산출하기 위한 가중치의 예시도,6 is an exemplary diagram of weights for calculating the hardness of the brightness in the horizontal and vertical directions;
도 7은 도 5에 예시된 명도값을 이진화한 값의 예시도, 그리고7 is an exemplary diagram of a value obtained by binarizing the brightness value illustrated in FIG. 5, and
도 8은 텍스트 여부의 판별 결과를 보정하기 위한 픽셀 범위를 도시한 예시도이다.8 is an exemplary diagram illustrating a pixel range for correcting a result of determining whether a text is present.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
10 : 스캐너15 : 프린터10: scanner 15: printer
20 : 프린팅화질 개선장치23 : 검출부20: printing quality improvement device 23: detection unit
25 : 강조부25: emphasis
상기 목적을 달성하기 위한 본 발명에 따른 텍스트와 이미지가 혼재된 문서의 프린팅화질 개선방법은, 상기 문서의 출력화면 내의 각 픽셀이 상기 출력화면상의 윤곽선에 해당되는 픽셀인지 여부 및 상기 텍스트에 해당되는 픽셀인지 여부를 판별하는 단계; 및 상기 윤곽선으로 판별되고 또한 상기 텍스트로 판별된 픽셀에 대해 그 명도를 조절하여 출력을 강조하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of improving a printing quality of a document having mixed text and images, wherein each pixel in an output screen of the document is a pixel corresponding to an outline on the output screen and corresponding to the text. Determining whether it is a pixel; And accentuating the output by adjusting the brightness of the pixel determined by the outline and determined by the text.
여기서, 상기 판별단계에서 상기 윤곽선 해당 여부의 판별은, 판별대상 픽셀을 중심으로 소정 범위 내의 픽셀들의 명도값에 대해 소정의 가중치들을 각각 곱한 값을 산출하는 단계; 상기 곱한 값을 각각 더한 값을 산출하는 단계; 및 상기 더한 값이 소정 이상인 경우 상기 판별대상 픽셀이 상기 윤곽선에 해당하는 픽셀인 것으로 판별하는 단계를 포함한다.Here, in the determining step, the determination of whether the contour is applicable may include: calculating a value obtained by multiplying predetermined weights with respect to brightness values of pixels within a predetermined range around the determination target pixel; Calculating a value obtained by adding up the multiplied values; And determining that the determination target pixel is a pixel corresponding to the contour line when the added value is more than a predetermined value.
또한, 상기 판별단계에서 상기 텍스트 여부의 판별은, 판별대상 픽셀을 중심으로 소정 범위 내의 픽셀들을 그 명도차에 따라 그룹핑하는 단계; 및 상기 그룹핑된 픽셀들의 그룹 수가 소정개수 미만일 경우 상기 판별대상 픽셀을 텍스트로 판별하는 단계를 포함한다. 그리고 나서, 상기 판별대상 픽셀을 중심으로 소정 범위 내의 픽셀들 중 상기 텍스트로 판별된 픽셀의 수에 기초하여 판별을 번복하는 단계를 거친다.The determining of the text in the determining step may include: grouping pixels within a predetermined range around the determination target pixel according to the brightness difference; And when the number of groups of the grouped pixels is less than a predetermined number, determining the determination target pixel as text. Then, the determination is repeated based on the number of pixels determined as the text among pixels within a predetermined range around the determination target pixel.
본 발명에 따르면, 출력될 화면상의 각 픽셀 중 텍스트의 윤곽선에 해당되는 픽셀만이 강조되어 출력되게 된다. 따라서, 텍스트와 이미지의 특성에 맞는 차별된 강조가 행해지게 되어, 출력된 문서의 화질이 현저하게 개선되게 된다.According to the present invention, only the pixels corresponding to the outline of the text among the pixels on the screen to be output are highlighted and output. Therefore, different emphasis is made on the characteristics of the text and the image, and the image quality of the output document is remarkably improved.
한편, 본 발명에 따르면, 상기 문서의 출력화면 내의 각 픽셀 중, 출력될 모양의 윤곽선에 해당되며 또한 텍스트에 해당되는 픽셀을 검출하는 검출부; 및 상기 검출부에서 검출된 픽셀의 명도를 조절하여 상기 검출된 픽셀의 출력을 강조하는 강조부를 포함하는 것을 특징으로 하는 혼재 문서의 프린팅화질 개선장치가 제공된다.On the other hand, according to the present invention, a detection unit for detecting a pixel corresponding to the outline of the shape to be output, and corresponding to the text of each pixel in the output screen of the document; And an emphasis unit for adjusting the brightness of the pixels detected by the detection unit to emphasize the output of the detected pixels.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, with reference to the drawings will be described the present invention in more detail.
도 2는 본 발명에 따른 프린팅화질 개선장치를 도시하고 있다. 프린팅화질개선장치(20)는 텍스트와 이미지 혼재문서에 대해, 출력화면의 윤곽선을 검출하는 검출부(23), 및 검출부(23)가 검출한 윤곽선에 대해 출력강도를 조절하여 강조하는 강조부(25)로 구성되어 있다. 프린팅화질 개선장치(20)는 스캐너(10)로부터 입력받은 스캐닝된 문서의 R,G,B정보를 이용하여 상기와 같은 윤곽선 검출 및 강조 작업을 수행하고, 강조 작업 완료 후의 R,G,B 정보인 Ro,Go,Bo정보를 프린터(15)에 제공한다.Figure 2 shows a printing quality improvement apparatus according to the present invention. The printing quality improvement apparatus 20 includes a detection unit 23 for detecting the contour of the output screen of the text and image mixed document, and an emphasis unit 25 for adjusting and emphasizing the output intensity with respect to the contour detected by the detection unit 23. It consists of). The printing quality improving apparatus 20 performs the above-described contour detection and highlighting operation using the R, G, and B information of the scanned document received from the scanner 10, and the R, G, and B information after the highlighting operation is completed. R o , G o , and B o information are provided to the printer 15.
도 3은 도 2에 도시된 바와 같은 본 발명에 따른 프린팅화질 개선장치에 의해 수행되는 프린팅화질 개선방법의 흐름도이다.3 is a flowchart of a printing quality improving method performed by the printing quality improving apparatus according to the present invention as shown in FIG. 2.
검출부(23)에서 수행하는 과정은 크게, 판별 대상이 되는 픽셀이 무채색인지의 여부를 판별하는 단계(S30), 판별 대상 픽셀이 윤곽선에 해당되는지 여부를 판단하는 단계(S40), 윤곽선으로 판단된 픽셀이 텍스트에 해당되는 픽셀인지를 판별하는 단계(S50), 및 판별된 내용을 보정하는 단계(S60)로 구성되어 있다.The process performed by the detector 23 is largely determined by determining whether the pixel to be discriminated is achromatic (S30), determining whether the discrimination pixel corresponds to an outline (S40), and determined as an outline. And determining whether the pixel corresponds to the text (S50), and correcting the determined content (S60).
혼재문서에서는 무채색 글자만을 구분하고 처리하기 때문에, 본 실시예에서는 컬러 글자를 구분하는 것은 제외하기로 한다. 무채색인지 여부의 판별(S30)은 채도 정보를 이용한다. 먼저, 스캐너(10)로부터 읽혀진 R,G,B값을 명도(luminance)와 채도(Saturation)로 변환한다. 이러한 변환을 위해 Lab공간, YIQ공간, HVS공간 등을 이용할 수 있다. 여기서는 R,G,B를 Y,I,Q로 변환을 하여 Y를 명도로 사용하고 I와 Q를 이용하여 채도를 구하였다.In the mixed document, only colorless letters are distinguished and processed, and therefore, color letters are not distinguished in this embodiment. Whether it is achromatic or not (S30) uses saturation information. First, the R, G, and B values read from the scanner 10 are converted into brightness and saturation. Lab space, YIQ space, HVS space, etc. can be used for this conversion. Here, R, G, and B are converted into Y, I, and Q, Y is used as the brightness, and I and Q are used to determine the saturation.
현재 화소의 채도(S)를 임계값(THs)와 비교한다(S30). 채도 S가 임계값 THs보다 작은 경우에는 무채색이며 글자일 가능성이 높고, 큰 경우에는 유채색이며 이미지 픽셀이라고 간주한다(S56). 이러한 연산을 위하여 필요한 수식은 다음과 같다.The saturation S of the current pixel is compared with the threshold TH s (S30). If the saturation S is smaller than the threshold value TH s , it is considered to be achromatic and likely to be a letter. If the saturation S is large, it is regarded as a chromatic color and an image pixel (S56). The formula required for this operation is as follows.
무채색으로 판별된 픽셀에 대해서는 당해 픽셀이 윤곽선에 해당되는 픽셀인지를 찾는 단계가 수행된다(S40). 혼재문서 내에서 특정 픽셀이 윤곽선에 해당하는 픽셀인지의 여부는 소벨(Sobel)연산자를 이용하여 상기 식에서 구한 명도 성분의 경도(Gradient)를 계산하여 찾게 된다. 경도를 구하기 위해 5×5 윈도우 내에서 주위 픽셀들을 선정하게 되는데, 실제 계산은 샘플링한 데이터를 사용하게 된다. 이것은 ASIC구현을 위해 계산량을 감소시키고 메모리 액세스(access) 횟수를 줄이기 위해서이다. 도 4의 (a)도는 판별 대상이 되는 픽셀('X'로 표시됨)을 중심으로 5×5 윈도우 내의 픽셀들을 도시한 것이고, 도 4의 (b)도는 도 4의 (a)도에서 주변의 8개 픽셀들('0'로 표시됨)을 샘플링한 3×3 윈도우를 나타낸 것이다.For a pixel determined as achromatic color, a step of searching whether the pixel corresponds to the contour is performed (S40). In a mixed document, whether or not a specific pixel corresponds to an outline is found by calculating a gradient of the brightness component obtained by the above formula using a Sobel operator. To find the longitude, we select surrounding pixels within a 5x5 window, and the actual calculation will use the sampled data. This is to reduce computations and reduce the number of memory accesses for ASIC implementations. FIG. 4 (a) shows pixels in a 5x5 window centered on a pixel to be discriminated (denoted by 'X'), and FIG. 4 (b) shows its surroundings in FIG. 4 (a). Shown is a 3x3 window that samples eight pixels (denoted '0').
도 5는 도 4(b)에 도시된 바와 같이 선정된 3×3 윈도우 내의 픽셀들의 명도값의 일 예를 도시한 것으로서, 각 픽셀들의 명도값이 L1내지 L9인 경우를 예시한 것이다. 도 6의 (a) 및 (b)는 도 5에 도시된 바와 같이 판별대상 픽셀을 중심으로 소정 범위 내에서 샘플링된 픽셀들의 명도값을 이용하여 경도(Gradient)를 구하기 위한 소벨(Sobel)연산자를 도시하고 있다. 도 6(a) 및 (b)는 소벨연산자가 3×3윈도우 형식으로 구성되는 예를 도시하고 있다. 이는 도 5에 도시된 바와 같은 각 픽셀들의 명도값에 대해 곱하여지는 가중치의 일 예를 나타내며, 이 중 도 6(a)는 수평방향(x축 방향)에 따른 경도(Gx)를 구하기 위한 소벨연산자를 도시하고 있고, 도 6(b)는 수직방향(y축 방향)에 따른 경도(Gy)를 구하기 위한 소벨연산자를 도시하고 있다.FIG. 5 illustrates an example of brightness values of pixels in a selected 3 × 3 window as illustrated in FIG. 4B, and illustrates an example in which brightness values of each pixel are L 1 to L 9 . 6 (a) and 6 (b) show a Sobel operator for obtaining a gradient using brightness values of pixels sampled within a predetermined range around a pixel to be discriminated as shown in FIG. 5. It is shown. 6 (a) and 6 (b) show an example in which the Sobel operator is configured in a 3 × 3 window format. This shows an example of weights multiplied for brightness values of each pixel as shown in FIG. 5, and FIG. 6 (a) shows a Sobel for obtaining a hardness G x along a horizontal direction (x-axis direction). 6 (b) shows a Sobel operator for obtaining the hardness G y along the vertical direction (y-axis direction).
따라서, 도 6에 도시된 바와 같은 가중치들을 가지는 소벨연산자에 의해 수평, 수직 방향의 경도(Gx및 Gy)를 구하면 다음과 같다. (도 6에 도시된 가중치 값들은 일 예이며, 이 가중치들은 다른 값으로 선정될 수 있다.)Therefore, when the hardness (G x and G y ) in the horizontal and vertical directions by the Sobel operator having weights as shown in FIG. 6 is obtained. (The weight values shown in FIG. 6 are one example, and the weight values may be selected as other values.)
Gx= (L1+ 2L4+ L7) - (L3+ 2L6+ L9)G x = (L 1 + 2L 4 + L 7 )-(L 3 + 2L 6 + L 9 )
Gy= (L1+ 2L2+ L3) - (L7+ 2L8+ L9)G y = (L 1 + 2L 2 + L 3 )-(L 7 + 2L 8 + L 9 )
이 값들을 이용하여 판별대상 픽셀의 경도(G)는 다음과 같이 구해진다.Using these values, the hardness G of the pixel to be discriminated is determined as follows.
G = [ |Gx| + |Gy| ] / 4G = [| G x | + | G y |] / 4
상기와 같은 수식에 의해 구해진 경도값(G)가 미리 정해진 임계값(THG)보다 큰 경우는 판별 대상 픽셀이 윤곽선에 해당되는 픽셀인 것으로 판단한다(S40). 윤곽선에 해당되는 것으로 판단된 픽셀에 대해서는 당해 픽셀이 텍스트의 픽셀인지 여부를 판단하며(S50), 윤곽선에 해당되지 않는 픽셀로 판단된 경우에는 당해 픽셀은 '이미지' 픽셀로 간주한다(S56).When the hardness value G obtained by the above equation is larger than the predetermined threshold value TH G , it is determined that the determination target pixel is a pixel corresponding to the outline (S40). For the pixel determined to correspond to the outline, it is determined whether the pixel is a pixel of text (S50). If it is determined that the pixel does not correspond to the outline, the pixel is regarded as an 'image' pixel (S56).
텍스트에 해당하는 픽셀인지의 판별은 다음과 같은 과정을 거쳐수행된다(S50).The determination of whether the pixel corresponds to the text is performed through the following process (S50).
먼저, 전술한 S40 단계에서 윤곽선으로 판별된 화소가 텍스트의 윤곽선 픽셀인지 아니면 이미지의 윤곽선 픽셀인지를 조사하기 위해서, 도 4(b)에 도시된 바와 같이 샘플링된 픽셀들에 대해서 명도값들을 이용한다. 즉, 도 4(b)에 도시된 바와 같이 샘플링된 픽셀들은 도 5에 도시된 바와 같이 L1내지 L9의 명도값을 가지고 있으며, 이 명도값들은, 예컨데 명도값이 8비트의 데이터로 표현되는 경우, 0 내지 255의 값들로서 256 가지의 레벨로 구분되어 표현된다. 이러한 명도값을 소정의 기준치와 비교하여 '0' 또는 '1'로 이진화시킨다. 여기서 기준치로는 도 5에 도시된 바와 같이 샘플링된 픽셀들의 평균값(Lavg)이 사용된다.First, in order to check whether the pixel determined as the outline in the above-described step S40 is the outline pixel of the text or the outline pixel of the image, brightness values are used for the sampled pixels as shown in FIG. 4 (b). That is, the pixels sampled as shown in FIG. 4 (b) have brightness values of L 1 to L 9 as shown in FIG. 5, and these brightness values are expressed as 8-bit data, for example. In this case, values of 0 to 255 are divided into 256 levels. This brightness value is compared with a predetermined reference value and binarized to '0' or '1'. As a reference value, an average value L avg of the sampled pixels is used as illustrated in FIG. 5.
즉, 기준치가,That is, the reference value is
Lavg= (L1+ L2+ ㆍㆍㆍㆍ + L8+ L9) / 9L avg = (L 1 + L 2 + ... + L 8 + L 9 ) / 9
이라 할 때,When I say
각 픽셀의 이진화된 명도값(bi)은,The binarized brightness value b i of each pixel is
bi= 0 (Li< Lavg인 경우), 그리고, bi= 1 (Li≥ Lavg인 경우)b i = 0 for L i <L avg , and b i = 1 for L i ≥ L avg
(여기서, Li는 도 5에 도시된 L1내지 L9의 명도값이다.)(L i is the lightness value of L 1 to L 9 shown in FIG. 5)
와 같이 정해진다.It is determined as follows.
도 7에는 이와 같은 방법을 통해 이진화된 명도값의 예가 도시되어 있다. 이진화가 완료되면, 이진화값들이 연속적으로 배치된 부분을 하나의 그룹으로 그룹핑을 한다. 그룹핑 방법은 상하좌우의 네 방향만을 고려하여 그룹핑하며, 대각선 방향은 고려하지 않는다. 즉, 임의의 픽셀에 대해 상하좌우 네 방향의 인접화소의 이진화값이 그 픽셀의 이진화값과 같은 경우에만 연결된 것으로 판단하여 같은 그룹 내에 속하는 것으로 그룹핑된다.Figure 7 shows an example of the brightness value binarized through this method. When the binarization is completed, the portions in which binarization values are continuously arranged are grouped into one group. The grouping method considers only four directions of up, down, left, and right, and does not consider a diagonal direction. That is, it is determined that the binarization value of adjacent pixels in up, down, left, and right directions for an arbitrary pixel is the same as the binarization value of the pixel, and is grouped into the same group.
그리고 나서, 이렇게 그룹핑된 부분의 갯수가 3×3 윈도우 내에 몇개가 존재하는지를 조사한다. 예컨데, 도 7(a)에 도시된 바와 같이 이진화값들이 구해진 경우에는 1행과 2행은 '1'로 이루어지고 3행은 '0'으로 이루어져 있으므로 그룹핑된 부분의 개수(N)는 2이다. 마찬가지로, 도 7(b)에 도시된 바와 같은 이진화 명도값들의 그룹핑 부분의 개수 N=3이고, 도 7(c)에 도시된 예에서는 N=4 이다.Then we examine how many of these grouped parts are in the 3x3 window. For example, when binarization values are obtained as shown in FIG. 7 (a), since the first and second rows are made of '1' and the third row is made of '0', the number N of grouped parts is 2. . Similarly, the number N of grouping portions of the binarization brightness values as shown in FIG. 7 (b) is N = 3 in the example shown in FIG. 7 (c).
이와 같이 판단된 그룹 개수(N)를 이용하여 판단대상 픽셀이 텍스트 픽셀인지 이미지 픽셀인지를 판단한다. 즉, 판단대상 픽셀이 텍스트에 해당되는 픽셀인 경우에는 당해 픽셀을 중심으로 명도 변화가 자주 일어나지 않을 것이고, 이미지에 해당되는 픽셀인 경우에는 당해 픽셀을 중심으로 명도 변화가 자주 일어날 것이므로, 그룹 갯수(N)이 많을수록 이미지에 해당되는 픽셀일 확률이 클 것이다. 따라서, 그룹 갯수(N)을 소정의 값과 비교하여 그 값보다 작을 경우 텍스트 픽셀로 판단한다. 이때의 소정의 값은 N=3이다.The determined number of groups N is used to determine whether the determination target pixel is a text pixel or an image pixel. That is, if the pixel to be determined is the pixel corresponding to the text, the brightness change will not occur frequently around the pixel, and if the pixel corresponds to the image, the brightness change will occur frequently around the pixel. The more N), the greater the probability that the pixel corresponds to the image. Therefore, when the number N of groups is compared with a predetermined value and smaller than the value, it is determined as a text pixel. The predetermined value at this time is N = 3.
따라서, N ≤ 2인 경우에는(S51) '텍스트'로 추정하고(S52), N = 3 인 경우에는(S53) 텍스트인지 이미지인지의 판단을 보류하고 '미정'(undetermine)으로 남겨둔다(S54). 그리고, N ≥ 4 인 경우에는 '이미지'로 판별한다(S56).Therefore, when N ≤ 2 (S51), it is estimated as 'text' (S52), and when N = 3 (S53), the determination of whether it is a text or an image is suspended and left as 'undetermine' (S54). . If N ≥ 4, it is determined as an 'image' (S56).
이와 같이 판단대상 픽셀과 그 주변의 픽셀들을 이용하여 샘플링된 윈도우내의 명도값을 이진화하고, 또한 그 이진화된 명도값의 그룹 수에 따라 판단대상 픽셀이 텍스트인지 이미지인지의 추정 또는 판별이 완료되면, 이 추정된 값들을 보다 정확한 검증을 거쳐 보정하는 단계(S60)가 수행된다.As described above, when the lightness value in the sampled window is binarized by using the pixel to be judged and the pixels around it, and the estimation or determination of whether the pixel to be judged is text or image is completed according to the number of groups of the binarized brightness value, A step S60 of correcting the estimated values through more accurate verification is performed.
보정하는 단계(S60)는 모든 픽셀에 대해 상기한 판별단계(S50)에서의 판별 또는 추정이 완료된 후에 수행된다. 도 8에 도시된 바와 같이 판별단계(S50)에서 판별 또는 추정이 완료된 픽셀들에 대해서, '텍스트'로 추정된 픽셀은 'T'로 표시되어 있고, '미정'인 픽셀은 'U'로 표시되어 있으며, '이미지'로 판별된 픽셀은 'I'로 표시되어 있다.The step of correcting (S60) is performed after the determination or estimation in the above-described determining step (S50) is completed for all the pixels. As shown in FIG. 8, for pixels that have been discriminated or estimated in the determining step S50, the pixel estimated as 'text' is represented by 'T', and the pixel that is 'undecided' is represented by 'U'. Pixels identified as 'images' are marked with 'I'.
보정 대상이 되는 픽셀을 중심으로 소정의 범위 내의 픽셀들을 보정의 기준이 되는 데이터로 사용한다. 도 8에는 보정대상 픽셀을 중심으로 5×5 윈도우 내의 픽셀에 대한 판별단계(S60)에서의 판별결과 데이터를 보정용 데이터로 사용하는 예로 도시하고 있다.Pixels within a predetermined range are used as the data for correction based on the pixel to be corrected. FIG. 8 shows an example of using the determination result data in the determination step S60 for the pixel in the 5x5 window centered on the pixel to be corrected as correction data.
N = 2 인 경우(즉, 텍스트로 추정된 경우)에는, 도 8(a)에 굵은 선으로 도시된 바와 같이, 5×5 윈도우 내의 픽셀들 중 1행과 2행의 픽셀들 및 3행의 픽셀 중 좌측에 존재하는 픽셀들 중에서, 'T'로 판별된 픽셀의 갯수를 카운트한다. 카운트된 'T'의 갯수(NT)가 소정의 임계치(THT)를 넘는지 여부를 기준으로 텍스트 표시인 'T'를 유지할 것인지 아니면 이미지 표시인 'I'로 변환할 것인지를 판단한다(S61). 임계치(THT)의 한 예로 본 실시예에서는 '7'을 설정하였다. 따라서, 도 8(a)에 도시된 예에서는 빗금으로 표시된 바와 같이, 'T'인 픽셀 수가 8개 이므로 보정대상이 되는 중앙의 픽셀은 '텍스트'로 판별하여(S62) 'T'를 유지한다. 또한, 'T'인 픽셀 수가 7 이하이면, 이미지로 판별하여(S63) 중앙의 픽셀을 'I'로 변환시킨다.If N = 2 (i.e., assumed to be text), then one and two rows of pixels and three rows of pixels in a 5x5 window, as shown by bold lines in FIG. Of the pixels existing on the left side of the pixels, the number of pixels determined as 'T' is counted. It is determined whether to keep the text display 'T' or convert the image display to 'I' based on whether the counted number T of the T exceeds the predetermined threshold TH T. S61). As an example of the threshold TH T , '7' is set in this embodiment. Therefore, in the example shown in FIG. 8 (a), as indicated by hatching, the number of pixels that is 'T' is eight, so that the center pixel to be corrected is determined as 'text' (S62) to maintain 'T'. . If the number of pixels that is 'T' is 7 or less, it is determined as an image (S63) and the center pixel is converted to 'I'.
판별단계(S50)에서 '미정'으로 판별되어 'U'가 부여된 픽셀에 대해서는 보다 강화된 조건에 따라 텍스트인지의 여부를 판별한다. 즉, 도 8(b)에 굵은 실선으로 도시된 바와 같이, 보정대상 픽셀의 주변의 4개의 픽셀만을 대상으로 하여, 이들 중 'T'로 판별된 픽셀의 수를 카운트한다. 만약, 'T'로 판별된 픽셀이 수(NI)가 소정의 임계치(THI) 이상이면(S64), 미정인 픽셀이 텍스트 픽셀인 것으로 판별하여(S65) 'T'를 부여하고, 임계치(THI) 이하이면 이미지 픽셀인 것으로 판별하여(S66) 'I'를 부여한다.In the determination step (S50), it is determined as 'undecided' and the pixel to which 'U' is assigned is determined whether or not it is text according to the enhanced condition. That is, as shown by thick solid lines in Fig. 8B, only four pixels around the correction target pixel are targeted, and the number of pixels determined as 'T' is counted. If the number N I of the pixels determined as 'T' is greater than or equal to the predetermined threshold TH I (S64), it is determined that the undecided pixel is a text pixel (S65) and 'T' is given, and the threshold is determined. If it is less than (TH I ), it is determined to be an image pixel (S66) and 'I' is assigned.
전술한 바와 같은 판별단계(S50)에서의 판별 또는 추정된 결과만으로는 텍스트인지 이미지인지 여부가 잘못 판단되는 경우가 발생한다. 따라서, 픽셀들의 텍스트 여부 판단 후, 상기한 바와 같이 각 픽셀들에 대해 그 주변의 픽셀들의 판단 결과에 기초하여 보정함으로써 보다 정확한 판단이 이루어질 수 있게 된다.Only a result of the determination or the estimated result in the determination step S50 described above may be incorrectly determined whether it is a text or an image. Therefore, after determining whether the pixels are text, more accurate determination can be made by correcting each pixel based on the determination result of neighboring pixels as described above.
상기한 바와 같은 과정을 거쳐 텍스트에 해당하는 픽셀들이 검출되면, 텍스트인 픽셀들에 대해 그 출력이 두드러지도록 강조하는 단계가 수행된다(S70). 픽셀을 강조하는 방법으로는 언샤프매스킹(unsharp masking) 방법이 사용된다. 이에 따르면, 강조될 픽셀의 명도는 다음과 같은 식에 의해 구해진다.When pixels corresponding to the text are detected through the above process, the step of emphasizing the output of the pixels that are the text to stand out is performed (S70). An unsharp masking method is used to emphasize pixels. According to this, the brightness of the pixel to be emphasized is obtained by the following equation.
Le= L5+ k(L5- Lavg)L e = L 5 + k (L 5 -L avg )
여기서, L5는 강조될 픽셀의 원래의 명도이고, Lavg는 전술한 바와 같은 윈도우 내의 명도의 평균값이며, Le는 강조된 명도값이다. 또한, k는 강조 계수이다.Where L 5 is the original brightness of the pixel to be highlighted, L avg is the average value of brightness in the window as described above, and L e is the highlighted brightness value. K is an emphasis factor.
최종 출력되는 R0, G0, B0값은 종래기술에 대한 설명에서 전술한 바와 같은 공식에 의해 구해진다.The final output values of R 0 , G 0 , B 0 are obtained by the formula described above in the description of the prior art.
실험에 의하면, 전술한 임계값들의 바람직한 예로는, 각 명도값이 8비트인 0 내지 255 사이의 값을 가지는 경우, THS= 25, THG= 15 이며, 또한, THT= 7, THI= 1, 그리고 k = 5 이다.According to experiments, preferred examples of the above-described threshold values are TH S = 25, TH G = 15 when each brightness value has a value between 0 and 255, which is 8 bits, and TH T = 7, TH I. = 1, and k = 5.
본 발명에 따르면, 출력될 문서의 화면상의 각 픽셀에 대해 윤곽선에 해당되는 픽셀인지 여부 및 텍스트에 해당되는 픽셀인지 여부가 판별되고, 그 판별 결과에 따라 텍스트의 윤곽선만이 강조되어 출력되게 된다. 따라서, 일반적으로 텍스트와 이미지 모두의 윤곽선을 강조하는 종래의 방식에 비해 텍스트와 이미지의 특성에 맞는 차별된 강조가 행해지게 되어, 출력된 문서의 화질(특히 이미지 부분의 화질)이 현저하게 개선되게 된다.According to the present invention, for each pixel on the screen of the document to be output, it is determined whether the pixel corresponds to the outline and whether the pixel corresponds to the text, and only the outline of the text is highlighted and output according to the determination result. Therefore, in contrast to the conventional method of emphasizing the contours of both text and images, a distinctive emphasis is made on the characteristics of the text and images, so that the image quality of the output document (particularly the image portion) is significantly improved. do.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2001-0000966A KR100406944B1 (en) | 2001-01-08 | 2001-01-08 | Method and apparatus for improving printing quality of document in which a text and an image exist together |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2001-0000966A KR100406944B1 (en) | 2001-01-08 | 2001-01-08 | Method and apparatus for improving printing quality of document in which a text and an image exist together |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20020059531A true KR20020059531A (en) | 2002-07-13 |
KR100406944B1 KR100406944B1 (en) | 2003-11-28 |
Family
ID=27691050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2001-0000966A KR100406944B1 (en) | 2001-01-08 | 2001-01-08 | Method and apparatus for improving printing quality of document in which a text and an image exist together |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100406944B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100484170B1 (en) * | 2002-10-25 | 2005-04-19 | 삼성전자주식회사 | Method and apparatus for improvement of digital image quality |
KR100514734B1 (en) * | 2002-08-22 | 2005-09-14 | 삼성전자주식회사 | Method and apparatus for improvement of digital image quality |
US7746505B2 (en) | 2004-05-07 | 2010-06-29 | Samsung Electronics Co., Ltd. | Image quality improving apparatus and method using detected edges |
KR20110055145A (en) * | 2009-11-19 | 2011-05-25 | 삼성전자주식회사 | List searching method and portable device using the same |
KR101221759B1 (en) * | 2010-02-25 | 2013-01-14 | 다이닛뽕스크린 세이조오 가부시키가이샤 | Image data generating apparatus, Image data generating method, Image forming apparatus and Image forming method |
KR101317308B1 (en) * | 2007-03-07 | 2013-10-14 | 삼성전자주식회사 | Image processing apparatus and control method the same |
CN106952244A (en) * | 2017-03-28 | 2017-07-14 | 中航视嘉(北京)技术有限公司 | The automatic adjusting method and device of a kind of brightness of image |
-
2001
- 2001-01-08 KR KR10-2001-0000966A patent/KR100406944B1/en not_active IP Right Cessation
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100514734B1 (en) * | 2002-08-22 | 2005-09-14 | 삼성전자주식회사 | Method and apparatus for improvement of digital image quality |
KR100484170B1 (en) * | 2002-10-25 | 2005-04-19 | 삼성전자주식회사 | Method and apparatus for improvement of digital image quality |
US7746505B2 (en) | 2004-05-07 | 2010-06-29 | Samsung Electronics Co., Ltd. | Image quality improving apparatus and method using detected edges |
KR101317308B1 (en) * | 2007-03-07 | 2013-10-14 | 삼성전자주식회사 | Image processing apparatus and control method the same |
KR20110055145A (en) * | 2009-11-19 | 2011-05-25 | 삼성전자주식회사 | List searching method and portable device using the same |
US9747864B2 (en) | 2009-11-19 | 2017-08-29 | Samsung Electronics Co., Ltd. | List searching method and portable device using the same |
KR101221759B1 (en) * | 2010-02-25 | 2013-01-14 | 다이닛뽕스크린 세이조오 가부시키가이샤 | Image data generating apparatus, Image data generating method, Image forming apparatus and Image forming method |
CN106952244A (en) * | 2017-03-28 | 2017-07-14 | 中航视嘉(北京)技术有限公司 | The automatic adjusting method and device of a kind of brightness of image |
CN106952244B (en) * | 2017-03-28 | 2020-05-05 | 中航视嘉(北京)技术有限公司 | Automatic image brightness adjusting method and device |
Also Published As
Publication number | Publication date |
---|---|
KR100406944B1 (en) | 2003-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7227990B2 (en) | Color image processing device and color image processing method | |
US11080831B2 (en) | Image data conversion device, image data conversion method, image data conversion program, POS terminal device, and server | |
US7746505B2 (en) | Image quality improving apparatus and method using detected edges | |
KR100339691B1 (en) | Apparatus for recognizing code and method therefor | |
JP3399486B2 (en) | Color image processing apparatus and method | |
KR920005868B1 (en) | Picture processing device | |
US6227725B1 (en) | Text enhancement for color and gray-scale documents | |
EP1051025A1 (en) | Image processing device and image processing method | |
KR101172399B1 (en) | Image forming apparatus and image improvement method thereof | |
KR100406944B1 (en) | Method and apparatus for improving printing quality of document in which a text and an image exist together | |
JPH06130513A (en) | Method for identifying film form | |
US6999621B2 (en) | Text discrimination method and related apparatus | |
US5608548A (en) | Automatic color adjustment in a document processing environment | |
JP6304561B2 (en) | Image processing device | |
JP2000358166A (en) | Image process, image reader with the processor, image forming device, image processing method and computer readable storage medium storing image processing procedure | |
JPH01200964A (en) | Apparatus for forming color image | |
JP2004320447A (en) | Image processing apparatus, image processing method, and program for execution by computer | |
JP2002281335A (en) | Color sorting method for color image, and color image processor | |
JP3725255B2 (en) | Digital image processing device | |
JPH07322060A (en) | Image area separation device, facsimile equipment provided with the device and electronic file device | |
EP1605684B1 (en) | Method of processing a digital image in order to enhance the text portion of said image | |
JP3274063B2 (en) | Image tilt detector | |
JP2003179768A (en) | Image processor | |
KR20050006490A (en) | Method and apparatus detecting a pixel distance for regulation of a threshold | |
JP2002290719A (en) | Halftone dot region detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20061030 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |