KR101887929B1 - Image Processing Apparatus, Image Processing Method, Computer Readable Recording Medium and Image Forming Apparatus - Google Patents

Image Processing Apparatus, Image Processing Method, Computer Readable Recording Medium and Image Forming Apparatus Download PDF

Info

Publication number
KR101887929B1
KR101887929B1 KR1020140003340A KR20140003340A KR101887929B1 KR 101887929 B1 KR101887929 B1 KR 101887929B1 KR 1020140003340 A KR1020140003340 A KR 1020140003340A KR 20140003340 A KR20140003340 A KR 20140003340A KR 101887929 B1 KR101887929 B1 KR 101887929B1
Authority
KR
South Korea
Prior art keywords
text
color
screen shot
image
unit
Prior art date
Application number
KR1020140003340A
Other languages
Korean (ko)
Other versions
KR20140099183A (en
Inventor
빌킨 알렉시 미하일로비치
쿠릴린 일리아 바실리예비치
사포노프 일리아 블라디미로비치
미키에프 세르게이 미하일로비치
Original Assignee
에이치피프린팅코리아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이치피프린팅코리아 주식회사 filed Critical 에이치피프린팅코리아 주식회사
Publication of KR20140099183A publication Critical patent/KR20140099183A/en
Application granted granted Critical
Publication of KR101887929B1 publication Critical patent/KR101887929B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 판독가능 기록매체 및 화상 형성 장치에 관한 것으로서, 본 발명의 실시예에 따른 이미지 처리 장치는, 그래픽 및 텍스트가 포함된 스크린샷에서 텍스트 부분을 분할하는 분할부, 분할한 텍스트 부분에서 텍스트와 텍스트를 제외한 배경의 컬러를 각각 추정하는 컬러 평가부, 분할한 텍스트 부분에서 텍스트의 윤곽을 벡터화하는 벡터화부, 추정한 배경의 컬러로 분할한 텍스트 부분을 채워서 스크린샷을 수정하는 텍스트 리터칭부, 및 추정한 텍스트의 컬러, 벡터화한 윤곽의 벡터 정보 및 및 수정한 스크린샷을 이용해 메타파일을 생성하는 메타파일 생성부를 포함할 수 있다.The present invention relates to an image processing apparatus, an image processing method, a computer-readable recording medium, and an image forming apparatus, wherein an image processing apparatus according to an embodiment of the present invention includes: A color evaluation unit for estimating the color of the background except for the text and the text in the divided part of the text, a vectorizing unit for vectorizing the outline of the text in the divided text part, and a text part for dividing the color of the estimated background into the text A text retouching unit for correcting the screen shot, and a metafile generating unit for generating a metafile using the color of the estimated text, the vector information of the vectorized outline, and the modified screen shot.

Description

이미지 처리 장치, 이미지 처리 방법, 컴퓨터 판독가능 기록매체 및 화상형성장치{Image Processing Apparatus, Image Processing Method, Computer Readable Recording Medium and Image Forming Apparatus}TECHNICAL FIELD The present invention relates to an image processing apparatus, an image processing method, a computer readable recording medium, and an image forming apparatus,

본 발명은 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 판독가능 기록매체 및 화상 형성 장치에 관한 것으로서, 더 상세하게는 가령 디지털 신호처리 분야에서 스크린샷(screenshot)의 래스터 이미지를 스크린샷 분할 및 벡터화를 통해 메타파일로 변환하려는 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 판독가능 기록매체 및 화상 형성 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, a computer readable recording medium, and an image forming apparatus, and more particularly to a method and apparatus for processing a raster image of a screen shot, To an image processing apparatus, an image processing method, a computer readable recording medium, and an image forming apparatus which are to be converted into a metafile.

스크린샷의 래스터 이미지에 대한 텍스트 정보의 벡터화는 본질적으로 프린팅 및 가시화 등의 텍스트 품질을 증가시킨다. 스크린샷의 부분 벡터화는 번거로운 작업을 해결하기 위한 균형 있는 접근 방법이며, 검출된 그림(figures) 영역과 텍스트 영역이 서로 다른 방법들에 의해 처리된다는 점에서 그러하다. 텍스트 부분은 심볼들과 주변 배경의 컬러에 대한 정보를 갖는 일련의 직선 및 곡선들로 변환된다. 초기 스크린샷 정보의 나머지 부분은 래스터 이미지로서 저장된다.The vectorization of the text information for the raster image of the screen shot essentially increases the text quality, such as printing and visualization. Partial vectorization of screen shots is a balanced approach to solving troublesome tasks, in that the detected figures and text areas are processed in different ways. The text portion is converted into a series of straight lines and curves with information about the symbols and the color of the surrounding background. The rest of the initial screen shot information is stored as a raster image.

US 특허 8,270,722에 개시된 방법은 선택된 심볼들과 그래픽 영역들의 벡터화로 이미지를 처리한다. 발명의 목적은 텍스트 영역과 그래픽 영역의 두 영역을 포함하는 이미지를 최상의 품질 상태에서 최상의 정도로 압축하는 것이다. 만약 텍스트의 영역에서 심볼 픽셀들이 그래픽 영역에 의해 중첩되면, 그래픽 영역을 먼저 벡터화하고, 만약 중첩이 없으면 텍스트 영역을 먼저 벡터화한다.The method disclosed in US Pat. No. 8,270,722 processes images with vectorization of selected symbols and graphics regions. The object of the invention is to compress an image including two areas of a text area and a graphic area to the best quality in the best quality state. If the symbol pixels in the region of the text are overlapped by the graphics region, the graphics region is first vectorized, and if there is no overlap, the text region is first vectorized.

또한 US 특허 7,873,218에 개시된 방법은 대략 베지어(Bezier) 곡선들을 사용해 윤곽 데이터에서 이진 이미지의 변환을 위한 심볼들로 대략 구성된다. 그 방법은 심볼 영역들을 추출하고, 추출한 심볼 영역들에서 심볼을 추출하기 위해 래스터 이미지를 분할하는 것을 포함한다. 벡터화 과정은 이미지 중에서 텍스트가 아닌(non-text) 부분들에서 독립적으로 실행된다.Also, the method disclosed in US patent 7,873,218 is roughly composed of symbols for transformation of a binary image in contour data using approximate Bezier curves. The method includes extracting symbol regions and dividing the raster image to extract symbols in the extracted symbol regions. The vectorization process is performed independently in the non-text parts of the image.

위에 언급된 방법들은 벡터화 방식에 의해 시각적인 그림의 품질을 개선하지만, 다수의 특성들, 즉 심볼들의 저해상도, 텍스트 심볼들의 안티앨리어싱(antialiasing) 효과 적용 등을 처리하는 스크린샷의 래스터 이미지 벡터화에 직접적으로 적용할 수 없게 된다.The above-mentioned methods improve the quality of the visual picture by the vectorization method, but are directly applicable to the raster image vectorization of the screen shot, which handles a number of properties, such as low resolution of symbols, antialiasing effect application of text symbols, Can not be applied.

US 특허 7,079,686에 개시된 방법은 이미지를 확장하기 위해 문서의 이미지에서 픽셀들을 분류하는 것에 근거한 접근 방법을 기술하고 있다. 특성들에 대한 벡터는 이미지들의 각 픽셀마다 생성된다. 각 픽셀은 특성들에 대한 적절한 벡터에 의존하는 텍스트 또는 그림으로 분류된다. 나아가 처리는 텍스트의 픽셀들에서 경계들의 선명도를 증가시키는 필터와, 그림의 픽셀들을 위한 안티앨리어싱 필터로 구성되는 픽셀 레벨에서의 개선을 포함할 수 있다. The method disclosed in US Patent 7,079,686 describes an approach based on classifying pixels in an image of a document to extend the image. A vector for the properties is generated for each pixel of the images. Each pixel is categorized as a text or picture depending on the appropriate vector for the properties. Further, the processing may include an improvement at the pixel level consisting of a filter that increases the sharpness of the boundaries in the pixels of the text, and an anti-aliasing filter for the pixels of the picture.

나아가 US 특허 7,177,049에 개시된 방법은 디지털 이미지들의 처리를 나타내는데, 여기서 텍스트 품질의 개선 과정은 기결정된 마스크 내의 어둡고 밝은 픽셀들 사이의 명암 재분배로 인해 텍스트의 선명도 및 대조비가 증가하도록 화이트 배경상에서의 블랙 텍스트를 처리하는 것을 포함하고 있다.Furthermore, the method disclosed in US patent 7,177,049 represents the processing of digital images, wherein the process of improving the text quality is such that the contrast and redistribution between dark and light pixels in a predetermined mask increases the sharpness and contrast ratio of the text, Lt; / RTI >

위에 기술된 방법들은 오로지 프린팅 전의 이미지 강화 특히 텍스트 영역들에 방향을 맞추고 있다. 그런데 종래의 이러한 방법들은 스캔 이미지들을 현상하기 위한 스크린샷들에 적합하지 않은 문제가 있다.The methods described above only focus on image enhancement, especially text areas, before printing. However, these conventional methods are not suitable for screen shots for developing scan images.

이에 최근 들어 스크린샷에서 매끄러운 텍스트(혹은 안티앨리어싱된 텍스트)를 생성하기 위한 방법이 절실히 요구되고 있다.Recently, a method for generating smooth text (or anti-aliased text) in a screen shot is urgently required.

본 발명의 실시예는, 가령 디지털 신호처리 분야에서 스크린샷의 래스터 이미지를 스크린샷 분할 및 벡터화를 통해 메타파일로 변환하려는 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 판독가능 기록매체 및 화상 형성 장치를 제공함에 그 목적이 있다.An embodiment of the present invention provides an image processing apparatus, an image processing method, a computer readable recording medium, and an image forming apparatus for converting a raster image of a screen shot into a metafile through screen shot division and vectorization, for example, in the field of digital signal processing It has its purpose.

본 발명의 실시예에 따른 이미지 처리 장치는, 그래픽 및 텍스트가 포함된 스크린샷에서 텍스트 부분을 분할하는 분할부, 상기 분할한 텍스트 부분에서 상기 텍스트와 상기 텍스트를 제외한 배경의 컬러를 각각 추정하는 컬러 평가부, 상기 분할한 텍스트 부분에서 상기 텍스트의 윤곽을 벡터화하는 벡터화부, 상기 추정한 배경의 컬러로 상기 분할한 텍스트 부분을 채워서 상기 스크린샷을 수정하는 텍스트 리터칭부, 및 상기 추정한 텍스트의 컬러, 상기 벡터화한 윤곽의 벡터 정보 및 상기 수정한 스크린샷을 이용해 메타파일을 생성하는 메타파일 생성부를 포함한다.An image processing apparatus according to an embodiment of the present invention includes a division unit for dividing a text portion in a screen shot including a graphic and a text, a color estimating unit for estimating a color of the background excluding the text and the text in the divided text portion A vectorizing unit for vectorizing the outline of the text in the divided text portion, a text retouching unit for modifying the screen shot by filling the divided text portion with the color of the estimated background, , Vector information of the vectorized outline, and a metafile generator for generating a metafile using the modified screen shot.

상기 분할부는 복수의 텍스트 부분들에 대한 맵을 생성하고, 상기 생성한 맵에 대한 맵 데이터를 상기 벡터화부에 제공하며, 상기 복수의 텍스트 부분들은 동일 크기의 래스터 이미지일 수 있다.The dividing unit generates a map for a plurality of text parts and provides map data for the generated map to the vectorizing unit, and the plurality of text parts may be the same size raster image.

상기 분할부는, 상기 스크린샷에서 임의의 픽셀에 대하여 인접 픽셀보다 밝고 어두운 정도를 나타내는 수평 그라디언트값이 주변에 비해 큰 복수의 픽셀들을 검출하고, 상기 검출한 복수의 픽셀들을 각 부분으로 조합하며, 상기 각 부분의 히스토그램을 분석한 분석 결과에 따라 상기 텍스트 부분을 검출할 수 있다.Wherein the dividing unit detects a plurality of pixels having a horizontal gradient value that is brighter and darker than an adjacent pixel with respect to an arbitrary pixel in the screen shot than the surrounding pixels and combines the detected pixels into respective parts, The text portion can be detected according to the analysis result of analyzing the histogram of each portion.

상기 복수의 픽셀들은, 상기 스크린샷에 대한 그라디언트의 검출 결과 그라디언트가 존재하는 제로 아닌 연계 픽셀들의 맨 끝점들을 선택함으로써 검출될 수 있다.The plurality of pixels may be detected by selecting the endpoints of non-zero associated pixels where the gradient of the gradient for the screen shot is present.

상기 분할부는 상기 분석 결과, 계조값이 0인 칼럼의 수가 임계값보다 크면 상기 텍스트 부분으로 판단하고, 상기 임계값보다 작으면 그래픽 부분으로 판단할 수 있다.As a result of the analysis, the dividing unit may determine the text portion if the number of columns having a tone value of 0 is greater than the threshold value, and may determine the text portion if the number is smaller than the threshold value.

상기 컬러 평가부는, 상기 히스토그램 상에서 최좌측 또는 최우측에 위치하는 칼럼을 상기 배경 및 상기 텍스트의 컬러로 추정할 수 있다.The color evaluation unit may estimate a column located at the leftmost or rightmost position on the histogram in the color of the background and the text.

상기 벡터화부는 상기 텍스트의 윤곽을 벡터화하기 위하여 상기 텍스트 부분을 하프톤 이미지로 변환하고, 상기 변환한 하프톤 이미지를 이진화하며, 상기 이진화한 이미지에서 심볼들의 윤곽을 추적하고, 상기 추적한 윤곽을 직선 및 곡선들로 이루어진 일련의 세분화 부분으로 폴리곤(polygon) 근사화를 수행할 수 있다.Wherein the vectorization unit converts the text portion into a halftone image to vectorize the outline of the text, binarizes the converted halftone image, tracks the outline of the symbols in the binarized image, And polygon approximation to a series of refinement portions of curves.

또한 본 발명의 실시예에 따른 이미지 처리 방법은, 그래픽 및 텍스트가 포함된 스크린샷에서 텍스트 부분을 분할하는 단계, 상기 분할한 텍스트 부분에서 상기 텍스트와 상기 텍스트를 제외한 배경의 컬러를 추정하는 단계, 상기 분할한 텍스트 부분에서 상기 텍스트의 윤곽을 벡터화하는 단계, 상기 추정한 배경의 컬러로 상기 분할한 텍스트 부분을 채워서 상기 스크린샷을 수정하는 단계, 및 상기 추정한 텍스트의 컬러, 상기 벡터화한 윤곽의 벡터 정보 및 및 상기 수정한 스크린샷을 이용해 메타파일을 생성하는 단계를 포함한다.According to another aspect of the present invention, there is provided an image processing method including dividing a text portion in a screen shot including graphics and text, estimating a color of a background excluding the text and the text in the divided text portion, The method comprising the steps of: vectorizing an outline of the text in the segmented text portion; modifying the screen shot by populating the segmented text portion with the color of the estimated background; And generating the meta file using the vector information and the modified screen shot.

상기 분할하는 단계는, 복수의 텍스트 부분에 대한 맵을 생성하고, 상기 생성한 맵에 대한 맵 데이터를 상기 벡터화를 위해 제공하는 단계를 포함하며, 상기 복수의 텍스트 부분들은 동일 크기의 래스터 이미지일 수 있다.Wherein the dividing step includes generating a map for a plurality of text parts and providing map data for the generated map for the vectorization, wherein the plurality of text parts can be raster images of the same size have.

상기 분할하는 단계는, 상기 스크린샷에서 임의의 픽셀에 대하여 인접 픽셀보다 밝고 어두운 정도를 나타내는 수평 그라디언트값이 주변에 비해 큰 복수의 픽셀들을 검출하는 단계, 상기 검출한 복수의 픽셀들을 각 부분으로 조합하는 단계, 및 상기 각 부분의 히스토그램을 분석한 분석 결과에 따라 상기 텍스트 부분을 분할하는 단계를 포함할 수 있다.Wherein the dividing step comprises the steps of: detecting a plurality of pixels having a horizontal gradient value that is brighter and darker than an adjacent pixel with respect to an arbitrary pixel in the screen shot than the surrounding pixels; And dividing the text portion according to an analysis result of analyzing the histogram of each portion.

상기 복수의 픽셀들은, 상기 스크린샷에 대한 그라디언트의 검출 결과 그라디언트가 존재하는 제로 아닌 연계 픽셀들의 맨 끝점들을 선택함으로써 검출될 수 있다.The plurality of pixels may be detected by selecting the endpoints of non-zero associated pixels where the gradient of the gradient for the screen shot is present.

상기 분할하는 단계는, 상기 분석 결과, 계조값이 0인 칼럼의 수가 임계값보다 크면 상기 텍스트 부분으로 판단하고, 상기 임계값보다 작으면 그래픽 부분으로 판단할 수 있다.If the number of columns having a gray value of 0 is greater than the threshold value, the dividing may be determined as the text portion, and if the number of columns is less than the threshold value, the dividing may be determined as a graphic portion.

상기 컬러를 추정하는 단계는, 상기 히스토그램 상에서 최좌측 또는 최우측에 위치하는 칼럼을 상기 배경 및 상기 텍스트의 컬러로 추정할 수 있다.The color estimating step may estimate a column located at the leftmost or rightmost position on the histogram in the color of the background and the text.

상기 벡터화하는 단계는, 상기 텍스트 부분을 하프톤 이미지로 변환하는 단계, 상기 변환한 하프톤 이미지를 이진화하는 단계, 상기 이진화한 이미지에서 심볼들의 윤곽을 추적하는 단계, 및 상기 추적한 윤곽을 직선 및 곡선들로 이루어진 일련의 세분화 부분으로 폴리곤 근사화를 수행하는 단계를 포함할 수 있다.Wherein the step of vectorizing comprises the steps of converting the text portion into a halftone image, binarizing the transformed halftone image, tracking the outline of the symbols in the binarized image, And performing a polygon approximation with a series of refinement portions of curves.

본 발명의 실시예에 따른 컴퓨터 판독가능 기록매체는, 이미지 처리 방법을 실행하기 위한 컴퓨터 판독가능 기록매체에 있어서, 그래픽 및 텍스트가 포함된 스크린샷에서 텍스트 부분을 분할하는 단계, 상기 분할한 텍스트 부분에서 상기 텍스트와 상기 텍스트를 제외한 배경의 컬러를 추정하는 단계, 상기 분할한 텍스트 부분에서 상기 텍스트의 윤곽을 벡터화하는 단계, 상기 추정한 배경의 컬러로 상기 분할한 텍스트 부분을 채워서 상기 스크린샷을 수정하는 단계, 및 상기 추정한 텍스트의 컬러, 상기 벡터화한 윤곽의 벡터 정보 및 및 상기 수정한 스크린샷을 이용해 메타파일을 생성하는 단계를 실행할 수 있다.A computer-readable medium according to an embodiment of the present invention is a computer-readable medium for executing an image processing method, the method comprising: dividing a text portion in a screen shot including graphics and text; Estimating a color of the background excluding the text and the text, vectorizing an outline of the text in the divided text part, filling the divided text part with the color of the estimated background, And generating a metafile using the color of the estimated text, vector information of the vectorized outline, and the modified screen shot.

또한 본 발명의 실시예에 따른 화상형성장치는, 주변의 단말장치에 연결되어 동작하는 화상형성장치에 있어서, 상기 단말장치로부터 그래픽 및 텍스트를 포함하는 스크린샷을 수신하는 통신 인터페이스부, 상기 수신한 스크린샷에서 텍스트 부분의 텍스트를 벡터화하여 벡터 정보를 생성하고, 상기 텍스트 부분의 배경 컬러를 이용해 상기 텍스트 부분이 분할된 상기 스크린샷을 수정하며, 상기 생성한 벡터 정보, 상기 수정한 스크린샷 및 상기 텍스트 부분의 텍스트 컬러를 이용해 메타파일을 생성하는 이미지 생성부, 및 사용자의 요청에 따라 상기 생성한 메타파일을 인쇄하는 인쇄부를 포함할 수 있다.The image forming apparatus according to an embodiment of the present invention may further include a communication interface unit for receiving a screen shot including graphics and text from the terminal apparatus, Generating vector information by vectorizing text of a text portion in a screen shot, modifying the screen shot in which the text portion is divided using a background color of the text portion, and generating the generated vector information, An image generation unit that generates a metafile using a text color of a text portion, and a printing unit that prints the generated metafile according to a user's request.

상기 이미지 생성부는, 상기 스크린샷에서 상기 텍스트 부분을 분할하고, 상기 분할된 텍스트 부분을 상기 배경 컬러로 채워 상기 스크린샷을 수정할 수 있다.The image generation unit may modify the screen shot by dividing the text portion in the screen shot and filling the divided text portion with the background color.

상기 이미지 생성부는, 상기 텍스트 부분에서 상기 텍스트 및 상기 텍스트 이외의 배경에 대한 히스토그램을 분석해 상기 배경 컬러 및 상기 텍스트 컬러를 추정하고, 상기 스크린샷의 수정 및 상기 메타파일의 생성시 상기 추정한 배경 컬러 및 상기 텍스트 컬러를 이용할 수 있다.Wherein the image generation unit estimates the background color and the text color by analyzing a histogram of the text and a background other than the text in the text part, and corrects the screen shot and the estimated background color And the text color.

도 1은 본 발명의 실시예에 따른 스크린샷 변환방법과 종래의 방법을 비교하여 나타낸 도면,
도 2는 스크린샷의 메타파일로의 변환 방법을 나타내는 흐름도,
도 3은 스크린샷의 메타파일로의 변환 시스템을 나타내는 블록다이어그램,
도 4는 매끄러운 텍스트를 갖는 부분들의 검출 방법을 나타내는 도면,
도 5는 매끄러운 텍스트의 특징들에 대한 계산 과정을 설명하기 위한 도면,
도 6은 심볼들의 벡터화 과정을 나타내는 흐름도,
도 7은 심볼의 벡터화를 설명하기 위한 도면,
도 8은 분할된 텍스트의 맵 생성 과정을 나타내는 도면,
도 9는 본 발명의 실시예에 따른 스크린샷 변환의 결과를 나타내는 도면,
도 10은 본 발명의 실시예에 따른 이미지 변환 시스템을 나타내는 도면,
도 11은 도 10의 단말 장치의 세부 구조를 나타내는 블록다이어그램, 그리고
도 12는 도 10의 화상형성장치의 세부 구조를 나타내는 블록다이어그램이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram illustrating a comparison between a screen shot conversion method and a conventional method according to an embodiment of the present invention;
2 is a flowchart showing a method of converting a screen shot into a metafile,
3 is a block diagram illustrating a system for converting a screen shot into a metafile,
4 is a diagram illustrating a method of detecting portions having smooth text,
5 is a diagram for explaining a calculation process for smooth text features,
6 is a flowchart showing a vectorization process of symbols,
7 is a diagram for explaining vectorization of symbols,
8 is a diagram showing a process of generating a map of divided texts,
9 is a diagram showing a result of a screen shot conversion according to an embodiment of the present invention,
Figure 10 illustrates an image conversion system according to an embodiment of the present invention;
11 is a block diagram showing the detailed structure of the terminal device of Fig. 10, and Fig.
12 is a block diagram showing a detailed structure of the image forming apparatus of FIG.

이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 스크린샷 변환 방법을 종래의 방법과 비교하여 나타낸 도면이다.FIG. 1 is a diagram illustrating a screen shot conversion method according to an embodiment of the present invention in comparison with a conventional method.

스크린샷(혹은 캡쳐 이미지)(103)은 비디오 메모리를 매개로 디스플레이 화면에서 갭쳐되어 중간 버퍼에 복사(혹은 저장)된다. 그러한 복사의 결과는 래스터 이미지의 형태로서 현재 디스플레이에 가시화된 프레임을 나타낸다.The screen shot (or captured image) 103 is captured (or stored) in the intermediate buffer by the display screen via the video memory. The result of such copying is in the form of a raster image representing a frame that is currently visible on the display.

여기서, 디스플레이는 디지털 컴퓨팅 장치, 예컨대, PC(101), 랩탑, 스마트 폰(102), 태블릿 PC 등의 가시화 장치(unit of visualization)를 포함한다. 스크린샷의 특징은 스크린샷에 나타낸 텍스트 정보가 안티앨리어싱 기술에 의해 정상적으로 가시화된다는 것이다. 여기서, 안티앨리어싱 기술이란 객체들의 가장자리에서 래스터화에 의해 나타난 재그들(jags)을 제거해 심볼들의 경계를 시각적으로 매끄럽게 만들 목적으로 사용된 것을 의미한다. 이 경우, 이미지의 경계 픽셀과 인접한 픽셀들은 그 경계를 시각적으로 흐릿하게 하기 위해 이미지 컬러와 배경 컬러 사이의 중간값을 갖게 된다.Here, the display includes a unit of visualization of a digital computing device, such as a PC 101, a laptop, a smartphone 102, a tablet PC, and the like. The feature of the screenshot is that the textual information shown in the screenshot is normally visualized by the anti-aliasing technique. Here, the anti-aliasing technique is used to remove the jags indicated by the rasterization at the edges of objects to visually smooth the boundaries of the symbols. In this case, pixels adjacent to the boundary pixels of the image will have an intermediate value between the image color and the background color to visually blur the boundary.

디스플레이 상에서 텍스트를 가시화하기 위해 사용된 안티앨리어싱 기술은 디스플레이된 심볼들의 크기 및 표시 해상도(representation resolution)에 직접적으로 의존하고 있으므로, 심볼들의 화소 표시는 스케일 증가/감소로 재구성된다. 게다가, 유사 안티앨리어싱은 텍스트 프린팅에 사용된 비슷한 기술들과 본질적으로 다르다. 래스터 이미지 형태의 스크린샷은 어떤 파일/포맷(104)으로 저장되는데, 이에 따라 표시 또는 프린팅에 안티앨리어싱 기술을 적용하는 것은 정확히 불가능하게 된다. 다시 말해 안티앨러싱 기술을 적용하게 되면 텍스트의 외견에 시각적으로 원치 않는 왜곡이 발생한다. 이에 따라 기존의 접근 방법은 다음과 같은 결점을 갖는다고 볼 수 있다.The anti-aliasing technique used to visualize the text on the display is directly dependent on the size of the displayed symbols and the representation resolution, so that the pixel representation of the symbols is reconstructed with scale up / down. In addition, pseudo-anti-aliasing is fundamentally different from similar techniques used for text printing. Screenshots in the form of raster images are stored in certain files / formats 104, making it impossible to apply anti-aliasing techniques to display or print. In other words, applying anti-aliasing techniques causes visual unwanted distortions in the text's appearance. Therefore, the existing approach has the following drawbacks.

스크린샷이 래스터 이미지 형태의 파일로 저장될 때, 파일 크기를 무시하고 심볼 윤곽의 표시를 스케일링하거나 매끄럽게 하기 때문에 디스플레이 상에 텍스트 정보가 정상적으로 표시되지 않게 된다. 즉 텍스트의 래스터 이미지의 스케일링은 들쑥날쑥한(jagged) 가장자리 및 경계가 흐릿한 형태의 혼란 변수가 생기게 된다.When a screen shot is saved as a file in the form of a raster image, text information is not normally displayed on the display because the file size is ignored and the display of the symbol outline is scaled or smoothed. That is, the scaling of the raster image of the text results in chaotic parameters of jagged edges and fuzzy boundaries.

또한 디스플레이 상에서 가시화된 텍스트에 해당되는 심볼들의 안티앨리어싱의 부정적 효과가 나타난다. 특히 프린팅이나 가시화 재스케일링시 원 컬러 및 심볼들의 형태에 왜곡이 발생한다.There is also a negative effect of anti-aliasing of the symbols corresponding to the text visualized on the display. In particular, distortion in the shape of the original color and symbols occurs during printing or visualization re-scaling.

본 발명의 실시예에 따른 이미지 처리 방법(105)은 텍스트 및 텍스트 아닌 영역으로 스크린샷 분할(혹은 세분화) 및 텍스트 영역의 벡터화에 근거하고 있다. 이러한 접근 방법은 텍스트 정보의 품질을 손상하지 않으면서 수정된 스케일로 메타파일을 디스플레이하고 프린팅하는 것을 가능하게 한다. 여기서, 메타파일이란 이미지를 벡터 형식으로 정의한 파일을 의미한다. 즉 메타파일은 선과 면을 벡터 좌표로 정의한다. 이로 인해 확대 및 축소가 있어도 이미지가 깨지지 않게 된다.The image processing method 105 according to the embodiment of the present invention is based on a screen shot division (or subdivision) into a text and a non-text area and a vectorization of a text area. This approach makes it possible to display and print metafiles on a modified scale without compromising the quality of the text information. Here, the meta file means a file in which an image is defined in a vector format. In other words, the metafile defines the line and plane as vector coordinates. This makes the image unbreakable even when zoomed in or out.

도 2는 스크린샷의 메타파일로의 변환 과정을 나타내는 흐름도이다.2 is a flowchart showing a process of converting a screen shot into a metafile.

가령, 본 발명의 실시예에 따른 이미지 처리 장치는 도 2에 도시된 바와 같이 스크린샷을 메타파일로 변환하는 과정을 수행할 수 있을 것이다.For example, the image processing apparatus according to the embodiment of the present invention may perform a process of converting a screen shot into a metafile as shown in FIG.

본 발명의 실시예에 따른 이미지 처리 장치는 먼저 스크린샷에서 텍스트 부분들을 분할(혹은 검출)하고, 분할한 텍스트 부분들에 대한 맵을 생성한다(S201). 본 발명의 실시예에서 가정한(given) 텍스트 부분들은 하나 또는 여러 개의 문자에 상응하는 일련의 심볼들(a sequence of symbols)과 주변 배경의 일부를 포함하고, 맵은 동일 크기의 래스터 이미지이며, 텍스트 영역에 관련되든 관련되지 않든 각 픽셀은 인코딩된 초기 스크린샷이다.The image processing apparatus according to the embodiment of the present invention first divides (or detects) text portions in a screen shot, and generates a map for the divided text portions (S201). In an embodiment of the present invention, given text portions include a sequence of symbols corresponding to one or several characters and a portion of the surrounding background, the map is a raster image of the same size, Each pixel is an encoded initial screen shot, whether related to the text area or not.

이어 이미지 처리 장치는 구체화된 텍스트 부분의 심볼들과 배경의 컬러를 추정(혹은 평가)한다(S202). 본 발명의 실시예에서, 스크린샷은 컬러 공간 RGB로 나타내며, 따라서 각 픽셀은 R, G 및 어두운 B 컬러의 3가지 컬러 성분에 의해 표현된다. 3가지 컬러 성분들에 대한 각각의 추정은 이러한 성분들의 히스토그램들에 의해 분리해서 이루어진다. 가장 큰 값(총 값)을 갖는 히스토그램의 최우측 또는 최좌측 칼럼(칼럼들의 그룹)은 심볼의 컬러에 반대되는 배경 컬러에 상응한다.The image processing apparatus then estimates (or evaluates) the symbols of the embodied text portion and the background color (S202). In an embodiment of the present invention, the screen shots are represented by color space RGB, so that each pixel is represented by three color components of R, G, and dark B color. Each estimate of the three color components is separated by histograms of these components. The rightmost or leftmost column (group of columns) of the histogram with the largest value (total value) corresponds to the background color opposite to the color of the symbol.

또한 이미지 처리 장치는 텍스트의 벡터화를 수행한다(S203). 텍스트의 맵에서 심볼들의 윤곽 벡터화는 직선 및 곡선들로 이루어진 일련의 세분화 부분들(segments)로 변환하는 것에 의해 이루어진다. 이에 관련된 과정은 도 6 및 도 7을 참조하여 이후에 좀더 살펴보도록 한다.Further, the image processing apparatus performs vectorization of text (S203). Contour vectorization of symbols in a map of text is accomplished by transforming into a series of segmentation segments of straight lines and curves. A related process will be described later with reference to FIGS. 6 and 7. FIG.

이미지 처리 장치는 스크린샷 상의 텍스트를 수정한다(S204). 스크린샷은 분할된 텍스트 영역들을 적절한 배경 컬러로 채우는 것에 의해 수정된다. 배경은 복잡하기 때문에, 텍스트 영역을 채우기 위해 더 완벽한 방법이 사용될 수 있다. 예를 들어, <<inpainting>> technique, i.e. painting (Bertalmio M., Sapiro G., V., Ballester C. Image inpainting//In Proc. ACM Conf. Comp. Graphics (SIGGRAPH), pages 417-424, 2000)에 기술된 방법이 적합할 수 있다.The image processing apparatus modifies the text on the screen shot (S204). The screenshot is modified by populating the split text areas with the appropriate background color. Because the background is complex, a more complete method can be used to fill the text area. For example, &quot; inpainting &quot; technique, i.e. (Bertalmio M., Sapiro G., V., Ballester C. Image inpainting // In Proc. ACM Conf. Comp. Graphics (SIGGRAPH), pages 417-424, 2000).

이후, 이미지 처리 장치는 메타파일을 생성한다(S205). 메타파일은 상세한(혹은 특정) 순서로 저장된 메타파일의 적절한 기록들에 기원(혹은 근거)하여 생성된다. 여기서 기록들은 벡터 정보, 좌표값 등을 포함할 수 있다. 메타파일은 PDF(Portable Document Format), XPS(X-ray Photoelectron Spectroscopy), PS 및 EMF(Enhanced Metafile) 등의 포맷으로 나타낼 수 있다.Thereafter, the image processing apparatus generates a meta file (S205). A metafile is created (or based on) the appropriate records of a metafile stored in a detailed (or specific) order. The records may include vector information, coordinate values, and the like. Metafiles can be represented in Portable Document Format (PDF), X-ray Photoelectron Spectroscopy (XPS), PS and Enhanced Metafile (EMF) formats.

스크린샷의 수정 이미지는 래스터 이미지로서 메타파일 내에 저장된다. 심볼들은 벡터 뷰(vector view) 내에 저장되는데, 여기서 벡터 뷰는 직선 및 곡선들로 이루어진 폐쇄된(혹은 닫힌) 일련의 근사화한 세분화 부분들에 대한 파라미터들과, 채워진 컬러에 대한 정보를 판단하는 메타파일의 적정 그래픽 명령들에 의한 것이다. 메타파일의 크기를 최적화하기 위하여, 손실 없는 압축 알고리즘이 메타파일의 벡터를 기록하는 데에 적용될 수 있으며, 손실 있는 또는 손실 없는 압축 알고리즘이 래스터 이미지들에 적용될 수 있다. 본 발명의 실시예에 따른 이미지 처리 방법은 시각 정보의 각 유형이 최적의 방식으로 저장될 때, 뷰 포인트 <<visual quality/size>>에서 메타파일을 효과적으로 저장하게 된다. 나아가 본 발명의 실시예에 따른 이미지 처리 방법은 확장된 스케일에서 프린팅 또는 가시화할 때, 스크린샷에서 매끄러운 텍스트가 왜곡되는 것을 방지하도록 한다. 이것은 스크린샷의 매끄러운 심볼들이 벡터 및 그와 유사한 것들(vector analogues)로 대체되기 때문에 가능하게 되는 것이다.The modified image of the screenshot is stored in the metafile as a raster image. The symbols are stored in a vector view, where the vector view includes parameters for a series of closed (or closed) subdivision segments of straight lines and curves, and a meta It is by appropriate graphic commands of the file. In order to optimize the size of the metafile, a lossless compression algorithm can be applied to record the vector of the metafile and a lossy or lossless compression algorithm can be applied to the raster images. The image processing method according to the embodiment of the present invention effectively stores the metafile at the view point &quot; visual quality / size &quot; when each type of visual information is stored in an optimal manner. Further, the image processing method according to the embodiment of the present invention prevents smooth text from being distorted in the screen shot when printing or visualizing on an extended scale. This is possible because the smooth symbols in the screenshot are replaced by vectors and the like.

도 3은 스크린샷의 메타파일로의 변환 시스템을 나타내는 블록다이어그램이고, 도 4는 매끄러운 텍스트를 갖는 부분들의 검출 과정을 나타내는 도면이며, 도 5는 매끄러운 텍스트의 특성들에 대한 계산 과정을 설명하기 위한 도면이다.FIG. 3 is a block diagram illustrating a system for converting a screen shot into a metafile, FIG. 4 is a diagram illustrating a process of detecting portions having smooth text, and FIG. 5 is a flowchart illustrating a process of calculating a smooth text FIG.

여기서, 변환 시스템이란 본 발명의 이미지 처리 장치에 해당될 수 있다. 또한 본 발명의 실시예에 따른 이미지 처리 장치는 독립적인 장치로서 구성될 뿐 아니라, 랩탑 및 스마트폰 등의 영상표시장치에 포함되어 구성될 수 있다.Here, the conversion system may correspond to the image processing apparatus of the present invention. In addition, the image processing apparatus according to an embodiment of the present invention may be configured not only as an independent apparatus but also as an image display apparatus such as a laptop and a smart phone.

도 3을 참조하면, 본 발명의 실시예에 따른 이미지 처리 장치(300)는 분할부(301), 컬러 평가부(302), 텍스트 리터칭부(303), 벡터화부(304) 및 메타파일 생성부(305)의 일부 또는 전부를 포함한다.3, an image processing apparatus 300 according to an exemplary embodiment of the present invention includes a division unit 301, a color evaluation unit 302, a text retouching unit 303, a vectorization unit 304, (305). &Lt; / RTI &gt;

여기서, 분할부(301)는 검출부 또는 세분화부 등으로 명명될 수 있으며, 일부 또는 전부를 포함한다는 것은 분할부(301)와 같은 일부 구성요소가 생략되거나, 텍스트 리터칭부(303)와 같은 일부 구성요소가 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명하고자 한다.Here, the dividing unit 301 may be called a detecting unit or a dividing unit, and the part or all of the dividing unit 301 may include some components such as the dividing unit 301 may be omitted or some components such as the text retaking unit 303 may be omitted It is to be understood that the elements may be incorporated into other elements and the like, and that they are all included in order to facilitate a sufficient understanding of the invention.

분할부(301)는 텍스트를 분할하고, 분할한 텍스트를 라벨링한 맵(labeled map)을 생성하며, 텍스트를 포함하는 부분들의 좌표들을 결정한다. 스크린샷의 초기 래스터 이미지는 분할부(301)로 입력된다. 분할된 텍스트의 맵은 텍스트 리터칭부(303) 및 벡터화부(304)로 전송되고, 텍스트 부분들의 좌표들, 혹은 그에 대한 정보는 컬러 평가부(302)로 전송된다.The division unit 301 divides the text, generates a labeled map of the divided text, and determines the coordinates of the portions including the text. The initial raster image of the screen shot is input to the division unit 301. [ The map of the divided text is sent to the text retouching unit 303 and the vectorizing unit 304, and the coordinates of the text parts, or information thereon, is transmitted to the color evaluating unit 302. [

컬러 평가부(302)는 각 부분의 배경 컬러 및 텍스트의 컬러를 결정한다. 물론 텍스트 부분들의 좌표 및 초기 스크린샷은 컬러 평가부(302)로 입력된다. 배경 컬러에 대한 정보는 텍스트 리터칭부(303)로 전송되고, 텍스트 컬러 정보는 메타파일 생성부(305)로 전송된다.The color evaluation unit 302 determines the background color of each part and the color of the text. Of course, the coordinates of the text portions and the initial screen shot are input to the color evaluation unit 302. [ The information on the background color is transmitted to the text retouching unit 303, and the text color information is transmitted to the metafile generating unit 305.

벡터화부(304)는 폐쇄된 일련의 직선 및 곡선들의 세분화 부분들로, 세분화된 텍스트의 맵 상에서 심볼들의 윤곽을 근사화하는 근사화 동작을 수행한다.The vectorization unit 304 performs an approximation operation that approximates the outline of symbols on the map of the subdivided text, with the subdivided portions of the closed series of straight lines and curves.

분할부(301)로부터의 맵이 텍스트 리터칭부(303) 및 벡터화부(304)로 입력된다. 텍스트 부분들의 좌표들, 직선 및 곡선들로 이루어진 일련의 세분화 부분들은 메타파일 생성부(305)로 전송된다. The map from the division unit 301 is input to the text retouching unit 303 and the vectorizing unit 304. [ A series of refinement parts consisting of the coordinates of the text parts, straight lines and curves are transmitted to the metafile generating part 305.

텍스트 리터칭부(303)는 적절한 배경 컬러로 텍스트가 있는 부분들의 영역을 색칠하는 것에 의해 스크린샷의 초기 래스터 이미지를 수정한다. 이를 위해 각 텍스트 부분의 배경 컬러에 대한 정보는 텍스트 리터칭부(303)에 입력된다. 수정된 스크린샷은 메타파일 생성부(305)에 전송되는데, 여기서 메타파일 생성부(305)는 수정된 스크린샷, 적절한 심볼 컬러로 채워진 직선 및 곡선들로 이루어진 폐쇄된 일련의 세분화 부분들과 같은 기록들에 기원해 메타파일을 생성하게 된다.The text retouching unit 303 modifies the initial raster image of the screen shot by coloring the area of the text with the appropriate background color. To this end, information on the background color of each text portion is input to the text retouching unit 303. The modified screen shot is transmitted to the metafile generation unit 305 where the metafile generation unit 305 generates a modified screen shot, such as a closed series of refinement portions of straight lines and curves filled with the appropriate symbol color The metafile is generated based on the records.

위에 기술한 변환 시스템의 모든 구성요소들, 즉 분할부(301), 컬러 평가부(302), 텍스트 리터칭부(303), 벡터화부(304) 및 메타파일 생성부(305)는 SoC, FPGA 또는 ASIC의 형태로 실행될 수 있다. 각 구성요소의 기능은 위의 상세설명 및 기존 방법들에 대한 설명으로부터 충분히 이해될 수 있을 것이다. 그러나, 컴퓨팅 시스템은 별도로 도시하지는 않았지만, 추가적인 특징을 가질 수도 있을 것이다.All of the components of the conversion system described above, that is, the division unit 301, the color evaluation unit 302, the text retouching unit 303, the vectorizing unit 304, and the metafile generating unit 305, It can be executed in the form of ASIC. The function of each component can be fully understood from the description of the above description and the existing methods. However, the computing system may have additional features, although not separately shown.

텍스트 검출을 위하여 2가지 접근 방법이 가능할 수 있다. 첫 번째 방법은 더 빠른 방법으로, 디스플레이들에 전형적인 매끄러운 텍스트 검출 방법이다. 두 번째는 더 흔한 방법으로, 매끄러운 텍스트와 안티앨리어싱 없는 텍스트를 둘 다 검출하기에 적합한 방법이다. 텍스트 부분들의 검출에 관련한 첫째 방법은 다음과 같은 단계를 포함한다.Two approaches for text detection may be possible. The first method is a smoother text detection method typical of displays, in a faster way. The second is a more common way to detect both smooth text and non-anti-aliased text. The first method related to the detection of text portions includes the following steps.

- 수평방향에서 큰 도함수(derivative)의 인접 픽셀들을 검출- Detect adjacent pixels of a large derivative in the horizontal direction

- 부분들에서의 인접 픽셀들을 조합- combining adjacent pixels in parts

- 매끄러운 텍스트를 검출하기 위해 부분들의 히스토그램 분석- Histogram analysis of parts to detect smooth text

- 매끄러운 텍스트의 특성을 갖는 부분들을 선택- Select the parts with the characteristic of smooth text

도 4는 세부(subsequent) 분석을 위해 스크린샷에서의 매끄러운 텍스트 부분들의 검출에 대한 첫 번째 접근 방법을 나타내고 있다. 도 4를 참조하면, 스크린샷 중 하나의 작은 부분(401)이 수평 그라디언트의 검출 결과를 보여준다. 계산된 수평 그라디언트(

Figure 112014002773974-pat00001
)(403)의 일반적 의미는 어떤 지점(point)의 픽셀이 인접 픽셀들보다 밝고 어두운 정도(혹은 밝고 /어두운 인접 픽셀들)인 양(
Figure 112014002773974-pat00002
) 및 음(
Figure 112014002773974-pat00003
) 그라디언트들(gradients)의 결합이다. 이를 수식으로 나타내면 <수학식 1>과 같다.Figure 4 illustrates a first approach to the detection of smooth text portions in a screen shot for subsequent analysis. Referring to FIG. 4, a small portion 401 of one of the screen shots shows the detection result of the horizontal gradient. Calculated Horizontal Gradient (
Figure 112014002773974-pat00001
) 403 generally means that a pixel at a point is less bright and dark (or bright / dark adjacent pixels) than neighboring pixels
Figure 112014002773974-pat00002
) And negative
Figure 112014002773974-pat00003
) &Lt; / RTI > gradients. This can be expressed by Equation (1).

Figure 112014002773974-pat00004
Figure 112014002773974-pat00004

Figure 112014002773974-pat00005
Figure 112014002773974-pat00005

Figure 112014002773974-pat00006
Figure 112014002773974-pat00006

여기서, Ii,j는 포인트 i,j에서 이미지 명암, △는 현 임계치(threshold)를 나타낸다.Where Ii, j is the image contrast at point i, j, and Δ is the current threshold.

이진 이미지(402)는 그라디언트의 검출 결과인데, 제로 아닌 요소들은 그라디언트의 존재를 보여준다. 수평 구조 요소(403)를 갖는 확장(혹은 다일러테이션(dilatation)) 절차는 이진 이미지(402)상에서 인접 요소들의 연결이 취약하기 때문에 수행된다. 이때 수평 구조 요소(403)는 지배적인 박스를 결정하는 방법에 의해 이루어질 수도 있을 것이다. 여기서, 지배적이란 임의의 박스에 대하여 기설정된 방식에 따라 연계 박스를 선택하는 것으로 이해될 수 있을 것이다. 분리된 부분들(404)은 제로 아닌 연계 픽셀들의 맨 끝점들을 선택하여 결정된다. The binary image 402 is the result of the detection of the gradient, where non-zero elements show the presence of a gradient. An extension (or dilatation) procedure with the horizontal structural element 403 is performed because the connection of adjacent elements is weak on the binary image 402. [ At this time, the horizontal structural element 403 may be made by a method of determining a dominant box. Here, it is to be understood that the dominant means selecting the association box according to a predetermined method for any box. The separated portions 404 are determined by selecting the endpoints of non-zero associated pixels.

나아가, 매끄러운 텍스트의 특성 검출 및 심볼들을 포함한 부분들의 선택을 위해 각 선택된 부분의 히스토그램을 분석하게 된다.Further, the histogram of each selected portion is analyzed for smooth character detection of text and selection of portions including symbols.

도 5는 매끄러운 텍스트의 특성들 즉 히스토그램의 제로 아닌 b+ 칼럼 및 제로인 bo 칼럼 수를 검출하기 위해 컬러 공간 RGB의 모든 세 가지 컬러 성분(적, 녹, 어두운 청)에 대한 히스토그램 분석을 보여주고 있다.FIG. 5 shows a histogram analysis of all three color components (red, green, and dark blue) of the color space RGB to detect the characteristics of smooth text, i.e., the non-zero b + column of the histogram and the number of bo columns of zero.

텍스트 아닌(non-text) 데이터를 포함하는 부분(504)의 히스토그램은 도 5의 (a)에서와 같이 컬러의 각 성분이 완전히 급격한 분포(501~503)를 띤다. 매끄러운 텍스트를 포함하는 부분(508)의 히스토그램은 도 5의 (b)에서와 같이 배경 및 텍스트의 컬러 사이에 균일하게 분포(505~507)된 여러 개의 b+(예를 들어, MS Clear Type의 기술을 위하여 b+=7이라는 것을 실험적으로 얻을 수 있다) 비제로 칼럼들만으로 구성된다. 도 5의 (c)를 참조하면, 본 발명의 실시예에서, 만약 bo가 6보다 크면 해당 부분은 텍스트로 분류되고, 그렇지 않으면 텍스트가 아닌 것, 가령 이미지(혹은 그림)로 분류된다(509).The histogram of the portion 504 including the non-text data has a completely abrupt distribution 501 to 503 of each component of the color as shown in FIG. 5 (a). The histogram of the portion 508 including the smooth text is composed of a plurality of b + values uniformly distributed (505 to 507) between the background and the color of the text as shown in (b) of FIG. 5 (B + = 7 for experiments). It consists of non-zero columns only. Referring to FIG. 5C, in an embodiment of the present invention, if bo is greater than 6, the portion is classified as text, otherwise classified as an image (e.g., an image) (509) .

텍스트를 갖는 부분들의 검출을 위한 두 번째 접근 방법은 다음의 단계들을 포함한다.A second approach for detecting portions with text includes the following steps.

- 이미지를 중첩되는 사각 블록들로 구분- Separate images into overlapping rectangular blocks.

- 각 블록의 특성들을 계산- Calculate the characteristics of each block

- 각 블록을 분류- Classify each block

- 텍스트 부분들에서 인접 블록들을 조합(혹은 결합)Combine (or combine) adjacent blocks in text parts,

본 발명의 바람직한 실시예에 따르면, 블록 사이즈는 7×7 또는 9×9 픽셀들을 갖는다. 블록들의 중첩은 1, 2 또는 3 픽셀이 된다. 각 블록은 다음의 특성들이 계산된다.According to a preferred embodiment of the present invention, the block size has 7x7 or 9x9 pixels. The overlap of the blocks is 1, 2 or 3 pixels. Each block has the following characteristics.

- 각 채널에서 히스토그램이 제로가 아닌 칼럼들 b+ 및 제로 칼럼들 bo의 수- the number of columns b + and zero columns bo with non-zero histograms in each channel

- 블록의 평균 명암(luminance):

Figure 112014002773974-pat00007
, 여기서, Ii(r,c)는 라인 r과 칼럼 c에서 픽셀의 명암(luminance), N은 블록의 픽셀들의 수를 나타낸다.- average luminance of the block:
Figure 112014002773974-pat00007
, Where Ii (r, c) is the luminance of the pixel in line r and column c, and N is the number of pixels in the block.

- 블록의 평균 명암의 평균 차- the average difference of the average contrast of the blocks

- 블록 Ii와 4 방향(in quadryply)에서 연결되어 인접한 블록들 Ik의 평균 명암의 평균 차이:

Figure 112014002773974-pat00008
- Mean difference of average contrast of adjacent blocks Ik connected in 4 directions (in quadryply) with block Ii:
Figure 112014002773974-pat00008

- 블록들에 의한 수직

Figure 112014002773974-pat00009
와 수평
Figure 112014002773974-pat00010
도함수(derivatives)들의 평균값:
Figure 112014002773974-pat00011
- vertical by blocks
Figure 112014002773974-pat00009
And horizontal
Figure 112014002773974-pat00010
Mean value of derivatives:
Figure 112014002773974-pat00011

- 블록의 균일성:

Figure 112014002773974-pat00012
, 여기서 Nd는 정규화된 접근 행렬(normalized access matrix), d는 공간 접속을 결정한다.- Block uniformity:
Figure 112014002773974-pat00012
, Where Nd is the normalized access matrix and d is the spatial connection.

- 임계치보다 큰 그라디언트를 갖는 픽셀들의 퍼센트:

Figure 112014002773974-pat00013
, 여기서
Figure 112014002773974-pat00014
는 제곱된 수평 또는 수직 도함수들의 합의 제곱 루트로 계산된다.- Percent of pixels with a gradient greater than the threshold:
Figure 112014002773974-pat00013
, here
Figure 112014002773974-pat00014
Is calculated as the root of the sum of the squared horizontal or vertical derivatives.

- 임계치 128로 이진화해서 얻어진 이진 이미지

Figure 112014002773974-pat00015
에 형태학적 개방(morphological opening) 동작을 적용한 결과로서 얻어진 이미지
Figure 112014002773974-pat00016
에서 픽셀들의 명암 변화 퍼센트;
Figure 112014002773974-pat00017
- Binary image obtained by binarizing to threshold 128
Figure 112014002773974-pat00015
The image obtained as a result of applying a morphological opening operation to the image
Figure 112014002773974-pat00016
The percentage change in the contrast of pixels in pixels;
Figure 112014002773974-pat00017

두 개의 부분 집합 즉 텍스트와 그림(혹은 그래픽)의 분류를 위하여 위에 열거된 특성들에 다음의 방법들 중 하나가 사용될 수 있다.One of the following methods may be used for the properties listed above for the classification of two subsets: text and pictures (or graphics).

boosting of committee of random forest (Yoav Freund and Robert E. Schapire. 1997. A decision-theoretic generalisation of on-line learning and an application to boosting. J. Comput. Syst. Sci. 55, 1 (August 1997), 119-139.),(1997) A decision-theoretic generalization of on-line learning and an application to boosting, J. Comput. Syst. Sci. 55, 1 (August 1997), 119 -139.),

random forest (Leo Breiman. 2001. Random Forests. Mach. Learn. 45, 1 (October 2001), 5-32.),random forest (Leo Breiman, 2001. Random Forests, Mach., 45, 1 (October 2001), 5-32.),

machine of reference vectors (Corinna Cortes and Vladimir Vapnik. 1995. Support-Vector Networks. Mach. Learn. 20, 3 (September 1995), 273-297.),Machine of reference vectors (Corinna Cortes and Vladimir Vapnik, 1995. Support-Vector Networks, Mach., 20, 3 (September 1995), 273-297)

method of K-nearest neighbors (D. Coomans, D.L. Massart, Alternative k-nearest neighbour rules in supervised pattern recognition: Part 1. k-Nearest neighbour classification by using alternative voting rules, Analytica Chimica Acta, Volume 136, 1982, Pages 15-27).method of K-nearest neighbors (D. Coomans, DL Massart, Alternative k-nearest neighbor rules in supervised pattern recognition: Part 1. k- Nearest neighbor classification by using alternative voting rules, Analytica Chimica Acta, Volume 136, 1982, Pages 15 -27).

도 6은 심볼들의 벡터화 과정을 나타내는 흐름도이고, 도 7은 심볼의 벡터화를 설명하기 위해 도식화하여 나타낸 도면이며, 도 8은 분할된 텍스트의 맵 생성 과정을 나타내는 도면이다.FIG. 6 is a flowchart illustrating vectorization of symbols, FIG. 7 is a diagram illustrating vectorization of symbols, and FIG. 8 is a diagram illustrating a process of generating a divided text map.

도 6 내지 도 8은 실제로, 도 2의 S203 단계의 세부 과정으로 이해될 수 있을 것이다. 이와 같은 동작은 이미지 처리 장치의 동작에 해당될 수 있지만, 도 3의 벡터화부(304)의 동작에 해당될 수 있다. 또한 이들은 독립된 장치로서 동작할 수도 있을 것이다.6 to 8 can be actually understood as a detailed process of the step S203 of FIG. Such an operation may correspond to the operation of the image processing apparatus, but may correspond to the operation of the vectorization unit 304 of FIG. They may also operate as separate devices.

먼저, 스크린샷에서 텍스트를 포함하는 부분들을 검출한 후에, 컬러 부분들은 하프톤 이미지들로 변환(S601)하고, 계수 k만큼 증가시킨다.First, after detecting the portions including the text in the screen shot, the color portions are converted into halftone images (S601) and increased by a coefficient k.

본 발명의 바람직한 실시예에 따르면, 스크린샷에서 심볼의 초기 해상도가 낮으면, 2중 선형 보간법(bilinear interpolation)이 적용된다(S602). 예를 들어, 스크린 해상도 1920×80 픽셀들에서, 100% 스케일을 가정하면 12번째 사이즈의 Times New Roman 글씨체의 라인 심볼의 높이는 7~8 픽셀이 된다. 게다가 강화된 해상도의 하프톤 부분들은 이진화될 수 있다(S603).According to a preferred embodiment of the present invention, if the initial resolution of the symbol in the screen shot is low, bilinear interpolation is applied (S602). For example, assuming a screen scale of 1920 x 80 pixels, assuming a 100% scale, the height of the line symbol of the 12th sized Times New Roman font is 7 to 8 pixels. In addition, halftone portions of enhanced resolution may be binarized (S603).

본 발명의 실시예에 따라 바람직하게는 오수(Otsu)의 방법이 부분들의 임계치를 판단하기 위해 사용될 수 있다(N.Otsu, "A threshold selection method from grey level histogram", IEEE Transactions on System Man Cybernetics, vol. 9 no. 1, 1979, pp. 62-66.). 모든 이진화된 부분들은 세분화된 텍스트의 맵 생성을 위하여 스크린샷의 좌표들에 따라서 결합된다. 본 발명의 실시예에서는 계수 k로서 3이 사용될 수 있다.According to an embodiment of the present invention, preferably the method of Otsu can be used to determine the threshold of parts (N. Otsu, " A threshold selection method from gray level histogram ", IEEE Transactions on System Man Cybernetics, vol 9 no 1, 1979, pp. 62-66.). All of the binarized parts are combined according to the coordinates of the screen shot for map generation of the refined text. In the embodiment of the present invention, 3 may be used as the coefficient k.

또한 각 텍스트 부분의 내·외부 윤곽들은 해당 부분의 윤곽들에 대한 궤적(trajectory)을 얻기 위해 추적된다(S604). S604 단계에서, 윤곽은 하나의 픽셀과 같은 최소 길이의 선형 부분들로 연결된 폐쇄된 일련의 점들(혹은 상측들)을 나타낸다. 추적 절차는 기설정된 방향으로 윤곽을 따라 초기 상측에서 시작하지만, 초기 상측으로 다시 이르지 않게 될 것이다.The inner and outer contours of each text portion are also traced to obtain a trajectory for the contours of that portion (S604). In step S604, the contour represents a closed series of dots (or tops) connected by linear portions of minimum length, such as one pixel. The tracking procedure starts from the initial upper side along the contour in the predetermined direction, but will not return to the initial upper side.

이어, 상측들의 수는 폴리곤(polygon)에 의한 윤곽 궤적의 근사로 인해 감소된다(S605). 가령 윤곽에서 꼭지점들(vertexes)의 수가 감소된다. 폴리곤은 직선 및 곡선들로 이루어진 폐쇄된 일련의 세분화 부분들에 의한 근사화로 인해 S606 단계에서 매끄러운 윤곽으로 변환된다. 규빅 베지어(Cubic Bezier) 곡선들은 본 발명의 실시예에서 선호될 수 있다(Piegl, L. Fundamental Developments of Computer Aided Geometric Design. San Diego, CA: Academic Press, 1993). 일반적으로, 선형 세분화(혹은 부분들)에 의한 근사는 부분들에 대한 끝들의 좌표 판단에 근거한다. 굽은 부분들에 의한 근사는 부분들의 끝과 적절한 기준(혹은 참조) 점들의 판단을 요구한다. 예를 들어, 도 7을 참조하면, 다항식(polynomials)의 가장자리들(701-706) 사이의 각(703)은 점 702 및 704에 의한 제한된 큐빅 베지어 곡선 705에 의해 근사화될 수 있다. 심볼 707의 근사 예는 708에 나타내어진다.Then, the number of the upper sides is reduced due to the approximation of the contour trajectory by the polygon (S605). For example, the number of vertices in the contour is reduced. The polygon is transformed into a smooth outline in step S606 due to the approximation by a series of closed subdivisions of straight lines and curves. Cubic Bezier curves may be preferred in embodiments of the present invention (Piegl, L. Fundamental Developments of Computer Aided Geometric Design, San Diego, CA: Academic Press, 1993). In general, the approximation by linear segmentation (or parts) is based on the coordinate determination of the ends for the parts. The approximation by curved parts requires the determination of the end of the parts and appropriate reference (or reference) points. 7, an angle 703 between the edges 701-706 of the polynomials may be approximated by a constrained cubic Bezier curve 705 by points 702 and 704. For example, An approximate example of symbol 707 is shown at 708.

도 2의 S201, S203 및 S204에 따라 초기 래스터 뷰에서 벡터 뷰까지 스크린샷의 텍스트 변환은 도 8에 나타내어진다. 매끄러운 텍스트 부분(S801)은 해상도의 개선이 증가되고(S802), 이진 이미지로 변환된다(S803). 벡터화된 결과 부분은 S804에 나타내어진다.The text conversion of the screen shot from the initial raster view to the vector view according to S201, S203, and S204 in Fig. 2 is shown in Fig. The smooth text portion S801 is increased in resolution (S802) and converted into a binary image (S803). The vectorized result portion is shown in S804.

도 9는 본 발명의 실시예에 따른 스크린샷 변환 결과를 나타내는 도면이다.FIG. 9 is a diagram showing a screen shot conversion result according to an embodiment of the present invention.

도 9의 (a)는 초기 스크린 샷에 해당되고, 도 9의 (b)는 프린트된 스크린샷 부분이다. 또한 도 9의 (c)는 2중 보간법에 의해 강화된 해상도의 스크린샷을 프린트해서 얻어진 것이고, 도 9의 (d)는 본 발명의 실시예에 의해 처리된 후의 프린트된 스크린샷 부분을 나타낸다.9 (a) corresponds to the initial screen shot, and FIG. 9 (b) corresponds to the printed screen shot portion. 9 (c) is obtained by printing a screen shot of the resolution enhanced by the double interpolation method, and FIG. 9 (d) shows the printed screen shot portion after being processed by the embodiment of the present invention.

도 10은 본 발명의 실시예에 따른 이미지 변환 시스템을 나타내는 도면이다.10 is a diagram showing an image conversion system according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 본 발명의 실시예에 따른 이미지 변환 시스템(990)은 단말장치(1000) 및 화상형성장치(1100)의 일부 또는 전부를 포함할 수 있다.10, the image conversion system 990 according to the embodiment of the present invention may include some or all of the terminal apparatus 1000 and the image forming apparatus 1100. [

여기서, 일부 또는 전부를 포함한다는 것은 화상형성장치(1100)와 같은 일부 구성요소가 생략될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, to include some or all of them means that some components such as the image forming apparatus 1100 may be omitted, and the like will be described as including all in order to facilitate a sufficient understanding of the invention.

단말장치(1000)는 데스크탑 및 랩탑 컴퓨터, 그리고 휴대폰 등을 포함할 수 있다. 여기서, 단말장치(1000)는 디스플레이에 표시되는 영상을 캡쳐하여 캡쳐한 영상, 즉 스크린샷을 내부에서 메타파일로 변환하여 저장할 수 있다. 그리고, 저장한 메타파일을 사용자의 요청에 따라 불러내어 화상형성장치(1100)에서 출력할 수 있다. 따라서, 화상형성장치(1100)로 전송된 데이터는 메타파일 관련 데이터인 것이 바람직하다.The terminal apparatus 1000 may include a desktop and a laptop computer, a mobile phone, and the like. Here, the terminal device 1000 can capture an image displayed on the display and convert the captured image, i.e., a screen shot, from the inside into a metafile, and store the converted image. Then, the stored metafile can be called up at the request of the user and output from the image forming apparatus 1100. Therefore, the data transmitted to the image forming apparatus 1100 is preferably metafile-related data.

반면, 단말장치(1000)가 스크린샷을 래스터 이미지의 형태로 화상형성장치(1100)로 전송해 주는 경우, 화상형성장치(1100)는 수신한 스크린샷을 변환하여 메타파일을 생성한 후 내부에 저장할 수 있다. 스크린샷의 메타파일로의 변환과 관련해서는 앞서 충분히 설명하였으므로 더 이상의 설명은 생략한다.On the other hand, when the terminal apparatus 1000 transmits the screen shot to the image forming apparatus 1100 in the form of a raster image, the image forming apparatus 1100 converts the received screen shot to generate a meta file, Can be stored. Concerning the conversion of the screen shot to the metafile, the description has been omitted since it has been explained sufficiently before.

도 11은 도 10의 단말장치의 세부 구조를 나타내는 블록다이어그램이다.11 is a block diagram showing a detailed structure of the terminal device of FIG.

도 11을 도 10과 함께 참조하면, 본 발명의 실시예에 따른 단말장치(1000)는 통신 인터페이스부(1010), 사용자 인터페이스부(1020), 제어부(1030), 저장부(1040) 및 이미지 생성부(1050)의 일부 또는 전부를 포함한다.10, a terminal apparatus 1000 according to an embodiment of the present invention includes a communication interface unit 1010, a user interface unit 1020, a control unit 1030, a storage unit 1040, Part 1050 of FIG.

여기서, 일부 또는 전부를 포함한다는 것은 예를 들어 도 12에서 화상형성장치(1100)가 이미지 생성부(1160)를 포함하는 경우, 그리고 단말장치(1000)와 연동하는 경우, 이미지 생성부(1050)는 생략될 수 있는데, 이와 같이 일부 구성요소가 생략되거나, 일부 구성요소가 다른 구성요소에 통합되어 구성되는 것을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.The image generating unit 1050 includes part or all of the image forming apparatuses 1100 and 1150 in the case where the image forming apparatus 1100 includes the image generating unit 1160 in FIG. May be omitted, meaning that some elements are omitted or some elements are integrated into another element, and the description is made to cover all of them in order to facilitate a sufficient understanding of the invention.

통신 인터페이스부(1010)는 화상형성장치(1100)와 통신을 수행한다. 예를 들어, 통신 인터페이스부(1010)는 이미지 생성부(1050)에서 생성된 스크린샷에 대한 메타파일을 제어부(1030)의 제어 하에 화상형성장치(1100)로 전송할 수 있다.The communication interface unit 1010 performs communication with the image forming apparatus 1100. For example, the communication interface unit 1010 may transmit the metafile of the screen shot generated by the image generation unit 1050 to the image forming apparatus 1100 under the control of the control unit 1030.

사용자 인터페이스부(1020)는 버튼부 또는 디스플레이부를 포함한다. 사용자 인터페이스부(1020)는 스크린샷을 생성하기 위한 사용자 명령을 수신한다. 이때 사용자 명령은 터치스크린 방식의 디스플레이부를 통해 입력될 수 있다. 또한 사용자 인터페이스부(1020)는 저장부(1040)에 저장된 스크린샷에 대한 메타파일을 불러내어 화면에 표시하거나, 화상형성장치(1100)로 전송하는 명령을 수신할 수 있다.The user interface unit 1020 includes a button unit or a display unit. The user interface unit 1020 receives a user command for generating a screen shot. At this time, the user command can be inputted through the touch screen type display unit. In addition, the user interface unit 1020 can invoke a metafile of the screen shot stored in the storage unit 1040 and display the image on a screen or receive a command to transmit the metafile to the image forming apparatus 1100. [

제어부(1030)는 단말장치(1000) 내의 통신 인터페이스부(1010), 사용자 인터페이스부(1020), 저장부(1040) 및 이미지 생성부(1050)를 전반적으로 제어하는 역할을 수행한다. 예를 들어, 제어부(1030)는 스크린샷을 생성하기 위한 사용자 명령이 있는 경우, 화면에 표시된 영상에 대한 스크린샷을 메타파일로 변환하고, 변환한 메타파일을 저장부(1040)에 저장하도록 제어한다. 또한 또 다른 사용자 명령이 있는 경우, 저장한 메타파일을 불러내어 화면에 표시하거나, 화상형성장치(1100)로 전송하도록 제어할 수 있다.The control unit 1030 controls the communication interface unit 1010, the user interface unit 1020, the storage unit 1040 and the image generation unit 1050 in the terminal device 1000 as a whole. For example, when there is a user command for generating a screen shot, the control unit 1030 converts a screen shot of the image displayed on the screen into a metafile, and stores the converted metafile in the storage unit 1040 do. If there is another user command, the stored metafile can be called up and displayed on the screen or transferred to the image forming apparatus 1100.

저장부(1040)는 이미지 생성부(1050)에서 생성된 스크린샷에 대한 메타파일을 제어부(1030)의 제어하에 저장한다. 그리고, 제어부(1030)의 요청에 따라 저장된 메타파일을 출력한다.The storage unit 1040 stores the metafile for the screen shot generated by the image generation unit 1050 under the control of the control unit 1030. The controller 1030 outputs the stored metafile at the request of the controller 1030.

이미지 생성부(1050)는 화면에 표시된 영상에 대한 스크린샷의 메타파일을 생성한다. 이와 관련해서는 앞서 충분히 설명한 바 있으므로 더 이상의 설명은 생략하도록 한다. 이때 이미지 생성부(1050)는 가령 도 3에서와 같은 세부 구성을 가질 수 있으며, 도 3의 기능블록들과 동일한 기능을 수행하기 위한 프로그램 또는 알고리즘을 저장하고 이를 실행할 수 있을 것이다.The image generation unit 1050 generates a metafile of the screen shot of the image displayed on the screen. This has been described in sufficient detail in the foregoing, so further explanation is omitted. In this case, the image generating unit 1050 may have the detailed configuration as shown in FIG. 3, for example, and may store and execute a program or algorithm for performing the same function as the functional blocks of FIG.

도 12는 도 10의 화상형성장치의 세부 구조를 나타내는 블록다이어그램이다.12 is a block diagram showing a detailed structure of the image forming apparatus of FIG.

도 12를 도 10과 함께 참조하면, 본 발명의 실시예에 따른 화상형성장치(1100)는 통신 인터페이스부(1110), 사용자 인터페이스부(1120), 저장부(1130), 제어부(1140), 인쇄부(1150) 및 이미지 생성부(1160)의 일부 또는 전부를 포함한다.12, an image forming apparatus 1100 according to an embodiment of the present invention includes a communication interface unit 1110, a user interface unit 1120, a storage unit 1130, a control unit 1140, Part 1150 and part or all of the image generation part 1160. [

여기서, 일부 또는 전부를 포함한다는 것은 화상형상장치(1100)가 단말장치(1000)와 연동하고, 도 11의 단말장치(1000)가 이미지 생성부(1050)를 포함함으로써 화상형성장치(1100)가 단순히 인쇄 기능만을 수행하는 경우, 해당 이미지 생성부(1160)는 생략될 수 있는데, 이와 같이 일부 구성요소가 생략되거나, 저장부(1130)와 같은 일부 구성요소가 이미지 생성부(1160)과 같은 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, the image forming apparatus 1100 includes some or all of the image forming apparatuses 1100 in cooperation with the terminal apparatus 1000, and the terminal apparatus 1000 in FIG. 11 includes the image generating unit 1050, In the case where only the printing function is performed, the image generating unit 1160 may be omitted, and some of the components may be omitted, or some components such as the storage unit 1130 may be omitted from the image generating unit 1160 And the like, which are incorporated into the constituent elements, and the like, and the description is made to cover all of them in order to facilitate a sufficient understanding of the invention.

통신 인터페이스부(1110)는 단말장치(1000)와 통신을 수행한다. 예를 들어, 통신 인터페이부(1110)는 제어부(1140)의 제어 하에 인쇄부(1150)로 전달하기 위한 스크린샷에 대한 메타파일을 수신할 수 있다. 또는 통신 인터페이스부(1110)는 이미지 생성부(1160)에서 메타파일을 생성하기 위한 스크린샷에 대한 래스터이미지를 수신할 수 있다. 이의 과정에서 통신 인터페이스부(1110)는 가령 인코딩된 이미지 데이터를 디코딩하는 동작을 추가로 수행할 수도 있을 것이다.The communication interface unit 1110 performs communication with the terminal device 1000. [ For example, the communication interface unit 1110 may receive a metafile for a screen shot for delivery to the printing unit 1150 under the control of the control unit 1140. [ Or the communication interface unit 1110 may receive a raster image of a screen shot for generating a meta file in the image generating unit 1160. [ In this process, the communication interface unit 1110 may further perform an operation of decoding the encoded image data, for example.

인쇄부(1150)는 사용자의 요청에 따라 이미지를 인쇄한다. 예를 들어, 인쇄부(1150)는 제어부(1140)의 제어하에 전달된 메타파일을 인쇄하는 것이 바람직하다. 이때 메타파일은 단말장치(1000)에서 제공되거나, 이미지 생성부(1160)에서 제공될 수 있다.The printing unit 1150 prints the image at the request of the user. For example, the printing unit 1150 preferably prints the meta file transferred under the control of the control unit 1140. [ At this time, the meta file may be provided in the terminal device 1000 or may be provided in the image generating unit 1160.

그 이외에 사용자 인터페이스부(1120), 저장부(1130), 제어부(1140) 및 이미지 생성부(1160)는 도 11의 사용자 인터페이스부(1020), 제어부(1030), 저장부(1040) 및 이미지 생성부(1050)와 크게 다르지 않으므로 그 내용들로 대신하고자 한다.The user interface unit 1120, the storage unit 1130, the control unit 1140 and the image generation unit 1160 may be implemented by the user interface unit 1020, the control unit 1030, the storage unit 1040, (1050), it is intended to substitute the contents thereof.

한편, 본 발명의 실시예에 따른 단말장치(1000) 및 화상형성장치(1100)의 이미지 생성 방법(또는 구동방법)은 별도의 도면으로 나타내지는 않았지만, 도 11 및 도 12를 참조한 설명한 내용들로 충분히 유추될 수 있으므로 더 이상의 설명은 생략하도록 한다.The image generating method (or the driving method) of the terminal apparatus 1000 and the image forming apparatus 1100 according to the embodiment of the present invention is not shown in a separate drawing, So that further explanation will be omitted.

또한 본 발명의 실시예에 따른 이미지 생성 방법 및 시스템은 블랙-화이트 컬러 프린터 및 MFP를 위한 프린터 드라이버 또는 지원 소프트웨어에서 실행될 수 있다. 나아가 본 발명의 실시예에 따른 방법은 프린팅을 위한 소프트웨어 애플리케이션의 형태로 실행될 수도 있을 것이다.Further, the image generating method and system according to the embodiment of the present invention can be executed in a printer driver or support software for a black-and-white color printer and an MFP. Further, the method according to an embodiment of the present invention may be executed in the form of a software application for printing.

한편, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art. Such a computer program may be stored in a non-transitory computer readable medium readable by a computer, readable and executed by a computer, thereby implementing an embodiment of the present invention.

여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, the non-transitory readable recording medium is not a medium for storing data for a short time such as a register, a cache, a memory, etc., but means a medium that semi-permanently stores data and can be read by a device. Specifically, the above-described programs can be stored in non-volatile readable recording media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

301: 분할부 302: 컬러 평가부
303: 텍스트 리터칭부 304: 벡터화부
305: 메타파일 생성부 1000: 단말장치
1100: 화상형성장치 1010, 1110: 통신 인터페이스부
1020, 1120: 사용자 인터페이스부 1030, 1140: 제어부
1040, 1130: 저장부 1050, 1160: 이미지 생성부
301: division unit 302: color evaluation unit
303: Text retaking unit 304: Vectorizing unit
305: Metafile generation unit 1000:
1100: Image forming apparatuses 1010 and 1110: Communication interface unit
1020, 1120: user interface unit 1030, 1140:
1040, and 1130: storage units 1050 and 1160:

Claims (18)

그래픽 및 텍스트가 포함된 스크린샷에서 텍스트 부분을 분할하는 분할부;
상기 분할한 텍스트 부분에서 상기 텍스트와 상기 텍스트를 제외한 배경의 컬러를 각각 추정하는 컬러 평가부;
상기 분할한 텍스트 부분에서 상기 텍스트의 윤곽을 벡터화하는 벡터화부;
상기 추정한 배경의 컬러로 상기 분할한 텍스트 부분을 채워서 상기 스크린샷을 수정하는 텍스트 리터칭부; 및
상기 추정한 텍스트의 컬러, 상기 벡터화한 윤곽의 벡터 정보 및 및 상기 수정한 스크린샷을 이용해 메타파일을 생성하는 메타파일 생성부;를 포함하고,
상기 컬러 평가부는,
각 픽셀의 RGB 컬러 성분들의 히스토그램 상에서 가장 큰 값을 갖는 칼럼의 최좌측 또는 최우측에 위치하는 칼럼을 상기 배경의 컬러로 추정하는, 이미지 처리 장치.
A partition that divides the text portion of a screen shot that contains graphics and text;
A color evaluation unit for estimating a color of the background excluding the text and the text in the divided text part;
A vectorization unit for vectorizing an outline of the text in the divided text part;
A text retouching unit for retouching the screen shot by filling the divided text with a color of the estimated background; And
And a metafile generator for generating a metafile using the estimated color of the text, vector information of the vectorized outline, and the modified screen shot,
The color evaluating unit may include:
And estimates a column located at the leftmost or rightmost column of the column having the largest value on the histogram of the RGB color components of each pixel as the color of the background.
제1항에 있어서,
상기 분할부는 복수의 텍스트 부분들에 대한 맵을 생성하고, 상기 생성한 맵에 대한 맵 데이터를 상기 벡터화부에 제공하며,
상기 복수의 텍스트 부분에 대한 맵은 동일 크기의 래스터 이미지인 것을 특징으로 하는 이미지 처리 장치.
The method according to claim 1,
Wherein the dividing unit generates a map for a plurality of text parts, supplies map data for the generated map to the vectorizing unit,
Wherein the map for the plurality of text portions is a raster image of the same size.
제1항에 있어서,
상기 분할부는, 상기 스크린샷에서 임의의 픽셀에 대하여 인접 픽셀보다 밝고 어두운 정도를 나타내는 수평 그라디언트값이 주변에 비해 큰 복수의 픽셀들을 검출하고, 상기 검출한 복수의 픽셀들을 각 부분으로 조합하며, 상기 각 부분의 히스토그램을 분석한 분석 결과에 따라 상기 텍스트 부분을 검출하는 것을 특징으로 하는 이미지 처리 장치.
The method according to claim 1,
Wherein the dividing unit detects a plurality of pixels having a horizontal gradient value that is brighter and darker than an adjacent pixel with respect to an arbitrary pixel in the screen shot than the surrounding pixels and combines the detected pixels into respective parts, And detects the text portion according to an analysis result of analyzing a histogram of each portion.
제3항에 있어서,
상기 복수의 픽셀들은, 상기 스크린샷에 대한 그라디언트의 검출 결과 그라디언트가 존재하는 제로 아닌 연계 픽셀들의 맨 끝점들을 선택함으로써 검출되는 것을 특징으로 하는 이미지 처리 장치.
The method of claim 3,
Wherein the plurality of pixels are detected by selecting the end points of non-zero associated pixels in which the gradient of the gradient for the screen shot is present.
제3항에 있어서,
상기 분할부는 상기 분석 결과, 계조값이 0인 칼럼의 수가 임계값보다 크면 상기 텍스트 부분으로 판단하고, 상기 임계값보다 작으면 그래픽 부분으로 판단하는 것을 특징으로 하는 이미지 처리 장치.
The method of claim 3,
Wherein the dividing unit determines that the text portion is larger than the threshold value if the number of columns having a gray value of 0 is greater than the threshold value and determines that the portion is a graphic portion if the number is smaller than the threshold value.
삭제delete 제1항에 있어서,
상기 벡터화부는 상기 텍스트의 윤곽을 벡터화하기 위하여 상기 텍스트 부분을 하프톤 이미지로 변환하고, 상기 변환한 하프톤 이미지를 이진화하며, 상기 이진화한 이미지에서 심볼들의 윤곽을 추적하고, 상기 추적한 윤곽을 직선 및 곡선들로 이루어진 일련의 세분화 부분으로 폴리곤(polygon) 근사화를 수행하는 것을 특징으로 하는 이미지 처리 장치.
The method according to claim 1,
Wherein the vectorization unit converts the text portion into a halftone image to vectorize the outline of the text, binarizes the converted halftone image, tracks the outline of the symbols in the binarized image, And a polygon approximation to a series of refinement parts made up of curves.
그래픽 및 텍스트가 포함된 스크린샷에서 텍스트 부분을 분할하는 단계;
상기 분할한 텍스트 부분에서 상기 텍스트와 상기 텍스트를 제외한 배경의 컬러를 추정하는 단계;
상기 분할한 텍스트 부분에서 상기 텍스트의 윤곽을 벡터화하는 단계;
상기 추정한 배경의 컬러로 상기 분할한 텍스트 부분을 채워서 상기 스크린샷을 수정하는 단계; 및
상기 추정한 텍스트의 컬러, 상기 벡터화한 윤곽의 벡터 정보 및 및 상기 수정한 스크린샷을 이용해 메타파일을 생성하는 단계;를 포함하고,
상기 컬러를 추정하는 단계는,
각 픽셀의 RGB 컬러 성분들의 히스토그램 상에서 가장 큰 값을 갖는 칼럼의 최좌측 또는 최우측에 위치하는 칼럼을 상기 배경의 컬러로 추정하는, 이미지 처리 방법.
Splitting the text portion in a screen shot that includes graphics and text;
Estimating a color of the background excluding the text and the text in the divided text portion;
Vectorizing an outline of the text in the segmented text portion;
Correcting the screen shot by populating the divided text portion with the color of the estimated background; And
Generating a metafile using the estimated color of the text, vector information of the vectorized outline, and the modified screen shot,
Wherein the color estimating step comprises:
And estimates a column located at the leftmost or rightmost column of the column having the largest value on the histogram of the RGB color components of each pixel as the color of the background.
제8항에 있어서,
상기 분할하는 단계는,
복수의 텍스트 부분에 대한 맵을 생성하고, 상기 생성한 맵에 대한 맵 데이터를 상기 벡터화를 위해 제공하는 단계를 포함하며,
상기 복수의 텍스트 부분에 대한 맵은 동일 크기의 래스터 이미지인 것을 특징으로 하는 이미지 처리 방법.
9. The method of claim 8,
Wherein the dividing step comprises:
Generating a map for a plurality of text parts and providing map data for the generated map for the vectorization,
Wherein the map for the plurality of text portions is a raster image of the same size.
제8항에 있어서,
상기 분할하는 단계는,
상기 스크린샷에서 임의의 픽셀에 대하여 인접 픽셀보다 밝고 어두운 정도를 나타내는 수평 그라디언트값이 주변에 비해 큰 복수의 픽셀들을 검출하는 단계;
상기 검출한 복수의 픽셀들을 각 부분으로 조합하는 단계; 및
상기 각 부분의 히스토그램을 분석한 분석 결과에 따라 상기 텍스트 부분을 분할하는 단계;
를 포함하는 것을 특징으로 하는 이미지 처리 방법.
9. The method of claim 8,
Wherein the dividing step comprises:
Detecting a plurality of pixels having a horizontal gradient value that is brighter and darker than an adjacent pixel with respect to an arbitrary pixel in the screen shot;
Combining the plurality of detected pixels into respective portions; And
Dividing the text portion according to an analysis result of analyzing a histogram of each portion;
The image processing method comprising the steps of:
제10항에 있어서,
상기 복수의 픽셀들은, 상기 스크린샷에 대한 그라디언트의 검출 결과 그라디언트가 존재하는 제로 아닌 연계 픽셀들의 맨 끝점들을 선택함으로써 검출되는 것을 특징으로 하는 이미지 처리 방법.
11. The method of claim 10,
Wherein the plurality of pixels are detected by selecting the endpoints of non-zero associated pixels in which the gradient of the gradient for the screen shot is present.
제10항에 있어서,
상기 분할하는 단계는, 상기 분석 결과, 계조값이 0인 칼럼의 수가 임계값보다 크면 상기 텍스트 부분으로 판단하고, 상기 임계값보다 작으면 그래픽 부분으로 판단하는 것을 특징으로 하는 이미지 처리 방법.
11. The method of claim 10,
Wherein the dividing step determines that the text portion is larger than the threshold value if the number of columns having a tone value of 0 is greater than the threshold value and determines the portion as a graphic portion if the number is smaller than the threshold value.
삭제delete 제8항에 있어서,
상기 벡터화하는 단계는,
상기 텍스트 부분을 하프톤 이미지로 변환하는 단계;
상기 변환한 하프톤 이미지를 이진화하는 단계;
상기 이진화한 이미지에서 심볼들의 윤곽을 추적하는 단계; 및
상기 추적한 윤곽을 직선 및 곡선들로 이루어진 일련의 세분화 부분으로 폴리곤(polygon) 근사화를 수행하는 단계;를
포함하는 이미지 처리 방법.
9. The method of claim 8,
Wherein the vectorizing comprises:
Converting the text portion into a halftone image;
Binarizing the transformed halftone image;
Tracking an outline of symbols in the binarized image; And
Performing a polygon approximation on the traced contour as a series of refinement portions of straight lines and curves;
Including an image processing method.
이미지 처리 방법을 실행하기 위한 컴퓨터 판독가능 기록매체에 있어서,
그래픽 및 텍스트가 포함된 스크린샷에서 텍스트 부분을 분할하는 단계;
상기 분할한 텍스트 부분에서 상기 텍스트와 상기 텍스트를 제외한 배경의 컬러를 추정하는 단계;
상기 분할한 텍스트 부분에서 상기 텍스트의 윤곽을 벡터화하는 단계;
상기 추정한 배경의 컬러로 상기 분할한 텍스트 부분을 채워서 상기 스크린샷을 수정하는 단계; 및
상기 추정한 텍스트의 컬러, 상기 벡터화한 윤곽의 벡터 정보 및 및 상기 수정한 스크린샷을 이용해 메타파일을 생성하는 단계;를 실행하고,
상기 컬러를 추정하는 단계는,
각 픽셀의 RGB 컬러 성분들의 히스토그램 상에서 가장 큰 값을 갖는 칼럼의 최좌측 또는 최우측에 위치하는 칼럼을 상기 배경의 컬러로 추정하는. 컴퓨터 판독가능 기록매체.
A computer-readable recording medium for executing an image processing method,
Splitting the text portion in a screen shot that includes graphics and text;
Estimating a color of the background excluding the text and the text in the divided text portion;
Vectorizing an outline of the text in the segmented text portion;
Correcting the screen shot by populating the divided text portion with the color of the estimated background; And
Generating a metafile using the color of the estimated text, vector information of the vectorized outline, and the modified screen shot,
Wherein the color estimating step comprises:
And estimates the color of the background located at the leftmost or rightmost column of the column having the largest value on the histogram of the RGB color components of each pixel. Computer readable recording medium.
주변의 단말장치에 연결되어 동작하는 화상형성장치에 있어서,
상기 단말장치로부터 그래픽 및 텍스트를 포함하는 스크린샷을 수신하는 통신 인터페이스부;
상기 수신한 스크린샷에서 텍스트 부분을 분할하고, 상기 분할한 텍스트 부분에서 상기 텍스트와 상기 텍스트를 제외한 배경의 컬러를 추정하고, 상기 분할한 텍스트 부분에서 상기 텍스트의 윤곽을 벡터화하여 벡터 정보를 생성하고, 상기 분할한 텍스트 부분을 상기 추정한 배경 컬러로 채워 상기 스크린샷을 수정하며, 상기 수정한 스크린샷 및 상기 텍스트 부분의 텍스트 컬러를 이용해 메타파일을 생성하는 이미지 생성부; 및
사용자의 요청에 따라 상기 생성한 메타파일을 인쇄하는 인쇄부;를 포함하고
상기 이미지 생성부는,
각 픽셀의 RGB 컬러 성분들의 히스토그램 상에서 가장 큰 값을 갖는 칼럼의 최좌측 또는 최우측에 위치하는 칼럼을 상기 배경의 컬러로 추정하는, 화상형성장치.
1. An image forming apparatus connected to a peripheral terminal apparatus,
A communication interface for receiving a screen shot including graphics and text from the terminal device;
Estimating a color of a background excluding the text and the text in the divided text part, vectorizing the outline of the text in the divided text part to generate vector information An image generating unit for modifying the screen shot by filling the divided text portion with the estimated background color, and generating a metafile using the modified screen shot and the text color of the text portion; And
And a printing unit printing the generated metafile according to a user's request
The image generation unit may include:
And estimates a column located at the leftmost or rightmost column of the column having the largest value on the histogram of the RGB color components of each pixel as the color of the background.
삭제delete 삭제delete
KR1020140003340A 2013-02-01 2014-01-10 Image Processing Apparatus, Image Processing Method, Computer Readable Recording Medium and Image Forming Apparatus KR101887929B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2013104245 2013-02-01
RU2013104245/08A RU2534005C2 (en) 2013-02-01 2013-02-01 Method and system for converting screenshot into metafile

Publications (2)

Publication Number Publication Date
KR20140099183A KR20140099183A (en) 2014-08-11
KR101887929B1 true KR101887929B1 (en) 2018-08-13

Family

ID=51354900

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140003340A KR101887929B1 (en) 2013-02-01 2014-01-10 Image Processing Apparatus, Image Processing Method, Computer Readable Recording Medium and Image Forming Apparatus

Country Status (2)

Country Link
KR (1) KR101887929B1 (en)
RU (1) RU2534005C2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338399A (en) 2015-10-29 2016-02-17 小米科技有限责任公司 Image acquisition method and device
KR102053659B1 (en) * 2017-09-13 2019-12-09 (주)다비오 Apparatus of manufacturing map based on machine learning and image processing
CN110930302B (en) * 2018-08-30 2024-03-26 珠海金山办公软件有限公司 Picture processing method and device, electronic equipment and readable storage medium
CN110727495B (en) * 2019-10-18 2022-12-23 深圳市比量科技传媒有限公司 Automatic segmentation screenshot method and system for interface elements

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136192A (en) * 2008-12-05 2010-06-17 Canon Inc Image processor, image processing method, and computer program
JP2012003480A (en) * 2010-06-16 2012-01-05 Nippon Hoso Kyokai <Nhk> Telop character area detector and program
JP5047051B2 (en) * 2008-05-02 2012-10-10 キヤノン株式会社 Image processing apparatus and image encoding method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3446794B2 (en) * 1996-08-26 2003-09-16 株式会社日本デジタル研究所 Polygon approximation method and character recognition device for character recognition
US6169607B1 (en) * 1996-11-18 2001-01-02 Xerox Corporation Printing black and white reproducible colored test documents
IL156817A0 (en) * 2001-01-09 2004-02-08 Yitzchak Irving Twersky Improved apparatus and methods for replacing decorative images with text and/or graphocal patterns
JP2003324604A (en) * 2002-05-07 2003-11-14 Sharp Corp Image processing equipment, image forming equipment, image processing method, program and recording medium
JP4857173B2 (en) * 2007-04-25 2012-01-18 日立オムロンターミナルソリューションズ株式会社 Image processing apparatus, image processing method, and image processing program
US8135230B2 (en) * 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US20090148043A1 (en) * 2007-12-06 2009-06-11 International Business Machines Corporation Method for extracting text from a compound digital image
US8565554B2 (en) * 2010-01-09 2013-10-22 Microsoft Corporation Resizing of digital images
CN102194114B (en) * 2011-06-25 2012-11-07 电子科技大学 Method for recognizing iris based on edge gradient direction pyramid histogram
RU2469400C1 (en) * 2011-11-17 2012-12-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method to convert bitmapped image into metafile

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5047051B2 (en) * 2008-05-02 2012-10-10 キヤノン株式会社 Image processing apparatus and image encoding method
JP2010136192A (en) * 2008-12-05 2010-06-17 Canon Inc Image processor, image processing method, and computer program
JP2012003480A (en) * 2010-06-16 2012-01-05 Nippon Hoso Kyokai <Nhk> Telop character area detector and program

Also Published As

Publication number Publication date
RU2534005C2 (en) 2014-11-27
RU2013104245A (en) 2014-08-10
KR20140099183A (en) 2014-08-11

Similar Documents

Publication Publication Date Title
JP5616308B2 (en) Document modification detection method by character comparison using character shape feature
US10509959B2 (en) Method and device for segmenting lines in line chart
US11587216B2 (en) Detection and identification of objects in images
KR20030011632A (en) Image processing method and apparatus using self-adaptive binarization
KR101887929B1 (en) Image Processing Apparatus, Image Processing Method, Computer Readable Recording Medium and Image Forming Apparatus
US10846889B2 (en) Color handle generation for digital image color gradients using machine learning
CN113158977B (en) Image character editing method for improving FANnet generation network
KR20200015095A (en) Image processing apparatus and operating method for the same
JP5042917B2 (en) Image processing apparatus and program
JP2004166007A (en) Device, method and program for image processing, and storage medium
CN113436222A (en) Image processing method, image processing apparatus, electronic device, and storage medium
US20230162413A1 (en) Stroke-Guided Sketch Vectorization
US20230005107A1 (en) Multi-task text inpainting of digital images
US11410278B2 (en) Automatic artifact removal in a digital image
JP5335581B2 (en) Image processing apparatus, image processing method, and program
JP4441300B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP4873554B2 (en) Image distribution apparatus and image distribution method
EP4047547A1 (en) Method and system for removing scene text from images
US11200708B1 (en) Real-time color vector preview generation
US9648208B2 (en) Method and apparatus and using an enlargement operation to reduce visually detected defects in an image
CN114387315A (en) Image processing model training method, image processing device, image processing equipment and image processing medium
JP3952188B2 (en) Image interpolation apparatus, image interpolation method, and image interpolation program
US9225876B2 (en) Method and apparatus for using an enlargement operation to reduce visually detected defects in an image
JP6003574B2 (en) Image processing apparatus and image processing program
JP5672168B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant