RU2534005C2 - Method and system for converting screenshot into metafile - Google Patents

Method and system for converting screenshot into metafile Download PDF

Info

Publication number
RU2534005C2
RU2534005C2 RU2013104245/08A RU2013104245A RU2534005C2 RU 2534005 C2 RU2534005 C2 RU 2534005C2 RU 2013104245/08 A RU2013104245/08 A RU 2013104245/08A RU 2013104245 A RU2013104245 A RU 2013104245A RU 2534005 C2 RU2534005 C2 RU 2534005C2
Authority
RU
Russia
Prior art keywords
text
screenshot
fragments
module
smoothed
Prior art date
Application number
RU2013104245/08A
Other languages
Russian (ru)
Other versions
RU2013104245A (en
Inventor
Сергей Михайлович Михеев
Илья Васильевич Курилин
Илья Владимирович Сафонов
Алексей Михайлович Вилькин
Original Assignee
Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд."
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." filed Critical Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд."
Priority to RU2013104245/08A priority Critical patent/RU2534005C2/en
Priority to KR1020140003340A priority patent/KR101887929B1/en
Publication of RU2013104245A publication Critical patent/RU2013104245A/en
Application granted granted Critical
Publication of RU2534005C2 publication Critical patent/RU2534005C2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

FIELD: physics, computer engineering.
SUBSTANCE: invention relates to means of converting a raster image into a metafile. The method comprises detecting fragments of smoothed text on a screenshot, evaluating the background colour and colour of the characters of the smoothed text on each fragment based on determining outermost columns of a histogram of the fragment, vectorising the edge of the characters of the smoothed text, modifying the screenshot by replacing fragments of the smoothed text with the background colour, creating a metafile based on the modified screenshot and vectorised edges, filled with the colour of the characters of the smoothed text, and rendering the formed metafile.
EFFECT: high definition of text characters on a screenshot.
9 cl, 9 dwg

Description

Изобретение относится к области обработки цифровых сигналов, а именно к способам преобразования растрового изображения в метафайл, в частности к преобразованию моментального снимка экрана (скриншота) в метафайл посредством сегментации и векторизации скриншота.The invention relates to the field of digital signal processing, and in particular to methods for converting a raster image to a metafile, in particular, to converting a screen shot (screenshot) to a metafile by segmenting and vectorizing a screenshot.

Векторизация текстовой информации на растровом изображении скриншота позволяет существенно улучшить качество текста для печати и визуализации. Частичная векторизация скриншота является перспективным подходом к решению задачи и заключается в том, что обнаруженные области рисунков и области текста обрабатываются разными способами. Текстовую часть переводят в последовательность прямых и кривых отрезков с информацией о цвете символов и окружающем фоне. Оставшаяся часть информации исходного скриншота хранится как растровое изображение.Vectorization of textual information on a screenshot bitmap can significantly improve the quality of text for printing and visualization. Partial vectorization of a screenshot is a promising approach to solving the problem and lies in the fact that the detected areas of the drawings and text areas are processed in different ways. The text part is translated into a sequence of straight and curved segments with information about the color of the characters and the surrounding background. The rest of the information in the original screenshot is stored as a bitmap.

Способ, раскрытый в патенте США №8,270,722 [1], предусматривает обработку изображения с выборочной векторизацией символов и графических областей. Целью изобретения является достижение наилучшей степени компрессии при высоком качестве изображения, содержащего как области текста, так и графики. Если пиксели символа в области теста перекрываются графической областью, то сначала векторизуется графическая область, если перекрытия нет - сначала векторизуется область текста.The method disclosed in US patent No. 8,270,722 [1], provides for image processing with selective vectorization of characters and graphic areas. The aim of the invention is to achieve the best degree of compression with high quality images containing both areas of text and graphics. If the pixels of the symbol in the test area are overlapped by the graphics area, then the graphics area is vectorized, if there is no overlap, the text area is vectorized first.

Способ, раскрытый в патенте США №7,873,218 [2], заключается в аппроксимации символа для преобразования бинарного изображении в контурные данные с использованием кривых Безье. Способ включает сегментацию растрового изображения для извлечения областей символов и извлечения символов из этих областей. Процесс векторизации выполняется независимо от других нетекстовых частей изображения.The method disclosed in US patent No. 7,873,218 [2], is to approximate a symbol to convert a binary image into contour data using Bezier curves. The method includes raster image segmentation for extracting symbol regions and extracting symbols from these regions. The vectorization process is performed independently of other non-text parts of the image.

Вышеупомянутые способы позволяют улучшать визуальное качество изображения посредством векторизации, но не могут быть напрямую применены для векторизации растрового изображения скриншота, который обладает рядом особенностей: а именно низким разрешением символов и применением эффекта сглаживания (антиалиасинга) текстовых символов. Данное сглаживание улучшает качество изображения на дисплее, но искажает скриншот при печати.The above methods can improve the visual quality of the image by vectorization, but cannot be directly used to vectorize a bitmap image of a screenshot that has a number of features: namely, low resolution of characters and the application of the effect of smoothing (anti-aliasing) of text characters. This anti-aliasing improves the image quality on the display, but distorts the screenshot when printing.

Способ, раскрытый в патенте США №7,079,686 [3], описывает подход, основанный на классификации пикселей на изображении документа для увеличения изображения. Для каждого пикселя изображения генерируется вектор признаков. Каждый пиксель классифицируется как текст или рисунок в зависимости от соответствующего вектора признаков. Дальнейшая обработка может включать улучшение на пиксельном уровне, которая состоит из фильтра повышения резкости границ для пикселей текста и фильтра сглаживания для пикселей рисунков.The method disclosed in US patent No. 7,079,686 [3] describes an approach based on the classification of pixels in an image of a document for enlarging an image. A feature vector is generated for each pixel in the image. Each pixel is classified as text or picture depending on the corresponding feature vector. Further processing may include pixel-level enhancement, which consists of a border sharpening filter for text pixels and a smoothing filter for picture pixels.

Способ, раскрытый в патенте США №7,177,049 [4], сводится к обработке цифровых изображений, причем процесс повышения качества текста включает в себя обработку черного текста на белом фоне с увеличением резкости и контраста такого текста за счет перераспределения яркости между темными и светлыми пикселями в пределах предопределенной маски.The method disclosed in US patent No. 7,177,049 [4], is reduced to the processing of digital images, and the process of improving the quality of the text includes the processing of black text on a white background with increasing sharpness and contrast of such text due to the redistribution of brightness between dark and light pixels within predefined masks.

Описанные выше способы ориентированы на улучшение изображения, особенно областей текста исключительно перед печатью. Эти способы также не пригодны для скриншотов, поскольку разработаны для сканированных изображений.The methods described above are aimed at improving the image, especially areas of the text exclusively before printing. These methods are also not suitable for screenshots, as they are designed for scanned images.

Задача, на решение которой направлено заявляемое изобретение, заключается в том, чтобы разработать усовершенствованный способ обработки сглаженного текста (текста с антиалиасингом) на скриншоте. При этом такой способ должен обеспечить повышение резкости/четкости и контраста символов и быть применимым как для печати скриншотов, так и для сохранении скриншотов в метафайл.The problem to which the claimed invention is directed is to develop an improved method for processing smoothed text (text with anti-aliasing) in the screenshot. Moreover, this method should provide sharpening / clarity and contrast of characters and be applicable both for printing screenshots and for saving screenshots in a metafile.

Технический результат достигается за счет применения заявляемого способа, включающего в себя операции по обнаружению сглаженных символов на скриншоте и улучшению визуального представления этих символов за счет векторизации и оценки цвета заливки. При этом заявляемый способ преобразования скриншота в метафайл включает в себя выполнение следующих этапов:The technical result is achieved through the application of the proposed method, which includes operations to detect smoothed characters in the screenshot and improve the visual presentation of these characters through vectorization and color estimation of the fill. In this case, the claimed method of converting a screenshot into a metafile includes the following steps:

- обнаруживают фрагменты текста на скриншоте;- detect fragments of text in the screenshot;

- оценивают цвет фона и цвет символов на каждом фрагменте;- evaluate the background color and the color of the characters on each fragment;

- векторизуют контуры символов;- vectorize the outline of the characters;

- модифицируют скриншот за счет заполнения фрагментов текста цветом фона;- modify the screenshot by filling in the text fragments with the background color;

- создают метафайл на основе модифицированного скриншота и векторизованных контуров, заполненных цветом текста.- create a metafile based on a modified screenshot and vectorized outlines filled with text color.

Заявляемый способ обеспечивает повышение резкости/четкости и контраста символов и может быть применен как при печати скриншотов, так и при сохранении скриншотов в метафайл, например PDF или XPS.The inventive method provides increased sharpness / sharpness and contrast of characters and can be applied both when printing screenshots, and when saving screenshots to a metafile, such as PDF or XPS.

Далее существо заявляемого изобретения поясняется в деталях со ссылками на соответствующие графические материалы.Further, the essence of the claimed invention is explained in detail with reference to the relevant graphic materials.

Фиг.1. Иллюстрация заявляемого способа в сравнении с существующими подходами.Figure 1. Illustration of the proposed method in comparison with existing approaches.

Фиг.2. Структурная схема способа преобразования скриншота в метафайл.Figure 2. A block diagram of a method for converting a screenshot into a metafile.

Фиг.3. Блок-схема системы преобразования скриншота в метафайл.Figure 3. A block diagram of a system for converting a screenshot into a metafile.

Фиг.4. Иллюстрация способа обнаружения фрагментов со сглаженным текстом.Figure 4. Illustration of a method for detecting fragments with smoothed text.

Фиг.5. Иллюстрация вычисления признаков сглаженного текста.Figure 5. Illustration of computing signs of smoothed text.

Фиг.6. Блок-схема векторизации символа.6. Block diagram of vectorized symbol.

Фиг.7. Иллюстрация векторизации символа.7. Illustration of a vectorized symbol.

Фиг.8. Создание карты сегментированного текста.Fig. 8. Create a segmented text map.

Фиг.9. Иллюстрация результата заявляемого способа.Fig.9. Illustration of the result of the proposed method.

На Фиг.1 проиллюстрировано различие между существующим подходом (прототипом), известным из уровня техники, и заявляемым способом. Скриншот 103 захватывается с экрана дисплея посредством копирования видеопамяти в промежуточный буфер. Результатом такого копирования является представление текущего кадра, визуализируемого на дисплее, в виде растрового изображения. Дисплеем может являться модуль визуализации любого цифрового вычислительного устройства, например: персонального компьютера 101, ноутбука, смартфона 102, планшетного компьютера и т.д. Особенностью скриншота является то, что представленная на нем текстовая информация обычно визуализируется с помощью технологии сглаживания (antialiasing), использующейся с целью сделать границы символов визуально более гладкими, убирая «зубцы», возникающие при растеризации на краях объектов. В этом случае пикселы, соседние с граничным пикселом изображения, принимают промежуточное значение между цветом изображения и цветом фона, визуально размывая границу. Технологии сглаживания, используемые при визуализации текста на дисплее, напрямую зависят от размера отображаемых символов и разрешения отображения, поэтому при увеличении/уменьшении масштаба перестраивают пиксельное отображение символов. Кроме того, подобные сглаживания существенно отличаются от аналогичных технологий, используемых при печати текста. Скриншот в виде растрового изображения сохраняется в каком-либо файле/формате 104, соответственно для текстовых областей становится недоступным корректное применение технологий сглаживания при отображении или печати. Это ведет к нежелательным визуальным искажениям внешнего вида текста. В соответствии с вышесказанным можно отметить следующие недостатки известного из уровня техники подхода:Figure 1 illustrates the difference between the existing approach (prototype), known from the prior art, and the claimed method. The screenshot 103 is captured from the display screen by copying the video memory to an intermediate buffer. The result of such copying is to present the current frame displayed on the display as a bitmap. The display may be a visualization module of any digital computing device, for example: a personal computer 101, a laptop, a smartphone 102, a tablet computer, etc. The peculiarity of the screenshot is that the text information presented on it is usually visualized using antialiasing technology, which is used to make the borders of characters visually smoother, removing the “teeth” that arise when rasterizing at the edges of objects. In this case, the pixels adjacent to the boundary pixel of the image take an intermediate value between the image color and the background color, visually blurring the border. The anti-aliasing technologies used to render the text on the display directly depend on the size of the displayed characters and the resolution of the display, so when zooming in / out they rebuild the pixel display of the characters. In addition, such smoothing differs significantly from similar technologies used in printing text. A screenshot in the form of a bitmap image is saved in any file / format 104; accordingly, the correct application of anti-aliasing technologies when displaying or printing becomes inaccessible for text areas. This leads to undesirable visual distortions in the appearance of the text. In accordance with the foregoing, the following disadvantages of the approach known from the prior art can be noted:

- поскольку скриншот сохраняется в файл в виде растрового изображения, следовательно, будут потеряны такие преимущества обычного представления текстовой информации на дисплее, как инвариантность к масштабу и гладкое отображение очертания символов независимо от их размера. Вместо этого масштабирование растрового изображения текста будет сопровождаться такими мешающими факторами, как появление «зазубренных» краев и размытие границ;- since the screenshot is saved to a file as a raster image, therefore, such advantages of the usual presentation of textual information on the display as invariance to scale and smooth display of the outline of characters regardless of their size will be lost. Instead, scaling the bitmap of the text will be accompanied by such interfering factors as the appearance of “jagged” edges and blurred borders;

- проявляется негативный эффект сглаживания символов, свойственный для текста, визуализируемого на дисплее. Результатом такого эффекта является искажение оригинального цвета и формы символов при печати или изменении масштаба визуализации.- the negative effect of anti-aliasing of characters appears, which is characteristic for text displayed on the display. The result of this effect is a distortion of the original color and shape of the characters when printing or zooming out.

Заявляемый способ 105 основан на сегментации скриншота на текстовые и нетекстовые области и векторизации текстовых областей. Подход позволяет отображать и печатать метафайл при измененном масштабе без потери качества текстовой информации.The inventive method 105 is based on the segmentation of the screenshot into text and non-text areas and vectorization of text areas. The approach allows you to display and print the metafile at a zoomed-in without loss of quality of text information.

На Фиг.2 проиллюстрированы основные шаги заявляемого способа. На шаге 201 выполняется обнаружение фрагментов текста на скриншоте и создают карту сегментированного текста. В предпочтительном варианте реализации заявленного способа данные фрагменты включают в себя последовательность символов, которые соответствуют одному или нескольким словам и части окружающего фона, а карта является растровым изображением такого же размера, как и исходный скриншот, где каждый пиксел кодируется как относящийся или не относящийся к области текста. Оценка цвета для символов и фона указанных текстовых фрагментов выполняется на шаге 202. В предпочтительном варианте осуществления заявленного способа скриншот представлен в цветовом пространстве RGB и, соответственно каждый его пиксел описывается тремя цветовыми компонентами красного, зеленого и синего цветов. Оценка каждой из трех компонент цвета (красной, зеленой, синей) происходит раздельно по гистограммам этих компонент. Крайний правый или левый столбец (группа столбцов) гистограммы с наибольшим значением (суммарным значением) соответствует цвету фона, противоположному цвету символа. На шаге 203 происходит векторизация контуров символов на карте текста путем их преобразования в последовательность отрезков прямых и кривых. Процесс проиллюстрирован на Фиг.6 и Фиг.7. На шаге 204 скриншот модифицируется посредством заполнения областей обнаруженного текста соответствующим цветом фона. Для сложного фона предпочтительно использовать более совершенный способ заполнения области текста, например технику «inpainting», т.е. закрашивания ("Bertalmio М., Sapiro G., Caselles V., Ballester С. Image inpainting // In Proc. ACM Conf. Comp. Graphics (SIGGRAPH), pages 417-424, 2000) [5]. На шаге 205 создается метафайл из соответствующих записей метафайла, сохраненных в определенной последовательности. Метафайл может быть представлен в формате: PDF, XPS, PS, EMF и др. Модифицированное изображение скриншота сохраняется в метафайл как растровое изображение. Символы сохраняются в векторном виде соответствующими графическими командами метафайла, определяющими параметры замкнутых последовательностей аппроксимирующих отрезков прямых и кривых и информацию о цвете заливки. Для оптимизации размера метафайла может быть применен алгоритм сжатия без потерь применительно к векторным записям метафайла, и алгоритм сжатия с потерями или без потерь для растровых изображений. Заявляемый подход обеспечивает эффективное хранение метафайла с точки зрения «визуальное качество/размер», так как каждый тип визуальной информации хранится оптимальным образом. Более того, заявляемый подход позволяет предотвратить искажение сглаженного текста на скриншоте при печати или визуализации при увеличенном масштабе. Это становится возможным за счет замены сглаженных символов скриншота векторными аналогами.Figure 2 illustrates the main steps of the proposed method. At step 201, fragments of text in the screenshot are detected and a segmented text map is created. In a preferred embodiment of the inventive method, these fragments include a sequence of characters that correspond to one or more words and part of the surrounding background, and the map is a bitmap image of the same size as the original screenshot, where each pixel is encoded as related or not related to the area text. The color assessment for the characters and background of the indicated text fragments is performed at step 202. In a preferred embodiment of the inventive method, the screenshot is presented in the RGB color space and, accordingly, each pixel is described by three color components of red, green, and blue. Evaluation of each of the three color components (red, green, blue) occurs separately according to the histograms of these components. The rightmost or leftmost column (group of columns) of the histogram with the highest value (total value) corresponds to the background color opposite to the color of the symbol. At step 203, the outlines of the characters on the text map are vectorized by converting them into a sequence of line segments and curves. The process is illustrated in Fig.6 and Fig.7. At step 204, the screenshot is modified by filling in the areas of the detected text with the corresponding background color. For a complex background, it is preferable to use a more advanced way of filling in the text area, for example, the inpainting technique, i.e. shading ("Bertalmio M., Sapiro G., Caselles V., Ballester C. Image inpainting // In Proc. ACM Conf. Comp. Graphics (SIGGRAPH), pages 417-424, 2000) [5]. At step 205 is created metafile from the corresponding metafile records saved in a certain sequence.The metafile can be presented in the format: PDF, XPS, PS, EMF, etc. The modified image of the screenshot is saved to the metafile as a bitmap. Symbols are saved in vector form by the corresponding graphic metafile commands that define the parameters closed sequences of approximating segments of lines and cr It’s possible to use lossless compression algorithm for vector metafile records and lossy or lossless compression algorithm for bitmap images. The claimed approach provides efficient storage of metafile from the point of view of visual quality / size ”, Since each type of visual information is stored in an optimal way. Moreover, the claimed approach allows you to prevent distortion of the smoothed text in the screenshot when printing or rendering at an enlarged scale. This is made possible by replacing the smoothed screenshot characters with vector counterparts.

На Фиг.3 показана блок-схема системы преобразования скриншота в метафайл. Модуль 301 сегментации текста сегментирует текст, создает размеченную карту сегментированного текста и определяет координаты фрагментов, содержащих текст. На вход данного модуля поступает исходное растровое изображение скриншота. Карта сегментированного текста передается в модуль 304 векторизации и модуль 303 ретуширования текста, координаты фрагментов передаются в модуль 302 оценки цвета. Модуль оценки цвета выполнен с возможностью определения цвета фона и текста для каждого фрагмента. На вход данного модуля поступают координаты фрагментов и исходный скриншот. Информация о цвете фона передается в модуль 303 ретуширования, информация о цвете текста передается в модуль 305 создания метафайла. Модуль 304 векторизации выполняет аппроксимацию контуров символов на карте сегментированного текста замкнутой последовательностью отрезков прямых и кривых. На вход данного модуля подается карта из модуля 301 сегментации. Координаты фрагментов, последовательность отрезков прямых и кривых передается в модуль создания метафайла. Модуль 303 ретуширования текста модифицирует исходное растровое изображение скриншота посредством закрашивания области фрагментов с текстом соответствующим цветом фона. На вход данного модуля поступает информация о цвете фона для каждого фрагмента. Модифицированный скриншот передается в модуль 305 создания метафайла, выполненный с возможностью формирования метафайла из следующих записей: модифицированного скриншота, замкнутых последовательностей отрезков прямых и кривых, заполненных соответствующим цветом символа.Figure 3 shows a block diagram of a system for converting a screenshot into a metafile. The text segmentation module 301 segments the text, creates a marked-up map of the segmented text, and determines the coordinates of the fragments containing the text. The input bitmap image of the screenshot is input to this module. The segmented text map is transmitted to the vectorization module 304 and the text retouching module 303, the coordinates of the fragments are transmitted to the color estimation module 302. The color evaluation module is configured to determine the background color and text for each fragment. The input of this module receives the coordinates of the fragments and the initial screenshot. Information about the background color is transmitted to the retouching unit 303, information about the text color is transmitted to the metafile creation unit 305. Vectorization module 304 approximates the contours of characters on a segmented text map with a closed sequence of line segments and curves. The input from the module from the segmentation module 301 is fed to the input of this module. The coordinates of the fragments, the sequence of line segments and curves are transferred to the metafile creation module. The text retouching unit 303 modifies the original bitmap image of the screenshot by filling in the area of the fragments with the text with the corresponding background color. The input of this module receives information about the background color for each fragment. The modified screenshot is transmitted to the metafile creation module 305, configured to generate a metafile from the following records: a modified screenshot, closed sequences of straight line segments and curves filled with the corresponding symbol color.

Все перечисленные модули системы могут быть реализованы в виде SoC, FPGA или ASIC. Функции модулей понятны из их описания и описания существующих способов. Проиллюстрированы только те признаки, которые упомянуты в описании. Однако следует понимать, что вычислительная система может иметь дополнительные признаки, которые не были проиллюстрированы.All of the listed system modules can be implemented as SoC, FPGA or ASIC. The functions of the modules are clear from their descriptions and descriptions of existing methods. Only those features that are mentioned in the description are illustrated. However, it should be understood that a computing system may have additional features that have not been illustrated.

Имеет смысл детально рассмотреть два возможных подхода для обнаружения текста. Первый алгоритм быстрее и предназначен для обнаружения сглаженного текста, который типичен для дисплеев. Второй алгоритм более общий, подходит для обнаружения как сглаженного текста, так и текста без сглаживания.It makes sense to consider in detail two possible approaches for detecting text. The first algorithm is faster and is designed to detect smoothed text, which is typical for displays. The second algorithm is more general, suitable for detecting both smoothed text and text without smoothing.

Первый подход обнаружения текстовых фрагментов включает в себя следующие шаги:The first approach to detect text fragments includes the following steps:

- обнаруживают соседние пиксели с большой производной в горизонтальном направлении;- detect adjacent pixels with a large derivative in the horizontal direction;

- объединяют соседние пиксели в фрагменты;- combine adjacent pixels into fragments;

- анализируют гистограммы фрагментов с целью обнаружения сглаженного текста;- analyze histograms of fragments in order to detect smoothed text;

- выделяют фрагменты с признаками сглаженного текста.- extract fragments with signs of a smoothed text.

Фиг.4 иллюстрирует первый подход к обнаружению фрагментов сглаженного текста на скриншоте для последующего анализа. Иллюстрация показывает результат обнаружения горизонтального градиента для одного малого фрагмента 401 скриншота. Вычисленное общее значение горизонтального градиента D i , j Σ

Figure 00000001
403 является конъюнкцией положительного D i , j p o s
Figure 00000002
и отрицательного D i , j n e g
Figure 00000003
градиентов, которые указывают на то, что пиксель ярче/темнее соседних:4 illustrates a first approach to detecting fragments of smoothed text in a screenshot for subsequent analysis. The illustration shows the result of detecting a horizontal gradient for one small fragment 401 of the screenshot. The calculated total horizontal gradient value D i , j Σ
Figure 00000001
403 is a conjunction of positive D i , j p o s
Figure 00000002
and negative D i , j n e g
Figure 00000003
gradients that indicate that the pixel is brighter / darker than neighboring ones:

D i , j p o s = { 1, I i , j 1 + Δ < I i , j < I i , j + 1 Δ 0, o t h e r w i s e

Figure 00000004
D i , j p o s = { one, I i , j - one + Δ < I i , j < I i , j + one - Δ 0 o t h e r w i s e
Figure 00000004

D i , j n e g = { 1, I i , j 1 Δ > I i , j > I i , j + 1 + Δ 0, o t h e r w i s e

Figure 00000005
D i , j n e g = { one, I i , j - one - Δ > I i , j > I i , j + one + Δ 0 o t h e r w i s e
Figure 00000005

D i , j Σ = D i , j p o s D i , j n e g

Figure 00000006
D i , j Σ = D i , j p o s D i , j n e g
Figure 00000006

Где Ii,j - яркость изображения в точке i, j; Δ - заданный порог.Where I i, j is the brightness of the image at the point i, j; Δ is a given threshold.

Результат обнаружения градиента - бинарное изображение 402, ненулевые элементы которого показывают наличие градиента. По причине слабой связности соседних элементов на бинарном изображении выполняется процедура расширения (дилатации) с горизонтальным структурирующим элементом 403. На следующем шаге выделяются отдельные фрагменты 404 по крайним точкам связанных ненулевых пикселей.The result of the gradient detection is a binary image 402, non-zero elements of which indicate the presence of a gradient. Due to the weak connectivity of neighboring elements in the binary image, the expansion (dilatation) procedure is performed with a horizontal structuring element 403. In the next step, individual fragments 404 are selected at the extreme points of the connected nonzero pixels.

Далее анализируется гистограмма каждого выделенного фрагмента с целью обнаружения признаков сглаженного текста и выделения фрагментов, содержащих символы. На Фиг.5 показана иллюстрация анализа гистограммы всех трех компонент цвета (красный, зеленый, синий) цветового пространства RGB для обнаружения признаков сглаженного текста: число ненулевых b+ столбцов гистограммы и нулевых b0. Гистограмма фрагмента 504, содержащего нетекстовые данные, характеризуется полностью непрерывным распределением 501-503 для каждой компоненты цвета. Гистограмма фрагмента 508, содержащего сглаженный текст, состоит всего из нескольких b+ (например, для технологии MS ClearType экспериментальным путем получено b+=7) ненулевых столбцов, которые равномерно распределены между цветом фона и текста (SOS-SOT). В предпочтительном варианте изобретения, если и b0>6, тогда фрагмент классифицируется как текстовый, иначе - как нетекстовый 509.Next, a histogram of each selected fragment is analyzed in order to detect signs of smoothed text and highlight fragments containing symbols. Figure 5 shows an illustration of the analysis of the histogram of all three color components (red, green, blue) of the RGB color space to detect signs of smoothed text: the number of nonzero b + histogram columns and zero b 0 . The histogram of fragment 504 containing non-textual data is characterized by a completely continuous distribution of 501-503 for each color component. The histogram of fragment 508 containing smoothed text consists of only a few b + (for example, b + = 7 was experimentally obtained for MS ClearType technology) non-zero columns that are evenly distributed between the background and text color (SOS-SOT). In a preferred embodiment of the invention, if b 0 > 6, then the fragment is classified as text, otherwise as non-text 509.

Второй подход к обнаружению фрагментов с текстом включает следующие шаги:The second approach to detecting fragments with text includes the following steps:

- разделяют изображения на прямоугольные блоки с перекрытием;- divide images into rectangular blocks with overlapping;

- вычисляют признаки для каждого блока;- calculate the characteristics for each block;

- классифицируют каждый блок;- classify each block;

- объединяют соседние блоки в фрагменты текста. В предпочтительном варианте реализации размер блока составляет 7×7 или 9×9 пикселей. Перекрытие блоков может составлять 1, или 2, или 3 пикселя.- combine adjacent blocks into fragments of text. In a preferred embodiment, the block size is 7 × 7 or 9 × 9 pixels. Overlapping blocks can be 1, or 2, or 3 pixels.

Для каждого блока вычисляют следующие признаки:For each block, the following characteristics are calculated:

- число ненулевых столбцов и нулевых столбцов гистограммы раздельно для каждого канала;- the number of non-zero columns and zero columns of the histogram separately for each channel;

- средняя яркость блока: I ¯ i = r = 1 N c = 1 N I i ( r , c ) N 2

Figure 00000007
, где Ii(r, c) - яркость пикселя в ряду r и колонке c, N - число пикселей в блоке;- average block brightness: I ¯ i = r = one N c = one N I i ( r , c ) N 2
Figure 00000007
where I i (r, c) is the pixel brightness in the row r and column c, N is the number of pixels in the block;

- средняя разность средней яркости блока средняя разность средних яркостей блоков Ik в 4-связном соседстве с блоком Ii: d I ¯ i = k = 1 4 | I ¯ i I ¯ k | 4

Figure 00000008
;- the average difference in the average brightness of the block the average difference in the average brightness of the blocks I k in a 4-connected neighborhood with the block I i : d I ¯ i = k = one four | | | I ¯ i - I ¯ k | | | four
Figure 00000008
;

- среднее значение вертикальных d I y i

Figure 00000009
и горизонтальных d I x i
Figure 00000010
производных по блокам: d x , y I ¯ i = r = 1 N c = ` N 1 d I x i ( r , c ) + r = 1 N 1 c = ` N d I y i ( r , c ) + 2 N ( N 1 )
Figure 00000011
;- average value of vertical d I y i
Figure 00000009
and horizontal d I x i
Figure 00000010
derivatives in blocks: d x , y I ¯ i = r = one N c = ` N - one d I x i ( r , c ) + r = one N - one c = ` N d I y i ( r , c ) + 2 N ( N - one )
Figure 00000011
;

- однородность блока: H = i , j N d ( i , j ) 1 + | i j |

Figure 00000012
, где Nd - это нормированная матрица вхождений, d - определяет пространственную связь;- homogeneity of the block: H = i , j N d ( i , j ) one + | | | i - j | | |
Figure 00000012
where N d is the normalized matrix of occurrences, d - defines the spatial relationship;

- процент пикселей с градиентом выше порога: P g = ( r , c ) B i { 1 | I i ( r , c ) > T } / N 2

Figure 00000013
, где ∇I i(r, c) вычисляется как квадратный корень из суммы квадратов горизонтальных и вертикальных производных;- percentage of pixels with a gradient above the threshold: P g = ( r , c ) B i { one | | | I i ( r , c ) > T } / N 2
Figure 00000013
where ∇I i (r, c) is calculated as the square root of the sum of the squares of the horizontal and vertical derivatives;

- процент изменений яркостей пикселей на изображении I i o

Figure 00000014
, полученном в результате применения операции морфологического открытия к бинарному изображению I i b
Figure 00000015
, полученному бинаризацией с пороговым значением 128: P m = ( r , c ) B i { 1 | I i o ( r , c ) I i b ( r , c ) } / N 2
Figure 00000016
.- percentage of changes in brightness of pixels in the image I i o
Figure 00000014
obtained by applying the morphological discovery operation to a binary image I i b
Figure 00000015
obtained by binarization with a threshold value of 128: P m = ( r , c ) B i { one | | | I i o ( r , c ) I i b ( r , c ) } / N 2
Figure 00000016
.

Для классификации на два подмножества (текст и рисунок), основанной на перечисленных выше признаках, может быть использован один из следующих способов: бустинг комитета решающих деревьев (Yoav Freund and Robert E.Schapire. 1997. A decision-theoretic generalization of on-line learning and an application to boosting. J. Comput. Syst. Sci. 55, 1 (August 1997), 119-139.), случайный лес решающих деревьев (Leo Breiman. 2001. Random Forests. Mach. Learn. 45, 1 (October 2001), 5-32.), машина опорных векторов (Corinna Cortes and Vladimir Vapnik. 1995. Support-Vector Networks. Mach. Learn. 20, 3 (September 1995), 273-297.), способ К-ближайших соседей (D.Coomans, D.L.Massart, Alternative k-nearest neighbour rules in supervised pattern recognition: Part 1. k-Nearest neighbour classification by using alternative voting rules, Analytica Chimica Acta, Volume 136, 1982, Pages 15-27).One of the following methods can be used to classify into two subsets (text and figure) based on the above criteria: boosting the decision tree committee (Yoav Freund and Robert E. Schapire. 1997. A decision-theoretic generalization of on-line learning and an application to boosting. J. Comput. Syst. Sci. 55, 1 (August 1997), 119-139.), random forest of decision trees (Leo Breiman. 2001. Random Forests. Mach. Learn. 45, 1 (October 2001), 5-32.), A support vector machine (Corinna Cortes and Vladimir Vapnik. 1995. Support-Vector Networks. Mach. Learn. 20, 3 (September 1995), 273-297.), Method of K-nearest neighbors ( D.Coomans, DLMassart, Alternative k-nearest neighbor rules in supervised pattern recognition: Part 1. k-Nearest neigh bour classification by using alternative voting rules, Analytica Chimica Acta, Volume 136, 1982, Pages 15-27).

На Фиг.6 показана блок-схема процесса векторизации. После обнаружения фрагментов скриншота, содержащих текст, цветные фрагменты трансформируются в полутоновые изображения 601 и увеличиваются на коэффициент к 602. В предпочтительном варианте реализации заявленного способа применяется билинейная интерполяция, так как исходное разрешение символа на скриншоте мало. Например, при разрешении экрана 1920×1080 пикселей высота строчного символа шрифта Times New Roman 12-го кегля при 100% масштабе составляет 7-8 пикселей. Далее полутоновые фрагменты повышенного разрешения бинаризуются 603. В предпочтительном варианте реализации для определения порога сегментации используется метод Отцу (N.Otsu, "А threshold selection method from grey level histogram", IEEE Transactions on System Man Cybernetics, vol. 9 no. 1, 1979, pp.62-66.). Bсe бинаризованные фрагменты объединяются в соответствии с их координатами на скриншоте для формирования карты сегментированного текста. В предпочтительном варианте реализации использован коэффициент к равный трем.Figure 6 shows a block diagram of the vectorization process. After detecting screenshot fragments containing text, color fragments are transformed into grayscale images 601 and increased by a factor of 602. In a preferred embodiment of the inventive method, bilinear interpolation is used, since the initial resolution of the symbol in the screenshot is small. For example, at a screen resolution of 1920 × 1080 pixels, the height of the lowercase character of the Times New Roman font of the 12th size at 100% scale is 7-8 pixels. Next, high-resolution halftone fragments are binarized 603. In the preferred embodiment, the Father method is used to determine the segmentation threshold (N. Otsu, "A threshold selection method from gray level histogram", IEEE Transactions on System Man Cybernetics, vol. 9 no. 1, 1979 , pp. 62-66.). All binarized fragments are combined in accordance with their coordinates in the screenshot to form a map of segmented text. In a preferred embodiment, a coefficient k of three is used.

На шаге 604 отслеживаются внешние и внутренние контура каждого текстового фрагмента для получения траектории контуров данного фрагмента. На данном этапе контур представляет собой замкнутую последовательность точек (вершин), связанных линейными сегментами минимальной длины, равной одному пикселю. Процедура отслеживания идет от начальной вершины вдоль контурной линии по заданному направлению, пока начальная вершина не будет достигнута снова. На следующем шаге 605 уменьшается количество вершин за счет аппроксимации контурной траектории многоугольником. Многоугольник преобразуется в сглаженный контур на шаге 606 за счет аппроксимации замкнутой последовательностью отрезков прямых и кривых. В предпочтительном варианте реализации заявленного способа используются кубические кривые Безье (Piegl, L.Fundamental Developments of Computer Aided Geometric Design. San Diego, CA: Academic Press, 1993). В общем случае, аппроксимация линейными отрезками основана на определении координат концов отрезков. Аппроксимация кривыми отрезками требует определения концов отрезков и соответствующих опорных точек. Например, в соответствии с иллюстрацией на Фиг.7, угол 703 между краями 701-703 и 703-706 полинома может быть аппроксимирован кубической кривой Безье 705, ограниченной точками 702 и 704. Пример аппроксимации символа 707 показан на 708.At step 604, the external and internal contours of each text fragment are monitored to obtain the path paths of the given fragment. At this stage, the contour is a closed sequence of points (vertices) connected by linear segments of minimum length equal to one pixel. The tracking procedure goes from the starting vertex along the contour line in a given direction until the starting vertex is reached again. At the next step 605, the number of vertices decreases due to the approximation of the contour path by a polygon. The polygon is converted to a smooth contour at step 606 due to the approximation by a closed sequence of line segments and curves. In a preferred embodiment of the inventive method, cubic Bezier curves are used (Piegl, L. Fundamental Developments of Computer Aided Geometric Design. San Diego, CA: Academic Press, 1993). In the general case, the approximation by linear segments is based on determining the coordinates of the ends of the segments. The approximation by curved segments requires the determination of the ends of the segments and the corresponding reference points. For example, in accordance with the illustration in FIG. 7, the angle 703 between the edges 701-703 and 703-706 of the polynomial can be approximated by a cubic Bezier curve 705 bounded by points 702 and 704. An example of the approximation of the symbol 707 is shown in 708.

Иллюстрация преобразования текста скриншота из исходного растрового вида к векторному показана на Фиг.8 в соответствии с шагами 201, 203 и 204. Фрагмент 801 сглаженного текста увеличивается (802) для улучшения разрешения и преобразовывается в бинарное избражение 803. Результирующий векторизованный фрагмент представлен на 804.An illustration of the conversion of the screenshot text from the initial raster view to a vector one is shown in Fig. 8 in accordance with steps 201, 203 and 204. The smoothed text fragment 801 is enlarged (802) to improve resolution and converted to binary image 803. The resulting vectorized fragment is represented by 804.

Фиг.9 демонстрирует результат применения заявленного способа. Первый фрагмент 901 соответствует исходному скриншоту. Второй - фрагменту 902 напечатанного скриншота. Третий фрагмент 903 получен печатью скриншота с повышенным с помощью билинейной интерполяции разрешением. И для сравнения четвертым приведен фрагмент 904 напечатанного скриншота после обработки заявленным способом. Текст выглядит более четким и контрастным.Figure 9 shows the result of applying the claimed method. The first fragment 901 corresponds to the original screenshot. The second is to fragment 902 of the printed screenshot. The third fragment 903 was obtained by printing a screenshot with a higher resolution using bilinear interpolation. And for comparison, the fourth fragment of 904 printed screenshots after processing the claimed method is shown. The text looks sharper and sharper.

Дальнейшие аспекты изобретения могут быть получены из рассмотрения иллюстраций и описания предпочтительных вариантов реализации. Специалистам ясно, что возможны разные варианты осуществления изобретения, добавления и замены, не выходящие за рамки притязаний и смысла настоящего изобретения, раскрытых в прилагаемой формуле изобретения.Further aspects of the invention can be obtained from consideration of the illustrations and description of preferred embodiments. It is clear to those skilled in the art that various embodiments of the invention, additions and substitutions are possible, without departing from the claims and meaning of the present invention disclosed in the attached claims.

Заявляемый способ и система предназначены для реализации в драйвере принтера или поддерживающего программного обеспечения для черно-белых и цветных принтеров или МФУ. Кроме того способ может быть реализован в виде программного приложения для печати.The inventive method and system are intended to be implemented in a printer driver or supporting software for black-and-white and color printers or MFPs. In addition, the method can be implemented as a software application for printing.

Claims (9)

1. Способ преобразования снимка экрана в метафайл, включающий в себя выполнение следующих операций:
- обнаруживают фрагменты сглаженного текста на снимке экрана;
- оценивают цвет фона и цвет символов сглаженного текста на каждом фрагменте на основе определения крайних столбцов гистограммы фрагмента;
- векторизуют контуры символов сглаженного текста;
- модифицируют снимок экрана за счет замещения фрагментов сглаженного текста цветом фона;
- создают метафайл на основе модифицированного снимка экрана и векторизованных контуров, заполненных цветом символов сглаженного текста;
- визуализируют созданный метафайл посредством отображения на дисплее или посредством печати.
1. A method of converting a screenshot into a metafile, including the following operations:
- detect fragments of smoothed text in a screenshot;
- evaluate the background color and the color of the characters of the smoothed text on each fragment based on the definition of the extreme columns of the fragment histogram;
- vectorize the outline of the characters of the smoothed text;
- modify the screenshot by replacing fragments of the smoothed text with the background color;
- create a metafile based on a modified screenshot and vectorized outlines filled with the color of the characters of the smoothed text;
- visualize the created metafile by displaying or by printing.
2. Способ по п.1, отличающийся тем, что фрагменты сглаженного текста на снимке экрана обнаруживают путем выполнения следующих операций:
- обнаруживают соседние пиксели с высоким значением горизонтального градиента;
- объединяют соседние пиксели во фрагменты;
- анализируют гистограммы фрагментов на предмет обнаружения признаков сглаженного текста;
- выделяют фрагменты с признаками сглаженного текста.
2. Method according to claim 1, characterized i in that the anti-aliased text fragments on the screen shot is detected by performing the following operations:
- detect neighboring pixels with a high value of the horizontal gradient;
- combine adjacent pixels into fragments;
- analyze the histograms of fragments for the detection of signs of a smoothed text;
- extract fragments with signs of a smoothed text.
3. Способ по п.2, отличающийся тем, что объединяют соседние пиксели во фрагменты посредством морфологического расширения (дилатации) и определения ограничивающих прямоугольников для каждой связанной группы пикселей.3. The method according to claim 2, characterized in that adjacent pixels are combined into fragments by means of morphological expansion (dilatation) and determination of bounding rectangles for each associated group of pixels. 4. Способ по п.2, отличающийся тем, что в процессе анализа гистограммы фрагментов обнаружение признаков сглаженного текста осуществляют за счет того, что подсчитывают количество изолированных групп с ненулевыми столбцами для каждого цвета и проверяют это количество на превышение заданного порога.4. The method according to claim 2, characterized in that in the process of analyzing the histogram of fragments, the detection of smoothed text is carried out by counting the number of isolated groups with non-zero columns for each color and checking this number for exceeding a predetermined threshold. 5. Способ по п.1, отличающийся тем, что фрагменты сглаженного текста на снимке экрана обнаруживают путем выполнения следующих операций:
- делят снимок экрана на пересекающиеся прямоугольные блоки;
- вычисляют признаки для каждого блока;
- классифицируют каждый блок как текстовый или нетекстовый;
- объединяют соседние блоки во фрагменты текста.
5. The method according to claim 1, characterized in that fragments of the smoothed text in the screenshot are detected by performing the following operations:
- divide the screenshot into intersecting rectangular blocks;
- calculate the characteristics for each block;
- classify each block as text or non-text;
- combine adjacent blocks into fragments of text.
6. Способ по п.5, отличающийся тем, что для каждого блока вычисляют следующие характерные признаки:
- число ненулевых столбцов b + и нулевых столбцов b 0 раздельно для каждого канала цветового пространства RGB;
- среднюю яркость блока:
Figure 00000017
, где I i (r,c) - яркость пикселя, расположенного в строке r и столбце c, N - количество пикселей в блоке;
- среднюю разность средних яркостей блоков I k в 4-связном соседстве с блоком
Figure 00000018
;
- среднее значение вертикальных
Figure 00000019
и горизонтальных
Figure 00000020
производных по блокам:
Figure 00000021
;
- однородность блока:
Figure 00000022
, где N d - это нормированная матрица вхождений, d - определяет пространственную связь;
- процент пикселей с градиентом выше порога:
Figure 00000023
вычисляется как квадратный корень из суммы квадратов горизонтальных и вертикальных производных;
- процент изменений яркостей пикселей на изображении
Figure 00000024
, полученном в результате применения операции морфологического открытия к бинарному изображению
Figure 00000025
, полученному бинаризацией с пороговым значением 128:
Figure 00000026
.
6. The method according to claim 5, characterized in that for each block the following characteristic features are calculated:
- the number of non-zero columns b + and zero columns b 0 separately for each channel of the RGB color space;
- average brightness of the block:
Figure 00000017
where I i (r, c) is the brightness of the pixel located in row r and column c , N is the number of pixels in the block;
- the average difference in the average brightness of the blocks I k in a 4-connected neighborhood with the block
Figure 00000018
;
- average value of vertical
Figure 00000019
and horizontal
Figure 00000020
derivatives in blocks:
Figure 00000021
;
- homogeneity of the block:
Figure 00000022
where N d is the normalized matrix of occurrences, d - defines the spatial relationship;
- percentage of pixels with a gradient above the threshold:
Figure 00000023
calculated as the square root of the sum of the squares of the horizontal and vertical derivatives;
- percentage of changes in brightness of pixels in the image
Figure 00000024
obtained by applying the morphological discovery operation to a binary image
Figure 00000025
obtained by binarization with a threshold value of 128:
Figure 00000026
.
7. Способ по п.5, отличающийся тем, что классифицируют каждый блок как текстовый или нетекстовый по одному из следующих способов: бустинг комитета решающих деревьев, случайный лес решающих деревьев, машина опорных векторов, способ К-ближайших соседей.7. The method according to claim 5, characterized in that each block is classified as text or non-text according to one of the following methods: boosting of the decision tree committee, random forest of decision trees, support vector machine, K-nearest neighbors method. 8. Способ по п.1, отличающийся тем, что векторизуют контуры символов сглаженного текста путем выполнения следующих операций:
- преобразуют фрагмент текста в полутоновое изображение;
- повышают разрешение полутонового изображения;
- бинаризуют фрагмент повышенного разрешения;
- отслеживают точки контуров символов в пределах фрагментов для описания траектории контуров;
- сокращают числа вершин контуров;
- аппроксимируют траекторию контуров с сокращенным числом вершин последовательностью отрезков прямых и кривых;
8. The method according to claim 1, characterized in that the vector outlines of the characters of the smoothed text by performing the following operations:
- convert a fragment of text into a grayscale image;
- increase the resolution of the grayscale image;
- binarize a fragment of high resolution;
- track the points of the contours of the characters within the fragments to describe the path of the contours;
- reduce the number of vertex contours;
- approximate the path of the contours with a reduced number of vertices by a sequence of line segments and curves;
9. Система преобразования снимка экрана в метафайл, включающая в себя:
- модуль сегментации текста, выполненный с возможностью сегментации текста, создания размеченной карты сегментированного текста и определения координат фрагментов, содержащих сглаженный текст; причем на вход модуля поступает исходное растровое изображение снимка экрана, выходы модуля сегментации текста подключены к входам модулей векторизации и ретуширования, куда передается карта, а также к входу модуля оценки цвета, куда передаются координаты фрагментов и исходный снимок экрана;
- модуль оценки цвета, выполненный с возможностью определения цвета фона и текста для каждого фрагмента; на вход модуля поступают с выхода модуля сегментации текста координаты фрагментов и исходный снимок экрана; выходы модуля оценки цвета подключены к входу модуля ретуширования и входу модуля создания метафайла;
- модуль векторизации, выполненный с возможностью аппроксимации контуров символов на карте сегментированного текста замкнутой последовательностью отрезков прямых и кривых; вход модуля подключен к выходу модуля сегментации с возможностью получения карты; выход модуля векторизации подключен к входу модуля создания метафайла;
- модуль ретуширования текста, выполненный с возможностью модификации исходного растрового изображения снимка экрана посредством закрашивания области фрагментов с текстом соответствующим цветом фона; вход модуля подключен к выходу модуля оценки цвета; выход модуля подключен к входу модуля создания метафайла, куда передается модифицированный снимок экрана;
- модуль создания метафайла, выполненный с возможностью формирования метафайла из следующих записей: модифицированного снимка экрана, замкнутых последовательностей отрезков прямых и кривых, заполненных соответствующим цветом символа.
9. A system for converting a screenshot into a metafile, including:
- text segmentation module, configured to segment text, create a marked-up map of segmented text and determine the coordinates of fragments containing smoothed text; moreover, the input bitmap image of the screenshot is input to the module, the outputs of the text segmentation module are connected to the inputs of the vectorization and retouching modules, where the map is transferred, as well as to the input of the color estimation module, where the coordinates of the fragments and the original screenshot are transmitted;
- color evaluation module, configured to determine the background color and text for each fragment; the coordinates of the fragments and the initial screenshot are received from the output of the text segmentation module; the outputs of the color evaluation module are connected to the input of the retouching module and the input of the metafile creation module;
- a vectorization module, configured to approximate the contours of characters on a segmented text map with a closed sequence of line segments and curves; the input of the module is connected to the output of the segmentation module with the possibility of obtaining a card; the output of the vectorization module is connected to the input of the metafile creation module;
- text retouching module, configured to modify the initial bitmap image of the screen shot by filling in the area of fragments with the text with the corresponding background color; the input of the module is connected to the output of the color evaluation module; the output of the module is connected to the input of the metafile creation module, where the modified screenshot is transmitted;
- a metafile creation module, configured to generate a metafile from the following entries: a modified screen shot, closed sequences of line segments and curves filled with the corresponding symbol color.
RU2013104245/08A 2013-02-01 2013-02-01 Method and system for converting screenshot into metafile RU2534005C2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
RU2013104245/08A RU2534005C2 (en) 2013-02-01 2013-02-01 Method and system for converting screenshot into metafile
KR1020140003340A KR101887929B1 (en) 2013-02-01 2014-01-10 Image Processing Apparatus, Image Processing Method, Computer Readable Recording Medium and Image Forming Apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2013104245/08A RU2534005C2 (en) 2013-02-01 2013-02-01 Method and system for converting screenshot into metafile

Publications (2)

Publication Number Publication Date
RU2013104245A RU2013104245A (en) 2014-08-10
RU2534005C2 true RU2534005C2 (en) 2014-11-27

Family

ID=51354900

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013104245/08A RU2534005C2 (en) 2013-02-01 2013-02-01 Method and system for converting screenshot into metafile

Country Status (2)

Country Link
KR (1) KR101887929B1 (en)
RU (1) RU2534005C2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2669063C2 (en) * 2015-10-29 2018-10-08 Сяоми Инк. Method and device for image acquisition
RU2782162C2 (en) * 2017-12-11 2022-10-21 Гуандун Оппо Мобайл Телекоммьюникейшнс Корп., Лтд. Method for obtainment of screenshot and related products

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102053659B1 (en) 2017-09-13 2019-12-09 (주)다비오 Apparatus of manufacturing map based on machine learning and image processing
CN110930302B (en) * 2018-08-30 2024-03-26 珠海金山办公软件有限公司 Picture processing method and device, electronic equipment and readable storage medium
CN110727495B (en) * 2019-10-18 2022-12-23 深圳市比量科技传媒有限公司 Automatic segmentation screenshot method and system for interface elements

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6169607B1 (en) * 1996-11-18 2001-01-02 Xerox Corporation Printing black and white reproducible colored test documents
JP2003324604A (en) * 2002-05-07 2003-11-14 Sharp Corp Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
US20040145592A1 (en) * 2001-01-09 2004-07-29 Twersky Irving Yitzchak Apparatus and methods for replacing decorative images with text and/or graphical patterns
KR20080095743A (en) * 2007-04-25 2008-10-29 히타치 오므론 터미널 솔루션즈 가부시키가이샤 Image processing program and image processing device
US20090148043A1 (en) * 2007-12-06 2009-06-11 International Business Machines Corporation Method for extracting text from a compound digital image
US20110170801A1 (en) * 2010-01-09 2011-07-14 Microsoft Corporation Resizing of digital images
CN102194114A (en) * 2011-06-25 2011-09-21 电子科技大学 Method for recognizing iris based on edge gradient direction pyramid histogram
RU2433477C1 (en) * 2007-07-30 2011-11-10 Долби Лэборетериз Лайсенсинг Корпорейшн Image dynamic range expansion
RU2469400C1 (en) * 2011-11-17 2012-12-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method to convert bitmapped image into metafile

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3446794B2 (en) * 1996-08-26 2003-09-16 株式会社日本デジタル研究所 Polygon approximation method and character recognition device for character recognition
JP5047051B2 (en) * 2008-05-02 2012-10-10 キヤノン株式会社 Image processing apparatus and image encoding method
JP5159588B2 (en) * 2008-12-05 2013-03-06 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP2012003480A (en) * 2010-06-16 2012-01-05 Nippon Hoso Kyokai <Nhk> Telop character area detector and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6169607B1 (en) * 1996-11-18 2001-01-02 Xerox Corporation Printing black and white reproducible colored test documents
US20040145592A1 (en) * 2001-01-09 2004-07-29 Twersky Irving Yitzchak Apparatus and methods for replacing decorative images with text and/or graphical patterns
JP2003324604A (en) * 2002-05-07 2003-11-14 Sharp Corp Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
KR20080095743A (en) * 2007-04-25 2008-10-29 히타치 오므론 터미널 솔루션즈 가부시키가이샤 Image processing program and image processing device
RU2433477C1 (en) * 2007-07-30 2011-11-10 Долби Лэборетериз Лайсенсинг Корпорейшн Image dynamic range expansion
US20090148043A1 (en) * 2007-12-06 2009-06-11 International Business Machines Corporation Method for extracting text from a compound digital image
US20110170801A1 (en) * 2010-01-09 2011-07-14 Microsoft Corporation Resizing of digital images
CN102194114A (en) * 2011-06-25 2011-09-21 电子科技大学 Method for recognizing iris based on edge gradient direction pyramid histogram
RU2469400C1 (en) * 2011-11-17 2012-12-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method to convert bitmapped image into metafile

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2669063C2 (en) * 2015-10-29 2018-10-08 Сяоми Инк. Method and device for image acquisition
US10530836B2 (en) 2015-10-29 2020-01-07 Xiaomi Inc. Methods and apparatuses for acquiring image
RU2782162C2 (en) * 2017-12-11 2022-10-21 Гуандун Оппо Мобайл Телекоммьюникейшнс Корп., Лтд. Method for obtainment of screenshot and related products
RU2782162C9 (en) * 2017-12-11 2022-12-26 Гуандун Оппо Мобайл Телекоммьюникейшнс Корп., Лтд. Method for obtainment of screenshot and related products

Also Published As

Publication number Publication date
KR20140099183A (en) 2014-08-11
KR101887929B1 (en) 2018-08-13
RU2013104245A (en) 2014-08-10

Similar Documents

Publication Publication Date Title
JP6998198B2 (en) Multi-binary image processing
US9042649B2 (en) Color document image segmentation and binarization using automatic inpainting
US10423827B1 (en) Image text recognition
US11587216B2 (en) Detection and identification of objects in images
US20110075936A1 (en) Methods for image processing
US10509959B2 (en) Method and device for segmenting lines in line chart
US8456711B2 (en) SUSAN-based corner sharpening
RU2534005C2 (en) Method and system for converting screenshot into metafile
JP2004166007A (en) Device, method and program for image processing, and storage medium
US8259374B2 (en) Image processing apparatus and image forming apparatus
Walha et al. Resolution enhancement of textual images: a survey of single image‐based methods
CA2790210C (en) Resolution adjustment of an image that includes text undergoing an ocr process
US9741142B2 (en) Method and apparatus for enabling text editing in a scanned document while maintaining fidelity of the appearance of the text
US10460219B2 (en) Generating an object map from a plurality of binary images
JP5335581B2 (en) Image processing apparatus, image processing method, and program
US9225876B2 (en) Method and apparatus for using an enlargement operation to reduce visually detected defects in an image
Ramadhan et al. Text detection in natural image by connected component labeling
JP2025015415A (en) Information processing device and information processing method for processing overlay image
US9648208B2 (en) Method and apparatus and using an enlargement operation to reduce visually detected defects in an image
JP3952188B2 (en) Image interpolation apparatus, image interpolation method, and image interpolation program
US20120159292A1 (en) Method of processing an object-based image file with content type dependent image processing algorithms
RU2520407C1 (en) Method and system of text improvement at digital copying of printed documents
US20060233452A1 (en) Text enhancement methodology in scanned images of gray-scale documents
Kurilin et al. Generation of PDF with vector symbols from scanned document
JP5718728B2 (en) Character readability evaluation method

Legal Events

Date Code Title Description
PD4A Correction of name of patent owner
PC41 Official registration of the transfer of exclusive right

Effective date: 20170921

PD4A Correction of name of patent owner
MM4A The patent is invalid due to non-payment of fees

Effective date: 20200202