RU2542876C2 - Apparatus for selecting highly detailed objects on scene image - Google Patents

Apparatus for selecting highly detailed objects on scene image Download PDF

Info

Publication number
RU2542876C2
RU2542876C2 RU2013124207/08A RU2013124207A RU2542876C2 RU 2542876 C2 RU2542876 C2 RU 2542876C2 RU 2013124207/08 A RU2013124207/08 A RU 2013124207/08A RU 2013124207 A RU2013124207 A RU 2013124207A RU 2542876 C2 RU2542876 C2 RU 2542876C2
Authority
RU
Russia
Prior art keywords
input
output
image
unit
block
Prior art date
Application number
RU2013124207/08A
Other languages
Russian (ru)
Other versions
RU2013124207A (en
Inventor
Владимир Иванович Марчук
Евгений Александрович Семенищев
Илья Александрович Торопов
Ирина Владимировна Толстова
Original Assignee
Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС")
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") filed Critical Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС")
Priority to RU2013124207/08A priority Critical patent/RU2542876C2/en
Publication of RU2013124207A publication Critical patent/RU2013124207A/en
Application granted granted Critical
Publication of RU2542876C2 publication Critical patent/RU2542876C2/en

Links

Abstract

FIELD: physics, video.
SUBSTANCE: invention relates to apparatus for selecting highly detailed objects. The apparatus comprises an input realisation storage unit, a control unit, a Canny edge detector unit, a unit for determining a common detailing coefficient, a sliding window selection unit, a unit for determining the detailing coefficient in the sliding window, a comparison unit, an output realisation storage unit and a clock pulse generator.
EFFECT: selecting highly detailed objects on images and video sequences on an arbitrary low-detailed background.
1 dwg

Description

Изобретение относится к области вычислительной техники и может быть использовано в цифровых телевизионных и фотосистемах, глобальных системах позиционирования и наблюдения.The invention relates to the field of computer technology and can be used in digital television and photo systems, global positioning and surveillance systems.

Основная решаемая задача - выделение высокодетализированного объекта на произвольном низкодетализированном фоне.The main problem to be solved is the selection of a highly detailed object against an arbitrary low-detailed background.

При автоматизации информационных, радиоэлектронных и других систем, работающих с изображениями, а также для более точного анализа и принятия решений важным аспектом является прием качественного двумерного сигнала, однако в случае невозможности получения появляется необходимость в его улучшении, то есть в проведении предварительной обработки.When automating information, radio-electronic and other systems working with images, as well as for more accurate analysis and decision making, an important aspect is the reception of a high-quality two-dimensional signal, however, if it is impossible to obtain, it becomes necessary to improve it, that is, to carry out preliminary processing.

К предобработке относятся: отделение объекта от фона, повышение четкости контуров, фильтрация с различными параметрами. Однако ограниченный объем используемых вычислительных ресурсов ведет к повышению времени обработки сигнала либо к применению менее требовательных к вычислительным затратам методов, но в большинстве случаев не обеспечивающих достаточного качества фильтрации изображения.Pre-processing includes: separating the object from the background, increasing the clarity of the contours, filtering with various parameters. However, the limited amount of computational resources used leads to an increase in the signal processing time or to the use of less computationally intensive methods, but in most cases not providing sufficient image filtering quality.

Решение задачи отделения объекта от фона на изображении дает возможность выделить области с высокой детализацией объектов и области - фон, не несущие полезной информации. Поэтому задача поиска и выделения объекта или интересующих участков объекта на изображении сцены является сложной комплексной задачей, решение которой позволит:The solution of the problem of separating the object from the background in the image makes it possible to highlight areas with high detail of objects and areas - the background, which do not carry useful information. Therefore, the task of finding and highlighting an object or areas of interest in the scene image is a complex complex task, the solution of which will allow:

1. Производить обработку выделенных участков методами, требующими высоких вычислительных затрат, но являющимися точными и качественными.1. To process the selected areas by methods requiring high computational costs, but being accurate and high quality.

2. Локализовать области обработки и повысить быстродействие вычислительных систем.2. Localize processing areas and increase the performance of computing systems.

Известен способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине [Патент №2426172, МПК G06K 9/34]. Изобретение относится к области распознавания и сегментации изображений, в частности к способу для выделения целевого объекта из фонового изображения с использованием маски. Техническим результатом является создание усовершенствованного способа выделения данных об изображении объекта, используя данные о глубине изображения. Указанный технический результат достигается тем, что создают скалярное изображение на основе разделения объекта и фона. Различие определяется по разности освещенности. В области, где разность освещенности ниже заранее установленного порогового значения, на основе разности цвета по результатам, полученным из предыдущего видеокадра, инициализируют маску. Там где скалярное изображение разности меньше заранее установленного порога, маску заполняют единицами, где соответствующий пиксель принадлежит объекту, и нулями в ином случае. Затем кластеризуют скалярное изображение разности и на основе нескольких кластеров и создают маску для каждого положения пикселя видеокадра. Используя центры тяжести кластеров скалярной разности и данные по глубине для текущего положения пикселя, компенсируют изменения фона сцены во времени путем обновления изображения фона на основе использования созданной маски и изображения разности. Полученный отделенный объект сохраняется для последующей обработки.A known method and system for extracting data about the image of the foreground object based on data on color and depth [Patent No. 2426172, IPC G06K 9/34]. The invention relates to the field of image recognition and segmentation, in particular to a method for extracting a target from a background image using a mask. The technical result is the creation of an improved method for extracting data about the image of an object using data about the depth of the image. The specified technical result is achieved by creating a scalar image based on the separation of the object and the background. The difference is determined by the difference in illumination. In the area where the illumination difference is lower than a predetermined threshold value, a mask is initialized based on the color difference from the results obtained from the previous video frame. Where the scalar image of the difference is less than a predetermined threshold, the mask is filled with units where the corresponding pixel belongs to the object, and zeros otherwise. Then, the scalar image of the difference is clustered based on several clusters and a mask is created for each pixel position of the video frame. Using the centers of gravity of the clusters of the scalar difference and depth data for the current pixel position, compensate for changes in the background of the scene over time by updating the background image based on the use of the created mask and the difference image. The resulting separated object is stored for further processing.

Признаки способа и системы - аналога, совпадающие с признаками заявляемого технического решения, следующие: выделение целевого объекта из фонового изображения.The signs of the method and system is similar, matching the features of the proposed technical solution, the following: the selection of the target object from the background image.

Недостатками известного способа и системы являются:The disadvantages of the known method and system are:

Требуется обязательное использование видеокамер. Mandatory use of cameras is required.

Исследование видеопотока требует больших вычислительных затрат.The study of the video stream requires large computational costs.

Известен способ выделения объекта на изображении на основе решения уравнений Пуассона (Poisson matting for images) [Patent USA №7636128]. Способ основан на решении системы уравнений Пуассона с граничными условиями для изображения, сегментированного на три области: передний план, фон, неизвестная область, разделяющая передний план и фон. Для разделения объектов решают уравнение Пуассона вида:There is a method of isolating an object in an image based on the solution of Poisson matting for images [Patent USA No. 7636128]. The method is based on solving a system of Poisson equations with boundary conditions for an image segmented into three areas: foreground, background, unknown region separating the foreground and background. To separate objects, they solve the Poisson equation of the form:

α * = arg min α z Ω α z 1 F z B z I z 2 d z

Figure 00000001
α * = arg min α z Ω α z - one F z - B z I z 2 d z
Figure 00000001

с граничным условием Дирихле:with the Dirichlet boundary condition:

α | Ω = α ¯ | Ω ,   α ¯ | Ω = { 1 , p Ω F 0 , p Ω B .

Figure 00000002
α | Ω = α ¯ | Ω , α ¯ | Ω = { one , p Ω F 0 , p Ω B .
Figure 00000002

Найденное решение системы уравнений Пуассона позволяет разделение объектов, т.е. альфа-каналом изображения, для уточнения которого применяют локальные фильтры, позволяющие вручную исправить окончательный результат с помощью решения локальных уравнений Пуассона.The found solution of the system of Poisson equations allows separation of objects, i.e. alpha channel of the image, for refinement of which local filters are used, which allow you to manually correct the final result by solving local Poisson equations.

Признаки способа - аналога, совпадающие с признаками заявляемого технического решения, следующие: выделение объекта из фонового изображения.The signs of the method is an analogue that coincides with the features of the proposed technical solution, the following: the selection of the object from the background image.

Недостатками известного способа являются: применение локальных фильтров, исправляющие вручную окончательный результат с помощью решения локальных уравнений Пуассона, что не позволяет получить эффективной автоматизированной системы обработки.The disadvantages of this method are: the use of local filters, manually correcting the final result by solving local Poisson equations, which does not allow to obtain an effective automated processing system.

Известно устройство выделения контуров объектов на изображении [Патент №2362210, МПК G06K 9/36, G06K 9/62, A61B 5/04]. Изобретение относится к области распознавания образов и может быть использовано в системах технического зрения при решении задач предварительной обработки изображения.A device for isolating the contours of objects in an image is known [Patent No. 2362210, IPC G06K 9/36, G06K 9/62, A61B 5/04]. The invention relates to the field of pattern recognition and can be used in vision systems for solving problems of image preprocessing.

Алгоритм обработки изображений включает в себя следующие операции: фильтрацию, пространственное дифференцирование, скелетизацию и пороговую обработку. The image processing algorithm includes the following operations: filtering, spatial differentiation, skeletonization and threshold processing.

Изображение фиксируется датчиком изображения, переводящим его в телевизионный сигнал. При появлении кадрового синхроимпульса формируется сигнал начала кадра, по которому ЦСП переходит в состояние ожидания подтверждения данных, приходящего по окончании строчного синхроимпульса, по которому ЦСП выполняет последовательное считывание строки изображения с информационного выхода АЦП в ОЗУ. Таким образом, вводится весь кадр. Обработка изображений ведется параллельно со вводом следующего кадра.The image is captured by the image sensor, converting it to a television signal. When a frame clock appears, a frame start signal is generated, according to which the DSP goes into the waiting state for confirmation of data arriving at the end of the horizontal clock, according to which the DSP sequentially reads the image line from the information output of the ADC to RAM. Thus, the entire frame is introduced. Image processing is carried out in parallel with the input of the next frame.

При фильтрации ЦСП передает пять смежных строк изображения в буферную память блока фильтрации. В буферную память блока фильтрации записывается пять смежных строк изображения. На основании пяти строк изображения, находящихся в буферной памяти блока фильтрации, блок фильтрации формирует результирующую строку отфильтрованного изображения по формуле:When filtering, the DSP transfers five adjacent lines of the image to the buffer memory of the filtering unit. Five adjacent lines of the image are written to the buffer memory of the filtering unit. Based on the five lines of the image located in the buffer memory of the filtering unit, the filtering unit generates the resulting line of the filtered image according to the formula:

f ( z , y ) = f ( x , y ) T ¯ D = i = 1 N T j = 1 N T f ( x + j N T 2 1 , y + i N T 2 1 ) t ¯ i j , T ¯ D = t ¯ i j i = 1 , N T , ¯ j = 1 , N T ¯ ,

Figure 00000003
f ( z , y ) = f ( x , y ) T ¯ D = i = one N T j = one N T f ( x + j - N T 2 - one , y + i - N T 2 - one ) t ¯ i j , T ¯ D = t ¯ i j i = one , N T , ¯ j = one , N T ¯ ,
Figure 00000003

где: NT - размер маски, T ¯ D

Figure 00000004
- маска свертки.where: N T is the size of the mask, T ¯ D
Figure 00000004
- convolution mask.

T ¯ D = ( 1 5 7 5 1 5 20 33 20 5 7 33 55 33 7 5 20 33 20 5 1 5 7 5 1 )

Figure 00000005
T ¯ D = ( one 5 7 5 one 5 twenty 33 twenty 5 7 33 55 33 7 5 twenty 33 twenty 5 one 5 7 5 one )
Figure 00000005

При пространственном дифференцировании ЦСП передает три смежные строки изображения в буферную память блока пространственного дифференцирования. На основании трех строк изображения, находящихся в буферной памяти блока пространственного дифференцирования, формирующего результирующую строку обработанного изображения по формулеDuring spatial differentiation, the DSP transmits three adjacent lines of the image to the buffer memory of the spatial differentiation unit. Based on the three lines of the image located in the buffer memory of the spatial differentiation unit, which forms the resulting line of the processed image according to the formula

G r = d x 2 + d y 2 , a r c t g ( d y d x )

Figure 00000006
G r = d x 2 + d y 2 , a r c t g ( d y d x )
Figure 00000006

где dх(х,у), dy(x,y)- результаты свертки изображения I′ с горизонтальной Нх и вертикальной Ну масками соответственноwhere d x (x, y), d y (x, y) are the results of convolution of the image I ′ with horizontal Н х and vertical Н at masks, respectively

d x ( x , y ) = f ( x , y ) H x = i = 1 3 j = 1 3 f ( x + j 2 , y + k 2 ) h j k ( x ) , i = 1 , 2 , ¯

Figure 00000007
d x ( x , y ) = f ( x , y ) H x = i = one 3 j = one 3 f ( x + j - 2 , y + k - 2 ) h j k ( x ) , i = one , 2 , ¯
Figure 00000007

d y ( x , y ) = f ( x , y ) H y = i = 1 3 j = 1 3 f ( x + j 2 , y + k 2 ) h j k ( y ) , i = 1 , 2 , ¯

Figure 00000008
d y ( x , y ) = f ( x , y ) H y = i = one 3 j = one 3 f ( x + j - 2 , y + k - 2 ) h j k ( y ) , i = one , 2 , ¯
Figure 00000008

H x = h 12 ( x ) h 12 ( x ) h 13 ( x ) h 21 ( x ) h 22 ( x ) h 23 ( x ) h 31 ( x ) h 32 ( x ) h 33 ( x ) = 1 0 1 2 0 2 1 0 1 ,

Figure 00000009
H x = h 12 ( x ) h 12 ( x ) h 13 ( x ) h 21 ( x ) h 22 ( x ) h 23 ( x ) h 31 ( x ) h 32 ( x ) h 33 ( x ) = one 0 - one 2 0 - 2 one 0 - one ,
Figure 00000009
H y = h 12 ( y ) h 12 ( y ) h 13 ( y ) h 21 ( y ) h 22 ( y ) h 23 ( y ) h 31 ( y ) h 32 ( y ) h 33 ( y ) = 1 0 1 2 0 2 1 0 1 ,
Figure 00000010
H y = h 12 ( y ) h 12 ( y ) h 13 ( y ) h 21 ( y ) h 22 ( y ) h 23 ( y ) h 31 ( y ) h 32 ( y ) h 33 ( y ) = one 0 - one 2 0 - 2 one 0 - one ,
Figure 00000010

Таким образом, вычисления, производимые блоком пространственного дифференцирования, сводятся к операциям сложения, выполняемым с помощью сумматоров и логических элементов, что позволяет реализовать данный блок на ПЛИС. Операции скелетизации и бинаризации полностью выполняются процессором.Thus, the calculations performed by the spatial differentiation unit are reduced to addition operations performed with the help of adders and logic elements, which makes it possible to implement this unit on the FPGA. Skeletonization and binarization operations are completely performed by the processor.

Признаки устройства - аналога, совпадающие с признаками заявляемого технического решения, следующие: выделение контуров объекта на изображении.The signs of the device is an analogue, coinciding with the signs of the proposed technical solution, the following: the selection of the contours of the object in the image.

Недостатками известного устройства являются: Поиск контуров производится по анализу данных, получаемых из анализа видеопотока, и требует больших вычислительных затрат.The disadvantages of the known device are: Circuit search is performed by analyzing data obtained from the analysis of the video stream, and requires large computational costs.

Наиболее близким к изобретению является способ автоматического обнаружения лица на электронном оцифрованном изображении [Patent EP 1777643 A4]. Изобретение относится к способам распознавания образов путем выделения деталей или характеристик изображения и может быть использовано для автоматического обнаружения лица на электронном оцифрованном изображении, полученного с цифровой камеры или фотоаппарата в реальных, специально неконтролируемых условиях съемки. Автоматическое обнаружение лица на изображении осуществляется в два этапа: на первом этапе производят процедуры предварительной фильтрации, которые состоят из улучшения изображения посредством усредняющих фильтров, фильтров по выявлению краев изображения, процедуры последующей фильтрации контуров - предположительно принадлежащих элементам лица: овала, глаз, рта и т.д. На следующем этапе проводится поиск элементов лица с последующим их удостоверением посредством проверки статистических соотношений между ними, отличающийся тем, что предварительно сужают область поиска лица путем определения области расположения головы с помощью предварительной фильтрации верхних фрагментов контура головы.Closest to the invention is a method for automatically detecting faces in an electronic digital image [Patent EP 1777643 A4]. The invention relates to methods for pattern recognition by highlighting details or image characteristics and can be used to automatically detect faces on an electronic digital image obtained from a digital camera or camera in real, specially uncontrolled shooting conditions. Automatic detection of the face in the image is carried out in two stages: at the first stage, preliminary filtering procedures are performed, which consist of improving the image by means of averaging filters, filters to identify the edges of the image, the procedure for subsequent filtering of contours - supposedly belonging to the face elements: oval, eye, mouth, etc. .d. At the next stage, face elements are searched for, followed by identification by checking the statistical relationships between them, characterized in that they preliminarily narrow the face search area by determining the head location using preliminary filtering of the upper fragments of the head contour.

Фильтрация верхних фрагментов контура головы проводится путем поиска наиболее вероятных кандидатов на другие фрагменты контура головы: боковых сторон, глаз, плеч, проверки статистических соотношений между ними и последующего поиска в областях наиболее вероятного расположения с помощью шаблонов модели контура головы. Определение положения глаз на изображении в окрестности найденного положения головы проводят предварительную фильтрацию элементов лица с помощью фильтров горизонтальных и вертикальных краев.Filtering the upper fragments of the head contour is carried out by searching for the most likely candidates for other fragments of the head contour: the sides, eyes, shoulders, checking the statistical relationships between them and then searching in the areas of the most probable location using the head contour model templates. Determining the position of the eyes in the image in the vicinity of the found position of the head, preliminary filtering of face elements is carried out using filters of horizontal and vertical edges.

Признаки способа - прототипа, совпадающие с признаками заявляемого технического решения, следующие: обработка двумерного цифрового сигнала, выделение объектов со сложным контуром (глаза, рот, волосы) на произвольном мало детализированном фоне (кожа лица) и их предобработка.The signs of the prototype method, which coincide with the features of the claimed technical solution, are as follows: processing a two-dimensional digital signal, selecting objects with a complex outline (eyes, mouth, hair) on an arbitrary, little detailed background (facial skin) and their preprocessing.

Недостатками известного способа и устройства, его реализующего, являются требование к правильному формированию массива шаблонов, требуемых для последующего поиска, большие вычислительные затраты на обработку.The disadvantages of the known method and device that implements it are the requirement for the correct formation of an array of templates required for subsequent search, high computational costs for processing.

Предлагаемое устройство выделения контуров объектов на текстурированном фоне при обработке цифровых изображений позволяет выделять высокодетализированный объект на произвольном низкодетализированном фоне. Устройство реализует следующий алгоритм:The proposed device for selecting the contours of objects on a textured background when processing digital images allows you to select a highly detailed object on an arbitrary low-detailed background. The device implements the following algorithm:

- Первый шаг осуществляется поиском на исходном изображении / границ, применяя детектор Канни (Гонсалес Р., Вудс Р., Эддинс С. Цифровая обработка изображений в среде MATLAB. - М.: Техносфера, 2006. - 616 с). Данный метод детектирования границ основан на последовательном выполнении операции сглаживания изображения с целью увеличения отношения сигнал/шум путем нахождения градиента изображения с целью подсветки области с высоким пространственным разрешением, подавления всех пикселей, которые не в максимуме (немаксимальное подавление) и уменьшения градиентного массива путем использования гистерезиса с целью отслеживания оставшихся пикселей, которые не были подавлены. Результатом фильтрации является определение пространственной функции изображения объекта с использованием оптимального по Канни оператора - гауссиана- The first step is a search on the source image / borders using a Canny detector (Gonzalez R., Woods R., Eddins S. Digital image processing in MATLAB. - M .: Technosphere, 2006. - 616 s). This method of detecting boundaries is based on sequentially performing the image smoothing operation in order to increase the signal-to-noise ratio by finding the image gradient to highlight areas with high spatial resolution, suppress all pixels that are not at the maximum (non-maximum suppression) and reduce the gradient array by using hysteresis in order to track the remaining pixels that were not suppressed. The filtering result is the determination of the spatial function of the image of the object using the optimal Canny operator - Gaussian

f(x)=-x*exp(-x2/k2s2),f (x) = - x * exp (-x 2 / k 2 s 2 ),

где x - переменная; s - стандартное отклонение оператора Гаусса; * - «оптимальный» линейный оператор для свертки с изображением; к2=2.where x is a variable; s is the standard deviation of the Gauss operator; * - “optimal” linear operator for convolution with the image; k 2 = 2.

- На втором шаге, используя полученные границы, подсчитывается общий коэффициент детализации, который определяется по формуле (1):- At the second step, using the obtained boundaries, the total factor of detail is calculated, which is determined by the formula (1):

I ( x , y ) i j = P общий ,  (1)

Figure 00000011
I ( x , y ) i j = P common , (one)
Figure 00000011

где I(х,у) - значение пикселя с координатами х и у; i - количество строк; j - количество столбцов; P - коэффициент детализации.where I (x, y) is the pixel value with x and y coordinates; i is the number of rows; j is the number of columns; P is the coefficient of detail.

На третьем шаге подобным выражению (1) вычисляется коэффициент детализации в каждом скользящем окне:In the third step, similar to expression (1), the coefficient of detail in each sliding window is calculated:

I ( x , y ) 0.1 i j = P окна ,  (2)

Figure 00000012
I ( x , y ) 0.1 i j = P window , (2)
Figure 00000012

где 0,1- коэффициент усреднения, связанный с автоматическим выбором размера окна, равного 10% от общего изображения.where 0.1 is the averaging coefficient associated with the automatic selection of the window size equal to 10% of the total image.

- На четвертом шаге коэффициенты детализации Робщий и Рокна сравниваются, после чего принимается решение о детализированности в данном окне, и окно сдвигается.- In the fourth step, the detail coefficients P common and P of the window are compared, after which a decision is made on the detail in this window, and the window is shifted.

Устройство выделения высокодетализированных объектов на изображении сцены (фиг.1) содержит блок хранения входной реализации 1, вход которого является информационным входом устройства, выход подключен к входу блока управления 2 и первому входу блока детектора границ Канни 3, выход которого подключен к первому входу блока выбора скользящего окна 5 и первому входу блока определения общего коэффициента детализации 4, выход которого подключен к первому входу блока сравнения 7, выход которого подключен к первому входу блока хранения выходной реализации 8, выход которого является информационным выходом устройства; выход блока выбора скользящего окна 5 подключен к перовому входу блока определения коэффициента детализации в скользящем окне 6, выход которого подключен ко второму входу блока сравнения 7; выход блока управления 2 подключен ко второму входу блока детектора границ Канни 3, к второму входу блока определения общего коэффициента детализации 4, к второму входу блока выбора скользящего окна 5, к второму входу блока определения коэффициента детализации в скользящем окне 6 и к второму входу блока хранения выходной реализации 8; синхронность работы устройства обеспечивается генератором тактовых импульсов 9.The device for selecting highly detailed objects in the scene image (Fig. 1) contains an input implementation 1 storage unit, the input of which is the information input of the device, the output is connected to the input of the control unit 2 and the first input of the Canny boundary detector 3, the output of which is connected to the first input of the selection unit a sliding window 5 and the first input of the unit for determining the overall coefficient of detail 4, the output of which is connected to the first input of the comparison unit 7, the output of which is connected to the first input of the storage unit alization 8, the output of which is the information output of the device; the output of the selection block of the sliding window 5 is connected to the first input of the block determining the coefficient of detail in the sliding window 6, the output of which is connected to the second input of the comparison unit 7; the output of the control unit 2 is connected to the second input of the boundary detection unit Canni 3, to the second input of the block for determining the overall detail coefficient 4, to the second input of the block for selecting the sliding window 5, to the second input of the block for determining the coefficient of detail in the sliding window 6 and to the second input of the storage unit output implementation 8; the synchronization of the device is provided by the clock generator 9.

Устройство выделения высокодетализированных объектов на изображении сцены работает следующим образом: на вход блока хранения входной реализации 1 поступает исходное изображение, на котором представлен некоторый объект на произвольном фоне. С помощью блока управления 2 автоматически выбираются размеры изображения, коэффициент усреднения, связанный с автоматическим выбором размера окна, коэффициент оператора - гауссиана детектора Канни. С выхода блока хранения входной реализации 1 изображение поступает на первый вход блока детектора границ Канни 3. Значение коэффициента оператора - гауссиана поступает с выхода блока управления 2 на второй вход блока детектора границ Канни 3. В блоке детектора границ Канни 3 происходит выделение границ на исходном изображении. Полученное изображение с выделенными границами из выхода блока детектора границ Канни 3 поступает на первый вход блока определения общего коэффициента детализации 4, ко второму входу которого подключен выход блока управления 2, осуществляющий подачу величин размеров изображения. В блоке определения общего коэффициента детализации 4 происходит вычисление Робщий, по формуле (1). Полученный в результате расчета коэффициент Робщий подается с выхода блока определения общего коэффициента детализации 4 на вход блока сравнения 7. Одновременно с этим на первый вход блока выбора скользящего окна 5 подается изображение с выделенными границами из выхода блока детектора границ Канни 3. Ко второму входу блока выбора скользящего окна 5 подключен выход блока управления 2, осуществляющий подачу величин размеров изображения i,j, а также коэффициент усреднения, связанный с автоматическим выбором размера окна. Блок выбора скользящего окна 5 осуществляет выбор фрагмента изображения размерами данного скользящего окна. Полученный фрагмент изображения с выхода блока выбора скользящего окна 5 поступает на первый вход блока определения коэффициента детализации в скользящем окне 6, второй вход которого подключен к блоку управления 2, осуществляющий подачу величин размеров изображения i,j, а также коэффициента усреднения, связанный с автоматическим выбором размера окна. В блоке определения коэффициента детализации в скользящем окне 6 происходит вычисление Pокна согласно выражению (2). Полученный коэффициент детализации Pокна с выхода блока определения коэффициента детализации в скользящем окне 6 поступает на второй вход блока сравнения 7, где Pобщий и Pокна сравниваются и принимается решение о детализированности данного скользящего окна. Полученные данные с выхода блока сравнения 7 поступают на вход блока хранения выходной реализации 8, где записываются в заданных координатах i,j, поступающих на второй вход блока хранения выходной реализации 8 с выхода блока управления 2. Выход блока хранения выходной реализации 8 является информационным выходом устройства. Синхронность работы устройства обеспечивается генератором тактовых импульсов 9.The device for selecting highly detailed objects in the image of the scene works as follows: the input image, on which some object is presented against an arbitrary background, is input to the storage unit of the input implementation 1. Using the control unit 2, the image sizes, the averaging coefficient associated with the automatic selection of the window size, and the operator coefficient are the Gaussian of the Canny detector. From the output of the storage block of the input implementation 1, the image goes to the first input of the Canny border detector 3. The coefficient of the operator - Gaussian comes from the output of control unit 2 to the second input of the Canny border detector 3. In the Canny border detector 3, the borders are selected on the original image . The resulting image with the selected boundaries from the output of the Canny 3 boundary detector block is supplied to the first input of the block for determining the overall coefficient of detail 4, to the second input of which the output of the control unit 2 is connected, which supplies the sizes of the image. In the block for determining the overall coefficient of detail 4, the calculation of P total occurs according to the formula (1). The resulting coefficient P total is supplied from the output of the block for determining the overall coefficient of detail 4 to the input of the comparison unit 7. At the same time, an image with selected borders from the output of the block of the detector of boundaries Canny 3 is fed to the second input of the block the selection of the sliding window 5 is connected to the output of the control unit 2, which supplies the values of the image sizes i, j, as well as the averaging coefficient associated with the automatic selection of the window size. The sliding window selection unit 5 selects an image fragment with the dimensions of this sliding window. The resulting image fragment from the output of the selection block of the sliding window 5 is fed to the first input of the block for determining the coefficient of detail in the sliding window 6, the second input of which is connected to the control unit 2, which supplies the image sizes i, j, as well as the averaging coefficient associated with automatic selection window size. In the block detail coefficient determination block in the sliding window 6, the P window is calculated according to expression (2). The obtained coefficient of detail P of the window from the output of the block for determining the coefficient of detail in the sliding window 6 is fed to the second input of the comparison unit 7, where P common and P windows are compared and a decision is made on the granularity of this sliding window. The received data from the output of the comparison unit 7 is fed to the input of the storage unit of the output implementation 8, where it is recorded in the specified coordinates i, j, which are fed to the second input of the storage unit of the output implementation 8 from the output of the control unit 2. The output of the storage unit of the output implementation 8 is the information output of the device . The synchronization of the device is provided by the clock generator 9.

Технический результат - выделение на изображениях и видеопоследовательностях высокодетализированных объектов на произвольном низкодетализированном фоне.EFFECT: highlighting on images and video sequences of highly detailed objects against an arbitrary low-detailed background.

Claims (1)

Устройство выделения высокодетализированных объектов на изображении сцены, содержащее блок хранения входной реализации, вход которого является информационным входом устройства и блока хранения выходной реализации, выход которого является информационным выходом устройства, отличающееся тем, что выход блока хранения входной реализации подключен к входу блока управления и первому входу блока детектора границ Канни, выход которого подключен к первому входу блока выбора скользящего окна и первому входу блока определения общего коэффициента детализации, выход которого подключен к первому входу блока сравнения, выход которого подключен к первому входу блока хранения выходной реализации; выход блока выбора скользящего окна подключен к первому входу блока определения коэффициента детализации в скользящем окне, выход которого подключен ко второму входу блока сравнения; выход блока управления подключен ко второму входу блока детектора границ Канни, к второму входу блока определения общего коэффициента детализации, к второму входу блока выбора скользящего окна, к второму входу блока определения коэффициента детализации в скользящем окне и к второму входу блока хранения выходной реализации; синхронность работы устройства обеспечивается генератором тактовых импульсов. A device for extracting highly detailed objects in a scene image containing an input implementation storage unit, the input of which is the information input of the device and the output implementation storage unit, the output of which is the information output of the device, characterized in that the output of the input implementation storage unit is connected to the input of the control unit and the first input the Canny boundary detector block, the output of which is connected to the first input of the sliding window selection block and the first input of the common coefficient determination block cient detail, the output of which is connected to the first input of the comparator, whose output is connected to a first input of output realization storage unit; the output of the sliding window selection unit is connected to the first input of the detail coefficient determination unit in the sliding window, the output of which is connected to the second input of the comparison unit; the output of the control unit is connected to the second input of the Canny boundary detector, to the second input of the block for determining the overall detail coefficient, to the second input of the block for selecting the sliding window, to the second input of the block for determining the coefficient of detail in the sliding window and to the second input of the storage block of the output implementation; synchronization of the device is provided by the clock generator.
RU2013124207/08A 2013-05-27 2013-05-27 Apparatus for selecting highly detailed objects on scene image RU2542876C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2013124207/08A RU2542876C2 (en) 2013-05-27 2013-05-27 Apparatus for selecting highly detailed objects on scene image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2013124207/08A RU2542876C2 (en) 2013-05-27 2013-05-27 Apparatus for selecting highly detailed objects on scene image

Publications (2)

Publication Number Publication Date
RU2013124207A RU2013124207A (en) 2014-12-10
RU2542876C2 true RU2542876C2 (en) 2015-02-27

Family

ID=53290118

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013124207/08A RU2542876C2 (en) 2013-05-27 2013-05-27 Apparatus for selecting highly detailed objects on scene image

Country Status (1)

Country Link
RU (1) RU2542876C2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2697737C2 (en) * 2016-10-26 2019-08-19 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Министерства обороны Российской Федерации Method of detecting and localizing text forms on images
RU2718429C1 (en) * 2019-12-13 2020-04-02 федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) Device for detecting local-stationary areas on an image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2695980C1 (en) * 2018-12-24 2019-07-29 федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) Image segmentation device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1777643A1 (en) * 2004-08-04 2007-04-25 Daulet Kulenov Method for automatically recognising a face on an electronic digitised image
RU2362210C1 (en) * 2007-11-29 2009-07-20 Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет Device for detecting contours of objects on images
US7636128B2 (en) * 2005-07-15 2009-12-22 Microsoft Corporation Poisson matting for images
RU2426172C1 (en) * 2010-01-21 2011-08-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method and system for isolating foreground object image proceeding from colour and depth data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1777643A1 (en) * 2004-08-04 2007-04-25 Daulet Kulenov Method for automatically recognising a face on an electronic digitised image
US7636128B2 (en) * 2005-07-15 2009-12-22 Microsoft Corporation Poisson matting for images
RU2362210C1 (en) * 2007-11-29 2009-07-20 Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет Device for detecting contours of objects on images
RU2426172C1 (en) * 2010-01-21 2011-08-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method and system for isolating foreground object image proceeding from colour and depth data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2697737C2 (en) * 2016-10-26 2019-08-19 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Министерства обороны Российской Федерации Method of detecting and localizing text forms on images
RU2718429C1 (en) * 2019-12-13 2020-04-02 федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) Device for detecting local-stationary areas on an image

Also Published As

Publication number Publication date
RU2013124207A (en) 2014-12-10

Similar Documents

Publication Publication Date Title
JP5213486B2 (en) Object tracking device and object tracking method
JP2017531883A (en) Method and system for extracting main subject of image
WO2020001149A1 (en) Method and apparatus for extracting edge of object in depth image, and computer readable storage medium
CN110570435B (en) Method and device for carrying out damage segmentation on vehicle damage image
US20100079453A1 (en) 3D Depth Generation by Vanishing Line Detection
KR101737430B1 (en) A method of detecting objects in the image with moving background
US10249046B2 (en) Method and apparatus for object tracking and segmentation via background tracking
CN109271848B (en) Face detection method, face detection device and storage medium
RU2542876C2 (en) Apparatus for selecting highly detailed objects on scene image
CN112991159B (en) Face illumination quality evaluation method, system, server and computer readable medium
Ghanbari et al. Contour-based video inpainting
WO2010083021A1 (en) Detection of field lines in sports videos
KR20100121817A (en) Method for tracking region of eye
CN112750089A (en) Optical remote sensing image defogging method based on local block maximum and minimum pixel prior
JP2002269545A (en) Face image processing method and face image processing device
Kotteswari et al. Analysis of foreground detection in MRI images using region based segmentation
RU2718429C1 (en) Device for detecting local-stationary areas on an image
CN112085683B (en) Depth map credibility detection method in saliency detection
JP2005141523A (en) Image processing method
JP2004145592A (en) Motion vector extraction device, method and program, and its recording medium
Rashi et al. Analysis of different image processing strategies
Rabha Background modelling by codebook technique for automated video surveillance with shadow removal
CN112669299B (en) Flaw detection method and device, computer equipment and storage medium
JP6348020B2 (en) Image processing apparatus, image processing method, and inspection method using the same
RU2535449C2 (en) Method and apparatus for detecting defects on video signals

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20150528