RU2542876C2 - Apparatus for selecting highly detailed objects on scene image - Google Patents
Apparatus for selecting highly detailed objects on scene image Download PDFInfo
- Publication number
- RU2542876C2 RU2542876C2 RU2013124207/08A RU2013124207A RU2542876C2 RU 2542876 C2 RU2542876 C2 RU 2542876C2 RU 2013124207/08 A RU2013124207/08 A RU 2013124207/08A RU 2013124207 A RU2013124207 A RU 2013124207A RU 2542876 C2 RU2542876 C2 RU 2542876C2
- Authority
- RU
- Russia
- Prior art keywords
- input
- output
- image
- unit
- block
- Prior art date
Links
Abstract
Description
Изобретение относится к области вычислительной техники и может быть использовано в цифровых телевизионных и фотосистемах, глобальных системах позиционирования и наблюдения.The invention relates to the field of computer technology and can be used in digital television and photo systems, global positioning and surveillance systems.
Основная решаемая задача - выделение высокодетализированного объекта на произвольном низкодетализированном фоне.The main problem to be solved is the selection of a highly detailed object against an arbitrary low-detailed background.
При автоматизации информационных, радиоэлектронных и других систем, работающих с изображениями, а также для более точного анализа и принятия решений важным аспектом является прием качественного двумерного сигнала, однако в случае невозможности получения появляется необходимость в его улучшении, то есть в проведении предварительной обработки.When automating information, radio-electronic and other systems working with images, as well as for more accurate analysis and decision making, an important aspect is the reception of a high-quality two-dimensional signal, however, if it is impossible to obtain, it becomes necessary to improve it, that is, to carry out preliminary processing.
К предобработке относятся: отделение объекта от фона, повышение четкости контуров, фильтрация с различными параметрами. Однако ограниченный объем используемых вычислительных ресурсов ведет к повышению времени обработки сигнала либо к применению менее требовательных к вычислительным затратам методов, но в большинстве случаев не обеспечивающих достаточного качества фильтрации изображения.Pre-processing includes: separating the object from the background, increasing the clarity of the contours, filtering with various parameters. However, the limited amount of computational resources used leads to an increase in the signal processing time or to the use of less computationally intensive methods, but in most cases not providing sufficient image filtering quality.
Решение задачи отделения объекта от фона на изображении дает возможность выделить области с высокой детализацией объектов и области - фон, не несущие полезной информации. Поэтому задача поиска и выделения объекта или интересующих участков объекта на изображении сцены является сложной комплексной задачей, решение которой позволит:The solution of the problem of separating the object from the background in the image makes it possible to highlight areas with high detail of objects and areas - the background, which do not carry useful information. Therefore, the task of finding and highlighting an object or areas of interest in the scene image is a complex complex task, the solution of which will allow:
1. Производить обработку выделенных участков методами, требующими высоких вычислительных затрат, но являющимися точными и качественными.1. To process the selected areas by methods requiring high computational costs, but being accurate and high quality.
2. Локализовать области обработки и повысить быстродействие вычислительных систем.2. Localize processing areas and increase the performance of computing systems.
Известен способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине [Патент №2426172, МПК G06K 9/34]. Изобретение относится к области распознавания и сегментации изображений, в частности к способу для выделения целевого объекта из фонового изображения с использованием маски. Техническим результатом является создание усовершенствованного способа выделения данных об изображении объекта, используя данные о глубине изображения. Указанный технический результат достигается тем, что создают скалярное изображение на основе разделения объекта и фона. Различие определяется по разности освещенности. В области, где разность освещенности ниже заранее установленного порогового значения, на основе разности цвета по результатам, полученным из предыдущего видеокадра, инициализируют маску. Там где скалярное изображение разности меньше заранее установленного порога, маску заполняют единицами, где соответствующий пиксель принадлежит объекту, и нулями в ином случае. Затем кластеризуют скалярное изображение разности и на основе нескольких кластеров и создают маску для каждого положения пикселя видеокадра. Используя центры тяжести кластеров скалярной разности и данные по глубине для текущего положения пикселя, компенсируют изменения фона сцены во времени путем обновления изображения фона на основе использования созданной маски и изображения разности. Полученный отделенный объект сохраняется для последующей обработки.A known method and system for extracting data about the image of the foreground object based on data on color and depth [Patent No. 2426172, IPC G06K 9/34]. The invention relates to the field of image recognition and segmentation, in particular to a method for extracting a target from a background image using a mask. The technical result is the creation of an improved method for extracting data about the image of an object using data about the depth of the image. The specified technical result is achieved by creating a scalar image based on the separation of the object and the background. The difference is determined by the difference in illumination. In the area where the illumination difference is lower than a predetermined threshold value, a mask is initialized based on the color difference from the results obtained from the previous video frame. Where the scalar image of the difference is less than a predetermined threshold, the mask is filled with units where the corresponding pixel belongs to the object, and zeros otherwise. Then, the scalar image of the difference is clustered based on several clusters and a mask is created for each pixel position of the video frame. Using the centers of gravity of the clusters of the scalar difference and depth data for the current pixel position, compensate for changes in the background of the scene over time by updating the background image based on the use of the created mask and the difference image. The resulting separated object is stored for further processing.
Признаки способа и системы - аналога, совпадающие с признаками заявляемого технического решения, следующие: выделение целевого объекта из фонового изображения.The signs of the method and system is similar, matching the features of the proposed technical solution, the following: the selection of the target object from the background image.
Недостатками известного способа и системы являются:The disadvantages of the known method and system are:
Требуется обязательное использование видеокамер. Mandatory use of cameras is required.
Исследование видеопотока требует больших вычислительных затрат.The study of the video stream requires large computational costs.
Известен способ выделения объекта на изображении на основе решения уравнений Пуассона (Poisson matting for images) [Patent USA №7636128]. Способ основан на решении системы уравнений Пуассона с граничными условиями для изображения, сегментированного на три области: передний план, фон, неизвестная область, разделяющая передний план и фон. Для разделения объектов решают уравнение Пуассона вида:There is a method of isolating an object in an image based on the solution of Poisson matting for images [Patent USA No. 7636128]. The method is based on solving a system of Poisson equations with boundary conditions for an image segmented into three areas: foreground, background, unknown region separating the foreground and background. To separate objects, they solve the Poisson equation of the form:
с граничным условием Дирихле:with the Dirichlet boundary condition:
Найденное решение системы уравнений Пуассона позволяет разделение объектов, т.е. альфа-каналом изображения, для уточнения которого применяют локальные фильтры, позволяющие вручную исправить окончательный результат с помощью решения локальных уравнений Пуассона.The found solution of the system of Poisson equations allows separation of objects, i.e. alpha channel of the image, for refinement of which local filters are used, which allow you to manually correct the final result by solving local Poisson equations.
Признаки способа - аналога, совпадающие с признаками заявляемого технического решения, следующие: выделение объекта из фонового изображения.The signs of the method is an analogue that coincides with the features of the proposed technical solution, the following: the selection of the object from the background image.
Недостатками известного способа являются: применение локальных фильтров, исправляющие вручную окончательный результат с помощью решения локальных уравнений Пуассона, что не позволяет получить эффективной автоматизированной системы обработки.The disadvantages of this method are: the use of local filters, manually correcting the final result by solving local Poisson equations, which does not allow to obtain an effective automated processing system.
Известно устройство выделения контуров объектов на изображении [Патент №2362210, МПК G06K 9/36, G06K 9/62, A61B 5/04]. Изобретение относится к области распознавания образов и может быть использовано в системах технического зрения при решении задач предварительной обработки изображения.A device for isolating the contours of objects in an image is known [Patent No. 2362210, IPC G06K 9/36, G06K 9/62, A61B 5/04]. The invention relates to the field of pattern recognition and can be used in vision systems for solving problems of image preprocessing.
Алгоритм обработки изображений включает в себя следующие операции: фильтрацию, пространственное дифференцирование, скелетизацию и пороговую обработку. The image processing algorithm includes the following operations: filtering, spatial differentiation, skeletonization and threshold processing.
Изображение фиксируется датчиком изображения, переводящим его в телевизионный сигнал. При появлении кадрового синхроимпульса формируется сигнал начала кадра, по которому ЦСП переходит в состояние ожидания подтверждения данных, приходящего по окончании строчного синхроимпульса, по которому ЦСП выполняет последовательное считывание строки изображения с информационного выхода АЦП в ОЗУ. Таким образом, вводится весь кадр. Обработка изображений ведется параллельно со вводом следующего кадра.The image is captured by the image sensor, converting it to a television signal. When a frame clock appears, a frame start signal is generated, according to which the DSP goes into the waiting state for confirmation of data arriving at the end of the horizontal clock, according to which the DSP sequentially reads the image line from the information output of the ADC to RAM. Thus, the entire frame is introduced. Image processing is carried out in parallel with the input of the next frame.
При фильтрации ЦСП передает пять смежных строк изображения в буферную память блока фильтрации. В буферную память блока фильтрации записывается пять смежных строк изображения. На основании пяти строк изображения, находящихся в буферной памяти блока фильтрации, блок фильтрации формирует результирующую строку отфильтрованного изображения по формуле:When filtering, the DSP transfers five adjacent lines of the image to the buffer memory of the filtering unit. Five adjacent lines of the image are written to the buffer memory of the filtering unit. Based on the five lines of the image located in the buffer memory of the filtering unit, the filtering unit generates the resulting line of the filtered image according to the formula:
где: NT - размер маски,
При пространственном дифференцировании ЦСП передает три смежные строки изображения в буферную память блока пространственного дифференцирования. На основании трех строк изображения, находящихся в буферной памяти блока пространственного дифференцирования, формирующего результирующую строку обработанного изображения по формулеDuring spatial differentiation, the DSP transmits three adjacent lines of the image to the buffer memory of the spatial differentiation unit. Based on the three lines of the image located in the buffer memory of the spatial differentiation unit, which forms the resulting line of the processed image according to the formula
где dх(х,у), dy(x,y)- результаты свертки изображения I′ с горизонтальной Нх и вертикальной Ну масками соответственноwhere d x (x, y), d y (x, y) are the results of convolution of the image I ′ with horizontal Н х and vertical Н at masks, respectively
Таким образом, вычисления, производимые блоком пространственного дифференцирования, сводятся к операциям сложения, выполняемым с помощью сумматоров и логических элементов, что позволяет реализовать данный блок на ПЛИС. Операции скелетизации и бинаризации полностью выполняются процессором.Thus, the calculations performed by the spatial differentiation unit are reduced to addition operations performed with the help of adders and logic elements, which makes it possible to implement this unit on the FPGA. Skeletonization and binarization operations are completely performed by the processor.
Признаки устройства - аналога, совпадающие с признаками заявляемого технического решения, следующие: выделение контуров объекта на изображении.The signs of the device is an analogue, coinciding with the signs of the proposed technical solution, the following: the selection of the contours of the object in the image.
Недостатками известного устройства являются: Поиск контуров производится по анализу данных, получаемых из анализа видеопотока, и требует больших вычислительных затрат.The disadvantages of the known device are: Circuit search is performed by analyzing data obtained from the analysis of the video stream, and requires large computational costs.
Наиболее близким к изобретению является способ автоматического обнаружения лица на электронном оцифрованном изображении [Patent EP 1777643 A4]. Изобретение относится к способам распознавания образов путем выделения деталей или характеристик изображения и может быть использовано для автоматического обнаружения лица на электронном оцифрованном изображении, полученного с цифровой камеры или фотоаппарата в реальных, специально неконтролируемых условиях съемки. Автоматическое обнаружение лица на изображении осуществляется в два этапа: на первом этапе производят процедуры предварительной фильтрации, которые состоят из улучшения изображения посредством усредняющих фильтров, фильтров по выявлению краев изображения, процедуры последующей фильтрации контуров - предположительно принадлежащих элементам лица: овала, глаз, рта и т.д. На следующем этапе проводится поиск элементов лица с последующим их удостоверением посредством проверки статистических соотношений между ними, отличающийся тем, что предварительно сужают область поиска лица путем определения области расположения головы с помощью предварительной фильтрации верхних фрагментов контура головы.Closest to the invention is a method for automatically detecting faces in an electronic digital image [Patent EP 1777643 A4]. The invention relates to methods for pattern recognition by highlighting details or image characteristics and can be used to automatically detect faces on an electronic digital image obtained from a digital camera or camera in real, specially uncontrolled shooting conditions. Automatic detection of the face in the image is carried out in two stages: at the first stage, preliminary filtering procedures are performed, which consist of improving the image by means of averaging filters, filters to identify the edges of the image, the procedure for subsequent filtering of contours - supposedly belonging to the face elements: oval, eye, mouth, etc. .d. At the next stage, face elements are searched for, followed by identification by checking the statistical relationships between them, characterized in that they preliminarily narrow the face search area by determining the head location using preliminary filtering of the upper fragments of the head contour.
Фильтрация верхних фрагментов контура головы проводится путем поиска наиболее вероятных кандидатов на другие фрагменты контура головы: боковых сторон, глаз, плеч, проверки статистических соотношений между ними и последующего поиска в областях наиболее вероятного расположения с помощью шаблонов модели контура головы. Определение положения глаз на изображении в окрестности найденного положения головы проводят предварительную фильтрацию элементов лица с помощью фильтров горизонтальных и вертикальных краев.Filtering the upper fragments of the head contour is carried out by searching for the most likely candidates for other fragments of the head contour: the sides, eyes, shoulders, checking the statistical relationships between them and then searching in the areas of the most probable location using the head contour model templates. Determining the position of the eyes in the image in the vicinity of the found position of the head, preliminary filtering of face elements is carried out using filters of horizontal and vertical edges.
Признаки способа - прототипа, совпадающие с признаками заявляемого технического решения, следующие: обработка двумерного цифрового сигнала, выделение объектов со сложным контуром (глаза, рот, волосы) на произвольном мало детализированном фоне (кожа лица) и их предобработка.The signs of the prototype method, which coincide with the features of the claimed technical solution, are as follows: processing a two-dimensional digital signal, selecting objects with a complex outline (eyes, mouth, hair) on an arbitrary, little detailed background (facial skin) and their preprocessing.
Недостатками известного способа и устройства, его реализующего, являются требование к правильному формированию массива шаблонов, требуемых для последующего поиска, большие вычислительные затраты на обработку.The disadvantages of the known method and device that implements it are the requirement for the correct formation of an array of templates required for subsequent search, high computational costs for processing.
Предлагаемое устройство выделения контуров объектов на текстурированном фоне при обработке цифровых изображений позволяет выделять высокодетализированный объект на произвольном низкодетализированном фоне. Устройство реализует следующий алгоритм:The proposed device for selecting the contours of objects on a textured background when processing digital images allows you to select a highly detailed object on an arbitrary low-detailed background. The device implements the following algorithm:
- Первый шаг осуществляется поиском на исходном изображении / границ, применяя детектор Канни (Гонсалес Р., Вудс Р., Эддинс С. Цифровая обработка изображений в среде MATLAB. - М.: Техносфера, 2006. - 616 с). Данный метод детектирования границ основан на последовательном выполнении операции сглаживания изображения с целью увеличения отношения сигнал/шум путем нахождения градиента изображения с целью подсветки области с высоким пространственным разрешением, подавления всех пикселей, которые не в максимуме (немаксимальное подавление) и уменьшения градиентного массива путем использования гистерезиса с целью отслеживания оставшихся пикселей, которые не были подавлены. Результатом фильтрации является определение пространственной функции изображения объекта с использованием оптимального по Канни оператора - гауссиана- The first step is a search on the source image / borders using a Canny detector (Gonzalez R., Woods R., Eddins S. Digital image processing in MATLAB. - M .: Technosphere, 2006. - 616 s). This method of detecting boundaries is based on sequentially performing the image smoothing operation in order to increase the signal-to-noise ratio by finding the image gradient to highlight areas with high spatial resolution, suppress all pixels that are not at the maximum (non-maximum suppression) and reduce the gradient array by using hysteresis in order to track the remaining pixels that were not suppressed. The filtering result is the determination of the spatial function of the image of the object using the optimal Canny operator - Gaussian
f(x)=-x*exp(-x2/k2s2),f (x) = - x * exp (-x 2 / k 2 s 2 ),
где x - переменная; s - стандартное отклонение оператора Гаусса; * - «оптимальный» линейный оператор для свертки с изображением; к2=2.where x is a variable; s is the standard deviation of the Gauss operator; * - “optimal” linear operator for convolution with the image; k 2 = 2.
- На втором шаге, используя полученные границы, подсчитывается общий коэффициент детализации, который определяется по формуле (1):- At the second step, using the obtained boundaries, the total factor of detail is calculated, which is determined by the formula (1):
где I(х,у) - значение пикселя с координатами х и у; i - количество строк; j - количество столбцов; P - коэффициент детализации.where I (x, y) is the pixel value with x and y coordinates; i is the number of rows; j is the number of columns; P is the coefficient of detail.
На третьем шаге подобным выражению (1) вычисляется коэффициент детализации в каждом скользящем окне:In the third step, similar to expression (1), the coefficient of detail in each sliding window is calculated:
где 0,1- коэффициент усреднения, связанный с автоматическим выбором размера окна, равного 10% от общего изображения.where 0.1 is the averaging coefficient associated with the automatic selection of the window size equal to 10% of the total image.
- На четвертом шаге коэффициенты детализации Робщий и Рокна сравниваются, после чего принимается решение о детализированности в данном окне, и окно сдвигается.- In the fourth step, the detail coefficients P common and P of the window are compared, after which a decision is made on the detail in this window, and the window is shifted.
Устройство выделения высокодетализированных объектов на изображении сцены (фиг.1) содержит блок хранения входной реализации 1, вход которого является информационным входом устройства, выход подключен к входу блока управления 2 и первому входу блока детектора границ Канни 3, выход которого подключен к первому входу блока выбора скользящего окна 5 и первому входу блока определения общего коэффициента детализации 4, выход которого подключен к первому входу блока сравнения 7, выход которого подключен к первому входу блока хранения выходной реализации 8, выход которого является информационным выходом устройства; выход блока выбора скользящего окна 5 подключен к перовому входу блока определения коэффициента детализации в скользящем окне 6, выход которого подключен ко второму входу блока сравнения 7; выход блока управления 2 подключен ко второму входу блока детектора границ Канни 3, к второму входу блока определения общего коэффициента детализации 4, к второму входу блока выбора скользящего окна 5, к второму входу блока определения коэффициента детализации в скользящем окне 6 и к второму входу блока хранения выходной реализации 8; синхронность работы устройства обеспечивается генератором тактовых импульсов 9.The device for selecting highly detailed objects in the scene image (Fig. 1) contains an input implementation 1 storage unit, the input of which is the information input of the device, the output is connected to the input of the control unit 2 and the first input of the Canny boundary detector 3, the output of which is connected to the first input of the selection unit a sliding window 5 and the first input of the unit for determining the overall coefficient of detail 4, the output of which is connected to the first input of the comparison unit 7, the output of which is connected to the first input of the storage unit alization 8, the output of which is the information output of the device; the output of the selection block of the sliding window 5 is connected to the first input of the block determining the coefficient of detail in the sliding window 6, the output of which is connected to the second input of the comparison unit 7; the output of the control unit 2 is connected to the second input of the boundary detection unit Canni 3, to the second input of the block for determining the overall detail coefficient 4, to the second input of the block for selecting the sliding window 5, to the second input of the block for determining the coefficient of detail in the sliding window 6 and to the second input of the storage unit output implementation 8; the synchronization of the device is provided by the clock generator 9.
Устройство выделения высокодетализированных объектов на изображении сцены работает следующим образом: на вход блока хранения входной реализации 1 поступает исходное изображение, на котором представлен некоторый объект на произвольном фоне. С помощью блока управления 2 автоматически выбираются размеры изображения, коэффициент усреднения, связанный с автоматическим выбором размера окна, коэффициент оператора - гауссиана детектора Канни. С выхода блока хранения входной реализации 1 изображение поступает на первый вход блока детектора границ Канни 3. Значение коэффициента оператора - гауссиана поступает с выхода блока управления 2 на второй вход блока детектора границ Канни 3. В блоке детектора границ Канни 3 происходит выделение границ на исходном изображении. Полученное изображение с выделенными границами из выхода блока детектора границ Канни 3 поступает на первый вход блока определения общего коэффициента детализации 4, ко второму входу которого подключен выход блока управления 2, осуществляющий подачу величин размеров изображения. В блоке определения общего коэффициента детализации 4 происходит вычисление Робщий, по формуле (1). Полученный в результате расчета коэффициент Робщий подается с выхода блока определения общего коэффициента детализации 4 на вход блока сравнения 7. Одновременно с этим на первый вход блока выбора скользящего окна 5 подается изображение с выделенными границами из выхода блока детектора границ Канни 3. Ко второму входу блока выбора скользящего окна 5 подключен выход блока управления 2, осуществляющий подачу величин размеров изображения i,j, а также коэффициент усреднения, связанный с автоматическим выбором размера окна. Блок выбора скользящего окна 5 осуществляет выбор фрагмента изображения размерами данного скользящего окна. Полученный фрагмент изображения с выхода блока выбора скользящего окна 5 поступает на первый вход блока определения коэффициента детализации в скользящем окне 6, второй вход которого подключен к блоку управления 2, осуществляющий подачу величин размеров изображения i,j, а также коэффициента усреднения, связанный с автоматическим выбором размера окна. В блоке определения коэффициента детализации в скользящем окне 6 происходит вычисление Pокна согласно выражению (2). Полученный коэффициент детализации Pокна с выхода блока определения коэффициента детализации в скользящем окне 6 поступает на второй вход блока сравнения 7, где Pобщий и Pокна сравниваются и принимается решение о детализированности данного скользящего окна. Полученные данные с выхода блока сравнения 7 поступают на вход блока хранения выходной реализации 8, где записываются в заданных координатах i,j, поступающих на второй вход блока хранения выходной реализации 8 с выхода блока управления 2. Выход блока хранения выходной реализации 8 является информационным выходом устройства. Синхронность работы устройства обеспечивается генератором тактовых импульсов 9.The device for selecting highly detailed objects in the image of the scene works as follows: the input image, on which some object is presented against an arbitrary background, is input to the storage unit of the input implementation 1. Using the control unit 2, the image sizes, the averaging coefficient associated with the automatic selection of the window size, and the operator coefficient are the Gaussian of the Canny detector. From the output of the storage block of the input implementation 1, the image goes to the first input of the Canny border detector 3. The coefficient of the operator - Gaussian comes from the output of control unit 2 to the second input of the Canny border detector 3. In the Canny border detector 3, the borders are selected on the original image . The resulting image with the selected boundaries from the output of the Canny 3 boundary detector block is supplied to the first input of the block for determining the overall coefficient of detail 4, to the second input of which the output of the control unit 2 is connected, which supplies the sizes of the image. In the block for determining the overall coefficient of detail 4, the calculation of P total occurs according to the formula (1). The resulting coefficient P total is supplied from the output of the block for determining the overall coefficient of detail 4 to the input of the comparison unit 7. At the same time, an image with selected borders from the output of the block of the detector of boundaries Canny 3 is fed to the second input of the block the selection of the sliding window 5 is connected to the output of the control unit 2, which supplies the values of the image sizes i, j, as well as the averaging coefficient associated with the automatic selection of the window size. The sliding window selection unit 5 selects an image fragment with the dimensions of this sliding window. The resulting image fragment from the output of the selection block of the sliding window 5 is fed to the first input of the block for determining the coefficient of detail in the sliding window 6, the second input of which is connected to the control unit 2, which supplies the image sizes i, j, as well as the averaging coefficient associated with automatic selection window size. In the block detail coefficient determination block in the sliding window 6, the P window is calculated according to expression (2). The obtained coefficient of detail P of the window from the output of the block for determining the coefficient of detail in the sliding window 6 is fed to the second input of the comparison unit 7, where P common and P windows are compared and a decision is made on the granularity of this sliding window. The received data from the output of the comparison unit 7 is fed to the input of the storage unit of the output implementation 8, where it is recorded in the specified coordinates i, j, which are fed to the second input of the storage unit of the output implementation 8 from the output of the control unit 2. The output of the storage unit of the output implementation 8 is the information output of the device . The synchronization of the device is provided by the clock generator 9.
Технический результат - выделение на изображениях и видеопоследовательностях высокодетализированных объектов на произвольном низкодетализированном фоне.EFFECT: highlighting on images and video sequences of highly detailed objects against an arbitrary low-detailed background.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2013124207/08A RU2542876C2 (en) | 2013-05-27 | 2013-05-27 | Apparatus for selecting highly detailed objects on scene image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2013124207/08A RU2542876C2 (en) | 2013-05-27 | 2013-05-27 | Apparatus for selecting highly detailed objects on scene image |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2013124207A RU2013124207A (en) | 2014-12-10 |
RU2542876C2 true RU2542876C2 (en) | 2015-02-27 |
Family
ID=53290118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2013124207/08A RU2542876C2 (en) | 2013-05-27 | 2013-05-27 | Apparatus for selecting highly detailed objects on scene image |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2542876C2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2697737C2 (en) * | 2016-10-26 | 2019-08-19 | Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Министерства обороны Российской Федерации | Method of detecting and localizing text forms on images |
RU2718429C1 (en) * | 2019-12-13 | 2020-04-02 | федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) | Device for detecting local-stationary areas on an image |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2695980C1 (en) * | 2018-12-24 | 2019-07-29 | федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) | Image segmentation device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1777643A1 (en) * | 2004-08-04 | 2007-04-25 | Daulet Kulenov | Method for automatically recognising a face on an electronic digitised image |
RU2362210C1 (en) * | 2007-11-29 | 2009-07-20 | Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет | Device for detecting contours of objects on images |
US7636128B2 (en) * | 2005-07-15 | 2009-12-22 | Microsoft Corporation | Poisson matting for images |
RU2426172C1 (en) * | 2010-01-21 | 2011-08-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Method and system for isolating foreground object image proceeding from colour and depth data |
-
2013
- 2013-05-27 RU RU2013124207/08A patent/RU2542876C2/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1777643A1 (en) * | 2004-08-04 | 2007-04-25 | Daulet Kulenov | Method for automatically recognising a face on an electronic digitised image |
US7636128B2 (en) * | 2005-07-15 | 2009-12-22 | Microsoft Corporation | Poisson matting for images |
RU2362210C1 (en) * | 2007-11-29 | 2009-07-20 | Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет | Device for detecting contours of objects on images |
RU2426172C1 (en) * | 2010-01-21 | 2011-08-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Method and system for isolating foreground object image proceeding from colour and depth data |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2697737C2 (en) * | 2016-10-26 | 2019-08-19 | Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Министерства обороны Российской Федерации | Method of detecting and localizing text forms on images |
RU2718429C1 (en) * | 2019-12-13 | 2020-04-02 | федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) | Device for detecting local-stationary areas on an image |
Also Published As
Publication number | Publication date |
---|---|
RU2013124207A (en) | 2014-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5213486B2 (en) | Object tracking device and object tracking method | |
JP2017531883A (en) | Method and system for extracting main subject of image | |
WO2020001149A1 (en) | Method and apparatus for extracting edge of object in depth image, and computer readable storage medium | |
CN110570435B (en) | Method and device for carrying out damage segmentation on vehicle damage image | |
US20100079453A1 (en) | 3D Depth Generation by Vanishing Line Detection | |
KR101737430B1 (en) | A method of detecting objects in the image with moving background | |
US10249046B2 (en) | Method and apparatus for object tracking and segmentation via background tracking | |
CN109271848B (en) | Face detection method, face detection device and storage medium | |
RU2542876C2 (en) | Apparatus for selecting highly detailed objects on scene image | |
CN112991159B (en) | Face illumination quality evaluation method, system, server and computer readable medium | |
Ghanbari et al. | Contour-based video inpainting | |
WO2010083021A1 (en) | Detection of field lines in sports videos | |
KR20100121817A (en) | Method for tracking region of eye | |
CN112750089A (en) | Optical remote sensing image defogging method based on local block maximum and minimum pixel prior | |
JP2002269545A (en) | Face image processing method and face image processing device | |
Kotteswari et al. | Analysis of foreground detection in MRI images using region based segmentation | |
RU2718429C1 (en) | Device for detecting local-stationary areas on an image | |
CN112085683B (en) | Depth map credibility detection method in saliency detection | |
JP2005141523A (en) | Image processing method | |
JP2004145592A (en) | Motion vector extraction device, method and program, and its recording medium | |
Rashi et al. | Analysis of different image processing strategies | |
Rabha | Background modelling by codebook technique for automated video surveillance with shadow removal | |
CN112669299B (en) | Flaw detection method and device, computer equipment and storage medium | |
JP6348020B2 (en) | Image processing apparatus, image processing method, and inspection method using the same | |
RU2535449C2 (en) | Method and apparatus for detecting defects on video signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20150528 |