RU2791810C2 - Method, equipment and device for image processing - Google Patents

Method, equipment and device for image processing Download PDF

Info

Publication number
RU2791810C2
RU2791810C2 RU2021113673A RU2021113673A RU2791810C2 RU 2791810 C2 RU2791810 C2 RU 2791810C2 RU 2021113673 A RU2021113673 A RU 2021113673A RU 2021113673 A RU2021113673 A RU 2021113673A RU 2791810 C2 RU2791810 C2 RU 2791810C2
Authority
RU
Russia
Prior art keywords
area
image
masks
mask
background
Prior art date
Application number
RU2021113673A
Other languages
Russian (ru)
Other versions
RU2021113673A (en
Inventor
Юй Ли
Фэйлун МА
Тичжэн ВАН
Сюцзе ХУАН
Original Assignee
Хуавей Текнолоджиз Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Хуавей Текнолоджиз Ко., Лтд. filed Critical Хуавей Текнолоджиз Ко., Лтд.
Publication of RU2021113673A publication Critical patent/RU2021113673A/en
Application granted granted Critical
Publication of RU2791810C2 publication Critical patent/RU2791810C2/en

Links

Images

Abstract

FIELD: image processing.
SUBSTANCE: essence of the invention lies in the fact that the target area and the background area are determined in the image by performing mask segmentation for this image. Different colour processing modes are applied to these target area and background area, so that the brightness of the target area becomes larger than the brightness of the background area, or the colour saturation in the target area becomes higher than the colour saturation in the background area, and the main object corresponding to the target area is more highlighted.
EFFECT: providing the possibility of improving the quality of the resulting image.
37 cl, 10 dwg

Description

Область техники, к которой относится изобретениеThe technical field to which the invention belongs

Настоящее изобретение относится к области технологий, применяемых в терминалах, и в частности, к способу, аппаратуре и устройству для обработки изображений.The present invention relates to the field of technologies used in terminals, and in particular, to a method, apparatus and apparatus for image processing.

Уровень техникиState of the art

Фотографирование представляет собой использование фото или видеокамеры, либо видеомагнитофона для записи изображения человека или объекта. Для различных сцен применяются разные способы фотографирования, такие как ночное фотографирование, фотографирования при дожде, фотографирование в здании и портретное фотографирование. Динамическое фотографирование для съемки движущихся объектов также является одним из видов фотографирования, но должно соответствовать конкретному, специальному принципу. По мере продвижения и развития науки фотографирование становилось проще и более популярным.Photography is the use of a photo or video camera or video recorder to record an image of a person or object. For different scenes, different photography methods are applied, such as night photography, rain photography, building photography, and portrait photography. Dynamic photography for shooting moving objects is also a type of photography, but must comply with a specific, special principle. As science advanced and developed, photography became easier and more popular.

В связи с расширением полосы пропускания сети связи и увеличением процессорных возможностей терминала фотографирование и совместное использование видео и изображений стало более удобным, а потребление видео стало новым образом жизни для всех людей. Видео быстро стало сервисом, требующим передачи больших объемов трафика в сети связи, и ожидается, что в следующие несколько лет трафик видео составит от 80% до 90% общего трафика в сети.With the expansion of the bandwidth of the communication network and the increase in the processing capacity of the terminal, taking pictures and sharing videos and images has become more convenient, and video consumption has become a new way of life for all people. Video has quickly become a traffic-intensive service on a communications network, and video traffic is expected to account for 80% to 90% of total network traffic over the next few years.

В повседневной жизни фотографирование стало основным способом для людей показать себя и выявлять красоту вещей. Люди хотят фотографировать более интересными способами. Например, во время фотографирования осуществляются специальные эффекты обработки изображений или видео, чтобы добиться такого восприятия фотографии, когда «что Вы видите, то и получаете». Поэтому, для непрофессионала, в терминал необходимо интегрировать все больше новых технологий обработки изображения.In daily life, photography has become the main way for people to show themselves and bring out the beauty of things. People want to take pictures in more interesting ways. For example, when photographing, special image or video processing effects are applied to achieve a “what you see is what you get” experience. Therefore, for the layman, more and more new image processing technologies need to be integrated into the terminal.

На текущий момент, функция видеозаписи в аппаратуре терминала является монотонной. На сегодня, может осуществляться только обычное фотографирование видео, без некоторых персонализированных эффектов.At present, the video recording function in the terminal equipment is monotonous. Today, only ordinary video photography can be carried out, without some personalized effects.

Сущность изобретенияThe essence of the invention

Настоящее изобретение предлагает способ обработки изображения. На изображении определяют целевую область и фоновую область путем осуществления сегментации изображения с применением маски (шаблона). К этим целевой области и фоновой области применяют различные режимы обработки цвета, так что яркость целевой области становится больше яркости фоновой области, либо насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, так что главный объект, соответствующий целевой области, оказывается сильнее выделен. Это позволяет пользователю иметь специальные эффекты движущегося изображения в процессе фотографирования или видео фотографирования (видео съемки) и улучшить результаты фотографирования для пользователя.The present invention provides an image processing method. The target area and the background area are determined on the image by performing image segmentation using a mask (template). Different color processing modes are applied to these target area and background area, so that the brightness of the target area becomes larger than the brightness of the background area, or the color saturation in the target area becomes larger than the color saturation in the background area, so that the main object corresponding to the target area is more highlighted. . This allows the user to have special moving image effects in the process of taking a photo or a video of taking a photo (movie shooting) and improve the result of taking a photo for the user.

В вариантах настоящего изобретения предложены следующие технические решения.In the embodiments of the present invention, the following technical solutions are proposed.

Согласно первому аспекту один из вариантов настоящего изобретения предлагает способ обработки изображения. Это способ применяется к процедуре видеозаписи и содержит: получение N изображений; и осуществление этапа 1 и этапа 2 применительно к каждому из N изображений для получения целевого видео:According to a first aspect, one embodiment of the present invention provides an image processing method. This method is applied to the video recording procedure and includes: taking N images; and performing step 1 and step 2 on each of the N images to obtain the target video:

этап 1: определение целевой области и фоновой области изображения на основе категории объекта на изображении, где фоновая область является областью изображения, отличной от целевой области; иstep 1: determining the target area and the background area of the image based on the category of the object in the image, where the background area is an image area different from the target area; And

этап 2: обработка целевой области и фоновой области в разных режимах обработки цвета для получения целевого изображения, где насыщенность цвета в целевой области в целевом изображении выше насыщенности цвета в фоновой области в этом целевом изображении, либо яркость целевой области в целевом изображении выше яркости фоновой области в этом целевом изображении.step 2: processing the target area and the background area in different color processing modes to obtain a target image where the color saturation in the target area in the target image is higher than the color saturation in the background area in this target image, or the brightness of the target area in the target image is higher than the brightness of the background area in this target image.

Согласно второму аспекту, один из вариантов настоящего изобретения предлагает аппаратуру для обработки изображения. Эта аппаратура применяется к процедуре видео фотографирования и содержит: фотографический модуль, конфигурированный для получения N изображений; решающий модуль, конфигурированный для определения целевой области и фоновой области в каждом из N изображений на основе категории объекта в этом изображении, где фоновая область является областью изображения, отличной от целевой области; и модуль цветовой обработки, конфигурированный для обработки целевой области и фоновой области в различных режимах цветовой обработки с целью получения целевого изображения, где насыщенность цвета в целевой области на целевом изображении больше насыщенности цвета в фоновой области в целевом изображении, или яркость целевой области в целевом изображении больше яркости фоновой области в целевом изображении.According to a second aspect, one embodiment of the present invention provides an image processing apparatus. This apparatus is applied to a video photographing procedure and includes: a photographic module configured to take N images; a decision module configured to determine a target area and a background area in each of the N images based on the category of an object in that image, where the background area is an image area different from the target area; and a color processing unit configured to process the target area and the background area in different color processing modes to obtain a target image, where the color saturation in the target area in the target image is greater than the color saturation in the background area in the target image, or the brightness of the target area in the target image more brightness of the background area in the target image.

Согласно третьему аспекту, один из вариантов настоящего изобретения предлагает способ обработки изображения. Этот способ применяется к процессу фотографирования и содержит:According to a third aspect, one embodiment of the present invention provides an image processing method. This method applies to the process of photographing and contains:

получение изображения; определение целевой области и фоновой области в этом изображении на основе категории объекта, имеющегося на изображении, где фоновая область представляет собой область изображения, отличную от целевой области; и обработку найденных целевой области и фоновой области с применением разных режимов цветовой обработки для получения целевого изображения, где насыщенность цвета в целевой области целевого изображения больше насыщенности цвета в фоновой области этого целевого изображения, либо яркость целевой области целевого изображения больше яркости фоновой области этого целевого изображения.getting an image; determining a target area and a background area in the image based on the category of the object present in the image, where the background area is an area of the image other than the target area; and processing the found target area and background area using different color processing modes to obtain a target image, where the color saturation in the target area of the target image is greater than the color saturation in the background area of this target image, or the brightness of the target area of the target image is greater than the brightness of the background area of this target image .

Согласно четвертому аспекту, один из вариантов настоящего изобретения предлагает аппаратуру для обработки изображения. Аппаратура содержит:According to a fourth aspect, one embodiment of the present invention provides an image processing apparatus. The equipment contains:

фотографический модуль, конфигурированный для получения изображения; решающий модуль, конфигурированный для определения целевой области и фоновой области рассматриваемого изображения на основе категории объекта на этом изображении, где фоновая область представляет собой область изображения, отличную от целевой области; и модуль цветовой обработки, конфигурированный для обработки целевой области и фоновой области с применением разных режимов цветовой обработки для получения целевого изображения, где насыщенность цвета в целевой области целевого изображения больше насыщенности цвета в фоновой области этого целевого изображения, либо яркость целевой области целевого изображения больше яркости фоновой области этого целевого изображения.a photographic module configured to acquire an image; a decision module configured to determine the target area and the background area of the considered image based on the category of the object in this image, where the background area is an image area different from the target area; and a color processing unit configured to process the target area and the background area using different color processing modes to obtain a target image, where the color saturation in the target area of the target image is greater than the color saturation in the background area of this target image, or the brightness of the target area of the target image is greater than the brightness the background area of this target image.

Согласно первому аспекту, второму аспекту, третьему аспекту или четвертому аспекту в одном из возможных вариантов, процедура определения целевой области и фоновой области в изображении на основе категории объекта на этом изображении содержит: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствует различным категориям объектов; иAccording to the first aspect, the second aspect, the third aspect or the fourth aspect in one of the possible options, the procedure for determining the target area and the background area in the image based on the category of the object in this image contains: performing semantic segmentation of the image to obtain k masks, where these k masks correspond to various categories of objects; And

если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area;

если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве целевой области, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than a predetermined threshold value, determine the image area corresponding to these k0 masks for the main objects as the target area, and determine the image area corresponding to one from the remaining masks, as a background region, where k0 is a non-negative integer less than k;

если k больше 2, определяют, в качестве целевой области, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determine, as the target area, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determine the area of the image corresponding to the rest of the masks, as the background area;

если k больше 2, определяют целевую маску из совокупности k масок на основе заданных приоритетов категорий объектов, и определяют область изображения, соответствующую целевой маске, в качестве целевой области и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; илиif k is greater than 2, determining a target mask from a plurality of k masks based on predetermined object category priorities, and determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area; or

если k больше 2, определяют целевую маску из совокупности k масок в соответствии с командой выбора от пользователя; и определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области. Этот способ может быть конкретно выполнен решающим модулем.if k is greater than 2, determining a target mask from the set of k masks in accordance with a selection command from the user; and determining an image area corresponding to the target mask as the target area, and determining an image area corresponding to the rest of the masks as the background area. This method can be specifically performed by the solver.

Согласно первому аспекту, второму аспекту, третьему аспекту или четвертому аспекту в одном из возможных вариантов, процедура обработки целевой области и фоновой области с применением разных режимов цветовой обработки содержит, но не ограничивается этим:According to the first aspect, the second aspect, the third aspect, or the fourth aspect in one possible embodiment, the procedure for processing the target area and the background area using different color processing modes includes, but is not limited to:

сохранение цвета целевой области, и осуществление черно-белой обработки фоновой области;preserving the color of the target area, and performing black and white processing of the background area;

сохранение цвета целевой области, и осуществление затемняющей обработки фоновой области;maintaining the color of the target area, and performing darkening processing of the background area;

сохранение цвета целевой области, и осуществление «размывающей» обработки фоновой области;preserving the color of the target area, and performing "blurring" processing of the background area;

усиление цвета целевой области, и осуществление черно-белой обработки фоновой области;enhancing the color of the target area, and performing black and white processing of the background area;

усиление цвета целевой области, и осуществление затемняющей обработки фоновой области; илиenhancing the color of the target area, and performing darkening processing of the background area; or

усиление цвета целевой области, и осуществление «размывающей» обработки фоновой области.enhancing the color of the target area, and performing a "blurring" treatment on the background area.

В дополнение к этому, способ обработки фоновой области может далее содержать способ фильтрации темных тонов, например, способ ретро фильтрации или способ пленочной фильтрации. Этот способ, в частности, осуществляется модулем цветовой обработки.In addition, the background area processing method may further comprise a dark tone filtering method such as a retro filtering method or a film filtering method. This method, in particular, is carried out by the color processing module.

Согласно первому аспекту, второму аспекту, третьему аспекту или четвертому аспекту в одном из возможных вариантов, категория объекта может представлять собой по меньшей мере одно из списка – человек, животное, растительность, заданный объект или фон.According to the first aspect, the second aspect, the third aspect or the fourth aspect in one of the options, the category of the object may be at least one of the list - a person, an animal, vegetation, a given object or background.

Более конкретно, в упомянутых выше возможных вариантах технической реализации, процессор может вызвать программу и команду из запоминающего устройства для осуществления соответствующей обработки данных, такой как реализация алгоритмов и/или получение сигналов.More specifically, in the technical implementation options mentioned above, the processor may call a program and instruction from a storage device to perform appropriate data processing, such as implementing algorithms and/or receiving signals.

Согласно пятому аспекту, один из вариантов настоящего изобретения предлагает способ обработки изображения. Этот способ применяется к процедуре видеозаписи и, в частности, содержит: определение категории объекта, входящего в каждое полученное изображение; если в первых N0 изображениях относительно текущего изображения число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, не больше заданной пороговой величины, определение целевой области и фоновой области в текущем изображении на основе категории указанного объекта на изображении, где фоновая область представляет собой область текущего изобретения, отличную от целевой области; и обработку целевой области и фоновой области в первом режиме цветовой обработки и во втором режиме цветовой обработки, соответственно, для получения целевого изображения, где насыщенность цвета в целевой области целевого изображения больше насыщенности цвета в фоновой области этого целевого изображения, либо яркость целевой области целевого изображения больше яркости фоновой области этого целевого изображения; или если в первых N0 изображениях текущей съемки (текущего изображения), число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, больше заданной пороговой величины, обработку этого текущего изображения в первом режиме цветовой обработки или во втором режиме цветовой обработки для получения целевого изображения.According to a fifth aspect, one embodiment of the present invention provides an image processing method. This method is applied to the video recording procedure and, in particular, contains: determining the category of the object included in each received image; if in the first N0 images relative to the current image, the number of groups of neighboring images with the same object, defined as different categories of objects, is not more than a given threshold value, the determination of the target area and the background area in the current image based on the category of the specified object in the image, where the background the area is the area of the current invention, different from the target area; and processing the target area and the background area in the first color processing mode and the second color processing mode, respectively, to obtain a target image, where the color saturation in the target area of the target image is greater than the color saturation in the background area of this target image, or the brightness of the target area of the target image more brightness of the background area of this target image; or if in the first N0 images of the current shooting (current image), the number of groups of neighboring images with the same object, defined as different categories of objects, is greater than a predetermined threshold, processing this current image in the first color processing mode or in the second color processing mode to get the target image.

Согласно шестому аспекту, один из вариантов настоящего изобретения предлагает аппаратуру для обработки изображения. Эта аппаратура для обработки изображения используется в процессе видеозаписи и, в частности, содержит: фотографический модуль, конфигурированный для получения изображения; решающий модуль, конфигурированный для определения категории объекта, входящего в каждое полученное изображение; оценочный модуль, конфигурированный для того, чтобы: если в первых N0 изображениях относительно текущего изображения число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, не больше заданной пороговой величины, управлять решающим модулем для определения целевой области и фоновой области в текущем изображении на основе категории указанного объекта на изображении, где фоновая область представляет собой область текущего изображения, отличную от целевой области; и управлять модулем цветовой обработки для обработки целевой области и фоновой области в первом режиме цветовой обработки и во втором режиме цветовой обработки, соответственно, для получения целевого изображения, где насыщенность цвета в целевой области целевого изображения становится больше насыщенности цвета в фоновой области этого целевого изображения, либо яркость целевой области целевого изображения становится больше яркости фоновой области этого целевого изображения; или если в первых N0 изображениях относительно текущего изображения, число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, больше заданной пороговой величины, управлять модулем устранения мерцания с целью обработки текущего изображения в первом режиме цветовой обработки или во втором режиме цветовой обработки для получения целевого изображения.According to a sixth aspect, one embodiment of the present invention provides an image processing apparatus. This image processing apparatus is used in a video recording process and specifically comprises: a photographic module configured to acquire an image; a decision module configured to determine the category of the object included in each received image; an evaluation module configured to: if in the first N0 images relative to the current image, the number of groups of neighboring images with the same object, defined as different categories of objects, is not greater than a given threshold, control the decision module to determine the target area and the background area in the current image based on the category of the specified object in the image, where the background area is an area of the current image, different from the target area; and controlling the color processing unit to process the target area and the background area in the first color processing mode and the second color processing mode, respectively, to obtain a target image where the color saturation in the target area of the target image becomes greater than the color saturation in the background area of this target image, or the brightness of the target area of the target image becomes greater than the brightness of the background area of this target image; or if in the first N0 images relative to the current image, the number of groups of neighboring images with the same object, defined as different categories of objects, is greater than a predetermined threshold, control the flicker elimination unit to process the current image in the first color processing mode or in the second mode color processing to obtain the target image.

Следует понимать, что текущее видео изображение может рассматриваться как изображение, записываемое в некоторый момент времени. В некоторых сценариях этот момент может считаться некоторым обобщенным моментом, либо в некоторых других сценариях это может быть какой-то конкретный момент, например, самый последний по времени момент, либо момент, которым интересуется пользователь.It should be understood that the current video image can be considered as an image being recorded at some point in time. In some scenarios, this moment may be considered as some generalized moment, or in some other scenarios, it may be a specific moment, for example, the most recent moment, or the moment in which the user is interested.

Согласно пятому аспекту или шестому аспекту, в одном из возможных вариантов, процедура определения целевой области и фоновой области в текущем изображении на основе категории объекта в этом изображении содержит: осуществление семантической сегментации изображения с целью получения k масок, где эти k масок соответствуют разным категориям объектов; иAccording to the fifth aspect or the sixth aspect, in one of the possible options, the procedure for determining the target area and the background area in the current image based on the category of the object in this image contains: performing semantic segmentation of the image in order to obtain k masks, where these k masks correspond to different categories of objects ; And

если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area;

если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве целевой области, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than the predetermined threshold value, the image area corresponding to these k0 masks for the main objects is determined as the target area, and the image area corresponding to one from the remaining masks, as a background region, where k0 is a non-negative integer less than k;

если k больше 2, определяют, в качестве целевой области, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determine, as the target area, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determine the area of the image corresponding to the rest of the masks, as the background area;

если k больше 2, определяют целевую маску из совокупности k масок на основе заданных приоритетов категорий объектов, и определяют область изображения, соответствующую целевой маске, в качестве целевой области и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; илиif k is greater than 2, determining a target mask from a plurality of k masks based on predetermined object category priorities, and determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area; or

если k больше 2, определяют целевую маску из совокупности k масок в соответствии с командой выбора от пользователя; и определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области. Этот способ может быть, в частности, выполнен решающим модулем.if k is greater than 2, determining the target mask from the set of k masks in accordance with a selection command from the user; and determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area. This method can in particular be carried out by a solver.

Согласно пятому аспекту или шестому аспекту, в одном из возможных вариантов, процедура обработки целевой области и фоновой области в разных режимах цветовой обработки содержит, но не ограничивается этим:According to the fifth aspect or the sixth aspect, in one possible embodiment, the procedure for processing the target area and the background area in different color processing modes includes, but is not limited to:

сохранение цвета целевой области, и осуществление черно-белой обработки фоновой области;preserving the color of the target area, and performing black and white processing of the background area;

сохранение цвета целевой области, и осуществление затемняющей обработки фоновой области;maintaining the color of the target area, and performing darkening processing of the background area;

сохранение цвета целевой области, и осуществление «размывающей» обработки фоновой области;preserving the color of the target area, and performing "blurring" processing of the background area;

усиление цвета целевой области, и осуществление черно-белой обработки фоновой области;enhancing the color of the target area, and performing black and white processing of the background area;

усиление цвета целевой области, и осуществление затемняющей обработки фоновой области; илиenhancing the color of the target area, and performing darkening processing of the background area; or

усиление цвета целевой области, и осуществление «размывающей» обработки фоновой области.enhancing the color of the target area, and performing a "blurring" treatment on the background area.

В дополнение к этому, способ обработки фоновой области может далее содержать способ фильтрации темных тонов, например, способ ретро фильтрации или способ пленочной фильтрации. Этот способ, в частности, осуществляется модулем цветовой обработки.In addition, the background area processing method may further comprise a dark tone filtering method such as a retro filtering method or a film filtering method. This method, in particular, is carried out by the color processing module.

Согласно пятому аспекту или шестому аспекту, в одном из возможных вариантов, категория объекта может представлять собой по меньшей мере одно из списка – человек, животное, растительность, заданный объект или фон.According to the fifth aspect or the sixth aspect, in one of the possible options, the category of the object may be at least one of the list - a person, an animal, vegetation, a given object or background.

Более конкретно, в перечисленных выше возможных вариантах технической реализации в упомянутых выше возможных вариантах технической реализации, процессор может вызвать программу и команду из запоминающего устройства для осуществления соответствующей обработки данных, такой как реализация алгоритмов и/или получение сигналов.More specifically, in the technical implementation options listed above, in the above technical implementation options, the processor can call a program and instruction from a storage device to perform appropriate data processing, such as implementing algorithms and/or receiving signals.

Согласно седьмому аспекту, один из вариантов настоящего изобретения предлагает терминал, содержащий видеокамеру, запоминающее устройство, процессор и шину. Эти видеокамера, запоминающее устройство и процессор соединены одно с другим посредством шины. Видеокамера конфигурирована для захвата изображения, а запоминающее устройство конфигурировано для сохранения компьютерной программы и команд. Процессор конфигурирован для вызова компьютерной программы, команд и захваченного изображения, сохраняемых в запоминающем устройстве, и далее специально конфигурирован с целью позволить терминалу осуществить какой-либо один из указанных выше возможных вариантов способов.According to a seventh aspect, one embodiment of the present invention provides a terminal including a video camera, a storage device, a processor, and a bus. These video camera, storage device and processor are connected to each other via a bus. The video camera is configured to capture an image and the storage device is configured to store the computer program and instructions. The processor is configured to call the computer program, instructions, and the captured image stored in the storage device, and further specifically configured to allow the terminal to perform any one of the above options.

Согласно седьмому аспекту, в одном из возможных вариантов этот терминал дополнительно содержит антенную систему. Эта антенная система принимает/передает сигнал радиосвязи под управлением процессора с целью осуществления радиосвязи с сетью мобильной связи. Сеть мобильной связи может представлять собой одну или более из следующих сетей: сеть GSM, сеть CDMA, сеть 3G, сеть 4G, сеть 5G, сеть FDMA, сеть TDMA, сеть PDC, сеть TACS, сеть AMPS, сеть WCDMA, сеть TDSCDMA, сеть Wi-Fi и сеть LTE.According to the seventh aspect, in one possible embodiment, this terminal further comprises an antenna system. This antenna system receives/transmits a radio communication signal under the control of the processor for the purpose of radio communication with a mobile communication network. The mobile communication network may be one or more of the following networks: GSM network, CDMA network, 3G network, 4G network, 5G network, FDMA network, TDMA network, PDC network, TACS network, AMPS network, WCDMA network, TDSCDMA network, Wi-Fi and LTE network.

Технические решения приведенных выше возможных вариантов могут быть скомбинированы, не вступая в противоречия с природой настоящего изобретения.The technical solutions of the above possible options can be combined without conflicting with the nature of the present invention.

При использовании обычной технологии при фотографировании видео или изображений специальные эффекты оказываются недостаточно богатыми без различения между индивидуальными объектами или цветами в любом изображении. Согласно настоящему изобретению разные области изображения можно отличать одну от другой с использованием цветов, так что специальные эффекты фото или видео съемки оказываются усилены, вследствие чего главный объект и цель могут быть лучше выделены на изображении. Таким образом, главные роли становятся более заметными.When using conventional technology when photographing video or images, the special effects are not rich enough without distinguishing between individual objects or colors in any image. According to the present invention, different areas of an image can be distinguished from one another using colors, so that the special effects of a photo or video are enhanced, so that the main subject and target can be better distinguished in the image. Thus, the main roles become more visible.

Краткое описание чертежейBrief description of the drawings

Фиг. 1 представляет упрощенную схему структуры терминала согласно одному из вариантов настоящего изобретения;Fig. 1 is a simplified diagram of the structure of a terminal according to one embodiment of the present invention;

Фиг. 2 представляет логическую схему способа обработки изображения согласно одному из вариантов настоящего изобретения;Fig. 2 is a logic diagram of an image processing method according to one embodiment of the present invention;

Фиг. 3 показывает пример идентификатора маски согласно одному из вариантов настоящего изобретения; Fig. 3 shows an example of a mask identifier according to one embodiment of the present invention;

Фиг. 4 показывает другой пример идентификатора маски согласно одному из вариантов настоящего изобретения;Fig. 4 shows another example of a mask identifier according to one embodiment of the present invention;

Фиг. 5 показывает упрощенную схему определения целевой маски согласно одному из вариантов настоящего изобретения;Fig. 5 shows a simplified scheme for determining a target mask according to one embodiment of the present invention;

Фиг. 6 показывает другую упрощенную схему определения целевой маски согласно одному из вариантов настоящего изобретения;Fig. 6 shows another simplified scheme for determining the target mask according to one embodiment of the present invention;

Фиг. 7 показывает другую упрощенную схему определения целевой маски согласно одному из вариантов настоящего изобретения;Fig. 7 shows another simplified scheme for determining the target mask according to one embodiment of the present invention;

Фиг. 8 показывает другую упрощенную схему определения целевой маски согласно одному из вариантов настоящего изобретения;Fig. 8 shows another simplified scheme for determining the target mask according to one embodiment of the present invention;

Фиг. 9 представляет упрощенную схему аппаратуры для обработки изображения согласно одному из вариантов настоящего изобретения; иFig. 9 is a simplified diagram of an image processing apparatus according to one embodiment of the present invention; And

Фиг. 10 представляет другую упрощенную схему аппаратуры для обработки изображения согласно одному из вариантов настоящего изобретения.Fig. 10 is another simplified diagram of an image processing apparatus according to an embodiment of the present invention.

Описание вариантовDescription of options

Последующее четко и полностью описывает технические решения настоящего изобретения со ссылками на прилагаемые чертежи этих вариантов настоящего изобретения. Очевидно, что описываемые варианты представляют всего лишь некоторые, но не все, варианты настоящего изобретения. Все другие варианты, получаемые даже рядовыми специалистами в рассматриваемой области на основе представленных здесь вариантов настоящего изобретения без каких-либо особых творческих усилий, попадают в объем защиты настоящего изобретения.The following clearly and completely describes the technical solutions of the present invention with reference to the accompanying drawings of these embodiments of the present invention. Obviously, the described options represent only some, but not all, options for the present invention. All other variants obtained even by ordinary specialists in the considered area on the basis of the variants of the present invention presented here without any special creative efforts, fall within the protection scope of the present invention.

В одном из вариантов настоящего изобретения терминал может представлять собой устройство, предоставляющее пользователю возможности для фотографирования и видеосъемки и/или соединение для передачи данных, ручное устройство, имеющее функцию беспроводного (радио) соединения, либо другое процессорное устройство, соединенное с беспроводным (радио) модемом, например, цифровую видеокамеру, зеркальную видеокамеру с одним объективом, мобильный телефон (или называемый также «сотовым телефоном») или смартфон. Терминал может представлять собой портативное, карманное, ручное или носимое устройство (например, интеллектуальные наручные часы), планшетный компьютер, персональный компьютер (personal computer (PC)), персональный цифровой помощник (PDA (Personal Digital Assistant)), автомобильный компьютер, дрон (беспилотный летательный аппарат), летательный аппарат или другой подобный объект.In one embodiment of the present invention, the terminal may be a device that provides the user with photo and video capabilities and/or a data connection, a hand-held device having a wireless (radio) connection function, or another processing device connected to a wireless (radio) modem. , such as a digital video camera, a single lens reflex camera, a mobile phone (or also called a "cell phone"), or a smartphone. The terminal may be a handheld, handheld, handheld or wearable device (e.g., smart wristwatch), tablet computer, personal computer (PC), personal digital assistant (PDA (Personal Digital Assistant)), car computer, drone ( unmanned aerial vehicle), aircraft or other similar object.

Фиг. 1 представляет упрощенную схему одного из вариантов структуры аппаратуры терминала 100.Fig. 1 is a simplified diagram of one of the options for the hardware structure of the terminal 100.

Как показано на Фиг. 1, терминал 100 может содержать компоненты, такие как высокочастотный модуль 110, запоминающее устройство 120, модуль 130 ввода, дисплейный модуль 140, видеокамеру 150, аудио схему 160 (содержащую громкоговоритель 161 и микрофон 162), процессор 170, внешний интерфейс 180 и источник 190 питания. Специалист в рассматриваемой области может понять, что на Фиг. 1 представлен всего лишь пример интеллектуального терминала или многофункционального устройства, который не накладывает каких-либо ограничений на интеллектуальный терминал или на многофункциональное устройство. Такой интеллектуальный терминал или многофункциональное устройство может содержать больше или меньше компонентов, чем показано на чертеже, либо комбинации таких компонентов, либо содержать другие компоненты. Например, такой интеллектуальный терминал или многофункциональное устройство содержит по меньшей мере запоминающее устройство 120, процессор 170 и видеокамеру 150.As shown in FIG. 1, terminal 100 may include components such as a RF module 110, a storage device 120, an input module 130, a display module 140, a video camera 150, an audio circuit 160 (comprising a speaker 161 and a microphone 162), a processor 170, an external interface 180, and a source 190. nutrition. One skilled in the art will appreciate that in FIG. 1 is just an example of an intelligent terminal or multifunctional device, which does not impose any restrictions on the intelligent terminal or multifunctional device. Such an intelligent terminal or multifunctional device may contain more or fewer components than shown in the drawing, or combinations of such components, or contain other components. For example, such an intelligent terminal or multifunctional device includes at least a storage device 120, a processor 170, and a video camera 150.

Видеокамера 150 конфигурирована для захвата изображения или видео и может быть включена в работу в соответствии с командой от прикладной программы для осуществления функции фотографирования или функции фотографирования (съемки) видео. Видеокамера может содержать такие компоненты, как видео объектив, светофильтр и формирователь сигналов изображения. Световые лучи, испускаемые или отраженные объектом, входят в объектив, проходят сквозь светофильтр и, в конечном итоге, сходятся на формирователе сигналов изображения. Объектив конфигурирован главным образом для сведения, в изображение, света, излученного или отраженного всеми объектами (которые могут также называться сценарием, подлежащим фотографированию, объектами, подлежащими фотографированию, целевым сценарием или целевыми объектами и могут также рассматриваться как изображение сценария, которые пользователь желает фотографировать) в пределах угла зрения для фотографирования. Светофильтр конфигурирован главным образом для отфильтровывания избыточных световых волн (например, световых волн, отличных от видимого света, например, инфракрасного излучения) из световых лучей. Формирователь сигналов изображения конфигурирован главным образом для того, чтобы: осуществлять оптоэлектрическое преобразование принимаемого оптического сигнала, преобразование этого оптического сигнала в электрический сигнал и ввод полученного электрического сигнала в процессор 170 для последующей обработки. Видеокамера может быть расположена на передней стороне терминала или на задней стороне терминала. Конкретное число и конкретное расположение видеокамер можно определять гибко на основе требований конструктора или политики поставщика. В настоящей заявке это никак не ограничено.The video camera 150 is configured to capture an image or video and can be operated in accordance with a command from an application program to perform a photographing function or a photographing (shooting) video function. The camcorder may include components such as a video lens, a light filter, and an imager. Light rays emitted or reflected by an object enter the lens, pass through a filter, and eventually converge on the imager. The lens is configured primarily to converge, into an image, the light emitted or reflected by all objects (which may also be referred to as the scene to be photographed, the objects to be photographed, the target scenario or targets, and may also be considered an image of the scenario that the user wishes to photograph) within the angle of view for photographing. The color filter is mainly configured to filter out excess light waves (eg, light waves other than visible light, such as infrared radiation) from the light beams. The imager is mainly configured to: perform optoelectrical conversion of the received optical signal, convert the optical signal into an electrical signal, and input the resulting electrical signal to the processor 170 for further processing. The video camera can be located on the front side of the terminal or on the back side of the terminal. The specific number and specific location of cameras can be determined flexibly based on designer requirements or supplier policy. In the present application, this is not limited in any way.

Модуль 130 ввода может быть конфигурирован для приема вводимой цифровой или символьной информации и генерации введенного клавишами сигнала, относящегося к установкам пользователя и управлению функциями многофункциональной аппаратуры. В частности, модуль 130 ввода может содержать сенсорный экран 131 и/или другое устройство 132 ввода. Сенсорный экран 131 может собирать операцию прикосновения (например, операцию, осуществляемую пользователем на сенсорном экране или поблизости от сенсорного экрана с использованием какого-либо подходящего объекта, например, пальца, шарнира или стилуса) и управлять работой соответствующей аппаратуры связи на основе заданной программы. Сенсорный экран может обнаружить прикосновение пользователя к этому сенсорному экрану, преобразовать это прикосновение в соответствующий сигнал касания, передать этот сигнал касания процессору 170, а также может принять и выполнить команду, переданную процессором 170. Сигнал касания содержит по меньшей мере информацию о координатах точки контакта. Этот сенсорный экран 131 может создать интерфейс ввода и интерфейс вывода между терминалом 100 и пользователем. В дополнение к этому, сенсорный экран может быть реализован в виде устройств различного типа, таких как экраны резистивного типа, емкостного типа, инфракрасного типа или экраны с использованием поверхностной акустической волны. В дополнение к сенсорному экрану 131 модуль 130 ввода может также содержать другое устройство ввода. В частности, это другое устройство 132 ввода может представлять собой, без ограничений, одно или несколько из следующих устройств – физическую клавиатуру, функциональную клавишу (например, клавишу регулировки громкости и/или клавишу 133 включения/выключения), трекбол, мышь, джойстик или другое подобное устройство.The input module 130 may be configured to receive numeric or character input and generate a key input related to user settings and control of the functions of the multifunction equipment. In particular, the input module 130 may include a touch screen 131 and/or other input device 132. The touch screen 131 can collect a touch operation (eg, an operation performed by a user on or near the touch screen using some suitable object such as a finger, a ball joint, or a stylus) and control the operation of the associated communication equipment based on a predetermined program. The touch screen may detect a user's touch on the touch screen, convert that touch into a corresponding touch signal, transmit that touch signal to processor 170, and may also receive and execute a command transmitted by processor 170. The touch signal contains at least information about the coordinates of the contact point. This touch screen 131 can create an input interface and an output interface between the terminal 100 and the user. In addition, the touch screen may be implemented in various types of devices such as resistive type, capacitive type, infrared type, or surface acoustic wave screens. In addition to the touch screen 131, the input module 130 may also include another input device. In particular, this other input device 132 may be, without limitation, one or more of the following devices - a physical keyboard, a function key (for example, a volume key and/or an on/off key 133), a trackball, a mouse, a joystick, or other similar device.

Дисплейный модуль 140 может быть конфигурирован для представления на дисплее информации, вводимой пользователем, или информации, предназначенной для пользователя, различных меню, используемых терминалом 100, интерактивного интерфейса, файла и/или воспроизведения какого-либо мультимедийного файла. В этом варианте настоящего изобретения дисплейный модуль дополнительно конфигурирован для представления изображения/видео, получаемого терминалом с использованием видеокамеры 150. Это изображение/видео может представлять собой изображение/видео для предварительного просмотра в некоторых режимах фотографирования, сфотографированное первоначальное изображение/видео и целевое изображение/видео к которому была применена обработка в соответствии со специальным алгоритмом после фотографирования.The display module 140 may be configured to display user input or user information, various menus used by the terminal 100, an interactive interface, a file, and/or playback of any media file. In this embodiment of the present invention, the display module is further configured to present an image/video obtained by the terminal using the video camera 150. This image/video may be a preview image/video in some photographic modes, a photographed original image/video, and a target image/video. to which processing was applied in accordance with a special algorithm after photographing.

Далее, сенсорный экран 131 может закрывать панель 141 дисплея. После обнаружения операции прикосновения на поверхности сенсорного экрана 131 или рядом с ним этот сенсорный экран 131 передает обнаруженную операцию прикосновения процессору 170 для определения типа события прикосновения. Затем процессор 170 создает соответствующий визуальный выходной сигнал на панели 141 дисплея на основе найденного типа события прикосновения. В этом варианте сенсорный экран и дисплейный модуль могут быть интегрированы в одном компоненте для осуществления функций ввода, вывода и дисплейных функций терминала 100. Для простоты описания, в этом варианте настоящего изобретения, сенсорный экран дисплея представляет множество функций сенсорного экрана и дисплейного модуля. В некоторых вариантах сенсорный экран и дисплейный модуль могут, в качестве альтернативы, использоваться как два независимых компонента.Further, the touch screen 131 may cover the display panel 141 . Upon detecting a touch operation on or near the surface of the touch screen 131, the touch screen 131 passes the detected touch operation to the processor 170 to determine the type of touch event. The processor 170 then generates an appropriate visual output on the display panel 141 based on the detected touch event type. In this embodiment, the touch screen and the display module can be integrated in one component to implement the input, output, and display functions of the terminal 100. For ease of description, in this embodiment of the present invention, the display touch screen represents a plurality of touch screen and display module functions. In some embodiments, the touch screen and the display module may alternatively be used as two independent components.

Запоминающее устройство 120 может быть конфигурировано для сохранения команд и данных. Это запоминающее устройство 120 может в основном содержать область для хранения команд и область для хранения данных. Область для хранения данных может сохранять данные, такие как мультимедийный файл и текст. Область для хранения команд может содержать блоки программного обеспечения, такие как операционная система, приложение и команда, требуемая по меньшей мере для одной функции, подмножества функций или расширенного множества функций. Запоминающее устройство 120 может далее содержать энергонезависимое запоминающее устройство с произвольной выборкой и предоставлять процессору 170 ряд функций, включая, в том числе, управление аппаратурой, программным обеспечением и ресурсами данных в компьютерном процессорном устройстве и поддержку управления программным обеспечением и приложением. Запоминающее устройство 120 далее конфигурировано для хранения мультимедийного файла и хранения выполняемой программы и приложения.Memory 120 may be configured to store commands and data. This storage device 120 may mainly include an instruction storage area and a data storage area. The data storage area can store data such as media file and text. The instruction storage area may contain software blocks such as an operating system, an application, and an instruction required for at least one function, a subset of functions, or an extended set of functions. Memory 120 may further comprise non-volatile random access memory and provide processor 170 with a number of functions including, but not limited to, control of hardware, software, and data resources in the computer processing device and support for software and application control. The storage device 120 is further configured to store the media file and store the executable program and application.

Процессор 170 представляет собой центр управления терминалом 100 и соединен с разными частями всего терминала через различные интерфейсы и линии. Этот процессор 170 осуществляет различные функции терминала 100 и обрабатывает данные посредством выполнения команд, сохраняемых в запоминающем устройстве 120, и вызова данных, сохраняемых в этом запоминающем устройстве 120, с целью осуществления общего управления терминалом. В качестве опции, процессор 170 может содержать один или несколько процессорных модулей. Предпочтительно, этот процессор 170 может быть интегрирован с процессором приложений и процессором модема. Процессор приложений главным образом исполняет операционную систему, выполняет функции интерфейса пользователя, выполняет программу приложения и другие подобные программы. Процессор модема главным образом обрабатывает функции радиосвязи. Можно понять, что в альтернативном варианте процессор модема может не быть интегрирован в процессор 170. В некоторых вариантах процессор и запоминающее устройство могут быть, в качестве альтернативы, реализованы в одном кристалле интегральной схемы. В некоторых вариантах, процессор и запоминающее устройство могут быть, соответственно, реализованы на независимых кристаллах интегральных схем. Процессор 170 может быть далее конфигурирован для того, чтобы: генерировать соответствующий сигнал управления работой, передавать этот сигнал управления работой соответствующему компоненту в компьютерном процессорном устройстве и считывать и обрабатывать данные посредством программного обеспечения, и, в частности, считывать и обрабатывать данные и программы в запоминающем устройстве 120, так что функциональные модули в процессоре 170 осуществляют соответствующие функции для управления соответствующими компонентами с целью выполнения действий, как этого требуют команды.The processor 170 is the control center of the terminal 100 and is connected to various parts of the entire terminal through various interfaces and lines. This processor 170 performs various functions of the terminal 100 and processes data by executing instructions stored in the memory 120 and retrieving data stored in the memory 120 to perform general control of the terminal. Optionally, processor 170 may include one or more processor modules. Preferably, this processor 170 may be integrated with an application processor and a modem processor. The application processor mainly executes an operating system, performs user interface functions, executes an application program, and the like. The modem processor mainly handles the radio functions. It can be understood that, in the alternative, the modem processor may not be integrated into the processor 170. In some embodiments, the processor and storage device may alternatively be implemented on the same integrated circuit chip. In some embodiments, the processor and storage device may, respectively, be implemented on independent integrated circuit chips. Processor 170 may be further configured to: generate an appropriate operation control signal, transmit that operation control signal to an appropriate component in a computer processing device, and read and process data by software, and in particular read and process data and programs in storage device 120 so that the functional modules in the processor 170 perform the appropriate functions to control the respective components to perform actions as required by the instructions.

Высокочастотный модуль 110 может быть конфигурирован для приема и передачи информации или для приема и передачи сигнала в процессе вызова. Например, высокочастотный модуль 110 принимает информацию нисходящей линии от базовой станции, затем передает эту информацию нисходящей линии процессору 170 для обработки и передает соответствующие данные восходящей линии в адрес базовой станции. Обычно, высокочастотный модуль содержит, не ограничиваясь этим, антенну, по меньшей мере один усилитель, приемопередатчик, направленный ответвитель (элемент связи), малошумящий усилитель (МШУ (Low Noise Amplifier, LNA)), дуплексер и другие подобные компоненты. В дополнение к этому, высокочастотный модуль 110 может далее осуществлять связь с сетевым устройством и с другим устройством посредством радиосвязи. Такая радиосвязь может использовать какой-либо стандарт или протокол связи, включая без ограничений, стандарт глобальной системы мобильной связи (Global System for Mobile Communications, GSM), стандарт системы пакетной радиосвязи общего пользования (General Packet Radio Service, GPRS), стандарт многостанционного доступа с кодовым уплотнением (Code Division Multiple Access, CDMA), стандарт широкополосного многостанционного доступа с кодовым уплотнением (Wideband Code Division Multiple Access, WCDMA), стандарт долговременной эволюции (Long Term Evolution, LTE), электронную почту, сервис коротких сообщений (Short Message Service, SMS) и другие подобные стандарты.RF module 110 may be configured to receive and transmit information, or to receive and transmit a signal during a call. For example, the RF module 110 receives downlink information from the base station, then transmits this downlink information to the processor 170 for processing, and transmits the corresponding uplink data to the address of the base station. Typically, the RF module includes, but is not limited to, an antenna, at least one amplifier, a transceiver, a directional coupler (coupler), a low noise amplifier (LNA (Low Noise Amplifier, LNA)), a duplexer, and other such components. In addition, the RF module 110 can further communicate with the network device and with the other device via radio. Such radio communication may use any communication standard or protocol, including, without limitation, the Global System for Mobile Communications (GSM) standard, the General Packet Radio Service (GPRS) standard, the multiple access standard with Code Division Multiple Access (CDMA), Wideband Code Division Multiple Access (WCDMA), Long Term Evolution (LTE), E-mail, Short Message Service, SMS) and other similar standards.

Аудио схема 160, громкоговоритель 161 и микрофон 162 могут создать аудио интерфейс между пользователем и терминалом 100. Аудио схема 160 может передавать громкоговорителю 161 электрический сигнал, преобразованный из принятых аудиоданных, а громкоговоритель 161 преобразует этот электрический сигнал в звуковой сигнал для излучения звука. В дополнение к этому, микрофон 162 конфигурирован для сбора звукового сигнала и может далее преобразовывать собранный звуковой сигнал в электрический сигнал. Аудио схема 160 принимает этот электрический сигнал, преобразует электрический сигнал в аудиоданные, передает эти аудиоданные процессору r 170 для обработки и затем передает обработанные аудиоданные, например, другому терминалу через высокочастотный модуль 110 или передает эти обработанные аудиоданные в запоминающее устройство 120 для дальнейшей обработки. Аудио схема может содержать гнездо 163 для подключения наушников (головных телефонов), конфигурированное для создания соединительного интерфейса между аудио схемой и наушниками. Конкретное количество и конкретные схемы расположения громкоговорителей и микрофонов можно гибко определять на основе требований конструктора или политики поставщика. В настоящей заявке это никак не ограничено.Audio circuit 160, speaker 161, and microphone 162 can provide an audio interface between the user and terminal 100. Audio circuit 160 can provide speaker 161 with an electrical signal converted from the received audio data, and speaker 161 converts this electrical signal into an audio signal to emit sound. In addition, the microphone 162 is configured to collect an audio signal and can further convert the collected audio signal into an electrical signal. The audio circuit 160 receives this electrical signal, converts the electrical signal into audio data, transmits the audio data to the processor r 170 for processing, and then transmits the processed audio data to, for example, another terminal via the RF module 110, or transmits the processed audio data to the storage device 120 for further processing. The audio circuit may include a headphone (headphone) jack 163 configured to provide a connection interface between the audio circuit and the headphones. The specific number and specific layouts of loudspeakers and microphones can be flexibly determined based on designer requirements or supplier policy. In the present application, this is not limited in any way.

Терминал 100 далее содержит источник 190 питания (например, аккумулятор), который обеспечивает энергией каждый компонент. Предпочтительно, этот источник питания может быть логически соединен с процессором 170 с использованием системы управления питанием для реализации таких функций, как заряд, разряд и управление потреблением энергии с применением этой системы управления питания.Terminal 100 further includes a power source (eg, battery) 190 that powers each component. Preferably, this power supply may be logically connected to the processor 170 using a power management system to implement functions such as charge, discharge, and power management using this power management system.

Терминал 100 далее содержит внешний интерфейс 180. Этот внешний интерфейс может представлять собой стандартный микро-USB порт, либо может быть выполнен в виде многоштырькового разъема. Этот внешний интерфейс может быть конфигурирован для соединения терминала 100 с другой аппаратурой для связи, либо может быть конфигурирован для присоединения к зарядному устройству с целью заряда аккумулятора терминала 100.Terminal 100 further includes an external interface 180. This external interface may be a standard micro USB port, or may be a multi-pin connector. This external interface can be configured to connect terminal 100 to other communications equipment, or can be configured to connect to a charger to charge the battery of terminal 100.

Хотя это не показано, терминал 100 может далее содержать лампу-вспышку, модуль «беспроводной достоверности» (wireless fidelity, Wi-Fi), модуль Bluetooth, датчики с различными функциями и другие подобные компоненты. Подробности здесь не описаны. К терминалу, показанному на Фиг. 1, могут быть применены некоторые или все способы, описываемые ниже.Although not shown, terminal 100 may further include a flash lamp, a "wireless fidelity" (Wi-Fi) module, a Bluetooth module, sensors with various functions, and other such components. Details are not described here. To the terminal shown in Fig. 1, some or all of the methods described below may be applied.

Настоящее изобретение может быть применено к терминалу, имеющему функцию фотографирования (включая по меньшей мере одну из функций – функцию обычного фотографирования или функцию фотографирования видео), так что реализованный продукт может иметь форму интеллектуального терминала, например, это может быть продукт, в котором установлена видеокамера, например, мобильный телефон, планшет, камера прямого видения (DV), видеокамера, фотокамера, портативный компьютер, компьютер ноутбук, интеллектуальный робот, телевизор, система обеспечения безопасности или дрон (беспилотный летательный аппарат). В частности, функциональные модули настоящего изобретения могут быть развернуты на кристалле интегральной схемы цифрового процессора сигнала (DSP) соответствующего устройства и могут, в частности, представлять собой прикладную программу или программное обеспечение кристалла процессора DSP. Согласно настоящему изобретению эти функциональные модули развернуты в терминале для реализации функции обработки изображения посредством инсталлированного или обновленного программного обеспечения во взаимодействии с соответствующей аппаратурой.The present invention can be applied to a terminal having a photographing function (including at least one of a normal photographing function or a video photographing function), so that the realized product may be in the form of an intelligent terminal, for example, it may be a product in which a video camera is installed. , such as a mobile phone, tablet, direct vision (DV) camera, camcorder, camera, laptop computer, laptop computer, intelligent robot, TV, security system or drone (unmanned aerial vehicle). In particular, the functional modules of the present invention may be deployed on a digital signal processor (DSP) integrated circuit chip of an appropriate device, and may in particular be an application program or software of a DSP chip. According to the present invention, these functional modules are deployed in the terminal to implement the image processing function by means of installed or updated software in cooperation with the corresponding hardware.

Настоящее изобретение применяется главным образом к сценарию, в котором фотографирование изображения или видео осуществляется с использованием терминала. Люди имеют все более и более высокие требования к фотографированию видео и ожидают достижения полного спектра специальных эффектов при обработке видео в процессе фотографирования для получения при фотографировании видео типа «что Вы видите, то и получаете». Согласно настоящему изобретению, применительно к изображению или видео может быть осуществлено сегментирование главного объекта, а также могут быть скорректированы цвета различных областей для реализации специальных эффектов изображения в реальном времени.The present invention is mainly applied to a scenario in which photographing of an image or video is performed using a terminal. People have higher and higher requirements for video photography and expect to achieve a full range of special effects in video processing in the process of taking photos to achieve "what you see is what you get" video in photography. According to the present invention, segmentation of the main object can be performed on an image or video, and the colors of various areas can also be corrected to realize real-time image special effects.

Подробнее см. Фиг. 2. На Фиг. 2 представлена логическая схема способа обработки изображения согласно одному из вариантов настоящего изобретения. Способ этот может быть осуществлен в процессе фотографирования или видео. В последующем настоящее изобретение будет описано с использованием примеров.See FIG. 2. In FIG. 2 is a flow diagram of an image processing method according to one embodiment of the present invention. This method can be carried out in the process of photographing or video. In the following, the present invention will be described using examples.

Пример 1: фотографирование изображения (режим фотографирования)Example 1: Taking a photo of an image (photo mode)

Для этого примера, в процессе конкретной реализации, терминал может конфигурировать режим фотографирования. В этом режиме фотографирования способ может содержать следующие этапы.For this example, during a specific implementation, the terminal may configure the photographing mode. In this photographing mode, the method may include the following steps.

Этап 21: Получение (что также можно понимать как фотографирование или захват) изображения.Step 21: Taking (which can also be understood as photographing or capturing) an image.

В частности, когда пользователь осуществляет съемку изображения, на экране дисплея также представляется соответствующий поток предварительного просмотра. Термин «изображение для предварительного просмотра» в общем случае относится к одному из изображений в потоке для предварительного просмотра. Когда пользователь нажимает на спуск затвора, получается фотографическое изображение. Сфотографированное изображение имеет размер, например, но не ограничиваясь этим, 1920 x 1080.In particular, when the user captures an image, the corresponding preview stream is also displayed on the display screen. The term "preview image" generally refers to one of the images in the preview stream. When the user presses the shutter release, a photographic image is obtained. The photographed image has a size such as but not limited to 1920 x 1080.

Этап 22: Определение целевой области и фоновой области в изображении на основе контента (что можно понимать как семантику сцены) сфотографированного изображения. Более конкретно, целевая область и фоновая область в изображении могут быть определены на основе категории объекта на этом изображении. Фоновая область представляет собой область изображения, отличную от целевой области. Целевая область соответствует целевому объекту или целевому телу на изображении, а именно, объекту, который пользователь ожидает выделить (подчеркнуть) на изображении и который может быть связан с интерактивным выбором пользователя или с настройками системы. В частности, этап 22 может содержать шаги с S221 по S224.Step 22: Determining the target area and the background area in the image based on the content (which can be understood as scene semantics) of the photographed image. More specifically, a target area and a background area in an image may be determined based on the category of an object in that image. The background area is an area of the image that is different from the target area. The target area corresponds to the target object or target body in the image, namely, the object that the user expects to highlight (underline) in the image and which may be associated with an interactive user selection or with system settings. In particular, step 22 may include steps S221 to S224.

S221: Предварительная обработка изображения.S221: Image pre-processing.

Сфотографированное изображение первоначального размера подвергают понижающей дискретизации (субдискретизации) и преобразуют в изображение с меньшим разрешением. Объем вычислений может быть уменьшен, когда вычисления осуществляются на основе небольшого изображения. В процессе конкретной реализации первоначальный размер (например, m0 x n0) может быть подвергнут понижающей дискретизации до размера m x n. Меньшие величины m и n указывают на меньший объем последующих вычислений. Однако если величины m и n будут слишком маленькими, разрешение пикселей в последующем уменьшается. Эксперименты показали, что подходящими диапазонами значений m и n являются [128, 512], и более конкретно [256, 300]. В дополнение к этому, величины m и n могут быть равны или неравны одна к другой. Например, изображение 1920 x 1080 может посредством понижающей дискретизации быть преобразовано к размеру 256 x 256.The photographed image of the original size is downsampled (subsampled) and converted to an image with a lower resolution. The amount of calculation can be reduced when calculations are performed based on a small image. During a particular implementation, the original size (eg, m0 x n0) may be downsampled to a size of m x n. Smaller values of m and n indicate a smaller amount of subsequent calculations. However, if the m and n values are too small, the pixel resolution is subsequently reduced. Experiments have shown that suitable ranges for m and n are [128, 512], and more specifically [256, 300]. In addition, the values m and n may or may not be equal to one another. For example, a 1920 x 1080 image can be downsampled to 256 x 256.

S222: Ввод подвергнутого понижающей дискретизации изображения размером m x n в нейронную сеть для осуществления семантической сегментации с целью определения маски изображения (Mask).S222: Inputting a downsampled m x n image into a neural network to perform semantic segmentation to determine an image mask (Mask).

Под семантической сегментацией понимают сегментацию на уровне пикселей, осуществляемую применительно к объекту на изображении, и маркируют категорию объекта для каждого пикселя. Область, которая не маркирована категорией объекта, маркируется как «фон».Semantic segmentation is understood as segmentation at the pixel level, carried out in relation to an object in the image, and the category of the object is marked for each pixel. An area that is not labeled with an object category is labeled as "background".

В частности, семантическая сегментация может использовать алгоритм глубокого обучения на основе сверточной нейронной сети (CNN (Convolutional Neural Network)). В частности, модель сети на основе CNN описана следующим образом:In particular, semantic segmentation can use a deep learning algorithm based on a convolutional neural network (CNN (Convolutional Neural Network)). In particular, the CNN-based network model is described as follows:

(1) Осуществляются понижающая дискретизация и свертка применительно к изображению размером m x n для получения изображения m1 x n1, изображения m2 x n2, ..., и изображения mz x nz, и затем выделяют семантические признаки изображения слой за слоем для получения карты признаков m1 x n1, карты признаков m2 x n2, ..., и карты признаков mz x nz, а именно многоуровневые семантические признаки, где m1, m2, ..., и mz находятся в кратном соотношении с числом m и меньше этого числа, и где n1, n2, ..., nz находятся в кратном соотношении с числом n и меньше этого числа. Например, m = 2m1 = 4m2 =, ..., =

Figure 00000001
x mz, и n = 2n1 = 4n2 =, ..., =
Figure 00000001
x nz. Величина z и соотношение кратности могут быть определены на основе характеристик алгоритма и проектных требований.(1) Downsampling and convolution are performed on an mxn image to obtain an m1 x n1 image, an m2 x n2 image, ..., and an mz x nz image, and then extract the semantic features of the image layer by layer to obtain an m1 x feature map n1, feature maps m2 x n2, ..., and feature maps mz x nz, namely multi-level semantic features, where m1, m2, ..., and mz are in a multiple ratio with the number m and less than this number, and where n1, n2, ..., nz are in multiple ratio with the number n and less than this number. For example, m = 2m1 = 4m2 =, ..., =
Figure 00000001
x mz, and n = 2n1 = 4n2 =, ..., =
Figure 00000001
x nz. The z value and the multiplicity ratio can be determined based on the characteristics of the algorithm and the design requirements.

(2) К карте признаков m1 x n1, карте признаков m2 x n2, ..., и карте признаков mz x nz применяют повышающую дискретизацию (передискретизацию) и свертку для слияния многоуровневых семантических признаков.(2) The m1 x n1 feature map, the m2 x n2 feature map, ..., and the mz x nz feature map are upsampled (resampled) and convolved to merge the multilevel semantic features.

Способы свертки, понижающей дискретизации и повышающей дискретизации, упомянутые выше, могут использовать технологии, которые хорошо известны в промышленности и не исчерпываются тем, что перечислено в настоящем описании.The convolution, downsampling, and upsampling methods mentioned above may use techniques that are well known in the industry and are not limited to those listed herein.

(3) Определяют категорию объекта, которую нужно идентифицировать в изображении, вычисляют балл для каждой категории объекта на каждом пикселе, категорию объекта (которая может для краткости называться «категорией») с наивысшим баллом используют в качестве результата классификации для рассматриваемого пикселя, и в конечном итоге получают граф маски, а именно маску.(3) The object category to be identified in the image is determined, a score is calculated for each object category at each pixel, the object category (which may be called “category” for short) with the highest score is used as the classification result for the pixel under consideration, and finally As a result, a mask graph is obtained, namely a mask.

Например, если терминал может идентифицировать k категорий объектов (например, по меньшей мере одну категорию из списка – человек, животное, растительность, другой заданный объект или фон), можно получить k изображений. Каждый пиксель изображения получает балл, принадлежащий какой-либо категории объекта. Более высокий балл обозначает более высокую вероятность, что пиксель принадлежит соответствующей категории объекта.For example, if the terminal can identify k categories of objects (eg, at least one category from a list - person, animal, vegetation, other specified object, or background), k images can be obtained. Each pixel in the image receives a score that belongs to some category of the object. A higher score indicates a higher probability that the pixel belongs to the corresponding object category.

После того, как будет определена категория объекта для какого-либо пикселя, этот пиксель может быть идентифицирован. Например, 1 используется для обозначения человека, 2 используется для обозначения транспортного средства (автомобиля), 3 используется для обозначения животного, 4 используется для обозначения растительности, и 0 используется для обозначения фона. Это всего лишь пример и не составляет каких-либо ограничений. Пользователь может случайным образом установить число категорий, сами категории и способ идентификации на основе проектных требований. Конкретный пример может быть показан на Фиг. 3. Нейронная сеть классифицирует все области пикселей, где находится автомобиль, в качестве автомобиля и присваивает им идентификатор 1. Все области пикселей в окружающей фоновой части нейронная сеть классифицирует в качестве фона и присваивает им идентификатор 0. Для другого примера, в маске, передаваемой нейронной сетью на выход, области объектов одинаковой категории имеют одинаковую маркировку. Например, маркер для фона равен 0, маркер для кошки равен 1 и маркер для скейтборда равен 2. В маске, показанной на Фиг. 4, один и тот же цвет может быть далее использован для представления маркеров объектов одинаковой категории. Например, человека, лошадь и фон соответственно идентифицируют с использованием различных цветов.Once the object category for a pixel is determined, that pixel can be identified. For example, 1 is used to represent a person, 2 is used to represent a vehicle (car), 3 is used to represent an animal, 4 is used to represent vegetation, and 0 is used to represent a background. This is just an example and does not constitute any limitation. The user can randomly set the number of categories, the categories themselves, and the identification method based on design requirements. A specific example can be shown in FIG. 3. The neural network classifies all pixel areas where the car is located as a car and assigns them an ID of 1. All the pixel areas in the surrounding background part are classified by the neural network as backgrounds and assigns them an ID of 0. For another example, in the mask passed by the neural network to the exit, areas of objects of the same category have the same marking. For example, the background marker is 0, the cat marker is 1, and the skateboard marker is 2. In the mask shown in FIG. 4, the same color can be further used to represent object markers of the same category. For example, a person, a horse, and a background are respectively identified using different colors.

Маска является результатом работы алгоритма семантической сегментации. На изображении, все пиксели, принадлежащие какой-либо категории объекта, маркированы цветом или идентификатором, и фон также маркируют цветом или идентификатором. Изображение, полученное после обработки, называют маской, так что результат сегментации представляют на дисплее интуитивно.The mask is the result of the semantic segmentation algorithm. In an image, all pixels belonging to any object category are labeled with a color or ID, and the background is also labeled with a color or ID. The image obtained after processing is called a mask, so that the segmentation result is presented on the display intuitively.

Контент изображения может содержать главный объект и фон. Для простоты описания, соответственно, маска изображения может представлять собой маску для главного объекта или фоновую маску. Маска для главного объекта может соответствовать главному объекту, идентифицированному с использованием способа сегментации, включая индивидуальные объекты, которые пользователь ожидает увидеть выделенными («подчеркнутыми») на изображении или на сфотографированном изображении, например, человека, животное, растительность или конкретный объект (чашку, стол, одежду, декорацию…). Фоновая маска соответствует другой области, которая имеется на изображении и которая не идентифицирован в качестве маски для главного объекта. Маска изображения соответствует полному изображению. Способность идентификации маски для главного объекта связана с характеристиками нейронной сети. Например, некоторые нейронные сети могут идентифицировать только человека и фон. Некоторые нейронные сети могут идентифицировать человека, автомобиль и фон. Некоторые нейронные сети могут идентифицировать человека, животное и фон. Некоторые нейронные сети могут идентифицировать только животное и фон. Некоторые нейронные сети могут идентифицировать животное, растительность и фон...Image content can contain a main subject and a background. For ease of description, respectively, the image mask may be a mask for the main object or a background mask. The mask for the main object may correspond to the main object identified using the segmentation method, including individual objects that the user expects to see highlighted ("underlined") in the image or in the photographed image, for example, a person, animal, vegetation, or a specific object (cup, table , clothes, decorations ...). The background mask corresponds to another area in the image that is not identified as a mask for the main object. The image mask corresponds to the full image. The ability to identify the mask for the main object is related to the characteristics of the neural network. For example, some neural networks can only identify a person and a background. Some neural networks can identify a person, a car, and a background. Some neural networks can identify a person, an animal, and a background. Some neural networks can only identify the animal and the background. Some neural networks can identify animal, vegetation and background...

Следует понимать, что изображение может, в качестве альтернативы, содержать только главный объект или может содержать только фон. Когда изображение содержит только главный объект, этот главный объект может быть идентифицирован в качестве фона. Эти настройки относительно главного объекта и фона в изображении могут быть гибко сконструированы и определены проектировщиком.It should be understood that the image may alternatively contain only the main subject, or may contain only the background. When the image contains only the main object, this main object can be identified as the background. These settings regarding the main subject and background in the image can be flexibly constructed and defined by the designer.

Для обучения глубокой нейронной сети может потребоваться большой объем настроечных данных сегментации, где множество настроечных данных содержит большое число изображений, включая категории сегментации объектов, входные изображения и графы масок. Множество настроечных данных может охватывать разнообразные типовые сценарии приложений для сегментации объекта и содержать разнообразные данные. Входные изображения и графы масок в составе множества настроечных данных используются для обучения (настройки) сети с целью получения превосходного параметра сети, другими словами, получения характеристик сегментации, удовлетворяющих пользователя. Полученный параметр сети применяется в качестве окончательно используемого вычислительного параметра для нейронной сети.To train a deep neural network, a large amount of segmentation training data may be required, where the training data set contains a large number of images, including object segmentation categories, input images, and mask graphs. The set of tuning data can cover a variety of typical application scenarios for object segmentation and contain a variety of data. The input images and mask graphs in the training data set are used to train (tuning) the network in order to obtain an excellent network parameter, in other words, to obtain segmentation characteristics that satisfy the user. The resulting network parameter is used as the final computational parameter for the neural network.

S223: Определение целевой маски на основе совокупности масок.S223: Determination of the target mask based on the plurality of masks.

Для различных изображений и нейронных сетей с различными возможностями могут быть получены разнообразные маски. Терминал может далее определить из совокупности масок одну маску, соответствующую объекту, который в наибольшей степени необходимо выделить и сделать заметным на дисплее. Иными словами, нужно определить целевую маску. Процедура определения целевой маски содержит, не ограничиваясь этим, следующие несколько способов.For different images and neural networks with different capabilities, different masks can be obtained. The terminal may then determine from the set of masks one mask corresponding to the object that most needs to be highlighted and made visible on the display. In other words, you need to define the target mask. The procedure for determining the target mask includes, but is not limited to, the following several methods.

Способ 1: Если совокупность масок содержит только одну маску для главного объекта и одну фоновую маску, маску для главного объекта определяют в качестве целевой маски. Method 1: If the mask collection contains only one mask for the main object and one background mask, the mask for the main object is determined as the target mask.

В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area;

Как показано на Фиг. 5, совокупность масок для изображения на выходе нейронной сети содержит только одну маску A1 для главного объекта и одну фоновую маску. В этом случае, маска A1 может быть определена в качестве целевой маски.As shown in FIG. 5, the set of masks for the image at the output of the neural network contains only one mask A1 for the main object and one background mask. In this case, mask A1 can be defined as the target mask.

Способ 2: Когда совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, если количество пикселей, входящих в какую-либо маску для главного объекта, больше конкретной пороговой величины, эту маску для главного объекта определяют в качестве маски для целевого главного объекта; или если количество пикселей, входящих в какую-либо маску для главного объекта, меньше конкретной пороговой величины, изменяют маркировку этой маски для главного объекта и также маркируют ее в качестве фона. Количество пикселей, входящих в маску для главного объекта, может представлять собой количество пикселей, входящих в область индивидуального объекта на изображении.Method 2: When the mask pool contains multiple main object masks and one background mask, if the number of pixels included in any main object mask is greater than a specific threshold, that main object mask is determined as the target main object mask; or if the number of pixels included in any mask for the main object is less than a specific threshold value, change the labeling of this mask for the main object and also mark it as a background. The number of pixels included in the mask for the main object may be the number of pixels included in the area of the individual object in the image.

В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности k масок, больше заданной пороговой величины, область изображения, соответствующую этим k0 маскам для главных объектов, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам, определяют в качестве фоновой области, где k0 представляет собой неотрицательное целое число меньше k.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of k masks is greater than a predetermined threshold value, the image area corresponding to these k0 masks for the main objects is determined as the target area, and the image area corresponding to the remaining masks, is defined as the background region, where k0 is a non-negative integer less than k.

Как показано на Фиг. 6, совокупность масок для изображения на выходе нейронной сети содержит маску A1 для главного объекта, маску A2 для главного объекта, и фоновую маску. Если количество пикселей, входящих в маску A1, больше заданной пороговой величины и количество пикселей, входящих в маску A2, не больше заданной пороговой величины, маску A1 определяют в качестве целевой маски, а маркировку маски A2 для главного объекта изменяют и заново маркируют ее в качестве фоновой маски. Маска с измененной маркировкой может быть показана на Фиг. 5. Если количество пикселей, входящих в маску A1, больше заданной пороговой величины и количество пикселей, входящих в маску A2, также больше заданной пороговой величины, обе маски A1 и A2 определяют в качестве целевых масок. Если ни количество пикселей, входящих в маску A1, ни количество пикселей, входящих в маску A2, не больше заданной пороговой величины, эти маски A1 и A2 заново идентифицируют в качестве фоновых масок. Другими словами, рассматриваемое изображение не содержит маски для главного объекта.As shown in FIG. 6, the set of masks for the output image of the neural network contains a mask A1 for the main object, a mask A2 for the main object, and a background mask. If the number of pixels included in the mask A1 is greater than the predetermined threshold and the number of pixels included in the mask A2 is not greater than the predetermined threshold, the mask A1 is determined as the target mask, and the marking of the mask A2 for the main object is changed and re-marked as background mask. The relabeled mask can be shown in FIG. 5. If the number of pixels included in the mask A1 is greater than the predetermined threshold and the number of pixels included in the mask A2 is also greater than the predetermined threshold, both masks A1 and A2 are determined as target masks. If neither the number of pixels included in mask A1 nor the number of pixels included in mask A2 is greater than a predetermined threshold value, these masks A1 and A2 are re-identified as background masks. In other words, the image in question does not contain a mask for the main object.

Должно быть понятно, что в какой-либо конкретной процедуре реализации обе маски A1 и A2 могут быть отнесены к одной и той же категории объекта или к разным категориям объектов.It should be understood that in any particular implementation procedure, both masks A1 and A2 may be assigned to the same object category or to different object categories.

Способ 3: Когда совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, маску для главного объекта, содержащую наибольшее количество пикселей, выбирают в качестве целевой маски, маркировку других масок для главных объектов изменяют и заново маркируют их в качестве фоновых масок.Method 3: When the mask collection contains multiple main object masks and one background mask, the main object mask containing the largest number of pixels is selected as the target mask, the labeling of the other main object masks is changed and re-labeled as background masks.

В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2, область изображения, соответствующую маске для главного объекта, содержащей наибольшее количество пикселей и входящей в совокупность k масок, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам, определяют в качестве фоновой области.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2, the image area corresponding to the mask for the main object containing the largest number of pixels and included in the set of k masks is determined as the target area, and the image area corresponding to the rest of the masks is determined as the background area.

Как показано на Фиг. 6, совокупность масок для изображения на выходе нейронной сети содержит маску A1 для главного объекта, маску A2 для главного объекта и фоновую маску. Маску A1, содержащую наибольшее количество пикселей, определяют в качестве целевой маска, а маркировку маски A2 для главного объекта изменяют и заново маркируют ее в качестве фоновой маски. Эта заново маркированная маска может быть показана на Фиг. 5.As shown in FIG. 6, the set of masks for the output of the neural network contains a mask A1 for the main object, a mask A2 for the main object, and a background mask. The mask A1 containing the largest number of pixels is determined as the target mask, and the labeling of the mask A2 for the main object is changed and re-labeled as the background mask. This newly labeled mask can be shown in FIG. 5.

Должно быть понятно, что в какой-либо конкретной процедуре реализации обе маски A1 и A2 могут быть отнесены к одной и той же категории объекта или к разным категориям объектов.It should be understood that in any particular implementation procedure, both masks A1 and A2 may be assigned to the same object category or to different object categories.

Способ 4: Когда совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, а в число нескольких масок для главных объектов входят маски для нескольких категорий объектов, целевую маску определяют на основе приоритетов этих категорий объектов. Например, если приоритет маски для человека выше приоритета маски для автомобиля, маска для человека является целевой маской, а маркировка маски для автомобиля может быть изменена и эта маска может быть заново маркирована в качестве фона. Например, если приоритет маски для человека выше приоритета маски для животного и выше приоритета маски для растительности, а система установила приоритеты таким образом, что все маски с приоритетами выше приоритета маски для растительности являются масками для главных объектов, обе маски – и маска для человека, и маска для животного, считаются целевыми масками, а маркировка маски для растительности может быть изменена, и эта маска может быть маркирована заново в качестве фона. Должно быть понятно, что один или несколько индивидуальных объектов могут принадлежать к одной и той же категории объектов.Method 4: When the mask collection contains several main object masks and one background mask, and the several main object masks include masks for several object categories, the target mask is determined based on the priorities of these object categories. For example, if the priority of the human mask is higher than the priority of the car mask, the human mask is the target mask, and the marking of the car mask can be changed and this mask can be re-tagged as a background. For example, if the priority of a human mask is higher than the priority of an animal mask and higher than the priority of a vegetation mask, and the system has set priorities in such a way that all masks with priorities higher than the vegetation mask priority are masks for the main objects, both masks and the human mask, and an animal mask are considered target masks, and the marking of the vegetation mask can be changed and this mask can be re-labelled as a background. It should be understood that one or more individual objects may belong to the same category of objects.

В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2, целевую маску определяют из этих k масок на основе заданных приоритетов категорий объектов. Область изображения, соответствующую целевой маске, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам определяют в качестве фоновой области.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2, the target mask is determined from these k masks based on the given object category priorities. The area of the image corresponding to the target mask is defined as the target area, and the area of the image corresponding to the rest of the masks is defined as the background area.

Как показано на Фиг. 7, совокупность масок для изображения на выходе нейронной сети содержит маску A1 для главного объекта, маску B1 для главного объекта и фоновую маску. Маски A1 и B1 относятся к различным категориям объектов, причем приоритет маски A1 выше приоритета маски B1. Если система устанавливает, что любая маска для главного объекта, приоритет которой не ниже приоритета маски B1, может быть использована в качестве целевой маски, обе маски A1 и B1 являются целевыми масками. Если система устанавливает, что маска для главного объекта, приоритет которой выше приоритета маски B1, может быть использована в качестве целевой маски, маску A1 определяют в качестве целевой маски, а маркировку маски B1 изменяют и заново маркируют эту маску в качестве фоновой маски.As shown in FIG. 7, the set of masks for the output image of the neural network contains a mask A1 for the main object, a mask B1 for the main object, and a background mask. Masks A1 and B1 belong to different categories of objects, and the priority of mask A1 is higher than the priority of mask B1. If the system determines that any mask for the main object whose priority is not lower than the priority of mask B1 can be used as the target mask, both masks A1 and B1 are target masks. If the system determines that the mask for the main object, whose priority is higher than the priority of mask B1, can be used as the target mask, the mask A1 is determined as the target mask, and the labeling of the mask B1 is changed and re-labeled this mask as the background mask.

Способ 5: Если совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, целевая маска может быть определена в соответствии с введенной пользователем операцией выбора. Режим ввода содержит, не ограничиваясь, команду выбора, такую как прикосновение к экрану или голосовая команда. Маска для главного объекта, соответствующая индивидуальному объекту, выбранному пользователем, является целевой маской.Method 5: If the mask collection contains multiple masks for the main objects and one background mask, the target mask can be determined according to the selection operation entered by the user. The input mode includes, but is not limited to, a selection command such as a screen touch or a voice command. The mask for the main object corresponding to the individual object selected by the user is the target mask.

В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2, целевую маску определяют из совокупности k масок в соответствии с командой выбора от пользователя. Область изображения, соответствующую целевой маске, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам, определяют в качестве фоновой области.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2, the target mask is determined from the plurality of k masks according to the selection command from the user. The area of the image corresponding to the target mask is defined as the target area, and the area of the image corresponding to the rest of the masks is defined as the background area.

Как показано на Фиг. 7, совокупность масок для изображения на выходе нейронной сети содержит маску A1 для главного объекта, маску B1 для главного объекта и фоновую маску. Если пользователь нажмет, в процессе фотографирования, на индивидуальный объект, соответствующий маске A1, на сенсорном экране, эту маску A1 определяют в качестве целевой маски, и изменяют маркировку маски B1, заново маркируя ее в качестве фоновой маски. Если пользователь нажмет, в процессе фотографирования, на индивидуальный объект, соответствующий маске B1 на сенсорном экране, эту маску B1 определяют в качестве целевой маски, и изменяют маркировку маски A1, заново маркируя ее в качестве фоновой маски.As shown in FIG. 7, the set of masks for the output image of the neural network contains a mask A1 for the main object, a mask B1 for the main object, and a background mask. If the user presses, in the process of photographing, an individual object corresponding to the mask A1 on the touch screen, this mask A1 is determined as the target mask, and the labeling of the mask B1 is re-labeled as the background mask. If the user presses, in the process of photographing, an individual object corresponding to the mask B1 on the touch screen, this mask B1 is determined as the target mask, and the marking of the mask A1 is re-marked as the background mask.

Способ 6: Если совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, а в число нескольких масок для главных объектов входят маски для нескольких категорий объектов, целевая маска может быть определена на основе введенной пользователем операции выбора. Режим ввода содержит, не ограничиваясь, команду выбора, такую как прикосновение к экрану или голосовая команда. Все маски для главных объектов, имеющие категорию объекта, соответствующую индивидуальному объекту, выбранному пользователем, являются целевыми масками.Method 6: If the mask collection contains multiple masks for main objects and one background mask, and the multiple masks for main objects include masks for several categories of objects, the target mask can be determined based on the selection operation entered by the user. The input mode includes, but is not limited to, a selection command such as a screen touch or a voice command. All master object masks that have an object category corresponding to an individual object selected by the user are target masks.

В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2, целевую маску определяют из совокупности этих k масок в соответствии с командой выбора от пользователя. Область изображения, соответствующую целевой маске, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам, определяют в качестве фоновой области.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2, the target mask is determined from the totality of these k masks in accordance with a selection command from the user. The area of the image corresponding to the target mask is defined as the target area, and the area of the image corresponding to the rest of the masks is defined as the background area.

Как показано на Фиг. 8, совокупность масок для изображения на выходе нейронной сети содержит маски A1, A2, B1 и B2 для главных объектов и одну фоновую маску. Маски A1 и A2 относятся к одной и той же категории объектов, и маски B1 и B2 также относятся к одной и той же категории объектов. Если пользователь нажмет, в процессе фотографирования, на индивидуальный объект, соответствующий маске A1, на сенсорном экране, маски A1 и A2, относящиеся к одной и той же категории объектов, определяют в качестве целевых масок, а маркировку масок B1 и B2 изменяют и заново маркируют эти маски в качестве фоновых масок. Если пользователь нажмет, в процессе фотографирования, на индивидуальный объект, соответствующий маске B2, на сенсорном экране, маски B1 и B2, относящиеся к одной и той же категории объектов, определяют в качестве целевых масок, а маркировку масок A1 и A2 изменяют и заново маркируют эти маски в качестве фоновых масок.As shown in FIG. 8, the set of masks for the output of the neural network contains masks A1, A2, B1 and B2 for the main objects and one background mask. Masks A1 and A2 belong to the same object category, and masks B1 and B2 also belong to the same object category. If the user presses, in the process of photographing, an individual object corresponding to mask A1 on the touch screen, masks A1 and A2 belonging to the same category of objects are determined as target masks, and the marking of masks B1 and B2 is changed and re-marked these masks as background masks. If the user presses, in the process of photographing, an individual object corresponding to mask B2 on the touch screen, masks B1 and B2 belonging to the same category of objects are determined as target masks, and the labeling of masks A1 and A2 is changed and re-labeled these masks as background masks.

Следует понимать, что приведенные выше конкретные варианты реализации изобретения являются всего лишь примерами и не должны составлять ограничения. Эти приведенные выше конкретные варианты реализации изобретения можно свободно комбинировать, не нарушая логики изобретения. Поэтому, после осуществления сегментации масок применительно к изображению могут быть получены несколько целевых масок. Эти целевые маски могут относиться к одной или нескольким категориям объектов, и каждая категория объектов для этих целевых масок может далее охватывать один или несколько индивидуальных объектов. Представленный на дисплее результат относится к правилу, которое устанавливается в системе терминала и которое предназначено для определения целевой маски и для ввода от пользователя. В некоторых сценариях изображение может, в качестве альтернативы, содержать только одну фоновую маску.It should be understood that the above specific embodiments of the invention are merely examples and should not be limiting. These specific embodiments of the invention described above can be freely combined without violating the logic of the invention. Therefore, after mask segmentation is performed on an image, multiple target masks can be obtained. These target masks may refer to one or more object categories, and each object category for these target masks may further span one or more individual objects. The result shown on the display refers to a rule that is set in the terminal system and that is for determining the target mask and for input from the user. In some scenarios, an image may alternatively contain only one background mask.

s224: Определение целевой области и фоновой области в первоначальном изображении.s224: Determination of the target area and the background area in the original image.

Первоначальный размер сфотографированного изображения получают из совокупности масок, при этом целевую маску и фоновую маску из этой совокупности масок также подвергают повышающей дискретизации. Область, составленная всеми пикселями подвергнутой повышающей дискретизации целевой маски и соответствующая первоначальному изображению, является целевой областью, а область, составленная всеми пикселями подвергнутой повышающей дискретизации фоновой маски и соответствующая первоначальному изображению, является фоновой областью.The original size of the photographed image is derived from the mask pool, with the target mask and the background mask from the mask pool also upsampled. The area composed by all pixels of the upsampled target mask and corresponding to the original image is the target area, and the area composed by all the pixels of the upsampled background mask and corresponding to the original image is the background area.

Этап 23: Обработка целевой области и фоновой области в изображении в разных режимах цветовой обработки с целью получения целевого изображения. Для обработки используются разные режимы цветовой обработки, так что насыщенность цвета в целевой области оказывается больше насыщенности цвета в фоновой области, либо яркость в целевой области становится больше яркости в фоновой области. Другими словами, насыщенность цвета в целевой области целевого изображения больше насыщенности цвета в фоновой области, либо яркость в целевой области целевого изображения, больше яркости в фоновой области целевого изображения.Step 23: Processing the target area and the background area in the image in different color processing modes to obtain the target image. The processing uses different color processing modes so that the color saturation in the target area becomes greater than the color saturation in the background area, or the brightness in the target area becomes greater than the brightness in the background area. In other words, the color saturation in the target area of the target image is greater than the color saturation in the background area, or the brightness in the target area of the target image is greater than the brightness in the background area of the target image.

В частности, первый режим цветовой обработки и второй режим цветовой обработки используются соответственно для целевой области и фоновой области в изображении. Эти первый режим цветовой обработки и второй режим цветовой обработки содержат, не ограничиваясь этим, следующие способы.In particular, the first color processing mode and the second color processing mode are used for the target area and the background area in the image, respectively. These first color processing mode and the second color processing mode include, but are not limited to, the following methods.

Способ 1: Первый режим цветовой обработки сохраняет цвет, а второй режим цветовой обработки использует фильтр, например, преобразующий цвет фоновой области в черно-белую окраску. К типовым фильтрам относятся черно-белый фильтр, затемняющий фильтр, ретро фильтр, пленочный фильтр, фильтр размытости, фильтр бликов (фильтр боке) и другие подобные фильтры.Method 1: The first color processing mode preserves the color, and the second color processing mode uses a filter, for example, converting the color of the background area to black and white. Typical filters include black and white filter, darkening filter, retro filter, film filter, blur filter, highlight filter (bokeh filter), and other similar filters.

Например, черно-белый фильтр предназначен для отображения каждой величины пикселя в полутоновую величину с целью реализации эффекта черно-белого фильтра. В качестве другого примера, затемняющий фильтр предназначен для снижения яркости величины каждого пикселя с целью достижения специального затемняющего эффекта.For example, the black and white filter is designed to map each pixel value to a grayscale value in order to realize the black and white filter effect. As another example, the dimming filter is for reducing the brightness of each pixel value in order to achieve a special dimming effect.

Способ 2: Первый режим цветовой обработки представляет собой первый способ фильтрации, второй режим цветовой обработки представляет собой второй способ фильтрации, причем первый способ фильтрации отличается от второго способа фильтрации. Для одного и того же изображения, насыщенность цвета изображения, полученного с использованием первого способа фильтрации, больше насыщенности цвета изображения, полученного с использованием второго способа фильтрации.Method 2: The first color processing mode is the first filtering method, the second color processing mode is the second filtering method, and the first filtering method is different from the second filtering method. For the same image, the color saturation of the image obtained using the first filtering method is greater than the color saturation of the image obtained using the second filtering method.

Способ 3: Первый режим цветовой обработки представляет собой третий способ фильтрации, второй режим цветовой обработки представляет собой четвертый способ фильтрации. Для одного и того же изображения, насыщенность цвета изображения, полученного с использованием третьего способа фильтрации, больше насыщенности цвета изображения, полученного с использованием четвертого способа фильтрации.Method 3: The first color processing mode is the third filtering method, the second color processing mode is the fourth filtering method. For the same image, the color saturation of the image obtained using the third filtering method is greater than the color saturation of the image obtained using the fourth filtering method.

Должно быть понятно, что цвет представлен обоими параметрами – яркостью и насыщенностью цвета. Насыщенность цвета представляет собой свойство цвета, которое не охватывает яркость, а отражает тон и собственно насыщенность цвета, а яркостью называется свечение или степень светлоты цвета. Поэтому, цветовая обработка содержит обработку яркости и/или обработку насыщенности цвета.It should be clear that color is represented by both parameters - brightness and color saturation. Color saturation is a color property that does not cover brightness, but reflects the tone and saturation of the color itself, and brightness is the luminosity or degree of lightness of a color. Therefore, color processing comprises luminance processing and/or chroma processing.

В частности, фильтрация может содержать регулирование насыщенности цвета, яркости и цветового тона и может далее содержать наложенную текстуру и другие подобные факторы. Цветовую систему можно регулировать целевым образом путем регулирования насыщенности цвета и цветового тона, так что цветовая система становится более плотной или более светлой, либо изменяется цветовой тон, а другая цветовая система остается неизменной. Процесс фильтрации можно также понимать как отображения пикселя-в-пиксель. Величину пикселя входного изображения отображают в величину целевого пикселя с использованием заданной таблицы отображения с целью достижения специального эффекта. Следует понимать, что фильтр может представлять собой заданную параметрическую маску. Такими относящимися к цвету параметрами могут быть параметры фильтрующей маски, хорошо известные в промышленности, либо это могут быть параметры, независимо назначаемые пользователем.In particular, filtering may include adjusting color saturation, brightness, and hue, and may further include texture mapping and other such factors. The color system can be purposefully adjusted by adjusting the color saturation and hue so that the color system becomes denser or lighter, or the hue changes while the other color system remains unchanged. The filtering process can also be understood as pixel-to-pixel mapping. The input image pixel value is mapped to the target pixel value using a predetermined mapping table to achieve a special effect. It should be understood that the filter may be a given parametric mask. Such color-related parameters may be filter mask parameters well known in the industry, or may be parameters independently assigned by the user.

В дополнение к этому, после этапа 23, способ далее содержит этап 24 для сохранения изображения, обработанного на этапе 23.In addition, after step 23, the method further comprises step 24 for saving the image processed in step 23.

Согласно настоящему изобретению, в процессе фотографирования, терминал может определить целевой индивидуальный объект и фон на основе содержания изображения и осуществить различную цветовую обработку применительно к целевому индивидуальному объекту и к фону, так что главный объект на изображении, сфотографированном пользователем, может быть более выделенным, а само сфотографированное изображение выглядит как пленка.According to the present invention, in the photographing process, the terminal can determine the target div and the background based on the content of the image, and perform different color processing on the target div and the background, so that the main object in the image photographed by the user can be more prominent, and the photographed image itself looks like film.

Пример 2: фотографирование видео (режим видеозаписи) Example 2: Taking a photo of a video (movie recording mode)

В частности, согласно настоящему изобретению, способ обработки изображения для видеозаписи аналогичен способу обработки изображения для фотографирования, а разница состоит в том, что объект, обрабатываемый при фотографировании, представляет собой одно изображение, тогда как объект, обрабатываемый при видеозаписи, представляет собой последовательные видео кадры, а именно несколько последовательных изображений. Объект, обрабатываемый при видеозаписи, может представлять собой полное видео или сегмент полного видео, либо определяемый пользователем видео клип в пределах некоторого периода времени. Для информации о процедуре обработки каждого изображения в составе видео или видео клипа можно обратиться к способу обработки согласно Примеру 1.In particular, according to the present invention, the image processing method for video recording is similar to the image processing method for taking photographs, and the difference is that the object processed in photographing is a single image, while the object processed in video recording is successive video frames. , namely several consecutive images. The object processed during video recording may be a full video or a segment of a full video, or a user-defined video clip within a certain period of time. For information about the processing procedure for each image in a video or video clip, refer to the processing method according to Example 1.

В частности, способ обработки изображения для фотографирования видео может содержать следующие этапы.Specifically, the image processing method for photographing a video may include the following steps.

Этап 31: Получение N сфотографированных изображений, где N – положительное целое число; и осуществление операций этапа 32 и 33 применительно к каждому изображению, где эти N изображений могут представлять собой соседние видео кадры, так что сумму этих N изображений можно рассматривать в качестве видео. В альтернативном варианте, эти N изображений могут быть несоседними.Step 31: Obtaining N photographed images, where N is a positive integer; and performing steps 32 and 33 on each picture, where the N pictures may be adjacent video frames such that the sum of the N pictures can be considered as video. Alternatively, these N pictures may not be adjacent.

Одна из опций реализации этапа 32 может быть такой же, как этап 22.One of the options for implementing step 32 may be the same as step 22.

Одна из опций реализации этапа 33 может быть такой же, как этап 23.One of the options for implementing step 33 may be the same as step 23.

В качестве дополнения, поскольку видео содержит последовательные изображения, способ определения индивидуального объекта также относится к временной последовательности. Поэтому, в дополнение к этапу 23, могут быть больше вариантов реализации на этапе 33. В качестве опции, любой способ определения главного объекта на шаге S223 может иметь задержку. Например, в L1-ом кадре определены человек и фон, и они могут быть по-прежнему определены в кадрах от (L1 + 1)-го кадра по (L1 + L0)-ый кадр изображения посредством маркировки пикселей и сравнения масок, при этом человек на этих изображениях является главным объектом, а область, соответствующая этому человеку на рассматриваемых изображениях, является целевой областью 0. Нет необходимости определять главный объект и фон для каждого кадра. Момент, в который определяют главный объект, может быть каждый раз задан пользователем, либо главный объект можно определять периодически, например, не ограничиваясь этим, каждые 2 с или каждые 10 с. Метод определения главного объекта на шаге S223 содержит, но не ограничивается этим, до шести способов.In addition, since the video contains consecutive images, the method of determining the individual object also applies to the temporal sequence. Therefore, in addition to step 23, there may be more implementations in step 33. As an option, any method of determining the main object in step S223 may have a delay. For example, in the L1-th frame, a person and a background are defined, and they can still be defined in frames from the (L1 + 1)-th frame to the (L1 + L0)-th frame of the image by pixel marking and mask comparison, while the person in these images is the main subject, and the area corresponding to this person in the considered images is the target area 0. It is not necessary to define the main object and background for each frame. The timing at which the main object is determined may be set by the user each time, or the main object may be determined periodically, such as, but not limited to, every 2 s or every 10 s. The main object determination method in step S223 includes, but is not limited to, up to six methods.

Этап 34: Сохранение видео, составленного из N изображений, к которым применена цветовая обработка.Step 34: Saving a video composed of N images to which color processing has been applied.

Согласно настоящему изобретению, в процессе записи видео пользователем терминал может определить целевой индивидуальный объект и фон на основе контента видео, и осуществить различную цветовую обработку применительно к целевому индивидуальному объекту и к фону, так что главный объект на видео, сфотографированном пользователем, может быть более выделенным, само сфотографированное видео может быть таким же «крутым», как и кинофильм, а впечатление для пользователя может быть улучшено.According to the present invention, in the process of recording a video by a user, the terminal can determine the target div and the background based on the content of the video, and perform different color processing on the target div and the background, so that the main object in the video photographed by the user can be more highlighted. , the captured video itself can be as "cool" as a movie, and the user experience can be improved.

Пример 3: фотографирование видео (режим видеозаписи)Example 3: Taking a photo of a video (movie recording mode)

Согласно настоящему изобретению, способ обработки изображения для видеозаписи аналогичен способу обработки изображения для фотографирования, а разница состоит в том, что объект, обрабатываемый при фотографировании, представляет собой одно изображение, тогда как объект, обрабатываемый при видеозаписи, представляет собой последовательные видео кадры, а именно несколько последовательных изображений. Поэтому, для информации о процедуре обработки каждого изображения в составе видео или видео клипа можно обратиться к способу обработки согласно Примеру 1. В некоторых сложных сценариях фотографирования видео, некоторые области изображения могут быть приняты неправильно. Если одна и та же область по отдельности маркирована в соседних кадрах в качестве целевой области и фона, эту одну и ту же область обрабатывают в разных цветах в соответствии с приведенным выше способом цветовой обработки, а изменения цветов одной и той же области в соседних кадрах вызывает «сенсорное мерцание». Поэтому, такое мерцание необходимо обнаружить и исключить в процессе обработки. Это мерцание можно понимать в качестве ошибки определения категории объекта.According to the present invention, the image processing method for video recording is similar to the image processing method for photographing, and the difference is that the object processed in photographing is a single image, while the object processed in video recording is successive video frames, namely multiple consecutive images. Therefore, for information on the processing procedure for each image in a video or video clip, the processing method according to Example 1 can be referred to. In some complex video photographing scenarios, some areas of the image may not be received correctly. If the same area is separately marked in adjacent frames as the target area and background, this same area is processed in different colors in accordance with the above color processing method, and changing the colors of the same area in adjacent frames causes "touch flicker". Therefore, such flicker must be detected and eliminated during processing. This flickering can be understood as an error in determining the category of the object.

Согласно способу определения факта мерцания видео, маску для предшествующего кадра можно обрабатывать на основе оптического потока для получения маски на основе оптического потока и сравнивать маску на основе оптического потока с маской текущего кадра. Когда степень совпадения или степень подобия превосходит заданную конкретную пропорцию, определяют, что мерцание не возникает. Когда степень совпадения или степень подобия не превосходит заданную конкретную пропорцию, определяют, что возникло мерцание. В дополнение к этому, следует понимать, что определение мерцания является непрерывным процессом. В качестве опции, конкретный способ для определения, присутствует ли мерцание, выглядит следующим образом:According to the video flicker detection method, the mask for the previous frame can be processed based on the optical flow to obtain the mask based on the optical flow, and the mask based on the optical flow can be compared with the mask of the current frame. When the degree of coincidence or degree of similarity exceeds a predetermined specific proportion, it is determined that no flicker occurs. When the degree of coincidence or degree of similarity does not exceed a predetermined specific proportion, it is determined that flicker has occurred. In addition, it should be understood that flicker detection is a continuous process. As an option, a specific method for determining if flicker is present is as follows:

(1) Сначала вычисляют оптический поток соседних кадров, где оптический поток служит индикатором соотношения смещения между пикселями в соседних кадрах (в (t – 1)-ом кадре и в t-ом кадре).(1) First, the optical flow of adjacent frames is calculated, where the optical flow serves as an indicator of the offset ratio between pixels in adjacent frames (in the (t - 1)th frame and in the tth frame).

(2) Получают маску для (t – 1)-го кадра и вычисляют маску F для оптического потока для t-го кадра на основе маски для (t – 1)-го кадра и информации об оптическом потоке для (t – 1)-го кадра и t-го кадра, где маску для оптического потока получают посредством вычислений на основе оптического потока.(2) Obtain a mask for the (t - 1)th frame and calculate the mask F for the optical flow for the tth frame based on the mask for the (t - 1)th frame and the optical flow information for (t - 1)- the th frame and the t-th frame, where the mask for the optical flow is obtained through calculations based on the optical flow.

(3) Получают маску S для t-го кадра.(3) Get the mask S for the t-th frame.

(4) Подсчитывают множество SF пикселей главного объекта в маске F для оптического потока, и подсчитывают множество SS пикселей главного объекта в маске S. Количества пикселей в объединенном множестве и во множестве пересечения масок SF и SS обозначены соответственно Nu и Ni. Когда (Nu – Ni)/Nu больше заданной пороговой величины, считается, что имеет место относительно большая разница между масками соседних кадров (t – 1)-го и t-го, и определяют, что возникает мерцание между (t – 1)-ым кадров и t-ым кадром, либо можно понять, что t-ом кадре возникает мерцание. Относительно большая разность обозначает, что один и тот же объект может быть ошибочно отнесен к разным категориям объектов. Например, один и тот же индивидуальный объект в (t – 1)-ом кадре и t-ом кадре может быть по отдельности определен как человек и как обезьяна.(4) The pixel set SF of the main object in the mask F for the optical flow is counted, and the pixel set SS of the main object in the mask S is counted. When (Nu - Ni)/Nu is greater than a predetermined threshold value, it is considered that there is a relatively large difference between the masks of neighboring frames of the (t - 1)th and tth, and it is determined that flicker occurs between (t - 1) - th frame and t-th frame, or it can be understood that the t-th frame flicker occurs. A relatively large difference means that the same object can be erroneously assigned to different categories of objects. For example, the same individual object in the (t - 1)-th frame and the t-th frame can be separately defined as a human and as a monkey.

В качестве опции, если в первых N0 (положительное целое число больше 2) изображениях текущей съемки (текущего изображения), число групп соседних изображений с одним и тем же объектом, определяемым на этих изображениях как относящийся к разным категориям объектов, больше заданной пороговой величины, может быть установлено, что необходимо выполнить процедуру устранения мерцания применительно к текущему кадру. Если установлено, что число групп соседних изображений, в которых один и тот же объект определен как относящийся к разным категориям объектов, не превышает заданной пороговой величины, может быть решено, что нет необходимости выполнять процедуру устранения мерцания применительно к текущему кадру.As an option, if in the first N0 (positive integer greater than 2) images of the current shooting (current image), the number of groups of neighboring images with the same object defined in these images as belonging to different categories of objects is greater than the specified threshold value, it may be determined that it is necessary to perform a de-flickering procedure on the current frame. If it is determined that the number of neighboring picture groups in which the same object is determined to belong to different object categories does not exceed a predetermined threshold, it may be decided that it is not necessary to perform the flicker removal procedure on the current frame.

В качестве опции, например, для заданного количества исторически соседних кадров или заданного количества исторических кадров, если определено, что мерцание возникает более чем в половине этих кадров, (например, если определено, что мерцание возникает в трех видео кадрах из первых пяти соседних кадров относительно текущего видео кадра) может быть установлено, что необходимо выполнить процедуру устранения мерцания применительно к текущему кадру. Если же определено, что мерцание возникает менее чем в половине этих кадров, (например, если определено, что мерцание возникает в одном из первых пяти соседних кадров относительно текущего видео кадра) может быть установлено, что нет необходимости выполнять процедуру устранения мерцания применительно к текущему кадру.Optionally, for example, for a given number of historically adjacent frames or a given number of historical frames, if it is determined that flicker occurs in more than half of these frames, (for example, if it is determined that flicker occurs in three video frames out of the first five adjacent frames relative to current video frame) can be set to perform a flicker removal procedure on the current frame. If it is determined that the flicker occurs in less than half of these frames (for example, if it is determined that the flicker occurs in one of the first five adjacent frames relative to the current video frame), it can be determined that it is not necessary to perform the de-flicker procedure on the current frame. .

Должно быть понятно, что текущее видео изображение можно рассматривать как изображение, записанное в некий момент времени. Под этим моментом можно понимать некий обобщенный момент в некоторых сценариях, либо можно понимать некий конкретный момент в некоторых сценариях, например, самый последний момент или момент, который интересует пользователя.It should be clear that the current video image can be considered as an image recorded at some point in time. This moment can be understood as a generalized moment in some scenarios, or it can be understood as a specific moment in some scenarios, for example, the most recent moment or the moment that the user is interested in.

В частности, способ обработки изображения для фотографирования видео в этом примере может содержать следующие этапы.Specifically, the image processing method for photographing a video in this example may include the following steps.

Этап 41: Получение N сфотографированных изображений, где N представляет собой положительное целое число; и осуществление операций этапов 32 и 33 применительно к каждому изображению, где эти N изображений могут быть соседними видео кадрами, и тогда сумму этих N изображений можно рассматривать в качестве видео; либо эти N изображений могут быть не соседними.Step 41: Obtaining N photographed images, where N is a positive integer; and carrying out the operations of steps 32 and 33 for each picture, where the N pictures can be adjacent video frames, and then the sum of these N pictures can be considered as video; or these N images may not be adjacent.

Этап 42: Определение, является ли число групп соседних изображений, в которых возникает мерцание, в первых N0 кадрах относительно текущего кадра (текущего изображения) больше заданной пороговой величины. Здесь, число N0 и пороговая величина могут быть заданы пользователем. Например, число N0 представляет выбранное число отсчетов исторических видео кадров, а пороговая величина может составлять 1/2, 2/3 или другую подобную долю от числа N0. Это представляет собой всего лишь пример и не является ограничением.Step 42: Determining whether the number of adjacent picture groups in which flickering occurs in the first N0 frames relative to the current frame (current picture) is greater than a predetermined threshold. Here, the number N0 and the threshold value can be set by the user. For example, the number N0 represents a selected number of samples of historical video frames, and the threshold value may be 1/2, 2/3, or another similar fraction of the number N0. This is just an example and is not a limitation.

Если результат такого определения не больше заданной пороговой величины, выполняют операции этапов 42 и 43 применительно к сфотографированному или захваченному в текущий момент изображению.If the result of such a determination is not greater than a predetermined threshold value, the operations of steps 42 and 43 are performed with respect to the photographed or currently captured image.

Один из вариантов реализации этапа 43 может быть таким же, как этап 32.One implementation of step 43 may be the same as step 32.

Один из вариантов реализации этапа 44 может быть таким же, как этап 33.One implementation of step 44 may be the same as step 33.

Если результат определения больше заданной пороговой величины, выполняют операцию этапа 44 применительно к сфотографированному или захваченному в текущий момент изображению.If the determination result is greater than the predetermined threshold, the operation of step 44 is performed on the currently photographed or currently captured image.

Этап 45: Обработка всех областей изображения в текущем кадре с использованием одного и того же способа цветовой обработки для получения целевого изображения. Этот один и тот же способ цветовой обработки может быть таким же, как способ цветовой обработки фоновой области в предшествующем кадре, или может быть таким же, как способ цветовой обработки целевой области в предшествующем кадре, или может быть таким же, как способ цветовой обработки всего изображения в предшествующем кадре. Например, способ цветовой обработки, который является таким же, как способ, использованный для фоновой области на этапе 33 (23), может быть применен ко всему изображению. В альтернативном варианте, способ цветовой обработки, который является таким же, как способ, использованный для целевой области на этапе 33 (23), может быть использован для всего изображения. Например, все изображение остается цветным, либо все изображение являет черно-белым, либо первый или второй режим цветовой обработки (включая, но не ограничиваясь, режимами цветовой обработки, указанными в Примере 1) используется для всего изображения.Step 45: Processing all image areas in the current frame using the same color processing method to obtain the target image. This same color processing method may be the same as the color processing method of the background area in the previous frame, or may be the same as the color processing method of the target area in the previous frame, or may be the same as the color processing method of the entire images in the previous frame. For example, a color processing method that is the same as that used for the background area in step 33 (23) can be applied to the entire image. Alternatively, a color processing method that is the same as the method used for the target area in step 33(23) may be used for the entire image. For example, the entire image remains in color, or the entire image is black and white, or the first or second color processing mode (including but not limited to the color processing modes specified in Example 1) is used for the entire image.

В таком случае, для текущего кадра, может быть осуществлена или может быть исключена процедура сегментации маски, аналогичная процедуре, применяемой на этапе 22. В рассматриваемом примере это никак не ограничено.In such a case, for the current frame, a mask segmentation procedure similar to that used in step 22 may be performed or omitted. In the present example, this is not limited in any way.

После этапа 45, осуществляется этап 46 сохранения видео, состоящего из N изображений, к которым применена цветовая обработка. Здесь N представляет собой положительное целое число.After step 45, step 46 is performed to save a video consisting of N images to which color processing has been applied. Here N is a positive integer.

Согласно настоящему изобретению в ходе процедуры записи видео пользователем терминал может определить целевой индивидуальный объект и фон на основе контента этого видео и осуществить различную цветовую обработку целевого индивидуального объекта и фона таким образом, чтобы главный объект на видео, сфотографированном пользователем, мог быть более выделенным, само сфотографированное видео могло быть таким же «крутым», как и кинофильм, а впечатление для пользователя могло быть улучшено.According to the present invention, during a video recording procedure by a user, the terminal can determine the target div and background based on the content of that video, and perform different color processing on the target div and the background so that the main object in the video photographed by the user can be more highlighted, itself the photographed video could be as "cool" as the movie, and the user experience could be improved.

Пример 4: фотографирование видео (режим видеозаписи)Example 4: Taking a picture of a video (movie recording mode)

В некоторых сценариях приложений контент изображения, сфотографированного пользователем, обычно изменяется. Поэтому обычно изменяется главный объект изображения. Пользователь также ожидает возможности свободного выбора режима цветовой обработки главного объекта в различных изображениях, чтобы независимо управлять стилем видео.In some application scenarios, the content of the image taken by the user is usually changed. Therefore, the main object of the image usually changes. The user also expects to be able to freely select the color processing mode of the main object in different images in order to independently control the style of the video.

Способ обработки изображения в процессе фотографирования видео может содержать следующие этапы.The image processing method in the video photographing process may include the following steps.

Этап 51: Терминал получает видео кадр.Step 51: The terminal receives a video frame.

Этап 52: Терминал определяет область главного объекта и фоновую область в каком-либо видео кадре, полученном из видео.Step 52: The terminal determines the main object area and the background area in any video frame obtained from the video.

Этап 53: Терминал использует какой-либо режим цветовой обработки в какой-либо момент времени для области главного объекта, и этот терминал использует какой-либо режим цветовой обработки в какой-либо момент времени для фоновой области. Однако необходимо быть уверенным, что для любого изображения яркость или насыщенность цвета области главного объекта после цветовой обработки будет больше яркости или насыщенности цвета фоновой области после цветовой обработки. В качестве альтернативы, для любого изображения, насыщенность цвета или яркость изображения, получаемого в режиме цветовой обработки, используемом для области главного объекта, больше насыщенности цвета или яркости изображения, получаемого в режиме цветовой обработки, используемом для фоновой области.Step 53: The terminal uses any color processing mode at any time for the main object area, and this terminal uses any color processing mode at any time for the background area. However, you must be sure that for any image, the brightness or color saturation of the main object area after color processing will be greater than the brightness or color saturation of the background area after color processing. Alternatively, for any image, the color saturation or brightness of the image produced in the color processing mode used for the main subject area is greater than the color saturation or brightness of the image produced in the color processing mode used for the background region.

Пример 5: фотографирование видео (режим видеозаписи)Example 5: Taking a photo of a video (movie recording mode)

В некоторых сценариях приложений контент изображения, сфотографированного пользователем, обычно изменяется. Поэтому обычно изменяется главный объект изображения. Пользователь также ожидает возможности свободного выбора режима цветовой обработки главного объекта в различных изображениях, чтобы независимо управлять стилем видео. В частности, цвет, изменяется по истечении периода времени.In some application scenarios, the content of the image taken by the user is usually changed. Therefore, the main object of the image usually changes. The user also expects to be able to freely select the color processing mode of the main object in different images in order to independently control the style of the video. In particular, the color changes after a period of time.

Способ обработки изображения в процессе фотографирования видео может содержать следующие этапы. The image processing method in the video photographing process may include the following steps.

Этап 61: Захват N1 изображений в течение первого периода времени и захват N2 изображений в течение второго периода времени, где эти первый период времени и второй период времени представляют собой соседние периоды времени, и оба числа N1 и N2 представляют собой положительные целые числа, эти первый период времени и второй период времени могут иметь такую продолжительность, чтобы пользователь мог идентифицировать изменения изображения невооруженным глазом, и числа N1 и N2 определены частотами кадров и продолжительностями периодов времени в процессе видеозаписи. В рассматриваемом примере это никак не ограничено.Step 61: Capturing N1 images during the first time period and capturing N2 images during the second time period, where the first time period and the second time period are adjacent time periods, and both N1 and N2 are positive integers, these first the time period and the second time period may be of such duration that the user can identify image changes with the naked eye, and the numbers N1 and N2 are determined by frame rates and lengths of time periods during video recording. In this example, this is not limited in any way.

Этап 62: Определение первой целевой области и первой фоновой области в каждом из N1 изображений, где первая фоновая область представляет собой область изображения, отличную от первой целевой области, и первая целевая область в каждом из N1 изображений соответствует первому объекту (который может представлять собой по меньшей мере один объект); и определение второй целевой области и второй фоновой области в каждом из N2 изображений, где вторая фоновая область представляет собой область изображения, отличную от второй целевой области, и вторая целевая область в каждом из N2 изображений соответствует второму объекту (который может представлять собой по меньшей мере один объект).Step 62: Determining the first target area and the first background area in each of the N1 images, where the first background area is an image area different from the first target area, and the first target area in each of the N1 images corresponds to the first object (which may be at least one object) and defining a second target area and a second background area in each of the N2 images, where the second background area is an image area different from the second target area, and the second target area in each of the N2 images corresponds to a second object (which may be at least one object).

Этап 63: Обработка первой целевой области в первом режиме цветовой обработки, обработка первой фоновой области во втором режиме цветовой обработки, обработка второй целевой области в третьем режиме цветовой обработки, и обработка второй фоновой области в четвертом режиме цветовой обработки, для получения целевого видео, где в этом целевом видео насыщенность цвета в первой целевой области больше насыщенности цвета в первой фоновой области, или яркость первой целевой области больше яркости первой фоновой области; и насыщенность цвета во второй целевой области больше насыщенности цвета во второй фоновой области или яркость второй целевой области больше яркости второй фоновой области.Step 63: Processing the first target region in the first color processing mode, processing the first background region in the second color processing mode, processing the second target region in the third color processing mode, and processing the second background region in the fourth color processing mode, to obtain a target video, where in this target video, the color saturation in the first target area is greater than the color saturation in the first background area, or the brightness of the first target area is greater than the brightness of the first background area; and the color saturation in the second target area is greater than the color saturation in the second background area, or the brightness of the second target area is greater than the brightness of the second background area.

Пример 6: фотографирование видео (режим видеозаписи)Example 6: Taking a photo of a video (movie recording mode)

В некоторых сценариях приложений контент изображения, сфотографированного пользователем, обычно изменяется. Поэтому обычно изменяется главный объект изображения. Пользователь также ожидает возможности свободного выбора целевого главного объекта, который пользователь ожидает выделить на разных изображениях. Например, область изображения, соответствующую первому объекту, определяют в качестве целевой области в первый период времени, область изображения, соответствующую второму объекту, определяют в качестве целевой области во второй период времени, при этом первый объект и второй объект представляют собой различные объекты, различные индивидуальные объекты или относятся к разным категориям объектов.In some application scenarios, the content of the image taken by the user is usually changed. Therefore, the main object of the image usually changes. The user also expects to be able to freely select the target main object that the user expects to highlight in different images. For example, the image area corresponding to the first object is determined as the target area in the first time period, the image area corresponding to the second object is determined as the target area in the second time period, while the first object and the second object are different objects, different individual objects or belong to different categories of objects.

В этом сценарии, способ обработки изображения в процессе фотографирования видео может содержать следующие этапы.In this scenario, the image processing method in the video photographing process may include the following steps.

Один из вариантов реализации этапа 71 может быть таким же, как этап 61.One implementation of step 71 may be the same as step 61.

Этап 72: Определение первой целевой области и первой фоновой области в каком-либо одном из N1 изображений на основе контента этого изображения и определение второй целевой области и второй фоновой области в каком-либо одном из N2 изображений на основе контента этого изображения, где объект или категория объекта, соответствующая второй целевой области, отличается от объекта или категории объекта, соответствующей первой целевой области, так что система и пользователь могут независимо выбрать целевой главный объект и целевую область изображения. Изображение содержит главный объект и фон, и соответственно, это изображение содержит целевую область и фоновую область.Step 72: Determining a first target area and a first background area in any one of the N1 images based on the content of that image, and determining a second target area and a second background area in any one of the N2 images based on the content of that image, where the object or the object category corresponding to the second target area is different from the object or object category corresponding to the first target area, so that the system and the user can independently select the target main object and the target image area. The image contains the main object and the background, and accordingly, this image contains the target area and the background area.

Например, первый объект является человеком, а второй объект является животным. Например, первый объект является человеком A, а второй объект является человеком B. Например, первый объект представляет собой двух человек, а второй объект представляет собой собаку и двух кошек. Остальную область, которая не была идентифицирована, маркируют в качестве фона.For example, the first object is a human and the second object is an animal. For example, the first object is person A and the second object is person B. For example, the first object represents two people and the second object represents a dog and two cats. The rest of the area that has not been identified is marked as background.

В этом способе, маска для изображения может быть определена с использованием подходов, описанных выше для шагов S221 и S222. Однако последующий способ не ограничивается определением целевого объекта в маске для каждого изображения.In this method, the mask for the image may be determined using the approaches described above for steps S221 and S222. However, the following method is not limited to defining the target in the mask for each image.

В качестве опции, в маску изображения пользователь может свободно ввести первый объект и второй объект, где эти первый объект и второй объект определяют в соответствии с командой выбора, введенной пользователем. Например, если пользователь выбрал индивидуальный объект, система идентифицирует пиксель, соответствующий введенной пользователем команде, затем идентифицирует конкретный (/некоторые) индивидуальный объект (/индивидуальные объекты) (/может быть по меньшей мере один индивидуальный объект) или конкретную (/некоторые) категорию объекта (/категории) (/может быть по меньшей мере одна категория объекта) для маски, выбранной пользователем, далее определяет конкретный (/некоторые) индивидуальный объект (/индивидуальные объекты) или все индивидуальные объекты, которые относятся к конкретной (/некоторым) категории объекта (/категориям объектов), в качестве первого объекта, и определяет этот первый объект или область изображения, соответствующую этому первому объекту, в качестве первой целевой области. Такая ситуация может поддерживаться в течение некоторого периода времени. Другими словами, в последующих нескольких кадрах область, соответствующая маске, соответствующей первому объекту, является первой целевой областью до тех пор, пока пользователь не выберет другой индивидуальный объект в следующий момент времени, а область, соответствующую новому индивидуальному объекту, определяют в качестве второй целевой области в соответствии со способом, аналогичным изложенному выше способу. В любом изображении, область изображения, отличная от первой целевой области или второй целевой области, является фоновой областью. Более конкретно, область, соответствующая маске, соответствующей первому объекту, в течение первого периода времени, является первой целевой областью, а область, соответствующая маске, соответствующей второму объекту, в течение второго периода времени, является второй целевой областью.As an option, in the image mask, the user can freely enter the first object and the second object, where these first object and the second object are determined in accordance with the selection command entered by the user. For example, if the user has selected an individual object, the system identifies the pixel corresponding to the command entered by the user, then identifies the particular (/some) individual object(s) (/there may be at least one individual object) or the specific (/some) category of the object. (/categories) (/can be at least one object category) for the mask selected by the user, further defines the specific (/some) individual object(s) or all individual objects that belong to the specific (/some) object category (/categories of objects) as the first object, and defines this first object or an area of the image corresponding to this first object as the first target area. This situation can be maintained for some period of time. In other words, in the next few frames, the area corresponding to the mask corresponding to the first object is the first target area until the user selects another individual object at the next time, and the area corresponding to the new individual object is determined as the second target area. in accordance with a method similar to the method described above. In any image, an area of the image other than the first target area or the second target area is the background area. More specifically, the area corresponding to the mask corresponding to the first object during the first time period is the first target area, and the area corresponding to the mask corresponding to the second object during the second time period is the second target area.

В качестве опции, в совокупности масок для изображения, система может определить целевую маску для изображения в течение некоторого периода времени в совокупности масок для изображения на основе заданного промежутка времени (например, но не ограничиваясь этим, 1 с или 2 с) или заданного количества кадров (например, но не ограничиваясь этим, 50 кадров или 100 кадров). Например, первую целевую маску определяют в 101-ом кадре, и маску, имеющую такую же категорию объекта или индивидуальный объект, как и первая целевая маска, используют в качестве первой целевой маски для каждого из последующих кадров от 102 кадра до 200 кадра до тех пор, пока вторая целевая маска не будет определена в 201-ом кадре. Для каждого из последующих кадров от 202 до 200 кадров, маска, имеющая такую же категорию объекта или такой же индивидуальный объект, как и указанная вторая целевая маска, используется в качестве второй целевой маски. Следует понимать, что номера в приведенном выше примере могут быть предварительно заданы пользователем или системой.Optionally, in the image mask pool, the system may determine the target image mask over a period of time in the image mask pool based on a given amount of time (for example, but not limited to 1 s or 2 s) or a given number of frames. (for example, but not limited to 50 frames or 100 frames). For example, the first target mask is determined in the 101st frame, and a mask having the same object category or individual object as the first target mask is used as the first target mask for each of the subsequent frames from frame 102 to frame 200 until until the second target mask is determined in the 201st frame. For each of the subsequent frames from 202 to 200 frames, a mask having the same object category or the same individual object as the specified second target mask is used as the second target mask. It should be understood that the numbers in the above example may be predefined by the user or the system.

Для получения информации о способе определения первой целевой маски и второй целевой маски, можно обратиться, но не ограничиваясь этим, к любому из шести способов, описанных на шаге S223. Поэтому, первая целевая маска и вторая целевая маска могут относиться к одной и той же категории объекта или одному и тому же индивидуальному объекту, либо они могут относиться к разным категориям объектов или к разным индивидуальным объектам. Это относится к способности идентификации сети связи, изменения изображения сцены или вводимой пользователем команды.For information on the method for determining the first target mask and the second target mask, one can refer to, but not limited to, any of the six methods described in step S223. Therefore, the first target mask and the second target mask may refer to the same object category or the same individual object, or they may refer to different object categories or different individual objects. This refers to the ability to identify a communication network, change the image of a scene, or a user-entered command.

Конкретнее, определяют в некоторый момент времени целевую маску и затем непрерывно используют маску этого типа или маску для этого индивидуального объекта в течение некоторого периода времени.More specifically, a target mask is determined at some point in time, and then a mask of that type, or a mask for that individual object, is continuously used for a period of time.

В дополнение к этому, затем определяют первую целевую область, первую фоновую область, вторую целевую область и вторую фоновую область в соответствии со способом, описанном на шаге s224.In addition, the first target area, the first background area, the second target area, and the second background area are then determined according to the method described in step s224.

Один из вариантов реализации этапа 73 может быть таким же, как этап 63.One implementation of step 73 may be the same as step 63.

В дополнение к этому, поскольку этот пример может варьироваться в зависимости от периода времени, возможны несколько комбинаций способов цветовой обработки.In addition, since this example may vary depending on the time period, several combinations of color processing methods are possible.

Например, первый режим цветовой обработки является таким же, как третий режим цветовой обработки, и второй режим цветовой обработки является таким же, как четвертый режим цветовой обработки. Этот режим цветовой обработки имеет хорошую согласованность.For example, the first color processing mode is the same as the third color processing mode, and the second color processing mode is the same as the fourth color processing mode. This color processing mode has good consistency.

Например, первый режим цветовой обработки является таким же, как третий режим цветовой обработки, и второй режим цветовой обработки отличается от четвертого режима цветовой обработки. В этом примере режимов цветовой обработки, цвета целевого главного объекта согласованы, а цвета фона изменяются, так что общий визуальный эффект являет более блестящим.For example, the first color processing mode is the same as the third color processing mode, and the second color processing mode is different from the fourth color processing mode. In this example of color processing modes, the colors of the target main object are matched, and the background colors are changed so that the overall visual effect is more brilliant.

Например, первый режим цветовой обработки отличается от третьего режима цветовой обработки, и второй режим цветовой обработки является таким же, как четвертый режим цветовой обработки. В этом примере режимов цветовой обработки, цвета фона согласованы, а цвета целевого главного объекта изменяются так, что этот целевой главный объект является более выделенным.For example, the first color processing mode is different from the third color processing mode, and the second color processing mode is the same as the fourth color processing mode. In this example of color rendering modes, the background colors are matched, and the colors of the target main object are changed so that the target main object is more prominent.

Например, первый режим цветовой обработки отличается от третьего режима цветовой обработки, и второй режим цветовой обработки отличается от четвертого режима цветовой обработки. В этом примере режимов цветовой обработки, могут быть реализованы больше способов цветового преобразования, и может быть осуществлено больше цветовой кооперации на основе требований различных сценариев.For example, the first color processing mode is different from the third color processing mode, and the second color processing mode is different from the fourth color processing mode. In this example of color processing modes, more color conversion methods can be implemented, and more color cooperation can be implemented based on the requirements of different scenarios.

Первый режим цветовой обработки или третий режим цветовой обработки содержит фильтр, например, для сохранения цвета или усиления цвета. Второй режим цветовой обработки или четвертый режим цветовой обработки содержит фильтры, такие как черно-белый фильтр, затемняющий фильтр, ретро фильтр, пленочный фильтр, фильтр размытости и фильтр бликов (фильтр боке).The first color processing mode or the third color processing mode contains a filter, for example, to preserve color or enhance color. The second color processing mode or the fourth color processing mode contains filters such as a black and white filter, a darkening filter, a retro filter, a film filter, a blur filter, and a flare filter (bokeh filter).

Конкретнее, за информацией о способах цветовой обработки для целевой области и фоновой области одного и того же изображения следует обратиться к этапу 23. Для указанных N2 изображений, третий режим цветовой обработки и четвертый режим цветовой обработки соответственно аналогичны первому режиму цветовой обработки и второму режиму цветовой обработки.More specifically, for information on the color processing methods for the target area and the background area of the same image, refer to step 23. For these N2 images, the third color processing mode and the fourth color processing mode are respectively the same as the first color processing mode and the second color processing mode. .

Согласно приведенным выше техническим решениям, в некоторых примерах, пользователь может свободно выбирать режим цветовой обработки фона в различных изображениях, чтобы подчеркнуть, выделить различный фон. В некоторых сценариях, пользователь может свободно выбирать режим цветовой обработки главного объекта в различных изображениях, чтобы подчеркнуть, выделить главный объект в разных степенях или формах.According to the above technical solutions, in some examples, the user can freely select the background color processing mode in different images to highlight different backgrounds. In some scenarios, the user can freely select the color mode of the main object in different images to emphasize, highlight the main object in different degrees or forms.

Следует понимать, что в различных примерах настоящего изобретения, сигналы, обозначенные одной и той же меткой, могут иметь различные источники или могут быть получены различными способами. Это не является ограничением. В дополнение к этому, при ссылках на этапы из различных примеров, на «то же самое, как на этапе xx» больше фокусируются на том, что логические схемы обработки сигналов на этих двух этапах аналогичны. Это не исчерпывается тем, что входные и выходные сигналы двух типов должны быть полностью одинаковыми и что процедуры указанных двух способов полностью эквивалентны. Соответствующие ссылки и вариации, которые могут быть сделаны специалистом в рассматриваемой области, попадут в объем защиты от настоящего изобретения.It should be understood that in different examples of the present invention, signals designated by the same label may have different sources or may be obtained in different ways. This is not a limitation. In addition, when referring to steps from various examples, "same as step xx" is more focused on the fact that the signal processing logic of the two steps are similar. It is not limited to the fact that the input and output signals of the two types must be exactly the same and that the procedures of these two methods are completely equivalent. Appropriate references and variations, which may be made by a person skilled in the art, fall within the protection scope of the present invention.

Настоящее изобретение предлагает способ обработки изображения. В изображении определяют целевую область и фоновую область посредством осуществления сегментации маски для этого изображения. К целевой области и к фоновой области применяют разные режимы цветовой обработки, так что яркость целевой области становится больше яркости фоновой области, или насыщенность цвета в целевой области становится выше насыщенности цвета в фоновой области, вследствие чего главный объект оказывается более выделенным. Этим реализуется специальный эффект кино.The present invention provides an image processing method. In an image, a target area and a background area are determined by performing mask segmentation for that image. Different color processing modes are applied to the target area and the background area, so that the brightness of the target area becomes larger than the brightness of the background area, or the color saturation of the target area becomes higher than the color saturation of the background area, so that the main object is more highlighted. This realizes the special effect of cinema.

На основе способа обработки изображения, рассматриваемого в приведенном выше варианте, один из вариантов настоящего изобретения предлагает аппаратуру 900 для обработки изображения. Эта аппаратура может быть использована в нескольких терминалах и может быть применена в любой форме реализации терминала 100, например, в терминале, имеющем функцию фотографирования видео. Как показано на Фиг. 9, аппаратура содержит:Based on the image processing method discussed in the above embodiment, one embodiment of the present invention provides an image processing apparatus 900. This apparatus can be used in multiple terminals and can be applied to any form of implementation of the terminal 100, such as a terminal having a video capture function. As shown in FIG. 9, the instrument contains:

фотографический модуль 901, конфигурированный для получения изображения, которое может представлять собой результат фотографирования или фотографирования видео, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 21, этапу 31, этапу 51, этапу 61 или этапу 71 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства с целью управления видеокамерой для захвата изображения;photographic module 901 configured to acquire an image that may be the result of photographing or photographing a video, where this module is specifically configured to carry out the method according to step 21, step 31, step 51, step 61 or step 71 of the above example or any or a method equivalent to this method, and this module can be implemented by the processor by calling the appropriate program instructions from the storage device to control the video camera to capture an image;

решающий модуль 902, конфигурированный для определения целевой области и фоновой области в изображении на основе контента этого изображения, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 22, этапу 32, этапу 52, этапу 62 или этапу 72 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства для выполнения соответствующего алгоритма; иa decision module 902 configured to determine a target area and a background area in an image based on the content of that image, where the decision module is specifically configured to perform the method according to step 22, step 32, step 52, step 62, or step 72 of the above example, or whichever - or a method equivalent to this method, and this module can be implemented by the processor by calling the appropriate program instructions from the storage device to execute the appropriate algorithm; And

модуль 903 цветовой обработки, конфигурированный для использования различных режимов цветовой обработки для целевой области и для фоновой области в изображении для получения целевого изображения или целевого видео, так что насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, или яркость в целевой области становится выше яркости в фоновой области, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 23, этапу 33, этапу 53, этапу 63 или этапу 73 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из a запоминающего устройства с использованием специального алгоритма.a color processing unit 903 configured to use different color processing modes for the target area and the background area in the image to obtain the target image or the target video, so that the color saturation in the target area becomes greater than the color saturation in the background area, or the brightness in the target area becomes above the brightness in the background area, where this module is specifically configured to implement the method according to step 23, step 33, step 53, step 63 or step 73 of the above example or any method equivalent to this method, and this module can be implemented through the processor by calling the appropriate program instructions from a storage device using a special algorithm.

В дополнение к этому, аппаратура может далее содержать модуль 904 для хранения данных, конфигурированный для сохранения изображения или видео, применительно к которому выполнена цветовая обработка.In addition, the apparatus may further comprise a data storage module 904 configured to store an image or video that has been color processed.

Приведенные выше конкретные примеры способа, пояснения и описания технических признаков вариантов и расширений нескольких форм реализации также применимы к выполнению этого способа в рассматриваемой аппаратуре, так что подробности применительно к этой аппаратуре описаны не будут.The above specific examples of the method, explanations and descriptions of the technical features of variants and extensions of several forms of implementation also apply to the implementation of this method in the considered equipment, so details in relation to this equipment will not be described.

Настоящее изобретение предлагает аппаратуру для обработки изображения. Применительно к изображению осуществляют сегментацию маски с целью определения целевой области и фоновой области изображения на основе контента этого изображения. К целевой области и к фоновой области применяют различные режимы цветовой обработки, так что яркость целевой области становится выше яркости фоновой области, либо насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, вследствие чего главный объект, соответствующий целевой области оказывается более выделенным. Этим реализуется специальный эффект кино.The present invention provides an image processing apparatus. With regard to the image, segmentation of the mask is performed to determine the target area and the background area of the image based on the content of this image. Different color processing modes are applied to the target area and the background area, so that the brightness of the target area becomes higher than the brightness of the background area, or the color saturation in the target area becomes greater than the color saturation in the background area, so that the main object corresponding to the target area is more highlighted. This realizes the special effect of cinema.

На основе способа обработки изображения, рассматриваемого в приведенном выше варианте, один из вариантов настоящего изобретения предлагает аппаратуру 1000 для обработки изображения. Эта аппаратура может быть использована в нескольких терминалах и может быть применена в любой форме реализации терминала 100, например, в терминале, имеющем функцию фотографирования видео. Как показано на Фиг. 10, аппаратура содержит:Based on the image processing method discussed in the above embodiment, one embodiment of the present invention provides an image processing apparatus 1000. This apparatus can be used in multiple terminals and can be applied to any form of implementation of the terminal 100, such as a terminal having a video capture function. As shown in FIG. 10, the instrument contains:

фотографический модуль 1001, конфигурированный для получения изображения, которое может представлять собой результат фотографирования или фотографирования видео, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 21, этапу 31, этапу 51, этапу 61 или этапу 71 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства с целью управления видеокамерой для захвата изображения;photographic module 1001 configured to acquire an image that may be the result of photographing or photographing a video, where this module is specifically configured to perform the method according to step 21, step 31, step 51, step 61 or step 71 of the above example or any or a method equivalent to this method, and this module can be implemented by the processor by calling the appropriate program instructions from the storage device to control the video camera to capture an image;

оценочный модуль 1002, конфигурированный для того, чтобы: определить, является ли число мерцающих кадров в совокупности первых N0 кадров относительно текущего кадра больше заданной пороговой величины; и если согласно результату определения число мерцающих кадров не больше заданной пороговой величины, продолжить путем запуска решающего модуля 1003 и модуля 1004 цветовой обработки для осуществления соответствующих функций; или если согласно результату определения число мерцающих кадров больше заданной пороговой величины, продолжить путем запуска модуля 1005 устранения мерцания для осуществления соответствующей функции; и модуль 1002 в частности конфигурирован для осуществления способа согласно этапу 42 в приведенном выше примере и какого-либо способа, который может быть эквивалентен этому указанному способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства для выполнения соответствующего алгоритма;an evaluation module 1002, configured to: determine whether the number of flickering frames in the set of first N0 frames relative to the current frame is greater than a predetermined threshold; and if, according to the determination result, the number of flickering frames is not more than a predetermined threshold, continue by starting the decision module 1003 and the color processing module 1004 to perform the respective functions; or if, according to the determination result, the number of flickering frames is greater than a predetermined threshold, continue by starting the flicker elimination module 1005 to perform the corresponding function; and the module 1002 is specifically configured to carry out the method according to step 42 in the above example and any method that may be equivalent to said method, and this module may be implemented by the processor by calling appropriate program instructions from memory to execute the corresponding algorithm ;

решающий модуль 1003, конфигурированный для того, чтобы: когда оценочный модуль 1002 определит, что число мерцающих кадров из совокупности первых N0 кадров относительно текущего кадра не больше заданной пороговой величины, определить целевую область и фоновую область в изображении на основе контента этого изображения, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 22, этапу 32, этапу 43, этапу 52, этапу 62 или этапу 72 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства для выполнения соответствующего алгоритма; иa decision module 1003, configured to: when the evaluation module 1002 determines that the number of flickering frames from the set of first N0 frames relative to the current frame is not greater than a predetermined threshold, determine the target area and the background area in the image based on the content of this image, where this the module is specifically configured to perform the method according to step 22, step 32, step 43, step 52, step 62, or step 72 of the above example, or any method equivalent to this method, and this module can be implemented by the processor by calling the appropriate program commands from the storage device to perform the corresponding algorithm; And

модуль 1004 цветовой обработки, конфигурированный для использования различных режимов цветовой обработки для целевой области и для фоновой области в изображении, так что насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, или яркость в целевой области становится выше яркости в фоновой области, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 23, этапу 33, этапу 44, этапу 53, этапу 63 или этапу 73 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из a запоминающего устройства с использованием специального алгоритма; иa color processing unit 1004, configured to use different color processing modes for the target area and for the background area in the image, so that the color saturation in the target area becomes greater than the color saturation in the background region, or the brightness in the target region becomes higher than the brightness in the background region, where this module is specifically configured to implement the method according to step 23, step 33, step 44, step 53, step 63 or step 73 of the above example or any method equivalent to this method, and this module can be implemented by the processor by calling corresponding program commands from a storage device using a special algorithm; And

модуль 1005 устранения мерцания, конфигурированный для того, чтобы: когда оценочный модуль 1002 определит, что число мерцающих кадров в совокупности из первых N0 кадров относительно текущего кадра больше заданной пороговой величины, использования одного и того же способа цветовой обработки для всех областей изображения в текущем кадре, где этот один и тот же способ цветовой обработки может быть таким же, как способ цветовой обработки фоновой области в предшествующем кадре, либо может быть таким же, как способ цветовой обработки целевой области в предшествующем кадре, а рассматриваемый модуль специально конфигурирован для осуществления способа согласно этапу 45 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из a запоминающего устройства с использованием специального алгоритма.a flicker elimination module 1005, configured to: when the evaluation module 1002 determines that the number of flickering frames in the aggregate of the first N0 frames relative to the current frame is greater than a predetermined threshold, to use the same color processing method for all image areas in the current frame , where this same color processing method may be the same as the color processing method of the background area in the previous frame, or may be the same as the color processing method of the target area in the previous frame, and the module in question is specially configured to implement the method according to step 45 of the above example, or some method equivalent to this method, and this module can be implemented by the processor by calling the appropriate program instructions from a memory device using a special algorithm.

В дополнение к этому, аппаратура 100 может далее содержать модуль 1006 для хранения данных, конфигурированный для сохранения изображения или видео, применительно к которому выполнена цветовая обработка.In addition, apparatus 100 may further comprise a data storage module 1006 configured to store an image or video that has been color processed.

Приведенные выше конкретные примеры способа, пояснения и описания технических признаков вариантов и расширений нескольких форм реализации также применимы к выполнению этого способа в рассматриваемой аппаратуре, так что подробности применительно к этой аппаратуре описаны не будут.The above specific examples of the method, explanations and descriptions of the technical features of variants and extensions of several forms of implementation also apply to the implementation of this method in the considered equipment, so details in relation to this equipment will not be described.

Настоящее изобретение предлагает аппаратуру для обработки изображения. Применительно к изображению осуществляют сегментацию маски с целью определения целевой области и фоновой области изображения на основе контента этого изображения. К целевой области и к фоновой области применяют различные режимы цветовой обработки, так что яркость целевой области становится выше яркости фоновой области, либо насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, вследствие чего главный объект, соответствующий целевой области оказывается более выделенным. Этим реализуется специальный эффект кино.The present invention provides an image processing apparatus. With regard to the image, segmentation of the mask is performed to determine the target area and the background area of the image based on the content of this image. Different color processing modes are applied to the target area and the background area, so that the brightness of the target area becomes higher than the brightness of the background area, or the color saturation in the target area becomes greater than the color saturation in the background area, so that the main object corresponding to the target area is more highlighted. This realizes the special effect of cinema.

Следует понимать, что разбиение рассмотренной выше аппаратуры на модули является всего лишь разбиением логических функций. В фактическом варианте реализации некоторые или все модули могут быть интегрированы в одном физическом объекте, либо могут быть выполнены физически раздельно. Например, каждый из упомянутых выше модулей может представлять собой отдельный процессорный элемент, либо он может быть интегрирован на кристалле интегральной схемы в аппаратуре терминала или может быть сохранен в запоминающем элементе контроллера в форме программного кода. Процессорный элемент процессора вызывает и выполняет функцию каждого из упомянутых выше модулей. В дополнение к этому, перечисленные модули могут быть интегрированы, либо могут быть реализованы независимо. Здесь процессорный элемент может представлять собой кристалл интегральной схемы и обладать способностью обработки сигналов. В процессе реализации этапы приведенных выше способов или перечисленные выше модули могут быть осуществлены с использованием аппаратных интегральных логических схем в процессорном элементе, либо с применением команд в форме программного обеспечения. Процессорный элемент может представлять собой процессор общего назначения, например, центральный процессор (English: central processing unit, сокращенно CPU), или может быть выполнен в виде одной или нескольких интегральных схем, конфигурированных для осуществления приведенных выше способов, например, одной или нескольких специализированных интегральных схем (English: application-specific integrated circuit, сокращенно ASIC), или одного или нескольких микропроцессоров или цифровых процессоров сигнала (English: digital signal processor, сокращенно DSP), или одной или нескольких программируемых пользователем вентильных матриц (English: field-programmable gate array, сокращенно FPGA).It should be understood that the division of the equipment discussed above into modules is only a division of logical functions. In an actual implementation, some or all of the modules may be integrated in a single physical entity, or may be physically separate. For example, each of the modules mentioned above may be a separate processing element, or it may be integrated on an integrated circuit chip in the terminal hardware, or may be stored in a memory element of the controller in the form of program code. The processing element of the processor calls and executes the function of each of the modules mentioned above. In addition, the listed modules may be integrated or may be implemented independently. Here, the processing element may be an integrated circuit chip and have signal processing capability. During implementation, the steps of the above methods or the above modules may be implemented using hardware integrated logic circuits in the processing element, or using instructions in the form of software. The processing element may be a general purpose processor, such as a central processing unit (CPU), or may be one or more integrated circuits configured to implement the above methods, such as one or more application specific integrated circuits. circuits (English: application-specific integrated circuit, abbreviated ASIC), or one or more microprocessors or digital signal processors (English: digital signal processor, abbreviated DSP), or one or more field-programmable gate arrays (English: field-programmable gate array , FPGA for short).

Следует понимать, что в описании, Формуле изобретения и на прилагаемых чертежах настоящего изобретения термины «первый», «второй» и другие подобные термины предназначены для различения между аналогичными объектами, но не обязательно обозначают конкретный порядок или последовательность. Следует понимать, что данные, обозначенные таким способом, являются взаимозаменяемыми в соответствующих обстоятельствах, так что описываемые здесь варианты могут быть реализованы в другом порядке, отличном от порядка, иллюстрируемого или описываемого здесь. В дополнение к этому, термины «включает (в себя)», «содержит» и какие-либо другие варианты предназначены для охвата неисключительного включения, например, процесс, способ, система, продукт или устройство, имеющие некоторый перечень этапов или модулей, не обязательно ограничиваются только явно перечисленными в этом перечне этапами или модулями, а могут содержать также другие этапы или модули, которые не были явно перечислены или которые по природе присущи такому процессу, способу, продукту или устройству.It should be understood that in the description, the Claims and the accompanying drawings of the present invention, the terms "first", "second" and other similar terms are intended to distinguish between like objects, but do not necessarily indicate a specific order or sequence. It should be understood that data so designated are interchangeable in appropriate circumstances, so that the options described here may be implemented in a different order than the order illustrated or described here. In addition, the terms "includes", "comprises" and any other variations are intended to cover a non-exclusive inclusion, for example, a process, method, system, product or device having some list of steps or modules, not necessarily are limited only to the steps or modules explicitly listed in this list, and may also contain other steps or modules that have not been explicitly listed or that are inherent in such a process, method, product or device.

Специалист в рассматриваемой области должен понимать, что варианты настоящего изобретения могут быть реализованы в виде способа, системы или компьютерного программного продукта. Поэтому настоящее изобретение может использовать форму чисто аппаратных вариантов, чисто программных вариантов или вариантов, представляющих собой комбинацию аппаратуры с программным обеспечением. Более того, настоящее изобретение может использовать форму компьютерного программного продукта, реализованного на одном или нескольких используемых компьютером носителей для хранения информации (включая, но не ограничиваясь, дисковое запоминающее устройство, CD-ROM, оптическое запоминающее устройство и другие подобные устройства), содержащих используемых компьютером программный код.One skilled in the art will understand that embodiments of the present invention may be implemented as a method, system, or computer program product. Therefore, the present invention may take the form of purely hardware variants, purely software variants, or variants that are a combination of hardware and software. Moreover, the present invention may take the form of a computer program product embodied on one or more computer-usable storage media (including, but not limited to, disk storage, CD-ROM, optical storage, and the like) containing computer-usable program code.

Настоящее изобретение описано со ссылками на логические схемы и/или блок-схемы способа, устройства (системы) и компьютерного программного продукта согласно вариантам настоящего изобретения. Следует понимать, что компьютерные программные команды могут быть использованы для реализации каждого процесса и/или каждого блока в логических схемах и/или в блок-схемах и комбинации процесса и/или блока на логических схемах и/или блок-схемах. Эти компьютерные программные команды могут быть предназначены для компьютера общего назначения, компьютера специального назначения, встроенного процессора или процессора другого программируемого устройства обработки данных для генерации машины, так что эти команды при выполнении компьютером или процессором другого программируемого устройства обработки данных генерируют аппаратуру для осуществления конкретной функции в одном или нескольких процессах из логических схем и/или в одном или нескольких блоках из блок-схем.The present invention has been described with reference to logic diagrams and/or flowcharts of a method, apparatus (system), and computer program product according to embodiments of the present invention. It should be understood that computer program instructions may be used to implement each process and/or each block in logic diagrams and/or block diagrams, and the combination of the process and/or block in logic diagrams and/or block diagrams. These computer program instructions may be intended for a general purpose computer, a special purpose computer, an embedded processor, or a processor of another programmable data processing device to generate a machine such that these instructions, when executed by a computer or processor of another programmable data processing device, generate hardware to perform a particular function in one or more processes from the logic diagrams and/or in one or more blocks from the block diagrams.

Эти компьютерные программные команды могут быть сохранены в читаемом компьютером запоминающем устройстве и могут инструктировать компьютер или другое программируемое устройство обработки данных работать конкретным образом, так что команды, сохраняемые в читаемом компьютером запоминающем устройстве, генерируют артефакт, содержащий командную аппаратуру. Эта командная аппаратура реализует конкретную функцию в одном или нескольких процессах из логических схем и/или в одном или нескольких блоках из блок-схем.These computer program instructions may be stored in a computer readable storage device and may instruct a computer or other programmable processing device to operate in a particular manner such that the instructions stored in the computer readable storage device generate an artifact containing the command hardware. This command hardware implements a specific function in one or more of the processes from the logic diagrams and/or in one or more blocks from the block diagrams.

Эти компьютерные программные команды могут быть, в качестве альтернативы, загружены в компьютер или в другое программируемое устройство обработки данных, так что этот компьютер или это программируемое устройство обработки данных осуществляет последовательность операций и этапов, генерируя тем самым реализуемую компьютером обработку. Поэтому команды, выполняемые компьютером или другим программируемым устройством обработки данных, формируют этапы для реализации конкретной функции в одном или нескольких процессах из логических схем и/или в одном или нескольких блоках в логических схемах.These computer program instructions may alternatively be loaded into a computer or other programmable data processing device such that the computer or programmable data processing device performs a series of operations and steps, thereby generating computer-implemented processing. Therefore, instructions executed by a computer or other programmable data processing device form steps for implementing a particular function in one or more processes of the logic circuits and/or in one or more blocks in the logic circuits.

Хотя здесь были описаны некоторые варианты настоящего изобретения, специалисты в рассматриваемой области могут внести в эти варианты различные изменения и модификации после изучения базовых концепций изобретения. Поэтому прилагаемую Формулу изобретения следует толковать так, что она охватывает перечисленные варианты и что все изменения и модификации попадают в объем настоящего изобретения. Очевидно, что специалист в рассматриваемой области может внести разнообразные модификации и вариации в варианты настоящего изобретения, не отклоняясь от смысла и объема этих вариантов изобретения. Настоящее изобретение предназначено охватывать эти модификации и вариации в предположении, что они попадают в объем защиты, определяемый прилагаемой Формулой изобретения и эквивалентными ей технологиями.While some embodiments of the present invention have been described herein, various changes and modifications may be made to those variations by those skilled in the art after learning the basic concepts of the invention. Therefore, the appended claims are to be construed to cover the listed variations and that all changes and modifications fall within the scope of the present invention. Obviously, a person skilled in the art can make various modifications and variations in the embodiments of the present invention, without deviating from the meaning and scope of these embodiments of the invention. The present invention is intended to cover these modifications and variations on the assumption that they fall within the protection scope of the appended claims and equivalent technologies.

Claims (153)

1. Способ обработки изображения, в котором этот способ содержит: 1. An image processing method, wherein the method comprises: захват первого видео, когда терминал находится в режиме видеозаписи; и,capturing the first video when the terminal is in the video recording mode; And, в процессе захвата первого видео,in the process of capturing the first video, идентификацию области главного объекта и фоновой области в изображении первого видео на основе категории объекта с использованием нейронной сети, где эта область главного объекта содержит человека, животное, растительность, транспортное средство, одежду или другой заданный объект, а фоновая область представляет собой область изображения в первом видео, отличную от области главного объекта; и,identifying the main object area and the background area in the image of the first video based on the category of the object using the neural network, where this area of the main object contains a person, animal, vegetation, vehicle, clothing or other specified object, and the background area is an image area in the first video other than the main subject area; And, для изображения первого видео, сохранение цвета области главного объекта и осуществление черно-белой обработки фоновой области для получения второго видео, for displaying the first video, keeping the color of the main object area and performing black and white processing of the background area to obtain the second video, в котором идентификация области главного объекта и фоновой области в изображении первого видео на основе категории объекта содержит один из следующих способов:in which the identification of the area of the main object and the background area in the image of the first video based on the category of the object contains one of the following methods: способ 1: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 1: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве области главного объекта, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of the two masks contains one mask for the main object and one background mask, determining the area of the image corresponding to the mask for the main object as the main object area, and determining the area corresponding to the background mask as the background area; способ 2: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,method 2: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects and the set of these k masks contains a background mask and masks for the main objects; And, если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве области главного объекта, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than a predetermined threshold value, the image area corresponding to these k0 masks for the main objects is determined as the main object area, and the image area corresponding to one of the other masks, as the background region, where k0 is a non-negative integer less than k; способ 3: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,method 3: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects, and the set of these k masks contains a background mask and masks for the main objects; And, если k больше 2, определяют, в качестве области главного объекта, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determining, as the area of the main object, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determining the area of the image corresponding to the rest of the masks, as the background area; способ 4: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 4: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k больше 2, определяют маску для главного объекта из совокупности k масок на основе заданных приоритетов категорий объектов, и if k is greater than 2, determine the mask for the main object from the set of k masks based on the given object category priorities, and определяют область изображения, соответствующую маске для главного объекта, в качестве области главного объекта, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; илиdetermining an image area corresponding to a mask for the main object as the main object area, and determining an image area corresponding to the rest of the masks as a background area; or способ 5: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 5: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k больше 2, определяют маску для главного объекта из совокупности k масок в соответствии с командой выбора от пользователя, и if k is greater than 2, determining a mask for the main object from the set of k masks in accordance with the selection command from the user, and определяют область изображения, соответствующую маске для главного объекта, в качестве области главного объекта, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области.determining an image area corresponding to the mask for the main object as the main object area, and determining an image area corresponding to the rest of the masks as the background area. 2. Способ по п. 1, в котором после получения второго видео этот способ дополнительно содержит:2. The method according to claim 1, in which, after receiving the second video, this method further comprises: захват третьего видео, где контент этого третьего видео отличается от контента первого видео;capturing a third video, where the content of this third video is different from the content of the first video; в процессе захвата третьего видео, если нейронная сеть используется для идентификации только фона в изображении третьего видео на основе категории объекта,in the process of capturing the third video, if the neural network is used to identify only the background in the image of the third video based on the category of the object, осуществление черно-белой обработки изображения третьего видео для получения четвертого видео.performing black and white image processing of the third video to obtain a fourth video. 3. Способ по п. 1 или 2, в котором нейронная сеть способна идентифицировать по меньшей мере две категории объектов из списка – человек, животное, растительность, транспортное средство (автомобиль), одежда или другая заданная категория объекта.3. The method according to claim 1 or 2, in which the neural network is able to identify at least two categories of objects from the list - a person, an animal, vegetation, a vehicle (car), clothing, or another specified category of an object. 4. Способ по какому-либо одному из пп. 1 – 3, в котором область главного объекта получают путем осуществления сегментации изображения на уровне пикселей с использованием нейронной сети.4. The method according to any one of paragraphs. 1 to 3, in which the area of the main object is obtained by performing image segmentation at the pixel level using a neural network. 5. Способ по какому-либо одному из пп. 1 – 4, в котором нейронную сеть получают посредством настройки с использованием множества данных настройки, где это множество данных настройки содержит входные изображения и графы масок для нескольких сценариев приложений.5. The method according to any one of paragraphs. 1-4, in which the neural network is obtained by tuning using a set of tuning data, where the set of tuning data contains input images and mask graphs for several application scenarios. 6. Способ по какому-либо одному из пп. 1 – 5, в котором области главных объектов для всех изображений второго видео соответствуют одному и тому же объекту.6. The method according to any one of paragraphs. 1 to 5, in which the areas of the main objects for all images of the second video correspond to the same object. 7. Способ по какому-либо одному из пп. 1 – 5, в котором область главного объекта содержит один или несколько объектов одной и той же категории; или7. The method according to any one of paragraphs. 1 - 5, in which the main object area contains one or more objects of the same category; or область главного объекта содержит объекты нескольких различных категорий.the main object area contains objects of several different categories. 8. Способ по какому-либо одному из пп. 1 – 7, в котором этот способ дополнительно содержит осуществление фильтрующей обработки фоновой области, где эта фильтрующая обработка содержит по меньшей мере одно – фильтрацию бликов (обработку боке), затемняющую обработку, ретро обработку или процедуру наложения текстуры.8. The method according to any one of paragraphs. 1 to 7, wherein the method further comprises performing a background area filtering processing, where the filtering processing comprises at least one of a highlight filtering (bokeh processing), a darkening processing, a retro processing, or a texture mapping procedure. 9. Аппаратура для обработки изображения, в которой эта аппаратура содержит:9. Equipment for image processing, in which this equipment contains: фотографический модуль, конфигурированный для захвата первого видео, когда терминал находится в режиме видеозаписи;a photographic module configured to capture a first video when the terminal is in a video recording mode; решающий модуль, конфигурированный для того, чтобы в процессе захвата первого видео идентифицировать область главного объекта и фоновую область в изображении первого видео на основе категории объекта с использованием нейронной сети, где эта область главного объекта содержит человека, животное, растительность, автомобиль, одежду или объект другой заданной категории, а фоновая область представляет собой область изображения первого видео, отличную от области главного объекта; иa solver configured to, in the process of capturing the first video, identify the main object area and the background area in the first video image based on the category of the object using a neural network, where the main object area contains a person, animal, vegetation, vehicle, clothing, or object another predetermined category, and the background area is the image area of the first video, different from the area of the main object; And модуль цветовой обработки, конфигурированный для того, чтобы для изображения первого видео сохранить цвет области главного объекта и осуществить черно-белую обработку фоновой области для получения второго видео,a color processing module configured to preserve the color of the main object area for the first video image and perform black and white processing of the background area to obtain the second video, в которой решающий модуль, в частности, конфигурирован для того, чтобы:wherein the solver is specifically configured to: осуществлять семантическую сегментацию изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,perform semantic segmentation of the image to obtain k masks, where these k masks correspond to different categories of objects and the totality of these k masks contains a background mask and masks for the main objects; And, если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве области главного объекта, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of the two masks contains one mask for the main object and one background mask, determining the area of the image corresponding to the mask for the main object as the main object area, and determining the area corresponding to the background mask as the background area; если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве области главного объекта, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than a predetermined threshold value, the image area corresponding to these k0 masks for the main objects is determined as the main object area, and the image area corresponding to one of the other masks, as the background region, where k0 is a non-negative integer less than k; если k больше 2, определяют, в качестве области главного объекта, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determining, as the area of the main object, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determining the area of the image corresponding to the rest of the masks, as the background area; если k больше 2, определяют маску для главного объекта из совокупности k масок на основе заданных приоритетов категорий объектов, и определяют область изображения, соответствующую маске для главного объекта, в качестве области главного объекта, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; или,if k is greater than 2, determine the mask for the main object from the set of k masks based on the given object category priorities, and determine the image area corresponding to the mask for the main object as the main object area, and determine the image area corresponding to the rest of the masks as the background areas; or, если k больше 2, определяют маску для главного объекта из совокупности k масок в соответствии с командой выбора от пользователя; и if k is greater than 2, determining a mask for the main object from the set of k masks in accordance with a selection command from the user; And определяют область изображения, соответствующую маске для главного объекта, в качестве области главного объекта, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области.determining an image area corresponding to the mask for the main object as the main object area, and determining an image area corresponding to the rest of the masks as the background area. 10. Аппаратура по п. 9, в которой фотографический модуль дополнительно конфигурирован для захвата третьего видео; контент этого третьего видео отличается от контента первого видео; и в процессе захвата третьего видео модуль цветовой обработки дополнительно конфигурирован для осуществления черно-белой обработки изображения третьего видео с целью получения четвертого видео, когда решающий модуль идентифицирует только фон в изображении третьего видео на основе категории объекта с использованием нейронной сети.10. The apparatus of claim 9, wherein the photographic module is further configured to capture a third video; the content of this third video is different from the content of the first video; and in the process of capturing the third video, the color processing module is further configured to perform black and white image processing of the third video to obtain a fourth video when the decider identifies only the background in the third video image based on the object category using the neural network. 11. Аппаратура по п. 9 или 10, в которой нейронная сеть способна идентифицировать по меньшей мере две категории объектов из списка – человек, животное, растительность, транспортное средство (автомобиль), одежда или другая заданная категория объекта.11. Equipment according to claim 9 or 10, in which the neural network is able to identify at least two categories of objects from the list - a person, an animal, vegetation, a vehicle (car), clothing, or another specified category of an object. 12. Аппаратура по какому-либо одному из пп. 9 – 11, в которой область главного объекта получают путем осуществления сегментации изображения на уровне пикселей с использованием нейронной сети. 12. Equipment according to any one of paragraphs. 9 to 11, in which the area of the main object is obtained by performing image segmentation at the pixel level using a neural network. 13. Аппаратура по какому-либо одному из пп. 9 – 12, в которой нейронную сеть получают посредством настройки с использованием множества данных настройки, где это множество данных настройки содержит входные изображения и графы масок для нескольких сценариев приложений.13. Equipment according to any one of paragraphs. 9 to 12, in which the neural network is obtained by tuning using a set of tuning data, where the set of tuning data contains input images and mask graphs for several application scenarios. 14. Аппаратура по какому-либо одному из пп. 9 – 13, в которой области главных объектов для всех изображений второго видео соответствуют одному и тому же объекту.14. Equipment according to any one of paragraphs. 9 to 13, in which the main object areas for all images of the second video correspond to the same object. 15. Аппаратура по какому-либо одному из пп. 9 – 14, в которой область главного объекта содержит один или несколько объектов одной и той же категории; или 15. Equipment according to any one of paragraphs. 9 to 14, in which the main object area contains one or more objects of the same category; or область главного объекта содержит объекты нескольких различных категорий.the main object area contains objects of several different categories. 16. Аппаратура по какому-либо одному из пп. 9 – 15, в которой модуль цветовой обработки дополнительно конфигурирован для осуществления фильтрующей обработки фоновой области, где эта фильтрующая обработка содержит по меньшей мере одно – фильтрацию бликов (обработку боке), затемняющую обработку, ретро обработку или процедуру наложения текстуры.16. Equipment according to any one of paragraphs. 9 to 15, in which the color processing module is further configured to perform background area filter processing, where the filter processing comprises at least one of highlight filtering (bokeh processing), darkening processing, retro processing, or texture mapping procedure. 17. Терминал для обработки изображения, в котором этот терминал содержит видеокамеру, запоминающее устройство, процессор и шину; так что эти видеокамера, запоминающее устройство и процессор соединены по шине;17. Terminal for image processing, in which this terminal contains a video camera, a storage device, a processor and a bus; so that the video camera, storage device, and processor are connected via a bus; видеокамера конфигурирована для захвата изображения;the video camera is configured to capture an image; запоминающее устройство конфигурировано для сохранения компьютерной программы и команд; иthe storage device is configured to store a computer program and instructions; And процессор конфигурирован для вызова компьютерной программы, команд и захваченного изображения, сохраняемых в запоминающем устройстве, для осуществления способа согласно какому-либо одному из пп. 1 – 8.the processor is configured to call the computer program, instructions, and the captured image stored in the storage device to implement the method according to any one of paragraphs. 18. 18. Терминал по п. 17, в котором этот терминал дополнительно содержит антенную систему и эта антенная система принимает/передает сигнал радиосвязи под управлением процессора для осуществления радиосвязи с сетью мобильной связи, где сеть мобильной связи содержит одну или несколько из следующих сетей связи: сеть GSM связи, сеть CDMA связи, сеть 5G связи, сеть FDMA связи, сеть TDMA связи, сеть PDC связи, сеть TACS связи, сеть AMPS связи, WCDMA связи, сеть TDSCDMA связи, сеть Wi-Fi связи и сеть LTE связи.18. The terminal of claim 17, wherein said terminal further comprises an antenna system, and said antenna system receives/transmits a radio communication signal under control of the processor for radio communication with a mobile communication network, wherein the mobile communication network comprises one or more of the following communication networks: GSM communication, CDMA communication network, 5G communication network, FDMA communication network, TDMA communication network, PDC communication network, TACS communication network, AMPS communication network, WCDMA communication, TDSCDMA communication network, Wi-Fi communication network and LTE communication network. 19. Способ обработки изображения, в котором этот способ содержит:19. An image processing method, wherein the method comprises: получение N изображений, где N представляет собой положительное целое число и эти N изображений составляют видео; иobtaining N images, where N is a positive integer and these N images constitute a video; And осуществление этапа 1 и этапа 2 применительно к каждому из этих N изображений для получения целевого видео:performing step 1 and step 2 on each of these N images to get the target video: этап 1: определение целевой области и фоновой области в изображении на основе категории объекта на этом изображении, где фоновая область представляет собой область изображения, отличную от целевой области; иstep 1: determining the target area and the background area in the image based on the category of the object in this image, where the background area is an area of the image other than the target area; And этап 2: обработка целевой области и фоновой области в разных режимах цветовой обработки, stage 2: processing the target area and the background area in different color processing modes, в котором процедура определения целевой области и фоновой области в изображении на основе категории объекта на этом изображении содержит один из следующих способов:in which the procedure for determining the target area and the background area in the image based on the category of the object in this image contains one of the following methods: способ 1: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 1: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area; способ 2: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,method 2: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects and the set of these k masks contains a background mask and masks for the main objects; And, если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве целевой области, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than a predetermined threshold value, determine the image area corresponding to these k0 masks for the main objects as the target area, and determine the image area corresponding to one from the remaining masks, as a background region, where k0 is a non-negative integer less than k; способ 3: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,method 3: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects, and the set of these k masks contains a background mask and masks for the main objects; And, если k больше 2, определяют, в качестве целевой области, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determine, as the target area, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determine the area of the image corresponding to the rest of the masks, as the background area; способ 4: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 4: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k больше 2, определяют целевую маску из совокупности k масок на основе заданных приоритетов категорий объектов, и if k is greater than 2, determine the target mask from the set of k masks based on the given object category priorities, and определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; илиdetermining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area; or способ 5: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 5: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k больше 2, определяют целевую маску из совокупности k масок в соответствии с командой выбора от пользователя, и if k is greater than 2, determining the target mask from the set of k masks according to the selection command from the user, and определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области. determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the remaining masks as a background area. 20. Способ по п. 19, в котором процедура обработки целевой области и фоновой области в разных режимах цветовой обработки содержит:20. The method of claim 19, wherein the procedure for processing the target area and the background area in different color processing modes comprises: сохранение цвета целевой области и осуществление черно-белой обработки фоновой области.preserving the color of the target area and performing black and white processing of the background area. 21. Способ по п. 19, в котором процедура обработки целевой области и фоновой области в разных режимах цветовой обработки содержит:21. The method of claim 19, wherein the procedure for processing the target area and the background area in different color processing modes comprises: сохранение цвета целевой области и осуществление затемняющей обработки фоновой области.preserving the color of the target area; and performing dimming processing of the background area. 22. Способ по п. 19, в котором процедура обработки целевой области и фоновой области в разных режимах цветовой обработки содержит:22. The method of claim 19, wherein the procedure for processing the target area and the background area in different color processing modes comprises: сохранение цвета целевой области и осуществление «размывающей» обработки фоновой области.preserving the color of the target area and performing "blurring" processing of the background area. 23. Способ по какому-либо одному из пп. 19 – 22, в котором совокупность категорий объектов содержит по меньшей мере одно из списка – человек, животное, растительность, заданный объект или фон.23. The method according to any one of paragraphs. 19 - 22, in which the set of categories of objects contains at least one of the list - a person, animal, vegetation, a given object or background. 24. Способ обработки изображения, в котором этот способ содержит:24. An image processing method, wherein the method comprises: получение изображения;getting an image; определение целевой области и фоновой области в изображении на основе категории объекта на этом изображении, где фоновая область представляет собой область изображения, отличную от целевой области; иdetermining a target area and a background area in the image based on the category of the object in the image, where the background area is an area of the image other than the target area; And сохранение цвета целевой области и осуществление «размывающей» обработки фоновой области для получения целевого изображения, preserving the color of the target area and performing "blurring" processing of the background area to obtain the target image, в котором определение целевой области и фоновой области в изображении на основе категории объекта на этом изображении содержит один из следующих способов:wherein defining the target area and background area in an image based on the category of the object in that image contains one of the following: способ 1: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 1: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area; способ 2: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,method 2: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects and the set of these k masks contains a background mask and masks for the main objects; And, если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве целевой области, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than a predetermined threshold value, determine the image area corresponding to these k0 masks for the main objects as the target area, and determine the image area corresponding to one from the remaining masks, as a background region, where k0 is a non-negative integer less than k; способ 3: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,method 3: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects, and the set of these k masks contains a background mask and masks for the main objects; And, если k больше 2, определяют, в качестве целевой области, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determine, as the target area, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determine the area of the image corresponding to the rest of the masks, as the background area; способ 4: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 4: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k больше 2, определяют целевую маску из совокупности k масок на основе заданных приоритетов категорий объектов, и if k is greater than 2, determine the target mask from the set of k masks based on the given object category priorities, and определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; илиdetermining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area; or способ 5: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 5: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k больше 2, определяют целевую маску из совокупности k масок в соответствии с командой выбора от пользователя, и if k is greater than 2, determining the target mask from the set of k masks according to the selection command from the user, and определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области.determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the remaining masks as a background area. 25. Способ обработки изображения, в котором этот способ содержит:25. An image processing method, wherein the method comprises: получение N изображений, где N представляет собой положительное целое число и эти N изображений составляют видео;obtaining N images, where N is a positive integer and these N images constitute a video; определение категории объекта, входящего в каждое полученное изображение; и,determining the category of the object included in each received image; And, если в первых N0 изображениях текущей съемки (текущего изображения) число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, не больше заданной пороговой величины, определение целевой области и фоновой области в текущем изображении на основе категории указанного объекта на изображении, где фоновая область представляет собой область текущего изображения, отличную от целевой области; и if in the first N0 images of the current shooting (current image), the number of groups of adjacent images with the same object, defined as different categories of objects, is not more than a specified threshold, determining the target area and background area in the current image based on the category of the specified object in the image where the background region is an area of the current image that is different from the target region; And обработку целевой области и фоновой области в первом режиме цветовой обработки и во втором режиме цветовой обработки соответственно для получения целевого изображения, где первый режим цветовой обработки отличается от второго режима цветовой обработки; или, processing the target area and the background area in the first color processing mode and the second color processing mode, respectively, to obtain a target image, where the first color processing mode is different from the second color processing mode; or, если в первых N0 изображениях текущей съемки (текущего изображения) число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, больше заданной пороговой величины, обработку этого текущего изображения в первом режиме цветовой обработки или во втором режиме цветовой обработки для получения целевого изображения, где это текущее изображение является одним из указанных N изображений.if in the first N0 images of the current shooting (current image) the number of groups of neighboring images with the same object, defined as different categories of objects, is greater than a predetermined threshold, processing this current image in the first color processing mode or in the second color processing mode to obtain target image, where this current image is one of the specified N images. 26. Способ по п. 25, в котором первый режим цветовой обработки содержит сохранение цвета и второй режим цветовой обработки содержит черно-белую обработку, затемняющую обработку или «размывающую» обработку.26. The method of claim 25, wherein the first color processing mode comprises color preservation and the second color processing mode comprises black and white processing, dimming processing, or "blurring" processing. 27. Способ по п. 25 или 26, в котором совокупность категорий объектов содержит по меньшей мере одну категорию из списка – человек, животное, растительность, заданный объект или фон.27. The method according to claim 25 or 26, in which the set of categories of objects contains at least one category from the list - a person, animal, vegetation, a given object or background. 28. Способ по какому-либо одному из пп. 25 – 27, в котором процедура определения целевой области и фоновой области в текущем изображении на основе категории объекта на этом изображении содержит один из следующих способов:28. The method according to any one of paragraphs. 25 to 27, in which the procedure for determining the target area and the background area in the current image based on the category of the object in this image contains one of the following methods: способ 1: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 1: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area; способ 2: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,method 2: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects and the set of these k masks contains a background mask and masks for the main objects; And, если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве целевой области, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than a predetermined threshold value, determine the image area corresponding to these k0 masks for the main objects as the target area, and determine the image area corresponding to one from the remaining masks, as a background region, where k0 is a non-negative integer less than k; способ 3: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,method 3: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects, and the set of these k masks contains a background mask and masks for the main objects; And, если k больше 2, определяют, в качестве целевой области, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determine, as the target area, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determine the area of the image corresponding to the rest of the masks, as the background area; способ 4: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствуют разным категориям объектов; и,method 4: performing semantic image segmentation to obtain k masks, where these k masks correspond to different categories of objects; And, если k больше 2, определяют целевую маску из совокупности k масок на основе заданных приоритетов категорий объектов, и if k is greater than 2, determine the target mask from the set of k masks based on the given object category priorities, and определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области.determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the remaining masks as a background area. 29. Аппаратура для обработки изображения, в которой эта аппаратура содержит:29. Equipment for image processing, in which this equipment contains: фотографический модуль, конфигурированный для получения N изображений, где N представляет собой положительное целое число и эти N изображений составляют видео;a photographic module configured to take N images, where N is a positive integer and the N images constitute a video; решающий модуль, конфигурированный для определения целевой области и фоновой области в каждом из указанных N изображений на основе категории объекта на этом изображении, где фоновая область представляет собой область изображения, отличную от целевой области; иa decision module configured to determine the target area and the background area in each of the specified N images based on the category of the object in this image, where the background area is an image area different from the target area; And модуль цветовой обработки, конфигурированный для обработки целевой области и фоновой области в разных режимах цветовой обработки, a color processing module configured to process the target area and the background area in different color processing modes, в которой решающий модуль, в частности, конфигурирован для того, чтобы:wherein the solver is specifically configured to: осуществлять семантическую сегментацию изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,perform semantic segmentation of the image to obtain k masks, where these k masks correspond to different categories of objects and the totality of these k masks contains a background mask and masks for the main objects; And, если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area; если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве целевой области, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than a predetermined threshold value, determine the image area corresponding to these k0 masks for the main objects as the target area, and determine the image area corresponding to one from the remaining masks, as a background region, where k0 is a non-negative integer less than k; если k больше 2, определяют, в качестве целевой области, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determine, as the target area, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determine the area of the image corresponding to the rest of the masks, as the background area; если k больше 2, определяют целевую маску из совокупности k масок на основе заданных приоритетов категорий объектов, и определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; или,if k is greater than 2, determining a target mask from a plurality of k masks based on predetermined object category priorities, and determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area; or, если k больше 2, определяют целевую маску из совокупности k масок в соответствии с командой выбора от пользователя; и if k is greater than 2, determining a target mask from the set of k masks in accordance with a selection command from the user; And определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области.determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the remaining masks as a background area. 30. Аппаратура по п. 29, в которой модуль цветовой обработки, в частности, конфигурирован для того, чтобы:30. The apparatus of claim 29, wherein the color processing module is specifically configured to: сохранять цвет в целевой области и осуществлять черно-белую обработку, затемняющую обработку или «размывающую» обработку фоновой области.preserve color in the target area and perform black and white processing, dimming processing, or "blurring" processing of the background region. 31. Аппаратура для обработки изображения, в которой эта аппаратура содержит:31. Equipment for image processing, in which this equipment contains: фотографический модуль, конфигурированный для получения N изображений, где N представляет собой положительное целое число и эти N изображений составляют видео;a photographic module configured to take N images, where N is a positive integer and the N images constitute a video; решающий модуль, конфигурированный для определения категории объекта, входящего в каждое полученное изображение; иa decision module configured to determine the category of the object included in each received image; And оценочный модуль, конфигурированный для того, чтобы: если в первых N0 изображениях текущего изображения число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, не больше заданной пороговой величины, управлять решающим модулем для определения целевой области и фоновой области в текущем изображении на основе категории указанного объекта на изображении, где фоновая область представляет собой область текущего изображения, отличную от целевой области; и управлять модулем цветовой обработки для обработки целевой области и фоновой области в первом режиме цветовой обработки и во втором режиме цветовой обработки соответственно для получения целевого изображения, где первый режим цветовой обработки отличается от второго режима цветовой обработки; или,an evaluation module configured to: if, in the first N0 images of the current image, the number of groups of adjacent images with the same object, defined as different categories of objects, is not greater than a predetermined threshold, control the decision module to determine the target area and the background area in the current image based on the category of the specified object in the image, where the background area is an area of the current image other than the target area; and controlling the color processing unit to process the target area and the background area in the first color processing mode and the second color processing mode, respectively, to obtain a target image, where the first color processing mode is different from the second color processing mode; or, если в первых N0 изображениях текущего изображения число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, больше заданной пороговой величины, управлять модулем устранения мерцания с целью обработки текущего изображения в первом режиме цветовой обработки или во втором режиме цветовой обработки для получения целевого изображения, где это текущее изображение является одним из указанных N изображений.if in the first N0 images of the current image, the number of groups of neighboring images with the same object, defined as different categories of objects, is greater than a predetermined threshold value, control the flicker elimination module to process the current image in the first color processing mode or in the second color processing mode for obtaining the target image, where this current image is one of the specified N images. 32. Аппаратура по п. 31, в которой указанный решающий модуль, в частности, дополнительно конфигурирован для того, чтобы:32. The apparatus of claim 31, wherein said decision module is, in particular, further configured to: осуществлять семантическую сегментацию изображения для получения k масок, где эти k масок соответствуют разным категориям объектов и совокупность этих k масок содержит фоновую маску и маски для главных объектов; и,perform semantic segmentation of the image to obtain k masks, where these k masks correspond to different categories of objects and the totality of these k masks contains a background mask and masks for the main objects; And, если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area; если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве целевой области, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than a predetermined threshold value, determine the image area corresponding to these k0 masks for the main objects as the target area, and determine the image area corresponding to one from the remaining masks, as a background region, where k0 is a non-negative integer less than k; если k больше 2, определяют, в качестве целевой области, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determine, as the target area, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determine the area of the image corresponding to the rest of the masks, as the background area; если k больше 2, определяют целевую маску из совокупности k масок на основе заданных приоритетов категорий объектов, и определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; или,if k is greater than 2, determining a target mask from a plurality of k masks based on predetermined object category priorities, and determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area; or, если k больше 2, определяют целевую маску из совокупности k масок в соответствии с командой выбора от пользователя, и if k is greater than 2, determining the target mask from the set of k masks according to the selection command from the user, and определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области. determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the remaining masks as a background area. 33. Аппаратура по п. 31 или 32, в которой модуль цветовой обработки, в частности, конфигурирован для того, чтобы:33. Apparatus according to claim 31 or 32, wherein the color processing module is specifically configured to: сохранить цвета целевой области и осуществить черно-белую обработку, затемняющую обработки илу «размывающую» обработку фоновой области.preserve the colors of the target area and perform black and white processing, dimming processing, or "blurring" processing of the background area. 34. Терминал для обработки изображения, в котором этот терминал содержит видеокамеру, запоминающее устройство, процессор и шину; так что эти видеокамера, запоминающее устройство и процессор соединены по шине;34. Terminal for image processing, in which this terminal contains a video camera, a storage device, a processor and a bus; so that the video camera, storage device, and processor are connected via a bus; видеокамера конфигурирована для захвата изображения;the video camera is configured to capture an image; запоминающее устройство конфигурировано для сохранения компьютерной программы и команд; иthe storage device is configured to store a computer program and instructions; And процессор конфигурирован для вызова компьютерной программы, команд и захваченного изображения, сохраняемых в запоминающем устройстве, для осуществления способа согласно какому-либо одному из пп. 19 – 23.the processor is configured to call the computer program, instructions, and the captured image stored in the storage device to implement the method according to any one of paragraphs. 19 - 23. 35. Терминал по п. 34, в котором этот терминал дополнительно содержит антенную систему и эта антенная система принимает/передает сигнал радиосвязи под управлением процессора для осуществления радиосвязи с сетью мобильной связи, где сеть мобильной связи содержит одну или несколько из следующих сетей связи: сеть GSM связи, сеть CDMA связи, сеть 3G связи, сеть 4G связи, сеть 5G связи, сеть FDMA связи, сеть TDMA связи, сеть PDC связи, сеть TACS связи, сеть AMPS связи, WCDMA связи, сеть TDSCDMA связи, сеть Wi-Fi связи или сеть LTE связи.35. The terminal of claim 34, wherein said terminal further comprises an antenna system, and said antenna system receives/transmits a radio communication signal under the control of the processor for radio communication with a mobile communication network, wherein the mobile communication network comprises one or more of the following communication networks: GSM communication, CDMA communication network, 3G communication network, 4G communication network, 5G communication network, FDMA communication network, TDMA communication network, PDC communication network, TACS communication network, AMPS communication network, WCDMA communication, TDSCDMA communication network, Wi-Fi network communication or LTE communication network. 36. Терминал для обработки изображения, в котором этот терминал содержит видеокамеру, запоминающее устройство, процессор и шину; так что эти видеокамера, запоминающее устройство и процессор соединены по шине;36. Terminal for image processing, in which this terminal contains a video camera, a storage device, a processor and a bus; so that the video camera, storage device, and processor are connected via a bus; видеокамера конфигурирована для захвата изображения;the video camera is configured to capture an image; запоминающее устройство конфигурировано для сохранения компьютерной программы и команд; иthe storage device is configured to store a computer program and instructions; And процессор конфигурирован для вызова компьютерной программы, команд и захваченного изображения, сохраняемых в запоминающем устройстве, для осуществления способа согласно какому-либо одному из пп. 24 – 28.the processor is configured to call the computer program, instructions, and the captured image stored in the storage device to implement the method according to any one of paragraphs. 24 - 28. 37. Терминал по 36, в котором этот терминал дополнительно содержит антенную систему и эта антенная система принимает/передает сигнал радиосвязи под управлением процессора для осуществления радиосвязи с сетью мобильной связи, где сеть мобильной связи содержит одну или несколько из следующих сетей связи: сеть GSM связи, сеть CDMA связи, сеть 3G связи, сеть 4G связи, сеть 5G связи, сеть FDMA связи, сеть TDMA связи, сеть PDC связи, сеть TACS связи, сеть AMPS связи, WCDMA связи, сеть TDSCDMA связи, сеть Wi-Fi связи и сеть LTE связи.37. The terminal of 36, wherein said terminal further comprises an antenna system, and said antenna system receives/transmits a radio communication signal under the control of a processor for radio communication with a mobile communication network, wherein the mobile communication network comprises one or more of the following communication networks: a GSM communication network , CDMA communication network, 3G communication network, 4G communication network, 5G communication network, FDMA communication network, TDMA communication network, PDC communication network, TACS communication network, AMPS communication network, WCDMA communication, TDSCDMA communication network, Wi-Fi communication network and LTE communication network.
RU2021113673A 2018-10-15 2019-06-18 Method, equipment and device for image processing RU2791810C2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811199216.X 2018-10-15

Publications (2)

Publication Number Publication Date
RU2021113673A RU2021113673A (en) 2022-11-17
RU2791810C2 true RU2791810C2 (en) 2023-03-13

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2454043C2 (en) * 2009-12-30 2012-06-20 Юрий Алексеевич Громаков Method for data transmission via cellular communication system and system for its implementation
CN106407369A (en) * 2016-09-09 2017-02-15 华南理工大学 Photo management method and system based on deep learning face recognition
CN107507214A (en) * 2017-07-06 2017-12-22 北京华泰诺安探测技术有限公司 The method and apparatus for obtaining goods image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2454043C2 (en) * 2009-12-30 2012-06-20 Юрий Алексеевич Громаков Method for data transmission via cellular communication system and system for its implementation
CN106407369A (en) * 2016-09-09 2017-02-15 华南理工大学 Photo management method and system based on deep learning face recognition
CN107507214A (en) * 2017-07-06 2017-12-22 北京华泰诺安探测技术有限公司 The method and apparatus for obtaining goods image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
https://stackoverflow.com/questions/37949386/type-of-recognition-of-convolution-neural-network. https://www.rbc.ru/own_business/31/07/2017/5978ae349a7947f10c436ce2. http://winlined.ru/articles/Izmenenie_fonovogo_izobrazheniya_Launchpad_v_OS_X.php. https://alimero.ru/blog/hobby/effekt-razmitiya-fona-bokeh-v-photoshop.23558.html. *
https://www.internet-technologies.ru/articles/kak-ispolzovat-instrument-tekst-v-photoshop.html. *

Similar Documents

Publication Publication Date Title
US12026863B2 (en) Image processing method and apparatus, and device
JP7266672B2 (en) Image processing method, image processing apparatus, and device
CN109639982B (en) Image noise reduction method and device, storage medium and terminal
WO2021052232A1 (en) Time-lapse photography method and device
CN112150399B (en) Image enhancement method based on wide dynamic range and electronic equipment
US9451173B2 (en) Electronic device and control method of the same
WO2021036715A1 (en) Image-text fusion method and apparatus, and electronic device
CN109688351B (en) Image signal processing method, device and equipment
WO2020192692A1 (en) Image processing method and related apparatus
CN113170037B (en) Method for shooting long exposure image and electronic equipment
WO2023015997A1 (en) Video editing method and video editing apparatus
CN114422682A (en) Photographing method, electronic device, and readable storage medium
RU2791810C2 (en) Method, equipment and device for image processing
CN116709042B (en) Image processing method and electronic equipment
RU2794062C2 (en) Image processing device and method and equipment
CN116723417B (en) Image processing method and electronic equipment
CN115526788A (en) Image processing method and device
CN110706163A (en) Image processing method, terminal and computer storage medium