RU2794062C2 - Image processing device and method and equipment - Google Patents

Image processing device and method and equipment Download PDF

Info

Publication number
RU2794062C2
RU2794062C2 RU2021113676A RU2021113676A RU2794062C2 RU 2794062 C2 RU2794062 C2 RU 2794062C2 RU 2021113676 A RU2021113676 A RU 2021113676A RU 2021113676 A RU2021113676 A RU 2021113676A RU 2794062 C2 RU2794062 C2 RU 2794062C2
Authority
RU
Russia
Prior art keywords
image
mask
area
category
background
Prior art date
Application number
RU2021113676A
Other languages
Russian (ru)
Other versions
RU2021113676A (en
Inventor
Юй Ли
Фэйлун МА
Тичжэн ВАН
Сюцзе ХУАН
Original Assignee
Хуавей Текнолоджиз Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Хуавей Текнолоджиз Ко., Лтд. filed Critical Хуавей Текнолоджиз Ко., Лтд.
Publication of RU2021113676A publication Critical patent/RU2021113676A/en
Application granted granted Critical
Publication of RU2794062C2 publication Critical patent/RU2794062C2/en

Links

Images

Abstract

FIELD: image processing.
SUBSTANCE: technical result is to increase the accuracy of determining the target area and the background area. To achieve a technical result in the claimed solution, the area of the main object and the background area in the image are determined based on the category of the object in the image and the neural network; preserving the color of the main object area in the image and performing black and white color processing or blur processing in the background area in the image, determining the first mask of the first category of objects and the second mask of the second category of objects based on the neural network, the first mask defining the area of the main object, and the second mask defines the background area, and the first category of the object contains an object from a given category of objects; and the second category of the object is the background.
EFFECT: increase in the accuracy of determining the target area and the background area.
18 cl, 10 dwg

Description

Область техники, к которой относится изобретениеThe field of technology to which the invention belongs

Настоящее описание относится к области технологий оконечных устройств и, в частности, к устройству и способу обработки изображения и оборудованию.The present description relates to the field of terminal technologies and, in particular, to an image processing apparatus and method and equipment.

Уровень техникиState of the art

Фотографирование предполагает использование камеры или видеорегистратор для записи изображения человека или объекта. В настоящее время используются различные навыки фотографирования для разных сцен, таких как фотографирование ночной сцены, фотографирование дождевой сцены, фотографирование зданий и фотографирование портрета. Динамическое фотографирование для кинематографа также является типом фотографирования, но должно соответствовать конкретному принципу. С развитием науки и техники фотографирование стало проще и популярнее.Photographing involves using a camera or video recorder to record an image of a person or object. Currently, different photography skills are used for different scenes, such as night scene photography, rain scene photography, building photography, and portrait photography. Dynamic photography for cinema is also a type of photography, but must follow a specific principle. With the development of science and technology, photography has become easier and more popular.

С увеличением пропускной способности сети и повышением возможности обработки оконечных устройств, видео и фотографирование и совместное использование видео и изображения становятся более удобными, и использование видео стало новой повседневной потребностью для всех людей. Видео быстро становятся интенсивной услугой в сетевой трафике и, как ожидается, в ближайшие годы на него будет приходиться от 80% до 90% от общего объема трафика.With the increase in network bandwidth and the increase in the processing capability of end devices, video and photo taking and video and image sharing become more convenient, and video use has become a new daily need for all people. Video is rapidly becoming a heavy service in network traffic and is expected to account for 80% to 90% of total traffic in the coming years.

В повседневной жизни фотографирование стало главным способом иллюстрации самого себя для пользователей и получения удовольствия от красоты вещей. Люди хотят фотографировать с использованием более примечательных стилей. Например, использование во время фотографирования специального эффекта обработки изображений или видео для передачи впечатления от фотографирования «Что вы видите, это то, что вы получаете». Поэтому для непрофессиональных пользователей оконечного устройства необходимо внедрить новые технологии обработки изображения.In everyday life, photography has become the main way to illustrate oneself for users and enjoy the beauty of things. People want to take pictures with more remarkable styles. For example, using a special image processing or video effect during photography to convey the impression of photography "What you see is what you get." Therefore, for non-professional users of the terminal device, it is necessary to introduce new image processing technologies.

В настоящее время функция записи видео оконечного устройства является монотонной. В настоящее время может быть предоставлен только обычный способ фотографирования, не имеющий некоторые персонализированные эффекты.At present, the video recording function of the terminal device is monotonous. At present, only the ordinary way of photographing can be provided, which does not have some personalized effects.

Раскрытие сущности изобретенияDisclosure of the essence of the invention

Настоящее описание предлагает способ обработки изображений. В изображении определяются целевая область и область фона посредством выполнения сегментации маски (шаблона) на изображении. К целевой области и области фона применяются различные режимы обработки цвета, так что яркость целевой области выше, чем яркость области фона, или цветность целевой области больше, чем цветности области фона, и основной объект, соответствующий целевой области, более заметно выделен. Это позволяет пользователю оконечного устройства получить эффект видеоклипа во время фотографирования или съемки видео и улучшает передачу впечатления от фотографирования пользователя.The present description proposes an image processing method. In the image, the target area and the background area are determined by performing segmentation of the mask (pattern) on the image. Different color processing modes are applied to the target area and the background area, so that the luminance of the target area is higher than the luminance of the background area, or the chroma of the target area is larger than the chroma of the background area, and the main object corresponding to the target area is more prominently highlighted. This allows the user of the terminal device to get the effect of a video clip while taking a photograph or shooting a video, and improves the transmission of the user's photographing experience.

Конкретные технические решения, предусмотренные в вариантах осуществления настоящего описания, заключаются в следующем.Specific technical solutions provided in the embodiments of the present description are as follows.

Согласно первому аспекту вариант осуществления настоящего описания обеспечивает способ обработки изображений. Способ применяется к процессу записи видео, и способ включает в себя: захват N1 изображений в первый временной период; захват N2 изображений во второй период времени, где первый период времени и второй период времени являются смежными периодами времени, и N1, так и N2 являются положительными целыми числами; определение первой целевой области и первой области фона из каждого из N1 изображений, где первая область фона представляет собой область изображения, отличную от первой целевой области, и первая целевая область в каждом из N1 изображениях соответствует первому объекту; определение второй целевой области и второй области фона из каждого из N2 изображений, где вторая область фона является областью изображения, отличной от второй целевой области, и вторая целевая область в каждом из N2 изображениях соответствует второму объекту; и обработку первой целевой области в первом режиме обработки цвета, обработку первой фоновой области во втором режиме обработки цвета, обработку второй целевой области в третьем режиме обработки и обработку второй области фона в четвертом режиме обработки цвета для получения целевого видео. В целевом видео цветность первой целевой области выше, чем цветность первой области фона, или яркость первой целевой области выше, чем яркость первой области фона. Дополнительно, цветность второй целевой области больше, чем цветность второй области фона, или яркость второй целевой области больше, чем яркость второй области фона.According to a first aspect, an embodiment of the present disclosure provides an image processing method. The method is applied to a video recording process, and the method includes: capturing N1 images in a first time period; capturing N2 images in a second time period, where the first time period and the second time period are adjacent time periods, and N1 and N2 are positive integers; determining a first target area and a first background area from each of the N1 images, where the first background area is an image area different from the first target area, and the first target area in each of the N1 images corresponds to the first object; determining a second target area and a second background area from each of the N2 images, where the second background area is an image area different from the second target area, and the second target area in each of the N2 images corresponds to the second object; and processing the first target region in the first color processing mode, processing the first background region in the second color processing mode, processing the second target region in the third processing mode, and processing the second background region in the fourth color processing mode to obtain the target video. In the target video, the chroma of the first target area is higher than the chroma of the first background area, or the luminance of the first target area is higher than the luminance of the first background area. Further, the chroma of the second target area is greater than the chroma of the second background region, or the luminance of the second target region is greater than the luminance of the second background region.

Согласно второму аспекту, вариант осуществления настоящего описания обеспечивает устройство обработки изображения. Устройство используется в процессе съемки видео и устройство включает в себя: модуль фотографирования, выполненный с возможностью захватывать N1 изображения в первый период времени и захватывать N2 изображения во второй период времени, где первый период времени и второй период времени являются смежными периодами времени, и N1, так и N2 являются положительными целыми числами; модуль определения, выполненный с возможностью: определять первую целевую область и первую область фона из каждого N1 изображений, где первая область фона представляет собой область изображения, отличную от первой целевой области и первая целевая область в каждом N1 изображении соответствуют первому объекту; и определять вторую целевую область и вторую область фона из каждого N2 изображений, где вторая область фона представляет собой область изображения, отличную от второй целевой области и вторая целевая область в каждом N2 изображении соответствует второму объекту; и модуль обработки цвета, выполненный с возможностью обрабатывать первую целевую область в первом режиме обработки цвета, обрабатывать первую область фона во втором режиме обработки цвета, обрабатывать вторую целевую область в третьем режиме обработки цвета и обрабатывать вторую область фона в четвертом режиме обработки цвета для получения целевого видео. В целевом видео цветность первой целевой области больше, чем цветность первой области фона, или яркость первой целевой области выше, чем яркость первой области фона. Дополнительно, цветность второй целевой области больше, чем цветность второй области фона, или яркость второй целевой области выше, чем яркость второй области фона.According to a second aspect, an embodiment of the present disclosure provides an image processing apparatus. The device is used in a video capturing process, and the device includes: a photographing unit configured to capture N1 images in a first time period and capture N2 images in a second time period, where the first time period and the second time period are adjacent time periods, and N1 so N2 are positive integers; a determination module configured to: determine a first target area and a first background area from each N1 images, where the first background area is an image area different from the first target area and the first target area in each N1 image corresponds to the first object; and determining a second target area and a second background area from each N2 images, where the second background area is an image area different from the second target area and the second target area in each N2 image corresponds to the second object; and a color processing unit configured to process the first target area in the first color processing mode, process the first background area in the second color processing mode, process the second target area in the third color processing mode, and process the second background area in the fourth color processing mode to obtain the target video. In the target video, the chroma of the first target area is greater than the chroma of the first background area, or the luminance of the first target area is higher than the luminance of the first background area. Further, the chroma of the second target area is greater than the chroma of the second background area, or the luminance of the second target area is higher than the luminance of the second background area.

Согласно первому аспекту или второму аспекту, в возможной реализации, первый объект и второй объект являются одним и тем же объектом.According to the first aspect or the second aspect, in a possible implementation, the first object and the second object are the same object.

Согласно первому аспекту или второму аспекту, в возможной реализации, первый объект и второй объект являются разными объектами.According to the first aspect or the second aspect, in a possible implementation, the first object and the second object are different objects.

Согласно первому аспекту или второму аспекту, в возможной реализации, первый объект или второй объект включает в себя, по меньшей мере, один отдельный предмет категории объекта (например, человек, животное или растение).According to the first aspect or the second aspect, in a possible implementation, the first object or the second object includes at least one single item of the object category (eg, human, animal or plant).

Согласно первому аспекту или второму аспекту, в возможной реализации, первый объект и второй объект определяются в соответствии с инструкцией выбора пользователя.According to the first aspect or the second aspect, in an exemplary implementation, the first object and the second object are determined in accordance with the user's selection instruction.

В частности, например, первый объект определяется из первого изображения в первый период времени в соответствии с инструкцией выбора пользователя, и первый объект используется в качестве целевого объекта во всех изображениях в первый период времени. Аналогичным образом, второй объект определяется из первого изображения во втором периоде времени в соответствии с инструкцией выбора пользователя, и второй объект используется в качестве целевого объекта во всех изображениях во второй период времени. Например, для получения k масок на изображении может быть выполнена сегментирование семантики. k маски соответствуют разным категориям объекта, инструкция выбора, введенная пользователем, соответствует конкретной маске или конкретным маскам и объект, соответствующий конкретной маске или конкретным маскам, является целевым объектом.Specifically, for example, the first object is determined from the first image in the first time period according to the user selection instruction, and the first object is used as the target object in all images in the first time period. Similarly, the second object is determined from the first image in the second time period according to the user selection instruction, and the second object is used as the target object in all images in the second time period. For example, semantic segmentation can be performed to obtain k masks on an image. The k masks correspond to different categories of the object, the selection instruction entered by the user corresponds to the specific mask or specific masks, and the object corresponding to the specific mask or specific masks is the target object.

Согласно первому аспекту или второму аспекту, в возможной реализации, первый объект и второй объект отдельно определяются оконечным устройством на основании контента двух изображений в заданном интервале времени.According to a first aspect or a second aspect, in an exemplary implementation, the first object and the second object are separately determined by the terminal device based on the content of the two pictures in a given time interval.

В частности, например, первый объект определяется из первого изображения в первый период времени, и первый объект используется в качестве целевого объекта во всех изображениях в первый период времени. Аналогичным образом, второй объект определяется из первого изображения во втором периоде времени и второй объект используется в качестве целевого объекта во всех изображениях во второй период времени. Способ, в котором первый объект определяется из первого изображения в первый период времени и второй объект определяется из первого изображения во второй период времени, включает в себя, но не ограничивается, один из следующих способов:Specifically, for example, the first object is determined from the first image in the first time period, and the first object is used as the target object in all images in the first time period. Similarly, the second object is determined from the first image in the second time period, and the second object is used as the target object in all images in the second time period. The method in which the first object is determined from the first image in the first time period and the second object is determined from the first image in the second time period includes, but is not limited to, one of the following methods:

выполнение сегментирования семантики на изображении для получения k масок, где k маски соответствуют различным категориям объекта; иperforming segmentation of semantics on the image to obtain k masks, where k masks correspond to different categories of the object; And

если k=2, и две маски включают в себя одну маску объекта и одну маску фона, определение области изображения, соответствующей маске объекта, в качестве целевой области, и определение области, соответствующей маске фона, в качестве области фона, где объект, соответствующий маске объекта, является первым объектом или вторым объектом;if k=2 and the two masks include one object mask and one background mask, specifying an image area corresponding to the object mask as the target area, and determining the area corresponding to the background mask as the background area, where the object corresponding to the mask object is the first object or the second object;

если k превышает 2, и количество пикселей, включенных в k0 маски объекта в k масках, превышает заданное пороговое значение, определение области изображения, соответствующей k0 маскам объекта в качестве целевой области, и определение области изображения, соответствующей оставшимся маскам как область фона, где объект, соответствующий маске объекта, является первым объектом или вторым объектом, и k0 является неотрицательным целым числом меньше k;if k exceeds 2 and the number of pixels included in the k0 object masks in the k masks exceeds a predetermined threshold value, determining the image area corresponding to the k0 object masks as the target area, and determining the image area corresponding to the remaining masks as the background area where the object , corresponding to the object mask, is the first object or the second object, and k0 is a non-negative integer less than k;

если k превышает 2, определение, в качестве целевой области, области изображения, соответствующей маске, которая включает в себя наибольшее количество пикселей, то есть, в k масках, и определение области изображения, соответствующей оставшимся маскам, в качестве области фона, где объект, соответствующий маске объекта, является первым объектом или вторым объектом;if k is greater than 2, determining, as the target area, the area of the image corresponding to the mask that includes the largest number of pixels, that is, in k masks, and determining the area of the image corresponding to the remaining masks as the background area where the object, corresponding to the mask of the object, is the first object or the second object;

если k больше 2, определение целевой маски из k масок на основании заданных приоритетов категорий объектов; и определение области изображения, соответствующей целевой маске, в качестве целевой области, и определение области изображения, соответствующей оставшимся маскам, в качестве области фона, где объект, соответствующий маске объекта, является первым объектом или вторым объектом; илиif k is greater than 2, determining a target mask of the k masks based on predetermined object category priorities; and defining an image area corresponding to the target mask as a target area, and defining an image area corresponding to the remaining masks as a background area, where the object corresponding to the object mask is the first object or the second object; or

если k больше 2, определение целевой маски из k масок в соответствии с инструкцией выбора пользователя; и определение области изображения, соответствующей целевой маске, в качестве целевой области, и определение области изображения, соответствующей оставшимся маскам, в качестве области фона, где объект, соответствующий маске объекта, является первым объектом или вторым объектом. Способ может быть специально выполнен модулем определения.if k is greater than 2, determining a target mask of the k masks according to the user selection instruction; and determining an image area corresponding to the target mask as the target area, and determining an image area corresponding to the remaining masks as the background area, where the object corresponding to the object mask is the first object or the second object. The method may be specifically performed by the determination module.

Согласно первому аспекту или второму аспекту, в возможной реализации, первый режим обработки цвета является таким же, как третий режим обработки цвета, и второй режим обработки цвета является таким же, как и четвертый режим обработки цвета.According to the first aspect or the second aspect, in an exemplary implementation, the first color processing mode is the same as the third color processing mode, and the second color processing mode is the same as the fourth color processing mode.

Согласно первому аспекту или второму аспекту, в возможной реализации, первый режим обработки цвета является таким же, как третий режим обработки цвета, и второй режим обработки цвета отличается от первого режима обработки цвета.According to the first aspect or the second aspect, in an exemplary implementation, the first color processing mode is the same as the third color processing mode, and the second color processing mode is different from the first color processing mode.

В соответствии с первым аспектом или вторым аспектом, в возможной реализации, первый режим обработки цвета отличается от третьего режима обработки цвета, и второй режим обработки цвета является таким же, как и четвертый режим обработки цвета.According to the first aspect or the second aspect, in an exemplary implementation, the first color processing mode is different from the third color processing mode, and the second color processing mode is the same as the fourth color processing mode.

Согласно первому аспекту или второму аспекту, в возможной реализации, первый режим обработки цвета отличается от третьего режима обработки цвета, и второй режим обработки цвета отличается от четвертого режима обработки цвета.According to the first aspect or the second aspect, in an exemplary implementation, the first color processing mode is different from the third color processing mode, and the second color processing mode is different from the fourth color processing mode.

В соответствии с первым аспектом или вторым аспектом, в возможной реализации, первый режим обработки цвета или третий режим обработки цвета включает в себя удерживание цвета или улучшение цвета.According to the first aspect or the second aspect, in an exemplary implementation, the first color processing mode or the third color processing mode includes color retention or color enhancement.

Согласно первому аспекту или второму аспекту, в возможной реализации, второй режим обработки цвета или четвертый режим обработки цвета включает в себя режим обработки черно-белого цвета, затемнения, размытия или ретро режим.According to the first aspect or the second aspect, in an exemplary implementation, the second color processing mode or the fourth color processing mode includes a black and white, dim, blur, or retro mode.

В соответствии с третьим аспектом вариант осуществления настоящего описания обеспечивает оконечное устройство, включающее в себя камеру, память, процессор и шину. Камера, память и процессор подключены через шину. Камера выполнена с возможностью захватывать изображение и память выполнена с возможностью хранить компьютерную программу и инструкцию. Процессор выполнен с возможностью вызывать компьютерную программу, инструкцию и захваченное изображение, которое хранится в памяти, и дополнительно специально выполнен с возможностью обеспечивать возможность оконечному устройству выполнять любые предшествующие возможные способы.According to a third aspect, an embodiment of the present disclosure provides a terminal device including a camera, a memory, a processor, and a bus. The camera, memory and processor are connected via a bus. The camera is configured to capture an image and the memory is configured to store a computer program and instructions. The processor is configured to call the computer program, the instruction, and the captured image that is stored in the memory, and is further specifically configured to allow the terminal device to perform any of the foregoing possible methods.

В соответствии с третьим аспектом, в возможной реализации, оконечное устройство дополнительно включает в себя антенную систему. Антенная система принимает и передает сигнал беспроводной связи под управлением процессора для реализации беспроводной связи с сетью мобильной связи. Сеть мобильной связи включает в себя одно или несколько следующих: GSM сеть, CDMA сеть, 3G сеть, 4G сеть, 5G сеть, FDMA сеть, TDMA сеть, PDC сеть, TACS сеть, AMPS сеть, WCDMA сеть, TDSCDMA сеть, Wi-Fi сеть и LTE сеть.According to a third aspect, in a possible implementation, the terminal further includes an antenna system. The antenna system receives and transmits a wireless communication signal under the control of a processor for realizing wireless communication with a mobile communication network. The mobile communication network includes one or more of the following: GSM network, CDMA network, 3G network, 4G network, 5G network, FDMA network, TDMA network, PDC network, TACS network, AMPS network, WCDMA network, TDSCDMA network, Wi-Fi network and LTE network.

Технические решения в вышеуказанных возможных реализациях могут быть объединены в рамках объема настоящего описания.The technical solutions in the above possible implementations can be combined within the scope of the present description.

В обычной технологии фотографирования изображения отсутствует возможность получения специального эффекта, не различая отдельные предметы или цвета в любом изображении. Согласно настоящему изобретению различные области в изображении могут отличаться между собой посредством использования цвета, что позволят обеспечить особый эффект фото или видео, и основной объект и цель на изображении могут быть выделены более четко. Таким образом, основные объекты являются более заметными. Дополнительно, настоящее описание может дополнительно обеспечить больше изменений цвета и изменений основных объектов для расширения возможностей для пользователя.In conventional image photography technology, there is no way to obtain a special effect without distinguishing individual objects or colors in any image. According to the present invention, different areas in an image can be distinguished from each other by using color to provide a special photo or video effect, and the main object and target in the image can be more clearly distinguished. Thus, the main objects are more visible. Additionally, the present disclosure may further provide more color changes and key object changes to enhance the user experience.

Краткое описание чертежейBrief description of the drawings

Фиг. 1 представляет собой схему структуры оконечного устройства в соответствии с вариантом осуществления настоящего описания;Fig. 1 is a structure diagram of a terminal device according to an embodiment of the present disclosure;

Фиг. 2 является блок-схемой последовательности операций способа обработки изображения в соответствии с вариантом осуществления настоящего описания;Fig. 2 is a flowchart of an image processing method according to an embodiment of the present description;

Фиг. 3 показывает пример идентификатора маски в соответствии с вариантом осуществления настоящего описания;Fig. 3 shows an example of a mask identifier according to an embodiment of the present description;

Фиг. 4 показывает другой пример идентификатора маски в соответствии с вариантом осуществления настоящего описания;Fig. 4 shows another example of a mask identifier according to an embodiment of the present description;

Фиг. 5 является схемой определения целевой маски в соответствии с вариантом осуществления настоящего описания;Fig. 5 is a target mask determination diagram according to an embodiment of the present description;

Фиг. 6 является еще одной схемой определения целевой маски в соответствии с вариантом осуществления настоящего описания;Fig. 6 is another diagram for determining a target mask according to an embodiment of the present description;

Фиг. 7 является еще одной схемой определения целевой маски в соответствии с вариантом осуществления настоящего описания;Fig. 7 is another diagram for determining a target mask according to an embodiment of the present description;

Фиг. 8 является еще одной схемой определения целевой маски в соответствии с вариантом осуществления настоящего описания;Fig. 8 is another diagram for determining a target mask according to an embodiment of the present description;

Фиг. 9 представляет собой схему устройства обработки изображения в соответствии с вариантом осуществления настоящего описания; иFig. 9 is a diagram of an image processing apparatus according to an embodiment of the present disclosure; And

Фиг. 10 является еще одной схемой устройства обработки изображения в соответствии с вариантом осуществления настоящего описания.Fig. 10 is another diagram of an image processing apparatus according to an embodiment of the present description.

Осуществление изобретенияImplementation of the invention

Ниже ясно и полностью приведено описание технических решений в вариантах осуществления настоящего описания со ссылкой на прилагаемые чертежи в вариантах осуществления настоящего описания. Определенно, описанные варианты осуществления являются просто некоторыми, но не всеми вариантами осуществления настоящего описания. Все остальные варианты осуществления, полученные специалистом в данной области техники, основанные на вариантах осуществления настоящего описания без творческих усилий, должны находиться в рамках области охраны настоящего описания.The following is a clear and complete description of the technical solutions in the embodiments of the present description with reference to the accompanying drawings in the embodiments of the present description. Certainly, the described embodiments are merely some, but not all, of the embodiments of the present disclosure. All other embodiments obtained by a person skilled in the art, based on embodiments of the present description without creative efforts, should be within the scope of the present description.

В вариантах осуществления настоящего описания оконечное устройство может представлять собой устройство, которое обеспечивает пользователю функцию съемки видео и/или подключение к передаче данных, портативное устройство, имеющее функцию беспроводного соединения, или другое устройство обработки, подключенное к беспроводному модему, например, цифровая камера, однолинзовая рефлекторная камера, мобильный телефон (или называется «сотовый» телефон) или смартфон. Оконечное устройство может быть портативным, карманным, переносным или носимым устройством (например, SmartWatch), планшетным компьютером, персональным компьютером (PC), PDA (персональный цифровой помощник), компьютером, установленным на транспортном средстве, дроном, летательным аппаратом или тому подобным.In embodiments of the present disclosure, a terminal device may be a device that provides a user with a video capture function and/or a data connection, a portable device having a wireless connection function, or other processing device connected to a wireless modem, such as a digital camera, single lens reflex camera, mobile phone (or called "cell" phone) or smart phone. The terminal device may be a handheld, handheld, handheld or wearable device (e.g., smartwatch), tablet computer, personal computer (PC), PDA (personal digital assistant), vehicle-mounted computer, drone, aircraft, or the like.

Фиг. 1 является схемой дополнительной возможной аппаратной структуры оконечного устройства 100.Fig. 1 is a diagram of a further possible hardware structure of terminal 100.

Как показано на фиг. 1, оконечное устройство 100 может включать в себя такие компоненты, как радиочастотный блок 110, память 120, входной блок 130, блок 140 отображения, камера 150, аудиосхема 160 (включающая в себя динамик 161 и микрофон 162), процессор 170, внешний интерфейс 180 и источник питания 190. Специалист в данной области может понять, что фиг. 1 является просто примером интеллектуального оконечного устройства или многофункционального устройства и не является ограничением интеллектуального оконечного устройства или многофункционального устройства. Интеллектуальное оконечное устройство или многофункциональное устройство могут включать в себя больше или меньше компонентов, чем показанные на чертеже, или сочетают в себе некоторые компоненты или включают в себя различные компоненты. Например, интеллектуальное оконечное устройство или многофункциональное устройство включает в себя, по меньшей мере, память 120, процессор 170 и камеру 150.As shown in FIG. 1, terminal device 100 may include components such as RF unit 110, memory 120, input unit 130, display unit 140, camera 150, audio circuit 160 (including speaker 161 and microphone 162), processor 170, external interface 180 and power supply 190. One skilled in the art can appreciate that FIG. 1 is just an example of an intelligent terminal or multifunctional device and is not a limitation of the intelligent terminal or multifunctional device. The smart terminal or multifunctional device may include more or fewer components than those shown in the drawing, or may combine some components or include different components. For example, an intelligent terminal or multifunctional device includes at least a memory 120, a processor 170, and a camera 150.

Камера 150 выполнена с возможностью захватывать изображения или видео, и может быть использована в соответствии с инструкцией прикладной программы для реализации функции фотографирования или функции съемки видео. Камера может включать в себя такие компоненты, как линза, формирующая изображение, световой фильтр и датчик изображения. Световые лучи, испускаемые или отраженные объектом, поступают в линзу, формирующую изображение, проходят через световой фильтр и, наконец, сходятся на датчике изображения. Линза, формирующая изображение, в основном выполнена с возможностью обеспечивать сходимость в изображении света, испускаемого или отраженного всеми объектами (которые также могут быть упомянуты как фотографируемый сценарий, фотографируемые объекты, целевой сценарий или целевые объекты, и также может упоминаться, как сценарий изображения, которое пользователь фотографирует) в углу обзора фотографирования. Световой фильтр, в основном, выполнен с возможностью фильтрации избыточной световой волны (например, световая волна, отличная от видимого света, например, инфракрасного света) в световых лучах. Датчик изображения, в основном, выполнен с возможностью: выполнять оптико-электрическое преобразование принятого оптического сигнала, преобразование оптического сигнала в электрический сигнал и подавать электрический сигнал в процессор 170 для последующей обработки. Камера может быть расположена во фронтальной части оконечного устройства или может быть расположена на задней панели оконечного устройства. Конкретное количество и специфическое расположение камер может быть гибко определено на основании требования конструктора или поставщика. Это не ограничено в настоящем изобретении.The camera 150 is configured to capture images or video, and can be used according to the instruction of an application program to realize a photographing function or a video capturing function. The camera may include components such as an imaging lens, a light filter, and an image sensor. Light rays emitted or reflected by an object enter the imaging lens, pass through a light filter, and finally converge on the image sensor. The imaging lens is generally configured to ensure convergence in the image of light emitted or reflected by all objects (which may also be referred to as the scene being photographed, the objects being photographed, the target scenario or targets, and may also be referred to as the image scenario that the user is taking pictures) in the viewing angle of taking pictures. The light filter is generally configured to filter out an excess light wave (eg, a light wave other than visible light, such as infrared light) in the light beams. The image sensor is mainly configured to: perform opto-electrical conversion of the received optical signal, convert the optical signal into an electrical signal, and supply the electrical signal to the processor 170 for further processing. The camera may be located on the front of the terminal or may be located on the back of the terminal. The specific number and specific arrangement of chambers can be flexibly determined based on the requirement of the designer or supplier. This is not limited in the present invention.

Входной блок 130 может быть выполнен с возможностью принимать входную цифровую или символьную информацию и генерировать входной сигнал управления, относящийся к установкам пользователя и функциям управления многофункционального устройства. В частности, входной блок 130 может включать в себя сенсорный экран 131 и/или другое устройство 132 ввода. Сенсорный экран 131 может воспринимать операцию касания (например, операцию, выполняемую пользователем на сенсорном экране или рядом с сенсорным экраном, используя любой подходящий предмет, например, палец, соединение или стилус) пользователя на или рядом с сенсорным экраном 131 и управлять соответствующими подключенными устройствами на основании заданной программы. Сенсорный экран может обнаружить сенсорное действие пользователя на сенсорном экране, преобразуя действие касания в сенсорный сигнал, отправлять сенсорный сигнал в процессор 170 и может принимать и выполнить команду, отправленную процессором 170. Сенсорный сигнал включает в себя, по меньшей мере, контактную координатную информацию. Сенсорный экран 131 может обеспечить интерфейс ввода и выходной интерфейс между оконечным устройством 100 и пользователем. Дополнительно, сенсорный экран может быть реализован в различных типах, таких как резистивный тип, емкостный тип, инфракрасный тип и тип поверхностной акустической волны. В дополнение к сенсорному экрану 131, входной блок 130 может дополнительно включать в себя другое устройство ввода. В частности, другое устройство 132 ввода может включать в себя, но не ограничивается, одну или несколько физических клавиатур, функциональную клавишу (например, клавиша управления громкостью или клавиша 133 включения/выключения), трекбол, мышь, джойстик и тому подобное.Input block 130 may be configured to receive input digital or character information and generate a control input related to user settings and control functions of the multifunction device. In particular, the input block 130 may include a touch screen 131 and/or other input device 132. The touch screen 131 can sense a touch operation (e.g., an operation performed by a user on or near the touch screen using any suitable object, such as a finger, connection, or stylus) of the user on or near the touch screen 131 and control the corresponding connected devices on based on the given program. The touch screen may detect a user's touch action on the touch screen, convert the touch action into a touch signal, send the touch signal to processor 170, and may receive and execute a command sent by processor 170. The touch signal includes at least contact coordinate information. The touch screen 131 may provide an input interface and an output interface between the terminal device 100 and the user. Further, the touch screen may be implemented in various types such as resistive type, capacitive type, infrared type, and surface acoustic wave type. In addition to the touch screen 131, the input unit 130 may further include another input device. In particular, other input device 132 may include, but is not limited to, one or more physical keyboards, a function key (eg, a volume control key or an on/off key 133), a trackball, a mouse, a joystick, and the like.

Блок 140 отображения может быть выполнен с возможностью отображать информацию, введенную пользователем или информацию, предоставленную для пользователя, различные меню оконечного устройства 100, интерфейс взаимодействия, файл и/или воспроизведение любого мультимедийного файла. В этом варианте осуществления настоящего описания блок отображения дополнительно выполнен с возможностью отображать изображение/видео, полученное оконечным устройством с помощью камеры 150. Изображение/видео может включать в себя изображение/видео для предварительного просмотра в некоторых режимах фотографирования, фотографированное начальное изображение/видео и целевое изображение/видео на котором выполняется конкретный алгоритм обработки после выполнения фотографирования.The display unit 140 may be configured to display information entered by the user or information provided to the user, various menus of the terminal device 100, an interaction interface, a file, and/or playback of any media file. In this embodiment of the present description, the display unit is further configured to display an image/video captured by the terminal using the camera 150. The image/video may include a preview image/video in some photographic modes, a photographed start image/video, and a target image/video. image/video on which a specific processing algorithm is performed after photographing.

Кроме того, сенсорное экран 131 может покрывать панель 141 дисплея. После обнаружения операции касания на или рядом с сенсорным экраном 131, сенсорный экран 131 передает в процессор 170 данные операции касания для определения типа сенсорного события. Затем процессор 170 обеспечивает соответствующий визуальный вывод на панели 141 дисплея на основании типа сенсорного события. В этом варианте осуществления сенсорный экран и блок отображения могут быть интегрированы в один компонент для реализации функций ввода, вывода и отображения оконечного устройства 100. Для простоты описания в этом варианте осуществления настоящего описания экран сенсорного дисплея представляет собой комбинацию сенсорного экрана и блока отображения. В некоторых вариантах осуществления сенсорный экран и блок отображения могут быть альтернативно использованы в качестве двух независимых компонентов.In addition, the touch screen 131 may cover the display panel 141 . Upon detecting a touch operation on or near the touch screen 131, the touch screen 131 sends the touch operation data to the processor 170 to determine the type of touch event. The processor 170 then provides the appropriate visual output on the display panel 141 based on the type of touch event. In this embodiment, the touch screen and the display unit can be integrated into one component to implement the input, output, and display functions of the terminal device 100. For ease of description, in this embodiment of the present description, the touch display screen is a combination of the touch screen and the display unit. In some embodiments, the touch screen and the display unit may alternatively be used as two independent components.

Память 120 может быть выполнена с возможностью хранить инструкцию и данные. Память 120, в основном, может включать в себя область хранения инструкции и область хранения данных. Область хранения данных может хранить такие данные, как мультимедийный файл и текст. Область хранения инструкции может хранить такие программные блоки, как операционная система, приложение и инструкция, требуемая, по меньшей мере, одной функцией, их подмножество или его расширение. Память 120 может дополнительно включать в себя постоянную память произвольного доступа и предоставить процессору 170 функции, включающие в себя управление аппаратным обеспечением, программным обеспечением и ресурсами данных в вычислительном устройстве обработки, и поддерживающие управление программным обеспечением и приложением. Память 120 дополнительно выполнена с возможностью хранить мультимедийный файл и хранить программу выполнения и приложение.Memory 120 may be configured to store instruction and data. The memory 120 may generally include an instruction storage area and a data storage area. The data storage area can store data such as media file and text. The instruction storage area may store program units such as an operating system, an application, and an instruction required by at least one function, a subset thereof, or an extension thereof. Memory 120 may further include non-volatile random access memory and provide processor 170 with functions including managing hardware, software, and data resources in the computing processing device and supporting software and application management. The memory 120 is further configured to store the media file and store the execution program and the application.

Процессор 170 представляет собой центр управления оконечным устройством 100 и подключен к различным частям всего оконечного устройства через различные интерфейсы и линии связи. Процессор 170 выполняет различные функции оконечного устройства 100 и обрабатывают данные посредством выполнения инструкции, хранящиеся в памяти 120, и вызывает данные, хранящиеся в памяти 120, для выполнения общего управления оконечного устройства. В качестве варианта, процессор 170 может включать в себя одно или несколько блоков обработки. Предпочтительно, процессор 170 может быть интегрирован с прикладным процессором и модемным процессором. Прикладной процессор, в основном, обрабатывает операционную систему, пользовательский интерфейс, прикладную программу и тому подобное. Модемный процессор, в основном, обрабатывает данные беспроводной связи. Очевидно, что модемный процессор может альтернативно не быть интегрирован в процессор 170. В некоторых вариантах осуществления процессор и память могут альтернативно быть реализованы на одной микросхеме. В некоторых вариантах осуществления процессор и память могут быть соответственно реализованы на независимых микросхемах. Процессор 170 может быть дополнительно выполнен с возможностью: генерировать соответствующий управляющий сигнал управления, отправлять управляющий сигнал в соответствующий компонент в вычислительном устройстве обработки и считывать и обрабатывать данные в программном обеспечении, в частности, считывать и обрабатывать данные и программу в памяти 120, так что функциональные модули в процессоре 170 выполняют соответствующие функции для управления соответствующими компонентами для выполнения действий, как требуется инструкциями.The processor 170 is the control center of the terminal device 100 and is connected to various parts of the entire terminal device through various interfaces and communication lines. The processor 170 performs various functions of the terminal device 100 and processes data by executing an instruction stored in the memory 120 and calls the data stored in the memory 120 to perform general control of the terminal device. Alternatively, processor 170 may include one or more processing units. Preferably, processor 170 may be integrated with an application processor and a modem processor. The application processor mainly processes an operating system, a user interface, an application program, and the like. The modem processor primarily handles wireless communication data. Obviously, the modem processor may alternatively not be integrated into the processor 170. In some embodiments, the processor and memory may alternatively be implemented on the same chip. In some embodiments, the processor and memory may respectively be implemented on independent chips. Processor 170 may be further configured to: generate an appropriate control control signal, send a control signal to an appropriate component in the computing processing device, and read and process data in software, in particular, read and process data and program in memory 120 so that functional modules in processor 170 perform respective functions to control respective components to perform actions as required by the instructions.

Радиочастотный блок 110 может быть выполнен с возможностью принимать и отправлять информацию или принимать и отправить сигнал в процессе вызова. Например, радиочастотный блок 110 принимает информацию нисходящей линии связи из базовой станции, затем доставляет информацию нисходящей линии связи в процессор 170 для обработки и передает связанные данные восходящей линии связи в базовую станцию. Как правило, радиочастотный блок включает в себя, но не ограничивается, антенну, по меньшей мере, один усилитель, приемопередатчик, соединитель, малошумящий усилитель (Low Noise Amplifier, LNA), дуплексер и тому подобное. Дополнительно, радиочастотный блок 110 может дополнительно взаимодействовать с сетевым устройством и другим устройством через беспроводную связь. Беспроводная связь может использовать любой стандарт связи или протокол, включающий в себя, но не ограничиваясь, глобальную систему мобильной связи (Global System for Mobile Communications, GSM), общую услугу пакетной радиопередачи (General Packet Radio Service, GPRS), множественный доступ с кодовым разделением (Code Division Multiple Access, CDMA), широкополосный множественный доступ с кодовым разделением (Wideband Code Division Multiple Access, WCDMA), «Долгосрочное развитие» (Long Term Evolution, LTE), электронная почта, служба короткого сообщения (Short Message Service, SMS) и тому подобное.RF unit 110 may be configured to receive and send information or receive and send a signal during a call. For example, the RF unit 110 receives the downlink information from the base station, then delivers the downlink information to the processor 170 for processing, and transmits the associated uplink data to the base station. Typically, an RF unit includes, but is not limited to, an antenna, at least one amplifier, a transceiver, a coupler, a Low Noise Amplifier (LNA), a duplexer, and the like. Additionally, the RF unit 110 may further communicate with the network device and the other device via wireless communication. Wireless communication may use any communication standard or protocol including, but not limited to, Global System for Mobile Communications (GSM), General Packet Radio Service (GPRS), Code Division Multiple Access (Code Division Multiple Access, CDMA), Wideband Code Division Multiple Access (WCDMA), Long Term Evolution (LTE), Email, Short Message Service (SMS) etc.

Аудиосхема 160, динамик 161 и микрофон 162 могут обеспечить аудио интерфейс между пользователем и оконечным устройством 100. Аудиосхема 160 может передавать в динамик 161 электрический сигнал, преобразованный из принятых аудиоданных, и динамик 161 преобразует электрический сигнал в звуковой сигнал для вывода. Дополнительно, микрофон 162 выполнен с возможностью сбора звукового сигнала и может дополнительно преобразовать собранный звуковой сигнал в электрический сигнал. Аудиосхема 160 принимает электрический сигнал, преобразует электрический сигнал в аудиоданные, выводит аудиоданные в процессор 170 для обработки и затем передает обработанные аудиоданные, например, в другое оконечное устройство через радиочастотный блок 110 или выводит обработанные аудиоданные в память 120 для дополнительной обработки. Аудиосхема также может включать в себя гнездо 163 гарнитуры, выполненное с возможностью обеспечивать интерфейс подключения между аудиосхемой и гарнитурой. Конкретное количество и конкретные компоновки динамиков и микрофонов могут быть гибко определены на основании требования конструктора или поставщика. Это не ограничено в настоящем изобретении.Audio circuit 160, speaker 161, and microphone 162 may provide an audio interface between the user and terminal device 100. Audio circuit 160 may provide speaker 161 with an electrical signal converted from the received audio data, and speaker 161 converts the electrical signal into an audio signal for output. Additionally, the microphone 162 is configured to collect an audio signal and can further convert the collected audio signal into an electrical signal. Audio circuit 160 receives an electrical signal, converts the electrical signal into audio data, outputs the audio data to processor 170 for processing, and then transmits the processed audio data to, for example, another terminal via RF unit 110, or outputs the processed audio data to memory 120 for further processing. The audio circuitry may also include a headset jack 163 configured to provide a connection interface between the audio circuitry and a headset. The specific number and specific arrangements of speakers and microphones can be flexibly determined based on the requirement of the designer or supplier. This is not limited in the present invention.

Оконечное устройство 100 дополнительно включает в себя источник питания 190 (например, аккумуляторную батарею), которая обеспечивает питание каждого компонента. Предпочтительно источник питания может быть логически подключен к процессору 170 с использованием системы управления питанием, для реализации таких функций, как зарядка, разгрузка и управление потреблением энергии, используя систему управления питанием.Terminal 100 further includes a power source 190 (eg, a battery) that provides power to each component. Preferably, a power supply may be logically connected to the processor 170 using a power management system to perform functions such as charging, unloading, and power management using the power management system.

Оконечное устройство 100 дополнительно включает в себя внешний интерфейс 180. Внешний интерфейс может представлять собой стандартный порт MICRO-USB или может быть многоштыревым разъемом. Внешний интерфейс может быть выполнен с возможностью подключения оконечного устройства 100 к другому устройству для связи или может быть выполнен с возможностью подключения к зарядному устройству для зарядки оконечного устройства 100.Terminal device 100 further includes an external interface 180. The external interface may be a standard MICRO-USB port or may be a multi-pin connector. The external interface may be configured to connect terminal device 100 to another device for communication, or may be configured to connect to a charger to charge terminal device 100.

Хотя не показано, оконечное устройство 100 может дополнительно включать в себя вспышку, модуль беспроводная достоверность (wireless fidelity, Wi-Fi), модуль Bluetooth, датчики с различными функциями и тому подобное. Детали не описаны. Некоторые или все способы, описанные ниже, могут быть применены к оконечному устройству, показанному на фиг. 1.Although not shown, terminal device 100 may further include a flash, a wireless fidelity (Wi-Fi) module, a Bluetooth module, sensors with various functions, and the like. Details are not described. Some or all of the methods described below may be applied to the terminal shown in FIG. 1.

Настоящее описание может быть применено к оконечному устройству, имеющее функцию фотографирования (включающую в себя, по меньшей мере, одну из функцию фотографирования или функцию съемки видео), и устройство может быть реализовано в форме интеллектуального оконечного устройства, например, устройство, на котором установлена камера, например, мобильный телефон, планшет, DV, видеокамера, камера, портативный компьютер, ноутбук, интеллектуальный робот, телевизор, система защиты безопасности или дрон. В частности, функциональные модули по настоящему изобретению могут быть развернуты на DSP микросхеме соответствующего устройства и могут быть специально прикладной программой или программным обеспечением в DSP микросхеме. В настоящем изобретении функциональные модули развернуты на оконечном устройстве для обеспечения функции обработки изображений с помощью установки программного обеспечения или обновления и использования аппаратного обеспечения.The present description may be applied to a terminal device having a photographing function (including at least one of a photographing function or a video capturing function), and the device may be implemented in the form of an intelligent terminal device, such as a device on which a camera is installed. such as mobile phone, tablet, DV, camcorder, camera, laptop, laptop, smart robot, TV, security system or drone. In particular, the functional modules of the present invention may be deployed on a DSP chip of an appropriate device, and may be specifically an application program or software on a DSP chip. In the present invention, functional modules are deployed on a terminal device to provide an image processing function by installing software or updating and using hardware.

Настоящее описание в основном применяется к сценарию, в котором изображение или видео сфотографируются с помощью оконечного устройства. Пользователи предъявляют все более высокие требования к съемке видео и получать специальный эффект обработки видео во время фотографирования для передачи эмоций при съемке видео «Что вы видите, это то, что вы получаете». Согласно настоящему изобретению может быть выполнена сегментация основного объекта на изображении или видео, и цвета различных областей могут быть регулированы для реализации специального эффекта изображения в реальном времени.The present description mainly applies to a scenario in which an image or video is taken by a terminal device. Users are increasingly demanding video shooting and get a special video processing effect while taking photos to convey emotions when shooting video "What you see is what you get." According to the present invention, segmentation of the main object in an image or video can be performed, and the colors of various areas can be adjusted to realize a special real-time image effect.

Далее настоящее описание будет описано с помощью примеров.Hereinafter, the present description will be described by way of examples.

Пример 1Example 1

Подробное описание приведено со ссылкой на фиг. 2. Фиг. 2 является блок-схемой последовательности операций способа обработки изображения в соответствии с вариантом осуществления настоящего описания. Способ выполняется в процессе фотографирования изображения. В конкретном процессе реализации оконечное устройство может настроить режим фотографирования. В режиме фотографирования способ может включать в себя следующие этапы.A detailed description is given with reference to FIG. 2. FIG. 2 is a flowchart of an image processing method according to an embodiment of the present disclosure. The method is performed in the process of photographing the image. In a specific implementation process, the terminal device may configure the photographing mode. In the photographing mode, the method may include the following steps.

Этап 21: получить (которое также может быть понято как фотография или захват) изображение.Step 21: Acquire (which can also be understood as a photograph or capture) an image.

В частности, когда пользователь фотографирует изображение, на экране также отображается соответствующий поток предварительного просмотра. Изображение предварительного просмотра, как правило, может относиться к одному изображению в потоке предварительного просмотра. При нажатии затвора пользователь получает сфотографированное изображение. Размер сфотографированного изображения, например, равен, но не ограничен, 1920 x 1080.In particular, when a user takes a photo of an image, the corresponding preview stream is also displayed on the screen. The preview image can typically refer to one image in the preview stream. When the shutter is pressed, the user receives the photographed image. The size of the photographed image, for example, is equal to, but not limited to, 1920 x 1080.

Этап 22: определить целевую область и область фона на изображении на основании контента (который может быть рассмотрен, как семантика сцены) в сфотографированном изображении. Более конкретно, целевая область и область фона могут быть определены на изображении на основании категории объекта на изображении. Область фона представляет собой область изображения, отличную от целевой области. Целевая область соответствует целевому объекту в изображении, а именно, объект, который пользователь выделяет в изображении, и может быть связан с интерактивным выбором пользователя или настройки системы. В частности, этап 22 может включать в себя S221 до S224.Step 22: determine the target area and the background area in the image based on the content (which can be considered as scene semantics) in the photographed image. More specifically, the target area and the background area may be determined in the image based on the category of the object in the image. The background area is an area of the image other than the target area. The target area corresponds to a target object in the image, namely, an object that the user highlights in the image, and may be associated with an interactive user selection or system setting. In particular, step 22 may include S221 to S224.

S221: предварительно обработать изображение.S221: pre-process the image.

Cфотографированное изображение оригинального размера подвергается понижающей дискретизации и преобразуется в изображение меньшего разрешения. При осуществлении вычислений объем вычислений может быть уменьшен на основании небольшого изображения. В конкретном процессе реализации исходный размер (например, m0 x n0) может быть подвержен понижающей дискретизации до размера m x n. Меньшие значения m и n указывают меньшее количество последующих вычислений. Однако, если значения m и n являются чрезмерно небольшими, разрешение пикселей впоследствии уменьшается. Эксперименты показали, что соответствующие диапазоны значения m и n представляют собой [128, 512] и, более конкретно [256, 300]. Дополнительно, m и n могут быть равными или неравными. Например, изображение 1920x1080 может быть подвержено понижающей дискретизации до 256х256.The original size photographed image is downsampled and converted to a lower resolution image. When performing calculations, the calculation amount can be reduced based on the small image. In a specific implementation process, the original size (eg, m0 x n0) may be downsampled to size m x n. Smaller values of m and n indicate fewer subsequent calculations. However, if the values of m and n are excessively small, the pixel resolution is subsequently reduced. Experiments have shown that the corresponding ranges for m and n are [128, 512] and more specifically [256, 300]. Additionally, m and n may be equal or unequal. For example, a 1920x1080 image may be downsampled to 256x256.

S222: ввести изображение mxn изображение с понижающей дискретизацией в нейронную сеть для выполнения семантической сегментации для определения маски изображения (Mask).S222: input the image mxn downsampling image into the neural network to perform semantic segmentation to determine the image mask (Mask).

Семантическая сегментация относится к сегментации уровня пикселя, выполненной на объекте в изображении, и категория объекта отмечена для каждого пикселя. Область без категории объекта отмечена как «фон».Semantic segmentation refers to pixel-level segmentation performed on an object in an image, and the category of the object is marked for each pixel. An area without an object category is marked as "background".

В частности, семантическая сегментация может использовать алгоритм глубокого обучения на основании CNN (сверточная нейронная сеть). Сетевая модель на основании CNN специально описывается следующим образом:In particular, semantic segmentation can use a deep learning algorithm based on CNN (Convolutional Neural Network). The network model based on CNN is specifically described as follows:

(1) на изображении m x n выполняется понижающая дискретизация и свертка для получения изображения m1 x n1, изображения m2 x n2, … и изображения mz x nz, и послойно извлекаются семантические признаки изображения для получения m1 x n1 карты признака, m2 x n2 карты признака, … и mz x nz карты признака, а именно, многомасштабные семантические признаки, где m1, m2, … и mz находятся во множественных отношениях и меньше чем m, и n1, n2, …, nZ находятся во множественных отношениях и меньше, чем n. Например, m=2m1=4m2=, …, =2zxmz, и n=2n1=4n2=, …, =2zxnz. Значение z и множественные отношения могут быть определены на основании производительности алгоритма и требования к структуре.(1) downsampling and convolution is performed on the mxn image to obtain the m1 x n1 image, the m2 x n2 image, ... and the mz x nz image, and the semantic features of the image are layer-by-layer extracted to obtain the m1 x n1 feature map, m2 x n2 feature map, … and mz x nz feature maps, namely, multi-scale semantic features, where m1, m2, … and mz are in multiple relationships and less than m, and n1, n2, …, nZ are in multiple relationships and less than n. For example, m=2m1=4m2=, …, =2 z xmz, and n=2n1=4n2=, …, =2 z xnz. The z value and multiple relationships can be determined based on the performance of the algorithm and the structure requirement.

(2) на m1xn1 карте признака, m2xn2 карте признака, … и mzxnz карте признака выполняется повышающая дискретизация и свертка для объединения многомасштабных семантических признаков.(2) on m1xn1 feature map, m2xn2 feature map, ... and mzxnz feature map, upsampling and convolution are performed to combine multi-scale semantic features.

Упомянутая выше свертка, понижающая дискретизация и повышающая дискретизация могут использовать технологии, хорошо известные в данной области техники, и не ограничены и перечислены в настоящем изобретении.The above-mentioned convolution, downsampling and upsampling may use techniques well known in the art and are not limited and listed in the present invention.

(3) определить категорию объекта, которая должна быть идентифицирована на изображении, вычислить оценку каждой категории объектов на каждом пикселе, категория объекта (которая может быть категорией для краткости) с наивысшей оценкой используется в качестве результата классификации пикселя, и окончательно получить граф маски, а именно, маску.(3) determine the object category to be identified in the image, calculate the score of each object category at each pixel, the object category (which can be a category for short) with the highest score is used as the classification result of the pixel, and finally obtain the mask graph, and Namely, the mask.

Например, если оконечное устройство может идентифицировать категории k объектов (например, по меньшей мере, один из человек, животное, растение, другой предустановленный объект или фон), то могут быть получены k изображения. Каждый пиксель в изображении получает оценку, принадлежащую категории объекта. Более высокая оценка указывает на более высокую вероятность того, что пиксель принадлежит категории объекта.For example, if the terminal can identify categories of k objects (eg, at least one of a person, animal, plant, other preset object, or background), then k images can be obtained. Each pixel in the image receives a score that belongs to the category of the object. A higher score indicates a higher probability that the pixel belongs to the feature category.

После определения категории объекта любого пикселя, пиксель может быть идентифицирован. Например, 1 используется для обозначения человека, 2 используется для обозначения транспортного средства, 3 используется для обозначения животного, 4 используется для обозначения растения и 0 используется для обозначения фона. Это просто пример, и не представляет никаких ограничений. Пользователь может произвольно установить количество категорий, категории и способ идентификации на основании требований. На фиг. 3 показан конкретный пример. Все области пикселей, в которых находится транспортное средство, классифицируется как транспортное средство нейронной сетью, и идентифицируется как 1. Все области пикселей в окружающей фоновой части классифицируются как фон нейронной сетью и идентифицированы как 0. Для другого примера, в маске, выводимой нейронной сетью, области объектов одной и той же категории имеют одинаковое обозначение. Например, обозначение фона равно 0, обозначение кота 1 и обозначение скейтборда равно 2. В маске, показанной на фиг. 4, может дополнительно использоваться тот же цвет для представления обозначений одинаковой категории объекта. Например, человек, лошадь и фон соответственно идентифицируются с помощью разных цветов.After determining the object category of any pixel, the pixel can be identified. For example, 1 is used to represent a person, 2 is used to represent a vehicle, 3 is used to represent an animal, 4 is used to represent a plant, and 0 is used to represent a background. This is just an example and does not represent any limitation. The user can arbitrarily set the number of categories, categories, and identification method based on requirements. In FIG. 3 shows a specific example. All pixel areas in which the vehicle is located are classified as a vehicle by the neural network and identified as 1. All pixel areas in the surrounding background are classified as background by the neural network and identified as 0. For another example, in the mask output by the neural network, areas of objects of the same category have the same designation. For example, the background label is 0, the cat label is 1, and the skateboard label is 2. In the mask shown in FIG. 4, the same color may additionally be used to represent designations of the same object category. For example, a person, a horse, and a background are respectively identified with different colors.

Маска является результатом выполнения алгоритма семантической сегментации. На изображении все пиксели, принадлежащие к категории объектов, обозначаются как цветом или идентификатором, так и фон также обозначается цветом или идентификатором. Изображение, полученное после обработки, относится к маске, так что результат сегментации отображается интуитивно.The mask is the result of running the semantic segmentation algorithm. In an image, all pixels that belong to a category of objects are denoted by either a color or ID, and the background is also denoted by a color or ID. The image obtained after processing is referred to as a mask, so that the segmentation result is displayed intuitively.

Содержание изображения может включать в себя основной объект и фон. Для простоты описания, соответственно, маска изображения может включать в себя маску основного объекта и маску фона. Маска основного объекта может соответствовать основному объекту, идентифицированному с использованием способа сегментации, включающий в себя предмет, который пользователь выделяет в изображении или в фотографированном изображении, например, человека, животное, растение или конкретный объект (чашка, стол, одежда, украшение …). Маска фона соответствует другой области, которая находится в изображении, и не идентифицируется как маска основного объекта. Маска изображения соответствует всему изображению. Возможность идентификации маски основного объекта связана с функционированием нейронной сети. Например, некоторые нейронные сети могут идентифицировать только человека и фон. Некоторые нейронные сети могут идентифицировать человека, транспортное средство и фон. Некоторые нейронные сети могут идентифицировать только транспортное средство и фон. Некоторые нейронные сети могут идентифицировать человека, животное и фон. Некоторые нейронные сети могут идентифицировать только животное и фон. Некоторые нейронные сети могут идентифицировать животное, растение, фон …The content of an image may include a main subject and a background. For ease of description, respectively, the image mask may include a main object mask and a background mask. The main object mask may correspond to the main object identified using the segmentation method, including an object that the user highlights in the image or in the photographed image, for example, a person, animal, plant, or a specific object (cup, table, clothes, decoration ...). The background mask corresponds to another area that is in the image and is not identified as the mask of the main object. The image mask matches the entire image. The ability to identify the mask of the main object is related to the functioning of the neural network. For example, some neural networks can only identify a person and a background. Some neural networks can identify a person, a vehicle, and a background. Some neural networks can only identify the vehicle and the background. Some neural networks can identify a person, an animal, and a background. Some neural networks can only identify the animal and the background. Some neural networks can identify an animal, a plant, a background...

Следует понимать, что изображение может в качестве альтернативы включать в себя только основной объект или может включать в себя только фоном. Когда изображение включает в себя только основной объект, основной объект также может быть идентифицирован как фон. Эти установки основного объекта и фона на изображении могут быть гибко спроектированы и определены конструктором.It should be understood that the image may alternatively include only the main subject, or may include only the background. When the image only includes the main object, the main object can also be identified as the background. These settings for the main subject and background in the image can be flexibly designed and defined by the designer.

Большое количество данных обучения сегментации необходимо использовать для обучения глубокой нейронной сети, и набор данных обучения включает в себя большое количество изображений, включающие в себя категории объектов сегментации, входные изображения и графы маски. Набор данных обучения может охватывать различные типичные сценарии приложений объекта сегментации и имеет разнообразные данные. Входные изображения и графы маски в наборе данных обучения используются для обучения сети для получения отличного сетевого параметра, другими словами, для получения производительности сегментации, удовлетворяющая пользователя. Полученный сетевой параметр используется в качестве окончательного использованного параметра вычисления нейронной сети.A large amount of segmentation training data needs to be used to train a deep neural network, and the training data set includes a large number of images, including segmentation object categories, input images, and mask graphs. The training dataset can cover various typical segmentation object application scenarios and has a variety of data. The input images and mask graphs in the training dataset are used to train the network to obtain an excellent network parameter, in other words, to obtain segmentation performance that satisfies the user. The resulting network parameter is used as the final used neural network calculation parameter.

S223: определить целевую маску на основании масок.S223: determine the target mask based on the masks.

Для различных изображений и нейронных сетей с различными возможностями могут быть получены различные маски. Оконечное устройство может дополнительно определить маску, которая находится в масках, и которая соответствует объекту, который необходимо выделить и заметно отобразить. То есть, должна быть определена целевая маска. Определение целевой маски включает в себя, но не ограничивается, следующие несколько способов.Different masks can be obtained for different images and neural networks with different capabilities. The terminal may further define a mask, which is within the masks, and which corresponds to the object to be highlighted and prominently displayed. That is, the target mask must be defined. Determining the target mask includes, but is not limited to, the following several methods.

Способ 1: если маска включает в себя только одну маску основного объекта и одну маску фона, то маска основного объекта определяется как целевая маска.Method 1: If the mask only includes one main object mask and one background mask, then the main object mask is defined as the target mask.

В частности, предполагается, что для получения k масок на изображении выполняется сегментация. K маски соответствуют различным категориям объекта. Если k=2 и две маски включают в себя одну маску объекта и одну маску фона, то область изображения, соответствующая маске объекта, определяется как целевая область, и область, соответствующая маске фона, определяется как область фона.In particular, it is assumed that segmentation is performed to obtain k masks on the image. K masks correspond to different categories of the object. If k=2 and the two masks include one object mask and one background mask, then the image area corresponding to the object mask is defined as the target area, and the area corresponding to the background mask is defined as the background area.

Как показано на фиг. 5, маски изображения, выведенные нейронной сетью, включают в себя только маску A1 основного объекта и маску фона. В этом случае A1 может быть определена как целевая маска.As shown in FIG. 5, the image masks output by the neural network only include the main object mask A1 and the background mask. In this case, A1 can be defined as the target mask.

Способ 2: когда маска включает в себя множество масок основного объекта и маску фона, если количество пикселей, включенных в любую маску основного объекта, превышает конкретное пороговое значение, то маска основного объекта определяется как целевой основной объект; или, если количество пикселей, включенных в любую маску основного объекта, меньше конкретного порогового значения, то маска основного объекта повторно обозначается и также обозначается как фон. Количество пикселей, включенных в маску основного объекта, может быть количеством пикселей, включенных в область отдельного предмета на изображении.Method 2: when the mask includes a plurality of main object masks and a background mask, if the number of pixels included in any main object mask exceeds a specific threshold value, then the main object mask is determined as the target main object; or, if the number of pixels included in any main object mask is less than a specific threshold value, then the main object mask is redesignated and also designated as background. The number of pixels included in the main object mask may be the number of pixels included in the area of a single object in the image.

В частности, предполагается, что для получения k масок на изображении выполняется семантическая сегментация. k маски соответствуют различным категориям объекта. Если k больше 2, и количество пикселей, включенных в k0 маски в k масках, превышает заданное пороговое значение, то область изображения, соответствующая k0 маскам объекта, определяется как целевая область, и область изображения, соответствующая оставшейся маске, определяется как область фона, где k0 является неотрицательным целым числом меньше k.In particular, it is assumed that semantic segmentation is performed to obtain k masks on the image. k masks correspond to different categories of the object. If k is greater than 2, and the number of pixels included in the k0 masks in the k masks exceeds a predetermined threshold value, then the image area corresponding to the k0 object masks is determined as the target area, and the image area corresponding to the remaining mask is determined as the background area, where k0 is a non-negative integer less than k.

Как показано на фиг. 6, маски вывода изображения нейронной сетью включают в себя маску A1 основного объекта, маску A2 основного объекта и маску фона. Если количество пикселей, включенных в A1, больше заданного порогового значения и количество пикселей, включенных в A2, не превышает заданное пороговое значение, A1 определяется как целевая маска и маска A2 основного объекта повторно обозначается как маска фона. На фиг. 5 показана повторно обозначенная маска. Если количество пикселей, включенных в A1, больше заданного порогового значения, и количество пикселей, входящих в A2, также больше, чем заданного пороговое значение, как A1, так и A2 определяются как целевая маска. Если ни количество пикселей, включенных в A1, ни количество пикселей, входящих в A2, не превышает заданное пороговое значение, A1 и A2 повторно идентифицируются в качестве масок фона. Другими словами, изображение не включает в себя маску основного объекта.As shown in FIG. 6, the neural network image output masks include a main object mask A1, a main object mask A2, and a background mask. If the number of pixels included in A1 is greater than the predetermined threshold and the number of pixels included in A2 is less than the predetermined threshold, A1 is determined as the target mask, and the main object mask A2 is redesignated as the background mask. In FIG. 5 shows the redesignated mask. If the number of pixels included in A1 is greater than the predetermined threshold, and the number of pixels included in A2 is also greater than the predetermined threshold, both A1 and A2 are determined as the target mask. If neither the number of pixels included in A1 nor the number of pixels included in A2 exceeds the predetermined threshold value, A1 and A2 are re-identified as background masks. In other words, the image does not include the mask of the main object.

Следует понимать, что в конкретном процессе реализации A1 и A2 могут иметь одну категорию объекта или разные категории объектов.It should be understood that in a particular implementation process, A1 and A2 may have the same object category or different object categories.

Способ 3: когда маска включает в себя множество масок основного объекта и маску фона, маска основного объекта, включающая в себя наибольшее количество пикселей, выбирается в качестве целевой маски, и другие маски основного объекта также повторно обозначены как маска фона.Method 3: When the mask includes a plurality of main object masks and a background mask, the main object mask including the largest number of pixels is selected as the target mask, and other main object masks are also re-designated as the background mask.

В частности, предполагается, что для получения k масок на изображении выполняется семантическая сегментация. k маски соответствуют различным категориям объекта. Если k больше 2, область изображения, соответствующая маске, которая включает в себя наибольшее количество пикселей, и, то есть, в k масках, определяется как целевая область, и область изображения, соответствующая оставшимся маскам, определяется как область фона.In particular, it is assumed that semantic segmentation is performed to obtain k masks on the image. k masks correspond to different categories of the object. If k is greater than 2, the image area corresponding to the mask that includes the largest number of pixels, and that is, in k masks, is determined as the target area, and the image area corresponding to the remaining masks is determined as the background area.

Как показано на фиг. 6, маски вывода изображения нейронной сети включают в себя маску A1 основного объекта, маску A2 основного объекта и маску фона. A1, которая включает в себя наибольшее количество пикселей, определяется как целевая маска и маска A2 основного объекта повторно обозначается как маска фона. На фиг. 5 показана повторно обозначенная маска.As shown in FIG. 6, the neural network image output masks include a main object mask A1, a main object mask A2, and a background mask. A1, which includes the largest number of pixels, is designated as the target mask, and the main object mask A2 is re-designated as the background mask. In FIG. 5 shows the redesignated mask.

Следует понимать, что в конкретном процессе реализации A1 и A2 могут иметь одну категорию объекта или различные категории объектов.It should be understood that in a particular implementation process, A1 and A2 may have the same object category or different object categories.

Способ 4: когда маска включает в себя множество масок основного объекта и маску фона, и множество масок основного объекта включает в себя множество категорий объектов, целевая маска определяется на основании приоритетов категорий объектов. Например, если приоритет маски человека выше, чем приоритет маски транспортного средства, то маска человека является целевой маской, и маска транспортного средства может быть повторного обозначена в качестве фона. Например, если приоритет маски человека выше, чем приоритет маски животного и является выше, чем приоритет маски растений, и приоритет, установленный системой, является то, что все маски, приоритеты которых выше, чем приоритет маски растений, являются масками основного объекта, то, как маска человека, так и маска животного являются целевыми масками, и маска растений может быть повторного обозначена в качестве фона. Следует понимать, что один или несколько предметов принадлежат к той же маске категории объектов.Method 4: When the mask includes a plurality of main object masks and a background mask, and the plurality of main object masks includes a plurality of object categories, the target mask is determined based on object category priorities. For example, if the priority of the person's mask is higher than the priority of the vehicle's mask, then the person's mask is the target mask, and the vehicle's mask may be redesignated as the background. For example, if the priority of a human mask is higher than the priority of an animal mask and is higher than the priority of a plant mask, and the priority set by the system is that all masks whose priorities are higher than the priority of a plant mask are masks of the main object, then, both the human mask and the animal mask are target masks, and the plant mask can be redesignated as the background. It should be understood that one or more items belong to the same object category mask.

В частности, предполагается, что для получения k масок на изображении выполняется семантическая сегментация. k маски соответствуют различным категориям объекта. Если k больше 2, целевая маска определяется из k масок на основании заданных приоритетов категорий объектов. Область изображения, соответствующая целевой маске, определяется как целевая область, и область изображения, соответствующая оставшимся маскам, определяется как область фона.In particular, it is assumed that semantic segmentation is performed to obtain k masks on the image. k masks correspond to different categories of the object. If k is greater than 2, the target mask is determined from the k masks based on the given object category priorities. The area of the image corresponding to the target mask is defined as the target area, and the area of the image corresponding to the remaining masks is defined as the background area.

Как показано на фиг. 7, маски изображения, выводимого нейронной сетью, включают в себя маску A1 основного объекта, маску B1 основного объекта и маску фона. A1 и B1 имеют разные категории объекта, и приоритет A1 выше, чем приоритет B1. Если система устанавливает, что любая маска основного объекта, приоритет которой выше, чем или равна, что B1, может использоваться в качестве целевой маски, как A1, так и B1 являются целевыми масками. Если система устанавливает, что маска основного объекта, приоритет которой выше, чем B1, может использоваться в качестве целевой маски, A1 определяется как целевая маска, и B1 повторно обозначена как маска фона.As shown in FIG. 7, the masks of the image output by the neural network include a main object mask A1, a main object mask B1, and a background mask. A1 and B1 have different object categories, and A1's priority is higher than B1's. If the system specifies that any base object mask whose priority is higher than or equal to that of B1 can be used as the target mask, both A1 and B1 are target masks. If the system determines that the main object mask whose priority is higher than B1 can be used as the target mask, A1 is determined as the target mask, and B1 is redesignated as the background mask.

Способ 5: если маска включает в себя множество масок основного объекта и маски фона, целевая маска может быть определена в соответствии с операцией выбора пользователем. Входной режим включает в себя, но не ограничен инструкциями выбора, такими как касание экрана и голос. Маска основного объекта, соответствующая предмету, выбранного пользователем, является целевой маской.Method 5: If the mask includes a plurality of main object masks and a background mask, the target mask may be determined according to a user selection operation. The input mode includes, but is not limited to, selection instructions such as screen touch and voice. The main object mask corresponding to the item selected by the user is the target mask.

В частности, предполагается, что для получения k масок на изображении выполняется семантическая сегментация. k маски соответствуют различным категориям объекта. Если k превышает 2, целевая маска определяется из k масок в соответствии с инструкцией выбора пользователя. Область изображения, соответствующая целевой маске, определяется как целевая область, и область изображения, соответствующая оставшимся маскам, определяется как область фона.In particular, it is assumed that semantic segmentation is performed to obtain k masks on the image. k masks correspond to different categories of the object. If k is greater than 2, the target mask is determined from the k masks according to the user's selection instruction. The area of the image corresponding to the target mask is defined as the target area, and the area of the image corresponding to the remaining masks is defined as the background area.

Как показано на фиг.7, маски изображения, выведенные нейронной сетью, включают в себя маску A1 основного объекта, маску B1 основного объекта и маску фона. Если ввод пользователя в процессе фотографирования соответствует A1 на сенсорном экране, то A1 определяется как целевая маска и B1 повторно обозначена как маска фона. Если ввод пользователя в процессе фотографирования соответствует B1 на сенсорном экране, то B1 определяется как целевая маска и A1 повторно обозначается как маска фона.As shown in FIG. 7, the image masks output by the neural network include a main object mask A1, a main object mask B1, and a background mask. If the user's input during photography matches A1 on the touch screen, then A1 is defined as the target mask and B1 is redesignated as the background mask. If the user's input during photography matches B1 on the touch screen, then B1 is defined as the target mask and A1 is redesignated as the background mask.

Способ 6: если маска включает в себя множество масок основных объектов и маски фона, и множество масок основных объектов включает в себя множество категорий объекта, целевая маска может быть определена на основании ввода операции выбора пользователем. Входной режим включает в себя, но не ограничен инструкциями выбора, такими как касание экрана и голос. Все маски основных объектов категории объекта, соответствующие предмету, выбранному пользователем, являются целевыми масками.Method 6: If the mask includes a plurality of main object masks and a background mask, and the plurality of main object masks includes a plurality of object categories, a target mask may be determined based on input of a selection operation by a user. The input mode includes, but is not limited to, selection instructions such as screen touch and voice. All masks of the main objects of the object category corresponding to the subject selected by the user are target masks.

В частности, предполагается, что для получения k масок на изображении выполняется семантическая сегментация. k маски соответствуют различным категориям объекта. Если k превышает 2, целевая маска определяется из k масок в соответствии с инструкцией выбора пользователя. Область изображения, соответствующая целевой маске, определяется как целевая область и область изображения, соответствующая оставшимся маскам, определяется как область фона.In particular, it is assumed that semantic segmentation is performed to obtain k masks on the image. k masks correspond to different categories of the object. If k is greater than 2, the target mask is determined from the k masks according to the user's selection instruction. The area of the image corresponding to the target mask is defined as the target area, and the area of the image corresponding to the remaining masks is defined as the background area.

Как показано на фиг. 8, маски изображения, выводимые нейронной сетью, включают в себя маски A1, A2, B1 и B2 основного объекта и маску фона. A1 и A2 имеют одну и ту же категорию объекта, B1 и B2 имеют одну категорию объекта. Если ввод пользователя в процессе фотографирования соответствует A1 на сенсорном экране, A1 и A2, которые имеют одинаковую категорию объекта, определяются как целевые маски, и B1 и B2 повторно обозначены как маски фона. Если ввод пользователя в процессе фотографирования соответствует B2 на сенсорном экране, B1 и B2 одной и той же категории объекта, определяется как целевые маски и A1 и A2 повторно обозначены как маски фона.As shown in FIG. 8, the image masks output by the neural network include the main object masks A1, A2, B1 and B2 and the background mask. A1 and A2 have the same object category, B1 and B2 have the same object category. If the user's input during photography matches A1 on the touch screen, A1 and A2, which have the same subject category, are defined as target masks, and B1 and B2 are redesignated as background masks. If the user's input during photography matches B2 on the touch screen, B1 and B2 of the same object category are defined as target masks, and A1 and A2 are redesignated as background masks.

Следует понимать, что вышеуказанные конкретные реализации или варианты осуществления являются просто примерами и не должны представлять собой ограничения. Вышеуказанные конкретные реализации или варианты осуществления могут быть свободно объединены без нарушения логики. Следовательно, после выполнения сегментации маски на изображении могут быть получены одна или несколько целевых масок. Эти целевые маски могут иметь одну или несколько категорий объектов, и каждая категория объектов целевых масок может дополнительно включать в себя один или несколько отдельных предметов. Результат относится к правилу, которое устанавливается в оконечном устройстве для определения целевой маски и ввода пользователя. В некоторых сценариях изображение может альтернативно включать в себя только маску фона.It should be understood that the above specific implementations or embodiments are merely examples and should not be limiting. The above specific implementations or embodiments can be freely combined without breaking the logic. Therefore, after performing mask segmentation on an image, one or more target masks can be obtained. These target masks may have one or more object categories, and each target mask object category may further include one or more individual items. The result refers to a rule that is set in the terminal device to determine the target mask and user input. In some scenarios, the image may alternatively include only the background mask.

S224: определить целевую область и область фона в исходном изображении.S224: determine the target area and the background area in the source image.

Из маски осуществляют выборку сфотографированного изображения исходного размера, и целевая маска и маска фона в маске также подвержена повышающей дискретизации. Область, составленная всеми пикселями, которые представляют собой целевую маску после повышающей дискретизации, и которые соответствуют исходному изображению, является целевой областью, и область, составленная всеми пикселями, которые представляют собой маску фона после повышающей дискретизации, и которые соответствуют исходному изображению, является областью фона.The original size photographed image is sampled from the mask, and the target mask and background mask in the mask are also upsampled. The area composed by all pixels which are the upsampled target mask and which correspond to the source image is the target area, and the area composed by all pixels which are the upsampled background mask and which correspond to the source image is the background area .

Этап 23: обработать целевую область и область фона на изображении в разных режимах обработки цвета для получения целевого изображения. Для обработки используются различные режимы обработки цвета, так что цветность целевой области больше, чем цветность области фона или яркость целевой области больше, чем яркость области фона. Другими словами, цветность целевой области в целевом изображении больше, чем цветность области фона в целевом изображении, или яркость целевой области в целевом изображении больше, чем яркость области фона в целевом изображении.Step 23: Process the target area and the background area on the image in different color processing modes to obtain the target image. Various color processing modes are used for processing, so that the chroma of the target area is greater than the chroma of the background region, or the luminance of the target region is greater than the luminance of the background region. In other words, the chroma of the target area in the target image is greater than the chroma of the background area in the target image, or the luminance of the target area in the target image is greater than the luminance of the background region in the target image.

В частности, первый режим обработки цвета и второй режим обработки цвета соответственно используются для целевой области и области фона на изображении. Первый режим обработки цвета и второй режим обработки цвета включают в себя, но не ограничиваются ими, следующие способы.In particular, the first color processing mode and the second color processing mode are respectively used for the target area and the background area in the image. The first color processing mode and the second color processing mode include, but are not limited to, the following methods.

Способ 1: первый режим обработки цвета сохраняет цвет и второй режим обработки цвета использует фильтр, например, преобразование цвета области фона в черный и белый цвет. Типичные фильтры дополнительно включают в себя любой фильтр черного и белого цвета, фильтр затемнения, ретро фильтр, пленочный фильтр, фильтр размытия, фильтр эффекта боке и тому подобное.Method 1: The first color processing mode preserves the color, and the second color processing mode uses a filter, such as converting the color of the background area to black and white. Typical filters further include any black and white filter, blackout filter, retro filter, film filter, blur filter, bokeh filter, and the like.

Например, операция фильтрации черного и белого цвета состоит в отображении каждого значения пикселя на значение серого цвета для реализации эффекта фильтра черного-белого цвета. В качестве другого примера фильтр затемнения осуществляет затемнение яркости каждого значения пикселя для достижения особого эффекта затемнения.For example, the black and white filtering operation is to map each pixel value to a gray value to realize a black and white filter effect. As another example, the dimming filter dims the brightness of each pixel value to achieve a specific dimming effect.

Способ 2: первый режим обработки цвета представляет собой первый способ фильтрации, второй режим обработки цвета представляет собой второй способ фильтрации, и первый способ фильтрации отличается от второго способа фильтрации. Для одного и того же изображения цветность изображения, полученного в первом способе фильтрации, больше, чем цветность изображения, полученного во втором способе фильтрации.Method 2: The first color processing mode is the first filtering method, the second color processing mode is the second filtering method, and the first filtering method is different from the second filtering method. For the same image, the color of the image obtained in the first filtering method is greater than the color of the image obtained in the second filtering method.

Способ 3: первый режим обработки цвета представляет собой третий способ фильтрации, второй режим обработки цвета представляет собой четвертый способ фильтрации, и третий способ фильтрации отличается от четвертого способа фильтрации. Для одного и того же изображения яркость изображения, полученного в третьем способе фильтрации, больше, чем яркость изображения, полученного в четвертом способе фильтрации.Method 3: The first color processing mode is the third filtering method, the second color processing mode is the fourth filtering method, and the third filtering method is different from the fourth filtering method. For the same image, the brightness of the image obtained in the third filtering method is greater than the brightness of the image obtained in the fourth filtering method.

Следует понимать, что цвет представляется как яркостью, так и цветностью. Цветность является свойством цвета, который не включает в себя яркость и отражает тон и насыщение цвета, и яркость относится к яркости цвета. Следовательно, обработка цвета включает в себя обработку яркости и/или обработка цветности.It should be understood that color is represented by both luma and chrominance. Chroma is a property of a color that does not include luminosity and reflects the hue and saturation of a color, and luminosity refers to the brightness of a color. Therefore, color processing includes luma processing and/or chrominance processing.

В частности, фильтр может включать в себя регулировку цветности, яркости и оттенок и может дополнительно включать в себя наложенную текстуру и тому подобное. Цветовая система может регулироваться в целевом способе посредством регулировки цветности и оттенка, так что цветовая система становится насыщеннее или бледнее, или тон может быть изменен и другая цветовая система остается неизменной. Фильтр также может быть рассмотрен как отображение пикселей на пиксели. Значение пикселя входного изображения отображается на значение пикселя целевого пикселя, используя таблицу заданного отображения, для достижения особого эффекта. Следует понимать, что фильтр может быть заданным параметром маски. Эти параметры, связанные с цветом, могут быть параметрами в маске фильтра, которые хорошо известны в данной области техники, или могут быть параметрами, независимо разработанными пользователем.In particular, the filter may include chroma, brightness, and hue adjustment, and may further include texture mapping and the like. The color system can be adjusted in the target method by adjusting the hue and hue so that the color system becomes richer or paler, or the tone can be changed and the other color system remains unchanged. A filter can also be thought of as a pixel-to-pixel mapping. The pixel value of the input image is mapped to the pixel value of the target pixel using a target mapping table to achieve a special effect. It should be understood that the filter may be a given mask parameter. These color-related parameters may be parameters in the filter mask that are well known in the art, or may be parameters independently developed by the user.

Дополнительно, после этапа 23 способ дополнительно включает в себя этап 24 хранения изображения, обработанного на этапе 23.Additionally, after step 23, the method further includes the step 24 of storing the image processed in step 23.

Согласно настоящему изобретению, в процессе фотографирования оконечное устройство может определить целевой предмет и фон на основании контента изображения и выполнять различную обработку цвета на целевом предмете и на фоне, так что основной объект в изображении, сфотографированного пользователем, может быть более заметным, а сфотографированное изображение похоже на фильм.According to the present invention, in the photographing process, the terminal device can determine the target object and background based on the content of the image, and perform different color processing on the target object and the background, so that the main object in the image photographed by the user can be more prominent, and the photographed image is similar. to the film.

Пример 2Example 2

В частности, в настоящем изобретении способ обработки изображения для записи видео аналогичен способу обработки изображения для фотографирования, и разница заключается в том, что объект, обработанный в фотографии, является одним изображением, когда как объект, обработанный в записи видео, является последовательными кадрами видео, а именно, множеством последовательных изображений. Объект, обработанный в записи видео, может быть завершенным видео или может быть сегментом в завершенном видео, или пользовательским видеоклипом в диапазоне периода времени. Для процедуры обработки каждого изображения в видео или видеоклипа, обратитесь к способу обработки в примере 1.Specifically, in the present invention, the image processing method for video recording is similar to the image processing method for taking photographs, and the difference is that the object processed in a photograph is one image, while the object processed in video recording is successive frames of video, namely, a set of consecutive images. The object processed in a video recording may be a completed video, or may be a segment in a completed video, or a custom video clip within a time period range. For the processing procedure for each image in a video or video clip, refer to the processing method in Example 1.

В частности, способ обработки изображения для съемки видео может включать в себя следующие этапы.Specifically, the image processing method for capturing a video may include the following steps.

Этап 31: получить N сфотографированных изображений, где N является положительным целым числом; и выполнить операции этапов 32 и 33 на каждом изображении, где N изображений могут быть соседними видеокадрами и сумма N изображений может быть рассмотрена как видео. Альтернативно, N изображений могут не быть соседними.Step 31: get N photographed images, where N is a positive integer; and perform the operations of steps 32 and 33 on each picture, where the N pictures may be adjacent video frames and the sum of the N pictures may be considered as video. Alternatively, N pictures may not be adjacent.

Возможная реализация этапа 32 может быть такой же, как и этапа 22.An exemplary implementation of step 32 may be the same as step 22.

Возможная реализация этапа 33 может быть такой же, как и этапа 23.An exemplary implementation of step 33 may be the same as step 23.

Дополнительно, поскольку видео включает в себя последовательные изображения, способ определения предмета также относится к временной последовательности. Следовательно, в дополнение к этапу 23, на этапе 33 могут быть выполнены больше операций. В качестве варианта, любой способ определения основного объекта в S223 может иметь задержку. Например, человек и фон определяются в L1 кадре, и он все еще может быть определен от (L1+1) кадра изображения до (L1+L0) кадра изображения с помощью маркировки пикселя и сравнения маски, что человек в этих изображениях является основным объектом, и область, соответствующая человеку в этих изображениях, является целевой областью 0. Основной объект и фон не нужно определять для каждого кадра. Момент, в котором основной объект определяется каждый раз, может быть определен пользователем, или основной объект может периодически определяться, например, но не ограничиваться, каждые 2s или каждые 10s. Способ определения основного объекта каждый раз включает в себя, но не ограничивается, шесть способов в S223.Additionally, since the video includes successive images, the method of determining the subject also refers to the temporal sequence. Therefore, in addition to step 23, more operations can be performed in step 33. Alternatively, any method of determining the main object in S223 may have a delay. For example, a person and a background are defined in the L1 frame, and it can still be determined from (L1+1) image frame to (L1+L0) image frame by pixel marking and mask comparison that the person in these images is the main subject, and the area corresponding to the person in these images is target area 0. The main subject and background do not need to be determined for each frame. The moment at which the main object is determined each time may be determined by the user, or the main object may be periodically determined, for example, but not limited to every 2s or every 10s. The main object determination method each time includes, but is not limited to, six methods in S223.

Этап 34: хранить видео, составленное N изображениями, на которых выполняется обработка цвета.Step 34: store a video composed of N images on which color processing is performed.

Согласно настоящему изобретению, в процессе, в котором пользователь записывает видео, оконечное устройство может определить целевой предмет и фон на основании видеоконтента и выполнять различную обработку цвета на целевом предмете и на фоне, так что основной объект видео, сфотографированный пользователем, может быть более заметным, сфотографированное видео является таким же привлекательным, как фильм, и взаимодействие с пользователем улучшено.According to the present invention, in a process in which a user records a video, the terminal device can determine the target subject and background based on the video content, and perform different color processing on the target subject and background, so that the main subject of the video photographed by the user can be more prominent, the photographed video is as attractive as the movie and the user experience is improved.

Пример 3Example 3

В настоящем изобретении способ обработки изображений для записи видео аналогичен способу обработки изображения для фотографирования, и различие заключается в том, что объект, обрабатываемый в фотографии, является одним изображением, когда объект, обработанный в записи видео, является последовательными видеокадрами, а именно, множеством последовательных изображений. Следовательно, для процедуры обработки каждого изображения обратитесь к способу обработки в примере 1. В некоторых сложных сценариях съемки видео некоторые области в изображении могут быть определены неправильно. Если та же область, обозначенная отдельно как цель или фон в соседних кадрах, одна и та же область обрабатывается в разные цвета в соответствии с вышеупомянутым примером способа обработки цвета, и изменения цветов той же области в соседних кадрах вызывают мерцание. Следовательно, мерцание должно быть определено и устранено во время обработки. Мерцание может быть ошибкой определения категории объекта.In the present invention, the image processing method for video recording is similar to the image processing method for taking photographs, and the difference is that the object processed in photography is one image, when the object processed in video recording is consecutive video frames, namely, a plurality of consecutive images. Therefore, for the processing procedure for each image, refer to the processing method in Example 1. In some complex video shooting scenarios, some areas in the image may not be detected correctly. If the same area designated separately as a target or background in adjacent frames, the same area is processed into different colors according to the above example of the color processing method, and changes in colors of the same area in adjacent frames cause flickering. Therefore, flicker must be determined and eliminated during processing. The flickering may be an error in determining the category of the object.

В способе определения при наличии мерцающего видео, маска предшествующего кадра может быть обработана на основании оптического потока для получения оптической маски на основании потока, и сравнивается различие между маской на основании оптического потока и маской текущего кадра. Когда степень совпадения или степень сходства превышает конкретную пропорцию, определяется отсутствие мерцания. Когда степень совпадения или степень сходства не превышает конкретной пропорции, определяется наличие мерцания. Дополнительно, следует понимать, что определение мерцания является непрерывным процессом. В качестве варианта, конкретный способ определения наличия мерцания заключается в следующем:In the detection method when there is flickering video, the previous frame mask can be processed based on the optical flow to obtain an optical flow based mask, and the difference between the mask based on the optical flow and the mask of the current frame is compared. When the degree of match or degree of similarity exceeds a specific proportion, no flicker is determined. When the degree of coincidence or degree of similarity does not exceed a certain proportion, the presence of flicker is determined. Additionally, it should be understood that flicker detection is a continuous process. Alternatively, a specific way to determine if flicker is present is as follows:

(1) Во-первых, вычисляется оптический поток соседних кадров, где оптический поток указывает взаимосвязь смещения между пикселями в соседних кадрах ((t-1) кадр и t кадр).(1) First, the optical flow of adjacent frames is calculated, where the optical flow indicates the offset relationship between pixels in adjacent frames ((t-1) frame and t frame).

(2) получить маску (t-1), вычислить маску F оптического потока на основании маски (t-1) кадра и информации оптического потока (t-1) кадра и t кадра, где маска оптического потока получается путем вычисления на основании оптического потока.(2) obtain the mask (t-1), calculate the optical flow mask F based on the frame mask (t-1) and the optical flow information (t-1) of the frame and t frame, where the optical flow mask is obtained by calculation based on the optical flow .

(3) получить маску S t кадра.(3) get the frame mask S t .

(4) вычислить набор SF пикселей основного объекта в маске F оптического потока и подсчитать набор SS пикселей основного объекта в маске S. Количество пикселей в наборе объединения и наборе пересечения SF и SS соответственно являются Nu и Ni. Когда (Nu-Ni)/Nu превышает конкретное пороговое значение, определяется наличие относительно большой разницы между масками соседних кадров (t-1) и t, и определяется наличие мерцания между (t-1) кадром и t кадром, или, очевидно, что мерцание происходит в t кадре. Относительно большая разница указывает на то, что один и тот же объект может быть неверно оценен как относящийся к разным категориям объектов. Например, один и тот же предмет в кадрах (t-1) и t отдельно определяется как человек и обезьяна.(4) calculate the main object pixel set SF in the optical flow mask F, and calculate the main object pixel set SS in the mask S. The number of pixels in the union set and the intersection set SF and SS are Nu and Ni, respectively. When (Nu-Ni)/Nu exceeds a specific threshold, it is determined that there is a relatively large difference between the masks of neighboring frames (t-1) and t, and the presence of flicker between (t-1) frame and t frame is determined, or, obviously, flicker occurs in t frame. A relatively large difference indicates that the same object may be incorrectly assessed as belonging to different categories of objects. For example, the same object in frames (t-1) and t is separately defined as a man and a monkey.

В качестве варианта, если в первых N0 (положительное целое число больше 2) изображениях текущего изображения, количество групп соседних изображений с одним и тем же объектом, определенным как разные категории объекта, больше, чем заданное пороговое значение, это может быть определено, что на текущем кадре должна быть выполнена обработка исключения мерцания. Если определено, что количество групп соседних изображений с таким же объектом, определенным как разные категории объектов, не превышает заданное пороговое значение, может быть определено, что на текущем кадре не должна быть выполнена обработка исключения мерцания.Alternatively, if in the first N0 (positive integer greater than 2) images of the current image, the number of neighboring image groups with the same object defined as different object categories is greater than a predetermined threshold value, it can be determined that at flicker elimination processing must be performed on the current frame. If it is determined that the number of adjacent picture groups with the same object defined as different object categories does not exceed a predetermined threshold value, it may be determined that flicker elimination processing is not to be performed on the current frame.

В качестве варианта, например, для заданного количества исторических соседних кадров или заданного количества исторических кадров, если определяется наличие мерцания в более чем половине кадров (например, определено, что мерцание происходит в трех кадрах видео в первых пяти соседних кадрах текущего видеокадра) может быть определено, что на текущем кадре должна быть выполнена обработка исключения мерцания. Если определено наличие мерцания менее чем половины кадров (например, определено, что мерцание происходит в одном из первых пяти соседних кадров текущего видеокадра), может быть определено, что на текущем кадре не должна быть выполнена обработка исключения мерцания.Alternatively, for example, for a given number of historical neighbor frames or a given number of historical frames, if flicker is detected in more than half of the frames (for example, it is determined that flicker occurs in three frames of video in the first five adjacent frames of the current video frame) can be determined that flicker elimination processing should be performed on the current frame. If flicker is determined to be present in less than half of the frames (eg, flicker is determined to occur in one of the first five adjacent frames of the current video frame), it may be determined that no flicker elimination processing should be performed on the current frame.

Следует понимать, что текущее видеоизображение может быть рассмотрено как изображение, которое записывается в данный момент. Момент может быть понят как общий момент в некоторых сценариях, или может быть понят как какой-то конкретный момент в некоторых сценариях, например, последний момент или момент, в котором заинтересован пользователь.It should be understood that the current video image can be considered as the image that is currently being recorded. A moment may be understood as a general moment in some scenarios, or may be understood as a specific moment in some scenarios, such as the last moment or the moment the user is interested in.

В частности, способ обработки изображения для съемки видео в этом примере может включать в себя следующие этапы.Specifically, the image processing method for capturing a video in this example may include the following steps.

Этап 41: получить N сфотографированных изображений, где N является положительным целым числом; и выполнить операции этапов 32 и 33 на каждом изображении, где N изображений могут быть соседними видеокадрами и сумма N изображений может быть понята как видео; или N изображений могут не быть соседними кадрами.Step 41: get N photographed images, where N is a positive integer; and perform the operations of steps 32 and 33 on each picture, where N pictures can be adjacent video frames and the sum of N pictures can be understood as video; or N images may not be adjacent frames.

Этап 42: определить, превышает ли количество групп соседних изображений, в которых происходит мерцание в первых N0 кадрах текущего кадра (текущее изображение) заданное пороговое значение. Здесь N0 и пороговое значение могут быть установлены пользователем. Например, N0 представляет собой выбранное количество исторических выборок видеокадра и пороговое значение может составлять 1/2, 2/3 или тому подобное N0. Это просто пример и этим не ограничивается.Step 42: determine if the number of adjacent picture groups in which flickering occurs in the first N0 frames of the current frame (current picture) exceeds a predetermined threshold value. Here N0 and the threshold value can be set by the user. For example, N0 is a selected number of historical samples of a video frame, and the threshold may be 1/2, 2/3, or the like of N0. This is just an example and is not limited to this.

Если результатом определения является не превышение заданного порогового значения, то операции этапов 43 и 44 выполняются на текущем сфотографированном или захваченном изображении.If the result of the determination is not exceeding the predetermined threshold, then the operations of steps 43 and 44 are performed on the currently photographed or captured image.

Возможная реализация этапа 43 может быть такой же, как и этапа 32.An exemplary implementation of step 43 may be the same as step 32.

Возможная реализация этапа 44 может быть такой же, как и этапа 33.An exemplary implementation of step 44 may be the same as step 33.

Если результат определения является превышением заданного порогового значения, то операция этапа 45 выполняется на текущем сфотографированном или захваченном изображении.If the determination result is above the predetermined threshold, then the operation of step 45 is performed on the currently photographed or captured image.

Этап 45: обработать все области изображения текущего кадра, используя тот же способ обработки цвета для получения целевого изображения. Тот же способ обработки цвета может быть таким же, как способ обработки цвета области фона в предшествующем кадре, или может быть таким же, как способ обработки цвета целевой области в предшествующем кадре, или может быть таким же, как способ обработки цвета всего изображения в предшествующем кадре. Например, способ обработки цвета, который является таким же, как и для области фона на этапе 33 (23), может использоваться для всего изображения. Альтернативно, способ обработки цвета, который является таким же, как и для целевой области на этапе 33 (23), может использоваться для всего изображения. Например, все изображение остается цветным или все изображение является черно-белым, или первый или второй режим обработки цвета (включающий в себя, но не ограничиваясь, режимы обработки цвета в примере 1), используется для всего изображения.Step 45: process all image areas of the current frame using the same color processing method to obtain the target image. The same color processing method may be the same as the color processing method of the background area in the previous frame, or may be the same as the color processing method of the target area in the previous frame, or may be the same as the color processing method of the entire image in the previous frame. frame. For example, a color processing method that is the same as for the background area in step 33 (23) can be used for the entire image. Alternatively, a color processing method that is the same as for the target area in step 33(23) may be used for the entire image. For example, the entire image remains in color, or the entire image is black and white, or the first or second color processing mode (including but not limited to the color processing modes in Example 1) is used for the entire image.

В этом случае для текущего кадра может быть выполнена или опущена процедура сегментации маски аналогичной этапу 22. Это не ограничено в этом примере.In this case, the mask segmentation procedure similar to step 22 may be performed or omitted for the current frame. This is not limited in this example.

После этапа 45 этап 46 хранения видео, составленного N изображений, на которых выполняется обработка цвета. N является положительным целым числом.After step 45, step 46 of storing a video composed of N images on which color processing is performed. N is a positive integer.

Согласно настоящему изобретению, в процессе, в котором пользователь записывает видео, оконечное устройство может определить целевой предмет и фон на основании видеоконтента и выполнять различную обработку цвета на целевом предмете и фоне, так что основной объект видео, сфотографированного пользователем, может быть более заметным, сфотографированное видео является таким же привлекательным, как фильм, и взаимодействие с пользователем улучшено.According to the present invention, in a process in which a user records a video, the terminal device can determine the target subject and background based on the video content, and perform different color processing on the target subject and background, so that the main subject of the video photographed by the user can be more prominent, the photographed the video is as attractive as the movie and the user experience is improved.

Пример 4Example 4

В некоторых сценариях применения содержание изображения, сфотографированного пользователем обычно меняется. Следовательно, основной объект изображения обычно меняется. Пользователь также может свободно выбирать режим обработки цвета основного объекта на разных изображениях, чтобы самостоятельно контролировать стиль видео.In some application scenarios, the content of the image taken by the user usually changes. Therefore, the main subject of the image usually changes. The user can also freely select the color processing mode of the main object in different images to independently control the style of the video.

Способ обработки изображения в процессе съемки видео может включать в себя следующие этапы.The image processing method in the video shooting process may include the following steps.

Этап 51: оконечное устройство получает видеокадр.Step 51: The terminal receives a video frame.

Этап 52: оконечное устройство определяет область основного объекта и область фона в любом кадре видео, полученном из видео.Step 52: The terminal device determines the main object area and the background area in any video frame obtained from the video.

Этап 53: оконечное устройство использует любой режим обработки цвета в любое время для области основного объекта и использует любой режим обработки цвета в любое время для области фона. Однако необходимо обеспечить для любого изображения, чтобы яркость или цветность области основного объекта после обработки цвета была больше, чем яркость или цветность области фона после обработки цвета. В качестве альтернативы, для любого изображения цветность или яркость изображения, полученного в режиме обработки цвета, используемым для области основного объекта, была больше, чем цветность или яркость изображения, полученного в режиме обработки цвета, используемым для области фона.Step 53: The terminal device uses any color processing mode at any time for the main object area, and uses any color processing mode at any time for the background region. However, it is necessary for any image to ensure that the luminance or chrominance of the main object area after color processing is greater than the luminance or chrominance of the background area after color processing. Alternatively, for any image, the chrominance or luminance of the image obtained in the color processing mode used for the main subject area was greater than the chrominance or luminance of the image obtained in the color processing mode used for the background region.

Пример 5Example 5

В некоторых сценариях использования содержание изображения, сфотографированного пользователем обычно меняется. Следовательно, основной объект изображения обычно меняется. Пользователь также может свободно выбирать режим обработки цвета основного объекта на разных изображениях, чтобы самостоятельно контролировать стиль видео. Особенно, цвет изменяется в период времени.In some usage scenarios, the content of the image taken by the user usually changes. Therefore, the main subject of the image usually changes. The user can also freely select the color processing mode of the main object in different images to independently control the style of the video. Especially, the color changes over a period of time.

Способ обработки изображения в процессе съемки видео может включать в себя следующие этапы.The image processing method in the video shooting process may include the following steps.

Этап 61: захватить N1 изображения в первый период времени и захватить N2 изображения во второй период времени, когда первый период времени и второй период времени являются соседними периодами времени, и как N1, так и N2 являются положительными целыми числами, первый период времени и второй период времени могут быть продолжительностью, в котором пользователь может идентифицировать изменение изображения невооруженным взглядом, и N1 и N2 определяются частотой кадров и продолжительностью периодов времени во время записи видео. Это не ограничено в настоящем изобретении.Step 61: Capture N1 images in the first time period and capture N2 images in the second time period, when the first time period and the second time period are adjacent time periods and both N1 and N2 are positive integers, the first time period and the second period times may be the duration in which the user can identify the change in the image with the naked eye, and N1 and N2 are determined by the frame rate and the length of time periods during video recording. This is not limited in the present invention.

Этап 62: определить первую целевую область и первую область фона в каждом из N1 изображений, где первая область фона представляет собой область изображения, отличной от первой целевой области, и первая целевая область в каждом из N1 изображений соответствуют первому объекту (который может включать в себя, по меньшей мере, один объект); и определить вторую целевую область и вторую область фона в каждом из N2 изображений, где вторая область фона представляет собой область изображения, отличной от второй целевой области, и вторая целевая область в каждом из N2 изображений соответствует второму объекту (который может включать в себя, по меньшей мере, один объект).Step 62: determine the first target area and the first background area in each of the N1 images, where the first background area is an image area different from the first target area, and the first target area in each of the N1 images correspond to the first object (which may include , at least one object); and defining a second target area and a second background area in each of the N2 images, where the second background area is an image area different from the second target area, and the second target area in each of the N2 images corresponds to a second object (which may include, at least one item).

Этап 63: обрабатывать первую целевую область в первом режиме обработки цвета, обрабатывать первую область фона во втором режиме обработки цвета, обрабатывать вторую целевую область в третьем режиме обработки цвета и обрабатывать вторую область фона в четвертом режиме обработки цвета, чтобы получить целевое видео, где в целевом видео, цветность первой целевой области больше, чем цветность первой области фона, или яркость первой целевой области больше, чем яркость первой области фона; и цветность второй целевой области больше, чем цветность второй области фона, или яркость второй целевой области больше, чем яркость второй области фона.Step 63: process the first target region in the first color processing mode, process the first background region in the second color processing mode, process the second target region in the third color processing mode, and process the second background region in the fourth color processing mode to obtain a target video, where in the target video, the chroma of the first target region is greater than the chroma of the first background region, or the luminance of the first target region is greater than the luminance of the first background region; and the chroma of the second target area is greater than the chroma of the second background region, or the luminance of the second target region is greater than the luminance of the second background region.

Пример 6Example 6

В некоторых сценариях реализации содержание изображения, сфотографированного пользователем обычно меняется. Следовательно, основной объект изображения обычно меняется. Пользователь также может свободно выбирать основной целевой объект, который пользователь хочет выделить в разных изображениях. Например, область изображения, соответствующая первому объекту, определяется в качестве целевой области в первый период времени, область изображения, соответствующая второму объекту, определяется как целевая область во второй период времени и первый объект и второй объект являются разными объектами, предметами или категориями объектов.In some implementation scenarios, the content of the image photographed by the user usually changes. Therefore, the main subject of the image usually changes. The user is also free to choose the main target that the user wants to highlight in different images. For example, the image area corresponding to the first object is determined as the target area in the first time period, the image area corresponding to the second object is determined as the target area in the second time period, and the first object and the second object are different objects, objects, or categories of objects.

В этом сценарии способ обработки изображения в процессе съемки видео может включать в себя следующие этапы.In this scenario, the image processing method in the video shooting process may include the following steps.

Дополнительная реализация этапа 71 может быть такой же, как и этапа 61.An additional implementation of step 71 may be the same as step 61.

Этап 72: определить первую целевую область и первую область фона в любом из N1 изображений на основании содержимого изображения и определить вторую целевую область и вторую область фона в любом из N2 изображений на основании содержимого изображения, где объект или категория объекта, соответствующие второй целевой области, отличается от объекта или категории объекта, соответствующей первой целевой области, так что система и пользователь могут самостоятельно выбирать целевой основной объект и целевую область изображения. Изображение включает в себя основной объект и фон, и соответственно, изображение включает в себя целевую область и область фона.Step 72: determine the first target area and the first background area in any of the N1 images based on the image content, and determine the second target area and the second background area in any of the N2 images based on the image content, where the object or category of the object corresponding to the second target area, different from the object or object category corresponding to the first target area, so that the system and the user can independently select the target main object and the target image area. The image includes a main object and a background, and accordingly, the image includes a target area and a background area.

Например, первый объект является человеком и второй объект является животным. Например, первый объект является человеком A и второй объект является человеком B. Например, первый объект является двумя человеками и второй объект является собакой и двумя кошками. Оставшаяся область, которая не идентифицирована, обозначена как фон.For example, the first object is a human and the second object is an animal. For example, the first object is person A and the second object is person B. For example, the first object is two people and the second object is a dog and two cats. The remaining area, which is not identified, is designated as the background.

В этом способе маска изображения может быть определена путем использования вышеупомянутых способов в S221 и S222. Однако последующий способ не ограничивается определением целевого объекта в маске для каждого изображения.In this method, the image mask may be determined by using the above methods in S221 and S222. However, the following method is not limited to defining the target in the mask for each image.

Возможно в маске изображения пользователь может свободно вводить первый объект и второй объект, и первый объект, и второй объект определяется в соответствии с инструкцией выбора пользователем. Например, если пользователь выбирает предмет, система идентифицирует пиксель, соответствующий инструкции, введенной пользователем, дополнительно идентифицирует конкретный (/некоторый) предмет (/предметы) (/может быть, по меньшей мере, один предмет) или конкретную (/некоторую) категорию объекта (/категории объекта) (/может быть, по меньшей мере, одна категория объекта) маски, выбранной пользователем, дополнительно определяет конкретный (/ некоторый) предметы (/предметы) или все предметы в конкретной (/некоторой) категории объекта (/категории объекта), как первый объект, и определяет первый объект или область изображения, соответствующую первому объекту, как первая целевая область. Эта ситуация может поддерживаться в течение определенного периода времени. Другими словами, в последующих нескольких кадрах область, соответствующая маске, соответствующей первому объекту, является первой целевой областью, пока пользователь не выберет другой предмет в следующий момент, и область, соответствующая новому предмету, определяется как вторая целевая область в соответствии со способом, аналогичным вышеуказанному способу. На изображении область изображения, отличная от первой целевой области или второй целевой площади, является областью фона. Конкретно, область, соответствующая маске, соответствующей первому объекту в первый период времени, представляет собой первую целевую область, и область, соответствующая маске, соответствующей второму объекту во втором периоде времени, является второй целевой областью.Perhaps in the image mask, the user can freely input the first object and the second object, and the first object and the second object are determined according to the user's selection instruction. For example, if the user selects an item, the system identifies the pixel corresponding to the instruction entered by the user, additionally identifies a particular (/some) item(s) (/may be at least one item) or a particular (/some) category of the object ( /object category) (/may be at least one object category) of the mask selected by the user further defines a specific (/some) item(s) or all items in a specific (/some) object category (/object category) , as the first object, and defines the first object or image region corresponding to the first object as the first target region. This situation can be maintained for a certain period of time. In other words, in the next few frames, the area corresponding to the mask corresponding to the first object is the first target area until the user selects another item at the next moment, and the area corresponding to the new item is determined to be the second target area according to a method similar to the above. way. In the image, the area of the image other than the first target area or the second target area is the background area. Specifically, the area corresponding to the mask corresponding to the first object in the first time period is the first target area, and the area corresponding to the mask corresponding to the second object in the second time period is the second target area.

В качестве варианта, в маске изображения система может определить целевую маску изображения в период времени в маске изображения на основании заданного интервала времени (например, но не ограничиваясь, 1s или 2s) или заданного количества кадров (например, но не ограничены, 50 кадрами или 100 кадрами). Например, первая целевая маска определяется в 101-м кадре, и маска, которая имеет одну и туже категорию объекта или предмет, как первая целевая маска в 101-ом кадре, используется в качестве первой целевой маски для каждого следующих 102 кадров до 200 кадров до определения второй целевой маски в 201-ом кадре. Для каждого из следующих 202 кадров до 300 кадров маска, которая имеет такую же категорию объекта или предмет как вторая целевая маска в 201-ом кадре, используется в качестве второй целевой маски. Следует понимать, что число вышеперечисленного примера может быть задано пользователем или системой. Конкретно, в момент времени определяется целевая маска и маска этого типа или маска этого предмета постоянно используется в течение периода времени.Alternatively, in the image mask, the system may determine the target image mask in the time period in the image mask based on a predetermined time interval (for example, but not limited to 1s or 2s) or a predetermined number of frames (for example, but not limited to 50 frames or 100 frames). For example, the first target mask is determined at the 101st frame, and a mask that has the same object category or subject as the first target mask at the 101st frame is used as the first target mask for every next 102 frames up to 200 frames up to determining the second target mask in the 201st frame. For each of the next 202 frames up to 300 frames, a mask that has the same object or subject category as the second target mask in the 201st frame is used as the second target mask. It should be understood that the number of the above example can be set by the user or the system. Specifically, a target mask is determined at a point in time, and a mask of that type or a mask of that item is continuously used over a period of time.

Для описания способа определения первой целевой маски, принадлежащей к первой категории, и второй целевой маски, принадлежащей к первой категории, без ограничения, может быть сделана ссылка на любой из шести способов на этапе S223. Следовательно, первая целевая маска и вторая целевая маска могут иметь одну категорию объекта или тот же предмет, или могут быть различными категориями объектов или разных предметов. Данный аспект относится к идентификационным возможностями сети, изменению изображения сцены или входной команды пользователя.To describe the method for determining the first target mask belonging to the first category and the second target mask belonging to the first category without limitation, reference can be made to any of the six methods in step S223. Therefore, the first target mask and the second target mask may be of the same object category or the same object, or may be different object categories or different objects. This aspect relates to the identification capabilities of the network, changing the image of the scene or the input command of the user.

Дополнительно, первая целевая область, первая область фона, вторая целевая область и вторая область фона дополнительно определяются в соответствии со способом на S224. Детали не описаны в этом примере.Further, the first target area, the first background area, the second target area, and the second background area are further determined according to the method in S224. Details are not described in this example.

Возможная реализация этапа 73 может быть такой же, как и этапа 63.An exemplary implementation of step 73 may be the same as step 63.

Дополнительно, поскольку этот пример может варьироваться в зависимости от периода времени, может быть множество комбинаций способов обработки цвета.Additionally, since this example may vary depending on the time period, there may be many combinations of color processing methods.

Например, первый режим обработки цвета является таким же, как третий режим обработки цвета, и второй режим обработки цвета является таким же, как и четвертый режим обработки цвета. Этот режим обработки цвета имеет хорошую согласованность.For example, the first color processing mode is the same as the third color processing mode, and the second color processing mode is the same as the fourth color processing mode. This color processing mode has good consistency.

Например, первый режим обработки цвета является таким же, как третий режим обработки цвета, и второй режим обработки цвета отличается от четвертого режима обработки цвета. В этом режиме обработки цвета целевого основного объекта являются согласующимися и цвета фона изменяются так, чтобы общий визуальный эффект был более ошеломляющим.For example, the first color processing mode is the same as the third color processing mode, and the second color processing mode is different from the fourth color processing mode. In this processing mode, the colors of the target main object are consistent and the background colors are changed so that the overall visual effect is more stunning.

Например, первый режим обработки цвета отличается от третьего режима обработки цвета, и второй режим обработки цвета является таким же, как и четвертый режим обработки цвета. В этом режиме обработки цвета фона являются согласующимися, и цвета целевого основного объекта изменяются, так что основной целевой объект является более заметным.For example, the first color processing mode is different from the third color processing mode, and the second color processing mode is the same as the fourth color processing mode. In this processing mode, the background colors are consistent and the target main object colors are changed so that the main target object is more visible.

Например, первый режим обработки цвета отличается от третьего режима обработки цвета, и второй режим обработки цвета отличается от четвертого режима обработки цвета. В этом режиме обработки цвета могут быть предоставлены больше способов трансформаций цветов и можно обеспечить более значительного уровня согласования цветов на основании требований различных сценариев.For example, the first color processing mode is different from the third color processing mode, and the second color processing mode is different from the fourth color processing mode. In this color processing mode, more color transformations can be provided and a greater level of color matching can be provided based on the requirements of different scenarios.

Первый режим обработки цвета или третий режим обработки цвета включает в себя фильтр, например, удерживающий цвет или улучшающий цвет. Второй режим обработки цвета или четвертый режим обработки цвета включает в себя фильтры, такие как фильтр черного и белого цвета, фильтр затемнения, ретро фильтр, пленочный фильтр, фильтр размытия и фильтр эффекта боке.The first color processing mode or the third color processing mode includes a filter such as a color-holding or color-enhancing filter. The second color processing mode or the fourth color processing mode includes filters such as a black and white filter, a dark filter, a retro filter, a film filter, a blur filter, and a bokeh effect filter.

В частности, для способов обработки цвета для целевой области и области фона одного и того же изображения, обратитесь к этапу 23. Для N2 изображений третий режим обработки цвета и четвертый режим обработки цвета соответственно аналогичны первому режиму обработки цвета и второму режиму обработки цвета.In particular, for the color processing methods for the target area and the background area of the same image, refer to step 23. For N2 images, the third color processing mode and the fourth color processing mode are respectively the same as the first color processing mode and the second color processing mode.

Согласно вышеуказанным решениям, в некоторых сценариях для выделения различного фона пользователь может свободно выбирать режим обработки цвета фона на разных изображениях. В некоторых сценариях пользователь может свободно выбирать режим обработки цвета основного объекта на разных изображениях, чтобы выделить основной объект в разных формах и различных пропорциях.According to the above solutions, in some scenarios, in order to highlight different backgrounds, the user can freely select the background color processing mode in different images. In some scenarios, the user can freely select the color mode of the main object in different images in order to highlight the main object in different shapes and different proportions.

Следует понимать, что в разных примерах настоящего описания сигналы, указанные одной и той же маркировкой, могут иметь разные источники или могут быть получены разными способами. Это не является ограничением. Дополнительно, ссылки на этап разных примеров «то же самое, что и этап XX» указывают больше на общую логику обработки сигналов двух этапов. Это не ограничено тем, что как ввод, так и вывод двух этапов должны быть полностью одинаковыми, и что две процедуры способа полностью эквивалентны. Соответствующие ссылки и вариации, которые могут быть использованы специалистом в данной области техники, должны находиться в рамках области защиты настоящего описания.It should be understood that in different examples of the present description, the signals indicated by the same marking may have different sources or may be obtained in different ways. This is not a limitation. Additionally, references to the step of various examples "same as step XX" point more to the general signal processing logic of the two steps. It is not limited that both the input and output of the two steps must be exactly the same, and that the two method procedures are completely equivalent. Appropriate references and variations, which may be used by a person skilled in the art, should be within the protection scope of the present description.

Настоящее описание относится к способу обработки изображения. Целевая область и область фона определяются на изображении посредством выполнения сегментации маски на изображении. Различные режимы обработки цвета применяются к целевой области и области фона, так что яркость целевой области больше, чем яркость области фона, или цветность целевой области больше, чем цветность области фона и основной объект, соответствующий целевой области, более заметно выделен. Это реализует особый эффект фильма.The present description relates to an image processing method. The target area and the background area are determined on the image by performing mask segmentation on the image. Different color processing modes are applied to the target area and the background area so that the luminance of the target area is larger than the luminance of the background area, or the chroma of the target area is larger than the chroma of the background area, and the main object corresponding to the target area is more prominently highlighted. This realizes the special effect of the movie.

На основании способа обработки изображения, предусмотренного в вышеупомянутом варианте осуществления, вариант осуществления настоящего описания обеспечивает устройство 900 обработки изображения. Устройство может быть использовано во множестве оконечных устройств и может иметь любую форму реализации оконечного устройства 100, например, оконечное устройство, имеющее функцию фотографирования видео. Ссылаясь на фиг.9, устройство включает в себя:Based on the image processing method provided in the above embodiment, an embodiment of the present description provides an image processing apparatus 900. The device may be used in a variety of terminals and may take any form of implementation of the terminal 100, such as a terminal having a video capture function. Referring to Fig. 9, the device includes:

модуль 901 фотографирования, выполненный с возможностью получать изображение, который может быть фотографировать или съемки видео, где модуль специально выполнен с возможностью выполнять способ на этапе 21, этапе 31, этапе 51, этапе 61 или этапе 71 в вышеупомянутом примере и способ, который может быть эквивалентен способу, и модуль может быть реализован процессором, вызывая соответствующую программную инструкцию в памяти для управления камерой для захвата изображения;a photographing module 901, configured to acquire an image that can be photographed or captured a video, wherein the module is specifically configured to perform the method in step 21, step 31, step 51, step 61, or step 71 in the above example, and a method that can be equivalent to the method, and the module can be implemented by the processor by calling the appropriate program instruction in memory to control the camera to capture an image;

модуль 902 определения, выполненный с возможностью определять целевую область и область фона на изображении на основании содержимого изображения, где модуль специально выполнен с возможностью выполнять способ на этапе 22, этапе 32, этапе 52, этапе 62 или этапе 72 в вышеупомянутом примере и способ, который может быть эквивалентен способу, и модуль, может быть реализован процессором, вызывая соответствующую программную инструкцию в памяти для реализации соответствующего алгоритма; иa determining module 902, configured to determine a target area and a background area in an image based on the content of the image, where the module is specifically configured to perform the method in step 22, step 32, step 52, step 62, or step 72 in the above example, and the method that may be equivalent to a method, and a module, may be implemented by the processor by calling the appropriate program instruction in memory to implement the appropriate algorithm; And

модуль 903 обработки цвета, выполненный с возможностью использовать различные режимы обработки цвета для целевой области и области фона на изображении для получения целевого изображения или целевого видео, так что цветность целевой области больше, чем цветность области фона, или яркость целевой области больше, чем яркость области фона, где модуль специально выполнен с возможностью выполнять способ на этапе 23, этапе 33, этапе 53, этапе 63 или этапе 73 в вышеуказанном примере и способ, который может быть эквивалентным способу, и модуль может быть реализован процессором, вызывая соответствующую программную инструкцию в памяти с помощью конкретного алгоритма.a color processing unit 903, configured to use different color processing modes for the target area and the background area in the image to obtain the target image or the target video, so that the chroma of the target area is greater than the chroma of the background area, or the luminance of the target area is greater than the luminance of the area background, where the module is specifically configured to execute the method in step 23, step 33, step 53, step 63, or step 73 in the above example and the method, which may be equivalent to the method, and the module may be implemented by the processor by calling the appropriate program instruction in memory using a particular algorithm.

Дополнительно, устройство может дополнительно включать в себя модуль 904 хранения, выполненный с возможностью хранить изображение или видео, на котором выполняется обработка цвета.Additionally, the device may further include a storage module 904 configured to store an image or video on which color processing is performed.

Описанные ранее конкретные примеры способа, объяснения и описания технических характеристик в вариантах осуществления и расширения множества форм реализации также применимы к выполнению способа в устройстве, и детали не описаны в вариантах осуществления устройства.The previously described specific examples of the method, explanation and description of the technical characteristics in the embodiments and expansion of the plurality of implementation forms are also applicable to the execution of the method in the device, and the details are not described in the device embodiments.

Настоящее описание предлагает устройство обработки изображения. На изображении выполняется сегментация маски, так что определяются целевая область и область фона на изображении на основании содержимого изображения. Различные режимы обработки цвета применяются к целевой области и области фона, так что яркость целевой области больше, чем яркости области фона, или цветность целевой области больше, чем цветность области фона, и основный объект, соответствующий целевой области, более заметно выделен. Это обеспечивает специальный эффект фильма.The present description proposes an image processing device. The mask is segmented on the image so that the target area and the background area on the image are determined based on the content of the image. Different color processing modes are applied to the target area and the background area so that the luminance of the target area is larger than the luminance of the background area, or the chroma of the target area is larger than the chroma of the background area, and the main object corresponding to the target area is more prominently highlighted. This provides a special film effect.

На основании способа обработки изображения, предусмотренного в вышеупомянутом варианте осуществления, вариант осуществления настоящего описания дополнительно обеспечивает устройство 1000 обработки изображения. Устройство может использоваться во множестве оконечных устройств и может иметь любую форму реализации оконечного устройства 100, например, оконечное устройство, имеющее функцию фотографирования видео. Ссылаясь на фиг. 10, устройство включает в себя:Based on the image processing method provided in the above embodiment, the embodiment of the present description further provides an image processing apparatus 1000. The device may be used in a variety of terminals and may be any form of implementation of the terminal 100, such as a terminal having a video capture function. Referring to FIG. 10, the device includes:

модуль 1001 фотографирования, выполненный с возможностью получать изображение, который может фотографировать или съемки видео, где модуль специально выполнен с возможностью выполнять способ на этапе 21, этапе 31, этапе 51, этапе 61 или этапе 71 в вышеупомянутом примере и способ, который может быть эквивалентен способу, и модуль может быть реализован процессором, вызывая соответствующую программную инструкцию в памяти для управления камерой для захвата изображения;a photographing module 1001 configured to acquire an image that can photograph or shoot a video, where the module is specifically configured to perform the method in step 21, step 31, step 51, step 61, or step 71 in the above example, and a method that may be equivalent to method, and the module can be implemented by the processor by calling the appropriate program instruction in memory to control the camera to capture an image;

модуль 1002 оценки, выполненный с возможностью: определять, превышает ли количество мерцающих кадров в первых N0 кадрах текущего кадра заданное пороговое значение; и, если определенный результат состоит в том, что количество мерцающих кадров не превышает заданное пороговое значение, продолжать инициировать модуль 1003 определения и модуль 1004 обработки цвета выполнить соответствующие функции; или, если определенный результат состоит в том, что количество мерцающих кадров превышает заданное пороговое значение, продолжать инициировать модуль 1005 удаления мерцания выполнить соответствующие функции; и модуль 1002 специально выполнен с возможностью выполнять способ на этапе 42 в предшествующем примере и способ, который может быть эквивалентен способу, и модуль может быть реализован процессором, вызывая соответствующую программную инструкцию в памяти для реализации соответствующего алгоритма;an evaluator 1002, configured to: determine whether the number of flickering frames in the first N0 frames of the current frame exceeds a predetermined threshold value; and, if the determined result is that the number of flickering frames does not exceed a predetermined threshold value, continue to initiate the determination module 1003 and the color processing module 1004 to execute the corresponding functions; or, if the determined result is that the number of flickering frames exceeds a predetermined threshold, continue to cause the flicker removal module 1005 to execute the appropriate functions; and the module 1002 is specifically configured to execute the method in step 42 in the preceding example and the method, which may be equivalent to the method and the module may be implemented by the processor by calling the corresponding program instruction in memory to implement the corresponding algorithm;

модуль 1003 определения, выполненный с возможностью: когда модуль 1002 оценки определяет, что количество мерцающих кадров в первых N0 кадрах текущего кадра не превышает заданное пороговое значение, определять целевую область и область фона на изображении на основании содержания изображения, где модуль специально выполнен с возможностью выполнять способ на этапе 22, этапе 32, этапе 43, этапе 52, этапе 62 или этапе 72 в вышеупомянутом примере и способ, который может быть эквивалентен способу, и модуль может быть реализован процессором, вызывая соответствующую программную инструкцию в памяти для реализации соответствующего алгоритма;determining module 1003, configured: when the evaluation module 1002 determines that the number of flickering frames in the first N0 frames of the current frame does not exceed a predetermined threshold value, determine the target area and the background area in the image based on the image content, where the module is specifically configured to perform the method in step 22, step 32, step 43, step 52, step 62, or step 72 in the above example, and the method, which may be equivalent to the method, and the module may be implemented by the processor by calling the corresponding program instruction in memory to implement the corresponding algorithm;

модуль 1004 обработки цвета, выполненный с возможностью использовать различные режимы обработки цвета для целевой области и области фона на изображении, так что цветность целевой области больше, чем цветность области фона, или яркость целевой области больше, чем яркость области фона, где модуль специально выполнен с возможностью выполнять способ на этапе 23, этапе 33, этапе 44, этапе 53, этапе 63 или этапе 73 в вышеупомянутом примере и способ, который может быть эквивалентным способу, и модуль может быть реализован процессором, вызвав соответствующую программную инструкцию в памяти с помощью конкретного алгоритма; иa color processing module 1004, configured to use different color processing modes for the target area and the background area in the image, so that the chroma of the target area is larger than the chroma of the background area, or the luminance of the target area is larger than the luminance of the background area, where the module is specially configured with the ability to execute the method in step 23, step 33, step 44, step 53, step 63 or step 73 in the above example, and the method, which may be equivalent to the method, and the module may be implemented by the processor by calling the appropriate program instruction in memory with a specific algorithm ; And

модуль 1005 удаления мерцания, выполненный с возможностью: когда модуль 1002 оценки определяет, что количество мерцающих кадров в первых N0 кадрах текущего кадра превышает заданное пороговое значение, использовать тот же способ обработки цвета для всех областей изображения текущего кадра, где тот же способ обработки цвета может быть таким же, как способ обработки цвета области фона в предшествующем кадре или может быть таким же, как способ обработки цвета целевой области в предшествующем кадре; и модуль специально выполнен с возможностью выполнять способ на этапе 45 в вышеуказанном примере и способ, который может быть эквивалентен способу, и модуль может быть реализован процессором, вызывая соответствующую программу в памяти, используя конкретный алгоритм.a flicker removal module 1005, configured: when the evaluation module 1002 determines that the number of flickering frames in the first N0 frames of the current frame exceeds a predetermined threshold value, use the same color processing method for all image areas of the current frame where the same color processing method can be the same as the way the color of the background area in the previous frame is handled, or may be the same as the way the color of the target area is handled in the previous frame; and the module is specifically configured to execute the method in step 45 in the above example and the method, which may be equivalent to the method and the module can be implemented by the processor by calling the corresponding program in memory using a particular algorithm.

Дополнительно, устройство 1000 может дополнительно включать в себя модуль 1006 хранения, выполненный с возможностью хранить изображение или видео, на котором выполняется обработка цвета.Additionally, the device 1000 may further include a storage module 1006 configured to store an image or video on which color processing is performed.

Вышеупомянутый конкретный пример способа, объяснения и описания технических признаков в вариантах осуществления и расширения множества форм реализации также применимы к выполнению способа в устройстве, и детали не описаны в вариантах осуществления устройства.The above specific example of the method, explanations and descriptions of the technical features in the embodiments and expansions of the plurality of implementation forms are also applicable to the execution of the method in the device, and the details are not described in the device embodiments.

Настоящее описание обеспечивает устройство обработки изображения. На изображении выполняется сегментация маски, так что целевая область и область фона на изображении определяются на основании содержимого изображения. К целевой области и области фона применяются различные режимы обработки цвета, так что яркость целевой области больше, чем яркость области фона, или цветность целевой области больше, чем цветность области фона и основной объект, соответствующий целевой области, более заметно выделен. Это реализует особый эффект фильма.The present description provides an image processing apparatus. The mask is segmented on the image so that the target area and the background area on the image are determined based on the content of the image. Different color processing modes are applied to the target area and the background area, so that the luminance of the target area is larger than the luminance of the background area, or the chroma of the target area is larger than the chroma of the background area, and the main object corresponding to the target area is more prominently highlighted. This realizes the special effect of the film.

Следует понимать, что разделение в модули в вышеупомянутом устройстве является просто логическим функциональным разделением. В реальной реализации некоторые или все модули могут быть интегрированы в один физический блок или могут быть физически разделены. Например, каждый из вышеупомянутых модулей может быть отдельным элементом процессора или может быть интегрирован в микросхему оконечного устройства или может храниться в элементе хранения контроллера в виде программного кода. Элемент процессора вызывает и выполняет функцию каждого из вышеупомянутых модулей. Дополнительно, модули могут быть интегрированы или могут быть реализованы независимо. Элемент процессора в данном документе может представлять собой интегрированную микросхему и обладает возможностями обработки сигналов. В процессе реализации этапы в предшествующих способах или вышеуказанных модулях могут быть реализованы с помощью интегрированной логической схемы в элементе процессора или с помощью инструкций в форме программного обеспечения. Элемент процессора может представлять собой процессор общего назначения, например, центральный блок обработки (central processing unit, CPU для краткости) или может представлять собой один или несколько интегрированных схем, выполненных с возможностью реализации способов, например, одну или более специальную интегральную схему (application-specific integrated circuit, ASIC для краткости), один или несколько микропроцессоров (digital signal processor, DSP для краткости) или один или несколько программируемых пользователем вентильных матриц (field-programmable gate array, FPGA для краткости).It should be understood that the division into modules in the above apparatus is simply a logical functional division. In an actual implementation, some or all of the modules may be integrated into one physical unit, or may be physically separated. For example, each of the above modules may be a separate element of the processor, or may be integrated into a terminal device chip, or may be stored in a storage element of the controller in the form of program code. The processor element calls and executes the function of each of the above modules. Additionally, the modules may be integrated or may be implemented independently. The processor element herein may be an integrated circuit and has signal processing capabilities. During implementation, the steps in the preceding methods or the above modules may be implemented by integrated logic in a processor element or by instructions in the form of software. The processor element may be a general purpose processor, such as a central processing unit (CPU for short), or may be one or more integrated circuits configured to implement methods, such as one or more application-specific integrated circuits (application- specific integrated circuit, ASIC for short), one or more microprocessors (digital signal processor, DSP for short), or one or more field-programmable gate arrays (FPGA for short).

Следует понимать, что в спецификации, формуле изобретения и прилагаемых чертежах настоящего описания, термины «первые», «вторые» и тому подобное, предназначены для различения аналогичных объектов, но не обязательно указывают на конкретный порядок или последовательность. Следует понимать, что данные, называемые таким образом, являются взаимозаменяемыми в надлежащем обстоятельстве, так что варианты осуществления, описанные в данном документе, могут быть реализованы посредством других порядков, чем порядок, показанный или описанный в настоящем документе. Дополнительно, термины «включает в себя», «содержащий» и любые другие варианты означают охватывание неисключительного включения, например, процесс, способ, система, продукт или устройство, которое включает в себя список этапов или модулей, не обязательно ограничено прямо перечисленным этапами или модулями, но может включать в себя другие этапы или модули, прямо не указанные или присущие такому процессу, способу, продукту или устройству.It should be understood that in the specification, claims, and accompanying drawings of this specification, the terms "first", "second", and the like are intended to distinguish between like objects, but do not necessarily indicate a particular order or sequence. It should be understood that data thus referred to are interchangeable in the proper circumstance, such that the embodiments described herein may be implemented in other orders than the order shown or described herein. Additionally, the terms "includes", "comprising" and any other variations means to cover a non-exclusive inclusion, for example, a process, method, system, product or device that includes a list of steps or modules, not necessarily limited to the steps or modules expressly listed. , but may include other steps or modules not expressly stated or inherent in such a process, method, product, or device.

Специалисты в данной области техники должны понимать, что варианты осуществления настоящего описания могут быть предоставлены в виде способа, системы или продукта компьютерного программного обеспечения. Следовательно, настоящее описание может использовать форму только аппаратных вариантов осуществления, только вариантов осуществления программного обеспечения или варианты осуществления с комбинацией программного и аппаратного обеспечения. Более того, настоящее описание может использовать форму компьютерного программного продукта, который реализован на одном или нескольких машиночитаемых носителей информации (включающие в себя, но не ограничивается, память диска, CD-ROM, оптическая память и тому подобное), который включает в себя компьютерный программный код.Those skilled in the art will appreciate that embodiments of the present disclosure may be provided as a method, system, or computer software product. Therefore, the present description may take the form of hardware-only embodiments, software-only embodiments, or combination of software and hardware embodiments. Moreover, the present disclosure may take the form of a computer program product that is embodied in one or more computer-readable storage media (including, but not limited to, disk memory, CD-ROM, optical memory, and the like) that includes a computer program code.

Настоящее описание описано со ссылкой на блок-схемы алгоритма и/или блок-схемы способа, устройства (системы) и продукт компьютерного программного обеспечения в соответствии с вариантами осуществления настоящего описания. Следует понимать, что инструкции компьютерных программ могут использоваться для реализации каждого процесса и/или каждого блока в блок-схемах алгоритма и/или блоках схемы и комбинации процесса и/или блока в блок-схемах алгоритма и/или блок-схемах. Эти инструкции компьютерных программ могут быть предоставлены для компьютера общего назначения, компьютера специального назначения, встроенного процессора или процессора другого программируемого устройства обработки данных для генерирования машины, так что инструкции, выполняемые компьютером или процессором другого программируемого устройства обработки данных генерирует устройство для реализации конкретной функции в одном или нескольких процессах в блок-схемах алгоритма и/или в одном или нескольких блоках в блок-схемах.The present description has been described with reference to flowcharts and/or flowcharts of a method, apparatus (system), and computer software product in accordance with embodiments of the present disclosure. It should be understood that computer program instructions may be used to implement each process and/or each block in the flowcharts and/or flowcharts and the combination of the process and/or block in the flowcharts and/or flowcharts. These computer program instructions may be provided to a general purpose computer, a special purpose computer, an embedded processor, or a processor of another programmable data processing device to generate a machine, such that instructions executed by the computer or processor of another programmable data processing device generate a device to implement a particular function in one or multiple processes in flowcharts and/or one or more blocks in flowcharts.

Эти инструкции компьютерных программ могут быть сохранены в машиночитаемой памяти, которая может указать компьютеру или другому программируемому устройству обработки данных работать определенным образом, так что инструкции, хранящиеся в машиночитаемой памяти, генерируют артефакт, который включает в себя устройство обучения. Устройство обучения реализует специфическую функцию в одном или нескольких процессах в блок-схемах алгоритма и/или в одном или нескольких блоках в блок-схемах.These computer program instructions may be stored in computer readable memory, which may instruct the computer or other programmable processing device to operate in a certain way, such that the instructions stored in computer readable memory generate an artifact that includes the learning device. The learning device implements a specific function in one or more processes in the flowcharts and/or in one or more blocks in the flowcharts.

Эти инструкции компьютерных программ могут быть альтернативно загружены в компьютер или другое программируемое устройство обработки данных, так что выполняется последовательность операций и этапов на компьютере или другом программируемом устройстве, выполняя, тем самым, компьютерную обработку. Следовательно, инструкции, выполненные на компьютере или другом программируемом устройстве, предоставляют этапы для реализации конкретной функции в одном или нескольких процессах в блок-схемах алгоритма и/или в одном или нескольких блоках в блок-схемах.These computer program instructions may alternatively be downloaded to a computer or other programmable processing device such that a series of operations and steps are performed on the computer or other programmable device, thereby performing computer processing. Therefore, instructions executed on a computer or other programmable device provide steps for implementing a particular function in one or more processes in flowcharts and/or in one or more blocks in flowcharts.

Хотя были описаны некоторые варианты осуществления настоящего описания, специалисты в данной области техники могут внести изменения и модификации для этих вариантов осуществления, как только они изучают основную концепцию изобретения. Следовательно, прилагаемая формула изобретения охватывает все перечисленные варианты осуществления и все изменения и модификации должны находиться в рамках объема настоящего описания. Очевидно, что специалист в данной области техники может внести различные модификации и вариации в варианты осуществления настоящего описания, не отходя от сущности и объема вариантов осуществления настоящего описания. Настоящее описание охватывает эти модификации и вариации при условии, что они находятся в рамках объема защиты, определяемый следующими пунктами формулы изобретения и их эквивалентными технологиями.Although some embodiments of the present disclosure have been described, changes and modifications to these embodiments may be made by those skilled in the art once they learn the basic concept of the invention. Therefore, the appended claims cover all listed embodiments and all changes and modifications should be within the scope of the present description. Obviously, a person skilled in the art can make various modifications and variations in the embodiments of the present description, without departing from the spirit and scope of the embodiments of the present description. The present description covers these modifications and variations provided that they are within the scope of protection defined by the following claims and their equivalent technologies.

Claims (34)

1. Способ обработки изображения, реализуемый оконечным устройством, содержащий этапы, на которых:1. An image processing method implemented by a terminal device, comprising the following steps: захватывают изображение;capture an image; определяют область основного объекта и область фона в изображении на основе категории объекта в изображении и нейронной сети;determining a main object area and a background area in the image based on the category of the object in the image and the neural network; сохраняют цвет области основного объекта в изображении и выполняют обработку черно-белого цвета или обработку размытия в области фона в изображении, причем область фона представляет собой область изображения, отличную от области основного объекта; илиmaintaining the color of the main object area in the image, and performing black and white color processing or blur processing on the background area in the image, the background area being an image area different from the main object area; or определяют только область фона в изображении на основе категории объекта в изображении и нейронной сети и выполняют обработку черно-белого цвета или обработку размытия в области фона изображения, причем область фона является областью изображения отличающейся от области основного объекта; determining only a background area in the image based on the category of the object in the image and the neural network, and performing black-and-white color processing or blur processing in the background area of the image, the background area being an image area different from the main object area; генерируют целевое изображение или целевое видео на основании обработанного изображения; иgenerating a target image or a target video based on the processed image; And определяют первую маску первой категории объектов и вторую маску второй категории объектов на основании нейронной сети, причем первая маска определяет область основного объекта, а вторая маска определяет область фона, причем первая категория объекта содержит по меньшей мере одно из: человека, животного, растения, транспортного средства или другой заданной категории объектов; вторая категория объекта является фоном.the first mask of the first category of objects and the second mask of the second category of objects are determined based on the neural network, the first mask defines the area of the main object, and the second mask defines the background area, the first category of the object contains at least one of: human, animal, plant, vehicle means or other specified category of objects; the second category of the object is the background. 2. Способ по п.1, в котором нейронная сеть обучена с использованием набора данных обучения, причем набор данных обучения содержит входные изображения.2. The method of claim 1, wherein the neural network is trained using a training dataset, wherein the training dataset contains input images. 3. Способ по п.2, в котором набор данных обучения дополнительно содержит графы маски.3. The method of claim 2, wherein the training data set further comprises mask graphs. 4. Способ по любому из пп.1-3, в котором нейронная сеть выполнена с возможностью определения по меньшей мере двух категорий объектов из человека, животного, растения, транспортного средства или одежды.4. The method according to any one of claims 1 to 3, wherein the neural network is configured to determine at least two categories of objects from a person, animal, plant, vehicle, or clothing. 5. Способ по любому из пп.1-4, в котором первое количество пикселей, находящихся в изображении и соответствующих первой маске, больше, чем второе количество пикселей, находящихся в изображении и соответствующих третей маске третьей категории объектов, причем третья категория объекта отличается от второй категории объектов.5. The method according to any one of claims 1 to 4, wherein the first number of pixels in the image and corresponding to the first mask is greater than the second number of pixels in the image and corresponding to the third mask of the third category of objects, and the third category of the object is different from the second category of objects. 6. Способ по любому из пп.1-5, в котором первая маска имеет более высокий приоритет определения основного объекта, чем вторая маска.6. A method according to any one of claims 1 to 5, wherein the first mask has a higher primary object determination priority than the second mask. 7. Способ по любому из пп.1-6, в котором область основного объекта содержит множество отдельных предметов, причем множество отдельных предметов принадлежит одной категории объектов или различным категориям объектов.7. A method according to any one of claims 1 to 6, wherein the main object area comprises a plurality of individual items, the plurality of individual items belonging to the same object category or different object categories. 8. Способ по любому из пп.1-7, дополнительно содержащий этап, на котором получают область основного объекта посредством выполнения сегментации уровня пикселей на объекте с использованием нейронной сети.8. The method according to any one of claims 1 to 7, further comprising obtaining an area of the main object by performing pixel level segmentation on the object using a neural network. 9. Устройство обработки изображения, используемое оконечным устройством, содержащее: модуль фотографирования, модуль определения и модуль обработки цвета, при этом9. An image processing device used by the terminal device, comprising: a photographing module, a determination module and a color processing module, while модуль фотографирования выполнен с возможностью захвата изображения;the photographing module is configured to capture an image; модуль определения выполнен с возможностью идентификации области основного объекта и области фона в изображении на основании категории объектов в изображении и использования нейронной сети; иthe determining module is configured to identify the main object area and the background area in the image based on the category of objects in the image and use the neural network; And модуль обработки цвета выполнен с возможностью:the color processing module is configured to: сохранения цвета области основного объекта в изображении и выполнения обработки черно-белого цвета или обработки размытия в области фона в изображении, причем область фона является областью изображения, отличной от области основного объекта; илиstoring the color of the main object area in the image, and performing black and white color processing or blur processing in the background area of the image, the background area being an image area different from the main object area; or модуль определения выполнен с возможностью определения только области фона в изображении на основе категории объекта в изображении и использования нейронной сети, а модуль обработки цвета выполнен с возможностью выполнения обработки черно-белого цвета или обработки размытия в области фона изображения, причем область фона является областью изображения отличающейся от области основного объекта; the determining module is configured to determine only the background area in the image based on the category of the object in the image and using the neural network, and the color processing module is configured to perform black and white color processing or blur processing in the background area of the image, and the background area is an image area different from the area of the main object; модуль обработки цвета дополнительно выполнен с возможностью генерирования целевого изображения или целевого видео на основании обработанного изображения; причемthe color processing module is further configured to generate a target image or a target video based on the processed image; and модуль определения дополнительно выполнен с возможностью определения первой маски первой категории объекта и второй маски второй категории объекта, причем первая маска определяет область основного объекта, а вторая маска определяет область фона; при этом первая категория объектов содержит по меньшей мере одно из человека, животного, растения или транспортного средства; вторая категория объектов является фоном.the determining module is further configured to determine the first mask of the first category of the object and the second mask of the second category of the object, and the first mask defines the main object area, and the second mask defines the background area; wherein the first category of objects comprises at least one of a human, animal, plant, or vehicle; the second category of objects is the background. 10. Устройство по п.9, в котором нейронная сеть обучена с использованием набора данных обучения, причем набор данных обучения содержит входные изображения.10. The apparatus of claim 9, wherein the neural network is trained using the training dataset, the training dataset comprising input images. 11. Устройство по п.10, в котором набор данных обучения дополнительно содержит графы маски.11. The apparatus of claim 10, wherein the training data set further comprises mask graphs. 12. Устройство по любому из пп.9-11, в котором нейронная сеть выполнена с возможностью идентификации по меньшей мере двух категорий объектов из человека, животного, растения, транспортного средства или одежды.12. An apparatus according to any one of claims 9 to 11, wherein the neural network is configured to identify at least two categories of objects from a person, animal, plant, vehicle, or clothing. 13. Устройство по любому из пп.9-12, в котором первое количество пикселей, находящихся в изображении, соответствующих первой маске, больше, чем второе количество пикселей, находящихся в изображении, и соответствующих третьей маске третьей категории объектов, причем третья категория объектов отличается от второй категории объектов.13. The device according to any one of claims 9 to 12, wherein the first number of pixels in the image corresponding to the first mask is greater than the second number of pixels in the image corresponding to the third mask of the third category of objects, and the third category of objects is different from the second category of objects. 14. Устройство по любому из пп.9-13, в котором первая маска первой категории объектов имеет более высокий приоритет определения основного объекта, чем вторая маска второй категории объектов.14. An apparatus according to any one of claims 9 to 13, wherein the first mask of the first category of objects has a higher primary object determination priority than the second mask of the second category of objects. 15. Устройство по любому из пп.9-14, в котором область основного объекта содержит множество отдельных предметов, причем множество отдельных предметов принадлежит одной категории объектов или различным категориям объекта.15. An apparatus according to any one of claims 9 to 14, wherein the main object area comprises a plurality of individual items, the plurality of individual items belonging to the same object category or different object categories. 16. Устройство по любому из пп.9-15, в котором модуль определения дополнительно выполнен с возможностью получения области основного объекта посредством выполнения сегментации уровня пикселей на объекте с использованием нейронной сети.16. An apparatus according to any one of claims 9 to 15, wherein the determining module is further configured to obtain an area of the main object by performing pixel level segmentation on the object using a neural network. 17. Оконечное устройство обработки изображения, содержащее камеру, память, процессор и шину; причем камера, память и процессор соединены посредством шины;17. Terminal image processing device containing a camera, memory, processor and bus; wherein the camera, memory, and processor are connected via a bus; камера выполнена с возможностью захвата изображения;the camera is configured to capture an image; память выполнена с возможностью хранения компьютерной программы и инструкций; аthe memory is configured to store a computer program and instructions; A процессор выполнен с возможностью вызова компьютерной программы, инструкций и захваченного изображения, хранящихся в памяти, для выполнения способа по любому из пп.1-8.the processor is configured to call the computer program, instructions and the captured image stored in the memory to perform the method according to any one of claims 1-8. 18. Оконечное устройство обработки изображения по п.17, дополнительно содержащее антенную систему, причем антенная система выполнена с возможностью приема и передачи сигнала беспроводной связи под управлением процессора для реализации беспроводной связи с мобильной сетью связи, при этом мобильная сеть связи содержит одну или более из: сети глобальной системы мобильной связи (GSM), сети множественного доступа с кодовым разделением (CDMA), сети 3-го поколения (3G), сети 4-го поколения (4G), сети 5-го поколения (5G), сети множественного доступа с разделением частот (FDMA), сети множественный доступ с разделением по времени (TDMA), сети персональной цифровой сотовой связи (PDC), сети системы связи с полным доступом (TACS), сети усовершенствованной мобильной телефонной службы (AMPS), сети широкополосного множественного доступа с кодовым разделением (WCDMA), сети множественного доступа с синхронным разделением по времени и частоте (TDSCDMA), сети «беспроводная достоверность» (Wi-Fi) или сети «Долгосрочное развитие» (LTE).18. The image processing terminal according to claim 17, further comprising an antenna system, the antenna system being configured to receive and transmit a wireless communication signal under control of the processor to implement wireless communication with a mobile communication network, wherein the mobile communication network comprises one or more of : Global System for Mobile Communications (GSM) networks, Code Division Multiple Access (CDMA) networks, 3rd generation networks (3G), 4th generation networks (4G), 5th generation networks (5G), multiple access networks frequency division multiple access (FDMA), time division multiple access (TDMA) networks, personal digital cellular (PDC) networks, all access communication system (TACS) networks, advanced mobile telephone service (AMPS) networks, broadband multiple access networks code division multiple access (WCDMA), synchronous time and frequency division multiple access (TDSCDMA), wireless reliability (Wi-Fi), or Long Term Evolution (LTE) networks.
RU2021113676A 2018-10-15 2019-06-18 Image processing device and method and equipment RU2794062C2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811199234.8 2018-10-15

Publications (2)

Publication Number Publication Date
RU2021113676A RU2021113676A (en) 2022-11-17
RU2794062C2 true RU2794062C2 (en) 2023-04-11

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2823046C1 (en) * 2023-10-31 2024-07-17 Мурат Юрьевич Шхануков Complex for obtaining photo and video image using unmanned aerial vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080131001A1 (en) * 2004-07-06 2008-06-05 Yoram Hofman Multi-level neural network based characters identification method and system
US7899082B2 (en) * 2001-06-14 2011-03-01 International Business Machines Corporation Periodic broadcast and location of evolving media content with application to seminar and stroke media
US20170337693A1 (en) * 2016-05-23 2017-11-23 Intel Corporation Method and system of real-time image segmentation for image processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7899082B2 (en) * 2001-06-14 2011-03-01 International Business Machines Corporation Periodic broadcast and location of evolving media content with application to seminar and stroke media
US20080131001A1 (en) * 2004-07-06 2008-06-05 Yoram Hofman Multi-level neural network based characters identification method and system
US20170337693A1 (en) * 2016-05-23 2017-11-23 Intel Corporation Method and system of real-time image segmentation for image processing

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AKSOY YAĞIZ: "Semantic Soft Segmentation",08.2018, [найдено:11.10.2022 ] Найдено в: "doi:10.1145/3197517.3201275". *
ZAMANI MD SANI: "Real-Time Daytime Road Marker Recognition Using Features Vectors and Neural Network", 2015, [найдено:11.10.2022 ] Найдено в: "doi:10.1109/CSUDET.2015.7446223". *
САЛЬНИКОВ И.И.: "Интеграционные процессы в развитии средств реализации информационных потребностей человека на современном этапе", 2014, [найдено:11.10.2022 ] Найдено в: https://www.elibrary.ru/item.asp?id=21841161. ДУБЕНКО Ю.В. и др: "Применение искусственных нейронных сетей к распознаванию объектов на изображении", 03.2018, 14л., [найдено:11.10.2022 ] Найдено в: "https://ntk.kubstu.ru/data/mc/0051/2088.pdf". *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2823046C1 (en) * 2023-10-31 2024-07-17 Мурат Юрьевич Шхануков Complex for obtaining photo and video image using unmanned aerial vehicle

Similar Documents

Publication Publication Date Title
JP7266672B2 (en) Image processing method, image processing apparatus, and device
US12026863B2 (en) Image processing method and apparatus, and device
WO2021036991A1 (en) High dynamic range video generation method and device
WO2020192692A1 (en) Image processing method and related apparatus
CN112887582A (en) Image color processing method and device and related equipment
US20220245778A1 (en) Image bloom processing method and apparatus, and storage medium
CN113727085A (en) White balance processing method and electronic equipment
RU2794062C2 (en) Image processing device and method and equipment
CN116709042B (en) Image processing method and electronic equipment
CN115705663B (en) Image processing method and electronic equipment
RU2791810C2 (en) Method, equipment and device for image processing
CN112507948A (en) Mask wearing prompting method and related device
CN117119316B (en) Image processing method, electronic device, and readable storage medium
WO2023036313A1 (en) Image photographing method and apparatus, and computer device and storage medium
CN115526788A (en) Image processing method and device
CN116723417A (en) Image processing method and electronic equipment