BR112021007094A2 - método de processamento de imagem, aparelho, e dispositivo - Google Patents

método de processamento de imagem, aparelho, e dispositivo Download PDF

Info

Publication number
BR112021007094A2
BR112021007094A2 BR112021007094-0A BR112021007094A BR112021007094A2 BR 112021007094 A2 BR112021007094 A2 BR 112021007094A2 BR 112021007094 A BR112021007094 A BR 112021007094A BR 112021007094 A2 BR112021007094 A2 BR 112021007094A2
Authority
BR
Brazil
Prior art keywords
image
area
color processing
processing mode
mask
Prior art date
Application number
BR112021007094-0A
Other languages
English (en)
Inventor
Yu Li
Feilong Ma
Tizheng Wang
Xiujie Huang
Original Assignee
Huawei Technologies Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co., Ltd. filed Critical Huawei Technologies Co., Ltd.
Publication of BR112021007094A2 publication Critical patent/BR112021007094A2/pt

Links

Classifications

    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/60
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

MÉTODO DE PROCESSAMENTO DE IMAGEM, APARELHO, E DISPOSITIVO. A presente invenção fornece um método de processamento de imagem. Uma área alvo e uma área de plano de fundo são determinadas em uma imagem realizando a segmentação de máscara na imagem. Diferentes modos de processamento de cor são aplicados à área alvo e à área de plano de fundo, de modo que a luminância da área alvo seja maior que a luminância da área de plano de fundo, ou a crominância da área alvo seja maior que a crominância da área de plano de fundo, e um objeto principal correspondente à área alvo é destacada mais proeminentemente. Isso permite que um usuário de terminal tenha um efeito especial de filme durante a fotografia ou fotografia de vídeo, e aprimora a experiência de fotografia do usuário. Além disso, a presente invenção promove um método para determinar uma área alvo por período de tempo e/ou um método para alterar um modo de processamento de cor por período de tempo, de modo que uma alteração de objeto principal e uma alteração de cor de conteúdo de vídeo sejam mais flexíveis e automáticas, e a interação humano-computador é fortalecida.

Description

MÉTODO DE PROCESSAMENTO DE IMAGEM, APARELHO, E DISPOSITIVO CAMPO TÉCNICO
[0001] A presente invenção se refere ao campo das tecnologias de terminal e, em particular, a um método e aparelho de processamento de imagem, e um dispositivo.
ANTECEDENTES
[0002] Fotografar é usar uma câmera ou um gravador de vídeo para gravar uma imagem de uma pessoa ou objeto. Existem diferentes habilidades de fotografia para diferentes cenas, como fotografia de cenas noturnas, fotografia de cenas de chuva, fotografia de edifícios, e fotografia de retratos. A fotografia dinâmica para a arte do cinema também é um tipo de fotografia, mas precisa obedecer a um princípio específico. Com o avanço da ciência e da tecnologia, fotografar se tornou mais simples e popular.
[0003] Com um aumento da largura de banda da rede e o aprimoramento de uma capacidade de processamento do terminal, a fotografia e o compartilhamento de vídeo e imagem se tornaram mais convenientes, e o consumo de vídeo se tornou um novo modo de vida para todas as pessoas. Os vídeos rapidamente se tornam um serviço de tráfego intenso em uma rede e deve representar de 80% a 90% do tráfego total nos próximos anos.
[0004] No dia a dia, fotografar se tornou a principal forma de as pessoas se mostrarem e encontrarem a beleza das coisas. As pessoas querem fotografar em estilos mais interessantes. Por exemplo, durante a fotografia, o processamento de efeitos especiais de imagens ou vídeos é concluído, para implementar a experiência de fotografia de "o que você vê é o que você obtém". Portanto, para um não profissional, mais novas tecnologias de processamento de imagem precisam ser integradas a um terminal.
[0005] Atualmente, uma função de gravação de vídeo do terminal é monótona. Atualmente, apenas a fotografia de vídeo convencional pode ser fornecida, faltando alguns efeitos personalizados.
SUMÁRIO
[0006] A presente invenção fornece um método de processamento de imagem. Uma área alvo e uma área de plano de fundo são determinadas em uma imagem realizando a segmentação de máscara (modelo) na imagem. Diferentes modos de processamento de cor são aplicados à área alvo e à área de plano de fundo, de modo que a luminância da área alvo seja maior que a luminância da área de plano de fundo, ou a crominância da área alvo seja maior que a crominância da área de plano de fundo, e um objeto principal correspondente à área alvo é destacada mais proeminentemente. Isso permite que um usuário de terminal tenha um efeito especial de filme durante a fotografia ou fotografia de vídeo, e melhora a experiência de fotografia do usuário.
[0007] As soluções técnicas específicas fornecidas nas modalidades da presente invenção são as seguintes.
[0008] De acordo com um primeiro aspecto, uma modalidade da presente invenção fornece um método de processamento de imagem. O método é aplicado a um processo de gravação de vídeo e o método inclui: captura de N1 imagens em um primeiro período de tempo; captura de N2 imagens em um segundo período de tempo, onde o primeiro período de tempo e o segundo período de tempo são períodos de tempo adjacentes, e ambos N1 e N2 são números inteiros positivos; determinar uma primeira área alvo e uma primeira área de plano de fundo de cada uma das N1 imagens, onde a primeira área de plano de fundo é uma área da imagem diferente da primeira área alvo e a primeira área alvo em cada uma das N1 imagens corresponde a um primeiro objeto; determinar uma segunda área alvo e uma segunda área de plano de fundo de cada uma das N2 imagens, onde a segunda área de plano de fundo é uma área da imagem diferente da segunda área alvo e a segunda área alvo em cada uma das N2 imagens corresponde a uma segunda objeto; e processar a primeira área alvo em um primeiro modo de processamento de cor, processar a primeira área de plano de fundo em um segundo modo de processamento de cor, processar a segunda área alvo em um terceiro modo de processamento de cor, e processar a segunda área de plano de fundo em um quarto modo de processamento de cor, para obter um vídeo alvo. No vídeo alvo, a crominância da primeira área alvo é maior do que a crominância da primeira área de plano de fundo, ou a luminância da primeira área alvo é maior que a luminância da primeira área de plano de fundo. Além disso, a crominância da segunda área alvo é maior do que a crominância da segunda área de plano de fundo, ou a luminância da segunda área alvo é maior do que a luminância da segunda área de plano de fundo.
[0009] De acordo com um segundo aspecto, uma modalidade da presente invenção fornece um aparelho de processamento de imagem. O aparelho é usado em um processo de fotografia de vídeo e o aparelho inclui: um módulo de fotografia, configurado para capturar N1 imagens em um primeiro período de tempo e capturar N2 imagens em um segundo período de tempo, onde o primeiro período de tempo e o segundo período de tempo são períodos de tempo adjacentes, e ambos N1 e N2 são inteiros positivos; um módulo de determinação, configurado para: determinar uma primeira área alvo e uma primeira área de plano de fundo de cada uma das N1 imagens, onde a primeira área de plano de fundo é uma área da imagem diferente da primeira área alvo e a primeira área alvo em cada uma das N1 imagens correspondem a um primeiro objeto; e determinar uma segunda área alvo e uma segunda área de plano de fundo de cada uma das N2 imagens, onde a segunda área de plano de fundo é uma área da imagem diferente da segunda área alvo, e a segunda área alvo em cada uma das N2 imagens corresponde a um segundo objeto; e um módulo de processamento de cor, configurado para processar a primeira área alvo em um primeiro modo de processamento de cor, processar a primeira área de plano de fundo em um segundo modo de processamento de cor, processar a segunda área alvo em um terceiro modo de processamento de cor, e processar a segunda área de plano de fundo em um quarto modo de processamento de cor, para obter um vídeo alvo. No vídeo alvo, a crominância da primeira área alvo é maior do que a crominância da primeira área de plano de fundo, ou a luminância da primeira área alvo é maior que a luminância da primeira área de plano de fundo. Além disso, a crominância da segunda área alvo é maior do que a crominância da segunda área de plano de fundo, ou a luminância da segunda área alvo é maior do que a luminância da segunda área de plano de fundo.
[0010] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro objeto e o segundo objeto são um mesmo objeto.
[0011] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro objeto e o segundo objeto são objetos diferentes.
[0012] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro objeto ou o segundo objeto inclui pelo menos um indivíduo de uma categoria de objeto (por exemplo, uma pessoa, um animal, ou uma planta).
[0013] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro objeto e o segundo objeto são determinados de acordo com uma instrução de seleção de um usuário.
[0014] Especificamente, por exemplo, o primeiro objeto é determinado a partir de uma primeira imagem no primeiro período de tempo de acordo com a instrução de seleção do usuário, e o primeiro objeto é usado como um objeto alvo em todas as imagens no primeiro período de tempo. Da mesma forma, o segundo objeto é determinado a partir de uma primeira imagem no segundo período de tempo de acordo com a instrução de seleção do usuário, e o segundo objeto é usado como um objeto alvo em todas as imagens no segundo período de tempo. Por exemplo, a segmentação semântica pode ser realizada na imagem para obter k máscaras. As k máscaras correspondem a diferentes categorias de objeto, uma instrução de seleção inserida pelo usuário corresponde a uma máscara específica ou máscaras específicas, e um objeto correspondente à máscara específica ou às máscaras específicas é um objeto alvo.
[0015] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro objeto e o segundo objeto são determinados separadamente por um terminal com base no conteúdo de duas imagens em um intervalo de tempo predefinido.
[0016] Especificamente, por exemplo, o primeiro objeto é determinado a partir de uma primeira imagem no primeiro período de tempo e o primeiro objeto é usado como um objeto alvo em todas as imagens no primeiro período de tempo. Da mesma forma, o segundo objeto é determinado a partir de uma primeira imagem no segundo período de tempo, e o segundo objeto é usado como um objeto alvo em todas as imagens no segundo período de tempo. A maneira pela qual o primeiro objeto é determinado a partir da primeira imagem no primeiro período de tempo, e o segundo objeto é determinado a partir da primeira imagem no segundo período de tempo inclui, mas não está limitado a uma das seguintes maneiras: realizar segmentação semântica na imagem para obter k máscaras, onde as k máscaras correspondem a diferentes categorias de objeto; e se k = 2, e as duas máscaras incluem uma máscara de objeto e uma máscara de plano de fundo, determinando uma área da imagem correspondente à máscara do objeto como uma área alvo e determinando uma área correspondente à máscara de plano de fundo como uma área de plano de fundo, onde um objeto correspondente para o objeto, a máscara é o primeiro ou o segundo objeto; se k for maior que 2 e uma quantidade de pixeis incluídos nas máscaras de objeto k0 nas k máscaras for maior do que um limiar predefinido, determinar uma área de imagem correspondente às máscaras de objeto k0 como uma área alvo e determinar uma área de imagem correspondente a uma máscara restante como uma área de plano de fundo, onde um objeto correspondente à máscara do objeto é o primeiro ou o segundo objeto e k0 é um número inteiro não negativo menor que k; se k for maior que 2, determinar, como área alvo, uma área da imagem correspondente a uma máscara que inclui a maior quantidade de pixeis e que está nas k máscaras, e determinar uma área da imagem correspondente às máscaras restantes como área de plano de fundo, onde um objeto correspondente à máscara de objeto é o primeiro objeto ou o segundo objeto; se k for maior que 2, determinar uma máscara alvo das k máscaras com base nas prioridades predefinidas das categorias de objeto; e determinar uma área de imagem correspondente à máscara de alvo como uma área alvo, e determinar uma área de imagem correspondente a máscaras restantes como uma área de plano de fundo, onde um objeto correspondente à máscara de objeto é o primeiro objeto ou o segundo objeto; ou se k for maior que 2, determinar uma máscara de alvo a partir das máscaras de k de acordo com uma instrução de seleção do usuário; e determinar uma área de imagem correspondente à máscara de alvo como uma área alvo e determinar uma área de imagem correspondente a máscaras restantes como uma área de plano de fundo, onde um objeto correspondente à máscara de objeto é o primeiro objeto ou o segundo objeto. O método pode ser realizado especificamente pelo módulo de determinação.
[0017] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro modo de processamento de cor é igual ao terceiro modo de processamento de cor, e o segundo modo de processamento de cor é igual ao quarto modo de processamento de cor.
[0018] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro modo de processamento de cor é igual ao terceiro modo de processamento de cor, e o segundo modo de processamento de cor é diferente do quarto modo de processamento de cor.
[0019] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro modo de processamento de cor é diferente do terceiro modo de processamento de cor, e o segundo modo de processamento de cor é igual ao quarto modo de processamento de cor.
[0020] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro modo de processamento de cor é diferente do terceiro modo de processamento de cor, e o segundo modo de processamento de cor é diferente do quarto modo de processamento de cor.
[0021] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o primeiro modo de processamento de cor ou o terceiro modo de processamento de cor inclui retenção de cor ou aprimoramento de cor.
[0022] De acordo com o primeiro aspecto ou o segundo aspecto, em um projeto possível, o segundo modo de processamento de cor ou o quarto modo de processamento de cor inclui um modo preto e branco, escurecimento, desfoque ou retrô.
[0023] De acordo com um terceiro aspecto, uma modalidade da presente invenção fornece um dispositivo terminal, incluindo uma câmera, uma memória, um processador e um barramento. A câmera, a memória e o processador são conectados por meio do barramento. A câmera é configurada para capturar uma imagem, e a memória para armazenar um programa de computador e uma instrução. O processador é configurado para invocar o programa de computador, a instrução, e a imagem capturada que são armazenadas na memória, e é ainda especificamente configurado para permitir que o dispositivo terminal realize qualquer um dos métodos de projetos possíveis anteriores.
[0024] De acordo com o terceiro aspecto, em um projeto possível, o dispositivo terminal inclui ainda um sistema de antena. O sistema de antena recebe e envia um sinal de comunicação sem fio sob controle do processador, para implementar a comunicação sem fio com uma rede de comunicações móveis. A rede de comunicações móveis inclui um ou mais dos seguintes: uma rede GSM, uma rede CDMA, uma rede 3G, uma rede 4G, uma rede 5G, uma rede FDMA, uma rede TDMA, uma rede PDC, uma rede TACS, uma rede AMPS, uma rede WCDMA, uma rede TDSCDMA, uma rede Wi-Fi e uma rede LTE.
[0025] As soluções técnicas nos projetos possíveis anteriores podem ser combinadas sem ir contra sua natureza.
[0026] Em uma tecnologia convencional, quando um vídeo ou uma imagem é fotografada, um efeito especial não é rico o suficiente sem distinguir entre indivíduos ou cores em qualquer imagem. De acordo com a presente invenção, diferentes áreas em uma imagem podem ser distinguidas usando cores, de modo que um efeito especial de uma foto ou de um vídeo seja aprimorado, e um objeto principal e um alvo na imagem possam ser mais destacados. Desta forma, os papéis principais são mais proeminentes. Além disso, a presente invenção pode ainda fornecer mais mudanças de cor e mudanças de objeto principal, para melhorar a aderência de um usuário.
BREVE DESCRIÇÃO DOS DESENHOS
[0027] A FIG. 1 é um diagrama esquemático de uma estrutura de um terminal de acordo com uma modalidade da presente invenção; a FIG. 2 é um fluxograma de um método de processamento de imagem de acordo com uma modalidade da presente invenção; a FIG. 3 mostra um exemplo de um identificador de máscara de acordo com uma modalidade da presente invenção; a FIG. 4 mostra outro exemplo de um identificador de máscara de acordo com uma modalidade da presente invenção; a FIG. 5 é um diagrama esquemático para determinar uma máscara alvo de acordo com uma modalidade da presente invenção; a FIG. 6 é outro diagrama esquemático para determinar uma máscara alvo de acordo com uma modalidade da presente invenção; a FIG. 7 é outro diagrama esquemático para determinar uma máscara alvo de acordo com uma modalidade da presente invenção; a FIG. 8 é outro diagrama esquemático de determinação de uma máscara alvo de acordo com uma modalidade da presente invenção; a FIG. 9 é um diagrama esquemático de um aparelho de processamento de imagem de acordo com uma modalidade da presente invenção; e a FIG. 10 é outro diagrama esquemático de um aparelho de processamento de imagem de acordo com uma modalidade da presente invenção.
DESCRIÇÃO DAS MODALIDADES
[0028] O que se segue descreve clara e completamente as soluções técnicas nas modalidades da presente invenção com referência aos desenhos anexos nas modalidades da presente invenção. Definitivamente, as modalidades descritas são apenas algumas, mas não todas as modalidades da presente invenção. Todas as outras modalidades obtidas por uma pessoa de conhecimento comum na técnica com base nas modalidades da presente invenção, sem esforços criativos, devem cair dentro do escopo de proteção da presente invenção.
[0029] Nas modalidades da presente invenção, um terminal pode ser um dispositivo que fornece fotografia de vídeo e / ou conectividade de dados a um usuário, um dispositivo portátil com uma função de conexão sem fio, ou outro dispositivo de processamento conectado a um modem sem fio, por exemplo, uma câmera digital, uma câmera reflex de lente única, um telefone celular (ou referido como um telefone "celular"), ou um telefone inteligente. O terminal pode ser um dispositivo portátil, de bolso, de mão ou vestível (por exemplo, um relógio inteligente), um computador tipo tablet, um computador pessoal (PC), um PDA (Personal Digital Assistant), um computador no veículo, um drone, um dispositivo aéreo, ou semelhante.
[0030] FIG. 1 é um diagrama esquemático de uma estrutura de hardware opcional de um terminal 100.
[0031] Como mostrado na FIG. 1, o terminal 100 pode incluir componentes como uma unidade de radiofrequência 110, uma memória 120, uma unidade de entrada 130, uma unidade de exibição 140, uma câmera 150, um circuito de áudio 160 (incluindo um alto-falante 161 e um microfone 162), um processador 170, uma interface externa 180 e uma fonte de alimentação 190. Uma pessoa versada na técnica pode entender que a FIG. 1 é apenas um exemplo de um terminal inteligente ou um dispositivo multifuncional, e não constitui uma limitação do terminal inteligente ou do dispositivo multifuncional. O terminal inteligente ou o dispositivo multifuncional pode incluir mais ou menos componentes do que aqueles mostrados na figura, ou combinar alguns componentes, ou incluir diferentes componentes. Por exemplo, o terminal inteligente ou o dispositivo multifuncional inclui pelo menos a memória 120, o processador 170 e a câmera 150.
[0032] A câmera 150 é configurada para capturar uma imagem ou um vídeo e pode ser acionada e iniciada de acordo com uma instrução de um programa de aplicativo, para implementar uma função de fotografia ou uma função de fotografia de vídeo. A câmera pode incluir componentes como uma lente de imagem, um filtro de luz e um sensor de imagem. Os raios de luz emitidos ou refletidos por um objeto entram nas lentes de imagem, passam pelo filtro de luz e, finalmente, convergem no sensor de imagem. A lente de imagem é configurada principalmente para convergir, em uma imagem, a luz emitida ou refletida por todos os objetos (o que também pode ser referido como um cenário a ser fotografado, objetos a serem fotografados, um cenário alvo, ou objetos alvo, e também pode ser entendido como uma imagem de cenário que um usuário espera fotografar) em um ângulo de visão fotográfico. O filtro de luz é configurado principalmente para filtrar uma onda de luz redundante (por exemplo, uma onda de luz diferente da luz visível, por exemplo, luz infravermelha) em raios de luz. O sensor de imagem é configurado principalmente para: realizar conversão ótica em elétrica em um sinal ótico recebido, converter o sinal ótico em um sinal elétrico e inserir o sinal elétrico no processador 170 para processamento subsequente. A câmera pode estar localizada na frente do dispositivo terminal ou pode estar localizada na parte traseira do dispositivo terminal. Uma quantidade específica e uma forma de disposição específica de câmeras podem ser determinadas de forma flexível com base em uma exigência de um projetista ou política do fornecedor. Isso não é limitado neste pedido.
[0033] A unidade de entrada 130 pode ser configurada para receber dígito de entrada ou informação de caractere, e gerar uma entrada de sinal chave relacionada às configurações do usuário e controle de função do aparelho multifuncional. Especificamente, a unidade de entrada 130 pode incluir uma tela sensível ao toque 131 e / ou outro dispositivo de entrada 132. A tela sensível ao toque 131 pode coletar uma operação de toque (por exemplo, uma operação realizada pelo usuário na tela sensível ao toque ou perto da tela sensível ao toque usando qualquer objeto adequado, por exemplo, um dedo, uma junta, ou uma caneta) do usuário na ou próximo da tela sensível ao toque 131, e acionar um aparelho de conexão correspondente com base em um programa predefinido. A tela sensível ao toque pode detectar uma ação de toque do usuário na tela sensível ao toque, converter a ação de toque em um sinal de toque, enviar o sinal de toque para o processador 170 e pode receber e executar um comando enviado pelo processador 170. O sinal de toque inclui pelo menos informações de coordenadas de contato. A tela sensível ao toque 131 pode fornecer uma interface de entrada e uma interface de saída entre o terminal 100 e o usuário. Além disso, a tela sensível ao toque pode ser implementada em vários tipos, como um tipo resistivo, um tipo capacitivo, um tipo infravermelho, e um tipo de onda acústica de superfície. Além da tela sensível ao toque 131, a unidade de entrada 130 pode incluir ainda o outro dispositivo de entrada. Especificamente, o outro dispositivo de entrada 132 pode incluir, mas não está limitado a um ou mais de um teclado físico, uma tecla de função (por exemplo, uma tecla de controle de volume ou uma tecla liga / desliga 133), uma trackball, um mouse, um joystick, e similares.
[0034] A unidade de exibição 140 pode ser configurada para exibir informações inseridas pelo usuário ou informações fornecidas para o usuário, vários menus do terminal 100, uma interface de interação, um arquivo e / ou reproduzir qualquer arquivo multimídia. Nesta modalidade da presente invenção, a unidade de exibição é ainda configurada para exibir a imagem / vídeo obtida pelo terminal usando a câmera 150. A imagem / vídeo pode incluir uma imagem / vídeo de pré-visualização em alguns modos de fotografia, uma imagem / vídeo inicial fotografada e uma imagem / vídeo alvo no qual um processamento de algoritmo específico é realizado após a fotografia ser realizada.
[0035] Além disso, a tela sensível ao toque 131 pode cobrir um painel de exibição 141. Após detectar a operação de toque na ou perto da tela sensível ao toque 131, a tela sensível ao toque 131 transfere a operação de toque para o processador 170 para determinar um tipo de evento de toque. Em seguida, o processador 170 fornece uma saída visual correspondente no painel de exibição 141 com base no tipo de evento de toque. Nesta modalidade, a tela sensível ao toque e a unidade de exibição podem ser integradas em um componente para implementar as funções de entrada, saída e exibição do terminal 100. Para facilidade de descrição, nesta modalidade da presente invenção, uma tela sensível ao toque representa um conjunto de funções da tela sensível ao toque e da unidade de exibição. Em algumas modalidades, a tela sensível ao toque e a unidade de exibição podem, alternativamente, ser usadas como dois componentes independentes.
[0036] A memória 120 pode ser configurada para armazenar uma instrução e dados. A memória 120 pode incluir principalmente uma área de armazenamento de instruções e uma área de armazenamento de dados. A área de armazenamento de dados pode armazenar dados como um arquivo multimídia e um texto. A área de armazenamento de instruções pode armazenar unidades de software, como um sistema operacional, um aplicativo e uma instrução exigida por pelo menos uma função, um subconjunto da mesma, ou um conjunto de extensão das mesmas. A memória 120 pode incluir ainda uma memória de acesso aleatório não volátil e fornecer ao processador 170 funções incluindo gerenciamento de hardware, software e recursos de dados em um dispositivo de processamento de computação e controle de suporte no software e um aplicativo. A memória 120 é ainda configurada para armazenar um arquivo multimídia e armazenar um programa de execução e um aplicativo.
[0037] O processador 170 é um centro de controle do terminal 100 e está conectado a várias partes de todo o terminal por meio de várias interfaces e linhas. O processador 170 realiza várias funções do terminal 100 e processa dados rodando ou executando a instrução armazenada na memória 120 e invocando os dados armazenados na memória 120, para realizar o controle geral no terminal.
Opcionalmente, o processador 170 pode incluir uma ou mais unidades de processamento. De preferência, o processador 170 pode ser integrado com um processador de aplicativo e um processador de modem. O processador de aplicativo processa principalmente um sistema operacional, uma interface de usuário, um programa de aplicativo, e semelhantes. O processador do modem processa principalmente a comunicação sem fio. Pode ser entendido que o processador do modem pode, alternativamente, não ser integrado no processador 170. Em algumas modalidades, o processador e a memória podem, alternativamente, ser implementados em um único chip. Em algumas modalidades, o processador e a memória podem ser respectivamente implementados em chips independentes. O processador 170 pode ser ainda configurado para: gerar um sinal de controle de operação correspondente, enviar o sinal de controle de operação para um componente correspondente no dispositivo de processamento de computação, e ler e processar dados em software, especialmente ler e processar os dados e o programa na memória 120, de modo que os módulos funcionais no processador 170 realizem funções correspondentes, para controlar os componentes correspondentes para realizar ações conforme exigido pelas instruções.
[0038] A unidade de radiofrequência 110 pode ser configurada para receber e enviar informações ou receber e enviar um sinal em um processo de chamada. Por exemplo, a unidade de radiofrequência 110 recebe informações de enlace descendente de uma estação base, em seguida, entrega as informações de enlace descendente ao processador 170 para processamento e envia dados de enlace ascendente relacionados para a estação base. Geralmente, a unidade de radiofrequência inclui, mas não está limitada a uma antena, pelo menos um amplificador, um transceptor, um acoplador, um amplificador de baixo ruído (Low Noise Amplifier, LNA), um duplexador, e semelhantes. Além disso, a unidade de radiofrequência 110 pode ainda se comunicar com um dispositivo de rede e outro dispositivo por meio de comunicação sem fio. A comunicação sem fio pode usar qualquer padrão ou protocolo de comunicação, incluindo, mas não se limitando a, um sistema global para comunicações móveis (Global System for Mobile Communications, GSM), um serviços gerais de pacote por rádio (General Packet Radio Service, GPRS), acesso múltiplo por divisão de código (Code Division Multiple Access, CDMA), acesso múltiplo por divisão de código de banda larga (Wideband Code Division Multiple Access, WCDMA), evolução de longo prazo (Long Term Evolution, LTE), um e-mail, um serviço de mensagens curtas (Short Message Service, SMS), e similares.
[0039] O circuito de áudio 160, o alto-falante 161 e o microfone 162 podem fornecer uma interface de áudio entre o usuário e o terminal 100. O circuito de áudio 160 pode transmitir, para o alto-falante 161, um sinal elétrico convertido a partir de dados de áudio recebidos, e o alto- falante 161 converte o sinal elétrico em um sinal de som para saída. Além disso, o microfone 162 é configurado para coletar um sinal de som e pode ainda converter o sinal de som coletado em um sinal elétrico. O circuito de áudio 160 recebe o sinal elétrico, converte o sinal elétrico em dados de áudio, envia os dados de áudio para o processador 170 para processamento e, em seguida, envia dados de áudio processados para, por exemplo, outro terminal através da unidade de radiofrequência 110, ou envia dados de áudio processados para a memória 120 para processamento adicional. O circuito de áudio também pode incluir um conector de fone de ouvido 163, configurado para fornecer uma interface de conexão entre o circuito de áudio e um fone de ouvido. Quantidades específicas e modos de arranjo específico de alto-falantes e microfones podem ser determinados de forma flexível com base em uma exigência de um projetista ou política de fornecedor. Isso não é limitado neste pedido.
[0040] O terminal 100 inclui ainda a fonte de alimentação 190 (por exemplo, uma bateria) que fornece energia para cada componente. De preferência, a fonte de alimentação pode ser conectada logicamente ao processador 170 usando um sistema de gerenciamento de energia, para implementar funções como carregamento, descarregamento e gerenciamento de consumo de energia usando o sistema de gerenciamento de energia.
[0041] O terminal 100 inclui ainda a interface externa
180. A interface externa pode ser uma porta micro-USB padrão, ou pode ser um conector multipinos. A interface externa pode ser configurada para conectar o terminal 100 a outro aparelho para comunicação ou pode ser configurada para se conectar a um carregador para carregar o terminal 100.
[0042] Embora não mostrado, o terminal 100 pode incluir ainda uma luz de flash, um módulo de fidelidade sem fio (wireless fidelity, Wi-Fi), um módulo de Bluetooth, sensores com diferentes funções, e semelhantes. Os detalhes não são descritos aqui. Alguns ou todos os métodos descritos abaixo podem ser aplicados ao terminal mostrado na FIG. 1.
[0043] A presente invenção pode ser aplicada a um dispositivo terminal tendo uma função de fotografia
(incluindo pelo menos uma das funções de fotografia ou uma função de fotografia de vídeo), e um produto implementado pode estar na forma de um terminal inteligente, por exemplo, um produto em que uma câmera é instalada, por exemplo, um telefone celular, um tablet, um DV, uma câmera de vídeo, uma câmera, um computador portátil, um notebook, um robô inteligente, uma televisão, um sistema de proteção de segurança, ou um drone. Especificamente, os módulos funcionais da presente invenção podem ser implantados em um chip DSP de um dispositivo relacionado, e podem ser especificamente um programa de aplicativo ou software no chip DSP. Na presente invenção, os módulos funcionais são implantados no dispositivo terminal, para fornecer uma função de processamento de imagem por meio da instalação ou atualização de software e invocação e cooperação de hardware.
[0044] A presente invenção é principalmente aplicada a um cenário em que uma imagem ou um vídeo é fotografado usando o dispositivo terminal. As pessoas têm requisitos cada vez maiores para fotografia de vídeo e esperam concluir o processamento de efeitos especiais de vídeos durante a fotografia, para implementar a experiência de fotografia de vídeo de "o que você vê é o que você obtém". De acordo com a presente invenção, a segmentação do objeto principal pode ser realizada em uma imagem ou um vídeo, e as cores de diferentes áreas podem ser ajustadas, para implementar um efeito especial em tempo real da imagem.
[0045] A seguir, a presente invenção é descrita usando exemplos. Exemplo 1
[0046] Para obter detalhes, consulte a FIG. 2. FIG. 2 é um fluxograma de um método de processamento de imagem de acordo com uma modalidade da presente invenção. O método é realizado em um processo de fotografia de uma imagem. Em um processo de implementação específico, um terminal pode configurar um modo de fotografia. No modo de fotografia, o método pode incluir as seguintes etapas.
[0047] Etapa 21: Obter (o que também pode ser entendido como fotografia ou captura) uma imagem.
[0048] Especificamente, quando um usuário tira uma foto, um fluxo de visualização correspondente também é exibido em uma tela. Uma imagem de visualização geralmente pode se referir a uma imagem no fluxo de visualização. Quando o usuário toca em um obturador, a imagem fotografada é obtida. O tamanho da imagem fotografada é, por exemplo, mas não está limitado a, 1920 x 1080.
[0049] Etapa 22: Determinar uma área alvo e uma área de plano de fundo na imagem com base no conteúdo (que pode ser entendido como semântica da cena) na imagem fotografada. Mais especificamente, a área alvo e a área de plano de fundo podem ser determinadas na imagem com base em uma categoria de um objeto na imagem. A área de plano de fundo é uma área da imagem diferente da área alvo. A área alvo corresponde a um objeto alvo na imagem, ou seja, um objeto que o usuário espera destacar na imagem, e pode estar relacionado à seleção interativa do usuário ou a uma configuração do sistema. Especificamente, a etapa 22 pode incluir S221 a S224.
[0050] S221: Pré-processar a imagem.
[0051] A imagem fotografada de um tamanho original sofre redução de resolução de amostra e convertida na imagem de resolução menor. O valor do cálculo pode ser reduzido quando o cálculo é realizado com base na imagem pequena. Em um processo de implementação específico, o tamanho original (por exemplo, m0 x n0) pode sofrer redução de resolução de amostra para um tamanho de m x n. Valores menores de m e n indicam uma quantidade de cálculo subsequente menor. No entanto, se os valores de m e n forem excessivamente pequenos, a resolução de pixeis subsequentemente diminui. Os experimentos mostraram que os intervalos de valores apropriados de m e n são [128, 512] e, mais especificamente, [256, 300]. Além disso, m e n podem ser iguais ou desiguais. Por exemplo, uma imagem de 1920 x 1080 pode sofrer redução de resolução de amostra para 256 x 256.
[0052] S222: Entrada da imagem m x n com redução de resolução de amostra em uma rede neural para realizar a segmentação semântica, para determinar uma máscara de imagem (Máscara).
[0053] A segmentação semântica se refere à segmentação em nível de pixel realizada em um objeto em uma imagem, e uma categoria do objeto é marcada para cada pixel. Uma área sem uma categoria de objeto marcada é marcada como um "plano de fundo".
[0054] Especificamente, a segmentação semântica pode usar um algoritmo de aprendizado profundo baseado em uma CNN (Convolutional Neural Network). Um modelo de rede baseado em CNN é especificamente descrito a seguir: (1) A redução de resolução de amostra e a convolução são realizadas na imagem m x n para obter uma imagem m1 x n1, uma imagem m2 x n2, ... e uma imagem mz x nz, e as características semânticas da imagem são extraídos camada por camada para obter um mapa de características m1 x n1, um mapa de características m2 x n2, ..., e um mapa de características mz x nz, ou seja, características semânticas multi-escala, onde m1, m2, ..., e mz estão em um relacionamento múltiplo e menores do que m, e n1, n2, ..., nz estão em um relacionamento múltiplo e menores do que n. Por exemplo, m = 2m1 = 4m2 =, ..., = 2z x mz e n = 2n1 = 4n2 =, ..., = 2z x nz. Um valor de z e o relacionamento múltiplo pode ser determinado com base no desempenho do algoritmo e um requisito de projeto; (2) A convolução e o incremento de resolução de amostra são realizados no mapa de características m1 x n1, no mapa de características m2 x n2, ..., e no mapa de características mz x nz, para fundir as características semânticas multi- escala; Os métodos de convolução, redução de resolução de amostra e incremento de resolução de amostra mencionados acima podem usar tecnologias bem conhecidas na indústria e não são limitados e listados na presente invenção; (3) Uma categoria de objeto que precisa ser identificada na imagem é determinada, uma pontuação de cada categoria de objeto em cada pixel é calculada, uma categoria de objeto (que pode ser uma categoria, para abreviar) com uma pontuação mais alta é usada como um resultado de classificação do pixel, e um gráfico de máscara, ou seja, uma máscara, é finalmente obtido.
[0055] Por exemplo, se o terminal puder identificar k categorias de objeto (por exemplo, pelo menos um de uma pessoa, um animal, uma planta, outro objeto predefinido ou um plano de fundo), k imagens podem ser obtidas. Cada pixel da imagem obtém uma pontuação que pertence a uma categoria de objeto. Uma pontuação mais alta indica uma probabilidade maior do pixel pertencer à categoria de objeto.
[0056] Uma vez que uma categoria de objeto de qualquer pixel é determinada, o pixel pode ser identificado. Por exemplo, 1 é usado para indicar uma pessoa, 2 é usado para indicar um veículo, 3 é usado para indicar um animal, 4 é usado para indicar uma planta e 0 é usado para indicar um plano de fundo. Este é apenas um exemplo e não constitui qualquer limitação. O usuário pode criar aleatoriamente uma quantidade de categorias, as categorias, e um método de identificação com base em um requisito de projeto. Um exemplo específico pode ser mostrado na FIG. 3. Todas as áreas de pixel em que um veículo está localizado são classificadas como um veículo pela rede neural e são identificadas como 1. Todas as áreas de pixel em uma parte do plano de fundo circundante são classificadas como plano de fundo pela rede neural e são identificadas como 0. Para outro exemplo, em uma saída de máscara pela rede neural, áreas de objeto de uma mesma categoria têm o mesmo rótulo. Por exemplo, o rótulo de um plano de fundo é 0, o rótulo de um gato é 1 e o rótulo de um skate é 2. Em uma máscara mostrada na FIG. 4, uma mesma cor pode ainda ser usada para representar rótulos de uma mesma categoria de objeto. Por exemplo, uma pessoa, um cavalo e um plano de fundo são respectivamente identificados usando cores diferentes.
[0057] A máscara é um resultado de um algoritmo de segmentação semântica. Em uma imagem, todos os pixeis pertencentes a uma categoria de objeto são rotulados como uma cor ou identificador, e um plano de fundo também é rotulado como uma cor ou identificador. A imagem obtida após o processamento é chamada de máscara, para que o resultado da segmentação seja exibido de forma intuitiva.
[0058] O conteúdo de uma imagem pode incluir um objeto principal e um plano de fundo. Para facilidade de descrição, correspondentemente, uma máscara de imagem pode incluir uma máscara de objeto principal e uma máscara de plano de fundo. A máscara do objeto principal pode corresponder a um objeto principal identificado usando um método de segmentação, incluindo um indivíduo que o usuário espera destacar em uma imagem ou uma imagem fotografada, por exemplo, uma pessoa, um animal, uma planta ou um objeto específico (uma xícara, uma mesa, roupas, decoração ...). A máscara de plano de fundo corresponde a outra área que está na imagem e que não é identificada como a máscara do objeto principal. A máscara da imagem corresponde a toda a imagem. Uma capacidade de identificação da máscara do objeto principal está relacionada ao desempenho da rede neural. Por exemplo, algumas redes neurais podem identificar apenas uma pessoa e um plano de fundo. Algumas redes neurais podem identificar uma pessoa, um veículo e um plano de fundo. Algumas redes neurais podem identificar apenas um veículo e um plano de fundo. Algumas redes neurais podem identificar uma pessoa, um animal e um plano de fundo. Algumas redes neurais podem identificar apenas um animal e um plano de fundo. Algumas redes neurais podem identificar um animal, uma planta, um plano de fundo ...
[0059] Deve ser entendido que uma imagem pode, alternativamente, incluir apenas um objeto principal, ou pode incluir apenas um plano de fundo. Quando a imagem inclui apenas o objeto principal, o objeto principal também pode ser identificado como o plano de fundo. Essas configurações sobre o objeto principal e o plano de fundo da imagem podem ser projetadas de forma flexível e determinadas por um projetista.
[0060] Uma grande quantidade de dados de treinamento de segmentação precisa ser usada para o treinamento de uma rede neural profunda, e um conjunto de dados de treinamento inclui uma grande quantidade de imagens, incluindo categorias de objeto de segmentação, imagens de entrada e gráficos de máscara. O conjunto de dados de treinamento pode abranger vários cenários de aplicação típicos de um objeto de segmentação e tem diversos dados. As imagens de entrada e os gráficos de máscara do conjunto de dados de treinamento são utilizados para treinar a rede, para obter um parâmetro de rede excelente, ou seja, obter um desempenho de segmentação satisfeito pelo usuário. O parâmetro de rede obtido é usado como um parâmetro de cálculo finalmente usado da rede neural.
[0061] S223: Determinar uma máscara alvo com base nas máscaras.
[0062] Para diferentes imagens e redes neurais com diferentes recursos, várias máscaras podem ser obtidas. O terminal pode ainda determinar uma máscara que está nas máscaras e que corresponde a um objeto que mais precisa ser destacado e exibido proeminentemente. Ou seja, a máscara alvo precisa ser determinada. A determinação da máscara alvo inclui, mas não se limita às seguintes maneiras.
[0063] Maneira 1: Se a máscara inclui apenas uma máscara de objeto principal e uma máscara de plano de fundo, a máscara de objeto principal é determinada como a máscara alvo.
[0064] Especificamente, presume-se que a segmentação semântica seja realizada na imagem para obter k máscaras. As k máscaras correspondem a diferentes categorias de objeto. Se k = 2 e as duas máscaras incluem uma máscara de objeto e uma máscara de plano de fundo, uma área da imagem correspondente à máscara de objeto é determinada como a área alvo e uma área correspondente à máscara de plano de fundo é determinada como a área de plano de fundo.
[0065] Como mostrado na FIG. 5, as máscaras de uma imagem emitida pela rede neural incluem apenas uma máscara de objeto principal A1 e uma máscara de plano de fundo. Neste caso, A1 pode ser determinado como a máscara alvo.
[0066] Maneira 2: quando a máscara inclui uma pluralidade de máscaras de objeto principal e uma máscara de plano de fundo, se uma quantidade de pixeis incluída em qualquer máscara de objeto principal for maior do que um limiar específico, a máscara de objeto principal é determinada como o objeto principal alvo; ou se uma quantidade de pixeis incluída em qualquer máscara de objeto principal for menor que um limiar específico, a máscara de objeto principal é remarcada e também é marcada como plano de fundo. Uma quantidade de pixeis incluída na máscara do objeto principal pode ser uma quantidade de pixeis incluída em uma região do indivíduo na imagem.
[0067] Especificamente, presume-se que a segmentação semântica seja realizada na imagem para obter k máscaras. As k máscaras correspondem a diferentes categorias de objeto. Se k for maior que 2 e uma quantidade de pixeis incluídos nas máscaras de objeto k0 nas k máscaras for maior do que um limiar predefinido, uma área da imagem correspondente às máscaras do objeto k0 é determinada como a área alvo, e uma área da imagem correspondente a uma máscara restante é determinada como a área de plano de fundo, onde k0 é um número inteiro não negativo menor que k.
[0068] Como mostrado na FIG. 6, as máscaras de uma imagem emitida pela rede neural incluem uma máscara de objeto principal A1, uma máscara de objeto principal A2, e uma máscara de plano de fundo. Se uma quantidade de pixeis incluídos em A1 for maior do que o limiar predefinido e uma quantidade de pixeis incluídos em A2 não for maior do que o limiar predefinido, A1 é determinado como a máscara alvo, e a máscara de objeto principal A2 é remarcada como uma máscara de plano de fundo. Uma máscara remarcada pode ser mostrada na FIG. 5 Se uma quantidade de pixeis incluída em A1 for maior do que o limiar predefinido e uma quantidade de pixeis incluída em A2 também for maior do que o limiar predefinido, A1 e A2 são determinados como a máscara alvo. Se nem a quantidade de pixeis incluída em A1 nem a quantidade de pixeis incluída em A2 for maior do que o limiar predefinido, A1 e A2 são reidentificados como máscaras de plano de fundo. Em outras palavras, a imagem não inclui máscara de objeto principal.
[0069] Deve ser entendido que, em um processo de implementação específico, A1 e A2 podem ser de uma mesma categoria de objeto ou de categorias de objeto diferentes.
[0070] Maneira 3: quando a máscara inclui uma pluralidade de máscaras de objeto principal e uma máscara de plano de fundo, uma máscara de objeto principal incluindo a maior quantidade de pixeis é selecionada como máscara alvo e outras máscaras de objeto principal também são remarcadas como máscara de plano de fundo.
[0071] Especificamente, presume-se que a segmentação semântica seja realizada na imagem para obter k máscaras. As k máscaras correspondem a diferentes categorias de objeto. Se k for maior que 2, uma área da imagem correspondente a uma máscara que inclui uma maior quantidade de pixeis e que está nas k máscaras é determinada como a área alvo, e uma área da imagem correspondente às máscaras restantes é determinada como a área de plano de fundo.
[0072] Como mostrado na FIG. 6, as máscaras de uma imagem emitida pela rede neural incluem uma máscara de objeto principal A1, uma máscara de objeto principal A2, e uma máscara de plano de fundo. A1, que inclui a maior quantidade de pixeis, é determinado como a máscara alvo e a máscara do objeto principal A2 é remarcada como uma máscara de plano de fundo. A máscara remarcada pode ser mostrada na FIG. 5
[0073] Deve ser entendido que, em um processo de implementação específico, A1 e A2 podem ser de uma mesma categoria de objeto ou de categorias de objeto diferentes.
[0074] Maneira 4: Quando a máscara inclui uma pluralidade de máscaras de objeto principal e uma máscara de plano de fundo, e a pluralidade de máscaras de objeto principal inclui uma pluralidade de categorias de objeto, a máscara alvo é determinada com base nas prioridades das categorias de objeto. Por exemplo, se a prioridade de uma máscara de pessoa é mais alta do que a prioridade de uma máscara de veículo, a máscara de pessoa é a máscara alvo e a máscara de veículo pode ser remarcada como um plano de fundo. Por exemplo, se a prioridade da máscara de pessoa é mais alta do que a prioridade de uma máscara de animal e é mais alta do que a prioridade de uma máscara de planta, e uma prioridade definida por um sistema é que todas as máscaras cujas prioridades são mais altas do que a prioridade da máscara de planta são máscaras de objeto principal, tanto a máscara de pessoa quanto a máscara de animal são máscaras de alvo, e a máscara de planta pode ser remarcada como um plano de fundo. Deve ser entendido que um ou mais indivíduos pertencem a uma mesma máscara de categoria de objeto.
[0075] Especificamente, presume-se que a segmentação semântica seja realizada na imagem para obter k máscaras. As k máscaras correspondem a diferentes categorias de objeto. Se k for maior que 2, a máscara alvo é determinada a partir das k máscaras com base nas prioridades predefinidas das categorias de objeto. Uma área da imagem correspondente à máscara-alvo é determinada como a área alvo, e uma área da imagem correspondente às máscaras restantes é determinada como a área de plano de fundo.
[0076] Como mostrado na FIG. 7, as máscaras de uma imagem emitida pela rede neural incluem uma máscara de objeto principal A1, uma máscara de objeto principal B1 e uma máscara de plano de fundo. A1 e B1 são de categorias de objeto diferentes e uma prioridade de A1 é mais alta do que uma prioridade de B1. Se um sistema definir que qualquer máscara de objeto principal cuja prioridade seja maior ou igual à de B1 pode ser usada como máscara alvo, A1 e B1 são máscaras alvo. Se um sistema definir que uma máscara de objeto principal cuja prioridade seja superior a B1 pode ser usada como a máscara alvo, A1 é determinado como a máscara alvo e B1 é remarcado como uma máscara de plano de fundo.
[0077] Maneira 5: Se a máscara inclui uma pluralidade de máscaras de objeto principal e uma máscara de plano de fundo, a máscara alvo pode ser determinada de acordo com uma operação de seleção inserida pelo usuário. Um modo de entrada inclui, mas não se limita a, instruções de seleção, como toque na tela e voz. Uma máscara de objeto principal correspondente a um indivíduo selecionado pelo usuário é a máscara alvo.
[0078] Especificamente, presume-se que a segmentação semântica seja realizada na imagem para obter k máscaras. As k máscaras correspondem a diferentes categorias de objeto. Se k for maior que 2, a máscara alvo é determinada a partir das k máscaras de acordo com uma instrução de seleção do usuário. Uma área da imagem correspondente à máscara-alvo é determinada como a área alvo e uma área da imagem correspondente às máscaras restantes é determinada como a área de plano de fundo.
[0079] Como mostrado na FIG. 7, as máscaras da imagem emitida pela rede neural incluem a máscara de objeto principal A1, a máscara de objeto principal B1 e a máscara de plano de fundo. Se o usuário tocar, em um processo de fotografia, um indivíduo correspondente a A1 em uma tela sensível ao toque, A1 é determinado como a máscara alvo e B1 é remarcado como uma máscara de plano de fundo. Se o usuário tocar, em um processo de fotografia, um indivíduo correspondente a B1 em uma tela sensível ao toque, B1 é determinado como a máscara alvo e A1 é remarcado como uma máscara de plano de fundo.
[0080] Maneira 6: Se a máscara inclui uma pluralidade de máscaras de objeto principal e uma máscara de plano de fundo, e a pluralidade de máscaras de objeto principal inclui uma pluralidade de categorias de objeto, a máscara alvo pode ser determinada com base em uma operação de seleção inserida pelo usuário. Um modo de entrada inclui, mas não se limita a, instruções de seleção, como toque na tela e voz. Todas as máscaras de objeto principal de uma categoria de objeto correspondente a um indivíduo selecionado pelo usuário são máscaras alvo.
[0081] Especificamente, presume-se que a segmentação semântica seja realizada na imagem para obter k máscaras. As k máscaras correspondem a diferentes categorias de objeto. Se k for maior que 2, a máscara alvo é determinada a partir das k máscaras de acordo com uma instrução de seleção do usuário. Uma área da imagem correspondente à máscara-alvo é determinada como a área alvo, e uma área da imagem correspondente às máscaras restantes é determinada como a área de plano de fundo.
[0082] Como mostrado na FIG. 8, as máscaras de uma imagem emitida pela rede neural incluem as máscaras do objeto principal A1, A2, B1 e B2 e uma máscara de plano de fundo. A1 e A2 são da mesma categoria de objeto e B1 e B2 são da mesma categoria de objeto. Se o usuário tocar, em um processo de fotografia, um indivíduo correspondente a A1 em uma tela sensível ao toque, A1 e A2 que são da mesma categoria de objeto são determinados como máscaras de alvo, e B1 e B2 são remarcados como máscaras de plano de fundo. Se o usuário tocar, em um processo de fotografia, um indivíduo correspondente a B2 em uma tela sensível ao toque, B1 e B2 da mesma categoria de objeto são determinados como máscaras de alvo, e A1 e A2 são remarcados como máscaras de plano de fundo.
[0083] Deve ser entendido que as implementações ou modalidades específicas anteriores são meramente exemplos e não devem constituir limitações. As implementações ou modalidades específicas anteriores podem ser combinadas livremente sem violar a lógica. Portanto, após a segmentação da máscara ser realizada na imagem, uma ou mais máscaras alvo podem ser obtidas. Essas máscaras de alvo podem ser de uma ou mais categorias de objeto e cada categoria de objeto de máscaras de alvo pode incluir ainda um ou mais indivíduos. Um resultado exibido está relacionado a uma regra que é definida em um sistema de terminal e que é para determinar a máscara alvo e uma entrada do usuário. Em alguns cenários, uma imagem pode, alternativamente, incluir apenas uma máscara de plano de fundo.
[0084] S224: Determinar a área alvo e a área de plano de fundo na imagem original.
[0085] O tamanho original da imagem fotografada é amostrado a partir da máscara, e a máscara alvo e a máscara de plano de fundo na máscara também sofreram incremento de resolução de amostra. Uma área constituída por todos os pixeis que são da máscara de alvo que sofreu incremento de resolução de amostra e que correspondem à imagem original é a área alvo, e uma área constituída por todos os pixeis que são da máscara de plano de fundo que sofreu incremento de resolução de amostra e que correspondem à imagem original é a área de plano de fundo.
[0086] Etapa 23: Processar a área alvo e a área de plano de fundo na imagem em diferentes modos de processamento de cores para obter uma imagem alvo. Os diferentes modos de processamento de cores são usados para o processamento, de modo que a crominância da área alvo seja maior que a crominância da área de plano de fundo ou a luminância da área alvo seja maior que a luminância da área de plano de fundo. Em outras palavras, a crominância da área alvo na imagem alvo é maior do que a crominância da área de plano de fundo na imagem alvo, ou a luminância da área alvo na imagem alvo é maior do que a luminância da área de plano de fundo na imagem alvo.
[0087] Especificamente, um primeiro modo de processamento de cor e um segundo modo de processamento de cor são usados, respectivamente, para a área alvo e a área de plano de fundo na imagem. O primeiro modo de processamento de cor e o segundo modo de processamento de cor incluem, mas não estão limitados às seguintes maneiras.
[0088] Maneira 1: O primeiro modo de processamento de cor está retendo uma cor, e o segundo modo de processamento de cor está usando um filtro, por exemplo, convertendo uma cor da área de plano de fundo em preto e branco. Os filtros típicos incluem ainda qualquer filtro preto e branco, filtro de escurecimento, filtro retro, filtro de filme, filtro de desfoque, filtro bokeh e semelhantes.
[0089] Por exemplo, o filtro preto e branco deve mapear cada valor de pixel para um valor de tons de cinza para implementar um efeito do filtro preto e branco. Em outro exemplo, o filtro de escurecimento serve para escurecer a luminância de cada valor de pixel para obter um efeito de escurecimento especial.
[0090] Maneira 2: O primeiro modo de processamento de cor é uma primeira maneira de filtro, o segundo modo de processamento de cor é uma segunda maneira de filtro e a primeira maneira de filtro é diferente da segunda maneira de filtro. Para uma mesma imagem, a crominância da imagem obtida no primeiro filtro é maior do que a crominância da imagem obtida no segundo filtro.
[0091] Maneira 3: O primeiro modo de processamento de cor é uma terceira maneira de filtro, o segundo modo de processamento de cor é uma quarta maneira de filtro e a terceira maneira de filtro é diferente da quarta maneira de filtro. Para uma mesma imagem, a luminância da imagem obtida no terceiro filtro é maior do que a luminância da imagem obtida no quarto filtro.
[0092] Deve ser entendido que uma cor é representada por luminância e crominância. A crominância é uma propriedade da cor que não inclui a luminância, e reflete um tom e saturação da cor, e a luminância se refere ao brilho da cor. Portanto, o processamento de cores inclui o processamento de luminância e / ou processamento de crominância.
[0093] Especificamente, o filtro pode incluir o ajuste de crominância, luminância e matiz e pode ainda incluir textura sobreposta e semelhantes. Um sistema de cores pode ser ajustado de maneira direcionada ajustando a crominância e o matiz, de modo que o sistema de cores se torne mais espesso ou mais claro, ou um tom seja alterado e outro sistema de cores permaneça inalterado. O filtro também pode ser entendido como mapeamento pixel a pixel. Um valor de pixel de uma imagem de entrada é mapeado para um valor de pixel de um pixel alvo usando uma tabela de mapeamento predefinida, para obter um efeito especial. Deve ser entendido que o filtro pode ser uma máscara de parâmetro predefinido. Esses parâmetros relacionados à cor podem ser parâmetros em uma máscara de filtro bem conhecida na indústria ou podem ser parâmetros projetados de forma independente pelo usuário.
[0094] Como um suplemento, após a etapa 23, o método inclui ainda a etapa 24 de armazenamento da imagem processada na etapa 23.
[0095] De acordo com a presente invenção, no processo de fotografia, o terminal pode determinar um indivíduo alvo e um plano de fundo com base no conteúdo da imagem, e realizar diferentes processamentos de cor no indivíduo alvo e no plano de fundo, de modo que um objeto principal em uma imagem fotografada pelo o usuário pode ser mais proeminente e a imagem fotografada é como um filme. Exemplo 2
[0096] Especificamente, na presente invenção, um método de processamento de imagem para gravação de vídeo é semelhante a um método de processamento de imagem para fotografia, e a diferença reside em que um objeto processado na fotografia é uma imagem, enquanto um objeto processado na gravação de vídeo é quadros de vídeo consecutivos, a saber, uma pluralidade de imagens consecutivas. O objeto processado na gravação de vídeo pode ser um vídeo completo, ou pode ser um segmento em um vídeo completo, ou um videoclipe definido pelo usuário dentro de uma faixa de período de tempo. Para obter um procedimento de processamento de cada imagem no vídeo ou clipe de vídeo, consulte o método de processamento no Exemplo 1.
[0097] Especificamente, um método de processamento de imagem para fotografia de vídeo pode incluir as seguintes etapas.
[0098] Etapa 31: Obter N imagens fotografadas, onde N é um número inteiro positivo; e realizar as operações das etapas 32 e 33 em cada imagem, onde as N imagens podem ser quadros de vídeo adjacentes e uma soma das N imagens pode ser entendida como um vídeo. Alternativamente, as N imagens podem ser não adjacentes.
[0099] Uma implementação opcional da etapa 32 pode ser a mesma da etapa 22.
[00100] Uma implementação opcional da etapa 33 pode ser igual à da etapa 23.
[00101] Como um suplemento, como um vídeo inclui imagens consecutivas, uma forma de determinar um indivíduo também está relacionada a uma sequência temporal. Portanto, além da etapa 23, pode haver mais implementações na etapa 33. Opcionalmente, qualquer maneira de determinar um objeto principal em S223 pode ter um atraso. Por exemplo, uma pessoa e um plano de fundo são determinados no L1-ésimo quadro, e ainda pode ser determinado, do (L1 + 1) -ésimo quadro da imagem ao (L1 + L0) -ésimo quadro da imagem por meio de marcação de pixel e comparação de máscara, que a pessoa nessas imagens é o objeto principal e uma área correspondente à pessoa nessas imagens é uma área alvo 0. O objeto principal e o plano de fundo não precisam ser determinados para cada quadro. Um momento em que o objeto principal é determinado a cada vez pode ser definido por um usuário, ou o objeto principal pode ser determinado periodicamente, por exemplo, mas não limitado a, a cada 2s ou a cada 10s. Uma maneira de determinar o objeto principal a cada vez inclui, mas não está limitada às seis maneiras em S223.
[00102] Etapa 34: Armazenar o vídeo constituído pelas N imagens nas quais o processamento de cores é realizado.
[00103] De acordo com a presente invenção, em um processo no qual o usuário grava um vídeo, o terminal pode determinar um indivíduo alvo e um plano de fundo com base no conteúdo de vídeo, e realizar diferentes processamentos de cor no indivíduo alvo e no plano de fundo, de modo que um objeto principal de um vídeo fotografado pelo usuário pode ser mais proeminente, o vídeo fotografado é tão bom quanto um filme, e a experiência do usuário é melhorada. Exemplo 3
[00104] Na presente invenção, um método de processamento de imagem para gravação de vídeo é semelhante a um método de processamento de imagem para fotografia, e uma diferença reside em que um objeto processado na fotografia é uma imagem, enquanto um objeto processado na gravação de vídeo é quadros de vídeo consecutivos, a saber, uma pluralidade de imagens consecutivas. Portanto, para um procedimento de processamento de cada imagem, consulte o método de processamento no Exemplo 1. Em alguns cenários complexos de fotografia de vídeo, algumas áreas em uma imagem podem ser detectadas incorretamente. Se uma mesma área for marcada separadamente como um alvo ou um plano de fundo em quadros adjacentes, a mesma área é processada em cores diferentes de acordo com o método de processamento de cor de exemplo anterior, e as alterações das cores da mesma área nos quadros adjacentes causam uma cintilação. Portanto, a cintilação precisa ser determinada e eliminada durante o processamento. A cintilação pode ser entendida como um erro de determinação de categoria de objeto.
[00105] Em um método para determinar que um vídeo cintila,
uma máscara de um quadro anterior pode ser processada com base em um fluxo ótico para obter uma máscara ótica baseada em fluxo e uma diferença entre a máscara ótica baseada em fluxo e uma máscara de um quadro atual é comparado.
Quando um grau de coincidência ou similaridade excede uma proporção específica, é determinado que não ocorre cintilação.
Quando o grau de coincidência ou de semelhança não excede a proporção específica, determina-se que ocorre uma cintilação.
Além disso, deve ser entendido que a determinação da cintilação é um processo contínuo.
Opcionalmente, um método específico para determinar se existe uma cintilação é o seguinte: (1) Primeiro, um fluxo óptico de quadros adjacentes é calculado, onde o fluxo óptico indica uma relação de deslocamento entre pixeis nos quadros adjacentes (um (t - 1) -ésimo quadro e um t-ésimo quadro); (2) Uma máscara do (t - 1) -ésimo quadro é obtida, e uma máscara de fluxo ótico F do t -ésimo quadro é calculada com base na máscara do (t - 1) -ésimo quadro e informações de fluxo óptico do (t - 1) -ésimo quadro e t-ésimo quadro, onde a máscara de fluxo óptico é obtida através de cálculo baseado no fluxo óptico; (3) Uma máscara S do t-ésimo quadro é obtida; (4) Um conjunto de pixeis SF de um objeto principal na máscara de fluxo ótico F é contado, e um conjunto de pixeis SS do objeto principal na máscara S é contado.
Quantidades de pixeis em um conjunto de união e um conjunto de interseção do SF e do SS são, respectivamente, Nu e Ni.
Quando (Nu - Ni) / Nu é maior que um limiar específico, considera-se que há uma diferença relativamente grande entre as máscaras dos
(t - 1) -ésimo e t-ésimo quadros adjacentes, e é determinado que ocorre uma cintilação entre o (t - 1) -ésimo quadro e o t-ésimo quadro, ou pode-se entender que ocorre uma cintilação no t-ésimo quadro. A diferença relativamente grande indica que um mesmo objeto pode ser mal avaliado como diferentes categorias de objeto. Por exemplo, um mesmo indivíduo nos (t - 1) -ésimo e t-ésimo quadros é determinado separadamente como uma pessoa e um macaco.
[00106] Opcionalmente, se nas primeiras N0 (um número inteiro positivo maior que 2) imagens de uma imagem atual, uma quantidade de grupos de imagens adjacentes com um mesmo objeto determinado como diferentes categorias de objeto é maior do que um limiar predefinido, pode ser determinado que o processamento de exceção de cintilação precisa ser realizado no quadro atual. Se for determinado que uma quantidade de grupos de imagens adjacentes com um mesmo objeto determinado como diferentes categorias de objeto não é maior do que o limiar predefinido, pode ser determinado que o processamento de exceção de tremulação não precisa ser realizado no quadro atual.
[00107] Opcionalmente, por exemplo, para uma quantidade predeterminada de quadros históricos adjacentes ou uma quantidade predefinida de quadros históricos, se for determinado que uma cintilação ocorre em mais da metade dos quadros (por exemplo, é determinado que uma cintilação ocorre em três vídeos quadros nos primeiros cinco quadros adjacentes do quadro de vídeo atual), pode ser determinado que o processamento de exceção de cintilação precisa ser realizado no quadro atual. Se for determinado que uma cintilação ocorre em menos da metade dos quadros (por exemplo, é determinado que uma cintilação ocorre em um dos primeiros cinco quadros adjacentes do quadro de vídeo atual), pode ser determinado que o processamento de exceção de cintilação não precisa ser realizado no quadro atual.
[00108] Deve ser entendido que uma imagem de vídeo atual pode ser entendida como uma imagem que está sendo gravada em um momento. O momento aqui pode ser entendido como um momento geral em alguns cenários, ou pode ser entendido como um momento específico em alguns cenários, por exemplo, um último momento ou um momento no qual um usuário está interessado.
[00109] Especificamente, o método de processamento de imagem para fotografia de vídeo neste exemplo pode incluir as seguintes etapas.
[00110] Etapa 41: Obter N imagens fotografadas, onde N é um número inteiro positivo; e realizar as operações das etapas 32 e 33 em cada imagem, onde as N imagens podem ser quadros de vídeo adjacentes, e uma soma das N imagens pode ser entendida como um vídeo; ou as imagens N podem ser não adjacentes.
[00111] Etapa 42: Determinar se uma quantidade de grupos de imagens adjacentes nas quais ocorre uma cintilação nos primeiros N0 quadros do quadro atual (a imagem atual) é maior do que o limiar predefinido. Aqui, N0 e o limiar podem ser definidos pelo usuário. Por exemplo, N0 é uma quantidade selecionada de amostras de quadros de vídeo históricos e o limiar pode ser 1/2, 2/3 ou semelhante a N0. Este é apenas um exemplo e não é limitado.
[00112] Se um resultado de determinação não for maior do que o limiar predefinido, as operações das etapas 43 e 44 são realizadas na imagem atualmente fotografada ou capturada.
[00113] Uma implementação opcional da etapa 43 pode ser a mesma da etapa 32.
[00114] Uma implementação opcional da etapa 44 pode ser a mesma da etapa 33.
[00115] Se o resultado de determinação for maior do que o limiar predefinido, uma operação da etapa 45 é realizada na imagem atualmente fotografada ou capturada.
[00116] Etapa 45: Processar todas as áreas da imagem do quadro atual usando um mesmo método de processamento de cores para obter uma imagem alvo. O mesmo método de processamento de cor pode ser o mesmo que um método de processamento de cor da área de plano de fundo em um quadro anterior, ou pode ser o mesmo que um método de processamento de cor da área alvo em um quadro anterior, ou pode ser o mesmo que uma cor método de processamento de uma imagem inteira em um quadro anterior. Por exemplo, um método de processamento de cor que é o mesmo que aquele para a área de plano de fundo na etapa 33 (23) pode ser usado para a imagem inteira. Alternativamente, um método de processamento de cor que é o mesmo que aquele para a área alvo na etapa 33 (23) pode ser usado para a imagem inteira. Por exemplo, a imagem inteira permanece colorida, ou a imagem inteira é preto e branco, ou um primeiro ou segundo modo de processamento de cor (incluindo, mas não se limitando aos modos de processamento de cor no Exemplo 1) é usado para a imagem inteira.
[00117] Neste caso, para o quadro atual, um procedimento de segmentação de máscara semelhante ao da etapa 22 pode existir ou pode ser omitido. Isso não está limitado neste exemplo.
[00118] Após a etapa 45, é realizada a etapa 46 de armazenamento do vídeo constituído pelas N imagens nas quais o processamento de cor é realizado. N é um número inteiro positivo.
[00119] De acordo com a presente invenção, em um processo no qual o usuário grava um vídeo, o terminal pode determinar um indivíduo alvo e um plano de fundo com base no conteúdo de vídeo, e realizar diferentes processamentos de cor no indivíduo alvo e no plano de fundo, de modo que um objeto principal de um vídeo fotografado pelo usuário pode ser mais proeminente, o vídeo fotografado é tão bom quanto um filme, e a experiência do usuário é melhorada. Exemplo 4
[00120] Em alguns cenários de aplicação, o conteúdo de uma imagem fotografada por um usuário geralmente muda. Portanto, um objeto principal da imagem geralmente muda. O usuário também espera selecionar livremente um modo de processamento de cor do objeto principal em imagens diferentes, para controlar de forma independente um estilo de vídeo.
[00121] Um método de processamento de imagem em um processo de fotografia de vídeo pode incluir as seguintes etapas.
[00122] Etapa 51: Um terminal obtém um quadro de vídeo.
[00123] Etapa 52: O terminal determina uma área de objeto principal e uma área de plano de fundo em qualquer quadro de vídeo obtido de um vídeo.
[00124] Etapa 53: O terminal usa qualquer modo de processamento de cor a qualquer momento para a área de objeto principal, e usa qualquer modo de processamento de cor a qualquer momento para a área de plano de fundo. No entanto,
é necessário garantir que, para qualquer imagem, a luminância ou crominância de uma área de objeto principal após o processamento da cor seja maior do que a luminância ou crominância de uma área de plano de fundo após o processamento da cor. Alternativamente, para qualquer imagem, crominância ou luminância da imagem obtida em um modo de processamento de cor usado para uma área de objeto principal é maior do que crominância ou luminância da imagem obtida em um modo de processamento de cor usado para uma área de plano de fundo. Exemplo 5
[00125] Em alguns cenários de aplicação, o conteúdo de uma imagem fotografada por um usuário geralmente muda. Portanto, um objeto principal da imagem geralmente muda. O usuário também espera selecionar livremente um modo de processamento de cor do objeto principal em imagens diferentes, para controlar de forma independente um estilo de vídeo. Especialmente, uma cor é alterada por período de tempo.
[00126] Um método de processamento de imagem em um processo de fotografia de vídeo pode incluir as seguintes etapas.
[00127] Etapa 61: Capturar N1 imagens em um primeiro período de tempo e capturar N2 imagens em um segundo período de tempo, onde o primeiro período de tempo e o segundo período de tempo são períodos de tempo adjacentes, e ambos N1 e N2 são números inteiros positivos, o primeiro período de tempo e o segundo período de tempo podem ser a duração em que o usuário pode identificar uma mudança de imagem a olho nu, e N1 e N2 são determinados por taxas de quadros e duração dos períodos de tempo durante a gravação de vídeo. Isto não está limitado na presente invenção.
[00128] Etapa 62: Determinar uma primeira área alvo e uma primeira área de plano de fundo em cada uma das N1 imagens, onde a primeira área de plano de fundo é uma área da imagem diferente da primeira área alvo, e a primeira área alvo em cada uma das N1 imagens corresponde a um primeiro objeto (que pode incluir pelo menos um objeto); e determinar uma segunda área alvo e uma segunda área de plano de fundo em cada uma das N2 imagens, onde a segunda área de plano de fundo é uma área da imagem diferente da segunda área alvo, e a segunda área alvo em cada uma das N2 imagens corresponde a um segundo objeto (que pode incluir pelo menos um objeto).
[00129] Etapa 63: processar a primeira área alvo em um primeiro modo de processamento de cor, processar a primeira área de plano de fundo em um segundo modo de processamento de cor, processar a segunda área alvo em um terceiro modo de processamento de cor e processar a segunda área de plano de fundo em um quarto modo de processamento de cor, para obter um vídeo alvo, onde no vídeo alvo, a crominância da primeira área alvo é maior que a crominância da primeira área de plano de fundo, ou a luminância da primeira área alvo é maior que a luminância da primeira área de plano de fundo; e a crominância da segunda área alvo é maior do que a crominância da segunda área de plano de fundo, ou a luminância da segunda área alvo é maior que a luminância da segunda área de plano de fundo. Exemplo 6
[00130] Em alguns cenários de aplicação, o conteúdo de uma imagem fotografada por um usuário geralmente muda.
Portanto, um objeto principal da imagem geralmente muda. O usuário também espera selecionar livremente um objeto principal alvo que o usuário espera destacar em imagens diferentes. Por exemplo, uma área de imagem correspondente a um primeiro objeto é determinada como uma área alvo em um primeiro período de tempo, uma área de imagem correspondente a um segundo objeto é determinada como uma área alvo em um segundo período de tempo, e o primeiro objeto e o segundo objeto são diferentes objetos, indivíduos ou categorias de objeto.
[00131] Neste cenário, um método de processamento de imagem em um processo de fotografia de vídeo pode incluir as seguintes etapas.
[00132] Uma implementação opcional da etapa 71 pode ser a mesma da etapa 61.
[00133] Etapa 72: Determinar uma primeira área alvo e uma primeira área de plano de fundo em qualquer uma das N1 imagens com base no conteúdo da imagem e determine uma segunda área alvo e uma segunda área de plano de fundo em qualquer uma das N2 imagens com base no conteúdo da imagem, onde um objeto ou uma categoria de objeto correspondente à segunda área alvo é diferente de um objeto ou uma categoria de objeto correspondente à primeira área alvo, de modo que um sistema e o usuário podem selecionar independentemente um objeto principal alvo e a área alvo da imagem. Uma imagem inclui um objeto principal e um plano de fundo e, correspondentemente, a imagem inclui uma área alvo e uma área de plano de fundo.
[00134] Por exemplo, o primeiro objeto é uma pessoa e o segundo objeto é um animal. Por exemplo, o primeiro objeto é uma pessoa A e o segundo objeto é uma pessoa B. Por exemplo, o primeiro objeto é duas pessoas e o segundo objeto é um cachorro e dois gatos. Uma área restante não identificada é marcada como plano de fundo.
[00135] Neste método, uma máscara de imagem pode ser determinada usando os métodos anteriores em S221 e S222. No entanto, um método subsequente não se limita a determinar um objeto alvo na máscara para cada imagem.
[00136] Opcionalmente, na máscara de imagem, o usuário pode inserir livremente o primeiro objeto e o segundo objeto, e o primeiro objeto e o segundo objeto são determinados de acordo com uma instrução de seleção inserida pelo usuário. Por exemplo, se o usuário seleciona um indivíduo, o sistema identifica um pixel correspondente a uma entrada de instrução pelo usuário, identifica ainda um específico (/ alguns) indivíduo (/ indivíduos) (/ pode ser pelo menos um indivíduo) ou uma específica ( / algumas) categoria de objeto (/ categorias de objeto) (/ pode ser pelo menos uma categoria de objeto) de uma máscara selecionada pelo usuário, determina ainda um específico (/ alguns) indivíduo (/ indivíduos) ou todos os indivíduos nos quais uma (/ algumas) categoria de objeto (/ categorias de objeto), como o primeiro objeto, e determina o primeiro objeto ou a área da imagem correspondente ao primeiro objeto, como a primeira área alvo. Esta situação pode ser mantida por um período de tempo. Em outras palavras, em vários quadros subsequentes, uma área correspondente a uma máscara correspondente ao primeiro objeto é a primeira área alvo até que o usuário selecione outro indivíduo em um momento seguinte, e uma área correspondente ao novo indivíduo seja determinada como a segunda área alvo de acordo com um método semelhante ao método anterior. Em uma imagem, uma área da imagem diferente da primeira área alvo ou da segunda área alvo é a área de plano de fundo. Para ser específico, a área correspondente à máscara correspondente ao primeiro objeto no primeiro período de tempo é a primeira área alvo, e a área correspondente à máscara correspondente ao segundo objeto no segundo período de tempo é a segunda área alvo.
[00137] Opcionalmente, na máscara de imagem, o sistema pode determinar uma máscara de alvo de uma imagem em um período de tempo na máscara de imagem com base em um intervalo de tempo predefinido (por exemplo, mas não limitado a 1s ou 2s) ou uma quantidade predefinida de quadros (por exemplo, mas não limitado a 50 ou 100 quadros). Por exemplo, uma primeira máscara alvo é determinada no 101-ésimo quadro e uma máscara que tem uma mesma categoria de objeto ou indivíduo que a primeira máscara alvo no 101-ésimo quadro é usada como a primeira máscara alvo para cada um dos 102 quadros a 200 seguintes quadros até que uma segunda máscara alvo seja determinada no 201-ésimo quadro. Para cada um dos seguintes 202 quadros a 300 quadros, uma máscara que tem uma mesma categoria de objeto ou indivíduo que a segunda máscara alvo no 201-ésimo quadro é usada como a segunda máscara alvo. Deve ser entendido que os números do exemplo anterior podem ser predefinidos pelo usuário ou pelo sistema. Para ser mais específico, uma máscara-alvo é determinada em um momento, e a máscara desse tipo ou a máscara desse indivíduo é usada continuamente por um período de tempo.
[00138] Para um método para determinar a primeira máscara de alvo classificada em primeiro lugar e a segunda máscara de alvo classificada em primeiro lugar, consulte, mas não se limita a, qualquer uma das seis maneiras na etapa S223. Portanto, a primeira máscara de alvo e a segunda máscara de alvo podem ser de uma mesma categoria de objeto ou do mesmo indivíduo, ou podem ser de diferentes categorias de objeto ou diferentes indivíduos. Isso está relacionado a uma capacidade de identificação de uma rede, uma mudança de imagem de cena ou um comando de entrada do usuário.
[00139] Além disso, a primeira área alvo, a primeira área de plano de fundo, a segunda área alvo e a segunda área de plano de fundo são ainda determinadas de acordo com um método em S224. Os detalhes não são descritos neste exemplo.
[00140] Uma implementação opcional da etapa 73 pode ser a mesma da etapa 63.
[00141] Além disso, como este exemplo pode variar de acordo com o período de tempo, pode haver uma pluralidade de combinações de métodos de processamento de cores.
[00142] Por exemplo, o primeiro modo de processamento de cor é igual ao terceiro modo de processamento de cor e o segundo modo de processamento de cor é igual ao quarto modo de processamento de cor. Este modo de processamento de cor tem boa consistência.
[00143] Por exemplo, o primeiro modo de processamento de cor é igual ao terceiro modo de processamento de cor e o segundo modo de processamento de cor é diferente do quarto modo de processamento de cor. Nesse modo de processamento de cor, as cores do objeto principal alvo são consistentes e as cores de plano de fundo mudam, de modo que o efeito visual geral é mais deslumbrante.
[00144] Por exemplo, o primeiro modo de processamento de cor é diferente do terceiro modo de processamento de cor e o segundo modo de processamento de cor é igual ao quarto modo de processamento de cor. Neste modo de processamento de cor, as cores de plano de fundo são consistentes e as cores do objeto principal alvo mudam, para que o objeto principal alvo seja mais proeminente.
[00145] Por exemplo, o primeiro modo de processamento de cor é diferente do terceiro modo de processamento de cor e o segundo modo de processamento de cor é diferente do quarto modo de processamento de cor. Neste modo de processamento de cor, mais maneiras de transformação de cores podem ser fornecidas e mais cooperação de cores pode ser fornecida com base nos requisitos de diferentes cenários.
[00146] O primeiro modo de processamento de cor ou o terceiro modo de processamento de cor inclui um filtro, por exemplo, retenção de cor ou aprimoramento de cor. O segundo modo de processamento de cor ou o quarto modo de processamento de cor inclui filtros como um filtro preto e branco, um filtro de escurecimento, um filtro retro, um filtro de filme, um filtro de desfoque e um filtro bokeh.
[00147] Especificamente, para métodos de processamento de cores para uma área alvo e uma área de plano de fundo de uma mesma imagem, consulte a etapa 23. Para as N2 imagens, o terceiro modo de processamento de cor e o quarto modo de processamento de cor são, respectivamente, semelhantes ao primeiro modo de processamento de cor e ao segundo modo de processamento de cor.
[00148] De acordo com as soluções anteriores, em alguns cenários, o usuário pode selecionar livremente um modo de processamento de cor de um plano de fundo em diferentes imagens, para destacar diferentes plano de fundos. Em alguns cenários, o usuário pode selecionar livremente um modo de processamento de cor de um objeto principal em imagens diferentes, para destacar o objeto principal em diferentes graus ou formas.
[00149] Deve ser entendido que, em diferentes exemplos da presente invenção, os sinais indicados por um mesmo marcador podem ter fontes diferentes ou podem ser obtidos de maneiras diferentes. Isso não constitui uma limitação. Além disso, em referências de etapas de exemplos diferentes, "o mesmo que a etapa xx" concentra-se mais na lógica de processamento de sinal das duas etapas é semelhante. Isso não se limita ao fato de que uma entrada e uma saída das duas etapas precisam ser completamente iguais e que os procedimentos dos dois métodos são completamente equivalentes. As citações e variações apropriadas que podem ser causadas por uma pessoa versada na técnica devem cair dentro do escopo de proteção da presente invenção.
[00150] A presente invenção fornece um método de processamento de imagem. Uma área alvo e uma área de plano de fundo são determinadas em uma imagem realizando a segmentação de máscara na imagem. Diferentes modos de processamento de cor são aplicados à área alvo e à área de plano de fundo, de modo que a luminância da área alvo seja maior que a luminância da área de plano de fundo, ou a crominância da área alvo seja maior que a crominância da área de plano de fundo, e um objeto principal correspondente à área alvo é destacada mais proeminentemente. Isso implementa um efeito especial de filme.
[00151] Com base no método de processamento de imagem fornecido na modalidade anterior, uma modalidade da presente invenção fornece um aparelho de processamento de imagem 900. O aparelho pode ser usado em uma pluralidade de dispositivos terminais e pode estar em qualquer forma de implementação do terminal 100, por exemplo, um terminal tendo uma função de fotografia de vídeo.
Com referência à FIG. 9, o aparelho inclui: um módulo de fotografia 901, configurado para obter uma imagem, que pode ser fotografar ou fotografar em vídeo, onde o módulo é especificamente configurado para realizar o método na etapa 21, etapa 31, etapa 51, etapa 61 ou etapa 71 no exemplo anterior e um método que pode ser equivalente ao método, e o módulo pode ser implementado por um processador invocando uma instrução de programa correspondente em uma memória para controlar uma câmera para capturar a imagem; um módulo de determinação 902, configurado para determinar uma área alvo e uma área de plano de fundo na imagem com base no conteúdo da imagem, onde o módulo é especificamente configurado para realizar o método na etapa 22, etapa 32, etapa 52, etapa 62 ou etapa 72 em o exemplo anterior e um método que pode ser equivalente ao método, e o módulo pode ser implementado pelo processador invocando uma instrução de programa correspondente na memória para implementar um algoritmo correspondente; e um módulo de processamento de cor 903, configurado para usar diferentes modos de processamento de cor para a área alvo e a área de plano de fundo na imagem para obter uma imagem alvo ou um vídeo alvo, de modo que a crominância da área alvo seja maior do que a crominância da área de plano de fundo, ou a luminância da área alvo é maior do que a luminância da área de plano de fundo, onde o módulo é especificamente configurado para realizar o método na etapa 23, etapa 33, etapa 53, etapa 63 ou etapa 73 no exemplo anterior e um método que pode ser equivalente ao método, e o módulo pode ser implementado pelo processador invocando uma instrução de programa correspondente na memória usando um algoritmo específico.
[00152] Além disso, o aparelho pode ainda incluir um módulo de armazenamento 904, configurado para armazenar a imagem ou o vídeo no qual o processamento de cor é realizado.
[00153] Os exemplos de métodos específicos anteriores, explicações e descrições de características técnicas nas modalidades, e extensões de uma pluralidade de formas de implementação também são aplicáveis à execução do método no aparelho, e os detalhes não são descritos nas modalidades do aparelho.
[00154] A presente invenção fornece um aparelho de processamento de imagem. A segmentação da máscara é realizada em uma imagem, de forma que uma área alvo e uma área de plano de fundo na imagem sejam determinadas com base no conteúdo da imagem. Diferentes modos de processamento de cor são aplicados à área alvo e à área de plano de fundo, de modo que a luminância da área alvo seja maior que a luminância da área de plano de fundo, ou a crominância da área alvo seja maior que a crominância da área de plano de fundo, e um objeto principal correspondente à área alvo é destacada mais proeminentemente. Isso obtém um efeito especial de filme.
[00155] Com base no método de processamento de imagem fornecido na modalidade anterior, uma modalidade da presente invenção fornece ainda um aparelho de processamento de imagem
1000. O aparelho pode ser usado em uma pluralidade de dispositivos terminais e pode estar em qualquer forma de implementação do terminal 100, por exemplo, um terminal tendo uma função de fotografia de vídeo.
Com referência à FIG. 10, o aparelho inclui: um módulo de fotografia 1001, configurado para obter uma imagem, que pode ser fotografar ou fotografar em vídeo, onde o módulo é especificamente configurado para realizar o método na etapa 21, etapa 31, etapa 51, etapa 61 ou etapa 71 no exemplo anterior e um método que pode ser equivalente ao método, e o módulo pode ser implementado por um processador invocando uma instrução de programa correspondente em uma memória para controlar uma câmera para capturar a imagem; um módulo de decisão 1002, configurado para: determinar se uma quantidade de quadros de cintilação nos primeiros N0 quadros de um quadro atual é maior do que um limiar predefinido; e se um resultado de determinação é que a quantidade de quadros de cintilação não é maior do que o limiar predefinido, continuar a acionar um módulo de determinação 1003 e um módulo de processamento de cor 1004 para realizar funções relacionadas; ou se um resultado de determinação de que a quantidade de quadros de cintilação é maior do que o limiar predefinido, continue a acionar um módulo de eliminação de cintilação 1005 para realizar uma função relacionada; e o módulo 1002 é especificamente configurado para realizar o método na etapa 42 no exemplo anterior e um método que pode ser equivalente ao método, e o módulo pode ser implementado pelo processador invocando uma instrução de programa correspondente na memória para implementar um algoritmo correspondente;
um módulo de determinação 1003, configurado para: quando o módulo de decisão 1002 determina que a quantidade de quadros de cintilação nos primeiros N0 quadros do quadro atual não é maior do que o limiar predefinido, determinar uma área alvo e uma área de plano de fundo na imagem com base em conteúdo de imagem, onde o módulo é especificamente configurado para realizar o método na etapa 22, etapa 32, etapa 43, etapa 52, etapa 62 ou etapa 72 no exemplo anterior e um método que pode ser equivalente ao método, e o módulo pode ser implementado pelo processador invocando uma instrução de programa correspondente na memória para implementar um algoritmo correspondente; um módulo de processamento de cor 1004, configurado para usar diferentes modos de processamento de cor para a área alvo e a área de plano de fundo na imagem, de modo que a crominância da área alvo seja maior que a crominância da área de plano de fundo ou a luminância da área alvo seja maior que luminância da área de plano de fundo, onde o módulo é especificamente configurado para realizar o método na etapa 23, etapa 33, etapa 44, etapa 53, etapa 63 ou etapa 73 no exemplo anterior e um método que pode ser equivalente ao método, e o módulo pode ser implementado pelo processador invocando uma instrução de programa correspondente na memória usando um algoritmo específico; e um módulo de eliminação de cintilação 1005, configurado para: quando o módulo de decisão 1002 determina que a quantidade de quadros de cintilação nos primeiros N0 quadros do quadro atual é maior do que o limiar predefinido, usar um mesmo método de processamento de cor para todas as áreas de imagem do atual quadro, onde o mesmo método de processamento de cor pode ser o mesmo que um método de processamento de cor da área de plano de fundo em um quadro anterior, ou pode ser o mesmo que um método de processamento de cor da área alvo em um quadro anterior; e o módulo é especificamente configurado para realizar o método na etapa 45 no exemplo anterior e um método que pode ser equivalente ao método, e o módulo pode ser implementado pelo processador invocando uma instrução de programa correspondente na memória usando um específico algoritmo.
[00156] Além disso, o aparelho 1000 pode incluir ainda um módulo de armazenamento 1006, configurado para armazenar a imagem ou o vídeo no qual o processamento de cor é realizado.
[00157] Os exemplos de métodos específicos anteriores, explicações e descrições de características técnicas nas modalidades, e extensões de uma pluralidade de formas de implementação também são aplicáveis à execução do método no aparelho, e os detalhes não são descritos nas modalidades do aparelho.
[00158] A presente invenção fornece o aparelho de processamento de imagem. A segmentação da máscara é realizada na imagem, de forma que a área alvo e a área de plano de fundo da imagem sejam determinadas com base no conteúdo da imagem. Os diferentes modos de processamento de cor são aplicados à área alvo e à área de plano de fundo, de modo que a luminância da área alvo seja maior do que a luminância da área de plano de fundo, ou a crominância da área alvo seja maior do que a crominância da área de plano de fundo, e um objeto principal correspondente à área alvo é destacado mais proeminentemente. Isso implementa um efeito especial de filme.
[00159] Deve ser entendido que a divisão nos módulos no aparelho anterior é meramente uma divisão de função lógica. Em uma implementação real, alguns ou todos os módulos podem ser integrados em uma entidade física ou podem ser fisicamente separados. Por exemplo, cada um dos módulos anteriores pode ser um elemento de processador separado ou pode ser integrado em um chip de um terminal ou pode ser armazenado em um elemento de armazenamento de um controlador em uma forma de código de programa. Um elemento processador do processador invoca e executa uma função de cada um dos módulos anteriores. Além disso, os módulos podem ser integrados ou podem ser implementados de forma independente. O elemento processador aqui pode ser um chip de circuito integrado e tem uma capacidade de processamento de sinal. Em um processo de implementação, as etapas dos métodos anteriores ou dos módulos anteriores podem ser implementadas usando um circuito lógico integrado de hardware no elemento processador ou usando instruções em uma forma de software. O elemento processador pode ser um processador de uso geral, por exemplo, uma unidade de processamento central (CPU para abreviar) ou pode ser um ou mais circuitos integrados configurados para implementar os métodos anteriores, por exemplo, um ou mais circuitos integrados de aplicação específica (Inglês: application-specific integrated circuit, ASIC para abreviar), um ou mais microprocessadores (Inglês: digital signal processor, DSP para abreviar), ou uma ou mais arranjos de portas programáveis em campo (Inglês: field- programmable gate array, FPGA para abreviar).
[00160] Deve ser entendido que no relatório descritivo, nas reivindicações e nos desenhos anexos da presente invenção,
os termos "primeiro", "segundo" e semelhantes se destinam a distinguir entre objetos semelhantes, mas não indicam necessariamente uma ordem ou sequência específica. Deve ser entendido que os dados designados de tal forma são intercambiáveis em uma circunstância adequada, de modo que as modalidades aqui descritas podem ser implementadas em outras ordens que não a ordem ilustrada ou descrita neste documento. Além disso, os termos "incluir", "conter" e quaisquer outras variantes significam cobrir a inclusão não exclusiva, por exemplo, um processo, método, sistema, produto ou dispositivo que inclui uma lista de etapas ou módulos não é necessariamente limitado às etapas ou módulos expressamente listados, mas pode incluir outras etapas ou módulos não expressamente listados ou inerentes a tal processo, método, produto ou dispositivo.
[00161] Uma pessoa versada na técnica deve entender que as modalidades da presente invenção podem ser fornecidas como um método, um sistema ou um produto de programa de computador. Portanto, a presente invenção pode usar uma forma de modalidades somente de hardware, modalidades somente de software ou modalidades com uma combinação de software e hardware. Além disso, a presente invenção pode usar uma forma de um produto de programa de computador que é implementado em um ou mais meios de armazenamento utilizáveis por computador (incluindo, mas não se limitando a, uma memória de disco, um CD-ROM, uma memória óptica, e semelhantes) que incluem código de programa utilizável por computador.
[00162] A presente invenção é descrita com referência aos fluxogramas e / ou diagramas de blocos do método, o dispositivo (sistema), e o produto de programa de computador de acordo com as modalidades da presente invenção. Deve ser entendido que as instruções do programa de computador podem ser usadas para implementar cada processo e / ou cada bloco nos fluxogramas e / ou diagramas de blocos e uma combinação de um processo e / ou um bloco nos fluxogramas e / ou diagramas de blocos. Estas instruções de programa de computador podem ser fornecidas para um computador de uso geral, um computador de uso especial, um processador embutido ou um processador de outro dispositivo de processamento de dados programável para gerar uma máquina, de modo que as instruções executadas por um computador ou processador de o outro dispositivo de processamento de dados programável gera um aparelho para implementar uma função específica em um ou mais processos nos fluxogramas e / ou em um ou mais blocos nos diagramas de blocos.
[00163] Estas instruções de programa de computador podem ser armazenadas em uma memória legível por computador que pode instruir o computador ou outro dispositivo de processamento de dados programável a funcionar de uma maneira específica, de modo que as instruções armazenadas na memória legível por computador gerem um artefato que inclui um aparelho de instrução. O aparelho de instrução implementa a função específica em um ou mais processos nos fluxogramas e / ou em um ou mais blocos nos diagramas de blocos.
[00164] Essas instruções de programa de computador podem, alternativamente, ser carregadas no computador ou em outro dispositivo de processamento de dados programável, de modo que uma série de operações e etapas sejam realizadas no computador ou em outro dispositivo programável, gerando assim o processamento implementado por computador. Portanto,
as instruções executadas no computador ou em outro dispositivo programável fornecem etapas para implementar a função específica em um ou mais processos nos fluxogramas e / ou em um ou mais blocos nos diagramas de blocos.
[00165] Embora algumas modalidades da presente invenção tenham sido descritas, as pessoas versadas na técnica podem fazer alterações e modificações a essas modalidades, uma vez que aprendam o conceito inventivo básico. Portanto, as reivindicações anexas se destinam a ser interpretadas de modo a cobrir as modalidades listadas e todas as mudanças e modificações que caem dentro do escopo da presente invenção. Obviamente, uma pessoa versada na técnica pode fazer várias modificações e variações nas modalidades da presente invenção sem se afastar do espírito e do escopo das modalidades da presente invenção. A presente invenção se destina a cobrir essas modificações e variações, desde que caiam dentro do escopo de proteção definido pelas seguintes reivindicações e suas tecnologias equivalentes.

Claims (39)

REIVINDICAÇÕES EMENDADAS
1. Método de processamento de imagem, caracterizado pelo fato de que o método é usado por um terminal para fotografar uma imagem em tempo real ou fotografar um vídeo em tempo real, e o método compreende: capturar uma imagem; quando um assunto principal e um plano de fundo são identificados na imagem, retendo uma cor de uma área de objeto principal na imagem e realizando processamento de preto e branco ou desfoque em uma área de plano de fundo na imagem, em que a área de plano de fundo é uma área da imagem diferente da área de objeto principal; ou quando apenas um plano de fundo é identificado na imagem, realizar processamento de preto e branco ou desfoque em uma área de plano de fundo da imagem; e gerar uma imagem alvo ou um vídeo alvo com base na imagem processada, em que a área de objeto principal e/ou a área de plano de fundo é/são identificadas na imagem com base em uma categoria de um objeto na imagem usando uma rede neural.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que uma máscara de uma primeira categoria de objeto é usada para identificar a área de assunto principal, e uma máscara de uma segunda categoria de objeto é usada para identificar a área de plano de fundo; a primeira categoria de objeto compreende pelo menos um de uma pessoa, um animal, uma planta, um veículo ou outra categoria de objeto predefinida; a segunda categoria de objeto é o plano de fundo; e a máscara da primeira categoria de objeto e a máscara da segunda categoria de objeto são determinadas com base na rede neural.
3. Método, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que a rede neural é obtida usando um conjunto de dados de treinamento para treinamento, e o conjunto de dados de treinamento compreende imagens de entrada de uma pluralidade de cenários de aplicação.
4. Método, de acordo com a reivindicação 3, caracterizado pelo fato de que o conjunto de dados de treinamento compreende ainda gráficos de máscara da pluralidade de cenários de aplicação.
5. Método, de acordo com qualquer uma das reivindicações 2 a 4, caracterizado pelo fato de que a rede neural é capaz de identificar pelo menos duas categorias de objeto da pessoa, o animal, a planta, o veículo, as roupas ou a outra categoria de objeto predefinida.
6. Método, de acordo com qualquer uma das reivindicações 2 a 4, caracterizado pelo fato de que uma quantidade de pixeis que estão na imagem e que correspondem à máscara da primeira categoria de objeto é maior do que uma quantidade de pixeis que estão na imagem e que correspondem a um máscara de uma terceira categoria de objeto, e a terceira categoria de objeto é diferente da segunda categoria de objeto.
7. Método, de acordo com qualquer uma das reivindicações 2 a 4, caracterizado pelo fato de que a máscara da primeira categoria de objeto tem uma prioridade de determinação de objeto principal mais alta do que uma máscara de outra categoria de objeto.
8. Método, de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que a área de objeto principal compreende uma pluralidade de indivíduos, e a pluralidade de indivíduos pertence a uma mesma categoria de objeto ou diferentes categorias de objeto.
9. Método, de acordo com qualquer uma das reivindicações 1 a 8, caracterizado pelo fato de que a área de objeto principal é obtida realizando a segmentação ao nível de pixel no objeto na imagem usando a rede neural.
10. Aparelho de processamento de imagem, caracterizado pelo fato de que o aparelho é usado por um terminal para fotografar uma imagem em tempo real ou fotografar um vídeo em tempo real, e o aparelho compreende: um módulo de fotografia, configurado para capturar uma imagem; um módulo de determinação, configurado para identificar uma área de objeto principal e/ou uma área de plano de fundo na imagem com base em uma categoria de um objeto na imagem usando uma rede neural; e um módulo de processamento de cor, configurado para: quando o módulo de determinação identifica um assunto principal e um plano de fundo na imagem, reter uma cor da área de objeto principal na imagem e realizar o processamento de preto e branco ou o processamento de desfoque na área de plano de fundo na imagem, em que a área de plano de fundo é uma área da imagem diferente da área de objeto principal; ou quando o módulo de determinação identifica apenas um plano de fundo na imagem, realizar o processamento de preto e branco ou o processamento de desfoque na área de plano de fundo da imagem; e gerar uma imagem alvo ou um vídeo alvo com base na imagem processada.
11. Aparelho, de acordo com a reivindicação 10,
caracterizado pelo fato de que uma máscara de uma primeira categoria de objeto é usada para identificar a área de assunto principal, e uma máscara de uma segunda categoria de objeto é usada para identificar a área de plano de fundo; a primeira categoria de objeto compreende pelo menos um de uma pessoa, um animal, uma planta, um veículo ou outra categoria de objeto predefinida; a segunda categoria de objeto é o plano de fundo; e a máscara da primeira categoria de objeto e a máscara da segunda categoria de objeto são determinadas com base na rede neural.
12. Aparelho, de acordo com a reivindicação 10 ou 11, caracterizado pelo fato de que a rede neural é obtida usando um conjunto de dados de treinamento para treinamento, e o conjunto de dados de treinamento compreende imagens de entrada de uma pluralidade de cenários de aplicação.
13. Aparelho, de acordo com a reivindicação 12, caracterizado pelo fato de que o conjunto de dados de treinamento compreende ainda gráficos de máscara da pluralidade de cenários de aplicação.
14. Aparelho, de acordo com qualquer uma das reivindicações 10 a 13, caracterizado pelo fato de que a rede neural é capaz de identificar pelo menos duas categorias de objeto da pessoa, o animal, a planta, o veículo, as roupas, ou a outra categoria de objeto predefinida.
15. Aparelho, de acordo com qualquer uma das reivindicações 11 a 13, caracterizado pelo fato de que uma quantidade de pixeis que estão na imagem e que correspondem à máscara da primeira categoria de objeto é maior do que uma quantidade de pixeis que estão na imagem e que correspondem a uma máscara de uma terceira categoria de objeto, e a terceira categoria de objeto é diferente da segunda categoria de objeto.
16. Aparelho, de acordo com qualquer uma das reivindicações 11 a 13, caracterizado pelo fato de que a máscara da primeira categoria de objeto tem uma prioridade de determinação de objeto principal mais alta do que uma máscara de outra categoria de objeto.
17. Aparelho, de acordo com qualquer uma das reivindicações 10 a 16, caracterizado pelo fato de que a área de objeto principal compreende uma pluralidade de indivíduos, e a pluralidade de indivíduos pertence a uma mesma categoria de objeto ou diferentes categorias de objeto.
18. Aparelho, de acordo com qualquer uma das reivindicações 10 a 17, caracterizado pelo fato de que a área de objeto principal é obtida realizando segmentação ao nível de pixel no objeto na imagem usando a rede neural.
19. Dispositivo terminal, caracterizado pelo fato de que o dispositivo terminal compreende uma câmera, uma memória, um processador, e um barramento; e a câmera, a memória, e o processador são conectados através do barramento; a câmera é configurada para capturar uma imagem; a memória é configurada para armazenar um programa de computador e uma instrução; e o processador é configurado para invocar o programa de computador, a instrução, e a imagem capturada que estão armazenadas na memória, para realizar o método conforme definido em qualquer uma das reivindicações 1 a 9.
20. Dispositivo terminal, de acordo com a reivindicação 19, caracterizado pelo fato de que o dispositivo terminal compreende ainda um sistema de antena, e o sistema de antena recebe e envia um sinal de comunicação sem fio sob controle do processador, para implementar comunicação sem fio com uma rede de comunicações móveis, em que a rede de comunicações móveis compreende um ou mais dos seguintes: uma rede GSM, uma rede CDMA, uma rede 3G, uma rede 4G, uma rede 5G, uma rede FDMA, uma rede TDMA, uma rede PDC, uma rede TACS, uma rede AMPS, uma rede WCDMA, uma rede TDSCDMA, uma rede Wi-Fi ou uma rede LTE.
21. Método de processamento de imagem, caracterizado pelo fato de que o método compreende: capturar N1 imagens em um primeiro período de tempo; capturar N2 imagens em um segundo período de tempo, em que as N1 imagens e as N2 imagens correspondem a conteúdos diferentes, ambos N1 e N2 são números inteiros positivos; determinar uma primeira área alvo e uma primeira área de plano de fundo de cada uma das N1 imagens, em que a primeira área de plano de fundo é uma área da imagem diferente da primeira área alvo, e a primeira área alvo em cada uma das N1 imagens corresponde a um primeira objeto; determinar uma segunda área alvo e uma segunda área de plano de fundo de cada uma das N2 imagens, em que a segunda área de plano de fundo é uma área da imagem diferente da segunda área alvo, e a segunda área alvo em cada uma das N2 imagens corresponde a um segundo objeto; e processar a primeira área alvo em um primeiro modo de processamento de cor, processar a primeira área de plano de fundo em um segundo modo de processamento de cor, processar a segunda área alvo em um terceiro modo de processamento de cor, e processar a segunda área de plano de fundo em um quarto modo de processamento de cor, para obter um vídeo alvo, em que o primeiro modo de processamento de cor ou o terceiro modo de processamento de cor compreende retenção de cor ou aprimoramento de cor, e o segundo modo de processamento de cor ou o quarto modo de processamento de cor compreende um modo preto e branco, escurecimento, desfoque ou retrô; o primeiro objeto e o segundo objeto são objetos diferentes, o vídeo alvo compreende N1 imagens processadas e N2 imagens processadas.
22. Método, de acordo com a reivindicação 21, caracterizado pelo fato de que o primeiro modo de processamento de cor é igual ao terceiro modo de processamento de cor, e o segundo modo de processamento de cor é igual ao quarto modo de processamento de cor; ou, o primeiro modo de processamento de cor é igual ao terceiro modo de processamento de cor, e o segundo modo de processamento de cor é diferente do quarto modo de processamento de cor; ou, o primeiro modo de processamento de cor é diferente do terceiro modo de processamento de cor, e o segundo modo de processamento de cor é igual ao quarto modo de processamento de cor; ou, o primeiro modo de processamento de cor é diferente do terceiro modo de processamento de cor, e o segundo modo de processamento de cor é diferente do quarto modo de processamento de cor.
23. Método, de acordo com a reivindicação 21 ou 22, caracterizado pelo fato de que o primeiro objeto ou o segundo objeto compreende pelo menos um indivíduo de uma pessoa, um animal ou uma planta.
24. Método, de acordo com qualquer uma das reivindicações
21 a 23, caracterizado pelo fato de que a rede neural é capaz de identificar pelo menos duas categorias de objeto da pessoa, o animal, a planta, o veículo, as roupas ou a outra categoria de objeto predefinida.
25. Método, de acordo com qualquer uma das reivindicações 21 a 24, caracterizado pelo fato de que o primeiro objeto e o segundo objeto são determinados separadamente por um terminal com base no conteúdo de duas imagens em um intervalo de tempo predefinido.
26. Aparelho de processamento de imagem, caracterizado pelo fato de que o aparelho compreende: um módulo de fotografia, configurado para capturar N1 imagens em um primeiro período de tempo, e capturar N2 imagens em um segundo período de tempo, em que as N1 imagens e as N2 imagens correspondem a conteúdos diferentes, ambos N1 e N2 são números inteiros positivos; um módulo de determinação, configurado para: determinar uma primeira área alvo e uma primeira área de plano de fundo de cada uma das N1 imagens, em que a primeira área de plano de fundo é uma área da imagem diferente da primeira área alvo, e a primeira área alvo em cada uma das N1 imagens correspondem a um primeiro objeto; e determinar uma segunda área alvo e uma segunda área de plano de fundo de cada uma das N2 imagens, em que a segunda área de plano de fundo é uma área da imagem diferente da segunda área alvo, e a segunda área alvo em cada uma das N2 imagens corresponde a um segundo objeto; e um módulo de processamento de cor, configurado para processar a primeira área alvo em um primeiro modo de processamento de cor, processar a primeira área de plano de fundo em um segundo modo de processamento de cor, processar a segunda área alvo em um terceiro modo de processamento de cor, e processar a segunda área de plano de fundo em um quarto modo de processamento de cor, para obter um vídeo alvo, em que o primeiro modo de processamento de cor ou o terceiro modo de processamento de cor compreende retenção de cor ou aprimoramento de cor, e o segundo modo de processamento de cor ou o quarto modo de processamento de cor compreende um modo preto e branco, escurecimento, desfoque ou retrô; o primeiro objeto e o segundo objeto são objetos diferentes, o vídeo alvo compreende N1 imagens processadas e N2 imagens processadas.
27. Aparelho, de acordo com a reivindicação 26, caracterizado pelo fato de que: o primeiro modo de processamento de cor é igual ao terceiro modo de processamento de cor, e o segundo modo de processamento de cor é igual ao quarto modo de processamento de cor; o primeiro modo de processamento de cor é igual ao terceiro modo de processamento de cor, e o segundo modo de processamento de cor é diferente do quarto modo de processamento de cor; o primeiro modo de processamento de cor é diferente do terceiro modo de processamento de cor, e o segundo modo de processamento de cor é igual ao quarto modo de processamento de cor; ou o primeiro modo de processamento de cor é diferente do terceiro modo de processamento de cor, e o segundo modo de processamento de cor é diferente do quarto modo de processamento de cor.
28. Aparelho, de acordo com a reivindicação 26 ou 27, caracterizado pelo fato de que o primeiro objeto ou o segundo objeto compreende pelo menos um indivíduo de uma pessoa, um animal ou uma planta.
29. Aparelho, de acordo com qualquer uma das reivindicações 26 a 28, caracterizado pelo fato de que a rede neural é capaz de identificar pelo menos duas categorias de objeto da pessoa, o animal, a planta, o veículo, as roupas ou a outra categoria de objeto predefinida.
30. Aparelho, de acordo com qualquer uma das reivindicações 26 a 29, caracterizado pelo fato de que o primeiro objeto e o segundo objeto são determinados separadamente por um terminal com base no conteúdo de duas imagens em um intervalo de tempo predefinido.
31. Dispositivo terminal, caracterizado pelo fato de que o dispositivo terminal compreende uma câmera, uma memória, um processador, e um barramento; e a câmera, a memória, e o processador são conectados através do barramento; a câmera é configurada para capturar uma imagem; a memória é configurada para armazenar um programa de computador e uma instrução; e o processador é configurado para invocar o programa de computador, a instrução, e a imagem capturada que são armazenadas na memória, para realizar o método conforme definido em qualquer uma das reivindicações 21 a 25.
32. Dispositivo terminal, de acordo com a reivindicação 31, caracterizado pelo fato de que o dispositivo terminal compreende ainda um sistema de antena, e o sistema de antena recebe e envia um sinal de comunicação sem fio sob controle do processador, para implementar comunicação sem fio com uma rede de comunicações móveis, em que a rede de comunicações móveis compreende um ou mais dos seguintes: uma rede GSM, uma rede CDMA, uma rede 3G, uma rede 4G, uma rede 5G, uma rede FDMA, uma rede TDMA, uma rede PDC, uma rede TACS, uma rede AMPS, uma rede WCDMA, uma rede TDSCDMA, uma rede Wi-Fi, ou uma rede LTE.
33. Método de processamento de imagem, caracterizado pelo fato de que o método compreende: ao fotografar um vídeo, determinar um objeto principal em uma imagem de vídeo; e reter uma cor da área alvo na imagem de vídeo, e realizar processamento de tons de cinza na área de plano de fundo na imagem de vídeo para obter um vídeo alvo, em que a área alvo corresponde ao objeto principal, e a área de plano de fundo é uma área da imagem de vídeo diferente da área alvo.
34. Método, de acordo com a reivindicação 33, caracterizado pelo fato de que a rede neural é capaz de identificar pelo menos duas categorias de objeto da pessoa, o animal, a planta, o veículo, as roupas ou a outra categoria de objeto predefinida.
35. Método, de acordo com a reivindicação 33 ou 34, caracterizado pelo fato de que o método compreende ainda: realizar processamento de filtro na área de plano de fundo, em que o processamento de filtro compreende pelo menos um dentre processamento de bokeh, processamento de escurecimento, processamento de retrô, processamento de filme, ou processamento de sobreposição de textura.
36. Aparelho de processamento de imagem, caracterizado pelo fato de que o aparelho compreende: um módulo de fotografia, configurado para fotografar um vídeo; um módulo de determinação, configurado para determinar um objeto principal em uma imagem de vídeo; e um módulo de processamento de cor, configurado para reter uma cor da área alvo na imagem de vídeo, e realizar processamento de tons de cinza na área de plano de fundo na imagem de vídeo para obter um vídeo alvo, em que a área alvo corresponde ao objeto principal, e a área de plano de fundo é uma área da imagem de vídeo diferente da área alvo.
37. Aparelho, de acordo com a reivindicação 36, caracterizado pelo fato de que o método compreende ainda: realizar processamento de filtro na área de plano de fundo, em que o processamento de filtro compreende pelo menos um dentre processamento de bokeh, processamento de escurecimento, processamento de retrô, processamento de filme, ou processamento de sobreposição de textura.
38. Aparelho, de acordo com a reivindicação 36 ou 37, caracterizado pelo fato de que o módulo de processamento de cor é ainda configurado para: realizar processamento de filtro na área de plano de fundo, em que o processamento de filtro compreende pelo menos um dentre processamento de bokeh, processamento de escurecimento, processamento de retrô, processamento de filme, ou processamento de sobreposição de textura.
39. Dispositivo terminal, caracterizado pelo fato de que o dispositivo terminal compreende uma câmera, uma memória, um processador, e um barramento; e a câmera, a memória, e o processador são conectados através do barramento; a câmera é configurada para capturar uma imagem; a memória é configurada para armazenar um programa de computador e uma instrução; e o processador é configurado para invocar o programa de computador, a instrução, e a imagem capturada que são armazenadas na memória, para realizar o método conforme definido em qualquer uma das reivindicações 33 a 35.
BR112021007094-0A 2018-10-15 2019-06-18 método de processamento de imagem, aparelho, e dispositivo BR112021007094A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811199234.8A CN109816663B (zh) 2018-10-15 2018-10-15 一种图像处理方法、装置与设备
CN201811199234.8 2018-10-15
PCT/CN2019/091717 WO2020078027A1 (zh) 2018-10-15 2019-06-18 一种图像处理方法、装置与设备

Publications (1)

Publication Number Publication Date
BR112021007094A2 true BR112021007094A2 (pt) 2021-07-27

Family

ID=66601864

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112021007094-0A BR112021007094A2 (pt) 2018-10-15 2019-06-18 método de processamento de imagem, aparelho, e dispositivo

Country Status (9)

Country Link
US (1) US20210241432A1 (pt)
EP (1) EP3859670A4 (pt)
JP (1) JP7226851B2 (pt)
KR (1) KR20210073568A (pt)
CN (4) CN109816663B (pt)
AU (1) AU2019362347B2 (pt)
BR (1) BR112021007094A2 (pt)
MX (1) MX2021004295A (pt)
WO (1) WO2020078027A1 (pt)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816663B (zh) * 2018-10-15 2021-04-20 华为技术有限公司 一种图像处理方法、装置与设备
CN111369598B (zh) * 2020-03-02 2021-03-30 推想医疗科技股份有限公司 深度学习模型的训练方法及装置、应用方法及装置
CN113395441A (zh) * 2020-03-13 2021-09-14 华为技术有限公司 图像留色方法及设备
CN111598902B (zh) * 2020-05-20 2023-05-30 抖音视界有限公司 图像分割方法、装置、电子设备及计算机可读介质
CN111726476B (zh) * 2020-07-06 2022-05-31 北京字节跳动网络技术有限公司 图像处理方法、装置、设备和计算机可读介质
CN111815505A (zh) * 2020-07-14 2020-10-23 北京字节跳动网络技术有限公司 用于处理图像的方法、装置、设备和计算机可读介质
US20220070241A1 (en) * 2020-08-28 2022-03-03 Tmrw Foundation Ip S. À R.L. System and method enabling interactions in virtual environments with virtual presence
CN112188260A (zh) * 2020-10-26 2021-01-05 咪咕文化科技有限公司 视频的分享方法、电子设备及可读存储介质
US11335048B1 (en) * 2020-11-19 2022-05-17 Sony Group Corporation Neural network-based image colorization on image/video editing applications
CN113225477A (zh) * 2021-04-09 2021-08-06 天津畅索软件科技有限公司 一种拍摄方法、装置和相机应用
CN113569713A (zh) * 2021-07-23 2021-10-29 浙江大华技术股份有限公司 视频图像的条纹检测方法及装置、计算机可读存储介质
CN114363659A (zh) * 2021-12-15 2022-04-15 深圳万兴软件有限公司 降低视频闪烁的方法、装置、设备及存储介质
CN114422682B (zh) * 2022-01-28 2024-02-02 安谋科技(中国)有限公司 拍摄方法、电子设备和可读存储介质
CN115118948B (zh) * 2022-06-20 2024-04-05 北京华录新媒信息技术有限公司 一种全景视频中无规则遮挡的修复方法及装置
KR20240056112A (ko) * 2022-10-21 2024-04-30 삼성전자주식회사 이미지에서 관심 영역을 식별하기 위한 전자 장치 및 그 제어 방법
CN115422986B (zh) * 2022-11-07 2023-08-22 深圳传音控股股份有限公司 处理方法、处理设备及存储介质

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6952286B2 (en) * 2000-12-07 2005-10-04 Eastman Kodak Company Doubleprint photofinishing service with the second print having subject content-based modifications
CN100464569C (zh) * 2007-04-17 2009-02-25 北京中星微电子有限公司 对图像添加特效的方法和系统
CN101072289B (zh) * 2007-06-11 2010-06-02 北京中星微电子有限公司 一种图像特效的自动生成方法及装置
CN101790020B (zh) * 2009-09-28 2013-03-20 苏州佳世达电通有限公司 胶片扫描方法
US8355039B2 (en) * 2010-07-06 2013-01-15 DigitalOptics Corporation Europe Limited Scene background blurring including range measurement
CN102567727B (zh) * 2010-12-13 2014-01-01 中兴通讯股份有限公司 一种背景目标替换方法和装置
CN102542593A (zh) * 2011-09-30 2012-07-04 中山大学 一种基于视频解译的交互式视频风格化渲染方法
CN102880873B (zh) * 2012-08-31 2015-06-03 公安部第三研究所 基于图像分割和语义提取实现人员行为识别的系统及方法
TWI542201B (zh) * 2013-12-26 2016-07-11 智原科技股份有限公司 降低視訊畫面抖動的方法與裝置
CN104156947B (zh) * 2014-07-23 2018-03-16 小米科技有限责任公司 图像分割方法、装置及设备
WO2016029395A1 (en) * 2014-08-28 2016-03-03 Qualcomm Incorporated Temporal saliency map
WO2016197303A1 (en) * 2015-06-08 2016-12-15 Microsoft Technology Licensing, Llc. Image semantic segmentation
CN105049695A (zh) * 2015-07-07 2015-11-11 广东欧珀移动通信有限公司 一种视频录制方法及装置
CN105005980B (zh) * 2015-07-21 2019-02-01 深圳Tcl数字技术有限公司 图像处理方法及装置
CN105872509A (zh) * 2015-11-23 2016-08-17 乐视致新电子科技(天津)有限公司 一种图像对比度调节方法及装置
CN105513081A (zh) * 2015-12-21 2016-04-20 中国兵器工业计算机应用技术研究所 一种多目标的跟踪识别方法
US10580140B2 (en) * 2016-05-23 2020-03-03 Intel Corporation Method and system of real-time image segmentation for image processing
JP6828333B2 (ja) * 2016-09-13 2021-02-10 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP2018085008A (ja) * 2016-11-25 2018-05-31 株式会社ジャパンディスプレイ 画像処理装置および画像処理装置の画像処理方法
CN106846321B (zh) * 2016-12-08 2020-08-18 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于贝叶斯概率与神经网络的图像分割方法
CN108230252B (zh) * 2017-01-24 2022-02-01 深圳市商汤科技有限公司 图像处理方法、装置以及电子设备
CN110506417B (zh) * 2017-02-06 2022-04-05 直观外科手术操作公司 用于从卷帘快门传感器中提取多个馈送的系统和方法
US10049308B1 (en) * 2017-02-21 2018-08-14 A9.Com, Inc. Synthesizing training data
CN106851124B (zh) * 2017-03-09 2021-03-02 Oppo广东移动通信有限公司 基于景深的图像处理方法、处理装置和电子装置
CN106997595A (zh) * 2017-03-09 2017-08-01 广东欧珀移动通信有限公司 基于景深的图像颜色处理方法、处理装置及电子装置
US9965865B1 (en) * 2017-03-29 2018-05-08 Amazon Technologies, Inc. Image data segmentation using depth data
CN107509045A (zh) * 2017-09-11 2017-12-22 广东欧珀移动通信有限公司 图像处理方法和装置、电子装置和计算机可读存储介质
CN107566723B (zh) * 2017-09-13 2019-11-19 维沃移动通信有限公司 一种拍摄方法、移动终端及计算机可读存储介质
CN107798653B (zh) * 2017-09-20 2019-12-24 北京三快在线科技有限公司 一种图像处理的方法和一种装置
CN107665482B (zh) * 2017-09-22 2021-07-23 北京奇虎科技有限公司 实现双重曝光的视频数据实时处理方法及装置、计算设备
US20190130191A1 (en) * 2017-10-30 2019-05-02 Qualcomm Incorporated Bounding box smoothing for object tracking in a video analytics system
CN108010037B (zh) * 2017-11-29 2019-09-13 腾讯科技(深圳)有限公司 图像处理方法、装置及存储介质
CN107948519B (zh) * 2017-11-30 2020-03-27 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN107977940B (zh) * 2017-11-30 2020-03-17 Oppo广东移动通信有限公司 背景虚化处理方法、装置及设备
US10528820B2 (en) * 2017-12-07 2020-01-07 Canon Kabushiki Kaisha Colour look-up table for background segmentation of sport video
CN108108697B (zh) * 2017-12-25 2020-05-19 中国电子科技集团公司第五十四研究所 一种实时无人机视频目标检测与跟踪方法
CN108133695B (zh) * 2018-01-02 2020-08-14 京东方科技集团股份有限公司 一种图像显示方法、装置、设备和介质
CN108305223B (zh) * 2018-01-09 2020-11-03 珠海格力电器股份有限公司 图像背景虚化处理方法及装置
CN108234882B (zh) * 2018-02-11 2020-09-29 维沃移动通信有限公司 一种图像虚化方法及移动终端
CN108491889A (zh) * 2018-04-02 2018-09-04 深圳市易成自动驾驶技术有限公司 图像语义分割方法、装置及计算机可读存储介质
CN108648284A (zh) * 2018-04-10 2018-10-12 光锐恒宇(北京)科技有限公司 一种视频处理的方法和装置
CN108648139A (zh) * 2018-04-10 2018-10-12 光锐恒宇(北京)科技有限公司 一种图像处理方法和装置
CN109816663B (zh) * 2018-10-15 2021-04-20 华为技术有限公司 一种图像处理方法、装置与设备

Also Published As

Publication number Publication date
CN113129312A (zh) 2021-07-16
US20210241432A1 (en) 2021-08-05
CN113112505B (zh) 2022-04-29
JP2022505115A (ja) 2022-01-14
AU2019362347A1 (en) 2021-05-27
JP7226851B2 (ja) 2023-02-21
CN112840376B (zh) 2022-08-09
CN112840376A (zh) 2021-05-25
WO2020078027A1 (zh) 2020-04-23
CN113129312B (zh) 2022-10-28
CN109816663A (zh) 2019-05-28
CN113112505A (zh) 2021-07-13
AU2019362347B2 (en) 2023-07-06
EP3859670A1 (en) 2021-08-04
CN109816663B (zh) 2021-04-20
EP3859670A4 (en) 2021-12-22
KR20210073568A (ko) 2021-06-18
MX2021004295A (es) 2021-08-05

Similar Documents

Publication Publication Date Title
BR112021007094A2 (pt) método de processamento de imagem, aparelho, e dispositivo
BR112021007087A2 (pt) método e aparelho de processamento de imagem, e dispositivo
US9451173B2 (en) Electronic device and control method of the same
WO2019120016A1 (zh) 图像处理方法、装置、存储介质及电子设备
WO2020192692A1 (zh) 图像处理方法以及相关设备
US11095829B2 (en) Apparatus and method for high dynamic range (HDR) image creation of dynamic scenes using graph cut-based labeling
WO2021078001A1 (zh) 一种图像增强方法及装置
US20210335391A1 (en) Resource display method, device, apparatus, and storage medium
WO2023015997A1 (zh) 视频编辑方法和视频编辑装置
CN115689963A (zh) 一种图像处理方法及电子设备
CN109089045A (zh) 一种基于多个摄像装置的摄像方法及设备及其终端
WO2021185374A1 (zh) 一种拍摄图像的方法及电子设备
WO2021180046A1 (zh) 图像留色方法及设备
WO2019052197A1 (zh) 飞行器参数设定方法和装置
RU2791810C2 (ru) Способ, аппаратура и устройство для обработки и изображения
RU2794062C2 (ru) Устройство и способ обработки изображения и оборудование
WO2021244174A1 (zh) 皮肤检测方法和设备
WO2023160221A1 (zh) 一种图像处理方法和电子设备
WO2022133954A1 (zh) 图像渲染方法、装置和系统、计算机可读存储介质
WO2022227200A1 (zh) 一种拍摄分辨率的调整方法及装置、智能设备
WO2023160220A1 (zh) 一种图像处理方法和电子设备