BRPI0721839A2 - equipamento e mÉtodo para reduzir distorÇÕes em imagens - Google Patents

equipamento e mÉtodo para reduzir distorÇÕes em imagens Download PDF

Info

Publication number
BRPI0721839A2
BRPI0721839A2 BRPI0721839-7A BRPI0721839A BRPI0721839A2 BR PI0721839 A2 BRPI0721839 A2 BR PI0721839A2 BR PI0721839 A BRPI0721839 A BR PI0721839A BR PI0721839 A2 BRPI0721839 A2 BR PI0721839A2
Authority
BR
Brazil
Prior art keywords
region
image
equipment
color
intensity
Prior art date
Application number
BRPI0721839-7A
Other languages
English (en)
Inventor
Ju Guo
Dong-Qing Zhang
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Publication of BRPI0721839A2 publication Critical patent/BRPI0721839A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Abstract

EQUIPAMENTO E MÉTODO PARA REDUZIR DISTORÇÕES EM IMAGENS. Um equipamento e método da presente invenção provê uma função de detecção automática de região com efeito de faixa para detectar uma região de imagem que tem uma transição linear uniforme de intensidade de cor e é propensa a ter distorções de faixa em processamento de imagem. O equipamento e método usam uma abordagem baseada em modelo paramétrico para detectar a região com efeito de faixa. O equipamento e método provêm segmentação pelo menos de uma primeira imagem na pelo menos uma região e cor homogênea (304), estimando a transição linear de intensidade de cor para a pelo menos uma região de cor homogênea (308), e se a transição linear de intensidade de cor for substancialmente uniforme, classificando a pelo menor uma região de cor homogênea como uma região com efeito de faixa (310).

Description

"EQUIPAMENTO E MÉTODO PARA REDUZIR DISTORÇÕES EM IMAGENS" A presente divulgação, em geral, refere-se a sistemas de processamento e exibição de imagem digital, e mais particularmente, a um equipamento e método para reduzir distor- ções em imagens, em que uma região em uma imagem incluindo distorções, por exemplo, uma região com efeito de faixa é automaticamente detectada sem intervenção do usuário.
Distorções de imagem são observadas durante processamento de uma imagem di- gital, ou imagens, tais como uma seqüência de imagens em um filme. Um fenômeno de dis- torção comum é o efeito de faixa onde faixas de intensidade e níveis de cor variáveis são exibidas em uma área de transição linear uniforme da imagem. Processamento tipo corre- ção de cor, escalonamento, conversão de espaço de cor e compressão podem introduzir o efeito de faixa. O efeito de faixa é mais predominante em material de animação, onde as imagens são artificiais com componentes de alta freqüência e mínimo ruído. Qualquer pro- cessamento com largura de banda limitada provocará inevitavelmente alias, "oscilação" ou efeito de faixa.
O estado da arte atual é adicionar ruído, tal como aplicação de ruído aleatório e di-
fusão de erro, para reduzir as distorções na imagem, O ruído mascara o fenômeno a um grau, mas introduz ruído indesejado em outras partes da imagem, e introduz carga adicional a outro processamento, tal como compressão.
Em um campo relacionado, devido ao grande tamanho dos arquivos de dados re- querida para produzir uma representação de alta qualidade de uma imagem digitalmente amostrada, é prática comum aplicar várias formas de compressão ao arquivo de dados em uma tentativa de reduzir o tamanho do arquivo de dados sem afetar adversamente a quali- dade de imagem percebida. Várias técnicas e padrões bem conhecidos surgiram para abor- dar esta necessidade. Representativo destas técnicas é o padrão Joint Photographic Ex- perts Group (JPEG) para codificação de imagem. Similar ao JPEG, mas com a inclusão de codificação interquadro para tirar vantagem da similaridade de quadros consecutivos em uma seqüência de movimento é o padrão Moving Pictures Expert Group (MPEG). Outros padrões e sistemas proprietários foram desenvolvidos baseados em transformações de on- da pequena.
No processo de lançamento de filme comercial DVD/HD-DVD, uma imagem digital
que é escaneada de um filme convencional, ou de um filme animado por computador, tipi- camente tem dados de 10-bit e, em certas aplicações, dados até 16-bit. Os dados precisam ser convertidos para um formato YUV de 8-bit para compressão. Devido à redução de preci- são de profundidade de bit, distorções com efeito de faixa freqüentemente aparecem nas áreas da imagem, ou imagens, com mudança de cor uniforme. Como descrito acima, algo- ritmos de aplicação de ruído aleatório e de difusão de erro são usados comumente para re- duzirem as distorções com efeito de faixa. Na maioria dos algoritmos de aplicação de ruído aleatório, um sinal digital com alta freqüência espacial é adicionado à imagem para masca- rar o efeito de faixa. Entretanto, a compressão dentro de um DVD/HD-DVD é uma compres- são com perdas que remove sinais com alta freqüência espacial. Por conseguinte, as distor- ções com efeito de faixa freqüentemente aparecem após compressão, mesmo se o efeito de faixa é mascarada por um processo de aplicação de ruído aleatório antes da compressão.
A abordagem tradicional para aplicação de ruído aleatório ou redução de profundi- dade de cor é para aplicações de exibição e serviço de impressão. Uma vez que a aplicação de ruído aleatório é a última etapa na cadeia de processamento, alta freqüência espacial adicionada é bem preservada e serve para o propósito de mascarar o efeito de faixa quando a profundidade de cor é reduzida. A difusão de erro é outra abordagem comum, onde um erro de quantização é distribuído em torno dos pixels vizinhos para gerar efeitos de masca- ramento e preservar intensidade de imagem geral. Entretanto, estas abordagens deixam de considerar o efeito de uma compressão com perdas, tal como MPEG 1,2,4 ou H.264, que tendem a reduzir ou truncar o sinal de alta freqüência. Por conseguinte, a maioria das abor- dagens de aplicação de ruído aleatório e difusão de erro irão diminuir a eficiência de taxa de bit no processo de compressão, uma vez que um codificador de compressão usará um nú- mero de bits para representar a aplicação de ruído aleatório adicionada ou erro de quantiza- ção e terá menos bits para representar a imagem. Entretanto, as distorções com efeito de faixa são propensas a aparecerem após a compressão, uma vez que o sinal mascarante foi reduzido ou truncado.
Adicionalmente, o processo de redução de distorção é mais complicado por reque- rer intervenção de usuário para determinar onde na imagem uma distorção está aparecen- do. Isto torna o processo de redução de distorção um processo demandante de tempo para o usuário ou operador.
Por conseguinte, existe uma necessidade de técnicas para reduzir distorções em
imagens onde as distorções permanecerão reduzidas ou suprimidas após um processamen- to de imagem, por exemplo, um processo de compressão com perdas. Ademais, existe uma necessidade de técnicas para detectar automaticamente uma região em uma imagem que inclui distorções para diminuir intervenção de operador. Um equipamento e método da presente divulgação provê um algoritmo ou função
de detecção de região com efeito de faixa automática para detectar uma região de imagem que tem uma transição linear uniforme de intensidade de cor e é propensa a ter distorções com efeito de faixa em processamento de imagem. O equipamento e método usa um mode- lo paramétrico baseado em abordagem para detectar a região com efeito de faixa. Uma re- gião com efeito de faixa é definida como uma região com intensidade ou transição de cor uniforme. Este tipo de região tende a ter faixas ou contornos falsos após processamento de imagem, tal como quantização, correção de cor, etc. Um modelo de superfície linear é usa- do para modelar a intensidade de pixels na região. Se a região puder ser representada exa- tamente pelo modelo de superfície linear, a região é classificada como uma região com efei- to de faixa.
O equipamento e método primeiro segmenta a imagem em regiões de cor homogê- nea. Uma vez que diferente tipo de regiões, tal como região de borda, região de textura e região uniforme pode existir na mesma imagem, o equipamento e método segmenta a ima- gem em um número de regiões baseado na cor ou intensidade de luminância das mesmas. Se as regiões segmentadas atendem a certos critérios, tais como tamanho, distribuição es- tatística de cor, etc., a região segmentada será selecionada como uma candidata para regi- ões com efeito de faixa. A intensidade ou cor de pixels na região será adaptada a uma su- perfície linear para verificar se a região é uma região com efeito de faixa. Um modelo para- métrico é usado para estimar a transição linear de cor para cada região. Uma região é clas- sificada como uma região com efeito de faixa se uma transição linear uniforme de intensida- de de cor existir na região. De acordo com um aspecto da presente divulgação, é provido um método para de-
tectar uma região com efeito de faixa em uma imagem. O método inclui segmentar pelo me- nos uma primeira imagem em pelo menos uma região de cor homogênea; estimar a transi- ção linear de intensidade de cor para a pelo menos uma região de cor homogênea; e se a transição linear de intensidade de cor for substancialmente uniforme, classificar a pelo me- nos uma região de cor homogênea como uma região com efeito de faixa.
Em outro aspecto, um equipamento para detectar uma região com efeito de faixa em uma imagem inclui um módulo de segmentação de imagem configurado para segmentar pelo menos uma primeira imagem em pelo menos uma região de cor homogênea; um esti- mador linear de transição configurado para estimar a transição linear de intensidade de cor para a pelo menos uma região de cor homogênea; e um módulo de detecção de região con- figurado para classificar a pelo menos uma região de cor homogênea como uma região com efeito de faixa se a transição linear de intensidade de cor for substancialmente uniforme.
De acordo com um outro aspecto da presente divulgação, um equipamento para detectar uma região com efeito de faixa em uma imagem inclui meio para segmentar pelo menos uma primeira imagem em pelo menos uma região de cor homogênea; meio para es- timar a transição linear de intensidade de cor para a pelo menos uma região de cor homo- gênea; e se a transição linear de intensidade de cor for substancialmente uniforme, meio para classificar a pelo menos uma região de cor homogênea como uma região com efeito de faixa.
Em mais outro aspecto, é provido um dispositivo de armazenamento de programa
legível por uma máquina, incorporando tangivelmente um programa de instruções executá- veis pela máquina para realizar etapas de método para detectar uma região com efeito de faixa em uma imagem, o método inclui segmentar pelo menos uma primeira imagem em pelo menos uma região de cor homogênea; estimar a transição linear de intensidade de cor para a pelo menos uma região de cor homogênea; e se a transição linear de intensidade de cor for substancialmente uniforme, classificar a pelo menos uma região de cor homogênea como uma região com efeito de faixa.
Estes e outros aspectos, características e vantagens da presente divulgação serão descritos ou se tornarão aparentes a partir da descrição detalhada a seguir das formas de realização preferidas, que devem ser lidas com relação aos desenhos anexos.
Nos desenhos, em que números de referência iguais denotam elementos similares
em todas as vistas:
A fig. 1 é uma ilustração de exemplo de um equipamento para reduzir distorções em imagens de acordo com um aspecto da presente divulgação;
A fig. 2 é um diagrama de fluxo de um método de exemplo para rastreamento ba- seado em região em imagens de acordo com um aspecto da presente divulgação;
A fig. 3 é um diagrama de fluxo de um método de exemplo para detectar uma regi-
ão com efeito de faixa em uma imagem de acordo com um aspecto da presente divulgação;
A fig. 4 é um diagrama de fluxo de um método de exemplo para modelar a intensi- dade de pixels em uma região de uma imagem de acordo com um aspecto da presente di- vulgação; e
A fig. 5 é um diagrama de fluxo de um método de exemplo para reduzir distorções
em imagens de acordo com um aspecto da presente divulgação.
É importante compreender que o(s) desenho(s) tem os propósitos de ilustrar os conceitos da divulgação e não é necessariamente a única configuração possível para ilustrar a divulgação.
É importante compreender que os elementos mostrados nas figuras podem ser im-
plementados em várias formas de hardware, software ou combinações dos mesmos. Prefe- rencialmente, estes elementos são implementados em uma combinação de hardware e software em um ou mais dispositivos de uso geral apropriadamente programados, que po- dem incluir um processador, memória e interfaces de entrada/saída de dados.
A presente descrição ilustra os princípios da presente divulgação. Observar-se-á
assim que aqueles que são versados na arte poderão delinear várias disposições que, em- bora não explicitamente descritas ou mostradas neste documento, incorporam os princípios da divulgação e estão incluídas dentro de seu espírito e escopo.
Todos os exemplos e linguagem condicional recitada neste documento são desti-
nados a fins pedagógicos de ajudar o leitor a entender os princípios da divulgação e os con- ceitos contribuídos pelo inventor para expansão da arte, e devem ser interpretados como sendo sem limitação a estes exemplos e condições especificamente recitados. Ademais, todas as afirmações neste documento recitando princípios, aspectos e formas de realização da divulgação, bem como exemplos específicos dos mesmos, são des- tinados a abrangerem tanto equivalentes estruturais como funcionais dos mesmos. Adicio- nalmente, pretende-se que estes equivalentes incluam tanto equivalentes conhecidos atu- almente bem como equivalentes desenvolvidos no futuro, ou seja, quaisquer elementos de- senvolvidos que realizem a mesma função, independente de estrutura.
Desse modo, por exemplo, observar-se-á por aqueles que são versados na arte que os diagramas de bloco apresentados neste documento representam vistas conceituais de circuitaria ilustrativa incorporando os princípios da divulgação. Similarmente, observar-se- á que quaisquer fluxogramas, diagramas de fluxo, diagramas de transição de estado, pseu- docódigo, e semelhante representam vários processos que podem ser representados subs- tancialmente em meios legíveis por computador e assim executados por um computador ou processador, esteja ou não este computador ou processador explicitamente mostrado.
As funções dos vários elementos mostrados nas figuras podem ser providas atra- vés do uso de hardware dedicado bem como hardware passível de executar software em associação com software apropriado. Quando providas por um processador, as funções po- dem ser providas por um processador dedicado individual, por um processador compartilha- do individual, ou por uma pluralidade de processadores individuais, alguns dos quais podem ser compartilhados. Ademais, uso explícito do termo "processador" ou "controlador" não de- ve ser interpretado como designando hardware capaz de executar software, e pode incluir implicitamente, sem limitação, hardware de processador com sinal digital (em inglês "DSP"), memória somente de leitura (em inglês, "ROM") para armazenar software, memória de a- cesso aleatório (em inglês, "RAM"), e armazenamento não volátil.
Outro hardware, convencional e/ou personalizado, também pode ser incluído. Simi- larmente, quaisquer comutações mostradas nas figures são apenas conceituais. A função delas pode ser realizada através da operação de lógica de programa, através de lógica de- dicada, através da interação de controle de programa e lógica dedicada, ou mesmo manu- almente, a técnica particular sendo selecionável pelo implementador como mais especifica- mente compreendido a partir do contexto. Nas reivindicações anexas a este documento, qualquer elemento expresso como
um meio para realizar uma função específica é destinado a abranger qualquer modo de rea- lizar essa função, incluindo, por exemplo, a) uma combinação de elementos de circuito que realiza essa função ou b) software de qualquer forma, incluindo, por conseguinte, firmware, microcódigo ou semelhante, combinado com circuitaria apropriada para executar esse soft- ware e realizar a função. A divulgação como definida por estas reivindicações reside no fato de que as funcionalidades providas pelos vários meios recitados são combinadas e juntadas da maneira que as reivindicações exigem. Considera-se assim que qualquer meio que pode prover estas funcionalidades são equivalentes àqueles mostrados neste documento.
O fenômeno de faixa pode ser classificado em duas categorias. No processo de re- dução de bit de cor ou quantização de cor, o efeito de faixa pode aparecer devido à precisão de sinal reduzida. Este tipo de erro pode ser removido efetivamente usando um algoritmo de difusão de erro na maioria dos casos. Entretanto, outros processos, tais como correção de cor, escalonamento, e conversão de espaço de cor, contribuem para criar efeitos de faixa de distorções devido a sua largura de banda de processamento limitada. Este tipo de efeito de faixa não pode ser efetivamente tratado por difusão de erro. Um sinal de mascaramento é requerido para mascarar estas distorções com efeito de faixa. A quantidade de sinal mas- carante adicionado está diretamente relacionado às intensidades das distorções com efeito de faixa. ~' -
Ademais, faixas de intensidade e níveis de cor variáveis são exibidas comumente em uma área linear de transição uniforme original de uma imagem. A árèa com efeito de faixa precisa ser identificada para remoção efetiva das faixas. Uma vez que distorções com efeito de faixa muito provavelmente aparecem na transição linear uniforme, uma abordagem baseada em quadro introduzirá um sinal mascarante desnecessário nas regiões sem distor- ções com efeito de faixa, reduzindo, dessa maneira, a qualidade de imagem. O equipamento e método da presente divulgação provê uma região ou abordagem baseada em ROI (por exemplo, baseada em região de interesse) que efetivamente remove efeito de faixa, onde a quantidade de sinal mascarante adicionada pode ser ajustada por um operador humano para atingir a melhor qualidade de imagem possível. O equipamento e método da presente invenção também provê detecção automática de região com efeito de faixas.
Um equipamento e método da presente divulgação provê um algoritmo ou função de detecção automática de região com efeito de faixa para detectar uma região de imagem que tem uma transição linear de intensidade de cor uniforme e é propensa a ter distorções com efeito de faixa em processamento de imagem. O equipamento e método usa um mode- lo paramétrico baseado em abordagem para detectar a região com efeito de faixa. Uma re- gião com efeito de faixa é definida como uma região com intensidade ou transição de cor uniforme. Este tipo de região tende a ter faixas ou falsos contornos após processamento de imagem, tais como quantização, correção de cor, etc. Um modelo de superfície linear é usa- do para modelar a intensidade de pixels na região. Se a região pode ser representada exa- tamente pelo modelo de superfície linear, a região é classificada como uma região com efei- to de faixa.
O equipamento e método primeira segmenta a imagem na região de cor homogê- neas. Uma vez que diferente tipo de regiões, tais como região de borda, região de textura e região uniforme podem existir na mesma imagem, o equipamento e método segmenta a imagem em um número de regiões baseado na cor ou intensidade de luminância das mes- mas. Se as regiões segmentadas atendem a certos critérios, tais como dimensão, distribui- ção de cor estatística, a região segmentada será selecionada como uma candidata para região com efeito de faixas. A intensidade ou cor de pixels na região será adaptada para uma superfície linear para verificar se a região é uma região com efeito de faixa. Um modelo paramétrico é usado para estimar a transição linear de cor para cada região. Uma região é classificada como a região com efeito de faixa se uma transição linear de intensidade de cor uniforme existir na região.
A detecção automática de região com efeito de faixa pode ser incorporada em um sistema ou equipamento de remoção de efeito de faixa baseado em região. A presente di- vulgação provê também plano para mascaramento de faixa e difusão de erro baseado-em ROI (baseado em região de interesse) projetado para remover o efeito de fãíxa em"üma re- gião com efeito de faixa detectada, e minimizar os efeitos colaterais em outro processamen- to, por exemplo, processo de compressão. Para o equipamento ser eficiente para aplicação prática no processamento de filme/vídeo, um algoritmo de rastreamento baseado em região é provido para rastrear a ROI1, por exemplo, uma região com efeito de faixa detectada, em um número de quadros seguintes, aliviando, desse modo, o esforço de um operador huma- no.
Referindo-se agora às figuras, componentes de aparelho de exemplo de acordo com uma forma de realização da presente divulgação são mostrados na fig. 1. Um disposi- tivo de escaneamento ou equipamento 103 pode ser provido para escanear impressões de filme 104, por exemplo, negativos de filme original de câmera, em um formato digital, por exemplo, formato Cineon ou arquivos DPX SMPTE. O dispositivo de escaneamento 103 pode compreender, por exemplo, telecine ou qualquer dispositivo que gerará uma saída de vídeo de filme, por exemplo, um Arri LocPro™ com saída de vídeo. Alternativamente, os arquivos do processo de pós-produção ou de cinema digital 106 (por exemplo, arquivos já em forma legível por computador) podem ser usados diretamente. Fontes potenciais de ar- quivos legíveis por computador são editores AVID™, arquivos DPX arquivos, fitas D5, etc.
Impressões de filme escaneado são entradas para um equipamento de pós- processamento 102, por exemplo, um computador. O computador é implementado em quaisquer das várias plataformas de computador conhecidas tendo hardware, tais como uma ou mais unidades de processamento central (CPU), memória 110, tal como memória de acesso aleatório (RAM) e/ou memória somente de leitura (ROM) e interface(s) de usuário de entra/saída (l/O) 112, tal como um teclado, dispositivo de controle de cursor (por exemplo, um mouse, alavanca de comando, etc.) e dispositivo de exibição. A plataforma de computa- dor também inclui um sistema operacional e código de microinstrução. Os vários processos e funções descritos neste documento podem ou fazer parte do código de microinstrução ou parte de um programa de aplicação de software (ou uma combinação dos mesmos) que é executado por meio de um sistema operacional. Em uma forma de realização, o programa de aplicação de software é incorporado tangivelmente em um dispositivo de armazenamento de programa, que pode ser carregado e executado por qualquer máquina adequada, tal co- mo o equipamento de pós-processamento 102. Além disto, vários dispositivos periféricos podem ser conectados à plataforma de computador mediante várias interfaces e estruturas de barramento, tais como porta paralela, porta serial ou barramento serial universal (USB). Outros dispositivos periféricos podem incluir dispositivos de armazenamento adicional 124 e uma impressor 128. A impressor 128 pode ser empregada para imprimir uma versão revisa- da do filme 126, por exemplo, uma versão estereoscópica do filme. Alternativamente, impressões de arquivos/filme já em formato legível por computa-
dor 106 (por exemplo, cinema digital, que, por exemplo, pode sefarmazeTTàdo em disco rí- gido externo 124) podem ser diretamente inseridas no computador 102. Observe que o ter- mo "filme" usado neste documento pode designer ou impressões de filme ou cinema digital.
Um programa de software inclui um módulo de difusão de erro 114 armazenado na memória 110 para reduzir distorções em imagens. O módulo de difusão de erro 114 inclui um gerador de ruído ou de sinal 116 para gerar um sinal para mascarar distorções na ima- gem. O sinal de ruído poderia ser ruído branco, ruído Gaussian, ruído branco modulado com diferentes filtros de freqüência de corte, etc. Um módulo de truncagem 118 é provido para determinar o erro de quantização dos blocos da imagem. O módulo de difusão de erro 114 inclui também um módulo de distribuição de erro 120 configurado para distribuir o erro de quantização a blocos vizinhos. -
Um módulo de detecção de região 111 é provido para detectar região com efeito de faixas em pelo menos uma imagem. O módulo de detecção de região 111 inclui uma módulo de segmentação de imagem 113 configurado para segmentar pelo menos uma primeira i- magem em pelo menos uma região de cor homogênea. Um estimador linear de transição 115 é provido e configurado para estimar a transição linear de intensidade de cor para uma região segmentada de cor homogênea. O estimador linear de transição 115 emprega um modelo paramétrico linear para modelar a superfície de uma região segmentada. O módulo de detecção de região 115 é configurado ainda para classificar a região de cor homogênea como uma região com efeito de faixa se a transição linear de intensidade de cor for substan- cialmente uniforme, cujos detalhes serão descritos abaixo.
Um módulo de rastreamento 132 também é provido para rastrear uma ROI, por e- xemplo, uma região detectada com efeito de faixa, através de diversos quadros de uma ce- na. O módulo de rastreamento 132 inclui um gerador de máscara 134 para gerar uma más- cara binária para cada imagem ou quadro de uma cena. A máscara binária é gerada de uma ROI definida em uma imagem, por exemplo, por um polígono de entrada de usuário dese- nhado em torno da ROI ou pelo módulo de detecção de região 111. A máscara binária é uma imagem com valor de pixel ou de 1 ou 0. Todos os pixels dentro da ROI têm um valor de 1, e outros pixels têm um valor de 0. O módulo de rastreamento 132 inclui ainda um mo- delo de rastreamento 136 para estimar a informação de rastreamento da ROI a de uma i- magem para outra, por exemplo, de quadro a quadro de uma cena.
Um codificador 122 é provido para codificar a imagem de saída em qualquer padrão
de compressão conhecido, tal como MPEG 1, 2, 4, h.264, etc.
A fig. 2 é um diagrama de fluxo de um método de exemplo para rastrear uma região de interesse (ROI) em imagens de acordo com um aspecto da presente divulgação. Inicial- mente, o equipamento de pós-processamento 102 adquire pelo menos uma imagem bidi- mensional (2D) (etapa 202). O equipamento de pós-processamento 102 adquire pelo menos uma 2D imagem obtendo o arquivo de vídeo máster digitãT em urrr formato legível por com- putador, como descrito acima. O arquivo de vídeo digital pode ser adquirido capturando uma seqüência temporal de imagens de vídeo com uma câmera de vídeo digital. Alternativamen- te, a seqüência de vídeo pode ser capturada por uma câmera tipo filme convencional. Neste cenário, o filme é escaneado por meio de um dispositivo de escaneamento 103.
É importante observar que esteja o filme escaneado ou já em formato digital, o ar- quivo digital do filme incluirá indicações ou informações de posições dos quadros, por e- xemplo, um número de quadro, tempo de início do filme, etc. Cada quadro do arquivo de vídeo digital incluirá uma imagem, por exemplo, I1, I2, ...ln. Na etapa 204, uma região de interesse R é definida ou detectada em pelo menos
uma imagem. Em uma forma de realização, um operador define uma região com distorções com efeito de faixa usando uma interface de usuário interativa, tal como interface de usuário 112, por exemplo, destacando uma região de polígono na imagem. Em outra forma de reali- zação, a região é detectada por um algoritmo ou função de detecção automática, como será descrito em relação à fig. 3.
Referindo-se à fig. 3, uma imagem bidimensional (2D) é adquirida (etapa 302). Na etapa 304, a imagem é segmentada em pelo menos uma região de cor homogênea pelo módulo de segmentação 113. Na segmentação de cor da presente divulgação, um algoritmo ou função de mudança de média é usado para encontrar as cores dominantes na imagem. A função de mudança de média é usada repetidamente em um espaço de histograma de cor para encontrar o máximo local. A cor correspondente ao máximo local é designada como uma cor dominante e removida do histograma. O processo se repetirá para encontrar a pró- xima cor dominante. O processo de repetição para após não existirem mais cores dominan- tes. A imagem é segmentada em regiões baseada nestas cores dominantes. Após segmentação de imagem, uma lista de regiões é selecionada como candida-
tas a com efeito de faixa baseado em tamanho e distribuição estatística das mesmas (etapa 306). Se o tamanho da região, por exemplo, um número de pixels, for menor do que um Ii- miar predeterminado, a região é descartada. Em várias formas de realização, o limiar é es- tabelecido de cerca de 50 a cerca de 200 pixels. A variância de distribuição de pixels de cor dentro da região então é calculada. Se a variância for mais alta do que um limiar predeter- minado, a região será descartada. Finalmente, as regiões deixadas são selecionadas como as candidatas para região com efeito de faixas.
Na etapa 308, a transição linear de intensidade de cor para as candidatas a região selecionada com efeito de faixa é estimada pelo estimador linear de transição 115. A transi- ção linear é estimada modelando a superfície de intensidade de pixels na região segmenta- da. A modelagem de superfície usa o seguinte modelo paramétrico linear: J(x,y) = ax + by + c (1)
em que l(x,y) é a intensidade de cor prevista em posição {x,y) , a, b, c são coefici- entes constantes. A equação acima define um plano 2D no espaço 3D. Ou seja, a imagem de entrada é bidimensional e a outra dimensão é a intensidade de cor, assim, x, y, /proverão um eixo tridimensional.
Continuando, os coeficientes de superfície para o modelo linear são estimados con-
forme ilustrado na fig. 4. Os coeficientes de superfície são estimados usando uma estimação robusta e repetitiva. A vantagem de estimação robusta em contraposição à estimação de Mínimos Quadrados regulares é sua robustez a valores extremos (por exemplo, sujeira no filme ou pequenos objetos irrelevantes em uma região). Inicialmente, na etapa 402, os pon- tos 3D da região segmentada selecionada são entradas para o modelo definido pela equa- ção (1). A estimação robusta inicia com uma estimação inicial dos coeficientes de superfície usando Estimação Quadrática Média regular (etapa 404). Depois, uma superfície linear 2D é obtida usando os coeficientes estimados (406), por exemplo, em cada posição de pixel (x.y), a intensidade de luminância estimada é calculada pela equação (1). Se os pontos são des- viados de forma significativa da superfície 2D estimada, por exemplo, por um primeiro limiar predeterminado, os pontos são classificados como valores extremos, descartados e não participariam da próxima seqüência de estimação de coeficiente (etapa 408). O limiar para valores extremos é baseado na diferença quadrática média de todos os pixels. Na etapa 410, se o erro de estimação for menor do que um segundo limiar (ou usando outros critérios de parada), a estimação e processo de rejeição de valor extremo é repetido usando os pon- tos 3D excluindo os pontos extremos até que o erro de estimação seja menor do que o se- gundo limiar preestabelecido. Uma vez que o erro de estimação seja menor do que o se- gundo limiar predeterminado, os coeficientes de superfície são armazenados (etapa 412).
Referindo-se novamente à fig. 3, após os coeficientes serem obtidos, a transição Ii- near da intensidade de cor da região segmentada selecionada é analisada para se determi- nar se a transição linear é uniforme, e se a transição for uniforme, a região é classificada como uma região com efeito de faixa (310). A transição linear é analisada determinando um erro de adaptação de superfície. O erro de adaptação de superfície é definido como o erro quadrático médio (ou outra métrica de erro) entre a superfície de intensidade real na ima- gem e a superfície de intensidade estimada, conforme a seguir:
Em que l(x, y) é o valor de pixel real da coordenada (x,y) na região de imagem R1 e I
(x,y) é o valor de pixel estimado avaliando a equação de superfície com os coeficientes esti- mados (a,b,c) em Eq.(1) na coordenada (x,y). Se o erro de adaptação de superfície for abai- xo de um limiar, e a, b não forem ambos igual a zero, a transição linear é determinada como sendo uniforme e a região é classificada como uma região com efeito de faixa. O processo então se repete até que todas as regiões segmentadas selecionadas da etapa 306 sejam classificadas (etapa 312).
Na etapa 314, o módulo de detecção de região 111 determina se qualquer uma das regiões com efeito de faixa classificadas compartilham uma borda comum. Por exemplo, se duas regiões compartilham número de pixels predeterminados, o módulo de detecção de região 111 determinará se as duas regiões compartilham uma borda comum. Se pelo menos duas região com efeito de faixas classificadas compartilharem uma borda comum, o módulo de detecção de região 111 fundirá as pelo menos duas regiões com efeito de faixa classifi- cadas em uma região com efeito de faixa única. O processo se repete até que não existam bordas comuns entre as regiões com efeito de faixa. . Uma vez que a região, ou regiões, foram definidas ou detectadas, o método retor- nará para a etapa 206 da fig. 2.
A partir da ROI, uma máscara binária é gerada e usada no equipamento para ras- trear a ROI, por exemplo, a região detectada. A máscara binária é uma imagem com valores de pixel de 1 ou 0. Todos os pixels dentro do polígono definido pelo usuário ou região detec- tada têm um valor de 1, e outros pixels têm um valor de 0. A máscara binária pode ser usa- da para representar uma ROI. O próximo quadro da cena é então lido na etapa 206.
As distorções com efeito de faixa aparecem em áreas com graduação de cor uni- forme. Entretanto, um algoritmo de rastreamento geral requer algumas características distin- tas presentes na região para um rastreamento robusto e preciso. Assim, é provido um plano de rastreamento usando uma região de rastreamento diferente. Na etapa 208, a ROI R é aumentada ou transformada em uma região maior para capturar mais características salien- tes da região a ser rastreada. A região maior com algumas características salientes é cha- mada região de rastreamento Rt. O algoritmo crescente de região usa os pixels de contorno da ROI como sementes e uma implementação "divisora de águas" aumenta a região. Para estimar informações de rastreamento, um modelo de rastreamento de seis pa-
râmetros 136 (por exemplo, um modelo de movimento afim) é usado para rastrear a região (etapa 210). A região de rastreamento primeiro é dividida em blocos de 16x16, e o vetor de movimento para cada bloco é obtido encontrando a melhor correspondência de bioco no próximo quadro usando intensidade de luminância. Os vetores de movimento de todos os blocos são usados para estimar os seis parâmetros no modelo de rastreamento. Um proce- dimento de regressão linear é usado para encontrar os melhores parâmetros que minimizam os erros entre os pixels previstos e os pixels reais. A máscara binária de ROI é projetada para o próximo quadro usando o modelo de rastreamento de seis parâmetros (etapa 212). Na etapa 214, o equipamento determina se o último quadro da cena foi processado. Se ne- gativo, o equipamento retornará para a etapa 206 até que todos os quadros da cena sejam processados. Uma vez que a ROI está disponível para um número de quadros, o processo pode ser aplicado facilmente no restante da cena automaticamente.
O equipamento provFresposta em tempo real sobre o resultado do rastreamento. Na etapa 216, um operador pode avaliar o resultado, e modificar a ROI se o resultado não for satisfatório (etapa 212). Por exemplo, o operador pode visualizar a ROI em um visor da interface de usuário 112 para determinar se a ROI foi rastreada apropriadamente. Se o ope- rador não estiver satisfeito, a ROI poderia ser modificada e o processo de rastreamento se repetir. Na etapa 220, a máscara binária da ROI para cada imagem ou quadro é armazena- da em um arquivo binário e usada como a ROI para difusão de erro baseada em ROI e mascaramento de faixa, como será descrito abaixo. Ademais, a máscara binária de ROI é armazenada em um arquivo binário e pode ser transportada para a próxima etapa. Por e- xemplo, se a próxima etapa for codificação MPEG4 AVC, as informações de ROI podem ser usadas pelo codificador para atribuírem bits apropriados para ROL Estes metadados podem ser armazenados no dispositivo de armazenagem 124 e associados às imagens, de modo que eles possam ser utilizados em outros processos.
Um fluxograma de plano de difusão de erro e mascaramento de faixa baseado em ROI é mostrado na fig. 5. Como descrito acima, pelo menos uma imagem a ser processada é adquirida na etapa 502.
Na etapa 504, é selecionado um tamanho de bloco. A imagem pode ser dividida em qualquer número de blocos.- Um bloco é um número de pixels contidos em uma região retangular, por exemplo, Bm,n, em que m, m representam o índice de bloco. Todos os blocos podem ter o mesmo tamanho, tal como 2x2, 3x3, etc. O tamanho de bloco também pode varia dependendo dos atributos de imagem local. O tamanho de bloco pode ser selecionado por um operador por meio da interface de usuário 112, ou ele pode ser determinado pelo tamanho de imagem, de modo que uma relação constante é mantida para diferentes tama- nhos de imagem. O método de difusão de erro da presente divulgação está trabalhando no nível de bloco, como será descrito abaixo. Uma vez que o tamanho de bloco é selecionado, o tamanho de bloco será mantido o mesmo para a mesma imagem.
É importante observar que o tamanho de bloco pode variar de um pixel simples pa- ra qualquer tamanho arbitrário, tal como 2x2, 2x3, 4x4. O uso de diferentes tamanhos de bloco dá ao equipamento controle da freqüência espacial do sinal mascarante. Isto é impor- tante se o processo seguinte for compressão com perdas, que tende a remover alta fre- qüência espacial. Adicionando um sinal mascarante bem controlado reduzirá as distorções de compressão e evitará o reaparecimento de efeito de faixa após compressão com perdas.
Uma vez que o tamanho de bloco está selecionado, todos os blocos que formam a imagem serão processados com um primeiro bloco (etapa 506). Inicialmente, o equipamento determinará se o bloco está na região de interesse definida ou detectada (ROI) (etapa 508). Se o bloco não estiver na ROI, um plano de quantização simples é usado para reduzir a pro- fundidade de bit de cor (etapa 5-1-6), por exemplo, os menos significantes bits do bloco são eliminados e o erro^e quamfzação não é compensado. Após etapa 516, o equipamento irá para o próximo bloco da imagem (etapa 518).
Na etapa 510, um sinal de ruído, por exemplo, um sinal mascarante, é adicionado à imagem por meio de gerador de ruído 116. Os níveis de O a 255 são designados a pixels baseados na distância dos mesmos, por exemplo, precisão, ao contorno de região. A dis- tância de pelo menos um pixel no bloco até um contorno da região definida é determinado e um valor de um sinal mascarante associado ao pelo menos um pixel é designado baseado na distância determinada. Estes níveis são usados para ajustar a intensidade do sinal mas- carante, fazendo assim uma transição uniforme na área de contorno de região. A média e variância dos valores de cor de pixel na ROI é calculada. Se uma diferença de cor de pixel em relação à media for três vezes maior do que a variância, isto indica que existe uma ca- racterística significante que não será provavelmente as distorções com efeito de faixa. Para preservar esta característica, o nível O é designado a este pixel, o que significa que nenhum ruído será adicionado a este pixel. Um exemplo disto é uma cena de céu azul com estrelas, onde distorções com efeito de faixa aparecem no céu. O equipamento 100 pode selecionar o céu azul como a ROI para processamento de remoção de efeito de faixa. Todas as estre- las no céu são devidamente preservadas, já que o valor de cor as mesmas é significante- mente diferente do valor médio de pixels na ROI.
Na etapa 512, um erro de quantização é determinado para o bloco. Inicialmente, uma função de truncagem é realizada em cada bloco no módulo de truncagem por meio de imagem 118. A função de truncagem é empregada para reduzir a profundidade de bit para cada pixel no bloco dividindo o valor de profundidade de pixel por um fato de quantização constante Q, que é uma força de 2. Geralmente, o fator de quantização Q é igual a 2X, em que is é o número de bits a ser truncado. Por exemplo, para truncagem de dados de 10 bits para dados de 8 bits, o fator de quantização constante será 4, ou seja, Q=22. A função de truncagem é definida conforme segue:
''U = 1 1UU Λ-Q ' jIj * üm,n W)
em que / I j é o valor de pixel dentro do bloco, /Vu é o sinal adicionado antes da trun- cagem pelo gerador de ruído 116, e Q é o fato de quantização. O é o valor de pixel trun- cado, no processo de truncagem, existe uma questão de arredondamento a ser tomado cui- dado para os valores de pixel. Por exemplo, se Vu é igual a 1.75, ou seja, 7 + Ni j) dividi- do por 4 (Q), l'jj precisará ser representado por um número inteiro. O pode ser 2 ou 1 baseado em diferentes planos de arredondamento como são mostrados na arte.
Na equação 3, Λ/Μ é ruído, por exemplo, ruído branco, e ele reduz distorções de es- trutura. Geralmente, N,Á tem uma distribuição de sinal aleatória. Por meio da interface de usuário 112, um operador pode controlar manualmente a faixa de valor de Nli. Por predefini- ção, a faixFde valor de Nli fica de 0 a Q-1. Usando o mesmo ruído para cada pixel dentro de um bloco selecionado da imagem, a freqüência especial do padrão de ruído será baixa den- tro do bloco, o que reduz a freqüência espacial geral do ruído em toda imagem. Uma vez que a freqüência especial do ruído é reduzida, o ruído, por exemplo, o sinal mascarante, sobreviverá ao processo de compressão e suprirá distorções durante descompressão.
Continuando, um erro de quantização é determinado para cada pixel dentro do blo- co como mostrado na equação (4) abaixo e, o somatório de todos os erros de quantização produz o erro de quantização de bloco Em n, que é distribuído nos blocos vizinhos baseado nos coeficientes de difusão de erro.
20
Para o erro de quantização de bloco total Em,n, uma porção do erro de quantização e será distribuída para os blocos vizinhos conforme determinado por
e=c(m,n)*E (5)
em que c(m,n) é um coeficiente de difusão de erro. Na etapa 514, o erro de quantização de bloco é distribuído para os blocos vizinhos
por meio do módulo de distribuição de erro 120. A função de distribuição de erro dentro de cada bloco é definida conforme segue:
1U = 1Ut Ae* 1U Λ Βλ (β)
Em que e é o erro total distribuído para o bloco Sm n, Ν, M são a dimensão do blo- co, Wiij é os coeficientes ponderados para o bloco Sm n. Em uma forma de realização, a dis- tribuição uniforme como mostrada na equação (6) é usada para calcular os coeficientes ponderados. A função mais complexas pode ser projetada para calcular Vizij, por exemplo, Wij pode ser fixado proporcional ao IQ.
O tamanho do bloco Sm n determina a quantidade de freqüência especial que pode ser controlado no processo de difusão de erro e é escolhida para atingir o melhor efeito de mascaramento das distorções. Entretanto, um tamanho de bloco grande tende a gerar dis- torções estruturadas, que não é desejável no processo de difusão de erro. Estas distorções estruturadas incluem distorções de contorno de bloco onde 2 pixels vizinhos em dois blocos diferentes serão transformados diferentemente. Ni j na equação 1 também é usado para des- truir as distorções estruturadas potenciais com inclusão de ruído aleatório. Um tamanho de bloco de exemplo de 2x2 foi considerado como suficiente para processar uma imagem de 720x480 pixels (por exemplo, resolução de DVD) sem quaisquer distorções de bloco visí- veis. É importante considerar que outros tamanhos de bloco e tamanhos de imagem podem ser empregades sem resultar em quaisquer distorções visíveis.
Após a quantização ter sido realizada ou na etapa 516 ou pelas etapas 510 até 514, o equipamento prosseguirá para o próximo bloco na imagem até que todos os blocos na imagem sejam processados (etapa 518). Após a imagem ter sido modificada pela função de distribuição de erro, a imagem pode ser salva em uma memória do dispositivo de pós- processamento, por exemplo, no dispositivo de armazenamento 124. Uma vez que todas as imagens de um filme particular tenha sido modificadas, as imagens podem ser codificadas por meio de codificador 122 de acordo com qualquer padrão de compressão convencional, tal como MPEG 1 , 2, 4, h.264, etc.. O filme comprimido 130 então pode ser armazenado êm um dispositivo de armazenamento, por exemplo, dispositivo de armazenamento 124, ou transferido para um dispositivo de armazenamento removível, por exemplo, um DVD.
Embora a forma de realização que incorpora os ensinamentos da presente divulga- ção tenha sido mostrada e descrita detalhadamente neste documento, aqueles que são ver- sados na arte podem prontamente delinear muitas outras formas de realização diversifica- das que ainda incorporam estes ensinamentos. Tendo descrito formas de realização preferi- das para um equipamento e método para reduzir distorções em imagens (que são destina- das a serem ilustrativas e não limitantes), é observável que modificações e variações podem ser feitas por pessoas versadas na arte à luz dos ensinamentos acima. É importante, portan- to, Gompreender que podem ser feitas mudanças nas formas de realização particulares da divulgação apresentadas que estejam dentro do escopo e espírito da divulgação, conforme destacadas pelas reivindicações apensas. Tendo, assim, sido descrita a divulgação com os pormenores e particularidade requeridos pelas leis de patente, o que é reivindicado e dese- jado proteção pela Carta Patente é expresso nas reivindicações apensas.

Claims (31)

1. Método para detectar uma região com efeito de faixa em uma imagem, o método CARACTERIZADO por compreender: - segmentar pelo menos uma primeira imagem em pelo menos uma região de cor homogênea (304); - estimar a transição linear de intensidade de cor para a pelo menos uma região de cor homogênea (308); e - se a transição linear de intensidade de cor for substancialmente uniforme, classifi- car a pelo menos uma região de cor homogênea como uma região com efeito de faixa (310).
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a "etapa de estimação inclui modelar a superfície de intensidade de pixels na região segmen- tada usando um modelo de superfície linear (404).
3. Método, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que a etapa de classificação inclui adaptação à superfície de intensidade estimada na superfície de intensidade real na pelo menos uma primeira imagem.
4. Método, de acordo com a reivindicação 3, CARACTERIZADO por compreender ainda: determinar um erro de adaptação de superfície entre a superfície de intensidade es- timada e a superfície de intensidade real na pelo menos uma primeira imagem;~e em que se o erro de adaptação de superfície for menor do que um limiar predeterminado, determinar a transição linear de intensidade de cor para substancialmente uniforme.
5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a etapa de segmentação inclui realizar uma função de mudança de média para a pelo menos uma primeira imagem.
6. Método, de acordo com a reivindicação 1, CARACTERIZADO por compreender ainda: determinar um número de pixels da pelo menos uma região segmentada; e se o nú- mero de pixels for menor do que um limiar predeterminado, descartar a pelo menos uma região segmentada.
7. Método, de acordo com a reivindicação 1, CARACTERIZADO por compreender ainda: calcular uma variância da distribuição de cor de pixels da pelo menos uma região segmentada; e se a variância calculada for maior do que um limiar predeterminado, descar- tar a pelo menos uma região segmentada.
8. Método, de acordo com a reivindicação 1, CARACTERIZADO por compreender ainda: determinar se cada uma das pelo menos uma das regiões de faixa compartilham uma borda comum; e se pelo menos duas das regiões de faixa classificadas compartilham uma borda comum, fundir as pelo menos duas regiões de faixa classificadas em uma região com efeito de faixa única (314).
9. Método, de acordo com a reivindicação 1, CARACTERIZADO por compreender ainda: - rastrear a região com efeito de faixa detectada para pelo menos uma segunda i- magem (210, 212); e - aplicar uma função de difusão de erro em uma região com efeito de faixa detec- tada para mascarar distorções de faixa nas pelo menos uma primeira e segunda imagens (510, 512, 514).
10. Método, de acordo com a reivindicação 9, CARACTERIZADO pelo fato de que a etapa de aplicação compreende ainda: - selecionar um tamanho de pixels de bloco da pelo menos uma imagem (504); - determinar se pelo menos um bloco está dentro de uma região com efeito de faixa detectada (508); - adicionar um sinal mascarante a pelo menos um bloco (510); - determinar um erro de quantização para o pelo menos um bloco na pelo menos uma imagem (512); e - distribuir o erro de quantização para blocos vizinhos (514).
11. Método, de acordo com a reivindicação 9, CARACTERIZADO pelo fato de que a etapa de rastreamento compreende ainda: - gerar uma máscara binária para uma região com efeito de faixa detectada da pelo menos uma primeira imagem; e - projetar a máscara binária na pelo menos uma segunda imagem para rastrear uma região com efeito de faixa detectada (212).
12. Equipamento (100) para detectar uma região com efeito de faixa em uma ima- gem, o equipamento CARACTERIZADO por compreender: - um módulo de segmentação de imagem (113) configurado para segmentar pelo 2 menos uma primeira imagem na pelo menos uma região de cor homogênea; - um estimador linear de transição (115) configurado para estimar a transição linear de intensidade de cor para a pelo menos uma região de cor homogênea; e - um módulo de detecção de região (111) configurado para classificar a pelo menos uma região de cor homogênea como uma região com efeito de faixa se a transição linear de intensidade de cor for substancialmente uniforme.
13. Equipamento (100) de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o estimador linear de transição (115) é configurado ainda para modelar a super- fície de intensidade de pixels na região segmentada usando um modelo de superfície linear.
14. Equipamento (100) de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que o módulo de detecção de região (111) é configurado ainda para adaptação da superfície de intensidade estimada à superfície de intensidade real na pelo menos uma pri- meira imagem.
15. Equipamento (100) de acordo com a reivindicação 14, CARACTERIZADO peio fato de que o módulo de detecção de região (111) é configurado ainda para determinar um erro de adaptação de superfície entre a superfície de intensidade estimada e a superfície de intensidade real na pelo menos uma primeira imagem; e em que se o erro de adaptação de superfície for menor do que um limiar predeterminado, determinar a transição linear de in- tensidade de cor para substancialmente uniforme.
16. Equipamento (100) de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o módulo de segmentação de imagem (113) é configurado ainda para realizar uma função de mudança de média para pelo menos uma primeira imagem.
17. Equipamento (100) de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o módulo de detecção de região (111) é configurado ainda para determinar um número de pixels da pelo menos uma região segmentada; e se o número de pixels for me- nor do que um limiar predeterminado, descartar a pelo menos uma região segmentada.
18. Equipamento (100) de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o módulo de detecção de região (111) é configurado ainda para calcular uma variância da distribuição de cor de pixels da pelo menos uma região segmentada; e se a variância calculada for maior do que um limiar predeterminado, descartar a pelo menos uma região segmentada.
19. Equipamento (100) de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o módulo de detecção de região (111) é configurado ainda para determinar se cada uma das pelo menos uma das regiões de faixa classificadas compartilham uma borda comum; e se pelo menos duas das regiões de faixa classificadas compartilham uma borda comum, fundir as pelo menos duas regiões de faixa classificadas em uma região com efeito de faixa única.
20. Equipamento (100) de acordo com a reivindicação 12, CARACTERIZADO por compreender ainda: - um módulo de rastreamento (132) configurado para rastrear a região com efeito de faixa detectada na pelo menos uma primeira imagem para pelo menos uma segunda i- magem; e - um módulo de difusão de erro (114) configurado para aplicar uma função de difu- são de erro a uma região com efeito de faixa detectada para mascarar distorções de faixa nas pelo menos primeira e segunda imagens.
21. Equipamento (100) de acordo com a reivindicação 20, CARACTERIZADO pelo fato de que o módulo de difusão de erro (114) compreende ainda um gerador de sinal (116) configurado para gerar um sinal mascarante a ser aplicado a pelo menos uma imagem; em que o módulo de difusão de erro (114) é configurado ainda para selecionar um tamanho de pixels de bloco da pelo menos uma imagem, determinar se pelo menos um bloco está den- tro de uma região com efeito de faixa detectada; determinar um erro de quantização para o pelo menos um bloco na pelo menos uma imagem; e distribuir o erro de quantização a blo- cos vizinhos.
22. Equipamento (100) para detectar uma região com efeito de faixa em uma ima- gem CARACTERIZADO por compreender: - meio para segmentar pelo menos uma primeira imagem na pelo menos uma regi- ão de cor homogênea (113); - meio para estimar a transição linear de intensidade de cor para a pelo menos uma região de cor homogênea (115); e se a transição linear de intensidade de cor for substancialmente uniforme, - meio para classificar a pelo menos uma região de cor homogênea como uma regi- ão com efeito de faixa (111).
23. Equipamento (100) de acordo com a reivindicação 22, CARACTERIZADO pelo fato de que o meio para estimar (115) compreende ainda meio para modelar a superfície de intensidade de pixels na região segmentada usando um modelo de superfície linear.
24. Equipamento (100) de acordo com a reivindicação 23, CARACTERIZADO pelo fato de que o meio para classificar (111) compreende ainda meio para adaptação da super- fície de intensidade estimada a uma superfície de intensidade real na pelo menos uma pri- meira imagem.
25. Equipamento (100) de acordo com a reivindicação 24, CARACTERIZADO pelo fato de que o meio para classificar (111) compreende ainda meio para determinar um erro de adaptação de superfície entre a superfície de intensidade estimada e a superfície de in- tensidade real na pelo menos uma primeira imagem; e em que se o erro de adaptação de superfície for menor do que um limiar predeterminado, meio para determinar a transição linear de intensidade de cor para substancialmente uniforme.
26. Equipamento (100) de acordo com a reivindicação 22, CARACTERIZADO pelo fato de que o meio para segmentar (113) compreende ainda meio para realizar uma função de mudança de média para a pelo menos uma primeira imagem.
27. Equipamento (100) de acordo com a reivindicação 22, CARACTERIZADO pelo fato de que o meio para classificar (111) compreende ainda meio para determinar um núme- ro de pixels da pelo menos uma região segmentada; e se o número de pixels for menor do que um limiar predeterminado, meio para descartar a pelo menos uma região segmentada.
28. Equipamento (100) de acordo com a reivindicação 22, CARACTERIZADO pelo fato de que o meio para classificar (111) compreende ainda meio para calcular uma variân- cia da distribuição de cor de pixels da pelo menos uma região segmentada; e se a variância calculada for maior do que um limiar predeterminado, meio para descartar a pelo menos uma região segmentada.
29. Equipamento (100) de acordo com a reivindicação 22, CARACTERIZADO pelo fato de que o meio para classificar (111) compreende ainda meio para determinar se cada das pelo menos uma das regiões de faixa classificadas compartilham uma borda comum; e se pelo menos duas das regiões de faixa classificadas compartilham uma borda comum, meio para fundir as pelo menos duas regiões de faixa classificadas em uma região com efei- to de faixa única.
30. Equipamento (100) de acordo com a reivindicação 22, CARACTERIZADO por compreender ainda: - meio para rastrear a região com efeito de faixa detectada na pelo menos uma pri- meira imagem para pelo menos uma segunda imagem (132); e - meio para aplicar uma função de difusão de erro a uma região com efeito de faixa detectada para mascarar distorções de faixa nas pelo menos uma primeira e segunda ima- gens (114).
31. Equipamento (100) de acordo com a reivindicação 30, CARACTERIZADO pelo fato de que o meio para classificar (114) compreende ainda meio para gerar um sinal mas- carante a ser aplicado a pelo menos uma imagem (116); meio para selecionar um tamanho de pixels de bloco da pelo menos uma imagem, meio para determinar se pelo menos um bloco está dentro de uma região com efeito de faixa detectada; meio para determinar um erro de quantização para o pelo menos um bloco na pelo menos uma imagem; e meio para distribuir o erro de quantização a blocos vizinhos.
BRPI0721839-7A 2007-06-29 2007-06-29 equipamento e mÉtodo para reduzir distorÇÕes em imagens BRPI0721839A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2007/015205 WO2009005497A1 (en) 2007-06-29 2007-06-29 Apparatus and method for reducing artifacts in images

Publications (1)

Publication Number Publication Date
BRPI0721839A2 true BRPI0721839A2 (pt) 2013-05-21

Family

ID=39275987

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0721839-7A BRPI0721839A2 (pt) 2007-06-29 2007-06-29 equipamento e mÉtodo para reduzir distorÇÕes em imagens

Country Status (7)

Country Link
US (1) US8472709B2 (pt)
EP (1) EP2171683A1 (pt)
JP (1) JP2010532628A (pt)
KR (1) KR101350853B1 (pt)
CN (1) CN101689295A (pt)
BR (1) BRPI0721839A2 (pt)
WO (1) WO2009005497A1 (pt)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9743078B2 (en) * 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
US9578345B2 (en) 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
EP1777938A1 (en) * 2005-10-19 2007-04-25 Thomson Licensing Method, system and device for colour quality control
US8270498B2 (en) 2009-03-26 2012-09-18 Apple Inc. Dynamic dithering for video compression
KR101605832B1 (ko) * 2009-05-20 2016-03-23 마퍼 리쏘그라피 아이피 비.브이. 리소그래픽 처리를 위한 2―레벨 패턴 발생 방법 및 이를 이용한 패턴 발생기
US10477249B2 (en) 2009-06-05 2019-11-12 Apple Inc. Video processing for masking coding artifacts using dynamic noise maps
WO2011011250A1 (en) * 2009-07-24 2011-01-27 Dolby Laboratories Licensing Corporation Image control for displays
US20120144304A1 (en) * 2009-08-12 2012-06-07 Ju Guo System and method for reducing artifacts in images
US20110135011A1 (en) 2009-12-04 2011-06-09 Apple Inc. Adaptive dithering during image processing
JP2011198246A (ja) * 2010-03-23 2011-10-06 Canon Inc 画像処理方法、画像処理装置、プログラム及びプログラム記憶媒体
US8736894B2 (en) * 2011-12-20 2014-05-27 Eastman Kodak Company Producing correction data for printer
JP6342810B2 (ja) * 2011-11-17 2018-06-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像処理
US9432694B2 (en) * 2012-03-06 2016-08-30 Apple Inc. Signal shaping techniques for video data that is susceptible to banding artifacts
US9565404B2 (en) * 2012-07-30 2017-02-07 Apple Inc. Encoding techniques for banding reduction
TW201428680A (zh) * 2013-01-02 2014-07-16 Ind Tech Res Inst 影像處理裝置及立體影像前景分離方法
US9888240B2 (en) * 2013-04-29 2018-02-06 Apple Inc. Video processors for preserving detail in low-light scenes
EP3562170A1 (en) 2013-07-29 2019-10-30 Koninklijke KPN N.V. Providing tile video streams to a client
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
KR101953679B1 (ko) * 2014-06-27 2019-03-04 코닌클리즈케 케이피엔 엔.브이. Hevc-타일드 비디오 스트림을 기초로 한 관심영역 결정
US10694192B2 (en) 2014-06-27 2020-06-23 Koninklijke Kpn N.V. HEVC-tiled video streaming
US9911179B2 (en) 2014-07-18 2018-03-06 Dolby Laboratories Licensing Corporation Image decontouring in high dynamic range video processing
US10419762B2 (en) * 2015-03-02 2019-09-17 Dolby Laboratories Licensing Corporation Content-adaptive perceptual quantizer for high dynamic range images
WO2017029400A1 (en) 2015-08-20 2017-02-23 Koninklijke Kpn N.V. Forming one or more tile streams on the basis of one or more video streams
US10674185B2 (en) 2015-10-08 2020-06-02 Koninklijke Kpn N.V. Enhancing a region of interest in video frames of a video stream
US11032446B2 (en) * 2016-11-17 2021-06-08 Sony Interactive Entertainment Inc. Image processing device, image processing method, and program for correcting color in an image
US10609372B2 (en) * 2017-09-29 2020-03-31 Dolby Laboratories Licensing Corporation Up-conversion to content adaptive perceptual quantization video signals
WO2020131494A1 (en) * 2018-12-19 2020-06-25 Dolby Laboratories Licensing Corporation Image debanding using adaptive sparse filtering
CN110268442B (zh) * 2019-05-09 2023-08-29 京东方科技集团股份有限公司 在图像中检测背景物上的外来物的计算机实现的方法、在图像中检测背景物上的外来物的设备以及计算机程序产品
CN110262819B (zh) * 2019-06-04 2021-02-26 深圳前海微众银行股份有限公司 一种联邦学习的模型参数更新方法及装置
US11523185B2 (en) 2019-06-19 2022-12-06 Koninklijke Kpn N.V. Rendering video stream in sub-area of visible display area

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4959730A (en) * 1990-01-02 1990-09-25 Eastman Kodak Company False density contour suppression using randomly modified input signals for comparison to threshold values
JP2812525B2 (ja) 1990-02-20 1998-10-22 日本電信電話株式会社 距離計測方法
JP3317982B2 (ja) 1991-07-15 2002-08-26 オリンパス光学工業株式会社 画像信号復号化装置
JP3242506B2 (ja) 1993-03-24 2001-12-25 富士写真フイルム株式会社 レンズ付きフイルムユニット用露光画面切替え装置
JPH07212760A (ja) * 1994-01-14 1995-08-11 Nippon Telegr & Teleph Corp <Ntt> 動画像の動き補償予測符号化方法
US5822464A (en) 1996-05-30 1998-10-13 Xerox Corporation Method and system for processing image information using video dependent dampened screening and error diffusion
US5949434A (en) * 1997-03-20 1999-09-07 Charlton; Paul Method and apparatus for scaling graphic images
JPH1188909A (ja) 1997-09-11 1999-03-30 Mitsubishi Electric Corp 画像圧縮伝送装置
JP3873477B2 (ja) 1998-02-17 2007-01-24 富士ゼロックス株式会社 画像処理装置および画像処理方法
JPH11327497A (ja) 1998-05-14 1999-11-26 Hitachi Ltd 映像信号処理装置および表示装置
JP3883341B2 (ja) 1999-10-29 2007-02-21 株式会社リコー 画像処理方法、装置及び記録媒体
US6958760B1 (en) 1999-11-06 2005-10-25 Samsung Electronics, Co., Ltd. False contour correction apparatus in image display system and false contour correction method
JP2003015587A (ja) * 2001-06-28 2003-01-17 Mitsubishi Electric Corp ディスプレイ装置
JP3931651B2 (ja) * 2001-12-21 2007-06-20 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
ATE352459T1 (de) 2002-02-02 2007-02-15 Qinetiq Ltd Kopfpositionssensor
WO2004086297A1 (en) 2003-03-27 2004-10-07 Koninklijke Philips Electronics N.V. Medical imaging system and a method for segmenting an object of interest.
US8064684B2 (en) * 2003-04-16 2011-11-22 Massachusetts Institute Of Technology Methods and apparatus for visualizing volumetric data using deformable physical object
JP2005024717A (ja) * 2003-06-30 2005-01-27 Fujitsu Hitachi Plasma Display Ltd ディスプレイ装置およびディスプレイの駆動方法
US7239321B2 (en) * 2003-08-26 2007-07-03 Speech Graphics, Inc. Static and dynamic 3-D human face reconstruction
US7072494B2 (en) 2004-02-20 2006-07-04 Siemens Corporate Research, Inc. Method and system for multi-modal component-based tracking of an object using robust information fusion
SE0402576D0 (sv) 2004-10-25 2004-10-25 Forskarpatent I Uppsala Ab Multispectral and hyperspectral imaging
US7733532B2 (en) * 2004-10-27 2010-06-08 Marvell International Technology Ltd. Laser print apparatus with dual halftones
US8078255B2 (en) * 2006-03-29 2011-12-13 University Of Georgia Research Foundation, Inc. Virtual surgical systems and methods
CN101595734A (zh) 2007-01-16 2009-12-02 汤姆逊许可证公司 用于减轻图像中的伪影的系统和方法

Also Published As

Publication number Publication date
EP2171683A1 (en) 2010-04-07
KR101350853B1 (ko) 2014-01-13
US8472709B2 (en) 2013-06-25
CN101689295A (zh) 2010-03-31
US20100135575A1 (en) 2010-06-03
WO2009005497A1 (en) 2009-01-08
JP2010532628A (ja) 2010-10-07
KR20100037054A (ko) 2010-04-08

Similar Documents

Publication Publication Date Title
BRPI0721839A2 (pt) equipamento e mÉtodo para reduzir distorÇÕes em imagens
CA2674312C (en) System and method for reducing artifacts in images
Crabb et al. Real-time foreground segmentation via range and color imaging
US9311901B2 (en) Variable blend width compositing
US9118846B2 (en) Apparatus for generating an image with defocused background and method thereof
US8923612B2 (en) Image processing apparatus and method, and program
US8934711B2 (en) Apparatus and method of processing image
EP1800260B1 (en) Correction of blotches in component images
US20130121577A1 (en) Methods and Apparatus for Chatter Reduction in Video Object Segmentation Using Optical Flow Assisted Gaussholding
US10013772B2 (en) Method of controlling a quality measure and system thereof
WO2004059574A2 (en) Reduction of differential resolution of separations
JP5676610B2 (ja) 画像シーケンスの関心領域に基づくアーティファクト低減のためのシステム及び方法
KR101456445B1 (ko) Hsv 색상 공간에서 영상의 안개 제거 장치 및 방법, 그리고 그 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체
JP6771134B2 (ja) 画像補正方法及び画像補正装置
KR102149974B1 (ko) 단일 영상의 안개 제거 연산량을 줄인 대기강도추정장치 및 그 장치의 구동방법
US6956976B2 (en) Reduction of differential resolution of separations
Safonov et al. Changing the Aspect Ratio for Borderless Printing
AU2003297426B2 (en) Reduction of differential resolution of separations

Legal Events

Date Code Title Description
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]
B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]