BR112015000480B1 - Arquitetura de codec para codificação de vídeo de camada múltipla, método e sistema - Google Patents

Arquitetura de codec para codificação de vídeo de camada múltipla, método e sistema Download PDF

Info

Publication number
BR112015000480B1
BR112015000480B1 BR112015000480-6A BR112015000480A BR112015000480B1 BR 112015000480 B1 BR112015000480 B1 BR 112015000480B1 BR 112015000480 A BR112015000480 A BR 112015000480A BR 112015000480 B1 BR112015000480 B1 BR 112015000480B1
Authority
BR
Brazil
Prior art keywords
image
ilp
scalability
type
information
Prior art date
Application number
BR112015000480-6A
Other languages
English (en)
Other versions
BR112015000480A2 (pt
Inventor
Yan Ye
George W. Mcclellan
Yong He
Xiaoyu Xiu
Yuwen He
Jie Dong
Can Bal
Eun Ryu
Original Assignee
Vid Scale, Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale, Inc filed Critical Vid Scale, Inc
Publication of BR112015000480A2 publication Critical patent/BR112015000480A2/pt
Publication of BR112015000480B1 publication Critical patent/BR112015000480B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Error Detection And Correction (AREA)

Abstract

Arquitetura de codec para codificação de vídeo de camada múltipla Sistemas, métodos e instrumentalidades são fornecidos para implantar um sistema de codificação de vídeo (VCS). O VCS pode ser configurado para receber um sinal de vídeo, que pode incluir uma ou mais camadas (por exemplo, uma camada de base (BL) e/ou uma ou mais camadas de realce (ELs)). O VCS pode ser configurado para processar uma imagem de BL em uma imagem de referência intercamada (ILR), por exemplo, com o uso do processo de previsão intercamada de nível de imagem. O VCS pode ser configurado para selecionar uma ou ambas as imagens de ILR processadas ou uma imagem de referência de camada de realce (EL). A(s) imagem(ns) de referência selecionada(s) pode(m) compreender uma dentre a imagem de referência de EL ou a imagem de ILR. O VCS pode ser configurado para prever uma imagem de EL atual com o uso de uma ou mais dentre a imagem de ILR selecionada ou a imagem de referência ILR. O VCS pode ser configurado para armazenar a imagem de ILR processada em um armazenamento temporário de imagem decodificada por EL (DPB).

Description

Referência cruzada a pedidos relacionados
[001] O presente pedido reivindica o benefício dos Pedidos de Patente Provisórios no U.S. 61/699.356 depositado em 09 de julho de 2012 e no U.S. 61/734.264 depositado em 06 de dezembro de 2012, cujos conteúdos estão incorporados ao presente documento a título de referência.
Antecedentes
[002] A tecnologia de multimídia e comunicações móveis obteve crescimento e sucesso em massa recentemente. A tecnologia de comunicações sem fio aumentou dramaticamente a largura de banda sem fio e aprimorou a qualidade de serviço para usuários móveis. Por exemplo, o padrão de Projeto de Parceira de 3a Geração (3GPP) de Evolução a Longo Prazo (LTE) aprimorou a qualidade de serviço em comparação à 2a Geração (2G) e/ou à 3a Geração (3G).
[003] Com a disponibilidade de altas larguras de banda em redes sem fio, o conteúdo de multimídia e vídeo que está disponível na web cabeada pode levar usuários a desejar acesso por exigência equivalente ao conteúdo a partir de uma ampla variedade de dispositivos móveis com tamanho, qualidade e/ou capacidades de conectividade diferentes.
[004] Para disponibilizar os vários tipos de conteúdo de vídeo pelas redes, um ou mais mecanismos de codificação e de compressão de vídeo podem ser usados. Os sistemas de codificação de vídeo podem ser usados para comprimir sinais de vídeo digitais, por exemplo, para reduzir a necessidade de armazenamento e/ou largura de banda de transmissão de tais sinais. Vários tipos de tecnologias de compressão de vídeo com base em um ou mais padrões de codificação de vídeo podem ser usadas. Os padrões podem incluir, por exemplo, H.261, MPEG-1, MPEG-2, H.263. MPEG-4 parte 2 e H.264/MPEG-4 parte 10 AVC, Codificação de Vídeo de Alta Eficiência (HEVC), etc. A extensão dos padrões de codificação de vídeo, por exemplo, H.264 (codificação de vídeo escalável (SVC)), e/ou HEVC escalável pode ser usada. Os mecanismos de codificação escalável fornecidos podem ter desvantagens e podem ser inadequados
Sumário
[005] Sistemas, métodos e instrumentalidades são fornecidos para implantar um sistema de codificação de vídeo (VCS). O VCS que inclui, por exemplo, um codificador de camada de base (BL), um codificador de camada de realce (EL), uma unidade de processamento e gerenciamento de previsão intercamada (ILP) etc. pode ser configurado para receber um sinal de vídeo. O sinal de vídeo pode compreender uma ou mais camadas (por exemplo, uma camada de base (BL) e/ou uma ou mais camadas de realce (ELs)). O VCS pode processar uma imagem de BL em uma imagem de referência intercamada (ILR), por exemplo, com o uso de um processo de previsão intercamada de nível de imagem. A imagem de ILR processada pode ser uma imagem de ILR não posicionada.
[006] O processamento da imagem de BL em uma imagem de ILR pode incluir formar a imagem de BL em um formato que pode ser adequado para a previsão de uma imagem de EL atual. O formato pode ser dependente de um tipo de escalabilidade entre um codec de BL e um codec de EL. O tipo de escalabilidade entre o codec de BL e o codec de EL pode incluir uma ou mais dentre escalabilidade espacial, escalabilidade de formato de croma, escalabilidade de qualidade, escalabilidade espacial, escalabilidade de visualização ou escalabilidade de profundidade de bit. A formatação pode incluir um ou mais dentre aumento de resolução de imagem, eliminação de ruído, restauração ou refeitura de alvo, compensação de disparidade ou mapeamento de tom inverso.
[007] O VCS pode selecionar uma dentre a imagem de ILR processada ou uma imagem de referência de camada de realce (EL), ou ambas. A(s) imagem(s) de referência selecionada(s) pode(m) compreender uma dentre a imagem de referência de EL ou a imagem de ILR. Uma pluralidade das imagens de referência selecionadas pode corresponder a uma situação de tempo comum.
[008] O VCS pode prever uma imagem de EL atual com o uso de um ou mais dentre a imagem de ILR selecionada ou a imagem de referência de EL. O VCS ode armazenar a imagem de ILR processada em um armazenamento temporário de imagem decodificada por EL (DPB). O VCS pode extrair informações de BL a partir da BL. As informações de BL podem incluir uma ou mais dentre informações de modo de BL ou informações de movimento de BL. O VCS pode processar a imagem de BL com base em informações que compreendem as informações de BL extraídas. O VCS pode converter informações de BL a partir de um primeiro formato a um segundo formato e pode usar as informações de BL convertidas em codificação de EL. O primeiro formato pode se referir a um codec de BL e o segundo formato pode se referir a um codec de EL e o primeiro formato pode ser diferente do segundo formato.
[009] O VCS pode empacotar as informações de ILP e enviar as informações de ILP, por exemplo, por meio das unidades de camada de abstração de rede (NAL). As informações de ILP podem incluir, por exemplo, informações de filtro de aumento de resolução de imagem, um ou mais coeficientes para aumentar resolução, um ou mais coeficientes para eliminar de ruído, um ou mais dentre parâmetros de compensação de disparidade, um ou mais dentre parâmetros de mapeamento de tom inverso, etc.
Breve descrição dos desenhos
[0010] Um entendimento mais detalhado pode ser obtido a partir da seguinte descrição, dado por meio de exemplo em combinação com desenhos anexos. - A Figura 1 é um digrama que ilustra um exemplo de um sistema de codificação de vídeo escalável. - A Figura 2 é um diagrama que ilustra um exemplo de uma estrutura de previsão com o uso de uma codificação de vídeo de multivisualização (MVC) para codificar um vídeo estereoscópico, por exemplo, com uma visualização esquerda e uma visualização direita. - A Figura 3 é um digrama que ilustra um exemplo de uma arquitetura de um codificador de vídeo escalável com 2 camadas. - A Figura 4 é um diagrama que ilustra um exemplo de uma arquitetura de um decodificador de vídeo escalável de 2 camadas. - A Figura 5 é um diagrama que ilustra um exemplo de um codificador de vídeo de camada única com base em bloco. - A Figura 6 é um diagrama que ilustra um exemplo de um decodificador de vídeo de camada única com base em bloco. - A Figura 7 é um diagrama que ilustra um exemplo de um sistema de codificação escalável de duas camadas em suporte de previsão intercamada de nível de imagem (ILP). - A Figura 8 é um diagrama que ilustra um exemplo de um sistema de decodificação escalável de duas camadas com um suporte de ILP de nível de imagem. - A Figura 9 é um diagrama que ilustra um exemplo de um sistema de duas camadas com previsão temporária e com previsão intercamada habilitado para codificação de camada de realce. - A Figura 10 é um diagrama que ilustra um exemplo de uma unidade de processamento e gerenciamento de ILP. - A Figura 11 ilustra um exemplo estrutura de previsão com o uso de previsão de vetor de movimento de intercamada. - A Figura 12 é um diagrama que ilustra um exemplo de um sistema de codificação que pode usar uma unidade de processamento e gerenciamento de ILP realçada. - A Figura 13A é um diagrama de sistema de um sistema de comunicações de exemplo no qual uma ou mais modalidades relevadas podem ser implantadas. - A Figura 13B é um diagrama de sistema de uma unidade de transmissão/recebimento sem fio (WTRU) de exemplo que pode ser usada dentro do sistema de comunicações ilustrado na Figura 13A. - A Figura 13C é um diagrama de sistema de uma rede de acesso à rádio de exemplo e uma rede principal de exemplo que pode ser usada dentro do sistema de comunicações ilustrado na Figura 13A. - A Figura 13D é um diagrama de sistema de outra rede de acesso à rádio de exemplo e uma rede principal de exemplo que pode ser usada dentro do sistema de comunicações ilustrado na Figura 13A. - A Figura 13E é um diagrama de sistema de outra rede de acesso à rádio de exemplo e outra rede principal de exemplo que podem ser usadas dentro do sistema de comunicações ilustrado na Figura 13A.
Descrição detalhada
[0011] Uma descrição detalhada de modalidades ilustrativas será agora descrita com referência às várias figuras. Embora essa descrição forneça um exemplo detalhado de possíveis implantações, deve ser verificado que os detalhes se destinam a ser exemplificativos e de maneira alguma limitam o escopo do pedido. Além disso, as figuras podem ilustrar fluxogramas, que devem ser exemplificativos. Outras modalidades podem ser usadas. A ordem das mensagens pode ser variada quando apropriado. As mensagens podem ser omitidas caso não sejam necessárias, e fluxos adicionais podem ser adicionados.
[0012] A codificação de vídeo escalável pode aprimorar a qualidade de experiência para aplicações de vídeos que funcionam em dispositivos com diferentes capacidades por redes heterogêneas. A codificação de vídeo escalável pode codificar o sinal uma vez que estiver em uma representação maior (por exemplo, resolução temporária, resolução espacial, qualidade, etc.), porém habilitar a decodificação a partir de subconjuntos dos fluxos de vídeo dependendo da taxa específica e a representação exigida por determinadas aplicações que executam em um dispositivo de cliente. Codificação de vídeo escalável pode salvar largura de banda e/ou o armazenamento comparado a soluções não escaláveis. Os padrões de vídeo internacionais, por exemplo, MPEG- 2 Video, H.263, MPEG4 Visual, H.264, etc. podem ter ferramentas e/ou perfis que suportam modos de escalabilidade.
[0013] A Figura 1 é um diagrama que ilustra um exemplo de um sistema de codificação de vídeo escalável híbrido com base em bloco. A resolução de sinal espacial/temporal que pode ser representada pela camada 1 (por exemplo, a camada de base) pode ser gerada mediante a redução de resolução do sinal de vídeo de entrada. Uma definição apropriada do quantizador (por exemplo, Q1) pode levar a m determinado nível de qualidade das informações base. Uma reconstrução por camada de base Y1, que pode ser uma aproximação de um ou mais dentre (por exemplo, todas) os níveis de resolução de camada mais altos, pode ser utilizada na codificação/decodificação das camadas subsequentes, por exemplo, para codificar de maneira mais eficiente as amadas mais altas subsequentes. A unidade de aumento de resolução 1010 e/ou 1012 pode realizar aumento de resolução do sinal de reconstrução de camada de base para resolução da camada-2. A redução de resolução e o aumento de resolução podem ser realizados ao longo de cada uma das camadas (por exemplo, 1, 2... N). As razões de redução de resolução e de aumento de resolução podem ser diferentes dependendo da dimensão da escalabilidade entre duas camadas dadas.
[0014] Conforme ilustrado na Figura 1, para qualquer camada mais alta dada n (2<n<), um sinal diferencial pode ser gerado mediante a subtração de um sinal de camada inferior com resolução aumentada (por exemplo, sinal de camada n-1) a partir do sinal de camada n atual. O sinal de diferença obtido pode ser codificado. Caso os sinais de vídeo representados pelas duas camadas (por exemplo, n1 e n2) tenham a mesma resolução espacial, as operações de redução de resolução e de aumento de resolução correspondentes podem ser podem ser omitidas. Qualquer camada n dada (l<n<N) ou uma pluralidade de camadas pode ser decodificada sem usar quaisquer informações decodificadas a partir de camadas mais altas. Confiar na codificação do sinal residual (por exemplo, o sinal de diferença entre duas camadas) para as camadas exceto a camada de base, por exemplo, conforme pode ser utilizado pelo sistema da Figura 1, pode causar artefatos visuais. Os artefatos visuais podem ser devidos um desejo de quantizar e normalizar o sinal residual para restringir o alcance dinâmico do mesmo e/ou a quantização adicional realizada durante a codificação do residual. Um ou mais dentre os codificadores de camada mais alta podem adotar previsão de estimativa de movimento e/ou de previsão de compensada de movimento como um modo de codificação. A estimativa de movimento e/ou compensação de movimento em um sinal residual pode ser diferente de estimativa de movimento convencional e, por exemplo, pode ser tender mais a artefatos visuais. Quantização residual mais sofisticada, assim como quantização conjunta entre o desejo de quantizar e de normalizar o sinal residual para restringir o alcance dinâmico do mesmo e quantização adicional realizada durante codificação do residual pode ser utilizada e pode aumentar a complexidade de sistema, por exemplo, para minimizar tais artefatos visuais. O sistema da Figura 1 pode não considerar outros modos de previsão intercamada, que podem limitar o nível de eficiência de compressão que o mesmo possa alcançar.
[0015] A codificação de vídeo escalável (SVC) é uma extensão de H.264 que pode habilitar a transmissão e a decodificação de fluxos de bits parciais, por exemplo, para fornecer serviços de vídeo com resoluções temporais ou espaciais inferiores ou fidelidade reduzida enquanto retém uma qualidade de reconstrução (por exemplo, qualidade de reconstrução alta) dada a taxa dos fluxos de bits parciais. A SVC pode incluir Decodificação de Ciclo Único que pode fornecer uma configuração de decodificador de SVC, um ciclo de compensação de movimento na camada que é decodificada e pode não configurar ciclo de compensação de movimento(s) em outra(s) camada(s) inferior(s). Por exemplo, caso o fluxo de bits inclua 2 camadas, camada 1 (por exemplo, uma camada de base) e camada 2 (por exemplo, uma camada de realce). Um decodificador pode reconstruir um vídeo de camada 2 mediante a definição de um armazenamento temporário de imagem decodificada e uma previsão compensada de movimento (por exemplo, para a camada 2 e não para a camada 1; camada 2 pode depender da camada 1). A SVC pode não exigir que uma imagem(s) de referência das camadas inferiores seja reconstruída completamente, o que pode reduzir a complexidade computacional e a memória utilizada no decodificador. A decodificação de ciclo único pode ser alcançada por previsão de textura de intercamada restrita. Para um bloco (por exemplo, um bloco atual) em uma camada dada, previsão de textura espacial a partir de uma camada inferior pode ser utilizada caso o bloco de camada inferior correspondente for codificado em intramodo (por exemplo, intraprevisão restrita). Quando um bloco de camada inferior é codificado em intramodo, o mesmo pode ser reconstruído sem operações de compensação de movimento e um armazenamento temporário de imagem decodificada. A SVC pode utilizar conjuntos de procedimentos previsão intercamada adicionais, por exemplo, previsão de vetor de movimento, previsão residual, previsão de modo etc. O recurso de decodificação de ciclo único de SVC pode reduzir a complexidade computacional e/ou a memória utilizada no decodificador. A decodificação de ciclo único pode aumentar a complexidade de implantação, por exemplo, confiando-se decisivamente em implantações de previsão intercamada de nível de bloco para alcançar desempenho satisfatório. O projeto de codificador e a complexidade de computação podem ser aumentados de modo que o desempenho desejado seja alcançado, por exemplo, para compensar a penalidade de desempenho causada mediante a imposição da restrição de decodificação de ciclo único. A codificação escalável de conteúdo entrelaçado pode não ser suportada por SVC com desempenho suficiente, o que pode afetar a adoção do mesmo pela indústria difusão.
[0016] A codificação de vídeo de multivisualização (MVC) é uma extensão exemplificativa de H.264 que pode fornecer escalabilidade de visualização. A escalabilidade de visualização pode significar que o fluxo de bits de camada de base pode ser decodificada para reconstruir um vídeo 2D convencional e camadas de realce adicionais podem ser codificadas para reconstruir outras representações de visualização do mesmo sinal de vídeo. Quando uma ou mais visualizações (por exemplo, todas as visualizações) são combinadas e exibidas por um visor 3D apropriado, o usuário pode obter vídeo 3D com percepção de profundidade apropriada. A Figura 2 é um diagrama que ilustra uma estrutura de previsão de exemplo om uso de MVC para codificar um vídeo estereoscópico com uma visualização esquerda (por exemplo, uma camada 1) e uma visualização direita (por exemplo, a camada 2). Conforme ilustrado, por exemplo, na Figura 2, um vídeo de visualização esquerda pode ser codificado com estrutura de previsão IBBP. O vídeo de visualização direita pode ser codificado com estrutura de previsão PBBB. Por exemplo, na visualização direita, a primeira imagem posicionada com a primeira imagem I 2002 na visualização esquerda pode ser codificada como uma imagem P 2004. Cada uma das imagens na visualização direita pode ser codificada como imagens B, por exemplo, com a primeira previsão que sucede a partir de referências temporais na visualização direita e a segunda previsão que sucede a partir de referência intercamada na visualização esquerda. A MVC pode não suportar a decodificação de ciclo único. Por exemplo, conforme mostrado na Figura 2, a decodificação do vídeo de visualização direita (por exemplo, uma camada 2) pode exigir que imagens inteiras na visualização esquerda (por exemplo, uma camada 1) estejam disponíveis, o que pode suportar ciclos de compensação de movimento em ambas as visualizações/camadas.
[0017] A MVC pode incluir (por exemplo, apenas incluir) mudanças de sintaxe de alto nível e pode não incluir mudanças de nível de bloco para H.264/AVC. Por exemplo, uma vez que a lógica de codificador/decodificador de MVC subjacente pode permanecer a mesma e pode ser duplicada, imagens de referência (por exemplo, apenas imagens de referência) a nível de fatia/imagem podem ser corretamente configuradas para habilitar MVC. A MVC pode suportar codificação de mais que duas visualizações estendendo-se o exemplo da Figura 2 para realizar a previsão intercamada através de múltiplas visualizações.
[0018] A codificação compatível com quadro (MFC) de Grupo de Especialistas em Imagens em Movimento (MPEG) pode ser utilizada como uma técnica de codificação. O conteúdo 3D pode ser vídeo 3D estereoscópico que pode incluir uma ou mais visualizações, por exemplo, uma visualização esquerda e uma visualização direita. A entrega de conteúdo 3D estereoscópico pode ser alcançada mediante empacotamento/multiplexação das duas visualizações em um quadro, compressão e transmissão do vídeo empacotado com um codec (por exemplo, H.264/AVC). No lado receptor, após a decodificação, os quadros podem ser desempacotados e exibidos como duas visualizações. As visualizações podem ser multiplexadas no domínio temporário e/ou no domínio espacial. Quando as visualizações são multiplexadas no domínio espacial, as duas visualizações pode ser reduzidas em resolução espacialmente por um fator (por exemplo, um fator de dois) e empacotados por várias disposições, por exemplo, a fim de manter o mesmo tamanho de imagem. Por exemplo, uma imagem pode ser disposta com a visualização esquerda com resolução reduzida na metade esquerda da imagem e a visualização direita com resolução reduzida na metade direta da imagem. Outras disposições podem incluir fragmentação externa topo a fundo, linha por linha, etc. Uma disposição específica usada para obter vídeo compatível com quadro 3D pode ser transportada por mensagens de SEI de disposição de empacotamento de quadro. Redução de resolução espacial pode causar desalinhamento nas visualizações e reduzir a qualidade visual e experiência de usuário de vídeo 3D. Um foco pode ser direcionado para fornecer uma extensão escalável para camada de base vídeo compatível com quadro (por exemplo, duas visualizações empacotadas no mesmo quadro), e/ou fornecer uma ou mais camadas de realce para recuperar a completa resolução de visualizações para experiência 3D aprimorada. Embora possa ser direcionada para oferecer entrega de vídeo 3D, a tecnologia subjacente que pode habilitar MFC de resolução completa pode estar relacionada a tecnologias de escalabilidade espacial.
[0019] Um realce escalável de HEVC pode ser fornecido. Escalabilidade de padrões podem se referir ao tipo de escalabilidade quando a camada de base é codificada com um padrão, por exemplo, H.264/AVC ou MPEG2, embora as uma ou mais camadas de realce possam ser codificadas com o uso de outro padrão, por exemplo, o padrão de HEVC. A escalabilidade de padrões pode fornecer compatibilidade reversa para conteúdo de legado codificado com o uso de padrões anteriores e pode realçar a qualidade do conteúdo de legado com uma ou mais camadas de realce.
[0020] A codificação de vídeo 3D (3DV) pode ser fornecida. O 3DV pode fornecer uma ou mais diferentes escalabilidades que podem ser alvejadas para aplicações autoestereoscópicas. Os visores e aplicações autoestereoscópicas podem permitir que pessoas experimentem 3D sem os óculos incômodos. A fim de obter boas experiências 3D sem óculos, mais que duas visualizações podem ser utilizadas. Codificar mais que duas visualizações (por exemplo, 9 visualizações ou 10 visualizações) pode ser dispendioso. 3DV pode utilizar uma abordagem híbrida de codificação de algumas visualizações (por exemplo, 2 ou 3 visualizações) com disparidade relativamente grande juntas e/ou com um ou mais mapas de profundidade que podem fornecer informações de profundidade das visualizações. Isso pode ser denominado de Multivisualização mais Profundidade (MVD). No lado de exibição, as visualizações e os mapas de profundidade codificados podem ser decodificados. As visualizações restantes podem ser geradas com o uso das visualizações decodificadas e os mapas de profundidade das mesmas com o uso tecnologias de síntese de visualização. 3DV pode utilizar várias implantações para codificar as visualizações e os mapas de profundidade, por exemplo, codificar os mesmo com o uso de uma combinação de diferentes padrões, tais como, mas sem limitação, H.264/AVC, MVC, HEVC, etc. 3DV pode codificar a camada de base com um padrão (por exemplo, H.264/AVC) e codificar uma ou mais dentre as camadas de realce com outro padrão (por exemplo, HEVC).
[0021] A tabela 1 fornece um exemplo de diferentes tipos de escalabilidades junto com os padrões correspondentes que podem suportar as mesmas. A escalabilidade de profundidade de bit e a escalabilidade de formato de croma podem ser vinculada a formatos de vídeo (por exemplo, maior que vídeo de 8 bits e formatos de amostragem de croma maiores que YUV4:2:0) primariamente usados por aplicações de vídeo profissionais. A escalabilidade de razão de aspecto pode ser fornecida. Tabela 1
Figure img0001
Figure img0002
[0022] A codificação de vídeo escalável pode fornecer um primeiro nível de qualidade de vídeo com uma primeira definição de parâmetros de vídeo com o uso do fluxo de bits de camada de base. A codificação de vídeo escalável pode fornecer um ou mais níveis de qualidade maior associada a um ou mais definições de parâmetros realçados com o uso de um ou mais fluxos de bits de camada de realce. A definição de parâmetros de vídeo pode incluir um ou mais dentre resolução espacial, taxa de quadro, qualidade de vídeo reconstruído (por exemplo, na forma de SNR, PSNR, VQM, qualidade visual, etc.), capacidade 3D (por exemplo, com duas ou mais visualizações), profundidade de bit de luma e de croma, formato de croma e padrão codificação de camada única subjacente. Conforme ilustrado na Tabela 1, casos de uso diferente podem exigir diferentes tipos de escalabilidade. Conforme discutido no presente documento, uma arquitetura de codificação escalável pode oferecer uma estrutura comum que pode ser configurada para suportar um ou mais escalabilidades (por exemplo, as escalabilidades listradas na tabela 1). Uma arquitetura de codificação escalável pode ser flexível para suportar diferentes escalabilidades com mínimos esforços de configuração. Uma arquitetura de codificação escalável pode incluir pelo menos um modo de operação preferencial que pode não exigir mudanças a operações de nível de bloco, de modo que a lógica de codificação (por exemplo, lógica de codificação e/ou de decodificação) possa ser reusada ao máximo dentro da codificação sistema escalável. Por exemplo, uma arquitetura de codificação escalável com base em unidade de processamento e gerenciamento de intercamada de nível de imagem pode ser fornecida, em que a previsão intercamada pode ser realizada no nível de imagem.
[0023] A Figura 3 é um diagrama de arquitetura de exemplo de um codificador de vídeo escalável de duas camadas. Por exemplo, a entrada de vídeo de camada de realce e a entrada de vídeo de camada de base podem corresponder entre si pelo processo de redução de resolução que pode obter escalabilidade espacial. Conforme ilustrado na Figura 3, uma vídeo de camada de realce pode ser reduzida em resolução com o uso de um redutor de resolução 3002. A camada de base codificador 3006 (por exemplo, um codificador de HEVC nesse exemplo) pode codificar a entrada de vídeo de camada de base bloco por bloco e gerar um fluxo de bits de camada de base. A Figura 5 é um diagrama que ilustra um codificador de vídeo de camada única com base em bloco de exemplo que pode ser usado com a camada de base codificador na Figura 3. Conforme ilustrado na Figura, 5 um codificador de camada única pode empregar conjuntos de procedimentos tais como previsão espacial 5020 (por exemplo, denominado de intraprevisão) e/ou previsão temporária 5022 (por exemplo, denominado de interprevisão e/ou previsão compensada de movimento) para obter compressão eficiente e/ou prever o sinal de vídeo de entrada. O codificador pode ter lógica de decisão de modo 5002 que pode escolher a forma mais adequada de previsão. A lógica de decisão de codificador pode ser baseada em uma combinação de considerações de taxa e de distorção. O codificador pode transformar e quantizar a previsão residual (por exemplo, o sinal de diferença entre o sinal de entrada e o sinal de previsão) com o uso da unidade de transformação 5004 e da unidade de quantização 5006, respectivamente. O resíduo quantizado, junto às informações de modo (por exemplo, intra ou interprevisão) e informações de previsão, (por exemplo, movimento vetores, índices de imagem de referência, modos de intraprevisão, etc.) pode ser comprimido adicionalmente no codificador de entropia 5008 e empacotado no fluxo de bits de vídeo de saída. O codificador também pode gerar o sinal de vídeo reconstruído aplicando-se quantização inversa (por exemplo, com o uso de unidade de quantização inversa 5010) e transformação inversa (por exemplo, com o uso de unidade de transformação inversa 5012) ao resíduo quantizado para obter o resíduo reconstruído. O codificador pode adicionar o sinal de vídeo reconstruído de volta para o sinal de previsão 5014. O sinal de vídeo reconstruído pode passar por processo de filtro de ciclo 5016 (por exemplo, com o uso de filtro de desbloqueio, Deslocamentos Adaptáveis de Amostra, e/ou Filtros de Ciclo Adaptáveis) e pode ser armazenado no armazenamento de imagem de referência 5018 a ser usado para prever futuros sinais de vídeo.
[0024] O termo armazenamento de imagem de referência pode ser usado de modo intercambiável no presente documento com o termo armazenamento temporário de imagem decodificada ou DPB. A Figura 6 é um digrama de blocos de um decodificador de camada única com base em bloco de exemplo que pode receber um fluxo de bits de vídeo produzido pelo codificador da Figura 5 e pode reconstruir o sinal de vídeo a ser exibido. No decodificador de vídeo, o fluxo de bits pode ser analisado pelo decodificador de entropia 6002. Os coeficientes residuais podem ser quantizados inversamente (por exemplo, com o uso da unidade de desquantização 6004) e transformados inversamente (por exemplo, cm uso da unidade de transformação inversa 6006) para obter o resíduo reconstruído. O modo de codificação e as informações de previsão podem ser usados para obter o sinal de previsão. Isso pode ser cumprido com o uso de previsão espacial 6010 e/ou previsão temporária 6008. O sinal de previsão e o resíduo reconstruído podem ser adicionados juntos para obter o vídeo reconstruído. O vídeo reconstruído pode adicionalmente passar por filtragem de ciclo (por exemplo, com o uso de filtro de ciclo 6014). O vídeo reconstruído pode, então, ser armazenado no armazenamento de imagem de referência 6012 a ser exibido e/ou ser usado para decodificar futuros sinais de vídeo.
[0025] Conforme ilustrado no codificador escalável de exemplo da Figura 3, na camada de realce, o codificador de camada de realce (EL) 3004 pode tomar sinal de vídeo de entrada de EL de resolução espacial maior (e/ou maiores valores de outros parâmetros de vídeo). O codificador de EL 3004 pode produzir de fluxo de bits de EL de uma maneira semelhante substancialmente conforme a camada de base codificador de vídeo 3006, por exemplo, utilizando previsões temporárias e/ou espaciais para obter compressão. Uma forma adicional de previsão, denominada no presente documento de previsão intercamada (ILP) (por exemplo, conforme indicado pelas setas sombreadas na Figura 3), pode estar disponível no codificador de realce para aprimorar o desempenho de codificação. Diferentemente de previsões temporárias e espaciais que derivam a sinal de previsão com base em sinais de vídeo codificados na camada de realce atual, previsão intercamada pode derivar o sinal de previsão com base em sinais de vídeo codificados a partir da camada de base (e/ou outras camadas inferiores quando há mais que duas camadas no sistema escalável). Pelo menos duas formas de previsão intercamada, ILP de nível de imagem e ILP de nível de bloco, podem existir no sistema escalável. ILP de nível de imagem e ILP de nível de bloco são discutidos no presente documento. Um multiplexador de fluxo de bits (por exemplo, o MUX 3014 na Figura 3) pode combinar a camada de base e os fluxos de bits de camada de realce para produzir um fluxo de bits escalável.
[0026] A Figura 4 é um diagrama de blocos de arquitetura de exemplo de decodificador de vídeo escalável de 2 camadas. O decodificador de vídeo escalável de 2 camadas arquitetura da Figura 4 pode corresponder ao codificador escalável na Figura 3, Por exemplo, o demultiplexador (por exemplo, o DEMUX 4002) pode separar o fluxo de bits escalável na camada de base e os fluxos de bits de camada de realce. A camada de base decodificador 4006 pode decodificar o fluxo de bits de camada de base e pode reconstruir a camada de base vídeo. O decodificador de camada de realce 4004 pode decodificar o fluxo de bits da camada de realce. O decodificador de camada de realce pode fazer o mesmo com o uso de informações da camada atual e/ou informações de uma ou mais camadas dependentes (por exemplo, a camada de base). Por exemplo, tais informações de uma ou mais camadas dependentes podem passar por processamento de intercamada, que pode ser cumprido quando ILP de nível de imagem e/ou ILP de nível de bloco são usados. Embora não mostrado nas Figuras 3 e 4, informações adicionais de ILP podem ser multiplexadas juntas aos fluxos de bits de camada de realce e de base no MUX 3014. As informações de ILP podem ser demultiplexadas pelo DEMUX 4002.
[0027] A Figura 7 é um sistema de codificação escalável de duas camadas de exemplo com suporte de ILP de nível de imagem. O codificador de BL 7006 (por exemplo, um codificador de HEVC) na Figura 7 pode codificar a entrada de vídeo BL com o uso de uma combinação de previsão temporária e/ou espacial, tal como, mas sem limitação, conforme discuto com referência à Figura 5. O codificador de BL pode estabelecer uma camada de base DPB 7010 para armazenar as imagens reconstruídas para realizar previsão de sinal de vídeo de entrada, por exemplo, através de temporal previsão compensada de movimento. Na camada de realce, o codificador de EL7004 pode operar de uma maneira substancialmente semelhante ao codificador de BL 7006. A camada de realce DPB 7008 que pode fornecer imagens de referência para a previsão do vídeo de EL de entrada pelo codificador de EL pode incluir imagens de referência a partir da camada de realce atual e/ou imagens de referência a partir do DPB de uma ou mais camadas dependentes (por exemplo, um DPB por BL 7010, conforme ilustrado na Figura 7). As imagens de referência do DPB por BL podem ser processadas pela unidade de processamento e gerenciamento de previsão intercamada 7012 antes de serem usadas para prever o vídeo de EL. A unidade de processamento e gerenciamento de previsão intercamada 7012 pode processar imagens do DPB por BL 7010 antes de usar os mesmos para prever o vídeo de EL. A unidade de processamento e gerenciamento de ILP 7012 pode processar uma ou mais imagens de referência armazenadas no DPB por BL 7010 em um formato que é adequado para previsão da vídeo de camada de realce. A unidade de processamento e gerenciamento de ILP 7012 pode gerenciar as imagens de referência processadas e decidir de maneira adaptável quais das imagens processadas podem ser usadas como previsão para o vídeo de EL pelo codificador de EL7004.
[0028] A unidade de processamento e gerenciamento de ILP pode processar as imagens de referência armazenadas no DPB por BL em um formato que pode ser adequado para previsão do vídeo de camada de realce. A natureza do processamento pode ser baseada no tipo de escalabilidade entre a BL e a EL. Por exemplo, caso o vídeo de BL e o vídeo de EL sejam de resoluções espaciais diferentes, o processamento pode envolver aumenta de resolução a fim de alinhar as resoluções espaciais de BL EL. O processamento pode transportar os parâmetros usados no processo de aumento de resolução. Por exemplo, a unidade de processamento e gerenciamento de ILP 7012 pode estabelecer uma definição predefinida de filtros de aumento de resolução. A unidade de processamento e gerenciamento de ILP 7012 pode escolher um ou mais dentre filtros de aumento de imagem predefinidos para aumentar em resolução as imagens no DPB por BL e pode enviar a os um ou mais índices de filtro correspondentes no fluxo de bits. Por exemplo, o decodificador pode realizar o mesmo processo de aumento de resolução de imagem. A unidade de processamento e gerenciamento de LLP pode derivar (por exemplo, derivar adaptavelmente) os um ou mais filtros de aumento de resolução de imagem que são vantajosos de se usar (por exemplo, no sentido de que referências com resolução aumentada podem ser usadas para prever o vídeo de EL de maneira mais eficaz e produzir características de distorção de taxa mais favoráveis). Quando os filtros de aumento de resolução de imagem adaptáveis são usados, os coeficientes de filtro e os tamanho de toque de filtro podem ser incluídos no fluxo de bits.
[0029] Em outro exemplo de escalabilidade de SNR ou de qualidade, o vídeo de BL e o vídeo de EL podem ter a mesma resolução. O vídeo de BL pode ser codificado com quantização mais rústica (por exemplo, taxa de bit inferior com qualidade inferior), enquanto que o vídeo de EL pode ser codificado com quantização mais fina (por exemplo, taxa de bit maior com qualidade maior). A unidade de processamento e gerenciamento de ILP 7012 pode realizar tipos de operações de eliminação de ruído e/ou imagem restauração nas imagens de referência no DPB por BL 7010. Tais operações de eliminação de ruído ou de restauração podem incluir, mas sem limitação, filtros adaptáveis (por exemplo, com em base em conjuntos de procedimentos dos quadrados mínimos ou LS), deslocamentos adaptáveis de amostra (SAO) (por exemplo, conforme podem ser suportados por HEVC), e/ou outros tipos de filtros de eliminação de ruído alvejados em, por exemplo, reduzir ruído de quantização. Os parâmetros correspondentes que podem ser usados nas operações de eliminação de ruído ou restauração podem ser sinalizados ao decodificador. Tais conjuntos de procedimentos de eliminação de ruído ou restauração podem ser combinados com processo de aumento de resolução para aprimorar a eficácia de previsão para a escalabilidade espacial case. Conforme ilustrado na Figura 7, o fluxo de bits de EL codificado, o fluxo de bits de BL codificado e as informações de ILP podem ser multiplexadas (por exemplo, o MUX 7014) no fluxo de bits de HEVC escalável.
[0030] Como um exemplo de escalabilidade de visualização, o vídeo de BL e o vídeo de EL podem representar duas visualizações de um vídeo 3D estereoscópico. O vídeo de BL pode representar uma visualização e o vídeo de EL pode representar a outra visualização complementar. A unidade de processamento e gerenciamento de ILP pode aplicar compensação de disparidade às imagens de referência no DPB por BL, de modo que os mesmos se tornem sinal de previsão eficaz para o vídeo de EL. Para um decodificador realizar a mesma compensação de disparidade processamento, os parâmetros usados durante a compensação de disparidade (por exemplo, os parâmetros de transformação afim, caso a transformação afim seja usada e/ou os parâmetros de deformação, caso deformação seja usada) podem ser sinalizados no fluxo de bits.
[0031] A tabela 2 ilustra uma lista de exemplos de funções que a unidade de processamento e gerenciamento de ILP pode realizar e os tipos de escalabilidade correspondentes para os quais a função específica pode ser usada. Tabela 2
Figure img0003
[0032] A unidade de processamento e gerenciamento de ILP pode gerenciar as imagens de referência processadas e pode decidir (por exemplo, decidir de maneira adaptável) quais das imagens de referência podem ser usadas como previsão pelo codificador de EL. A unidade de processamento e gerenciamento de ILP podem determinar quantos e quais das imagens de ILP processadas podem ser usadas para previsão da camada de realce atual imagem. A Figura 9 é um diagrama que ilustra um exemplo de um sistema de duas camadas com previsão temporária e previsão intercamada habilitadas para codificação de camada de realce. Para previsão temporária, a estrutura de previsão na Figura, 9 pode ser denominada de previsão B hierárquica. Para uma imagem de EL, imagens de referência da mesma podem ser uma combinação de imagens de referência no domínio temporário, imagem do mesmo posicionadas na BL, e/ou as imagens de referência temporárias da imagem de BL posicionadas. Por exemplo, imagem EL2 9006 pode ser prevista a partir de referências temporais (por exemplo, EL0 9004 e/ou EL4 9008) e/ou referências intercamada (BL2 9010, BL0 9002, BL4 9012). A coleta de referências intercamada (BL2, BL0, BL4) pode ser processada pela unidade de processamento e gerenciamento de ILP antes ser usada para prever a imagem de EL2 9006. Conforme descrito no presente documento, o processamento de ILP pode processar as imagens de referência de BL em um formato que pode ser adequado para EL (por exemplo, resolução espacial adequada, profundidade de bit, etc.), e/ou aprimorar a qualidade de previsão de referências de ILP, por exemplo, aplicando-se eliminação de ruído e/ou restauração nas imagens camada de base.
[0033] As imagens de referência de ILP processadas podem fornecer sinais de previsão eficaz. Escolher a partir de mais referências na camada de realce pode causar problemas. Por exemplo, no nível de bloco, uma sobrecarga de sinalização para indicar qual(is) imagem(s) de referência podem ser selecionadas para obter sinal de previsão(s) pode aumentar. A complexidade de codificação também pode aumentar à medida que estimativa de movimento sobre uma definição estendida de imagens de referência pode ser realizada. A seleção e gerenciamento de imagem de referência pode fornecer codificação escalável eficiente sem aumento na complexidade.
[0034] A Figura 10 é um diagrama de uma unidade de processamento e gerenciamento de ILP de exemplo. Na situação de tempo "t", a camada de base imagem posicionada BLt 1054 com a imagens de referência da esma BLt- 1, BLt-2 e BLt+1 a partir do DPB por BL 1056, pode ser processada para se tornar ILPt, ILPt-1 , ILPt-2, ILPt+1. Essas referências de ILP com as referências temporais ELt-1, ELt-2 e ELt+1, podem ser examinadas pela unidade de gerenciamento de ILP 1064. Um subconjunto pode ser selecionado. No exemplo da Figura 10, as imagens de referência selecionadas podem incluir imagens de referência intercamada não posicionadas (por exemplo, ILPt+1 1070). Para exemplo adicional, as imagens de referência selecionadas podem incluir mais de uma imagem de referência que pode corresponder à mesma situação de tempo (por exemplo, ILPt-M 1070 e EL H i 1068).
[0035] Por exemplo, a unidade de gerenciamento de ILP 1064 pode realizar uma estimativa de movimento (por exemplo, estimativa de movimento de pixel de número inteiro) entre uma imagem de EL atual, ELt e uma ou mais dentre as referências na definição combinada de referências temporárias e intercamada (ELt-1, ELt-2, ELt+1, ILPt, ILPt-1, ILPt-2, ILPt+1). A unidade de gerenciamento de ILP 1014 pode coletar a distorção de estimativa de movimento (por exemplo, Soma de Erro Quadrado, Erro Quadrado Médio e/ou Soma de Distorção de Transformação Absoluta) entre a imagem atual e um ou mais dentre as imagens de referência examinadas. A unidade de gerenciamento de ILP 1064 pode selecionar um subconjunto de imagens de referência que resulta em distorção de estimativa de movimento inferior a um limiar predeterminado. A unidade de processamento e gerenciamento de ILP 1064 pode selecionar um subconjunto de imagens de referência na ordem de aumentar distorção até um número predefinido de referências ter sido selecionado. Codificação de múltiplas passagens pode ser usada para realizar as operações de gerenciamento de ILP. Por exemplo, uma primeira passagem de codificação pode ser usada para obter estatísticas de codificação de vídeo adequadas para selecionar o subconjunto de imagens de referência e uma ou mais passagens de codificação de subsequentes pode ser usada para codificar a imagem de EL atual, até o desempenho de codificação (por exemplo, em termos das características de distorção de taxa do mesmo) pode ser considerado satisfatório. Conforme ilustrado na Figura 10, a unidade de gerenciamento de ILP 1064 pode tomar um vídeo de camada de realce como uma das entradas da mesma quando se determina quais imagens de referência usar.
[0036] Realizar ILP de nível de imagem pode permitir que a lógica de codificação e decodificação de nível baixo subjacente para permanecer substancialmente a mesma conforme aquelas usadas em um sistema não escalável de camada única. Por exemplo, conforme ilustrado na Figura 7, a camada de realce codificador (por exemplo, um codificador de HEVC) pode operar substancialmente da mesma maneira que a camada de base codificador (por exemplo, codificador de HEVC) com possível exceção de mínima reconfiguração no nível de imagem ou de fatia (por exemplo, para incluir imagens de referência intercamada). A unidade de processamento e gerenciamento de ILP pode habilitar codificação escalável. A unidade de processamento e gerenciamento de ILP pode operar como blocos adicionais no sistema. Tais características podem ser muito desejáveis para muitas aplicações, visto que o projeto de codificador e decodificador de camada única pode ser reusado ao máximo, então, reduzindo a complexidade de implantação significantemente.
[0037] O codificador de EL 7004 na Figura 7 pode sinalizar vários parâmetros usados durante o processamento de ILP e gerenciamento de ILP para que o decodificador de EL 8004 na Figura 8 possa construir e usar as mesmas referências intercamada. Tais informações, denominadas no presente documento como informações de ILP, podem ser enviadas como parte do fluxo de bits escalável. Conforme ilustrado na Figura 7, a unidade de processamento e gerenciamento de ILP 7012 pode empacotar as informações de ILP separadamente dos pacotes que contêm dados de vídeos codificados do vídeo da BL e da EL. As informações de ILP podem ser enviadas separadamente dos pacotes de vídeo para implantar a unidade de processamento e gerenciamento de ILP de uma maneira independente e para reduzir a complexidade de implantação. Por exemplo, um HEVC e H.264, as unidades de Camada de Abstração de Rede (NAL) podem ser usadas como unidades de empacotamento. Para sistemas escaláveis que usam HEVC e H.264 como codecs subjacentes de camada única, a unidade de processamento e gerenciamento de ILP pode enviar as informações de ILP separadas das unidades de NAL. Na Figura 7, por exemplo, o MUX 7014 pode multiplexar as unidades de NAL que carregam informações de ILP com o fluxo de bits de EL e o fluxo de bits de BL. Por exemplo, conforme mostrado na Figura 8, a unidade de DEMUX 8002 pode receber um fluxo de bits escalável que contém unidades de NAL que correspondem a fatias/imagens codificadas por BL, fatias/imagens codificadas por EL e informações de ILP. A unidade de DEMUX pode demultiplexar o fluxo de bits e enviar as unidades de NAL que correspondem às fatias/imagens codificadas por BL para o decodificador de BL, as unidades de NAL que correspondem às fatias/imagens codificadas por EL para o decodificador de EL, e as unidades de NAL que correspondem às informações ILP para a unidade de processamento e gerenciamento de ILP.
[0038] Sistemas escaláveis de codificação de vídeo podem usar o Conjunto de Parâmetros de Adaptação (APS) em HEVC para transportar as informações de ILP necessárias pela unidade de processamento e gerenciamento de ILP. Os pacotes de APS podem ser unidades de NAL separadas, por exemplo, com um nal_unit_type específico. As unidades APS NAL podem incluir parâmetros de codificação usados em uma camada única de codificação, por exemplo, parâmetros de Ciclo de Filtragem Adaptativa (ALF) e/ou parâmetros de filtragem de desbloqueio. A cada unidade APS NAL pode ser assinalada uma aps_id, que pode ser usada por uma fatia codificada para identificar de qual APS obter esses parâmetros de codificação. A sintaxe de APS em HEVC pode conter uma bandeira de um bit aps_extension_flag. Por exemplo, quando a bandeira de extensão aps é definida para 1, dados adicionais de APS podem seguir. O sistema escalável revelado no presente documento pode carregar as informações de ILP como parte da extensão APS. As informações de ILP podem incluir os parâmetros de processamento de ILP (por exemplo, filtros de aumento de resolução de imagem se a escalabilidade espacial estiver habilitada, parâmetros de compensação de disparidade se a escalabilidade de visualização estiver habilitada, parâmetros de mapeamento de tom inverso se a profundidade de escalabilidade de bit estiver habilitada, etc.). As informações de ILP podem incluir os parâmetros de gerenciamento de ILP. Os parâmetros de gerenciamento de ILP podem especificar um subconjunto de referências temporais e/ou referência intercamadas para prever a imagem de EL atual, podem ser combinados com outra sinalização de imagem de referência. O parâmetro de gerenciamento de ILP pode não fazer parte da extensão de APS e pode ser sinalizado como parte do cabeçalho de segmento de fatia.
[0039] O processamento de intercamada pode recuperar a textura reconstruída da camada de base DPB e aplicar técnicas de filtração avançadas e pode depender de determinados modos e informações de movimento do fluxo de bits de camada de base durante o processamento de intercamada, por exemplo, a fim de aprimorar a eficácia de codificação na camada de realce. A ILP pode utilizar as informações de camada de base além dos dados de textura reconstruída da DPB da BL. Um Filtro Direcional Dependente de Intramodo (Intra Mode Dependent Directional Filter (IMDDF)) pode ser fornecido. Por exemplo, os modos de intraprevisão dos blocos de camada de base intracodificados podem ser usados para escolher os filtros direcionais adequados a serem aplicados nas imagens reconstruídos de camada de base antes do uso das mesmas para a previsão de intercamada durante a codificação de camada de realce. O Mapeamento de Campo de Movimento (Motion Field Mapping (MFM)) pode ser fornecido. As informações de movimento em bloco (por exemplo, que podem incluir índices de imagem de referência e vetores de movimento) a partir do fluxo de bits de camada de base podem ser mapeados para formar campos de movimento "virtual" para a imagem de ILRs. Os campos de movimento virtual mapeados podem ser usados para prever o movimento de camada de realce, por exemplo, através de previsão de vetor de movimento temporal (TMVP) suportada por HEVC.
[0040] As informações de modo e movimento dos fluxos de bits de camada de base podem estar ou não disponíveis, dependendo da implantação específica do decodificador de BL. Por exemplo, se o sistema de decodificação escalável na Figura 8 usar uma implantação de ASIC de HEVC como seu decodificador de BL, o decodificador de BL pode não fornecer as informações de modo e movimento para a unidade de processamento e de gestão de ILP através das interfaces de programação aberta de aplicativo (APIs). O processamento de ILP avançado pode ser desabilitado quando as informações de modo e movimento (por exemplo, conforme ilustrado na Figura 8 através da linha de traço e ponto) da camada de base não estiverem disponíveis.
[0041] A escalabilidade de padrão pode permitir que o codec de BL e o codec de EL, por exemplo, os codecs da Figura 7 e da Figura 8, sejam codecs diferentes. Por exemplo, o codec de BL pode usar o padrão H.264/AVC e o codec de EL pode usar o padrão HEVC. Quando os codecs de BL e de EL são diferentes, determinadas informações que podem ser úteis para o codec de EL podem não existir automaticamente no codec de BL. Por exemplo, o padrão HEVC pode utilizar Conjuntos de Imagem de Referência (Reference Picture Sets (RPS)) para alcançar o gerenciamento de DPB. No padrão H.264/AVC, a funcionalidade similar ao RPS pode ser fornecida através de uma combinação de gerenciamento de DPB de janela deslizante e Opções de Comando de Gerenciamento de Memória (Memory Management Command Options (MMCO)). Se o codec de EL realizar a previsão de RPS de intercamada, por exemplo, de acordo com uma ou mais dentre as implantações descritas neste documento e se o codec de BL não produzir as informações de RPS devido ao fato de que as mesmas podem ser baseadas em H.264/AVC, a previsão de RPS de intercamada pode não ser aplicada de uma maneira direta. Em alguns casos, um ou mais tipos de informações úteis para o codec de EL podem não estar disponíveis, por exemplo, se o codec de BL usar um padrão diferente do codec de EL.
[0042] Por exemplo, as informações de fluxo de bits de vídeo de camada de base (BL) podem não estar disponíveis devido às restrições de implantação e/ou podem não estar em um formato adequado para ser usado para a codificação eficaz de vídeo de EL. As implantações descritas neste documento podem incluir uma unidade de processamento e de gestão de ILP realçada. A unidade de ILP realçada pode realizar funções adicionais para aprimorar a eficácia de codificação e/ou para fornecer a flexibilidade máxima de modelo ao sistema de codificação escalável.
[0043] Uma unidade de ILP realçada pode ser fornecida. A unidade de ILP realçada pode ser utilizada para superar as restrições (por exemplo, restrições de implantação) sem reduzir a eficácia de codificação escalável. A unidade de ILP realçada pode processar as imagens de referência armazenadas na DPB de BL em um formato que pode ser adequado para a previsão do vídeo de camada de realce. A unidade de ILP realçada pode gerenciar as imagens de referência processadas e/ou decidir (por exemplo, decidir de maneira adaptativa) quais dentre as imagens processadas devem ser usadas como previsão para o vídeo de EL pelo codificador de EL. A unidade de ILP realçada pode extrair as informações de modo e movimento dos fluxos de bits de camada de base que podem ser utilizados para a previsão de intercamada. Por exemplo, a unidade de ILP realçada pode usar as informações de modo e movimento extraídas para processar as imagens de referência armazenadas na DPB de BL em um formato que pode ser adequado para a previsão do vídeo de camada de realce. A unidade de ILP realçada pode traduzir as informações do fluxo de bits de camada de base, por exemplo, em um formato adequado para serem usadas na codificação de camada de realce. Por exemplo, a unidade de ILP realçada pode traduzir o gerenciamento de DPB de janela deslizante e MMCO usados em um codec de BL H.264/AVC em RPS a ser usado por um codec HEVC na EL.
[0044] A Figura 12 é um diagrama que ilustra um exemplo de um sistema de decodificação escalável que pode usar uma unidade de ILP realçada 1202. Conforme ilustrado na Figura 12, a unidade de ILP realçada 1202 pode realizar uma ou mais funções incluindo, por exemplo processar, gerenciar, extrair ou traduzir as informações. A unidade de ILP realçada 1202 pode utilizar uma imagem reconstruída de BL e aplicar as técnicas de processamento de intercamada de acordo com as informações de ILP fornecidas pelo demultiplexador de fluxo de bits (DEMUX) para produzir uma imagem reconstruída de BL processada. Se o decodificador de BL 1212 não puder fornecer as informações utilizadas para o processamento de intercamada (por exemplo, o decodificador de BL 1212 fornece as imagens de BL reconstruídas, mas não fornece as informações de modo e movimento do fluxo de bits de BL), a unidade de ILP realçada 1202 pode derivar as informações (por exemplo, por meio da função de extração da unidade de ILP realçada, por exemplo, conforme descrito neste documento). Uma ou mais imagens reconstruídas de BL processadas podem ser inseridas na DPB de EL 1214 para a codificação de camada de realce.
[0045] A unidade de ILP realçada 1202 pode utilizar as informações de ILP fornecidas por um DEMUX 1216 e pode determinar quais dentre a uma ou mais imagens reconstruídas de BL processadas podem ser inseridas na DPB de EL 1214. A unidade de ILP realçada pode determinar a ordem das imagens reconstruídas de BL processadas. As informações de BL podem não estar no formato adequado para a unidade de ILP realçada (por exemplo, para a função de gerenciamento da unidade de ILP realçada). Por exemplo, as informações de BL podem não estar no formato adequado se o fluxo de bits de BL for codificado com o uso de um padrão diferente daquele usado pelo codec de EL. Se as informações de BL não estiverem no formato adequado para a unidade de ILP realçada 1202, a unidade de ILP realçada 1202 pode reformatar e/ou traduzir as informações de BL para o formato adequado (por exemplo, por meio de da função de tradução da unidade de ILP realçada 1202, por exemplo, conforme descrito neste documento). Conforme ilustrado pelo exemplo na Figura 5, a unidade de ILP realçada 1202 pode utilizar as informações de BL traduzidas para realizar o gerenciamento de armazenamento temporário de imagem de referência adequado.
[0046] A unidade de ILP realçada 1202 pode extrair as informações de BL. Por exemplo, se as informações de vídeo de BL puderem ser utilizadas pela unidade de ILP realçada (por exemplo, para a função de processamento da unidade de ILP realçada) mas não estiverem disponíveis a partir do decodificador de BL, então, a unidade de ILP realçada pode analisar o fluxo de bits de BL e extrair as informações (por exemplo , tais como, mas sem limitações, as informações de modo e movimento de BL). As informações analisadas e extraídas podem ser usadas pela unidade de ILP realçada (por exemplo, através da função de processamento da unidade de ILP realçada). Por exemplo, as informações de modo de BL podem incluir, mas sem limitação, se os blocos de camada de base são inter ou intracodificados, os modos de infraprevisão direcional para blocos de camada de base infracodificados, etc. As informações de movimento de BL podem incluir, mas sem limitações, as partições de bloco de camada de base, as informações de direção de previsão de bloco de camada de base (por exemplo, uniprevisão ou biprevisão), os vetores de movimento de bloco de camada de base, os índices de imagem de referência de bloco de camada de base, etc.
[0047] A unidade de ILP realçada pode traduzir as informações de BL. Por exemplo, se as informações de vídeo de BL não estiverem no formato adequado para serem usadas pela codificação de camada de realce, então, a unidade de ILP realçada pode reformatar e traduzir as informações de vídeo de BL para um formato adequado para o uso para a codificação de camada de realce. Por exemplo, a unidade de ILP realçada pode reformatar e traduzir as informações de BL quando o sistema escalável (por exemplo, aqueles exemplificados na Figura 7 e na Figura 8) utiliza codecs de BL e de EL diferentes. Quando os codecs híbridos são usados no sistema escalável, a unidade de ILP realçada pode traduzir e preparar as informações do codec de BL para um formato adequado para serem usadas pelo codec de EL. Por exemplo, as informações de gerenciamento de DPB baseadas nos comandos de janela deslizante e MMCO de um codec de camada de base H.264/AVC podem ser traduzidas para RPS para a codificação de EL quando o codec de camada de realce usa HEVC. A unidade de ILP realçada pode reformatar e traduzir as informações de BL a partir de qualquer codec de BL para informações úteis através de qualquer codec de camada de realce. Conforme ilustrado na Figura 12, as saídas da unidade de ILP realçada podem incluir, por exemplo, as imagens de BL processadas que podem ser inseridas em uma Memória temporária de imagem decodificada (DPB) de EL 1214 para a previsão de intercamada eficaz. A unidade de ILP realçada pode emitir informações de modo e movimento de BL, informações de RPS traduzidas, etc.
[0048] A unidade de ILP realçada 1202 pode fornecer as informações que podem ser utilizadas para alcançar a codificação eficaz de vídeo escalável, por exemplo, quando tais informações adicionais não estão prontamente disponíveis a partir do codec de camada de base. A unidade de ILP realçada 1202 pode ser projetada para maximizar o uso de implantações de codec de camada única. A unidade de ILP realçada 1202 pode fornecer uma interface contínua e eficaz entre um codec de BL e um codec de EL, por exemplo, através da absorção das funções que a implantação de codec de camada única não pode realizar. Por exemplo, a unidade de ILP realçada 1202 pode permitir a codificação escalável eficaz sem afetar as funções de nível inferior dos codecs das camadas de base e de realce (por exemplo, intraprevisão, interprevisão, transformação, quantização, transformação inversa, quantização inversa, filtração de ciclo, reconstrução de bloco, etc.). A unidade de ILP realçada 1202 pode ser usada no interior de um sistema escalável que tem alta eficácia de codificação e pode suportar a arquitetura de codec híbrido (por exemplo, o codificador e/ou decodificador de camada de base e codificador e/ou decodificador de camada de realce podem utilizar codecs diferentes). A unidade de ILP realçada pode reduzir o custo de implantação e manter a eficácia de codificação escalável.
[0049] Com referência à Figura 3 e à Figura 4, a ILP de nível de bloco pode ser usada para aprimorar adicionalmente o desempenho de codificação escalável. Embora a ILP de nível de bloco possa exigir que o codificador e decodificador de camada de realce tenham lógicas subjacentes diferentes daqueles do codificador e decodificador de camada de base (por exemplo, sob a forma de modos de codificação adicionais, os contextos adicionais para a codificação aritmética, etc.), a ILP de nível de bloco pode permitir que o codificador escolha dentre um conjunto estendido de modos de operação baseados em considerações de distorção de taxa. As escolhas adicionais podem ser manifestadas sob a forma de desempenho de codificação escalável superior. Por exemplo, os padrões de codificação de vídeo podem ser sistemas de codificação de vídeo baseados em bloco híbrido com os diagramas de bloco mostrados na Figura 5 e Figura 6.
[0050] No caso de HEVC, os blocos de vídeo podem ser denominados unidade de previsão (PU) quando usados para a previsão, bloco de árvore codificado (CTB) quando usados como unidades de codificação e unidade de transformação (TU) quando usados para transformação e transformação inversa. A HEVC pode usar o particionamento baseado em quadtree (QT). Devido ao fato de que os sinais de vídeo da camada de base e da camada de realce podem ser correlacionados, os modos e tamanhos de codificação de bloco correspondentes (incluindo, mas sem limitações, PU, TU e CTB) podem ser correlacionados. Tal correlação pode ser usada pelo codificador e decodificador de camada de realce para aprimorar a codificação de QT dividindo os modos e/ou tamanhos de PU, TU e CTB na camada de realce. Isso pode reduzir a sinalização suspensa. Quando a escalabilidade espacial é habilitada entre as duas camadas, o ajuste de tamanho de bloco pode ser aplicado primeiro. Por exemplo, se o vídeo de EL e o vídeo de BL estiverem em uma razão espacial de 2: 1 (por exemplo, o vídeo de EL tem o dobro do tamanho em cada dimensão), então, os tamanhos de PU, TU e CTB de camada de base podem ser multiplicados por um fator de dois em cada dimensão antes de ser usado para prever os tamanhos de bloco da camada de realce. Os modos e/ou tamanhos de bloco da camada de base podem ser usados como contextos de codificador aritmético binário adicional para codificar os modos e/ou tamanhos de bloco da camada de realce. Os sistemas de codificação de vídeo podem atribuir as informações derivadas (por exemplo modos e/ou tamanhos) do blocos (por exemplo, uma PU, uma TU ou uma CTB) a uma imagem de intercamada de referência de nível de imagem. O dispositivo de codificação de vídeo pode usar tais informações derivadas dos blocos para prever um bloco em uma camada, por exemplo, a camada de EL.
[0051] Quando a previsão compensada de movimento é habilitada para uma imagem e/ou fatia de camada de base e de camada de realce na mesma situação de tempo t, os vetores de movimento da camada de base podem ser usados para prever os vetores de movimento na camada de realce. Por exemplo, quando a escalabilidade espacial é habilitada, os vetores de movimento da camada de base podem ser escalados adequadamente. Por exemplo, conforme ilustrado a título de exemplo na Figura 11, uma situação de tempo t na BL 1102, o bloco riscado horizontalmente 1104 pode ser previsto a partir da referência de BL na situação de tempo (t-1) com o vetor de movimento MVa 1106. O bloco riscado horizontalmente escalado na EL, se for previsto a partir da referência de EL na situação de tempo (t-1) 1108, pode ter um vetor de movimento cujos valores são próximos ao R*MVa, em que R pode ser a razão de escalagem espacial. Para o bloco riscado verticalmente 1110 na EL, o bloco riscado verticalmente de camada de base correspondente 1112 pode ser previsto a partir da situação de tempo (t-2) 1114 com o vetor de movimento MVb. O bloco riscado verticalmente escalado na EL, se for previsto a partir da referência de EL na situação de tempo (t-2) 1116, pode ter um vetor de movimento cujos valores são substancialmente próximos a R*MVb. Quando a escalabilidade de visualização é habilitada, os vetores de movimento da camada de base que representam uma primeira vista podem ser envolvidos e/ou transformados de modo afinado para compensar a disparidade de vista de modo que os mesmos possam ser correlacionados ao máximo com os vetores de movimento na camada de realce que representa uma segunda vista. Para aproveitar tais fortes correlações entre os vetores de movimento de intercamada, os vetores de movimento de camada baseada escalada (ou vetores de movimento envolvidos/transformados no caso de escalabilidade de visualização) podem ser usados como previsores de vetor de movimento para reduzir os bits de codificação de vetor de movimento de camada de realce.
[0052] A previsão de intercamada de nível de bloco pode envolver a previsão do sinal residual na camada de realce a partir do resíduo de camada de base. Por exemplo, a previsão residual pode ser realizada sendo que o residual de bloco de uma camada de base (por exemplo, após ter sua resolução aumentada até as dimensões adequadas se for necessário) pode ser subtraído da camada de realce residual para reduzir adicionalmente a energia de camada de realce residual e a quantidade de bits exigidos para codificar a mesma. As técnicas de previsão de intercamada de nível de bloco podem ser usadas para codificar a textura de EL (por exemplo, valores de pixel) de maneira similar àquelas usadas em SVC. No sistema escalável discutido acima, a previsão de textura pode ser fornecida sob a forma de ILP de nível de imagem.
[0053] Uma arquitetura escalável (por exemplo, uma arquitetura escalável flexível) para codificar vídeo de multicamada pode ser reconfigurada para dar suporte a qualquer um dos diferentes tipos de escalabilidades listadas na Tabela 1. Por exemplo, um modo de operação pode focar em ILP de nível de imagem. Por exemplo, uma unidade de processamento e gerenciamento de ILP pode processar imagens de referência de camada de base de modo que as definições de imagens de referência de camada de base possam estar em um formato adequado e possam fornecer um sinal de previsão apurado e eficaz para a codificação de vídeo por camada de realce. Por exemplo, uma unidade de processamento e gerenciamento de ILP pode selecionar uma subdefinição proveniente da combinação de referências temporais e referências intercamada processadas para conseguir quaisquer compensações computacionais de taxa, distorção e/ou complexidade favoráveis. Por exemplo, uma unidade de processamento e gerenciamento de ILP pode empacotar informações de ILP em unidades de NAL separadas de modo que operações de previsão intercamada possam ser realizadas com interferência mínima nas operações de codificador e decodificador de camada de base e de realce. A inclusão de ILP de nível de imagem pode reduzir a complexidade de implantação permitindo que o sistema escalável reuse ao máximo lógicas de codificador e decodificador de camada única nas camadas de base e de realce.
[0054] A Figura 13A é um diagrama de um sistema de comunicações exemplificativo 100 no qual uma ou mais modalidades reveladas podem ser implantadas. O sistema de comunicações 100 pode ser um sistema de acesso múltiplo que fornece conteúdo, tais como voz, dados, vídeo, mensagem, difusão, etc., para múltiplos usuários sem fio. O sistema de comunicações 100 pode permitir que múltiplos usuários sem fio acessem tal conteúdo através do compartilhamento de recursos de sistema, incluindo largura de banda sem fio. Por exemplo, os sistemas de comunicações 100 podem empregar um ou mais métodos de acesso a canal, tais como acesso múltiplo por divisão de código (CDMA), acesso múltiplo por divisão de tempo (TDMA), acesso múltiplo por divisão de frequência (FDMA), FDMA ortogonal (OFDM A), FDMA de carreador único (SC-FDMA), e similares.
[0055] Conforme mostrado na Figura 13A, o sistema de comunicações 100 pode incluir unidades de transmissão/recebimento (WTRUs) 102a, 102b, 102c, e/ou 102d (que geralmente ou coletivamente podem ser denominados WTRU 102), uma rede de acesso a rádio (RAN) 103/104/105, uma rede principal 106/107/109, uma rede pública de telefone chaveada (PSTN) 108, e Internet 110 e outras redes 112, embora se deva observar que as modalidades reveladas contemplam qualquer quantidade de WTRUs, estações-base, redes e/ou elementos de rede. Cada uma das WTRUs 102a, 102b, 102c, 102d pode ser qualquer tipo de dispositivo configurado para operar e/ou se comunicar em um ambiente sem fio. A título de exemplo, as WTRUs 102a, 102b, 102c, 102d podem ser configuradas para transmitir e/ou receber sinais sem fio e podem incluir uma unidade de transmissão/recebimento sem fio (WTRU), uma estação móvel, uma unidade de assinante fixa ou móvel, um pager, um telefone celular, um assistente pessoal digital (PDA), um telefone inteligente, um computador do tipo laptop, um computador do netbook, um computador pessoal, um sensor sem fio, produtos eletrônicos de consumo e similares.
[0056] Os sistemas de comunicações 100 também podem incluir uma estação-base 114A e uma estação-base 114B. Cada uma das estações-base 114A, 114B pode ser qualquer tipo de dispositivo configurado para fazer interface sem fio com pelo menos uma das WTRUs 102a, 102b, 102c, 102d para facilitar o acesso a uma ou mais redes de comunicação, tais como a rede principal 106/107/109, a Internet 110 e/ou as redes 112, a título de exemplo, as estações-base 114A, 114B podem ser uma estação de transceptor- base (BTS), um node-B, um eNode B, um Node B doméstico, um eNode B doméstico, um controlador de local, um ponto de acesso (AP), um roteador sem fio e similares. Embora as estações-base 114A, 114B sejam, cada uma, descritas como um elemento único, será observado que as estações-base 114A, 114B podem incluir qualquer quantidade de estações interconectadas de base e/ou elementos de rede.
[0057] A estação-base 114A pode ser parte da RAN 103/104/105, que também pode incluir outras estações-base e/ou elementos de rede (não mostrados), tais como um controlador de estação-base (BSC), um controlador de rede a rádio (RNC), nós de retransmissão, etc. A estação-base 114A e/ou a estação-base 114B pode ser configurada para transmite e/ou receber sinais sem fio dentro de uma região geográfica particular, que pode ser denominada célula (não mostrada). A célula pode ser adicionalmente dividida em setores de célula. Por exemplo, a célula associada à estação-base 14a pode ser dividida em três setores. Assim, em uma modalidade, a estação-base 114A pode incluir três transceptores, isto é, um para cada setor da célula. Em uma modalidade, a estação-base 114A pode empregar tecnologia de múltipla entrada e múltipla saída (MIMO) e, portanto, pode utilizar múltiplos transceptores para cada setor da célula.
[0058] As estações-base 114A, 114B podem se comunicar com uma ou mais das WTRUs 102a, 102b, 102c, 102d por uma interface aérea 115/116/117, que pode ser qualquer enlace de comunicação sem fio adequado (por exemplo, frequência de rádio (RF), microonda, infravermelho (IR), ultravioleta (UV), luz visível, etc.). A interface aérea 115/116/117 pode ser estabelecida com o uso de qualquer tecnologia de acesso a rádio adequada (RAT).
[0059] Mais especificamente, conforme verificado acima, o sistema de comunicações 100 pode ser um sistema de acesso múltiplo e pode empregar um ou mais esquemas de acesso de canal, tais como CDMA, TDMA, FDMA, OFDMA, SC-FDMA e similares. Por exemplo, a estação-base 114A na RAN 103/104/105 e as WTRUs 102a, 102b, 102c podem implantar uma tecnologia a rádio tal como Sistema de Telecomunicações Móvel Universal (UMTS) Acesso Terrestre a Rádio Access (UTRA), que podem estabelecer uma interface aérea 115/116/117 com o uso de CDMA de banda larga (WCDMA). O WCDMA pode incluir protocolos de comunicação tais como Acesso de Pacote de Alta Velocidade (HSPA) e/ou HSPA Evoluído (HSPA+). O HSPA pode incluir Acesso de Pacote de Enlace Descendente de Alta Velocidade (HSDPA) e/ou Acesso de Pacote de Enlace Ascendente de Alta Velocidade (HSUPA).
[0060] Em uma modalidade, a estação-base 114A e as WTRUs 102a, 102b, 102c podem implantar uma tecnologia a rádio tal como um Acesso Terrestre a Rádio de UMTS Evoluído (E-UTRA), que pode estabelecer a interface aérea 115/116/117 com uso de Evolução a Longo Prazo (LTE) e/ou LTE-Avançada (LTE-A).
[0061] Em uma modalidade, a estação-base 114A e as WTRUs 102a, 102b, 102c podem implantar tecnologias de rádio tais como IEEE 802.16 (isto é, Interoperabilidade em escala Mundial para Acesso por Micro-onda (WiMAX)), CDMA2000, CDMA2000 IX, CDMA2000 EV- DO, Padrão Interino 2000 (IS-2000), Padrão Interino 95 (18-95), Padrão Interino 856 (IS- 856), Sistema Global para Comunicações Móveis (GSM), Taxas de Dados Realçados para Evolução de GSM (EDGE), GSM EDGE (GERAN) e similares.
[0062] A estação-base 114B na Figura 13A pode ser um roteador sem fio, um Node B doméstico, um eNode B doméstico ou ponto de acesso, por exemplo, e pode utilizar qualquer RAT adequada para facilitar a conectividade sem fio em uma área localizada, tal como uma local de negócios, uma casa, um veículo, um campus universitário e similares. Em uma modalidade, a estação-base 114B e as WTRUs 102c, 102d podem implantar uma tecnologia a rádio tal como IEEE 802.11 para estabelecer uma rede de área local sem fio (WLAN). Em uma modalidade, a estação-base 114B e as WTRUs 102c, 102d podem implantar uma tecnologia a rádio tal como IEEE 802.15 para estabelecer uma rede de área pessoal sem fio (WPAN). Ainda em uma modalidade, a estação-base 114B e as WTRUs 102c, 102d podem utilizar uma RAT com base em célula (por exemplo, WCDMA, CDMA2000, GSM, LTE, LTE-A, etc.) para estabelecer uma picocélula ou femtocélula. Conforme mostrado na Figura 13A, a estação-base 114B pode ter uma conexão direta com a Internet 110. Assim, a estação-base 114B pode não ser exigida para acessar a Internet 110 através da rede principal 106/107/109.
[0063] A RAN 103/104/105 pode estar em comunicação com a rede principal 106/107/109, que pode ser qualquer tipo de rede configurada para fornecer voz, dados, aplicativos e/ou serviços de protocolo de voz por internet (VoIP) para uma ou mais dentre as WTRUs 102a, 102b, 102c, 102d. Por exemplo, a rede principal 106/107/109 pode fornecer controle de chamadas, serviços de fatura, serviços com base em localização móvel, chamada pré-paga, conectividade de Internet, distribuição de vídeo, etc. e/ou realizar funções de segurança de alto nível, tais como autenticação de usuário. Embora não mostrado na Figura 13 A, será observado que a RAN 103/104/105 e/ou a rede principal 106/107/109 pode estar em comunicação direta ou indireta com outras RANs que empregam a mesma RAT que a RAN 103/104/105 ou uma RAT diferente. Por exemplo, adicionalmente a estar conectado à RAN 103/104/105, que pode estar utilizando uma tecnologia a rádio E-UTRA, a rede principal 106/107/109 também pode estar em comunicação com uma RAN (não mostrada) que emprega uma tecnologia a rádio GSM.
[0064] A rede principal 106/107/109 também pode servir como uma porta de comunicação para que as WTRUs 102a, 102b, 102c, 102d acessem a PSTN 108, a Internet 110 e/ou outras redes 112. A PSTN 108 pode incluir redes de telefone comutadas em circuito que fornecem serviço telefônico comum (POTS). A Internet 110 pode incluir um sistema global de redes e dispositivos de computadores interconectadas que usam protocolos de comunicação comuns, tais como o protocolo de controle de transmissão (TCP), protocolo de datagrama de usuários (UDP) e o protocolo de internet (TP) no conjunto de programas de protocolo de internet TCP/IP. As redes 112 podem incluir redes de comunicações com fio ou sem fio possuída e/ou operada por outros fornecedores de serviço. Por exemplo, as redes 112 podem incluir uma rede principal conectada a uma ou mais RANs, que podem empregar a mesma RAT que a RAN 103/104/105 ou uma RAT diferente.
[0065] Algumas ou todas as WTRUs 102a, 102b, 102c, 102d no sistema de comunicações 100 podem incluir capacidades multimodo, isto é, as WTRUs 102a, 102b, 102c, 102d podem incluir múltiplos transceptores para se comunicar com diferentes redes sem fio por diferentes enlaces sem fio. Por exemplo, a WTRU 102c mostrada na Figura 13A pode ser configurada para se comunicar com a estação-base 114A, que pode empregar uma tecnologia a rádio com base em celular e com a estação-base 114B, que pode empregar uma tecnologia a rádio IEEE 802.
[0066] A Figura 13B é um diagrama de sistema de uma WTRU 102 exemplificativa. Conforme mostrado na Figura 13B, a WTRU 102 pode incluir um processador 118, um transceptor 120, um elemento de transmissão/recebimento 122, um autofalante/microfone 124, um teclado numérico 126, um visor/touchpad 128, memória não removível 130, memória removível 132, uma fonte de energia 134, um conjunto de chips de sistema de posicionamento global (GPS) 136 e outros periféricos 138. Será observado que a WTRU 102 pode incluir qualquer subcombinação dos elementos supracitados embora continue consistente com uma modalidade. Também, as modalidades contemplam que as estações-base 114A e 114B e/ou os nós que as estações- base 114A e 114B podem representar, tais como mas não limitadas à estação de transceptor (BTS), um Node-B, um controlador de local, um ponto de acesso (AP), um node-B doméstico, um node-B doméstico evoluído (eNodeB), um node-B evoluído domesticamente evoluído (HeNB), uma porta de comunicação de node-B evoluído domesticamente e nós proxy, entre outros, podem incluir alguns ou cada um dos elementos descritos na Figura 13B e no presente documento.
[0067] O processador 118 pode ser um processador para propósitos gerais, um processador para propósitos específicos, um processador convencional, um processador de sinal digital (DSP), uma pluralidade de microprocessadores, um ou mais microprocessadores associados a um núcleo DSP, um controlador, um microcontrolador, Circuitos Integrados de Aplicação Específica (ASICs), circuitos de Arranjo de Portas Programável em Campo (FPGAs), qualquer outro tipo de circuito integrado (IC), uma máquina de estado e similares. O processador 118 pode realizar codificação de sinal, processamento de dados, controle de potência, processamento de entrada/saída e/ou qualquer outra funcionalidade que permita que a WTRU 102 opere em um ambiente sem fio. O processador 118 pode ser acoplado ao transceptor 120, que pode ser acoplado ao elemento de transmissão/recebimento 122. Embora a Figura 13B descreva o processador 118 e o transceptor 120 como componentes separados, será observado que o processador 118 e o transceptor 120 podem estar integrados juntos em um pacote ou chip eletrônico.
[0068] O elemento de transmissão/recebimento 122 pode ser configurado para transmitir sinais para ou receber sinais de uma estação-base (por exemplo, a estação-base 114A) pela interface aérea 115/116/117. Por exemplo, em uma modalidade, o elemento de transmissão/recebimento 122 pode ser uma antena configurada para transmitir e/ou receber sinais de RF. Em uma modalidade, o elemento de transmissão/recebimento 122 pode ser um emissor/detector configurado para transmitir e/ou receber sinais de IR, UV ou luz visível, por exemplo. Ainda em uma modalidade, o elemento de transmissão/recebimento 122 pode ser configurado para transmitir e receber tanto os sinais de RF e de luz. Será observado que o elemento de transmissão/recebimento 122 pode ser configurado para transmitir e/ou receber qualquer combinação de sinais sem fio.
[0069] Adicionalmente, embora o elemento de transmissão/recebimento 122 seja descrito na Figura 13B como um elemento único, a WTRU 102 pode incluir qualquer quantidade de elementos de transmissão/recebimento 122. Mais especificamente, a WTRU 102 pode empregar tecnologia de MIMO. Assim, em uma modalidade, a WTRU 102 pode incluir dois ou mais elementos de transmissão/recebimento 122 (por exemplo, múltiplas antenas) para transmitir e receber sinais sem fio pela interface aérea 115/116/117.
[0070] O transceptor 120 pode ser configurado para modular os sinais que devem ser transmitidos pelo elemento de transmissão/recepção 122 e demodular os sinais que são recebidos pelo elemento de transmissão/recebimento 122. Conforme verificado acima, a WTRU 102 pode ter capacidades multimodo. Assim, o transceptor 120 pode incluir múltiplos transceptores para permitir que a WTRU 102 se comunique através de múltiplas RATs, tais como UTRA e IEEE 802.11, por exemplo.
[0071] O processador 118 da WTRU 102 pode ser acoplado e pode receber dados inseridos do autofalante/microfone 124, do teclado numérico 126 e/ou do visor/touchpad 128 (por exemplo, uma unidade de exibição de visor de cristal líquido (LCD) ou unidade de exibição de díodo emissor de luz orgânico (OLED)). O processador 118 também pode gerar dados de usuário para o autofalante/microfone 124, o teclado numérico 126 e/ou o visor/touchpad 128. Adicionalmente, o processador 118 pode acessar informações e armazenar dados em qualquer tipo de memória adequado, tal como a memória não removível 130 e/ou a memória removível 132. A memória não removível 130 pode incluir memória de acesso aleatório (RAM), memória de leitura única (ROM), um disco rígido ou qualquer outro tipo de dispositivo de armazenamento de memória. A memória removível 132 pode incluir um cartão de módulo de identidade do usuário (SIM), um cartão de memória, um cartão de memória seguro digital (SD) e similares. Em uma modalidade, o processador 118 pode acessar informações e armazenar dados em, uma memória que não esteja fisicamente localizada na WTRU 102, tal como em um servidor ou um computador doméstico (não mostrado).
[0072] O processador 118 pode receber potência proveniente da fonte de energia 134 e pode ser configurado para distribuir e/ou controlar a potência para os outros componentes na WTRU 102. A fonte de energia 134 pode estar em qualquer dispositivo adequado para potencializar a WTRU 102. Por exemplo, a fonte de energia 134 pode incluir uma ou mais baterias de célula seca (por exemplo, níquel-cádmio (NiCd), níquel-zinco (NiZn), hidreto metálico de níquel (NiMH), lítio-íon (Li-íon), etc.), células solares, células de combustível e similares.
[0073] O processador 118 também pode ser acoplado ao conjunto de chips de GPS 136, que pode ser configurado para fornecer informações de localização (por exemplo, longitude e latitude) em relação à localização atual da WTRU 102. Além ou em lugar disso, as informações do conjunto de chips de GPS 136, a WTRU 102 pode receber informações de localização pela interface aérea 115/116/117 de uma estação-base (por exemplo, estações-base 114A, 114B) e/ou determina sua localização com base no intervalo dos sinais que são recebidos de duas ou mais estações-base próximas. Será verificado que a WTRU 102 pode adquirir informações de localização através de qualquer método de determinação-localização adequado enquanto permanece consistente com uma modalidade.
[0074] O processador 118 pode ser adicionalmente acoplado a outros periféricos 138, que podem incluir um ou mais módulos de software e/ou hardware que fornecem recursos adicionais, funcionalidade e/ou conectividade com fio ou sem fio. Por exemplo, os periféricos 138 podem incluir um acelerômetro, uma bússola eletrônica, um transceptor de satélite, uma câmera digital (para fotografias ou vídeos), uma porta serial universal (USB), um dispositivo de vibração, um transceptor de televisão, um headset viva-voz (dispositivo de áudio), um módulo Bluetooth®, uma unidade de rádio de frequência modulada (FM), um produtor de música digital, um produtor de mídia, um módulo produtor de vídeo game, um navegador de Internet e similares.
[0075] A Figura 13C é um diagrama de sistema da RAN 103 e da rede principal 106 de acordo com uma modalidade. Conforme verificado acima, a RAN 103 pode empregar uma tecnologia de rádio de UTRA para se comunicar com as WTRUs 102a, 102b, 102c pela interface aérea 115. A RAN 103 também pode estar em comunicação com a rede principal 106. Conforme mostrado na Figura 13C, a RAN 103 pode incluir Node-Bs 140a, 140b, 140c, sendo que cada um pode incluir um ou mais transceptores para se comunicarem com as WTRUs 102a, 102b, 102c pela interface aérea 115. O Node-Bs 140a, 140b, 140c pode, cada um, ser associado a uma célula particular (não mostrada) dentro da RAN 103. A RAN 103 também pode incluir RNCs 142a, 142b. Será verificado que a RAN 103 pode incluir qualquer número de Node-Bs e RNCs enquanto permanece consistente com uma modalidade.
[0076] Conforme mostrado na Figura 13C, o Node-Bs 140a, 140b pode estar em comunicação com a RNC 142a. Adicionalmente, o Node-B 140c pode estar em comunicação com a RNC 142b. A Node-Bs 140a, 140b, 140c pode se comunicar com as respectivas RNCs 142a, 142b através de uma interface Iub. As RNCs 142 a, 142b podem estar em comunicação umas com as outras através de uma interface Iur. Cada uma das RNCs 142a, 142b pode ser configurada para controlar o respectivo Node-Bs 140a, 140b, 140c ao qual as mesmas são conectadas. Além disso, cada uma das RNCs 142a, 142b pode ser configurada para executar ou suportar outra funcionalidade, como controle de energia de ciclo externo, controle de carga, controle de admissão, agendamento de pacote, controle de mudança automática, diversidade macro, funções de segurança, criptografia de dados e similares.
[0077] A rede principal 106 mostrada na Figura 13C pode incluir uma porta de mídia (MOW) 144, um centro de comutação móvel (MSG) 146, um nó de suporte de GPRS de serviço (SGSN) 148 e/ou um nó de suporte de GPSR de porta de comunicação (GGSN) 150. Embora cada um dos elementos acima seja mostrado como parte da rede principal 106, será observado que qualquer um desses elementos pode ser adquirido e/ou operado por uma entidade além do operador de rede principal.
[0078] A RNC 142a na RAN 103 pode ser conectada ao MSG 146 na rede principal 106 através de uma interface IuCS. O MSC 146 pode ser conectado ao MGW 144. O MSG 146 e o MGW 144 podem dotar as WTRUs 102a, 102b, 102c de acesso às redes circuito comutado, como o PSTN 108, para facilitar comunicações entre as WTRUs 102a, 102b, 102c e dispositivos de comunicações de linha fixa tradicionais.
[0079] A RNC 142a na RAN 103 também pode ser conectada ao SGSN 148 na rede principal 106 através de uma interface IuPS. O SGSN 148 pode ser conectado ao GGSN 150. O SGSN 148 e o GGSN 150 podem dotar as WTRUs 102a, 102b, 102c de acesso a redes de pacote comutadas, como a Internet 110, para facilitar comunicações entre e as WTRUs 102a, 102b, 102c e dispositivos de IP habilitado.
[0080] Conforme verificado acima, a rede principal 106 também pode ser conectada às redes 112 que podem incluir outras redes com fio e sem fio que são adquiridas e/ou operadas por outros fornecedores de serviço.
[0081] A Figura 13D é um diagrama de sistema da RAN 104 e da rede principal 107 de acordo com uma modalidade. Conforme verificado acima, a RAN 104 pode empregar uma Tecnologia de rádio de E-UTRA para se comunicar com as WTRUs 102a, 102b, 102c pela interface aérea 116. A RAN 104 também pode estar em comunicação com a rede principal 107.
[0082] A RAN 104 pode incluir eNode-Bs 160a, 160b, 160c, embora seja observado que a RAN 104 pode incluir qualquer número de eNode-Bs enquanto permanece consistente com uma modalidade. Os eNode-Bs 160a, 160b, 160c podem, cada um, incluir um ou mais transceptores para se comunicar com as WTRUs 102a, 102b, 102c pela interface aérea 116. Em uma modalidade, os eNode-Bs 160a, 160b, 160c podem implantar tecnologia MIMO. Desse modo, o eNode-B 160a, por exemplo, pode usar múltiplas antenas para transmitir sinais sem fio para o WTRU 102a e receber sinais sem fio do mesmo.
[0083] Cada um dos eNode-Bs 160a, 160b, 160c pode ser associado a uma célula particular (não mostrada) e pode ser configurado para lidar com decisões de gerenciamento de recurso de rádio, decisões de mudança automática, agendamento de usuários no enlace ascendente e/ou enlace descendente e similares. Conforme mostrado na Figura 8D, os eNode-Bs 160a, 160b, 160c podem se comunicar uns com os outros por uma interface X2.
[0084] A rede principal 107 mostrada na Figura 8D pode incluir uma porta de comunicação de gerenciamento de mobilidade (MME) 162, uma porta de comunicação servidora 164 e uma porta de comunicação de rede de dados de pacote (PDN) 166. Enquanto cada um dos elementos acima é mostrado como parte da rede principal 107, será observado que qualquer um desses elementos pode ser adquirido e/ou operado por uma entidade além do operador de rede principal.
[0085] O MME 162 pode ser conectado a cada um dos eNode-Bs 160a, 160b, 160c na RAN 104 através de uma interface SI e pode servir como um nó de controle. Por exemplo, o MME 162 pode ser responsável por autenticar usuários das WTRUs 102a, 102b, 102c, ativação/desativação de portador, selecionar uma particular porta de comunicação servidora durante uma fixação inicial das WTRUs 102a, 102b, 102c e similares. O MME 162 também pode fornecer uma função de plano de controle para comutar entre a RAN 104 e outras RANs (não mostradas) que empregam outras tecnologias de rádio, como GSM ou WCDMA.
[0086] A porta de comunicação servidora 164 pode ser conectada a cada um dos eNode-Bs 160a, 160b, 160c na RAN 104 através da interface S1. A porta de comunicação servidora 164 pode geralmente encaminhar e avançar pacotes de dados de usuário para/de as WTRUs 102a, 102b, 102c, A porta de comunicação servidora 164 também pode desempenhar outras funções, como ancoragem de planos de usuário durante transferências de inter-eNode B, ativando a paginação quando os dados de enlace descendente estão disponíveis para as WTRUs 102a, 102b, 102c, gerenciando e armazenando contextos das WTRUs 102a, 102b, 102c e similares.
[0087] A porta de comunicação servidora 164 também pode ser conectada à porta de comunicação PDN 166 que pode dotar as WTRUs 102a, 102b, 102c de acesso às redes de pacote comutadas, como a Internet 110, para facilitar comunicações entre as WTRUs 102a, 102b, 102c e dispositivos de IP habilitado.
[0088] A rede principal 107 pode facilitar comunicações com outras redes. Por exemplo, a rede principal 107 pode dotar as WTRUs 102a, 102b, 102c de acesso às redes de circuito comutado, como o PSTN 108, para facilitar comunicações entre as WTRUs 102a, 102b, 102c e dispositivos de comunicações de linha fixa tradicionais. Por exemplo, a rede principal 107 pode incluir ou pode se comunicar com uma porta de comunicação de IP (por exemplo, um servidor de subsistema multimídia de PP (IMS)) que serve como uma interface entre a rede principal 107 e o PSTN 108. Além disso, a rede principal 107 pode dotar as WTRUs 102a, 102b, 102c de acesso às redes 112 que podem incluir outras redes com fio e sem fio que são adquiridas e/ou operadas por outros fornecedores de serviço.
[0089] A Figura 13E é um diagrama de sistema da RAN 105 e da rede principal 109 de acordo com uma modalidade. A RAN 105 pode ser uma rede de serviço de acesso (ASN) que emprega tecnologia de rádio IEEE 802.16 para se comunicar com as WTRUs 102a, 102b, 102c pela interface aérea 117. Conforme será discutido posteriormente abaixo, os enlaces de comunicação entre as entidades funcionais diferentes das WTRUs 102a, 102b, 102c, da RAN 105 e da rede principal 109 podem ser definidos como pontos de referência.
[0090] Conforme mostrado na Figura 13E, a RAN 105 pode incluir estações-base 180a, 180b, 180c e uma porta de comunicação ASN 182, embora seja observado que a RAN 105 pode incluir qualquer número de estações-base e porta de comunicação ASNs enquanto permanece consistente com uma modalidade. As estações-base 180a, 180b, 180c podem, cada uma, ser associadas a uma célula particular (não mostrada) na RAN 105 e podem, cada uma, incluir um ou mais transceptores para se comunicar com as WTRUs 102a, 102b, 102e pela interface aérea 117. Em uma modalidade, as estações-base 180a, 180b, 180c podem implantar tecnologia MIMO. Desse modo, a estação-base 180a, por exemplo, pode usar múltiplas antenas para transmitir sinais sem fio para e receber sinais sem fio de o WTRU 102a. As estações-base 180a, 180b, 180c também podem fornecer funções de gerenciamento de mobilidade, como ativação de entrega, estabelecimento de túnel, gerenciamento de recurso de rádio, classificação de tráfego, qualidade de cumprimento de política de serviço (QoS) e similares. A porta de comunicação ASN 182 pode servir como um ponto de agregação de tráfego e pode ser responsável por paginação, cache de perfis de assinante, roteamento para a rede principal 109 e similares.
[0091] A interface aérea 117 entre as WTRUs 102a, 102b, 102c e a RAN 105 pode ser definida como um ponto de referência RI que implanta a especificação IEEE 802.16. Além disso, cada uma das WTRUs 102a, 102b, 102c pode estabelecer uma interface lógica (não mostrada) com a rede principal 109. A interface lógica entre as WTRUs 102a, 102b, 102e e a rede principal 109 pode ser definida como um ponto de referência R2, que pode ser usado para autenticação, autorização, gerenciamento de configuração de hospedeiro de IP, e/ou gerenciamento de mobilidade.
[0092] O enlace de comunicação entre cada uma das estações-base 180a, 180b, 180c pode ser definido como um ponto de referência R8 que inclui protocolos para facilitar mudança automática de WTRU e a transferência de dados entre as estações-base. O enlace de comunicação entre as estações-base 180a, 180b, 180c e a porta de comunicação ASN 182 pode ser definido como um ponto de referência R6. O ponto de referência R6 pode incluir protocolos para facilitar gerenciamento de mobilidade com base em eventos de mobilidade associados a cada uma das WTRUs 102a, 102b, 102c.
[0093] Conforme mostrado na Figura 13E, a RAN 105 pode ser conectada à rede principal 109. O enlace de comunicação entre a RAN 105 e a rede principal 109 pode ser definido como um ponto de referência R3 que inclui protocolos para facilitar a transferência de dados e capacidades de gerenciamento de mobilidade, por exemplo. A rede principal 109 pode incluir um agente doméstico de IP móvel (MIP-HA) 184, uma autenticação, autorização, servidor de contabilidade (AAA) 186 e uma porta de comunicação 188. Enquanto cada um dos elementos acima é mostrado como parte da rede principal 109, será observado que qualquer um desses elementos pode ser adquirido e/ou operado por uma entidade além do operador de rede principal.
[0094] A MIP-HA pode ser responsável por gerenciamento de endereço de TP e pode permitir que as WTRUs 102a, 102b, 102c para alternar entre ASNs diferentes e/ou redes principais diferentes. A MIP-PIA 184 pode dotar as WTRUs 102a, 102b, 102c de acesso às redes de pacote comutadas, como a Internet 110, para facilitar comunicações entre as WTRUs 102a, 102b, 102c e dispositivos de IP habilitado. O servidor AAA 186 pode ser responsável pela autenticação de usuário e para dar suporte aos envios de usuário. A porta de comunicação 188 pode facilitar trabalho interno com outras redes. Por exemplo, a porta de comunicação 188 pode dotar as WTRUs 102a, 102b, 102c de acesso às redes de circuito comutado, como o PSTN 108, para facilitar comunicações entre as WTRUs 102a, 102b, 102c e dispositivos de comunicações de linha fixa tradicionais. Além disso, a porta de comunicação 188 pode dotar as WTRUs 102a, 102b, 102c de acesso às redes 112, que podem incluir outras redes com fio e sem fio que são adquiridas e/ou operadas por outros fornecedores de serviço.
[0095] Embora não mostrado na Figura 13E, será observado que a RAN 105 pode ser conectada a outras ASNs e a rede principal 109 pode ser conectada a outras redes principais. O enlace de comunicação entre a RAN 105 as outras ASNs pode ser definido como um ponto de referência R4, que pode incluir protocolos para coordenar a mobilidade das WTRUs 102a, 102b, 102c entre a RAN 105 e as outras ASNs. O enlace de comunicação entre a rede principal 109 e as outras redes principais pode ser definido como uma referência RS que pode incluir protocolos para facilitar trabalho interno entre redes principais domésticas e redes principais visitadas.
[0096] Uma pessoa de habilidade comum na técnica irá verificar que cada recurso ou elemento pode ser usado sozinho ou em qualquer combinação com os outros recursos e elementos. Além disso, os métodos descritos no presente documento podem ser implantados em um programa de computador, software ou firmware e incorporados em um meio legível por computador para execução por um computador ou processador. Exemplos de meios legíveis por computador incluem sinais eletrônicos (transmitidos sobre conexões com fio e sem fio) e meio de armazenamento legível por computador. Exemplos de meios de armazenamento legíveis por computador incluem, porém, sem limitação a, uma memória somente leitura (ROM), uma memória de acesso aleatório (RAM), um registro, memória cache, dispositivos de memória semicondutores, mídia magnética como discos rígidos internos e discos removíveis, mídia óptico-magnética e mídia óptica como discos de CD-ROM e discos versáteis digitais (DVDs). Um processador associado ao software pode ser usado para implantar um transceptor de radiofrequência para uso em uma WTRXJ, WTRU, terminal, estação-base, RNC ou qualquer computador hospedeiro.
[0097] Embora descrita com o uso de um sistema escalável de 2 camadas, uma pessoa versada na técnica pode estender a arquitetura discutida no presente documento a sistema de codificação de vídeo escalável de múltiplas camadas. Adicionalmente, embora HEVC tenha sido usado como um codificador de camada única exemplificativo, o sistema pode ter pouca dependência sobre o próprio codificador de vídeo de camada única subjacente e pode ser combinado com quaisquer outros codificadores de camada única. Uma pessoa de habilidade comum na técnica irá verificar que cada recurso ou elemento pode ser usado sozinho ou em qualquer combinação com os outros recursos e elementos.
[0098] Os métodos descritos no presente documento podem ser implantados em um programa de computador, software ou firmware e incorporados a um meio legível por computador para execução por um computador ou processador. Exemplos de meios legíveis por computador incluem sinais eletrônicos (transmitidos sobre conexões com fio e sem fio) e meio de armazenamento legível por computador. Exemplos de meio de armazenamento legível por computador incluem, porém, sem limitação, uma memória somente leitura (ROM), uma memória de acesso aleatório (RAM), um registro, memória cache, dispositivos de memória semicondutores, mídia magnética como discos rígidos internos e discos removíveis, mídia óptico-magnética e mídia óptica como discos de CD- ROM, e discos versáteis digitais (DVDs). Um processador em associação com software pode ser usado para implantar um transceptor de radiofrequência para uso em uma WTRU, WTRU, terminal, estação-base, RNC ou qualquer computador hospedeiro.
[0099] Em outro exemplo de escalabilidade espacial ou escalabilidade de razão de aspecto, a refeitura do alvo do vídeo de BL pode ser realizada. A refeitura do alvo pode ser usada para estabelecer a correspondência espacial entre as duas camadas. Por exemplo, a refeitura do alvo pode corresponder a uma região espacial associada a uma imagem (mas não necessariamente a imagem inteira) do vídeo de BL a uma região espacial associada à imagem (mas não necessariamente a imagem inteira) do vídeo de EL. Por exemplo, quando o vídeo de EL tem uma resolução maior a ser exibida em uma TV de tela grande e o vídeo de BL tem uma resolução menor a ser exibida em um dispositivo móvel com resolução de tela limitada, o vídeo de BL pode representar uma parte do vídeo de EL (por exemplo, uma região de interesse da imagem de EL). A quantidade variada de dimensionamento horizontal e/ou vertical pode ser aplicada à região espacial na BL, por exemplo, dependendo de onde a amostra de BL está localizada na região de BL. O redimensionamento pode ser utilizado para escalabilidade de razão de aspecto. Por exemplo, quando a BL está em uma razão de aspecto de 4:3 e a EL está em uma razão de aspecto de 16:9. O objetivo principal na região de BL (por exemplo, um âncora de noticiário) pode ser preservado na razão de aspecto de 4:3 aplicando-se escalonamento uniforme (por exemplo, igual) nas direções horizontal e vertical, enquanto que as áreas vizinhas podem ser esticadas horizontalmente para corresponder à razão de aspecto de 16:9 na EL.

Claims (17)

1. Método caracterizado por compreender: - receber os dados codificados da camada de base (BL), os dados codificados da camada de aperfeiçoamento (EL) e as informações de predição de intercamadas (ILP), sendo que as informações de ILP são empacotadas em uma unidade de abstração de rede separada das unidades de abstração de rede contendo os dados codificados da BL e o dados codificados da EL; - reconstruir uma imagem da BL com base nos dados codificados da BL; - realizar o processamento intercamadas de nível de imagem na imagem reconstruída da BL para gerar uma imagem de referência das intercamadas (ILR) com base nas informações de ILP empacotadas; e - reconstruir uma imagem da EL com base na imagem da ILR e nos dados codificados da EL.
2. Método, de acordo com a reivindicação 1, caracterizado por as informações de ILP são empacotadas em uma pluralidade de unidades de abstração de rede, cada uma das unidades de abstração de rede sendo associada a um tipo de unidade.
3. Método, de acordo com a reivindicação 1, caracterizado por a informações de ILP empacotadas compreende ao menos uma das informações do filtro de upsampling empacotadas em uma unidade de abstração de rede de um tipo de unidade NAL específico, um ou mais dos parâmetros de compensação de disparidade empacotados em uma unidade de abstração de rede de um tipo de unidade NAL específico, ou um ou mais dos parâmetros de mapeamento de tom inverso empacotados em uma unidade de abstração de rede de um tipo de unidade NAL específico.
4. Método, de acordo com a reivindicação 1, caracterizado por compreender ainda: - determinar um primeiro tipo de escalabilidade que relaciona a EL à BL e um segundo tipo de escalabilidade que relaciona a EL à BL com base em um ou mais dos dados codificados da BL, os dados codificados da EL ou as informações de ILP; e - determinar, com base no primeiro tipo de escalabilidade e no segundo tipo de escalabilidade, uma pluralidade de processos intercamadas de nível de imagem para processar a imagem da BL reconstruída na imagem de ILR, - sendo que realizar o processamento intercamadas de nível de imagem compreende a implementação da pluralidade de processos intercamadas de nível de imagem.
5. Método, de acordo com a reivindicação 4, caracterizado por o primeiro tipo de escalabilidade ser a escalabilidade espacial, e a pluralidade de processos de intercamadas de nível de imagem compreende a upsampling.
6. Método, de acordo com a reivindicação 4, caracterizado por o primeiro tipo de escalabilidade ser escalabilidade espacial e o segundo tipo de escalabilidade ser a escalabilidade de profundidade de bits, e a pluralidade de processos intercamadas de nível de imagem compreender a upsampling e o mapeamento de tom inverso.
7. Método, de acordo com a reivindicação 1, caracterizado por compreender ainda desmuxar um sinal de vídeo para separar a unidade de abstração de rede contendo as informações de ILP das unidades de abstração de rede contendo os dados codificados na BL e os dados codificados na EL.
8. Método, de acordo com a reivindicação 1, caracterizado por a imagem de ILR ser compreendida em um conjunto de imagens de referência que compreende ainda uma imagem de referência da EL, e a reconstrução da imagem da EL compreender: - prever uma primeira porção da imagem da EL usando a imagem da ILR; e - predizer uma segunda porção da imagem da EL usando a imagem de referência da EL.
9. Sistema, para a aplicação do método conforme definido na reivindicação 1, caracterizado por compreender: - um processador configurado para: o receber um sinal de vídeo compreendendo os dados codificados de camada de base (BL), os dados codificados da camada de aprimoramento (EL) e as informações de predição de intercamada (ILP), sendo que as informações de ILP são empacotadas em uma unidade de abstração de rede separada das unidades de abstração de rede contendo o dados codificados da BL e os dados codificados da EL; o reconstruir uma imagem da BL com base nos dados codificados da BL; o realizar um processamento intercamadas de nível de imagem na imagem da BL reconstruída para gerar uma imagem de referência das intercamadas (ILR) com base nas informações de ILP empacotados; e o reconstruir uma imagem da EL com base na imagem de ILR e nos dados codificados da EL.
10. Sistema, de acordo com a reivindicação 9, ou método, conforme definido na reivindicação 1, caracterizado por as informações de ILP empacotados compreenderem as informações de filtro de upsampling.
11. Sistema, de acordo com a reivindicação 9, caracterizado por o processador ser configurado ainda para: - determinar um primeiro tipo de escalabilidade que relaciona a EL à BL e um segundo tipo de escalabilidade que relaciona a EL à BL com base em um ou mais dos dados codificados da BL, os dados codificados da EL ou as informações de ILP; e - determinar, com base no primeiro tipo de escalabilidade e no segundo tipo de escalabilidade, uma pluralidade de processos intercamadas de nível de imagem para processar a imagem BL reconstruída na imagem ILR, - sendo que a realização de processamento intercamadas de nível de imagem compreende a implementação da pluralidade de processos intercamadas de nível de imagem.
12. Sistema, de acordo com a reivindicação 11, caracterizado por o primeiro tipo de escalabilidade ser a escalabilidade espacial e a pluralidade de processos de intercamadas de nível de imagem compreender upsampling.
13. Sistema, de acordo com a reivindicação 11, caracterizado por o primeiro tipo de escalabilidade ser a escalabilidade de profundidade de bits e a pluralidade de processos intercamadas de nível de imagem compreender o mapeamento de tom inverso.
14. Sistema, de acordo com a reivindicação 11, caracterizado por o primeiro tipo de escalabilidade ser a escalabilidade espacial e o segundo tipo de escalabilidade ser a escalabilidade de profundidade de bits e a pluralidade de processos intercamadas de nível de imagem compreendere upsampling e mapeamento de tom inverso.
15. Sistema, de acordo com a reivindicação 9, ou método, conforme definido na reivindicação 1, caracterizado por a imagem da EL reconstruída e a imagem de ILR corresponderem a uma mesma instância de tempo.
16. Sistema, de acordo com a reivindicação 9, caracterizado por a unidade de abstração de rede contendo as informações de ILP ser em um primeiro modo, e as unidades de abstração de rede contendo os dados codificados da BL e os dados codificados da EL serem em um segundo modo.
17. Sistema, de acordo com a reivindicação 9, ou método, conforme definido na reivindicação 1, caracterizado por as informações de ILP empacotadas compreenderem um ou mais dos parâmetros de mapeamento de tom inverso.
BR112015000480-6A 2012-07-09 2013-07-09 Arquitetura de codec para codificação de vídeo de camada múltipla, método e sistema BR112015000480B1 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261669356P 2012-07-09 2012-07-09
US61/669,356 2012-07-09
US201261734264P 2012-12-06 2012-12-06
US61/734,264 2012-12-06
PCT/US2013/049662 WO2014011595A1 (en) 2012-07-09 2013-07-09 Codec architecture for multiple layer video coding

Publications (2)

Publication Number Publication Date
BR112015000480A2 BR112015000480A2 (pt) 2017-08-08
BR112015000480B1 true BR112015000480B1 (pt) 2023-02-07

Family

ID=48833069

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112015000480-6A BR112015000480B1 (pt) 2012-07-09 2013-07-09 Arquitetura de codec para codificação de vídeo de camada múltipla, método e sistema

Country Status (17)

Country Link
US (4) US9998764B2 (pt)
EP (2) EP2870757A1 (pt)
JP (5) JP2015523815A (pt)
KR (4) KR20180112099A (pt)
CN (2) CN104429071B (pt)
AU (2) AU2013288832B2 (pt)
BR (1) BR112015000480B1 (pt)
CA (1) CA2878807C (pt)
HK (1) HK1204515A1 (pt)
IL (1) IL236629A0 (pt)
IN (1) IN2015DN00191A (pt)
MX (2) MX344952B (pt)
MY (1) MY172999A (pt)
RU (1) RU2616549C2 (pt)
SG (2) SG11201500129UA (pt)
TW (2) TWI649999B (pt)
WO (1) WO2014011595A1 (pt)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3968638A1 (en) * 2012-05-14 2022-03-16 V-Nova International Ltd Decomposition of residual data during signal encoding, decoding and reconstruction in a tiered hierarchy
SG11201500129UA (en) 2012-07-09 2015-02-27 Vid Scale Inc Codec architecture for multiple layer video coding
US20140085415A1 (en) * 2012-09-27 2014-03-27 Nokia Corporation Method and apparatus for video coding
SG11201500311XA (en) * 2012-09-28 2015-02-27 Intel Corp Inter-layer pixel sample prediction
TWI651964B (zh) * 2012-10-04 2019-02-21 Vid衡器股份有限公司 用於標準可縮放視訊編碼的參考圖像集映射
WO2014107709A2 (en) 2013-01-07 2014-07-10 Vid Scale, Inc. Enhanced deblocking filters for video coding
US20140192881A1 (en) * 2013-01-07 2014-07-10 Sony Corporation Video processing system with temporal prediction mechanism and method of operation thereof
WO2014137175A1 (ko) * 2013-03-06 2014-09-12 삼성전자 주식회사 선택적인 노이즈제거 필터링을 이용한 스케일러블 비디오 부호화 방법 및 그 장치, 선택적인 노이즈제거 필터링을 이용한 스케일러블 비디오 복호화 방법 및 그 장치
US9324161B2 (en) * 2013-03-13 2016-04-26 Disney Enterprises, Inc. Content-aware image compression method
US9800884B2 (en) * 2013-03-15 2017-10-24 Qualcomm Incorporated Device and method for scalable coding of video information
KR101915156B1 (ko) 2013-04-05 2018-11-06 브이아이디 스케일, 인크. 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화
US11438609B2 (en) * 2013-04-08 2022-09-06 Qualcomm Incorporated Inter-layer picture signaling and related processes
MX354337B (es) 2013-04-15 2018-02-27 Rossato Luca Codificación y decodificación de señal compatible con versiones anteriores híbrida.
US10284840B2 (en) * 2013-06-28 2019-05-07 Electronics And Telecommunications Research Institute Apparatus and method for reproducing 3D image
US10212437B2 (en) * 2013-07-18 2019-02-19 Qualcomm Incorporated Device and method for scalable coding of video information
KR101595397B1 (ko) * 2013-07-26 2016-02-29 경희대학교 산학협력단 서로 다른 다계층 비디오 코덱의 통합 부호화/복호화 방법 및 장치
US9818422B2 (en) * 2013-08-30 2017-11-14 The Regents Of The University Of California Method and apparatus for layered compression of multimedia signals for storage and transmission over heterogeneous networks
WO2015031891A2 (en) * 2013-08-30 2015-03-05 ARRIS Enterprises, Inc Multipass encoder with heterogeneous codecs
US11076171B2 (en) 2013-10-25 2021-07-27 Microsoft Technology Licensing, Llc Representing blocks with hash values in video and image coding and decoding
EP3061253A4 (en) 2013-10-25 2016-08-31 Microsoft Technology Licensing Llc PAIRING OF BLOCKS BY HASHING VIDEO AND IMAGE CODING
KR102521870B1 (ko) 2014-01-02 2023-04-13 브이아이디 스케일, 인크. 혼합된 인터레이스 및 프로그레시브 콘텐트에 의한 스케일러블 비디오 코딩을 위한 방법들, 및 시스템들
US10567754B2 (en) * 2014-03-04 2020-02-18 Microsoft Technology Licensing, Llc Hash table construction and availability checking for hash-based block matching
US10368092B2 (en) 2014-03-04 2019-07-30 Microsoft Technology Licensing, Llc Encoder-side decisions for block flipping and skip mode in intra block copy prediction
US9712837B2 (en) * 2014-03-17 2017-07-18 Qualcomm Incorporated Level definitions for multi-layer video codecs
US9591316B2 (en) * 2014-03-27 2017-03-07 Intel IP Corporation Scalable video encoding rate adaptation based on perceived quality
WO2015196322A1 (en) * 2014-06-23 2015-12-30 Microsoft Technology Licensing, Llc Encoder decisions based on results of hash-based block matching
EP3389276B1 (en) 2014-09-30 2021-01-13 Microsoft Technology Licensing, LLC Hash-based encoder decisions for video coding
US9591254B2 (en) 2015-03-26 2017-03-07 Qualcomm Incorporated Device and method for processing video data
WO2017020021A1 (en) * 2015-07-29 2017-02-02 Vid Scale, Inc. Scalable high efficiency video coding to high efficiency video coding transcoding
GB2544800A (en) * 2015-11-27 2017-05-31 V-Nova Ltd Adaptive bit rate ratio control
US10440401B2 (en) 2016-04-07 2019-10-08 Dolby Laboratories Licensing Corporation Backward-compatible HDR codecs with temporal scalability
US10390039B2 (en) 2016-08-31 2019-08-20 Microsoft Technology Licensing, Llc Motion estimation for screen remoting scenarios
US11095877B2 (en) 2016-11-30 2021-08-17 Microsoft Technology Licensing, Llc Local hash-based motion estimation for screen remoting scenarios
WO2018143268A1 (ja) * 2017-02-03 2018-08-09 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2019026721A1 (en) * 2017-08-01 2019-02-07 Sharp Kabushiki Kaisha SYSTEMS AND METHODS FOR FILTERING RECONSTRUCTED VIDEO DATA USING ADAPTIVE LOOP FILTERING TECHNIQUES
CN107800649A (zh) * 2017-10-29 2018-03-13 湖州师范学院 一种增强的基于路径的虚拟光网络映射方法
WO2019143551A1 (en) * 2018-01-16 2019-07-25 Vid Scale, Inc. Adaptive frame packing for 360-degree video coding
GB2570324A (en) * 2018-01-19 2019-07-24 V Nova Int Ltd Multi-codec processing and rate control
KR102039711B1 (ko) * 2018-03-13 2019-11-01 삼성전자주식회사 팬-아웃 부품 패키지
KR102022648B1 (ko) 2018-08-10 2019-09-19 삼성전자주식회사 전자 장치, 이의 제어 방법 및 서버의 제어 방법
US10764588B2 (en) * 2018-08-10 2020-09-01 Apple Inc. Deep quality enhancement of adaptive downscaled coding for image compression
GB201905400D0 (en) * 2019-04-16 2019-05-29 V Nova Int Ltd Video coding technology
CN110113604B (zh) * 2019-04-26 2021-03-30 电子科技大学 一种图像分层编码方法
JP7403245B2 (ja) * 2019-06-21 2023-12-22 キヤノン株式会社 画像復号装置、画像復号方法
CN111190577B (zh) * 2019-12-19 2023-03-31 贠学文 一种对工具包统一管理并实现轻量级mvc的框架构建方法
US11202085B1 (en) 2020-06-12 2021-12-14 Microsoft Technology Licensing, Llc Low-cost hash table construction and hash-based block matching for variable-size blocks
US11330296B2 (en) * 2020-09-14 2022-05-10 Apple Inc. Systems and methods for encoding image data
CN114913249A (zh) * 2021-02-08 2022-08-16 华为技术有限公司 编码、解码方法和相关设备
US11677934B2 (en) * 2021-09-24 2023-06-13 Apple Inc. Encoding and decoding video content
CN117956168A (zh) * 2022-10-31 2024-04-30 华为技术有限公司 图像编解码方法和装置

Family Cites Families (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
AU2003237279A1 (en) * 2002-05-29 2003-12-19 Pixonics, Inc. Classifying image areas of a video signal
KR100596705B1 (ko) 2004-03-04 2006-07-04 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩 방법과 비디오 인코딩 시스템, 및 비디오 디코딩 방법과 비디오 디코딩 시스템
DE102004059978B4 (de) * 2004-10-15 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz und zum Decodieren einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Restwerte-Prädiktion sowie ein Computerprogramm und ein computerlesbares Medium
KR100703740B1 (ko) * 2004-10-21 2007-04-05 삼성전자주식회사 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치
KR20060063613A (ko) * 2004-12-06 2006-06-12 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR100763178B1 (ko) 2005-03-04 2007-10-04 삼성전자주식회사 색 공간 스케일러블 비디오 코딩 및 디코딩 방법, 이를위한 장치
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
US7876833B2 (en) * 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
US7303668B2 (en) * 2005-05-23 2007-12-04 Chin-Tuan Liao Filtering device
FR2889778A1 (fr) 2005-08-12 2007-02-16 Thomson Licensing Sas Procede de codage et de decodage d'images video avec echelonnabilite spatiale
KR100891662B1 (ko) * 2005-10-05 2009-04-02 엘지전자 주식회사 비디오 신호 디코딩 및 인코딩 방법
EP1935182B1 (en) * 2005-10-11 2016-11-23 Nokia Technologies Oy System and method for efficient scalable stream adaptation
EP1977609A4 (en) 2006-01-09 2015-02-18 Lg Electronics Inc INTER-LAYER PREDICTION PROCEDURE FOR A VIDEO SIGNAL
KR100772873B1 (ko) 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
US8170116B2 (en) 2006-03-27 2012-05-01 Nokia Corporation Reference picture marking in scalable video encoding and decoding
JP5135342B2 (ja) * 2006-07-20 2013-02-06 トムソン ライセンシング マルチビュー・ビデオ符号化においてビューのスケーラビリティを信号伝達する方法および装置
US8060651B2 (en) 2006-08-17 2011-11-15 Sharp Laboratories Of America, Inc. Systems and methods for adaptively packetizing data partitions for transport over a network
JP2008078979A (ja) * 2006-09-21 2008-04-03 Victor Co Of Japan Ltd 動画像階層符号量割当装置、階層符号化装置、階層符号量割当プログラム及び階層符号化プログラム
US8054885B2 (en) * 2006-11-09 2011-11-08 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
EP1980107A4 (en) 2006-11-17 2010-01-13 Lg Electronics Inc METHOD AND APPARATUS FOR DECODING / ENCODING A VIDEO SIGNAL
CN104822062B (zh) * 2007-01-08 2018-11-30 诺基亚公司 用于视频编码中扩展空间可分级性的改进层间预测
WO2008086828A1 (en) * 2007-01-18 2008-07-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Quality scalable video data stream
CN101796841B (zh) 2007-06-27 2012-07-18 汤姆逊许可公司 用增强层残差预测对视频数据编码/解码的方法和设备
US8432968B2 (en) * 2007-10-15 2013-04-30 Qualcomm Incorporated Scalable video coding techniques for scalable bitdepths
JP5534522B2 (ja) * 2007-10-15 2014-07-02 トムソン ライセンシング スケーラブルなビデオのためにレイヤー間残差予測を行う方法および装置
CN101420609B (zh) 2007-10-24 2010-08-25 华为终端有限公司 视频编码、解码方法及视频编码器、解码器
WO2009130561A1 (en) * 2008-04-21 2009-10-29 Nokia Corporation Method and device for video coding and decoding
BRPI1008372A2 (pt) * 2009-02-11 2018-03-06 Thomson Licensing métodos e aparelho para codificação e decodificação de vídeo escalável com profundidade de bit utilizando mapeamento de tons e mapeamento inverso de tons
EP2422521B1 (en) * 2009-04-20 2013-07-03 Dolby Laboratories Licensing Corporation Filter selection for video pre-processing in video applications
JP5059062B2 (ja) 2009-07-08 2012-10-24 シャープ株式会社 通信システム、移動局装置および基地局装置
JP5693716B2 (ja) * 2010-07-08 2015-04-01 ドルビー ラボラトリーズ ライセンシング コーポレイション 参照処理信号を使った多層画像およびビデオ送達のためのシステムおよび方法
JP5612214B2 (ja) * 2010-09-14 2014-10-22 サムスン エレクトロニクス カンパニー リミテッド 階層的映像符号化及び復号化のための方法及び装置
US20120075436A1 (en) 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
WO2012052968A1 (en) * 2010-10-20 2012-04-26 Nokia Corporation Method and device for video coding and decoding
JP5833682B2 (ja) * 2011-03-10 2015-12-16 ヴィディオ・インコーポレーテッド スケーラブルなビデオ符号化のための依存性パラメータセット
US9253233B2 (en) * 2011-08-31 2016-02-02 Qualcomm Incorporated Switch signaling methods providing improved switching between representations for adaptive HTTP streaming
US9124895B2 (en) * 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
US9210430B2 (en) * 2012-01-19 2015-12-08 Sharp Kabushiki Kaisha Reference picture set signaling and restriction on an electronic device
TWI578758B (zh) 2012-01-31 2017-04-11 Vid衡器股份有限公司 視訊資料解碼的裝置及方法
EP2822276B1 (en) * 2012-02-29 2018-11-07 LG Electronics Inc. Inter-layer prediction method and apparatus using same
CN108377393A (zh) * 2012-03-22 2018-08-07 联发科技股份有限公司 编码视频数据的方法以及装置
US10863170B2 (en) * 2012-04-16 2020-12-08 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding on the basis of a motion vector
US9191671B2 (en) * 2012-04-19 2015-11-17 Vid Scale, Inc. System and method for error-resilient video coding
US10205961B2 (en) * 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
US9253487B2 (en) * 2012-05-31 2016-02-02 Qualcomm Incorporated Reference index for enhancement layer in scalable video coding
CN104396249B (zh) * 2012-06-20 2017-12-26 寰发股份有限公司 可伸缩视频编码的层间预测的方法和设备
US20140003504A1 (en) * 2012-07-02 2014-01-02 Nokia Corporation Apparatus, a Method and a Computer Program for Video Coding and Decoding
US9516309B2 (en) * 2012-07-09 2016-12-06 Qualcomm Incorporated Adaptive difference domain spatial and temporal reference reconstruction and smoothing
SG11201500129UA (en) 2012-07-09 2015-02-27 Vid Scale Inc Codec architecture for multiple layer video coding
CN104429075B (zh) * 2012-07-09 2017-10-31 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置及图像解码装置
US9344718B2 (en) * 2012-08-08 2016-05-17 Qualcomm Incorporated Adaptive up-sampling filter for scalable video coding
CN115243046A (zh) * 2012-08-29 2022-10-25 Vid拓展公司 用于可分级视频编码的运动矢量预测的方法和装置
KR102160242B1 (ko) * 2012-09-09 2020-09-25 엘지전자 주식회사 영상 복호화 방법 및 이를 이용하는 장치
US20140069969A1 (en) 2012-09-11 2014-03-13 Christopher Yannis Bosch Delivery System
EP2898695A1 (en) * 2012-09-18 2015-07-29 VID SCALE, Inc. Region of interest video coding using tiles and tile groups
JP6172535B2 (ja) * 2012-09-26 2017-08-02 サン パテント トラスト 画像復号方法および画像復号装置
AU2013323836B2 (en) * 2012-09-27 2017-12-07 Dolby Laboratories Licensing Corporation Inter-layer reference picture processing for coding standard scalability
WO2014051408A1 (ko) * 2012-09-28 2014-04-03 삼성전자 주식회사 인터 레이어 예측 오차를 부호화하기 위한 sao 오프셋 보상 방법 및 그 장치
US20150288970A1 (en) * 2012-09-28 2015-10-08 Samsung Electronics Co., Ltd. Video encoding method and apparatus for parallel processing using reference picture information, and video decoding method and apparatus for parallel processing using reference picture information
CN104813660B (zh) * 2012-09-28 2019-04-05 诺基亚技术有限公司 用于视频编码和解码的装置和方法
US9479782B2 (en) * 2012-09-28 2016-10-25 Qualcomm Incorporated Supplemental enhancement information message coding
KR101835360B1 (ko) * 2012-10-01 2018-03-08 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
CN104704835B (zh) * 2012-10-03 2017-11-24 联发科技股份有限公司 视频编码中运动信息管理的装置与方法
KR102091139B1 (ko) * 2012-10-08 2020-03-20 삼성전자주식회사 다시점 비디오의 인터 레이어 예측 구조에 따른 비디오 스트림 부호화 방법 및 그 장치, 다시점 비디오의 인터 레이어 예측 구조에 따른 비디오 스트림 복호화 방법 및 그 장치
US20140192881A1 (en) * 2013-01-07 2014-07-10 Sony Corporation Video processing system with temporal prediction mechanism and method of operation thereof
US9467707B2 (en) * 2013-03-05 2016-10-11 Qualcomm Incorporated Parallel processing for video coding
US9648353B2 (en) * 2013-04-04 2017-05-09 Qualcomm Incorporated Multiple base layer reference pictures for SHVC
US8958477B2 (en) * 2013-04-05 2015-02-17 Vidyo, Inc. Multiple reference layer prediction signaling techniques
US9674522B2 (en) * 2013-04-08 2017-06-06 Qualcomm Incorporated Device and method for scalable coding of video information
WO2014168890A1 (en) * 2013-04-08 2014-10-16 General Instrument Corporation Individual buffer management in video coding
US9509999B2 (en) * 2013-06-11 2016-11-29 Qualcomm Incorporated Inter-layer prediction types in multi-layer video coding
US9609329B2 (en) * 2013-06-25 2017-03-28 Samsung Electronics Co., Ltd Dynamic voltage/frequency scaling for video processing using embedded complexity metrics
US9756335B2 (en) * 2013-07-02 2017-09-05 Qualcomm Incorporated Optimizations on inter-layer prediction signalling for multi-layer video coding
US9560358B2 (en) * 2013-07-22 2017-01-31 Qualcomm Incorporated Device and method for scalable coding of video information
MY178305A (en) * 2013-10-11 2020-10-07 Vid Scale Inc High level syntax for hevc extensions
US9681145B2 (en) * 2013-10-14 2017-06-13 Qualcomm Incorporated Systems and methods for inter-layer RPS derivation based on sub-layer reference prediction dependency
KR102521870B1 (ko) * 2014-01-02 2023-04-13 브이아이디 스케일, 인크. 혼합된 인터레이스 및 프로그레시브 콘텐트에 의한 스케일러블 비디오 코딩을 위한 방법들, 및 시스템들
US9654794B2 (en) * 2014-01-03 2017-05-16 Qualcomm Incorporated Methods for coding an inter-layer reference picture set (RPS) and coding end of bitstream (EOB) network access layer (NAL) units in multi-layer coding
US9641851B2 (en) * 2014-04-18 2017-05-02 Qualcomm Incorporated Conformance window information in multi-layer coding
WO2015179596A1 (en) * 2014-05-21 2015-11-26 Arris Enterprises, Inc. Individual buffer management in transport of scalable video
US9716900B2 (en) * 2014-06-20 2017-07-25 Qualcomm Incorporated Extensible design of nesting supplemental enhancement information (SEI) messages
EP3453178A1 (en) * 2016-05-06 2019-03-13 VID SCALE, Inc. Systems and methods for motion compensated residual prediction

Also Published As

Publication number Publication date
MX361767B (es) 2018-12-17
CN104429071A (zh) 2015-03-18
US10484717B2 (en) 2019-11-19
US11627340B2 (en) 2023-04-11
EP3407608A1 (en) 2018-11-28
CN104429071B (zh) 2019-01-18
IN2015DN00191A (pt) 2015-06-12
BR112015000480A2 (pt) 2017-08-08
KR20200038564A (ko) 2020-04-13
AU2013288832A1 (en) 2015-02-05
CA2878807A1 (en) 2014-01-16
HK1204515A1 (en) 2015-11-20
US20200059671A1 (en) 2020-02-20
TWI606716B (zh) 2017-11-21
SG10201700161UA (en) 2017-03-30
JP2015523815A (ja) 2015-08-13
US20140010294A1 (en) 2014-01-09
JP2022023856A (ja) 2022-02-08
MX344952B (es) 2017-01-12
EP2870757A1 (en) 2015-05-13
JP2017225171A (ja) 2017-12-21
AU2017200225B2 (en) 2019-04-04
CA2878807C (en) 2018-06-12
AU2013288832B2 (en) 2016-10-13
CN110035286A (zh) 2019-07-19
US20180131967A1 (en) 2018-05-10
TW201424387A (zh) 2014-06-16
RU2616549C2 (ru) 2017-04-17
US20210250619A1 (en) 2021-08-12
CN110035286B (zh) 2021-11-12
MX2015000265A (es) 2015-08-14
KR20150029745A (ko) 2015-03-18
TW201820863A (zh) 2018-06-01
RU2015103915A (ru) 2016-08-27
MY172999A (en) 2019-12-18
JP2023166011A (ja) 2023-11-17
IL236629A0 (en) 2015-02-26
TWI649999B (zh) 2019-02-01
JP6574223B2 (ja) 2019-09-11
WO2014011595A1 (en) 2014-01-16
JP2019208279A (ja) 2019-12-05
KR20210129266A (ko) 2021-10-27
KR20180112099A (ko) 2018-10-11
US11012717B2 (en) 2021-05-18
US9998764B2 (en) 2018-06-12
SG11201500129UA (en) 2015-02-27
AU2017200225A1 (en) 2017-02-02

Similar Documents

Publication Publication Date Title
US11012717B2 (en) Codec architecture for multiple layer video coding
JP6515159B2 (ja) Hevc拡張のための高レベル構文
JP6592145B2 (ja) 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント
US10277909B2 (en) Single loop decoding based interlayer prediction
EP3090540B1 (en) Color space conversion
JP2016534679A (ja) 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法
TW201431351A (zh) 可調整視訊編碼的移動資訊傳訊

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Ipc: H04N 7/00 (2011.01)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 7/00

Ipc: H04N 19/117 (2014.01), H04N 19/157 (2014.01), H04N

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 09/07/2013, OBSERVADAS AS CONDICOES LEGAIS