BRPI0719335A2 - mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento - Google Patents

mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento Download PDF

Info

Publication number
BRPI0719335A2
BRPI0719335A2 BRPI0719335-1A BRPI0719335A BRPI0719335A2 BR PI0719335 A2 BRPI0719335 A2 BR PI0719335A2 BR PI0719335 A BRPI0719335 A BR PI0719335A BR PI0719335 A2 BRPI0719335 A2 BR PI0719335A2
Authority
BR
Brazil
Prior art keywords
moving image
image
management information
playback
information
Prior art date
Application number
BRPI0719335-1A
Other languages
English (en)
Inventor
Tadamasa Toma
Hiroshi Yahata
Wataru Ikeda
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Publication of BRPI0719335A2 publication Critical patent/BRPI0719335A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

MÉTODO DE CODIFICAÇçO DE IMAGEM EM MOVIMENTO, DISPOSITIVO DE CODIFICAÇçO DE IMAGEM EM MOVIMENTO, MÉTODO DE GRAVAÇçO DE IMAGEM EM MOVIMENTO, MEIO DE GRAVAÇçO, MÉTODO DE REPRODUÇçO DE IMAGEM EM MOVIMENTO DISPOSITIVO DE REPRODUÇçO DE IMAGEM EM MOVIMENTO, E SISTEMA DE REPRODUÇçO DE IMAGEM EM MOVIMENTO. A presente invenção refere-se a um método de codificação de imagem em movimento que pode impedir a descontinuidade da reprodução sem aumentar a carga de processamento durante uma reprodução. O método de codificação de imagem em movimento codifica um fluxo de vídeo que inclui uma primeira imagem em movimento e uma segunda imagem em movimento a ser sobreposta em cima da primeira imagem em movimento, O método de codificação de imagem em movimento inclui: uma etapa de determinação de uma seção de reprodução contínua que vem a ser um grupo de seções parciais e que é submetida a uma reprodução contínua no fluxo de vídeo (S5301 a S5303); uma etapa de codificação da primeira e segunda imagens em movimento nas seções parciais que constituem a seção de reprodução contínua, de acordo com uma restrição que impede que um limite seja alterado na seção de reprodução contínua, o limite sendo usado para um processo de transparência por chave de luminância em uma sobreposição (S5304); e uma etapa de geração de informações de gerenciamento incluindo informações de sinalização que indicam se o limite é fixado na seção de reprodução contínua (S5305).

Description

Relatório Descritivo da Patente de Invenção para "MÉTODO DECODIFICAÇÃO DE IMAGEM EM MOVIMENTO, DISPOSITIVO DE CODI-FICAÇÃO DE IMAGEM EM MOVIMENTO, MÉTODO DE GRAVAÇÃO DEIMAGEM EM MOVIMENTO, MEIO DE GRAVAÇÃO, MÉTODO DE RE-PRODUÇÃO DE IMAGEM EM MOVIMENTO, DISPOSITIVO DE REPRO-DUÇÃO DE IMAGEM EM MOVIMENTO, E SISTEMA DE REPRODUÇÃODE IMAGEM EM MOVIMENTO".
CAMPO DA INVENÇÃO
A presente invenção refere-se a um método de codificação deimagem em movimento a fim de codificar, ao gerar um fluxo codificado inclu-indo uma imagem em movimento cujos primeiro e segundo planos são sepa-ráveis de acordo com um limite de nível de luminância, a imagem em movi-mento e ao mesmo tempo alterar o limite de nível de luminância. A presenteinvenção refere-se ainda a um método de gravação de imagem em movi-mento, a um método de reprodução de imagem em movimento, a um meiode gravação no qual o fluxo codificado é gravado, e similar.
ANTECEDENTES DA INVENÇÃO
O que se segue descreve um disco de vídeo DVD (doravantesimplesmente referido como "DVD"), segundo a técnica convencional.
A figura 1 mostra a estrutura de um DVD. Conforme mostrado naparte inferior da figura 1, é provido um espaço de endereço lógico entre umaárea inicial de gravação (lead-in) e uma área de encerramento de gravação(lead-ouf) em um disco de DVD. As informações de volume de um sistemade arquivos ficam armazenadas no início do espaço de endereço lógico, se-guidas dos dados de aplicação, tais como o vídeo e o áudio.
O sistema de arquivos é definido pelo padrão ISO 9660 ou peloFormato de Disco Universal (UDF), e vem a ser um mecanismo para repre-sentar os dados de um disco em unidades chamadas de diretório ou arquivo.Um computador pessoal (PC) para uso diário, da mesma forma, pode apre-sentar dados armazenados em um disco rígido sob a forma de diretórios ouarquivos, através de um sistema de arquivos, tais como o FAT ou o NTFS.Isto aumenta a sua capacidade de uso.Os discos de DVD utilizam tanto o formato UDF como o padrãoISO 9660 (uma combinação dos quais é conhecida como "Ponte UDF"), demodo que os dados possam ser lidos por um driver de sistema de arquivosde qualquer formato UDF ou padrão ISO 9660. No caso de um DVD-RAM/R/RW, que são discos de DVD regraváveis, os dados podem ser fisi-camente lidos, gravados, ou apagados através destes sistemas de arquivos.
Os dados gravados em um DVD podem ser visualizados, por umformato de Ponte UDF, como diretórios ou arquivos, conforme mostrado naparte superior esquerda da figura 1. Um diretório chamado "VIDEO_TS" écolocado imediatamente abaixo de um diretório raiz ("ROOT" na figura 1).Os dados de aplicação do DVD são armazenados neste diretório VIDE-O TS. Os dados de aplicação são armazenados como uma pluralidade dearquivos. A pluralidade de arquivos inclui principalmente o seguinte:
- um arquivo de informação de controle de reprodução de discoVIDEO_TS.IFO
- um arquivo de informação de controle de reprodução de con-junto #1 de títulos de vídeo VTS_01_O.IFO
- um arquivo de fluxo de conjunto #1 de títulos de vídeoVTSOIO.VOB
Dois tipos de extensões são especificados. "IFO" indica o arqui-vo que armazena as informações de controle de reprodução, e "VOB" indicao arquivo que armazena um fluxo de padrão MPEG, que vem a ser os dadosAV. As informações de controle de reprodução incluem informações para arealização da interatividade (a técnica de mudar dinamicamente uma repro-dução de acordo com a operação de um usuário) empregada nos discos deDVD, informações tais como os metadados que são anexados a um título oua um fluxo de AV, e similar. Nos discos de DVD, as informações de controlede reprodução são também referidas como informações de navegação.
Os arquivos de informações de controle de reprodução incluemo "VIDEO TS.IFO" para o gerenciamento de todo o disco e o"VTS_01_O.IFO" que vem a ser as informações de controle de reproduçãopara um conjunto de títulos de vídeo individuais (por exemplo, nos discos deDVD1 uma pluralidade de títulos de diferentes filmes ou diferentes versõesde um filme poderá ser gravada em um único disco). "01" no corpo do nomedo arquivo "VTS_01_0.IFO>" indica o número do conjunto de títulos de vídeo.Por exemplo, o arquivo de informações de controle de reprodução para oconjunto #2 de títulos de vídeo será o "VTS_02_0.IFO".
A parte superior direita da figura 1 mostra um espaço de nave-gação de DVD em uma camada de aplicação do DVD. Este vem a ser umespaço lógico de estrutura, no qual as informações de controle de reprodu-ção acima mencionadas são desenvolvidas. No espaço de navegação deDVD, a informação armazenada no arquivo "VIDEO_TS.IFO" é desenvolvidacomo informações do gerenciador de vídeo (VMGI), e as informações decontrole de reprodução que existem para cada conjunto de títulos de vídeoindividuais, tais como o arquivo "VTS_01_O.IFO", são desenvolvidas comoinformações do conjunto de títulos de vídeo (VTSI).
A informação VTSI inclui informações de cadeia de programas(PGCI). As informações PGCI são informações sobre uma seqüência de re-produções chamada de cadeia de programas (PGC). A informação PGCI éprincipalmente composta de um grupo de células e de um tipo de informaçãode programação chamado comandos. Uma célula em si corresponde a todoou a uma parte de um objeto de vídeo (que vem a ser um fluxo de padrãoMPEG e abreviado como VOB). Em um objeto VOB, a execução de umacélula é equivalente à execução de uma seção designada pela célula.
Os comandos são processados por uma máquina virtual deDVD, e são similares, por exemplo, ao Script Java (marca registrada) execu-tado em um navegador. No entanto, os comandos de DVD diferem do ScriptJava (marca registrada) no seguinte aspecto. O Script Java (marca registra-da) controla as janelas e os navegadores (por exemplo, abre a janela de umnovo navegador), além de realizar operações lógicas. Por outro lado, os co-mandos de DVD controlam somente a reprodução de títulos AV, como, porexemplo, ao designar um capítulo a ser exibido, além de realizar operaçõeslógicas.
Uma célula inclui os endereços de início e encerramento de umaseção correspondente de um objeto VOB gravado no disco (os endereçoslógicos de armazenamento no disco), como suas informações internas. Umtocador lê os dados usando os endereços de início e encerramento gravadosna célula com relação ao objeto VOB1 e executa os dados lidos.
A figura 2 é uma vista esquemática para explicar as informaçõesde navegação que ficam embutidas em um fluxo AV. A interatividade, feitapelos discos de DVD, é feita não apenas por meio das informações de nave-gação armazenadas nos arquivos "VIDEO_TS.IFO" e "VTS_01_O.IFO" aci-ma mencionados. Outras informações de navegação importantes são multi-plexadas em um objeto VOB juntamente com os dados de vídeo e áudio, pormeio do uso de uma portadora dedicada chamada pacote de navegação (do-ravante referido como "navipack' ou NV PCK).
É explicado a seguir um menu como um exemplo simples deinteratividade. Uma tela de menu tem vários botões. Para cada um dos bo-tões, é definido um processo a ser executado quando o botão é selecionadoe executado. Um botão fica em um estado selecionado no menu (o botãoselecionado é destacado ao ser sobreposto com uma cor sem !transparentede modo a indicar o estado selecionado do botão a um usuário). O usuáriopode movimentar o destaque para qualquer um dos botões localizados aci-ma, abaixo, à direita, ou à esquerda do botão selecionado em questão, pormeio do uso das teclas Para cima/Para baixo/Direita/Esquerda de um contro-le remoto. Quando o usuário movimenta o destaque para um botão que ousuário quer selecionar para execução usando as teclas Para cima/Parabaixo/Direita/Esquerda do controle remoto e determina a seleção (por exem-pio ao apertar a tecla "Enter"), o programa de um comando correspondenteao botão selecionado é executado. Tipicamente, a reprodução de um títuloou de um capítulo correspondente ao botão selecionado é executada pelocomando.
A parte superior esquerda da figura 2 grosso modo mostra asinformações de controle armazenadas no pacote NV_PCK.
O pacote NV PCK inclui informações de cor de destaque, infor-mações de botão para cada botão individual, e similar. As informações decor de destaque incluem informações de palheta de cores, que especificama cor de destaque semitransparente a ser exibida sobreposta. As informa-ções de botão para cada botão individual incluem as informações de árearetangular mostrando a posição de um botão, as informações de movimentode destaque sobre os movimentos de um botão para outro botão (designan-do a movimentação dos botões de destino correspondentes às operações dousuário das teclas Para cima/Para baixo/Direita/Esquerda), e as informaçõesde comando de botão (um comando a ser executado quando a seleção dobotão é determinada).
O destaque no menu é gerado como uma imagem de sobreposi-ção, conforme mostrado na parte superior intermediária à direita na figura 2.Esta imagem de sobreposição é obtida ao usar a cor especificada pelas in-formações de palheta de cores na área mostrada pela informação da árearetangular das informações de botão. A imagem de sobreposição é super-posta sobre uma imagem de fundo mostrada à direita na figura 2, e a ima-gem resultante é exibida na tela.
Desta maneira, os menus nos discos de DVD são executados.Uma razão principal para que parte dos dados de navegação fique embutidano fluxo usando o pacote NV_PCK é permitir que as informações de menusejam dinamicamente atualizadas em sincronia com o fluxo (por exemplo, aexibição de um menu apenas por cinco a dez minutos durante a reproduçãode um filme), de modo que mesmo uma aplicação que tenha uma sincroni-zação difícil possa ser apropriadamente executada. Um outro motivo princi-pal é aperfeiçoar a operabilidade do usuário, por exemplo, por meio do ar-mazenamento de informações a fim de suportar uma reprodução especial dopacote NV_PCK de modo a permitir que dados AV sejam dados suavementedecodificados e exibidos mesmo quando um DVD é exibido em um modoespecial, como em um avanço rápido ou em retrocesso.
A figura 3 é uma vista conceituai mostrando um objeto VOB quevem a ser um fluxo no DVD. Conforme mostrado na figura 3, dados, tais co-mo de vídeo, áudio, e subtítulos (mostrados no nível A da figura 3) são paco-tizados ou compactados (mostrados no nível B da figura 3) e multiplexadosentre si de modo a formar um fluxo de programa MPEG (mostrados no nívelC da figura 3), com base no padrão de sistema MPEG (Organização Interna-cional de Padronização/Comissão Eletrotécnica Internacional (ISO/IEC)13818-1). Um pacote NV PCK que transporta um comando de botão para aexecução da interatividade é também multiplexado no fluxo de programaMPEG, conforme descrito acima.
No sistema MPEG, a multiplexação apresenta as seguintes ca-racterísticas. Embora os dados individuais a serem multiplexados, ou seja,os dados de vídeo, os dados de áudio, ou os dados de subtítulo, sejam dis-postos em uma cadeia de bits com base em uma ordem de decodificação,estes diferentes tipos de dados no todo, ou seja, os dados de vídeo, os da-dos de áudio, ou os dados de subtítulo, de forma alguma, precisam ser ne-cessariamente dispostos em uma cadeia de bits com base em uma ordemde reprodução. Isto se dá porque um modelo de decodificador para uma flu-xo de sistema MPEG multiplexado (de modo geral chamado Decodificadorde Destino de Sistema ou STD (mostrado no nível D da figura 3)) tem arma-zenadores temporários (buffers) de decodificador correspondentes aos flu-xos elementares individuais obtidos por meio de demultiplexação, e tempora-riamente armazena os dados demultiplexados nos armazenadores temporá-rios de decodificador correspondentes até sua decodificação. Por exemplo,os armazenadores temporários de decodificador definidos por um VídeoDVD possuem diferentes tamanhos dependendo dos fluxos elementares in-dividuais, de tal modo que um tamanho de armazenador temporário seja de232 KB para um vídeo, 4 KB para um áudio, e 52 KB para subtítulos.
Em outras palavras, os dados de subtítulo multiplexados adja-centes aos dados de vídeo não necessariamente são decodificados e execu-tados ao mesmo tempo dos dados de vídeo.
Há também um padrão de DVD de próxima geração chamadodisco Blu-ray (BD).
Embora os discos de DVD sejam concebidos para uma distribui-ção de pacotes de vídeo (formato de Vídeo DVD) de uma qualidade de ima-gem padrão (Qualidade de Definição Padrão) e para a gravação de difusãoanalógica (formato de Gravação de Vídeo DVD), os discos BD conseguemgravar a partir de uma difusão digital de uma qualidade de imagem de altadefinição (Qualidade de Alta Definição), uma vez que o mesmo é um discoBlu-ray de formato regravável, doravante referido como BD-RE).
No entanto, uma vez que o disco BD-RE é amplamente concebi-do para a gravação de uma difusão digital, informações especiais de suportede reprodução ou similar não foram otimizadas. Para as futuras distribuiçõesde pacotes de vídeo de alta resolução a uma taxa maior que a difusão digital(formato BD-ROM), torna-se necessário um mecanismo que não provoquenenhum stress ao usuário, mesmo durante uma reprodução especial.
A Codificação Avançada de Vídeo (AVC) do padrão MPEG-4tem sido empregada como um dos métodos de codificação de imagem emmovimento nos discos BD. A codificação AVC do padrão MPEG-4 vem a serum padrão de codificação de próxima geração com uma taxa de alta com-pactação, que foi conjuntamente desenvolvido pela União Internacional deTelecomunicações ISO/IEC JTC1/SC29/WG11and e pelo Setor de Padroni-zação de Telecomunicações (ITU-T).
Em geral, ao se codificar uma imagem em movimento, as infor-mações são compactadas por meio da redução das redundâncias em umadireção temporal e em uma direção espacial. Na codificação de prediçãoentre imagens que tem por objetivo reduzir as redundâncias temporais, adetecção e geração de movimento de uma imagem preditiva são feitas emunidades de blocos em referência a uma imagem que precede e/ou segueuma imagem de destino de codificação, e uma diferente entre a imagem dedestino de codificação e a imagem preditiva gerada é codificada. O termo"imagem" aqui utilizado denota a imagem de uma tela. Em detalhe, uma i-magem denota um quadro em um formato progressivo, e um quadro ou umcampo em um formato entrelaçado. No formato entrelaçado, um quadro éfeito de dois campos de tempos diferentes. Uma imagem entrelaçada podeser codificada ou decodificada ao se processar um quadro como o próprioquadro, ao se processar um quadro em dois campos, ou ao se processarcada bloco de um quadro como uma estrutura de quadro ou estrutura decampo.
Uma imagem I é uma imagem codificada de predição intraima-gens sem nenhuma imagem de referência. Uma imagem P é uma imagemcodificada de predição entre imagens que refere-se a uma imagem apenas.
Uma imagem B é uma imagem codificada de predição entre imagens querefere-se a duas imagens simultaneamente. Uma imagem B pode referir-sea qualquer combinação de duas imagens que precedem e/ou seguem a i-magem B em termos de tempo da imagem. Uma imagem de referência podeser designada para cada bloco, que vem a ser uma unidade básica da codi-ficação/decodificação. Neste caso, uma imagem de referência que é gravadaprimeiro em um fluxo de bits codificado e uma imagem de referência que égravada mais tarde no fluxo de bits codificado são distintas entre si, comouma primeira imagem de referência e uma segunda imagem de referência,respectivamente. Observa-se aqui que, para se codificar/decodificar umaimagem P ou uma imagem B, a sua imagem de referência precisa já ter sidocodificada/decodificada.
Um sinal residual obtido por meio da subtração de um sinal pre-ditivo gerado por uma predição intraimagens ou por uma predição entre ima-gens a partir de uma imagem de destino de codificação é transformado emfreqüência e quantizado, e, em seguida codificado de tamanho variável eexibido como um fluxo codificado. A codificação AVC de padrão MPEG-4tem dois métodos de codificação de tamanho, quais sejam, a codificação detamanho variável adaptativa ao contexto (CAVLC) e a codificação aritméticabinária adaptativa ao contexto (CABAC), que podem ser comutadas em uni-dades de imagens. O termo "adaptativa ao contexto" aqui referido indica ummodo de adaptativamente selecionar um método de codificação eficiente deacordo com as circunstâncias.
A seguir, descreve-se um fluxo no qual diferentes métodos decodificação (ou uma imagem em movimento com diferentes atributos) podemexistir, e um processo de decodificação por meio de um dispositivo de deco-dificação que recebe tal fluxo. Dois exemplos são usados no presente relató-rio descritivo. Um primeiro exemplo é um caso no qual diferentes métodosde codificação de tamanho variável (CAVLC/CABAC) podem existir. Um se-gundo exemplo é um caso no qual um limite de nível de luminância, utilizadoao se realizar um processo de transparência por meio de uma chave de lu-minância em um recurso "Picture-in-Picture", pode assumir diferentes valo-res.
A seguir, é descrito um primeiro exemplo de fluxo no qual dife-rentes métodos de codificação (ou uma imagem em movimento com diferen-tes atributos) podem existir, ou seja, um exemplo no qual diferentes métodosde codificação de tamanho variável (CAVLC/CABAC) podem existir. A figura4 mostra um exemplo de codificação de tamanho variável aplicada a ima-gens que constituem uma unidade aleatoriamente acessível em um fluxo decodificação AVC de padrão MPEG-4. Na codificação AVC de padrão MPEG-4, não existe nenhum conceito correspondente a um grupo de imagens(GOP) de Vídeo de padrão MPEG-2. No entanto, ao se dividir os dados poruma unidade especial de imagens capaz de ser decodificada independente-mente de outras imagens, uma unidade aleatoriamente acessível correspon-dente a um grupo GOP pode ser obtida. Tal unidade aleatoriamente acessí-vel será doravante chamada de unidade de acesso aleatório (RAU). Confor-me mostrado na figura 4, quer a codificação CABAC ou a codificação CA-VLC seja utilizada, a codificação de tamanho variável é determinada comouma imagem.
Um processo de decodificação de tamanho variação é diferenteentre codificações CABAC ou CAVLC. O processo de decodificação de ta-manho variável para codificação CABAC ou CAVLC é descrito abaixo, emreferência às figuras 5A a 5C. A figura 5A é um diagrama em bloco de umdispositivo de decodificação de imagem que executa a decodificação aritmé-tica binária adaptativa ao contexto (CABAD) como um processo de decodifi-cação de dados que é codificado de tamanho variável de acordo com a codi-ficação CABAC, e a decodificação de tamanho variável adaptativa ao con-texto (CAVLD) como um processo de decodificação de dados que é codifi-cado de tamanho variável de acordo com a codificação CAVLC.
Um processo de decodificação de imagem de acordo com a de-codificação CABAD é realizado da seguinte maneira. Primeiramente, os da-dos codificados Vin gerados de acordo com a codificação CABAC são entra-dos em um armazenador temporário de fluxo 5001. Uma unidade de decodi-ficação aritmética 5002 lê os dados codificados Vr do armazenador temporá-rio de fluxo 5001, realiza a decodificação aritmética nos dados codificadosVr, e entra os dados binários Bin 1 no armazenador temporário de dados bi-nários 5003. A unidade de decodificação de dados binários 5004 obtém osdados binários Bin2 a partir do armazenador temporário de dados binários5003, decodifica os dados binários Bin2, e entra os dados binários Dinl obti-dos como resultado da decodificação para uma unidade de reconstrução depixel 5005. A unidade de reconstrução de pixel 5005 executa processos, taiscomo a quantização inversa, a transformação inversa, e a compensação demovimento nos dados decodificados binários Din 1 para reconstruir pixels, eexibe os dados decodificados Vout. A figura 5B é um fluxograma que mostraa operação a partir do início da decodificação dos dados codificados CABACpara o processo de reconstrução de pixel. Primeiramente, na etapa S5001,os dados Vin codificados na codificação CABAC são decodificados em arit-mética a fim de gerar dados binários. Em seguida, na etapa S5002, é feitoum julgamento se foi obtida ou não uma unidade predeterminada de dadosbinários, como uma ou mais imagens. Quando a unidade de dados bináriospredeterminada é obtida, a operação continua na etapa S5003. Quando aunidade de dados binários predeterminada não é obtida, a etapa S5001 érepetida. Este armazenamento temporário de dados binários é feito pelo se-guinte motivo. Na codificação CABAC, uma quantidade de código de dadosbinários por imagem ou por macrobloco pode aumentar muito, o que poderácausar um significativo aumento da carga de processamento para a decodi-ficação aritmética. Deste modo, para se fazer uma reprodução total mesmona pior das hipóteses, é necessário fazer antes um determinado volume dedecodificação aritmética. Na etapa S5003, os dados binários são decodifica-dos. Na etapa S5004, é feito o processo de reconstrução de pixel nos dadosbinários decodificados. Deste modo, na decodificação CABAD, o processode reconstrução de pixel não pode ser iniciado até que uma determinadaunidade de dados binários seja obtida nas etapas S5001 e S5002. Isto pro-voca um retardo no início da decodificação.
Um processo de decodificação de imagem de acordo com a de-codificação CAVLD é realizado da seguinte maneira. Primeiramente, os da-dos codificados Vin gerados de acordo com a codificação CAVLC são entra-dos no armazenador temporário de fluxo 5001. Em seguida, uma unidade dedecodificação CAVLD 5006 realiza a decodificação de tamanho variável nosdados codificados Vr, e envia os dados Din2 decodificados com a decodifi-cação VLD para unidade de reconstrução de pixel 5005. A unidade de re-construção de pixel 5005 realiza processos, tais como a quantização inver-sa, a transformação inversa, e a compensação de movimento nos dadosDin2 decodificados com a decodificação VLD a fim de reconstruir pixels, egera a saída de dados decodificados Vout. A figura 5C é um fluxograma quemostra uma operação a partir do início da decodificação dos dados codifica-dos CAVLC para o processo de reconstrução de pixel. Primeiramente, naetapa S5004, é feito o processo de reconstrução de pixel. Deste modo, adecodificação CAVLD difere da decodificação CABAD no sentido de que nãohá necessidade de se esperar até que a unidade predeterminada de dadosseja obtida antes do processo de reconstrução de pixel, e não há necessida-de de se ter um armazenador temporário intermediário no processo de de-codificação de tamanho variável, tal como o armazenador temporário de da-dos binários 5003.
A figura 6 é um fluxograma que mostra a operação de um dispo-sitivo de decodificação convencional que decodifica um fluxo no qual o mé-todo de codificação de tamanho variável é comutado como no exemplo dafigura 4. Deve-se notar que, no presente relatório descritivo, o dispositivo dedecodificação e o método de decodificação são exemplos de um dispositivode reprodução de imagem em movimento e um método de reprodução deimagem em movimento, respectivamente.
Primeiramente, na etapa S5101, o dispositivo de decodificaçãoobtém informações que mostram o método de codificação de tamanho variá-vel aplicado a uma imagem, e continua na etapa S5102. Na etapa S5102, odispositivo de decodificação julga se o método de codificação de tamanhovariável da imagem corrente é diferente ou não de um método de codifica-ção de tamanho variável de uma imagem imediatamente anterior à imagemcorrente em uma ordem de decodificação. Uma vez que as decodificaçõesCABAD e CAVLD usam diferentes métodos de gerenciamento de armaze-nador temporário em uma decodificação de tamanho variável, quando o mé-todo de codificação de tamanho variável é diferente, o dispositivo de decodi-ficação continua na etapa S5103 no sentido de comutar o gerenciamento dearmazenador temporário. Quando o método de codificação de tamanho vari-ável não é diferente, o dispositivo de decodificação continua na etapaS5104. Na etapa S5104, o dispositivo de decodificação julga se o método decodificação de tamanho variável da imagem corrente é uma codificação CA-VLC ou não. Quando o método de codificação de tamanho variável da ima-gem corrente é a codificação CAVLC, o dispositivo de decodificação conti-nua na etapa S5105 no sentido de realizar a decodificação CAVLD. Quandoo método de codificação de tamanho variável da imagem corrente é a codifi-cação CABAC, o dispositivo de decodificação continua na etapa S5106. Naetapa S5106, o dispositivo de decodificação julga se o método de codifica-ção de tamanho variável da imagem corrente é diferente do método de codi-ficação de tamanho variável da imagem imediatamente precedente na or-dem de decodificação. Quando o método de codificação de tamanho variávelda imagem corrente é diferente, o dispositivo de decodificação continua naetapa S5107. Na etapa S5107, o dispositivo de decodificação realiza a de-codificação aritmética até que a unidade de dados binários predeterminadaseja obtida nas etapas S5001 e S5002 na figura 5, e em seguida decodificaos dados binários. Quando o método de codificação de tamanho variável daimagem corrente não é diferente na etapa S5106, o dispositivo de decodifi-cação continua na etapa S5108 no sentido de realizar um processo normalde decodificação CABAD. O processo de decodificação CABAD normal aquimencionado é um processo de decodificação CABAD que omite o armaze-namento temporário dos dados binários, necessário quando a codificaçãoCAVLC comuta para a codificação CABAC ou quando se inicia a decodifica-ção de um fluxo codificado de codificação CABAC. Por último, na etapaS5109, o dispositivo de decodificação realiza o processo de reconstrução depixel.
Será descrito a seguir um segundo exemplo de fluxo no qualpodem existir diferentes métodos de codificação (ou uma imagem em movi-mento com diferentes atributos), ou seja, o exemplo no qual um limite denível de luminância (isto é, um atributo de imagem em movimento) utilizadoao se executar um processo de transparência por meio de uma chave deluminância no recurso "Picture-in-Picture" pode assumir diferentes valores.Um meio de pacote, como o formato BD-ROM, provê uma aplicação para aexibição de um vídeo diferente do vídeo principal, por exemplo, o comentáriodo diretor, ao sobrepor o mesmo sobre o vídeo principal. Tal aplicação é re-ferida como "Picture-in-Picture". A figura 7 é um diagrama para explicar esterecurso "Picture-in-Picture". A figura 7(a) mostra planos da imagem de ima-gem, nos quais o plano 2 deve ser sobreposto ao plano 1. As figuras 7(b) e7(c) mostram as imagens exibidas nos planos 1 e 2, respectivamente. A i-magem do plano 2 é exibida em sobreposição à imagem do plano 1 (figura7(d)). Neste recurso "Picture-in-Picture", a imagem exibida no plano 1 é ovídeo principal, e a imagem exibida no plano 2 é um vídeo diferente do vídeoprincipal. A simples sobreposição da imagem do plano 2 ao plano 1 faz comque a imagem do plano 1 fique completamente escondida. Para que issonão aconteça, um processo de transparência por meio de uma chave de lu-minância é aplicado à imagem do plano 2. A seguir, descreve-se o processode transparência pela chave de luminância. No processo de transparência,cada pixel de uma imagem é mostrado transparente ou não transparentedependendo do nível de luminância do pixel. Em detalhe, o processo detransparência é como se segue.
(1) Quando o nível de luminância é de uma faixa de 0 a um limitepredeterminado YL inclusive, o pixel é exibido completamente transparente(com uma taxa de transparência de 1).
(2) Quando o nível de luminância excede o limite YL predetermi-nado, o pixel é exibido não transparente no nível de luminância (com umataxa de transparência de 0).
Na figura 7(c), supõe-se que o nível de luminância seja igual oumenor que o limite YL predeterminado na área diagonalmente sombreada eexceda o limite predeterminado YL na outra área. Neste caso, ao se sobre-por a imagem do plano 2 em cima do plano 1, a área diagonalmente som-breada é exibida transparente, enquanto a outra área é exibida não transpa-rente, conforme mostrado na figura 7(d). Isto quer dizer que, na imagem doplano 2, apenas uma área (pixeí) cujo nível de luminância excede o limite YLé exibida em sobreposição em cima da imagem do plano 1. Deste modo, oplano 2 é separado em um primeiro plano e um segundo plano de acordocom o limite do nível de luminância e apenas o primeiro plano é exibido emsobreposição em cima do plano 1, executando, assim, o recurso "Picture-in-Picture".
Patente de Referência 1: Publicação do Pedido de Patentejapo-nês não examinado N0 2000-228656
Referência 1 de Não Patente: "Proposed SMPTE Standard forTelevision: VC-1 Compressed Video Bitstream Format and Decoding Pro-cess", Revisão 6, 2005.7.13 do Esboço Final 1 do Comitê.
APRESENTAÇÃO DA INVENÇÃO
Problemas a Serem Solucionados pela Invenção
No entanto, um dispositivo de decodificação que recebe um fluxono qual diferentes métodos de codificação (ou uma imagem em movimentocom diferentes atributos) podem existir conforme acima descrito apresenta oseguinte problema: a carga de processamento aumenta devido à necessida-de de um processo de comutação durante uma decodificação. A figura 8vem a ser um diagrama para explicar um problema que pode surgir quandoé aplicado um processo de transparência por chave de luminância a ummeio de gravação convencional gerado por um dispositivo de multiplexaçãoconvencional. A figura 8 mostra seções durante as quais um vídeo submeti-do a um processo de transparência por chave de luminância é continuamen-te exibido. Em detalhe, a seção 1, a seção 2, e a seção 3 devem ser conti-nuamente exibidas nesta ordem. Um limite de nível de luminância para umpixel que é exibido transparente com uma taxa de transparência de 1 será20 na seção 1, 40 na seção 2, e 30 na seção 3. Isto faz com que seja neces-sário mudar o limite de nível de luminância para um pixel transparente quan-do uma seção termina e outra começa. Quando o limite de nível de luminân-cia é alterado, a operação para a sobreposição de plano precisará ser tam-bém modificada. Ocorre um retardo devido a esta mudança de operação.Isto faz com que a reprodução se torne descontínua entre seções que preci-sam ser exibidas perfeitamente integradas.
Sendo assim, ao ligar um meio de gravação convencional sobreo qual é gravado um fluxo multiplexado gerado por um método de codifica-ção de imagem convencional, o limite de chave de luminância é alterado nasunidades de seções de reprodução, o que traz um problema de retardo noprocessamento de limite de nível de luminância no momento da reprodução.
A presente invenção tem por objetivo prover um meio de grava-ção, um método de codificação de imagem em movimento, um dispositivo decodificação de imagem em movimento, um método de gravação de imagemem movimento, um método de reprodução de imagem em movimento e umdispositivo de reprodução de imagem em movimento.
Meios para Solucionar os Problemas
A presente invenção foi concebida no sentido de solucionar oproblema acima.
O método de codificação de imagem em movimento de acordocom a presente invenção é caracterizado pela codificação, em uma seçãosubmetida a uma reprodução contínua (a uma seção de reprodução contí-nua), de uma imagem em movimento sem comutar o método de codificação(ou o atributo de uma imagem em movimento), e a geração de informaçõesde gerenciamento que incluem informações de sinalização que indicam se ométodo de codificação é fixado na seção.
Em maior detalhe, a fim de tratar o caso do recurso "Picture-in-Picture", o método de codificação de imagem em movimento de acordo coma presente invenção vem a ser um método de codificação de imagem emmovimento para codificar um fluxo de vídeo que inclui uma primeira imagemem movimento e uma segunda imagem em movimento a ser sobreposta emcima da primeira imagem em movimento, a sobreposição sendo feita pormeio da sobreposição de apenas uma área da imagem cujo nível de Iumi-nância excede um limite da segunda imagem em movimento, sobre a primei-ra imagem em movimento, o método de codificação de imagem em movi-mento incluindo: a determinação de uma seção de reprodução contínua quevem a ser um grupo de seções parciais e que é submetida a uma reprodu-ção contínua, no fluxo de vídeo; a codificação da primeira imagem em mo-vimento e da secunda imagem em movimento nas seções parciais que cons-tituem a seção de reprodução contínua definida na determinação, de acordocom uma restrição que impede que o limite seja alterado na seção de repro-dução contínua; a geração de informações de gerenciamento incluindo in-formações de sinalização que indicam se o limite é fixado na seção de re-produção contínua; e a combinação da primeira imagem em movimento e dasegunda imagem em movimento codificadas na codificação, com as infor-mações de gerenciamento geradas na geração, e exibição da combinação.
Além disso, o dispositivo de codificação de imagem em movi-mento de acordo com a presente invenção vem a ser um dispositivo de codi-ficação de imagem em movimento para codificar um fluxo de vídeo que incluiuma primeira imagem em movimento e uma segunda imagem em movimen-to a ser sobreposta em cima da primeira imagem em movimento, a sobrepo-sição sendo feita por meio da sobreposição de apenas uma área da imagemcujo nível de luminância excede um limite da segunda imagem em movimen-to, sobre a primeira imagem em movimento, o dispositivo de codificação deimagem em movimento incluindo: uma unidade de determinação de seçãode reprodução contínua que determina uma seção de reprodução contínuaque vem a ser um grupo de seções parciais e que é submetida a uma repro-dução contínua, no fluxo de vídeo; uma unidade de codificação que codificaa primeira imagem em movimento e a segunda imagem em movimento nasseções parciais que constituem a seção de reprodução contínua determina-da pela unidade de determinação de seção de reprodução contínua, de a-cordo com uma restrição que impede que o limite seja alterado na seção dereprodução contínua; uma unidade de geração de informação de gerencia-mento que gera informações de gerenciamento incluindo informações desinalização que indicam se o limite é fixado na seção de reprodução contí-nua; e uma unidade de combinação que combina a primeira imagem emmovimento e a segunda imagem em movimento codificadas pela unidade decodificação com as informações de gerenciamento geradas pela unidade degeração de informações de gerenciamento, e exibe a combinação.
Além disso, o método de gravação de imagem em movimento deacordo com a presente invenção é um método de gravação de imagem emmovimento para codificar um fluxo de vídeo e gravar o fluxo de vídeo codifi-cado em um meio de gravação, o fluxo de vídeo incluindo uma primeira ima-gem em movimento e uma segunda imagem em movimento a ser sobrepos-ta em cima da primeira imagem em movimento, a sobreposição sendo feitapor meio da sobreposição de apenas uma área da imagem cujo nível de Iu-minância excede um limite da segunda imagem em movimento, sobre a pri-meira imagem em movimento, o método de gravação de imagem em movi-mento incluindo: a determinação de uma seção de reprodução contínua quevem a ser um grupo de seções parciais e que é submetida a uma reprodu-ção contínua, no fluxo de vídeo; a codificação da primeira imagem em mo-vimento e da segunda imagem em movimento nas seções parciais que cons-tituem a seção de reprodução contínua definida na determinação, de acordocom uma restrição que impede que o limite seja alterado na seção de repro-dução contínua; a geração de informações de gerenciamento incluindo in-formações de sinalização que indicam se o limite é fixado na seção de re-produção contínua; e a combinação da primeira imagem em movimento e dasegunda imagem em movimento codificadas na codificação, com as infor-mações de gerenciamento geradas na geração, e gravação da combinaçãono meio de gravação.
Além disso, o meio de gravação de acordo com a presente in-venção vem a ser um meio de gravação no qual dados legíveis em compu-tador são gravados, os dados legíveis em computador incluindo: um fluxo devídeo incluindo uma primeira imagem em movimento e uma segunda ima-gem em movimento a ser sobreposta em cima da primeira imagem em mo-vimento, a sobreposição sendo feita por meio da sobreposição de apenasuma área da imagem cujo nível de luminância excede um limite da segundaimagem em movimento sobre a primeira imagem em movimento; e informa-ções de gerenciamento utilizadas para gerenciar o fluxo de vídeo, sendoque, de acordo com uma restrição que impede que o limite seja alterado emuma seção de reprodução contínua que vem a ser um grupo de seções par-ciais e que é submetida a uma reprodução contínua no fluxo de vídeo, a pri-meira imagem em movimento e a segunda imagem em movimento nas se-ções parciais que constituem a seção de reprodução contínua são codifica-das, e as informações de gerenciamento incluem informações de sinalizaçãoque indicam se o limite é fixado na seção de reprodução contínua.
Além disso, o método de reprodução de imagem em movimentode acordo com a presente invenção é um método de reprodução de imagemem movimento para decodificar um fluxo de vídeo codificado incluindo umaprimeira imagem em movimento e uma segunda imagem em movimento e aexibição em sobreposição da segunda imagem em movimento sobre a pri-meira imagem em movimento, o método de reprodução de imagem em mo-vimento incluindo: a obtenção de informações de gerenciamento correspon-dentes ao fluxo de vídeo e análise das informações de gerenciamento obti-das; a decodificação da primeira imagem em movimento e da segunda ima-gem em movimento de acordo com a análise feita; e a exibição em sobrepo-sição de apenas uma área da imagem cujo nível de luminância excede umlimite na segunda imagem em movimento decodificada sobre a primeira i-magem em movimento decodificada, sendo que a análise inclui o julgamentose as informações de gerenciamento incluem ou não informações de sinali-zação que indicam se o limite é fixado, e a exibição em sobreposição inclui aexibição em sobreposição da área de imagem em uma seção parcial corren-te ao usar um mesmo limite como uma seção parcial imediatamente prece-dente, quando o julgamento na análise é se as informações de gerenciamen-to incluem as informações de sinalização.
Além disso, o dispositivo de reprodução de imagem em movi-mento de acordo com a presente invenção vem a ser um dispositivo de re-produção de imagem em movimento para decodificar um fluxo de vídeo codi-ficado incluindo uma primeira imagem em movimento e uma segunda ima-gem em movimento e para exibir em sobreposição a segunda imagem emmovimento sobre a primeira imagem em movimento, o dispositivo de repro-dução de imagem em movimento incluindo: a unidade de processamento deinformações de gerenciamento que obtém informações de gerenciamentocorrespondentes ao fluxo de vídeo e analisa as informações de gerencia-mento obtidas; uma unidade de decodificação que decodifica a primeira i-magem em movimento e a segunda imagem em movimento de acordo coma análise feita pela unidade de processamento de informações de gerencia-mento; e uma unidade de vídeo que exibe em sobreposição apenas umaárea da imagem cujo nível de luminância excede um limite na segunda ima-gem em movimento decodificada sobre a primeira imagem em movimentodecodificada, sendo que a unidade de processamento de informações degerenciamento julga se as informações de gerenciamento incluem ou nãoinformações de sinalização que indicam se o limite é fixado, e a unidade devídeo exibe em sobreposição a área de imagem em uma seção parcial cor-rente ao usar um mesmo limite como uma seção parcial imediatamente pre-cedente, quando a unidade de processamento de informações de gerencia-mento julga se as informações de gerenciamento incluem as informações desinalização.
Deve-se notar que a presente invenção pode ser realizada nãosomente como o método de codificação de imagem em movimento, o dispo-sitivo de codificação de imagem em movimento, o método de gravação deimagem em movimento, o meio de gravação, o método de reprodução deimagem em movimento e o dispositivo de reprodução de imagem em movi-mento acima mencionados. A presente invenção pode ser também realizadacomo um programa para que um computador execute as etapas incluídasem cada um dos métodos acima, um meio de gravação legível em computa-dor, tal como um DVD no qual um programa é gravado, ou um circuito inte-grado semicondutor, tal como um LSI, que inclui as unidades estruturais decada um dos dispositivos acima.
Efeitos da Invenção
Conforme acima descrito, de acordo com o método de codifica-ção de imagem em movimento ou similar da presente invenção, em umaseção submetida a uma reprodução contínua, uma imagem em movimento écodificada sem comutar o método de codificação (ou o atributo de uma ima-gem em movimento), e informações de gerenciamento que incluem informa-ções de sinalização que indicam se o método de codificação é fixado na se-ção são geradas. Um dispositivo de reprodução que recebe (ou lê a partir deum meio de gravação) uma imagem em movimento e as informações de ge-renciamento de tal estrutura de dados não precisa executar um processopara monitorar a comutação do método de codificação ou o atributo da ima-gem em movimento. Por conseguinte, a carga de processamento pode seraliviada.
Isto quer dizer que, com relação a um recurso "Picture-in-Picture", um limite de nível de luminância utilizado para julgar se cada pixeltransparente fixo deve ser exibido ou não nos dados codificados de uma i-magem em movimento em uma seção de reprodução contínua. Como resul-tado, um retardo na reprodução provocado pela comutação do limite é su-primido, com isto sendo possível obter uma reprodução perfeitamente inte-grada. Isto contribui para uma qualidade maior de reprodução de meios depacote, aplicativos de distribuição, ou similar para a exibição em sobreposi-ção de uma imagem em movimento sobre uma imagem em movimento, grá-ficos, uma imagem estática, e similar. Além disso, a carga de processamentode um dispositivo de reprodução que realiza tal aplicativo pode ser reduzida.Deste modo, a presente invenção tem um alto valor prático.
BREVE DESCRIÇÃO DOS DESENHOS
A figura 1 mostra a estrutura de um DVD.
A figura 2 mostra a estrutura de um destaque.
A figura 3 mostra um exemplo de multiplexação de um DVD.
A figura 4 mostra um exemplo de codificação de tamanho variá-vel adotado com base na imagem de um fluxo convencional de codificaçãoAVC de padrão MPEG-4.
A figura 5A é um diagrama em blocos mostrando a estrutura deum dispositivo de decodificação para decodificar um fluxo que foi codificadode acordo com as codificações CABAC e CAVLC.
A figura 5B é um fluxograma mostrando uma operação de deco-dificação de um fluxo codificado em CABAC.
A figura 5C é um fluxograma mostrando uma operação de deco-dificação de um fluxo codificado em CAVLC.
A figura 6 é um fluxograma mostrando a operação de um dispo-sitivo de decodificação convencional.
A figura 7 mostra um exemplo de tela de um recurso "Picture-in-Picture".
A figura 8 vem a ser um diagrama para explicar um problemaprovocado ao se comutar o limite de chave de luminância em uma seção dereprodução contínua.
A figura 9 mostra um exemplo de codificação de tamanho variá-vel adotado com base na imagem de um fluxo de codificação AVC de padrãoMPEG-4 gravado em um meio de gravação de uma primeira modalidade dapresente invenção.
A figura 10 mostra um exemplo de armazenamento de informa-ções de sinalização mostrando uma unidade pela qual um método de codifi-cação de tamanho variável é fixado no meio de gravação.
A figura 11 é um fluxograma mostrando a operação de um dis-positivo de decodificação para a execução do meio de gravação.
A figura 12 é um diagrama em blocos mostrando a estrutura deum dispositivo de multiplexação na primeira modalidade da presente invenção.
A figura 13 é um fluxograma mostrando a operação do dispositi-vo de multiplexação.
A figura 14 é um fluxograma mostrando um exemplo específicoda Etapa S5201 mostrado na figura 13.
A figura 15 é um fluxograma mostrando um exemplo específicoda Etapa S5202 mostrado na figura 13.
A figura 16 é um fluxograma mostrando um exemplo específicodas Etapas S5204 e S5205 mostrado na figura 13.
A figura 17 é um fluxograma mostrando outro exemplo específi-co da Etapa S5202 mostrado na figura 13.
A figura 18 mostra uma estrutura de dados hierárquica de umdisco BD.
A figura 19 mostra uma estrutura de espaço lógico no disco BD.
A figura 20 é um diagrama em blocos mostrando grosso modoum tocador de disco BD.
A figura 21 é um diagrama em blocos mostrando uma estruturade tocador de disco BD.
A figura 22 vem a ser um diagrama para explicar um espaço deaplicação do disco BD.
A figura 23 mostra a estrutura de um fluxo de padrão MPEG (ob-jeto VOB).
A figura 24 mostra uma estrutura de pacote.
A figura 25 vem a ser um diagrama para explicar uma relaçãoentre um fluxo AV e uma estrutura de tocador.
A figura 26 é um diagrama de modelo de um suprimento contí-nuo de dados AV para um armazenador temporário de trilha.
A figura 27 mostra a estrutura de um arquivo de informação deobjeto VOB.
A figura 28 vem a ser um diagrama para explicar um mapa detempo.
A figura 29 mostra uma estrutura de arquivo de lista de reprodu-ção (lista de reprodução).
A figura 30 mostra uma estrutura de arquivo de programa cor-respondente a uma lista de reprodução.
A figura 31 mostra uma estrutura de um arquivo inteiro de infor-mação de gerenciamento de disco BD.
A figura 32 mostra uma estrutura de arquivo que armazena umarotina handler global de eventos.
A figura 33 mostra um exemplo de evento de tempo.A Força 34 mostra um exemplo de evento de usuário.A figura 35 mostra um exemplo de rotina handler global de even-tos.
A figura 36 mostra uma estrutura de máquina virtual.A figura 37 mostra uma tabela de variáveis de tocador.A figura 38 mostra um exemplo de rotina handler de eventos (pa-ra um evento de tempo).
A figura 39 mostra um exemplo de rotina handler de eventos (pa-ra um evento de usuário).
A figura 40 é um fluxograma mostrando um processamento bá-sico para tocador.
A figura 41 é um fluxograma mostrando um processamento dereprodução de lista de reprodução.
A figura 42 é um fluxograma mostrando um processamento deeventos.
A figura 43 é um fluxograma mostrando um processamento desubtítulos.
A figura 44 mostra um exemplo no qual o limite de chave de Iu-minãncia é fixado em uma seção de reprodução contínua.
A figura 45 vem a ser um diagrama para explicar os valores rela-tivos à chave de luminância que são fixos em uma seção de reprodução per-feitamente integrada.
A figura 46 vem a ser um diagrama para explicar uma sinaliza-ção que garante que o limite de chave de luminância é fixado.
A figura 47 mostra uma operação de recurso "Picture-in-Picture"no meio de gravação de uma segunda modalidade da presente invenção.
A figura 48 vem a ser um diagrama para explicar a multiplexaçãode um vídeo primário e de um vídeo secundário.
A figura 49 é um fluxograma mostrando a operação de um mé-todo de multiplexação para realizar a operação do recurso "Picture-in-Picture" da segunda modalidade da presente invenção.
A figura 50 é um fluxograma mostrando a operação da geraçãode informações de gerenciamento no método de multiplexação para realizara operação do recurso "Picture-in-Picture" da segunda modalidade da pre-sente invenção.
A figura 51 é um diagrama em blocos mostrando a estrutura deum dispositivo de multiplexação da segunda modalidade da presente inven-ção.
A figura 52 mostra um exemplo de informação de atributo devídeo armazenada na meta informação de um recurso "Picture-in-Picture".
A figura 53 mostra uma estrutura de dados de informação degerenciamento gerada pelo dispositivo de multiplexação mostrado na figura51, sendo que a figura 53(a) mostra os elementos de dados de uma lista dereprodução que faz parte das informações de gerenciamento, e a figura53(b) mostra um exemplo de uma lista de reprodução especificando as se-ções de reprodução que são conectadas perfeitamente integradas.
A figura 54 é um fluxograma mostrando a operação de um toca-dor para executar a operação do recurso "Picture-in-Picture" da segundamodalidade da presente invenção.
A figura 55A mostra um formato físico exemplar de um disco fle-xível que vem a ser um corpo de meio de gravação de uma terceira modali-dade da presente invenção.
A figura 55B mostra a aparência de um disco flexível conformevisto a partir de uma seção transversal frontal de um disco flexível, e o pró-prio disco flexível.
A figura 55C mostra uma estrutura para gravar/reproduzir umprograma no disco flexível.
MELHOR MODO DE SE EXECUTAR A INVENÇÃO
Um método de codificação de imagem em movimento ao qual apresente invenção refere-se é caracterizado pela codificação de uma ima-gem em movimento sem comutar o método de codificação (ou o atributo deuma imagem em movimento) em uma seção submetida a uma reproduçãocontínua (a uma seção de reprodução contínua), e pela geração de informa-ções de gerenciamento que incluem informações de sinalização que indicamse o método de codificação é fixado na seção de reprodução contínua.
O que se apresenta a seguir descreve modalidades da presenteinvenção em referência aos desenhos.
Primeira Modalidade
O primeiro exemplo de fluxo no qual diferentes métodos de codi-ficação (ou uma imagem em movimento com diferentes atributos) podemexistir, ou seja, o exemplo no qual diferentes métodos de codificação de ta-manho variável (CAVLC/CABAC) podem existir, é descrito abaixo como umaprimeira modalidade da presente invenção.
A primeira modalidade descreve um meio de gravação e um dis-positivo de reprodução para o meio de gravação que pode impedir, ao deco-dificar os dados codificados de uma imagem em movimento em um meio depacote tal como um disco BD-ROM, um retardo na operação de decodifica-ção provocado ao se comutar um método de codificação de tamanho variá-vel e um aumento da carga de processamento provocado ao se comutar ummétodo de gerenciamento de armazenamento temporário, cuja comutaçãodo método de gerenciamento de armazenamento temporário acompanha acomutação do método de codificação de tamanho variável. Embora estamodalidade descreva o uso da codificação AVC de padrão MPEG-4 comoum método de codificação de imagem em movimento exemplar, outros mé-todos de codificação de imagem em movimento que permitem a comutaçãoentre diferentes métodos de codificação de tamanho variável em um fluxosão igualmente aplicáveis.
Em um fluxo de codificação AVC de padrão MPEG-4 gravado nomeio de gravação desta modalidade, impõe-se uma restrição a uma unidadepela qual um método de codificação de tamanho variável se torna comutável(doravante referido como uma "unidade comutável do método de codificaçãode tamanho variável"), e as informações que indicam se a unidade comutá-vel do método de codificação de tamanho variável fica limitada (isto é, restri-ta) e/ou as informações que mostram a unidade comutável do método decodificação de tamanho variável limitada são incluídas nas informações degerenciamento.
A figura 9 mostra exemplos de limitação da unidade comutáveldo método de codificação de tamanho variável no fluxo de codificação AVCde padrão MPEG-4. Em um meio de pacote, tal como o disco BD-ROM, umaunidade pela qual os dados codificados de uma imagem em movimento sãocontinuamente exibidos (doravante referida como "uma unidade de reprodu-ção contínua") é mostrada por meio de uma lista de reprodução (PIayIisf) ousimilar. Quando um método de codificação de tamanho variável é fixado nes-ta unidade de reprodução contínua, nem o retardo na operação de decodifi-cação provocado pela comutação do método de codificação de tamanho va-riável nem o aumento da carga de processamento provocada pela comuta-ção do método de gerenciamento de armazenamento temporário ocorreráem uma seção que é continuamente exibida. Por conseguinte, nesta modali-dade, o método de codificação de tamanho variável é fixado na unidade dereprodução contínua. As figuras 9(a) e 9(b) mostram exemplos de limitaçãodo método de codificação de tamanho variável em uma unidade de reprodu-ção contínua para as codificações CAVLC e CABAC, respectivamente. Nes-te caso, existem dois tipos de condições de conexão para os clipes que sãotocados de maneira contínua, ou seja, em uma conexão perfeitamente inte-grada ou em uma conexão não integrada. A conexão aqui mencionada incluium caso de conexão de uma pluralidade de seções dentro de um mesmoclipe. Na conexão não integrada, pode ocorrer um intervalo na operação dedecodificação como no caso da conexão com um grupo GOP aberto. Emvista disto, o método de codificação de tamanho variável só pode ser fixo emuma unidade de reprodução contínua de conexão perfeitamente integrada,embora permita a comutação do método de codificação de tamanho variávelem uma unidade de reprodução contínua de conexão não integrada.
De maneira alternativa, o método de codificação de tamanhovariável pode ser fixo em uma unidade, como, por exemplo, em um clipe ouem uma unidade de acesso aleatório (RAU), além da unidade de reproduçãocontínua. As figuras 9(c) e 9(d) mostram exemplos de fixação do método decodificação de tamanho variável por clipe, enquanto a figura 9(e) mostra e-xemplos de fixação do método de codificação de tamanho variável por uni-dade de acesso aleatório.
Da mesma forma, informações de sinalização que indicam se aunidade comutável do método de codificação de tamanho variável fica limi-tada no fluxo de codificação AVC de padrão MPEG-4 são incluídas nas in-formações de gerenciamento. Neste caso, as informações de identificaçãodo método de codificação são usadas como uma sinalização. A figura 10mostra um exemplo de armazenamento de sinalização em um disco BD-ROM. Nos discos BD-ROM, o método de codificação de cada clipe referidoem uma lista de reprodução fica armazenado em uma área chamada uStre-amCodinglnfo" nas informações de gerenciamento. Esta área "StreamCo-dinglnfo" pode ser usada de tal modo que, quando codificação AVC de pa-drão MPEG-4 é especificado como o método de codificação na área "Stre-amCodinglnfo", isto significa que o método de codificação de tamanho variá-vel é fixado em uma unidade de reprodução contínua. Além disso, podemser providas também informações que mostram se o método de codificaçãode tamanho variável é uma codificação CABAC ou CAVLC.
Como uma alternativa, uma sinalização que indica se a unidadecomutável do método de codificação de tamanho variável é restrita pode serseparadamente definida e incluída nas informações de gerenciamento. Po-dem também ser incluídas informações que mostram a unidade comutáveldo método de codificação de tamanho variável. Além disso, estas informa-ções podem ser incluídas dentro do fluxo de codificação AVC de padrãoMPEG-4. Por exemplo, as informações que indicam se o método de codifi-cação de tamanho variável é fixado em imagens que constituem uma unida-de de acesso aleatório podem ser armazenadas em uma unidade de cama-da de abstração de rede (NAL) das informações suplementares de aperfei-çoamento (SEI) ou de um tipo não especificado na imagem inicial de umaunidade de acesso aleatório.
Na codificação AVC de padrão MPEG-4, uma sinalização en-tropy_coding_mode_flag em um conjunto de parâmetros de imagem (PPS)que mostra informações de inicialização com base na imagem indica se ométodo de codificação de tamanho variável é uma codificação CAVLC ouCABAC. Sendo assim, quando o método de codificação de tamanho variávelé fixado em uma seção predeterminada, um valor de campo da sinalizaçãoentropy_coding_mode_flag é fixado em todos os conjuntos PPS referencia-dos pelas imagens daquela seção. Na codificação AVC de padrão MPEG-4,um conjunto PPS não referenciado por nenhuma imagem existente em umaseção de uma ordem de decodificação poderá ser armazenado naquela se-ção. Neste caso, não se torna necessário limitar um valor de campo da sina-lização entropy_coding_mode_flag no conjunto PPS não referenciado pornenhuma imagem da seção. Por exemplo, enquanto todos os conjuntos PPSreferenciados por imagens em uma unidade de acesso aleatório são incluí-dos naquela unidade de acesso aleatório, um conjunto PPS não referencia-do por nenhuma imagem de uma unidade de acesso aleatório poderá tam-bém existir em uma unidade de acesso aleatório. Neste caso, uma vez queum conjunto PPS não referenciado não tem qualquer influência sobre a de-codificação, um valor de campo da sinalização entropy_coding_mode_flagdo conjunto PPS não referenciado não precisará ser limitado. No entanto,dado que o processamento será mais fácil se a sinalização en-tropy_coding_mode_flag de cada conjunto PPS incluído na seção tiver omesmo valor de campo, o valor de campo da sinalização en-tropy_coding_mode_flag poderá ser fixo incluindo o conjunto PPS não refe-renciado.
A figura 11 é um fluxograma mostrando uma operação de deco-dificação de uma unidade de reprodução contínua no meio de gravação des-ta modalidade. Nesta modalidade, o método de codificação de tamanho va-riável é fixado por uma unidade de reprodução contínua. Por conseguinte, oarmazenamento temporário dos dados binários e a comutação do método degerenciamento de armazenamento temporário durante uma decodificaçãoserão desnecessários, diferentemente da operação de decodificação con-vencional mostrada na figura 6. A operação realizada em cada etapa da figu-ra 11 é igual à etapa com o mesmo numerai de referência da figura 6, e,deste modo, a sua explicação foi aqui omitida.
Um novo método de codificação chamado codificação VC-1 (vi-de Referência Não Patente 1) se encontra atualmente em processo de pa-dronização pela Sociedade de Engenheiros de Televisão e Imagem em Mo-vimento (SMPTE). Na codificação VC-1, são definidas várias sinalizaçõesmostrando métodos de codificação de macroblocos (uma unidade com otamanho de 16 χ 16 pixels). Exemplos de tais sinalizações incluem uma si-nalização mostrando se um macrobloco é um macrobloco de salto ou não,uma sinalização mostrando se um macrobloco é de um modo de campo oude um modo de quadro, e uma sinalização mostrando se um macrobloco éum macrobloco de modo direto ou não.
A codificação por plano de bits é uma das ferramentas de codifi-cação estendidas. A codificação por plano de bits é usada para mostrar assinalizações scirna que indicam os métodos de codificação de macroblocos.A codificação por plano de bits permite que as sinalizações correspondentesa uma imagem sejam mostradas em conjunto em um cabeçalho de imagem.Em geral, macroblocos adjacentes têm uma alta correlação, e, assim, assinalizações correspondentes aos macroblocos adjacentes terão, também,uma alta correlação. Sendo assim, ao se codificar sinalizações de macroblo-cos adjacentes em conjunto, a quantidade de códigos que representa taissinalizações pode ser reduzida.
Sete tipos de métodos de codificação são definidos na codifica-ção por plano de bits. Um deles é um método de codificação de cada sinali-zação em um cabeçalho de macrobloco. Este método é chamado de modobruto, e é similar ao do Vídeo de padrão MPEG-2 ou ao Visual de padrãoMPEG-4. Os outros seis métodos codificam sinalizações correspondentes auma imagem em conjunto, são diferentes entre si dependendo de como assinalizações de macroblocos adjacentes se combinam para codificação. Porexemplo, os seis métodos incluem um método de codificação de sinaliza-ções de dois macroblocos juntos horizontalmente adjacentes, e um métodoque expressa um bit "0" quando todas as sinalizações de macroblocos emuma linha horizontal são "0", e codifica cada sinalização tal como é quandopelo menos uma das sinalizações é "1".
Cada qual dentre os sete métodos utilizados na codificação porplano de bits pode ser modificado em unidades de imagens, para cada sina-lização individual.
Suponha, na codificação por plano de bits, que o modo 1 indicaapenas o uso do método de codificação de cada sinalização em um cabeça-Iho de macrobloco, e o modo 2 indica apenas o uso do método de codifica-ção de sinalizações correspondentes a uma imagem em conjunto. Uma vezque o modo 1 e o modo 2 diferem na operação de decodificação, a carga deprocessamento aumentará quando um modo for comutado pelo outro, o quepoderá causar um retardo. Em vista disto, uma restrição poderá ser impostaa uma unidade pela qual o modo se torna comutável entre o modo 1 e o mo-do 2 na codificação por plano de bits, da mesma maneira que a restriçãoacima com r@!açac a unidade comutável do método de codificação de iama-nho variável. Como um exemplo, o modo da codificação por plano de bitspode ser fixo em uma unidade de reprodução contínua ou em uma unidadede reprodução contínua de conexão perfeitamente integrada. Da mesmaforma, as informações de sinalização que indicam se o modo da codificaçãopor plano de bits é fixado em uma unidade predeterminada podem ser inclu-idas nas informações de gerenciamento. Por exemplo, a área uStreamCo-dinglnfo" pode ser usada como estas informações de sinalização. Neste ca-so, quando a codificação VC-1 é especificada como o método de codificaçãopela área "StreamCodinglnfo", isto significa que o modo de codificação porplano de bits é fixado em uma unidade predeterminada.
Além disso, suponha que o modo 3 indica o uso de ambos o mé-todo de codificação de cada sinalização em um cabeçalho de macrobloco eo método de codificação de sinalizações correspondentes a uma imagem emconjunto. Pode haver casos nos quais o modo 1 e o modo 3 são seletiva-mente utilizados dependendo do ambiente no qual a codificação VC-1 é apli-cada. Um exemplo é usar o modo 1 para um terminal com uma baixa capa-cidade de processamento, e o modo 3 para um terminal com uma alta capa-cidade de processamento. Neste caso, será eficaz fixar o modo de codifica-ção por plano de bits em um no modo 1 e no modo 3 em uma unidade dereprodução predeterminada. Da mesma forma, as informações de sinaliza-ção que indicam se o modo de codificação por plano de bits é fixado em umno modo 1 e no modo 3, ou as informações que mostram em qual dentre omodo 1 ou o modo 3 o modo de codificação por plano de bits é fixado, po-dem ser incluídas nas informações de gerenciamento ou em um fluxo codifi-cado. Neste caso, o modo 2 e o modo 3 podem ser seletivamente usados aoinvés do modo 1 e modo 3.
A figura 12 é um diagrama em blocos mostrando a estrutura deum dispositivo de multiplexação 5100 para realizar o método de multiplexa-ção da presente modalidade. O dispositivo de multiplexação 5100 inclui umaunidade de determinação de unidade comutável 5101, uma unidade de ge-ração de informação de comutação 5102, uma unidade de codificação 5103,urna unidade ds rnultipíexaçso de sistema 5104, urna unidade de geração deinformação de gerenciamento 5105, e uma unidade de combinação 5106. Aoperação de cada uma das unidades estruturais é descrita a seguir.
A unidade de determinação de unidade comutável 5101 deter-mina a unidade pela qual o método de codificação de tamanho variável écomutável, e entra a unidade determinada na unidade de geração de infor-mação de comutação 5102 e na unidade de codificação 5103 como umaunidade comutável. Supõe-se aqui que a unidade comutável é definida ante-riormente, embora a unidade comutável possa ser definida também a partirde fora. A unidade de geração de informação de comutação 5102 gera ainformação de comutação Swlnf mostrando a unidade comutável do métodode codificação de tamanho variável com base na unidade comutável, e entraa informação de comutação Swlnf para a unidade de geração de informaçãode gerenciamento 5105. A unidade de codificação 5103 codifica os dados decada clipe de modo a atender a restrição da unidade comutável, e entra osdados codificados Cdatal para a unidade de multiplexação de sistema 5104.
A unidade de multiplexação de sistema 5104 executa uma multiplexação desistema nos dados codificados Cdatal, e entra as informações de fluxo S-trlnfl para a unidade de geração de informação de gerenciamento 5105 e osdados multiplexados Mdatal para a unidade de combinação 5106. Nos dis-cos BD-ROM, é empregado um método de multiplexação de sistema cha-mado de pacote de origem no qual um cabeçalho de 4 bytes é adicionado aum fluxo de transporte de padrão MPEG-2. Da mesma forma, as informa-ções de fluxo Strlnfl incluem informações de modo a gerar informações degerenciamento para os dados multiplexados Mdatal1 como, por exemplo, ummapa de tempo. A unidade de geração de informação de gerenciamento5105 gera as informações de gerenciamento Ctrllnf1 que incluem a informa-ção de comutação Swlnf1 o mapa de tempo gerado com base nas informa-ções de fluxo Strlnfl, e similar, e entra as informações de gerenciamentoCtrllnf1 para a unidade de combinação 5106. A unidade de combinação5106 combina as informações de gerenciamento Ctrllnf1 e os dados multi-plexados Mdatal, e exibe a combinação como os dados de gravação Doutl.
Observa-se que, ao gerar dados por meio do uso de uma ferra-menta autoral ou similar, ocorre o caso no qual a geração de dados codifica-dos e de multiplexação de sistema ou a geração de informações de gerenci-amento são feitas por meio de dispositivos separados. Neste caso, o métodode multiplexação acima pode ser obtido por meio destes dispositivos sepa-rados que operam da mesma maneira que as unidades estruturais do dispo-sitivo de multiplexação 5100.
A figura 13 é um fluxograma mostrando a operação de um mé-todo de multiplexação de modo a gerar os dados multiplexados gravados nomeio de gravação da presente modalidade. O método de multiplexação des-ta modalidade difere do método de multiplexação convencional no sentido deque inclui uma etapa de determinar a unidade pela qual o método de codifi-cação de tamanho variável é comutável (Etapa S5201), uma etapa de codifi-car cada clipe com base na determinada unidade comutável do método decodificação de tamanho variável (Etapa S5202), e uma etapa de gerar infor-mações de sinalização mostrando a unidade comutável do método de codifi-cação de tamanho variável (Etapa S5204).
Primeiramente, na Etapa S5201, a unidade comutável do méto-do de codificação de tamanho variável é determinada. Em detalhe, um den-tre uma unidade de reprodução contínua, um clipe, e uma unidade de aces-so aleatório é determinada como uma unidade comutável do método de co-dificação de tamanho variável. Na Etapa S5202 que segue, os dados de umclipe de codificação AVC de padrão MPEG-4 é codificado com base em umaunidade comutável do método de codificação de tamanho variável determi-nada na Etapa S5201. Na Etapa S5203, é feito um julgamento se terminouou não a codificação de um último clipe. Quando a codificação do último cli-pe termina, a operação prossegue para a Etapa S5204. Quando a codifica-ção do último clipe não terminou, a operação volta para a Etapa S5202 a fimde repetir a codificação do clipe. Na Etapa S5204, são geradas as informa-ções de sinalização que mostram a unidade comutável do método de codifi-cação de tamanho variável, e a operação prossegue para a Etapa S5205.Na Etapa S5205, são geradas as informações de gerenciamento que inclu-siTi as informaçoes de sinalízaçao geradas na Etapa 35204, e as informa-ções de gerenciamento e os dados codificados do clipe são multiplexadosentre si e exibidos.
A figura 14 é um fluxograma mostrando um exemplo específicoda etapa (Etapa S5201) de determinar a unidade comutável do método decodificação de tamanho variável da figura 13. Na figura 14, um clipe é umaunidade mínima pela qual o método de codificação de tamanho variável écomutável, conforme mostrado nas figuras 9(c) e 9(d). O clipe aqui mencio-nado é gravado no meio de gravação como um arquivo de dados AV, e é umúnico arquivo que armazena, por exemplo, um fluxo de codificação AVC depadrão MPEG-4 ou um fluxo de codificação VC-1. Em um fluxo de transpor-te, o clipe é um fluxo especificado por um identificador de pacote de fluxoTS.
Na figura 14, a unidade de determinação de unidade comutável5101 julga se uma imagem de destino de codificação é a imagem inicial deum clipe (Etapa S5201a). Quando a imagem de destino de codificação não éa imagem inicial do clipe, ou seja, quando a imagem de destino de codifica-ção se encontra em algum ponto intermediário do clipe, a unidade de deter-minação de unidade comutável 5101 determina se o método de codificaçãode tamanho variável não é comutável na codificação do clipe (EtapaS5201f).
Quando a imagem de destino de codificação é a imagem inicialdo clipe, a unidade de determinação de unidade comutável 5101 julga se oclipe é conectado perfeitamente integrado a um clipe imediatamente anteriorao que já foi codificado (Etapa S5201b). Quando o clipe é conectado perfei-tamente integrado, a unidade de determinação de unidade comutável 5101determina se o método de codificação de tamanho variável não é comutávelna codificação do clipe (Etapa S5201f).
Quando a imagem de destino de codificação é uma imagem ini-cial do clipe, a unidade de determinação de unidade comutável 5101 julga seo clipe é conectado perfeitamente integrado ou não a um clipe imediatamen-te anterior ao que já foi codificado (Etapa S5201b). Quando o clipe é conec-tado perfeitamente integrado, a unidade de determinação de unidade comu-tável 5101 determina se o método de codificação de tamanho variável não écomutável na codificação do clipe (Etapa S5201f).
Quando o clipe não é conectado perfeitamente integrado, a uni-dade de determinação de unidade comutável 5101 julga se o clipe corres-ponde ou não a um ângulo pertencente a um multiângulo (Etapa S5201c).
Quando o clipe corresponde a um ângulo que pertence a um multiângulo, aunidade de determinação de unidade comutável 5101 determina se o méto-do de codificação de tamanho variável não é comutável entre os ângulos domultiângulo, na codificação do clipe (Etapa S5201f). Neste caso, para ummultiângulo perfeitamente integrado no qual cada ângulo pode ser conecta-do perfeitamente integrado, o método de codificação de tamanho variável decada ângulo é determinado como o mesmo de um clipe imediatamente ante-rior à seção de multiângulo. Para um multiângulo não integrado no qual cadaângulo não se encontra necessariamente conectado perfeitamente integra-do, por outro lado, quando o método de codificação de tamanho variável decada ângulo é igual, este método de codificação de tamanho variável poderáser diferente daquele do clipe imediatamente anterior à seção de multiângulo.Quando a imagem de destino de codificação é uma imagem ini-cial do clipe e os julgamentos nas Etapas S5201b e S5201c são ambos ne-gativos (Etapas S5201b e S5201c: Não), a unidade de determinação de uni-dade comutável 5101 determina se o método de codificação de tamanhovariável do clipe é comutável a partir do clipe imediatamente anterior ao quejá foi codificado (Etapa S5201e).
Sendo assim, no fluxograma da figura 14, os clipes que são de-terminados como não comutáveis pela unidade de determinação de unidadecomutável 5101 são: (a) os clipes especificados por um identificador de pa-cote de um fluxo de transporte; (b) os clipes que são propensos a uma cone-xão perfeitamente integrada; e (c) os clipes que correspondem aos ângulosque constituem um multiângulo. Observa-se que as Etapas S5201a aS5201c podem ser realizadas em qualquer ordem. Ainda, no caso de ummultiângulo, a unidade de determinação de unidade comuíávei 5101 poderádeterminar se o método de codificação de tamanho variável não é comutávelsomente quando o multiângulo é um multiângulo perfeitamente integrado.Além disso, um clipe pode ser identificado por meio de outras informaçõesalém das de um identificador de pacote, como, por exemplo, um nome doarquivo. Embora a figura 14 use o exemplo no qual a unidade mínima pelaqual o método de codificação de tamanho variável é comutável é um clipeconforme mostrado nas figuras 9(c) e 9(d), uma unidade RAU poderá, emcontrapartida, ser usada como uma unidade mínima, conforme mostrado nafigura 9(e). Neste caso, a operação do fluxograma mostrado na figura 14pode ser realizada com o termo "clipe" da figura 14 sendo substituído pelotermo "RAU".
A figura 15 é um fluxograma mostrando um exemplo específicoda etapa de codificação de clipe (Etapa S5202) da figura 13. Um exemplo decodificação de um clipe codificação AVC de padrão MPEG-4 é mostrado nafigura 15. Na figura 15, a unidade de codificação 5103 julga, antes de iniciara codificação de um clipe, se o método de codificação de tamanho variáveldo clipe é comutável ou não (Etapa S5202a). Este julgamento é feito de a-cordo com a determinação da figura 14. Quando o método de codificação detamanho variável do clipe é julgado como comutável, a unidade de codifica-ção 5103 livremente determina o método de codificação de tamanho variáveldo clipe (Etapa S5202b). Quando o método de codificação de tamanho vari-ável do clipe é julgado como não comutável, a unidade de codificação 5103determina que o método de codificação de tamanho variável do clipe sejaigual ao de um clipe imediatamente anterior ao qual o clipe é conectado per-feitamente integrado ou ao de um outro clipe que constitui o mesmo multiãn-gulo que o clipe (Etapa S5202c). A unidade de codificação 5103 em seguidadefine uma sinalização mostrando o determinado método de codificação detamanho variável em um conjunto de parâmetros de imagem PPS (EtapaS5202d), e codifica o clipe de acordo com o determinado método de codifi-cação de tamanho variável (Etapa S5202e). Esta sinalização é chamadaentropy coding mode flag em codificação AVC de padrão MPEG-4.
Sendo assim, a unidade de codificação 5103 gera os dados co-dificados Cdatal ao codificar uma imagem em movimento, sem comutar ométodo de codificação de tamanho variável de um clipe que vem a ser umaseção de reprodução contínua julgada como não comutável.
A figura 16 é um fluxograma mostrando um exemplo específicoda etapa de geração de informações de sinalização (Etapa S5204) e da eta-pa de geração de informações de gerenciamento (Etapa S5205) da figura13.
Na figura 16, a unidade de geração de informação de comutação5102 julga se um clipe codificado pela unidade de codificação 5103 é umclipe cujo método de codificação de tamanho variável é julgado como comu-tável ou não (Etapa S5204a). Quando o clipe é um clipe comutável, a unida-de de geração de informação de comutação 5102 gera informações de sina-lização que indicam se o método de codificação de tamanho variável não éfixado, e armazena as informações de sinalização em uma área de trabalhode uma memória em correspondência ao clipe (Etapa S5204b). Quando oclipe não é um clipe comutável, a unidade de geração de informação de co-mutação 5102 gera informações de sinalização que indicam se o método decodificação de tamanho variável é fixado, e armazena as informações desinalização na área de trabalho da memória em correspondência ao clipe(Etapa S5204c). A unidade de geração de informação de comutação 5102julga ainda se o clipe é um último clipe codificado pela unidade de codifica-ção 5103 (Etapa S5204d). Quando o clipe não é o último clipe, as EtapasS5204a a S5204c se repetem. Quando o clipe é o último clipe, a unidade degeração de informação de comutação 5102 exibe todas as informações desinalização armazenadas na área de trabalho de uma memória para a uni-dade de geração de informação de gerenciamento 5105 como informaçõesde comutação Swlnf.
A unidade de geração de informação de gerenciamento 5105gera informações de gerenciamento incluindo a lista de reprodução (EtapaS5205a). A unidade de geração de informação de gerenciamento 5105 fazreferência às informações de comutação Swlnf, e adiciona as informaçõesde sinalização que indicam se o método de codificação de tamanho variávelé fixado para um item de reprodução incluído na lista de reprodução (EtapaS5205b). Observa-se que as informações de sinalização podem indicar se ométodo de codificação de tamanho variável é igual ao de uma seção de re-produção referenciada por um item de reprodução imediatamente anterior. Alista de reprodução define uma ordem de reprodução de um ou mais itens dereprodução. Um item de reprodução é uma informação que mostra um clipea ser reproduzido, e designa todo ou parte de um clipe como uma seção dereprodução. Neste caso, um outro parâmetro adicionado ao item de reprodu-ção poderá ser usado como as informações de sinalização. Por exemplo, umparâmetro que indica se um clipe é conectado perfeitamente integrado (porexemplo, "connection_condition = 5") pode ser usado como as informaçõesde sinalização. Isto se dá porque a seção de reprodução contínua determi-nada como não comutável (isto é, a seção na qual o método de codificaçãode tamanho variável é fixado) da figura 14 vem a ser: (a) clipes especifica-dos pelo identificador de pacote de um fluxo de transporte; (b) clipes propen-sos à conexão perfeitamente integrada; e (c) clipes correspondentes a ângu-los que constituem um multiângulo, sendo que o item (b) acima é atribuído auma conexão perfeitamente integrada. Ainda, uma vez que a sinalizaçãochamada "is_multi_angle" pode ser usada para mostrar se a seção de re-produção é uma seção multiângulo, esta sinalização poderá ser usada comoa sinalização que indica se o método de codificação de tamanho variável éfixado. Desta maneira, uma quantidade de dados de informações de geren-ciamento pode ser reduzida.
A figura 17 é um fluxograma mostrando outro exemplo específi-co da etapa de codificação de clipe (Etapa S5202) da figura 13. A figura 17mostra um caso de codificação de um clipe de codificação VC-1. Na figura17, a unidade de codificação 5103 julga, antes de iniciar a codificação de umclipe, se o método de codificação de tamanho variável do clipe é comutávelou não entre um modo bruto e outros modos (Etapa S5202a). Este julga-mento é feito de acordo com a determinação da figura 14. Quando o métodode codificação de tamanho variável do clipe é julgado como comutável entreo modo bruto e os outros modos, a unidade de codificação 5103 livrementedetermina o método de codificação por plano de bits do clipe (Etapa S5202f).Quando o método de codificação de tamanho variável do clipe é julgado co-mo não comutável entre o modo bruto e os outros modos, a unidade de codi-ficação 5103 determina que o método de codificação por plano de bits doclipe seja igual ao de um clipe imediatamente anterior (Etapa S5202g). Aunidade de codificação 5103 em seguida julga se o determinado método decodificação por plano de bits é o de modo bruto ou outros modos (EtapaS5202h). A unidade de codificação 5103 adiciona informações que indicam omodo julgado nas unidades de imagens. Quando o método de codificaçãopor plano de bits é julgado como de modo bruto, a unidade de codificação5103 codifica as informações predeterminadas de cada macrobloco MB1 nomacrobloco correspondente (Etapa S5202Í). Quando o método de codifica-ção por plano de bits é julgado como não sendo de modo bruto, a unidadede codificação 5103 define as informações predeterminadas de cada ma-crobloco MB coletivamente no início de uma imagem, e codifica o clipe (Eta-pa S5202j). Observa-se que, na codificação VC-1, as informações acima queindicam o modo são mostradas em um campo chamado IMODE.
Sendo assim, a unidade de codificação 5103 gera os dados co-dificados Cdatal ao codificar uma imagem em movimento, sem comutar ummétodo de codificação por plano de bits de um clipe que vem a ser uma se-ção de reprodução contínua julgada como não comutável.
Deve-se notar que a lista de reprodução acima descrita não selimita ao uso em um disco óptico. Por exemplo, a lista de reprodução podetambém ser usada da seguinte maneira. Ao receber um fluxo através deuma rede, primeiramente a lista de reprodução é recebida e analisada. Ten-do determinado o fluxo a ser recebido com base na lista de reprodução, élançada a recepção de fluxo corrente. Ainda, no caso de transmitir um fluxoatravés de uma rede do Protocolo da Internet (IP) depois de pacotizar o fluxoem pacotes do Protocolo de Transporte em Tempo Real (RTP), os pacotesde fluxo TS, e similar, as informações de controle de reprodução que indi-cam se um método de codificação de tamanho variável é fixado ou não emuma seção de reprodução podem ser mostradas, por exemplo, de acordocom o Protocolo de Descrição de Sessão (SDP).
O que segue descreve uma estrutura de dados de um disco BD-ROM sobre a qual os dados gerados de acordo com um método de codifica-ção de imagem em movimento da presente modalidade são gravados, e aestrutura de um tocador para reproduzir o disco de BD-ROM.
A Estrutura de Dados Lógicos no Disco
A figura 18 mostra uma estrutura de disco BD-ROM. Em particu-lar, a figura 18 mostra a estrutura de um disco BD 104 que vem a ser ummeio de disco e os dados (101, 102, e 103) gravados no disco BD 104. Osdados gravados no disco BD 104 incluem dados AV 103, informações degerenciamento de disco BD 102 incluindo uma seqüência de reprodução AV,informações de gerenciamento relativas a dados AV, e similar, e um progra-ma de reprodução de disco BD 101 para interatividade. Embora esta modali-dade descreva o disco BD com foco sobre o seu aplicativo AV de reprodu-ção do conteúdo AV de um filme, a fim de facilitar a explicação, o disco BDpode ser igualmente usado para outros fins.
A figura 19 mostra uma estrutura de arquivos de diretório de da-dos lógicos gravados no acima mencionado disco BD. De acordo com outrosdiscos ópticos, tais como um DVD ou um CD, o disco BD tem uma área degravação formada em espiral no sentido de seu raio interno para o seu raioexterno, no qual é formado um espaço de endereço lógico para o armaze-namento de dados lógicos entre uma área de entrada no raio interno eaá-rea de saída no raio externo. Ainda, uma área especial chamada área decorte de rajada (BCA) que só pode ser lida por uma unidade se localiza naparte mais interna da área de entrada. Uma vez que a área BCA não podeser lida por um aplicativo, a área BCA com freqüência auxilia em técnicastais como a proteção de direito autoral.
No espaço de endereço lógico, as informações de sistema dearquivo (volume) são armazenadas no início, seguidas dos dados de aplica-tivo, tais como os dados de vídeo. Um sistema de arquivo é o UDF, o ISO9660, e similar, conforme explicado na Descrição da Técnica Relacionada, epermite que os dados lógicos armazenados sejam lidos usando a estruturade arquivos de diretório da mesma forma que nos PCs convencionais.
Na presente modalidade, o disco BD tem a seguinte estrutura dearquivos de diretório. Um diretório BDVIDEO é colocado imediatamente a-baixo de um diretório raiz (ROOT). O diretório BDVIDEO armazena os dados(101, 102, e 103 da figura 18), como, por exemplo, o conteúdo AV e as in-formações de gerenciamento manipuladas no disco BD.
A seguir, sete tipos de arquivos são providos de acordo com odiretório BDVIDEO.
BD.INFO (o nome do arquivo é fixado)
Este arquivo pertence às "informações de gerenciamento de dis-co BD", e armazena as informações relativas a todo o disco BD. Um tocadorde disco BD lê este arquivo primeiro.
BD.PROG (o nome do arquivo é fixado)
Este arquivo pertence ao "programa de reprodução de discoBD", e armazena as informações de controle de reprodução relativas a todoo disco BD.
XXX.PL ("XXX" é variável e a extensão "PL" é fixa)
Este arquivo pertence às "informações de gerenciamento de dis-co BD", e armazena as informações da lista de reprodução que vem a serum cenário (seqüência de reprodução). Este arquivo é provido para cadalista de reprodução.
XXX.PROG ("XXX" é variável e a extensão "PROG" é fixa)
Este arquivo pertence ao "programa de reprodução de discoBD", e armazena as informações de controle de reprodução para a lista dereprodução individual acima mencionada. A lista de reprodução correspon-dente é identificada pelo corpo ("XXX") do nome do arquivo.YYY.VOB ("YYY" é variável e a extensão "VOB" é fixa)
Este arquivo pertence aos "dados AV", e armazena um objetoVOB (conforme explicado na Descrição da Técnica Relacionada). Este ar-quivo é provido para cada objeto VOB.YYY.VOBI ("YYY" é variável e a extensão "VOBI" é fixa)
Este arquivo pertence às "informações de gerenciamento de dis-co BD", e armazena as informações de gerenciamento de fluxo relativas aum objeto VOB que são os dados AV. O objeto VOB correspondente é iden-tificado pelo corpo ("YYY") do nome do arquivo.ZZZ.PNG ("ZZZ" é variável e a extensão "PNG" é fixa)
Este arquivo pertence aos "dados AV1 e armazena os dados deimagem de extensão PNG (um formato de imagem padronizado pelo W3C, ese pronuncia "ping") para a formação de um subtítulo ou um menu. Este ar-quivo é provido para toda imagem de extensão PNG.
Estrutura do Tocador
A estrutura do tocador para reproduzir o disco BD acima men-cionado é descrita a seguir, em referência às figuras 20 e 21.
A figura 20 é um diagrama em blocos mostrando um esboço daestrutura funcional do tocador.
Os dados de um disco BD 201 são lidos por um pick-up óptico202. Os dados lidos são transferidos para uma memória dedicada depen-dendo do tipo de dados. Em detalhe, um programa de reprodução de discoBD (os conteúdos dos arquivos "BD.PROG" ou "XXX.PROG") é transferidopara uma memória de armazenamento de programa 203, as informações degerenciamento de disco BD (os conteúdos dos arquivos "BD.INFO","XXX.PL", ou "YYY.VOBI") são transferidos para uma memória de armaze-namento de informações de gerenciamento 204, e os dados AV (os conteú-dos dos arquivos "YYY.VOB" ou "ZZZ.PNG") são transferidos para uma5memória de armazenamento AV 205.
O programa de reprodução de disco BD armazenado na memó-ria de armazenamento de programa 203 é processado por uma unidade deprocessamento de programa 206. As informações de gerenciamento de dis-co BD armazenadas na memória de armazenamento de informações de ge-renciamento 204 são processadas por uma unidade de processamento deinformações de gerenciamento 207. Os dados AV armazenados na Memóriade armazenamento AV 205 são processados por uma unidade de proces-samento de apresentação 208.
A unidade de processamento de programa 206 recebe, da uni-dade de processamento de informações de gerenciamento 207, as informa-ções sobre uma lista de reprodução a ser reproduzida e as informações deevento sobre o tempo de execução de programa ou similar, e faz a execuçãodo programa. Neste caso, um programa pode dinamicamente mudar a re-produção de uma lista de reprodução para outra. Isto é feito por uma unida-de de processamento de programa 206 que envia uma instrução para repro-duzir uma lista de reprodução para uma unidade de processamento de in-formações de gerenciamento 207. A unidade de processamento de progra-ma 206 também recebe um evento de um usuário, ou seja, uma solicitaçãofeita por uma tecla do controle remoto, e, se existir um programa correspon-dente ao evento de usuário, executa o programa.
Uma unidade de processamento de informações de gerencia-mento 207 recebe uma instrução de uma unidade de processamento de pro-grama 206, analisa a lista de reprodução correspondente à instrução e asinformações de gerenciamento de um objeto VOB correspondentes à lista dereprodução, e instrui a unidade de processamento de apresentação 208 areproduzir os dados AV de destino. A unidade de processamento de infor-mações de gerenciamento 207 também recebe informações de tempo dereferência de uma unidade de processamento de apresentação 208, e instruia unidade de processamento de apresentação 208 a interromper a reprodu-ção dos dados AV com base nas informações de tempo de referência. Alémdisso, uma unidade de processamento de informações de gerenciamento207 gera um evento indicando o tempo de execução de programa para aunidade de processamento de programa 206.
A unidade de processamento de apresentação 208 tem decodifi-cadores correspondentes ao vídeo, ao áudio, e aos subtítulos /imagens (i-magens estáticas). A unidade de processamento de apresentação 208 de-codifica e exibe dados AV de acordo com uma instrução da unidade de pro-cessamento de informações de gerenciamento 207. Neste caso, os dadosde vídeo e subtítulos/imagens são, uma vez decodificados, arrastados paraos planos dedicados correspondentes, quais sejam, para o plano de vídeo210 e para o plano de imagem 209, e os submetem a um processo de com-posição de imagem por parte da unidade de processamento de composição211, antes de serem exibidos em um dispositivo de vídeo, como, por exem-plo, uma televisão.
Sendo assim, a estrutura do tocador de disco BD se baseia naestrutura de dados do disco BD mostrada na figura 18, como se pode obser-var a partir da figura 20.
A figura 21 é um diagrama em blocos mostrando a estrutura detocador acima em mais detalhes. Na figura 21, a memória de armazenamen-to AV 205 corresponde a uma memória de imagem 308 e ao armazenadortemporário de trilha 309, a unidade de processamento de programa 206 cor-responde a um processador de programa 302 e ao gerenciador UOP 303, aunidade de processamento de informações de gerenciamento 207 corres-ponde a um processador de cenário 305 e à controladora de apresentação306, e a unidade de processamento de apresentação 208 corresponde a umrelógio 307, a um demultiplexador 310, a um processador de imagem 311, aum processador de vídeo 312, e a um processador de som 313.
Os dados de objeto VOB (fluxo de padrão MPEG) e os dados deimagem (de extensão PNG) lidos a partir do disco BD 201 são armazenadosno armazenador temporário de trilha 309 e na memória de imagem 308, res-pectivamente. O demultiplexador 310 extrai os dados de objeto VOB arma-zenados no armazenador temporário de trilha 309 com base em um tempoindicado pelo relógio 307, e exibe os dados de vídeo e os dados de áudio noprocessador de vídeo 312 e no processador de som 313, respectivamente.
O processador de vídeo 312 e o processador de som 313 são constituídosde um armazenador temporário decodificador e de um decodificador confor-me definido pelo padrão de sistema MPEG. Os dados de vídeo e os dadosde áudio emitidos do demultiplexador 310 são temporariamente armazena-dos nos correspondentes armazenadores temporários decodificadores, edecodificados pelos decodificadores correspondentes de acordo com o reló-gio 307.
Paralelamente, a extensão PNG armazenada na memória deimagem 308 é processada das duas maneiras seguintes.
Quando os dados de imagem são para um subtítulo, o seu tem-po de decodificação é indicado pela controladora de apresentação 306. Pri-meiramente, o processador de cenário 305 recebe informações de tempo dorelógio 307. Quando o tempo corrente é um tempo da imagem de subtítulo(hora de inicialização e hora de finalização), o processador de cenário 305instrui a controladora de apresentação 306 a iniciar ou parar a exibição dosubtítulo de modo que o subtítulo possa ser apropriadamente exibido. Aoreceber uma instrução de decodificação/exibição de uma controladora deapresentação 306, o processador de imagem 311 extrai os dados de exten-são PNG correspondentes da memória de imagem 308, decodifica os dadosde extensão PNG extraídos, e arrasta os dados de extensão PNG decodifi-cados sobre um plano de imagem 314.
Quando os dados de imagem é para um menu, porém, o seutempo de decodificação é indicado pelo processador de programa 302. Otempo no qual o processador de programa 302 instrui a decodificar os dadosde imagem não é fixado, mas depende de um programa de disco BD execu-tado pelo processador de programa 302.
Os dados de imagem e os dados de vídeo são, uma vez decodi-ficados, exibidos para o plano de imagem 314 e para o plano de vídeo 315respectivamente, compostos por uma unidade de processamento de compo-sição 316, e em seguida exibidos para o dispositivo de vídeo, conforme des-crito anteriormente em referência à figura 20.
Paralelamente, as informações de gerenciamento (as informa-ções de gerenciamento de cenário e AV) lidas a partir do disco BD 201 sãoarmazenadas na memória de armazenamento de informações de gerencia-mento 304. Destas informações, as informações de cenário ("BD.INFO" ou"XXX.PL") são lidas e processadas pelo processador de cenário 305, en-quanto que as informações de gerenciamento AV ("YYY.VOBI") são lidas eprocessadas pela controladora de apresentação 306.
O processador de cenário 305 analisa as informações de umalista de reprodução, e notifica a controladora de apresentação 306 de umobjeto VOB referenciado pela lista de reprodução e da posição de reprodu-ção do objeto VOB. A controladora de apresentação 306 analisa as informa-ções de gerenciamento ("YYY.VOBI") deste objeto VOB de destino, e instruia controladora de unidade 317 a ler o objeto VOB de destino.
A controladora de unidade 317 movimenta o pick-up óptico e lêos dados AV de destino, de acordo com a instrução da controladora de a-presentação 306. Os dados AV lidos são transferidos para a memória deimagem 308 ou para o armazenador temporário de trilha 309, conformemencionado acima.
Ainda, o processador de cenário 305 monitora o tempo indicadopelo relógio 307, e exibe um evento ao processador de programa 302 nomomento especificado nas informações de gerenciamento.
O programa de disco BD ("BD.PROG" ou "XXX.PROG") arma-zenado na memória de armazenamento de programa 301 é executa-do/processado pelo processador de programa 302. O processador de pro-grama 302 processa o programa de disco BD quando um evento é enviadodo processador de cenário 305 ou quando o evento é enviado do gerencia-dor UOP 303. O gerenciador UOP 303 gera um evento para o processadorde programa 302, após receber uma solicitação do usuário através de umatecla do controle remoto.
Espaço de Aplicação
A figura 22 mostra um espaço de aplicação no disco BD.No espaço de aplicação do disco BD1 a lista de reprodução (Pla-ylist) serve como uma unidade de reprodução. A lista de reprodução é umaconexão de células (Cells), e tem um cenário estático que vem a ser umaseqüência de reprodução determinada por uma ordem de conexão, e o ce-nário dinâmico descrito por um programa. Sem o cenário dinâmico de umprograma, a lista de reprodução simplesmente exibirá as células individuaisem seqüência, e finaliza quando a reprodução de todas as células termina.Por outro lado, um programa é capaz de descrever a reprodução que estáalém das listas de reprodução, e dinamicamente muda o destino da reprodu-ção de acordo com uma seleção do usuário ou com a condição do tocador.Um exemplo típico distorção é o menu. Nos discos BD, o menu pode serdefinido como um cenário que é exibido de acordo com a seleção do usuá-rio, permitindo que a lista de reprodução seja dinamicamente selecionadapor um programa.
O programa aqui referido é uma rotina handler de eventos exe-cutada de acordo com um evento de tempo ou com um evento de usuário.
O evento de tempo é um evento gerado com base nas informa-ções de tempo embutidas em uma lista de reprodução. O evento enviado apartir do processador de cenário 305 para o processador de programa 302, oqual foi descrito acima em referência à figura 21, é um evento de tempo.Quando um evento de tempo é emitido, o processador de programa 302 e-xecuta uma rotina handler de eventos associada ao evento de tempo pormeio de uma identificação ID. Conforme mencionado acima, um programaque é executado pode emitir uma instrução para exibir uma outra lista dereprodução. Neste caso, a lista de reprodução que está sendo correntemen-te exibida é interrompida e a reprodução de uma lista de reprodução desig-nada se inicia.
O evento de usuário é um evento gerado por uma operação detecla do controle remoto por parte de um usuário. O evento de usuário podeser principalmente classificado em dois tipos. Um primeiro tipo de evento deusuário é um evento de seleção de menu gerado por meio da operação dasteclas do cursor (as teclas Para cima/Para baixo/Direita/Esquerda) ou pelatecla "Enter". Uma rotina handler de eventos correspondente ao evento deseleção de menu só é válida durante um período limitado dentro da lista dereprodução (um período válido de cada rotina handler de eventos individualé definido nas informações da lista de reprodução). Quando o usuário apertaquaisquer dentre as teclas Para cima/Para baixo/Direita/Esquerda ou a tecla"Enter" do controle remoto, é feita uma pesquisa para uma rotina handler deevento válida correspondente à operação do usuário e, no caso em que exis-te uma rotina handler de evento válida, esta rotina handler de eventos é exe-cutada. No caso em que não existe uma rotina handler de evento válida, oevento de seleção de menu é ignorado.
Um segundo tipo de evento de usuário é o evento de chamadade menu que é gerado ao se operar uma tecla de menu. Quando um eventode chamada de menu é gerado, uma rotina handler de eventos globais échamada. A rotina handler de eventos globais não se baseia em uma lista dereprodução individual , e é sempre válida. O uso desta função permite queuma chamada de menu de DVD seja implementada (por exemplo, um recur-so de chamada de um menu de áudio, um menu de subtítulo, ou similar du-rante uma reprodução de títulos e, depois de o áudio ou subtítulo ser altera-do, terminar a reprodução de títulos em um ponto no qual a reprodução detítulos é suspensa).
Uma célula, que vem a ser uma unidade constituinte de um ce-nário estático de uma lista de reprodução, referencia todo ou parte de umobjeto VOB (fluxo de padrão MPEG) como uma seção de reprodução. A cé-lula tem informações sobre os tempos de início e fim de uma seção de re-produção no objeto VOB. Informações de gerenciamento de objeto VOB(VOBI) correspondentes a cada objeto VOB individual incluem um mapa detempo (TimeMap ou TMAP) que vem a ser uma informação de tabela de en-dereços de armazenamento correspondente aos tempos de reprodução dedados. Com referência a este mapa de tempo, um endereço de início de lei-tura e um endereço de fim de leitura dos dados no objeto VOB (por exemplo,o arquivo de destino "YW.VOB") podem ser obtidos a partir dos tempos deinício e fim acima da seção de reprodução no objeto VOB. O mapa de temposerá descrito em detalhe mais adiante.
Detalhes sobre um Objeto VOB
A figura 23 mostra a estrutura de um fluxo de padrão MPEG (ob-jeto VOB) usado na presente modalidade.
Conforme mostrado na figura 23, o objeto VOB é constituído deuma pluralidade de unidades de objetos de vídeo (VOBUS). A unidade VO-BU é uma unidade de reprodução como um fluxo multiplexado que se baseiaem um grupo de imagens (GOP) de um fluxo de vídeo de padrão MPEG einclui ainda dados de áudio. O período de reprodução de cada unidade VO-BU é de 1 segundo ou menos, de modo geral de cerca de 0,5 segundo.
Um pacote TS (Pacote de Fluxo de transporte de padrão MPEG-2) no início de um unidade VOBU armazena um cabeçalho de seqüência, eum cabeçalho de grupo GOP e uma imagem intracodificada (I) que seguemo cabeçalho de seqüência, de modo que a decodificação possa se iniciar apartir da imagem I. Ainda são obtidos em um mapa de tempo o endereço(endereço de início) de um pacote de fluxo TS incluindo o início da imagem Ino início do unidade VOBU, o endereço (endereço de finalização) de um pa-cote de fluxo TS incluindo o término da imagem I com relação ao endereçode início, e a hora de inicialização de reprodução (PTS) da imagem I. Sendoassim, o mapa de tempo tem uma entrada correspondente a um pacote defluxo TS no início de cada unidade VOBU.
Cada unidade VOBU inclui um pacote de vídeo (V_PKT) e umpacote de áudio (A PKT). Cada pacote é de 188 bytes. Embora não mostra-do na figura 23, um carimbo de hora de chegada (ATS) é provido imediata-mente antes de cada pacote de fluxo TS. 0 carimbo ATS indica uma horarelativa de início de suprimento de decodificador do pacote de fluxo TS.
Um motivo para prover um carimbo ATS para cada pacote defluxo TS é que a taxa de sistema do fluxo TS não é fixado, mas sim variável.Em geral, ao se usar uma taxa de sistema fixa, um pacote de fluxo TS fictíciochamado pacote NULL é inserido. No entanto, para se conseguir uma gra-vação de alta qualidade dentro de uma capacidade de armazenamento limi-tada, uma taxa de sistema variável será mais adequada. Por este motivo, umfluxo TS anexado a um carimbo ATS é gravado nos discos BD.
A figura 24 mostra a estrutura de um pacote de fluxo TS.Conforme mostrado na figura 24, o pacote de fluxo TS é princi-palmente composto de um cabeçalho de pacote de fluxo TS, um campo deadaptação, e uma carga útil. Um identificador de pacote (PID) é armazenadono cabeçalho de pacote de fluxo TS. Este identificador PID é usado paraidentificar o tipo de informação que é armazenada no pacote de fluxo TS.Uma referência de relógio de programa (PCR) é armazenada no campo deadaptação. A referência PCR é um valor de referência para um relógio dereferência (relógio de tempo de sistema (STC)) de um dispositivo que deco-difica um fluxo. Tipicamente, com a sincronização da referência PCR, o dis-positivo demultiplexa o fluxo de sistema e reconstrói fluxos individuais, como,por exemplo, um fluxo de vídeo. Um pacote PES é armazenado na cargaútil.
Um cabeçalho de pacote PES armazena um carimbo de hora dedecodificação (DTS) e um carimbo de hora de apresentação (PTS). O ca-rimbo DTS indica o tempo de decodificação de um quadro de imagem/áudioarmazenado no pacote PES, e o carimbo PTS indica um tempo de apresen-tação de saída de vídeo/áudio ou similar. Dados elementares, como dadosde vídeo e dados de áudio, são seqüencialmente armazenados em uma á-rea de armazenamento de dados do pacote PES chamada carga útil de pa-cote PES desde o início. O cabeçalho de pacote PES também armazena umidentificador ID (streamjd) a fim de identificar a que fluxo os dados armaze-nados na carga útil de pacote PES pertencem.
Os fluxos TS são definidos em detalhe na Publicação ISO/IEC13818-1. Um recurso característico dos discos BD é que um carimbo ATS éanexado a cada pacote de fluxo TS.
Gravação Entrelaçada de um Objeto VOB
A seguir, descreve-se a gravação entrelaçada de um arquivo deobjeto VOB, em referência às figuras 25 e 26.
A parte superior da figura 25 mostra parte da estrutura de toca-dor acima descrita. Conforme mostrado na parte superior da figura 25, osdados no disco BD são entrados, através de um pick-up óptico, para o arma-zenador temporário de trilha no caso de um objeto VOB, ou seja, um fluxo depadrão MPEG, ou para a memória de imagem no caso de uma extensãoPNG, ou seja, os dados de imagem.
O armazenador temporário de trilha é um armazenador temporá-rio FIFO. Por conseguinte, os dados de objeto VOB entrados no armazena-dor temporário de trilha são enviados para o demultiplexador em ordem deentrada. Neste caso, cada pacote de fluxo TS individual é extraído do arma-zenador temporário de trilha de acordo com o carimbo ATS acima mencio-nado, e os dados do pacote de fluxo TS extraído são enviados para o pro-cessador de vídeo ou para o processador de som através do demultiplexa-dor. No caso dos dados de imagem, por sua vez, a controladora de apresen-tação designa qual imagem deve ser arrastada. Ainda, quando os dados deimagem usados para arrasto são os dados de imagem de subtítulo, os dadosde imagem são apagados da memória de imagem no momento do arrasto.No entanto, quando os dados de imagem usados para arrasto são os dadosde imagem de menu, os dados de imagem ficam retidos na memória de i-magem enquanto o arrasto do menu está sendo feito, isto pelo seguinte mo-tivo. O arrasto de um menu se baseia na operação de um usuário, e sendoassim uma parte do menu poderá ser re-exibido ou trocado por uma imagemdiferente de acordo com a operação do usuário. Neste caso, a decodificaçãodos dados de imagem da parte que deve ser re-exibida poderá ser facilmen-te feita se os dados de imagem ficarem retidos na memória de imagem.
A parte inferior da figura 25 mostra a gravação entrelaçada deum arquivo de objeto VOB e de um arquivo de extensão PNG no disco BD.Em uma memória ROM, tal como a de um CD-ROM ou de um DVD-ROM,geralmente os dados AV que formam uma unidade de reprodução contínuasão gravados de forma contínua. Contanto que os dados sejam continua-mente gravados, uma unidade poderá simplesmente ler os dados em se-quência e liberar os dados lidos para um decodificador. No entanto, quandodados contínuos são divididos e gravados em um disco de uma maneira dis-creta, precisará ser feita uma operação de busca entre seções individuais dereprodução contínua. A leitura dos dados é suspensa durante tal operaçãode busca, o que poderá fazer com que o suprimento de dados seja interrom-pido. No caso dos discos BDS também, é preferível gravar um arquivo deobjeto VOB em uma área contínua. No entanto, uma vez que há dados tam-bém, estes dados de subtítulo, que devem ser exibidos sincronicamente comos dados de vídeo armazenados em um arquivo de objeto VOB1 tais dadosprecisarão ser lidos a partir do disco BD por algum meio, assim como o ar-quivo de objeto VOB.
Um método de leitura de dados de subtítulo é ler todos os dadosde imagem (arquivo de extensão PNG) dos subtítulos de uma vez só antesde a reprodução de um objeto VOB se iniciar. No entanto, este método não érealístico, uma vez que requer uma memória grande para o armazenamentodestes dados de imagem.
Tendo isto em vista, é empregado um método de divisão de umarquivo de objeto VOB em vários blocos e de gravação entrelaçada de blo-cos de objeto VOB com dados de imagem. A parte inferior da figura 25 ilus-tra tal gravação entrelaçada.
Ao se intercalar apropriadamente um arquivo de objeto VOB edados de imagem, torna-se possível armazenar os dados de imagem namemória de imagem sempre que necessário, não havendo necessário de seusar a memória temporária grande acima mencionada. Neste caso, no en-tanto, a leitura dos dados de objeto VOB é interrompida enquanto os dadosde imagem estão sendo lidos.
A figura 26 vem a ser um diagrama para explicar um modelo desuprimento de dados contínuos de objeto VOB usando um armazenadortemporário de trilha a fim de solucionar este problema.
Conforme acima descrito, dados de objeto VOB são temporari-amente acumulados no armazenador temporário de trilha. Quando existeuma diferença entre a taxa de entrada de dados (Va) do armazenador tem-porário de trilha e a taxa de saída de dados (Vb) do armazenador temporáriode trilha (Va > Vb), a quantidade de dados acumulados no armazenadortemporário de trilha aumenta contanto que os dados estejam sendo lidos apartir de um disco BD.
Conforme mostrado na parte superior da figura 26, supõe-se queuma área de gravação contínua de objeto VOB se inicie em um endereçológico a1 e termine no endereço lógico a2, enquanto os dados de imagemsão gravados a partir do endereço lógico a2 para o endereço lógico a3, du-rante o que os dados de objeto VOB não poderão ser lidos.
A parte inferior da figura 26 mostra a condição interna do arma-zenador temporário de trilha. Na figura 26, o eixo horizontal representa otempo, e o eixo vertical representa a quantidade de dados acumulados noarmazenador temporário de trilha. O tempo t1 é a hora na qual a leitura dosdados em a1, que vem a ser o ponto inicial da área de gravação contínua deobjeto VOB, se inicia. De t1 em diante, os dados são acumulados no arma-zenador temporário de trilha a uma taxa de (Va - Vb). Esta taxa vem a ser adiferença entre as taxas de entrada e saída de dados do armazenador tem-porário de trilha. O tempo t2 é a hora na qual os dados em a2, isto é, o pontode finalização da área de gravação contínua de objeto VOB, são lidos. Istoquer dizer que, a quantidade de dados no armazenador temporário de trilhaaumenta à taxa de (Va - Vb) de t1 para t2. Quando B(t2) denota a quantida-de de dados no armazenador temporário de trilha em t2, B(t2) poderá serobtido a partir da seguinte expressão:
B(t2) = (Va - Vb) χ (t2 -11) (Expressão 1).
Depois disso, os dados de imagem continua até o endereço a3no disco BD. Sendo assim, a entrada para o armazenador temporário detrilha será 0 neste momento. Deste modo, a quantidade de dados no arma-zenador temporário de trilha diminui a uma taxa de -Vb. Isto acontece até oendereço a3, ou seja, no tempo t3.
A questão importante aqui é que, se a quantidade de dados noarmazenador temporário de trilha é de 0 antes de t3, não haverá dados deobjeto VOB a serem supridos para o decodificador, o que faz com que a re-produção do objeto VOB seja interrompida. No entanto, quando os dadospermanecem no armazenador temporário de trilha em t3, a reprodução doobjeto VOB poderá continuar sem interrupção.
Esta condição pode ser expressa pela seguinte expressão:
B(t2) > Vb χ (t3 -12) (Expressão 2).
Sendo assim, é necessário se posicionar os dados de imagem(os dados de objeto não-VOB) no disco BD de modo a satisfazer a Expres-são 2.
A Estrutura dos Dados de Navegação
A seguir descreve-se a estrutura de dados de navegação no dis-co BD (informações de gerenciamento de disco BD), em referência às figu-ras 27 a 33.
A figura 27 mostra uma estrutura interna de um arquivo de in-formações de gerenciamento de objeto VOB ("YYY.VOBI").
As informações de gerenciamento de objeto VOB incluem infor-mações de atributo de fluxo (Attribute) e um mapa de tempo para um objetoVOB. As informações de atributo de fluxo incluem um atributo de vídeo (Ví-deo) e atributos de áudio (Audio#O a Audio#m). Uma vez que um objeto VOBpode ter uma pluralidade de fluxos de áudio, a presença/ausência de cam-pos de dados é mostrada por um número de fluxos de áudio (Numόβή.
A seguir encontram-se os campos incluídos no atributo de vídeo(Video), e os possíveis valores destes campos.Formato de Compactação (Coding):
MPEG1
MPEG2
MPEG4
MPEG4 - Codificação Avançada de Vídeo (AVC)
Resolução (Resolution):
1920 χ 1080
1440x 1080
1280 χ 720
720 χ 480720 χ 565
Razão de Aspecto (Aspecty
4:3
16:9
Taxa de Quadro (Framerate):
60
59,94 (60/1,001)
50
30
29,97(30/1,001)
25
24
23,976 (24/1,001)
A seguir, são descritos os campos incluídos em cada um dosatributos de áudio (Audio), e os possíveis valores destes campos.
Formato de Compactação (Coding):
AC3MPEG1MPEG2LPCM
Número de Canais (Ch.):1 a 8
Atributo de Linguagem (Language):
O mapa de tempo (TMAP) é uma tabela com informações paracada unidade VOBU. O mapa de tempo inclui um número de unidades VO-BU (A/umòef) no objeto VOB, e informações de unidade VOBU para cadaunidade VOBU (VOBU#1 a VOBU#n). As informações de unidade VOBU decada unidade VOBU incluem o endereço (I start) de um pacote de fluxo TS(o início de uma imagem I) no início da unidade VOBU, um endereço de des-Iocamento (l_end) no fim da imagem I com relação ao endereço I start1 euma hora de inicialização de reprodução (PTS) da imagem I.
Observa-se que o valor do endereço l_end não se limita ao valorde deslocamento, ou seja, a um tamanho da imagem I, e pode ser, em con-trapartida, o endereço de finalização da imagem I corrente.
A figura 28 vem a ser um diagrama para explicar as informaçõesde unidade VOBU em detalhe.
Conforme amplamente conhecido, um fluxo de vídeo de padrãoMPEG pode ser compactado a uma taxa de bits variável para gravar comuma alta qualidade de imagem. Por conseguinte, não há uma correlaçãosimples entre um período de tempo de reprodução e um tamanho dos dadosno caso de um fluxo de vídeo de padrão MPEG. O padrão AC3, que vem aser um padrão de compactação de áudio, compacta os dados a uma taxa debits fixa, e, sendo assim, a relação tempo/endereço pode ser representadapor uma expressão linear. No caso dos dados de vídeo de padrão MPEG,por sua vez, os quadros individuais têm um período de tempo da imagemfixo. Como um exemplo, cada quadro tem um período de tempo da imagemde 1/29,97 segundos no padrão NTSC. No entanto, o tamanho dos dados decada quadro após compactação difere muito, dependendo das característi-cas da imagem e do tipo de imagem usada para compactação, ou seja, umal-picture, uma P-picture, ou uma B-picture. Para um vídeo de padrão MPEG,portanto, a relação tempo/endereço não poderá ser representada por umaexpressão linear.
Por conseguinte, para um objeto VOB que vem a ser um fluxo desistema de padrão MPEG no qual dados de vídeo de padrão MPEG são mul-tiplexados, a relação entre o tempo e o tamanho dos dados também não po-de ser representada por uma expressão linear. Por outro lado, o mapa detempo (TMAP) serve para mostrar a relação tempo/endereço no objeto VOB.
Quando são dadas informações de tempo, primeiramente é feitauma pesquisa em uma unidade VOBU à qual pertence um tempo mostradopelas informações de tempo (ao verificar o carimbo PTS de cada unidadeVOBU). É dado um salto na unidade VOBU cujo carimbo PTS precede ime-diatamente o tempo mostrado nas informações de tempo de um mapa TMAP(um endereço especificado pelo endereço l_start). A decodificação começade uma imagem I no início da unidade VOBU, e a exibição se inicia a partirde imagem correspondente ao tempo mostrado nas informações de tempo.
A seguir, é descrita a estrutura interna das informações da listade reprodução ("XXX.PL"), em referência à figura 29.
As informações da lista de reprodução são basicamente consti-tuídas de uma lista de células (CellList) e um lista de eventos (EventListy.
A lista de células (CellList) vem a ser a seqüência de células dereprodução de uma lista de reprodução. As células são exibidas na ordemmostrada por esta lista de células. A lista de células (CellList) inclui um nú-mero de células (Number) e as informações de célula para cada célula (Cell#1 a Cell #n).
As informações de célula (Cell #) incluem o nome do arquivo deum objeto VOB (VOBName), uma hora de inicialização (In) e uma hora definalização (Out) no objeto VOB, e uma tabela de subtítulos (SubtitIeTabIe).A hora de inicialização (In) e a hora de finalização (Out) são expressos porum número de quadro no objeto VOB. Um endereço de dados de objetoVOB necessário para reprodução pode ser obtido em referência ao mapa detempo acima mencionado.
A tabela de subtítulos (SubtitIeTabIe) vem a ser uma tabela cominformações sobre os subtítulos que devem ser exibidos de maneira síncro-na com o objeto VOB. De acordo com o áudio, os subtítulos podem ser pro-vidos em uma pluralidade de linguagens. Por conseguinte, a tabela de subtí-tulos (SubtitIeTabIe) inclui um número de linguagens (Numbeή e uma tabelapara cada linguagem (Language# 1 a Language#k) que segue.
Cada tabela de linguagem (Language#) inclui informações delinguagem (Lang), um número de conjuntos de informações de subtítulo parasubtítulos individualmente exibidos (Numbeή, e informações de subtítulopara cada subtítulo individualmente exibido (Speech# 1 a Speechfy). As in-formações de subtítulo (Speectrtt) são basicamente constituídas de um no-me do arquivo de dados de imagem correspondente (Name), uma hora deinicialização da imagem de subtítulo (In), uma hora de finalização da imagemde subtítulo (Ουή, e uma posição da imagem de subtítulo (Position).
A lista de eventos (EventLisf) vem a ser uma tabela que defineos eventos gerados em uma lista de reprodução. A lista de eventos é princi-palmente constituída de um número de eventos (Νυπιόθή e de eventos indi-viduais (EventM 1 a EventM-m) que seguem. Cada evento (EventM) inclui umtipo de evento (Type), um identificador ID de evento (ID)1 um tempo de gera-ção de evento (Time), e um período válido (Duration).
A figura 30 mostra uma tabela de rotinas handler de eventos("XXX.PROG") com rotinas handler de eventos (para eventos de tempo eeventos de usuário de seleção de menu) para uma lista de reprodução indi-vidual.
A tabela de rotinas handler de eventos tem um número de roti-nas handler de eventos/programas definidos (Νυπιόβή e rotinas handler deeventos individuais/programas (ProgramMI a PrograrrMn). Cada rotina han-dler de eventos/programa (Programtt) inclui uma definição do início da rotinahandler de eventos (<event_handler> tag) e um identificador ID de rotinahandler de eventos (ID) correspondente a um identificador ID de eventosacima mencionado. Em seguida, o programa é escrito em parênteses "{" e"}" após "Função". Os eventos (EventM 1 a EventMm) armazenados na listade eventos acima (EventListy em um arquivo "XXX.PL" são especificadosusando-se os identificadores ID (ID) das rotinas handler de eventos de umarquivo "XXX.PROG".
A seguir, descreve-se uma estrutura interna de informações rela-tivas a todo o disco BD ("BD.INFO"), em referência à figura 31.
As informações de todo o disco BD são principalmente constituí-das de uma lista de títulos (TitIeListy e de uma tabela de eventos para even-tos globais (EventListy.
A lista de títulos (TitIeListy inclui um número de títulos no disco(Numbeή e informações de título para cada título (77f/e#1 a TitIeMn) que se-gue. As informações de título (Title#) inclui uma tabela de listas de reprodu-ção incluídas no título (PLTabIe) e uma lista de capítulos no título (Chapter-List). A tabela de listas de reprodução (PLTabIe) inclui um número de listasde reprodução no título (Numbeή e os nomes das listas de reprodução, ouseja, os nomes de arquivo das listas de reprodução (NameM^ a NameMm).A lista de capítulos (ChapterList) inclui um número de capítulosincluídos no título (i) e informações de capítulo para cada capítulo (Chap-ter# 1 a Chapterttn). As informações de capítulo (Chapter#) incluem uma ta-bela de células incluídas no capítulo (CeIITabIe). Uma tabela de células (Cel-ITable) é basicamente constituída de um número de células (Νυηιόβή e deinformações de entrada para cada célula individual (CeIIEntrytt^l a CeIIEn-tryttk). As informações de entrada de cada célula (CeIIEntrytt) têm um nomede lista de reprodução que inclui a célula, e o número de célula de uma célu-la da lista de reprodução.
A lista de eventos (EventList) inclui um número de eventos glo-bais (Λ/t/mòer) e informações para cada evento global individual. Deve-senotar que um evento global definido primeiro em uma lista de eventos (Even-fL/sO é chamado primeiro evento (FirstEvent), sendo chamado primeiroquando o disco BD é inserido no tocador. As informações de evento globalsão constituídas de um tipo de evento (Type) e um identificador ID de evento (ID).
A figura 32 mostra uma tabela ("BD.PROG") de programas quevem a ser rotinas handlerde eventos globais.
Esta tabela tem a mesma estrutura que a tabela de rotinas han-dlerde eventos mostrada na figura 30.
Mecanismo de Geração de Eventos
A seguir descreve-se um mecanismo para gerar um evento, emreferência às figuras 33 a 35.
A figura 33 mostra um exemplo de evento de tempo.
Conforme descrito acima, um evento de tempo é definido emuma lista de eventos (EventList) nas informações de lista de reprodução("XXX.PL"). No caso em que um evento é definido como um evento de tem-po, ou seja, quando o tipo de evento (Type) é um "TimeEvenf', o evento detempo com um identificador ID "Ex1" é enviado do processador de cenáriopara o processador de programa quando o tempo corrente é um tempo degeração de evento (t1). O processador de programa pesquisa uma rotinahandler de eventos com um identificador ID de evento "Ex1", e executa arotina handler de eventos. No exemplo mostrado na figura 33, duas imagensde botão são arrastadas.
A figura 34 mostra um exemplo de evento de usuário de opera-ção de menu.
Conforme descrito acima, um evento de usuário de operação demenu é definido também em uma lista de eventos {EventListy das informa-ções de lista de reprodução ("XXX.PL"). No caso em que um evento é defi-nido como um evento de usuário, ou seja, quando o tipo de evento (Type) éum "UserEvent', o evento de usuário é definido em uma condição prontaquando o tempo corrente é um tempo de geração de evento (t1). Neste pon-to, o próprio evento ainda não foi gerado. Este evento fica em uma condiçãopronta durante o período mostrado nas informações de período válido (Duratiorí).
Conforme mostrado na figura 34, quando o usuário pressiona asteclas Para cima/Para baixo/Esquerda/Direita ou a tecla "Enter" do controleremoto, primeiramente o Gerenciador UOP gera um evento UOP e exibe oseventos UOP gerados para o processador de programa. O processador deprograma passa o evento UOP para o processador de cenário. O processa-dor de cenário verifica se existe ou não um evento de usuário válido no mo-mento da recepção do evento UOP. Quando existe um evento de usuárioválido, o processador de cenário gera o evento de usuário, e envia o eventode usuário gerado para o processador de programa. O processador de pro-grama pesquisa uma rotina handler de eventos com um identificador ID deevento "Ev1", e executa a rotina handler de eventos. No exemplo mostradona figura 34, a reprodução da Playlisttt2 se inicia.
O evento de usuário gerado não inclui informações sobre qualtecla do controle remoto foi pressionada pelo usuário. Esta informação sobrea tecla do controle remoto pressionada é enviada para o processador deprograma através do evento UOP, e armazenada em um registrador S-PRM(8) de um tocador virtual. O programa de rotina handler de eventos po-de referenciar o valor deste registrador e executar um desvio.
A figura 35 mostra um exemplo de um evento global.Conforme acima descrito, o evento global é definido na lista deeventos (EventLisf) nas informações de todo o disco BD ("BD.INFO"). Nocaso em que um evento é definido em que um evento global, ou seja, quan-do o tipo de evento (Type) é um "GIobaIEvent', o evento só é gerado quandoo usuário realiza uma operação de tecla do controle remoto.
Quando o usuário pressiona a tecla de menu, primeiramente oGerenciador UOP gera um evento UOP e exibe o evento UOP gerado para oprocessador de programa. O processador de programa passa o evento UOPpara o processador de cenário. O processador de cenário gera um eventoglobal correspondente ao evento UOP, e envia o evento global gerado parao processador de programa. O processador de programa pesquisa uma roti-na handlerde eventos que tenha um "menu" de identificador ID de evento eexecuta a rotina handler de eventos. No exemplo mostrado na figura 35, areprodução da Playlisfft3 é inicializada.
Embora esta modalidade se refira simplesmente a uma tecla demenu, uma pluralidade de teclas de menu pode ser provida como no casodos DVDs. Isto pode ser feito ao se definir um identificador ID corresponden-te para cada tecla de menu.
Tocador Virtual
A seguir, descreve-se uma estrutura funcional do processadorde programa em referência à figura 36.
O processador de programa vem a ser um módulo de proces-samento com um tocador virtual no seu interior. O tocador virtual é um mo-delo funcional definido para os discos BD1 e não se baseia na implementa-ção de cada tocador de disco BD individual. Em outras palavras, o tocadorvirtual garante que os mesmos recursos possam ser realizados em qualquertocador de disco BD.
O tocador virtual tem dois recursos principais, ou seja, as fun-ções de programação e as variáveis de tocador (registradores). As funçõesde programação definem os seguintes recursos como funções únicas de umdisco BD, com base no Script Java (marca registrada).
Função do Link·, parar a reprodução corrente e inicializar a reprodução deuma lista de reprodução, célula, e hora designadas.
Linkar (PL#, CeW1 time)PL#: nome da lista de reproduçãoCell#\ número da célulaTime: hora de inicialização de reprodução na célula
Função de Arrasto de Extensão PNG: arrastar os dados de extensão PNGdesignados sobre o plano de imagem.
Arrastar (Arquivo, X, Y)Arquivo: nome do arquivo de extensão PNGX: posição da coordenada XY: posição da coordenada Y
Função de Excluir Plano de Imagem: excluir uma área designada do planode imagem.
Excluir (X, Y, W, H)X: posição da coordenada XY: posição da coordenada YW: largura na direção XH: largura na direção Y
As variáveis de tocador incluem parâmetros de sistema (SPRM)que mostram o status do tocador e os parâmetros gerais (GPRM) que po-dem ser usados para fins gerais.
A figura 37 mostra uma lista de parâmetros de sistema (SPRM).
SPRM(O): Código de linguagemSPRM(1): Número do fluxo de áudioSPRM(2): Número do fluxo de subtítuloSPRMQ): Número do ânguloSPRM(4): Número do títuloSPRM(5): Número do capítuloSPRM(6): Número do programaSPRM(7): Número da célulaSPRM(8): Informação de tecla selecionadaSPRMQ): Cronômetro de navegaçãoSPRM(10): Informação de tempo de reprodução
SPRM(11): Modo de mistura para karaokê
SPRM(12): Código do país para gerenciamento parental
SPRM(13): Nível parental
SPRM(14): Configuração do tocador (vídeo)
SPRM(15): Configuração do tocador (áudio)
SPRM(6): Código de linguagem para fluxo de áudio
SPRM(7): Código de linguagem para fluxo de áudio (extensão)
SPRM(18): Código de linguagem para fluxo de subtítulo
SPRM(9): Código de linguagem para fluxo de subtítulo (extensão)
SPRM(20V. Código da região do tocador
SPRM(21): reservado
SPRM(22): reservado
SPRM(23): Status da reprodução
SPRM(24): reservado
SPRM(25): reservado
SPRM(26): reservado
SPRM(27): reservado
SPRM(28): reservado
SPRMÍ29): reservado
SPRM(30): reservado
SPRM(31): reservado
Deve-se notar que esta modalidade descreve um caso no qualas funções de programação do virtual tocador se baseiam no Script Java(marca registrada), porém outras funções de programação, tais como o B-Shell ou o Perl Script utilizado na UNIX (marca registrada), OS ou coisa dosimilar, podem também ser usadas. Em outras palavras, a presente inven-ção não se limita ao uso do Script Java (marca registrada).
Exemplos de Programa
As figuras 38 e 39 mostram exemplos de programas de rotinahandlerde eventos.
A figura 38 mostra um exemplo de a menu tendo dois botões deseleção.
Um programa à esquerda da figura 38 é executado usando umevento de tempo, no início de uma célula (Playlist# 1, Ce//#1). Neste caso, oparâmetro geral GPRM(O) é inicialmente definido em "1". O parâmetro G-PRM(O) é usado no sentido de identificar um botão selecionado neste pro-grama. Em us estado inicial, o parâmetro GPRM(O) tem um valor inicial queindica se o botão 1 à esquerda foi selecionado.
Em seguida, é feito o arrasto da extensão PNG para cada umdentre o botão 1 e o botão 2, usando a função de Arrasto. Para o botão 1, aimagem de extensão PNG "Iblack.png" é arrastada com as coordenadas(10, 200) como um ponto de partida (canto superior esquerdo). Para o botão2, a imagem de extensão PNG "2white.png" é arrastada com as coordena-das (330, 200) como um ponto de partida (canto superior esquerdo).
Ainda, um programa à direita da figura 38 é executado usandoum evento de tempo, no fim de uma célula. Neste caso, a função Link é usa-da para instruir a tocar desde o início de uma célula outra vez.
A figura 39 mostra um exemplo de rotina handler de eventos pa-ra um evento de usuário de seleção de menu.
A rotina handler de eventos inclui um programa correspondenteà cada operação de se pressionar a tecla Esquerda, a tecla Direita, ou a te-cla Enter do controle remoto. Quando o usuário pressiona qualquer uma dasteclas do controle remoto, é gerado um evento de usuário e a rotina handlerde eventos da figura 39 é ativada, conforme explicado na figura 34. A rotinahandler de eventos executa um desvio, usando o valor de parâmetro G-PRM(O) que identifica o botão selecionado e o valor do parâmetro SPRM(8)que identifica a tecla pressionada do controle remoto.Condição 1): A tecla Direita é pressionada quando o botão 1 é selecionado.
Neste caso, o parâmetro GPRM(O) é alterado para "2", de modoa definir o botão direito 2 em um estado selecionado.
Ainda, a imagem de cada um dos botões 1 e 2 é novamente ar-rastada.
Condição 2): A tecla "Enter" (OK) é pressionada quando o botão 1 é selecio-nado.
Neste caso, a reprodução da Playlisfft2 é inicializada.Condição 3): A tecla "Enter" (OK) é pressionada quando o botão 2 é selecio-nado.
Neste caso, a reprodução da Playlistit3 é inicializada.
Desta maneira, é feita a execução do programa.Fluxos de Processamento do Tocador
A seguir, são descritos os fluxos de processamento de um toca-dor, em referência às figuras 40 a 43.
A figura 40 é um fluxograma mostrando o processamento básicopara uma reprodução AV.
Conforme mostrado na figura 40(a), quando o disco BD é inseri-do (Etapa S101), o tocador de disco BD lê e analisa o arquivo BD.INFO (E-tapa S102), e lê o arquivo BD.PROG (Etapa S103). Neste caso, ambos osarquivos BD.INFO e BD.PROG são armazenados na memória de armaze-namento de informações de gerenciamento e em seguida analisados peloprocessador de cenário.
Em seguida, o processador de cenário gera o primeiro evento,de acordo com as informações de primeiro evento (FirstEvenf) no arquivoBD.INFO (Etapa S104). O processador de programa recebe o primeiro even-to, e executa uma rotina handler de eventos correspondente ao primeiro e-vento (Etapa S105).
Espera-se que a rotina handler de eventos correspondente aoprimeiro evento inclua as informações de uma lista de reprodução a ser exi-bida primeiro. Se a reprodução da lista de reprodução não estiver designadaem uma rotina handler de eventos, o tocador de disco BD não terá nada pa-ra executar, e aguardará o recebimento de um evento de usuário (EtapaS201), conforme mostrado na figura 40(b). Após o recebimento de uma ope-ração de controle remoto por parte de um usuário, o gerenciador UOP enviaum evento UOP para o processador de programa (Etapa S202).
O processador de programa julga se o evento UOP correspondea uma tecla de menu ou não (Etapa S203). Quando o evento UOP corres-ponde à tecla de menu, o processador de programa envia o evento UOPpara o processador de cenário, e o processador de cenário gera um eventode usuário (Etapa S204). O processador de programa executa uma rotinahandler de eventos correspondente ao evento de usuário gerado (EtapaS205).
A figura 41 é um fluxograma mostrando um processamento des-de o início de uma reprodução PL ao início de uma reprodução de objetoVOB.
Conforme notado acima, a reprodução de uma lista de reprodu-ção é inicializada pela primeira rotina handler de eventos ou pela rotina han-dler de eventos globais (Etapa S301). O processador de cenário lê e analisaas informações da lista de reprodução "XXX.PL" (Etapa S302) e lê as infor-mações de programa "XXX.PROG" correspondentes a uma lista de reprodu-ção (Etapa S303), as informações necessárias para reproduzir a lista de re-produção. Em seguida, o processador de cenário instrui a iniciar a reprodu-ção de uma célula, com base nas informações de célula mostradas na listade reprodução (Etapa S304). Isto é feito pelo processador de cenário queemite uma solicitação para a controladora de apresentação, que, responsi-vamente, começa a reproduzir os dados AV (Etapa S305).
Quando a reprodução dos dados AV se inicia (Etapa S401), acontroladora de apresentação lê e analisa o arquivo de informações de obje-to VOB (YYY.VOBI) de um objeto VOB correspondente a uma célula (EtapaS402). A controladora de apresentação especifica a unidade VOBU a serreproduzida e seu endereço, usando um mapa de tempo. A controladora deapresentação indica o endereço de leitura para a controladora de unidade. Acontroladora de unidade lê os dados do objeto VOB de destino a partir doendereço indicado (Etapa S403), e envia os dados de objeto VOB lidos parao decodificador. Sendo assim, a reprodução dos dados de objeto VOB seinicia (Etapa S404).
A reprodução do objeto VOB continua até o fim da seção de re-produção do objeto VOB especificado pela célula (Etapa S405). Depois dofim da seção de reprodução, o processamento se movimenta para a EtapaS304 a fim de reproduzir a célula seguinte. Quando a célula seguinte nãoexiste, a operação de reprodução termina (Etapa S406).
A figura 42 é um fluxograma mostrando processamento de even-to após o início de uma reprodução AV.
O tocador de disco BD vem a ser um modelo de tocador aciona-do a evento. Quando a reprodução de uma lista de reprodução se inicia, oevento processa um evento de tempo, um evento de usuário, e a exibição desubtítulo é ativada, e o tocador de disco BD executa estes processos de e-vento em paralelo.
As Etapas S501 a S505 (FIG 42(a)) correspondem a um proces-samento de evento de tempo.
Após o início da reprodução de uma lista de reprodução (EtapaS501), é feito um julgamento quanto a se a reprodução da lista de reprodu-ção está completa ou não (Etapa S502). Quando a reprodução da lista dereprodução não está completa, o processador de cenário julga se o tempocorrente é um tempo de geração de evento de tempo ou não (Etapa S503).
Quando o tempo corrente é um tempo de geração de evento de tempo, oprocessador de cenário gera um evento de tempo (Etapa S504). O proces-sador de programa recebe o evento de tempo, e executa uma rotina handlerde eventos correspondente ao evento de tempo (Etapa S505).
Quando o tempo corrente não é o tempo de geração de eventode tempo da Etapa S503 ou depois de a rotina handler de eventos ser exe-cutada na Etapa S505, o processamento de evento de tempo volta para aetapa S502 a fim de repetir as etapas acima. Quando a reprodução da listade reprodução é julgada terminada na Etapa S502, o processamento de e-vento de tempo é forçosamente finalizado.
As Etapas S601 a S608 (FIG 42(b)) correspondem a um proces-samento de evento de usuário.
Depois de a reprodução de uma lista de reprodução se iniciar(Etapa S601), é feito um julgamento quanto a se a reprodução da lista dereprodução está completa ou não (Etapa S602). Quando a reprodução dalista de reprodução não está terminada, é feito um julgamento quanto a seum UOP foi recebido ou não (Etapa S603). Após o recebimento de um UOP1o gerenciador UOP gera um evento UOP (Etapa S604). O processador deprograma recebe o evento UOP1 e julga se o evento UOP é uma chamadade menu (Etapa S605). Quando o evento UOP é uma chamada de menu, oprocessador de programa instrui o processador de cenário a gerar um even-to de usuário (Etapa S607). O processador de programa em seguida executauma rotina handler de eventos correspondente ao evento de usuário (EtapaS608).
Quando o evento UOP não é julgado como uma chamada demenu na Etapa S605, isto significa que o evento UOP é um evento por meiodas teclas de um cursor ou da tecla "Enter3'. Neste caso, o processador decenário julga se o tempo corrente está dentro de um período válido de even-to de usuário (Etapa S606). Quando o tempo corrente está dentro de umperíodo válido de evento de usuário, o processador de cenário gera um e-vento de usuário (Etapa S607), e o processador de programa executa umarotina handler de eventos correspondente ao evento de usuário (EtapaS608).
Quando um UOP não é recebido na Etapa S603, quando o tem-po corrente não está dentro de um período válido de evento de usuário naEtapa S606, ou depois de a rotina handler de eventos ser executada na Eta-pa S608, o processamento de evento de usuário volta para a etapa S602 afim de repetir as etapas acima. Quando a reprodução da lista de reproduçãoé julgada como finalizada na Etapa S602, o processamento de evento deusuário é forçosamente terminado.
A figura 43 corresponde a um processamento de subtítulo.
Depois de uma reprodução de lista de reprodução se iniciar (E-tapa S701), é feito um julgamento quanto a se uma reprodução de lista dereprodução está completa ou não (Etapa S702). Quando a reprodução dalista de reprodução não está completa, é feito um julgamento quanto a se umtempo corrente vem a ser uma hora de inicialização para arrastar um subtítu-lo ou não (Etapa S703). Quando o tempo corrente é a hora de inicializaçãode arrasto de um subtítulo, o processador de cenário instrui a controladorade apresentação a arrastar o subtítulo. A controladora de apresentação ins-trui o processador de imagem a arrastar o subtítulo (Etapa S704). Quando otempo corrente não é julgado como a hora de inicialização de arrasto de umsubtítulo na Etapa S703, é feito um julgamento quanto a se o tempo correntevem a ser uma hora de finalização da imagem de subtítulo (Etapa 705).Quando o tempo corrente vem a ser a hora de finalização da imagem desubtítulo, a controladora de apresentação instrui o processador de imagem aexcluir o subtítulo, e o processador de imagem exclui o subtítulo do plano deimagem (Etapa S706).
Depois que a etapa de arrasto de subtítulo S704 termina, depoisde a etapa de exclusão de subtítulo S706 finalizar, ou quando o tempo cor-rente é julgado como não sendo a hora de finalização da imagem de umsubtítulo na Etapa S705, o processamento de subtítulo volta para a etapaS702 a fim de repetir as etapas acima. Quando a reprodução da lista de re- produção é julgada finalizada na Etapa S702, o processamento de subtítuloé forçosamente finalizado.
Segunda Modalidade
Um segundo exemplo de fluxo no qual podem existir diferentesmétodos de codificação (ou uma imagem em movimento com diferentes atri-butos), ou seja, um exemplo no qual um limite de nível de luminância (atribu-to de imagem em movimento) pode assumir diferentes valores quando umprocesso de transparência é executado por uma chave de luminância em umrecurso "Picture-in-Picture", é descrito a seguir como uma segunda modali-dade da presente invenção.
A presente modalidade descreve um meio de gravação, um mé-todo de multiplexação, um dispositivo de multiplexação, e um dispositivo dereprodução que pode eliminar, ao ligar um recurso "Picture-in-Picture" de ummeio de pacote, como, por exemplo, um disco BD-ROM, um retardo na ope-ração de reprodução provocado ao se comutar o limite de nível de luminân-cia, o que é feito ao se determinar se executa ou não o processo de transpa-rência.
No meio de gravação da presente modalidade, as informações aseguir são incluídas nas informações de gerenciamento para um fluxo sub-metido a um processo de transparência por parte de uma chave de luminân-cia: informações que indicam se o limite de nível de luminância utilizado parajulgar se executa ou não um processo de transparência no momento da i-magem de uma imagem é restrito em uma unidade de reprodução contínua,ou informações que indicam se um processo de transparência é restrito.
O meio de gravação, o método de multiplexação, o dispositivode multiplexação, e o dispositivo de reprodução da presente modalidade têmbasicamente uma estrutura de dados similar a do meio de gravação da pri-meira modalidade, e elementos e operações estruturais similares as do mé-todo de multiplexação, do dispositivo de multiplexação, e do dispositivo dereprodução da primeira modalidade. Por conseguinte, a descrição a seguirterá como foco somente os recursos característicos da segunda modalidade.
A figura 44 mostra um exemplo de limite de chave de luminânciaem um fluxo gravado no meio de gravação da presente modalidade. No e-xemplo da figura 44, o limite de chave de luminância é fixado em 20 em to-das as seções que são conectadas perfeitamente integradas. Como resulta-do, um retardo causado ao se comutar o limite de chave de luminância ésuprimido, com isto sendo possível fazer uma conexão perfeitamente inte-grada.
Ainda, as informações com relação à chave de luminância naseção de reprodução conectada perfeitamente integrada são incluídas nasinformações de gerenciamento do meio de gravação da presente modalida-de. A figura 45 mostra um exemplo de armazenamento das informações re-lativas à chave de luminância como parte das metas de informações de umrecurso "Picture-in-Picture". A figura 45(a) mostra as informações de sinali-zação luma_key_válida que indicam se a chave de luminância é válida ounão. Quando a chave de luminância é válida (luma_key_válida = 1), a ima-gem é processada em transparência e exibida com base no limite da chavede luminância. Quando a chave de luminância não é válida (luma_key_válida= 0), a imagem é exibida sem um processo de transparência. Conformemostrado na figura 45(a), o valor de luma_key_válida é fixado em todas asseções de reprodução que são conectadas perfeitamente integradas. Ouseja, a condição se a chave de luminância é válida ou não é fixa em todas asseções de reprodução que são conectadas perfeitamente integradas. A figu-ra 45(b) mostra um limite de nível de luminância Iuma key upperJimit que éusado para determinar se exibe ou não um pixel transparente ao aplicar umachave de luminância. Por exemplo, quando luma_key_upper_limit é 20, umpixel cujo nível de luminância é igual a ou menor que 20 é exibido transpa-rente, enquanto que um pixel cujo nível de luminância excede 20 é exibidonão transparente. Conforme mostrado na figura 45(b), o valor de Iu-ma_key_upper_limit é fixado em todas as seções de reprodução que sãoconectadas perfeitamente integradas. Neste caso, uma vez que Iu-ma_key_upper_limit faz referência a um caso no qual a chave de luminânciaé válida, as informações mostrando o limite de chave de luminância poderãoser providas somente no caso em que a chave de luminância for válida.
Quando se garante que o limite de chave de luminância é fixado,um tocador para executar um processo de transparência por chave de lumi-nância não precisará mudar o limite no processamento de limite de chave deluminância. Sendo assim, é desejável poder julgar de antemão se o limite dechave de luminância é fixado ou não. A figura 46 vem a ser um diagramapara explicar uma sinalização usada para garantir se o limite de chave deluminância é fixado. No exemplo da figura 46, as informações de sinalizaçãoluma_key_fixed_flag, que indicam se o limite de chave de luminância é fixa-do ou não, ficam armazenadas como parte das informações de atributo decada seção de reprodução. Luma_key_fixed_flag indica se o limite de chavede luminância na seção de reprodução é igual ou não ao da seção de repro-dução imediatamente anterior. A figura 46(a) mostra um exemplo de indica-ção se o limite de chave de luminância é fixado (luma_key_fixed_flag = 1).Neste exemplo, as seções de reprodução são conectadas perfeitamente in-tegradas, e é certo que o limite de chave de luminância é fixado nestas se-ções de reprodução. A figura 46(b) mostra um exemplo no qual não se ga-rante se o limite de chave de luminância é fixado (luma_key_fixed_f!ag = 0).Neste exemplo, as seções de reprodução não são submetidas a uma cone-xão perfeitamente integrada, e o limite de chave de luminância é variávelnestas seções de reprodução. Observa-se que luma_key_fixed_flag podeser definido para toda uma seção de reprodução contínua, ou para cada se-ção de reprodução que constitui a seção de reprodução contínua. No casode se definir luma_key_fixed_flag para cada seção de reprodução, uma vezque cada seção de reprodução é especificada por um item de reprodução,as informações que indicam se o limite de chave de luminância é fixado ounão em uma seção de reprodução poderão ser incluídas nas informações dereprodução providas para cada item de reprodução. Por exemplo, as infor-mações, que mostram se a seção de reprodução especificada por um itemde reprodução corrente e a seção de reprodução especificada por um itemde reprodução imediatamente anterior podem ser conectadas perfeitamenteintegradas, podem ser também usadas como as informações que indicam seo limite de chave de luminância é fixado ou não. Desta maneira, as duas in-formações podem ser mostradas por meio de uma sinalização. Ainda, asinformações que indicam se a chave de luminância deve ser aplicada ou nãopodem ser armazenadas da mesma maneira.
A segunda modalidade tem os mesmos tipos de conexão perfei-tamente integrada como na primeira modalidade. Por exemplo, um multiân-gulo perfeitamente integrado no qual os fluxos de diferentes ângulos podemser conectados perfeitamente integrados vem a ser um tipo de conexão per-feitamente integrada. Em um multiângulo perfeitamente integrado, cada ân-gulo apresenta a mesma condição se a chave de luminância é válida ou ummesmo limite de chave de luminância. Existem ainda múltiplos tipos de co-nexão perfeitamente integrada, como, por exemplo, (1) um caso no qual ovalor do relógio de referência, tal como o relógio de tempo de sistema (STC)do padrão MPEG-2 de sistema, não é contínuo antes e após a conexão (aconexão perfeitamente integrada do tipo 1), e (2) um caso no qual o valor dorelógio de referência, tal como o relógio de tempo de sistema (STC) do pa-drão MPEG-2 de sistema é contínuo antes e após a conexão (a conexãoperfeitamente integrada do tipo 2). Sendo assim, quando a conexão perfei-tamente integrada é indicada por qualquer uma dentre as informações quemostram se duas seções de reprodução correspondem à conexão perfeita-mente integrada do tipo 1 e as informações que mostram se duas seções dereprodução correspondem à conexão perfeitamente integrada do tipo 2, en-tão tais informações podem ser usadas para mostrar se o limite de chave deluminância é fixado nas duas seções de reprodução contínuas.
A figura 47 mostra um exemplo de aplicação de uma chave deluminância em um recurso "Picture-in-Picture". Na recepção "Picture-in-Picture", o sub-vídeo chamado vídeo secundário é exibido em sobreposiçãoao vídeo principal chamado vídeo primário. Neste caso, quando um proces-so de transparência por chave de luminância é válido para o vídeo secundá-rio, um processo de transparência é realizado. Por outro lado, quando umprocesso de transparência por chave de luminância não é válido para o ví-deo secundário, o processo de transparência não é realizado. A figura 47(a)mostra planos da imagem de vídeo. O plano 1 é um plano de imagem para ovídeo primário e o plano 2 é um plano de imagem para o vídeo secundário,conforme mostrado nas figuras 47(b) e 47(c). Conforme mostrado na figura47(d), o vídeo secundário é exibido em sobreposição sobre o vídeo primário.
Neste exemplo, a área sombreada em diagonal da figura 47(c) é exibidatransparente como resultado de um processo de transparência por chave deluminância. O vídeo secundário pode ser comutado entre uma pluralidade defluxos. As figuras 47(e), 47(f), e 47(g) mostram um exemplo no qual existemdois fluxos de vídeo secundário. Em detalhe, a figura 47(e) mostra uma linhade tempo de vídeo em cada seção de reprodução de um fluxo de vídeo pri-mário. A figura 47(f) mostra uma linha de tempo de vídeo em cada seção dereprodução de um primeiro fluxo de vídeo secundário. A figura 47(g) mostraa linha de tempo de vídeo em cada seção de reprodução de um segundofluxo de vídeo secundário. Por exemplo, suponha-se que as seções 1-1 e 1-2 da figura 47(f) sejam conectadas perfeitamente integradas (o 1 circuladoda figura 47). Quando este é o caso, as seções 1-1 e 1-2 apresentam amesma condição se um processo de transparência por chave de luminânciaé válido ou não, e caso o processo de transparência seja válido, o mesmolimite de chave de luminância. Ainda, suponha-se que a seção 1-2 do primei-ro fluxo de vídeo secundário seja conectada perfeitamente integrada à seção2-3 do segundo fluxo de vídeo secundário (o 2 circulado da figura 47). Nestecaso, as seções 1-2 e 2-3 têm as mesmas informações relativas à chave deluminância. Além disso, as seções 1-3 e 2-3 podem ter as mesmas informa-ções relacionadas à chave de luminância, a fim de garantir uma continuidadede conexão diferente das partes conectadas das seções de reprodução (o 3circulado da figura 47).
O vídeo primário e o vídeo secundário são multiplexados em umfluxo de transporte ou similar e gravados. A figura 48 mostra um método demultiplexação do vídeo primário e do vídeo secundário. A figura 48(a) mostraum exemplo de multiplexação do vídeo primário e do vídeo secundário emum mesmo fluxo de transporte. A figura 48(b) mostra um exemplo de multi-plexação do vídeo primário e do vídeo secundário em fluxos de transporteseparados. Sendo assim, o vídeo primário e o vídeo secundário podem sermultiplexados em um mesmo fluxo de transporte ou em fluxos de transporteseparados.
A figura 49 é um fluxograma mostrando a operação do métodode multiplexação para a geração de dados multiplexados gravados no meiode gravação da presente modalidade. O método de multiplexação da pre-sente modalidade difere do método de multiplexação convencional no senti-do de que inclui: uma etapa de determinação de uma unidade pela qual acondição se a chave de luminância válida é comutável ou não (EtapaS5301); uma etapa de codificação de uma imagem em movimento de umclipe com base em uma determinada unidade (Etapa S5302); uma etapa degeração de informações de sinalização relativas a uma chave de luminânciapara cada seção de reprodução predeterminada (Etapa S5304); e uma etapade geração de informações de gerenciamento que incluem as informaçõesde sinalização relativas a uma chave de luminância gerada na Etapa S5304(Etapa S5305).
Isto quer dizer que o método de multiplexação da presente mo-dalidade vem a ser um método de codificação de imagem em movimentopara codificar um fluxo de vídeo que inclui uma primeira imagem em movi-mento e uma segunda imagem em movimento a ser sobreposta em cima daprimeira imagem em movimento, e inclui: uma etapa de determinação, nofluxo de vídeo, de uma seção de reprodução contínua que vem a ser umgrupo de seções parciais e que é submetida a uma reprodução contínua, ede codificação do fluxo de vídeo em cada seção de reprodução de modo queo atributo de chave de luminância seja fixo na seção de reprodução contí-nua, o atributo de chave de luminância sendo definido por pelo menos umadentre a condição se a chave de luminância é válida e se é usado um limitepara o processo de transparência por chave de luminância (Etapas S5301 aS5303); uma etapa de geração de atributo de chave de luminância para ca-da seção de reprodução ou para cada grupo de seções de reprodução (Eta-pa S5304); e uma etapa de geração de informações de gerenciamento inclu-indo informações de sinalização que indicam se o atributo de chave de lumi-nância é fixado na seção de reprodução contínua (Etapa S5305). A seguirestas etapas são descritas em detalhe.
Primeiramente, na Etapa S5301, é determinada a unidade pelaqual a condição se a chave de luminância é válida ou não (condição de vali-dade de chave de luminância) é comutável. Ou seja, um dentre uma unidadede reprodução contínua, um clipe, ou uma unidade de acesso aleatório édeterminado como a unidade pela qual a condição de validade de chave deluminância é comutável. Em seguida, na Etapa S5302, os dados de um clipesão codificados com base na unidade comutável de condição de validade dechave de luminância determinada na Etapa S5301. Observa-se que o julga-mento quanto a se o limite de chave de luminância é comutável ou não podeser feito também na Etapa S5301, de modo que a codificação de um clipe naEtapa S5302 seja feita com base no resultado do julgamento. Na EtapaS5303, é feito um julgamento quanto a se a codificação de um último clipefinalizou. Quando a codificação do último clipe finaliza, a operação prosse-gue para a Etapa S5304. Quando a codificação do último clipe não finalizou,a operação volta para a Etapa S5302 a fim de repetir a codificação do clipe.Na Etapa S5304, as informações de atributo relativas a uma chave de lumi-nância são geradas para cada seção de reprodução predeterminada, e aoperação prossegue para a Etapa S5305. A seção de reprodução predeter-minada aqui mencionada vem a ser a seção de reprodução designada pelalista de reprodução da presente modalidade, embora a seção de reproduçãopredeterminada possa ser também um clipe ou uma unidade de acesso a-leatório. Na Etapa S5305, são geradas informações de gerenciamento inclu-indo as informações de atributo geradas na Etapa S5304, e as informaçõesde gerenciamento e os dados de clipe são multiplexados e exibidos. Nestecaso, as informações que indicam se duas seções de reprodução contínuaspodem ser conectadas perfeitamente integradas podem ser incluídas nasinformações de gerenciamento. Uma vez que a condição de validade dechave de luminância é fixa nas seções de reprodução que são conectadasperfeitamente integradas, na Etapa S5301 a condição de validade de chavede luminância é determinada como não comutável nas seções de reprodu-ção conectadas perfeitamente integradas. Ainda, na Etapa S5302, quando achave de luminância é válida nas seções de reprodução conectadas perfei-tamente integradas, a codificação é feita de modo que o limite usado ao rea-lizar um processo de transparência por chave de luminância seja igual emcada uma destas seções de reprodução conectadas perfeitamente integra-das. Observa-se que uma operação detalhada de determinação de uma uni-dade pela qual a condição de validade de chave de luminância é comutávelna Etapa S5301 pode ser realizada pela mesma operação que o método demultiplexação da primeira modalidade mostrada na figura 14.
A figura 50 é um fluxograma mostrando um exemplo específicoda etapa de geração de informações de sinalização (Etapa S5304) e da eta-pa de geração de informações de gerenciamento (Etapa S5305) mostradana figura 49. Na Etapa S5304a, é feito um julgamento quanto a se um clipecodificado é um clipe cuja condição de validade de chave de luminância écomutável. Quando o clipe codificado é julgado como comutável, informa-ções de sinalização que indicam se a condição de validade de chave de Iu-minância não é fixa são geradas e armazenadas na área de trabalho de umamemória em correspondência ao clipe (Etapa S5304b). Quando o clipe codi-ficado é julgado como não comutável, informações de sinalização que indi-cam se a condição de validade de chave de luminância é fixa são geradas earmazenadas na área de trabalho de uma memória em correspondência aoclipe (Etapa S5304c). Neste caso, as informações de sinalização incluem,para cada seção de reprodução predeterminada, tal como a seção de repro-dução especificada por um item de reprodução, informações que mostramse a chave de luminância é válida ou não, quando a chave de luminância éválida, e o limite da chave de luminância. Na Etapa S5304d, é feito um jul-gamento quanto a se o clipe codificado é o último clipe. Quando o clipe codi-ficado não é o último clipe, as Etapas S5304a a S5304c são repetidas.Quando o clipe codificado é o último clipe, a operação prossegue para a E-tapa S5304e. Na Etapa S5304e, são geradas metas de informações do re-curso "Picture-in-Picture", incluindo informações relativas à chave de lumi-nância para cada item de reprodução. Na Etapa S5305f, são geradas infor-mações de gerenciamento incluindo as metas de informações do recurso"Picture-in-Picture", a lista de reprodução, as informações necessárias paraum acesso aleatório, e similar. São incluídas na lista de reprodução informa-ções que indicam se duas seções de reprodução contínuas podem ser co-nectadas perfeitamente integradas e informações que mostram o tipo de co-nexão perfeitamente integrada.
Deve-se notar que, uma vez que informações que identificam umfluxo de transporte ou um fluxo codificado de vídeo secundário são incluídasnas informações de gerenciamento, informações relativas à chave de lumi-nância podem ser incluídas nas informações de gerenciamento somente pa-ra tal fluxo de transporte ou fluxo codificado identificado como um vídeo se-cundário pelo número de índice.
Esta modalidade descreve um processo de transparência porchave de luminância para o vídeo secundário em uma operação de recurso"Picture-in-Picture", porém a presente invenção não se limita a este aspecto.A presente invenção é aplicável a qualquer caso da imagem, quando existeuma pluralidade de planos de imagem, uma imagem sobre um plano que écolocada na frente de um outro plano. Um exemplo é exibir em sobreposiçãouma imagem estática ou uma imagem em movimento sobre uma imagemestática, gráficos de computador, e similar. Ainda, um processo de transpa-rência por chave de luminância pode ser aplicado a uma pluralidade de ima-gens que são exibidas em diferentes planos de imagem.
Além disso, uma taxa de transparência diferente de 0 ou 1, porexemplo, uma meia-transparência, pode ser usada de acordo com o limitede chave de luminância ou similar.
Em um recurso "Picture-in-Picture", uma restrição pode ser im-posta sobre uma operação de reprodução diferente do processo de transpa-rência por chave de luminância. Por exemplo, uma condição se exibir ou nãoum vídeo secundário pode ser fixada ao realizar uma reprodução especial,como, por exemplo, uma reprodução em alta velocidade ou uma reproduçãoinversa, através de seções de reprodução conectadas perfeitamente inte-gradas. Em detalhe, no caso da reprodução especial, a condição da imagemé fixada a um dentre sempre exibir um vídeo secundário ou não exibir umvídeo secundário. Ao se exibir um vídeo secundário no momento de umareprodução especial, a reprodução especial poderá ser associada a um pro-cesso de transparência por chave de luminância, por exemplo, ao fixar o li-mite de chave de luminância. Quando isto acontece, a restrição do recurso"Picture-in-Picture" no momento da reprodução especial pode ser garantidaao se fixar um valor de informação de sinalização indicando se exibe o vídeosecundário em uma reprodução especial, ou ao se usar uma informação desinalização mostrando que o valor das informações de sinalização acima,isto é, as informações de sinalização que indicam se exibe ou não o vídeosecundário em uma reprodução especial, é fixado.
Observa-se que o vídeo primário e o vídeo secundário podemser codificados de acordo com, por exemplo, uma codificação AVC de pa-drão MPEG-4, um vídeo de padrão MPEG-2, ou uma codificação VC-1. Demodo a reduzir as combinações de métodos de codificação necessários aum tocador, pode-se restringir a combinação de métodos de codificação devídeo primário e de vídeo secundário de tal maneira que, quando o métodode codificação do vídeo primário é uma codificação AVC de padrão MPEG-4,o vídeo secundário seja codificado por uma codificação AVC de padrãoMPEG-4, também.
A figura 51 é um diagrama em blocos mostrando a estrutura deum dispositivo de multiplexação 5200 de modo a executar o método de mul-tiplexação da presente modalidade. O dispositivo de multiplexação 5200 vema ser um exemplo de um dispositivo de codificação de imagem em movimen-to para codificar um fluxo de vídeo que inclui uma primeira imagem em mo-vimento e uma segunda imagem em movimento a ser sobreposta em cimada primeira imagem em movimento. O dispositivo de multiplexação 5200inclui uma unidade de determinação de unidade comutável 5201, uma uni-dade de geração de informação de comutação 5202, uma unidade de codifi-cação 5203, uma unidade de multiplexação de sistema 5204, uma unidadede geração de informação de gerenciamento 5205, e uma unidade de com-binação 5206. Neste caso, apenas uma área da imagem, da segunda ima-gem em movimento, cujo nível de luminância excede um limite predetermi-nado, é sobreposta em cima da primeira imagem em movimento. A seguir édescrita a operação de cada destas unidades estruturais.
A unidade de determinação de unidade comutável 5201 deter-mina, no fluxo de vídeo, uma seção de reprodução contínua que vem a serum grupo de seções parciais que é submetido a uma reprodução contínua.Neste caso, a unidade de determinação de unidade comutável 5201 deter-mina uma unidade pela qual o limite de chave de luminância é comutável, eentra a unidade determinada na unidade de geração de informação de co-mutação 5202 e na unidade de codificação 5203 como a unidade comutávelUnit2. Embora se assuma aqui que a unidade comutável foi definida de an-temão, a unidade comutável pode também ser definida a partir de fora.
A unidade de geração de informação de comutação 5202 gera,com base na unidade comutável Unit2, as informações de chave de lumi-nância Lumalnf2 que mostram as informações de atributo de uma chave deluminância para cada unidade de reprodução especificada por uma lista dereprodução, e entram as informações de chave de luminância Lumalnf2 paraa unidade de geração de informação de gerenciamento 5205. Por exemplo,a unidade de geração de informação de comutação 5202 gera informaçõesde sinalização que indicam se o limite de chave de luminância é fixado emuma seção de reprodução contínua.
A unidade de geração de informação de comutação 5202 gerauma pluralidade de conjuntos de informação de atributo de vídeo de modo aespecificar vários processos de imagem em sobreposição. Esta geração depluralidade de conjuntos de informação de atributo de vídeo é feita de modoque o número de conjuntos de informação de atributo de vídeo, cujos conte-údos são comutados em uma pluralidade de seções parciais que constituemuma seção de reprodução contínua, fique limitado a não mais que um núme-ro predeterminado. Em detalhe, conforme mostrado na figura 52, a unidadede geração de informação de comutação 5202 gera uma pluralidade de con-juntos de informação de atributo de vídeo incluindo os seguintes itens (i), (ii),e (iii), como metas de informações do recurso "Picture-in-Picture". (i) Infor-mações de sinalização que mostram se o limite acima, ou seja, o limite denível de luminância para a determinação da taxa de transparência em 1 aose aplicar a chave de luminância, é igual (1) ou diferente (0) entre uma se-ção de reprodução corrente ou uma seção de reprodução imediatamenteanterior, ou informações que mostram o limite de chave de luminância. (ii)Informações de sinalização que mostram se uma posição da imagem deuma imagem de vídeo secundário a ser sobreposta em cima da imagem deum vídeo primário é igual (1) ou diferente (0) entre a seção de reproduçãocorrente ou a seção de reprodução imediatamente anterior, ou as informa-ções de coordenada da posição da imagem, (iii) Informações de sinalizaçãoque mostram se um fator de escala (uma escala de ampliação) da imagemde vídeo secundário a ser sobreposta em cima da imagem do vídeo primárioé igual (1) ou diferente (0) entre a seção de reprodução corrente ou a seçãode reprodução imediatamente anterior, ou as informações que designam ummétodo de escala. Em uma geração destes conjuntos de informação de atri-buto de vídeo, o número de conjuntos de informação de atributo de vídeo,cujos conteúdos podem ser comutados na seção de reprodução contínua, élimitado a não mais que um número predeterminado (por exemplo, 2). Ao seimpor esta restrição, garante-se que o número de conjuntos de informaçãode atributo de vídeo, que muda de valor na seção de reprodução contínua,não exceda o número predeterminado. Isto diminui a carga de processamen-to de um processo de comutação de um dispositivo de reprodução.
A unidade de codificação 5203 codifica a primeira e a segundaimagens em movimento da pluralidade de seções parciais que constituem aseção de reprodução contínua determinada pela unidade de determinaçãode unidade comutável 5201, de modo a atender à restrição que impede queo limite seja alterado na seção de reprodução contínua. Neste caso, a uni-dade de codificação 5203 codifica os dados de cada clipe de modo a atenderà restrição da unidade comutável Unit2, e entra os dados codificados Cdata2para a unidade de multiplexação de sistema 5204. Em maior detalhe, na se-ção de reprodução contínua, a unidade de codificação 5203 ajusta (atravésde uma multiplicação por um coeficiente, uma adição de valor de desloca-mento, etc.) os níveis de luminância dos pixels que constituem a segundaimagem em movimento de modo que o nível de luminância de cada pixel deuma área de imagem a ser sobreposta exceda o limite e o nível de luminân-cia de cada pixel de uma área de imagem a não ser sobreposta (isto é, devaser processada em transparência) não exceda o limite.
Observa-se que, não apenas para a seção de reprodução contí-nua determinada por uma unidade de determinação de unidade comutável5201, mas também para uma pluralidade de seções parciais que devem serconectadas perfeitamente integradas de acordo com um modelo de decodifi-cador, a unidade de codificação 5203 poderá codificar a primeira e a segun-da imagens em movimento da pluralidade de seções parciais de modo a a-tender à restrição que impede a alteração do limite. O modelo de decodifica-dor acima mencionado define o caso no qual duas seções parciais precisamser conectadas perfeitamente integradas. Para estas duas seções parciais, épreferível, antes, codificar a primeira e a segunda imagens em movimentosob a restrição que impede a alteração do limite.
A unidade de multiplexação de sistema 5204 multiplexa o siste-ma dos dados codificados Cdata2, e entra informações de fluxo Strlnf2 paraa unidade de geração de informação de gerenciamento 5205 e os dadosmultiplexados Mdata2 para a unidade de combinação 5206. Nos discos BD-ROM, é empregado um método de multiplexação de sistema chamado paco-te de origem, no qual um cabeçalho de 4 bytes é adicionado a um fluxo detransporte de padrão MPEG-2. Ainda, as informações de fluxo Strlnf2 inclu-em informações para a geração de informações de gerenciamento para osdados multiplexados Mdata2, como, por exemplo, um mapa de tempo. Nestecaso, a unidade de multiplexação de sistema 5204 pode realizar uma multi-plexação de tal modo que a pluralidade de seções parciais que constituem aseção de reprodução contínua seja especificada pelo identificador de pacotede um fluxo de transporte. Isto permite que os clipes, nos quais o limite éfixado, sejam identificados por um identificador de pacote.
A unidade de geração de informação de gerenciamento 5205gera informações de gerenciamento incluindo a informação de atributo devídeo acima e as informações de sinalização que indicam se o limite é fixadona seção de reprodução contínua, de acordo com uma instrução de umaunidade de geração de informação de comutação 5202. Neste caso, a uni-dade de geração de informação de gerenciamento 5205 gera as informaçõesde gerenciamento Ctrllnf2 que incluem as informações de chave de luminân-cia Lumalnf2, o mapa de tempo gerado com base nas informações de fluxoStrlnf2, e similar, e entra as informações de gerenciamento Ctrllnf2 para aunidade de combinação 5206.
A unidade de combinação 5206 combina a primeira e a segundaimagens em movimento codificadas pela unidade de codificação 5203 comas informações de gerenciamento geradas pela unidade de geração de in-formação de gerenciamento 5205, e exibe a combinação. Neste caso, a uni-dade de combinação 5206 combina as informações de gerenciamento Ctr-llnf2 com os dados multiplexados Mdata2 e exibe a combinação como osdados de gravação Dout2.
O dispositivo de multiplexação 5200 tendo estrutura acima exe-cuta uma operação de multiplexação de acordo com os fluxogramas mostra-dos nas figuras 49 e 50, e, como resultado, gera as informações de gerenci-amento e o fluxo codificado conforme mostrado nas figuras 44 a 48.A figura 53 mostra uma estrutura de dados de informação degerenciamento gerada por meio do presente dispositivo de multiplexação5200. A figura 53(a) mostra os elementos de dados de uma lista de reprodu-ção que faz parte das informações de gerenciamento. A figura 53(b) mostraum exemplo de lista de reprodução mostrando as seções de reprodução quesão conectadas perfeitamente integradas (Connection_condition = 5). Con-forme mostrado na figura 53(a), o dispositivo de multiplexação 5200 gera,como uma lista de reprodução, o "item de reprodução", o "subitem de repro-dução", e as "metas de informações do recurso "Picture-in-Picture"". Con-forme mostrado na figura 53(b), o "item de reprodução" mostra as informa-ções sobre cada seção de reprodução do vídeo primário (tal como, a hora deinicialização de reprodução e a hora de finalização de reprodução de umclipe), a condição de conexão entre as seções de reprodução do vídeo pri-mário, e similar. O "Subitem de reprodução" mostra as informações sobrecada seção de reprodução do vídeo secundário (tal como, a hora de iniciali-zação de reprodução e a hora de finalização de reprodução de um clipe), acondição de conexão entre as seções de reprodução do vídeo secundário, esimilar. As "metas de informações do recurso "Picture-in-Picture"" mostra ainformação de atributo de vídeo (por exemplo, a chave de luminância, a po-sição da imagem, e um fator de escala) do vídeo secundário ao ligar o recur-so "Picture-in-Picture". Observa-se que o clipe do vídeo primário correspon-dente ao item de reprodução e ao subitem de reprodução é identificado porum número de índice do item de reprodução.
Sendo assim, o dispositivo de multiplexação 5200 gera informa-ções de sinalização que indicam se o limite é fixado, as informações de re-produção ("meta de informação" da figura 53) correspondentes à cada umadentre uma pluralidade de seções parciais (a "seção de reprodução" da figu-ra 53) que constituem uma seção de reprodução contínua. Em detalhe, odispositivo de multiplexação 5200 gera as informações de sinalização comoinformações de reprodução ("meta de informação" da figura 53) correspon-dentes à cada item de reprodução incluído na lista de reprodução.
Ao gerar os dados por meio do uso de uma ferramenta autoralou similar, ocorre no caso no qual a geração de dados codificados e a multi-plexação de sistema ou a geração de informações de gerenciamento sãofeitas por dispositivos separados. Neste caso, o método de multiplexaçãoacima poderá ser obtido por meio destes dispositivos separados que operamda mesma maneira que as unidades estruturais do dispositivo de multiplexa-ção 5200.
O dispositivo de multiplexação 5200 pode ser usado não somen-te como um dispositivo de codificação de imagem em movimento para a ge-ração de um fluxo codificado, mas também como um dispositivo de gravaçãode imagem em movimento para a gravação do fluxo codificado em um meiode gravação que inclui um disco óptico, como, por exemplo, um disco BD1uma memória flash, como, por exemplo, um cartão digital seguro (SD), umdisco rígido, e similar. Isto pode ser obtido ao se prover uma unidade decombinação 5206, que vem a ser o estágio de saída do dispositivo de multi-plexação 5200, com uma função de gravação da combinação da primeira esegunda imagens em movimento codificadas pela unidade de codificação5203 com as informações de gerenciamento geradas pela unidade de gera-ção de informação de gerenciamento 5205, e de gravação da combinaçãono meio de gravação. O meio de gravação apresentado neste relatório des-critivo pode ser produzido por tal dispositivo de gravação de imagem emmovimento (ou método de gravação de imagem em movimento).
A figura 54 é um fluxograma mostrando a operação de execuçãode um processo de transparência por chave de luminância quando uma se-ção de reprodução se finaliza e outra se inicia em um tocador (o dispositivode reprodução de imagem em movimento) para a exibição dos dados multi-plexados gravados no meio de gravação da presente modalidade.
Primeiramente, na Etapa S5401, o tocador julga se a seção dereprodução corrente especificada por um item de reprodução está conectadaperfeitamente integrada ou não a uma seção de reprodução seguinte. Quan-do a seção de reprodução corrente é julgada como conectada perfeitamenteintegrada, o tocador continua na etapa S5405. Quando a seção de reprodu-ção corrente é julgada não conectada perfeitamente integrada, o tocadorprossegue para a etapa S5402. Como um exemplo específico deste julga-mento, o tocador obtém as informações de gerenciamento correspondentesa um fluxo de vídeo, e julga se as informações de sinalização das informa-ções de gerenciamento obtidas indicam se o limite é fixado ou não (EtapaS5401). Quando as informações de sinalização das informações de gerenci-amento indicam que o limite é fixado, o tocador julga se a seção de reprodu-ção corrente e a seção de reprodução seguinte estão conectadas perfeita-mente integradas (Etapa S5401: sim). Quando as informações de sinaliza-ção das informações de gerenciamento indicam que o limite não é fixado, otocador julga se a seção de reprodução corrente e a seção de reproduçãonão estão conectadas perfeitamente integradas (Etapa S5401: não).
Na Etapa S5402, o tocador julga se a chave de luminância é vá-lida ou não na seção de reprodução seguinte. Quando a chave de luminân-cia é julgada como válida, o tocador prossegue para a etapa S5403. Quandoa chave de luminância é julgada como não válida, o tocador continua na eta-pa S5406. Na Etapa S5403, o tocador obtém o limite de chave de luminân-cia. Na Etapa S5404, o tocador executa um processo de transparência novídeo secundário da seção de reprodução seguinte, com base no limite dechave de luminância obtido na Etapa S5403.
Na Etapa S5405, o tocador executa um processo de transparên-cia no vídeo secundário da seção de reprodução seguinte, de acordo com amesma condição da seção de reprodução corrente (isto é, com base namesma chave de luminância limite da seção de reprodução corrente). Emdetalhe, o tocador executa um processo de produção, no vídeo secundário,de um pixel cujo nível de luminância é igual ou menor que o limite da chavede luminância, completamente transparente. Neste caso, quando a chave deluminância não é válida na seção de reprodução corrente, o tocador não e-xecuta o processo de transparência no vídeo secundário da seção de repro-dução seguinte.
Na Etapa S5406, o tocador exibe em sobreposição, no vídeoprimário, o resultado da produção da Etapa S5404 ou da Etapa S5405, ou oresultado da decodificação do vídeo secundário sobre o qual um processode transparência não foi realizado no caso em que a chave de luminância éjulgada como não válida na Etapa S5402.
Deve-se notar que a operação mostrada na figura 54 pode serrealizada pelo tocador no sentido de reproduzir o disco BD conforme mos-trado nas figuras 20 e 21, na primeira modalidade. Por exemplo, um proces-so de transparência por chave de luminância é executado pela unidade deprocessamento de apresentação 208 mostrada na figura 20.
Além disso, o tocador pode determinar a ordem de reproduçãodos itens de reprodução de acordo com um procedimento de reproduçãopredeterminado. Como um exemplo, na reprodução contínua de uma plurali-dade de itens de reprodução, o tocador prioriza os itens de reprodução quetêm o mesmo limite de chave de luminância. No caso em que o usuário pedepara reproduzir um item de reprodução específico por meio da operação deum controle remoto ou similar, o tocador poderá reproduzir continuamente ositens de reprodução que têm limites diferentes de chave de luminância. Ain-da, no método de multiplexação e no dispositivo de multiplexação da presen-te modalidade, o limite de chave de luminância pode ser fixo nos itens dereprodução que são continuamente exibidos de acordo com um predetermi-nado procedimento de reprodução. Neste caso, um item de reprodução cor-responde a uma unidade de reprodução.
Terceira Modalidade
Ao gravar um programa, para executar um meio de gravação, ométodo de reprodução, e o método de gravação descritos em cada uma dasmodalidades acima a respeito de um meio de gravação, tal como um discoflexível, e o processamento mostrado em cada uma das modalidades acimapodem ser facilmente implementados em um sistema de computador inde-pendente.
As figuras 55A a 55C mostram uma situação na qual o métodode reprodução e o método de gravação de cada uma das modalidades aci-ma são realizados em um sistema de computador por meio do uso de umprograma gravado em um meio de gravação, tal com um disco flexível.
A figura 55B mostra a aparência de um disco flexível conformevisto a partir de uma seção transversal frontal de um disco flexível, e o pró-prio disco flexível. A figura 55A mostra um formato físico exemplar de umdisco flexível que vem a ser um corpo de meio de gravação. O disco flexívelFD é alojado em uma caixa F. Uma pluralidade de trilhas Tr é formada sobrea superfície de um disco flexível FD concentricamente na direção do seu raioexterno para o raio interno. Cada trilha é dividida em 16 setores Se em umadireção angular. No armazenamento de um programa em um disco flexível,o programa fica situado em uma área alocada no disco flexível FD.
A figura 55C mostra uma estrutura para gravar/reproduzir umprograma em um disco flexível FD. Para gravar um programa de modo aexecutar um método de reprodução e um método de gravação em um discoflexível FD, o programa é gravado a partir de um sistema de computador CSno disco flexível FD através de uma unidade de disco flexível FDD. Para im-plementar o método de gravação e o método de reprodução no sistema decomputador CS através do uso do programa armazenado no disco flexívelFD1 o programa é lido a partir do disco flexível FD através da unidade dedisco flexível FDD e transferido para o sistema de computador CS.
Embora o disco flexível seja descrito aqui como um exemplo demeio de gravação, um disco óptico é igualmente aplicável. Ainda, outrosmeios de gravação capazes de gravar um programa, tal como um cartão ICou um cassete de memória ROM, são igualmente aplicáveis.
Os blocos funcionais mostrados em cada um dos diagramas embloco, tais como nas figuras 12, 20, 21, 25, e 51, podem ser tipicamente e-xecutados como um LSI que vem a ser um dispositivo de circuito integrado.Este dispositivo LSI pode ser obtido ao se integrar os blocos funcionais emum chip ou em uma pluralidade de chips (por exemplo, outros blocos funcio-nais além de uma memória podem ser implementados em um chip). Emboraseja aqui mencionado o dispositivo LSI, o circuito pode ser chamado de IC,de dispositivo LSI de sistema, super dispositivo LSI, ou ultra dispositivo LSI,dependendo do grau de integração.
Ainda, a integração não se limita ao dispositivo LSI, e pode serrealizada ao se utilizar um circuito dedicado ou um processador geral. Umarranjo de portas programáveis em campo (FPGA) que pode ser programa-do ou um processador reconfigurável capaz de reconfigurar conexões e con-figurações de células de circuito em um dispositivo LSI podem ser usadosapós a produção do dispositivo LSI.
Além disso, quando uma técnica de circuito integrado que substi-tui um dispositivo LSI surge a partir do avanço da tecnologia de semicondu-tores ou outra tecnologia derivada, tal técnica poderá ser usada para a inte-gração dos blocos funcionais. Por exemplo, a biotecnologia pode ser adap-tada neste sentido.
Ainda, sobre os blocos funcionais, apenas uma unidade para oarmazenamento de dados pode ser implementada como uma estrutura se-parada ao invés de ser incorporada em um chip, como no caso do meio degravação das modalidades acima.
Embora o método de codificação de imagem em movimento ousimilar de acordo com a presente invenção tenha sido descrito por meio dasmodalidades acima, a presente invenção não se limita a estas modalidades.A presente invenção inclui outras formas que podem ser realizadas ao seaplicar modificações concebíveis por uma pessoa versada na técnica relativaàs modalidades acima, outras formas que podem ser realizadas por meio dequalquer combinação dos elementos estruturais das modalidades acima, esimilar.
Nos diagramas em bloco, tais como os das figuras 12, 20, 21,25, e 51 e nos fluxogramas, tais como os das figuras 11, 13 a 17, 40 a 43,49, 50, e 54, peças principais podem também ser implementadas por umprocessador ou um programa.
Sendo assim, o método de codificação de imagem em movimen-to ou o método de codificação de imagens em movimento nas modalidadesacima pode ser usado em qualquer dispositivo ou sistema descrito acima.Deste modo, os efeitos descritos nas modalidades acima poderão ser obtidos.
APLICABILIDADE INDUSTRIAL
O método de codificação de imagem em movimento de acordocom a presente invenção fixa, nos dados codificados de uma imagem emmovimento que constituem a unidade de reprodução contínua mostrada pe-las informações de gerenciamento, um limite de nível de luminância utilizadoao se determinar se exibe um pixel transparente ou não. Como resultado,uma reprodução perfeitamente integrada poderá ser obtida ao suprimir umretardo na decodificação provocado ao se comutar o limite de nível de lumi-nância. Sendo assim, o método de codificação de imagem em movimento deacordo com a presente invenção é adequado para uso em meios de pacote,em aplicativos de distribuição, ou similar para a exibição em sobreposição deuma imagem em movimento sobre uma imagem em movimento, gráficos,uma imagem estática, e similar. Usos exemplares incluem um dispositivo LSIcodificador de imagem em movimento, uma câmera de cinema, um gravadorde imagem em movimento, uma televisão com função de gravação de ima-gem em movimento, ou um programa de computador.
Listagem de Referência
104, 201 - disco BD
202 - pick-up óptico
203 - memória de armazenamento de programa
204 - memória de armazenamento de informações de gerenciamento
205 - memória de armazenamento AV
206 - unidade de processamento de programa
207 - unidade de processamento de informações de gerenciamento
208 - unidade de processamento de apresentação
209 - plano de imagem
210 - plano de vídeo
211 - unidade de processamento de composição
301 - memória de armazenamento de programa
302 - processador de programa
303 - gerenciador UOP
304 - memória de armazenamento de informações de gerenciamento
305 - processador de cenário
306 - controladora de apresentação307 - relógio
308 - memória de imagem
309 - armazenador temporário de trilha
310 - demultiplexador
311 - processador de imagem
312 - processador de vídeo
313 - processador de som
314 - plano de imagem
315 - plano de vídeo
316 - unidade de processamento de composição
317 - controladora de unidade
5101 - etapa de inserção de disco
5102 - etapa de leitura de BD.INFO
5103 - etapa de leitura de BD.PROG
S104 - etapa de primeira geração de evento
S105 - etapa de execução de rotina handlerde eventos
5201 - etapa de julgamento de recepção UOP
5202 - etapa de geração de evento UOP
5203 - etapa de julgamento de chamada de menu
S204 - etapa de geração de evento
S205 - etapa de execução de rotina handler de eventos
5301 - etapa de início de reprodução de lista de reprodução
5302 - etapa de leitura de informações de reprodução (XXX.PL)
5303 - etapa de leitura de programa de reprodução (XXX.PROG)
S304 - etapa de início de reprodução celular
S305 - etapa de início de reprodução AV
5401 - etapa de início de reprodução AV
5402 - etapa de leitura de informações de objeto VOB (YYY.VOBI)
5403 - etapa de leitura de objeto VOB (YYY.VOB)
S404 - etapa de início de reprodução de objeto VOB
5405 - etapa de fim de julgamento de reprodução de objeto VOB
5406 - etapa seguinte de julgamento celular5501 - etapa de início de reprodução de lista de reprodução
5502 - etapa de julgamento de fim de reprodução de lista de reprodução
5503 - etapa de julgamento de tempo de evento de tempo
5504 - etapa de geração de evento
S505 - etapa de execução de rotina handlerde eventos
5601 - etapa de início de reprodução de lista de reprodução
5602 - etapa de julgamento de fim de reprodução de lista de reprodução
5603 - etapa de julgamento de recepção UOP
5604 - etapa de geração de evento UOP
S605 - etapa de julgamento de chamada de menu
5606 - etapa de julgamento de período válido de evento de usuário
5607 - etapa de geração de evento
5608 - etapa de execução de rotina handler de eventosS701 - etapa de início de reprodução de lista de reprodução
S702 - etapa de julgamento de fim de reprodução de lista de reprodução
5703 - etapa de julgamento de início de arrasto de subtítulo
5704 - etapa de arrasto de subtítulo
5705 - etapa de fim de julgamento de tela de subtítulos
5706 - etapa de exclusão de subtítulo

Claims (6)

1. Método de codificação de imagem em movimento para codifi-car um fluxo de vídeo que inclui uma primeira imagem em movimento e umasegunda imagem em movimento a ser sobreposta na primeira imagem emmovimento, a sobreposição sendo realizada por sobreposição de apenasuma área de imagem cujo nível de luminância excede um limite predetermi-nado da segunda imagem em movimento sobre a primeira imagem em mo-vimento, o método de codificação de imagem em movimento que compreen-de as etapas de:determinar uma seção de reprodução contínua que é um grupode seções parciais e que é submetida a uma reprodução contínua, no fluxode vídeo;codificar a primeira imagem em movimento e a segunda imagemem movimento nas seções parciais que constituem a seção de reproduçãocontínua determinada na etapa de determinar, conforme uma restrição queimpede que o limite seja alterado na seção de reprodução contínua;gerar informações de gerenciamento incluindo informações desinalização que indicam que o limite é fixado na seção de reprodução contí-nua; ecombinar a primeira imagem em movimento e a segunda ima-gem em movimento codificadas na codificação com as informações de ge-renciamento geradas na geração, e gerando como saída a combinação.
2. Dispositivo de codificação de imagem em movimento paracodificar um fluxo de vídeo que inclui uma primeira imagem em movimento euma segunda imagem em movimento a ser sobreposta na primeira imagemem movimento, a sobreposição sendo realizada por sobreposição de apenasuma área da imagem cujo nível de luminância excede um limite predetermi-nado da segunda imagem em movimento sobre a primeira imagem em mo-vimento, o dispositivo de codificação de imagem em movimento compreende:uma unidade de determinação de seção de reprodução contínuaconfigurada para determinar uma seção de reprodução contínua que é umgrupo de seções parciais e que é submetido a uma reprodução contínua, nofluxo de vídeo;uma unidade de codificação configurada de modo a codificar aprimeira imagem em movimento e a segunda imagem em movimento nasseções parciais que constituem a seção de reprodução contínua determina-da pela unidade de determinação de seção de reprodução contínua, confor-me uma restrição que impede que o limite seja alterado na seção de repro-dução contínua;uma unidade de geração de informação de gerenciamento confi-gurada para gerar informações de gerenciamento incluindo informações desinalização que indicam que o limite é fixado na seção de reprodução contí-nua; euma unidade de combinação configurada para combinar a pri-meira imagem em movimento e a segunda imagem em movimento codifica-das pela unidade de codificação, com as informações de gerenciamento ge-radas pela unidade de geração de informações de gerenciamento, e gerandocomo saída a combinação.
3. Método de gravação de imagem em movimento para codificarum fluxo de vídeo e gravar o fluxo de vídeo codificado em um meio de gra-vação, o fluxo de vídeo incluindo uma primeira imagem em movimento euma segunda imagem em movimento a ser sobreposta na primeira imagemem movimento, a sobreposição sendo realizada por sobreposição de apenasuma área da imagem cujo nível de luminância excede um limite predetermi-nado da segunda imagem em movimento sobre a primeira imagem em mo-vimento, o método de gravação de imagem em movimento compreendendoas etapas de:determinar uma seção de reprodução contínua que é ura grupode seções parciais e que é submetido a uma reprodução contínua, no fluxode vídeo;codificar a primeira imagem em movimento e a segunda imagemem movimento nas seções parciais que constituem a seção de reproduçãocontínua determinada na etapa de determinar, conforme uma restrição queimpede que o limite seja alterado na seção de reprodução contínua;gerar informações de gerenciamento incluindo informações desinalização que indicam que o limite é fixado na seção de reprodução contí-nua; ecombinar a primeira imagem em movimento e a segunda ima-gem em movimento codificadas na etapa de codificar, com as informaçõesde gerenciamento geradas na etapa de gerar, e gravar a combinação nomeio de gravação.
4. Meio de gravação no qual dados legíveis em computador sãogravados, os dados legíveis em computador incluindo:um fluxo de vídeo incluindo uma primeira imagem em movimentoe uma segunda imagem em movimento a ser sobreposta na primeira ima-gem em movimento, a sobreposição sendo realizada por sobreposição deapenas uma área da imagem cujo nível de luminância excede um limite pre-determinado da segunda imagem em movimento sobre a primeira imagemem movimento; einformações de gerenciamento utilizadas para gerenciar o fluxode vídeo,em que, conforme uma restrição que impede que o limite sejaalterado em uma seção de reprodução contínua que é um grupo de seçõesparciais e que é submetido a uma reprodução contínua no fluxo de vídeo, aprimeira imagem em movimento e a segunda imagem em movimento nasseções parciais que constituem a seção de reprodução contínua são codifi-cadas, eas informações de gerenciamento incluem informações de sina-lização que indicam que o limite é fixado na seção de reprodução contínua.
5. Método de reprodução de imagem em movimento para deco-dificar um fluxo de vídeo codificado incluindo uma primeira imagem em mo-vimento e uma segunda imagem em movimento e a exibição em sobreposi-ção da segunda imagem em movimento sobre a primeira imagem em movi-mento, o método de reprodução de imagem em movimento compreende asetapas de:obter informações de gerenciamento correspondentes ao fluxode vídeo e analisar as informações de gerenciamento obtidas; edecodificar a primeira imagem em movimento e a segunda ima-gem em movimento conforme a análise na etapa de analisar; eexibir em sobreposição somente uma área da imagem cujo nívelde luminância excede um limite predeterminado na segunda imagem emmovimento decodificada sobre a primeira imagem em movimento decodifi-cada,em que a etapa de analisar inclui julgar se as informações degerenciamento incluem ou não informações de sinalização que indicam queo limite é fixado, ea etapa de exibir em sobreposição inclui a etapa de exibir emsobreposição a área de imagem de uma seção parcial corrente ao usar ummesmo limite como uma seção parcial imediatamente precedente, quando ojulgamento na análise é que as informações de gerenciamento incluem asinformações de sinalização.
6. Dispositivo de reprodução de imagem em movimento paradecodificar um fluxo de vídeo codificado incluindo uma primeira imagem emmovimento e uma segunda imagem em movimento e a exibição em sobre-posição da segunda imagem em movimento sobre a primeira imagem emmovimento, o dispositivo de reprodução de imagem em movimento compre-ende:uma unidade de processamento de informações de gerencia-mento configurada para obter informações de gerenciamento corresponden-tes ao fluxo de vídeo e analisar as informações de gerenciamento obtidas;uma unidade de decodificação configurada para decodificar aprimeira imagem em movimento e a segunda imagem em movimento con-forme a análise pela unidade de processamento de informações de gerenci-amento; euma unidade de exibição configurada para exibir em sobreposi-ção apenas uma área da imagem cujo nível de luminância excede um limitepredeterminado na segunda imagem em movimento decodificada sobre aprimeira imagem em movimento decodificada, em que a unidade de proces-samento de informações de gerenciamento é configurada para julgar se asinformações de gerenciamento incluem ou não informações de sinalizaçãoque indicam que o limite é fixado, ea unidade de vídeo é configurada para exibir em sobreposição aárea da imagem em uma seção parcial corrente ao usar um mesmo limitecomo uma seção parcial imediatamente precedente, quando a unidade deprocessamento de informações de gerenciamento julga que as informaçõesde gerenciamento incluem as informações de sinalização.
BRPI0719335-1A 2006-12-14 2007-12-12 mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento BRPI0719335A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006337426 2006-12-14
JP2006-337426 2006-12-14
PCT/JP2007/073965 WO2008072669A1 (ja) 2006-12-14 2007-12-12 動画像符号化方法、動画像符号化装置、動画像記録方法、記録媒体、動画像再生方法、動画像再生装置および動画像再生システム

Publications (1)

Publication Number Publication Date
BRPI0719335A2 true BRPI0719335A2 (pt) 2011-05-10

Family

ID=39511686

Family Applications (2)

Application Number Title Priority Date Filing Date
BRPI0722391-9A BRPI0722391A2 (pt) 2006-12-14 2007-12-12 mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento
BRPI0719335-1A BRPI0719335A2 (pt) 2006-12-14 2007-12-12 mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BRPI0722391-9A BRPI0722391A2 (pt) 2006-12-14 2007-12-12 mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento

Country Status (12)

Country Link
US (4) US8023804B2 (pt)
EP (1) EP2079241B1 (pt)
JP (3) JP4718616B2 (pt)
KR (1) KR101362653B1 (pt)
CN (5) CN101800896B (pt)
AR (1) AR064274A1 (pt)
BR (2) BRPI0722391A2 (pt)
CA (1) CA2671557C (pt)
RU (2) RU2475997C2 (pt)
TW (2) TWI446794B (pt)
WO (1) WO2008072669A1 (pt)
ZA (1) ZA200903806B (pt)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
JP5200204B2 (ja) 2006-03-14 2013-06-05 ディブエックス リミテッド ライアビリティー カンパニー 高信頼性システムを含む連合型デジタル権限管理機構
AR064274A1 (es) 2006-12-14 2009-03-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, dispositivo de codificacion de imagenes en movimiento, metodo de grabacion de imagenes en movimiento, medio de grabacion, metodo de reproduccion de imagenes en movimiento, dispositivo de reproduccion de imagenes en movimiento, y sistema de reproducci
KR20100106327A (ko) 2007-11-16 2010-10-01 디브이엑스, 인크. 멀티미디어 파일을 위한 계층적 및 감소된 인덱스 구조
US8997161B2 (en) * 2008-01-02 2015-03-31 Sonic Ip, Inc. Application enhancement tracks
CN102549557B (zh) 2009-01-07 2015-09-09 索尼克Ip股份有限公司 针对在线内容的媒体指南的特定化、集中式、自动化创建
EP2434769B1 (en) 2009-05-19 2016-08-10 Panasonic Intellectual Property Management Co., Ltd. Recording method and playback method
JP5723888B2 (ja) 2009-12-04 2015-05-27 ソニック アイピー, インコーポレイテッド 基本ビットストリーム暗号材料伝送システムおよび方法
KR101721261B1 (ko) * 2010-08-20 2017-03-30 엘지디스플레이 주식회사 액정표시장치와 그의 데이터전송방법
JP2012060238A (ja) * 2010-09-06 2012-03-22 Sony Corp 動画像処理装置、動画像処理方法およびプログラム
US9247312B2 (en) 2011-01-05 2016-01-26 Sonic Ip, Inc. Systems and methods for encoding source media in matroska container files for adaptive bitrate streaming using hypertext transfer protocol
WO2012176405A1 (ja) * 2011-06-20 2012-12-27 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号装置、画像復号方法及び画像復号プログラム
JP2013038766A (ja) * 2011-07-12 2013-02-21 Sharp Corp 送信装置、送信装置の制御方法、制御プログラム、及び記録媒体
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
KR101928910B1 (ko) 2011-08-30 2018-12-14 쏘닉 아이피, 아이엔씨. 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
US8818171B2 (en) 2011-08-30 2014-08-26 Kourosh Soroushian Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US9049496B2 (en) * 2011-09-01 2015-06-02 Gracenote, Inc. Media source identification
US8964977B2 (en) 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
JP5698644B2 (ja) * 2011-10-18 2015-04-08 株式会社Nttドコモ 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置及び動画像予測復号プログラム
HUE049830T2 (hu) 2011-12-15 2020-10-28 Tagivan Ii Llc Luminancia-krominancia kódolt blokk jelölõ (CBF) jelzése videókódolásban
US20130179199A1 (en) 2012-01-06 2013-07-11 Rovi Corp. Systems and methods for granting access to digital content using electronic tickets and ticket tokens
US9197685B2 (en) * 2012-06-28 2015-11-24 Sonic Ip, Inc. Systems and methods for fast video startup using trick play streams
US9143812B2 (en) 2012-06-29 2015-09-22 Sonic Ip, Inc. Adaptive streaming of multimedia
US10452715B2 (en) 2012-06-30 2019-10-22 Divx, Llc Systems and methods for compressing geotagged video
JP5885604B2 (ja) * 2012-07-06 2016-03-15 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
EP2875417B1 (en) 2012-07-18 2020-01-01 Verimatrix, Inc. Systems and methods for rapid content switching to provide a linear tv experience using streaming content distribution
US8997254B2 (en) 2012-09-28 2015-03-31 Sonic Ip, Inc. Systems and methods for fast startup streaming of encrypted multimedia content
US8914836B2 (en) 2012-09-28 2014-12-16 Sonic Ip, Inc. Systems, methods, and computer program products for load adaptive streaming
JP6094126B2 (ja) * 2012-10-01 2017-03-15 富士通株式会社 動画像復号装置
TWI456985B (zh) * 2012-10-17 2014-10-11 Vivotek Inc 多攝影機的整合處理系統及其方法
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US9264475B2 (en) 2012-12-31 2016-02-16 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
US9344517B2 (en) 2013-03-28 2016-05-17 Sonic Ip, Inc. Downloading and adaptive streaming of multimedia content to a device with cache assist
US9247317B2 (en) 2013-05-30 2016-01-26 Sonic Ip, Inc. Content streaming with client device trick play index
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US9967305B2 (en) 2013-06-28 2018-05-08 Divx, Llc Systems, methods, and media for streaming media content
WO2015012227A1 (ja) * 2013-07-22 2015-01-29 ソニー株式会社 情報処理装置および方法
US9343112B2 (en) 2013-10-31 2016-05-17 Sonic Ip, Inc. Systems and methods for supplementing content from a server
JP6070524B2 (ja) * 2013-12-04 2017-02-01 ソニー株式会社 表示パネル、駆動方法、および電子機器
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
JP6410495B2 (ja) * 2014-07-07 2018-10-24 ルネサスエレクトロニクス株式会社 画像符号化装置、画像復号装置、および画像通信システム
CN111899770B (zh) * 2014-09-12 2022-07-08 松下电器(美国)知识产权公司 非暂时性计算机可读介质、再现装置以及再现方法
CN104735385B (zh) * 2015-03-31 2018-10-12 小米科技有限责任公司 播放控制方法及装置、电子设备
US20160360205A1 (en) 2015-06-08 2016-12-08 Industrial Technology Research Institute Video encoding methods and systems using adaptive color transform
US10075292B2 (en) 2016-03-30 2018-09-11 Divx, Llc Systems and methods for quick start-up of playback
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
JP7077812B2 (ja) * 2018-06-19 2022-05-31 セイコーエプソン株式会社 画像処理装置および画像処理プログラム
CN112640442A (zh) * 2018-08-24 2021-04-09 奥林巴斯株式会社 图像记录再现装置和内窥镜系统
KR20220032520A (ko) 2019-07-20 2022-03-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 팔레트 모드 사용 지시의 조건 종속적인 코딩
TWI784446B (zh) * 2021-03-18 2022-11-21 圓展科技股份有限公司 顯示系統、顯示方法及影像擷取裝置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MY115648A (en) * 1995-08-23 2003-08-30 Sony Corp Encoding/decoding fields of predetermined field polarity apparatus and method
FR2749116B1 (fr) * 1996-05-24 1998-06-19 Thomson Multimedia Sa Camera a effets speciaux
JP3058870B1 (ja) 1999-02-05 2000-07-04 株式会社次世代デジタルテレビジョン放送システム研究所 Afc回路
JP2002108325A (ja) 2000-09-26 2002-04-10 Fuji Film Microdevices Co Ltd 画像処理装置及び画像処理方法
CN1364033A (zh) * 2000-11-28 2002-08-14 国枝博昭 动态图像信息的高性能编码压缩系统
JP4622141B2 (ja) * 2001-04-13 2011-02-02 ソニー株式会社 画像処理装置および画像処理方法、記録媒体、並びにプログラム
US7187785B2 (en) * 2001-08-28 2007-03-06 Nippon Telegraph And Telephone Corporation Image processing method and apparatus
JP2003111094A (ja) 2001-10-01 2003-04-11 Megafusion Corp 合成撮影システム、合成画像生成法および画像合成装置
MXPA04007357A (es) 2002-02-01 2004-11-26 Koninkl Philips Electronics Nv Aparato, portador de registro y metodo para registrar una secuencia de senales de datos de video.
JP4240283B2 (ja) * 2002-10-10 2009-03-18 ソニー株式会社 復号装置及び復号方法
JP2004172862A (ja) * 2002-11-19 2004-06-17 Megachips System Solutions Inc 画像合成方法および合成画像配信システム
KR20030051545A (ko) * 2003-06-04 2003-06-25 경민규 동영상 씨디롬 제작장치
JP2005123775A (ja) * 2003-10-15 2005-05-12 Sony Corp 再生装置、再生方法、再生プログラムおよび記録媒体
KR100561404B1 (ko) 2003-10-30 2006-03-16 삼성전자주식회사 재생 모드 정보가 설정된 동영상 재생 장치, 저장 매체 및그 재생방법
US7660516B2 (en) 2004-02-17 2010-02-09 Panasonic Corporation Recording medium, reproduction device, program, and reproduction method
US7577340B2 (en) * 2004-07-21 2009-08-18 Panasonic Corporation Device and method for recording real-time data
WO2006025388A1 (ja) * 2004-08-31 2006-03-09 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法及び装置
AR064274A1 (es) 2006-12-14 2009-03-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, dispositivo de codificacion de imagenes en movimiento, metodo de grabacion de imagenes en movimiento, medio de grabacion, metodo de reproduccion de imagenes en movimiento, dispositivo de reproduccion de imagenes en movimiento, y sistema de reproducci

Also Published As

Publication number Publication date
JP4718616B2 (ja) 2011-07-06
US7974521B2 (en) 2011-07-05
US20100040351A1 (en) 2010-02-18
US20100040348A1 (en) 2010-02-18
BRPI0722391A2 (pt) 2012-06-12
JP2011103669A (ja) 2011-05-26
US20110299831A1 (en) 2011-12-08
RU2475997C2 (ru) 2013-02-20
US8526797B2 (en) 2013-09-03
CN101815213A (zh) 2010-08-25
US8023804B2 (en) 2011-09-20
KR101362653B1 (ko) 2014-02-13
TW201108747A (en) 2011-03-01
CA2671557A1 (en) 2008-06-19
US20100054710A1 (en) 2010-03-04
JP4841688B2 (ja) 2011-12-21
CN101815214A (zh) 2010-08-25
EP2079241A1 (en) 2009-07-15
CN101848384A (zh) 2010-09-29
JP2011097612A (ja) 2011-05-12
RU2483467C2 (ru) 2013-05-27
EP2079241A4 (en) 2011-11-09
CN101815213B (zh) 2013-01-09
KR20090098802A (ko) 2009-09-17
JPWO2008072669A1 (ja) 2010-04-02
TW200845761A (en) 2008-11-16
AR064274A1 (es) 2009-03-25
TWI446794B (zh) 2014-07-21
ZA200903806B (en) 2010-05-26
CN101554057A (zh) 2009-10-07
CN101800896B (zh) 2012-08-29
RU2010145129A (ru) 2012-05-10
CA2671557C (en) 2016-01-12
EP2079241B1 (en) 2012-10-31
CN101815214B (zh) 2012-11-21
CN101554057B (zh) 2011-07-20
JP4841689B2 (ja) 2011-12-21
RU2009120317A (ru) 2010-12-10
CN101800896A (zh) 2010-08-11
WO2008072669A1 (ja) 2008-06-19

Similar Documents

Publication Publication Date Title
BRPI0719335A2 (pt) mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento
JP4516109B2 (ja) 多重化方法、多重化装置、逆多重化方法、逆多重化装置および記録方法
US10057557B2 (en) Recording medium, playback device, and playback method
JP7139543B1 (ja) 再生装置、及び、再生方法
WO2006019014A1 (ja) 画像符号化装置、画像復号化装置
CN111276170B (zh) 解码系统以及解码方法
WO2016038811A1 (ja) 記録媒体、再生装置、および再生方法
WO2016021120A1 (ja) 再生装置、再生方法および記録媒体
WO2016079925A1 (ja) 記録媒体、再生方法、および再生装置

Legal Events

Date Code Title Description
B25A Requested transfer of rights approved

Owner name: PANASONIC INTELLECTUAL PROPERTY MANAGEMENT CO., LTD. (JP)

Owner name: PANASONIC INTELLECTUAL PROPERTY MANAGEMENT CO., LT

B15K Others concerning applications: alteration of classification

Ipc: H04N 5/85 (2006.01), G11B 27/32 (2006.01), H04N 9/

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06T Formal requirements before examination [chapter 6.20 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: H04N 5/85 , G11B 27/32 , H04N 9/82 , H04N 19/00 , H04N 9/79 , H04N 9/804

Ipc: H04N 5/85 (1980.01), G11B 27/32 (1968.09), H04N 9/

B11T Dismissal of application maintained [chapter 11.20 patent gazette]