BRPI0722391A2 - mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento - Google Patents

mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento Download PDF

Info

Publication number
BRPI0722391A2
BRPI0722391A2 BRPI0722391-9A BRPI0722391A BRPI0722391A2 BR PI0722391 A2 BRPI0722391 A2 BR PI0722391A2 BR PI0722391 A BRPI0722391 A BR PI0722391A BR PI0722391 A2 BRPI0722391 A2 BR PI0722391A2
Authority
BR
Brazil
Prior art keywords
moving image
image
management information
playback
information
Prior art date
Application number
BRPI0722391-9A
Other languages
English (en)
Inventor
Tadamasa Toma
Hiroshi Yahata
Wataru Ikeda
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Publication of BRPI0722391A2 publication Critical patent/BRPI0722391A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

MÉTODO DE CODIFICAÇçO DE IMAGEM EM MOVIMENTO, DISPOSITIVO DE CODIFICAÇçO DE IMAGEM EM MOVIMENTO, MÉTODO DE GRAVAÇçO DE IMAGEM EM MOVIMENTO, MEIO DE GRAVAÇçO, MÉTODO DE REPRODUÇçO DE IMAGEM EM MOVIMENTO DISPOSITIVO DE REPRODUÇçO DE IMAGEM EM MOVIMENTO, E SISTEMA DE REPRODUÇçO DE IMAGEM EM MOVIMENTO. A presente invenção refere-se a um método de codificação de imagem em movimento que pode impedir a descontinuidade da reprodução sem aumentar a carga de processamento durante uma reprodução. O método de codificação de imagem em movimento codifica um fluxo de vídeo que inclui uma primeira imagem em movimento e uma segunda imagem em movimento a ser sobreposta em cima da primeira imagem em movimento. O método de codificação de imagem em movimento inclui: uma etapa de determinação de uma seção de reprodução continua que vem a ser um grupo de seções parciais e que é submetida a uma reprodução continua no fluxo de video (S5301 a S5303); uma etapa de codificação da primeira e segunda imagens em movimento nas seções parciais que constituem a seção de reprodução continua, de acordo com uma restrição que impede que um limite seja alterado na seção de reprodução continua, o limite sendo usado paraum processo de transparência por chave de luminância em uma sobreposição (S5304); e uma etapa de geração de informações de gerenciamento incluindo informações de sinalização que indicam se o limite é fixado na seção de reprodução continua (S5305).

Description

Relatório Descritivo da Patente de Invenção para "MÉTODO DE CODIFICAÇÃO DE IMAGEM EM MOVIMENTO, DISPOSITIVO DE CODI- FICAÇÃO DE IMAGEM EM MOVIMENTO, MÉTODO DE GRAVAÇÃO DE IMAGEM EM MOVIMENTO, MEIO DE GRAVAÇÃO, MÉTODO DE RE- PRODUÇÃO DE IMAGEM EM MOVIMENTO, DISPOSITIVO DE REPRO- DUÇÃO DE IMAGEM EM MOVIMENTO, E SISTEMA DE REPRODUÇÃO DE IMAGEM EM MOVIMENTO".
Pedido Dividido do PI0719335-1, depositado em 12.12.2007.
CAMPO DA INVENÇÃO
A presente invenção refere-se a um método de codificação de imagem em movimento a fim de codificar, ao gerar um fluxo codificado inclu- indo uma imagem em movimento cujos primeiro e segundo planos são sepa- ráveis de acordo com um limite de nível de luminância, a imagem em movi- mento e ao mesmo tempo alterar o limite de nível de luminância. A presente invenção refere-se ainda a um método de gravação de imagem em movi- mento, a um método de reprodução de imagem em movimento, a um meio de gravação no qual o fluxo codificado é gravado, e similar.
ANTECEDENTES DA INVENÇÃO
O que se segue descreve um disco de vídeo DVD (doravante simplesmente referido como "DVD"), segundo a técnica convencional.
A figura 1 mostra a estrutura de um DVD. Conforme mostrado na parte inferior da figura 1, é provido um espaço de endereço lógico entre uma área inicial de gravação (lead-in) e uma área de encerramento de gravação (lead-out) em um disco de DVD. As informações de volume de um sistema de arquivos ficam armazenadas no início do espaço de endereço lógico, se- guidas dos dados de aplicação, tais como o vídeo e o áudio.
O sistema de arquivos é definido pelo padrão ISO 9660 ou pelo Formato de Disco Universal (UDF), e vem a ser um mecanismo para repre- sentar os dados de um disco em unidades chamadas de diretório ou arquivo. Um computador pessoal (PC) para uso diário, da mesma forma, pode apre- sentar dados armazenados em um disco rígido sob a forma de diretórios ou arquivos, através de um sistema de arquivos, tais como o FAT ou o NTFS. Isto aumenta a sua capacidade de uso.
Os discos de DVD utilizam tanto o formato UDF como o padrão ISO 9660 (uma combinação dos quais é conhecida como "Ponte UDF"), de modo que os dados possam ser lidos por um driver de sistema de arquivos de qualquer formato UDF ou padrão ISO 9660. No caso de um DVD- RAM/R/RW, que são discos de DVD regraváveis, os dados podem ser fisi- camente lidos, gravados, ou apagados através destes sistemas de arquivos.
Os dados gravados em um DVD podem ser visualizados, por um formato de Ponte UDF, como diretórios ou arquivos, conforme mostrado na parte superior esquerda da figura 1. Um diretório chamado "VIDEO_TS" é colocado imediatamente abaixo de um diretório raiz ("ROOT" na figura 1). Os dados de aplicação do DVD são armazenados neste diretório VIDE- O TS. Os dados de aplicação são armazenados como uma pluralidade de arquivos. A pluralidade de arquivos inclui principalmente o seguinte:
- um arquivo de informação de controle de reprodução de disco VIDEOTS.IFO
- um arquivo de informação de controle de reprodução de con- junto #1 de títulos de vídeo VTS_01_O.IFO
- um arquivo de fluxo de conjunto #1 de títulos de vídeo VTS.010.0.VOB
Dois tipos de extensões são especificados. "IFO" indica o arqui- vo que armazena as informações de controle de reprodução, e "VOB" indica o arquivo que armazena um fluxo de padrão MPEG, que vem a ser os dados AV. As informações de controle de reprodução incluem informações para a realização da interatividade (a técnica de mudar dinamicamente uma repro- dução de acordo com a operação de um usuário) empregada nos discos de DVD, informações tais como os metadados que são anexados a um título ou a um fluxo de AV, e similar. Nos discos de DVD, as informações de controle de reprodução são também referidas como informações de navegação.
Os arquivos de informações de controle de reprodução incluem o "VIDEO_TS.IFO" para o gerenciamento de todo o disco e o "VTS 01.0.IFO" que vem a ser as informações de controle de reprodução para um conjunto de títulos de vídeo individuais (por exemplo, nos discos de DVD, uma pluralidade de títulos de diferentes filmes ou diferentes versões de um filme poderá ser gravada em um único disco). "01" no corpo do nome do arquivo "VTS_01_O.IFO" indica o número do conjunto de títulos de vídeo.
Por exemplo, o arquivo de informações de controle de reprodução para o conjunto #2 de títulos de vídeo será o "VTS_02_O.IFO".
A parte superior direita da figura 1 mostra um espaço de nave- gação de DVD em uma camada de aplicação do DVD. Este vem a ser um espaço lógico de estrutura, no qual as informações de controle de reprodu- zi 0 ção acima mencionadas são desenvolvidas. No espaço de navegação de DVD, a informação armazenada no arquivo "VIDEO TS.IFO" é desenvolvida como informações do gerenciador de vídeo (VMGI), e as informações de controle de reprodução que existem para cada conjunto de títulos de vídeo individuais, tais como o arquivo "VTS_01_O.IFO", são desenvolvidas como informações do conjunto de títulos de vídeo (VTSI).
A informação VTSI inclui informações de cadeia de programas (PGCI). As informações PGCI são informações sobre uma seqüência de re- produções chamada de cadeia de programas (PGC). A informação PGCI é principalmente composta de um grupo de células e de um tipo de informação de programação chamado comandos. Uma célula em si corresponde a todo ou a uma parte de um objeto de vídeo (que vem a ser um fluxo de padrão MPEG e abreviado como VOB). Em um objeto VOB, a execução de uma célula é equivalente à execução de uma seção designada pela célula.
Os comandos são processados por uma máquina virtual de DVD, e são similares, por exemplo, ao Script Java (marca registrada) execu- tado em um navegador. No entanto, os comandos de DVD diferem do Script Java (marca registrada) no seguinte aspecto. O Script Java (marca registra- da) controla as janelas e os navegadores (por exemplo, abre a janela de um novo navegador), além de realizar operações lógicas. Por outro lado, os co- mandos de DVD controlam somente a reprodução de títulos AV, como, por exemplo, ao designar um capítulo a ser exibido, além de realizar operações lógicas. Uma célula inclui os endereços de início e encerramento de uma seção correspondente de um objeto VOB gravado no disco (os endereços lógicos de armazenamento no disco), como suas informações internas. Um tocador lê os dados usando os endereços de início e encerramento gravados na célula com relação ao objeto VOB1 e executa os dados lidos.
A figura 2 é uma vista esquemática para explicar as informações de navegação que ficam embutidas em um fluxo AV. A interatividade, feita pelos discos de DVD, é feita não apenas por meio das informações de nave- gação armazenadas nos arquivos "VIDEO_TS.IFO" e "VTS_01_O.IFO" aci- ma mencionados. Outras informações de navegação importantes são multi- plexadas em um objeto VOB juntamente com os dados de vídeo e áudio, por meio do uso de uma portadora dedicada chamada pacote de navegação (do- ravante referido como "navi pacK' ou NV_PCK).
É explicado a seguir um menu como um exemplo simples de in- teratividade. Uma tela de menu tem vários botões. Para cada um dos bo- tões, é definido um processo a ser executado quando o botão é selecionado e executado. Um botão fica em um estado selecionado no menu (o botão selecionado é destacado ao ser sobreposto com uma cor semitransparente de modo a indicar o estado selecionado do botão a um usuário). O usuário pode movimentar o destaque para qualquer um dos botões localizados aci- ma, abaixo, à direita, ou à esquerda do botão selecionado em questão, por meio do uso das teclas Para cima/Para baixo/Direita/Esquerda de um contro- le remoto. Quando o usuário movimenta o destaque para um botão que o usuário quer selecionar para execução usando as teclas Para cima/Para baixo/Direita/Esquerda do controle remoto e determina a seleção (por exem- plo ao apertar a tecla uEntei"), o programa de um comando correspondente ao botão selecionado é executado. Tipicamente, a reprodução de um título ou de um capítulo correspondente ao botão selecionado é executada pelo comando.
A parte superior esquerda da figura 2 grosso modo mostra as in- formações de controle armazenadas no pacote NV_PCK.
O pacote NV PCK inclui informações de cor de destaque, infor- mações de botão para cada botão individual, e similar. As informações de cor de destaque incluem informações de palheta de cores, que especificam a cor de destaque semitransparente a ser exibida sobreposta. As informa- ções de botão para cada botão individual incluem as informações de área retangular mostrando a posição de um botão, as informações de movimento de destaque sobre os movimentos de um botão para outro botão (designan- do a movimentação dos botões de destino correspondentes às operações do usuário das teclas Para cima/Para baixo/Direita/Esquerda), e as informações de comando de botão (um comando a ser executado quando a seleção do botão é determinada).
O destaque no menu é gerado como uma imagem de sobreposi- ção, conforme mostrado na parte superior intermediária à direita na figura 2. Esta imagem de sobreposição é obtida ao usar a cor especificada pelas in- formações de palheta de cores na área mostrada pela informação da área retangular das informações de botão. A imagem de sobreposição é super- posta sobre uma imagem de fundo mostrada à direita na figura 2, e a ima- gem resultante é exibida na tela.
Desta maneira, os menus nos discos de DVD são executados. Uma razão principal para que parte dos dados de navegação fique embutida no fluxo usando o pacote NV_PCK é permitir que as informações de menu sejam dinamicamente atualizadas em sincronia com o fluxo (por exemplo, a exibição de um menu apenas por cinco a dez minutos durante a reprodução de um filme), de modo que mesmo uma aplicação que tenha uma sincroni- zação difícil possa ser apropriadamente executada. Um outro motivo princi- pai é aperfeiçoar a operabilidade do usuário, por exemplo, por meio do ar- mazenamento de informações a fim de suportar uma reprodução especial do pacote NV PCK de modo a permitir que dados AV sejam dados suavemente decodificados e exibidos mesmo quando um DVD é exibido em um modo especial, como em um avanço rápido ou em retrocesso.
A figura 3 é uma vista conceituai mostrando um objeto VOB que vem a ser um fluxo no DVD. Conforme mostrado na figura 3, dados, tais co- mo de vídeo, áudio, e subtítulos (mostrados no nível A da figura 3) são paco- tizados ou compactados (mostrados no nível B da figura 3) e multiplexados entre si de modo a formar um fluxo de programa MPEG (mostrados no nível C da figura 3), com base no padrão de sistema MPEG (Organização Interna- cional de Padronização/Comissão Eletrotécnica Internacional (ISO/IEC) 13818-1). Um pacote NV_PCK que transporta um comando de botão para a execução da interatividade é também multiplexado no fluxo de programa MPEG, conforme descrito acima.
No sistema MPEG, a multiplexação apresenta as seguintes ca- racterísticas. Embora os dados individuais a serem multiplexados, ou seja, os dados de vídeo, os dados de áudio, ou os dados de subtítulo, sejam dis- postos em uma cadeia de bits com base em uma ordem de decodificação, estes diferentes tipos de dados no todo, ou seja, os dados de vídeo, os da- dos de áudio, ou os dados de subtítulo, de forma alguma, precisam ser ne- cessariamente dispostos em uma cadeia de bits com base em uma ordem de reprodução. Isto se dá porque um modelo de decodificador para uma flu- xo de sistema MPEG multiplexado (de modo geral chamado Decodificador de Destino de Sistema ou STD (mostrado no nível D da figura 3)) tem arma- zenadores temporários (buffers) de decodificador correspondentes aos flu- xos elementares individuais obtidos por meio de demultiplexação, e tempora- riamente armazena os dados demultiplexados nos armazenadores temporá- rios de decodificador correspondentes até sua decodificação. Por exemplo, os armazenadores temporários de decodificador definidos por um Vídeo DVD possuem diferentes tamanhos dependendo dos fluxos elementares in- dividuais, de tal modo que um tamanho de armazenador temporário seja de 232 KB para um vídeo, 4 KB para um áudio, e 52 KB para subtítulos.
Em outras palavras, os dados de subtítulo multiplexados adja- centes aos dados de vídeo não necessariamente são decodificados e execu- tados ao mesmo tempo dos dados de vídeo.
Há também um padrão de DVD de próxima geração chamado disco Blu-ray (BD).
Embora os discos de DVD sejam concebidos para uma distribui- ção de pacotes de vídeo (formato de Vídeo DVD) de uma qualidade de ima- gem padrão (Qualidade de Definição Padrão) e para a gravação de difusão analógica (formato de Gravação de Vídeo DVD), os discos BD conseguem gravar a partir de uma difusão digital de uma qualidade de imagem de alta definição (Qualidade de Alta Definição), uma vez que o mesmo é um disco Blu-ray de formato regravável, doravante referido como BD-RE).
No entanto, uma vez que o disco BD-RE é amplamente concebi- do para a gravação de uma difusão digital, informações especiais de suporte de reprodução ou similar não foram otimizadas. Para as futuras distribuições de pacotes de vídeo de alta resolução a uma taxa maior que a difusão digital (formato BD-ROM), torna-se necessário um mecanismo que não provoque nenhum stress ao usuário, mesmo durante uma reprodução especial.
A Codificação Avançada de Vídeo (AVC) do padrão MPEG-4 tem sido empregada como um dos métodos de codificação de imagem em movimento nos discos BD. A codificação AVC do padrão MPEG-4 vem a ser um padrão de codificação de próxima geração com uma taxa de alta com- pactação, que foi conjuntamente desenvolvido pela União Internacional de Telecomunicações ISO/IEC JTC1/SC29/WG11and e pelo Setor de Padroni- zação de Telecomunicações (ITU-T).
Em geral, ao se codificar uma imagem em movimento, as infor- mações são compactadas por meio da redução das redundâncias em uma direção temporal e em uma direção espacial. Na codificação de predição entre imagens que tem por objetivo reduzir as redundâncias temporais, a detecção e geração de movimento de uma imagem preditiva são feitas em unidades de blocos em referência a uma imagem que precede e/ou segue uma imagem de destino de codificação, e uma diferente entre a imagem de destino de codificação e a imagem preditiva gerada é codificada. O termo "imagem" aqui utilizado denota a imagem de uma tela. Em detalhe, uma i- magem denota um quadro em um formato progressivo, e um quadro ou um campo em um formato entrelaçado. No formato entrelaçado, um quadro é feito de dois campos de tempos diferentes. Uma imagem entrelaçada pode ser codificada ou decodificada ao se processar um quadro como o próprio quadro, ao se processar um quadro em dois campos, ou ao se processar cada bloco de um quadro como uma estrutura de quadro ou estrutura de campo.
Uma imagem I é uma imagem codificada de predição intraima- gens sem nenhuma imagem de referência. Uma imagem P é uma imagem codificada de predição entre imagens que refere-se a uma imagem apenas. Uma imagem B é uma imagem codificada de predição entre imagens que refere-se a duas imagens simultaneamente. Uma imagem B pode referir-se a qualquer combinação de duas imagens que precedem e/ou seguem a i- magem B em termos de tempo da imagem. Uma imagem de referência pode ser designada para cada bloco, que vem a ser uma unidade básica da codi- ficação/decodificação. Neste caso, uma imagem de referência que é gravada primeiro em um fluxo de bits codificado e uma imagem de referência que é gravada mais tarde no fluxo de bits codificado são distintas entre si, como uma primeira imagem de referência e uma segunda imagem de referência, respectivamente. Observa-se aqui que, para se codificar/decodificar uma imagem P ou uma imagem B, a sua imagem de referência precisa já ter sido cod ificada/decod ificada.
Um sinal residual obtido por meio da subtração de um sinal pre- ditivo gerado por uma predição intraimagens ou por uma predição entre ima- gens a partir de uma imagem de destino de codificação é transformado em freqüência e quantizado, e, em seguida codificado de tamanho variável e exibido como um fluxo codificado. A codificação AVC de padrão MPEG-4 tem dois métodos de codificação de tamanho, quais sejam, a codificação de tamanho variável adaptativa ao contexto (CAVLC) e a codificação aritmética binária adaptativa ao contexto (CABAC), que podem ser comutadas em uni- dades de imagens. O termo "adaptativa ao contexto" aqui referido indica um modo de adaptativamente selecionar um método de codificação eficiente de acordo com as circunstâncias.
A seguir, descreve-se um fluxo no qual diferentes métodos de codificação (ou uma imagem em movimento com diferentes atributos) podem existir, e um processo de decodificação por meio de um dispositivo de deco- dificação que recebe tal fluxo. Dois exemplos são usados no presente relato- rio descritivo. Um primeiro exemplo é um caso no qual diferentes métodos de codificação de tamanho variável (CAVLC/CABAC) podem existir. Um se- gundo exemplo é um caso no qual um limite de nível de luminância, utilizado ao se realizar um processo de transparência por meio de uma chave de Iu- minância em um recurso "Picture-in-Picture", pode assumir diferentes valo- res.
A seguir, é descrito um primeiro exemplo de fluxo no qual dife- rentes métodos de codificação (ou uma imagem em movimento com diferen- tes atributos) podem existir, ou seja, um exemplo no qual diferentes métodos de codificação de tamanho variável (CAVLC/CABAC) podem existir. A figura 4 mostra um exemplo de codificação de tamanho variável aplicada a ima- gens que constituem uma unidade aleatoriamente acessível em um fluxo de codificação AVC de padrão MPEG-4. Na codificação AVC de padrão MPEG- 4, não existe nenhum conceito correspondente a um grupo de imagens (GOP) de Vídeo de padrão MPEG-2. No entanto, ao se dividir os dados por uma unidade especial de imagens capaz de ser decodificada independente- mente de outras imagens, uma unidade aleatoriamente acessível correspon- dente a um grupo GOP pode ser obtida. Tal unidade aleatoriamente acessí- vel será doravante chamada de unidade de acesso aleatório (RAU). Confor- me mostrado na figura 4, quer a codificação CABAC ou a codificação CA- VLC seja utilizada, a codificação de tamanho variável é determinada como uma imagem.
Um processo de decodificação de tamanho variação é diferente entre codificações CABAC ou CAVLC. O processo de decodificação de ta- manho variável para codificação CABAC ou CAVLC é descrito abaixo, em referência às figuras 5A a 5C. A figura 5A é um diagrama em bloco de um dispositivo de decodificação de imagem que executa a decodificação aritmé- tica binária adaptativa ao contexto (CABAD) como um processo de decodifi- cação de dados que é codificado de tamanho variável de acordo com a codi- ficação CABAC, e a decodificação de tamanho variável adaptativa ao con- texto (CAVLD) como um processo de decodificação de dados que é codifi- cado de tamanho variável de acordo com a codificação CAVLC. Um processo de decodificação de imagem de acordo com a de- codificação CABAD é realizado da seguinte maneira. Primeiramente, os da- dos codificados Vin gerados de acordo com a codificação CABAC são entra- dos em um armazenador temporário de fluxo 5001. Uma unidade de decodi- ficação aritmética 5002 lê os dados codificados Vr do armazenador temporá- rio de fluxo 5001, realiza a decodificação aritmética nos dados codificados Vr, e entra os dados binários Bin 1 no armazenador temporário de dados bi- nários 5003. A unidade de decodificação de dados binários 5004 obtém os dados binários Bin2 a partir do armazenador temporário de dados binários 5003, decodifica os dados binários Bin2, e entra os dados binários Dinl obti- dos como resultado da decodificação para uma unidade de reconstrução de pixel 5005. A unidade de reconstrução de pixel 5005 executa processos, tais como a quantização inversa, a transformação inversa, e a compensação de movimento nos dados decodificados binários Din1 para reconstruir pixels, e exibe os dados decodificados Vout. A figura 5B é um fluxograma que mostra a operação a partir do início da decodificação dos dados codificados CABAC para o processo de reconstrução de pixel. Primeiramente, na etapa S5001, os dados Vin codificados na codificação CABAC são decodificados em arit- mética a fim de gerar dados binários. Em seguida, na etapa S5002, é feito um julgamento se foi obtida ou não uma unidade predeterminada de dados binários, como uma ou mais imagens. Quando a unidade de dados binários predeterminada é obtida, a operação continua na etapa S5003. Quando a unidade de dados binários predeterminada não é obtida, a etapa S5001 é repetida. Este armazenamento temporário de dados binários é feito pelo se- guinte motivo. Na codificação CABAC, uma quantidade de código de dados binários por imagem ou por macrobloco pode aumentar muito, o que poderá causar um significativo aumento da carga de processamento para a decodi- ficação aritmética. Deste modo, para se fazer uma reprodução total mesmo na pior das hipóteses, é necessário fazer antes um determinado volume de decodificação aritmética. Na etapa S5003, os dados binários são decodifica- dos. Na etapa S5004, é feito o processo de reconstrução de pixel nos dados binários decodificados. Deste modo, na decodificação CABAD, o processo de reconstrução de pixel hão pode ser iniciado até que uma determinada unidade de dados binários seja obtida nas etapas S5001 e S5002. Isto pro- voca um retardo no início da decodificação.
Um processo de decodificação de imagem de acordo com a de- codificação CAVLD é realizado da seguinte maneira. Primeiramente, os da- dos codificados Vin gerados de acordo com a codificação CAVLC são entra- dos no armazenador temporário de fluxo 5001. Em seguida, uma unidade de decodificação CAVLD 5006 realiza a decodificação de tamanho variável nos dados codificados Vr, e envia os dados Din2 decodificados com a decodífi- cação VLD para unidade de reconstrução de pixel 5005. A unidade de re- construção de pixel 5005 realiza processos, tais como a quantização inver- sa, a transformação inversa, e a compensação de movimento nos dados Din2 decodificados com a decodificação VLD a fim de reconstruir pixels, e gera a saída de dados decodificados Vout. A figura 5C é um fluxograma que mostra uma operação a partir do início da decodificação dos dados codifica- dos CAVLC para o processo de reconstrução de pixel. Primeiramente, na etapa S5004, é feito o processo de reconstrução de pixel. Deste modo, a decodificação CAVLD difere da decodificação CABAD no sentido de que não há necessidade de se esperar até que a unidade predeterminada de dados seja obtida antes do processo de reconstrução de pixel, e não há necessida- de de se ter um armazenador temporário intermediário no processo de de- codificação de tamanho variável, tal como o armazenador temporário de da- dos binários 5003.
A figura 6 é um fluxograma que mostra a operação de um dispo- sitivo de decodificação convencional que decodifica um fluxo no qual o mé- todo de codificação de tamanho variável é comutado como no exemplo da figura 4. Deve-se notar que, no presente relatório descritivo, o dispositivo de decodificação e o método de decodificação são exemplos de um dispositivo de reprodução de imagem em movimento e um método de reprodução de imagem em movimento, respectivamente.
Primeiramente, na etapa S5101, o dispositivo de decodificação obtém informações que mostram o método de codificação de tamanho variá- vel aplicado a uma imagem, e continua na etapa S5102. Na etapa S5102, o dispositivo de decodificação julga se o método de codificação de tamanho variável da imagem corrente é diferente ou não de um método de codifica- ção de tamanho variável de uma imagem imediatamente anterior à imagem corrente em uma ordem de decodificação. Uma vez que as decodificações CABAD e CAVLD usam diferentes métodos de gerenciamento de armaze- nador temporário em uma decodificação de tamanho variável, quando o mé- todo de codificação de tamanho variável é diferente, o dispositivo de decodi- ficação continua na etapa S5103 no sentido de comutar o gerenciamento de armazenador temporário. Quando o método de codificação de tamanho vari- ável não é diferente, o dispositivo de decodificação continua na etapa S5104. Na etapa S5104, o dispositivo de decodificação julga se o método de codificação de tamanho variável da imagem corrente é uma codificação CA- VLC ou não. Quando o método de codificação de tamanho variável da ima- gem corrente é a codificação CAVLC, o dispositivo de decodificação conti- nua na etapa S5105 no sentido de realizar a decodificação CAVLD. Quando o método de codificação de tamanho variável da imagem corrente é a codifi- cação CABAC, o dispositivo de decodificação continua na etapa S5106. Na etapa S5106, o dispositivo de decodificação julga se o método de codifica- ção de tamanho variável da imagem corrente é diferente do método de codi- ficação de tamanho variável da imagem imediatamente precedente na or- dem de decodificação. Quando o método de codificação de tamanho variável da imagem corrente é diferente, o dispositivo de decodificação continua na etapa S5107. Na etapa S5107, o dispositivo de decodificação realiza a de- codificação aritmética até que a unidade de dados binários predeterminada seja obtida nas etapas S5001 e S5002 na figura 5, e em seguida decodifica os dados binários. Quando o método de codificação de tamanho variável da imagem corrente não é diferente na etapa S5106, o dispositivo de decodifi- cação continua na etapa S5108 no sentido de realizar um processo normal de decodificação CABAD. O processo de decodificação CABAD normal aqui mencionado é um processo de decodificação CABAD que omite o armaze- namento temporário dos dados binários, necessário quando a codificação CAVLC comuta para a codificação CABAC ou quando se inicia a decodifica- ção de um fluxo codificado de codificação CABAC. Por último, na etapa S5109, o dispositivo de decodificação realiza o processo de reconstrução de pixel.
Será descrito a seguir um segundo exemplo de fluxo no qual po- dem existir diferentes métodos de codificação (ou uma imagem em movi- mento com diferentes atributos), ou seja, o exemplo no qual um limite de nível de luminância (isto é, um atributo de imagem em movimento) utilizado ao se executar um processo de transparência por meio de uma chave de luminância no recurso "Picture-in-Picture" pode assumir diferentes valores.
Um meio de pacote, como o formato BD-ROM, provê uma aplicação para a exibição de um vídeo diferente do vídeo principal, por exemplo, o comentário do diretor, ao sobrepor o mesmo sobre o vídeo principal. Tal aplicação é re- ferida como "Picture-in-Picture". A figura 7 é um diagrama para explicar este recurso "Picture-in-Picture". A figura 7(a) mostra planos da imagem de ima- gem, nos quais o plano 2 deve ser sobreposto ao plano 1. As figuras 7(b) e 7(c) mostram as imagens exibidas nos planos 1 e 2, respectivamente. A i- magem do plano 2 é exibida em sobreposição à imagem do plano 1 (figura 7(d)). Neste recurso "Picture-in-Picture", a imagem exibida no plano 1 é o vídeo principal, e a imagem exibida no plano 2 é um vídeo diferente do vídeo principal. A simples sobreposição da imagem do plano 2 ao plano 1 faz com que a imagem do plano 1 fique completamente escondida. Para que isso não aconteça, um processo de transparência por meio de uma chave de lu- minância é aplicado à imagem do plano 2. A seguir, descreve-se o processo de transparência pela chave de luminância. No processo de transparência, cada pixel de uma imagem é mostrado transparente ou não transparente dependendo do nível de luminância do pixel. Em detalhe, o processo de transparência é como se segue.
(1) Quando o nível de luminância é de uma faixa de 0 a um limite predeterminado YL inclusive, o pixel é exibido completamente transparente (com uma taxa de transparência de 1).
(2) Quando o nível de luminância excede o limite YL predetermi- nado, o pixel é exibido não transparente no nível de luminância (com uma taxa de transparência de 0).
Na figura 7(c), supõe-se que o nível de luminância seja igual ou menor que o limite YL predeterminado na área diagonalmente sombreada e exceda o limite predeterminado YL na outra área. Neste caso, ao se sobre- por a imagem do plano 2 em cima do plano 1, a área diagonalmente som- breada é exibida transparente, enquanto a outra área é exibida não transpa- rente, conforme mostrado na figura 7(d). Isto quer dizer que, na imagem do plano 2, apenas uma área (pixel) cujo nível de luminância excede o limite YL é exibida em sobreposição em cima da imagem do plano 1. Deste modo, o plano 2 é separado em um primeiro plano e um segundo plano de acordo com o limite do nível de luminância e apenas o primeiro plano é exibido em sobreposição em cima do plano 1, executando, assim, o recurso "Picture-in- Picture".
Patente de Referência 1: Publicação do Pedido de Patente japo- nês não examinado N0 2000-228656
Referência 1 de Não Patente: "Proposed SMPTE Standard for Television: VC-1 Compressed Video Bitstream Format and Decoding Pro- cess", Revisão 6, 2005.7.13 do Esboço Final 1 do Comitê.
APRESENTAÇÃO DA INVENÇÃO
Problemas a Serem Solucionados pela Invenção
No entanto, um dispositivo de decodificação que recebe um fluxo no qual diferentes métodos de codificação (ou uma imagem em movimento com diferentes atributos) podem existir conforme acima descrito apresenta o seguinte problema: a carga de processamento aumenta devido à necessida- de de um processo de comutação durante uma decodificação. A figura 8 vem a ser um diagrama para explicar um problema que pode surgir quando é aplicado um processo de transparência por chave de luminância a um meio de gravação convencional gerado por um dispositivo de multiplexação convencional. A figura 8 mostra seções durante as quais um vídeo submeti- do a um processo de transparência por chave de luminância é continuamen- te exibido. Em detalhe, a seção 1, a seção 2, e a seção 3 devem ser conti- nuamente exibidas nesta ordem. Um limite de nível de luminância para um pixel que é exibido transparente com uma taxa de transparência de 1 será 20 na seção 1, 40 na seção 2, e 30 na seção 3. Isto faz com que seja neces- sário mudar o limite de nível de luminância para um pixel transparente quan- do uma seção termina e outra começa. Quando o limite de nível de luminân- cia é alterado, a operação para a sobreposição de plano precisará ser tam- bém modificada. Ocorre um retardo devido a esta mudança de operação. Isto faz com que a reprodução se torne descontínua entre seções que preci- sam ser exibidas perfeitamente integradas.
Sendo assim, ao ligar um meio de gravação convencional sobre o qual é gravado um fluxo multiplexado gerado por um método de codifica- ção de imagem convencional, o limite de chave de luminância é alterado nas unidades de seções de reprodução, o que traz um problema de retardo no processamento de limite de nível de luminância no momento da reprodução.
A presente invenção tem por objetivo prover um meio de grava- ção, um método de codificação de imagem em movimento, um dispositivo de codificação de imagem em movimento, um método de gravação de imagem em movimento, um método de reprodução de imagem em movimento e um dispositivo de reprodução de imagem em movimento. Meios para Solucionar os Problemas
A presente invenção foi concebida no sentido de solucionar o problema acima.
O método de codificação de imagem em movimento de acordo com a presente invenção é caracterizado pela codificação, em uma seção submetida a uma reprodução contínua (a uma seção de reprodução contí- nua), de uma imagem em movimento sem comutar o método de codificação (ou o atributo de uma imagem em movimento), e a geração de informações de gerenciamento que incluem informações de sinalização que indicam se o método de codificação é fixado na seção.
Em maior detalhe, a fim de tratar o caso do recurso "Picture-in- Picture", o método de codificação de imagem em movimento de acordo com a presente invenção vem a ser um método de codificação de imagem em movimento para codificar um fluxo de vídeo que inclui uma primeira imagem em movimento e uma segunda imagem em movimento a ser sobreposta em cima da primeira imagem em movimento, a sobreposição sendo feita por meio da sobreposição de apenas uma área da imagem cujo nível de Iumi- nância excede um limite da segunda imagem em movimento, sobre a primei- ra imagem em movimento, o método de codificação de imagem em movi- mento incluindo: a determinação de uma seção de reprodução contínua que vem a ser um grupo de seções parciais e que é submetida a uma reprodu- ção contínua, no fluxo de vídeo; a codificação da primeira imagem em mo- vimento e da segunda imagem em movimento nas seções parciais que cons- tituem a seção de reprodução contínua definida na determinação, de acordo com uma restrição que impede que o limite seja alterado na seção de repro- dução contínua; a geração de informações de gerenciamento incluindo in- formações de sinalização que indicam se o limite é fixado na seção de re- produção contínua; e a combinação da primeira imagem em movimento e da segunda imagem em movimento codificadas na codificação, com as infor- mações de gerenciamento geradas na geração, e exibição da combinação.
Além disso, o dispositivo de codificação de imagem em movi- mento de acordo com a presente invenção vem a ser um dispositivo de codi- ficação de imagem em movimento para codificar um fluxo de vídeo que inclui uma primeira imagem em movimento e uma segunda imagem em movimen- to a ser sobreposta em cima da primeira imagem em movimento, a sobrepo- sição sendo feita por meio da sobreposição de apenas uma área da imagem cujo nível de luminância excede um limite da segunda imagem em movimen- to, sobre a primeira imagem em movimento, o dispositivo de codificação de imagem em movimento incluindo: uma unidade de determinação de seção de reprodução contínua que determina uma seção de reprodução contínua que vem a ser um grupo de seções parciais e que é submetida a uma repro- dução contínua, no fluxo de vídeo; uma unidade de codificação que codifica a primeira imagem em movimento e a segunda imagem em movimento nas seções parciais que constituem a seção de reprodução contínua determina- da pela unidade de determinação de seção de reprodução contínua, de a- cordo com uma restrição que impede que o limite seja alterado na seção de reprodução contínua; uma unidade de geração de informação de gerencia- mento que gera informações de gerenciamento incluindo informações de sinalização que indicam se o limite é fixado na seção de reprodução contí- nua; e uma unidade de combinação que combina a primeira imagem em movimento e a segunda imagem em movimento codificadas pela unidade de codificação com as informações de gerenciamento geradas pela unidade de geração de informações de gerenciamento, e exibe a combinação.
Além disso, o método de gravação de imagem em movimento de acordo com a presente invenção é um método de gravação de imagem em movimento para codificar um fluxo de vídeo e gravar o fluxo de vídeo codifi- cado em um meio de gravação, o fluxo de vídeo incluindo uma primeira ima- gem em movimento e uma segunda imagem em movimento a ser sobrepos- ta em cima da primeira imagem em movimento, a sobreposição sendo feita por meio da sobreposição de apenas uma área da imagem cujo nível de Iu- minância excede um limite da segunda imagem em movimento, sobre a pri- meira imagem em movimento, o método de gravação de imagem em movi- mento incluindo: a determinação de uma seção de reprodução contínua que vem a ser um grupo de seções parciais e que é submetida a uma reprodu- ção contínua, no fluxo de vídeo; a codificação da primeira imagem em mo- vimento e da segunda imagem em movimento nas seções parciais que cons- tituem a seção de reprodução contínua definida na determinação, de acordo com uma restrição que impede que o limite seja alterado na seção de repro- dução contínua; a geração de informações de gerenciamento incluindo in- formações de sinalização que indicam se o limite é fixado na seção de re- produção contínua; e a combinação da primeira imagem em movimento e da segunda imagem em movimento codificadas na codificação, com as infor- mações de gerenciamento geradas na geração, e gravação da combinação no meio de gravação.
Além disso, o meio de gravação de acordo com a presente in- venção vem a ser um meio de gravação no qual dados legíveis em compu- tador são gravados, os dados legíveis em computador incluindo: um fluxo de vídeo incluindo uma primeira imagem em movimento e uma segunda ima- gem em movimento a ser sobreposta em cima da primeira imagem em mo- vimento, a sobreposição sendo feita por meio da sobreposição de apenas uma área da imagem cujo nível de luminância excede um limite da segunda imagem em movimento sobre a primeira imagem em movimento; e informa- ções de gerenciamento utilizadas para gerenciar o fluxo de vídeo, sendo que, de acordo com uma restrição que impede que o limite seja alterado em uma seção de reprodução contínua que vem a ser um grupo de seções par- ciais e que é submetida a uma reprodução contínua no fluxo de vídeo, a pri- meira imagem em movimento e a segunda imagem em movimento nas se- ções parciais que constituem a seção de reprodução contínua são codifica- das, e as informações de gerenciamento incluem informações de sinalização que indicam se o limite é fixado na seção de reprodução contínua.
Além disso, o método de reprodução de imagem em movimento de acordo com a presente invenção é um método de reprodução de imagem em movimento para decodificar um fluxo de vídeo codificado incluindo uma primeira imagem em movimento e uma segunda imagem em movimento e a exibição em sobreposição da segunda imagem em movimento sobre a pri- meira imagem em movimento, o método de reprodução de imagem em mo- vimento incluindo: a obtenção de informações de gerenciamento correspon- dentes ao fluxo de vídeo e análise das informações de gerenciamento obti- das; a decodificação da primeira imagem em movimento e da segunda ima- gem em movimento de acordo com a análise feita; e a exibição em sobrepo- sição de apenas uma área da imagem cujo nível de luminância excede um limite na segunda imagem em movimento decodificada sobre a primeira i- magem em movimento decodificada, sendo que a análise inclui o julgamento se as informações de gerenciamento incluem ou não informações de sinali- zação que indicam se o limite é fixado, e a exibição em sobreposição inclui a exibição em sobreposição da área de imagem em uma seção parcial corren- te ao usar um mesmo limite como uma seção parcial imediatamente prece- dente, quando o julgamento na análise é se as informações de gerenciamen- to incluem as informações de sinalização. Além disso, o dispositivo de reprodução de imagem em movi- mento de acordo com a presente invenção vem a ser um dispositivo de re- produção de imagem em movimento para decodificar um fluxo de vídeo codi- ficado incluindo uma primeira imagem em movimento e uma segunda ima- gem em movimento e para exibir em sobreposição a segunda imagem em movimento sobre a primeira imagem em movimento, o dispositivo de repro- dução de imagem em movimento incluindo: a unidade de processamento de informações de gerenciamento que obtém informações de gerenciamento correspondentes ao fluxo de vídeo e analisa as informações de gerencia- mento obtidas; uma unidade de decodificação que decodifica a primeira i- magem em movimento e a segunda imagem em movimento de acordo com a análise feita pela unidade de processamento de informações de gerencia- mento; e uma unidade de vídeo que exibe em sobreposição apenas uma área da imagem cujo nível de luminância excede um limite na segunda ima- gem em movimento decodificada sobre a primeira imagem em movimento decodificada, sendo que a unidade de processamento de informações de gerenciamento julga se as informações de gerenciamento incluem ou não informações de sinalização que indicam se o limite é fixado, e a unidade de vídeo exibe em sobreposição a área de imagem em uma seção parcial cor- rente ao usar um mesmo limite como uma seção parcial imediatamente pre- cedente, quando a unidade de processamento de informações de gerencia- mento julga se as informações de gerenciamento incluem as informações de sinalização.
Deve-se notar que a presente invenção pode ser realizada não somente como o método de codificação de imagem em movimento, o dispo- sitivo de codificação de imagem em movimento, o método de gravação de imagem em movimento, o meio de gravação, o método de reprodução de imagem em movimento e o dispositivo de reprodução de imagem em movi- mento acima mencionados. A presente invenção pode ser também realizada como um programa para que um computador execute as etapas incluídas em cada um dos métodos acima, um meio de gravação legível em computa- dor, tal como um DVD no qual um programa é gravado, ou um circuito inte- grado semicondutor, tal como um LSI, que inclui as unidades estruturais de cada um dos dispositivos acima. Efeitos da Invenção
Conforme acima descrito, de acordo com o método de codifica- ção de imagem em movimento ou similar da presente invenção, em uma seção submetida a uma reprodução contínua, uma imagem em movimento é codificada sem comutar o método de codificação (ou o atributo de uma ima- gem em movimento), e informações de gerenciamento que incluem informa- ções de sinalização que indicam se o método de codificação é fixado na se- ção são geradas. Um dispositivo de reprodução que recebe (ou lê a partir de um meio de gravação) uma imagem em movimento e as informações de ge- renciamento de tal estrutura de dados não precisa executar um processo para monitorar a comutação do método de codificação ou o atributo da ima- gem em movimento. Por conseguinte, a carga de processamento pode ser aliviada.
Isto quer dizer que, com relação a um recurso "Picture-in- Picture", um limite de nível de luminância utilizado para julgar se cada pixel transparente fixo deve ser exibido ou não nos dados codificados de uma i- magem em movimento em uma seção de reprodução contínua. Como resul- tado, um retardo na reprodução provocado pela comutação do limite é su- primido, com isto sendo possível obter uma reprodução perfeitamente inte- grada. Isto contribui para uma qualidade maior de reprodução de meios de pacote, aplicativos de distribuição, ou similar para a exibição em sobreposi- ção de uma imagem em movimento sobre uma imagem em movimento, grá- ficos, uma imagem estática, e similar. Além disso, a carga de processamento de um dispositivo de reprodução que realiza tal aplicativo pode ser reduzida. Deste modo, a presente invenção tem um alto valor prático.
BREVE DESCRIÇÃO DOS DESENHOS
A figura 1 mostra a estrutura de um DVD.
A figura 2 mostra a estrutura de um destaque.
A figura 3 mostra um exemplo de multiplexação de um DVD.
A figura 4 mostra um exemplo de codificação de tamanho variá- vel adotado com base na imagem de um fluxo convencional de codificação AVC de padrão MPEG-4.
A figura 5A é um diagrama em blocos mostrando a estrutura de um dispositivo de decodificação para decodificar um fluxo que foi codificado de acordo com as codificações CABAC e CAVLC.
A figura 5B é um fluxograma mostrando uma operação de deco- dificação de um fluxo codificado em CABAC.
A figura 5C é um fluxograma mostrando uma operação de deco- dificação de um fluxo codificado em CAVLC.
A figura 6 é um fluxograma mostrando a operação de um dispo- sitivo de decodificação convencional.
A figura 7 mostra um exemplo de tela de um recurso "Picture-in- Picture".
A figura 8 vem a ser um diagrama para explicar um problema provocado ao se comutar o limite de chave de luminância em uma seção de reprodução contínua.
A figura 9 mostra um exemplo de codificação de tamanho variá- vel adotado com base na imagem de um fluxo de codificação AVC de padrão MPEG-4 gravado em um meio de gravação de uma primeira modalidade da presente invenção.
A figura 10 mostra um exemplo de armazenamento de informa- ções de sinalização mostrando uma unidade pela qual um método de codifi- cação de tamanho variável é fixado no meio de gravação.
A figura 11 é um fluxograma mostrando a operação de um dis- positivo de decodificação para a execução do meio de gravação.
A figura 12 é um diagrama em blocos mostrando a estrutura de um dispositivo de multiplexação na primeira modalidade da presente inven- ção.
A figura 13 é um fluxograma mostrando a operação do dispositi- vo de multiplexação.
A figura 14 é um fluxograma mostrando um exemplo específico da Etapa S5201 mostrado na figura 13. A figura 15 é um fluxograma mostrando um exemplo específico da Etapa S5202 mostrado na figura 13.
A figura 16 é um fluxograma mostrando um exemplo específico das Etapas S5204 e S5205 mostrado na figura 13.
A figura 17 é um fluxograma mostrando outro exemplo específi- co da Etapa S5202 mostrado na figura 13.
A figura 18 mostra uma estrutura de dados hierárquica de um disco BD.
A figura 19 mostra uma estrutura de espaço lógico no disco BD.
A figura 20 é um diagrama em blocos mostrando grosso modo um tocador de disco BD.
A figura 21 é um diagrama em blocos mostrando uma estrutura de tocador de disco BD.
A figura 22 vem a ser um diagrama para explicar um espaço de aplicação do disco BD.
A figura 23 mostra a estrutura de um fluxo de padrão MPEG (ob- jeto VO B).
A figura 24 mostra uma estrutura de pacote.
A figura 25 vem a ser um diagrama para explicar uma relação entre um fluxo AV e uma estrutura de tocador.
A figura 26 é um diagrama de modelo de um suprimento contí- nuo de dados AV para um armazenador temporário de trilha.
A figura 27 mostra a estrutura de um arquivo de informação de objeto VOB.
A figura 28 vem a ser um diagrama para explicar um mapa de tempo.
A figura 29 mostra uma estrutura de arquivo de lista de reprodu- ção (lista de reprodução).
A figura 30 mostra uma estrutura de arquivo de programa cor- respondente a uma lista de reprodução.
A figura 31 mostra uma estrutura de um arquivo inteiro de infor- mação de gerenciamento de disco BD. A figura 32 mostra uma estrutura de arquivo que armazena uma rotina handler global de eventos.
A figura 33 mostra um exemplo de evento de tempo.
A Força 34 mostra um exemplo de evento de usuário.
A figura 35 mostra um exemplo de rotina handler global de even- tos.
A figura 36 mostra uma estrutura de máquina virtual.
A figura 37 mostra uma tabela de variáveis de tocador.
A figura 38 mostra um exemplo de rotina handler de eventos (pa- ra um evento de tempo).
A figura 39 mostra um exemplo de rotina handler de eventos (pa- ra um evento de usuário).
A figura 40 é um fluxograma mostrando um processamento bá- sico para tocador.
A figura 41 é um fluxograma mostrando um processamento de reprodução de lista de reprodução.
A figura 42 é um fluxograma mostrando um processamento de eventos.
A figura 43 é um fluxograma mostrando um processamento de subtítulos.
A figura 44 mostra um exemplo no qual o limite de chave de Iu- minância é fixado em uma seção de reprodução contínua.
A figura 45 vem a ser um diagrama para explicar os valores rela- tivos à chave de luminância que são fixos em uma seção de reprodução per- feitamente integrada.
A figura 46 vem a ser um diagrama para explicar uma sinaliza- ção que garante que o limite de chave de luminância é fixado.
A figura 47 mostra uma operação de recurso "Picture-in-Picture" no meio de gravação de uma segunda modalidade da presente invenção.
A figura 48 vem a ser um diagrama para explicar a multiplexação de um vídeo primário e de um vídeo secundário.
A figura 49 é um fluxograma mostrando a operação de um mé- todo de multiplexação para realizar a operação do recurso "Picture-in- Picture" da segunda modalidade da presente invenção.
A figura 50 é um fluxograma mostrando a operação da geração de informações de gerenciamento no método de multiplexação para realizar a operação do recurso "Picture-in-Picture" da segunda modalidade da pre- sente invenção.
A figura 51 é um diagrama em blocos mostrando a estrutura de um dispositivo de multiplexação da segunda modalidade da presente invenção.
A figura 52 mostra um exemplo de informação de atributo de ví- deo armazenada na meta informação de um recurso "Picture-in-Picture".
A figura 53 mostra uma estrutura de dados de informação de ge- renciamento gerada pelo dispositivo de multiplexação mostrado na figura 51, sendo que a figura 53(a) mostra os elementos de dados de uma lista de re- produção que faz parte das informações de gerenciamento, e a figura 53(b) mostra um exemplo de uma lista de reprodução especificando as seções de reprodução que são conectadas perfeitamente integradas.
A figura 54 é um fluxograma mostrando a operação de um toca- dor para executar a operação do recurso "Picture-in-Picture" da segunda modalidade da presente invenção.
A figura 55A mostra um formato físico exemplar de um disco fle- xível que vem a ser um corpo de meio de gravação de uma terceira modali- dade da presente invenção.
A figura 55B mostra a aparência de um disco flexível conforme visto a partir de uma seção transversal frontal de um disco flexível, e o pró- prio disco flexível.
A figura 55C mostra uma estrutura para gravar/reproduzir um programa no disco flexível.
MELHOR MODO DE SE EXECUTAR A INVENÇÃO
Um método de codificação de imagem em movimento ao qual a presente invenção refere-se é caracterizado pela codificação de uma ima- gem em movimento sem comutar o método de codificação (ou o atributo de uma imagem em movimento) em uma seção submetida a uma reprodução contínua (a uma seção de reprodução contínua), e pela geração de informa- ções de gerenciamento que incluem informações de sinalização que indicam se o método de codificação é fixado na seção de reprodução contínua.
O que se apresenta a seguir descreve modalidades da presente invenção em referência aos desenhos.
Primeira Modalidade
O primeiro exemplo de fluxo no qual diferentes métodos de codi- ficação (ou uma imagem em movimento com diferentes atributos) podem existir, ou seja, o exemplo no qual diferentes métodos de codificação de ta- manho variável (CAVLC/CABAC) podem existir, é descrito abaixo como uma primeira modalidade da presente invenção.
A primeira modalidade descreve um meio de gravação e um dis- positivo de reprodução para o meio de gravação que pode impedir, ao deco- dificar os dados codificados de uma imagem em movimento em um meio de pacote tal como um disco BD-ROM, um retardo na operação de decodifica- ção provocado ao se comutar um método de codificação de tamanho variá- vel e um aumento da carga de processamento provocado ao se comutar um método de gerenciamento de armazenamento temporário, cuja comutação do método de gerenciamento de armazenamento temporário acompanha a comutação do método de codificação de tamanho variável. Embora esta modalidade descreva o uso da codificação AVC de padrão MPEG-4 como um método de codificação de imagem em movimento exemplar, outros mé- todos de codificação de imagem em movimento que permitem a comutação entre diferentes métodos de codificação de tamanho variável em um fluxo são igualmente aplicáveis.
Em um fluxo de codificação AVC de padrão MPEG-4 gravado no meio de gravação desta modalidade, impõe-se uma restrição a uma unidade pela qual um método de codificação de tamanho variável se torna comutável (doravante referido como uma "unidade comutável do método de codificação de tamanho variável"), e as informações que indicam se a unidade comutá- vel do método de codificação de tamanho variável fica limitada (isto é, restri- ta) e/ou as informações que mostram a unidade comutável do método de codificação de tamanho variável limitada são incluídas nas informações de gerenciamento.
A figura 9 mostra exemplos de limitação da unidade comutável do método de codificação de tamanho variável no fluxo de codificação AVC de padrão MPEG-4. Em um meio de pacote, tal como o disco BD-ROM1 uma unidade pela qual os dados codificados de uma imagem em movimento são continuamente exibidos (doravante referida como "uma unidade de reprodu- ção contínua") é mostrada por meio de uma lista de reprodução (PIayIisf) ou similar. Quando um método de codificação de tamanho variável é fixado nes- ta unidade de reprodução contínua, nem o retardo na operação de decodifi- cação provocado pela comutação do método de codificação de tamanho va- riável nem o aumento da carga de processamento provocada pela comuta- ção do método de gerenciamento de armazenamento temporário ocorrerá em uma seção que é continuamente exibida. Por conseguinte, nesta modali- dade, o método de codificação de tamanho variável é fixado na unidade de reprodução contínua. As figuras 9(a) e 9(b) mostram exemplos de limitação do método de codificação de tamanho variável em uma unidade de reprodu- ção contínua para as codificações CAVLC e CABAC, respectivamente. Nes- te caso, existem dois tipos de condições de conexão para os clipes que são tocados de maneira contínua, ou seja, em uma conexão perfeitamente inte- grada ou em uma conexão não integrada. A conexão aqui mencionada inclui um caso de conexão de uma pluralidade de seções dentro de um mesmo clipe. Na conexão não integrada, pode ocorrer um intervalo na operação de decodificação como no caso da conexão com um grupo GOP aberto. Em vista disto, o método de codificação de tamanho variável só pode ser fixo em uma unidade de reprodução contínua de conexão perfeitamente integrada, embora permita a comutação do método de codificação de tamanho variável em uma unidade de reprodução contínua de conexão não integrada.
De maneira alternativa, o método de codificação de tamanho va- riável pode ser fixo em uma unidade, como, por exemplo, em um clipe ou em uma unidade de acesso aleatório (RAU), além da unidade de reprodução contínua. As figuras 9(c) e 9(d) mostram exemplos de fixação do método de codificação de tamanho variável por clipe, enquanto a figura 9(e) mostra e- xemplos de fixação do método de codificação de tamanho variável por uni- dade de acesso aleatório.
Da mesma forma, informações de sinalização que indicam se a unidade comutável do método de codificação de tamanho variável fica limi- tada no fluxo de codificação AVC de padrão MPEG-4 são incluídas nas in- formações de gerenciamento. Neste caso, as informações de identificação do método de codificação são usadas como uma sinalização. A figura 10 mostra um exemplo de armazenamento de sinalização em um disco BD- ROM. Nos discos BD-ROM, o método de codificação de cada clipe referido em uma lista de reprodução fica armazenado em uma área chamada "Stre- amCodinglnfo" nas informações de gerenciamento. Esta área "StreamCo- dinglnfo" pode ser usada de tal modo que, quando codificação AVC de pa- drão MPEG-4 é especificado como o método de codificação na área " Sfre- amCodinglnfo", isto significa que o método de codificação de tamanho variá- vel é fixado em uma unidade de reprodução contínua. Além disso, podem ser providas também informações que mostram se o método de codificação de tamanho variável é uma codificação CABAC ou CAVLC.
Como uma alternativa, uma sinalização que indica se a unidade comutável do método de codificação de tamanho variável é restrita pode ser separadamente definida e incluída nas informações de gerenciamento. Po- dem também ser incluídas informações que mostram a unidade comutável do método de codificação de tamanho variável. Além disso, estas informa- ções podem ser incluídas dentro do fluxo de codificação AVC de padrão MPEG-4. Por exemplo, as informações que indicam se o método de codifi- cação de tamanho variável é fixado em imagens que constituem uma unida- de de acesso aleatório podem ser armazenadas em uma unidade de cama- da de abstração de rede (NAL) das informações suplementares de aperfei- çoamento (SEI) ou de um tipo não especificado na imagem inicial de uma unidade de acesso aleatório.
Na codificação AVC de padrão MPEG-4, uma sinalização en- tropy_coding_mode_flag em um conjunto de parâmetros de imagem (PPS) que mostra informações de inicialização com base na imagem indica se o método de codificação de tamanho variável é uma codificação CAVLC ou CABAC. Sendo assim, quando o método de codificação de tamanho variável é fixado em uma seção predeterminada, um valor de campo da sinalização entropycodingmodeflag é fixado em todos os conjuntos PPS referencia- dos pelas imagens daquela seção. Na codificação AVC de padrão MPEG-4, um conjunto PPS não referenciado por nenhuma imagem existente em uma seção de uma ordem de decodificação poderá ser armazenado naquela se- ção. Neste caso, não se torna necessário limitar um valor de campo da sina- lização entropy_coding_mode_flag no conjunto PPS não referenciado por nenhuma imagem da seção. Por exemplo, enquanto todos os conjuntos PPS referenciados por imagens em uma unidade de acesso aleatório são incluí- dos naquela unidade de acesso aleatório, um conjunto PPS não referencia- do por nenhuma imagem de uma unidade de acesso aleatório poderá tam- bém existir em uma unidade de acesso aleatório. Neste caso, uma vez que um conjunto PPS não referenciado não tem qualquer influência sobre a de- codificação, um valor de campo da sinalização entropy coding mode flag do conjunto PPS não referenciado não precisará ser limitado. No entanto, dado que o processamento será mais fácil se a sinalização en- tropy_coding_mode_flag de cada conjunto PPS incluído na seção tiver o mesmo valor de campo, o valor de campo da sinalização en- tropy_coding_mode_flag poderá ser fixo incluindo o conjunto PPS não refe- renciado.
A figura 11 é um fluxograma mostrando uma operação de deco- dificação de uma unidade de reprodução contínua no meio de gravação des- ta modalidade. Nesta modalidade, o método de codificação de tamanho va- riável é fixado por uma unidade de reprodução contínua. Por conseguinte, o armazenamento temporário dos dados binários e a comutação do método de gerenciamento de armazenamento temporário durante uma decodificação serão desnecessários, diferentemente da operação de decodificação con- vencional mostrada na figura 6. A operação realizada em cada etapa da figu- ra 11 é igual à etapa com o mesmo numerai de referência da figura 6, e, deste modo, a sua explicação foi aqui omitida.
Um novo método de codificação chamado codificação VC-1 (vi- de Referência Não Patente 1) se encontra atualmente em processo de pa- dronização pela Sociedade de Engenheiros de Televisão e Imagem em Mo- vimento (SMPTE). Na codificação VC-1, são definidas várias sinalizações mostrando métodos de codificação de macroblocos (uma unidade com o tamanho de 16 χ 16 pixels). Exemplos de tais sinalizações incluem uma si- nalização mostrando se um macrobloco é um macrobloco de salto ou não, uma sinalização mostrando se um macrobloco é de um modo de campo ou de um modo de quadro, e uma sinalização mostrando se um macrobloco é um macrobloco de modo direto ou não.
A codificação por plano de bits é uma das ferramentas de codifi- cação estendidas. A codificação por plano de bits é usada para mostrar as sinalizações acima que indicam os métodos de codificação de macroblocos.
A codificação por plano de bits permite que as sinalizações correspondentes a uma imagem sejam mostradas em conjunto em um cabeçalho de imagem. Em geral, macroblocos adjacentes têm uma alta correlação, e, assim, as sinalizações correspondentes aos macroblocos adjacentes terão, também, uma alta correlação. Sendo assim, ao se codificar sinalizações de macroblo- cos adjacentes em conjunto, a quantidade de códigos que representa tais sinalizações pode ser reduzida.
Sete tipos de métodos de codificação são definidos na codifica- ção por plano de bits. Um deles é um método de codificação de cada sinali- zação em um cabeçalho de macrobloco. Este método é chamado de modo bruto, e é similar ao do Vídeo de padrão MPEG-2 ou ao Visual de padrão MPEG-4. Os outros seis métodos codificam sinalizações correspondentes a uma imagem em conjunto, são diferentes entre si dependendo de como as sinalizações de macroblocos adjacentes se combinam para codificação. Por exemplo, os seis métodos incluem um método de codificação de sinaliza- ções de dois macroblocos juntos horizontalmente adjacentes, e um método que expressa um bit "0" quando todas as sinalizações de macroblocos em uma linha horizontal são "0", e codifica cada sinalização tal como é quando pelo menos uma das sinalizações é "1".
Cada qual dentre os sete métodos utilizados na codificação por plano de bits pode ser modificado em unidades de imagens, para cada sina- lização individual.
Suponha, na codificação por plano de bits, que o modo 1 indica apenas o uso do método de codificação de cada sinalização em um cabeça- lho de macrobloco, e o modo 2 indica apenas o uso do método de codifica- ção de sinalizações correspondentes a uma imagem em conjunto. Uma vez que o modo 1 e o modo 2 diferem na operação de decodificação, a carga de processamento aumentará quando um modo for comutado pelo outro, o que poderá causar um retardo. Em vista disto, uma restrição poderá ser imposta a uma unidade pela qual o modo se torna comutável entre o modo 1 e o mo- do 2 na codificação por plano de bits, da mesma maneira que a restrição acima com relação à unidade comutável do método de codificação de tama- nho variável. Como um exemplo, o modo da codificação por plano de bits pode ser fixo em uma unidade de reprodução contínua ou em uma unidade de reprodução contínua de conexão perfeitamente integrada. Da mesma forma, as informações de sinalização que indicam se o modo da codificação por plano de bits é fixado em uma unidade predeterminada podem ser inclu- ídas nas informações de gerenciamento. Por exemplo, a área tlStreamCo- dinglnfo" pode ser usada como estas informações de sinalização. Neste ca- so, quando a codificação VC-1 é especificada como o método de codificação pela área "StreamCodingInfo", isto significa que o modo de codificação por plano de bits é fixado em uma unidade predeterminada.
Além disso, suponha que o modo 3 indica o uso de ambos o mé- todo de codificação de cada sinalização em um cabeçalho de macrobloco e o método de codificação de sinalizações correspondentes a uma imagem em conjunto. Pode haver casos nos quais o modo 1 e o modo 3 são seletiva- mente utilizados dependendo do ambiente no qual a codificação VC-1 é apli- cada. Um exemplo é usar o modo 1 para um terminal com uma baixa capa- cidade de processamento, e o modo 3 para um terminal com uma alta capa- cidade de processamento. Neste caso, será eficaz fixar o modo de codifica- ção por plano de bits em um no modo 1 e no modo 3 em uma unidade de reprodução predeterminada. Da mesma forma, as informações de sinaliza- ção que indicam se o modo de codificação por plano de bits é fixado em um no modo 1 e no modo 3, ou as informações que mostram em qual dentre o modo 1 ou o modo 3 o modo de codificação por plano de bits é fixado, po- dem ser incluídas nas informações de gerenciamento ou em um fluxo codifi- cado. Neste caso, o modo 2 e o modo 3 podem ser seletivamente usados ao invés do modo 1 e modo 3.
A figura 12 é um diagrama em blocos mostrando a estrutura de um dispositivo de multiplexação 5100 para realizar o método de multiplexa- ção da presente modalidade. O dispositivo de multiplexação 5100 inclui uma unidade de determinação de unidade comutável 5101, uma unidade de ge- ração de informação de comutação 5102, uma unidade de codificação 5103, uma unidade de multiplexação de sistema 5104, uma unidade de geração de informação de gerenciamento 5105, e uma unidade de combinação 5106. A operação de cada uma das unidades estruturais é descrita a seguir.
A unidade de determinação de unidade comutável 5101 deter- mina a unidade pela qual o método de codificação de tamanho variável é comutável, e entra a unidade determinada na unidade de geração de infor- mação de comutação 5102 e na unidade de codificação 5103 como uma unidade comutável. Supõe-se aqui que a unidade comutável é definida ante- riormente, embora a unidade comutável possa ser definida também a partir de fora. A unidade de geração de informação de comutação 5102 gera a informação de comutação Swlnf mostrando a unidade comutável do método de codificação de tamanho variável com base na unidade comutável, e entra a informação de comutação Swlnf para a unidade de geração de informação de gerenciamento 5105. A unidade de codificação 5103 codifica os dados de cada clipe de modo a atender a restrição da unidade comutável, e entra os dados codificados Cdatal para a unidade de multiplexação de sistema 5104. A unidade de multiplexação de sistema 5104 executa uma multiplexação de sistema nos dados codificados Cdatal, e entra as informações de fluxo S- trlnf1 para a unidade de geração de informação de gerenciamento 5105 e os dados multiplexados Mdatal para a unidade de combinação 5106. Nos dis- cos BD-ROM, é empregado um método de multiplexação de sistema cha- mado de pacote de origem no qual um cabeçalho de 4 bytes é adicionado a um fluxo de transporte de padrão MPEG-2. Da mesma forma, as informa- ções de fluxo Strlnfl incluem informações de modo a gerar informações de gerenciamento para os dados multiplexados Mdatal1 como, por exemplo, um mapa de tempo. A unidade de geração de informação de gerenciamento 5105 gera as informações de gerenciamento Ctrllnfl que incluem a informa- ção de comutação Swlnf1 o mapa de tempo gerado com base nas informa- ções de fluxo Strlnfl1 e similar, e entra as informações de gerenciamento Ctrllnfl para a unidade de combinação 5106. A unidade de combinação 5106 combina as informações de gerenciamento Ctrllnfl e os dados multi- plexados Mdatal, e exibe a combinação como os dados de gravação Doutl.
Observa-se que, ao gerar dados por meio do uso de uma ferra- menta autoral ou similar, ocorre o caso no qual a geração de dados codifica- dos e de multiplexação de sistema ou a geração de informações de gerenci- amento são feitas por meio de dispositivos separados. Neste caso, o método de multiplexação acima pode ser obtido por meio destes dispositivos sepa- rados que operam da mesma maneira que as unidades estruturais do dispo- sitivo de multiplexação 5100.
A figura 13 é um fluxograma mostrando a operação de um mé- todo de multiplexação de modo a gerar os dados multiplexados gravados no meio de gravação da presente modalidade. O método de multiplexação des- ta modalidade difere do método de multiplexação convencional no sentido de que inclui uma etapa de determinar a unidade pela qual o método de codifi- cação de tamanho variável é comutável (Etapa S5201), uma etapa de codifi- car cada clipe com base na determinada unidade comutável do método de codificação de tamanho variável (Etapa S5202), e uma etapa de gerar infor- mações de sinalização mostrando a unidade comutável do método de codifi- cação de tamanho variável (Etapa S5204).
Primeiramente, na Etapa S5201, a unidade comutável do méto- do de codificação de tamanho variável é determinada. Em detalhe, um den- tre uma unidade de reprodução contínua, um clipe, e uma unidade de aces- so aleatório é determinada como uma unidade comutável do método de co- dificação de tamanho variável. Na Etapa S5202 que segue, os dados de um clipe de codificação AVC de padrão MPEG-4 é codificado com base em uma unidade comutável do método de codificação de tamanho variável determi- nada na Etapa S5201. Na Etapa S5203, é feito um julgamento se terminou ou não a codificação de um último clipe. Quando a codificação do último cli- pe termina, a operação prossegue para a Etapa S5204. Quando a codifica- ção do último clipe não terminou, a operação volta para a Etapa S5202 a fim de repetir a codificação do clipe. Na Etapa S5204, são geradas as informa- ções de sinalização que mostram a unidade comutável do método de codifi- cação de tamanho variável, e a operação prossegue para a Etapa S5205. Na Etapa S5205, são geradas as informações de gerenciamento que inclu- em as informações de sinalização geradas na Etapa S5204, e as informa- ções de gerenciamento e os dados codificados do clipe são multiplexados entre si e exibidos.
A figura 14 é um fluxograma mostrando um exemplo específico da etapa (Etapa S5201) de determinar a unidade comutável do método de codificação de tamanho variável da figura 13. Na figura 14, um clipe é uma unidade mínima pela qual o método de codificação de tamanho variável é comutável, conforme mostrado nas figuras 9(c) e 9(d). O clipe aqui mencio- nado é gravado no meio de gravação como um arquivo de dados AV, e é um único arquivo que armazena, por exemplo, um fluxo de codificação AVC de padrão MPEG-4 ou um fluxo de codificação VC-1. Em um fluxo de transpor- te, o clipe é um fluxo especificado por um identificador de pacote de fluxo TS.
Na figura 14, a unidade de determinação de unidade comutável 5101 julga se uma imagem de destino de codificação é a imagem inicial de um clipe (Etapa S5201a). Quando a imagem de destino de codificação não é a imagem inicial do clipe, ou seja, quando a imagem de destino de codifica- ção se encontra em algum ponto intermediário do clipe, a unidade de deter- minação de unidade comutável 5101 determina se o método de codificação de tamanho variável não é comutável na codificação do clipe (Etapa S5201f).
Quando a imagem de destino de codificação é a imagem inicial do clipe, a unidade de determinação de unidade comutável 5101 julga se o clipe é conectado perfeitamente integrado a um clipe imediatamente anterior ao que já foi codificado (Etapa S5201b). Quando o clipe é conectado perfei- tamente integrado, a unidade de determinação de unidade comutável 5101 determina se o método de codificação de tamanho variável não é comutável na codificação do clipe (Etapa S5201f).
Quando a imagem de destino de codificação é uma imagem ini- cial do clipe, a unidade de determinação de unidade comutável 5101 julga se o clipe é conectado perfeitamente integrado ou não a um clipe imediatamen- te anterior ao que já foi codificado (Etapa S5201b). Quando o clipe é conec- tado perfeitamente integrado, a unidade de determinação de unidade comu- tável 5101 determina se o método de codificação de tamanho variável não é comutável na codificação do clipe (Etapa S5201f).
Quando o clipe não é conectado perfeitamente integrado, a uni- dade de determinação de unidade comutável 5101 julga se o clipe corres- ponde ou não a um ângulo pertencente a um multiângulo (Etapa S5201c). Quando o clipe corresponde a um ângulo que pertence a um multiângulo, a unidade de determinação de unidade comutável 5101 determina se o méto- do de codificação de tamanho variável não é comutável entre os ângulos do multiângulo, na codificação do clipe (Etapa S5201f). Neste caso, para um multiângulo perfeitamente integrado no qual cada ângulo pode ser conecta- do perfeitamente integrado, o método de codificação de tamanho variável de cada ângulo é determinado como o mesmo de um clipe imediatamente ante- rior à seção de multiângulo. Para um multiângulo não integrado no qual cada ângulo não se encontra necessariamente conectado perfeitamente integra- do, por outro lado, quando o método de codificação de tamanho variável de cada ângulo é igual, este método de codificação de tamanho variável poderá ser diferente daquele do clipe imediatamente anterior à seção de multiângu- lo.
Quando a imagem de destino de codificação é uma imagem ini- cial do clipe e os julgamentos nas Etapas S5201b e S5201c são ambos ne- gativos (Etapas S5201b e S5201c: Não), a unidade de determinação de uni- dade comutável 5101 determina se o método de codificação de tamanho variável do clipe é comutável a partir do clipe imediatamente anterior ao que já foi codificado (Etapa S5201e).
Sendo assim, no fluxograma da figura 14, os clipes que são de- terminados como não comutáveis pela unidade de determinação de unidade comutável 5101 são: (a) os clipes especificados por um identificador de pa- cote de um fluxo de transporte; (b) os clipes que são propensos a uma cone- xão perfeitamente integrada; e (c) os clipes que correspondem aos ângulos que constituem um multiângulo. Observa-se que as Etapas S5201a a S5201c podem ser realizadas em qualquer ordem. Ainda, no caso de um multiângulo, a unidade de determinação de unidade comutável 5101 poderá determinar se o método de codificação de tamanho variável não é comutável somente quando o multiângulo é um multiângulo perfeitamente integrado. Além disso, um clipe pode ser identificado por meio de outras informações além das de um identificador de pacote, como, por exemplo, um nome do arquivo. Embora a figura 14 use o exemplo no qual a unidade mínima pela qual o método de codificação de tamanho variável é comutável é um clipe conforme mostrado nas figuras 9(c) e 9(d), uma unidade RAU poderá, em contrapartida, ser usada como uma unidade mínima, conforme mostrado na figura 9(e). Neste caso, a operação do fluxograma mostrado na figura 14 pode ser realizada com o termo "clipe" da figura 14 sendo substituído pelo termo "RAU".
A figura 15 é um fluxograma mostrando um exemplo específico da etapa de codificação de clipe (Etapa S5202) da figura 13. Um exemplo de codificação de um clipe codificação AVC de padrão MPEG-4 é mostrado na figura 15. Na figura 15, a unidade de codificação 5103 julga, antes de iniciar a codificação de um clipe, se o método de codificação de tamanho variável do clipe é comutável ou não (Etapa S5202a). Este julgamento é feito de a- cordo com a determinação da figura 14. Quando o método de codificação de tamanho variável do clipe é julgado como comutável, a unidade de codifica- ção 5103 livremente determina o método de codificação de tamanho variável do clipe (Etapa S5202b). Quando o método de codificação de tamanho vari- ável do clipe é julgado como não comutável, a unidade de codificação 5103 determina que o método de codificação de tamanho variável do clipe seja igual ao de um clipe imediatamente anterior ao qual o clipe é conectado per- feitamente integrado ou ao de um outro clipe que constitui o mesmo multiân- gulo que o clipe (Etapa S5202c). A unidade de codificação 5103 em seguida define uma sinalização mostrando o determinado método de codificação de tamanho variável em um conjunto de parâmetros de imagem PPS (Etapa S5202d), e codifica o clipe de acordo com o determinado método de codifi- cação de tamanho variável (Etapa S5202e). Esta sinalização é chamada entropy_coding_mode_flag em codificação AVC de padrão MPEG-4.
Sendo assim, a unidade de codificação 5103 gera os dados co- dificados Cdatal ao codificar uma imagem em movimento, sem comutar o método de codificação de tamanho variável de um clipe que vem a ser uma seção de reprodução contínua julgada como não comutável.
A figura 16 é um fluxograma mostrando um exemplo específico da etapa de geração de informações de sinalização (Etapa S5204) e da eta- pa de geração de informações de gerenciamento (Etapa S5205) da figura 13.
Na figura 16, a unidade de geração de informação de comutação 5102 julga se um clipe codificado pela unidade de codificação 5103 é um clipe cujo método de codificação de tamanho variável é julgado como comu- tável ou não (Etapa S5204a). Quando o clipe é um clipe comutável, a unida- de de geração de informação de comutação 5102 gera informações de sina- lização que indicam se o método de codificação de tamanho variável não é fixado, e armazena as informações de sinalização em uma área de trabalho de uma memória em correspondência ao clipe (Etapa S5204b). Quando o clipe não é um clipe comutável, a unidade de geração de informação de co- mutação 5102 gera informações de sinalização que indicam se o método de codificação de tamanho variável é fixado, e armazena as informações de sinalização na área de trabalho da memória em correspondência ao clipe (Etapa S5204c). A unidade de geração de informação de comutação 5102 julga ainda se o clipe é um último clipe codificado pela unidade de codifica- ção 5103 (Etapa S5204d). Quando o clipe não é o último clipe, as Etapas S5204a a S5204c se repetem. Quando o clipe é o último clipe, a unidade de geração de informação de comutação 5102 exibe todas as informações de sinalização armazenadas na área de trabalho de uma memória para a uni- dade de geração de informação de gerenciamento 5105 como informações de comutação Swlnf.
A unidade de geração de informação de gerenciamento 5105 ge- ra informações de gerenciamento incluindo a lista de reprodução (Etapa S5205a). A unidade de geração de informação de gerenciamento 5105 faz referência às informações de comutação Swlnf, e adiciona as informações de sinalização que indicam se o método de codificação de tamanho variável é fixado para um item de reprodução incluído na lista de reprodução (Etapa S5205b). Observa-se que as informações de sinalização podem indicar se o método de codificação de tamanho variável é igual ao de uma seção de re- produção referenciada por um item de reprodução imediatamente anterior. A lista de reprodução define uma ordem de reprodução de um ou mais itens de reprodução. Um item de reprodução é uma informação que mostra um clipe a ser reproduzido, e designa todo ou parte de um clipe como uma seção de reprodução. Neste caso, um outro parâmetro adicionado ao item de reprodu- ção poderá ser usado como as informações de sinalização. Por exemplo, um parâmetro que indica se um clipe é conectado perfeitamente integrado (por exemplo, "connection condition = 5") pode ser usado como as informações de sinalização. Isto se dá porque a seção de reprodução contínua determi- nada como não comutável (isto é, a seção na qual o método de codificação de tamanho variável é fixado) da figura 14 vem a ser: (a) clipes especifica- dos pelo identificador de pacote de um fluxo de transporte; (b) clipes propen- sos à conexão perfeitamente integrada; e (c) clipes correspondentes a ângu- los que constituem um multiângulo, sendo que o item (b) acima é atribuído a uma conexão perfeitamente integrada. Ainda, uma vez que a sinalização chamada "is_multi_angle" pode ser usada para mostrar se a seção de re- produção é uma seção multiângulo, esta sinalização poderá ser usada como a sinalização que indica se o método de codificação de tamanho variável é fixado. Desta maneira, uma quantidade de dados de informações de geren- ciamento pode ser reduzida.
A figura 17 é um fluxograma mostrando outro exemplo específi- co da etapa de codificação de clipe (Etapa S5202) da figura 13. A figura 17 mostra um caso de codificação de um clipe de codificação VC-1. Na figura 17, a unidade de codificação 5103 julga, antes de iniciar a codificação de um clipe, se o método de codificação de tamanho variável do clipe é comutável ou não entre um modo bruto e outros modos (Etapa S5202a). Este julga- mento é feito de acordo com a determinação da figura 14. Quando o método de codificação de tamanho variável do clipe é julgado como comutável entre o modo bruto e os outros modos, a unidade de codificação 5103 livremente determina o método de codificação por plano de bits do clipe (Etapa S5202f). Quando o método de codificação de tamanho variável do clipe é julgado co- mo não comutável entre o modo bruto e os outros modos, a unidade de codi- ficação 5103 determina que o método de codificação por plano de bits do clipe seja igual ao de um clipe imediatamente anterior (Etapa S5202g). A unidade de codificação 5103 em seguida julga se o determinado método de codificação por plano de bits é o de modo bruto ou outros modos (Etapa S5202h). A unidade de codificação 5103 adiciona informações que indicam o modo julgado nas unidades de imagens. Quando o método de codificação por plano de bits é julgado como de modo bruto, a unidade de codificação 5103 codifica as informações predeterminadas de cada macrobloco MB, no macrobloco correspondente (Etapa S5202Í). Quando o método de codifica- ção por plano de bits é julgado como não sendo de modo bruto, a unidade de codificação 5103 define as informações predeterminadas de cada ma- crobloco MB coletivamente no início de uma imagem, e codifica o clipe (Eta- pa S5202j). Observa-se que, na codificação VC-1, as informações acima que indicam o modo são mostradas em um campo chamado IMODE. Sendo assim, a unidade de codificação 5103 gera os dados co- dificados Cdatal ao codificar uma imagem em movimento, sem comutar um método de codificação por plano de bits de um clipe que vem a ser uma se- ção de reprodução contínua julgada como não comutável.
Deve-se notar que a lista de reprodução acima descrita não se limita ao uso em um disco óptico. Por exemplo, a lista de reprodução pode também ser usada da seguinte maneira. Ao receber um fluxo através de uma rede, primeiramente a lista de reprodução é recebida e analisada. Ten- do determinado o fluxo a ser recebido com base na lista de reprodução, é lançada a recepção de fluxo corrente. Ainda, no caso de transmitir um fluxo através de uma rede do Protocolo da Internet (IP) depois de pacotizar o fluxo em pacotes do Protocolo de Transporte em Tempo Real (RTP), os pacotes de fluxo TS, e similar, as informações de controle de reprodução que indi- cam se um método de codificação de tamanho variável é fixado ou não em uma seção de reprodução podem ser mostradas, por exemplo, de acordo com o Protocolo de Descrição de Sessão (SDP).
O que segue descreve uma estrutura de dados de um disco BD- ROM sobre a qual os dados gerados de acordo com um método de codifica- ção de imagem em movimento da presente modalidade são gravados, e a estrutura de um tocador para reproduzir o disco de BD-ROM. A Estrutura de Dados Lógicos no Disco
A figura 18 mostra uma estrutura de disco BD-ROM. Em particu- lar, a figura 18 mostra a estrutura de um disco BD 104 que vem a ser um meio de disco e os dados (101, 102, e 103) gravados no disco BD 104. Os dados gravados no disco BD 104 incluem dados AV 103, informações de gerenciamento de disco BD 102 incluindo uma seqüência de reprodução AV, informações de gerenciamento relativas a dados AV1 e similar, e um progra- ma de reprodução de disco BD 101 para interatividade. Embora esta modali- dade descreva o disco BD com foco sobre o seu aplicativo AV de reprodu- ção do conteúdo AV de um filme, a fim de facilitar a explicação, o disco BD pode ser igualmente usado para outros fins.
A figura 19 mostra uma estrutura de arquivos de diretório de da- dos lógicos gravados no acima mencionado disco BD. De acordo com outros discos ópticos, tais como um DVD ou um CD1 o disco BD tem uma área de gravação formada em espiral no sentido de seu raio interno para o seu raio externo, no qual é formado um espaço de endereço lógico para o armaze- namento de dados lógicos entre uma área de entrada no raio interno e a á- rea de saída no raio externo. Ainda, uma área especial chamada área de corte de rajada (BCA) que só pode ser lida por uma unidade se localiza na parte mais interna da área de entrada. Uma vez que a área BCA não pode ser lida por um aplicativo, a área BCA com freqüência auxilia em técnicas tais como a proteção de direito autoral.
No espaço de endereço lógico, as informações de sistema de arquivo (volume) são armazenadas no início, seguidas dos dados de aplica- tivo, tais como os dados de vídeo. Um sistema de arquivo é o UDF, o ISO 9660, e similar, conforme explicado na Descrição da Técnica Relacionada, e permite que os dados lógicos armazenados sejam lidos usando a estrutura de arquivos de diretório da mesma forma que nos PCs convencionais.
Na presente modalidade, o disco BD tem a seguinte estrutura de arquivos de diretório. Um diretório BDVIDEO é colocado imediatamente a- baixo de um diretório raiz (ROOT). O diretório BDVIDEO armazena os dados (101, 102, e 103 da figura 18), como, por exemplo, o conteúdo AV e as in- formações de gerenciamento manipuladas no disco BD.
A seguir, sete tipos de arquivos são providos de acordo com o diretório BDVIDEO.
BD.INFO (o nome do arquivo é fixado)
Este arquivo pertence às "informações de gerenciamento de dis- co BD", e armazena as informações relativas a todo o disco BD. Um tocador de disco BD lê este arquivo primeiro.
BD.PROG (o nome do arquivo é fixado)
Este arquivo pertence ao "programa de reprodução de disco BD", e armazena as informações de controle de reprodução relativas a todo o disco BD.
XXX. PL ("XXX" é variável e a extensão "PL" é fixa) Este arquivo pertence às "informações de gerenciamento de dis- co BD", e armazena as informações da lista de reprodução que vem a ser um cenário (seqüência de reprodução). Este arquivo é provido para cada lista de reprodução.
XXX. PROG ("XXX" é variável e a extensão "PROG" é fixa)
Este arquivo pertence ao "programa de reprodução de disco BD", e armazena as informações de controle de reprodução para a lista de reprodução individual acima mencionada. A lista de reprodução correspon- dente é identificada pelo corpo ("XXX") do nome do arquivo.
YYY.VOB ("YYY" é variável e a extensão "VOB" é fixa)
Este arquivo pertence aos "dados AV", e armazena um objeto VOB (conforme explicado na Descrição da Técnica Relacionada). Este ar- quivo é provido para cada objeto VOB.
YYY.VOBI ("YYY" é variável e a extensão "VOBI" é fixa)
Este arquivo pertence às "informações de gerenciamento de dis- co BD", e armazena as informações de gerenciamento de fluxo relativas a um objeto VOB que são os dados AV. O objeto VOB correspondente é iden- tificado pelo corpo ("YYY") do nome do arquivo.
ZZZ.PNG ("ZZZ" é variável e a extensão "PNG" é fixa)
Este arquivo pertence aos "dados AV, e armazena os dados de imagem de extensão PNG (um formato de imagem padronizado pelo W3C, e se pronuncia "ping") para a formação de um subtítulo ou um menu. Este ar- quivo é provido para toda imagem de extensão PNG.
Estrutura do Tocador
A estrutura do tocador para reproduzir o disco BD acima men- cionado é descrita a seguir, em referência às figuras 20 e 21.
A figura 20 é um diagrama em blocos mostrando um esboço da estrutura funcional do tocador.
Os dados de um disco BD 201 são lidos por um pick-up óptico 202. Os dados lidos são transferidos para uma memória dedicada depen- dendo do tipo de dados. Em detalhe, um programa de reprodução de disco BD (os conteúdos dos arquivos "BD.PROG" ou "XXX. PROG") é transferido para uma memória de armazenamento de programa 203, as informações de gerenciamento de disco BD (os conteúdos dos arquivos "BD.INFO", "XXX. PL", ou "YYY.VOBI") são transferidos para uma memória de armaze- namento de informações de gerenciamento 204, e os dados AV (os conteú- dos dos arquivos "YYY.VOB" ou "ZZZ.PNG") são transferidos para uma memória de armazenamento AV 205.
O programa de reprodução de disco BD armazenado na memó- ria de armazenamento de programa 203 é processado por uma unidade de processamento de programa 206. As informações de gerenciamento de dis- co BD armazenadas na memória de armazenamento de informações de ge- renciamento 204 são processadas por uma unidade de processamento de informações de gerenciamento 207. Os dados AV armazenados na Memória de armazenamento AV 205 são processados por uma unidade de proces- samento de apresentação 208.
A unidade de processamento de programa 206 recebe, da uni- dade de processamento de informações de gerenciamento 207, as informa- ções sobre uma lista de reprodução a ser reproduzida e as informações de evento sobre o tempo de execução de programa ou similar, e faz a execução do programa. Neste caso, um programa pode dinamicamente mudar a re- produção de uma lista de reprodução para outra. Isto é feito por uma unida- de de processamento de programa 206 que envia uma instrução para repro- duzir uma lista de reprodução para uma unidade de processamento de in- formações de gerenciamento 207. A unidade de processamento de progra- ma 206 também recebe um evento de um usuário, ou seja, uma solicitação feita por uma tecla do controle remoto, e, se existir um programa correspon- dente ao evento de usuário, executa o programa.
Uma unidade de processamento de informações de gerencia- mento 207 recebe uma instrução de uma unidade de processamento de pro- grama 206, analisa a lista de reprodução correspondente à instrução e as informações de gerenciamento de um objeto VOB correspondentes à lista de reprodução, e instrui a unidade de processamento de apresentação 208 a reproduzir os dados AV de destino. A unidade de processamento de infor- mações de gerenciamento 207 também recebe informações de tempo de referência de uma unidade de processamento de apresentação 208, e instrui a unidade de processamento de apresentação 208 a interromper a reprodu- ção dos dados AV com base nas informações de tempo de referência. Além disso, uma unidade de processamento de informações de gerenciamento 207 gera um evento indicando o tempo de execução de programa para a unidade de processamento de programa 206.
A unidade de processamento de apresentação 208 tem decodifi- cadores correspondentes ao vídeo, ao áudio, e aos subtítulos /imagens (i- magens estáticas). A unidade de processamento de apresentação 208 de- codifica e exibe dados AV de acordo com uma instrução da unidade de pro- cessamento de informações de gerenciamento 207. Neste caso, os dados de vídeo e subtítulos/imagens são, uma vez decodificados, arrastados para os planos dedicados correspondentes, quais sejam, para o plano de vídeo 210 e para o plano de imagem 209, e os submetem a um processo de com- posição de imagem por parte da unidade de processamento de composição 211, antes de serem exibidos em um dispositivo de vídeo, como, por exem- plo, uma televisão.
Sendo assim, a estrutura do tocador de disco BD se baseia na estrutura de dados do disco BD mostrada na figura 18, como se pode obser- var a partir da figura 20.
A figura 21 é um diagrama em blocos mostrando a estrutura de tocador acima em mais detalhes. Na figura 21, a memória de armazenamen- to AV 205 corresponde a uma memória de imagem 308 e ao armazenador temporário de trilha 309, a unidade de processamento de programa 206 cor- responde a um processador de programa 302 e ao gerenciador UOP 303, a unidade de processamento de informações de gerenciamento 207 corres- ponde a um processador de cenário 305 e à controladora de apresentação 306, e a unidade de processamento de apresentação 208 corresponde a um relógio 307, a um demultiplexador 310, a um processador de imagem 311, a um processador de vídeo 312, e a um processador de som 313.
Os dados de objeto VOB (fluxo de padrão MPEG) e os dados de imagem (de extensão PNG) lidos a partir do disco BD 201 são armazenados no armazenador temporário de trilha 309 e na memória de imagem 308, res- pectivamente. O demultiplexador 310 extrai os dados de objeto VOB arma- zenados no armazenador temporário de trilha 309 com base em um tempo indicado pelo relógio 307, e exibe os dados de vídeo e os dados de áudio no processador de vídeo 312 e no processador de som 313, respectivamente. O processador de vídeo 312 e o processador de som 313 são constituídos de um armazenador temporário decodificador e de um decodificador confor- me definido pelo padrão de sistema MPEG. Os dados de vídeo e os dados de áudio emitidos do demultiplexador 310 são temporariamente armazena- dos nos correspondentes armazenadores temporários decodificadores, e decodificados pelos decodificadores correspondentes de acordo com o reló- gio 307.
Paralelamente, a extensão PNG armazenada na memória de imagem 308 é processada das duas maneiras seguintes.
Quando os dados de imagem são para um subtítulo, o seu tem- po de decodificação é indicado pela controladora de apresentação 306. Pri- meiramente, o processador de cenário 305 recebe informações de tempo do relógio 307. Quando o tempo corrente é um tempo da imagem de subtítulo (hora de inicialização e hora de finalização), o processador de cenário 305 instrui a controladora de apresentação 306 a iniciar ou parar a exibição do subtítulo de modo que o subtítulo possa ser apropriadamente exibido. Ao receber uma instrução de decodificação/exibição de uma controladora de apresentação 306, o processador de imagem 311 extrai os dados de exten- são PNG correspondentes da memória de imagem 308, decodifica os dados de extensão PNG extraídos, e arrasta os dados de extensão PNG decodifi- cados sobre um plano de imagem 314.
Quando os dados de imagem é para um menu, porém, o seu tempo de decodificação é indicado pelo processador de programa 302. O tempo no qual o processador de programa 302 instrui a decodificar os dados de imagem não é fixado, mas depende de um programa de disco BD execu- tado pelo processador de programa 302. Os dados de imagem e os dados de vídeo são, uma vez decodi- ficados, exibidos para o plano de imagem 314 e para o plano de vídeo 315 respectivamente, compostos por uma unidade de processamento de compo- sição 316, e em seguida exibidos para o dispositivo de vídeo, conforme des- crito anteriormente em referência à figura 20.
Paralelamente, as informações de gerenciamento (as informa- ções de gerenciamento de cenário e AV) lidas a partir do disco BD 201 são armazenadas na memória de armazenamento de informações de gerencia- mento 304. Destas informações, as informações de cenário ("BD.INFO" ou "XXX. PL") são lidas e processadas pelo processador de cenário 305, en- quanto que as informações de gerenciamento AV ("YYY.VOBI") são lidas e processadas pela controladora de apresentação 306.
O processador de cenário 305 analisa as informações de uma lista de reprodução, e notifica a controladora de apresentação 306 de um objeto VOB referenciado pela lista de reprodução e da posição de reprodu- ção do objeto VOB. A controladora de apresentação 306 analisa as informa- ções de gerenciamento ("YYY.VOBI") deste objeto VOB de destino, e instrui a controladora de unidade 317 a ler o objeto VOB de destino.
A controladora de unidade 317 movimenta o pick-up óptico e lê os dados AV de destino, de acordo com a instrução da controladora de a- presentação 306. Os dados AV lidos são transferidos para a memória de imagem 308 ou para o armazenador temporário de trilha 309, conforme mencionado acima.
Ainda, o processador de cenário 305 monitora o tempo indicado pelo relógio 307, e exibe um evento ao processador de programa 302 no momento especificado nas informações de gerenciamento.
O programa de disco BD ("BD.PROG" ou "XXX.PROG") arma- zenado na memória de armazenamento de programa 301 é executa- do/processado pelo processador de programa 302. O processador de pro- grama 302 processa o programa de disco BD quando um evento é enviado do processador de cenário 305 ou quando o evento é enviado do gerencia- dor UOP 303. O gerenciador UOP 303 gera um evento para o processador de programa 302, após receber uma solicitação do usuário através de uma tecla do controle remoto. Espaço de Aplicação
A figura 22 mostra um espaço de aplicação no disco BD.
No espaço de aplicação do disco BD1 a lista de reprodução (P/a- ylist) serve como uma unidade de reprodução. A lista de reprodução é uma conexão de células (Cells), e tem um cenário estático que vem a ser uma seqüência de reprodução determinada por uma ordem de conexão, e o ce- nário dinâmico descrito por um programa. Sem o cenário dinâmico de um programa, a lista de reprodução simplesmente exibirá as células individuais em seqüência, e finaliza quando a reprodução de todas as células termina. Por outro lado, um programa é capaz de descrever a reprodução que está além das listas de reprodução, e dinamicamente muda o destino da reprodu- ção de acordo com uma seleção do usuário ou com a condição do tocador. Um exemplo típico distorção é o menu. Nos discos BD, o menu pode ser definido como um cenário que é exibido de acordo com a seleção do usuá- rio, permitindo que a lista de reprodução seja dinamicamente selecionada por um programa.
O programa aqui referido é uma rotina handler de eventos exe- cutada de acordo com um evento de tempo ou com um evento de usuário.
O evento de tempo é um evento gerado com base nas informa- ções de tempo embutidas em uma lista de reprodução. O evento enviado a partir do processador de cenário 305 para o processador de programa 302, o qual foi descrito acima em referência à figura 21, é um evento de tempo. Quando um evento de tempo é emitido, o processador de programa 302 e- xecuta uma rotina handler de eventos associada ao evento de tempo por meio de uma identificação ID. Conforme mencionado acima, um programa que é executado pode emitir uma instrução para exibir uma outra lista de reprodução. Neste caso, a lista de reprodução que está sendo correntemen- te exibida é interrompida e a reprodução de uma lista de reprodução desig- nada se inicia.
O evento de usuário é um evento gerado por uma operação de tecla do controle remoto por parte de um usuário. O evento de usuário pode ser principalmente classificado em dois tipos. Um primeiro tipo de evento de usuário é um evento de seleção de menu gerado por meio da operação das teclas do cursor (as teclas Para cima/Para baixo/Direita/Esquerda) ou pela tecla "Enterj'. Uma rotina handler de eventos correspondente ao evento de seleção de menu só é válida durante um período limitado dentro da lista de reprodução (um período válido de cada rotina handler de eventos individual é definido nas informações da lista de reprodução). Quando o usuário aperta quaisquer dentre as teclas Para cima/Para baixo/Direita/Esquerda ou a tecla "Enter" do controle remoto, é feita uma pesquisa para uma rotina handler de evento válida correspondente à operação do usuário e, no caso em que exis- te uma rotina handler de evento válida, esta rotina handler de eventos é exe- cutada. No caso em que não existe uma rotina handler de evento válida, o evento de seleção de menu é ignorado.
Um segundo tipo de evento de usuário é o evento de chamada de menu que é gerado ao se operar uma tecla de menu. Quando um evento de chamada de menu é gerado, uma rotina handler de eventos globais é chamada. A rotina handler de eventos globais não se baseia em uma lista de reprodução individual , e é sempre válida. O uso desta função permite que uma chamada de menu de DVD seja implementada (por exemplo, um recur- so de chamada de um menu de áudio, um menu de subtítulo, ou similar du- rante uma reprodução de títulos e, depois de o áudio ou subtítulo ser altera- do, terminar a reprodução de títulos em um ponto no qual a reprodução de títulos é suspensa).
Uma célula, que vem a ser uma unidade constituinte de um ce- nário estático de uma lista de reprodução, referencia todo ou parte de um objeto VOB (fluxo de padrão MPEG) como uma seção de reprodução. A cé- lula tem informações sobre os tempos de início e fim de uma seção de re- produção no objeto VOB. Informações de gerenciamento de objeto VOB (VOBI) correspondentes a cada objeto VOB individual incluem um mapa de tempo (TimeMap ou TMAP) que vem a ser uma informação de tabela de en- dereços de armazenamento correspondente aos tempos de reprodução de dados. Com referência a este mapa de tempo, um endereço de início de lei- tura e um endereço de fim de leitura dos dados no objeto VOB (por exemplo, o arquivo de destino "YYY.VOB") podem ser obtidos a partir dos tempos de início e fim acima da seção de reprodução no objeto VOB. O mapa de tempo será descrito em detalhe mais adiante.
Detalhes sobre um Objeto VOB
A figura 23 mostra a estrutura de um fluxo de padrão MPEG (ob- jeto VOB) usado na presente modalidade.
Conforme mostrado na figura 23, o objeto VOB é constituído de uma pluralidade de unidades de objetos de vídeo (VOBUS). A unidade VO- BU é uma unidade de reprodução como um fluxo multiplexado que se baseia em um grupo de imagens (GOP) de um fluxo de vídeo de padrão MPEG e inclui ainda dados de áudio. O período de reprodução de cada unidade VO- BU é de 1 segundo ou menos, de modo geral de cerca de 0,5 segundo.
Um pacote TS (Pacote de Fluxo de transporte de padrão MPEG- 2) no início de um unidade VOBU armazena um cabeçalho de seqüência, e um cabeçalho de grupo GOP e uma imagem intracodificada (I) que seguem o cabeçalho de seqüência, de modo que a decodificação possa se iniciar a partir da imagem I. Ainda são obtidos em um mapa de tempo o endereço (endereço de início) de um pacote de fluxo TS incluindo o início da imagem I no início do unidade VOBU, o endereço (endereço de finalização) de um pa- cote de fluxo TS incluindo o término da imagem I com relação ao endereço de início, e a hora de inicialização de reprodução (PTS) da imagem I. Sendo assim, o mapa de tempo tem uma entrada correspondente a um pacote de fluxo TS no início de cada unidade VOBU.
Cada unidade VOBU inclui um pacote de vídeo (V PKT) e um pacote de áudio (A_PKT). Cada pacote é de 188 bytes. Embora não mostra- do na figura 23, um carimbo de hora de chegada (ATS) é provido imediata- mente antes de cada pacote de fluxo TS. 0 carimbo ATS indica uma hora relativa de início de suprimento de decodificador do pacote de fluxo TS.
Um motivo para prover um carimbo ATS para cada pacote de fluxo TS é que a taxa de sistema do fluxo TS não é fixado, mas sim variável. Em geral, ao se usar uma taxa de sistema fixa, um pacote de fluxo TS fictício chamado pacote NULL é inserido. No entanto, para se conseguir uma gra- vação de alta qualidade dentro de uma capacidade de armazenamento limi- tada, uma taxa de sistema variável será mais adequada. Por este motivo, um fluxo TS anexado a um carimbo ATS é gravado nos discos BD.
A figura 24 mostra a estrutura de um pacote de fluxo TS.
Conforme mostrado na figura 24, o pacote de fluxo TS é princi- palmente composto de um cabeçalho de pacote de fluxo TS, um campo de adaptação, e uma carga útil. Um identificador de pacote (PID) é armazenado no cabeçalho de pacote de fluxo TS. Este identificador PID é usado para identificar o tipo de informação que é armazenada no pacote de fluxo TS. Uma referência de relógio de programa (PCR) é armazenada no campo de adaptação. A referência PCR ê um valor de referência para um relógio de referência (relógio de tempo de sistema (STC)) de um dispositivo que deco- difica um fluxo. Tipicamente, com a sincronização da referência PCR, o dis- positivo demultiplexa o fluxo de sistema e reconstrói fluxos individuais, como, por exemplo, um fluxo de vídeo. Um pacote PES é armazenado na carga útil.
Um cabeçalho de pacote PES armazena um carimbo de hora de decodificação (DTS) e um carimbo de hora de apresentação (PTS). O ca- rimbo DTS indica o tempo de decodificação de um quadro de imagem/áudio armazenado no pacote PES, e o carimbo PTS indica um tempo de apresen- tação de saída de vídeo/áudio ou similar. Dados elementares, como dados de vídeo e dados de áudio, são seqüencialmente armazenados em uma á- rea de armazenamento de dados do pacote PES chamada carga útil de pa- cote PES desde o início. O cabeçalho de pacote PES também armazena um identificador ID (stream id) a fim de identificar a que fluxo os dados armaze- nados na carga útil de pacote PES pertencem.
Os fluxos TS são definidos em detalhe na Publicação ISO/IEC 13818-1. Um recurso característico dos discos BD é que um carimbo ATS é anexado a cada pacote de fluxo TS.
Gravação Entrelaçada de um Objeto VOB A seguir, descreve-se a gravação entrelaçada de um arquivo de objeto VOB1 em referência às figuras 25 e 26.
A parte superior da figura 25 mostra parte da estrutura de toca- dor acima descrita. Conforme mostrado na parte superior da figura 25, os dados no disco BD são entrados, através de um pick-up óptico, para o arma- zenador temporário de trilha no caso de um objeto VOB, ou seja, um fluxo de padrão MPEG, ou para a memória de imagem no caso de uma extensão PNG, ou seja, os dados de imagem.
O armazenador temporário de trilha é um armazenador temporá- rio FIFO. Por conseguinte, os dados de objeto VOB entrados no armazena- dor temporário de trilha são enviados para o demultiplexador em ordem de entrada. Neste caso, cada pacote de fluxo TS individual é extraído do arma- zenador temporário de trilha de acordo com o carimbo ATS acima mencio- nado, e os dados do pacote de fluxo TS extraído são enviados para o pro- cessador de vídeo ou para o processador de som através do demultiplexa- dor. No caso dos dados de imagem, por sua vez, a controladora de apresen- tação designa qual imagem deve ser arrastada. Ainda, quando os dados de imagem usados para arrasto são os dados de imagem de subtítulo, os dados de imagem são apagados da memória de imagem no momento do arrasto. No entanto, quando os dados de imagem usados para arrasto são os dados de imagem de menu, os dados de imagem ficam retidos na memória de i- magem enquanto o arrasto do menu está sendo feito, isto pelo seguinte mo- tivo. O arrasto de um menu se baseia na operação de um usuário, e sendo assim uma parte do menu poderá ser re-exibido ou trocado por uma imagem diferente de acordo com a operação do usuário. Neste caso, a decodificação dos dados de imagem da parte que deve ser re-exibida poderá ser facilmen- te feita se os dados de imagem ficarem retidos na memória de imagem.
A parte inferior da figura 25 mostra a gravação entrelaçada de um arquivo de objeto VOB e de um arquivo de extensão PNG no disco BD. Em uma memória ROM, tal como a de um CD-ROM ou de um DVD-ROM, geralmente os dados AV que formam uma unidade de reprodução contínua são gravados de forma contínua. Contanto que os dados sejam continua- mente gravados, uma unidade poderá simplesmente ler os dados em se- qüência e liberar os dados lidos para um decodificador. No entanto, quando dados contínuos são divididos e gravados em um disco de uma maneira dis- creta, precisará ser feita uma operação de busca entre seções individuais de reprodução contínua. A leitura dos dados é suspensa durante tal operação de busca, o que poderá fazer com que o suprimento de dados seja interrom- pido. No caso dos discos BDS também, é preferível gravar um arquivo de objeto VOB em uma área contínua. No entanto, uma vez que há dados tam- bém, estes dados de subtítulo, que devem ser exibidos sincronicamente com os dados de vídeo armazenados em um arquivo de objeto VOB, tais dados precisarão ser lidos a partir do disco BD por algum meio, assim como o ar- quivo de objeto VOB.
Um método de leitura de dados de subtítulo é ler todos os dados de imagem (arquivo de extensão PNG) dos subtítulos de uma vez só antes de a reprodução de um objeto VOB se iniciar. No entanto, este método não é realístico, uma vez que requer uma memória grande para o armazenamento destes dados de imagem.
Tendo isto em vista, é empregado um método de divisão de um arquivo de objeto VOB em vários blocos e de gravação entrelaçada de blo- cos de objeto VOB com dados de imagem. A parte inferior da figura 25 ilus- tra tal gravação entrelaçada.
Ao se intercalar apropriadamente um arquivo de objeto VOB e dados de imagem, torna-se possível armazenar os dados de imagem na memória de imagem sempre que necessário, não havendo necessário de se usar a memória temporária grande acima mencionada. Neste caso, no en- tanto, a leitura dos dados de objeto VOB é interrompida enquanto os dados de imagem estão sendo lidos.
A figura 26 vem a ser um diagrama para explicar um modelo de suprimento de dados contínuos de objeto VOB usando um armazenador temporário de trilha a fim de solucionar este problema.
Conforme acima descrito, dados de objeto VOB são temporari- amente acumulados no armazenador temporário de trilha. Quando existe uma diferença entre a taxa de entrada de dados (Va) do armazenador tem- porário de trilha e a taxa de saída de dados (Vb) do armazenador temporário de trilha (Va > Vb), a quantidade de dados acumulados no armazenador temporário de trilha aumenta contanto que os dados estejam sendo lidos a partir de um disco BD.
Conforme mostrado na parte superior da figura 26, supõe-se que uma área de gravação contínua de objeto VOB se inicie em um endereço lógico a1 e termine no endereço lógico a2, enquanto os dados de imagem são gravados a partir do endereço lógico a2 para o endereço lógico a3, du- rante o que os dados de objeto VOB não poderão ser lidos.
A parte inferior da figura 26 mostra a condição interna do arma- zenador temporário de trilha. Na figura 26, o eixo horizontal representa o tempo, e o eixo vertical representa a quantidade de dados acumulados no armazenador temporário de trilha. O tempo t1 é a hora na qual a leitura dos dados em a1, que vem a ser o ponto inicial da área de gravação contínua de objeto VOB, se inicia. De t1 em diante, os dados são acumulados no arma- zenador temporário de trilha a uma taxa de (Va - Vb). Esta taxa vem a ser a diferença entre as taxas de entrada e saída de dados do armazenador tem- porário de trilha. O tempo t2 é a hora na qual os dados em a2, isto é, o ponto de finalização da área de gravação contínua de objeto VOB, são lidos. Isto quer dizer que, a quantidade de dados no armazenador temporário de trilha aumenta à taxa de (Va - Vb) de t1 para t2. Quando B(t2) denota a quantida- de de dados no armazenador temporário de trilha em t2, B(t2) poderá ser obtido a partir da seguinte expressão:
B(t2) = (Va - Vb) χ (t2 -t1 )(Expressão 1).
Depois disso, os dados de imagem continua até o endereço a3 no disco BD. Sendo assim, a entrada para o armazenador temporário de trilha será O neste momento. Deste modo, a quantidade de dados no arma- zenador temporário de trilha diminui a uma taxa de -Vb. Isto acontece até o endereço a3, ou seja, no tempo t3.
A questão importante aqui é que, se a quantidade de dados no armazenador temporário de trilha é de 0 antes de t3, não haverá dados de objeto VOB a serem supridos para o decodificador, o que faz com que a re- produção do objeto VOB seja interrompida. No entanto, quando os dados permanecem no armazenador temporário de trilha em t3, a reprodução do objeto VOB poderá continuar sem interrupção.
Esta condição pode ser expressa pela seguinte expressão:
B(t2) ≥ Vb χ (t3 - t2)(Expressão 2).
Sendo assim, é necessário se posicionar os dados de imagem (os dados de objeto não-VOB) no disco BD de modo a satisfazer a Expres- são 2.
A Estrutura dos Dados de Navegação
A seguir descreve-se a estrutura de dados de navegação no dis- co BD (informações de gerenciamento de disco BD), em referência às figu- ras 27 a 33.
A figura 27 mostra uma estrutura interna de um arquivo de in- formações de gerenciamento de objeto VOB ("YYY.VOBI").
As informações de gerenciamento de objeto VOB incluem infor- mações de atributo de fluxo (Attribute) e um mapa de tempo para um objeto VOB. As informações de atributo de fluxo incluem um atributo de vídeo (Ví- deo) e atributos de áudio (Audio#0 a AudicMm). Uma vez que um objeto VOB pode ter uma pluralidade de fluxos de áudio, a presença/ausência de cam- pos de dados é mostrada por um número de fluxos de áudio (Νυπιόβή.
A seguir encontram-se os campos incluídos no atributo de vídeo (Vídeo), e os possíveis valores destes campos. Formato de Compactação (Coding):
MPEG1
MPEG2
MPEG4
MPEG4 - Codificação Avançada de Vídeo (AVC)
Resolução (Resolution):
1920 x 1080
1440 χ 1080
1280 χ 720 720 χ 480
720 χ 565
Razão de Aspecto (Aspect):
4:3
16:9
Taxa de Quadro (Framerate): 60
59,94 (60/1,001)
50
30
29,97 (30/1,001)
25
24
23,976 (24/1,001)
A seguir, são descritos os campos incluídos em cada um dos a- tributos de áudio (Audio), e os possíveis valores destes campos.
Formato de Compactação (Coding):
AC3
MPEG1
MPEG2
LPCM
Número de Canais (Ch.): 1 a 8
Atributo de Linguagem (Language):
O mapa de tempo (TMAP) é uma tabela com informações para cada unidade VOBU. O mapa de tempo inclui um número de unidades VO- BU (Number) no objeto VOB1 e informações de unidade VOBU para cada unidade VOBU (VOBU#1 a VOBU#n). As informações de unidade VOBU de cada unidade VOBU incluem o endereço (I start) de um pacote de fluxo TS (o início de uma imagem I) no início da unidade VOBU, um endereço de des- locamento (l_end) no fim da imagem I com relação ao endereço 1 start, e uma hora de inicialização de reprodução (PTS) da imagem I. Observa-se que o valor do endereço I end não se limita ao valor de deslocamento, ou seja, a um tamanho da imagem I, e pode ser, em con- trapartida, o endereço de finalização da imagem I corrente.
A figura 28 vem a ser um diagrama para explicar as informações de unidade VOBU em detalhe.
Conforme amplamente conhecido, um fluxo de vídeo de padrão MPEG pode ser compactado a uma taxa de bits variável para gravar com uma alta qualidade de imagem. Por conseguinte, não há uma correlação simples entre um período de tempo de reprodução e um tamanho dos dados no caso de um fluxo de vídeo de padrão MPEG. O padrão AC3, que vem a ser um padrão de compactação de áudio, compacta os dados a uma taxa de bits fixa, e, sendo assim, a relação tempo/endereço pode ser representada por uma expressão linear. No caso dos dados de vídeo de padrão MPEG, por sua vez, os quadros individuais têm um período de tempo da imagem fixo. Como um exemplo, cada quadro tem um período de tempo da imagem de 1/29,97 segundos no padrão NTSC. No entanto, o tamanho dos dados de cada quadro após compactação difere muito, dependendo das característi- cas da imagem e do tipo de imagem usada para compactação, ou seja, uma 1-picture, uma P-picture, ou uma B-picture. Para um vídeo de padrão MPEG, portanto, a relação tempo/endereço não poderá ser representada por uma expressão linear.
Por conseguinte, para um objeto VOB que vem a ser um fluxo de sistema de padrão MPEG no qual dados de vídeo de padrão MPEG são mul- tiplexados, a relação entre o tempo e o tamanho dos dados também não po- de ser representada por uma expressão linear. Por outro lado, o mapa de tempo (TMAP) serve para mostrar a relação tempo/endereço no objeto VOB.
Quando são dadas informações de tempo, primeiramente é feita uma pesquisa em uma unidade VOBU à qual pertence um tempo mostrado pelas informações de tempo (ao verificar o carimbo PTS de cada unidade VOBU). É dado um salto na unidade VOBU cujo carimbo PTS precede ime- diatamente o tempo mostrado nas informações de tempo de um mapa TMAP (um endereço especificado pelo endereço I start). A decodificação começa de uma imagem I no início da unidade VOBU1 e a exibição se inicia a partir de imagem correspondente ao tempo mostrado nas informações de tempo.
A seguir, é descrita a estrutura interna das informações da lista de reprodução ("XXX.PL"), em referência à figura 29.
As informações da lista de reprodução são basicamente consti- tuídas de uma lista de células (CellList) e um lista de eventos (EventList).
A lista de células (CellList) vem a ser a seqüência de células de reprodução de uma lista de reprodução. As células são exibidas na ordem mostrada por esta lista de células. A lista de células (CellList) inclui um nú- mero de células (Number) e as informações de célula para cada célula (Cell #1 a Cell #n).
As informações de célula (Cell #) incluem o nome do arquivo de um objeto VOB (VOBName), uma hora de inicialização (In) e uma hora de finalização (Out) no objeto VOB1 e uma tabela de subtítulos (SubtitIeTabIe). 15 A hora de inicialização (In) e a hora de finalização (Out) são expressos por um número de quadro no objeto VOB. Um endereço de dados de objeto VOB necessário para reprodução pode ser obtido em referência ao mapa de tempo acima mencionado.
A tabela de subtítulos (SubtitleTable) vem a ser uma tabela com informações sobre os subtítulos que devem ser exibidos de maneira síncro- na com o objeto VOB. De acordo com o áudio, os subtítulos podem ser pro- vidos em uma pluralidade de linguagens. Por conseguinte, a tabela de subtí- tulos (SubtitleTable) inclui um número de linguagens (Numbeή e uma tabela para cada linguagem (Languagettl a Language#k) que segue.
Cada tabela de linguagem (Language#) inclui informações de linguagem (Lang), um número de conjuntos de informações de subtítulo para subtítulos individualmente exibidos (Numbeή, e informações de subtítulo para cada subtítulo individualmente exibido (Speech# 1 a Speech#j). As in- formações de subtítulo (SpeecMt) são basicamente constituídas de um no- me do arquivo de dados de imagem correspondente (Name), uma hora de inicialização da imagem de subtítulo (In), uma hora de finalização da imagem de subtítulo (Out), e uma posição da imagem de subtítulo (Position). A lista de eventos (EventLisf) vem a ser uma tabela que define os eventos gerados em uma lista de reprodução. A lista de eventos é princi- palmente constituída de um número de eventos (Number) e de eventos indi- viduais {Event# 1 a Eventitm) que seguem. Cada evento {Event#) inclui um tipo de evento (Typé), um identificador ID de evento (ID), um tempo de gera- ção de evento (Time), e um período válido (Duration).
A figura 30 mostra uma tabela de rotinas handler de eventos ("XXX.PROG") com rotinas handler de eventos (para eventos de tempo e eventos de usuário de seleção de menu) para uma lista de reprodução indi- vidual.
A tabela de rotinas handler de eventos tem um número de roti- nas handler de eventos/programas definidos (Νυmber) e rotinas handler de eventos individuais/programas (Program#1 a Program#n). Cada rotina han- dler de eventos/programa (Programtt) inclui uma definição do início da rotina handler de eventos (<event_handler> tag) e um identificador ID de rotina handler de eventos (ID) correspondente a um identificador ID de eventos acima mencionado. Em seguida, o programa é escrito em parênteses "{" e "}" após "Função". Os eventos (Eventtt^i a Eventttm) armazenados na lista de eventos acima (EventList) em um arquivo "XXX.PL" são especificados usando-se os identificadores ID (ID) das rotinas handler de eventos de um arquivo "XXX.PROG".
A seguir, descreve-se uma estrutura interna de informações rela- tivas a todo o disco BD ("BD.INFO"), em referência à figura 31.
As informações de todo o disco BD são principalmente constituí- das de uma lista de títulos (TitIeList) e de uma tabela de eventos para even- tos globais (EventList).
A lista de títulos (TitleList) inclui um número de títulos no disco (Number) e informações de título para cada título (Title#1 a Title#n) que se- gue. As informações de título (Title#) inclui uma tabela de listas de reprodu- ção incluídas no título (PLTable) e uma lista de capítulos no título (Chapter- List). A tabela de listas de reprodução (PLTable) inclui um número de listas de reprodução no título (Numbeή e os nomes das listas de reprodução, ou seja, os nomes de arquivo das listas de reprodução (Name# 1 a Name#m).
A lista de capítulos (ChapterList) inclui um número de capítulos incluídos no título (i) e informações de capítulo para cada capítulo (Chap- tertt 1 a Chapterttn). As informações de capítulo (Chaptertt) incluem uma ta- bela de células incluídas no capítulo (CellTable). Uma tabela de células (Cel- ITable) é basicamente constituída de um número de células (Νumber) e de informações de entrada para cada célula individual (CellEntry#1 a CellEn- try#k). As informações de entrada de cada célula (CellEntry#) têm um nome de lista de reprodução que inclui a célula, e o número de célula de uma célu- la da lista de reprodução.
A lista de eventos (EventList) inclui um número de eventos glo- bais (Νumber) e informações para cada evento global individual. Deve-se notar que um evento global definido primeiro em uma lista de eventos (Even- tList) é chamado primeiro evento (FirstEvent), sendo chamado primeiro quando o disco BD é inserido no tocador. As informações de evento global são constituídas de um tipo de evento (Type) e um identificador ID de evento (ID).
A figura 32 mostra uma tabela ("BD.PROG") de programas que vem a ser rotinas handlerde eventos globais.
Esta tabela tem a mesma estrutura que a tabela de rotinas han- dlerde eventos mostrada na figura 30.
Mecanismo de Geração de Eventos
A seguir descreve-se um mecanismo para gerar um evento, em referência às figuras 33 a 35.
A figura 33 mostra um exemplo de evento de tempo.
Conforme descrito acima, um evento de tempo é definido em uma lista de eventos (EventLisf) nas informações de lista de reprodução ("XXX.PL"). No caso em que um evento é definido como um evento de tem- po, ou seja, quando o tipo de evento (Type) é um "TimeEvent', o evento de tempo com um identificador ID "Ex1" é enviado do processador de cenário para o processador de programa quando o tempo corrente é um tempo de geração de evento (t1). O processador de programa pesquisa uma rotina handler de eventos com um identificador ID de evento "Ex1", e executa a rotina handler de eventos. No exemplo mostrado na figura 33, duas imagens de botão são arrastadas.
A figura 34 mostra um exemplo de evento de usuário de opera- ção de menu.
Conforme descrito acima, um evento de usuário de operação de menu é definido também em uma lista de eventos (EventListy das informa- ções de lista de reprodução ("XXX. PL"). No caso em que um evento é defi- nido como um evento de usuário, ou seja, quando o tipo de evento (Type) é um "UserEvent', o evento de usuário é definido em uma condição pronta quando o tempo corrente é um tempo de geração de evento (t1). Neste pon- to, o próprio evento ainda não foi gerado. Este evento fica em uma condição pronta durante o período mostrado nas informações de período válido (Dura- tiori).
Conforme mostrado na figura 34, quando o usuário pressiona as teclas Para cima/Para baixo/Esquerda/Direita ou a tecla "Enter" do controle remoto, primeiramente o Gerenciador UOP gera um evento UOP e exibe os eventos UOP gerados para o processador de programa. O processador de programa passa o evento UOP para o processador de cenário. O processa- dor de cenário verifica se existe ou não um evento de usuário válido no mo- mento da recepção do evento UOP. Quando existe um evento de usuário válido, o processador de cenário gera o evento de usuário, e envia o evento de usuário gerado para o processador de programa. O processador de pro- grama pesquisa uma rotina handler de eventos com um identificador ID de evento "Ev1", e executa a rotina handler de eventos. No exemplo mostrado na figura 34, a reprodução da Playlistit2 se inicia.
O evento de usuário gerado não inclui informações sobre qual tecla do controle remoto foi pressionada pelo usuário. Esta informação sobre a tecla do controle remoto pressionada é enviada para o processador de programa através do evento UOP, e armazenada em um registrador S- PRM(8) de um tocador virtual. O programa de rotina handler de eventos po- de referenciar o valor deste registrador e executar um desvio. A figura 35 mostra um exemplo de um evento global.
Conforme acima descrito, o evento global é definido na lista de eventos (EvenfL/sf) nas informações de todo o disco BD ("BD.INFO"). No caso em que um evento é definido em que um evento global, ou seja, quan- do o tipo de evento (Type) é um "GIobaIEvenf, o evento só é gerado quando o usuário realiza uma operação de tecla do controle remoto.
Quando o usuário pressiona a tecla de menu, primeiramente o Gerenciador UOP gera um evento UOP e exibe o evento UOP gerado para o processador de programa. O processador de programa passa o evento UOP para o processador de cenário. O processador de cenário gera um evento global correspondente ao evento UOP, e envia o evento global gerado para o processador de programa. O processador de programa pesquisa uma roti- na handlerde eventos que tenha um "menu" de identificador ID de evento e executa a rotina handler de eventos. No exemplo mostrado na figura 35, a reprodução da Playlistit3 é inicializada.
Embora esta modalidade se refira simplesmente a uma tecla de menu, uma pluralidade de teclas de menu pode ser provida como no caso dos DVDs. Isto pode ser feito ao se definir um identificador ID corresponden- te para cada tecla de menu.
Tocador Virtual
A seguir, descreve-se uma estrutura funcional do processador de programa em referência à figura 36.
O processador de programa vem a ser um módulo de proces- samento com um tocador virtual no seu interior. O tocador virtual é um mo- delo funcional definido para os discos BD, e não se baseia na implementa- ção de cada tocador de disco BD individual. Em outras palavras, o tocador virtual garante que os mesmos recursos possam ser realizados em qualquer tocador de disco BD.
O tocador virtual tem dois recursos principais, ou seja, as fun- ções de programação e as variáveis de tocador (registradores). As funções de programação definem os seguintes recursos como funções únicas de um disco BD, com base no Script Java (marca registrada). Função do Link·, parar a reprodução corrente e inicializar a reprodução de uma lista de reprodução, célula, e hora designadas.
Linkar (PL#, Cell#, time)
PL#: nome da lista de reprodução
Cell#: número da célula
Time: hora de inicialização de reprodução na célula
Função de Arrasto de Extensão PNG: arrastar os dados de extensão PNG designados sobre o plano de imagem.
Arrastar (Arquivo, X, Y)
Arquivo: nome do arquivo de extensão PNG
X: posição da coordenada X
Y: posição da coordenada Y
Função de Excluir Plano de Imagem: excluir uma área designada do plano de imagem.
ExcIuir(X1Y1W1H)
X: posição da coordenada X
Y: posição da coordenada Y
W: largura na direção X
H: largura na direção Y
As variáveis de tocador incluem parâmetros de sistema (SPRM) que mostram o status do tocador e os parâmetros gerais (GPRM) que po- dem ser usados para fins gerais.
A figura 37 mostra uma lista de parâmetros de sistema (SPRM).
SPRM(O): Código de linguagem
SPRM(1): Número do fluxo de áudio
SPRM(2): Número do fluxo de subtítulo
SPRM(3): Número do ângulo
SPRM(4): Número do título
SPRM(5): Número do capítulo
SPRM(6): Número do programa
SPRM(7): Número da célula
SPRM(8): Informação de tecla selecionada SPRM(9): Cronômetro de navegação
SPRM(10): Informação de tempo de reprodução
SPRM(11): Modo de mistura para karaokê
SPRM(12): Código do país para gerenciamento parental
SPRMd 3): Nível parental
SPRM(14): Configuração do tocador (vídeo)
SPRMd 5): Configuração do tocador (áudio)
SPRM(16): Código de linguagem para fluxo de áudio
SPRMd (17): Código de linguagem para fluxo de áudio (extensão)
SPRMd (18): Código de linguagem para fluxo de subtítulo
SPRM(19): Código de linguagem para fluxo de subtítulo (extensão)
SPRM(20): Código da região do tocador
SPRM(21): reservado
SPRM(22): reservado
SPRM(23): Status da reprodução
SPRM(24): reservado
SPRM(25): reservado
SPRM(26): reservado
SPRM(27): reservado
SPRM(28): reservado
SPRM(29): reservado
SPRM(30): reservado
SPRM(31): reservado
Deve-se notar que esta modalidade descreve um caso no qual as funções de programação do virtual tocador se baseiam no Script Java (marca registrada), porém outras funções de programação, tais como o B- Shell ou o Perl Script utilizado na UNIX (marca registrada), OS ou coisa do similar, podem também ser usadas. Em outras palavras, a presente inven- ção não se limita ao uso do Script Java (marca registrada).
Exemplos de Programa
As figuras 38 e 39 mostram exemplos de programas de rotina handler de eventos. A figura 38 mostra um exemplo de a menu tendo dois botões de seleção.
Um programa à esquerda da figura 38 é executado usando um evento de tempo, no início de uma célula (Playlistít 1, Cell# 1). Neste caso, o parâmetro geral GPRM(O) é inicialmente definido em "1". O parâmetro G- PRM(O) é usado no sentido de identificar um botão selecionado neste pro- grama. Em us estado inicial, o parâmetro GPRM(O) tem um valor inicial que indica se o botão 1 à esquerda foi selecionado.
Em seguida, é feito o arrasto da extensão PNG para cada um dentre o botão 1 e o botão 2, usando a função de Arrasto. Para o botão 1, a imagem de extensão PNG "Iblack.png" é arrastada com as coordenadas (10, 200) como um ponto de partida (canto superior esquerdo). Para o botão 2, a imagem de extensão PNG "2white.png" é arrastada com as coordena- das (330, 200) como um ponto de partida (canto superior esquerdo).
Ainda, um programa à direita da figura 38 é executado usando um evento de tempo, no fim de uma célula. Neste caso, a função Link é usa- da para instruir a tocar desde o início de uma célula outra vez.
A figura 39 mostra um exemplo de rotina handler áe eventos pa- ra um evento de usuário de seleção de menu.
A rotina handler de eventos inclui um programa correspondente à cada operação de se pressionar a tecla Esquerda, a tecla Direita, ou a te- cla Enter do controle remoto. Quando o usuário pressiona qualquer uma das teclas do controle remoto, é gerado um evento de usuário e a rotina handler de eventos da figura 39 é ativada, conforme explicado na figura 34. A rotina handler de eventos executa um desvio, usando o valor de parâmetro G- PRM(O) que identifica o botão selecionado e o valor do parâmetro SPRM(8) que identifica a tecla pressionada do controle remoto.
Condição 1): A tecla Direita é pressionada quando o botão 1 é selecionado.
Neste caso, o parâmetro GPRM(O) é alterado para "2", de modo a definir o botão direito 2 em um estado selecionado.
Ainda, a imagem de cada um dos botões 1 e 2 é novamente ar- rastada.
Condição 2): A tecla "Enter" (OK) é pressionada quando o botão 1 é selecionado.
Neste caso, a reprodução da Playlisttt2 é inicializada.
Condição 3): A tecla "Enter" (OK) é pressionada quando o botão 2 é selecionado.
Neste caso, a reprodução da Playlisttt3 é inicializada.
Desta maneira, é feita a execução do programa. Fluxos de Processamento do Tocador
A seguir, são descritos os fluxos de processamento de um toca- dor, em referência às figuras 40 a 43.
A figura 40 é um fluxograma mostrando o processamento básico para uma reprodução AV.
Conforme mostrado na figura 40(a), quando o disco BD é inseri- do (Etapa S101), o tocador de disco BD lê e analisa o arquivo BD.INFO (E- tapa S102), e lê o arquivo BD.PROG (Etapa S103). Neste caso, ambos os arquivos BD.INFO e BD.PROG são armazenados na memória de armaze- namento de informações de gerenciamento e em seguida analisados pelo processador de cenário.
Em seguida, o processador de cenário gera o primeiro evento, de acordo com as informações de primeiro evento (FirstEvenf) no arquivo BD.INFO (Etapa S104). O processador de programa recebe o primeiro even- to, e executa uma rotina handler de eventos correspondente ao primeiro e- vento (Etapa S105).
Espera-se que a rotina handler de eventos correspondente ao primeiro evento inclua as informações de uma lista de reprodução a ser exi- bida primeiro. Se a reprodução da lista de reprodução não estiver designada em uma rotina handler de eventos, o tocador de disco BD não terá nada pa- ra executar, e aguardará o recebimento de um evento de usuário (Etapa S201), conforme mostrado na figura 40(b). Após o recebimento de uma ope- ração de controle remoto por parte de um usuário, o gerenciador UOP envia um evento UOP para o processador de programa (Etapa S202). O processador de programa julga se o evento UOP corresponde a uma tecla de menu ou não (Etapa S203). Quando o evento UOP corres- ponde à tecla de menu, o processador de programa envia o evento UOP para o processador de cenário, e o processador de cenário gera um evento de usuário (Etapa S204). O processador de programa executa uma rotina handler de eventos correspondente ao evento de usuário gerado (Etapa S205).
A figura 41 é um fluxograma mostrando um processamento des- de o início de uma reprodução PL ao início de uma reprodução de objeto VOB.
Conforme notado acima, a reprodução de uma lista de reprodu- ção é inicializada pela primeira rotina handler de eventos ou pela rotina han- dler de eventos globais (Etapa S301). O processador de cenário lê e analisa as informações da lista de reprodução "XXX.PL" (Etapa S302) e lê as infor- mações de programa "XXX.PROG" correspondentes a uma lista de reprodu- ção (Etapa S303), as informações necessárias para reproduzir a lista de re- produção. Em seguida, o processador de cenário instrui a iniciar a reprodu- ção de uma célula, com base nas informações de célula mostradas na lista de reprodução (Etapa S304). Isto é feito pelo processador de cenário que emite uma solicitação para a controladora de apresentação, que, responsi- vamente, começa a reproduzir os dados AV (Etapa S305).
Quando a reprodução dos dados AV se inicia (Etapa S401), a controladora de apresentação lê e analisa o arquivo de informações de obje- to VOB (YYY.VOBI) de um objeto VOB correspondente a uma célula (Etapa S402). A controladora de apresentação especifica a unidade VOBU a ser reproduzida e seu endereço, usando um mapa de tempo. A controladora de apresentação indica o endereço de leitura para a controladora de unidade. A controladora de unidade lê os dados do objeto VOB de destino a partir do endereço indicado (Etapa S403), e envia os dados de objeto VOB lidos para o decodificador. Sendo assim, a reprodução dos dados de objeto VOB se inicia (Etapa S404).
A reprodução do objeto VOB continua até o fim da seção de re- produção do objeto VOB especificado pela célula (Etapa S405). Depois do fim da seção de reprodução, o processamento se movimenta para a Etapa S304 a fim de reproduzir a célula seguinte. Quando a célula seguinte não existe, a operação de reprodução termina (Etapa S406).
A figura 42 é um fluxograma mostrando processamento de even- to após o início de uma reprodução AV.
O tocador de disco BD vem a ser um modelo de tocador aciona- do a evento. Quando a reprodução de uma lista de reprodução se inicia, o evento processa um evento de tempo, um evento de usuário, e a exibição de subtítulo é ativada, e o tocador de disco BD executa estes processos de e- vento em paralelo.
As Etapas S501 a S505 (FIG 42(a)) correspondem a um proces- samento de evento de tempo.
Após o início da reprodução de uma lista de reprodução (Etapa S501), é feito um julgamento quanto a se a reprodução da lista de reprodu- ção está completa ou não (Etapa S502). Quando a reprodução da lista de reprodução não está completa, o processador de cenário julga se o tempo corrente é um tempo de geração de evento de tempo ou não (Etapa S503). Quando o tempo corrente é um tempo de geração de evento de tempo, o processador de cenário gera um evento de tempo (Etapa S504). O proces- sador de programa recebe o evento de tempo, e executa uma rotina handler de eventos correspondente ao evento de tempo (Etapa S505).
Quando o tempo corrente não é o tempo de geração de evento de tempo da Etapa S503 ou depois de a rotina handler de eventos ser exe- cutada na Etapa S505, o processamento de evento de tempo volta para a etapa S502 a fim de repetir as etapas acima. Quando a reprodução da lista de reprodução é julgada terminada na Etapa S502, o processamento de e- vento de tempo é forçosamente finalizado.
As Etapas S601 a S608 (FIG 42(b)) correspondem a um proces- samento de evento de usuário.
Depois de a reprodução de uma lista de reprodução se iniciar (E- tapa S601), é feito um julgamento quanto a se a reprodução da lista de re- produção está completa ou não (Etapa S602). Quando a reprodução da lista de reprodução não está terminada, é feito um julgamento quanto a se um UOP foi recebido ou não (Etapa S603). Após o recebimento de um UOP, o gerenciador UOP gera um evento UOP (Etapa S604). O processador de programa recebe o evento UOP, e julga se o evento UOP é uma chamada de menu (Etapa S605). Quando o evento UOP é uma chamada de menu, o processador de programa instrui o processador de cenário a gerar um even- to de usuário (Etapa S607). O processador de programa em seguida executa uma rotina handler de eventos correspondente ao evento de usuário (Etapa S608).
Quando o evento UOP não é julgado como uma chamada de menu na Etapa S605, isto significa que o evento UOP é um evento por meio das teclas de um cursor ou da tecla uEnter". Neste caso, o processador de cenário julga se o tempo corrente está dentro de um período válido de even- to de usuário (Etapa S606). Quando o tempo corrente está dentro de um período válido de evento de usuário, o processador de cenário gera um e- vento de usuário (Etapa S607), e o processador de programa executa uma rotina handler de eventos correspondente ao evento de usuário (Etapa S608).
Quando um UOP não é recebido na Etapa S603, quando o tem- po corrente não está dentro de um período válido de evento de usuário na Etapa S606, ou depois de a rotina handler de eventos ser executada na Eta- pa S608, o processamento de evento de usuário volta para a etapa S602 a fim de repetir as etapas acima. Quando a reprodução da lista de reprodução é julgada como finalizada na Etapa S602, o processamento de evento de usuário é forçosamente terminado.
A figura 43 corresponde a um processamento de subtítulo.
Depois de uma reprodução de lista de reprodução se iniciar (E- tapa S701), é feito um julgamento quanto a se uma reprodução de lista de reprodução está completa ou não (Etapa S702). Quando a reprodução da lista de reprodução não está completa, é feito um julgamento quanto a se um tempo corrente vem a ser uma hora de inicialização para arrastar um subtítu- lo ou não (Etapa S703). Quando o tempo corrente é a hora de inicialização de arrasto de um subtítulo, o processador de cenário instrui a controladora de apresentação a arrastar o subtítulo. A controladora de apresentação ins- trui o processador de imagem a arrastar o subtítulo (Etapa S704). Quando o tempo corrente não é julgado como a hora de inicialização de arrasto de um subtítulo na Etapa S703, é feito um julgamento quanto a se o tempo corrente vem a ser uma hora de finalização da imagem de subtítulo (Etapa 705). Quando o tempo corrente vem a ser a hora de finalização da imagem de subtítulo, a controladora de apresentação instrui o processador de imagem a excluir o subtítulo, e o processador de imagem exclui o subtítulo do plano de imagem (Etapa S706).
Depois que a etapa de arrasto de subtítulo S704 termina, depois de a etapa de exclusão de subtítulo S706 finalizar, ou quando o tempo cor- rente é julgado como não sendo a hora de finalização da imagem de um subtítulo na Etapa S705, o processamento de subtítulo volta para a etapa S702 a fim de repetir as etapas acima. Quando a reprodução da lista de re- produção é julgada finalizada na Etapa S702, o processamento de subtítulo é forçosamente finalizado.
Segunda Modalidade
Um segundo exemplo de fluxo no qual podem existir diferentes métodos de codificação (ou uma imagem em movimento com diferentes atri- butos), ou seja, um exemplo no qual um limite de nível de luminância (atribu- to de imagem em movimento) pode assumir diferentes valores quando um processo de transparência é executado por uma chave de luminância em um recurso "Picture-in-Picture", é descrito a seguir como uma segunda modali- dade da presente invenção.
A presente modalidade descreve um meio de gravação, um mé- todo de multiplexação, um dispositivo de multiplexação, e um dispositivo de reprodução que pode eliminar, ao ligar um recurso "Picture-in-Picture" de um meio de pacote, como, por exemplo, um disco BD-ROM1 um retardo na ope- ração de reprodução provocado ao se comutar o limite de nível de luminân- cia, o que é feito ao se determinar se executa ou não o processo de transpa- rência.
No meio de gravação da presente modalidade, as informações a seguir são incluídas nas informações de gerenciamento para um fluxo sub- metido a um processo de transparência por parte de uma chave de luminân- cia: informações que indicam se o limite de nível de luminância utilizado para julgar se executa ou não um processo de transparência no momento da i- magem de uma imagem é restrito em uma unidade de reprodução contínua, ou informações que indicam se um processo de transparência é restrito.
O meio de gravação, o método de multiplexação, o dispositivo de multiplexação, e o dispositivo de reprodução da presente modalidade têm basicamente uma estrutura de dados similar a do meio de gravação da pri- meira modalidade, e elementos e operações estruturais similares as do mé- todo de multiplexação, do dispositivo de multiplexação, e do dispositivo de reprodução da primeira modalidade. Por conseguinte, a descrição a seguir terá como foco somente os recursos característicos da segunda modalidade.
A figura 44 mostra um exemplo de limite de chave de luminância em um fluxo gravado no meio de gravação da presente modalidade. No e- xemplo da figura 44, o limite de chave de luminância é fixado em 20 em to- das as seções que são conectadas perfeitamente integradas. Como resulta- do, um retardo causado ao se comutar o limite de chave de luminância é suprimido, com isto sendo possível fazer uma conexão perfeitamente inte- grada.
Ainda, as informações com relação à chave de luminância na seção de reprodução conectada perfeitamente integrada são incluídas nas informações de gerenciamento do meio de gravação da presente modalida- de. A figura 45 mostra um exemplo de armazenamento das informações re- lativas à chave de luminância como parte das metas de informações de um recurso "Picture-in-Picture". A figura 45(a) mostra as informações de sinali- zação luma_key_válida que indicam se a chave de luminância é válida ou não. Quando a chave de luminância é válida (luma_key_válida = 1), a ima- gem é processada em transparência e exibida com base no limite da chave de luminância. Quando a chave de luminância não é válida (lumakeyválida = 0), a imagem é exibida sem um processo de transparência. Conforme mostrado na figura 45(a), o valor de luma_key_válida é fixado em todas as seções de reprodução que são conectadas perfeitamente integradas. Ou seja, a condição se a chave de luminância é válida ou não é fixa em todas as seções de reprodução que são conectadas perfeitamente integradas. A figu- ra 45(b) mostra um limite de nível de luminância luma_key_upper_limit que é usado para determinar se exibe ou não um pixel transparente ao aplicar uma chave de luminância. Por exemplo, quando luma_key_upper_limit é 20, um pixel cujo nível de luminância é igual a ou menor que 20 é exibido transpa- rente, enquanto que um pixel cujo nível de luminância excede 20 é exibido não transparente. Conforme mostrado na figura 45(b), o valor de Iu- ma_key_upper_limit é fixado em todas as seções de reprodução que são conectadas perfeitamente integradas. Neste caso, uma vez que Iu- makeyupperlimit faz referência a um caso no qual a chave de luminância é válida, as informações mostrando o limite de chave de luminância poderão ser providas somente no caso em que a chave de luminância for válida.
Quando se garante que o limite de chave de luminância é fixado, um tocador para executar um processo de transparência por chave de lumi- nância não precisará mudar o limite no processamento de limite de chave de luminância. Sendo assim, é desejável poder julgar de antemão se o limite de chave de luminância é fixado ou não. A figura 46 vem a ser um diagrama para explicar uma sinalização usada para garantir se o limite de chave de luminância é fixado. No exemplo da figura 46, as informações de sinalização luma_key_fixed_flag, que indicam se o limite de chave de luminância é fixa- do ou não, ficam armazenadas como parte das informações de atributo de cada seção de reprodução. Luma_key_fixed_flag indica se o limite de chave de luminância na seção de reprodução é igual ou não ao da seção de repro- dução imediatamente anterior. A figura 46(a) mostra um exemplo de indica- ção se o limite de chave de luminância é fixado (luma_key_fixed_flag = 1). Neste exemplo, as seções de reprodução são conectadas perfeitamente in- tegradas, e é certo que o limite de chave de luminância é fixado nestas se- ções de reprodução. A figura 46(b) mostra um exemplo no qual não se ga- rante se o limite de chave de luminância é fixado (luma key fixed flag = 0). Neste exemplo, as seções de reprodução não são submetidas a uma cone- xão perfeitamente integrada, e o limite de chave de luminância é variável nestas seções de reprodução. Observa-se que luma_key_fixed_flag pode ser definido para toda uma seção de reprodução contínua, ou para cada se- ção de reprodução que constitui a seção de reprodução contínua. No caso de se definir luma_key_fixed_flag para cada seção de reprodução, uma vez que cada seção de reprodução é especificada por um item de reprodução, as informações que indicam se o limite de chave de luminância é fixado ou não em uma seção de reprodução poderão ser incluídas nas informações de reprodução providas para cada item de reprodução. Por exemplo, as infor- mações, que mostram se a seção de reprodução especificada por um item de reprodução corrente e a seção de reprodução especificada por um item de reprodução imediatamente anterior podem ser conectadas perfeitamente integradas, podem ser também usadas como as informações que indicam se o limite de chave de luminância é fixado ou não. Desta maneira, as duas in- formações podem ser mostradas por meio de uma sinalização. Ainda, as informações que indicam se a chave de luminância deve ser aplicada ou não podem ser armazenadas da mesma maneira.
A segunda modalidade tem os mesmos tipos de conexão perfei- tamente integrada como na primeira modalidade. Por exemplo, um multiân- gulo perfeitamente integrado no qual os fluxos de diferentes ângulos podem ser conectados perfeitamente integrados vem a ser um tipo de conexão per- feitamente integrada. Em um multiângulo perfeitamente integrado, cada ân- guio apresenta a mesma condição se a chave de luminância é válida ou um mesmo limite de chave de luminância. Existem ainda múltiplos tipos de co- nexão perfeitamente integrada, como, por exemplo, (1) um caso no qual o valor do relógio de referência, tal como o relógio de tempo de sistema (STC) do padrão MPEG-2 de sistema, não é contínuo antes e após a conexão (a conexão perfeitamente integrada do tipo 1), e (2) um caso no qual o valor do relógio de referência, tal como o relógio de tempo de sistema (STC) do pa- drão MPEG-2 de sistema é contínuo antes e após a conexão (a conexão perfeitamente integrada do tipo 2). Sendo assim, quando a conexão perfei- tamente integrada é indicada por qualquer uma dentre as informações que mostram se duas seções de reprodução correspondem à conexão perfeita- mente integrada do tipo 1 e as informações que mostram se duas seções de reprodução correspondem à conexão perfeitamente integrada do tipo 2, en- tão tais informações podem ser usadas para mostrar se o limite de chave de luminância é fixado nas duas seções de reprodução contínuas.
A figura 47 mostra um exemplo de aplicação de uma chave de luminância em um recurso "Picture-in-Picture". Na recepção "Picture-in- Picturé", o sub-vídeo chamado vídeo secundário é exibido em sobreposição ao vídeo principal chamado vídeo primário. Neste caso, quando um proces- so de transparência por chave de luminância é válido para o vídeo secundá- rio, um processo de transparência é realizado. Por outro lado, quando um processo de transparência por chave de luminância não é válido para o ví- deo secundário, o processo de transparência não é realizado. A figura 47(a) mostra planos da imagem de vídeo. O plano 1 é um plano de imagem para o vídeo primário e o plano 2 é um plano de imagem para o vídeo secundário, conforme mostrado nas figuras 47(b) e 47(c). Conforme mostrado na figura 47(d), o vídeo secundário é exibido em sobreposição sobre o vídeo primário. Neste exemplo, a área sombreada em diagonal da figura 47(c) é exibida transparente como resultado de um processo de transparência por chave de luminância. O vídeo secundário pode ser comutado entre uma pluralidade de fluxos. As figuras 47(e), 47(f), e 47(g) mostram um exemplo no qual existem dois fluxos de vídeo secundário. Em detalhe, a figura 47(e) mostra uma linha de tempo de vídeo em cada seção de reprodução de um fluxo de vídeo pri- mário. A figura 47(f) mostra uma linha de tempo de vídeo em cada seção de reprodução de um primeiro fluxo de vídeo secundário. A figura 47(g) mostra a linha de tempo de vídeo em cada seção de reprodução de um segundo fluxo de vídeo secundário. Por exemplo, suponha-se que as seções 1-1 e 1- 2 da figura 47(f) sejam conectadas perfeitamente integradas (o 1 circulado da figura 47). Quando este é o caso, as seções 1-1 e 1-2 apresentam a mesma condição se um processo de transparência por chave de luminância é válido ou não, e caso o processo de transparência seja válido, o mesmo limite de chave de luminância. Ainda, suponha-se que a seção 1-2 do primei- ro fluxo de vídeo secundário seja conectada perfeitamente integrada à seção 2-3 do segundo fluxo de vídeo secundário (o 2 circulado da figura 47). Neste caso, as seções 1-2 e 2-3 têm as mesmas informações relativas à chave de luminância. Além disso, as seções 1-3 e 2-3 podem ter as mesmas informa- ções relacionadas à chave de luminância, a fim de garantir uma continuidade de conexão diferente das partes conectadas das seções de reprodução (o 3 circulado da figura 47).
O vídeo primário e o vídeo secundário são multiplexados em um fluxo de transporte ou similar e gravados. A figura 48 mostra um método de multiplexação do vídeo primário e do vídeo secundário. A figura 48(a) mostra um exemplo de multiplexação do vídeo primário e do vídeo secundário em um mesmo fluxo de transporte. A figura 48(b) mostra um exemplo de multi- plexação do vídeo primário e do vídeo secundário em fluxos de transporte separados. Sendo assim, o vídeo primário e o vídeo secundário podem ser multiplexados em um mesmo fluxo de transporte ou em fluxos de transporte separados.
A figura 49 é um fluxograma mostrando a operação do método de multiplexação para a geração de dados multiplexados gravados no meio de gravação da presente modalidade. O método de multiplexação da pre- sente modalidade difere do método de multiplexação convencional no senti- do de que inclui: uma etapa de determinação de uma unidade pela qual a condição se a chave de luminância válida é comutável ou não (Etapa S5301); uma etapa de codificação de uma imagem em movimento de um clipe com base em uma determinada unidade (Etapa S5302); uma etapa de geração de informações de sinalização relativas a uma chave de luminância para cada seção de reprodução predeterminada (Etapa S5304); e uma etapa de geração de informações de gerenciamento que incluem as informações de sinalização relativas a uma chave de luminância gerada na Etapa S5304 (Etapa S5305).
Isto quer dizer que o método de multiplexação da presente mo- dalidade vem a ser um método de codificação de imagem em movimento para codificar um fluxo de vídeo que inclui uma primeira imagem em movi- mento e uma segunda imagem em movimento a ser sobreposta em cima da primeira imagem em movimento, e inclui: uma etapa de determinação, no fluxo de vídeo, de uma seção de reprodução contínua que vem a ser um grupo de seções parciais e que é submetida a uma reprodução contínua, e de codificação do fluxo de vídeo em cada seção de reprodução de modo que o atributo de chave de luminância seja fixo na seção de reprodução contí- nua, o atributo de chave de luminância sendo definido por pelo menos uma dentre a condição se a chave de luminância é válida e se é usado um limite para o processo de transparência por chave de luminância (Etapas S5301 a S5303); uma etapa de geração de atributo de chave de luminância para ca- indo informações de sinalização que indicam se o atributo de chave de lumi- nância é fixado na seção de reprodução contínua (Etapa S5305). A seguir estas etapas são descritas em detalhe.
Primeiramente, na Etapa S5301, é determinada a unidade pela qual a condição se a chave de luminância é válida ou não (condição de vali- dade de chave de luminância) é comutável. Ou seja, um dentre uma unidade de reprodução contínua, um clipe, ou uma unidade de acesso aleatório é determinado como a unidade pela qual a condição de validade de chave de luminância é comutável. Em seguida, na Etapa S5302, os dados de um clipe são codificados com base na unidade comutável de condição de validade de chave de luminância determinada na Etapa S5301. Observa-se que o julga- mento quanto a se o limite de chave de luminância é comutável ou não pode ser feito também na Etapa S5301, de modo que a codificação de um clipe na Etapa S5302 seja feita com base no resultado do julgamento. Na Etapa S5303, é feito um julgamento quanto a se a codificação de um último clipe finalizou. Quando a codificação do último clipe finaliza, a operação prosse- gue para a Etapa S5304. Quando a codificação do último clipe não finalizou, a operação volta para a Etapa S5302 a fim de repetir a codificação do clipe. Na Etapa S5304, as informações de atributo relativas a uma chave de Iumi- nância são geradas para cada seção de reprodução predeterminada, e a operação prossegue para a Etapa S5305. A seção de reprodução predeter- minada aqui mencionada vem a ser a seção de reprodução designada pela lista de reprodução da presente modalidade, embora a seção de reprodução predeterminada possa ser também um clipe ou uma unidade de acesso a- leatório. Na Etapa S5305, são geradas informações de gerenciamento inclu- indo as informações de atributo geradas na Etapa S5304, e as informações de gerenciamento e os dados de clipe são multiplexados e exibidos. Neste caso, as informações que indicam se duas seções de reprodução contínuas podem ser conectadas perfeitamente integradas podem ser incluídas nas informações de gerenciamento. Uma vez que a condição de validade de chave de luminância é fixa nas seções de reprodução que são conectadas perfeitamente integradas, na Etapa S5301 a condição de validade de chave de luminância é determinada como não comutável nas seções de reprodu- ção conectadas perfeitamente integradas. Ainda, na Etapa S5302, quando a chave de luminância é válida nas seções de reprodução conectadas perfei- tamente integradas, a codificação é feita de modo que o limite usado ao rea- lizar um processo de transparência por chave de luminância seja igual em cada uma destas seções de reprodução conectadas perfeitamente integra- das. Observa-se que uma operação detalhada de determinação de uma uni- dade pela qual a condição de validade de chave de luminância é comutável na Etapa S5301 pode ser realizada pela mesma operação que o método de multiplexação da primeira modalidade mostrada na figura 14.
A figura 50 é um fluxograma mostrando um exemplo específico da etapa de geração de informações de sinalização (Etapa S5304) e da eta- pa de geração de informações de gerenciamento (Etapa S5305) mostrada na figura 49. Na Etapa S5304a, é feito um julgamento quanto a se um clipe codificado é um clipe cuja condição de validade de chave de luminância é comutável. Quando o clipe codificado é julgado como comutável, informa- ções de sinalização que indicam se a condição de validade de chave de lu- minância não é fixa são geradas e armazenadas na área de trabalho de uma memória em correspondência ao clipe (Etapa S5304b). Quando o clipe codi- ficado é julgado como não comutável, informações de sinalização que indi- cam se a condição de validade de chave de luminância é fixa são geradas e armazenadas na área de trabalho de uma memória em correspondência ao clipe (Etapa S5304c). Neste caso, as informações de sinalização incluem, para cada seção de reprodução predeterminada, tal como a seção de repro- dução especificada por um item de reprodução, informações que mostram se a chave de luminância é válida ou não, quando a chave de luminância é válida, e o limite da chave de luminância. Na Etapa S5304d, é feito um jul- gamento quanto a se o clipe codificado é o último clipe. Quando o clipe codi- ficado não é o último clipe, as Etapas S5304a a S5304c são repetidas.
Quando o clipe codificado é o último clipe, a operação prossegue para a E- tapa S5304e. Na Etapa S5304e, são geradas metas de informações do re- curso "Picture-in-Picture", incluindo informações relativas à chave de Iumi- nância para cada item de reprodução. Na Etapa S5305f, são geradas infor- mações de gerenciamento incluindo as metas de informações do recurso "Picture-in-Picture", a lista de reprodução, as informações necessárias para um acesso aleatório, e similar. São incluídas na lista de reprodução informa- ções que indicam se duas seções de reprodução contínuas podem ser co- nectadas perfeitamente integradas e informações que mostram o tipo de co- nexão perfeitamente integrada.
Deve-se notar que, uma vez que informações que identificam um fluxo de transporte ou um fluxo codificado de vídeo secundário são incluídas nas informações de gerenciamento, informações relativas à chave de Iumi- nância podem ser incluídas nas informações de gerenciamento somente pa- ra tal fluxo de transporte ou fluxo codificado identificado como um vídeo se- cundário pelo número de índice.
Esta modalidade descreve um processo de transparência por chave de luminância para o vídeo secundário em uma operação de recurso "Picture-in-Picture", porém a presente invenção não se limita a este aspecto. A presente invenção é aplicável a qualquer caso da imagem, quando existe uma pluralidade de planos de imagem, uma imagem sobre um plano que é colocada na frente de um outro plano. Um exemplo é exibir em sobreposição uma imagem estática ou uma imagem em movimento sobre uma imagem estática, gráficos de computador, e similar. Ainda, um processo de transpa- rência por chave de luminância pode ser aplicado a uma pluralidade de ima- gens que são exibidas em diferentes planos de imagem.
Além disso, uma taxa de transparência diferente de 0 ou 1, por exemplo, uma meia-transparência, pode ser usada de acordo com o limite de chave de luminância ou similar.
Em um recurso "Picture-in-Picture", uma restrição pode ser im- posta sobre uma operação de reprodução diferente do processo de transpa- rência por chave de luminância. Por exemplo, uma condição se exibir ou não um vídeo secundário pode ser fixada ao realizar uma reprodução especial, como, por exemplo, uma reprodução em alta velocidade ou uma reprodução inversa, através de seções de reprodução conectadas perfeitamente inte- gradas. Em detalhe, no caso da reprodução especial, a condição da imagem é fixada a um dentre sempre exibir um vídeo secundário ou não exibir um vídeo secundário. Ao se exibir um vídeo secundário no momento de uma reprodução especial, a reprodução especial poderá ser associada a um pro- cesso de transparência por chave de luminância, por exemplo, ao fixar o Ii- mite de chave de luminância. Quando isto acontece, a restrição do recurso "Picture-in-Picture" no momento da reprodução especial pode ser garantida ao se fixar um valor de informação de sinalização indicando se exibe o vídeo secundário em uma reprodução especial, ou ao se usar uma informação de sinalização mostrando que o valor das informações de sinalização acima, isto é, as informações de sinalização que indicam se exibe ou não o vídeo secundário em uma reprodução especial, é fixado.
Observa-se que o vídeo primário e o vídeo secundário podem ser codificados de acordo com, por exemplo, uma codificação AVC de pa- drão MPEG-4, um vídeo de padrão MPEG-2, ou uma codificação VC-1. De modo a reduzir as combinações de métodos de codificação necessários a um tocador, pode-se restringir a combinação de métodos de codificação de vídeo primário e de vídeo secundário de tal maneira que, quando o método de codificação do vídeo primário é uma codificação AVC de padrão MPEG-4, o vídeo secundário seja codificado por uma codificação AVC de padrão MPEG-4, também.
A figura 51 é um diagrama em blocos mostrando a estrutura de um dispositivo de multiplexação 5200 de modo a executar o método de mul- tiplexação da presente modalidade. O dispositivo de multiplexação 5200 vem a ser um exemplo de um dispositivo de codificação de imagem em movimen- to para codificar um fluxo de vídeo que inclui uma primeira imagem em mo- vimento e uma segunda imagem em movimento a ser sobreposta em cima da primeira imagem em movimento. O dispositivo de multiplexação 5200 inclui uma unidade de determinação de unidade comutável 5201, uma uni- dade de geração de informação de comutação 5202, uma unidade de codifi- cação 5203, uma unidade de multiplexação de sistema 5204, uma unidade de geração de informação de gerenciamento 5205, e uma unidade de com- binação 5206. Neste caso, apenas uma área da imagem, da segunda ima- gem em movimento, cujo nível de luminância excede um limite predetermi- nado, é sobreposta em cima da primeira imagem em movimento. A seguir é descrita a operação de cada destas unidades estruturais.
A unidade de determinação de unidade comutável 5201 deter- mina, no fluxo de vídeo, uma seção de reprodução contínua que vem a ser um grupo de seções parciais que é submetido a uma reprodução contínua. Neste caso, a unidade de determinação de unidade comutável 5201 deter- mina uma unidade pela qual o limite de chave de luminância é comutável, e entra a unidade determinada na unidade de geração de informação de co- mutação 5202 e na unidade de codificação 5203 como a unidade comutável Unit2. Embora se assuma aqui que a unidade comutável foi definida de an- temão, a unidade comutável pode também ser definida a partir de fora.
A unidade de geração de informação de comutação 5202 gera, com base na unidade comutável Unit2, as informações de chave de Iumi- nância Lumalnf2 que mostram as informações de atributo de uma chave de luminância para cada unidade de reprodução especificada por uma lista de reprodução, e entram as informações de chave de luminância Lumalnf2 para a unidade de geração de informação de gerenciamento 5205. Por exemplo, a unidade de geração de informação de comutação 5202 gera informações de sinalização que indicam se o limite de chave de luminância é fixado em uma seção de reprodução contínua.
A unidade de geração de informação de comutação 5202 gera uma pluralidade de conjuntos de informação de atributo de vídeo de modo a especificar vários processos de imagem em sobreposição. Esta geração de pluralidade de conjuntos de informação de atributo de vídeo é feita de modo que o número de conjuntos de informação de atributo de vídeo, cujos conte- údos são comutados em uma pluralidade de seções parciais que constituem uma seção de reprodução contínua, fique limitado a não mais que um núme- ro predeterminado. Em detalhe, conforme mostrado na figura 52, a unidade de geração de informação de comutação 5202 gera uma pluralidade de con- juntos de informação de atributo de vídeo incluindo os seguintes itens (i), (ii), e (iii), como metas de informações do recurso "Picture-in-Picture". (i) Infor- mações de sinalização que mostram se o limite acima, ou seja, o limite de nível de luminância para a determinação da taxa de transparência em 1 ao se aplicar a chave de luminância, é igual (1) ou diferente (0) entre uma se- ção de reprodução corrente ou uma seção de reprodução imediatamente anterior, ou informações que mostram o limite de chave de luminância. (ii) Informações de sinalização que mostram se uma posição da imagem de uma imagem de vídeo secundário a ser sobreposta em cima da imagem de um vídeo primário é igual (1) ou diferente (0) entre a seção de reprodução corrente ou a seção de reprodução imediatamente anterior, ou as informa- ções de coordenada da posição da imagem, (iii) Informações de sinalização que mostram se um fator de escala (uma escala de ampliação) da imagem de vídeo secundário a ser sobreposta em cima da imagem do vídeo primário é igual (1) ou diferente (0) entre a seção de reprodução corrente ou a seção de reprodução imediatamente anterior, ou as informações que designam um método de escala. Em uma geração destes conjuntos de informação de atri- buto de vídeo, o número de conjuntos de informação de atributo de vídeo, cujos conteúdos podem ser comutados na seção de reprodução contínua, é limitado a não mais que um número predeterminado (por exemplo, 2). Ao se impor esta restrição, garante-se que o número de conjuntos de informação de atributo de vídeo, que muda de valor na seção de reprodução contínua, não exceda o número predeterminado. Isto diminui a carga de processamen- to de um processo de comutação de um dispositivo de reprodução.
A unidade de codificação 5203 codifica a primeira e a segunda imagens em movimento da pluralidade de seções parciais que constituem a seção de reprodução contínua determinada pela unidade de determinação de unidade comutável 5201, de modo a atender à restrição que impede que o limite seja alterado na seção de reprodução contínua. Neste caso, a uni- dade de codificação 5203 codifica os dados de cada clipe de modo a atender à restrição da unidade comutável Unit2, e entra os dados codificados Cdata2 para a unidade de multiplexação de sistema 5204. Em maior detalhe, na se- ção de reprodução contínua, a unidade de codificação 5203 ajusta (através de uma multiplicação por um coeficiente, uma adição de valor de desloca- mento, etc.) os níveis de luminância dos pixels que constituem a segunda imagem em movimento de modo que o nível de luminância de cada pixel de uma área de imagem a ser sobreposta exceda o limite e o nível de luminân- cia de cada pixel de uma área de imagem a não ser sobreposta (isto é, deva ser processada em transparência) não exceda o limite.
Observa-se que, não apenas para a seção de reprodução contí- nua determinada por uma unidade de determinação de unidade comutável 5201, mas também para uma pluralidade de seções parciais que devem ser conectadas perfeitamente integradas de acordo com um modelo de decodifi- cador, a unidade de codificação 5203 poderá codificar a primeira e a segun- da imagens em movimento da pluralidade de seções parciais de modo a a- tender à restrição que impede a alteração do limite. O modelo de decodifica- dor acima mencionado define o caso no qual duas seções parciais precisam ser conectadas perfeitamente integradas. Para estas duas seções parciais, é preferível, antes, codificar a primeira e a segunda imagens em movimento sob a restrição que impede a alteração do limite.
A unidade de multiplexação de sistema 5204 multiplexa o siste- ma dos dados codificados Cdata2, e entra informações de fluxo Strlnf2 para a unidade de geração de informação de gerenciamento 5205 e os dados multiplexados Mdata2 para a unidade de combinação 5206. Nos discos BD- ROM1 é empregado um método de multiplexação de sistema chamado paco- te de origem, no qual um cabeçalho de 4 bytes é adicionado a um fluxo de transporte de padrão MPEG-2. Ainda, as informações de fluxo Strlnf2 inclu- em informações para a geração de informações de gerenciamento para os dados multiplexados Mdata2, como, por exemplo, um mapa de tempo. Neste caso, a unidade de multiplexação de sistema 5204 pode realizar uma multi- plexação de tal modo que a pluralidade de seções parciais que constituem a seção de reprodução contínua seja especificada pelo identificador de pacote de um fluxo de transporte. Isto permite que os clipes, nos quais o limite é fixado, sejam identificados por um identificador de pacote.
A unidade de geração de informação de gerenciamento 5205 ge- ra informações de gerenciamento incluindo a informação de atributo de ví- deo acima e as informações de sinalização que indicam se o limite é fixado na seção de reprodução contínua, de acordo com uma instrução de uma unidade de geração de informação de comutação 5202. Neste caso, a uni- dade de geração de informação de gerenciamento 5205 gera as informações de gerenciamento Ctrllnf2 que incluem as informações de chave de luminân- cia Lumalnf2, o mapa de tempo gerado com base nas informações de fluxo Strlnf2, e similar, e entra as informações de gerenciamento Ctrllnf2 para a unidade de combinação 5206.
A unidade de combinação 5206 combina a primeira e a segunda imagens em movimento codificadas pela unidade de codificação 5203 com as informações de gerenciamento geradas pela unidade de geração de in- formação de gerenciamento 5205, e exibe a combinação. Neste caso, a uni- dade de combinação 5206 combina as informações de gerenciamento Ctr- IInf2 com os dados multiplexados Mdata2 e exibe a combinação como os dados de gravação Dout2.
O dispositivo de multiplexação 5200 tendo estrutura acima exe- cuta uma operação de multiplexação de acordo com os fluxogramas mostra- dos nas figuras 49 e 50, e, como resultado, gera as informações de gerenci- amento e o fluxo codificado conforme mostrado nas figuras 44 a 48.
A figura 53 mostra uma estrutura de dados de informação de ge- renciamento gerada por meio do presente dispositivo de multiplexação 5200.
A figura 53(a) mostra os elementos de dados de uma lista de reprodução que faz parte das informações de gerenciamento. A figura 53(b) mostra um exemplo de lista de reprodução mostrando as seções de reprodução que são conectadas perfeitamente integradas (Connection condition = 5). Con- forme mostrado na figura 53(a), o dispositivo de multiplexação 5200 gera, como uma lista de reprodução, o "item de reprodução", o "subitem de repro- dução", e as "metas de informações do recurso "Picture-in-Picture"". Con- forme mostrado na figura 53(b), o "item de reprodução" mostra as informa- ções sobre cada seção de reprodução do vídeo primário (tal como, a hora de inicialização de reprodução e a hora de finalização de reprodução de um clipe), a condição de conexão entre as seções de reprodução do vídeo pri- mário, e similar. O "Subitem de reprodução" mostra as informações sobre cada seção de reprodução do vídeo secundário (tal como, a hora de iniciali- zação de reprodução e a hora de finalização de reprodução de um clipe), a condição de conexão entre as seções de reprodução do vídeo secundário, e similar. As "metas de informações do recurso "Picture-in-Picture"" mostra a informação de atributo de vídeo (por exemplo, a chave de luminância, a po- sição da imagem, e um fator de escala) do vídeo secundário ao ligar o recur- so "Picture-in-Picture". Observa-se que o clipe do vídeo primário correspon- dente ao item de reprodução e ao subitem de reprodução é identificado por um número de índice do item de reprodução.
Sendo assim, o dispositivo de multiplexação 5200 gera informa- ções de sinalização que indicam se o limite é fixado, as informações de re- produção ("meta de informação" da figura 53) correspondentes à cada uma dentre uma pluralidade de seções parciais (a "seção de reprodução" da figu- ra 53) que constituem uma seção de reprodução contínua. Em detalhe, o dispositivo de multiplexação 5200 gera as informações de sinalização como informações de reprodução ("meta de informação" da figura 53) correspon- dentes à cada item de reprodução incluído na lista de reprodução.
Ao gerar os dados por meio do uso de uma ferramenta autoral ou similar, ocorre no caso no qual a geração de dados codificados e a multi- plexação de sistema ou a geração de informações de gerenciamento são feitas por dispositivos separados. Neste caso, o método de multiplexação acima poderá ser obtido por meio destes dispositivos separados que operam da mesma maneira que as unidades estruturais do dispositivo de multiplexa- ção 5200.
O dispositivo de multiplexação 5200 pode ser usado não somen- te como um dispositivo de codificação de imagem em movimento para a ge- ração de um fluxo codificado, mas também como um dispositivo de gravação de imagem em movimento para a gravação do fluxo codificado em um meio de gravação que inclui um disco óptico, como, por exemplo, um disco BD, uma memória flash, como, por exemplo, um cartão digital seguro (SD), um disco rígido, e similar. Isto pode ser obtido ao se prover uma unidade de combinação 5206, que vem a ser o estágio de saída do dispositivo de multi- plexação 5200, com uma função de gravação da combinação da primeira e segunda imagens em movimento codificadas pela unidade de codificação 5203 com as informações de gerenciamento geradas pela unidade de gera- ção de informação de gerenciamento 5205, e de gravação da combinação no meio de gravação. O meio de gravação apresentado neste relatório des- critivo pode ser produzido por tal dispositivo de gravação de imagem em movimento (ou método de gravação de imagem em movimento).
A figura 54 é um fluxograma mostrando a operação de execução de um processo de transparência por chave de luminância quando uma se- ção de reprodução se finaliza e outra se inicia em um tocador (o dispositivo de reprodução de imagem em movimento) para a exibição dos dados multi- plexados gravados no meio de gravação da presente modalidade.
Primeiramente, na Etapa S5401, o tocador julga se a seção de reprodução corrente especificada por um item de reprodução está conectada perfeitamente integrada ou não a uma seção de reprodução seguinte. Quan- do a seção de reprodução corrente é julgada como conectada perfeitamente integrada, o tocador continua na etapa S5405. Quando a seção de reprodu- ção corrente é julgada não conectada perfeitamente integrada, o tocador prossegue para a etapa S5402. Como um exemplo específico deste julga- mento, o tocador obtém as informações de gerenciamento correspondentes a um fluxo de vídeo, e julga se as informações de sinalização das informa- ções de gerenciamento obtidas indicam se o limite é fixado ou não (Etapa S5401). Quando as informações de sinalização das informações de gerenci- amento indicam que o limite é fixado, o tocador julga se a seção de reprodu- ção corrente e a seção de reprodução seguinte estão conectadas perfeita- mente integradas (Etapa S5401: sim). Quando as informações de sinaliza- ção das informações de gerenciamento indicam que o limite não é fixado, o tocador julga se a seção de reprodução corrente e a seção de reprodução não estão conectadas perfeitamente integradas (Etapa S5401: não).
Na Etapa S5402, o tocador julga se a chave de luminância é vá- lida ou não na seção de reprodução seguinte. Quando a chave de luminân- cia é julgada como válida, o tocador prossegue para a etapa S5403. Quando a chave de luminância é julgada como não válida, o tocador continua na eta- pa S5406. Na Etapa S5403, o tocador obtém o limite de chave de luminân- cia. Na Etapa S5404, o tocador executa um processo de transparência no vídeo secundário da seção de reprodução seguinte, com base no limite de chave de luminância obtido na Etapa S5403.
Na Etapa S5405, o tocador executa um processo de transparên- cia no vídeo secundário da seção de reprodução seguinte, de acordo com a mesma condição da seção de reprodução corrente (isto é, com base na mesma chave de luminância limite da seção de reprodução corrente). Em detalhe, o tocador executa um processo de produção, no vídeo secundário, de um pixel cujo nível de luminância é igual ou menor que o limite da chave de luminância, completamente transparente. Neste caso, quando a chave de luminância não é válida na seção de reprodução corrente, o tocador não e- xecuta o processo de transparência no vídeo secundário da seção de repro- dução seguinte.
Na Etapa S5406, o tocador exibe em sobreposição, no vídeo primário, o resultado da produção da Etapa S5404 ou da Etapa S5405, ou o resultado da decodificação do vídeo secundário sobre o qual um processo de transparência não foi realizado no caso em que a chave de luminância é julgada como não válida na Etapa S5402.
Deve-se notar que a operação mostrada na figura 54 pode ser realizada pelo tocador no sentido de reproduzir o disco BD conforme mos- trado nas figuras 20 e 21, na primeira modalidade. Por exemplo, um proces- so de transparência por chave de luminância é executado pela unidade de processamento de apresentação 208 mostrada na figura 20.
Além disso, o tocador pode determinar a ordem de reprodução dos itens de reprodução de acordo com um procedimento de reprodução predeterminado. Como um exemplo, na reprodução contínua de uma plurali- dade de itens de reprodução, o tocador prioriza os itens de reprodução que têm o mesmo limite de chave de luminância. No caso em que o usuário pede para reproduzir um item de reprodução específico por meio da operação de um controle remoto ou similar, o tocador poderá reproduzir continuamente os itens de reprodução que têm limites diferentes de chave de luminância. Ain- da, no método de multiplexação e no dispositivo de multiplexação da presen- te modalidade, o limite de chave de luminância pode ser fixo nos itens de reprodução que são continuamente exibidos de acordo com um predetermi- nado procedimento de reprodução. Neste caso, um item de reprodução cor- responde a uma unidade de reprodução. Terceira Modalidade
Ao gravar um programa, para executar um meio de gravação, o método de reprodução, e o método de gravação descritos em cada uma das modalidades acima a respeito de um meio de gravação, tal como um disco flexível, e o processamento mostrado em cada uma das modalidades acima podem ser facilmente implementados em um sistema de computador inde- pendente.
As figuras 55A a 55C mostram uma situação na qual o método de reprodução e o método de gravação de cada uma das modalidades aci- ma são realizados em um sistema de computador por meio do uso de um programa gravado em um meio de gravação, tal com um disco flexível.
A figura 55B mostra a aparência de um disco flexível conforme visto a partir de uma seção transversal frontal de um disco flexível, e o pró- prio disco flexível. A figura 55A mostra um formato físico exemplar de um disco flexível que vem a ser um corpo de meio de gravação. O disco flexível FD é alojado em uma caixa F. Uma pluralidade de trilhas Tr é formada sobre a superfície de um disco flexível FD concentricamente na direção do seu raio externo para o raio interno. Cada trilha é dividida em 16 setores Se em uma direção angular. No armazenamento de um programa em um disco flexível, o programa fica situado em uma área alocada no disco flexível FD.
A figura 55C mostra uma estrutura para gravar/reproduzir um programa em um disco flexível FD. Para gravar um programa de modo a executar um método de reprodução e um método de gravação em um disco flexível FD, o programa é gravado a partir de um sistema de computador CS no disco flexível FD através de uma unidade de disco flexível FDD. Para im- plementar o método de gravação e o método de reprodução no sistema de computador CS através do uso do programa armazenado no disco flexível FD, o programa é lido a partir do disco flexível FD através da unidade de disco flexível FDD e transferido para o sistema de computador CS.
Embora o disco flexível seja descrito aqui como um exemplo de meio de gravação, um disco óptico é igualmente aplicável. Ainda, outros meios de gravação capazes de gravar um programa, tal como um cartão IC ou um cassete de memória ROM, são igualmente aplicáveis.
Os blocos funcionais mostrados em cada um dos diagramas em bloco, tais como nas figuras 12, 20, 21, 25, e 51, podem ser tipicamente e- xecutados como um LSI que vem a ser um dispositivo de circuito integrado. Este dispositivo LSI pode ser obtido ao se integrar os blocos funcionais em um chip ou em uma pluralidade de chips (por exemplo, outros blocos funcio- nais além de uma memória podem ser implementados em um chip). Embora seja aqui mencionado o dispositivo LSI, o circuito pode ser chamado de IC, de dispositivo LSI de sistema, super dispositivo LSI, ou ultra dispositivo LSI, dependendo do grau de integração. Ainda, a integração não se limita ao dispositivo LSI, e pode ser realizada ao se utilizar um circuito dedicado ou um processador geral. Um arranjo de portas programáveis em campo (FPGA) que pode ser programa- do ou um processador reconfigurável capaz de reconfigurar conexões e con- figurações de células de circuito em um dispositivo LSI podem ser usados após a produção do dispositivo LSI.
Além disso, quando uma técnica de circuito integrado que substi- tui um dispositivo LSI surge a partir do avanço da tecnologia de semicondu- tores ou outra tecnologia derivada, tal técnica poderá ser usada para a inte- gração dos blocos funcionais. Por exemplo, a biotecnologia pode ser adap- tada neste sentido.
Ainda, sobre os blocos funcionais, apenas uma unidade para o armazenamento de dados pode ser implementada como uma estrutura se- parada ao invés de ser incorporada em um chip, como no caso do meio de gravação das modalidades acima.
Embora o método de codificação de imagem em movimento ou similar de acordo com a presente invenção tenha sido descrito por meio das modalidades acima, a presente invenção não se limita a estas modalidades. A presente invenção inclui outras formas que podem ser realizadas ao se aplicar modificações concebíveis por uma pessoa versada na técnica relativa às modalidades acima, outras formas que podem ser realizadas por meio de qualquer combinação dos elementos estruturais das modalidades acima, e similar.
Nos diagramas em bloco, tais como os das figuras 12, 20, 21, 25, e 51 e nos fluxogramas, tais como os das figuras 11, 13 a 17, 40 a 43, 49, 50, e 54, peças principais podem também ser implementadas por um processador ou um programa.
Sendo assim, o método de codificação de imagem em movimen- to ou o método de codificação de imagens em movimento nas modalidades acima pode ser usado em qualquer dispositivo ou sistema descrito acima. Deste modo, os efeitos descritos nas modalidades acima poderão ser obti- dos. APLICABILIDADE INDUSTRIAL
O método de codificação de imagem em movimento de acordo com a presente invenção fixa, nos dados codificados de uma imagem em movimento que constituem a unidade de reprodução contínua mostrada pe- las informações de gerenciamento, um limite de nível de luminância utilizado ao se determinar se exibe um pixel transparente ou não. Como resultado, uma reprodução perfeitamente integrada poderá ser obtida ao suprimir um retardo na decodificação provocado ao se comutar o limite de nível de lumi- nância. Sendo assim, o método de codificação de imagem em movimento de acordo com a presente invenção é adequado para uso em meios de pacote, em aplicativos de distribuição, ou similar para a exibição em sobreposição de uma imagem em movimento sobre uma imagem em movimento, gráficos, uma imagem estática, e similar. Usos exemplares incluem um dispositivo LSI codificador de imagem em movimento, uma câmera de cinema, um gravador de imagem em movimento, uma televisão com função de gravação de ima- gem em movimento, ou um programa de computador.
Listagem de Referência
104, 201 - disco BD
202 - pick-up óptico
203 - memória de armazenamento de programa
204 - memória de armazenamento de informações de gerenciamento
205 - memória de armazenamento AV
206 - unidade de processamento de programa
207 - unidade de processamento de informações de gerenciamento
208 - unidade de processamento de apresentação
209 - plano de imagem
210 - plano de vídeo
211 - unidade de processamento de composição
301 - memória de armazenamento de programa
302 - processador de programa
303 - gerenciador UOP
304 - memória de armazenamento de informações de gerenciamento 305 - processador de cenário
306 - controladora de apresentação
307 - relógio
308 - memória de imagem
309 - armazenador temporário de trilha
310 - demultiplexador
311 - processador de imagem
312 - processador de vídeo
313 - processador de som
314 - plano de imagem
315 - plano de vídeo
316 - unidade de processamento de composição
317 - controladora de unidade
5101 - etapa de inserção de disco
5102 - etapa de leitura de BD.INFO
5103 - etapa de leitura de BD.PROG
5104 - etapa de primeira geração de evento
5105 - etapa de execução de rotina handler de eventos
5201 - etapa de julgamento de recepção UOP
5202 - etapa de geração de evento UOP
5203 - etapa de julgamento de chamada de menu
5204 - etapa de geração de evento
5205 - etapa de execução de rotina handler de eventos
5301 - etapa de início de reprodução de lista de reprodução
5302 - etapa de leitura de informações de reprodução (XXX.PL)
5303 - etapa de leitura de programa de reprodução (XXX.PROG)
5304 - etapa de início de reprodução celular
5305 - etapa de início de reprodução AV
5401 - etapa de início de reprodução AV
5402 - etapa de leitura de informações de objeto VOB (YYY.VOBI)
5403 - etapa de leitura de objeto VOB (YYY.VOB)
5404 - etapa de início de reprodução de objeto VOB S405 - etapa de fim de julgamento de reprodução de objeto VOB
S406 - etapa seguinte de julgamento celular
S501 - etapa de início de reprodução de lista de reprodução
S502 - etapa de julgamento de fim de reprodução de lista de reprodução
S503 - etapa de julgamento de tempo de evento de tempo
S504 - etapa de geração de evento
S505 - etapa de execução de rotina handler de eventos
S601 - etapa de início de reprodução de lista de reprodução
S602 - etapa de julgamento de fim de reprodução de lista de reprodução
S603 - etapa de julgamento de recepção UOP
S604 - etapa de geração de evento UOP
S605 - etapa de julgamento de chamada de menu
S606 - etapa de julgamento de período válido de evento de usuário
S607 - etapa de geração de evento
S608 - etapa de execução de rotina handler de eventos
S701 - etapa de início de reprodução de lista de reprodução
S702 - etapa de julgamento de fim de reprodução de lista de reprodução
S703 - etapa de julgamento de início de arrasto de subtítulo
S704 - etapa de arrasto de subtítulo
S705 - etapa de fim de julgamento de tela de subtítulos
S706 - etapa de exclusão de subtítulo

Claims (6)

1. Método de codificação de imagem em movimento para codifi- car um fluxo de vídeo que inclui uma primeira imagem em movimento e uma segunda imagem em movimento a ser sobreposta na primeira imagem em movimento, a sobreposição sendo realizada por sobreposição de apenas uma área de imagem cujo nível de luminância excede um limite predetermi- nado da segunda imagem em movimento sobre a primeira imagem em mo- vimento, o método de codificação de imagem em movimento que compreen- de as etapas de: determinar uma seção de reprodução contínua que é um grupo de seções parciais e que é submetida a uma reprodução contínua, no fluxo de vídeo; codificar a primeira imagem em movimento e a segunda imagem em movimento nas seções parciais que constituem a seção de reprodução contínua determinada na etapa de determinar, conforme uma restrição que impede que o limite seja alterado na seção de reprodução contínua; gerar informações de gerenciamento incluindo informações de sinalização que indicam que o limite é fixado na seção de reprodução contí- nua; e combinar a primeira imagem em movimento e a segunda ima- gem em movimento codificadas na codificação com as informações de ge- renciamento geradas na geração, e gerando como saída a combinação, em que a etapa de determinar inclui a etapa de determinar um grupo de seções parciais que são submetidas a conexão contínua, como a seção de reprodução contínua.
2. Dispositivo de codificação de imagem em movimento para co- dificar um fluxo de vídeo que inclui uma primeira imagem em movimento e uma segunda imagem em movimento a ser sobreposta na primeira imagem em movimento, a sobreposição sendo realizada por sobreposição de apenas uma área da imagem cujo nível de luminância excede um limite predetermi- nado da segunda imagem em movimento sobre a primeira imagem em mo- vimento, o dispositivo de codificação de imagem em movimento compreen- de: uma unidade de determinação de seção de reprodução contínua configurada para determinar uma seção de reprodução contínua que é um grupo de seções parciais e que é submetido a uma reprodução contínua, no fluxo de vídeo; uma unidade de codificação configurada de modo a codificar a primeira imagem em movimento e a segunda imagem em movimento nas seções parciais que constituem a seção de reprodução contínua determina- da pela unidade de determinação de seção de reprodução contínua, confor- me uma restrição que impede que o limite seja alterado na seção de repro- dução contínua; uma unidade de geração de informação de gerenciamento confi- gurada para gerar informações de gerenciamento incluindo informações de sinalização que indicam que o limite é fixado na seção de reprodução contí- nua; e uma unidade de combinação configurada para combinar a pri- meira imagem em movimento e a segunda imagem em movimento codifica- das pela unidade de codificação, com as informações de gerenciamento ge- radas pela unidade de geração de informações de gerenciamento, e gerando como saída a combinação, em que a unidade de determinação de seção de reprodução contínua é operável para determinar um grupo de seções parciais que são submetidas a conexão contínua, como a seção de reprodução contínua
3. Método de gravação de imagem em movimento para codificar um fluxo de vídeo e gravar o fluxo de vídeo codificado em um meio de gra- vação, o fluxo de vídeo incluindo uma primeira imagem em movimento e uma segunda imagem em movimento a ser sobreposta na primeira imagem em movimento, a sobreposição sendo realizada por sobreposição de apenas uma área da imagem cujo nível de luminância excede um limite predetermi- nado da segunda imagem em movimento sobre a primeira imagem em mo- vimento, o método de gravação de imagem em movimento compreendendo as etapas de: determinar uma seção de reprodução contínua que é um grupo de seções parciais e que é submetido a uma reprodução contínua, no fluxo de vídeo; codificar a primeira imagem em movimento e a segunda imagem em movimento nas seções parciais que constituem a seção de reprodução contínua determinada na etapa de determinar, conforme uma restrição que impede que o limite seja alterado na seção de reprodução contínua; gerar informações de gerenciamento incluindo informações de sinalização que indicam que o limite é fixado na seção de reprodução contí- nua; e combinar a primeira imagem em movimento e a segunda ima- gem em movimento codificadas na etapa de codificar, com as informações de gerenciamento geradas na etapa de gerar, e gravar a combinação no meio de gravação, em que a etapa de determinar inclui a etapa de determinar um grupo de seções parciais que são submetidas a conexão contínua, como a seção de reprodução contínua.
4. Meio de gravação no qual dados legíveis em computador são gravados, os dados legíveis em computador incluindo: um fluxo de vídeo incluindo uma primeira imagem em movimento e uma segunda imagem em movimento a ser sobreposta na primeira ima- gem em movimento, a sobreposição sendo realizada por sobreposição de apenas uma área da imagem cujo nível de luminância excede um limite pre- determinado da segunda imagem em movimento sobre a primeira imagem em movimento; e informações de gerenciamento utilizadas para gerenciar o fluxo de vídeo, em que, conforme uma restrição que impede que o limite seja al- terado em uma seção de reprodução contínua que é um grupo de seções parciais e que é submetido a uma reprodução contínua no fluxo de vídeo, a primeira imagem em movimento e a segunda imagem em movimento nas seções parciais que constituem a seção de reprodução contínua são codifi- cadas, e as informações de gerenciamento incluem informações de sina- lização que indicam que o limite é fixado na seção de reprodução contínua, a seção de reprodução contínua inclui um grupo de seções par- ciais que são submetidas a conexão contínua.
5. Método de reprodução de imagem em movimento para deco- dificar um fluxo de vídeo codificado incluindo uma primeira imagem em mo- vimento e uma segunda imagem em movimento e a exibição em sobreposi- ção da segunda imagem em movimento sobre a primeira imagem em movi- mento, o método de reprodução de imagem em movimento compreende as etapas de: obter informações de gerenciamento correspondentes ao fluxo de vídeo e analisar as informações de gerenciamento obtidas; e decodificar a primeira imagem em movimento e a segunda ima- gem em movimento conforme a análise na etapa de analisar; e exibir em sobreposição somente uma área da imagem cujo nível de luminância excede um limite predeterminado na segunda imagem em movimento decodificada sobre a primeira imagem em movimento decodifi- cada, em que a etapa de analisar inclui julgar se as informações de ge- renciamento incluem ou não informações de sinalização que indicam que o limite é fixado, e a etapa de exibir em sobreposição inclui a etapa de exibir em sobreposição a área de imagem de uma seção parcial corrente ao usar um mesmo limite como uma seção parcial imediatamente precedente, quando o julgamento na análise é que as informações de gerenciamento incluem as informações de sinalização para mostrar sem interrupções a seção parcial imediatamente anterior e a seção parcial corrente.
6. Dispositivo de reprodução de imagem em movimento para de- codificar um fluxo de vídeo codificado incluindo uma primeira imagem em movimento e uma segunda imagem em movimento e a exibição em sobre- posição da segunda imagem em movimento sobre a primeira imagem em movimento, o dispositivo de reprodução de imagem em movimento compre- ende: uma unidade de processamento de informações de gerencia- mento configurada para obter informações de gerenciamento corresponden- tes ao fluxo de vídeo e analisar as informações de gerenciamento obtidas; uma unidade de decodificação configurada para decodificar a primeira imagem em movimento e a segunda imagem em movimento con- forme a análise pela unidade de processamento de informações de gerenci- amento; e uma unidade de exibição configurada para exibir em sobreposi- ção apenas uma área da imagem cujo nível de luminância excede um limite predeterminado na segunda imagem em movimento decodificada sobre a primeira imagem em movimento decodificada, em que a unidade de proces- samento de informações de gerenciamento é configurada para julgar se as informações de gerenciamento incluem ou não informações de sinalização que indicam que o limite é fixado, e a unidade de vídeo é configurada para exibir em sobreposição a área da imagem em uma seção parcial corrente ao usar um mesmo limite como uma seção parcial imediatamente precedente, quando a unidade de processamento de informações de gerenciamento julga que as informações de gerenciamento incluem as informações de sinalização, para mostrar sem interrupções a seção parcial imediatamente anterior e a seção parcial corrente.
BRPI0722391-9A 2006-12-14 2007-12-12 mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento BRPI0722391A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006337426 2006-12-14

Publications (1)

Publication Number Publication Date
BRPI0722391A2 true BRPI0722391A2 (pt) 2012-06-12

Family

ID=39511686

Family Applications (2)

Application Number Title Priority Date Filing Date
BRPI0722391-9A BRPI0722391A2 (pt) 2006-12-14 2007-12-12 mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento
BRPI0719335-1A BRPI0719335A2 (pt) 2006-12-14 2007-12-12 mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento

Family Applications After (1)

Application Number Title Priority Date Filing Date
BRPI0719335-1A BRPI0719335A2 (pt) 2006-12-14 2007-12-12 mÉtodo de codificaÇço de imagem em movimento, dispositivo de codificaÇço de imagem em movimento, mÉtodo de gravaÇço de imagem em movimento, meio de gravaÇço, mÉtodo de reproduÇço de imagem em movimento, dispositivo de reproduÇço de imagem em movimento, e sistema de reproduÇço de imagem em movimento

Country Status (12)

Country Link
US (4) US8023804B2 (pt)
EP (1) EP2079241B1 (pt)
JP (3) JP4718616B2 (pt)
KR (1) KR101362653B1 (pt)
CN (5) CN101848384A (pt)
AR (1) AR064274A1 (pt)
BR (2) BRPI0722391A2 (pt)
CA (1) CA2671557C (pt)
RU (2) RU2475997C2 (pt)
TW (2) TWI446794B (pt)
WO (1) WO2008072669A1 (pt)
ZA (1) ZA200903806B (pt)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
JP5200204B2 (ja) 2006-03-14 2013-06-05 ディブエックス リミテッド ライアビリティー カンパニー 高信頼性システムを含む連合型デジタル権限管理機構
AR064274A1 (es) * 2006-12-14 2009-03-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, dispositivo de codificacion de imagenes en movimiento, metodo de grabacion de imagenes en movimiento, medio de grabacion, metodo de reproduccion de imagenes en movimiento, dispositivo de reproduccion de imagenes en movimiento, y sistema de reproducci
CN101861583B (zh) 2007-11-16 2014-06-04 索尼克Ip股份有限公司 用于多媒体文件的分级及简化索引结构
US8997161B2 (en) * 2008-01-02 2015-03-31 Sonic Ip, Inc. Application enhancement tracks
KR101635876B1 (ko) 2009-01-07 2016-07-04 쏘닉 아이피, 아이엔씨. 온라인 콘텐츠를 위한 미디어 가이드의 단일, 공동 및 자동 생성
RU2533300C2 (ru) 2009-05-19 2014-11-20 Панасоник Корпорэйшн Носитель записи, устройство воспроизведения, устройство кодирования, интегральная схема и устройство вывода для воспроизведения
WO2011068668A1 (en) 2009-12-04 2011-06-09 Divx, Llc Elementary bitstream cryptographic material transport systems and methods
KR101721261B1 (ko) * 2010-08-20 2017-03-30 엘지디스플레이 주식회사 액정표시장치와 그의 데이터전송방법
JP2012060238A (ja) * 2010-09-06 2012-03-22 Sony Corp 動画像処理装置、動画像処理方法およびプログラム
US8914534B2 (en) 2011-01-05 2014-12-16 Sonic Ip, Inc. Systems and methods for adaptive bitrate streaming of media stored in matroska container files using hypertext transfer protocol
KR101678347B1 (ko) * 2011-06-20 2016-11-21 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램, 또한 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
JP2013038766A (ja) * 2011-07-12 2013-02-21 Sharp Corp 送信装置、送信装置の制御方法、制御プログラム、及び記録媒体
US8818171B2 (en) 2011-08-30 2014-08-26 Kourosh Soroushian Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
US9955195B2 (en) 2011-08-30 2018-04-24 Divx, Llc Systems and methods for encoding and streaming video encoded using a plurality of maximum bitrate levels
US8964977B2 (en) 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
US9049496B2 (en) * 2011-09-01 2015-06-02 Gracenote, Inc. Media source identification
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
JP5698644B2 (ja) * 2011-10-18 2015-04-08 株式会社Nttドコモ 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置及び動画像予測復号プログラム
LT3599766T (lt) * 2011-12-15 2020-11-25 Tagivan Ii Llc Skaisčio-spalvio koduotų blokų žymų (cbf) signalų perdavimas vaizdo kodavime
US8918908B2 (en) 2012-01-06 2014-12-23 Sonic Ip, Inc. Systems and methods for accessing digital content using electronic tickets and ticket tokens
US9197685B2 (en) * 2012-06-28 2015-11-24 Sonic Ip, Inc. Systems and methods for fast video startup using trick play streams
US9143812B2 (en) 2012-06-29 2015-09-22 Sonic Ip, Inc. Adaptive streaming of multimedia
US10452715B2 (en) 2012-06-30 2019-10-22 Divx, Llc Systems and methods for compressing geotagged video
JP5885604B2 (ja) * 2012-07-06 2016-03-15 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
EP2875417B1 (en) 2012-07-18 2020-01-01 Verimatrix, Inc. Systems and methods for rapid content switching to provide a linear tv experience using streaming content distribution
US8997254B2 (en) 2012-09-28 2015-03-31 Sonic Ip, Inc. Systems and methods for fast startup streaming of encrypted multimedia content
US8914836B2 (en) 2012-09-28 2014-12-16 Sonic Ip, Inc. Systems, methods, and computer program products for load adaptive streaming
JP6094126B2 (ja) * 2012-10-01 2017-03-15 富士通株式会社 動画像復号装置
TWI456985B (zh) * 2012-10-17 2014-10-11 Vivotek Inc 多攝影機的整合處理系統及其方法
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US9264475B2 (en) 2012-12-31 2016-02-16 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US9344517B2 (en) 2013-03-28 2016-05-17 Sonic Ip, Inc. Downloading and adaptive streaming of multimedia content to a device with cache assist
US9247317B2 (en) 2013-05-30 2016-01-26 Sonic Ip, Inc. Content streaming with client device trick play index
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US9967305B2 (en) 2013-06-28 2018-05-08 Divx, Llc Systems, methods, and media for streaming media content
CA2916881A1 (en) * 2013-07-22 2015-01-29 Sony Corporation Information processing apparatus and method
US9343112B2 (en) 2013-10-31 2016-05-17 Sonic Ip, Inc. Systems and methods for supplementing content from a server
JP6070524B2 (ja) * 2013-12-04 2017-02-01 ソニー株式会社 表示パネル、駆動方法、および電子機器
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
JP6410495B2 (ja) * 2014-07-07 2018-10-24 ルネサスエレクトロニクス株式会社 画像符号化装置、画像復号装置、および画像通信システム
CN111933189B (zh) * 2014-09-12 2022-01-04 松下电器(美国)知识产权公司 再现装置以及再现方法
CN104735385B (zh) * 2015-03-31 2018-10-12 小米科技有限责任公司 播放控制方法及装置、电子设备
US20160360205A1 (en) 2015-06-08 2016-12-08 Industrial Technology Research Institute Video encoding methods and systems using adaptive color transform
US10075292B2 (en) 2016-03-30 2018-09-11 Divx, Llc Systems and methods for quick start-up of playback
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
JP7077812B2 (ja) * 2018-06-19 2022-05-31 セイコーエプソン株式会社 画像処理装置および画像処理プログラム
JP7143421B2 (ja) * 2018-08-24 2022-09-28 オリンパス株式会社 画像記録再生装置、内視鏡システム及び画像記録再生装置の作動方法
CN117459744A (zh) 2019-07-20 2024-01-26 北京字节跳动网络技术有限公司 调色板模式使用指示的条件相关编解码
TWI784446B (zh) * 2021-03-18 2022-11-21 圓展科技股份有限公司 顯示系統、顯示方法及影像擷取裝置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MY115648A (en) 1995-08-23 2003-08-30 Sony Corp Encoding/decoding fields of predetermined field polarity apparatus and method
FR2749116B1 (fr) * 1996-05-24 1998-06-19 Thomson Multimedia Sa Camera a effets speciaux
JP3058870B1 (ja) 1999-02-05 2000-07-04 株式会社次世代デジタルテレビジョン放送システム研究所 Afc回路
JP2002108325A (ja) 2000-09-26 2002-04-10 Fuji Film Microdevices Co Ltd 画像処理装置及び画像処理方法
CN1364033A (zh) * 2000-11-28 2002-08-14 国枝博昭 动态图像信息的高性能编码压缩系统
JP4622141B2 (ja) * 2001-04-13 2011-02-02 ソニー株式会社 画像処理装置および画像処理方法、記録媒体、並びにプログラム
US7187785B2 (en) * 2001-08-28 2007-03-06 Nippon Telegraph And Telephone Corporation Image processing method and apparatus
JP2003111094A (ja) 2001-10-01 2003-04-11 Megafusion Corp 合成撮影システム、合成画像生成法および画像合成装置
JP4490692B2 (ja) * 2002-02-01 2010-06-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオデータ信号のシーケンスを記録する装置、記録担体及び方法
JP4240283B2 (ja) * 2002-10-10 2009-03-18 ソニー株式会社 復号装置及び復号方法
JP2004172862A (ja) * 2002-11-19 2004-06-17 Megachips System Solutions Inc 画像合成方法および合成画像配信システム
KR20030051545A (ko) * 2003-06-04 2003-06-25 경민규 동영상 씨디롬 제작장치
JP2005123775A (ja) 2003-10-15 2005-05-12 Sony Corp 再生装置、再生方法、再生プログラムおよび記録媒体
KR100561404B1 (ko) 2003-10-30 2006-03-16 삼성전자주식회사 재생 모드 정보가 설정된 동영상 재생 장치, 저장 매체 및그 재생방법
KR101135224B1 (ko) * 2004-02-17 2012-04-23 파나소닉 주식회사 기록매체, 재생장치, 프로그램 및 재생방법
US7577340B2 (en) * 2004-07-21 2009-08-18 Panasonic Corporation Device and method for recording real-time data
CN101848389A (zh) * 2004-08-31 2010-09-29 松下电器产业株式会社 运动图像编码、解码方法及装置、记录介质的记录方法
AR064274A1 (es) 2006-12-14 2009-03-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, dispositivo de codificacion de imagenes en movimiento, metodo de grabacion de imagenes en movimiento, medio de grabacion, metodo de reproduccion de imagenes en movimiento, dispositivo de reproduccion de imagenes en movimiento, y sistema de reproducci

Also Published As

Publication number Publication date
US8526797B2 (en) 2013-09-03
CN101800896A (zh) 2010-08-11
JP4841689B2 (ja) 2011-12-21
CN101815213B (zh) 2013-01-09
JP2011097612A (ja) 2011-05-12
CN101815214B (zh) 2012-11-21
CN101848384A (zh) 2010-09-29
KR101362653B1 (ko) 2014-02-13
CN101815213A (zh) 2010-08-25
CN101554057A (zh) 2009-10-07
JPWO2008072669A1 (ja) 2010-04-02
US20100040348A1 (en) 2010-02-18
CA2671557A1 (en) 2008-06-19
ZA200903806B (en) 2010-05-26
US20110299831A1 (en) 2011-12-08
CN101800896B (zh) 2012-08-29
RU2010145129A (ru) 2012-05-10
JP4718616B2 (ja) 2011-07-06
AR064274A1 (es) 2009-03-25
WO2008072669A1 (ja) 2008-06-19
US20100040351A1 (en) 2010-02-18
EP2079241B1 (en) 2012-10-31
JP4841688B2 (ja) 2011-12-21
KR20090098802A (ko) 2009-09-17
US20100054710A1 (en) 2010-03-04
CN101815214A (zh) 2010-08-25
TW201108747A (en) 2011-03-01
TW200845761A (en) 2008-11-16
US8023804B2 (en) 2011-09-20
BRPI0719335A2 (pt) 2011-05-10
RU2009120317A (ru) 2010-12-10
EP2079241A4 (en) 2011-11-09
JP2011103669A (ja) 2011-05-26
TWI446794B (zh) 2014-07-21
CN101554057B (zh) 2011-07-20
RU2475997C2 (ru) 2013-02-20
CA2671557C (en) 2016-01-12
US7974521B2 (en) 2011-07-05
EP2079241A1 (en) 2009-07-15
RU2483467C2 (ru) 2013-05-27

Similar Documents

Publication Publication Date Title
CA2671557C (en) Encoding and playback of an overlayed video stream whereby the luminance threshold for overlays in continuous sections is fixed
EP1791358B1 (en) Moving image encoding method and apparatus
JP7139543B1 (ja) 再生装置、及び、再生方法
JP2017162541A (ja) 再生装置および再生方法
CN111276170A (zh) 解码系统以及解码方法
WO2016038811A1 (ja) 記録媒体、再生装置、および再生方法
WO2016021120A1 (ja) 再生装置、再生方法および記録媒体
WO2016079925A1 (ja) 記録媒体、再生方法、および再生装置

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE 4A. ANUIDADE(S)

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: REFERENTE AO DESPACHO 8.6 PUBLICADO NA RPI 2332 DE 15/09/2015.

B08H Application fees: decision cancelled [chapter 8.8 patent gazette]

Free format text: REFERENTE AO DESPACHO 8.11 NA RPI 2373 DE 28/06/2016

B08H Application fees: decision cancelled [chapter 8.8 patent gazette]

Free format text: REFERENTE AO DESPACHO 8.6 NA RPI 2332 DE 15/09/2015

B15K Others concerning applications: alteration of classification

Ipc: H04N 5/85 (2006.01), G11B 27/32 (2006.01), H04N 9/

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06T Formal requirements before examination [chapter 6.20 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: H04N 5/85 , G11B 27/32 , H04N 9/82 , H04N 19/00 , H04N 9/79 , H04N 9/804

Ipc: H04N 5/85 (1980.01), G11B 27/32 (1968.09), H04N 9/

B11T Dismissal of application maintained [chapter 11.20 patent gazette]