BR112021003091A2 - aparelho e método de processamento de informações, e, programa - Google Patents

aparelho e método de processamento de informações, e, programa Download PDF

Info

Publication number
BR112021003091A2
BR112021003091A2 BR112021003091-3A BR112021003091A BR112021003091A2 BR 112021003091 A2 BR112021003091 A2 BR 112021003091A2 BR 112021003091 A BR112021003091 A BR 112021003091A BR 112021003091 A2 BR112021003091 A2 BR 112021003091A2
Authority
BR
Brazil
Prior art keywords
objects
azimuth
group
control unit
information
Prior art date
Application number
BR112021003091-3A
Other languages
English (en)
Inventor
Minoru Tsuji
Toru Chinen
Mitsuyuki Hatanaka
Yuki Yamamoto
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of BR112021003091A2 publication Critical patent/BR112021003091A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/305Source positioning in a soundscape, e.g. instrument positioning on a virtual soundstage, stereo panning or related delay or reverberation changes; Changing the stereo width of a musical source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • G10H2220/111Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters for graphical orchestra or soundstage control, e.g. on-screen selection or positioning of instruments in a virtual orchestra, using movable or selectable musical instrument icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Abstract

A presente tecnologia se refere a um aparelho de processamento de informações, a um método de processamento de informações e a um programa que permite uma edição mais eficiente. Esse aparelho de processamento de informações é provido com uma unidade de controle que seleciona e agrupa uma pluralidade de objetos existentes em um espaço prescrito e altera as posições da pluralidade de objetos, enquanto mantém a relação posicional relativa entre os objetos agrupados no espaço. A presente tecnologia pode ser aplicada a um aparelho de processamento de informações.

Description

1 / 90 APARELHO E MÉTODO DE PROCESSAMENTO DE INFORMAÇÕES, E, PROGRAMA
CAMPO TÉCNICO
[001] A presente tecnologia se refere a um aparelho e método de processamento de informações e a um programa e, particularmente, a um aparelho e método de processamento de informações e a um programa que permite uma edição mais eficiente.
TÉCNICA ANTERIOR
[002] Nos últimos anos, a tecnologia de áudio baseada em objetos tem atraído atenção.
[003] No áudio baseado em objeto, os dados do áudio do objeto incluem um sinal em forma de onda para um objeto áudio e metainformações indicando informações de localização do objeto áudio representado por uma posição relativa a partir de uma posição de escuta como uma referência predeterminada.
[004] Em seguida, o sinal em forma de onda do objeto áudio é renderizado em um sinal com um número desejado de canais por, por exemplo, panorâmica de amplitude baseada em vetor (VBAP) com base em metainformações e reproduzido (ver, por exemplo, Documento não patentário 1 e Documento não patentário 2).
[005] No áudio baseado em objeto, os objetos áudio podem ser organizados em várias direções em um espaço tridimensional na produção de conteúdo de áudio.
[006] Por exemplo, no Dolby Atoms Panner plus-in para Pro Tools (consulte, por exemplo, o Documento não patentário 3), a posição de um objeto áudio em uma interface gráfica 3D pode ser especificada. Na tecnologia atual, a imagem sonora do som de um objeto áudio pode ser localizada em qualquer direção em um espaço tridimensional, especificando a posição na imagem do espaço virtual exibido na interface do usuário como a
2 / 90 posição do objeto áudio.
[007] Por outro lado, a localização da imagem sonora em relação ao estéreo convencional de dois canais é ajustada por uma técnica chamada formação de panorama. Por exemplo, a razão proporcional de uma faixa de áudio predeterminada para os dois canais esquerdo e direito é alterada pela interface do usuário, em que a posição nas direções esquerda e direita para localizar a imagem de som é determinada.
LISTA DE CITAÇÕES DOCUMENTO NÃO PATENTÁRIO
[008] Documento 1 não patentário: ISO/IEC 23008-3 Information technology - High efficiency coding and media delivery in heterogeneous environments - Part 3: 3D áudio; Documento não patentário 2: Ville Pulkki, “Virtual Sound Source Positioning Using Vector Base Amplitude Panning”, Journal of AES, vol.45, no.6, págs. 456-466, 1997; Documento não patentário 3: Dolby Laboratories, Inc., “Authoring for Dolby Atmos (R) Cinema Sound Manual”, [online], [pesquisado em 1 de agosto de 2018], Internet <https://www.dolby.com/us/en/technologies/dolby-atmos/authoring-for- dolby-atmos-cinema-sound-manual.pdf >
SUMÁRIO DA INVENÇÃO PROBLEMAS A SEREM RESOLVIDOS PELA INVENÇÃO
[009] Aliás, no áudio baseado em objeto, é possível, para cada objeto áudio, realizar edições como alterar a posição do objeto áudio no espaço, ou seja, a posição de localização da imagem sonora, e ajustar o ganho do sinal em forma de onda do objeto áudio.
[0010] No entanto, como um grande número de objetos áudio é tratado na produção de conteúdo de áudio baseado em objeto real, leva tempo para realizar a edição, como ajuste de posição e ajuste de ganho desses
3 / 90 objetos áudio.
[0011] Por exemplo, o trabalho de especificar uma posição para cada objeto áudio no espaço e determinar a posição de localização da imagem sonora de cada objeto áudio tem sido problemático.
[0012] Portanto, um método capaz de realizar uma edição eficiente de um objeto áudio ao produzir conteúdo de áudio é desejado.
[0013] A tecnologia atual foi desenvolvida tendo em vista tal circunstância e permite uma edição mais eficiente.
SOLUÇÕES PARA PROBLEMAS
[0014] Um aparelho de processamento de informações de um aspecto da presente tecnologia inclui uma unidade de controle que seleciona e agrupa uma pluralidade de objetos existentes em um espaço predeterminado e altera as posições da pluralidade de objetos, enquanto mantém a relação posicional relativa da pluralidade de objetos agrupados no espaço.
[0015] Um método de processamento de informações ou um programa de um aspecto da presente tecnologia inclui uma etapa de seleção e agrupamento de uma pluralidade de objetos existentes em um espaço predeterminado e alteração das posições da pluralidade de objetos, enquanto mantém a relação de posição relativa da pluralidade de objetos agrupados no espaço.
[0016] Em um aspecto da presente tecnologia, uma pluralidade de objetos existentes em um espaço predeterminado é selecionada e agrupada, e as posições da pluralidade de objetos são alteradas enquanto a relação posicional relativa da pluralidade de objetos agrupados no espaço é mantida.
BREVE DESCRIÇÃO DOS DESENHOS
[0017] A Fig. 1 é um diagrama que mostra um exemplo de configuração de um aparelho de processamento de informações.
[0018] A Fig. 2 é uma vista que mostra um exemplo de uma tela de edição.
4 / 90
[0019] A Fig. 3 é uma vista que mostra um exemplo de uma imagem de POV.
[0020] A Fig. 4 é um fluxograma que explica o processamento de agrupamento.
[0021] A Fig. 5 é uma vista que explica o movimento de objetos agrupados.
[0022] A Fig. 6 é uma vista que explica o movimento de objetos agrupados.
[0023] A Fig. 7 é uma vista que explica o movimento de objetos agrupados.
[0024] A Fig. 8 é um fluxograma que explica o processamento do movimento do objeto.
[0025] A Fig. 9 é uma vista que explica um par L/R.
[0026] A Fig. 10 é uma vista que explica um par L/R.
[0027] A Fig. 11 é uma vista que explica um par L/R.
[0028] A Fig. 12 é uma vista que explica um par L/R.
[0029] A Fig. 13 é um fluxograma que explica o processamento de agrupamento.
[0030] A Fig. 14 é uma vista que explica uma alteração na informação de posição do objeto em unidades de valor de deslocamento.
[0031] A Fig. 15 é uma vista que explica uma alteração na informação de posição do objeto em unidades de valor de deslocamento.
[0032] A Fig. 16 é uma vista que explica uma alteração na informação de posição do objeto em unidades de valor de deslocamento.
[0033] A Fig. 17 é uma vista que explica uma alteração na informação de posição do objeto em unidades de valor de deslocamento.
[0034] A Fig. 18 é um fluxograma que explica o processamento do movimento de deslocamento.
[0035] A Fig. 19 é uma vista que explica o processamento de
5 / 90 interpolação das informações de posição do objeto.
[0036] A Fig. 20 é uma vista que explica o processamento de interpolação das informações de posição do objeto.
[0037] A Fig. 21 é uma vista que explica o processamento de interpolação das informações de posição do objeto.
[0038] A Fig. 22 é um fluxograma que explica o processamento de seleção do método de interpolação.
[0039] A Fig. 23 é uma vista que mostra um exemplo de uma tela de edição.
[0040] A Fig. 24 é uma vista que mostra um exemplo de uma imagem de POV.
[0041] A Fig. 25 é uma vista explicando a configuração de mudo e a configuração de solo.
[0042] A Fig. 26 é uma vista explicando a configuração de mudo e a configuração de solo.
[0043] A Fig. 27 é uma vista explicando a configuração de mudo e a configuração de solo.
[0044] A Fig. 28 é um fluxograma que explica o processamento de configuração.
[0045] A Fig. 29 é uma vista explicando a importação de um arquivo de áudio.
[0046] A Fig. 30 é uma vista que mostra um exemplo de uma tela de seleção de tipo de faixa.
[0047] A Fig. 31 é uma vista que mostra um exemplo de uma tela de edição.
[0048] A Fig. 32 é uma vista que mostra um exemplo de uma tela de seleção de tipo de faixa.
[0049] A Fig. 33 é uma vista que mostra um exemplo de uma tela de edição.
6 / 90
[0050] A Fig. 34 é uma vista que mostra um exemplo de uma imagem de POV.
[0051] A Fig. 35 é um fluxograma que explica o processamento de importação.
[0052] A Figura 36 é um diagrama que mostra um exemplo de configuração de um computador.
MODO PARA REALIZAR A INVENÇÃO
[0053] Uma modalidade à qual a presente tecnologia é aplicada será descrita abaixo com referência aos desenhos. <Primeira Modalidade> <Exemplo de Configuração do Aparelho de Processamento de Informações>
[0054] A presente tecnologia visa permitir uma edição mais eficiente agrupando uma pluralidade de objetos e alterando as posições da pluralidade de objetos, enquanto mantém a relação posicional relativa da pluralidade de objetos agrupados em um espaço tridimensional.
[0055] Deve-se notar que o objeto mencionado aqui pode ser qualquer objeto, desde que o objeto seja capaz de prover informações de posição indicando uma posição no espaço, como um objeto áudio que é uma fonte de som ou semelhante e um objeto imagem que é um assunto em uma imagem.
[0056] A seguir, um caso em que o objeto é um objeto áudio será descrito como um exemplo específico. Além disso, o objeto áudio será daqui em diante também referido simplesmente como um objeto.
[0057] A Fig. 1 é um diagrama que mostra um exemplo de configuração de um aparelho de processamento de informações de acordo com uma modalidade à qual a presente tecnologia é aplicada.
[0058] Um aparelho de processamento de informações 11 mostrado na Fig. 1 tem uma unidade de entrada 21, uma unidade de gravação 22, uma unidade de controle 23, uma unidade de exibição 24, uma unidade de comunicação 25 e uma unidade de alto-falante 26.
7 / 90
[0059] A unidade de entrada 21 inclui, por exemplo, um interruptor, um botão, um mouse, um teclado e um painel de toque provido sobreposto na unidade de exibição 24 e fornece à unidade de controle 23 um sinal correspondente a uma operação de entrada por um usuário quem é o criador do conteúdo.
[0060] A unidade de gravação 22 inclui, por exemplo, uma memória não volátil, como um disco rígido, grava vários dados, como dados de conteúdo de áudio providos a partir da unidade de controle 23, e fornece dados gravados para a unidade de controle 23. Deve-se notar que a unidade de gravação 22 pode ser uma mídia de gravação removível conectável a e destacável do aparelho de processamento de informações 11.
[0061] A unidade de controle 23 é implementada por, por exemplo, um processador ou semelhante, e controla a operação de todo o aparelho de processamento de informações 11. A unidade de controle 23 tem uma unidade de determinação de posição 41 e uma unidade de controle de exibição 42.
[0062] A unidade de determinação de posição 41 determina a posição de cada objeto no espaço, isto é, a posição de localização da imagem sonora do som de cada objeto, com base no sinal provido pela unidade de entrada 21. A unidade de controle de exibição 42 controla a unidade de exibição 24 para controlar a exibição de uma imagem ou semelhante na unidade de exibição
24.
[0063] A unidade de exibição 24 inclui, por exemplo, um painel de exibição de cristal líquido e semelhantes, e exibe várias imagens e semelhantes sob o controle da unidade de controle de exibição 42.
[0064] A unidade de comunicação 25 inclui, por exemplo, uma interface de comunicação e semelhantes, e se comunica com um dispositivo externo por meio de uma rede de comunicação com fio ou sem fio, como a Internet. Por exemplo, a unidade de comunicação 25 recebe dados transmitidos de um dispositivo externo e fornece os dados para a unidade de
8 / 90 controle 23, ou transmite dados providos a partir da unidade de controle 23 para um dispositivo externo.
[0065] A unidade de alto-falante 26 inclui alto-falantes dos respectivos canais de um sistema de alto-falante tendo uma configuração de canal predeterminada, por exemplo, e reproduz (emite) o som do conteúdo com base no sinal de áudio provido pela unidade de controle 23. <Sobre o agrupamento de objetos>
[0066] O aparelho de processamento de informações 11 pode funcionar como um aparelho de edição que realiza edição de conteúdo de áudio baseado em objeto, incluindo dados de objeto de pelo menos uma pluralidade de objetos.
[0067] Deve-se notar que os dados de conteúdo de áudio podem incluir dados que não são dados de objeto, especificamente, dados de áudio de canal, incluindo sinais de áudio dos respectivos canais.
[0068] Além disso, é claro, o conteúdo de áudio pode ser um conteúdo único, como música não acompanhada por um vídeo ou similar, mas presume-se aqui que o conteúdo de vídeo correspondente também existe no conteúdo de áudio. Ou seja, presume-se que o sinal de áudio do conteúdo de áudio é um sinal de áudio que acompanha os dados de vídeo, incluindo uma imagem estática ou uma imagem em movimento (vídeo), ou seja, dados de vídeo de conteúdo de vídeo. Por exemplo, no caso em que o conteúdo de vídeo é um vídeo ao vivo, o conteúdo de áudio correspondente ao conteúdo de vídeo é, por exemplo, a voz do vídeo ao vivo.
[0069] Cada dado de objeto incluído nos dados do conteúdo de áudio inclui um sinal de áudio que é um sinal em forma de onda do som do objeto e meta-informação do objeto.
[0070] Além disso, a meta informação inclui informação de posição de objeto indicando a posição do objeto em um espaço de reprodução que é um espaço tridimensional, por exemplo, informação de ganho indicando o
9 / 90 ganho do sinal de áudio do objeto e informação de prioridade indicando a prioridade do objeto.
[0071] Além disso, nesta modalidade, presume-se que a informação de posição do objeto indicando a posição do objeto é expressa por coordenadas de um sistema de coordenadas polares com referência à posição (a seguir também referida como posição de escuta) de um ouvinte que escuta o som do conteúdo de áudio no espaço de reprodução.
[0072] Ou seja, as informações de posição do objeto incluem um ângulo horizontal, um ângulo vertical e um raio. Deve-se notar que aqui, um exemplo no qual a informação de posição do objeto é expressa por coordenadas polares será descrito, mas a informação de posição do objeto não está limitada a isso e pode ser qualquer coisa como informação de posição absoluta expressa por coordenadas absolutas.
[0073] O ângulo horizontal é um ângulo na direção horizontal (azimute) indicando a posição do objeto na direção horizontal (direção esquerda e direita), conforme visto da posição de escuta, e o ângulo vertical é um ângulo na direção vertical (elevação) indicando a posição do objeto na direção vertical (para cima e para baixo), visto da posição de escuta. Além disso, o raio é uma distância (raio) da posição de escuta até o objeto. Daqui em diante, as coordenadas como a informação de posição do objeto são expressas como (azimute, elevação, raio).
[0074] Por exemplo, quando o conteúdo de áudio é reproduzido, a renderização com base no sinal de áudio de cada objeto é realizada por VBAP ou semelhante, de modo que a imagem sonora do som do objeto seja localizada em uma posição indicada pela informação de posição do objeto.
[0075] Além disso, quando o conteúdo de áudio é editado, basicamente um dado de objeto, ou seja, o sinal de áudio de um objeto é tratado como uma faixa de áudio. Por outro lado, para dados de áudio do canal, uma pluralidade de sinais de áudio que constituem os dados de áudio
10 / 90 do canal é tratada como uma faixa de áudio. Deve-se notar que a partir de agora, a faixa de áudio será também designada simplesmente por faixa.
[0076] Normalmente, os dados de conteúdo de áudio incluem dados de objeto de um grande número, como dezenas ou centenas de objetos.
[0077] No aparelho de processamento de informações 11, portanto, uma pluralidade de objetos pode ser agrupada de modo que o conteúdo de áudio possa ser editado de forma mais eficiente. Ou seja, uma pluralidade de objetos selecionados pode ser agrupada de modo que uma pluralidade de objetos selecionados entre uma pluralidade de objetos existentes no espaço de reprodução pode ser tratada como um grupo.
[0078] No aparelho de processamento de informações 11, para uma pluralidade de objetos agrupados, isto é, uma pluralidade de objetos pertencentes ao mesmo grupo, a informação de posição do objeto é alterada enquanto a relação de posição relativa desses objetos é mantida no espaço de reprodução.
[0079] Ao fazer isso, ao editar o conteúdo de áudio, o aparelho de processamento de informações 11 pode editar a informação de posição do objeto em unidades de grupo, isto é, especificar (alterar) a posição de localização da imagem sonora do objeto. Nesse caso, o número de operações de especificação das informações de posição do objeto pode ser significativamente reduzido em comparação com o caso em que as informações de posição do objeto são editadas para cada objeto. Portanto, o aparelho de processamento de informações 11 pode editar o conteúdo de áudio de forma mais eficiente e fácil.
[0080] Deve-se notar que aqui, um exemplo em que a informação de posição do objeto é editada em unidades de grupo será descrito, mas a informação de prioridade e a informação de ganho também podem ser editadas em unidades de grupo.
[0081] Nesse caso, por exemplo, quando as informações de prioridade
11 / 90 de um objeto predeterminado são especificadas, as informações de prioridade de todos os outros objetos pertencentes ao mesmo grupo do objeto predeterminado também são alteradas para o mesmo valor das informações de prioridade do objeto predeterminado. Deve-se notar que as informações de prioridade dos objetos pertencentes ao mesmo grupo podem ser alteradas enquanto a relação relativa das prioridades desses objetos é mantida.
[0082] Além disso, por exemplo, quando a informação de ganho de um objeto predeterminado é especificada, a informação de ganho de todos os outros objetos pertencentes ao mesmo grupo do objeto predeterminado também é alterada. Nesse momento, a informação de ganho de todos os objetos pertencentes ao grupo é alterada enquanto a relação de magnitude relativa da informação de ganho desses objetos é mantida.
[0083] Daqui em diante, o agrupamento de objetos no momento da edição do conteúdo de áudio e a especificação (alteração) das informações de posição do objeto dos objetos agrupados serão descritos mais especificamente.
[0084] Por exemplo, no momento da edição do conteúdo de áudio, a unidade de controle de exibição 42 faz com que a unidade de exibição 24 exiba uma tela de edição na qual a forma de onda de tempo do sinal de áudio de cada faixa é exibida, como uma tela de exibição da ferramenta de produção de conteúdo. Além disso, a unidade de controle de exibição 42 também faz com que a unidade de exibição 24 exiba uma imagem de ponto de vista (POV), que é um ponto de vista filmado a partir da posição de escuta ou uma posição nas proximidades da posição de escuta, como uma tela de exibição da ferramenta de produção de conteúdo. Deve-se notar que a tela de edição e a imagem de POV podem ser exibidas em janelas diferentes umas das outras ou podem ser exibidas na mesma janela.
[0085] A tela de edição é uma tela (imagem) para especificar ou alterar informações de posição do objeto, obter informações ou informações
12 / 90 de prioridade para cada faixa de conteúdo de áudio, por exemplo. Além disso, a imagem de POV é uma imagem de um gráfico 3D que imita o espaço de reprodução, ou seja, uma imagem do espaço de reprodução vista da posição de escuta do ouvinte ou de uma posição nas proximidades do ouvinte.
[0086] Deve-se notar que, para simplificar a descrição, presume-se aqui que o conteúdo de áudio incluindo os dados do objeto de um objeto para o qual a posição no espaço de reprodução, ou seja, a informação da posição do objeto, é provida antecipadamente é editado.
[0087] Como um exemplo, a unidade de controle de exibição 42 faz com que a unidade de exibição 24 exiba uma tela de edição ED11 mostrada na Fig. 2.
[0088] Nesse exemplo, a tela de edição ED11 é provida, para cada faixa, com uma área de faixa onde as informações sobre a faixa são exibidas e uma área de linha de tempo onde a forma de onda de tempo de um sinal de áudio, as informações de posição do objeto, as informações de ganho e informações de prioridade sobre a faixa são exibidas.
[0089] Especificamente, na tela de edição ED11, por exemplo, uma área TR11 no lado esquerdo da figura é uma área de faixa para uma faixa e uma área TM11 provida adjacente à área TR11 no lado direito na figura é uma área de linha do tempo para uma faixa correspondente à área TR11.
[0090] Além disso, cada área de faixa é provida com uma área de exibição de grupo, uma área de exibição de nome de objeto e uma área de seleção de sistema de coordenadas.
[0091] A área de exibição do grupo é uma área na qual são exibidas informações que indicam uma faixa, ou seja, um grupo ao qual pertence um objeto correspondente à faixa.
[0092] Por exemplo, na área TR11, uma área GP11 no lado esquerdo da figura na área TR11 é uma área de exibição de grupo, e o caractere (numeral) “1” na área GP11 indica informações indicando o grupo, para o
13 / 90 qual o objeto (faixa) pertence, ou seja, um ID de grupo. Ao visualizar o ID do grupo exibido na área de exibição do grupo, o usuário pode instantaneamente compreender o grupo ao qual o objeto pertence.
[0093] Deve-se notar que a informação que indica o grupo, ou seja, a informação para identificar o grupo, não se limita ao ID do grupo representado por um numeral, mas pode ser qualquer outra informação, como um caractere ou uma cor.
[0094] Além disso, na tela de edição ED11, as áreas de faixa dos objetos (faixas) pertencentes ao mesmo grupo são exibidas na mesma cor. Por exemplo, a cor que representa o grupo é definida antecipadamente para cada grupo, e quando a unidade de entrada 21 é operada e o grupo de objetos é selecionado (especificado) pelo usuário, a unidade de controle de exibição 42 faz com que a área de rastreamento do objeto a ser exibido na cor que representa o grupo selecionado para o objeto.
[0095] No exemplo da Fig. 2, na tela de edição ED11, as quatro áreas de faixa na parte superior da figura são exibidas na mesma cor, e o usuário pode instantaneamente perceber que os quatro objetos (faixas) correspondentes a essas áreas de faixa pertencem ao mesmo grupo. Deve-se notar que uma cor definida para um grupo incluindo uma pluralidade de objetos, isto é, uma cor que representa o grupo será daqui em diante também referida como uma cor de grupo.
[0096] A área de exibição do nome do objeto é uma área na qual um nome de objeto indicando o nome (título) do objeto dado a uma faixa, ou seja, um objeto correspondente à faixa, é exibido.
[0097] Por exemplo, na área TR11, uma área OB11 é uma área de exibição do nome do objeto e, nesse exemplo, o caractere “Kick” exibido na área OB11 é o nome do objeto. Esse nome de objeto “Kick” representa um bumbo que constitui uma bateria (kit de bateria), ou seja, um chamado bumbo. Portanto, ao visualizar o nome do objeto “Kick”, o usuário pode
14 / 90 instantaneamente perceber que o objeto é Kick.
[0098] Deve-se notar que, a seguir, no caso em que se deseja esclarecer que tipo de nome de objeto é o objeto, o objeto cujo nome de objeto é “Kick” é descrito adicionando o nome do objeto após a palavra objeto, por exemplo, o objeto “Kick”.
[0099] Na tela de edição ED11, o ID do grupo dos objetos cujos nomes de objeto “OH_L”, “OH_R” e “Snare” são exibidos na área de exibição do nome do objeto é “1”, que é o mesmo que o ID do grupo do objeto “Kick”.
[00100] O objeto “OH_L” é um objeto de som captado por um microfone suspenso provido no lado esquerdo sobre a cabeça do baterista. Além disso, o objeto “OH_R” é um objeto de som captado por um microfone suspenso colocado no lado direito sobre a cabeça do baterista, e o objeto “Caixa” é uma caixa que constitui a bateria.
[00101] Uma vez que os respectivos objetos cujos nomes de objeto são “Kick”, “OH_L”, “OH_R” e “Snare” constituem o tambor, esses objetos são trazidos para o mesmo grupo cujo ID de grupo é “1”.
[00102] Normalmente, a relação posicional relativa dos objetos que constituem uma bateria (kit de bateria), como um bumbo e uma caixa de bateria, não é alterada. Portanto, se esses objetos são trazidos para o mesmo grupo e as informações de posição do objeto são alteradas, mantendo a relação posicional relativa, apenas alterando as informações de posição do objeto de um objeto, as informações de posição do objeto dos outros objetos podem ser alteradas apropriadamente.
[00103] A área de seleção do sistema de coordenadas é uma área para selecionar o sistema de coordenadas das informações de posição do objeto no momento da edição. Por exemplo, na área de seleção do sistema de coordenadas, qualquer sistema de coordenadas pode ser selecionado entre uma pluralidade de sistemas de coordenadas por um formato de lista
15 / 90 suspensa.
[00104] Na área TR11, uma área PS11 é uma área de seleção do sistema de coordenadas e, nesse exemplo, o caractere “Polar” indicando um sistema de coordenadas polares que é o sistema de coordenadas selecionado é exibido na área PS11.
[00105] Deve-se notar que um exemplo no qual um sistema de coordenadas polares é selecionado será descrito aqui. No entanto, por exemplo, na tela de edição ED11, as informações de posição do objeto podem ser editadas com as coordenadas do sistema de coordenadas selecionadas na área de seleção do sistema de coordenadas e, em seguida, as informações de posição do objeto podem ser convertidas em coordenadas expressas no sistema de coordenadas polares para ser a informação de posição do objeto da meta informação, ou as coordenadas do sistema de coordenadas selecionado na área de seleção do sistema de coordenadas podem ser a informação de posição do objeto da meta informação como ela é.
[00106] Além disso, no caso em que um grupo de objetos correspondendo a uma faixa é especificado (selecionado), por exemplo, o usuário opera a unidade de entrada 21 para exibir uma janela de seleção de grupo GW11.
[00107] Especificamente, por exemplo, em um caso onde um grupo deve ser especificado, especificando uma área de exibição de grupo de uma faixa desejada usando um ponteiro, um cursor ou semelhante, o usuário seleciona uma faixa de destino e exibe um menu para agrupamento.
[00108] No exemplo da Fig. 2, um menu incluindo um item de menu ME11 no qual o caractere “Grupo” é exibido e um item de menu ME12 no qual o caractere “Par L/R” é exibido é exibido como um menu para agrupamento.
[00109] O item de menu ME11 é selecionado quando a janela de seleção de grupo GW11 para especificar o ID de grupo de um objeto
16 / 90 correspondente a uma faixa em um estado selecionado pelo ponteiro, o cursor ou semelhante é exibida. Por outro lado, o item de menu ME12 é selecionado (operado) quando um objeto correspondente a uma faixa em um estado selecionado pelo ponteiro, o cursor ou semelhante é definido como um par L/R descrito posteriormente.
[00110] Aqui, uma vez que o item de menu ME11 é selecionado, a janela de seleção de grupo GW11 é exibida sobreposta na tela de edição ED11.
[00111] Uma pluralidade de ícones de grupo representando grupos selecionáveis e um cursor CS11 para selecionar um desses ícones de grupo são exibidos na janela de seleção de grupo GW11.
[00112] Nesse exemplo, o ícone do grupo tem uma forma quadrangular e um ID do grupo é exibido no ícone do grupo. Por exemplo, um ícone de grupo GA11 representa um grupo cujo ID de grupo é “1”, e o ID de grupo “1” é exibido no ícone de grupo GA11. Além disso, cada ícone de grupo é exibido em uma cor de grupo.
[00113] O usuário move o cursor CS11 operando a unidade de entrada 21, e seleciona um grupo, ao qual pertence o objeto correspondente à faixa, selecionando um ícone de grupo desejado.
[00114] Além disso, a unidade de exibição 24 exibe a imagem mostrada na Fig. 3 como uma imagem de POV correspondendo à tela de edição ED11, por exemplo.
[00115] No exemplo mostrado na Fig. 3, uma imagem de POV P11 é exibida em uma janela predeterminada. Na imagem de POV P11, uma parede e semelhante a uma sala que é um espaço de reprodução visto um pouco atrás de uma posição de escuta O é exibida e uma tela SC11 na qual um vídeo de um conteúdo de vídeo é sobreposto e exibido é organizado em uma posição na frente do ouvinte na sala. Na imagem de POV P11, o espaço de reprodução visto da vizinhança da posição real de escuta O é reproduzido quase como
17 / 90 está.
[00116] Um tambor, uma guitarra elétrica, um violão e tocadores desses instrumentos musicais são exibidos na tela SC11 como sujeitos no vídeo do conteúdo do vídeo.
[00117] Em particular, nesse exemplo, um tocador de bateria PL11, um guitarrista PL12, um primeiro guitarrista PL13 e um segundo guitarrista PL14 são exibidos na tela SC11 como os jogadores dos respectivos instrumentos musicais.
[00118] Além disso, as bolas objeto BL11 a BL19, que são marcas que representam objetos, mais especificamente, marcas que representam as posições dos objetos, também são exibidas na imagem de POV P11. Nesse exemplo, essas bolas objeto BL11 a BL19 são posicionadas na tela SC11.
[00119] Um caractere indicando o nome do objeto do objeto correspondente à bola objeto também é exibido em cada bola objeto.
[00120] Especificamente, por exemplo, o nome do objeto “kick” é exibido na bola objeto BL11, e a bola objeto BL11 representa um objeto correspondente à faixa da área TR11 na Fig. 2, mais especificamente, uma posição do objeto no espaço de reprodução. A bola objeto BL11 é exibida em uma posição indicada pela informação de posição do objeto “Kick” na imagem de POV P11.
[00121] Além disso, o nome do objeto “OH_L” é exibido na bola objeto BL12, e entende-se que a bola objeto BL12 representa o objeto “OH_L”.
[00122] Da mesma forma, o nome do objeto “OH_R” é exibido na bola objeto BL13, e o nome do objeto “Caixa” é exibido na bola objeto BL14.
[00123] Na imagem de POV P11, as bolas objetos pertencentes ao mesmo grupo são exibidas na mesma cor. Em outras palavras, as bolas objetos dos objetos agrupados são exibidas na cor de grupo do grupo ao qual os objetos pertencem.
18 / 90
[00124] Aqui, na tela de edição ED11 mostrada na Fig. 2, as bolas objeto BL11 a BL14 dos respectivos objetos pertencentes ao grupo indicado pelo grupo ID “1” e tendo os nomes de objeto “Kick”, “OH_L”, “OH_R “E” Caixa “são exibidos na mesma cor. Em particular, para esses objetos, as bolas objeto BL11 a BL14 e a área de faixa na tela de edição ED11 são exibidas na cor do grupo do grupo indicado pelo ID de grupo “1”.
[00125] Portanto, o usuário pode compreender facilmente quais objetos pertencem ao mesmo grupo na tela de edição ED11 e na imagem de POV P11. Além disso, o usuário também pode compreender facilmente qual objeto bola corresponde a qual faixa entre a tela de edição ED11 e a imagem de POV P11.
[00126] Além disso, na Fig. 3, as bolas objetos BL15 a BL19 dos objetos não especificamente agrupados, ou seja, não pertencentes ao grupo, são exibidas em uma cor definida previamente, ou seja, uma cor diferente de qualquer cor do grupo.
[00127] O usuário pode especificar a posição de localização da imagem de som operando a unidade de entrada 21 enquanto visualiza a tela de edição ED11 e a imagem de POV P11, inserindo as coordenadas das informações de posição do objeto para cada faixa e operando diretamente a posição da bola do objeto para mover a bola do objeto. Fazendo isso, o usuário pode facilmente determinar (especificar) uma posição de localização apropriada da imagem sonora.
[00128] Deve-se notar que na Fig. 3, ao operar a unidade de entrada 21, o usuário pode alterar a direção da linha de visão na imagem de POV P11 para qualquer direção. Nesse caso, a unidade de controle de exibição 42 faz com que a imagem do espaço de reprodução na direção da linha de visão alterada seja exibida como a imagem de POV P11.
[00129] Nesse momento, no caso em que a posição do ponto de vista da imagem de POV P11 é definida para uma posição nas proximidades da
19 / 90 posição de escuta O, a posição de escuta O é sempre exibida na área do lado próximo da imagem de POV P11. Devido a isso, mesmo em um caso onde a posição do ponto de vista é diferente da posição de escuta O, o usuário visualizando a imagem de POV P11 pode facilmente entender qual posição a imagem está definida como a posição do ponto de vista para a imagem de POV exibida P11.
[00130] Além disso, no exemplo da Fig. 3, os alto-falantes são exibidos no lado frontal esquerdo e no lado frontal direito da posição de audição O na imagem de POV P11. Esses alto-falantes são considerados pelo usuário como alto-falantes dos respectivos canais que constituem o sistema de alto-falantes usado no momento da reprodução do conteúdo de áudio.
[00131] Além disso, nesta modalidade, foi descrito um exemplo no qual a janela de seleção de grupo GW11 é exibida na tela de edição ED11, e os objetos são agrupados especificando o ID de grupo para cada faixa.
[00132] No entanto, através da operação do usuário da unidade de entrada 21, a janela de seleção de grupo pode ser exibida com uma ou mais bolas objeto selecionadas na imagem de POV P11 e os objetos podem ser agrupados especificando o ID do grupo.
[00133] Além disso, uma pluralidade de grupos pode ser agrupada de modo a formar um grande grupo constituído pela pluralidade de grupos. Em tal caso, por exemplo, alterando as informações de posição do objeto em unidades de grande grupo, cada parte da informação de posição do objeto pode ser alterada simultaneamente enquanto a relação posicional relativa da pluralidade de objetos pertencentes ao grande grupo é mantida.
[00134] Um grupo tão grande é particularmente útil quando se deseja alterar a informação de posição do objeto de cada objeto enquanto a relação posicional relativa dos objetos de uma pluralidade de grupos é temporariamente mantida. Nesse caso, quando o grupo grande não é mais necessário, o grupo grande pode ser desagrupado e a edição subsequente pode
20 / 90 ser realizada em unidades de grupo individual. <Explicação do Processamento de Agrupamento>
[00135] A seguir, será descrita a operação realizada pelo aparelho de processamento de informações 11 quando os objetos explicados acima são agrupados. Ou seja, o processamento de agrupamento pelo aparelho de processamento de informações 11 será descrito abaixo com referência ao fluxograma da Fig. 4. Deve-se notar que se assume que a tela de edição já é exibida na unidade de exibição 24 no momento em que o processamento de agrupamento é iniciado.
[00136] Na etapa S11, a unidade de controle 23 recebe a especificação de objetos e grupos a serem agrupados por uma operação de entrada para a unidade de entrada 21.
[00137] Por exemplo, o usuário opera a unidade de entrada 21 para especificar (selecionar) uma área de exibição de grupo de uma faixa correspondente a um objeto desejado a ser agrupado a partir da tela de edição ED11 mostrada na Fig. 2, especificando assim os objetos a serem agrupados. A unidade de controle 23 especifica o objeto especificado por um sinal provido a partir da unidade de entrada 21.
[00138] Além disso, na janela de seleção de grupo GW11 exibida especificando a área de exibição do grupo, o usuário especifica um grupo movendo o cursor CS11 para especificar um ícone de grupo.
[00139] Nesse momento, a unidade de controle de exibição 42 da unidade de controle 23 faz com que a unidade de exibição 24 exiba a janela de seleção de grupo GW11 com base no sinal provido a partir da unidade de entrada 21, e a unidade de controle 23 especifica o grupo especificado no com base no sinal provido a partir da unidade de entrada 21.
[00140] Na etapa S12, a unidade de controle 23 agrupa os objetos de modo que o objeto especificado na etapa S11 pertença ao grupo especificado na etapa S11 e a unidade de controle 23 gera informações de grupo.
21 / 90
[00141] Por exemplo, as informações do grupo são informações que indicam qual objeto pertence a qual grupo e inclui um ID de grupo e informações que indicam um objeto pertencente ao grupo indicado pelo ID do grupo. Deve-se notar que a informação que indica o objeto pode ser um ID de objeto ou semelhante para identificar o próprio objeto, ou pode ser uma informação que indica uma faixa, como uma ID de faixa para indiretamente identificar o objeto.
[00142] A unidade de controle 23 fornece as informações de grupo geradas para a unidade de registro 22 conforme necessário para fazer com que a unidade de registro 22 grave as informações de grupo. Deve-se notar que, no caso em que a informação do grupo já foi gravada na unidade de registro 22, a unidade de controle 23 atualiza a informação do grupo do grupo especificado de modo que a informação indicando o objeto recém- especificado seja adicionada à informação do grupo.
[00143] Ao gerar as informações do grupo dessa maneira, os objetos são agrupados.
[00144] Na etapa S13, a unidade de controle de exibição 42 atualiza a exibição da tela de edição e a imagem de POV já exibida na unidade de exibição 24 com base nas informações de grupo recém-geradas ou atualizadas.
[00145] Por exemplo, a unidade de controle de exibição 42 controla a unidade de exibição 24 para fazer com que a unidade de exibição 24 exiba, na cor do grupo do grupo, a área de faixa de um objeto pertencente ao mesmo grupo em cada área de faixa da tela de edição ED11 como mostrado na Fig. 2.
[00146] Da mesma forma, a unidade de controle de exibição 42 controla a unidade de exibição 24 para fazer com que a unidade de exibição 24 exiba, entre as respectivas bolas objeto na imagem de POV P11, como mostrado na Fig. 3, a objeto bola de um objeto pertencente ao mesmo grupo em a cor do grupo do grupo. Isso torna possível discriminar facilmente
22 / 90 objetos pertencentes ao mesmo grupo, ou seja, objetos altamente relevantes.
[00147] Quando os objetos são agrupados conforme descrito acima e a exibição da tela de edição e a imagem de POV são atualizadas de acordo, o processamento de agrupamento termina.
[00148] Conforme descrito acima, o aparelho de processamento de informações 11 agrupa os objetos de modo que o objeto especificado pela operação de entrada para a unidade de entrada 21 pertença ao grupo especificado.
[00149] Ao realizar tal agrupamento, as informações de posição do objeto e semelhantes podem ser editadas em unidades de grupo e a edição pode ser realizada de forma mais eficiente. <Sobre a edição das informações de posição do objeto>
[00150] Quando os objetos são agrupados, o aparelho de processamento de informações 11 torna-se capaz de editar informações sobre os objetos, tais comas informações de posição de objeto em unidades de grupo.
[00151] Especificamente, por exemplo, para uma pluralidade de objetos agrupados, é possível alterar as informações de posição do objeto de cada objeto, enquanto mantém-se a relação posicional relativa da pluralidade de objetos.
[00152] Por exemplo, presume-se que a tela de edição e a imagem de POV mostrada na Fig. 5 são exibidas na unidade de exibição 24. Deve-se notar que na Fig. 5, as partes correspondentes às da Fig. 3 recebem os mesmos números de referência, e a descrição das mesmas será omitida conforme apropriado.
[00153] No exemplo mostrado na Fig. 5, uma tela de edição ED21 e uma imagem de POV P21 são exibidas na unidade de exibição 24. Deve-se notar que aqui, apenas uma parte da tela de edição ED21 é ilustrada para melhor visibilidade do desenho.
23 / 90
[00154] Na tela de edição ED21, uma área de faixa e uma área de linha de tempo são providas para cada faixa de forma semelhante ao caso mostrado na Fig. 2.
[00155] Ou seja, aqui, a área da faixa e a área da linha do tempo são exibidas para a faixa do objeto de vocal cujo nome do objeto é “Vo” e para a faixa do objeto de uma guitarra elétrica cujo nome do objeto é “EG”.
[00156] Por exemplo, uma área TR21 é uma área de faixa para a faixa do objeto do vocal, e uma área TM21 é uma área de linha de tempo para a faixa do objeto do vocal.
[00157] Nesse exemplo, além de uma área GP21, que é uma área de exibição de grupo, uma área OB21, que é uma área de exibição de nome de objeto, e uma área PS21, que é uma área de seleção de sistema de coordenadas, uma área de exibição de cor de faixa TP21, um botão de mudo MU21 e um botão solo SL21 são exibidos na área TR21.
[00158] Aqui, a área de exibição da cor da faixa TP21 é uma área onde um número da cor da faixa é exibido. O número da cor da faixa é uma informação que indica uma cor de faixa que pode ser dada a cada faixa e é uma cor para identificar a faixa.
[00159] Como será descrito mais tarde, no aparelho de processamento de informações 11, é possível selecionar se as bolas do objeto na imagem de POV são exibidas na cor do grupo ou exibidas na cor da faixa.
[00160] Portanto, o usuário pode especificar a cor da faixa para cada faixa operando a unidade de entrada 21 para operar a área de exibição da cor da faixa na tela de edição ED21. Isto é, por exemplo, o usuário faz com que uma janela de seleção de cor de faixa semelhante à janela de seleção de grupo GW11 mostrada na Fig. 2 seja exibida e seleciona um número de cor de faixa da janela de seleção de cor de faixa, selecionando assim a cor de faixa do faixa.
[00161] Por exemplo, o numeral “3” escrito na área de exibição da cor
24 / 90 da faixa TP21 indica um número da cor da faixa, e a área de exibição da cor da faixa TP21 é exibida na cor da faixa indicada pelo número da cor da faixa.
[00162] Deve-se notar que qualquer cor de faixa pode ser selecionada para cada faixa e, por exemplo, cores de faixa diferentes entre si podem ser selecionadas (especificadas) para faixas correspondentes a dois objetos pertencentes ao mesmo grupo. Além disso, por exemplo, também é possível selecionar a mesma cor de faixa para faixas correspondentes a dois objetos pertencentes a grupos diferentes um do outro.
[00163] O botão de mudo MU21 é um botão a ser operado quando a configuração de mudo descrita posteriormente é realizada, e o botão de solo SL21 é um botão a ser operado quando a configuração de solo descrita posteriormente é realizada.
[00164] Além disso, na área TM21, que é uma área de linha do tempo para a faixa do objeto do vocal, por exemplo, uma forma de onda de tempo L21 da faixa, ou seja, um sinal de áudio do objeto e linhas poligonais L22 a L24 representando o ângulo horizontal, ângulo vertical e o raio da série temporal do objeto são exibidos.
[00165] Em particular, os pontos na linha poligonal L22, a linha poligonal L23 e a linha poligonal L24 representam pontos de edição em que o ângulo horizontal, o ângulo vertical e o raio, respectivamente, da informação de posição do objeto em um determinado ponto de tempo (tempo) pode ser especificado. O ponto de edição pode ser um ponto no tempo definido com antecedência ou pode ser um ponto no tempo especificado pelo usuário. Como alternativa, o usuário pode excluir o ponto de edição.
[00166] Além disso, no momento da edição de cada faixa, o usuário pode reproduzir o som do conteúdo de áudio renderizado e realizar a edição enquanto ouve o som reproduzido, e um cursor de reprodução TC21 indicando a posição de reprodução do som do conteúdo de áudio, ou seja, o ponto de tempo durante a reprodução, também é exibido na tela de edição
25 / 90 ED21. Na imagem de POV P21, a bola do objeto de cada objeto é exibida com base na informação da posição do objeto em um ponto de tempo (tempo) indicado pelo cursor de reprodução TC21.
[00167] No exemplo mostrado na Fig. 5, o mesmo ID de grupo “3” é exibido na área de exibição de grupo da faixa correspondente a cada objeto do vocal e da guitarra elétrica, indicando assim que esses objetos pertencem ao mesmo grupo.
[00168] Portanto, na imagem de POV P21, um objeto bola BL15 do objeto da guitarra elétrica e um objeto bola BL16 do objeto do vocal são exibidos na mesma cor de grupo.
[00169] Além disso, no exemplo mostrado na Fig. 5, o cursor de reprodução TC21 está posicionado no ponto de tempo “13197”.
[00170] Presume-se que, nesse ponto de tempo, as informações de posição do objeto do objeto do vocal são as coordenadas (azimute, elevação, raio) = (-5,62078, 1,36393, 1) e as informações de posição do objeto do objeto elétrico guitarra são as coordenadas (-3,57278, -3,79667, 1).
[00171] Presume-se que a partir de tal estado mostrado na Fig. 5, o usuário operou a unidade de entrada 21 como mostrado na Fig. 6, por exemplo, e alterou a informação de posição do objeto do objeto do vocal no ponto de tempo “20227”. Deve-se notar que na Fig. 6, as partes correspondentes às da Fig. 5 recebem os mesmos números de referência, e a descrição das mesmas será omitida conforme apropriado.
[00172] Por exemplo, o usuário instrui a alteração das informações de posição do objeto operando a unidade de entrada 21 para mover a posição do ponto de edição ou mover a bola do objeto, ou inserindo diretamente as informações de posição do objeto alteradas. Ou seja, as informações de posição do objeto alterado são inseridas.
[00173] No exemplo da Fig. 6, presume-se que o usuário especificou as coordenadas (-22,5, 1,36393, 1) como informação de posição do objeto
26 / 90 alterada do objeto do vocal no ponto de tempo “20227”.
[00174] Então, de acordo com o sinal provido a partir da unidade de entrada 21 em resposta à operação do usuário, a unidade de determinação de posição 41 determina as informações de posição do objeto no ponto de tempo “20227” do objeto do vocal para as coordenadas (-22,5, 1.36393, 1) especificado pelo usuário.
[00175] Ao mesmo tempo, referindo-se à informação de grupo gravada na unidade de gravação 22, a unidade de determinação de posição 41 especifica outro objeto pertencente ao mesmo grupo que aquele do objeto do vocal cuja informação de posição do objeto foi alterada. Aqui, é especificado que o objeto da guitarra elétrica é um objeto do mesmo grupo que o objeto do vocal.
[00176] A unidade de determinação de posição 41 altera (determina) a informação de posição do objeto do objeto da guitarra elétrica pertencente ao mesmo grupo assim especificado de modo que a relação posicional relativa com o objeto do vocal seja mantida. Nesse momento, a informação da posição do objeto do objeto da guitarra elétrica é determinada com base nas coordenadas (-22,5, 1,36393, 1), que são as informações da posição do objeto alterado do objeto do vocal.
[00177] Portanto, nesse exemplo, as informações de posição do objeto do objeto da guitarra elétrica no ponto de tempo “20227” são as coordenadas (-20,452, -3,79667, 1).
[00178] Quando a informação de posição de objeto dos objetos assim agrupados é alterada (determinada), a unidade de controle de exibição 42 controla a unidade de exibição 24 para fazer com que a unidade de exibição 24 mova as bolas objeto desses objetos para as posições indicadas pela informação de posição de objeto alterada.
[00179] No exemplo mostrado na Fig. 6, a bola objeto BL16 do objeto do vocal e a bola objeto BL15 do objeto da guitarra elétrica pertencente ao
27 / 90 mesmo grupo são movidos para a direita na figura enquanto a relação posicional relativa de esses objetos são mantidos.
[00180] Além disso, presume-se que, a partir do estado mostrado na Fig. 6, o usuário operou a unidade de entrada 21 como mostrado na Fig. 7, por exemplo, e alterou a informação de posição do objeto do objeto do vocal no ponto de tempo “27462”. Deve-se notar que na Fig. 7, as partes correspondentes às da Fig. 5 recebem os mesmos números de referência, e a descrição das mesmas será omitida conforme apropriado.
[00181] No exemplo da Fig. 7, presume-se que o usuário especificou as coordenadas (-56, 1.36393, 1) como informação de posição do objeto alterada do objeto do vocal no ponto de tempo “27462”.
[00182] Então, de acordo com o sinal provido a partir da unidade de entrada 21 em resposta à operação do usuário, a unidade de determinação de posição 41 determina as informações de posição do objeto no ponto de tempo “27462” do objeto do vocal para as coordenadas (-56, 1.36393, 1) especificado pelo usuário.
[00183] Ao mesmo tempo, a unidade de determinação de posição 41 altera (determina) a informação de posição do objeto do objeto da guitarra elétrica pertencente ao mesmo grupo que aquele do objeto vocal de modo que a relação posicional relativa com o objeto do vocal seja mantida.
[00184] Portanto, nesse exemplo, a informação de posição do objeto do objeto da guitarra elétrica no ponto de tempo “27462” são as coordenadas (-
53.952, -3.79667, 1).
[00185] Quando a informação de posição de objeto dos objetos assim agrupados é alterada, a unidade de controle de exibição 42 controla a unidade de exibição 24 para fazer com que a unidade de exibição 24 mova as bolas objeto desses objetos para as posições indicadas pela informação de posição de objeto alterada.
[00186] No exemplo mostrado na Fig. 7, a objeto bola BL16 do objeto
28 / 90 do vocal e a objeto bola BL15 do objeto da guitarra elétrica pertencente ao mesmo grupo são movidos para a direita mais distante na figura do que no caso de Fig. 6, enquanto a relação posicional relativa desses objetos é mantida.
[00187] Nos exemplos das Figs. 6 e 7, o usuário é obrigado a inserir as informações de posição do objeto alterado do objeto do vocal, mas a entrada da informação de posição do objeto alterado e semelhantes não é necessária para o objeto da guitarra elétrica pertencente ao mesmo grupo que o do objeto do vocal.
[00188] Ou seja, apenas alterando as informações de posição do objeto de um objeto, as informações de posição do objeto de todos os outros objetos pertencentes ao mesmo grupo do objeto também são alteradas coletivamente automaticamente sem qualquer instrução do ponto de vista do usuário. Em outras palavras, o usuário não precisa fazer o trabalho de inserir e alterar as informações de posição de todos os objetos, um por um. Além disso, as informações de posição do objeto podem ser alteradas apropriadamente enquanto a relação de posição relativa dos objetos é mantida.
[00189] Conforme descrito acima, ao alterar as informações de posição do objeto de todos os objetos pertencentes ao mesmo grupo enquanto mantém sua relação posicional relativa, é possível editar as informações de posição do objeto de forma mais eficiente e fácil.
[00190] Deve-se notar que nas Figs. 6 e 7, um exemplo em que quando a informação da posição do objeto do objeto do vocal é alterada, a informação da posição do objeto do objeto da guitarra elétrica pertencente ao mesmo grupo é alterada de acordo com a alteração.
[00191] Porém, inversamente, quando a informação de posição do objeto do objeto da guitarra elétrica é alterada pelo usuário, a informação de posição do objeto do objeto do vocal é alterada de acordo com a alteração. <Explicação do Processamento de Movimentação de Objetos>
29 / 90
[00192] O processamento executado em um caso onde a informação de posição do objeto é alterada para mover a posição do objeto no espaço de reprodução, conforme descrito com referência às Figs. 5 a 7 será descrito aqui. Ou seja, o processamento de movimento do objeto pelo aparelho de processamento de informações 11 será descrito abaixo com referência ao fluxograma da Fig. 8. Deve-se notar que quando esse processamento de movimento de objeto é iniciado, pelo menos a tela de edição é exibida na unidade de exibição 24.
[00193] Na etapa S41, a unidade de controle 23 recebe a especificação do objeto do alvo de alteração da informação de posição do objeto e a informação de posição do objeto alterada do objeto.
[00194] Por exemplo, o usuário especifica um objeto de alteração de alvo operando a unidade de entrada 21 para selecionar uma área de faixa ou semelhante na tela de edição, e a unidade de controle 23 especifica o objeto especificado com base no sinal provido pela unidade de entrada 21.
[00195] Além disso, por exemplo, o usuário especifica as informações de posição do objeto alteradas operando a unidade de entrada 21 para realizar a entrada, como mover as posições dos pontos de edição do ângulo horizontal, o ângulo vertical e o raio que constitui a informação de posição do objeto exibida na área da linha do tempo da tela de edição.
[00196] Na etapa S42, referindo-se às informações do grupo gravadas na unidade de registro 22, a unidade de controle 23 especifica um objeto pertencente ao mesmo grupo que o objeto especificado na etapa S41.
[00197] Na etapa S43, a unidade de determinação de posição 41 altera (atualiza) as informações de posição do objeto do objeto especificado com base no sinal provido a partir da unidade de entrada 21 de acordo com a operação de especificação da informação de posição do objeto alterada.
[00198] Além disso, a unidade de determinação de posição 41 também altera as informações de posição do objeto de todos os outros objetos
30 / 90 pertencentes ao mesmo grupo especificado na etapa S42 de acordo com a alteração das informações de posição do objeto do objeto especificado. Nesse momento, as informações de posição do objeto são alteradas para que a relação posicional relativa de todos os objetos pertencentes ao grupo seja mantida (mantida).
[00199] Na etapa S44, a unidade de controle de exibição 42 controla a unidade de exibição 24 para atualizar a exibição da tela de edição e a imagem de POV exibida na unidade de exibição 24 de acordo com a alteração das informações de posição do objeto na etapa S43, e o movimento do objeto o processamento termina.
[00200] Por exemplo, a unidade de controle de exibição 42 atualiza a exibição das posições do ângulo horizontal, o ângulo vertical e o raio que constitui as informações de posição do objeto na área da linha do tempo da tela de edição e move a posição da bola do objeto no Imagem de POV. Quando as informações de posição do objeto são alteradas desta maneira, o objeto é movido no espaço de reprodução.
[00201] Conforme descrito acima, ao alterar a informação de posição do objeto de um objeto, o aparelho de processamento de informações 11 altera a informação de posição do objeto não apenas do objeto, mas também de todos os outros objetos pertencentes ao mesmo grupo do objeto. Nesse momento, o aparelho de processamento de informações 11 altera a informação de posição do objeto de todos os objetos pertencentes ao mesmo grupo de modo que a relação posicional relativa desses objetos seja mantida antes e depois da alteração.
[00202] Assim, ao alterar simultaneamente as informações de posição do objeto dos objetos pertencentes ao mesmo grupo, mantendo a relação posicional relativa desses objetos, é possível realizar a edição com mais eficiência. <Em relação ao par L/R>
31 / 90
[00203] A propósito, em um caso onde dois objetos emparelhados são agrupados, às vezes é desejado organizar as posições desses dois objetos no espaço de reprodução simetricamente em relação a um plano de referência que serve como uma referência predeterminada. O plano de referência mencionado aqui é, por exemplo, um plano médio incluindo uma linha reta paralela à direção da frente vista da posição de escuta O.
[00204] Por exemplo, em relação ao componente de reverberação, ou seja, o ambiente ou similar, existem muitas demandas de que se deseja fazer os dois objetos de ambiente serem emparelhados e organizar esses objetos simetricamente em relação ao plano de referência.
[00205] Portanto, também pode ser possível especificar dois objetos desejados para serem dispostos simetricamente em relação ao plano de referência como objetos que constituem um par L/R.
[00206] Os dois objetos em um par L/R constituem um grupo. Então, em um caso onde a alteração da informação de posição do objeto de um desses dois objetos é instruída, não apenas a informação de posição do objeto de um objeto, mas também a informação de posição do objeto do outro objeto é alterada de modo a ser simétrica em relação para o plano de referência no espaço de reprodução.
[00207] Especificamente, por exemplo, em um caso em que um objeto a ser agrupado é especificado como um objeto que constitui um par L/R, o usuário realiza uma operação de especificação do item de menu ME12 como mostrado na Fig. 9. Deve ser notado que na Fig. 9, as partes correspondentes às da Fig. 2 recebem os mesmos números de referência e a sua descrição será omitida conforme apropriado.
[00208] A Fig. 9 mostra uma parte de uma tela de edição ED31 exibida na unidade de exibição 24 e, nesse exemplo, a tela de edição ED31 exibe uma área de faixa e uma área de linha de tempo para cada uma das duas faixas.
[00209] Por exemplo, uma área TR31 é uma área de faixa de uma faixa
32 / 90 correspondente a um objeto, cujo nome de objeto é “Amb_L”, do ambiente disposto no lado esquerdo frontal, visto da posição de escuta O. Da mesma forma, uma área TR32 é uma área de faixa de uma faixa correspondente a um objeto, cujo nome de objeto é “Amb_R”, do ambiente arranjado no lado direito frontal, visto da posição de escuta O.
[00210] Além disso, na Fig. 9, o item de menu ME11, o item de menu ME12 e a janela de seleção de grupo GW11 são exibidos em um estado onde a faixa correspondente à área TR32, ou seja, o objeto “Amb_R” é selecionado (especificado).
[00211] Nesse estado, quando o usuário opera a unidade de entrada 21 para operar o item de menu ME12 para especificação como um par L/R, uma marca de seleção é exibida no lado esquerdo da figura do caractere “par L/R” no item de menu ME12. Assim, o objeto “Amb_R” passa a ser um objeto que constitui o par L/R.
[00212] Além disso, na janela de seleção de grupo GW11, um ícone de grupo cujo ID de grupo é “9” é especificado (selecionado) pelo cursor CS11 aqui. Portanto, o objeto “Amb_R” pertence ao grupo cujo ID do grupo é “9” e passa a ser um objeto que constitui o par L/R.
[00213] No exemplo da Fig. 9, o ID do grupo “9” é exibido na área de exibição do grupo na área TR31 também para a faixa correspondente ao objeto “Amb_L”.
[00214] Portanto, pode-se entender que o objeto “Amb_L” e o objeto “Amb_R” pertencem ao grupo cujo ID de grupo é “9” e são objetos que constituem o par L/R.
[00215] Em um caso em que seja possível especificar não apenas um grupo, ao qual cada objeto pertence, mas também se cada objeto está ou não em um par L/R, um sinalizador de par L/R que é uma informação que indica se cada objeto é um objeto que constitui um par L/R só precisa ser incluído nas informações do grupo.
33 / 90
[00216] Nesse caso, por exemplo, as informações do grupo incluem um ID do grupo, informações que indicam um objeto pertencente ao grupo e um sinalizador de par L/R.
[00217] Por exemplo, o valor “1” de um marcador de par L/R indica que os dois objetos pertencentes ao grupo estão em um par L/R e o valor “0” de um marcador de par L/R indica que uma pluralidade de os objetos pertencentes ao grupo não está em um par L/R.
[00218] Em particular, o grupo correspondente às informações do grupo incluindo um sinalizador de par L/R cujo valor é “1” é sempre composto por dois objetos. Em outras palavras, é possível especificar dois objetos como um par L/R apenas no caso em que os dois objetos constituem um grupo. Portanto, pode-se dizer que ser um par L/R indica uma característica do grupo.
[00219] Conforme descrito acima, em um caso em que o objeto “Amb_L” e o objeto “Amb_R” são transformados em um par L/R, a informação de posição do objeto desses objetos é alterada, por exemplo, como mostrado nas Figs. 10 a 12, de acordo com a operação do usuário. Deve-se notar que nas Figs. 10 a 12, as partes correspondentes às da Fig. 9 recebem os mesmos números de referência e a descrição das mesmas será omitida conforme apropriado.
[00220] Por exemplo, no exemplo mostrado na Fig. 10, a tela de edição ED31 e uma imagem de POV P31 são exibidas na unidade de exibição 24.
[00221] Na tela de edição ED31, a área TR31, que é uma área de faixa do objeto “Amb_L”, e a área TR32, que é uma área de faixa do objeto “Amb_R”, são exibidas na cor do grupo do grupo cujo grupo O ID é “9” ao qual esses objetos pertencem. Além disso, na área da linha do tempo na tela de edição ED31, um cursor de reprodução TC31 é posicionado no ponto de tempo “0”.
[00222] Em tal estado, presume-se que o usuário operou a unidade de
34 / 90 entrada 21 e especificou as coordenadas (30, 0, 1) como as informações de posição do objeto “Amb_L” no ponto de tempo “0”.
[00223] Então, a unidade de determinação de posição 41 determina as informações de posição do objeto “Amb_L” no ponto de tempo “0” para as coordenadas (30, 0, 1). Ao mesmo tempo, a unidade de determinação de posição 41 determina as informações de posição do objeto do objeto “Amb_R” no ponto de tempo “0” de modo que a posição do objeto “Amb_R” no espaço de reprodução se torne simétrica com a posição do objeto “Amb_L” em relação ao plano de referência. Em outras palavras, as informações de posição do objeto “Amb_R” são alteradas.
[00224] Aqui, as informações de posição do objeto “Amb_R” no ponto de tempo “0” são as coordenadas (-30, 0, 1).
[00225] Quando a informação de posição do objeto do objeto “Amb_L” e do objeto “Amb_R” pertencente ao mesmo grupo e estando em um par L/R é determinada desta maneira, a unidade de controle de exibição 42 atualiza a exibição da imagem de POV P31 em com base nas informações de posição do objeto determinado.
[00226] Aqui, um objeto bola BL31 do objeto “Amb_L” é exibida em uma posição correspondente às coordenadas (30, 0, 1) na imagem de POV P31.
[00227] O nome do objeto “Amb_L” é exibido na bola objeto BL31, e a bola objeto BL31 é exibida em uma cor de grupo do grupo cujo ID de grupo é “9”.
[00228] Por outro lado, um objeto bola BL32 do objeto “Amb_R” é exibida em uma posição correspondente às coordenadas (-30, 0, 1) na imagem de POV P31.
[00229] O nome do objeto “Amb_L” é exibido na bola objeto BL31, e a bola objeto BL31 é exibida em uma cor de grupo do grupo cujo ID de grupo é “9”.
35 / 90
[00230] Em particular, aqui, um plano incluindo a posição de escuta O e uma linha reta paralela à direção de profundidade na figura é usado como um plano de referência, e a bola objeto BL31 e a bola objeto BL32 são dispostos em posições simétricas em relação ao plano de referência.
[00231] Além disso, presume-se que a partir do estado mostrado na Fig. 10, o usuário operou a unidade de entrada 21, conforme mostrado na Fig. 11 e especificou as coordenadas (56.5, 0, 1) como as informações de posição do objeto “Amb_L” no ponto de tempo “20000”.
[00232] Em seguida, a unidade de determinação de posição 41 define as informações de posição do objeto “Amb_R” no ponto de tempo “20000” para as coordenadas (-56,5, 0, 1) de acordo com as coordenadas (56,5, 0, 1) como as informações de posição do objeto do objeto “Amb_L”.
[00233] Em seguida, a unidade de controle de exibição 42 controla a unidade de exibição 24 com base nas coordenadas (56,5, 0, 1) e nas coordenadas (-56,5, 0, 1) como a informação de posição do objeto alterada e atualiza a exibição do POV imagem P31.
[00234] Assim, a bola objeto BL31 é movida para a posição correspondente às coordenadas (56.5, 0, 1) na imagem de POV P31, e a bola objeto BL32 é movida para a posição correspondente às coordenadas (-56.5, 0, 1) na imagem de POV P31. A bola objeto BL31 e a bola objeto BL32 estão em um estado de disposição em posições simetricamente em relação ao plano de referência, de forma semelhante ao caso da Fig. 10, mesmo após o movimento.
[00235] Além disso, presume-se que a partir do estado mostrado na Fig. 11, o usuário operou a unidade de entrada 21 como mostrado na Fig. 12 e especificou as coordenadas (110, 25, 1) como a informação de posição do objeto “ Amb_L “no ponto de tempo” 40000 “.
[00236] Em seguida, a unidade de determinação de posição 41 define as informações de posição do objeto “Amb_R” no ponto de tempo “40000”
36 / 90 para as coordenadas (-110, 25, 1) de acordo com as coordenadas (110, 25, 1) como as informações de posição do objeto do objeto “Amb_L”.
[00237] Em seguida, a unidade de controle de exibição 42 controla a unidade de exibição 24 com base nas coordenadas (110, 25, 1) e nas coordenadas (-110, 25, 1) como as informações de posição do objeto alteradas e atualiza a exibição do POV imagem P31.
[00238] Assim, a bola objeto BL31 é movida para a posição correspondente às coordenadas (110,25,1) na imagem de POV P31, e a bola objeto BL32 é movida para a posição correspondente às coordenadas (- 110,25,1) na imagem de POV P31. A bola objeto BL31 e a bola objeto BL32 estão em um estado de disposição em posições simetricamente em relação ao plano de referência, de forma semelhante ao caso das Figs. 10 e 11, mesmo após o movimento.
[00239] Deve-se notar que um exemplo em que quando a informação de posição do objeto do objeto “Amb_L” do objeto “Amb_L” e o objeto “Amb_R”, que estão no par L/R, é especificada, a informação de posição do objeto do objeto “Amb_R” é alterado de acordo com o descrito aqui. No entanto, inversamente, quando a informação de posição do objeto “Amb_R” é especificada, a unidade de determinação de posição 41 altera as informações de posição do objeto “Amb_L” de acordo.
[00240] No caso em que o número de objetos pertencentes ao grupo é dois, conforme descrito acima, o usuário pode especificar esses dois objetos como o par L/R. Em outras palavras, o par L/R pode ser definido como uma característica do grupo.
[00241] Se a configuração do par L/R for realizada, apenas alterando as informações de posição do objeto de um objeto do par L/R, as informações de posição do objeto do outro objeto também são alteradas automaticamente sem qualquer instrução particular do ponto de vista do utilizador. Além disso, uma vez que os dois objetos no par L/R estão dispostos em posições simétricas em
37 / 90 relação ao plano de referência, o usuário pode definir facilmente as posições simétricas da imagem sonora. <Explicação do Processamento de Agrupamento>
[00242] O processamento de agrupamento executado pelo aparelho de processamento de informações 11 em um caso onde o par L/R pode ser especificado como descrito acima será descrito aqui. Ou seja, o processamento de agrupamento pelo aparelho de processamento de informações 11 será descrito abaixo com referência ao fluxograma da Fig. 13.
[00243] Quando o processamento de agrupamento é iniciado, o processamento da etapa S71 é realizado e o processamento da etapa S71 é semelhante ao processamento da etapa S11 na Fig. 4 e, portanto, a sua descrição será omitida. No entanto, na etapa S71, o usuário especifica o par L/R operando o item de menu para especificação como um par L/R na tela de edição conforme apropriado.
[00244] Na etapa S72, a unidade de controle 23 determina, com base no sinal provido pela unidade de entrada 21, se o número de objetos especificados como objetos a serem agrupados é ou não dois.
[00245] No caso em que é determinado na etapa S72 que não dois, isto é, três ou mais objetos são agrupados, então o processamento prossegue para a etapa S75.
[00246] Por outro lado, no caso em que é determinado na etapa S72 que dois objetos devem ser agrupados, a unidade de controle 23 determina na etapa S73 se os dois objetos a serem agrupados estão ou não em um par L/R. Por exemplo, quando dois objetos são agrupados, em um caso onde o item de menu ME12 mostrado na Fig. 9 foi operado e um par L/R foi especificado, eles são determinados como estando em um par L/R.
[00247] Em um caso em que os dois objetos são determinados como estando em um par L/R na etapa S73, a unidade de controle 23 define na etapa S74 o valor do marcador do par L/R do grupo, ao qual os dois objetos a serem
38 / 90 agrupados pertencem a “1”. Ou seja, um sinalizador de par L/R cujo valor é “1” é gerado.
[00248] Após o processamento da etapa S74 ser realizado, o processamento prossegue para a etapa S76.
[00249] Por outro lado, no caso em que é determinado na etapa S73 que os dois objetos não estão em um par L/R, o processamento segue para a etapa S75.
[00250] No caso em que é determinado na etapa S73 que os objetos não estão em um par L/R ou é determinado na etapa S72 que o número de objetos especificados não é dois, o processamento da etapa S75 é realizado.
[00251] Na etapa S75, a unidade de controle 23 define o valor do marcador do par L/R do grupo, ao qual a pluralidade de objetos a serem agrupados pertence a “0”. Ou seja, um sinalizador de par L/R cujo valor é “0” é gerado.
[00252] Após o processamento da etapa S75 ser realizado, o processamento prossegue para a etapa S76.
[00253] Após o sinalizador do par L/R ser gerado na etapa S74 ou etapa S75, o processamento da etapa S76 e da etapa S77 é realizado e o processamento de agrupamento termina.
[00254] Deve-se notar que o processamento da etapa S76 e da etapa S77 é semelhante ao processamento da etapa S12 e da etapa S13 na Fig. 4 e, portanto, a sua descrição será omitida. No entanto, na etapa S76, a unidade de controle 23 gera, de acordo com a operação de especificação pelo usuário na etapa S71, informações de grupo incluindo um ID de grupo, informações indicando um objeto pertencente ao grupo e o sinalizador de par L/R gerado em etapa S74 ou etapa S75.
[00255] Conforme descrito acima, o aparelho de processamento de informações 11 realiza agrupamento de acordo com a operação de entrada para a unidade de entrada 21 e gera informações de grupo incluindo o
39 / 90 sinalizador de par L/R.
[00256] Ao realizar o agrupamento desta maneira, as informações de posição do objeto ou semelhantes podem ser editadas com mais eficiência em unidades de grupo. Além disso, quanto ao par de objetos que é um par L/R, somente especificando a posição de um dos objetos, o usuário pode organizar os objetos em posições simétricas.
[00257] Além disso, mesmo em um caso onde o processamento de agrupamento descrito com referência à Fig. 13 é realizado, quando a alteração da informação de posição do objeto é instruída, processamento semelhante ao processamento de movimento do objeto descrito com referência à Fig. 8 é realizado basicamente.
[00258] No entanto, nesse caso, quando os objetos são objetos que constituem um par L/R, as informações de posição do objeto dos dois objetos são alteradas para que os dois objetos que estão no par L/R na etapa S43 se tornem simétricos em relação ao plano de referência. Ou seja, as informações de posição do objeto dos dois objetos são alteradas enquanto os dois objetos mantêm a relação simétrica em relação ao plano de referência. Portanto, também nesse caso, o usuário pode realizar a edição de forma mais eficiente e fácil. <Sobre edição simultânea das informações de posição do objeto na pluralidade de pontos de tempo>
[00259] A propósito, na tela de edição, o usuário pode especificar (alterar) o ângulo horizontal, o ângulo vertical e o raio que constitui a informação da posição do objeto para cada ponto de tempo, ou seja, para cada ponto de edição.
[00260] Além disso, em um caso em que as informações de posição do objeto são alteradas, o aparelho de processamento de informações 11 pode selecionar uma pluralidade de pontos de edição, especificando uma faixa de alteração, incluindo uma pluralidade de pontos de edição dispostos na direção
40 / 90 do tempo e deslocar (alterar) as posições (valores de coordenadas) da pluralidade de pontos de edição simultaneamente por uma quantidade de alteração predeterminada.
[00261] Daqui em diante, uma quantidade de alteração pela qual os valores de coordenadas de uma pluralidade de pontos de edição incluídos em uma faixa de alteração especificada, ou seja, o ângulo horizontal, o ângulo vertical e o raio são alterados simultaneamente por uma operação será especificamente referido como um deslocamento montante. Além disso, um ponto de edição incluído no intervalo de alteração também é especificamente referido como um ponto de edição de seleção.
[00262] Um exemplo específico de um caso em que uma pluralidade de pontos de edição em pontos de tempo diferentes uns dos outros são selecionados simultaneamente, especificando um intervalo de alteração, e os valores das coordenadas desses pontos de edição de seleção são alterados pelo valor de deslocamento será descrito aqui com referência às Figs. 14 a 17. Deve-se notar que nas Figs. 14 a 17, as partes correspondentes umas às outras recebem os mesmos números de referência e a descrição das mesmas será omitida conforme apropriado.
[00263] Em primeiro lugar, como mostrado na Fig. 14, por exemplo, presume-se que uma área TR41, que é uma área de faixa, e uma área TM41, que é uma área de linha do tempo, são exibidas para uma faixa do objeto “Amb_L” em uma tela de edição ED41 exibida na unidade de exibição 24.
[00264] Na Fig. 14, as linhas poligonais L41, L42 e L43 na área TM41, que é a área da linha do tempo, representam o ângulo horizontal, o ângulo vertical e o raio da série temporal do objeto “Amb_L”.
[00265] Em particular, aqui, edite os pontos EP41-1 a EP41-4 indicando os ângulos horizontais no ponto de tempo “20000”, o ponto de tempo “25000”, o ponto de tempo “30000” e o ponto de tempo “35000”, respectivamente, são providos na linha poligonal L41 indicando o ângulo
41 / 90 horizontal que constitui a informação de posição do objeto. Deve-se notar que os pontos de edição EP41-1 a EP41-4 serão daqui em diante também referidos simplesmente como o ponto de edição EP41 no caso em que não é necessário distingui-los uns dos outros.
[00266] Da mesma forma, os pontos de edição EP42-1 a EP42-4 indicando os ângulos verticais no ponto de tempo “20000”, o ponto de tempo “25000”, o ponto de tempo “30000” e o ponto de tempo “35000”, respectivamente, são providos em a linha poligonal L42. Deve notar-se que os pontos de edição EP42-1 a EP42-4 serão daqui em diante também referidos simplesmente como o ponto de edição EP42 no caso em que não é necessário distingui-los uns dos outros.
[00267] Além disso, os pontos de edição EP43-1 a EP43-4 indicando os raios no ponto de tempo “20000”, o ponto de tempo “25000”, o ponto de tempo “30000” e o ponto de tempo “35000”, respectivamente, são providos na linha poligonal L43. Deve notar-se que os pontos de edição EP43-1 a EP43-4 serão daqui em diante também referidos simplesmente como o ponto de edição EP43 em um caso em que não é necessário distingui-los uns dos outros.
[00268] Agora, deixe as coordenadas como as informações de posição do objeto nos respectivos pontos de tempo do ponto no tempo “20000”, no ponto no tempo “25000”, no ponto no tempo “30000” e no ponto no tempo “35000” para o objeto “Amb_L” ser (azimute, elevação, raio) = (56,5, 0, 1), (65,0, 0, 1), (35,0, 0, 1) e (90,0, 0, 1), respectivamente.
[00269] Em tal estado, quando o usuário seleciona uma faixa incluindo uma pluralidade de pontos de edição como uma faixa de alteração operando a unidade de entrada 21 para realizar uma operação, tal como seleção de faixa com o mouse como a unidade de entrada 21, por exemplo, um quadro W41 indicando a faixa de alteração conforme mostrado na Fig. 15 é exibida.
[00270] Nesse exemplo, o intervalo incluindo os quatro pontos de
42 / 90 edição EP42-1 a EP42-4 na linha poligonal L42 é circundado pelo quadro W41, e o intervalo cercado pelo quadro W41 é especificado como o intervalo de alteração.
[00271] Deve-se notar que um intervalo incluindo apenas um ponto de edição EP42 pode ser especificado como um intervalo de alteração, ou um intervalo incluindo pontos de edição de diferentes tipos (componentes de coordenadas) entre si, como o ângulo horizontal e o ângulo vertical pode ser especificado como um intervalo de alteração. Isto é, por exemplo, uma faixa incluindo uma pluralidade de pontos de edição EP41, EP42 e EP43 pode ser especificada como uma faixa de alteração.
[00272] Além disso, por exemplo, quando o ponto de edição em um ponto de tempo predeterminado está incluído no intervalo de alteração, o ponto de edição de outro componente de coordenada no mesmo ponto de tempo que o ponto de edição pode ser selecionado como estando incluído no intervalo de alteração.
[00273] Além disso, o método de especificar a faixa de alteração, ou seja, especificar o ponto de edição a ser incluído na faixa de alteração, pode ser qualquer método em que, por exemplo, operando o mouse enquanto pressiona a tecla de controle do teclado, cada edição ponto é especificado clicando-se ou algo semelhante com um ponteiro.
[00274] Quando a faixa de alteração é especificada, a unidade de controle de exibição 42 controla a unidade de exibição 24 para fazer com que a unidade de exibição 24 exiba uma tela de deslocamento OF41 mostrada na Fig. 16, por exemplo, na tela de edição ED41.
[00275] No exemplo mostrado na Fig. 16, a tela de deslocamento OF41 é exibida sobreposta na área TM41, que é a área da linha de tempo da tela de edição ED41.
[00276] A tela de deslocamento OF41 é provida com uma área de exibição de deslocamento OFT41 indicando um valor de deslocamento
43 / 90 quando a posição do ponto de edição de seleção na direção do tempo é movida, ou seja, o ponto de tempo do ponto de edição de seleção é alterado. O caractere “100” indicando o valor de deslocamento do ponto de tempo do ponto de edição de seleção (daqui em diante também referido como um valor de deslocamento de tempo em particular) é exibido na área de exibição de deslocamento OFT41.
[00277] Além disso, ambas as extremidades da área de exibição de deslocamento OFT41 na tela de deslocamento OF41 são providas com um botão BT41-1 e um botão BT41-2 para mover a posição do ponto de edição de seleção na direção do tempo pelo valor de deslocamento de tempo “100”.
[00278] Por exemplo, cada vez que o usuário opera a unidade de entrada 21 para pressionar o botão BT41-1 uma vez, a posição do ponto de edição de seleção na direção do tempo é movida pelo valor de deslocamento de tempo “100” na direção futura. Ou seja, o ponto de tempo da informação de posição do objeto aumenta pelo valor de deslocamento de tempo “100”.
[00279] Por outro lado, por exemplo, cada vez que o usuário opera a unidade de entrada 21 para pressionar o botão BT41-2 uma vez, a posição do ponto de edição de seleção na direção do tempo é movida pelo valor de deslocamento de tempo “100” na direção anterior. Ou seja, o ponto de tempo da informação de posição do objeto diminui pelo valor de deslocamento de tempo “100”. Deve-se notar que os botões BT41-1 e BT41-2 serão daqui em diante também designados simplesmente como botão BT41, no caso em que não seja necessário distingui-los um do outro.
[00280] A tela de deslocamento OF41 é provida com uma área de exibição de deslocamento OFT42 indicando um valor de deslocamento quando o ângulo horizontal indicado pelo ponto de edição da seleção é alterado, ou seja, a posição do ponto de edição da seleção é movida. O caractere “10” indicando o valor de deslocamento do ângulo horizontal (daqui em diante também referido como valor de deslocamento do ângulo horizontal
44 / 90 em particular) é exibido na área de exibição de deslocamento OFT42.
[00281] Ambas as extremidades da área de exibição de deslocamento OFT42 na tela de deslocamento OF41 são providas com um botão BT42-1 e um botão BT42-2 para mover o ângulo horizontal, que é o valor do ponto de edição da seleção, ou seja, a posição da seleção edite o ponto na direção para cima e para baixo pelo valor de deslocamento do ângulo horizontal “10”.
[00282] Por exemplo, cada vez que o usuário opera a unidade de entrada 21 para pressionar o botão BT42-1 uma vez, a posição do ponto de edição de seleção é movida pelo valor de deslocamento do ângulo horizontal “10” na direção para cima da figura. Ou seja, o ângulo horizontal da informação de posição do objeto aumenta pelo valor de deslocamento do ângulo horizontal “10”.
[00283] Por outro lado, por exemplo, cada vez que o usuário opera a unidade de entrada 21 para pressionar o botão BT42-2 uma vez, a posição do ponto de edição de seleção é movida pelo valor de deslocamento do ângulo horizontal “10” na direção descendente da figura. Ou seja, o ângulo horizontal da informação de posição do objeto diminui pelo valor de deslocamento do ângulo horizontal “10”. Deve-se notar que, a seguir, os botões BT42-1 e BT42-2 também serão referidos simplesmente como botão BT42, no caso em que não seja necessário distingui-los um do outro.
[00284] A tela de deslocamento OF41 é provida com uma área de exibição de deslocamento OFT43 indicando um valor de deslocamento quando o ângulo vertical indicado pelo ponto de edição da seleção é alterado, ou seja, a posição do ponto de edição da seleção é movida. O caractere “10” indicando o valor de deslocamento do ângulo vertical (daqui em diante também referido como valor de deslocamento do ângulo vertical em particular) é exibido na área de exibição de deslocamento OFT43.
[00285] Ambas as extremidades da área de exibição de deslocamento OFT43 na tela de deslocamento OF41 são providas com um botão BT43-1 e
45 / 90 um botão BT43-2 para mover o ângulo vertical, que é o valor do ponto de edição da seleção, ou seja, a posição da seleção edite o ponto na direção para cima e para baixo pelo valor de deslocamento do ângulo vertical “10”.
[00286] Por exemplo, cada vez que o usuário opera a unidade de entrada 21 para pressionar o botão BT43-1 uma vez, a posição do ponto de edição de seleção é movida pelo valor de deslocamento do ângulo vertical “10” na direção para cima da figura. Ou seja, o ângulo horizontal da informação de posição do objeto aumenta pelo valor de deslocamento do ângulo horizontal “10”.
[00287] Inversamente, por exemplo, cada vez que o usuário opera a unidade de entrada 21 para pressionar o botão BT43-2 uma vez, a posição do ponto de edição de seleção é movida pelo valor de deslocamento do ângulo vertical “10” na direção para baixo da figura. Ou seja, o ângulo vertical da informação de posição do objeto diminui pelo valor de deslocamento do ângulo vertical “10”. Deve-se notar que os botões BT43-1 e BT43-2 serão daqui em diante também designados simplesmente como botão BT43, no caso em que não seja necessário distingui-los um do outro.
[00288] A tela de deslocamento OF41 é provida com uma área de exibição de deslocamento OFT44 indicando um valor de deslocamento quando o raio indicado pelo ponto de edição da seleção é alterado, ou seja, a posição do ponto de edição da seleção é movida. O caractere “0,1” indicando o valor de deslocamento do raio (daqui em diante também referido como valor de deslocamento de raio em particular) é exibido na área de exibição de deslocamento OFT44.
[00289] Ambas as extremidades da área de exibição de deslocamento OFT44 na tela de deslocamento OF41 são providas com um botão BT44-1 e um botão BT44-2 para mover o raio, que é o valor do ponto de edição da seleção, ou seja, a posição de edição da seleção ponto na direção para cima e para baixo pelo valor de deslocamento do raio “0,1”.
46 / 90
[00290] Por exemplo, cada vez que o usuário opera a unidade de entrada 21 para pressionar o botão BT44-1 uma vez, a posição do ponto de edição de seleção é movida pelo valor de deslocamento do raio “0,1” na direção ascendente da figura. Ou seja, o raio da informação de posição do objeto aumenta pelo valor de deslocamento do raio “0,1”.
[00291] Inversamente, por exemplo, cada vez que o usuário opera a unidade de entrada 21 para pressionar o botão BT44-2 uma vez, a posição do ponto de edição de seleção é movida pelo valor de deslocamento do raio “0,1” na direção para baixo da figura. Ou seja, o raio da informação de posição do objeto diminui pelo valor de deslocamento do raio “0,1”. Deve-se notar que, a seguir, os botões BT44-1 e BT44-2 também serão referidos simplesmente como botão BT44, no caso em que não seja necessário distingui-los um do outro.
[00292] Além disso, o valor numérico na área de exibição de deslocamento OFT41 para a área de exibição de deslocamento OFT44, ou seja, o valor de deslocamento pode ser capaz de ser alterado para qualquer valor pela operação do usuário da unidade de entrada 21.
[00293] Conforme descrito acima, quando o intervalo cercado pelo quadro W41 é especificado como o intervalo de alteração e a tela de deslocamento OF41 é exibida, o usuário, ao operar a unidade de entrada 21, opera o botão BT41, o botão BT42, o botão BT43 e o botão BT44 provido na tela de deslocamento OF41.
[00294] Isso permite que o usuário instrua a alteração nas unidades de valor de deslocamento para cada componente das informações de posição do objeto. Ou seja, o usuário pode executar uma operação na interface do usuário que é a tela de deslocamento OF41 e mover o ponto de edição de seleção em relação a outro ponto de edição.
[00295] Por exemplo, presume-se que o usuário operou o botão BT43- 1 cinco vezes no estado mostrado na Fig. 15, ou seja, no estado onde as
47 / 90 coordenadas do ponto de tempo “20000”, o ponto de tempo “25000”, o ponto de tempo “30000” e o ponto de tempo “35000” como as informações de posição do objeto são (56,5, 0, 1), (65,0, 0, 1), (35,0, 0, 1) e (90,0, 0, 1). Ou seja, presume-se que o usuário realizou uma operação de aumento do ângulo vertical indicado pelos quatro pontos de edição EP42, que são os pontos de edição da seleção, em 50 graus.
[00296] Quando tal operação é realizada, a unidade de determinação de posição 41 aumenta, em 50, o ângulo vertical da informação de posição do objeto do ponto de tempo “20000”, o ponto de tempo “25000”, o ponto de tempo “30000” e o tempo ponto “35000” do objeto “Amb_L” correspondente ao ponto de edição de seleção com base no sinal provido pela unidade de entrada 21.
[00297] Devido a isso, as coordenadas do ponto de tempo “20000”, o ponto de tempo “25000”, o ponto de tempo “30000” e o ponto de tempo “35000” do objeto “Amb_L” conforme as informações de posição do objeto são alteradas para (56,5, 50, 1), (65,0, 50, 1), (35,0, 50, 1) e (90,0, 50, 1).
[00298] Nesse exemplo, apenas ao operar o botão BT43, o usuário pode alterar simultaneamente as informações de posição do objeto nos quatro pontos de tempo pelo valor de deslocamento do ângulo vertical.
[00299] Quando a informação de posição do objeto é alterada desta maneira, a unidade de controle de exibição 42 controla a unidade de exibição 24 para atualizar a exibição da tela de edição ED41. Isto é, como mostrado na Fig. 16, a unidade de controle de exibição 42 atualiza a exibição da tela de edição ED41 de modo que os pontos de edição EP42-1 a EP42-4 movam para cima na figura em comparação com o caso mostrado na Fig. 15.
[00300] Além disso, presume-se que o usuário tenha operado o botão BT41-1 dez vezes nesse estado. Ou seja, presume-se que o usuário executou uma operação de aumento do ponto de tempo do ponto de edição da seleção em 1000.
48 / 90
[00301] Quando tal operação é realizada, a unidade de determinação de posição 41 aumenta, em 1000, o ponto de tempo da informação de posição do objeto do objeto “Amb_L” correspondente ao ponto de edição de seleção com base no sinal provido a partir da unidade de entrada 21.
[00302] Ou seja, as informações de posição do objeto “Amb_L”, que foi do ponto de tempo “20000”, o ponto de tempo “25000”, o ponto de tempo “30000” e o ponto de tempo “35000”, são alteradas para as informações de posição do objeto do ponto de tempo “21000”, o ponto de tempo “26000”, o ponto de tempo “31000” e o ponto de tempo “36000”.
[00303] Como resultado, as coordenadas no ponto de tempo “21000”, o ponto de tempo “26000”, o ponto de tempo “31000” e o ponto de tempo “36000” do objeto “Amb_L” conforme as informações de posição do objeto se tornam (56,5, 50, 1), (65,0, 50, 1), (35,0, 50, 1) e (90,0, 50, 1).
[00304] Ao mesmo tempo, os pontos de edição não existem mais no ponto “20000”, no ponto “25000”, no ponto “30000” e no ponto “35000”, em que houve pontos de edição até agora, e as informações de posição do objeto nesses pontos de tempo são obtidas por processamento de interpolação descrito posteriormente.
[00305] Deve-se notar que apenas o ponto de edição EP42 do ângulo vertical é o ponto de edição de seleção aqui, mas no caso em que o ponto de tempo do ponto de edição é alterado, o ponto de tempo da informação de posição do objeto é alterado com a edição o ponto EP41 e o ponto de edição EP43 ao mesmo tempo que o ponto de edição EP42 também são pontos de edição de seleção.
[00306] Quando a informação de posição do objeto é alterada desta maneira, a unidade de controle de exibição 42 controla a unidade de exibição 24 para atualizar a exibição da tela de edição ED41. Isto é, como mostrado na Fig. 17, a unidade de controle de exibição 42 atualiza a exibição da tela de edição ED41 de modo que os pontos de edição EP41 a EP43 se movam para a
49 / 90 direita na figura em comparação com o caso mostrado na Fig. 16.
[00307] Ao tornar possível alterar coletivamente a pluralidade de pontos de edição incluídos na faixa de alteração pelo valor de deslocamento, conforme descrito acima, a edição pode ser realizada de forma mais fácil e eficiente do que em um caso onde a pluralidade de pedaços de informações de posição de objeto em diferentes pontos de tempo são editados um por um.
[00308] Deve-se notar que, em um caso em que a informação de posição do objeto em uma pluralidade de pontos de tempo de um objeto é alterada coletivamente pelo valor de deslocamento, quando há outro objeto pertencente ao mesmo grupo que o do objeto, a posição do objetas informações em uma pluralidade de pontos de tempo do outro objeto também são alteradas.
[00309] Por exemplo, presume-se que o objeto “Amb_L” e o objeto “Amb_R” pertencem ao mesmo grupo, e a alteração das informações de posição do objeto de um ponto de tempo A1 e um ponto de tempo A2 do objeto “Amb_L” foi instruído por uma operação para a tela de deslocamento OF41.
[00310] Nesse caso, a unidade de determinação de posição 41 altera as informações de posição do objeto do ponto de tempo A1 e do ponto de tempo A2 do objeto “Amb_L” e do objeto “Amb_R” em unidades de valor de deslocamento, mantendo a relação posicional relativa entre o objeto “Amb_L” e o objeto “Amb_R”. <Explicação do Processamento de Movimento de Compensação>
[00311] Em seguida, a operação do aparelho de processamento de informações 11 quando a informação de posição do objeto em uma pluralidade de pontos de tempo diferentes é coletivamente e simultaneamente alterada pela operação para a tela de deslocamento descrita acima será descrita. Ou seja, o processamento de deslocamento do objeto pelo aparelho de processamento de informações 11 será descrito abaixo com referência ao
50 / 90 fluxograma da Fig. 18.
[00312] Na etapa S101, a unidade de controle 23 recebe o objeto do alvo de alteração da informação de posição do objeto e a especificação do intervalo de alteração do objeto.
[00313] Por exemplo, o usuário opera a unidade de entrada 21 para especificar diretamente um ou mais pontos de edição exibidos na área da linha do tempo da tela de edição ou para especificar uma área incluindo um ou mais pontos de edição, especificando assim um intervalo de alteração. Com base no sinal provido pela unidade de entrada 21, a unidade de controle 23 especifica o objeto especificado como o alvo de alteração e a faixa de alteração especificada para o objeto, isto é, o ponto de edição de seleção para alterar simultaneamente o valor da coordenada.
[00314] Na etapa S102, a unidade de controle de exibição 42 controla a unidade de exibição 24 para fazer com que a tela de deslocamento seja sobreposta e exibida na área de linha do tempo da tela de edição exibida na unidade de exibição 24. Devido a isso, a tela de deslocamento OF41 mostrada na Fig. 16, por exemplo, é exibida.
[00315] Na etapa S103, a unidade de controle 23 recebe uma operação de alteração da posição do ponto de edição de seleção por uma operação na tela de deslocamento, isto é, uma entrada de uma quantidade de alteração do valor de coordenada.
[00316] Quando a tela de deslocamento é exibida, o usuário opera a unidade de entrada 21 para inserir uma quantidade de alteração para alterar o ponto de edição de seleção em unidades de quantidade de deslocamento. Por exemplo, no exemplo mostrado na Fig. 16, o usuário instrui a alteração do valor da coordenada operando o botão BT41, o botão BT42, o botão BT43 e o botão BT44.
[00317] Na etapa S104, com base no sinal provido a partir da unidade de entrada 21, a unidade de determinação de posição 41 altera
51 / 90 simultaneamente, em unidades de quantidade de deslocamento, o valor do ponto de edição de seleção incluído na faixa de alteração do objeto especificado, isto é, as informações de posição do objeto. Na etapa S104, a informação de posição do objeto em cada um de um ou mais pontos no tempo é alterada simultaneamente pela quantidade de alteração especificada pelo usuário em unidades de valor de deslocamento.
[00318] Por exemplo, no estado mostrado na Fig. 15, em um caso em que o botão BT43-1 mostrado na Fig. 16 é operado apenas uma vez pelo usuário, a unidade de determinação de posição 41 aumenta, em 10 graus, o ângulo vertical que constitui as informações de posição do objeto no ponto de tempo correspondente ao ponto de edição da seleção.
[00319] Na etapa S105, a unidade de controle 23 determina se o objeto da meta de alteração pertence ou não ao grupo com base no objeto da meta de alteração nas informações de posição do objeto e nas informações de grupo registradas na unidade de registro 22. Em outras palavras, é determinado se há ou não outro objeto pertencente ao mesmo grupo do objeto do alvo de alteração.
[00320] No caso em que é determinado na etapa S105 que nenhum objeto pertence ao grupo, isto é, não há nenhum outro objeto pertencente ao mesmo grupo, o processamento prossegue para a etapa S107.
[00321] Por outro lado, no caso em que é determinado na etapa S105 que o objeto pertence ao grupo, isto é, há outro objeto pertencente ao mesmo grupo, o processamento segue para a etapa S106.
[00322] Na etapa S106, a unidade de determinação de posição 41 altera as informações de posição do objeto de todos os outros objetos pertencentes ao mesmo grupo do objeto do alvo de alteração. Nesse momento, a unidade de determinação de posição 41 altera as informações de posição do objeto dos outros objetos em unidades de valor de deslocamento de acordo com a alteração das informações de posição do objeto do objeto do alvo de alteração
52 / 90 de modo que a relação posicional relativa de todos os objetos o pertencimento ao grupo no espaço de reprodução é mantido. Deve-se notar que, em um caso em que o objeto da meta de alteração é um objeto de um par L/R, a informação de posição do objeto do outro objeto está no par L/R em relação ao objeto da alteração o alvo é alterado de forma que os dois objetos no par L/R sejam simétricos em relação ao plano de referência.
[00323] Depois que as informações de posição do objeto do outro objeto são alteradas, o processamento prossegue para a etapa S107.
[00324] Depois de ser determinado na etapa S105 que o objeto não pertence ao grupo, ou o processamento da etapa S106 ser executado, o processamento da etapa S107 é executado e o processamento do movimento de deslocamento termina. Deve-se notar que o processamento da etapa S107 é semelhante ao processamento da etapa S44 na Fig. 8 e, portanto, a sua descrição será omitida.
[00325] Como descrito acima, o aparelho de processamento de informações 11 altera simultaneamente, em unidades de valor de deslocamento, a informação de posição do objeto correspondente a um ou mais pontos de edição incluídos na faixa de alteração. Ao fazer isso, o número de operações do usuário pode ser reduzido em comparação com o caso em que a posição do ponto de edição, ou seja, o valor da coordenada, é alterada uma a uma, e a edição pode ser realizada de forma mais eficiente e fácil. <Sobre o processamento de interpolação de informações de posição do objeto>
[00326] A propósito, o aparelho de processamento de informações 11 contém informação de posição de objeto, isto é, meta informação para o ponto de tempo em que o ponto de edição existe basicamente, e não mantém meta informação para o ponto de tempo em que o ponto de edição não existe.
[00327] No entanto, no momento da renderização do conteúdo de áudio, são necessárias informações de posição do objeto para todos os pontos
53 / 90 de tempo. Portanto, no aparelho de processamento de informações 11, a informação de posição do objeto em um ponto de tempo em que um ponto de edição não existe é obtida por processamento de interpolação no momento da renderização do conteúdo de áudio ou no momento da saída do conteúdo de áudio.
[00328] Por exemplo, conforme mostrado na Fig. 19, é comum selecionar dois pontos de edição adjacentes e obter o valor da coordenada em cada ponto de tempo entre esses pontos de edição por interpolação linear.
[00329] Na Fig. 19, uma tela de edição ED51 exibe as linhas poligonais de L51 a L53 que representam o ângulo horizontal, o ângulo vertical e o raio que constitui as informações de posição do objeto de séries temporais para a faixa do objeto cujo nome do objeto é “Vo”.
[00330] Focando no ângulo horizontal da série temporal indicada pela linha poligonal L51, por exemplo, o ângulo horizontal (informações de posição do objeto) em um ponto de tempo em que existe um ponto de edição EP51-1 e o ângulo horizontal em um ponto de tempo em que uma edição ponto EP51-2 existe adjacente ao ponto de edição EP51-1 são mantidos pelo aparelho de processamento de informações 11.
[00331] Por outro lado, o ângulo horizontal de um ponto de tempo existente entre aqueles pontos de edição EP51-1 e EP51-2 não são mantidos e, portanto, os ângulos horizontais desses pontos de tempo são obtidos por interpolação linear com base nos valores de coordenadas daqueles tempos aponta no ponto de edição EP51-1 e os valores das coordenadas desses pontos de tempo no ponto de edição EP51-2. Deve notar-se que os pontos de edição EP51-1 e EP51-2 serão daqui em diante também referidos simplesmente como o ponto de edição EP51 no caso em que não é necessário distingui-los uns dos outros.
[00332] Presume-se que em um caso onde a interpolação linear é realizada, o ângulo horizontal do objeto altera a uma velocidade constante
54 / 90 entre os dois pontos de edição EP51, ou seja, o objeto se move na direção do ângulo horizontal a uma velocidade angular constante. Em outras palavras, uma alteração linear do ângulo horizontal indica que o objeto está se movendo na direção do ângulo horizontal a uma velocidade angular constante.
[00333] No entanto, uma vez que o objeto nem sempre se move a uma velocidade angular constante, é conveniente ser capaz de selecionar um método de processamento de interpolação (método de interpolação) da informação de posição do objeto entre uma pluralidade de métodos de interpolação de acordo com o padrão de movimento do objeto.
[00334] Portanto, no aparelho de processamento de informações 11, é possível selecionar um método de interpolação para cada seção entre os pontos de edição adjacentes uns aos outros para cada componente que constitui a informação de posição do objeto.
[00335] Especificamente, por exemplo, como mostrado na Fig. 20, o usuário pode exibir uma tela de seleção de método de interpolação SG51 operando a unidade de entrada 21 para selecionar uma seção entre dois pontos de edição adjacentes um ao outro na área de linha do tempo da tela de edição ED51.
[00336] Deve-se notar que na Fig. 20, as partes correspondentes às da Fig. 19 recebem os mesmos números de referência, e a descrição das mesmas será omitida conforme apropriado. A operação para exibir a tela de seleção do método de interpolação SG51 pode ser qualquer operação, como uma operação de clique.
[00337] No exemplo da Fig. 20, uma seção entre os pontos de edição EP51-1 e EP51-2 é especificada, e na tela de seleção do método de interpolação SG51, é possível selecionar o método de interpolação do ângulo horizontal na seção.
[00338] Especificamente, a tela de seleção do método de interpolação SG51 é provida com itens de menu ME51 a ME54 para serem operados
55 / 90 quando cada um dos quatro métodos de interpolação diferentes é especificado como um método de interpolação e o usuário especifica o método de interpolação especificando qualquer um desses itens de menu.
[00339] Por exemplo, o item de menu ME51 indica interpolação linear e o item de menu ME52 indica interpolação de cosseno, que é a interpolação usando uma função de cosseno.
[00340] Além disso, o item de menu ME53 indica um método de interpolação que realiza uma alteração de valor de coordenada retangular em que o mesmo valor de coordenada continua desde o início até imediatamente antes do final da seção do alvo de interpolação e o valor de coordenada altera rapidamente imediatamente antes do final da seção. O item de menu ME54 indica um método de interpolação que realiza uma alteração de valor de coordenada retangular em que o valor de coordenada altera rapidamente imediatamente após o início da seção do alvo de interpolação e, posteriormente, o mesmo valor de coordenada continua até o final da seção.
[00341] Em cada item de menu, uma linha reta, uma linha curva ou uma linha poligonal que representa uma alteração no valor da coordenada quando o processamento de interpolação é realizado por um método de interpolação correspondente ao item de menu é desenhado, e o usuário pode intuitivamente compreender apenas o método de interpolação visualizando o item de menu. Por exemplo, uma curva de cosseno é desenhada no item de menu ME52 indicando a interpolação de cosseno e o usuário pode compreender intuitivamente que o método de interpolação é a interpolação de cosseno.
[00342] Deve-se notar que o método de processamento de interpolação (método de interpolação) não está limitado ao método descrito com referência à Fig. 20, e pode ser qualquer outro método, como um método de interpolação usando outra função quadrática ou semelhante.
[00343] Além disso, como mostrado na Fig. 20, quando o usuário
56 / 90 seleciona (especifica) o item de menu ME52 operando a unidade de entrada 21 em um estado onde uma seção entre os pontos de edição EP51-1 e EP51-2 é especificada, a determinação da posição a unidade 41 realiza interpolação de cosseno de acordo com o sinal provido a partir da unidade de entrada 21.
[00344] Ou seja, com base no ângulo horizontal indicado pelo ponto de edição EP51-1 e o ângulo horizontal indicado pelo ponto de edição EP51-2, a unidade de determinação de posição 41 obtém o ângulo horizontal em cada ponto de tempo entre esses pontos de edição EP51- 1 e EP51-2 por interpolação de cosseno usando uma função de cosseno. Deve-se notar que, embora um exemplo em que a interpolação de cosseno é realizada apenas para o ângulo horizontal da informação de posição do objeto tenha sido descrito, a interpolação de cosseno pode ser realizada para o ângulo vertical e o raio simultaneamente com o ângulo horizontal em uma seção onde a interpolação do cosseno é executada. Ou seja, em um caso em que um método de interpolação, como a interpolação de cosseno, é especificado para uma seção, a interpolação pode ser realizada pelo método de interpolação especificado para o ângulo horizontal, o ângulo vertical e o raio das informações de posição do objeto na seção.
[00345] Quando a interpolação de cosseno é realizada como o processamento de interpolação como descrito acima, a exibição da tela de edição ED51 é atualizada como mostrado na Fig. 21, por exemplo. Deve-se notar que na Fig. 21, as partes correspondentes às da Fig. 19 recebem os mesmos números de referência, e a descrição das mesmas será omitida conforme apropriado.
[00346] No exemplo mostrado na Fig. 21, a seção entre o ponto de edição EP51-1 e o ponto de edição EP51-2 onde a interpolação de cosseno foi realizada não é desenhada como uma linha reta, mas como uma curva de cosseno.
[00347] Deve-se notar que em um caso onde nenhum método de
57 / 90 interpolação particular é especificado, o valor da coordenada entre os pontos de edição pode ser interpolado por um método de interpolação definido pela configuração inicial, por exemplo, interpolação linear ou semelhante.
[00348] Além disso, nesse caso, em uma seção onde outro método de interpolação diferente da configuração inicial foi selecionado, uma linha (linha reta, linha curva e linha poligonal) conectando dois pontos de edição adjacentes pode ser exibida em uma cor diferente daquela da linha na seção onde a interpolação linear definida pelo ajuste inicial foi realizada. Além disso, uma linha conectando os pontos de edição pode ser exibida em uma cor diferente para cada método de interpolação selecionado. Ao fazer isso, o usuário pode discriminar instantaneamente qual método de interpolação foi especificado e semelhantes. <Explicação do Processamento de Seleção do Método de Interpolação>
[00349] Subsequentemente, a operação do aparelho de processamento de informações 11 quando o usuário seleciona o método de interpolação para a seção entre os pontos de edição será descrita. Ou seja, o processamento de seleção do método de interpolação realizado pelo aparelho de processamento de informações 11 será descrito abaixo com referência ao fluxograma da Fig.
22. Deve-se notar que quando esse processamento de seleção de método de interpolação é iniciado, a tela de edição é exibida na unidade de exibição 24.
[00350] Na etapa S131, a unidade de controle 23 recebe a especificação de dois pontos de edição exibidos na área da linha do tempo da tela de edição.
[00351] Por exemplo, no caso de seleção de um método de interpolação para uma seção desejada, o usuário especifica a seção do alvo de seleção do método de interpolação operando a unidade de entrada 21 para especificar dois pontos de edição. Com base no sinal provido a partir da unidade de entrada 21 em resposta à operação do usuário, a unidade de controle 23 especifica os pontos de edição como uma posição inicial e uma
58 / 90 posição final da seção do alvo de seleção do método de interpolação.
[00352] Na etapa S132, a unidade de controle de exibição 42 controla a unidade de exibição 24 para fazer com que a unidade de exibição 24 sobreponha e exiba a tela de seleção do método de interpolação na área de linha do tempo da tela de edição. Assim, a tela de seleção do método de interpolação SG51 mostrada na Fig. 20, por exemplo, é exibida.
[00353] Quando a tela de seleção do método de interpolação é exibida, o usuário especifica o método de interpolação operando a unidade de entrada 21 para selecionar (especificar) um item de menu desejado na tela de seleção do método de interpolação.
[00354] Na etapa S133, com base no sinal provido pela unidade de entrada 21 em resposta à operação do usuário, a unidade de controle 23 seleciona o método de interpolação para a seção entre os dois pontos de edição especificados na etapa S131 e gera informações de especificação do método de interpolação indicando o resultado da seleção. A unidade de controle 23 fornece à unidade de registro 22 as informações de especificação do método de interpolação assim geradas.
[00355] Na etapa S134, a unidade de gravação 22 registra a informação de especificação do método de interpolação provida a partir da unidade de controle 23 como uma parte dos dados do conteúdo de áudio.
[00356] Além disso, quando a informação de especificação do método de interpolação é gerada, a unidade de controle de exibição 42 controla a unidade de exibição 24 para atualizar a exibição da tela de edição. Devido a isso, como mostrado na Fig. 21, por exemplo, uma linha na seção do alvo de processamento, ou seja, uma linha conectando dois pontos de edição, é exibida em uma forma e cor correspondentes ao método de interpolação indicado pelo método de interpolações informações de especificação.
[00357] Além disso, o processamento de interpolação das informações de posição do objeto, mais especificamente, cada componente do ângulo
59 / 90 horizontal, o ângulo vertical e o raio que constitui a informação de posição do objeto, é realizado em um momento apropriado, como no momento da renderização do conteúdo de áudio.
[00358] Ou seja, na etapa S135, a unidade de determinação de posição 41 realiza o processamento de interpolação para cada ponto de tempo em que as informações de posição do objeto não são mantidas e gera informações de posição do objeto para todos os objetos.
[00359] Nesse momento, com base nas informações de posição do objeto retido no outro ponto de tempo, a unidade de determinação de posição 41 realiza o processamento de interpolação para cada componente da informação de posição do objeto pelo método de interpolação indicado pela informação de especificação do método de interpolação registrada na gravação unidade 22.
[00360] Quando as informações de posição do objeto em cada ponto de tempo são obtidas pelo processamento de interpolação, o processamento de seleção do método de interpolação termina. Depois disso, conforme apropriado, os dados do conteúdo de áudio são produzidos e a renderização é realizada com base nos dados do conteúdo de áudio.
[00361] Conforme descrito acima, o aparelho de processamento de informações 11 gera e registra a informação de especificação do método de interpolação indicando o método de interpolação especificado para cada seção para cada componente que constitui a informação de posição do objeto. Em seguida, o aparelho de processamento de informações 11 executa o processamento de interpolação pelo método de interpolação indicado pela informação de especificação do método de interpolação para obter a informação de posição do objeto em cada ponto de tempo. Fazendo isso, o movimento (movimento) do objeto pode ser expresso com mais precisão. Ou seja, o grau de liberdade na expressão do movimento do objeto pode ser aumentado, e várias expressões de imagem sonora tornam-se possíveis.
60 / 90 <Sobre exibição na cor da faixa>
[00362] A propósito, no exemplo mostrado na Fig. 5, foi explicado que a área da faixa da tela de edição ED21 é provida com a área de exibição da cor da faixa de cada faixa.
[00363] Um número de cor da faixa é exibido na área de exibição da cor da faixa, e cada área de exibição da cor da faixa é exibida em uma cor de faixa definida previamente para o número da cor da faixa.
[00364] Além disso, como descrito acima, no aparelho de processamento de informações 11, é possível selecionar se a bola do objeto na imagem de POV é exibida na cor do grupo ou na cor da faixa.
[00365] Por exemplo, em um caso de configuração onde a bola do objeto na imagem de POV é exibida na cor da faixa, a unidade de controle de exibição 42 controla a exibição pela unidade de exibição 24 de modo que a bola do objeto seja exibida na cor da faixa no momento de atualizar a exibição da imagem de POV, como a etapa S13 na Fig. 4 e a etapa S44 na Fig. 8.
[00366] Se a cor da faixa puder ser especificada individualmente para o objeto, ou seja, a faixa dessa maneira, o usuário poderá discriminar facilmente cada faixa visualizando a cor da faixa. Em particular, mesmo em um caso onde o número de objetos que constituem o conteúdo de áudio é grande, o usuário pode facilmente discriminar qual objeto bola corresponde a qual faixa.
[00367] Além disso, na Fig. 5, foi explicado um exemplo no qual uma área de exibição de cor de faixa e uma área de exibição de grupo são exibidas em cada área de faixa. No entanto, em um caso de configuração em que a bola do objeto é exibida na cor da faixa, a área de exibição da cor da faixa pode ser exibida na área da faixa, enquanto a área de exibição do grupo pode não ser exibida.
[00368] Nesse caso, uma tela de edição ED61 mostrada na Fig. 23, por exemplo, é exibida na unidade de exibição 24.
61 / 90
[00369] No exemplo mostrado na Fig. 23, uma área de faixa de 11 faixas e uma área de linha de tempo dessas faixas são exibidas na tela de edição ED61.
[00370] Em particular, a área da faixa e a área da linha do tempo de cada um dos 11 objetos cujos nomes de objeto são “Kick”, “OH_L”, “OH_R”, “Snare”, “Vo”, “EG”, “Cho”, “AG1”,” AG2 “,” Amb_L “e” Amb_R “são exibidos.
[00371] A área da faixa de cada objeto é provida com uma área de exibição da cor da faixa e um número da cor da faixa é exibido na área de exibição da cor da faixa. Além disso, cada área de exibição da cor da faixa é exibida em uma cor de faixa definida previamente para o número da cor da faixa.
[00372] Especificamente, por exemplo, uma área TR61 é uma área de faixa da faixa do objeto “Kick”. Então, uma área OB61, que é uma área de exibição de nome de objeto, e uma área de exibição de cor de faixa TP61 são providas na área TR61. O nome do objeto “Kick” é exibido na área OB61, e o número da cor da faixa “1” é exibido na área de exibição da cor da faixa TP61. Então, toda a área TR61 incluindo a área de exibição da cor da faixa TP61 é exibida na cor da faixa definida para o número de cor da faixa “1”.
[00373] Na Fig. 23, o número da cor da faixa “1” é especificado para os quatro objetos, mais especificamente, as faixas dos quatro objetos que constituem o tambor cujos nomes de objeto são “Kick”, “OH_L”, “OH_R” e “Snare “. Além disso, o número da cor da faixa “3” é especificado para o objeto “Vo”, que corresponde ao vocal do guitarrista, e o objeto “EG” da guitarra elétrica.
[00374] O número da cor da faixa “6” é especificado para o objeto “Cho”, que corresponde ao refrão do guitarrista, e o objeto “AG1” do violão.
[00375] Da mesma forma, o número da cor da faixa “22” é especificado para o objeto “AG2” do outro violão. Além disso, o número da
62 / 90 cor da faixa “9” é especificado para o objeto “Amb_L” e o objeto “Amb_R”, que correspondem ao ambiente.
[00376] No caso em que a tela de edição ED61 como mostrado na Fig. 23 é exibida, a imagem de POV P61 mostrada na Fig. 24, por exemplo, é exibida na unidade de exibição 24. Deve ser notado que na Fig. 9, as partes correspondentes às da Fig. 2 recebem os mesmos números de referência e a sua descrição será omitida conforme apropriado.
[00377] Na Fig. 24, as bolas objeto BL11 a BL14 dos respectivos objetos que constituem o tambor cujos nomes de objeto são “Kick”, “OH_L”, “OH_R” e “Snare” são exibidos com a cor da faixa “azul”, que corresponde ao número da cor da faixa “1”.
[00378] Além disso, a objeto bola BL15 do objeto “EG” e a objeto bola BL16 do objeto “Vo” são exibidos na cor da faixa “laranja”, que corresponde ao número da cor da faixa “3”.
[00379] A bola objeto BL17 do objeto “AG1” e a bola objeto BL18 do objeto “Cho” são exibidos na cor da faixa “verde”, que corresponde ao número da cor da faixa “6”, e a bola objeto BL19 do objeto “AG2” é exibido na cor da faixa “azul marinho”, que corresponde ao número da cor da faixa “22”.
[00380] Além disso, a objeto bola BL31 do objeto “Amb_L” e a objeto bola BL32 do objeto “Amb_R” são exibidos na cor da faixa “roxa”, que corresponde ao número da cor da faixa “9”.
[00381] No caso de exibição da imagem de POV P61, com base no número de cor da faixa especificado (selecionado) para a faixa de cada objeto, a unidade de controle de exibição 42 exibe a bola do objeto de cada objeto na cor da faixa definida para a cor da faixa número.
[00382] Ao exibir a objeto bola de cada objeto na cor da faixa desta maneira, é possível discriminar facilmente qual objeto bola corresponde a qual objeto (faixa), mesmo em um caso onde o número de objetos é grande.
63 / 90
[00383] Deve-se notar que embora um exemplo no qual a objeto bola seja exibida na cor do grupo ou a cor da faixa tenha sido explicado acima, a objeto bola pode ser exibida na cor do grupo e na cor da faixa.
[00384] Em tal caso, por exemplo, a unidade de controle de exibição 42 faz com que a parte central da bola objeto seja exibida na cor da faixa e faz com que a parte restante, ou seja, a parte fora da parte da bola objeto exibida na faixa cor, a ser exibida na cor do grupo. Isso permite ao usuário discriminar instantaneamente a qual faixa o objeto corresponde a cada objeto da bola e a qual grupo o objeto pertence.
[00385] Além disso, a bola do objeto pode ser exibida não apenas em uma cor, como a cor do grupo ou a cor da faixa, mas também em um formato de exibição definido para informações para identificar uma faixa correspondente a um grupo ou número de cor da faixa ou uma combinação dos mesmos. Especificamente, por exemplo, a bola objeto pode ser exibida em uma forma definida para o grupo. <Sobre configuração de mudo e configuração de solo>
[00386] Além disso, conforme mostrado na Fig. 5, a tela de edição é provida com o botão de mudo para realizar a configuração de mudo e o botão solo para realizar a configuração de solo.
[00387] A configuração mudo serve para silenciar o som do objeto especificado, ou seja, não reproduzir (enviar) o som do objeto quando o conteúdo de áudio é reproduzido no momento da edição do conteúdo de áudio. Daqui em diante, em particular, a especificação como um objeto a ser silenciado também é referida como ligar a configuração de mudo, e o estado no qual a configuração de mudo é ativada também é referido como um estado de mudo.
[00388] No aparelho de processamento de informações 11, a bola do objeto no estado mudo está oculta na imagem de POV. Ou seja, a configuração de mudo para o objeto é refletida também na bola do objeto na
64 / 90 imagem de POV. Deve-se notar que, no momento da saída dos dados do conteúdo de áudio, os dados do objeto do objeto no estado mudo podem não ser incluídos nos dados do conteúdo de áudio.
[00389] Por outro lado, a configuração do solo é reproduzir (produzir) apenas o som do objeto especificado e silenciar o som dos outros objetos quando o conteúdo de áudio é reproduzido no momento da edição do conteúdo de áudio. Daqui em diante, em particular, a especificação como um objeto para reproduzir o som também é referida como ativação da configuração de solo, e o estado em que a configuração de solo é ativada também é referido como um estado de solo.
[00390] No aparelho de processamento de informações 11, a objeto bola do objeto no estado solo é exibida na imagem de POV, e os outros objetos que não estão no estado solo são ocultados. Ou seja, a configuração de solo para o objeto é refletida também na bola do objeto na imagem de POV. Deve-se notar que, no momento da saída dos dados do conteúdo de áudio, apenas os dados do objeto do objeto no estado solo podem ser incluídos nos dados do conteúdo de áudio.
[00391] Além disso, quando uma das configurações de mudo e a configuração de solo são realizadas, a outra configuração é invalidada. Isto é, por exemplo, quando o ajuste de mudo é executado, o ajuste de solo é cancelado e, inversamente, quando o ajuste de solo é executado, o ajuste de silenciamento é cancelado.
[00392] A usabilidade pode ser melhorada executando a configuração de mudo e a configuração de solo desta maneira, ocultando a bola do objeto do objeto mudo no qual o som não é reproduzido, e fazendo com que apenas a bola do objeto do objeto no qual o som é reproduzido seja exibido na imagem de POV.
[00393] Ou seja, o objeto sem som deve ser um objeto ao qual o usuário não está prestando atenção no momento, e o objeto sem som deve ser
65 / 90 o objeto ao qual o usuário está prestando atenção.
[00394] Portanto, ao exibir apenas a objeto bola do objeto não silenciado na imagem de POV, o usuário pode facilmente compreender a transição da posição do objeto para a qual o usuário está prestando atenção, por exemplo. Isso pode melhorar a usabilidade da ferramenta de produção de conteúdo.
[00395] Um exemplo específico da configuração de mudo e da configuração de solo será descrito aqui com referência às Figs. 25 a 27. Deve- se notar que nas Figs. 25 a 27, as partes correspondentes às da Fig. 5 ou 24 recebem os mesmos números de referência e a descrição das mesmas será omitida conforme apropriado. Além disso, deve-se notar que nas Figs. 25 a 27 as partes correspondentes umas às outras recebem os mesmos números de referência e a descrição das mesmas será omitida conforme apropriado.
[00396] Por exemplo, em um estado onde nem a configuração de solo nem a configuração de mudo foram realizadas, as bolas objeto correspondentes a todas as faixas são exibidas em uma imagem de POV P71 como mostrado na Fig. 25 Deve-se notar que na Fig. 25, apenas uma parte da tela de edição ED21 é exibida.
[00397] No exemplo mostrado na Fig. 25, os botões de mudo para faixas de todos os objetos, incluindo o botão de mudo MU21 para a faixa do objeto “Vo” e um botão de mudo MU22 para a faixa do objeto “EG”, estão em um estado de não ser operado. Ou seja, nenhum dos objetos está no estado mudo.
[00398] Ao mesmo tempo, os botões solo para as faixas de todos os objetos, incluindo o botão solo SL21 para a faixa do objeto “Vo” e um botão solo SL22 para a faixa do objeto “EG”, estão em um estado de não sendo operado. Ou seja, a configuração do estado solo não foi executada para nenhum dos objetos.
[00399] Nesse estado, as bolas de todos os objetos são exibidas na
66 / 90 imagem de POV P71.
[00400] Aqui, as bolas objeto BL11 a BL19, a bola objeto BL31 e a bola objeto BL32 dos respectivos objetos cujos nomes de objeto são “Kick”, “OH_L”, “OH_R”, “Snare”, “EG”, “Vo”, “AG1”, “Cho”, “AG2”, “Amb_L” e “Amb_R” são exibidos na imagem de POV P71.
[00401] Nesse estado, presume-se que a configuração de mudo do objeto “Vo” e do objeto “EG” foi ativada pelo usuário que opera a unidade de entrada 21 para operar o botão de mudo MU21 e o botão de mudo MU22 na edição tela ED21 clicando ou semelhante. Ou seja, presume-se que o objeto “Vo” e o objeto “EG” são colocados no estado mudo.
[00402] Então, como mostrado na Fig. 26, por exemplo, o botão de mudo operado MU21 e o botão de mudo MU22 são exibidos na tela de edição ED21 em uma cor diferente daquela antes da operação.
[00403] Por exemplo, quando a configuração de mudo é realizada, o botão de mudo do objeto para o qual a configuração de mudo não está ativada é exibido na mesma cor que antes da configuração de mudo ser realizada, e o botão de mudo do objeto para o qual o A configuração sem som está ativada é exibida em uma cor diferente daquela antes da configuração sem som ser realizada.
[00404] No exemplo da Fig. 26, as configurações de solo do objeto “Vo” e do objeto “EG” estão ativadas, e a configuração de solo dos outros objetos não está ativada. Portanto, a unidade de controle de exibição 42 controla a unidade de exibição 24 para atualizar a exibição da imagem de POV P71 de modo que a imagem de POV P71 mostrada no lado direito da Fig. 26 seja exibida na unidade de exibição 24.
[00405] Ou seja, no exemplo da Fig. 26, o objeto bola BL15 do objeto “EG” e o objeto bola BL16 do objeto “Vo”, que foram exibidos até agora na imagem de POV P71, mas estão no estado mudo, estão em um estado de não serem exibidos, ou seja, ocultos.
67 / 90
[00406] Por outro lado, as bolas-objeto dos outros objetos que não estão no estado mudo, ou seja, as bolas-objeto BL11 a BL14, as bolas-objeto BL17 a BL19, a objeto bola BL31 e a objeto bola BL32 permanecem exibidos na imagem de POV P71.
[00407] Além disso, no estado mostrado na Fig. 25, por exemplo, presume-se que a configuração do solo do objeto “Vo” e do objeto “EG” foi ativada pelo usuário que opera a unidade de entrada 21 para operar o solo botão SL21 e o botão solo SL22 na tela de edição ED21 clicando em ou semelhante. Ou seja, presume-se que o objeto “Vo” e o objeto “EG” são colocados no estado solo.
[00408] Em seguida, conforme mostrado na Fig. 27, por exemplo, o botão solo operado SL21 e o botão solo SL22 são exibidos na tela de edição ED21 em uma cor diferente daquela antes da operação.
[00409] Por exemplo, quando a configuração do solo é executada, o botão solo do objeto para o qual a configuração do solo não está ativada é exibido na mesma cor que antes da configuração do solo ser executada, e o botão de mudo do objeto para o qual o a configuração de solo está ativada é exibida em uma cor diferente daquela anterior à configuração de solo.
[00410] No exemplo da Fig. 27, as configurações de solo do objeto “Vo” e do objeto “EG” estão ativadas, e a configuração de solo dos outros objetos não está ativada. Portanto, a unidade de controle de exibição 42 controla a unidade de exibição 24 para atualizar a exibição da imagem de POV P71 de modo que a imagem de POV P71 mostrada no lado direito da Fig. 27 seja exibida na unidade de exibição 24.
[00411] Ou seja, no exemplo da Fig. 27, na imagem de POV P71, a configuração do solo é ativada, e apenas as bolas-objeto BL15 e BL16 correspondentes aos objetos “EG” e “Vo” no estado solo são exibidas.
[00412] Portanto, a exibição das bolas objetos de outros objetos que foram exibidos, mas não estão no estado solo, é apagada e fica oculta. Ou
68 / 90 seja, na imagem de POV P71 da Fig. 27, as bolas-objeto BL11 a BL14, as bolas-objeto BL17 a BL19, a objeto bola BL31 e a objeto bola BL32 estão em um estado de não serem exibidos.
[00413] Ao trazer assim a bola do objeto na imagem de POV para o estado de exibição ou o estado oculto em conjunto com a configuração de mudo e a configuração de solo, o usuário pode visualmente e facilmente entender a qual objeto a faixa correspondente está no estado mudo ou solo Estado. Isso pode melhorar a usabilidade. <Explicação do Processamento de Configuração>
[00414] A seguir, a operação do aparelho de processamento de informações 11 quando o usuário realiza configuração de mudo ou configuração de solo será descrita. Ou seja, o processamento de configuração realizado pelo aparelho de processamento de informações 11 será descrito abaixo com referência ao fluxograma da Fig. 28. Deve-se notar que quando esse processamento de configuração é iniciado, a tela de edição é exibida na unidade de exibição 24.
[00415] Na etapa S161, a unidade de controle 23 determina se o botão de mudo na tela de edição foi operado ou não, com base no sinal provido a partir da unidade de entrada 21.
[00416] Por exemplo, no caso em que uma operação como clicar foi operada para o botão de mudo MU21 ou o botão de mudo MU22 mostrado na Fig. 25, a unidade de controle 23 determina que o botão de mudo foi operado.
[00417] No caso em que é determinado na etapa S161 que o botão de mudo não foi operado, o processamento da etapa S162 não é realizado e, em seguida, o processamento prossegue para a etapa S163.
[00418] Por outro lado, no caso em que é determinado na etapa S161 que o botão de mudo foi operado, a unidade de controle 23 na etapa S162 traz para o estado de mudo o objeto (faixa) especificado pela operação do usuário no botão de mudo.
69 / 90
[00419] Especificamente, em um caso onde o botão de mudo MU21 é operado em um estado onde o objeto “Vo” não está no estado mudo como mostrado na Fig. 25, por exemplo, a unidade de controle 23 traz o objeto “Vo” para o mudo Estado. Deve-se notar que no caso em que o botão de mudo MU21 é operado quando o objeto “Vo” está no estado mudo, por exemplo, a unidade de controle 23 cancela o estado mudo do objeto “Vo”.
[00420] Depois que a configuração de mudo de acordo com a operação no botão de mudo é realizada desta maneira, o processamento prossegue para a etapa S163.
[00421] Quando é determinado na etapa S161 que o botão de mudo não foi operado, ou quando o processamento da etapa S162 é realizado, o processamento da etapa S163 é executado.
[00422] Na etapa S163, a unidade de controle 23 determina se o botão solo na tela de edição foi operado ou não, com base no sinal provido a partir da unidade de entrada 21. Por exemplo, no caso em que uma operação como clicar foi operada para o botão solo SL21 ou o botão solo SL22 mostrado na Fig. 25, a unidade de controle 23 determina que o botão solo foi operado.
[00423] No caso em que é determinado na etapa S163 que o botão solo não foi operado, o processamento da etapa S164 não é realizado e, em seguida, o processamento prossegue para a etapa S165.
[00424] Por outro lado, no caso em que é determinado na etapa S163 que o botão solo foi operado, a unidade de controle 23 na etapa S164 traz para o estado solo o objeto (faixa) especificado pela operação do usuário no botão solo.
[00425] Especificamente, em um caso em que o botão solo SL21 é operado em um estado onde o objeto “Vo” não está no estado solo como mostrado na Fig. 25, por exemplo, a unidade de controle 23 traz o objeto “Vo” para o estado solo. Deve-se notar que em um caso onde o botão solo SL21 é operado quando o objeto “Vo” está no estado solo, por exemplo, a
70 / 90 unidade de controle 23 cancela o estado solo do objeto “Vo”.
[00426] Após a configuração do solo de acordo com a operação no botão solo ser realizada desta maneira, o processamento prossegue para a etapa S165.
[00427] Deve-se notar que, no caso em que o objeto está no estado mudo ou o estado solo pertence ao grupo, a unidade de controle 23 também pode trazer todos os outros objetos pertencentes ao mesmo grupo que o do objeto para o estado mudo estado ou o estado solo. Nesse caso, a unidade de controle 23 especifica se o objeto do alvo de processamento pertence ou não ao grupo, referindo-se às informações do grupo, e determina quais unidades de objeto e unidades de grupo executar a configuração de mudo ou a configuração de solo em de acordo com o resultado da especificação.
[00428] Quando é determinado na etapa S163 que o botão solo não foi operado, ou quando o processamento da etapa S164 é realizado, na etapa S165, a unidade de controle de exibição 42 controla a unidade de exibição 24 de acordo com a configuração de mudo ou configuração de solo pela unidade de controle 23, e atualiza a exibição da tela de edição e a imagem de POV.
[00429] Especificamente, presume-se que o objeto é colocado no estado mudo pela operação no botão de mudo, por exemplo. Nesse caso, a unidade de controle de exibição 42 altera o formato de exibição do botão de mudo na área de faixa do objeto no estado mudo na tela de edição e oculta a bola do objeto do objeto no estado mudo na imagem de POV.
[00430] Quando a configuração de mudo ou a configuração de solo são refletidas no visor da tela de edição e na imagem de POV dessa maneira, o processamento da configuração termina.
[00431] Conforme descrito acima, o aparelho de processamento de informações 11 executa a configuração de mudo e a configuração de solo de acordo com a operação no botão de mudo e no botão de solo, e reflete o conteúdo da configuração na exibição da tela de edição e na imagem de POV.
71 / 90 Isso permite que o usuário compreenda facilmente qual objeto (faixa) está no estado mudo ou solo, e permite que a usabilidade seja melhorada. <Sobre a importação da faixa>
[00432] A propósito, o aparelho de processamento de informações 11 pode importar (receber) um arquivo de qualquer sinal de áudio, isto é, qualquer arquivo de áudio como dados de objeto ou dados de áudio de canal constituindo conteúdo de áudio.
[00433] Por exemplo, o arquivo de áudio do alvo de importação pode ser um arquivo de áudio gravado na unidade de gravação 22, um arquivo de áudio recebido pela unidade de comunicação 25, um arquivo de áudio lido a partir de um meio de gravação removível externo ou semelhante.
[00434] Especificamente, por exemplo, em um caso em que um arquivo de áudio gravado na unidade de gravação 22 é importado como dados constituindo conteúdo de áudio, a importação pode ser executada por uma operação de arrastar e soltar ou semelhante, como mostrado na Fig. 29.
[00435] No exemplo mostrado na Fig. 29, a unidade de exibição 24 exibe uma tela de edição ED81 e uma janela WD81 na qual uma lista de arquivos de áudio gravados na unidade de gravação 22 é exibida.
[00436] Por exemplo, o usuário pode instruir a importação de um arquivo de áudio operando a unidade de entrada 21 para arrastar qualquer arquivo de áudio na janela WD81 como mostrado por uma seta Q11 e soltar o arquivo de áudio na tela de edição ED81. Deve-se notar que a operação para especificar o arquivo de áudio a ser importado e instruir a importação não se limita a uma operação de arrastar e soltar, mas pode ser qualquer outra operação, como selecionar (especificar) um arquivo de áudio desejado do menu de arquivo.
[00437] Quando tal operação de arrastar e soltar é realizada, a unidade de controle 23 adquire um arquivo de áudio especificado pelo usuário a partir da unidade de gravação 22 e leva o arquivo de áudio adquirido como dados
72 / 90 que constituem o conteúdo de áudio sendo editado.
[00438] Nesse exemplo, um arquivo de áudio no formato WAV cujo nome de arquivo é “Congas.wav” é considerado como dado do conteúdo de áudio.
[00439] Em um caso em que o arquivo de áudio especificado é um arquivo de um sinal de áudio monoaural, ou seja, um sinal de áudio de um canal, por exemplo, a unidade de controle 23 só é necessária para expandir o arquivo de áudio na tela de edição ED81 como um sinal de áudio constituindo os dados do objeto. Isto é, a unidade de controle 23 é apenas necessária para adicionar o arquivo de áudio aos dados do conteúdo de áudio como o sinal de áudio dos dados do objeto.
[00440] No entanto, o arquivo de áudio especificado pode ser um arquivo de uma pluralidade de canais, ou seja, um arquivo multicanal, como um sinal de áudio de dois canais. Nesse caso, é necessário especificar se deseja importar o arquivo de áudio especificado tantos dados de objeto quanto o número de canais ou importar o arquivo de áudio especificado como dados de áudio do canal.
[00441] Portanto, em um caso em que o arquivo de áudio especificado é um arquivo multicanal, a unidade de controle de exibição 42 controla a unidade de exibição 24 para fazer com que a unidade de exibição 24 exiba uma tela de seleção de tipo de faixa CO81 mostrada na Fig. 30, por exemplo.
[00442] No exemplo mostrado na Fig. 30, a tela de seleção do tipo de faixa CO81 é provida com três botões BT81 a BT83.
[00443] O botão BT81 é um botão a ser operado quando o arquivo de áudio especificado é importado como dados de objeto, ou seja, uma faixa de objeto.
[00444] O botão BT82 é um botão a ser operado quando o arquivo de áudio especificado é importado como dados de áudio de canal, ou seja, uma faixa de canal. Além disso, o botão BT83 é um botão a ser operado quando a
73 / 90 importação do arquivo de áudio especificado é cancelada.
[00445] Além disso, no caso em que o arquivo de áudio especificado é importado como dados de objeto, uma caixa de seleção CB81 a ser operada quando a informação de posição do objeto indicando uma posição específica é provida e importada também é exibida na tela de seleção de tipo de faixa CO81.
[00446] Nesse exemplo, uma vez que o arquivo multicanal especificado é um arquivo de um sinal de áudio de dois canais, uma mensagem de caractere “definir WAV (s) de 2 canais com posição L/R (Azimute + 30/-30)” é exibida no lado direito da figura da caixa de seleção CB81. A “posição L/R (Azimute + 30/-30)” nesta mensagem de caractere indica que os ângulos horizontais “30” e “-30” são dados como a informação da posição do objeto. Ao visualizar essa tela, o usuário pode compreender facilmente quais informações de posição do objeto são providas ao objeto recém-adicionado pela importação.
[00447] Além disso, por exemplo, uma caixa de seleção ou semelhante que pode especificar se deve ou não importar um arquivo de áudio especificado, ou seja, sinais de áudio de uma pluralidade de canais constituindo um arquivo multicanal, como dados de objeto de uma pluralidade de objetos pertencentes ao mesmo grupo podem ser exibidos na tela de seleção de tipo de faixa CO81.
[00448] Além disso, por exemplo, no caso em que o arquivo de áudio especificado é um arquivo multicanal, incluindo sinais de áudio de dois canais, uma caixa de seleção que pode especificar se deseja ou não importar esses sinais de áudio de dois canais como dados de objeto do L O par/R também pode ser exibido na tela de seleção do tipo de faixa CO81.
[00449] Por exemplo, presume-se que o usuário opera a unidade de entrada 21 para operar (selecionar) o botão BT81 na tela de seleção de tipo de faixa CO81 em um estado em que a marca de seleção não é exibida na caixa
74 / 90 de seleção CB81.
[00450] Então, a unidade de controle 23 expande o arquivo de áudio como faixas de uma pluralidade de objetos de acordo com o número de canais do arquivo de áudio especificado.
[00451] Especificamente, com base no sinal provido a partir da unidade de entrada 21, a unidade de controle 23 lê o sinal de áudio de cada canal que constitui o arquivo multicanal especificado a partir da unidade de gravação 22 ou semelhante, e recebe o sinal de áudio como os dados do objeto de cada objeto. Ou seja, os respectivos sinais de áudio da pluralidade de canais são considerados os respectivos sinais de áudio da pluralidade de objetos. Como resultado, são gerados tantos objetos novos quanto o número de canais do arquivo multicanal.
[00452] Quando o arquivo de áudio é importado desta maneira, a unidade de controle de exibição 42 controla a unidade de exibição 24 de acordo com a execução da importação e atualiza a exibição da tela de edição e a imagem de POV.
[00453] Nos exemplos mostrados nas Figs. 29 e 30, quando o botão BT81 é operado para importar o arquivo de áudio de dois canais, a tela de edição atualizada ED81 torna-se como mostrado na Fig. 31, por exemplo. Deve-se notar que na Fig. 31, as partes correspondentes às da Fig. 29 recebem os mesmos números de referência, e a descrição das mesmas será omitida conforme apropriado.
[00454] Aqui, o arquivo de áudio cujo nome de arquivo é “Congas.wav” para o qual a importação é instruída é um arquivo de dois canais e, portanto, dois objetos do objeto “Congas-0” e o objeto “Congas-1” são gerados por a importação na unidade de controle 23.
[00455] Então, a exibição da tela de edição ED81 é atualizada para que uma área de faixa e uma área de linha de tempo sejam providas para cada faixa correspondente a esses objetos.
75 / 90
[00456] Ou seja, no exemplo mostrado na Fig. 31, uma área TR81 e uma área TM81 da tela de edição ED81 são a área da faixa e a área da linha do tempo da faixa do objeto “Congas-0”. Da mesma forma, uma área TR82 e uma área TM82 são a área da faixa e a área da linha do tempo da faixa do objeto “Congas-1”.
[00457] Deve-se notar que, no caso em que o arquivo de áudio especificado inclui informações de posição, como a posição de localização da imagem de som, metainformações do objeto só precisam ser geradas usando as informações de posição comas informações de posição do objeto.
[00458] Por outro lado, no caso em que o arquivo de áudio especificado não possui informações de posição, ou seja, uma posição no espaço de reprodução, uma posição definida previamente, como uma posição em frente à posição de escuta O, pode ser provida como uma posição no espaço de reprodução do objeto. Nesse caso, a mesma informação de posição de objeto é dada a cada um da pluralidade de objetos.
[00459] Além disso, o arquivo de áudio especificado às vezes é um arquivo multicanal com um número específico de canais, como dois canais, seis canais ou oito canais.
[00460] Nesse caso, quando o arquivo de áudio especificado é expandido como faixas de uma pluralidade de objetos, tempo e esforço para edição podem ser salvos dando uma posição específica como um valor inicial para cada um da pluralidade de objetos.
[00461] Por exemplo, em um caso em que o arquivo de áudio é um arquivo de dois canais, geralmente, os sinais de áudio de dois canais que constituem o arquivo de áudio são frequentemente os sinais de áudio dos canais esquerdo e direito, ou seja, o sinal de áudio do canal L e o sinal de áudio do canal R.
[00462] Portanto, as coordenadas (azimute, elevação, raio) = (30, 0, 1) e (-30, 0, 1), que são posições da disposição geral do canal esquerdo e direito
76 / 90 (LR), podem ser providas comas informações de posição do objeto indicando uma posição no espaço de reprodução para os objetos correspondentes a esses dois canais. A posição indicada pelas coordenadas (30, 0, 1) e a posição indicada pelas coordenadas (-30, 0, 1) são posições simétricas em relação ao plano de referência acima descrito no espaço de reprodução.
[00463] Ao prover uma posição específica dessa maneira, o usuário não precisa inserir as informações de posição do objeto de cada ponto no tempo para o objeto recém-adicionado pela importação.
[00464] Deve-se notar que um exemplo no qual as posições indicadas pelas respectivas coordenadas (30, 0, 1) e (-30, 0, 1) são dadas aos dois objetos adicionados pela importação do arquivo de áudio de dois canais ser descrito aqui, mas quaisquer outras posições podem ser providas.
[00465] Além disso, à semelhança do caso de dois canais, quando o arquivo de áudio possui seis canais, considera-se que, por exemplo, as coordenadas (azimute, elevação, raio) = (30, 0, 1), (-30, 0, 1), (0, 0, 1), (0, - 30, 0), (110, 0, 1) e (-110, 0, 1) são dados comas informações de posição do objeto dos seis objetos correspondentes àqueles canais.
[00466] Além disso, quando o arquivo de áudio possui oito canais, considera-se que, por exemplo, as coordenadas (30, 0, 1), (-30, 0, 1), (0, 0, 1), (0, -30, 0), (110, 0, 1), (-110, 0, 1), (30, 30, 1) e (-30, 30, 1) são dados comas informações de posição de objeto dos oito objetos correspondentes àqueles canais.
[00467] A tela de seleção do tipo de faixa CO81 é provida com a caixa de seleção CB81 de modo que a informação da posição do objeto indicando uma posição específica no espaço de reprodução pode ser provida como um valor inicial para um objeto recém-adicionado pela importação desta maneira.
[00468] Presume-se que uma operação de importação de um arquivo de áudio de dois canais cujo nome de arquivo é “Congas.wav” foi realizada conforme mostrado na Fig. 29, por exemplo. Então, presume-se que quando a
77 / 90 tela de seleção do tipo de faixa CO81 é exibida na unidade de exibição 24 em resposta à operação, o usuário operou a unidade de entrada 21 e operou (selecionou) o botão BT81 após causar uma marca de seleção exibido na caixa de seleção CB81 conforme mostrado na Fig. 32. Deve ser notado que na Fig. 32, as partes correspondentes às da Fig. 30 recebem os mesmos números de referência e a sua descrição será omitida conforme apropriado.
[00469] Quando o botão BT81 é operado após a marca de seleção ser exibida na caixa de seleção CB81, como mostrado na Fig. 32, a unidade de controle 23 expande o arquivo de áudio especificado como faixas de uma pluralidade de objetos de acordo com o número de canais do áudio Arquivo.
[00470] Isto é, de forma semelhante ao caso em que a marca de seleção não é exibida na caixa de seleção CB81 descrita acima, a unidade de controle 23 recebe, como o sinal de áudio de cada objeto a ser adicionado recentemente, o sinal de áudio de cada canal constituindo o especificado arquivo de áudio de dois canais.
[00471] Além disso, a unidade de determinação de posição 41 fornece as coordenadas (30, 0, 1) comas informações de posição do objeto para o objeto correspondente ao canal L dos dois objetos recém-adicionados. Da mesma forma, a unidade de determinação de posição 41 fornece as coordenadas (-30, 0, 1) como informação de posição do objeto para o objeto correspondente ao canal R dos dois objetos recém-adicionados.
[00472] Quando o arquivo de áudio é importado desta maneira, a unidade de controle de exibição 42 controla a unidade de exibição 24 de acordo com a execução da importação e atualiza a exibição da tela de edição e a imagem de POV.
[00473] Nos exemplos mostrados nas Figs. 29 e 32, quando o botão BT81 é operado para importar o arquivo de áudio de dois canais, a tela de edição atualizada e a imagem de POV tornam-se conforme mostrado, por exemplo, nas Figs. 33 e 34, respectivamente. Deve-se notar que na Fig. 33, as
78 / 90 partes correspondentes às da Fig. 29 recebem os mesmos números de referência, e a descrição das mesmas será omitida conforme apropriado.
[00474] Na Fig. 33, o arquivo de áudio cujo nome de arquivo é “Congas.wav” para o qual a importação é instruída é um arquivo de dois canais e, portanto, dois objetos do objeto “Congas-L” e do objeto “Congas-R” são gerados pela importação na unidade de controle 23.
[00475] Então, a exibição da tela de edição ED81 é atualizada para que uma área de faixa e uma área de linha de tempo sejam providas para cada faixa correspondente a esses objetos.
[00476] Ou seja, na Fig. 33, uma área TR91 e uma área TM91 da tela de edição ED81 são a área da faixa e a área da linha do tempo da faixa do objeto “Congas-L”, e em particular, as informações de posição do objeto em cada ponto de tempo do objeto “Congas-L” são as coordenadas (30, 0, 1).
[00477] Da mesma forma, uma área TR92 e uma área TM92 são a área da faixa e a área da linha do tempo da faixa do objeto “Congas-R” e, em particular, a informação da posição do objeto em cada ponto do tempo do objeto “Congas-R” é as coordenadas (-30, 0, 1).
[00478] Além disso, a unidade de controle de exibição 42 faz com que a unidade de exibição 24 exiba uma imagem de POV P91 mostrada na Fig. 34 como a imagem de POV correspondente à tela de edição ED81 mostrada na Fig. 33.
[00479] Na Fig. 34, um objeto bola BL91 indicando a posição do objeto “Congas-L” está disposta no lado esquerdo frontal na figura como visto da posição de escuta O, e um objeto bola BL92 indicando a posição do objeto “Congas-R” está arranjado no lado direito frontal da figura, visto da posição de escuta O.
[00480] No caso em que o arquivo de áudio a ser importado é um arquivo com um número específico de canais, se uma posição específica for dada como um valor inicial a um objeto a ser adicionado pela importação de
79 / 90 acordo com uma instrução do usuário, é possível reduzir o tempo e esforço do trabalho de entrada das informações de posição do objeto pelo usuário. Isso permite que a edição seja realizada de forma mais eficiente e fácil.
[00481] Deve-se notar que, conforme descrito acima, no momento da importação de um arquivo de áudio, os objetos podem ser agrupados ou podem ser trazidos em um par L/R. <Explicação do Processamento de Importação>
[00482] Subsequentemente, a operação do aparelho de processamento de informações 11 ao importar um arquivo de áudio desejado, conforme descrito acima, em particular, a importação de um arquivo de áudio incluindo um sinal de áudio que não tem uma posição no espaço de reprodução, será descrita.
[00483] Ou seja, o processamento de importação pelo aparelho de processamento de informações 11 será descrito abaixo com referência ao fluxograma da Fig. 35. Esse processamento de importação é iniciado quando a importação é instruída por uma operação como arrastar e soltar em um arquivo de áudio desejado, conforme mostrado na Fig. 29, por exemplo.
[00484] Na etapa S191, a unidade de controle 23 determina se o arquivo de áudio instruído a ser importado é ou não um arquivo multicanal, com base no sinal provido pela unidade de entrada 21.
[00485] No caso em que é determinado na etapa S191 que o arquivo de áudio não é um arquivo multicanal, isto é, em um caso onde a importação de um arquivo de áudio mono é instruída, o processamento da etapa S192 é realizado.
[00486] Na etapa S192, a unidade de controle 23 importa o arquivo de áudio especificado como um dado de objeto.
[00487] Por exemplo, como dados de objeto de um objeto a ser adicionado de novo, isto é, um sinal de áudio do objeto, a unidade de controle 23 recebe um sinal de áudio que constitui o arquivo de áudio mono para o
80 / 90 qual a importação é instruída. Nesse momento, a unidade de controle 23 fornece apropriadamente a informação de posição do objeto de uma posição predeterminada definida com antecedência, a informação de ganho, a informação de prioridade e semelhantes ao sinal de áudio para prover meta informação e gera dados de objeto incluindo a meta informação e o sinal de áudio.
[00488] Depois que os dados do objeto são adicionados desta maneira, o processamento prossegue para a etapa S199.
[00489] Por outro lado, no caso em que é determinado na etapa S191 que o arquivo de áudio é um arquivo multicanal, a unidade de controle de exibição 42 na etapa S193 faz com que a unidade de exibição 24 exiba a tela de seleção do tipo de faixa.
[00490] Assim, a tela de seleção do tipo de faixa CO81 mostrada na Fig. 30, por exemplo, é exibida. Então, ao operar a unidade de entrada 21, o usuário apropriadamente realiza uma operação, por exemplo, a caixa de seleção CB81 e o botão BT81 na tela de seleção de tipo de faixa CO81.
[00491] Na etapa S194, a unidade de controle 23 determina se deve ou não importar o arquivo de áudio como dados de objeto com base no sinal provido da unidade de entrada 21 em resposta à operação do usuário na tela de seleção do tipo de faixa.
[00492] Por exemplo, no caso em que o botão BT81 da tela de seleção de tipo de faixa CO81 mostrada na Fig. 30 é operado, a unidade de controle 23 determina a importação do arquivo de áudio como dados de objeto na etapa S194.
[00493] No caso em que é determinado não importar o arquivo de áudio como dados de objeto na etapa S194, isto é, em um caso onde o usuário instrui a importação do arquivo de áudio como dados de áudio do canal, o processamento prossegue para a etapa S195.
[00494] Na etapa S195, a unidade de controle 23 importa o arquivo de
81 / 90 áudio especificado como dados de áudio de um canal. Nesse caso, o sinal de áudio de cada um da pluralidade de canais é considerado como dados de áudio de um canal, ou seja, dados de uma faixa. Depois que os dados de áudio do canal são adicionados desta maneira, o processamento prossegue para a etapa S199.
[00495] Por outro lado, no caso em que é determinado importar o arquivo de áudio como dados de objeto na etapa S194, o processamento da etapa S196 é realizado.
[00496] Na etapa S196, a unidade de controle 23 importa o arquivo de áudio especificado como dados de objeto de objetos no número correspondente ao número de canais do arquivo de áudio.
[00497] Por exemplo, a unidade de controle 23 recebe sinais de áudio de uma pluralidade de canais que constituem um arquivo de áudio para o qual a importação é instruída, como sinais de áudio que constituem dados de objeto de uma pluralidade de objetos correspondentes a esses canais. Ou seja, tantos os objetos quanto o número de canais dos arquivos de áudio são gerados e esses objetos são adicionados ao conteúdo de áudio.
[00498] Na etapa S197, a unidade de determinação de posição 41 determina se deve ou não dar uma posição específica no espaço de reprodução para o objeto gerado na etapa S196.
[00499] Por exemplo, como mostrado na Fig. 32, em um caso onde o botão BT81 é operado em um estado onde a marca de seleção é exibida na caixa de seleção CB81 da tela de seleção de tipo de faixa CO81, é determinado que ele forneça uma posição específica em etapa S197.
[00500] No caso em que é determinado na etapa S197 que uma posição específica não é provida, o processamento da etapa S198 não é realizado e, em seguida, o processamento prossegue para a etapa S199.
[00501] Nesse caso, a unidade de determinação de posição 41 fornece uma posição definida antecipadamente, como uma posição frontal no espaço
82 / 90 de reprodução para o objeto recém-adicionado no processamento da etapa S196.
[00502] Ou seja, a unidade de determinação de posição 41 gera meta- informação incluindo a informação de posição do objeto indicando uma posição definida antecipadamente para cada um da pluralidade de objetos recém-adicionados e fornece dados de objeto incluindo a meta-informação e o sinal de áudio. Em particular, nesse caso, a mesma posição é dada a todos da pluralidade de objetos recém-adicionados.
[00503] Por outro lado, em um caso em que é determinado na etapa S197 que uma posição específica deve ser dada, a unidade de determinação de posição 41 na etapa S198 dá uma posição específica no espaço de reprodução para cada um daqueles objetos recém-adicionados no processamento da etapa S196.
[00504] Isto é, por exemplo, a unidade de determinação de posição 41 gera meta-informação incluindo a informação de posição do objeto indicando uma posição específica diferente para cada um da pluralidade de objetos recém-adicionados e fornece dados de objeto incluindo a meta-informação e o sinal de áudio.
[00505] Especificamente, por exemplo, em um caso em que o número de objetos recém-adicionados são dois, uma posição indicada pelas coordenadas (30, 0, 1) é dada a um dos objetos, e uma posição indicada pelas coordenadas (-30, 0, 1) é dado ao outro dos objetos, como no exemplo acima. Em particular, aqui, uma posição diferente é dada a cada objeto, como posições simétricas. A posição específica dada a cada objeto é uma posição definida para cada canal do arquivo de áudio para o qual a importação é instruída. Ou seja, é atribuída ao objeto uma posição específica de acordo com a quantidade de canais do arquivo de áudio a ser importado.
[00506] Ao prover a posição específica dessa maneira, o usuário não precisa inserir as informações de posição do objeto dos objetos recém-
83 / 90 adicionados um por um e, portanto, a configuração das informações de posição do objeto torna-se fácil. Ou seja, a eficiência da edição pode ser melhorada.
[00507] Deve-se notar que, no caso em que novos objetos são adicionados por importação, a unidade de controle 23 pode agrupar esses objetos. Nesse caso, o agrupamento pode ser executado de acordo com uma instrução do usuário, ou quando uma pluralidade de novos objetos é adicionada simultaneamente, mesmo sem uma instrução do usuário em particular, esses objetos podem ser agrupados incondicionalmente. Além disso, em um caso onde o número de objetos recém-adicionados são dois, esses dois objetos podem estar em um par L/R de acordo com uma instrução do usuário ou semelhante.
[00508] Também pode ser dito que, no caso em que o agrupamento é realizado, a unidade de controle 23 realiza o processamento de agrupamento de uma pluralidade de objetos não tendo uma posição no espaço de reprodução e dando uma posição no espaço de reprodução à pluralidade de objetos agrupados.
[00509] Em particular, em um caso em que o número de objetos a serem agrupados é dois, a posição no espaço de reprodução pode ser dada a esses dois objetos de modo que os dois objetos tenham uma relação posicional simétrica em relação ao plano de referência predeterminado na reprodução espaço.
[00510] Depois de uma posição específica ser dada ao objeto na etapa S198, o processamento segue para a etapa S199.
[00511] Em um caso onde o processamento da etapa S192, etapa S195 ou etapa S198 foi realizado, ou é determinado na etapa S197 que uma posição específica não é provida, o processamento da etapa S199 é realizado.
[00512] Na etapa S199, a unidade de controle de exibição 42 controla a unidade de exibição 24 de acordo com a importação do arquivo de áudio e
84 / 90 atualiza a exibição da tela de edição e a imagem de POV exibida na unidade de exibição 24, e o processamento de importação termina.
[00513] Por exemplo, na etapa S199, a exibição da tela de edição e a imagem de POV são atualizadas como mostrado nas Figs. 31, 33 e 34.
[00514] Conforme descrito acima, o aparelho de processamento de informações 11 importa o arquivo de áudio de acordo com o número de canais do arquivo de áudio e a operação do usuário na tela de seleção de tipo de faixa e adiciona novos dados de objeto ou semelhantes.
[00515] Ao realizar apropriadamente a importação de acordo com o número de canais do arquivo de áudio e a operação do usuário, torna-se possível reduzir o tempo e esforço de entrada de informações de posição do objeto, por exemplo, pelo usuário e realizar a edição de forma mais eficiente e fácil. <Exemplo de Configuração do Computador>
[00516] A propósito, a série de processamento descrita acima pode ser executada por hardware ou pode ser executada por software. No caso em que a série de processamento é executada por software, um programa que constitui o software é instalado em um computador. Aqui, o computador inclui um computador incorporado em hardware dedicado e, por exemplo, um computador pessoal de uso geral capaz de executar várias funções instalando vários programas.
[00517] A Fig. 36 é um diagrama de blocos que mostra um exemplo de configuração de hardware de um computador que executa a série de processamento descrita acima por um programa.
[00518] No computador, uma unidade de processamento central (CPU) 501, uma memória somente leitura (ROM) 502 e uma memória de acesso aleatório (RAM) 503 são interconectadas por um barramento 504.
[00519] Uma interface de entrada/saída 505 é ainda conectada ao barramento 504. Uma unidade de entrada 506, uma unidade de saída 507,
85 / 90 uma unidade de gravação 508, uma unidade de comunicação 509 e um drive 510 são conectadas à interface de entrada/saída 505.
[00520] A unidade de entrada 506 inclui um teclado, um mouse, um microfone, um elemento de imagem e semelhantes. A unidade de saída 507 inclui um display, um alto-falante e semelhantes. A unidade de gravação 508 inclui um disco rígido, uma memória não volátil e semelhantes. A unidade de comunicação 509 inclui uma interface de rede e semelhantes. O drive 510 aciona um meio de gravação removível 511, como um disco magnético, um disco óptico, um disco magneto-óptico ou uma memória semicondutora.
[00521] Através do carregamento da CPU 501 com um programa gravado na unidade de gravação 508 na RAM 503 por meio da interface de entrada/saída 505 e o barramento 504 e execução do programa, por exemplo, o computador configurado como descrito acima executa a série de processamento descrita acima.
[00522] O programa executado pelo computador (CPU 501) pode ser provido sendo gravado na mídia de gravação removível 511, como uma mídia de pacote, por exemplo. Além disso, o programa pode ser provido por meio de transmissão com fio ou sem fio, como uma rede local, a Internet ou transmissão digital por satélite.
[00523] No computador, o programa pode ser instalado na unidade de gravação 508 através da interface de entrada/saída 505 montando o meio de gravação removível 511 no drive 510. Além disso, o programa pode ser recebido pela unidade de comunicação 509 por meio de um meio de transmissão com ou sem fio e instalado na unidade de gravação 508. Além disso, o programa pode ser instalado antecipadamente no ROM 502 ou na unidade de gravação 508.
[00524] Deve-se notar que o programa executado pelo computador pode ser um programa no qual o processamento é executado em série temporal ao longo da ordem descrita na presente descrição, ou pode ser um
86 / 90 programa no qual o processamento é executado em paralelo ou em um tempo necessário como quando uma chamada é feita.
[00525] Deve-se notar que a modalidade da presente tecnologia não está limitada à modalidade descrita acima e várias modificações podem ser feitas em um escopo sem se afastar do espírito da presente tecnologia.
[00526] Por exemplo, a presente tecnologia pode ser configurada como computação em nuvem, na qual uma função é compartilhada por uma pluralidade de aparelhos através de uma rede e é processada em cooperação.
[00527] Além disso, cada etapa descrita nos fluxogramas descritos acima pode ser executada por um aparelho ou executada por uma pluralidade de aparelhos de uma maneira compartilhada.
[00528] Além disso, em um caso em que uma etapa inclui uma pluralidade de processamento, a pluralidade de processamento incluída em uma etapa pode ser executada por um aparelho ou executada por uma pluralidade de aparelhos de uma maneira compartilhada.
[00529] Além disso, a presente tecnologia pode ter a seguinte configuração. (1)
[00530] Um aparelho de processamento de informações, incluindo uma unidade de controle que seleciona e agrupa uma pluralidade de objetos existentes em um espaço predeterminado e altera as posições da pluralidade de objetos, enquanto mantém uma relação posicional relativa da pluralidade de objetos agrupados no espaço. (2)
[00531] O aparelho de processamento de informações de acordo com (1), no qual a unidade de controle agrupa uma pluralidade de objetos que não têm posições no espaço e dá posições à pluralidade de objetos agrupados no espaço. (3)
87 / 90
[00532] O aparelho de processamento de informações de acordo com (1), no qual em um caso onde dois dos objetos são agrupados, a unidade de controle altera as posições dos dois objetos, enquanto mantém uma relação na qual os dois objetos são simétricos em relação a um plano predeterminado no espaço. (4)
[00533] O aparelho de processamento de informações de acordo com (1), no qual a unidade de controle agrupa dois dos objetos que não têm posições no espaço e dá posições aos dois dos objetos no espaço de modo que os dois dos objetos agrupados tenham uma relação posicional simétrica em relação a um plano predeterminado no espaço. (5)
[00534] O aparelho de processamento de informações de acordo com (1), no qual a unidade de controle agrupa uma pluralidade de objetos tendo posições no espaço. (6)
[00535] O aparelho de processamento de informações de acordo com qualquer um de (1) a (5), no qual com base em uma posição do objeto em um ponto de tempo predeterminado e uma posição do objeto em um outro ponto de tempo diferente do ponto de tempo predeterminado, a unidade de controle obtém, por processamento de interpolação, uma posição do objeto em um ponto de tempo entre o ponto de tempo predeterminado e o outro ponto de tempo. (7)
[00536] O aparelho de processamento de informações de acordo com (6), no qual
88 / 90 a unidade de controle realiza o processamento de interpolação por um método de interpolação selecionado dentre uma pluralidade de métodos de interpolação. (8)
[00537] O aparelho de processamento de informações de acordo com qualquer um de (1) a (7), no qual em um caso onde as posições de uma pluralidade de pontos de tempo diferentes umas das outras do objeto são selecionadas e a alteração de posições é instruída, a unidade de controle altera simultaneamente as posições selecionadas da pluralidade de pontos de tempo por uma quantidade de alteração especificada. (9)
[00538] O aparelho de processamento de informações de acordo com qualquer um de (1) a (8), incluindo adicionalmente uma unidade de controle de exibição que controla a exibição de uma imagem do espaço no qual o objeto está disposto com uma posição predeterminada no espaço como uma posição de ponto de vista. (10)
[00539] O aparelho de processamento de informações de acordo com (9), no qual a unidade de controle de exibição faz com que o objeto pertencente a um mesmo grupo seja exibido na mesma cor na imagem. (11)
[00540] O aparelho de processamento de informações de acordo com (9), no qual a unidade de controle de exibição faz com que o objeto seja exibido na imagem em uma cor selecionada para uma faixa de áudio correspondente ao objeto. (12)
89 / 90
[00541] O aparelho de processamento de informações de acordo com (9), no qual a unidade de controle de exibição faz com que o objeto seja exibido na imagem em uma cor selecionada para uma faixa de áudio correspondente ao objeto e uma cor definida para um grupo ao qual o objeto pertence. (13)
[00542] O aparelho de processamento de informações de acordo com qualquer um de (9) a (12), no qual a unidade de controle de exibição faz com que apenas o objeto especificado entre a pluralidade de objetos existentes no espaço seja exibido na imagem. (14)
[00543] O aparelho de processamento de informações de acordo com qualquer um de (1) a (13), no qual o objeto é um objeto áudio. (15)
[00544] Um método de processamento de informações, incluindo através de um aparelho de processamento de informações, selecionar e agrupar uma pluralidade de objetos existentes em um espaço predeterminado e alterar as posições da pluralidade de objetos, mantendo, embora uma relação posicional relativa da pluralidade de objetos agrupados no espaço. (16)
[00545] Um programa que faz com que um computador execute o processamento, incluindo uma etapa de selecionar e agrupar uma pluralidade de objetos existentes em um espaço predeterminado e alterar as posições da pluralidade de objetos, enquanto mantém uma relação posicional relativa da pluralidade de objetos
90 / 90 agrupados no espaço.
LISTA DE SINAIS DE REFERÊNCIA
[00546] 11 Aparelho de processamento de informações 21 Unidade de entrada 23 Unidade de controle 24 Unidade de exibição 41 Unidade de determinação de posição 42 Unidade de controle de exibição

Claims (16)

REIVINDICAÇÕES
1. Aparelho de processamento de informações, caracterizado pelo fato de que compreende uma unidade de controle que seleciona e agrupa uma pluralidade de objetos existentes em um espaço predeterminado e altera as posições da pluralidade de objetos, enquanto mantém uma relação posicional relativa da pluralidade de objetos agrupados no espaço.
2. Aparelho de processamento de informações de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de controle agrupa uma pluralidade de objetos que não têm posições no espaço e dá posições para a pluralidade de objetos agrupados no espaço.
3. Aparelho de processamento de informações de acordo com a reivindicação 1, caracterizado pelo fato de que em um caso onde dois dos objetos são agrupados, a unidade de controle altera as posições dos dois objetos, enquanto mantém uma relação na qual os dois objetos são simétricos em relação a um plano predeterminado no espaço.
4. Aparelho de processamento de informações de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de controle agrupa dois dos objetos que não têm posições no espaço e dá posições aos dois dos objetos no espaço de modo que os dois dos objetos agrupados tenham uma relação posicional simétrica em relação a um plano predeterminado no espaço.
5. Aparelho de processamento de informações de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de controle agrupa uma pluralidade de objetos tendo posições no espaço.
6. Aparelho de processamento de informações de acordo com a reivindicação 1, caracterizado pelo fato de que com base em uma posição do objeto em um ponto de tempo predeterminado e uma posição do objeto em um outro ponto de tempo diferente do ponto de tempo predeterminado, a unidade de controle obtém, por processamento de interpolação, uma posição do objeto em um ponto de tempo entre o ponto de tempo predeterminado e o outro ponto de tempo.
7. Aparelho de processamento de informações de acordo com a reivindicação 6, caracterizado pelo fato de que a unidade de controle realiza o processamento de interpolação por um método de interpolação selecionado dentre uma pluralidade de métodos de interpolação.
8. Aparelho de processamento de informações de acordo com a reivindicação 1, caracterizado pelo fato de que em um caso onde as posições de uma pluralidade de pontos de tempo diferentes umas das outras do objeto são selecionadas e a alteração de posições é instruída, a unidade de controle altera simultaneamente as posições selecionadas da pluralidade de pontos de tempo por uma quantidade de alteração especificada.
9. Aparelho de processamento de informações, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende adicionalmente uma unidade de controle de exibição que controla a exibição de uma imagem do espaço no qual o objeto está disposto com uma posição predeterminada no espaço como uma posição de ponto de vista.
10. Aparelho de processamento de informações de acordo com a reivindicação 9, caracterizado pelo fato de que a unidade de controle de exibição faz com que o objeto pertencente a um mesmo grupo seja exibido na mesma cor na imagem.
11. Aparelho de processamento de informações de acordo com a reivindicação 9, caracterizado pelo fato de que a unidade de controle de exibição faz com que o objeto seja exibido na imagem em uma cor selecionada para uma faixa de áudio correspondente ao objeto.
12. Aparelho de processamento de informações de acordo com a reivindicação 9, caracterizado pelo fato de que a unidade de controle de exibição faz com que o objeto seja exibido na imagem em uma cor selecionada para uma faixa de áudio correspondente ao objeto e uma cor definida para um grupo ao qual o objeto pertence.
13. Aparelho de processamento de informações de acordo com a reivindicação 9, caracterizado pelo fato de que a unidade de controle de exibição faz com que apenas o objeto especificado entre a pluralidade de objetos existentes no espaço seja exibido na imagem.
14. Aparelho de processamento de informações de acordo com a reivindicação 1, caracterizado pelo fato de que o objeto é um objeto áudio.
15. Método de processamento de informações, caracterizado pelo fato de que compreende através de um aparelho de processamento de informações, selecionar e agrupar uma pluralidade de objetos existentes em um espaço predeterminado e alterar as posições da pluralidade de objetos, mantendo, embora uma relação posicional relativa da pluralidade de objetos agrupados no espaço.
16. Programa, caracterizado pelo fato de que faz com que um computador execute o processamento, incluindo uma etapa de selecionar e agrupar uma pluralidade de objetos existentes em um espaço predeterminado e alterar as posições da pluralidade de objetos, enquanto mantém uma relação posicional relativa da pluralidade de objetos agrupados no espaço.
Petição 870210016497, de 19/02/2021, pág. 104/140
APARELHO DE PROCESSAMENTO DE INFORMAÇÕES
UNIDADE DE UNIDADE DE CONTROLE UNIDADE DE
EXIBIÇÃO ENTRADA 1/36
UNIDADE DE DETERMINAÇÃO
UNIDADE DE DE POSIÇÃO
UNIDADE DE
COMUNICAÇÃO GRAVAÇÃO
UNIDADE DE CONTROLE
DE EXIBIÇÃO
UNIDADE DE ALTO-FALANTE nenhum Par L/R Grupo
INICIAR PROCESSAMENTO
DE AGRUPAMENTO
RECEBER ESPECIFICAÇÃO DO OBJETO
A SER AGRUPADO E DO GRUPO
GERAR INFORMAÇÃO DE GRUPO
ATUALIZAR A EXIBIÇÃO DA TELA DE EDIÇÃO
E IMAGEM DE POV COM BASE NA INFORMAÇÃO
DE GRUPO
FIM
Petição 870210016497, de 19/02/2021, pág. 108/140 Onda
Faixa Azimute Azimute
Elevação
Raio 5/36
Ganho
Prioridade
Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho
Prioridade
Petição 870210016497, de 19/02/2021, pág. 109/140 Onda
Faixa Azimute Azimute
Elevação
Raio 6/36
Ganho
Prioridade
Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho
Prioridade
Petição 870210016497, de 19/02/2021, pág. 110/140 Onda
Faixa Azimute Azimute
Elevação
Raio 7/36
Ganho
Prioridade
Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho
Prioridade
INICIAR PROCESSAMENTO
DE MOVIMENTO DO OBJETO
RECEBER ESPECIFICAÇÃO DO
OBJETO E INFORMAÇÃO DE
POSIÇÃO DE OBJETO ALTERADA
DO OBJETO
ESPECIFICAR OBJETO QUE
PERTENCE AO MESMO GRUPO
ALTERAR INFORMAÇÃO DE
POSIÇÃO DE OBJETO
ATUALIZAR A EXIBIÇÃO DA TELA
DE EXIBIÇÃO E IMAGEM DE POV
FIM
Onda
Petição 870210016497, de 19/02/2021, pág. 112/140 Azimute
Faixa Azimute nenhum 9/36
Faixa Azimute
Grupo
Par L/R
Raio
Ganho
Prioridade
Petição 870210016497, de 19/02/2021, pág. 113/140 Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho 10/36
Prioridade
Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho
Prioridade
Petição 870210016497, de 19/02/2021, pág. 114/140 Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho 11/36
Prioridade
Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho
Prioridade
Petição 870210016497, de 19/02/2021, pág. 115/140 Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho 12/36
Prioridade
Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho
Prioridade
INICIAR PROCESSAMENTO
DE AGRUPAMENTO
RECEBER ESPECIFICAÇÃO DO OBJETO
A SER AGRUPADO E DO GRUPO
O NÚMERO DE OBJETOS ESPECIFICADOS É DOIS?
NÃO
SIM ELES ESTÃO NO PAR L/R?
NÃO
SIM CONFIGURAR MARCADOR DO PAR L/R PARA 1
CONFIGURAR MARCADOR DO PAR L/R PARA 0
GERAR INFORMAÇÃO DE GRUPO
ATUALIZAR A EXIBIÇÃO DA TELA DE
EDIÇÃO E IMAGEM DE POV COM
BASE NA INFORMAÇÃO DE GRUPO
FIM
Prioridade Elevação Azimute
Ganho Onda
Raio Faixa Azimute
Prioridade Elevação Azimute
Ganho Onda
Raio Faixa Azimute
Petição 870210016497, de 19/02/2021, pág. 119/140 Filme relacionado Onda Uni- Tempo dade Azimute Faixa Azimute
Azimute Elevação 16/36
Raio Elevação
Ganho Raio Prioridade
Petição 870210016497, de 19/02/2021, pág. 120/140 Filme relacionado Onda Tempo Uni- dade Azimute Faixa Azimute
Azimute Elevação 17/36
Raio Elevação
Ganho Raio Prioridade
INICIAR PROCESSAMENTO DE
MOVIMENTO DE DESLOCAMENTO
RECEBER ESPECIFICAÇÃO DO
OBJETO E ALTERAR FAIXA
EXIBIR TELA DE DESLOCAMENTO
RECEBER ESPECIFICAÇÃO DA
QUANTIDADE DE ALTERAÇÃO
ALTERAR INFORMAÇÃO DE POSIÇÃO DE OBJETO PERTENCE AO GRUPO?
NÃO
SIM
ALTERAR INFORMAÇÃO DA POSIÇÃO DE
OBJETO DE TODOS OS OUTROS OBJETOS
QUE PERTENCEM AO GRUPO
ATUALIZAR A EXIBIÇÃO DA TELA
DE EXIBIÇÃO E IMAGEM DE POV
FIM
Prioridade Elevação Azimute
Ganho Onda
Raio Faixa Azimute
Prioridade Elevação Azimute
Ganho Onda
Raio Faixa Azimute
Elevação
Prioridade Azimute Onda
Ganho Raio Faixa Azimute
INICIAR PROCESSAMENTO DE SELEÇÃO
DE MÉTODO DE INTERPOLAÇÃO
RECEBER ESPECIFICAÇÃO DE
DOIS PONTOS DE EDIÇÃO
EXIBIR TELA DE SELEÇÃO DE
MÉTODO DE INTERPOLAÇÃO
SELECIONAR MÉTODO DE INTERPOLAÇÃO
GRAVAR INFORMAÇÃO DE ESPECIFICAÇÃO
DE MÉTODO DE INTERPOLAÇÃO
REALIZAR PROCESSAMENTO DE INTERPOLAÇÃO
FIM
Petição 870210016497, de 19/02/2021, pág. 128/140 Onda
Azimute Faixa Azimute
Elevação
Raio 25/36
Ganho
Prioridade
Onda
Azimute Faixa Azimute
Elevação
Raio
Ganho
Prioridade
Petição 870210016497, de 19/02/2021, pág. 129/140 Onda
Faixa Azimute Azimute
Elevação
Raio 26/36
Ganho
Prioridade
Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho
Prioridade
Petição 870210016497, de 19/02/2021, pág. 130/140 Onda
Faixa Azimute Azimute
Elevação
Raio 27/36
Ganho
Prioridade
Onda
Faixa Azimute Azimute
Elevação
Raio
Ganho
Prioridade
INICIAR PROCESSO
DE CONFIGURAÇÃO O BOTÃO DE MUDO FOI OPERADO?
NÃO
SIM
TRAZER O OBJETO ESPECIFICADO
AO ESTADO DE MUDO O BOTÃO DE SOLO FOI OPERADO?
NÃO
SIM
TRAZER O OBJETO ESPECIFICADO
AO ESTADO DE SOLO
ATUALIZAR A EXIBIÇÃO DA TELA
DE EXIBIÇÃO E IMAGEM DE POV
FIM
ARQUIVO EDITAR VISUALIZAR TRANSPORTAR Petição 870210016497, de 19/02/2021, pág. 132/140 FERRA-
AJUDA
MENTA 29/36
NOME DATA DE ATUALIZAÇÃO
E HORA 24/07/2017 24/07/2017 24/07/2017 29/05/2018 24/05/2017 24/05/2017 24/05/2017 24/05/2017 24/05/2017 24/05/2017
Petição 870210016497, de 19/02/2021, pág. 133/140 Confirmar criar novo Objeto ou Faixa de canal 30/36 configurar 2 canais WAV com posição L/R (Azimute +30/-30)
Criar Objetos Criar um Canal Cancelar
Arquivo Editar Visualizar Transportar
Petição 870210016497, de 19/02/2021, pág. 134/140 Onda
Azimute
Faixa Azimute Elevação
Raio 31/36
Ganho
Prioridade
Onda
Azimute
Faixa Azimute Elevação
Raio
Ganho
Prioridade
Petição 870210016497, de 19/02/2021, pág. 135/140 Confirmar criar novo Objeto ou Faixa de canal 32/36 configurar 2 canais WAV com posição L/R (Azimute +30/-30)
Criar Objetos Criar um Canal Cancelar
Arquivo Editar Visualizar Transportar
Petição 870210016497, de 19/02/2021, pág. 136/140 Onda
Azimute
Faixa Azimute Elevação
Raio 33/36
Ganho
Prioridade
Onda
Azimute
Faixa Azimute Elevação
Raio
Ganho
Prioridade
INICIAR PROCESSAMENTO
DE IMPORTAÇÃO
NÃO ESSE É UM ARQUIVO MULTICANAL?
SIM
IMPORTAR COMO UM
DADO DE OBJETO
EXIBIR TELA DE SELEÇÃO DO TIPO DE FAIXA IMPORTAR COMO DADOS DO OBJETO?
NÃO
SIM IMPORTAR COMO DADOS
DE ÁUDIO DE CANAL
IMPORTAR COMO DADOS DE OBJETO
DE OBJETOS NO NÚMERO DE ACORDO
COM NÚMERO DE CANAIS DAR POSIÇÃO ESPECIFICA?
NÃO
SIM
DAR POSIÇÃO ESPECIFICA
ATUALIZAR A EXIBIÇÃO DA TELA
DE EDIÇÃO E IMAGEM DE POV
FIM
Petição 870210016497, de 19/02/2021, pág. 139/140 36/36 INTERFACE DE ENTRADA/SAÍDA
UNIDADE
DE UNIDADE UNIDADE DE UNIDADE DE
GRAVAÇÃO DRIVE
ENTRADA DE SAÍDA COMUNICAÇÃO
MÍDIA DE
GRAVAÇÃO
REMOVÍVEL
BR112021003091-3A 2018-08-30 2019-08-16 aparelho e método de processamento de informações, e, programa BR112021003091A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018160969 2018-08-30
JP2018-160969 2018-08-30
PCT/JP2019/032132 WO2020045126A1 (ja) 2018-08-30 2019-08-16 情報処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
BR112021003091A2 true BR112021003091A2 (pt) 2021-05-11

Family

ID=69643222

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112021003091-3A BR112021003091A2 (pt) 2018-08-30 2019-08-16 aparelho e método de processamento de informações, e, programa

Country Status (7)

Country Link
US (3) US11368806B2 (pt)
EP (1) EP3846501A4 (pt)
JP (2) JPWO2020045126A1 (pt)
KR (1) KR20210049785A (pt)
CN (1) CN112585999A (pt)
BR (1) BR112021003091A2 (pt)
WO (1) WO2020045126A1 (pt)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020045126A1 (ja) 2018-08-30 2021-08-10 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
US20220400352A1 (en) * 2021-06-11 2022-12-15 Sound Particles S.A. System and method for 3d sound placement

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3492404B2 (ja) * 1993-12-24 2004-02-03 ローランド株式会社 音響効果装置
JPH08140199A (ja) * 1994-11-08 1996-05-31 Roland Corp 音像定位設定装置
EP1134724B1 (en) * 2000-03-17 2008-07-23 Sony France S.A. Real time audio spatialisation system with high level control
JP4304845B2 (ja) 2000-08-03 2009-07-29 ソニー株式会社 音声信号処理方法及び音声信号処理装置
US8068105B1 (en) * 2008-07-18 2011-11-29 Adobe Systems Incorporated Visualizing audio properties
CN104541524B (zh) 2012-07-31 2017-03-08 英迪股份有限公司 一种用于处理音频信号的方法和设备
EP2770498A1 (en) * 2013-02-26 2014-08-27 Harman International Industries Ltd. Method of retrieving processing properties and audio processing system
KR102586356B1 (ko) * 2013-03-28 2023-10-06 돌비 레버러토리즈 라이쎈싱 코오포레이션 임의적 라우드스피커 배치들로의 겉보기 크기를 갖는 오디오 오브젝트들의 렌더링
WO2014163657A1 (en) 2013-04-05 2014-10-09 Thomson Licensing Method for managing reverberant field for immersive audio
EP3261367B1 (en) * 2016-06-21 2020-07-22 Nokia Technologies Oy Method, apparatus, and computer program code for improving perception of sound objects in mediated reality
EP3336834A1 (en) * 2016-12-14 2018-06-20 Nokia Technologies OY Controlling a sound object
JPWO2020045126A1 (ja) 2018-08-30 2021-08-10 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
KR20210049785A (ko) 2021-05-06
US20220394415A1 (en) 2022-12-08
US20210329397A1 (en) 2021-10-21
EP3846501A1 (en) 2021-07-07
US11368806B2 (en) 2022-06-21
US11849301B2 (en) 2023-12-19
WO2020045126A1 (ja) 2020-03-05
CN112585999A (zh) 2021-03-30
JPWO2020045126A1 (ja) 2021-08-10
JP2024042045A (ja) 2024-03-27
US20240073639A1 (en) 2024-02-29
EP3846501A4 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
JP7192786B2 (ja) 信号処理装置および方法、並びにプログラム
US9967693B1 (en) Advanced binaural sound imaging
US20240073639A1 (en) Information processing apparatus and method, and program
RU2735095C2 (ru) Устройство и способ аудиообработки, и программа
JP2019533195A (ja) 分離されたオブジェクトを使用してオーディオ信号を編集する方法および関連装置
KR102500694B1 (ko) 사용자 맞춤형 현장감 실현을 위한 오디오 콘텐츠를 제작하는 컴퓨터 시스템 및 그의 방법
KR20190109019A (ko) 가상 공간에서 사용자의 이동에 따른 오디오 신호 재생 방법 및 장치
CN111512648A (zh) 启用空间音频内容的渲染以用于由用户消费
Brümmer Composition and perception in spatial audio
Bascou Adaptive spatialization and scripting capabilities in the spatial trajectory editor Holo-Edit
JP2005150993A (ja) オーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラム
KR102058228B1 (ko) 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션
JP2016109971A (ja) 信号処理装置および信号処理装置の制御方法
CN115103293B (zh) 一种面向目标的声重放方法及装置
KR20190081163A (ko) 입체 음향 컨텐츠 저작 툴을 이용한 선택적 광고 제공 방법 및 이를 위한 어플리케이션
JP2018148323A (ja) 音像定位装置および音像定位方法
EP4174841A1 (en) Systems and methods for generating a mixed audio file in a digital audio workstation
Lopes INSTRUMENT POSITION IN IMMERSIVE AUDIO: A STUDY ON GOOD PRACTICES AND COMPARISON WITH STEREO APPROACHES
Babouri Trajectory Score Library: A Tool for Algorithmic Spatialisation with Antescofo
JP2022090748A (ja) 録音装置、音再生装置、録音方法、および音再生方法
CN112420005A (zh) 全景音效网络协同系统
Barberis et al. Ormé, a tool for automated spatialization of fixed-media music based on spectrum contents annotation
JP2006261886A (ja) 収録再生システム、収録装置および方法、再生装置および方法、並びにプログラム
Kruining Sound swarm: experience sound in a new way
KR20190082056A (ko) 입체 음향 컨텐츠 저작 툴을 이용한 선택적 광고 제공 방법 및 이를 위한 어플리케이션