RU2820838C2 - System, method and persistent machine-readable data medium for generating, encoding and presenting adaptive audio signal data - Google Patents

System, method and persistent machine-readable data medium for generating, encoding and presenting adaptive audio signal data Download PDF

Info

Publication number
RU2820838C2
RU2820838C2 RU2020141861A RU2020141861A RU2820838C2 RU 2820838 C2 RU2820838 C2 RU 2820838C2 RU 2020141861 A RU2020141861 A RU 2020141861A RU 2020141861 A RU2020141861 A RU 2020141861A RU 2820838 C2 RU2820838 C2 RU 2820838C2
Authority
RU
Russia
Prior art keywords
audio
metadata
data
channel
sound
Prior art date
Application number
RU2020141861A
Other languages
Russian (ru)
Other versions
RU2020141861A (en
Inventor
Чарльз К. РОБИНСОН
Николас Р. ТСИНГОС
Кристоф ШАБАННЕ
Original Assignee
Долби Лабораторис Лайсэнзин Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Долби Лабораторис Лайсэнзин Корпорейшн filed Critical Долби Лабораторис Лайсэнзин Корпорейшн
Publication of RU2020141861A publication Critical patent/RU2020141861A/en
Application granted granted Critical
Publication of RU2820838C2 publication Critical patent/RU2820838C2/en

Links

Abstract

FIELD: physics.
SUBSTANCE: invention relates to computer engineering for processing audio data. Technical result is achieved by receiving a bit stream, inside which there is an adaptive audio mix containing a number of monophonic audio streams and metadata associated with each of the audio streams and indicating the playback location of the corresponding monophonic audio stream; and presenting a plurality of monophonic audio streams to a plurality of signals supplied to loudspeakers, corresponding to loudspeakers in a playback environment, wherein the loudspeakers of the loudspeaker array are placed in certain positions within the playback environment, and wherein the metadata elements associated with each corresponding object-based monophonic audio stream indicate an allocation volume to be applied to the monophonic audio stream on the basis of objects, thus the monophonic audio stream on the basis of objects is represented in a series of signals supplied to loudspeakers, with a spatial extent corresponding to the volume of distribution specified by the metadata.
EFFECT: improved sound quality in a room.
4 cl, 11 dwg, 12 tbl

Description

ПЕРЕКРЕСТНАЯ ССЫЛКА НА РОДСТВЕННЫЕ ЗАЯВКИCROSS REFERENCE TO RELATED APPLICATIONS

[0001] Данная заявка заявляет приоритет предварительной заявки на патент США №61/504005, поданной 1 июля 2011 г., и предварительной заявки на патент США №61/636429, поданной 20 апреля 2012 г.; обе эти заявки ссылкой включаются в данное раскрытие полностью во всех отношениях.[0001] This application claims priority to US Provisional Patent Application No. 61/504005, filed July 1, 2011, and US Provisional Patent Application No. 61/636429, filed April 20, 2012; both of these applications are incorporated by reference into this disclosure in their entirety in all respects.

ОБЛАСТЬ ТЕХНИЧЕСКОГО ПРИМЕНЕНИЯTECHNICAL APPLICATION AREA

[0002] Одна или несколько реализаций, в общем, относятся к обработке звуковых сигналов и, конкретнее, к гибридной обработке звука на основе объектов и каналов для использования в кинематографических, домашних и других средах.[0002] One or more implementations generally relate to audio processing and, more specifically, to object- and channel-based hybrid audio processing for use in cinematic, home, and other environments.

ПРЕДПОСЫЛКИBACKGROUND

[0003] Не следует полагать, что предмет изобретения, обсуждаемый в разделе предпосылок, представляет собой известный уровень техники единственно в результате его упоминания в разделе предпосылок. Аналогично, не следует полагать, что проблема, упоминаемая в разделе предпосылок или связанная с предметом изобретения в разделе предпосылок, является признанной на известном уровне техники. Предмет изобретения в разделе предпосылок лишь представляет различные подходы, которые сами по себе также могут представлять собой изобретения.[0003] It should not be assumed that subject matter discussed in the background section constitutes prior art solely as a result of its mention in the background section. Likewise, it should not be assumed that a problem mentioned in the background section or associated with the subject matter of the invention in the background section is recognized in the prior art. The subject matter in the background section merely represents various approaches that may themselves constitute inventions.

[0004] С момента введения звука в фильмы происходило устойчивое развитие технологии, предназначенной для фиксации художественного замысла создателя звуковой дорожки кинокартины и для его точного воспроизведения в среде кинотеатра. Основополагающая роль звука в кинематографии заключается в содействии сюжету на экране. Типичные звуковые дорожки для кинематографии содержат множество различных звуковых элементов, соответствующих элементам и изображениям на экране, диалогам, шумам и звуковым эффектам, которые исходят от различных элементов на экране и сочетаются с музыкальным фоном и эффектами окружающей среды, создавая общее впечатления от просмотра. Художественный замысел создателей и продюсеров отображает их желание воспроизводить указанные звуки таким образом, который как можно точнее соответствует тому, что демонстрируется на экране в том, что касается положения, интенсивности, перемещения и других аналогичных параметров источников звука. [0004] Since the introduction of sound in films, there has been a steady development of technology designed to capture the artistic intent of the creator of a motion picture soundtrack and to accurately reproduce it in a movie theater environment. The fundamental role of sound in cinematography is to contribute to the story on screen. Typical cinematography soundtracks contain many different audio elements corresponding to on-screen elements and images, dialogue, noise and sound effects that come from various on-screen elements and combine with background music and environmental effects to create the overall viewing experience. The artistic intent of the creators and producers reflects their desire to reproduce said sounds in a manner that is as close as possible to what is shown on screen in terms of position, intensity, movement and other similar parameters of the sound sources.

[0005] Современная авторская разработка, распространение и проигрывание кинофильмов страдает от ограничений, которые сдерживают создание по-настоящему жизненного и создающего эффект присутствия звука. Традиционные аудиосистемы на основе каналов передают звуковое содержимое в форме сигналов, подаваемых на громкоговорители, для отдельных громкоговорителей в такой среде проигрывания, как стереофоническая система или система 5.1. Внедрение цифровой кинематографии создало такие новые стандарты звука в фильмах, как объединение до 16 звуковых каналов, что позволяет увеличить творческие возможности создателей содержимого, а также больший охват и реалистичность впечатлений от прослушивания для зрителей. Введение окружающих систем 7.1 обеспечило новый формат, который увеличивает количество окружающих каналов путем разбиения существующего левого и правого окружающих каналов на четыре зоны, что, таким образом, расширяет пределы возможностей операторов обработки и синтеза звука и операторов микширования при управлении местоположениями звуковых элементов в кинотеатре.[0005] Modern motion picture authoring, distribution and playback suffers from limitations that hinder the creation of truly life-like and immersive sound. Traditional channel-based audio systems deliver audio content in the form of speaker signals to individual speakers in a playback environment such as a stereo or 5.1 system. The advent of digital cinematography has created new standards for film audio, such as combining up to 16 channels of sound, allowing for increased creativity for content creators and a greater reach and realism in the listening experience for audiences. The introduction of 7.1 surround systems provided a new format that increases the number of surround channels by splitting the existing left and right surround channels into four zones, thereby expanding the limits of what sound processing and synthesis operators and mixing operators can do when managing the locations of sound elements in a theater.

[0006] Для дальнейшего улучшения пользовательского восприятия, проигрывание звука в виртуальных трехмерных средах стало областью усиленных проектно-конструкторских разработок. Представление звука в пространстве использует звуковые объекты, которые представляют собой звуковые сигналы со связанными параметрическими описаниями источников для положений кажущегося источника (например, трехмерных координат), ширины кажущегося источника и других параметров. Звук на основе объектов во все возрастающей мере используется для многих современных мультимедийных приложений, таких как цифровые кинофильмы, видеоигры, симуляторы и трехмерное видео.[0006] To further improve the user experience, audio playback in virtual 3D environments has become an area of increased design and development efforts. The representation of sound in space uses sound objects, which are sound signals with associated parametric source descriptions for positions of the apparent source (eg, 3D coordinates), width of the apparent source, and other parameters. Object-based audio is increasingly used for many modern multimedia applications such as digital motion pictures, video games, simulations and 3D video.

[0007] Решающим является выход за пределы традиционных сигналов, подаваемых на громкоговорители, и звука на основе каналов как средств распространения звука в пространстве, и существует значительный интерес к описанию звука на основе моделей, которое является многообещающим для того, чтобы давать слушателю/кинопрокатчику свободу выбора конфигурации проигрывания, которая соответствует их индивидуальным потребностям или бюджету, со звуком, данные которого представляются специально для выбранной ими конфигурации. На высоком уровне в настоящее время существует четыре основных формата пространственного описания звука: сигналы, подаваемые на громкоговорители, где звук описывается как сигналы, предназначенные для громкоговорителей в номинальных положениях громкоговорителей; сигнал, подаваемый на микрофон, где звук описывается как сигналы, захватываемые виртуальными или фактическими микрофонами в предварительно определяемом массиве; описание на основе моделей, в котором звук описывается в терминах последовательности звуковых событий в описываемых положениях; и бинауральный, в котором звук описывается сигналами, которые достигают ушей пользователя. Эти четыре формата описания часто связаны с одной или несколькими технологиями представления данных, которые преобразовывают звуковые сигналы в сигналы, подаваемые на громкоговорители. Современные технологии представления данных включают панорамирование, при котором аудиопоток преобразовывается в сигналы, подаваемые на громкоговорители, с использованием набора законов панорамирования и известных, или предполагаемых, положений громкоговорителей (как правило, представление данных происходит перед распространением); амбифонию, при которой сигналы микрофонов преобразовываются в подаваемые сигналы для масштабируемого массива громкоговорителей (как правило, представление данных происходит после распространения); WFS (синтез волнового поля), при котором звуковые события преобразовываются в соответствующие сигналы громкоговорителей для синтеза звукового поля (как правило, представление данных происходит после распространения); и бинауральную технологию, в которой бинауральные сигналы L/R (левый/правый) доставляются в уши L/R, как правило, с использованием наушников, но также с использованием громкоговорителей и подавления перекрестных помех (представление данных происходит до или после распространения). Среди этих форматов наиболее общим является формат подачи сигналов на громкоговорители, поскольку он является простым и эффективным. Наилучшие акустические результаты (наиболее точные, наиболее достоверные) достигаются путем микширования/текущего контроля и распространения непосредственно в сигналы, подаваемые на громкоговорители, поскольку между создателем содержимого и слушателем обработка отсутствует. Если проигрывающая система известна заранее, описание сигналов, подаваемых на громкоговорители, обычно обеспечивает наивысшую точность воспроизведения. Однако во многих применениях на практике проигрывающая система неизвестна. Наиболее адаптируемым считается описание на основе моделей, поскольку оно не делает предположений о технологии представления данных, и поэтому оно легче всего применяется для любой технологии представления данных. Несмотря на то, что описание на основе моделей эффективно собирает пространственную информацию, оно становится чрезвычайно неэффективным по мере увеличения количества источников звука.[0007] Moving beyond traditional loudspeaker signals and channel-based sound as a means of propagating sound through space is critical, and there is significant interest in model-based descriptions of sound that hold promise for giving the listener/distributor freedom select a playback configuration that suits their individual needs or budget, with audio data presented specifically for their chosen configuration. At a high level, there are currently four main formats for spatial description of sound: signals applied to loudspeakers, where sound is described as signals intended for loudspeakers at nominal loudspeaker positions; a signal applied to a microphone, where sound is described as signals captured by virtual or actual microphones in a predefined array; model-based description, in which sound is described in terms of a sequence of sound events at described positions; and binaural, in which sound is described by signals that reach the user's ears. These four description formats are often associated with one or more presentation technologies that convert audio signals into signals that are sent to loudspeakers. Modern presentation technologies include panning, in which the audio stream is converted into signals delivered to loudspeakers using a set of panning laws and known or assumed positions of the loudspeakers (usually presenting the data before distribution); ambiphony, in which microphone signals are converted into feed signals for a scalable array of loudspeakers (usually presenting the data after propagation); WFS (Wave Field Synthesis), in which sound events are converted into corresponding loudspeaker signals to synthesize the sound field (typically data presentation occurs after propagation); and binaural technology, in which binaural L/R (left/right) signals are delivered to L/R ears, typically using headphones, but also using loudspeakers and crosstalk cancellation (data presentation occurs before or after propagation). Among these formats, the loudspeaker format is the most common because it is simple and efficient. The best acoustic results (most accurate, most reliable) are achieved by mixing/monitoring and distributing directly into the signals sent to the loudspeakers, since there is no processing between the content creator and the listener. If the playing system is known in advance, a description of the signals sent to the speakers will usually provide the highest fidelity. However, in many practical applications the losing system is unknown. Model-based description is considered the most adaptable because it makes no assumptions about the data representation technology, and therefore it is most easily applied to any data representation technology. Although model-based description is effective at capturing spatial information, it becomes extremely inefficient as the number of sound sources increases.

[0008] В течение многих лет системы для кинематографии характеризовались дискретными экранными каналами в форме левого, центрального, правого и, иногда, «внутреннего левого» и «внутреннего правого» каналов. Эти дискретные источники обычно имеют достаточную амплитудно-частотную характеристику и коммутируемую мощность для того, чтобы позволять точно размещать звуки в разных областях экрана и допускать тембральное согласование по мере того, как звуки перемещаются, или панорамируются, между местоположениями. Современные разработки по усилению восприятия слушателя стремятся к точному воспроизведению местоположения звуков относительно слушателя. В установке 5.1 окружающие «зоны» включают массив громкоговорителей, все из которых несут одинаковую звуковую информацию в пределах каждой, левой окружающей или правой окружающей зоны. Указанные массивы могут быть эффективны для эффектов «окружающей среды» и рассеянного окружающего звука, однако в повседневной жизни многие звуковые эффекты возникают из случайно размещенных точечных источников. Например, в ресторане кажется, что окружающая музыка играет со всех сторон, в то время как из определенных точек возникают дискретные звуки: разговор человека - из одной точки, стук ножа по тарелке - из другой. Наличие возможности дискретного размещения этих звуков вокруг зрительного зала может создавать усиленное ощущение реальности, не являясь при этом слишком заметным. Также важной составляющей четкости окружающего звука являются звуки сверху. В реальном мире звуки приходят со всех направлений, и не всегда - из единственной горизонтальной плоскости. Дополнительное чувство реальности может достигаться, если звуки могут слышаться сверху, иными словами из «верхней полусферы». Современные системы, однако, не предлагают по-настоящему точного воспроизведения звука для разных типов звука для ряда разных сред проигрывания. Потребуется еще немало сделать в области обработки, знания и конфигурации фактических сред проигрывания, чтобы, используя существующие системы, попытаться точно воспроизводить местоположение определенных звуков и, таким образом, сделать современные системы негодными к употреблению для большинства применений.[0008] For many years, cinematography systems have been characterized by discrete on-screen channels in the form of left, center, right, and sometimes "inner left" and "inner right" channels. These discrete sources typically have sufficient frequency response and switching power to allow sounds to be accurately placed in different areas of the screen and to allow timbral matching as sounds move, or pan, between locations. Modern developments in enhancing the listener's perception strive to accurately reproduce the location of sounds relative to the listener. In a 5.1 setup, the surround "zones" include an array of speakers, all of which carry the same audio information within each, left surround or right surround zone. These arrays can be effective for "ambient" effects and diffuse ambient sound, but in everyday life many sound effects arise from randomly placed point sources. For example, in a restaurant, it seems that ambient music is playing from all sides, while discrete sounds arise from certain points: a person talking from one point, the knock of a knife on a plate from another. Having the ability to discretely place these sounds around the auditorium can create an enhanced sense of reality without being too noticeable. Also important to the clarity of ambient sound are sounds from above. In the real world, sounds come from all directions, and not always from a single horizontal plane. An additional sense of reality can be achieved if sounds can be heard from above, in other words from the “upper hemisphere”. Current systems, however, do not offer truly accurate audio reproduction across multiple audio types across a range of different playback environments. Much more work will need to be done in the processing, knowledge and configuration of actual playback environments to use existing systems to attempt to accurately reproduce the location of certain sounds and thus render current systems unusable for most applications.

[0009] То, что является необходимым, представляет собой систему, которая поддерживает несколько экранных каналов, что в результате приводит к повышенной четкости и улучшенной аудиовизуальной когерентности для звуков или диалога на экране и к возможности точно располагать источники где угодно в окружающих зонах, улучшая аудиовизуальный переход от экрана в помещение. Например, если герой на экране смотрит внутрь помещения в направлении источника звука, звукоинженер («оператор микширования») должен иметь возможность точно размещать звук так, чтобы он совпадал с линией взгляда героя, и чтобы этот эффект был единообразным для всех зрителей. Однако при традиционном микшировании окружающего звука 5.1 или 7.1 эффект сильно зависит от положения посадочного места слушателя, что является неблагоприятным для большинства крупных сред прослушивания. Повышенное разрешение окружающего звука создает новые возможности для использования звука центрированным в помещении образом, в отличие от традиционного подхода, где содержимое создается в предположении единственного слушателя в «зоне наилучшего восприятия».[0009] What is needed is a system that supports multiple on-screen channels, resulting in increased clarity and improved audio-visual coherence for on-screen sounds or dialogue and the ability to accurately position sources anywhere in the surrounding areas, improving audio-visual transition from screen to room. For example, if a character on screen is looking indoors towards a sound source, the sound engineer ("mixing operator") must be able to accurately place the sound so that it matches the character's line of sight, and so that the effect is consistent across all viewers. However, with traditional 5.1 or 7.1 surround mixing, the effect is highly dependent on the listener's seating position, which is unfavorable for most large listening environments. The increased resolution of ambient sound creates new opportunities to use sound in a room-centered manner, as opposed to the traditional approach where content is created with the assumption of a single listener in the “sweet spot.”

[0010] Помимо пространственных проблем, многоканальные системы на современном уровне техники страдают в отношении тембра. Например, при воспроизведении массивом громкоговорителей может страдать тембральное качество некоторых звуков, таких как шипение пара, выходящего из поврежденной трубы. Способность направлять определенные звуки в единственный громкоговоритель дает оператору микширования возможность устранять искажения при воспроизведении массивом и добиваться более реалистичного восприятия зрителями. Традиционно, окружающие громкоговорители не поддерживают столь же полный диапазон звуковых частот и уровень, которые поддерживают большие экранные каналы. В прошлом это создавало трудности для операторов микширования, уменьшая их возможности свободно перемещать широкополосные звуки от экрана в помещение. В результате, владельцы кинотеатров не ощущали необходимости в модернизации конфигурации окружающих каналов, что препятствовало широкому внедрению более высококачественных установок.[0010] In addition to spatial problems, state-of-the-art multi-channel systems suffer in terms of timbre. For example, when played back by an array of loudspeakers, the timbral quality of some sounds, such as the hiss of steam escaping from a damaged pipe, may suffer. The ability to route specific sounds into a single loudspeaker gives the mixing operator the ability to eliminate distortion in array playback and achieve a more realistic audience experience. Traditionally, surround speakers do not support the same full audio frequency range and level that large on-screen channels support. In the past, this has created difficulties for mixing operators, reducing their ability to freely move wide-range sounds from the screen into the room. As a result, theater owners did not feel the need to upgrade the configuration of the surrounding channels, which prevented the widespread adoption of higher-quality installations.

КРАТКОЕ ОПИСАНИЕ ВАРИАНТОВ ОСУЩЕСТВЛЕНИЯ ИЗОБРЕТЕНИЯBRIEF DESCRIPTION OF OPTIONS FOR IMPLEMENTING THE INVENTION

[0011] Системы и способы описываются для формата звука для кинематографии и системы обработки данных, которая включает новый слой громкоговорителей (конфигурацию каналов) и связанный формат пространственного описания. Определена система адаптивного звука и формат, который поддерживает несколько технологий представления данных. Аудиопотоки передаются наряду с метаданными, которые описывают «замысел оператора микширования», включающий требуемое положение аудиопотока. Указанное положение может быть выражено как названный канал (из каналов в пределах предварительно определенной конфигурации каналов) или как информация о трехмерном положении. Такой формат - каналы плюс объекты — сочетает оптимальные способы описания звуковой картины на основе каналов и на основе моделей. Аудиоданные для системы адаптивного звука содержат некоторое количество независимых монофонических аудиопотоков. Каждый поток имеет связанные с ним метаданные, которые описывают, будет поток представлять собой поток на основе каналов или поток на основе объектов. Потоки на основе каналов содержат информацию представления данных, кодированную посредством названия канала; а потоки на основе объектов содержат информацию местоположения, кодированную через математические выражения, кодированные в дополнительных связанных метаданных. Оригинальные независимые аудиопотоки упаковываются как единая двоичная последовательность, которая содержит все аудиоданные. Данная конфигурация позволяет представлять звук в соответствии с аллоцентрической системой отсчета, в которой представление данных местоположения звука основывается на характеристиках среды проигрывания (например, на размере помещения, его форме и т.д.) для соответствия замыслу оператора микширования. Метаданные положения объекта содержат соответствующую информацию аллоцентрической системы координат, необходимую для правильного проигрывания звука с использованием положений доступных громкоговорителей в помещении, которое подготовлено для проигрывания адаптивного звукового содержимого. Это позволяет оптимально микшировать звук для определенной среды проигрывания, которая может отличаться от среды микширования, испытываемой звукоинженером.[0011] Systems and methods are described for a cinematic audio format and data processing system that includes a new speaker layer (channel configuration) and an associated spatial description format. An adaptive sound system and a format that supports several data presentation technologies have been defined. Audio streams are transmitted along with metadata that describes the "mix operator's intent" including the desired position of the audio stream. The specified position may be expressed as a named channel (of channels within a predefined channel configuration) or as three-dimensional position information. This format - channels plus objects - combines the best ways to describe the sound picture based on channels and based on models. The audio data for an adaptive audio system contains a number of independent monaural audio streams. Each stream has metadata associated with it that describes whether the stream will be a channel-based stream or an object-based stream. Channel-based streams contain data representation information encoded by the channel name; and object-based streams contain location information encoded through mathematical expressions encoded in additional associated metadata. The original independent audio streams are packaged as a single binary sequence that contains all audio data. This configuration allows sound to be represented according to an allocentric reference frame, in which the presentation of sound location data is based on characteristics of the playing environment (eg room size, room shape, etc.) to match the mixing operator's intent. Object position metadata contains the appropriate allocentric coordinate system information needed to correctly play audio using the positions of available speakers in a room that is set up to play adaptive audio content. This allows audio to be mixed optimally for a specific playback environment, which may differ from the mixing environment experienced by the audio engineer.

[0012] Система адаптивного звука повышает качество звука в различных помещениях посредством таких преимуществ, как усовершенствованное управление коррекцией амплитудно-частотной характеристики в помещении и окружающими басами с тем, чтобы оператор микширования мог свободно обращаться к громкоговорителям (как находящимся на экране, так и вне экрана) без необходимости думать о тембральном согласовании. Система адаптивного звука добавляет в традиционные последовательности операций на основе каналов гибкость и возможности динамических звуковых объектов. Указанные звуковые объекты позволяют создателям контролировать дискретные звуковые элементы независимо от конкретных конфигураций проигрывающих громкоговорителей, в том числе верхних громкоговорителей. Система также вносит новую эффективность в процесс компоновки, позволяя звукоинженерам эффективно фиксировать все их замыслы а затем, в ходе текущего контроля в реальном времени или автоматически, генерировать версии окружающего звука 7.1 или 5.1.[0012] Adaptive Audio improves sound quality in a variety of rooms with benefits such as improved control of room equalization and ambient bass so that the mix operator can freely access speakers (both on-screen and off-screen ) without having to think about timbral matching. Adaptive Audio adds the flexibility and capabilities of dynamic audio objects to traditional channel-based workflows. These audio objects allow creators to control discrete audio elements independent of specific playback speaker configurations, including height speakers. The system also brings new efficiency to the layout process, allowing audio engineers to efficiently capture all their designs and then, during real-time or automatic monitoring, generate 7.1 or 5.1 surround sound versions.

[0013] Система адаптивного звука упрощает распространение, выделяя звуковую сущность художественного замысла в единый файл дорожки в устройстве обработки данных для цифровой кинематографии, который может точно проигрываться в широком диапазоне конфигураций кинотеатров. Система обеспечивает оптимальное воспроизведение художественного замысла, когда средства микширования и представления данных используют одинаковую конфигурацию каналов и единый инвентарь с нисходящей адаптацией к конфигурации представления данных, т.е. с понижающим микшированием. [0013] The adaptive audio system simplifies distribution by distilling the audio essence of an artistic concept into a single track file in a digital cinematography device that can be accurately played back in a wide range of theater configurations. The system ensures optimal reproduction of the artistic concept when the mixing and data presentation tools use the same channel configuration and a single inventory with top-down adaptation to the data presentation configuration, i.e. with downmixing.

[0014] Эти и другие преимущества представлены через варианты осуществления изобретения, которые направлены на звуковую платформу для кинематографии, обращаясь к ограничениям современных систем и доставляют впечатления от звука, который находится за пределами досягаемости систем, доступных в настоящее время.[0014] These and other advantages are presented through embodiments of the invention that address the cinematic audio platform, addressing the limitations of current systems and delivering audio experiences that are beyond the reach of systems currently available.

КРАТКОЕ ОПИСАНИЕ ГРАФИЧЕСКИХ МАТЕРИАЛОВBRIEF DESCRIPTION OF GRAPHIC MATERIALS

[0015] В нижеследующих графических материалах сходные ссылочные позиции используются для ссылки на сходные элементы. Несмотря на то, что следующие фигуры изображают различные примеры, одна или несколько реализаций не ограничиваются примерами, изображенными на указанных фигурах.[0015] In the following graphics, like reference numerals are used to refer to like elements. Although the following figures depict various examples, one or more implementations are not limited to the examples depicted in the figures.

[0016] ФИГ. 1 представляет собой общий вид сверху среды создания и проигрывания звука, использующей систему адаптивного звука согласно одному из вариантов осуществления изобретения. [0016] FIG. 1 is a top view of an audio production and playback environment using an adaptive audio system according to one embodiment of the invention.

[0017] ФИГ. 2 иллюстрирует объединение данных на основе каналов и на основе объектов с целью генерирования адаптивного звукового микса согласно одному из вариантов осуществления изобретения.[0017] FIG. 2 illustrates combining channel-based and object-based data to generate an adaptive audio mix according to one embodiment of the invention.

[0018] ФИГ. 3 представляет собой блок-схему, иллюстрирующую последовательность операций создания, упаковки и представления данных адаптивного звукового содержимого согласно одному из вариантов осуществления изобретения.[0018] FIG. 3 is a flowchart illustrating a process flow for creating, packaging, and presenting adaptive audio content data according to one embodiment of the invention.

[0019] ФИГ. 4 представляет собой блок-схему этапа представления данных системы адаптивного звука согласно одному из вариантов осуществления изобретения.[0019] FIG. 4 is a block diagram of a data presentation step of an adaptive audio system according to one embodiment of the invention.

[0020] ФИГ. 5 представляет собой таблицу, в которой перечисляются типы метаданных и связанные элементы метаданных для системы адаптивного звука согласно одному из вариантов осуществления изобретения.[0020] FIG. 5 is a table listing metadata types and associated metadata elements for an adaptive audio system according to one embodiment of the invention.

[0021] ФИГ. 6 представляет собой схему, которая иллюстрирует компоновку и окончательную обработку для системы адаптивного звука согласно одному из вариантов осуществления изобретения.[0021] FIG. 6 is a diagram that illustrates the layout and final processing for an adaptive audio system according to one embodiment of the invention.

[0022] ФИГ. 7 представляет собой схему одного из примеров последовательности операций процесса упаковки цифрового кинофильма с использованием файлов адаптивного звука согласно одному из вариантов осуществления изобретения.[0022] FIG. 7 is a diagram of one example flowchart of a digital motion picture packaging process using adaptive audio files according to one embodiment of the invention.

[0023] ФИГ. 8 представляет собой вид сверху одного из примеров схемы расположения предполагаемых местоположений громкоговорителей для их использования с системой адаптивного звука в типовом зрительном зале.[0023] FIG. 8 is a top view of one example layout of proposed speaker locations for use with an adaptive sound system in a typical auditorium.

[0024] ФИГ. 9 представляет собой вид спереди одного из примеров размещения предполагаемых местоположений громкоговорителей на экране для использования в типовом зрительном зале.[0024] FIG. 9 is a front view of one example of proposed speaker locations on a screen for use in a typical auditorium.

[0025] ФИГ. 10 представляет собой вид сбоку одного из примеров схемы расположения предполагаемых местоположений громкоговорителей для их использования с системой адаптивного звука в типовом зрительном зале.[0025] FIG. 10 is a side view of one example layout of proposed speaker locations for use with an adaptive audio system in a typical auditorium.

[0026] ФИГ. 11 представляет собой один из примеров расположения верхних окружающих громкоговорителей и боковых окружающих громкоговорителей относительно начала отсчета согласно одному из вариантов осуществления изобретения.[0026] FIG. 11 is one example of the arrangement of the top surround speakers and the side surround speakers relative to the origin according to one embodiment of the invention.

ПОДРОБНОЕ ОПИСАНИЕ DETAILED DESCRIPTION

[0027] Описываются системы и способы для системы адаптивного звука и связанного звукового сигнала и формата данных, которые поддерживают несколько технологий представления данных. Особенности для одного или нескольких вариантов осуществления изобретения, описываемые в данном раскрытии, могут реализовываться в аудиосистеме или аудиовизуальной системе, которая обрабатывает исходную звуковую информацию в системе микширования, представления данных и проигрывания, которая содержит один или несколько компьютеров или устройств обработки данных, исполняющих команды программного обеспечения. Любой из описываемых вариантов осуществления изобретения может использоваться сам по себе или совместно с какими-либо другими вариантами в любом сочетании. Несмотря на то, что различные варианты осуществления изобретения могли быть мотивированы различными недостатками на известном уровне техники, которые могут обсуждаться или упоминаться в одном или нескольких местах в данном описании, варианты осуществления изобретения необязательно обращаются к какому-либо из этих недостатков. Иными словами, различные варианты осуществления изобретения могут обращаться к различным недостаткам, которые могут обсуждаться в данном описании. Некоторые варианты осуществления изобретения могут лишь частично обращаться к некоторым недостаткам или только к одному недостатку, описываемому в данном описании, а некоторые варианты осуществления изобретения могут не обращаться ни к одному из этих недостатков.[0027] Systems and methods for an adaptive audio system and associated audio signal and data format that support multiple data presentation technologies are described. Features for one or more embodiments of the invention described in this disclosure may be implemented in an audio system or audiovisual system that processes source audio information in a mixing, presentation and playback system that includes one or more computers or data processing devices executing software commands. provision. Any of the described embodiments of the invention may be used alone or in conjunction with any other embodiments in any combination. Although various embodiments of the invention may be motivated by various disadvantages in the prior art, which may be discussed or mentioned in one or more places in this specification, embodiments of the invention do not necessarily address any of these disadvantages. In other words, various embodiments of the invention may address various disadvantages, which may be discussed herein. Some embodiments of the invention may only partially address some of the disadvantages or only one disadvantage described in this specification, and some embodiments of the invention may not address any of these disadvantages.

[0028] Для целей настоящего описания, нижеследующие термины имеют следующие связанные значения:[0028] For purposes of this description, the following terms have the following associated meanings:

[0029] Канал, или звуковой канал: монофонический звуковой сигнал, или аудиопоток, плюс метаданные, в которых положение закодировано как идентификатор канала, например «левый передний» или «правый верхний окружающий». Канальный объект может управлять несколькими громкоговорителями, например, левые окружающие каналы (Ls) будут подаваться на громкоговорители массива Ls.[0029] Channel, or audio channel: a monaural audio signal, or audio stream, plus metadata in which the position is encoded as a channel identifier, such as "left front" or "right high surround". A channel object can drive multiple loudspeakers, for example the left surround channels (Ls) will be fed to the Ls array loudspeakers.

[0030] Конфигурация каналов: предварительно определенный набор зон громкоговорителей со связанными номинальными местоположениями, например, 5.1, 7.1 и т.д.; 5.1 относится к шестиканальной аудиосистеме окружающего звука, содержащей передние левый и правый каналы, центральный канал, два окружающих канала и сверхнизкочастотный канал; 7.1 относится к восьмиканальной системе окружающего звука, в которой к системе 5.1 добавлено два дополнительных окружающих канала. Примеры конфигураций 5.1 и 7.1 включают системы Dolby® surround.[0030] Channel configuration: a predefined set of speaker zones with associated nominal locations, for example, 5.1, 7.1, etc.; 5.1 refers to a six-channel surround audio system containing front left and right channels, a center channel, two surround channels and a super low-frequency channel; 7.1 refers to an eight-channel surround sound system that adds two additional surround channels to the 5.1 system. Example 5.1 and 7.1 configurations include Dolby® surround systems.

[0031] Громкоговоритель: преобразователь звука или набор преобразователей, которые представляют данные звукового сигнала.[0031] Loudspeaker: An audio transducer or set of transducers that represents audio signal data.

[0032] Зона громкоговорителей: массив из одного или нескольких громкоговорителей, которые могут быть однозначно отнесены и которые принимают единственный, например, левый окружающий, звуковой сигнал, обычно находятся в кинотеатре и, в частности, предназначены для исключения или включения в представление данных объекта.[0032] Loudspeaker Zone: An array of one or more loudspeakers that can be uniquely assigned and that receive a single, for example left surround, audio signal, typically found in a movie theater and specifically intended to be excluded or included in the presentation of object data.

[0033] Канал громкоговорителя, или канал сигнала, подаваемого на громкоговоритель: звуковой канал, который связан с названным громкоговорителем, или зоной громкоговорителей, в пределах определенной конфигурации громкоговорителей. Канал громкоговорителя обычно представляется с использованием связанной зоны громкоговорителей.[0033] Speaker channel, or speaker feed channel: an audio channel that is associated with a named speaker, or speaker zone, within a specific speaker configuration. A loudspeaker channel is typically represented using an associated loudspeaker zone.

[0034] Группа каналов громкоговорителей: набор из одного или нескольких каналов громкоговорителей, соответствующих конфигурации каналов (например, со стерео дорожками, моно дорожками и т.д.)[0034] Speaker Channel Group: A collection of one or more speaker channels corresponding to the channel configuration (e.g., stereo tracks, mono tracks, etc.)

[0035] Объект, или канал объекта: один или несколько звуковых каналов с таким параметрическим описанием источника, как положение кажущегося источника (например, трехмерные координаты), ширина кажущегося источника и т.д. Аудиопоток плюс метаданные, в которых положение закодировано как трехмерное положение в пространстве.[0035] Object, or object channel: one or more audio channels with a parametric description of the source, such as the position of the apparent source (eg, 3D coordinates), the width of the apparent source, etc. An audio stream plus metadata in which the position is encoded as a three-dimensional position in space.

[0036] Звуковая программа: полный набор каналов громкоговорителей и/или объектных каналов и связанных метаданных, которые описывают требуемое представление звука в пространстве.[0036] Audio program: a complete set of speaker channels and/or object channels and associated metadata that describe the desired representation of sound in space.

[0037] Аллоцентрическая система отсчета: пространственная система отсчета, в которой звуковые объекты определяются в пределах среды представления данных относительно таких признаков, как стены и углы помещения, стандартные местоположения громкоговорителей и местоположение экрана (например, передний левый угол помещения).[0037] Allocentric reference frame: A spatial reference frame in which audio objects are defined within the presentation environment with respect to features such as room walls and corners, standard speaker locations, and screen location (eg, the front left corner of the room).

[0038] Эгоцентрическая система отсчета: пространственная система отсчета, в которой объекты определяются относительно перспективы (зрителей) слушателя, и которая часто определяется относительно углов по отношению к слушателю (например, 30 градусов справа от слушателя).[0038] Egocentric frame of reference: a spatial frame of reference in which objects are defined relative to the viewer's perspective of the listener, and which is often defined relative to angles relative to the listener (eg, 30 degrees to the listener's right).

[0039] Кадр: кадры представляют собой короткие, независимо декодируемые сегменты, на которые разделяется полная звуковая программа. Размер и границы аудиокадров обычно выровнены с видеокадрами.[0039] Frame: Frames are short, independently decoded segments into which a complete audio program is divided. The size and boundaries of audio frames are usually aligned with video frames.

[0040] Адаптивный звук: звуковые сигналы на основе каналов и/или на основе объектов плюс метаданные, которые представляют данные звуковых сигналов на основе среды проигрывания.[0040] Adaptive audio: channel-based and/or object-based audio plus metadata that represents audio data based on the playing environment.

[0041] Описываемый в данном раскрытии формат звука для кинематографии и система обработки данных, также именуемая «системой адаптивного звука», используют новую технологию описания и представления пространственных данных звука, позволяющую усиливать эффект присутствия у зрителей, повышать художественный контроль, гибкость и масштабируемость системы и простоту установки и обслуживания. Варианты осуществления звуковой платформы для кинематографии включают несколько дискретных компонентов, в том числе инструментальные средства микширования, устройство упаковки/кодер, устройство распаковки/декодер, компоненты окончательного микширования и представления данных в кинотеатре, новые схемы громкоговорителей и объединенные в сеть усилители. Система включает рекомендации для новой конфигурации каналов, подлежащей использованию создателями и кинопрокатчиками. Система использует описание на основе моделей, которое поддерживает несколько таких характерных признаков, как: единый инвентарь с нисходящей и восходящей адаптацией к конфигурации представления данных, т.е. отсроченное представление данных и обеспечение возможности оптимального использования доступных громкоговорителей; улучшенный охват звука, включение оптимизированного понижающего микширования во избежание корреляции между каналами; повышенное пространственное разрешение через сквозное управление массивами (например, звуковой объект динамически приписывается к одному или нескольким громкоговорителям в пределах массива окружающего звука); и поддержка альтернативных способов представления данных.[0041] The cinematic audio format and processing system described in this disclosure, also referred to as an "adaptive audio system", uses a new technology for describing and representing spatial audio data to enhance audience immersion, artistic control, system flexibility and scalability, and ease of installation and maintenance. Embodiments of the cinematic audio platform include several discrete components, including mixing tools, packaging/encoder, decompressing/decoder, final mixing and theater presentation components, new speaker circuits, and networked amplifiers. The system includes recommendations for new channel configurations to be used by creators and film distributors. The system uses a model-based description that supports several characteristic features such as: a single inventory with top-down and bottom-up adaptation to the data presentation configuration, i.e. delayed presentation of data and enabling optimal use of available loudspeakers; improved audio coverage, enabling optimized downmixing to avoid correlation between channels; increased spatial resolution through end-to-end array management (e.g., an audio object is dynamically assigned to one or more speakers within a surround array); and support for alternative ways of presenting data.

[0042] ФИГ. 1 представляет собой общий вид сверху среды создания и проигрывания звука, использующей систему адаптивного звука, согласно одному из вариантов осуществления изобретения. Как показано на ФИГ. 1, полная, непрерывная среда 100 содержит компоненты создания содержимого, упаковки, распространения и/или проигрывания/представления данных в большое количество конечных устройств и вариантов использования. Система 100 в целом ведет свое начало от содержимого, захваченного из и для некоторого количества разных вариантов использования, которые включают восприятие 112 зрителями. Элемент 102 захвата данных содержимого включает, например, кинематографию, телевидение, прямую трансляцию, содержимое, генерируемое пользователем, записанное содержимое, игры, музыку и т.п., и может включать звуковое/визуальное или чисто звуковое содержимое. Содержимое по мере продвижения через систему 100 от этапа 102 захвата данных к восприятию 112 конечными пользователями проходит несколько ключевых этапов обработки через дискретные компоненты системы. Указанные этапы процесса включают предварительную обработку звука 104, инструментальные средства и процессы 106 авторской разработки, кодирование аудиокодеком 108, который ведет сбор, например, аудиоданных, дополнительных метаданных и информации воспроизведения, и объектные каналы. Для успешного и защищенного распространения посредством различных носителей, к объектным каналам могут применяться такие разнообразные воздействия обработки, как сжатие (с потерями или без потерь), шифрование и т.п. Для воспроизведения и передачи определенного восприятия 112 пользователем адаптивного звука, затем применяются соответствующие специфичные для конечных точек процессы 110 декодирования и представления данных. Восприятие 112 звука представляет проигрывание звукового или аудиовизуального содержимого через соответствующие громкоговорители и проигрывающие устройства, и может представлять любую среду, в которой слушатель испытывает воспроизведение захваченного содержимого, такую как кинотеатр, концертный зал, открытый кинотеатр, дом или помещение, кабинка для прослушивания, автомобиль, игровая приставка, наушники или гарнитура, система оповещения или другая проигрывающая среда.[0042] FIG. 1 is a top view of an audio production and playback environment using an adaptive audio system, according to one embodiment of the invention. As shown in FIG. 1, a complete, end-to-end environment 100 contains components for creating content, packaging, distributing and/or playing/presenting data to a large number of end devices and use cases. The system 100 as a whole originates from content captured from and for a number of different use cases that involve the perception of 112 viewers. The content data capture element 102 includes, for example, cinematography, television, live television, user-generated content, recorded content, games, music, and the like, and may include audio/visual or pure audio content. As content moves through the system 100 from the data capture stage 102 to the end-user experience 112, it passes through several key processing steps through discrete system components. These process steps include audio pre-processing 104, proprietary tools and processes 106, encoding by audio codec 108 that collects, for example, audio data, additional metadata and rendering information, and object channels. For successful and secure distribution across a variety of media, a variety of processing effects such as compression (lossy or lossless), encryption, etc. can be applied to the object channels. To reproduce and convey the user's specific perception 112 of adaptive audio, appropriate endpoint-specific decoding and data presentation processes 110 are then applied. Audio experience 112 represents the playback of audio or audiovisual content through appropriate speakers and playback devices, and may represent any environment in which the listener experiences playback of the captured content, such as a movie theater, concert hall, outdoor movie theater, home or premises, listening booth, automobile, game console, headphones or headset, public address system or other playing media.

[0043] Данный вариант осуществления системы 100 включает аудиокодек 108, который способен эффективно распространять и хранить в памяти многоканальные звуковые программы, и поэтому может именоваться как «гибридный» кодек. Кодек 108 сочетает традиционные аудиоданные на основе каналов со связанными метаданными, образуя звуковые объекты, которые облегчают создание и доставку звука, который является адаптированным и оптимизированным для представления данных и проигрывания в средах, которые, возможно, отличаются от среды микширования. Это позволяет звукоинженеру кодировать его или ее замысел в том, как конечный звук должен слышаться слушателем, на основе фактической среды прослушивания слушателем.[0043] This embodiment of system 100 includes an audio codec 108 that is capable of efficiently distributing and storing multi-channel audio programs and may therefore be referred to as a “hybrid” codec. Codec 108 combines traditional channel-based audio data with associated metadata to form audio objects that facilitate the creation and delivery of audio that is tailored and optimized for presentation and playback in environments that may differ from the mixing environment. This allows the audio engineer to encode his or her intent into how the final sound should be heard by the listener, based on the listener's actual listening environment.

[0044] Традиционные аудиокодеки на основе каналов действуют в предположении, что звуковая программа будет воспроизводиться массивом громкоговорителей, находящихся в предварительно определенных положениях относительно слушателя. Для создания полной многоканальной звуковой программы, звукоинженеры обычно микшируют большое количество отдельных аудиопотоков (например, диалог, музыку, эффекты) с целью создания требуемого общего восприятия. При микшировании звука решения обычно принимаются путем прослушивания звуковой программы, воспроизводимой массивом громкоговорителей, находящихся в предварительно определенных положениях, например, в частности, в системе 5.1 или 7.1 в определенном кинотеатре. Конечный, микшированный сигнал служит вводом в аудиокодек. Пространственно точные звуковые поля достигаются при воспроизведении только тогда, когда громкоговорители размещаются в предварительно определенных положениях.[0044] Traditional channel-based audio codecs operate under the assumption that the audio program will be reproduced by an array of loudspeakers located at predetermined positions relative to the listener. To create a complete multi-channel audio program, audio engineers typically mix a large number of individual audio streams (eg dialogue, music, effects) to create the desired overall experience. In audio mixing, decisions are typically made by listening to the sound program being played by an array of speakers placed in predetermined positions, such as specifically a 5.1 or 7.1 system in a particular theater. The final, mixed signal serves as input to the audio codec. Spatially accurate sound fields are only achieved during playback when the speakers are placed in predetermined positions.

[0045] Одна из новых форм кодирования звука, называемая кодированием звуковых объектов, предусматривает в качестве ввода в кодер отдельные источники звука (звуковые объекты) в форме отдельных аудиопотоков. Примеры звуковых объектов включают диалоговые дорожки, отдельные инструменты, отдельные звуковые эффекты и другие точечные источники. Каждый звуковой объект связан с пространственными параметрами, которые могут включать в качестве неограничивающих примеров положение звука, ширину звука и информацию скорости. Для распространения и хранения, звуковые объекты и связанные параметры затем кодируются. Окончательное микширование и представление данных звукового объекта выполняется на стороне приема в цепи распространения звука как часть проигрывания звуковой программы. Этот этап может основываться на сведениях о фактических положениях громкоговорителей, поэтому результатом является система распространения звука, которая является настраиваемой в соответствии с условиями прослушивания конкретным пользователем. Две указанные формы кодирования, на основе каналов и на основе объектов, оптимально действуют для разных условий входного сигнала. Аудиокодеры на основе каналов обычно более эффективны для кодирования входных сигналов, содержащих плотные смеси разных источников звука, а также для рассеянных звуков. Кодеры звуковых объектов, наоборот, более эффективны для кодирования небольшого количества высоконаправленных источников звука.[0045] One new form of audio coding, called audio object coding, provides individual audio sources (audio objects) in the form of separate audio streams as input to the encoder. Examples of audio objects include dialogue tracks, individual instruments, individual sound effects, and other point sources. Each sound object is associated with spatial parameters, which may include, but are not limited to, sound position, sound width, and velocity information. For distribution and storage, audio objects and associated parameters are then encoded. The final mixing and presentation of the audio object data is performed on the receiving side of the audio distribution chain as part of the playback of the audio program. This step can be based on knowledge of actual speaker positions, so the result is a sound distribution system that is customizable to suit the individual user's listening environment. These two forms of encoding, channel-based and object-based, work optimally for different input signal conditions. Channel-based audio encoders are generally more effective at encoding input signals containing dense mixtures of different audio sources, as well as for diffuse sounds. In contrast, audio object coders are more efficient at encoding small numbers of highly directional audio sources.

[0046] В одном из вариантов осуществления изобретения, способы и компоненты системы 100 включают систему кодирования, распространения и декодирования звука, сконфигурированную для генерирования одного или нескольких битовых потоков, содержащих как традиционные звуковые элементы на основе каналов, так и элементы кодирования звуковых объектов. Такой комбинированный подход обеспечивает бóльшую эффективность кодирования и гибкость представления данных по сравнению с взятыми по отдельности подходами на основе каналов и на основе объектов.[0046] In one embodiment, the methods and components of the system 100 include an audio encoding, distribution and decoding system configured to generate one or more bitstreams containing both traditional channel-based audio elements and audio object encoding elements. This combined approach provides greater encoding efficiency and data representation flexibility than either channel-based or object-based approaches alone.

[0047] Другие особенности описываемых вариантов осуществления изобретения включают расширение обратно совместимым образом предварительно определенного аудиокодека на основе каналов для включения элементов кодирования звуковых объектов. Новый «слой расширения», содержащий элементы кодирования звуковых объектов, определяется и добавляется к «основному», или «обратно совместимому», слою битового потока аудиокодека на основе каналов. Такой подход позволяет унаследованным декодерам обрабатывать один или несколько битовых потоков, которые содержат слой расширения, и, в то же время, обеспечивает улучшенное впечатление от прослушивания для пользователей с новыми декодерами. Один из примеров усиления пользовательского восприятия включает управление представлением данных звукового объекта. Дополнительным преимуществом этого подхода является то, что звуковые объекты могут добавляться или модифицироваться повсюду на протяжении цепочки распространения без декодирования/микширования/повторного кодирования многоканального звука, кодированного аудиокодеком на основе каналов.[0047] Other features of the described embodiments include extending a predefined channel-based audio codec in a backwards-compatible manner to include audio object coding elements. A new "extension layer" containing audio object coding elements is defined and added to the "main" or "backwards compatible" bitstream layer of the channel-based audio codec. This approach allows legacy decoders to process one or more bitstreams that contain the enhancement layer, while at the same time providing an improved listening experience for users with newer decoders. One example of enhancing user experience involves controlling the presentation of audio object data. An additional benefit of this approach is that audio objects can be added or modified throughout the distribution chain without decoding/mixing/re-encoding the multi-channel audio encoded by the channel-based audio codec.

[0048] В отношении системы координат, пространственные эффекты звуковых сигналов являются решающими при обеспечении для слушателя впечатления эффекта присутствия. Звуки, которые подразумеваются как исходящие из определенной области зрительного экрана или помещения должны воспроизводиться через громкоговоритель (громкоговорители), расположенный в том же самом относительном местоположении. Поэтому первичным элементом метаданных звука для звукового события в описании на основе моделей является положение, хотя могут также описываться и такие другие параметры, как размер, ориентация, скорость и дисперсия звука. Для передачи положения трехмерное пространственное описание звука на основе моделей требует трехмерной системы координат. Система координат, используемая для передачи (эвклидова, сферическая и т.д.), обычно выбирается для удобства или компактности, однако для обработки представления данных могут использоваться и другие системы координат. В дополнение к системе координат, для представления местоположений объектов в пространстве, требуется система отсчета. Выбор надлежащей системы отсчета может быть решающим фактором точного воспроизведения звука системами на основе положения во множестве различных сред. В аллоцентрической системе отсчета положение источника звука определяется относительно таких признаков в пределах среды представления данных, как стены и углы помещения, стандартные местоположения громкоговорителей и местоположение экрана. В эгоцентрической системе отсчета местоположения представляются относительно перспективы слушателя, как, например, «передо мной, немного влево», и т.д. Научные исследования пространственного восприятия (звука и др.) показали, что наиболее универсальным является использование эгоцентрической перспективы. Однако для кинематографа по ряду причин более подходящей является аллоцентрическая система. Например, точное местоположение звукового объекта является более важным, когда связанный объект находится на экране. При использовании аллоцентрической системы отсчета для каждого положения прослушивания и для экрана любого размера, звук будет локализоваться в одном и том же положении на экране, например, на треть левее середины экрана. Другой причиной является то, что операторы микширования склонны рассуждать и микшировать в аллоцентрическом исчислении, и средства панорамирования компонуются в аллоцентрической системе отсчета (стены помещения), и операторы микширования ожидают, что представляться эти средства будут именно таким образом, например, «этот звук должен находиться на экране», «этот звук должен находиться за экраном» или «от левой стены», и т.д.[0048] With respect to the coordinate system, the spatial effects of audio signals are critical in providing the listener with an immersive experience. Sounds that are intended to originate from a specific area of the visual screen or room must be played through the loudspeaker(s) located at the same relative location. Therefore, the primary element of audio metadata for a sound event in a model-based description is position, although other parameters such as size, orientation, speed, and sound dispersion may also be described. To convey position, model-based 3D spatial description of sound requires a 3D coordinate system. The coordinate system used for the transfer (Euclidean, spherical, etc.) is usually chosen for convenience or compactness, but other coordinate systems may be used to handle the data representation. In addition to a coordinate system, a reference system is required to represent the locations of objects in space. Selecting an appropriate reference frame can be a critical factor in the accurate sound reproduction of position-based systems in many different environments. In an allocentric reference frame, the position of a sound source is determined relative to features within the presentation environment such as room walls and corners, standard speaker locations, and screen location. In an egocentric frame of reference, locations are presented relative to the listener's perspective, such as “in front of me, slightly to the left,” etc. Scientific studies of spatial perception (sound, etc.) have shown that the most universal is the use of an egocentric perspective. However, for cinema, for a number of reasons, the allocentric system is more suitable. For example, the exact location of an audio object is more important when the associated object is on screen. When using an allocentric reference frame for each listening position and for any screen size, the sound will be localized to the same position on the screen, for example, one third to the left of the middle of the screen. Another reason is that mixing operators tend to reason and mix in allocentric terms, and panning aids are arranged in an allocentric reference frame (the walls of the room), and mixing operators expect these aids to be represented that way, e.g. “this sound should be on the screen”, “this sound should be behind the screen” or “from the left wall”, etc.

[0049] Несмотря на использование аллоцентрической системы отсчета в среде для кинематографии, существуют некоторые случаи, для которых может быть полезна эгоцентрическая система отсчета. Эти случаи включают закадровые звуки, т.е. звуки, которые не присутствуют в «пространстве фильма», например, музыкальное сопровождение, для которого может требоваться однородное эгоцентрическое представление. Другой случай - эффекты в ближней зоне (например, жужжание комара в левом ухе слушателя), которые требуют эгоцентрического представления. В настоящее время не существует средств для представления данных такого ближнего звукового поля с использованием наушников или громкоговорителей ближней зоны. Кроме того, бесконечно удаленные источники звука (и результирующие плоские волны) кажутся приходящими из постоянного эгоцентрического положения (например, 30 градусов слева), и такие звуки легче описать в эгоцентрическом исчислении, а не в аллоцентрическом.[0049] Despite the use of an allocentric frame of reference in a cinematic environment, there are some cases for which an egocentric frame of reference may be useful. These cases include voiceovers, e.g. sounds that are not present in the "film space", such as musical accompaniment, which may require a homogeneous egocentric representation. Another case is near-field effects (such as the buzzing of a mosquito in the listener's left ear), which require an egocentric representation. There is currently no means to present such near-field sound data using headphones or near-field loudspeakers. Additionally, sound sources at infinity (and the resulting plane waves) appear to come from a constant egocentric position (e.g., 30 degrees to the left), and such sounds are easier to describe in egocentric terms rather than allocentric ones.

[0050] В некоторых случаях, можно использовать аллоцентрическую систему отсчета до тех пор, пока определено номинальное положение прослушивания, несмотря на то, что некоторые примеры требуют эгоцентрического представления, данные которого до сих пор невозможно представить. И хотя аллоцентрическая система отсчета может являться более полезной и подходящей, представление звука должно быть расширяемым, поскольку многие новые особенности, в том числе и эгоцентрическое представление, могут оказаться более желательными в некоторых приложениях и средах прослушивания. Варианты осуществления системы адаптированного звука включают гибридный подход к пространственному описанию, который включает рекомендуемую конфигурацию каналов для оптимальной точности воспроизведения и для представления данных рассеянных или сложных, многоточечных источников (например, толпа на стадионе, окружающая среда) с использованием эгоцентрической системы отсчета плюс аллоцентрическое описание звука на основе моделей - для того, чтобы допускалось высокое пространственное разрешение и масштабируемость. [0050] In some cases, it is possible to use an allocentric reference frame as long as the nominal listening position is determined, although some examples require an egocentric representation, the data of which is still impossible to represent. Although an allocentric frame of reference may be more useful and appropriate, the representation of sound must be extensible, since many new features, including an egocentric representation, may be more desirable in some applications and listening environments. Embodiments of an adaptive audio system include a hybrid approach to spatial description that includes a recommended channel configuration for optimal fidelity and for representing data from diffuse or complex, multi-point sources (e.g., stadium crowd, environment) using an egocentric reference frame plus allocentric audio description model-based - to allow high spatial resolution and scalability.

Компоненты системыSystem components

[0051] Со ссылкой на ФИГ. 1, оригинальные данные 102 звукового содержимого, в первую очередь, обрабатываются в блоке 104 предварительной обработки. Блок 104 предварительной обработки системы 100 содержит компонент фильтрации объектных каналов. Во многих случаях, звуковые объекты содержат отдельные источники звука, что позволяет панорамировать звуки независимо. В некоторых случаях, как, например, при создании звуковых программ с использованием природного или «производственного» звука, может оказаться необходимым извлечение отдельных звуковых объектов из записи, которая содержит несколько источников звука. Варианты осуществления изобретения включают способ выделения независимых звуковых сигналов из более сложного сигнала. Нежелательные элементы, подлежащие отделению от независимых сигналов источников, могут включать в качестве неограничивающих примеров другие независимые источники звука и фоновый шум. Кроме того, для воссоздания «сухих» источников звука может устраняться реверберация.[0051] With reference to FIG. 1, the original audio content data 102 is first processed in the preprocessing unit 104. The pre-processing unit 104 of the system 100 contains an object channel filtering component. In many cases, sound objects contain separate sound sources, allowing sounds to be panned independently. In some cases, such as when creating audio programs using natural or "production" audio, it may be necessary to extract individual audio objects from a recording that contains multiple audio sources. Embodiments of the invention include a method for extracting independent audio signals from a more complex signal. Undesirable elements to be separated from independent source signals may include, but are not limited to, other independent audio sources and background noise. Additionally, reverberation can be removed to recreate dry sound sources.

[0052] Устройство 104 предварительной обработки данных также включает функциональную возможность разделения источников и обнаружения типа содержимого. Система предусматривает автоматическое генерирование метаданных путем анализа входного звука. Позиционные метаданные получаются из многоканальной записи путем анализа относительных уровней коррелированного входного сигнала между парами каналов. Обнаружение типа содержимого, такого как «речь» или «музыка», может выполняться, например, путем извлечения и классификации характерных признаков.[0052] The data front end 104 also includes functionality for source separation and content type detection. The system provides automatic generation of metadata by analyzing the input audio. Positional metadata is obtained from a multichannel recording by analyzing the relative levels of the correlated input signal between pairs of channels. Detection of a content type such as “speech” or “music” can be performed, for example, by extracting and classifying characteristic features.

Инструментальные средства авторской разработкиAuthoring tools

[0053] Блок 106 инструментальных средств авторской разработки включает характерные признаки, предназначенные для усовершенствования авторской разработки звуковых программ путем оптимизации ввода и кодификации творческого замысла звукоинженера, позволяя ему создавать конечный звуковой микс, как только она будет оптимизирована для проигрывания практически в любой среде проигрывания. Это выполняется путем использования звуковых объектов и позиционных данных, которые связываются и кодируются вместе с оригинальным звуковым содержимым. Для того, чтобы точно разместить звуки по периметру зрительного зала, звукоинженеру необходимо иметь контроль над тем, как звук будет в конечном счете представляться на основе фактических ограничений и характерных признаков среды проигрывания. Система адаптивного звука предусматривает такой контроль, позволяя звукоинженеру изменять то, каким образом звуковое содержимое разрабатывается и микшируется путем использования звуковых объектов и позиционных данных.[0053] The authoring tool block 106 includes features designed to enhance the authoring of audio programs by optimizing the input and codifying the audio engineer's creative intent, allowing him to create the final audio mix once it is optimized for playback in virtually any playback environment. This is accomplished by using audio objects and positional data that are associated and encoded along with the original audio content. In order to accurately place sounds around the perimeter of the auditorium, the audio engineer must have control over how the sound will ultimately be presented based on the actual constraints and characteristics of the playback environment. An adaptive audio system provides this control by allowing the audio engineer to change the way audio content is developed and mixed through the use of audio objects and positional data.

[0054] Звуковые объекты можно считать группами звуковых элементов, которые могут восприниматься как исходящие из определенного физического местоположения, или местоположений, в зрительном зале. Такие объекты могут быть неподвижными, или они могут перемещаться. В системе 100 адаптивного звука звуковые объекты управляются метаданными, которые, среди прочего, подробно описывают местоположение звука в данный момент времени. Когда объекты подвергаются текущему контролю, или проигрываются в кинотеатре, их данные представляются согласно позиционным метаданным с использованием громкоговорителей, которые имеются в наличии, вместо обязательного вывода в физический канал. Дорожка в сессии может представлять собой звуковой объект, а стандартные данные панорамирования могут быть аналогичны позиционным метаданным. Таким образом, содержимое, размещаемое на экране, может эффективно панорамироваться точно так же, как в случае содержимого на основе каналов, однако данные содержимого, размещаемого в окружающих каналах, могут при желании представляться в отдельный канал. Несмотря на то, что использование звуковых объектов обеспечивает необходимый контроль над дискретными эффектами, другие особенности звуковой дорожки кинофильма эффективнее работают в среде на основе каналов. Например, многие эффекты окружающей среды или реверберация фактически выигрывают от подачи в массивы громкоговорителей. И хотя они могут обрабатываться как объекты с шириной, достаточной для заполнения массива, более полезным является сохранение некоторых функциональных возможностей на основе каналов.[0054] Sound objects can be considered groups of sound elements that can be perceived as emanating from a specific physical location, or locations, in the auditorium. Such objects may be stationary, or they may be moving. In adaptive audio system 100, audio objects are driven by metadata that, among other things, detail the location of the audio at a given point in time. When objects are monitored or played in a theater, their data is presented according to positional metadata using the speakers that are available, instead of necessarily being output to a physical channel. A track in a session can be an audio object, and standard panning data can be similar to positional metadata. In this way, content placed on the screen can be effectively panned in the same way as with channel-based content, however, content data placed in surrounding channels can optionally be presented in a separate channel. Although the use of audio objects provides the necessary control over discrete effects, other features of the film soundtrack work more effectively in a channel-based environment. For example, many ambient effects or reverberation actually benefit from being fed into loudspeaker arrays. While they can be treated as objects with a width sufficient to fill an array, it is more useful to retain some channel-based functionality.

[0055] В одном из вариантов осуществления изобретения, система адаптивного звука в дополнение к звуковым объектам поддерживает «тракты», где тракты представляют собой эффективно субмикшированные сигналы на основе каналов, или стэмы. В зависимости от замысла создателя содержимого, они могут получаться для конечного проигрывания (представления данных) либо по отдельности, либо объединенные в единый тракт. Указанные тракты могут создаваться в таких различных конфигурациях на основе каналов, как 5.1, 7.1, и являются распространяемыми на такие более обширные форматы, как 9.1 и массивы, включающие верхние громкоговорители.[0055] In one embodiment of the invention, the adaptive audio system supports "paths" in addition to audio objects, where paths are effectively submixed channel-based signals, or stems. Depending on the intent of the content creator, they can be obtained for final playback (data presentation) either separately or combined into a single path. These paths can be created in channel-based configurations as varied as 5.1, 7.1, and extend to larger formats such as 9.1 and overhead speaker arrays.

[0056] ФИГ. 2 иллюстрирует сочетание данных на основе каналов и объектов при генерировании адаптивного звукового микса согласно одному из вариантов осуществления изобретения. Как показано в процессе 200, данные 202 на основе каналов, которые, например, могут представлять собой данные окружающего звука 5.1 или 7.1, представленные в форме данных с импульсно-кодовой модуляцией (PCM), объединяются с данными 204 звуковых объектов, образуя адаптивный звуковой микс 208. Данные 204 звуковых объектов генерируются путем объединения элементов оригинальных данных на основе каналов со связанными метаданными, которые указывают некоторые параметры, имеющие отношение к местоположению звуковых объектов.[0056] FIG. 2 illustrates the combination of channel-based and object-based data when generating an adaptive audio mix according to one embodiment of the invention. As shown in process 200, channel-based data 202, which for example may be 5.1 or 7.1 surround data presented in the form of pulse code modulation (PCM) data, is combined with audio object data 204 to form an adaptive audio mix. 208. Sound object data 204 is generated by combining original channel-based data elements with associated metadata that indicate certain parameters related to the location of the sound objects.

[0057] Как концептуально показано на ФИГ. 2, инструментальные средства авторской разработки обеспечивают возможность создания звуковых программ, которые одновременно содержат комбинацию групп каналов громкоговорителей и объектных каналов. Например, звуковая программа может содержать один или несколько каналов громкоговорителей, необязательно, организованных в группы (или дорожки, например, стереофоническую дорожку или дорожку 5.1), и описательные метаданные для одного или нескольких каналов громкоговорителей, один или несколько объектных каналов, и описательные метаданные для одного или нескольких объектных каналов. В пределах звуковой программы, каждая группа каналов громкоговорителей и каждый объектный канал могут быть представлены с использованием одной или нескольких частот дискретизации. Например, приложения Digital Cinema (D-Cinema) поддерживают частоты дискретизации 48 кГц и 96 кГц, однако также могут поддерживаться и другие частоты дискретизации. Кроме того, также может поддерживаться принятие, сохранение в памяти и редактирование каналов с различными частотами дискретизации.[0057] As conceptually shown in FIG. 2, proprietary tools provide the ability to create audio programs that simultaneously contain a combination of speaker channel groups and object channels. For example, an audio program may contain one or more speaker channels, optionally organized into groups (or tracks, such as a stereo or 5.1 track), and descriptive metadata for one or more speaker channels, one or more object channels, and descriptive metadata for one or more object channels. Within an audio program, each group of speaker channels and each object channel may be represented using one or more sample rates. For example, Digital Cinema (D-Cinema) applications support 48 kHz and 96 kHz sample rates, but other sample rates may also be supported. In addition, receiving, storing and editing channels with different sampling rates can also be supported.

[0058] Создание звуковой программы требует этапа звуковой сценографии, который включает объединение звуковых элементов как суммы составных звуковых элементов с отрегулированными уровнями для создания требуемого нового звукового эффекта. Инструментальные средства авторской разработки системы адаптивного звука позволяют создавать звуковые эффекты как совокупность звуковых объектов с относительными положениями, используя пространственно-визуальный графический пользовательский интерфейс звуковой сценографии. Например, визуальное отображение объекта, генерирующего звук (например, автомобиля), может использоваться в качестве шаблона для сборки звуковых элементов (шум выхлопа, шуршание шин, шум двигателя) в качестве объектных каналов, содержащих звук и соответствующее положение в пространстве (возле выхлопной трубы, шин и капота). Каналы отдельных объектов могут затем связываться и обрабатываться как группа. Инструментальное средство 106 авторской разработки включает несколько элементов пользовательского интерфейса, позволяющих звукоинженеру вводить управляющую информацию и просматривать параметры микширования, а также совершенствовать функциональные возможности системы. Процесс звуковой сценографии и авторской разработки также совершенствуется путем допуска связывания и обработки объектных каналов и каналов громкоговорителей как группы. Одним из примеров является объединение объектного канала с дискретным, сухим источником звука с набором каналов громкоговорителей, которые содержат связанный реверберированный сигнал.[0058] Creating a sound program requires a stage of sound design, which involves combining sound elements as the sum of component sound elements with adjusted levels to create the desired new sound effect. The tools of the author's development of the adaptive sound system allow you to create sound effects as a set of sound objects with relative positions, using the spatial-visual graphical user interface of sound scenography. For example, a visual representation of a sound-generating object (e.g., a car) can be used as a template for assembling sound elements (exhaust noise, tire screeching, engine noise) as object channels containing the sound and the corresponding position in space (near the exhaust pipe, tires and hood). Channels of individual objects can then be linked and processed as a group. The proprietary tool 106 includes several user interface elements that allow the audio engineer to enter control information and view mixing parameters, as well as improve the functionality of the system. The sound design and authoring process is also enhanced by allowing object and speaker channels to be linked and processed as a group. One example is combining an object channel with a discrete, dry audio source with a set of speaker channels that contain an associated reverberated signal.

[0059] Инструментальное средство 106 авторской разработки поддерживает возможность объединения нескольких звуковых каналов, общеизвестную под наименованием «микширование». Поддерживается множество способов микширования, которые могут включать традиционное микширование на основе уровней и микширование на основе громкости. При микшировании на основе уровней к звуковым каналам применяется широкополосное масштабирование, и масштабированные звуковые каналы затем суммируются. Коэффициенты широкополосного масштабирования для каждого канала выбираются так, чтобы они управляли абсолютным уровнем результирующего микшированного сигнала, а также относительными уровнями микшированных каналов в микшированном сигнале. При микшировании на основе громкости, один или несколько входных сигналов модифицируются с использованием масштабирования зависящих от частоты амплитуд, где зависящая от частоты амплитуда выбирается так, чтобы она обеспечивала требуемую воспринимаемую абсолютную и относительную громкость и, в то же время, сохраняла воспринимаемый тембр входного звука.[0059] The proprietary tool 106 supports the ability to combine multiple audio channels, commonly known as “mixing.” A variety of mixing methods are supported, which may include traditional level-based mixing and volume-based mixing. In level-based mixing, wideband scaling is applied to the audio channels, and the scaled audio channels are then summed. The wideband scaling factors for each channel are chosen so that they control the absolute level of the resulting mixed signal, as well as the relative levels of the mixed channels within the mixed signal. In loudness-based mixing, one or more input signals are modified using frequency-dependent amplitude scaling, where the frequency-dependent amplitude is selected so that it provides the desired perceived absolute and relative loudness while maintaining the perceived timbre of the input sound.

[0060] Инструментальные средства авторской разработки допускают возможность создания каналов громкоговорителей и групп каналов громкоговорителей. Это позволяет связывать метаданные с каждой из групп каналов громкоговорителей. Каждая из групп каналов громкоговорителей может помечаться в соответствии с типом содержимого. Тип содержимого распространяется посредством текстового описания. Типы содержимого могут включать в качестве неограничивающих примеров диалог, музыку и эффекты. Каждой из групп каналов громкоговорителей могут присваиваться уникальные команды о том, как следует выполнять повышающее микширование из одной конфигурации каналов в другую, где повышающее микширование определяется как создание М звуковых каналов из N звуковых каналов, где M>N. Команды повышающего микширования могут включать в качестве неограничивающих примеров следующие команды: флаг разблокирования/блокирования, указывающий допустимость повышающего микширования; матрицу повышающего микширования, предназначенную для управления присваиванием между каждым входным и выходным каналами; а разблокирование по умолчанию и установки матрицы могут присваиваться на основе типа содержимого, например, разблокировать повышающее микширование только для музыки. Каждой из групп каналов громкоговорителей также могут присваиваться уникальные команды о том, каким образом выполнять понижающее микширование от одной конфигурации каналов к другой, где понижающее микширование определяется как создание Y звуковых каналов из X звуковых каналов, где Y>X. Команды понижающего микширования могут включать в качестве неограничивающих примеров следующие команды: матрицу, предназначенную для управления присваиванием между каждым входным и выходным каналами; и настройки матрицы по умолчанию, которые могут присваиваться на основе типа содержимого, например, диалог должен подвергаться понижающему микшированию на экран; эффекты должны подвергаться понижающему микшированию за пределы экрана. Каждый канал громкоговорителей также может быть связан с флагом метаданных, блокирующим управление басами в ходе представления данных.[0060] Proprietary tools allow the creation of speaker channels and speaker channel groups. This allows metadata to be associated with each of the speaker channel groups. Each of the speaker channel groups can be labeled according to the content type. The content type is distributed through a text description. Content types may include, but are not limited to, dialogue, music, and effects. Each of the speaker channel groups may be assigned unique instructions on how to upmix from one channel configuration to another, where upmixing is defined as creating M audio channels from N audio channels, where M>N. The upmix instructions may include, but are not limited to, the following commands: an enable/disable flag indicating whether upmixing is permissible; an upmix matrix for controlling the assignment between each input and output channels; and default unlocks and matrix settings can be assigned based on content type, such as unlocking upmixing for music only. Each of the speaker channel groups may also be assigned unique instructions on how to downmix from one channel configuration to another, where downmixing is defined as creating Y audio channels from X audio channels, where Y>X. The downmix instructions may include, but are not limited to, the following instructions: a matrix for controlling the assignment between each input and output channels; and default matrix settings, which can be assigned based on the type of content, for example, dialogue should be downmixed to the screen; effects must be downmixed off screen. Each speaker channel can also be associated with a metadata flag that disables bass management during data presentation.

[0061] Варианты осуществления изобретения включают характерный признак, который допускает создание объектных каналов и групп объектных каналов. Изобретение позволяет связывать метаданные с каждой из групп объектных каналов. Каждая из групп объектных каналов может помечаться в соответствии с типом содержимого. Тип содержимого распространяется посредством текстового описания, где типы содержимого могут включать в качестве неограничивающих примеров диалог, музыку и эффекты. Каждой из групп объектных каналов могут присваиваться метаданные для описания того, как следует представлять данные объекта (объектов).[0061] Embodiments of the invention include a feature that allows the creation of object channels and groups of object channels. The invention allows metadata to be associated with each of the object channel groups. Each of the object channel groups can be labeled according to the content type. The content type is distributed through a text description, where content types may include, but are not limited to, dialogue, music, and effects. Each of the object channel groups may be assigned metadata to describe how the object(s) data should be represented.

[0062] Информация положения предусматривается для указания требуемого положения кажущегося источника. Положение может указываться с использованием эгоцентрической или аллоцентрической системы отсчета. Эгоцентрическая система отсчета является подходящей тогда, когда положение источника должно опираться на слушателя. Для описания положения в эгоцентрической системе пригодны сферические координаты. Аллоцентрическая система отсчета является типичной системой отсчета для кинематографических или других аудиовизуальных представлений, где положение источника указывается относительно таких объектов в среде представления, как положение экрана видеомонитора или границы помещения. Информация трехмерной (3D) траектории предоставляется для того, чтобы позволять интерполировать положение, или для использования других решений представления данных, таких как разблокирование «привязки к режиму». Информация размера представляется для указания требуемого воспринимаемого размера кажущегося источника звука.[0062] Position information is provided to indicate the desired position of the apparent source. Position can be indicated using an egocentric or allocentric reference frame. An egocentric frame of reference is appropriate when the position of the source must be based on the listener. Spherical coordinates are suitable to describe the position in the egocentric system. The allocentric frame of reference is a typical frame of reference for cinematic or other audiovisual presentations, where the position of the source is specified relative to objects in the presentation environment, such as the position of a video monitor screen or the boundaries of a room. Three-dimensional (3D) trajectory information is provided to allow position interpolation, or to enable other data representation solutions such as "mode snap" unlocking. Size information is provided to indicate the desired perceived size of the apparent sound source.

[0063] Пространственное квантование предусматривается посредством элемента управления «привязка к ближайшему громкоговорителю», которое указывает замысел звукоинженера, или оператора микширования, представить данные объекта в точности одним громкоговорителем (потенциально жертвуя пространственной точностью). Предел допустимого пространственного искажения может указываться посредством пороговых значений допусков возвышения и азимута с тем, чтобы, если пороговое значение превышается, функция «привязка» не выполнялась. В дополнение к пороговым значениям расстояний, может указываться параметр скорости плавного перехода, предназначенный для контроля над тем, насколько быстро движущийся объект перейдет, или совершит скачок, из одного громкоговорителя в другой, когда требуемое положение находится между громкоговорителями.[0063] Spatial quantization is provided through a "snap to nearest speaker" control, which indicates the intent of the audio engineer, or mixing operator, to represent the object data with exactly one speaker (potentially sacrificing spatial accuracy). The limit of acceptable spatial distortion may be specified by elevation and azimuth tolerance thresholds so that if the threshold is exceeded, the snap function will not be performed. In addition to distance thresholds, a fade rate parameter can be specified to control how quickly a moving object will transition, or jump, from one speaker to another when the desired position is between the speakers.

[0064] В одном из вариантов осуществления изобретения, для некоторых метаданных положения используются зависимые пространственные метаданные. Например, метаданные могут автоматически генерироваться для «ведомого» объекта путем связывания его с «ведущим» объектом, за котором должен следовать ведомый объект. Для ведомого объекта может задаваться задержка во времени или относительная скорость. Также могут предусматриваться механизмы, позволяющие определять акустический центр тяжести для наборов, или групп, объектов с тем, чтобы данные объекта могли представляться таким образом, чтобы он воспринимался как движущийся около другого объекта. В этом случае, один или несколько объектов могут вращаться вокруг некоторого объекта, или определенной области, как господствующей точки или приямка помещения. Тогда акустический центр тяжести можно было бы использовать на этапе представления данных для того, чтобы способствовать определению информации местоположения для каждого и звуков на основе объектов, даже если окончательная информация местоположения будет выражаться как местоположение относительно помещения, в отличие от местоположения относительно другого объекта.[0064] In one embodiment of the invention, dependent spatial metadata is used for some position metadata. For example, metadata can be automatically generated for a "slave" object by associating it with a "master" object that the slave object must follow. The slave can be given a time delay or relative speed. Mechanisms may also be provided to allow the acoustic center of gravity to be determined for sets, or groups, of objects so that the object can be presented in such a way that it is perceived as moving near another object. In this case, one or more objects may rotate around a certain object, or a certain area, such as a dominant point or pit of a room. The acoustic center of gravity could then be used at the data presentation stage to help determine location information for each and sounds based on objects, even though the final location information would be expressed as location relative to a room, as opposed to location relative to another object.

[0065] Когда представляются данные объекта, он, в соответствии с метаданными положения и местоположением проигрывающих громкоговорителей, присваивается одному или нескольким громкоговорителям. С целью ограничения громкоговорителей, которые могли бы использоваться, с объектом могут связываться дополнительные метаданные. Использование ограничений может запрещать использование указанных громкоговорителей или только подавлять указанные громкоговорители (допускать в громкоговоритель, или громкоговорители, меньше энергии, чем могло бы применяться). Наборы громкоговорителей, подлежащие ограничению, могут включать в качестве неограничивающих примеров какие-либо названные громкоговорители, или зоны громкоговорителей (например, L, C, R и т.д.), или такие зоны громкоговорителей, как передняя стена, задняя стена, левая стена, правая стена, потолок, пол, громкоговорители в помещении и т.д. Аналогично, в ходе указания требуемого микширования нескольких звуковых элементов, можно вызвать превращение одного или нескольких звуковых элементов в неслышимые, или «замаскированные», по причине присутствия других, «маскирующих» звуковых элементов. Например, если обнаруживаются «замаскированные» звуковые элементы, их можно идентифицировать посредством графического дисплея.[0065] When object data is presented, it is, in accordance with the position metadata and location of the playing speakers, assigned to one or more speakers. Additional metadata may be associated with the object to limit the speakers that could be used. The use of restrictions may prohibit the use of specified loudspeakers or only suppress specified loudspeakers (allow less energy into the loudspeaker, or loudspeakers, than could be applied). Sets of speakers subject to limitation may include, by way of non-limiting examples, any named speakers or speaker areas (e.g., L, C, R, etc.), or speaker areas such as front wall, rear wall, left wall , right wall, ceiling, floor, indoor speakers, etc. Likewise, in the course of specifying the desired mixing of multiple audio elements, one or more audio elements can be caused to become inaudible, or "masked", due to the presence of other, "masked" audio elements. For example, if "masked" sound elements are detected, they can be identified via a graphical display.

[0066] Как описано в другом месте, описание звуковой программы может адаптироваться для представления данных на широком выборе установок громкоговорителй и конфигураций каналов. Когда автором разрабатывается звуковая программа, важно выполнять текущий контроль программы в ожидаемых конфигурациях проигрывания с тем, чтобы убедиться, что достигаются требуемые результаты. Данное изобретение включает возможность выбора целевых конфигураций проигрывания и осуществлять текущий контроль результата. Кроме того, система может автоматически отслеживать худший случай уровней сигнала (т.е. самые высокие уровни), которые могли бы генерироваться в каждой из ожидаемых конфигураций воспроизведения и предусматривать указатель, если будет возникать обрезка или ограничение.[0066] As described elsewhere, the audio program description can be adapted to represent data across a wide variety of speaker settings and channel configurations. When an author develops a sound program, it is important to monitor the program in expected playback configurations to ensure that the desired results are achieved. This invention includes the ability to select target playback configurations and monitor the result. In addition, the system can automatically monitor the worst case signal levels (ie, the highest levels) that could be generated in each of the expected playback configurations and provide an indicator if clipping or clipping occurs.

[0067] ФИГ. 3 представляет собой блок-схему, иллюстрирующую последовательность операций создания, упаковки и представления данных адаптивного звукового содержимого согласно одному из вариантов осуществления изобретения. Последовательность операций 300 по ФИГ. 3 разделена на три отдельные группы задач, помеченных как создание/авторская разработка, упаковка и демонстрация. В общем, гибридная модель трактов и объектов, показанная на ФИГ. 2, позволяет выполнять большинство задач, - звуковую сценографию, редактирование, предварительное микширование и окончательное микширование, - таким же образом, каким они выполняются в настоящее время, без добавления к современным процессам избыточных служебных данных. В одном из вариантов осуществления изобретения, функциональная возможность адаптации звука предусматривается в форме программного обеспечения, аппаратно-программного обеспечения или схемы, которая используется в сочетании с оборудованием для генерирования и обработки звука, где указанное оборудование может представлять собой новые аппаратные системы или модификации существующих систем. Например, для рабочих станций цифрового звука могут предусматриваться модульные приложения, позволяющие оставлять без изменения существующие методики панорамирования в ходе звуковой сценографии и редактирования. Таким образом, можно сформировать как тракты, так и объекты для рабочей станции в рабочей станции 5.1 или аналогичных монтажных, оснащенных окружающими каналами. Метаданные объектов и звука записываются в ходе сессии по подготовке этапов предварительного и окончательного микширования в дублирующем кинотеатре.[0067] FIG. 3 is a flowchart illustrating a process flow for creating, packaging, and presenting adaptive audio content data according to one embodiment of the invention. The flow 300 of FIG. 3 is divided into three separate task groups labeled creation/authoring, packaging, and display. In general, the hybrid path and entity model shown in FIG. 2 allows most tasks - sound design, editing, pre-mixing and post-mixing - to be performed in the same way as they are currently performed, without adding unnecessary overhead to modern processes. In one embodiment of the invention, the audio adaptation functionality is provided in the form of software, firmware, or circuitry that is used in conjunction with audio generation and processing hardware, which hardware may be new hardware systems or modifications to existing systems. For example, digital audio workstations can provide modular applications that allow existing panning techniques to remain unchanged during sound design and editing. In this way, it is possible to form both paths and objects for a workstation in a 5.1 workstation or similar installations equipped with surrounding channels. Object and audio metadata is recorded during a session to prepare the pre- and post-mix stages in the duplicate theater.

[0068] Как показано на ФИГ. 3, создание или авторская разработка задач включает ввод пользователем, например, в нижеследующем примере, звукоинженером, управляющих сигналов 302 микширования в микшерный пульт или звуковую рабочую станцию 304. В одном из вариантов осуществления изобретения, метаданные встраиваются в поверхность микшерного пульта, позволяя регуляторам настройки каналов, панорамирования и обработки звука работать как с трактами, или стэмами, так и со звуковыми объектами. Метаданные могут редактироваться с использованием поверхности пульта или пользовательского интерфейса рабочей станции, а текущий контроль звука осуществляется с использованием модуля 306 представления данных и окончательной обработки (RMU). Аудиоданные трактов и объектов и связанные метаданные записываются в ходе сессии окончательной обработки с целью создания «контрольной копии», которая включает адаптивный звуковой микс 310, и любые другие конечные выдаваемые данные 308 (такие как окружающий микс 7.1 или 5.1 для кинотеатров). Для того, чтобы позволить звукоинженерам помечать отдельные звуковые дорожки в ходе сессии микширования, могут использоваться существующие инструментальные средства авторской разработки (например, такие цифровые звуковые рабочие станции, как Pro Tools). Варианты осуществления изобретения распространяют эту концепцию, позволяя пользователем помечать отдельные субсегменты в пределах дорожки для содействия поиску или быстрой идентификации звуковых элементов. Пользовательский интерфейс для микшерного пульта, который позволяет определять и создавать метаданные, может реализовываться через элементы графического пользовательского интерфейса, физические элементы управления (например, ползунки и кнопки) или любые их комбинации. [0068] As shown in FIG. 3, creation or authoring of tasks involves input by a user, such as in the following example, an audio engineer, of mixing control signals 302 into a mixing console or audio workstation 304. In one embodiment of the invention, metadata is embedded into the surface of the mixing console, allowing channel adjustment controls , panning and sound processing to work with both paths, or stems, and sound objects. Metadata can be edited using the console surface or workstation user interface, and ongoing audio monitoring is accomplished using the presentation and finishing unit (RMU) 306. Path and object audio data and associated metadata are recorded during a finishing session to create a “master copy” that includes the adaptive audio mix 310, and any other final output data 308 (such as a 7.1 or 5.1 surround mix for movie theaters). Existing authoring tools (eg digital audio workstations such as Pro Tools) can be used to allow audio engineers to mark individual audio tracks during a mixing session. Embodiments of the invention extend this concept by allowing the user to mark individual sub-segments within a track to aid in retrieval or quick identification of audio elements. The user interface for the mixing console, which allows metadata to be defined and created, can be implemented through graphical user interface elements, physical controls (such as sliders and buttons), or any combination thereof.

[0069] На этапе упаковки файл контрольной копии заключается в оболочку с использованием процедур заключения в оболочку согласно промышленному стандарту MXF, хешируется и, необязательно, зашифровывается для обеспечения целостности звукового содержимого при доставке к оборудованию упаковки данных цифровой кинематографии. Данный этап может выполняться устройством 312 обработки данных цифровой кинематографии (DCP), или любым подходящим устройством для обработки звука, в зависимости от конечной среды проигрывания, такой как кинотеатр 318, оснащенный стандартным окружающим звуком, кинотеатр 320, допускающий адаптивный звук, или какая-либо другая среда проигрывания. Как показано на ФИГ. 3, устройство 312 обработки данных выводит соответствующие звуковые сигналы 314 и 316 в зависимости от демонстрирующей среды.[0069] During the packaging step, the master copy file is wrapped using industry standard MXF wrapping procedures, hashed, and optionally encrypted to ensure the integrity of the audio content when delivered to the digital cinematography data packaging equipment. This step may be performed by digital cinematography processing (DCP) device 312, or any suitable audio processing device, depending on the end playback environment, such as a movie theater 318 equipped with standard surround sound, a movie theater 320 capable of adaptive sound, or any different playing environment. As shown in FIG. 3, the processing device 312 outputs corresponding audio signals 314 and 316 depending on the display environment.

[0070] В одном из вариантов осуществления изобретения, контрольная копия адаптивного звука содержит адаптивный аудио микс наряду со стандартным DCI-совместимым миксом с импульсно-кодовой модуляцией (РСМ). Микс РСМ может представляться модулем представления данных и окончательной обработки в дублирующем кинотеатре или, по желанию, создаваться отдельным прогоном микширования. Звук РСМ образует в устройстве 312 обработки данных для цифровой кинематографии файл стандартной основной звуковой дорожки, а адаптивный звук образует файл дополнительной дорожки. Указанный файл дорожки может быть совместимым с существующими промышленными стандартами и может игнорироваться DCI-совместимыми серверами, которые не могут его использовать.[0070] In one embodiment of the invention, the adaptive audio reference contains an adaptive audio mix along with a standard DCI-compatible pulse code modulation (PCM) mix. The PCM mix can be presented by the data presentation and finishing module in the redundant theater or, if desired, created by a separate mixing run. The PCM audio forms a standard main audio track file in the digital cinematography processing device 312, and the adaptive audio forms an additional track file. The specified track file may be compatible with existing industry standards and may be ignored by DCI-compliant servers that cannot use it.

[0071] В одном из примеров проигрывающей среды для кинематографии DCP, содержащий файл дорожки адаптивного звука, распознается сервером как достоверный пакет и принимается сервером, а затем передается в виде потока в устройство обработки адаптивных аудиоданных для кинематографии. Система, для которой доступны как линейный РСМ-, так и адаптивный звуковые файлы, может по необходимости переключаться между ними. Для распространения на этап демонстрации, схема упаковки адаптивного звука допускает доставку в кинотеатр пакетов одного типа. Пакет DCP содержит как файл РСМ, так адаптивные звуковые файлы. Для обеспечения защищенной доставки содержимого кинофильма, или другого сходного содержимого, может включаться использование ключей защиты, таких как доставка сообщения, зашифрованного на определенном ключе (KDM).[0071] In one example of a cinematic playback environment, a DCP containing an adaptive audio track file is recognized by the server as a valid packet and is received by the server and then transmitted as a stream to the cinematic adaptive audio processing device. A system that has both linear PCM and adaptive audio files available can switch between them as needed. For distribution to the demonstration stage, the adaptive audio packaging scheme allows for one type of package to be delivered to the theater. The DCP package contains both the PCM file and the adaptive audio files. To provide secure delivery of movie content, or other similar content, may involve the use of security keys, such as delivery of a key-encrypted message (KDM).

[0072] Как показано на ФИГ. 3, методология адаптивного звука реализуется путем создания для звукоинженера возможности выражения его замысла в отношении представления данных и проигрывания звукового содержимого через звуковую рабочую станцию 304. Управляя некоторыми элементами управления ввода, инженер способен указывать, где и как проигрывать звуковые объекты и звуковые элементы в зависимости от среды прослушивания. Метаданные генерируются в звуковой рабочей станции 304 в ответ на входные данные 302 микширования инженера, обеспечивая очереди на представление данных, которые управляют пространственными параметрами (например, положением, скоростью, интенсивностью, тембром и т.д.) и указывают, какой громкоговоритель (громкоговорители), или группы громкоговорителей, в среде прослушивания проигрывают соответствующие звуки в ходе демонстрации. Метаданные связываются с соответствующими аудиоданными в рабочей станции 304 или RMU 306 с целью упаковки и передачи посредством DCP 312.[0072] As shown in FIG. 3, adaptive audio methodology is implemented by allowing the audio engineer to express his intent for the presentation of data and playback of audio content through audio workstation 304. By manipulating certain input controls, the engineer is able to specify where and how audio objects and audio elements are played depending on listening environment. Metadata is generated in the audio workstation 304 in response to the engineer's mixing input 302, providing data representation queues that control spatial parameters (e.g., position, speed, intensity, timbre, etc.) and indicate which speaker(s) , or groups of loudspeakers, in the listening environment play the corresponding sounds during the demonstration. The metadata is associated with the corresponding audio data in the workstation 304 or RMU 306 for the purpose of packaging and transmission via the DCP 312.

[0073] Графический пользовательский интерфейс и средства программного обеспечения, которые обеспечивают управление рабочей станцией 304 инженером, содержат, по меньшей мере, часть инструментальных средств 106 авторской разработки по ФИГ. 1. [0073] The graphical user interface and software tools that enable engineer control of the workstation 304 include at least a portion of the proprietary tools 106 of FIG. 1.

Гибридный аудиокодекHybrid audio codec

[0074] Как показано на ФИГ. 1, система 100 включает гибридный аудиокодек 108. Этот компонент содержит систему кодирования, распространения и декодирования звука, которая сконфигурирована для генерирования единого битового потока, содержащего как традиционные звуковые элементы на основе каналов, так и элементы кодирования звуковых объектов. Гибридная система кодирования звука выстраивается вокруг системы кодирования на основе каналов, которая сконфигурирована для генерирования единого (унифицированного) битового потока, который одновременно совместим с первым декодером (например, может им декодироваться), сконфигурированным для декодирования аудиоданных, кодированных в соответствии с первым протоколом кодирования (на основе каналов), и один или несколько вторичных декодеров, сконфигурированных для декодирования аудиоданных, кодированных в соответствии с одним или несколькими вторичными протоколами декодирования (на основе объектов). Битовый поток может включать как кодированный данные (в форме пакетов данных), декодируемые первым декодером (и игнорируемые любым из вторичных декодеров), и кодированные данные (например, другие пакеты данных), декодируемые одним или несколькими вторичными декодерами (и игнорируемые первым декодером). Декодированный звук и связанная информация (метаданные) из первого и одного или нескольких вторичных декодеров может затем объединяться таким образом, чтобы представление данных как информации на основе каналов, так и информации на основе объектов происходило одновременно для воссоздания точной копии среды, каналов, пространственной информации и объектов, представленных в гибридную систему кодирования (например, в пределах трехмерного пространства или среды прослушивания).[0074] As shown in FIG. 1, system 100 includes a hybrid audio codec 108. This component includes an audio encoding, distribution, and decoding system that is configured to generate a single bitstream containing both traditional channel-based audio elements and audio object encoding elements. A hybrid audio encoding system is built around a channel-based encoding system that is configured to generate a single (unified) bitstream that is simultaneously compatible with (e.g., can be decoded by) a first decoder configured to decode audio data encoded in accordance with the first encoding protocol ( channel-based), and one or more secondary decoders configured to decode audio data encoded in accordance with one or more secondary (object-based) decoding protocols. The bitstream may include both encoded data (in the form of data packets) decoded by the first decoder (and ignored by any of the secondary decoders), and encoded data (eg, other data packets) decoded by one or more secondary decoders (and ignored by the first decoder). The decoded audio and associated information (metadata) from the first and one or more secondary decoders can then be combined such that the data presentation of both channel-based information and object-based information occurs simultaneously to recreate an exact copy of the environment, channels, spatial information and objects represented in a hybrid encoding system (for example, within a three-dimensional space or listening environment).

[0075] Кодек 108 генерирует битовый поток, содержащий информацию кодированного звука и информацию, относящуюся к нескольким наборам положений каналов (громкоговорителей). В одном из вариантов осуществления изобретения, один набор положений каналов фиксируется и используется для протокола кодирования на основе каналов, в то время как другой набор положений каналов является адаптивным и используется для протокола кодирования на основе звуковых объектов, и, таким образом, конфигурация каналов для звукового объекта может изменяться в зависимости от времени (в зависимости от того, где в звуковом поле размещается объект). Таким образом, гибридная система кодирования звука может нести информацию о двух наборах местоположений громкоговорителей для проигрывания, где один набор может являться фиксированным и представлять собой подмножество другого набора. Устройства, поддерживающие унаследованную информацию кодированного звука, могут декодироваться и представлять данные для звуковой информации из фиксированного подмножества, в то время как устройство, способное поддерживать больший набор, может декодировать и представлять данные для дополнительной информации кодированного звука, которая может переменным во времени образом приписываться разным громкоговорителям из большего набора. Кроме того, система не зависит от первого и одного или нескольких вторичных декодеров, одновременно присутствующих в системе и/или устройстве. Поэтому унаследованное и/или существующее устройство/система, содержащая только декодер, поддерживающий первый протокол, может выводить полностью совместимое звуковое поле, данные которого подлежат представлению через традиционные системы воспроизведения на основе каналов. В данном случае, неизвестный, или неподдерживаемый, участок (участки) протокола гибридного битового потока (т.е. звуковая информация, представленная вторичным протоколом кодирования) может игнорироваться системой или устройством декодера, поддерживающего первый протокол гибридного кодирования.[0075] Codec 108 generates a bitstream containing encoded audio information and information related to multiple sets of channel (speaker) positions. In one embodiment of the invention, one set of channel positions is fixed and used for the channel-based coding protocol, while another set of channel positions is adaptive and used for the audio object-based coding protocol, and thus the channel configuration for audio subject may vary over time (depending on where the subject is placed in the sound field). Thus, a hybrid audio coding system may carry information about two sets of speaker locations for playback, where one set may be fixed and a subset of the other set. Devices supporting legacy encoded audio information can decode and represent data for audio information from a fixed subset, while a device capable of supporting a larger set can decode and represent data for additional encoded audio information that may be assigned in a time-varying manner to different speakers from a larger set. In addition, the system is independent of the first and one or more secondary decoders simultaneously present in the system and/or device. Therefore, a legacy and/or existing device/system containing only a decoder supporting the first protocol can output a fully compatible sound field whose data is subject to presentation through traditional channel-based playback systems. In this case, the unknown, or unsupported, portion(s) of the hybrid bitstream protocol (ie, audio information represented by the secondary encoding protocol) may be ignored by the system or decoder device supporting the first hybrid encoding protocol.

[0076] В другом варианте осуществления изобретения, кодек 108 сконфигурирован для работы в режиме, где первая подсистема кодирования (поддерживающая первый протокол) содержит комбинированное представление всей информации звукового поля (каналов и объектов), представляемое как в первой, так и в одной или нескольких вторичных подсистемах кодера, присутствующих в гибридном кодере. Это обеспечивает то, что гибридный битовый поток включает обратную совместимость с декодерами, поддерживающими только протокол первой подсистемы кодера, позволяя звуковым объектам (как правило, переносимым в одном или нескольких вторичных протоколах кодера) быть отображаемыми и представляемыми в декодерах, поддерживающих только первый протокол.[0076] In another embodiment of the invention, codec 108 is configured to operate in a mode where the first encoding subsystem (supporting the first protocol) contains a combined representation of all audio field information (channels and objects) presented in both the first and one or more secondary encoder subsystems present in a hybrid encoder. This ensures that the hybrid bitstream includes backward compatibility with decoders that support only the first encoder subsystem protocol, allowing audio objects (typically carried in one or more secondary encoder protocols) to be mapped and presented in decoders that only support the first protocol.

[0077] В еще одном варианте осуществления изобретения, кодек 108 включает две или большее количество подсистем кодирования, где каждая их этих подсистем сконфигурирована для кодирования аудиоданных в соответствии с отличающимся протоколом и сконфигурирована для объединения выводов подсистем с целью генерирования гибридного формата (унифицированного) битового потока.[0077] In yet another embodiment of the invention, codec 108 includes two or more encoding subsystems, where each of these subsystems is configured to encode audio data in accordance with a different protocol and is configured to combine the outputs of the subsystems to generate a hybrid (unified) bitstream format .

[0078] Одной из выгод вариантов осуществления изобретения является возможность переноса гибридного битового потока кодированного звука через широкий выбор систем распространения содержимого, где каждая из систем распространения традиционно поддерживает только данные, кодированные в соответствии с первым протоколом кодирования. Это исключает необходимость в модификации/изменении протокола любой системы и/или транспортного уровня с целью специальной поддержки гибридной системы кодирования.[0078] One benefit of embodiments of the invention is the ability to transport a hybrid encoded audio bitstream across a wide variety of content distribution systems, where each distribution system traditionally supports only data encoded in accordance with a first encoding protocol. This eliminates the need to modify/change the protocol of any system and/or transport layer to specifically support a hybrid encoding system.

[0079] Системы кодирования звука, как правило, используют стандартизированные элементы битового потока, позволяющие передавать дополнительные (произвольные) данные внутри самого битового потока. Эти дополнительные (произвольные) данные, как правило, пропускаются (т.е. игнорируются) в ходе декодирования кодированного звука, заключенного в битовом потоке, но могут использоваться с иными целями чем декодирование. Разные стандарты кодирования звука выражают эти дополнительные поля данных с использованием уникальной номенклатуры. Элементы битового потока указанного общего типа могут включать в качестве неограничивающих примеров вспомогательные данные, пропущенные поля, элементы потока данных, заполняющие элементы, служебные данные и элементы вложенных потоков данных. Если не обусловлено иное, использование выражения «произвольные данные» в данном документе не подразумевает определенный тип или формат дополнительных данных, но, наоборот, его следует интерпретировать как общее выражение, которое охватывает любой или все примеры, связанные с настоящим изобретением. [0079] Audio coding systems typically use standardized bitstream elements to allow additional (arbitrary) data to be carried within the bitstream itself. This additional (arbitrary) data is typically skipped (i.e., ignored) during decoding of the encoded audio contained in the bitstream, but may be used for purposes other than decoding. Different audio coding standards express these additional data fields using unique nomenclature. Bitstream elements of this general type may include, but are not limited to, auxiliary data, missing fields, data stream elements, padding elements, overhead data, and nested data stream elements. Unless otherwise stated, the use of the expression “arbitrary data” herein does not imply a specific type or format of additional data, but rather should be interpreted as a general expression that covers any or all examples associated with the present invention.

[0080] Канал данных, обеспечиваемый посредством «произвольных» элементов битового потока первого протокола кодирования в комбинированном битовом потоке гибридной системы кодирования, может нести один или несколько вторичных (зависимых или независимых) битовых потоков аудиоданных (кодированных в соответствии с одним или несколькими вторичными протоколами кодирования). Один или несколько вторичных битовых звуковых потоков могут разбиваться на блоки из N дискретных значений и уплотняться в поля «вспомогательных данных» первого битового потока. Первый битовый поток декодируется соответствующим (дополнительным) декодером. Кроме того, вспомогательные данные первого битового потока могут извлекаться и снова объединяться в один или несколько вторичных битовых потоков аудиоданных, декодируемых устройством обработки данных, поддерживающим синтаксис одного или нескольких вторичных битовых потоков, а затем совместно или независимо комбинироваться и представляться. Кроме того, также можно поменять роли первого и второго битовых потоков так, чтобы блоки данных первого битового потока уплотнялись во вспомогательные данные второго битового потока.[0080] The data channel provided by the "random" bitstream elements of the first encoding protocol in the hybrid encoding system's combined bitstream may carry one or more secondary (dependent or independent) audio data bitstreams (encoded in accordance with one or more secondary encoding protocols ). One or more secondary audio bitstreams may be broken down into blocks of N discrete values and compressed into "auxiliary data" fields of the first bitstream. The first bit stream is decoded by the corresponding (additional) decoder. In addition, the auxiliary data of the first bitstream may be extracted and recombined into one or more secondary audio bitstreams decoded by a processing device supporting the syntax of the one or more secondary bitstreams, and then combined or independently combined and presented. In addition, it is also possible to reverse the roles of the first and second bitstreams so that the data blocks of the first bitstream are compressed into auxiliary data of the second bitstream.

[0081] Элементы битового потока, связанные со вторым протоколом кодирования также переносят и передают характеристики информации (метаданные) лежащего в их основе звука, которые могут в качестве неограничивающих примеров включать требуемое положение, скорость и размер источника звука. Эти метаданные используются в ходе процессов декодирования и представления данных для воссоздания надлежащего (то есть оригинального) положения связанного звукового объекта, переносимого в применимом битовом потоке. Также можно переносить вышеописанные метаданные, которые применимы к звуковым объектам, содержащимся в одном или нескольких вторичных битовых потоках, присутствующих в гибридном потоке, в элементах битового потока, связанных с первым протоколом кодирования.[0081] The bitstream elements associated with the second encoding protocol also carry and convey information characteristics (metadata) of the underlying audio, which may include, but are not limited to, the desired position, speed, and size of the audio source. This metadata is used during the decoding and data presentation processes to reconstruct the proper (ie, original) position of the associated audio object carried in the applicable bitstream. It is also possible to carry the above-described metadata that applies to audio objects contained in one or more secondary bitstreams present in the hybrid stream in the bitstream elements associated with the first encoding protocol.

[0082] Элементы битового потока, связанные с одним, первым или вторым, протоколом кодирования или с обоими протоколами кодирования гибридной системы кодирования, переносят/передают контекстные метаданные, которые идентифицируют пространственные параметры (например, сущность свойств самого сигнала) и дополнительную информацию, описывающую тип сущности лежащего в ее основе звука в форме специальных классов звука, которые переносятся в гибридном битовом потоке кодированого звука. Такие метаданные могут указывать, например, присутствие речевого диалога, музыки, диалога на фоне музыки, аплодисментов, пения и т.д., и могут использоваться для адаптивной модификации поведения взаимосвязанных модулей предварительной и последующей обработки в восходящем направлении или в нисходящем направлении относительно гибридной системы кодирования.[0082] Bitstream elements associated with one, first or second, encoding protocol or both encoding protocols of a hybrid encoding system carry/transmit contextual metadata that identifies spatial parameters (eg, the essence of the properties of the signal itself) and additional information describing the type essence of the underlying audio in the form of special audio classes that are carried in a hybrid encoded audio bitstream. Such metadata may indicate, for example, the presence of speech dialogue, music, dialogue against music, applause, singing, etc., and may be used to adaptively modify the behavior of interconnected pre- and post-processing modules upstream or downstream of the hybrid system. coding.

[0083] В одном из вариантов осуществления изобретения, кодек 108 сконфигурирован для работы с совместно используемым, или общим, битовым пулом, в котором биты, доступные для кодирования «делятся» между всеми или частью подсистем кодирования, поддерживающих один или несколько протоколов. Такой кодек может распределять доступные биты (из общего, «совместно используемого» битового пула) между подсистемами кодирования с целью оптимизации общего качества звука в унифицированном битовом потоке. Например, в течение первого промежутка времени, кодек может присваивать больше доступных битов первой подсистеме кодирования, и меньше доступных битов - остальным подсистемам, в то время как в течение второго промежутка времени, кодек может присваивать меньше доступных битов первой подсистеме кодирования, и больше доступных битов - остальным подсистемам кодирования. Решение о том, каким образом распределять биты между подсистемами кодирования, может зависеть, например, от результатов статистического анализа совместно используемого битового пула и/или от анализа звукового содержимого, кодируемого каждой из подсистем. Кодек может присваивать биты из совместно используемого пула таким образом, чтобы унифицированный битовый поток, сконструированный путем уплотнения выводов подсистем кодирования, сохранял постоянную длину кадра/битовую скорость передачи данных в течение заданного промежутка времени. Также, в некоторых случаях, возможно изменение длины кадра/битовой скорости передачи данных в течение заданного промежутка времени.[0083] In one embodiment of the invention, codec 108 is configured to operate with a shared, or common, bit pool in which the bits available for encoding are “shared” among all or a portion of encoding subsystems supporting one or more protocols. Such a codec can distribute available bits (from a common, "shared" bit pool) among encoding subsystems in order to optimize the overall audio quality of a unified bitstream. For example, during a first period of time, the codec may assign more available bits to the first encoding subsystem, and fewer available bits to the remaining subsystems, while during a second period of time, the codec may assign fewer available bits to the first encoding subsystem, and more available bits - other coding subsystems. The decision on how to distribute bits between encoding subsystems may depend, for example, on the results of a statistical analysis of the shared bit pool and/or on an analysis of the audio content encoded by each of the subsystems. The codec can assign bits from a shared pool such that the unified bitstream constructed by compressing the pins of the encoding subsystems maintains a constant frame length/bit rate for a given period of time. Also, in some cases, it is possible to change the frame length/bit rate over a given period of time.

[0084] В альтернативном варианте осуществления изобретения, кодек 108 генерирует унифицированный битовый поток, включающий данные, кодированные в соответствии с первым протоколом кодирования, конфигурируемые и передаваемые как независимый подпоток потока кодированных данных (который будет декодироваться декодером, поддерживающим первый протокол кодирования), а данные, кодируемые в соответствии со вторым протоколом, передаются как независимый или зависимый подпоток потока кодированных данных (поток, который будет игнорироваться декодером, поддерживающим первый протокол). В более общем смысле, в одном из классов вариантов осуществления изобретения, кодек генерирует унифицированный битовый поток, включающий два или большее количество независимых, или зависимых подпотоков (где каждый подпоток включает данные, кодированные в соответствии с отличающимся, или идентичным, протоколом кодирования).[0084] In an alternative embodiment of the invention, codec 108 generates a unified bitstream including data encoded in accordance with the first encoding protocol, configured and transmitted as an independent substream of the encoded data stream (which will be decoded by a decoder supporting the first encoding protocol), and the data , encoded in accordance with the second protocol, are transmitted as an independent or dependent substream of the encoded data stream (a stream that will be ignored by a decoder supporting the first protocol). More generally, in one class of embodiments of the invention, a codec generates a unified bitstream including two or more independent or dependent substreams (where each substream includes data encoded according to a different, or identical, encoding protocol).

[0085] В еще одном альтернативном варианте осуществления изобретения, кодек 108 генерирует унифицированный битовый поток, включающий данные, кодированные в соответствии с первым протоколом кодирования, сконфигурированный и передаваемый с уникальным идентификатором битового потока (который будет декодироваться декодером, поддерживающим первый протокол кодирования, связанный с уникальным идентификатором битового потока), и данные, кодированные в соответствии со вторым протоколом, сконфигурированные и передаваемые с уникальным идентификатором битового потока, который декодер, поддерживающий первый протокол, будет игнорировать. В более общем смысле, в одном из классов вариантов осуществления изобретения, кодек генерирует унифицированный битовый поток, включающий два или большее количество подпотоков (где каждый подпоток включает данные, кодируемые в соответствии с отличающимся, или идентичным, протоколом кодирования, и где каждый подпоток несет уникальный идентификатор битового потока). Вышеописанные способы и системы, предназначенные для создания унифицированного битового потока предусматривают возможность передавать (в декодер) недвусмысленный сигнал о том, какое перемежение и/или протокол был использован в гибридном битовом потоке (например, передавать сигнал о том, используются ли данные AUX, SKIP, DSE или описанный подход на основе подпотоков).[0085] In yet another alternative embodiment of the invention, codec 108 generates a unified bitstream including data encoded in accordance with the first encoding protocol, configured and transmitted with a unique bitstream identifier (which will be decoded by a decoder supporting the first encoding protocol associated with unique bitstream identifier), and data encoded in accordance with the second protocol, configured and transmitted with a unique bitstream identifier, which a decoder supporting the first protocol will ignore. More generally, in one class of embodiments of the invention, a codec generates a unified bitstream including two or more substreams (where each substream includes data encoded in accordance with a different, or identical, encoding protocol, and where each substream carries a unique bitstream identifier). The methods and systems described above for creating a unified bitstream include the ability to convey (to the decoder) an unambiguous signal about what interleaving and/or protocol was used in the hybrid bitstream (for example, whether AUX, SKIP, DSE or the described subflow approach).

[0086] Гибридная система кодирования сконфигурирована для поддержки устранения перемежения/разуплотнения и повторного перемежения/повторного уплотнения битовых потоков, поддерживающих один или несколько вторичных протоколов, в первый битовый поток (поддерживающий первый протокол) в любой точке обработки повсюду в системе доставки мультимедийных данных. Гибридный кодек также сконфигурирован для обладания способностью кодирования входных аудиопотоков с различными частотами дискретизации в один битовый поток. Это создает средства для эффективного кодирования и распространения источников звуковых сигналов, содержащих сигналы с разными по своему существу полосами пропускания. Например, диалоговые дорожки обычно имеют существенно меньшую ширину полосы пропускания, чем дорожки музыки и эффектов.[0086] The hybrid encoding system is configured to support deinterleaving/decompressing and reinterleaving/recompressing bit streams supporting one or more secondary protocols into a first bit stream (supporting the first protocol) at any processing point throughout the media delivery system. The hybrid codec is also configured to have the ability to encode input audio streams at different sampling rates into a single bitstream. This provides a means for efficiently encoding and distributing audio sources containing signals with inherently different bandwidths. For example, dialogue tracks typically have significantly less bandwidth than music and effects tracks.

Представление данныхData presentation

[0087] В одном из вариантов осуществления изобретения, система адаптивного звука допускает упаковку нескольких (например, до 128) дорожек, обычно, в качестве сочетания трактов и объектов. Основной формат аудиоданных для системы адаптивного звука включает несколько независимых монофонических аудиопотоков. Каждый поток содержит связанные с ним метаданные, которые указывают, является данный поток потоком на основе каналов или потоком на основе объектов. Потоки на основе каналов содержат информацию представления данных, кодированную посредством названия, или метки, канала; а потоки на основе объектов содержат информацию местоположения, кодированную через математические выражения, закодированные в дополнительных связанных метаданных. Оригинальные независимые аудиопотоки затем упаковываются в единую двоичную последовательность, которая содержит все аудиоданные в упорядоченном виде. Такая конфигурация адаптивных данных позволяет представлять данные звука в соответствии с аллоцентрической системой отсчета, в которой окончательное местоположение представления данных звука основывается на среде проигрывания так, чтобы оно соответствовало замыслу оператора микширования. Таким образом, происхождение звука может указываться в системе отсчета помещения для проигрывания (например, середина левой стены), а не из определенного помеченного громкоговорителя или группы громкоговорителей (например, левой окружающей). Метаданные положения объекта содержат информацию соответствующей аллоцентрической системы отсчета, необходимую для правильного проигрывания звука с использованием положений доступных громкоговорителей в помещении, которое подготовлено для проигрывания адаптивного звукового содержимого.[0087] In one embodiment of the invention, an adaptive audio system allows multiple (eg, up to 128) tracks to be packaged, typically as a combination of paths and objects. The basic audio data format for an adaptive audio system includes multiple independent monaural audio streams. Each stream has metadata associated with it that indicates whether the stream is a channel-based stream or an object-based stream. Channel-based streams contain data representation information encoded by a channel name, or label; and object-based streams contain location information encoded through mathematical expressions encoded in additional associated metadata. The original independent audio streams are then packaged into a single binary sequence that contains all the audio data in an ordered manner. This configuration of adaptive data allows the audio data to be represented according to an allocentric frame of reference, in which the final presentation location of the audio data is based on the playback environment so that it matches the mixing operator's intent. Thus, the origin of a sound may be indicated in the playback room's reference frame (eg, the middle of the left wall) rather than from a specific labeled speaker or group of speakers (eg, the left surround). Object position metadata contains the appropriate allocentric reference frame information needed to correctly play audio using the positions of available speakers in a room that is prepared to play adaptive audio content.

[0088] Оператор представления данных принимает битовый поток, кодирующий звуковые дорожки, и обрабатывает содержимое в соответствии с типом сигнала. Тракты подаются на массивы, что потенциально будет требовать иных задержек и обработки уравнивания, чем отдельные объекты. Процесс поддерживает представление данных указанных трактов и объектов в несколько (до 64) выходных сигналов громкоговорителей. ФИГ. 4 представляет собой блок-схему этапа представления данных системы адаптивного звука согласно одному из вариантов осуществления изобретения. Как показано в системе 400 по ФИГ. 4, несколько входных сигналов, таких как звуковые дорожки в количестве до 128, которые включают адаптивные звуковые сигналы 402, создаются определенными компонентами этапов создания, авторской разработки и упаковки системы 300, такими как RMU 306 и устройство 312 обработки данных. Эти сигналы содержат тракты на основе каналов и объекты, которые используются оператором 404 представления данных. Звук на основе каналов (тракты) и объекты вводятся в устройство 406 управления уровнем, которое обеспечивает управление выходными уровнями, или амплитудами, различных звуковых составляющих. Некоторые звуковые составляющие могут обрабатываться компонентом 408 коррекции массивов. Адаптивные звуковые сигналы затем пропускаются через компонент 410 обработки в цепи В, который генерирует несколько (например, до 64) выходных сигналов, подаваемых на громкоговорители. В общем, сигналы цепи В относятся к сигналам, обрабатываемым усилителями мощности, разделителями спектра сигнала и громкоговорителями, в отличие от содержимого цепи А, которое составляет звуковую дорожку на кинопленке.[0088] The data representation operator receives a bitstream encoding audio tracks and processes the content according to the signal type. Paths are fed into arrays, which will potentially require different latency and adjustment processing than individual objects. The process supports the presentation of data from specified paths and objects to multiple (up to 64) speaker outputs. FIG. 4 is a flow diagram of a data presentation step of an adaptive audio system according to one embodiment of the invention. As shown in system 400 of FIG. 4, multiple input signals, such as up to 128 audio tracks that include adaptive audio signals 402, are generated by certain components of the creation, authoring, and packaging stages of the system 300, such as the RMU 306 and the data processing unit 312. These signals contain channel-based paths and objects that are used by the data presentation operator 404. Channel-based audio (paths) and objects are input to a level control device 406, which provides control of the output levels, or amplitudes, of the various audio components. Some audio components may be processed by the array equalization component 408. The adaptive audio signals are then passed through a processing component 410 in Circuit B, which generates multiple (eg, up to 64) output signals to the speakers. In general, chain B signals refer to the signals processed by power amplifiers, signal splitters, and loudspeakers, as opposed to the contents of chain A, which constitute the soundtrack on film.

[0089] В одном из вариантов осуществления изобретения, оператор 404 представления данных запускает алгоритм представления данных, который как можно лучше, разумно использует возможности окружающих громкоговорителей в кинотеатре. Путем улучшения коммутации мощности и амплитудно-частотных характеристик окружающих громкоговорителей, а также путем поддержания одинакового опорного уровня текущего контроля для каждого выходного канала, или громкоговорителя, в кинотеатре, объекты, панорамируемые между экранными и окружающими громкоговорителями, могут сохранять уровень их звукового давления и иметь более близкое тембральное согласование, что важно, без увеличения общего уровня звукового давления в кинотеатре. Массив соответствующим образом указанных окружающих громкоговорителей, как правило, будет иметь достаточный запас по уровню для воспроизведения максимального доступного динамического диапазона в пределах окружающей звуковой дорожки 7.1 или 5.1 (т.е. на 20 дБ выше опорного уровня), однако маловероятно, чтобы единичный окружающий громкоговоритель имел такой же запас по уровню, что и большой многопозиционный экранный громкоговоритель. Как результат, вероятны случаи, когда объект, помещенный в окружающее поле потребует большего звукового давления, чем звуковое давление, достижимое с использованием единственного окружающего громкоговорителя. В этих случаях, оператор представления данных будет распространять звук по соответствующему количеству громкоговорителей с целью достижения требуемого уровня звукового давления. Система адаптивного звука улучшает качество и коммутацию мощности окружающих громкоговорителей, обеспечивая улучшение достоверности представления данных. Она предусматривает поддержку управления басами окружающих громкоговорителей через использование необязательных задних сверхнизкочастотных громкоговорителей, которые позволяют каждому окружающему громкоговорителю достигать улучшенной коммутации мощности, одновременно потенциально используя корпуса громкоговорителей меньшего размера. Она также позволяет добавлять боковые окружающие громкоговорители ближе к экрану, чем в современной практике, для того, чтобы обеспечить плавный переход объектов от экрана к окружению.[0089] In one embodiment of the invention, presentation operator 404 runs a presentation algorithm that makes the best possible intelligent use of the surrounding speakers in the theater. By improving the power switching and frequency response of the surround speakers, and by maintaining the same monitoring reference level for each output channel, or speaker, in a theater, objects panned between the on-screen and surround speakers can maintain their SPL level and have more close timbral matching, which is important, without increasing the overall sound pressure level in the cinema. An array of suitably specified surround speakers will typically have sufficient headroom to reproduce the maximum available dynamic range within a 7.1 or 5.1 surround soundtrack (i.e. 20 dB above the reference level), but it is unlikely that a single surround speaker will had the same level headroom as a large multi-position on-screen loudspeaker. As a result, there are likely to be cases where an object placed in an ambient field will require greater sound pressure than would be achievable using a single ambient loudspeaker. In these cases, the presentation operator will distribute the sound over an appropriate number of loudspeakers in order to achieve the required sound pressure level. Adaptive Audio improves the quality and power handling of surrounding speakers for improved fidelity. It provides support for surround speaker bass management through the use of optional rear woofers, which allow each surround speaker to achieve improved power handling while potentially using smaller speaker enclosures. It also allows for side surround speakers to be added closer to the screen than current practice, in order to provide a smooth transition of objects from the screen to the surroundings.

[0090] Путем использования метаданных для указания информации местоположения звуковых объектов наряду с определенными процессами представления данных, система 400 предоставляет создателям содержимого всесторонний, гибкий способ выхода за пределы ограничений существующих систем. Как определено выше, современные системы создают и распространяют звук, который является фиксированным в местоположениях определенных громкоговорителей с ограниченными сведениями о типе содержимого, передаваемого в звуковой сущности (в той части звука, которая проигрывается). Система 100 адаптивного звука предусматривает новый, гибридный подход, который включает возможности как для звука, специфичного для местоположений громкоговорителей (левый канал, правый канал и т.д.), так и для объектно-ориентированных звуковых элементов, которые содержат обобщенную пространственную информацию, которая может в качестве неограничивающих примеров включать местоположение, размер и скорость. Такой гибридный подход обеспечивает сбалансированный подход к точности (обеспечиваемой фиксированными местоположениями громкоговорителей) и гибкости представления данных (обобщенные звуковые объекты). Система также предусматривает дополнительную полезную информацию о звуковом содержимом, которую создатель содержимого спаривает со звуковой сущностью в момент создания содержимого. Эта информация обеспечивает значительную, подробную информацию о характерных свойствах звука, которая может использоваться чрезвычайно действенными способами в ходе представления данных. Указанные характерные свойства могут включать в качестве неограничивающих примеров тип содержимого (диалог, музыка, эффект, шумовой эффект, фон/окружающая среда и т.д.), характерные свойства в пространстве (трехмерное положение, трехмерный размер, скорость) и информацию представления данных (привязку к местоположению громкоговорителя, весовые коэффициенты каналов, коэффициент усиления, информация управления басами и т.д.).[0090] By using metadata to indicate location information of audio objects along with certain data representation processes, system 400 provides content creators with a comprehensive, flexible way to go beyond the limitations of existing systems. As defined above, current systems create and distribute sound that is fixed at specific speaker locations with limited knowledge of the type of content being conveyed in the audio entity (the portion of the audio that is being played). Adaptive audio system 100 provides a new, hybrid approach that includes capabilities for both audio specific to speaker locations (left channel, right channel, etc.) and object-based audio elements that contain generalized spatial information that may include, but are not limited to, location, size, and speed. This hybrid approach provides a balance between precision (provided by fixed speaker locations) and flexibility in data representation (generalized audio objects). The system also provides additional useful information about the audio content, which the content creator pairs with the audio entity at the time the content is created. This information provides significant, detailed information about the characteristic properties of sound, which can be used in extremely powerful ways during data presentation. Said characteristic properties may include, but are not limited to, content type (dialogue, music, effect, noise effect, background/environment, etc.), characteristic properties in space (3D position, 3D size, speed), and data representation information ( reference to speaker location, channel weights, gain, bass management information, etc.).

[0091] Система адаптивного звука, описываемая в данном раскрытии, предусматривает значительную информацию, которая может использоваться для представления данных широко варьируемым количеством конечных точек. Во многих случаях, применяемая оптимальная методика представления данных в значительной степени зависит от устройства в конечной точке. Например, системы домашних кинотеатров и звуковые панели могут содержать 2, 3, 5, 7 или даже 9 отдельных громкоговорителей. Системы многих других типов, такие как телевизоры, компьютеры и музыкальные аппаратные модули содержат лишь два громкоговорителя, и почти все традиционно используемые устройства имеют бинауральный выход для наушников (ПК, ноутбук, планшетный компьютер, сотовый телефон, музыкальный проигрыватель и т.д.). Однако для традиционного звука, распространяемого в настоящее время (монофонические, стереофонические каналы, каналы 5.1, 7.1) устройства в конечных точках часто нуждаются в принятии упрощенных решений и компромиссах для представления данных и воспроизведения звука, который в настоящее время распространяется в форме, специфичной для каналов/громкоговорителей. Кроме того, имеется немного или совсем не имеется информации, передаваемой в отношении фактического содержимого, которое распространяется (диалог, музыка, окружение), а также имеется немного или совсем не имеется информации о замысле создателя содержимого для воспроизведения звука. Однако система 100 адаптивного звука предоставляет эту информацию и, потенциально, доступ к звуковым объектам, которые могут использоваться для создания захватывающего пользовательского впечатления нового поколения.[0091] The adaptive audio system described in this disclosure provides significant information that can be used to represent data to a widely varying number of endpoints. In many cases, the best data presentation technique used is highly dependent on the device at the endpoint. For example, home theater systems and sound bars can contain 2, 3, 5, 7 or even 9 individual speakers. Many other types of systems such as televisions, computers and music hardware contain only two speakers, and almost all traditionally used devices have a binaural headphone output (PC, laptop, tablet, cell phone, music player, etc.). However, for the traditional audio currently distributed (monaural, stereo, 5.1, 7.1 channels), endpoint devices often need to make simplified decisions and trade-offs to present data and reproduce audio that is currently distributed in channel-specific form /speakers. In addition, there is little or no information conveyed regarding the actual content that is being distributed (dialogue, music, ambience), and there is little or no information about the content creator's intent for the sound to be reproduced. However, the adaptive audio system 100 provides this information and potentially access to audio objects that can be used to create a next generation immersive user experience.

[0092] Система 100 позволяет создателю содержимого внедрять пространственный замысел микса в битовом потоке, используя такие метаданные, как метаданные положения, размера, скорости и т.д., через уникальные и веские метаданные и формат передачи адаптивного звука. Это позволяет намного увеличить гибкость при воспроизведении звука в пространстве. С точки зрения пространственного представления данных, адаптивный звук позволяет адаптировать микс к точному положению громкоговорителей в конкретном помещении, избегая пространственного искажения, которое возникает тогда, когда геометрия системы проигрывания не идентична системе авторской разработки. В современных системах воспроизведения звука, где передается только звук для канала громкоговорителя, замысел создателя содержимого неизвестен. Система 100 использует метаданные, передаваемые по всему конвейеру создания и распространения. Система воспроизведения, ориентированная на адаптивный звук, может использовать эту информацию метаданных для воспроизведения содержимого тем способом, который согласуется с оригинальным замыслом создателя содержимого. Более того, микс может адаптироваться к точной конфигурации аппаратного обеспечения системы воспроизведения. В настоящее время, в таком оборудовании для представления данных, как телевизоры, домашние кинотеатры, звуковые панели, переносные аппаратные модули музыкальных проигрывателей и т.д., существует множество различных возможных конфигураций и типов громкоговорителей. Когда эти системы в настоящее время передают специфичную для каналов звуковую информацию (т.е. звук левого и правого каналов или многоканальный звук), система должна обрабатывать звук так, чтобы он соответствующим образом согласовывался с возможностями оборудования для представления данных. Одним из примеров является стандартный стереофонический звук, передаваемый на звуковую панель, содержащую больше двух громкоговорителей. В современном звуковоспроизведении, где передается только звук для каналов громкоговорителей, замысел создателя содержимого неизвестен. Путем использования метаданных, передаваемых по всему процессу создания и распространения, система воспроизведения, ориентированная на адаптивный звук, может использовании эту информацию для воспроизведения содержимого тем способом, который согласуется с оригинальным замыслом создателя содержимого. Например, некоторые звуковые панели содержат боковые дополнительные громкоговорители, предназначенные для создания ощущения охвата. Для адаптивного звука, пространственная информация и тип содержимого (такой как эффекты окружающей среды) могут использоваться звуковой панелью для передачи на указанные боковые дополнительные громкоговорители только соответствующего звука.[0092] The system 100 allows the content creator to embed the spatial intent of the mix in the bitstream using metadata such as position, size, speed, etc. metadata through a unique and compelling metadata and adaptive audio transmission format. This allows for much greater flexibility when reproducing sound in a space. From a spatial perspective, adaptive audio allows you to tailor a mix to the exact position of the speakers in a given room, avoiding the spatial distortion that occurs when the geometry of the playback system is not identical to the original design. In modern audio reproduction systems, where only the audio for the speaker channel is transmitted, the intent of the content creator is unknown. System 100 uses metadata passed throughout the creation and distribution pipeline. An adaptive audio playout system may use this metadata information to play the content in a manner that is consistent with the original intent of the content creator. Moreover, the mix can adapt to the exact hardware configuration of the playback system. Currently, in presentation equipment such as televisions, home theaters, sound bars, portable music player hardware modules, etc., there are many different possible speaker configurations and types. When these systems currently transmit channel-specific audio information (ie, left and right channel audio or multi-channel audio), the system must process the audio so that it is appropriately matched to the capabilities of the data presentation equipment. One example is standard stereo audio sent to a soundbar containing more than two speakers. In modern audio reproduction, where only audio is transmitted for speaker channels, the intent of the content creator is unknown. By using metadata passed throughout the creation and distribution process, an adaptive audio playout system can use this information to play content in a way that is consistent with the original intent of the content creator. For example, some soundbars contain side-mounted additional speakers designed to create a sense of envelopment. For adaptive audio, spatial information and content type (such as environmental effects) can be used by the soundbar to send only the appropriate audio to specified side additional speakers.

[0093] Система адаптивного звука допускает неограниченную интерполяцию громкоговорителей в системе во всех передних/задних, левых/правых, верхних/нижних, ближних/дальних размерах. В современных системах звуковоспроизведения не существует информации о том, каким образом обрабатывать звук тогда, когда может быть желательно расположить звук так, чтобы он воспринимался слушателем как находящийся между двумя громкоговорителями. В настоящее время, для звука, который присваивается только определенному громкоговорителю, вводится коэффициент пространственного квантования. В случае адаптивного звука, пространственное расположение звука может быть известно точно, и оно может соответствующим образом воспроизводиться системой звуковоспроизведения.[0093] The adaptive audio system allows unlimited interpolation of speakers in the system in all front/rear, left/right, top/bottom, near/far sizes. In modern audio reproduction systems, there is no knowledge of how to process sound when it may be desirable to position the sound so that it is perceived by the listener as being between two loudspeakers. Currently, for sound that is assigned only to a specific loudspeaker, a spatial quantization factor is introduced. In the case of adaptive sound, the spatial location of the sound can be known accurately, and it can be reproduced accordingly by the sound reproduction system.

[0094] В отношении представления данных наушниками, замысел создателя реализуется путем приведения передаточных функций, относящихся к голове (HRTF), в соответствие с положением в пространстве. Когда звук воспроизводится через наушники, пространственная виртуализация может достигаться путем применения передаточной функции, относящейся к голове, которая обрабатывает звук, добавляя воспринимаемые свойства, которые создают восприятие звука, проигрываемого в трехмерном пространстве, а не через наушники. Точность пространственного воспроизведения зависит от выбора подходящей HRTF, которая может меняться на основе нескольких факторов, включающих положение в пространстве. Использование пространственной информации, предусматриваемое системой адаптивного звука, может в результате приводить к выбору одной HRTF, или постоянно изменяющегося количества HRTF для того, чтобы значительно усилить восприятие воспроизведения.[0094] With respect to the presentation of data by headphones, the creator's intention is realized by aligning head-related transfer functions (HRTFs) with position in space. When sound is played through headphones, spatial virtualization can be achieved by applying a transfer function related to the head that processes the sound by adding perceptual properties that create the perception of the sound being played in three-dimensional space rather than through headphones. The accuracy of spatial reproduction depends on the selection of an appropriate HRTF, which can vary based on several factors including spatial position. The use of spatial information provided by the adaptive audio system may result in the selection of a single HRTF, or a constantly changing number of HRTFs, in order to significantly enhance the perception of the playback.

[0095] Пространственная информация, передаваемая системой адаптивного звука, может использоваться не только создателем содержимого для создания захватывающего развлекательного впечатления (от фильма, телевизионной программы, музыки и т.д.), но также пространственная информация также может указывать, где располагается слушатель относительно таких физических объектов, как здания или представляющие интерес географические точки. Это могло бы позволить пользователю взаимодействовать с виртуализированным звуковым впечатлением, которое связано с реальным миром, т.е. с дополнительной реальностью.[0095] The spatial information conveyed by an adaptive audio system can not only be used by the content creator to create an immersive entertainment experience (movie, television program, music, etc.), but the spatial information can also indicate where the listener is located relative to such physical objects, such as buildings or geographic points of interest. This could allow the user to interact with a virtualized audio experience that is related to the real world, i.e. with additional reality.

[0096] Варианты осуществления изобретения допускают пространственное повышающее микширование путем выполнения усовершенствованного повышающего микширования посредством считывания метаданных только в том случае, если аудиоданные объектов недоступны. Сведения о положении всех объектов и их типов позволяют оператору повышающего микширования лучше различать элементы в дорожках на основе каналов. Для создания высококачественного повышающего микширования с минимальными слышимыми искажениями или с их отсутствием, существующим алгоритмам повышающего микширования приходится выводить такую информацию, как тип звукового содержимого (речь, музыка, эффекты окружающей среды), а также местоположение различных элементов в аудиопотоке. Во многих случаях указанная выведенная информация может оказаться неверной или несоответствующей. Для адаптивного звука, дополнительная информация, доступная из метаданных, относящихся, например, к типу звукового содержимого, положению в пространстве, скорости, размеру звукового объекта и т.д., может использоваться алгоритмом повышающего микширования для создания высококачественного результата воспроизведения. Система также пространственно соотносит звук и видеоизображение, точно располагая звуковой объект на экране по отношению к видимым элементам. В этом случае, возможно захватывающее впечатление от воспроизведения звука/видеоизображения, в особенности, на экранах большого размера, если воспроизводимое местоположение некоторых звуковых элементов в пространстве соответствует элементам изображения на экране. Одним из примеров является диалог в фильме или телевизионной программе, пространственно совпадающий с человеком или героем, который говорит на экране. Для обычного звука на основе каналов громкоговорителей не существует простого способа определения того, где в пространстве должен располагаться диалог для того, чтобы он совпадал с местоположением человека или героя на экране. Для звуковой информации, доступной через адаптивный звук, такое аудиовизуальное выравнивание может достигаться. Визуальное позиционное и пространственное звуковое выравнивание также может использоваться для таких неролевых/недиалоговых объектов, как автомобили, грузовики, анимация и т.д.[0096] Embodiments of the invention enable spatial upmixing by performing advanced upmixing by reading metadata only when audio data of objects is not available. Knowing the position of all objects and their types allows the upmixer to better distinguish elements in tracks on a channel-based basis. To create a high-quality upmix with little or no audible distortion, existing upmix algorithms have to infer information such as the type of audio content (speech, music, environmental effects) as well as the location of various elements in the audio stream. In many cases, the information provided may be incorrect or inappropriate. For adaptive audio, additional information available from metadata related to, for example, audio content type, spatial position, speed, audio object size, etc., can be used by the upmixing algorithm to create a high-quality reproduction result. The system also spatially correlates audio and video by precisely positioning the audio object on the screen in relation to visible elements. In this case, an immersive audio/video playback experience is possible, especially on large screens, if the reproduced location of some audio elements in space corresponds to the image elements on the screen. One example is dialogue in a film or television program that spatially coincides with the person or character speaking on screen. For regular audio, based on speaker channels, there is no easy way to determine where in space dialogue should be located to match the location of the person or character on screen. For audio information available through adaptive audio, such audiovisual alignment can be achieved. Visual positional and spatial audio alignment can also be used for non-role/non-dialogue objects such as cars, trucks, animations, etc.

[0097] Система 100 способствует обработке пространственной маскировки, поскольку сведения о пространственном замысле микширования, доступные через метаданные адаптивного звука, означают, что микс может быть адаптирован к любой конфигурации громкоговорителей. Однако, возникает риск понижающего микширования объектов в таком же или почти таком же местоположении по причине ограничений проигрывающей системы. Например, объект, который, как подразумевается, подлежит панорамированию в левый задний канал, может подвергаться понижающему микшированию в левый передний канал, если окружающие каналы отсутствуют, однако если, в то же время, в левом переднем канале возникает более громкий элемент, подвергнутый понижающему микшированию объект будет маскироваться и исчезать из микса. С использованием метаданных адаптивного звука пространственная маскировка может предугадываться оператором представления данных, и параметры понижающего микширования в пространстве и/или по громкости для каждого объекта могут корректироваться так, чтобы все звуковые элементы микса оставались воспринимаемыми точно так же, как и в оригинальном миксе. Так как оператор представления данных понимает пространственную взаимосвязь между миксом и системой проигрывания, он имеет возможность «привязывать» объекты к ближайшим громкоговорителям вместо создания паразитного изображения между двумя или большим количеством громкоговорителей. Несмотря на то, что может несколько искажаться пространственное представление микса, это также позволяет оператору представления данных избегать непреднамеренного паразитного изображения. Например, если угловое положение левого громкоговорителя на этапе микширования не соответствует угловому положению левого громкоговорителя в воспроизводящей системе, использование функции привязки к ближайшему громкоговорителю может позволить избежать воспроизведения проигрывающей системой постоянного паразитного изображения левого канала этапа микширования.[0097] The system 100 facilitates spatial masking processing because the spatial intent of the mix, available through adaptive audio metadata, means that the mix can be tailored to any speaker configuration. However, there is a risk of downmixing objects in the same or nearly the same location due to limitations of the playing system. For example, an object that is intended to be panned into the left rear channel may be downmixed into the left front channel if there are no surrounding channels, but if, at the same time, a louder element appears in the left front channel and is downmixed the object will be masked and disappear from the mix. Using adaptive audio metadata, spatial masking can be predicted by the presentation operator, and the spatial and/or loudness downmix parameters for each object can be adjusted so that all audio elements of the mix remain perceptually identical to those in the original mix. Because the view operator understands the spatial relationship between the mix and the playback system, it is able to “lock” objects to nearby speakers instead of creating a ghost image between two or more speakers. Although the spatial representation of the mix may be somewhat distorted, it also allows the presentation operator to avoid unintentional ghosting. For example, if the angular position of the left speaker at the mixing stage does not correspond to the angular position of the left speaker in the playback system, using the snap to the nearest speaker function can avoid the playing system from playing a constant ghost image of the left channel of the mixing stage.

[0098] В отношении обработки содержимого, система 100 адаптивного звука позволяет создателю содержимого создавать отдельные звуковые объекты и добавлять информацию о содержимом, которая может передаваться в воспроизводящую систему. Это допускает большую гибкость при обработке звука перед воспроизведением. С точки зрения обработки содержимого и представления данных, система адаптивного звука позволяет адаптировать обработку к типу объекта. Например, диалоговое усиление может применяться только к диалоговым объектам. Диалоговое усиление относится к способу обработки звука, который содержит диалог, таким образом, чтобы слышимость и/или разборчивость диалога повышалась и/или улучшалась. Во многих случаях, обработка звука, которая применяется к диалогу, является неподходящей для недиалогового звукового содержимого (т.е. музыки, эффектов окружающей среды и т.д.) и в результате может приводить к нежелательным слышимым искажениям. Для адаптивного звука, звуковой объект может содержать только диалог в одном из фрагментов содержимого, и он может соответствующим образом помечаться так, чтобы решение представления данных могло избирательно применять диалоговое усиление только к диалоговому содержимому. Кроме того, если звуковой объект представляет собой только диалог (а не, как часто бывает, смесь диалога и другого содержимого), то обработка диалогового усиления может обрабатывать исключительно диалог (таким образом, ограничивая любую обработку, выполняемую на любом другом содержимом). Аналогично, управление басами (фильтрация, ослабление, усиление) может быть нацелено на определенные объекты на основе их типа. Управление басами относится к избирательному выделению и обработке только басовых (или еще более низких) частот в определенном фрагменте содержимого. В современных звуковых системах и механизмах доставки, этот процесс является «слепым», т.е. применяется ко всему звуку. Для адаптивного звука, определенные звуковые объекты, для которых управление басами является подходящим, могут идентифицироваться по метаданным, и обработка представления данных может применяться соответственно.[0098] In terms of content processing, adaptive audio system 100 allows a content creator to create individual audio objects and add content information that can be communicated to the playback system. This allows for greater flexibility in how audio is processed before playback. In terms of content processing and data presentation, the adaptive audio system allows processing to be tailored to the type of object. For example, dialog enhancement can only be applied to dialog objects. Dialogue enhancement refers to a method of processing audio that contains dialogue so that the audibility and/or intelligibility of the dialogue is increased and/or improved. In many cases, the audio processing that is applied to dialogue is inappropriate for non-dialogue audio content (ie, music, environmental effects, etc.) and may result in unwanted audible distortion. For adaptive audio, the audio object may contain only dialogue in one of the content fragments, and it may be marked accordingly so that the data representation solution can selectively apply dialogue enhancement to only the dialogue content. Additionally, if the audio object is only dialogue (and not, as is often the case, a mixture of dialogue and other content), then dialogue gain processing can handle dialogue exclusively (thus limiting any processing performed on any other content). Likewise, bass management (filtering, attenuation, boosting) can be targeted to specific objects based on their type. Bass management refers to selectively highlighting and processing only the bass (or even lower) frequencies in a specific piece of content. In modern sound systems and delivery mechanisms, this process is “blind”, i.e. applies to the entire sound. For adaptive audio, specific audio objects for which bass management is appropriate can be identified by the metadata, and data representation processing can be applied accordingly.

[0099] Система 100 адаптивного звука также предусматривает сжатие динамического диапазона и избирательное повышающее микширование на основе объектов. Традиционные звуковые дорожки имеют такую же длительность, как и само содержимое, в то время как звуковой объект может появляться в содержимом лишь в течение ограниченного количества времени. Метаданные, связанные с объектом, могут содержать информацию о его средней и пиковой амплитуде сигнала, а также о времени его появления, или времени нарастания (в особенности, для кратковременного материала). Эта информация могла бы позволять устройству сжатия лучше адаптировать его постоянные сжатия и времени (нарастания, высвобождения и т.д.) для лучшего соответствия содержимому. Для избирательного повышающего микширования создатели содержимого могут выбрать указание в битовом потоке адаптивного звука того, следует подвергать объект повышающему микшированию или нет. Эта информация позволяет оператору представления данных адаптивного звука и оператору повышающего микширования различать, какие звуковые элементы могут безопасно подвергаться повышающему микшированию, в то же время, не нарушая замысел создателя.[0099] Adaptive audio system 100 also provides dynamic range compression and object-based selective upmixing. Traditional audio tracks are as long as the content itself, whereas an audio object can only appear within the content for a limited amount of time. Metadata associated with an object may contain information about its average and peak signal amplitude, as well as its onset or rise time (especially for short-lived material). This information could allow the compression device to better adapt its compression and timing constants (rise, release, etc.) to better suit the content. For selective upmixing, content creators can choose to indicate in the adaptive audio bitstream whether the object should be upmixed or not. This information allows the adaptive audio data operator and the upmix operator to discern which audio elements can be safely upmixed while not interfering with the creator's intent.

[00100] Варианты осуществления изобретения также позволяют системе адаптивного звука выбирать предпочтительный алгоритм представления данных из некоторого количества доступных алгоритмов представления данных и/или форматов окружающего звука. Примеры доступных алгоритмов представления данных включают: бинауральный, стереодипольный, амбиофонический, синтез волнового поля (WFS), многоканальное панорамирование, необработанные стэмы с метаданными положения. Другие алгоритмы включают двойной баланс и амплитудное панорамирование на векторной основе.[00100] Embodiments of the invention also allow the adaptive audio system to select a preferred presentation algorithm from a number of available presentation algorithms and/or surround sound formats. Examples of available data representation algorithms include: binaural, stereo dipole, ambiophonic, wavefield synthesis (WFS), multi-channel panning, raw stems with position metadata. Other algorithms include dual balance and vector-based amplitude panning.

[00101] Бинауральный формат распространения использует двухканальное представление звукового поля на основе сигнала, присутствующего в левом и правом ушах. Бинауральная информация может создаваться посредством внутриканальной записи или синтезироваться с использованием моделей HRTF. Проигрывание бинаурального представления, как правило, осуществляется через наушники или путем использования подавления перекрестных помех. Проигрывание через произвольную схему громкоговорителей потребовало бы анализа сигнала для определения связанного звукового поля и/или источника (источников) сигнала.[00101] The binaural distribution format uses a two-channel representation of the sound field based on the signal present in the left and right ears. Binaural information can be created through in-channel recording or synthesized using HRTF models. Playing a binaural presentation is typically done through headphones or by using crosstalk suppression. Playback through an arbitrary speaker circuit would require signal analysis to determine the associated sound field and/or signal source(s).

[00102] Стереодипольный способ представления данных представляет собой трансауральный процесс подавления перекрестных помех с тем, чтобы сделать бинауральные сигналы пригодными для проигрывания через стереофонические громкоговорители (например, на + и - 10 градусов от центра).[00102] Stereo dipole presentation is a transaural crosstalk reduction process to make binaural signals suitable for playback through stereo speakers (eg, + and - 10 degrees from center).

[00103] Амбиофония представляет собой формат распространения и способ воспроизведения, который кодируется в четырехканальной форме, называемой форматом В. Первый канал, W - это сигнал ненаправленного давления; второй канал, Х - это градиент направленного давления, содержащий переднюю и заднюю информацию; третий канал, Y, содержит лево и право, и Z - верх и низ. Эти каналы определяют дискретное значение первого порядка для полного звукового поля в данной точке. Амбиофония использует все доступные громкоговорители для воссоздания дискретизированного (или синтезированного) звукового поля в пределах массива громкоговорителей так, чтобы когда некоторые из громкоговорителей толкают, другие - тащили.[00103] Ambiophony is a distribution format and reproduction method that is encoded in a four-channel form called the B format. The first channel, W, is an omnidirectional pressure signal; the second channel, X, is a directional pressure gradient containing anterior and posterior information; the third channel, Y, contains left and right, and Z contains top and bottom. These channels define a first-order discrete value for the full sound field at a given point. Ambiophony uses all available loudspeakers to recreate a sampled (or synthesized) sound field within an array of loudspeakers so that when some of the loudspeakers push, others drag.

[00104] Синтез волнового поля представляет собой способ представления данных для звуковоспроизведения на основе точного построения волнового поля вторичными источниками. WFS основывается на принципе Гюйгенса и реализуется как массивы громкоговорителей (десятки или сотни), которые окружают кольцом пространство прослушивания и скоординированным, сфазированным образом действуют для воссоздания каждой отдельной звуковой волны.[00104] Wavefield synthesis is a method of representing data for audio reproduction based on the precise construction of the wavefield by secondary sources. WFS is based on Huygens' principle and is implemented as arrays of loudspeakers (tens or hundreds) that surround the listening space in a ring and act in a coordinated, phased manner to recreate each individual sound wave.

[00105] Многоканальное панорамирование представляет собой формат распространения и/или способ представления данных и может именоваться звуком на основе каналов. В этом случае, звук отображается как некоторое количество дискретных источников для проигрывания через равное количество громкоговорителей, расположенных под определенными углами относительно слушателя. Создатель содержимого/оператор микширования может создавать виртуальные изображения путем панорамирования сигналов между смежными каналами с целью создания восприятия направления; для создания восприятия направления и свойств окружающей среды, в несколько каналов могут микшироваться первичные отражения, реверберация и т.д.[00105] Multi-channel panning is a distribution format and/or method of presenting data and may be referred to as channel-based audio. In this case, the sound is displayed as a number of discrete sources for playback through an equal number of speakers located at certain angles relative to the listener. The content creator/mixer can create virtual images by panning signals between adjacent channels to create a sense of direction; to create a perception of the direction and properties of the environment, primary reflections, reverberation, etc. can be mixed into several channels.

[00106] Необработанные стэмы с метаданными положения представляет собой формат распространения, который также может именоваться звуком на основе объектов. В этом формате, отчетливые источники звука «с близкого микрофона» представляются наряду с метаданными положения и среды. Данные виртуальных источников представляются на основе метаданных, проигрывающего оборудования и среды прослушивания.[00106] Raw stems with position metadata is a distribution format that can also be referred to as object-based audio. In this format, distinct close-mic audio sources are presented along with position and environment metadata. Virtual source data is represented based on metadata, playing equipment, and listening environment.

[00107] Формат адаптивного звука представляет собой гидрид формата многоканального панорамирования и формата необработанных стэмов. Способом представления данных в настоящем варианте осуществления изобретения является многоканальное панорамирование. Для звуковых каналов, представление данных (панорамирование) происходит в момент авторской разработки, в то время как для объектов представление данных (панорамирование) происходит при проигрывании.[00107] The adaptive audio format is a hydride of the multi-channel panning format and the raw stem format. The data presentation method in the present embodiment of the invention is multi-channel panning. For audio channels, data presentation (panning) occurs at the time of authoring, while for objects, data presentation (panning) occurs at playback.

Метаданные и формат передачи адаптивного звукаMetadata and Adaptive Audio Transmission Format

[00108] Как изложено выше, метаданные генерируются на этапе создания с целью кодирования определенной информации положения для звуковых объектов и для сопровождения звуковой программы с целью содействия при представлении данных звуковой программы и, в частности, для описания звуковой программы способом, который позволяет представлять данные звуковой программы для широкого выбора проигрывающего оборудования и сред проигрывания. Метаданные генерируются для данной программы и редакторов и операторов микширования, которые создают, собирают, редактируют и обрабатывают звук в ходе компоновки. Важным характерным признаком формата адаптивного звука является возможность контроля над тем, каким образом звук будет транслироваться в системы и среды воспроизведения, которые отличаются от среды микширования. В частности, данный кинотеатр может обладать меньшими возможностями, чем среда микширования. [00108] As set forth above, metadata is generated at the creation stage for the purpose of encoding certain position information for audio objects and to accompany an audio program to assist in the presentation of audio program data and, in particular, to describe an audio program in a manner that allows audio program data to be represented. programs for a wide selection of playing equipment and playback environments. Metadata is generated for a given program and the editors and mixing operators who create, assemble, edit, and process audio during composition. An important characteristic of the adaptive audio format is the ability to control how audio will be translated into systems and playback environments that differ from the mixing environment. In particular, a given theater may have fewer capabilities than a mixing environment.

[00109] Оператор представления данных адаптивного звука нацелен на наилучшее использование доступного оборудования для воссоздания замысла оператора микширования. Кроме того, инструментальные средства авторской разработки адаптивного звука позволяют оператору микширования предварительно просматривать и корректировать то, каким образом данные микса будут представляться в различных конфигурациях проигрывания. Все значения метаданных могут обусловливаться средой проигрывания и конфигурацией громкоговорителей. Например, на основе конфигурации или режима проигрывания для данного звукового элемента может указываться другой уровень микширования. В одном из вариантов осуществления изобретения список обусловленных режимов проигрывания является расширяемым и включает следующие режимы: (1) проигрывание только на основе каналов: 5.1, 7.1, 7.1 (с верхними), 9.1; и (2) проигрывание дискретными громкоговорителями: трехмерное, двумерное (без верхних).[00109] The adaptive audio data representation operator aims to make the best use of available hardware to recreate the intent of the mixing operator. Additionally, adaptive audio authoring tools allow the mix operator to preview and adjust how mix data will be presented in different playback configurations. All metadata values may vary depending on the playback environment and speaker configuration. For example, based on the configuration or playback mode, a different mixing level may be specified for a given audio element. In one embodiment of the invention, the list of conditional playback modes is expandable and includes the following modes: (1) playback based on channels only: 5.1, 7.1, 7.1 (upper), 9.1; and (2) discrete speaker playback: 3D, 2D (no overhead).

[00110] В одном из вариантов осуществления изобретения, метаданные контролируют, или диктуют, различные особенности адаптивного звукового содержимого и являются организованными на основе различных типов, в том числе: программные метаданные, метаданные звука и метаданные представления данных (для каналов и объектов). Каждый тип метаданных включает один или несколько элементов метаданных, которые предусматривают значения для характеристик, на которые ссылается идентификатор (ID). ФИГ. 5 представляет собой таблицу, которая перечисляет типы метаданных и связанные элементы метаданных для системы адаптивного звука, согласно одному из вариантов осуществления изобретения.[00110] In one embodiment, the metadata controls, or dictates, various features of the adaptive audio content and is organized based on various types, including: program metadata, audio metadata, and data presentation metadata (for channels and objects). Each metadata type includes one or more metadata elements that provide values for the characteristics referenced by the identifier (ID). FIG. 5 is a table that lists metadata types and associated metadata elements for an adaptive audio system, according to one embodiment of the invention.

[00111] Как показано в таблице 500 по ФИГ. 5, метаданные первого типа представляют собой программные метаданные, которые включают элементы метаданных, определяющие частоту кадров, счет дорожек, расширяемое описание каналов и описание этапа микширования. Элемент метаданных «частота кадров» описывает частоту кадров звукового содержимого в единицах кадров в секунду (fps). Формат необработанного звука не требует включения кадрирования звука или метаданных, поскольку звук доставляется в виде полных дорожек (длительность катушки или всего кинофильма), а не сегментов звука (длительность объекта). Необработанный формат не требует переноса всей информации, необходимой для разблокирования адаптивного аудиокодера с целью кадрирования аудиоданных и метаданных, включая фактическую частоту кадров. Таблица 1 показывает ID, примеры значений и описание элемента метаданных «частота кадров».[00111] As shown in table 500 of FIG. 5, the first type of metadata is software metadata that includes metadata elements defining frame rate, track count, extensible channel description, and mixing step description. The frame rate metadata element describes the frame rate of audio content in units of frames per second (fps). The raw audio format does not require the inclusion of audio framing or metadata because the audio is delivered as complete tracks (the duration of a reel or entire movie) rather than segments of audio (the duration of an object). The raw format does not require carrying all the information needed to unlock the adaptive audio encoder to frame the audio data and metadata, including the actual frame rate. Table 1 shows the ID, example values, and description of the frame rate metadata element.

ТАБЛИЦА 1TABLE 1

[00112] Элемент метаданных «счет дорожек» указывает количество звуковых дорожек в кадре. Один из примеров декодера/устройства обработки данных адаптивного звука может одновременно поддерживать до 128 звуковых дорожек, в то время как формат адаптивного звука будет поддерживать любое количество звуковых дорожек. Таблица 2 показывает ID, примеры значений и описание элемента метаданных «счет дорожек». [00112] The track count metadata element indicates the number of audio tracks in a frame. One example of an adaptive audio decoder/processor can support up to 128 audio tracks simultaneously, while an adaptive audio format will support any number of audio tracks. Table 2 shows the ID, example values, and description of the track count metadata element.

ТАБЛИЦА 2TABLE 2

[00113] Звук на основе каналов может приписываться нестандартным каналам, и элемент метаданных «описание расширяемых каналов» позволяет миксам использовать новые положения каналов. Для каждого канала расширения должны создаваться следующие метаданные, показанные в Таблице 3.[00113] Channel-based audio can be assigned to non-standard channels, and the "expandable channel description" metadata element allows mixes to use new channel positions. The following metadata, shown in Table 3, must be generated for each extension channel.

ТАБЛИЦА 3TABLE 3

[00114] Элемент метаданных «описание этапа микширования» определяет частоту, на которой определенный громкоговоритель генерирует половину мощности полосы пропускания. Таблица 4 показывает ID, примеры значений и описание элемента метаданных «описание этапа микширования», где LF — нижняя частота, HF — верхняя частота, точка 3 дБ - край полосы пропускания громкоговорителя. [00114] The "mixing stage description" metadata element specifies the frequency at which a particular loudspeaker generates half of the bandwidth power. Table 4 shows the ID, example values, and description of the Mix Stage Description metadata element, where LF is the low frequency, HF is the high frequency, and the 3 dB point is the edge of the loudspeaker passband.

ТАБЛИЦА 4TABLE 4

[00115] Как показано на ФИГ. 5, вторым типом метаданных являются метаданные звука. Каждый звуковой элемент на основе каналов или на основе объектов состоит из звуковой сущности и метаданных. Звуковая сущность представляет собой монофонический аудиопоток, переносимый одной или несколькими звуковыми дорожками. Связанные метаданные описывают то, каким образом сохраняется в памяти звуковая сущность (метаданные звука, например, частота дискретизации), или то, каким образом должны представляться ее данные (метаданные представления данных, например, требуемое положение источника звука). В общем, звуковые дорожки являются непрерывными по всей длительности звуковой программы. Редактор программы, или оператор микширования, отвечает за приписывание звуковых элементов дорожкам. Ожидается, что использование дорожек будет разреженным, т.е. среднее количество одновременно используемых дорожек может составлять лишь 16-32. В типичной реализации, звук будет эффективно передаваться с использованием кодера без потерь. Однако возможны альтернативные реализации, например, передача некодированных аудиоданных или аудиоданных, кодированных с потерями. В типичной реализации, формат состоит из звуковых дорожек количеством до 128, где каждая дорожка имеет единственную частоту дискретизации и единую систему кодирования. Каждая дорожка длится в течение длительности фильма (поддержка катушки в явном виде отсутствует). Присваивание объектов дорожкам (уплотнение во времени) входит в обязанности создателя содержимого (оператора микширования).[00115] As shown in FIG. 5, the second type of metadata is audio metadata. Each channel-based or object-based audio element consists of an audio entity and metadata. An audio entity is a monophonic audio stream carried by one or more audio tracks. Associated metadata describes how the audio entity is stored in memory (audio metadata, such as sample rate), or how its data is to be represented (data representation metadata, such as the desired position of the audio source). In general, the audio tracks are continuous throughout the duration of the audio program. The program editor, or mixing operator, is responsible for assigning audio elements to tracks. Track usage is expected to be sparse, i.e. the average number of simultaneously used tracks can be only 16-32. In a typical implementation, audio will be transmitted efficiently using a lossless encoder. However, alternative implementations are possible, such as transmission of unencoded audio data or lossy encoded audio data. In a typical implementation, the format consists of up to 128 audio tracks, where each track has a single sampling rate and a single encoding system. Each track lasts for the duration of the movie (there is no explicit reel support). Assigning objects to tracks (time compression) is the responsibility of the content creator (mixing operator).

[00116] Как показано на ФИГ. 3, метаданные звука включают элементы «частота дискретизации», «битовая глубина» и «системы кодирования». Таблица 5 показывает ID, примеры значений и описание элемента метаданных «частота дискретизации».[00116] As shown in FIG. 3, audio metadata includes the elements "sampling rate", "bit depth" and "encoding systems". Table 5 shows the ID, example values, and description of the sample rate metadata element.

ТАБЛИЦА 5TABLE 5

[00117] Таблица 6 показывает ID, примеры значений и описание элемента метаданных «битовая глубина» (для РСМ и сжатия без потерь).[00117] Table 6 shows the ID, example values, and description of the bit depth metadata element (for PCM and lossless compression).

ТАБЛИЦА 6TABLE 6

[00118] Таблица 7 показывает ID, примеры значений и описание элемента метаданных «система кодирования». [00118] Table 7 shows the ID, example values, and description of the encoding system metadata element.

ТАБЛИЦА 7TABLE 7

[00119] Как показано на ФИГ. 5, метаданные третьего типа представляют собой метаданные представления данных. Метаданные представления данных указывают значения, которые помогают оператору представления данных устанавливать соответствие максимально близко к замыслу оператора оригинального микширования независимо от среды проигрывания. Набор элементов метаданных для звука на основе каналов и звука на основе объектов отличается. Первое поле метаданных представления данных делает выбор между двумя типами звука - звуком на основе каналов и звуком на основе объектов, как показано в Таблице 8.[00119] As shown in FIG. 5, the third type of metadata is data representation metadata. Data representation metadata specifies values that help the data representation operator match as closely as possible to the original mixing operator's intent, regardless of the playback environment. The set of metadata elements for channel-based audio and object-based audio is different. The first metadata field of the data view makes a choice between two types of audio - channel-based audio and object-based audio, as shown in Table 8.

ТАБЛИЦА 8TABLE 8

[00120] Метаданные представления данных для звука на основе каналов содержат элемент метаданных «положение», который указывает положение источника звука как одно или несколько положений громкоговорителей. Таблица 9 показывает ID и значения элемента метаданных «положение» для случая на основе каналов.[00120] Data representation metadata for channel-based audio includes a position metadata element that indicates the position of the audio source as one or more speaker positions. Table 9 shows the ID and values of the position metadata element for the channel-based case.

ТАБЛИЦА 9TABLE 9

[00121] Метаданные представления данных для звука на основе каналов также содержат элемент «управление представлением данных», который указывает некоторые характеристики в отношении проигрывания звука на основе каналов, как показано в Таблице 10.[00121] The data presentation metadata for channel-based audio also includes a "data presentation control" element that specifies certain characteristics regarding playback of channel-based audio, as shown in Table 10.

ТАБЛИЦА 10TABLE 10

[00122] Для звука на основе объектов, метаданные включают элементы, аналогичные элементам для звука на основе каналов. Таблица 11 представляет ID и значения для элемента метаданных «положение объекта». Положение объекта описывается одним из трех способов: трехмерными координатами; плоскостью и двумерными координатами; или линией и одномерной координатой. Способ представления данных может адаптироваться на основе типа информации положения.[00122] For object-based audio, the metadata includes elements similar to those for channel-based audio. Table 11 presents the IDs and values for the object position metadata element. The position of an object is described in one of three ways: three-dimensional coordinates; plane and two-dimensional coordinates; or a line and a one-dimensional coordinate. The data presentation method may be adapted based on the type of position information.

ТАБЛИЦА 11TABLE 11

[00123] ID и значения элементов метаданных «управление представлением метаданных объектов» показаны в Таблице 12. Эти величины обеспечивают дополнительные элементы управления, или оптимизации, представления данных для звука на основе объектов. [00123] The IDs and values of the Object Metadata Presentation Control metadata elements are shown in Table 12. These values provide additional controls, or optimizations, for object-based audio data presentation.

ТАБЛИЦА 12TABLE 12

[00124] В одном из вариантов осуществления изобретения метаданные, описанные выше и проиллюстрированные на ФИГ. 5, генерируются и сохраняются как один или несколько файлов, которые связываются, или индексируются, с соответствующим звуковым содержимым, так чтобы аудиопотоки обрабатывались системой адаптивного звука, интерпретирующей метаданные, генерируемые оператором микширования. Следует отметить, что вышеописанные метаданные представляют собой один из примеров набора идентификаторов ID, значений и определений, и для использования в системе адаптивного звука в них могут включаться другие, или дополнительные, элементы метаданных.[00124] In one embodiment of the invention, the metadata described above and illustrated in FIG. 5 are generated and stored as one or more files that are associated, or indexed, with the corresponding audio content so that the audio streams are processed by an adaptive audio system interpreting the metadata generated by the mixing operator. It should be noted that the metadata described above is one example of a set of IDs, values and definitions, and may include other or additional metadata elements for use in an adaptive audio system.

[00125] В одном из вариантов осуществления изобретения, с каждым из аудиопотоков на основе каналов и на основе объектов связывается два (или больше) наборов элементов метаданных. Первый набор метаданных применяется к ряду аудиопотоков для первых условий среды проигрывания, и второй набор метаданных применяется к ряду аудиопотоков для вторых условий среды проигрывания. Второй, или последующий, набор элементов метаданных замещает первый набор элементов метаданных для данного аудиопотока на основе условий среды проигрывания. Условия могут включать такие факторы, как размер помещения, форму, состав материала внутри помещения, текущую заполненность и плотность людей в помещении, характеристики окружающего шума, характеристики окружающего света и какие-либо иные факторы, которые могут оказывать влияние на звук или даже на настроение в среде проигрывания.[00125] In one embodiment of the invention, two (or more) sets of metadata elements are associated with each of the channel-based and object-based audio streams. A first set of metadata is applied to a number of audio streams for the first playing environment conditions, and a second set of metadata is applied to a number of audio streams for the second playing environment conditions. The second, or subsequent, set of metadata elements replaces the first set of metadata elements for a given audio stream based on the conditions of the playing environment. Conditions may include factors such as room size, shape, composition of materials within the room, current occupancy and density of people in the room, ambient noise characteristics, ambient light characteristics, and any other factors that may affect the sound or even the mood of the room. playback environment.

Компоновка и окончательная обработкаLayout and finishing

[00126] Ступень 110 представления данных системы 100 обработки адаптивного звука может включать этапы компоновки аудиозаписи, которые приводят к созданию конечного микса. В одном из кинематографических применений, тремя основными категориями звука, используемого при микшировании звукозаписи для кинофильма, являются диалог, музыка и эффекты. Эффекты состоят из звуков, которые не являются диалогом или музыкой (например, окружающий шум, фоновый/постановочный шум). Звуковые эффекты могут записываться, или синтезироваться, звукорежиссером, или они могут браться из библиотек эффектов. Одна из подгрупп эффектов, которые включают специальные источники шума (например, звуки шагов, дверей и т.д.), известна как шумовые эффекты и осуществляется звукооформителями. Звуки разных типов соответствующим образом помечаются и панорамируются звукорежиссерами.[00126] The data presentation stage 110 of the adaptive audio processing system 100 may include audio composition steps that result in the creation of the final mix. In one cinematic application, the three main categories of sound used in mixing a motion picture sound recording are dialogue, music, and effects. Effects consist of sounds that are not dialogue or music (eg, ambient noise, background/production noise). Sound effects can be recorded, or synthesized, by a sound engineer, or they can be taken from effect libraries. One subset of effects that involve special sources of noise (such as footsteps, doors, etc.) is known as noise effects and is performed by sound designers. Different types of sounds are labeled and panned accordingly by the sound engineers.

[00127] ФИГ. 6 иллюстрирует пример последовательности операций процесса компоновки в системе адаптивного звука согласно одному из вариантов осуществления изобретения. Как показано на схеме 600, все отдельные звуковые составляющие музыки, диалога, шумовых эффектов и эффектов сводятся вместе в дублирующем кинотеатре в ходе окончательного микширования 606, и средство (средства) 604 микширования при перезаписи используют предварительные миксы (также известные как «микшированный минус») наряду с отдельными звуковыми объектами и позиционными данными для создания стэмов в качестве способа группировки, например, диалога, музыки, эффектов, шумовых эффектов и фоновых звуков. В дополнение к формированию конечного микса 606, музыка и все стэмы эффектов могут использоваться в качестве основы для создания версий фильма, дублированных на других языках. Каждый стэм состоит из тракта на основе каналов и из нескольких звуковых объектов с метаданными. Для формирования конечного микса, стэмы объединяют. Используя информацию панорамирования объектов как из звуковой рабочей станции, так и из микшерного пульта, блок 608 представления данных и окончательной обработки представляет данные звука в местоположения громкоговорителей в дублирующем кинотеатре. Это представление данных позволяет операторам микширования слышать, как сочетаются тракты на основе каналов и звуковые объекты, а также дает возможность представить данные в разных конфигурациях. Оператор микширования может использовать условные метаданные, которые для значимых профилей являются данными по умолчанию, с целью контроля над тем, каким образом данные содержимого представляются в окружающие каналы. Таким образом, операторы микширования полностью сохраняют контроль над тем, как проигрывается кинофильм во всех масштабируемых средах. После каждого из этапов 604 перезаписи и этапа 606 окончательного микширования, или после обоих этих этапов, может включаться этап текущего контроля, позволяющий оператору микширования прослушать и оценить промежуточное содержимое, генерируемое в ходе каждого из этих этапов.[00127] FIG. 6 illustrates an example flow of a layout process in an adaptive audio system according to one embodiment of the invention. As shown in diagram 600, all of the individual audio components of the music, dialogue, sound effects, and effects are mixed together in the dub theater during the final mix 606, and the re-recording mixer(s) 604 use the premixes (also known as the "minus mix"). along with individual audio objects and positional data to create stems as a way to group, for example, dialogue, music, effects, noise effects and background sounds. In addition to shaping the final 606 mix, the music and all effects stems can be used as the basis for creating versions of the film dubbed in other languages. Each stem consists of a channel-based path and several audio objects with metadata. To form the final mix, stems are combined. Using object panning information from both the audio workstation and the mixing console, presentation and post processing unit 608 presents audio data to speaker locations in the duplicating theater. This view of the data allows mixing operators to hear how channel-based paths and audio objects fit together, and also provides the ability to present the data in different configurations. The mixing operator can use conditional metadata, which is the default data for meaningful profiles, to control how content data is presented to surrounding channels. This way, mixing operators retain full control over how the movie is played across all scaled environments. After each of the re-recording steps 604 and the final mixing step 606, or after both of these steps, a monitoring step may be included to allow the mix operator to listen to and evaluate the intermediate content generated during each of these steps.

[00128] В ходе сессии окончательной обработки указанны стэмы, объекты и метаданные сводятся вместе в пакете 614 адаптивного звука, который изготавливается оператором 610 контрольной копии. Этот пакет также содержит обратно-совместимый (с унаследованными 5.1 или 7.1) микс 612 окружающего звука для кинотеатров. Модуль 608 представления данных/окончательной обработки (RMU) может в случае необходимости представлять данные этого выходного сигнала, таким образом, исключая необходимость в каких-либо дополнительных этапах последовательности операций при генерировании существующих выдаваемых данных на основе каналов. В одном из вариантов осуществления изобретения, звуковые файлы упаковываются с использованием заключения в стандартную оболочку материального коммуникативного формата (MXF). Главный файл адаптивного звукового микса также может использоваться для генерирования других выдаваемых данных, таких как пользовательские многоканальные или стереофонические миксы. Разумные профили и условные метаданные допускают управляемые представления данных, которые могут значительно сокращать время, необходимое для создания таких миксов.[00128] During the final processing session, the specified stems, objects and metadata are brought together in an adaptive audio package 614, which is produced by the master copy operator 610. This package also contains a backwards-compatible (legacy 5.1 or 7.1) 612 surround sound mix for cinemas. The presentation/post-processing unit (RMU) 608 can optionally present this output signal data, thereby eliminating the need for any additional flow steps in generating existing channel-based output data. In one embodiment of the invention, audio files are packaged using standard Material Communications Format (MXF) encapsulation. The adaptive audio mix master file can also be used to generate other outputs, such as custom multi-channel or stereo mixes. Intelligent profiles and conditional metadata enable controlled views of data that can significantly reduce the time required to create such mixes.

[00129] В одном из вариантов осуществления изобретения, система упаковки может использоваться для создания пакета цифровой фильмокопии для выдаваемых данных, включающих адаптивный звуковой микс. Файлы звуковых дорожек могут сцепляться вместе, препятствуя ошибкам синхронизации с файлами дорожек адаптивного звука. Некоторые страны требуют добавления файлов дорожек в ходе этапа упаковки, например, добавления дорожек для лиц с ограниченным слухом (HI) или дорожек описания для лиц с ограниченным зрением (VI-N) к главному файлу звуковых дорожек.[00129] In one embodiment of the invention, a packaging system may be used to create a digital film package for output data including an adaptive audio mix. Audio track files may become chained together, causing synchronization errors with adaptive audio track files. Some countries require that track files be added during the packaging phase, such as adding Hearing Impaired (HI) tracks or Visually Impaired Description (VI-N) tracks to the main audio track file.

[00130] В одном из вариантов осуществления изобретения, массив громкоговорителей в среде проигрывания может включать любое количество громкоговорителей окружающего звука, размещенных и обозначенных в соответствии со стандартами окружающего звука. Любое количество дополнительных громкоговорителей для точного представления данных звукового содержимого на основе объектов также может размещаться на основе условий среды проигрывания. Эти дополнительные громкоговорители могут устанавливаться звукоинженером, и данная установка представляется системе в форме установочного файла, который используется системой для представления в определенный громкоговоритель, или громкоговорители, в пределах общего массива громкоговорителей данных составляющих адаптивного звука на основе объектов. Указанный установочный файл содержит, по меньшей мере, список обозначений громкоговорителей и присваивания каналов отдельным громкоговорителям, информацию в отношении группировки громкоговорителей и динамического присваивания на основе относительного положения громкоговорителей в среде проигрывания. Указанное время выполнения отображения используется характерным признаком «привязка к» в системе, которая представляет данные звукового содержимого точечных источников на основе объектов в определенный громкоговоритель, который по замыслу звукоинженера является ближайшим к воспринимаемому местоположению звука.[00130] In one embodiment of the invention, the speaker array in the playback environment may include any number of surround speakers positioned and labeled in accordance with surround sound standards. Any number of additional speakers to accurately represent object-based audio content data may also be placed based on the conditions of the playback environment. These additional speakers can be installed by the audio engineer, and this setting is presented to the system in the form of a setup file, which is used by the system to present these object-based adaptive audio components to a specific speaker, or speakers, within the overall speaker array. Said setup file contains at least a list of speaker designations and channel assignments to individual speakers, information regarding speaker grouping and dynamic assignment based on the relative position of the speakers in the playback environment. The specified mapping execution time is used by the "snap to" feature of the system, which presents object-based point source audio content data to a specific loudspeaker that the audio engineer intends to be closest to the perceived location of the sound.

[00131] ФИГ. 7 представляет собой схему одного из примеров последовательности операций процесса упаковки цифровой фильмокопии с использованием файлов адаптивного звука согласно одному из вариантов осуществления изобретения. Как показано на схеме 700, звуковые файлы, включающие как файлы адаптивного звука, так и звуковые файлы окружающего звука 5.1 или 7.1, вводятся в блок 704 заключения в оболочку/шифрования. В одном из вариантов осуществления изобретения, при создании пакета цифровой фильмокопии в блоке 706, файл PCM MXF (с прилагаемыми соответствующими дополнительными дорожками) зашифровывается с использованием технических условий SMPTE в соответствии с существующей практикой. MXF адаптивного звука упаковывается как файл вспомогательной дорожки и, необязательно, зашифровывается посредством технических условий SMPTE с использованием симметричного ключа управления содержимым. Этот единый DCP 708 может затем доставляться любому серверу, совместимому с требованиями организации Digital Cinema Initiatives (DCI). В общем, любые установки, которые не оснащены походящим образом, будут просто игнорировать файл дополнительной дорожки, содержащий звуковую дорожку адаптивного звука, и будет использовать существующий файл главной звуковой дорожки для стандартного проигрывания. Установки, оснащенные соответствующими устройствами обработки данных адаптивного звука будут способны принимать и воспроизводить звуковую дорожку адаптивного звука там, где это применимо, при необходимости возвращаясь к стандартной звуковой дорожке. Компонент 704 заключения в оболочку/шифрования также может доставлять входной сигнал непосредственно в блок 710 распространения KDM с целью генерирования соответствующего ключа защиты для использования в сервере цифрового кинотеатра. Другие элементы фильма, или файлы, такие как субтитры 714 и изображения 716 могут заключаться в оболочку и зашифровываться наряду с аудиофайлами 702. В этом случае, могут включаться некоторые этапы обработки, такие как сжатие 712 в случае файлов 716 изображений.[00131] FIG. 7 is a diagram of one example flowchart for packaging a digital film copy using adaptive audio files according to one embodiment of the invention. As shown in diagram 700, audio files, including both adaptive audio files and 5.1 or 7.1 surround audio files, are input to wrapper/encryption block 704. In one embodiment of the invention, when a digital film package is created at block 706, the PCM MXF file (with associated additional tracks attached) is encrypted using SMPTE specifications in accordance with current practice. The adaptive audio MXF is packaged as an auxiliary track file and optionally encrypted using the SMPTE specification using a symmetric content control key. This single DCP 708 can then be delivered to any Digital Cinema Initiatives (DCI) compliant server. In general, any installations that are not suitably equipped will simply ignore the secondary track file containing the adaptive audio audio track, and will use the existing main audio track file for standard playback. Installations equipped with appropriate adaptive audio processing devices will be capable of receiving and reproducing the adaptive audio audio track where applicable, reverting to the standard audio track when necessary. The wrapper/encryption component 704 may also deliver the input signal directly to the KDM distribution unit 710 to generate an appropriate security key for use in the digital theater server. Other movie elements, or files, such as subtitles 714 and images 716 may be wrapped and encrypted along with the audio files 702. In this case, some processing steps may be included, such as compression 712 in the case of image files 716.

[00132] В отношении управления содержимым, система 100 адаптивного звука позволяет создателю содержимого создавать отдельные звуковые объекты и добавлять информацию о содержимом, которое должно передаваться в воспроизводящую систему. Это позволяет значительно увеличить гибкость при управлении звуковым содержимым. С точки зрения управления содержимым, способы адаптивного звука делают возможными несколько характерных признаков. Эти признаки включают изменение языка содержимого просто путем замещения диалогового объекта для экономии места, эффективности скачивания, географической адаптации проигрывания и т.д. Фильмы, телевизионные и другие развлекательные программы, как правило, распространяются по всему миру. Это часто требует, чтобы язык фрагмента содержимого менялся в зависимости от того, где оно будет воспроизводиться (французский - для фильмов, демонстрируемых во Франции, немецкий - для ТВ программ, показываемых в Германии). В настоящее время это часто требует создания, упаковки и распространения полностью независимой звуковой дорожки. В случае адаптивного звука и его неотъемлемой концепции звуковых объектов, диалог для фрагмента содержимого может представлять собой независимый звуковой объект. Это позволяет легко менять язык содержимого без обновления или изменения других элементов звуковой дорожки, таких как музыка, эффекты и т.д. Это может применяться не только для иностранных языков, но также для языка, неподходящего для некоторых зрителей (например, телевизионные программы для детей, фильмы для показа в самолетах и т.д.), целевой рекламы и т.д.[00132] In terms of content management, adaptive audio system 100 allows a content creator to create individual audio objects and add information about the content to be delivered to the playback system. This allows for significantly greater flexibility in managing audio content. From a content management perspective, adaptive audio techniques enable several distinctive features. These features include changing the language of the content simply by replacing the dialog object to save space, download efficiency, geographical adaptation of playback, etc. Films, television and other entertainment programs are typically distributed throughout the world. This often requires that the language of a piece of content change depending on where it is played (French for films shown in France, German for TV programs shown in Germany). Nowadays, this often requires the creation, packaging and distribution of a completely independent audio track. In the case of adaptive audio and its inherent concept of audio objects, the dialogue for a piece of content may be an independent audio object. This allows you to easily change the language of the content without updating or changing other elements of the audio track such as music, effects, etc. This can apply not only to foreign languages, but also to language unsuitable for some viewers (eg children's television programs, airplane movies, etc.), targeted advertising, etc.

Соображения по установке и оборудованиюInstallation and Hardware Considerations

[00133] Формат файла адаптивного звука и связанные устройства обработки данных допускают изменения в установке, калибровке и обслуживании оборудования кинотеатра. При введении много большего количества потенциальных выходных сигналов громкоговорителей, каждый из которых корректируется и балансируется по отдельности, существует потребность в разумной и оперативной автоматической коррекции амплитудно-частотной характеристики помещения, которая может осуществляться через возможность ручной регулировки какой-либо автоматической коррекции амплитудно-частотной характеристики помещения. В одном из вариантов осуществления изобретения, система адаптивного звука использует оптимизированное средство частотной коррекции с 1/12-октавной полосой частот. Для более точного баланса звука в кинотеатре, может обрабатываться до 64 выходных сигналов. Система также допускает плановый контроль выходных сигналов отдельных громкоговорителей от вывода устройства обработки данных для кинематографии вплоть до звука, воспроизводимого в зрительном зале. Для гарантии того, что предпринято соответствующее действие, могут создаваться локальные или сетевые предупреждения. Гибкая система представления данных может автоматически удалять поврежденный громкоговоритель или усилитель из цепи воспроизведения и представлять данные в обход его, делая возможным продолжение показа.[00133] The adaptive audio file format and associated processing devices allow for changes in the installation, calibration and maintenance of theater equipment. With the introduction of a much larger number of potential output signals of loudspeakers, each of which is adjusted and balanced separately, there is a need for intelligent and prompt automatic correction of the amplitude-frequency response of the room, which can be carried out through the possibility of manual adjustment of any automatic correction of the amplitude-frequency response of the room . In one embodiment of the invention, the adaptive audio system uses an optimized equalizer with a 1/12-octave frequency band. For more precise sound balance in a cinema, up to 64 output signals can be processed. The system also allows for scheduled monitoring of individual loudspeaker outputs from the cinema processing unit output all the way to the sound being reproduced in the auditorium. Local or network alerts can be generated to ensure that appropriate action is taken. A flexible presentation system can automatically remove a damaged loudspeaker or amplifier from the playback chain and bypass it, allowing the display to continue.

[00134] Устройство обработки данных для кинематографии может быть подключено к серверу цифрового кинотеатра через существующие главные звуковые разъемы 8×AES и подключение к сети Ethernet для потоковых данных адаптивного звука. Проигрывание окружающего содержимого 7.1 или 5.1 использует существующие соединения PCM. Поток данных адаптивного звука передается по сети Ethernet в устройство обработки данных для кинематографии с целью декодирования и представления данных, а связь между сервером и устройством обработки данных для кинематографии позволяет идентифицировать и синхронизировать звук. В случае какой-либо проблемы с проигрыванием дорожки адаптивного звука, звук возвращается обратно к звуку PCM для Dolby Surround 7.1 или 5.1.[00134] The cinematic processing device can be connected to the digital cinema server via existing 8xAES main audio connectors and an Ethernet connection for streaming adaptive audio data. Playing ambient 7.1 or 5.1 content uses existing PCM connections. The adaptive audio data stream is transmitted over an Ethernet network to the cinematic processing device for decoding and presentation of the data, and communication between the server and the cinematic processing device allows audio to be identified and synchronized. If there is any problem with the playback of the adaptive audio track, the audio reverts back to PCM audio for Dolby Surround 7.1 or 5.1.

[00135] Несмотря на то, что варианты осуществления изобретения были описаны в отношении систем окружающего звука 5.1 и 7.1, следует учитывать, что в сочетании с указанными вариантами осуществления изобретения могут использоваться многие другие современные и будущие конфигурации окружающего звука, в том числе 9.1, 11.1 и 13.1 и далее.[00135] Although embodiments of the invention have been described in relation to 5.1 and 7.1 surround sound systems, it should be appreciated that many other current and future surround sound configurations, including 9.1, 11.1, may be used in combination with these embodiments of the invention. and 13.1ff.

[00136] Система адаптивного звука рассчитана как на создателей содержимого, так и на кинопрокатчиков - для принятия решения о том, каким образом должны представляться данные в различных конфигурациях проигрывающих громкоговорителей. Идеальное используемое количество выходных каналов громкоговорителей, будет изменяться в соответствии с размером помещения. Рекомендуемое расположение громкоговорителей, таким образом, зависит от множества факторов, таких как размер, состав, конфигурация посадочных мест, среда, средние размеры зрительных залов и т.д. Примеры, или образцы, конфигураций и схем расположения громкоговорителей, представлены в данном раскрытии лишь с целью иллюстрации и не предназначены для ограничения объема ни одного из заявленных вариантов осуществления изобретения.[00136] The adaptive audio system is designed for both content creators and movie distributors to decide how data should be presented in different playback speaker configurations. The ideal number of speaker output channels used will vary according to room size. Recommended speaker placement therefore depends on many factors such as size, composition, seating configuration, environment, average auditorium sizes, etc. Examples, or samples, of speaker configurations and arrangements are presented in this disclosure for purposes of illustration only and are not intended to limit the scope of any of the claimed embodiments of the invention.

[00137] Рекомендуемая схема расположения громкоговорителей для системы адаптивного звука остается совместимой с существующими системами для кинематографии, что является жизненно важным для того, чтобы не компрометировать проигрывание существующих форматов 5.1 и 7.1 на основе каналов. Для того, чтобы сохранить замысел звукоинженера адаптивной звукозаписи и замысел операторов микширования содержимого 7.1 и 5.1, положения существующих экранных каналов не должны чересчур радикально изменяться в попытке усилить, или подчеркнуть, введение новых местоположений громкоговорителей. В отличие от использования всех доступных 64 выходных каналов, данные формата адаптивного звука могут точно представляться в кинотеатре в такие конфигурации громкоговорителей, как 7.1, что даже позволяет использовать этот формат (и связанные с ним выгоды) в существующих кинотеатрах без внесения изменений в усилители или громкоговорители.[00137] The recommended speaker layout for an adaptive audio system remains compatible with existing cinematography systems, which is vital in order not to compromise playback of existing channel-based 5.1 and 7.1 formats. In order to preserve the adaptive audio engineer's intent and the intent of the 7.1 and 5.1 content mix operators, the positions of existing on-screen channels should not be changed too radically in an attempt to enhance, or emphasize, the introduction of new speaker locations. Unlike using all 64 available output channels, adaptive audio format data can be accurately presented in theaters to speaker configurations such as 7.1, even allowing the format (and its benefits) to be used in existing theaters without making changes to amplifiers or speakers .

[00138] В зависимости от конструкции кинотеатра, разные местоположения громкоговорителей могут обладать разной эффективностью, поэтому в настоящее время отсутствует определяемое отраслевыми техническими условиями идеальное количество или расположение каналов. Адаптивный звук, как предполагается, является по-настоящему адаптируемым и способным точно проигрываться в различных зрительных залах, имеют они ограниченное количество проигрывающих каналов или много каналов с очень гибкими конфигурациями.[00138] Depending on the theater design, different speaker locations may have different efficiencies, so there is currently no industry-specific ideal number or placement of channels. Adaptive audio is supposed to be truly adaptable and capable of playing accurately in a variety of auditoriums, whether they have a limited number of playback channels or many channels with highly flexible configurations.

[00139] ФИГ. 8 представляет собой вид 800 сверху одного из примеров схемы расположения предполагаемых местоположений громкоговорителей для использования с системой адаптивного звука по типичному алгоритму, и ФИГ. 9 представляет собой вид 900 спереди указанного примера схемы расположения предполагаемых местоположений громкоговорителей на экране зрительного зала. Исходное положение, предпочтительное в данном случае, соответствует положению 2/3 расстояния обратно от экрана к задней стене на средней линии экрана. Стандартные экранные громкоговорители 801 показаны в их обычных положениях относительно экрана. Изучение восприятия возвышения плоскости экрана показало, что дополнительные громкоговорители 804 за экраном, такие как левый центральный (Lc) и правый центральный (Rc) экранные громкоговорители (в местоположениях левого дополнительного и правого дополнительного каналов в форматах пленки 70 мм), могут оказаться полезными при создании более плавного панорамирования через экран. Поэтому указанные необязательные громкоговорители являются рекомендуемыми, особенно в зрительных залах с экранами шириной более 12 м (40 футов). Все экранные громкоговорители должны располагаться под углом с тем, чтобы они были нацелены в направлении исходного положения. Рекомендуемое размещение сверхнизкочастотного громкоговорителя 810 за экраном должно оставаться неизменным, включая сохранение асимметричного размещения корпуса относительно центра помещения во избежание возбуждения стоячих волн. В задней части кинотеатра могут располагаться дополнительные сверхнизкочастотные громкоговорители 816.[00139] FIG. 8 is a top view 800 of one example layout of proposed speaker locations for use with an adaptive audio system in a typical algorithm, and FIG. 9 is a front view 900 of this example layout of proposed speaker locations on an auditorium screen. The preferred starting position in this case is 2/3 of the way back from the screen to the back wall on the center line of the screen. Standard on-screen speakers 801 are shown in their normal positions relative to the screen. A study of the perception of screen plane elevation has shown that additional speakers 804 behind the screen, such as the left center (Lc) and right center (Rc) screen speakers (at the left sub and right sub channel locations in 70mm film formats), may be useful in creating smoother panning across the screen. Therefore, the optional loudspeakers listed are recommended, especially in auditoriums with screens greater than 12 m (40 ft) wide. All on-screen speakers should be angled so that they are aimed in the direction of the original position. The recommended placement of the 810 subwoofer behind the screen should remain the same, including maintaining an asymmetrical placement of the cabinet relative to the center of the room to avoid generating standing waves. Additional 816 subwoofers can be located at the rear of the theater.

[00140] Окружающие громкоговорители 802 должны по отдельности соединяться проводами с задней частью стойки усилителей и должны, там, где это возможно, по отдельности усиливаться назначенным каналом усиления мощности, соответствующим коммутируемой мощности громкоговорителя в соответствии с техническим паспортом. В идеальном случае, окружающие громкоговорители должны определяться техническими условиями для обработки повышенного SPL для каждого отдельного громкоговорителя, а также, там, где это возможно, для более широкой амплитудно-частотной характеристики. Как показывает практика, для кинотеатра среднего размера интервал между окружающими громкоговорителями должен находиться в пределах 2-3 м (6 футов 6 дюймов - 9 футов 9 дюймов), где левый и правый окружающие громкоговорители размещаются симметрично. Однако, считается, что, в противоположность использованию абсолютных расстояний между громкоговорителями, интервал между окружающими громкоговорителями является наиболее эффективным под углами, стягиваемыми от данного слушателя между смежными громкоговорителями. Для оптимального проигрывания повсюду в зрительном зале, угловое расстояние между смежными громкоговорителями должно составлять 30 градусов или менее при отсчете от каждого из четырех углов основной области прослушивания. Хорошие результаты могут достигаться при интервале до 50 градусов. Для каждой зоны громкоговорителей, там, где это возможно, громкоговорители должны сохранять равный линейный интервал вблизи зоны посадочных мест. Линейный интервал за пределами области прослушивания, например, между передним рядом и экраном, может быть немного больше. ФИГ. 11 представляет собой один из примеров расположения верхних окружающих громкоговорителей 808 и боковых окружающих громкоговорителей 806 относительно исходного положения согласно одному из вариантов осуществления изобретения.[00140] The surround speakers 802 should be individually wired to the rear of the amplifier rack and should, where possible, be individually amplified by a designated power amplification channel corresponding to the loudspeaker handling power according to the data sheet. Ideally, loudspeaker surrounds should be specified to handle increased SPL for each individual loudspeaker and, where possible, wider frequency response. As a rule of thumb, for an average sized theater the surround speaker spacing should be between 2-3 m (6 ft 6 in - 9 ft 9 in), with left and right surround speakers placed symmetrically. However, it is believed that, as opposed to using absolute distances between speakers, spacing between surrounding speakers is most effective at the angles subtended from a given listener between adjacent speakers. For optimal playback throughout the auditorium, the angular distance between adjacent speakers should be 30 degrees or less when measured from each of the four corners of the main listening area. Good results can be achieved at intervals of up to 50 degrees. For each loudspeaker zone, where possible, loudspeakers should maintain equal line spacing near the seating zone. Line spacing outside the listening area, such as between the front row and the screen, may be slightly larger. FIG. 11 is one example of the arrangement of the top surround speakers 808 and the side surround speakers 806 relative to a home position according to one embodiment of the invention.

[00141] Дополнительные боковые окружающие громкоговорители 806 должны монтироваться ближе к экрану, чем рекомендуется на практике в настоящее время - начиная приблизительно с одной трети расстояния до задней части зрительного зала. В ходе проигрывания звуковых дорожек Dolby Surround 7.1 или 5.1 эти громкоговорители не используются как боковые окружающие, но позволяют осуществлять плавный переход и лучшее тембральное согласование при панорамировании объектов от экранных громкоговорителей к окружающим зонам. Для максимального усиления ощущения пространства, окружающие массивы следует располагать так же низко, как используемые на практике, подвергая из следующим ограничениям: вертикальное размещение окружающих громкоговорителей в передней части массива должно быть достаточно близким к высоте акустического центра экранного громкоговорителя и достаточно высоким для сохранения хорошего охвата через зону посадочных мест в соответствии с направленностью громкоговорителя. Вертикальное размещение окружающих громкоговорителей должно быть таким, чтобы они образовывали прямую линию спереди назад и (как правило) были наклонены вверх так, чтобы относительное возвышение окружающих громкоговорителей над слушателями сохранялось в направлении задней части кинотеатра по мере того, как увеличивается возвышение посадочных мест, как показано на ФИГ. 10, которая представляет собой вид сбоку одного из примеров схемы расположения предполагаемых местоположений громкоговорителей для использования с системой адаптивного звука в типичном зрительном зале. На практике, этого проще всего достичь, выбирая возвышение для самого переднего и самого заднего боковых окружающих громкоговорителей и размещая остальные громкоговорители на линии между этими точками.[00141] The additional side surround speakers 806 must be mounted closer to the screen than is currently recommended in practice - starting at approximately one-third of the distance to the rear of the auditorium. When playing Dolby Surround 7.1 or 5.1 soundtracks, these speakers are not used as surround speakers, but allow for smooth transitions and better tonal consistency when panning objects from the on-screen speakers to the surrounds. To maximize the sense of space, surround arrays should be positioned as low as those used in practice, subject to the following restrictions: vertical placement of surround speakers at the front of the array should be close enough to the height of the acoustic center of the on-screen speaker and high enough to maintain good coverage across seating area in accordance with the directionality of the loudspeaker. The vertical placement of surrounding speakers should be such that they form a straight line from front to back and (generally) angled upward so that the relative elevation of the surrounding speakers above the audience is maintained toward the rear of the theater as the seating elevation increases, as shown in FIG. 10, which is a side view of one example layout of proposed speaker locations for use with an adaptive audio system in a typical auditorium. In practice, this is most easily achieved by selecting an elevation for the frontmost and rearmost surround speakers and placing the remaining speakers on a line between these points.

[00142] С целью обеспечения оптимального охвата для каждого громкоговорителя по всей зоне посадочных мест, боковые окружающие громкоговорители 806, задние громкоговорители 816 и верхние окружающие громкоговорители 808 должны быть нацелены в направление положения начала отсчета в кинотеатре в соответствии с определенными руководящими принципами в отношении интервала, положения, угла и т.д.[00142] In order to provide optimal coverage for each speaker throughout the seating area, side surround speakers 806, rear surround speakers 816, and top surround speakers 808 must be aimed in the direction of the theater reference position according to certain spacing guidelines, position, angle, etc.

[00143] Варианты осуществления системы и формата адаптивного звука для кинематографии достигают повышенных уровней эффекта присутствия и вовлечения зрительного зала по сравнению с современными системами, предлагая новые мощные инструментальные средства авторской разработки для операторов микширования и новое устройство обработки данных для кинематографии, которые отличаются гибким средством представления данных, которое оптимизирует качество звука и окружающие эффекты звуковой дорожки для каждой схемы размещения и характеристик громкоговорителей в помещении. Кроме того, система сохраняет обратную совместимость и минимизирует воздействие на современные последовательности операций производства и распространения.[00143] Adaptive audio system and format embodiments for cinematography achieve enhanced levels of presence and audience engagement compared to current systems, offering powerful new authoring tools for mixing operators and new cinematography processing engine that feature flexible presentation data that optimizes the sound quality and ambient soundtrack effects for each room speaker placement and performance. In addition, the system maintains backward compatibility and minimizes the impact on modern production and distribution workflows.

[00144] Несмотря на то, что варианты осуществления изобретения были описаны в отношении примеров и реализаций в кинематографической среде, где адаптивное звуковое содержимое связано с содержанием фильма, с целью использования в системах обработки данных для цифровой кинематографии, следует отметить, что варианты осуществления изобретения также могут реализовываться в некинематографических средах. Адаптивное звуковое содержимое, включающее звук на основе объектов и звук на основе каналов, может использоваться в сочетании с каким-либо связанным содержимым (связанной аудиозаписью, видеозаписью, графикой и т.д.), или оно может составлять автономное звуковое содержимое. Среда проигрывания может представлять собой любую среду от наушников или мониторов в ближней зоне до малых и больших помещений, автомобилей, открытых площадок, концертных залов и т.д.[00144] While embodiments of the invention have been described with respect to examples and implementations in a cinematic environment where adaptive audio content is associated with film content for use in digital cinematography processing systems, it should be noted that embodiments of the invention also can be implemented in non-cinematic environments. Adaptive audio content, including object-based audio and channel-based audio, can be used in combination with some related content (linked audio, video, graphics, etc.), or it can constitute stand-alone audio content. The playback environment can be anything from headphones or near-field monitors to small and large rooms, cars, outdoor areas, concert halls, etc.

[00145] Особенности системы 100 могут реализовываться в подходящей сетевой среде обработки звука на компьютерной основе, предназначенной для обработки файлов цифрового или оцифрованного звука. Части системы адаптивного звука могут включать одну или несколько сетей, которые содержат любое необходимое количество отдельных машин, в том числе один или несколько маршрутизаторов (не показаны), которые служат для буферирования и перенаправления данных, передаваемых между компьютерами. Такая сеть может быть построена на различных сетевых протоколах и может представлять собой Интернет, глобальную сеть (WAN), локальную сеть (LAN) или любую их комбинацию. В одном из вариантов осуществления изобретения, где сеть включает Интернет, одна или несколько машин могут быть сконфигурированы для доступа в Интернет через программы-навигаторы.[00145] Features of the system 100 may be implemented in a suitable network-based computer-based audio processing environment for processing digital or digitized audio files. Parts of an adaptive audio system may include one or more networks that contain any desired number of separate machines, including one or more routers (not shown) that serve to buffer and forward data transmitted between computers. Such a network can be built on various network protocols and can be the Internet, a wide area network (WAN), a local area network (LAN), or any combination thereof. In one embodiment of the invention, where the network includes the Internet, one or more machines may be configured to access the Internet through browser programs.

[00146] Один или несколько компонентов, блоков, процессов или других функциональных составляющих могут реализовываться через компьютерную программу, которая контролирует исполнение вычислительным устройством системы на основе процессора. Также следует отметить, что различные функции, раскрытые в данном описании, могут описываться с использованием любого количества комбинаций аппаратного обеспечения, программно-аппаратного обеспечения и/или как данные, и/или как команды, воплощенные в различных машиночитаемых, или читаемых компьютером, носителей данных, исходя из характеристик их поведения, регистровой пересылки, логических компонентов и др. Читаемые компьютером носители данных, в которых могут воплощаться указанные форматированные данные и/или команды, включают в качестве неограничивающих примеров физические (постоянные), энергонезависимые носители данных в различных формах, такие как оптические, магнитные или полупроводниковые носители данных.[00146] One or more components, blocks, processes, or other functionalities may be implemented through a computer program that controls the execution of a processor-based system by a computing device. It should also be noted that the various functions disclosed herein may be described using any number of combinations of hardware, firmware, and/or as data and/or instructions embodied in various computer-readable or computer-readable storage media. , based on the characteristics of their behavior, register transfer, logical components, etc. Computer-readable storage media in which such formatted data and/or instructions may be embodied include, but are not limited to, physical (persistent), non-volatile storage media in various forms, such as optical, magnetic or semiconductor storage media.

[00147] Если контекст явно не требует иного, повсюду в данном описании и формуле изобретения, слова «содержать», «содержащий» и т.п. следует толковать во включающем смысле, в противоположность исключающему или исчерпывающему смыслу; то есть в смысле «включающий в качестве неограничивающего примера». Слова, использующие форму единственного, или множественного, числа, также, соответственно, включают форму множественного, или единственного, числа. Кроме того, выражения «в данном раскрытии», «в соответствии с данным раскрытием»,, «выше», «ниже» и схожие по смыслу слова относятся к данной заявке в целом, а не только к каким-либо частям данной заявки. Когда слово «или» используется со ссылкой на список из двух или большего количества элементов, это слово охватывает все следующие интерпретации слова: любой из элементов в списке, все элементы в списке, все элементы в списке и любая комбинация элементов в списке.[00147] Unless the context clearly requires otherwise, throughout this specification and claims, the words “comprise,” “comprising,” and the like. should be interpreted in an inclusive sense, as opposed to an exclusive or exhaustive sense; that is, in the sense of “including by way of non-limiting example.” Words that use a singular or plural form also respectively include a plural or singular form. In addition, the expressions “in this disclosure,” “in accordance with this disclosure,” “above,” “below,” and similar words refer to this application as a whole and not just to any parts of this application. When the word "or" is used to refer to a list of two or more elements, the word covers all of the following interpretations of the word: any of the elements in the list, all of the elements in the list, all of the elements in the list, and any combination of the elements in the list.

[00148] Несмотря на то, что одна или несколько реализаций были описаны посредством примеров и исходя из конкретных вариантов осуществления изобретения, следует понимать, что одна или несколько реализаций не ограничиваются раскрытыми вариантами осуществления изобретения. Наоборот, они предназначаются для охвата различных модификаций и сходных схем, что должно быть очевидно для специалистов в данной области. Поэтому объем прилагаемой формулы изобретения должен соответствовать самой широкой интерпретации с тем, чтобы он охватывал все такие модификации в сходных схемах.[00148] Although one or more implementations have been described by way of examples and in terms of specific embodiments of the invention, it should be understood that one or more implementations are not limited to the disclosed embodiments of the invention. On the contrary, they are intended to cover various modifications and similar circuits, as will be apparent to those skilled in the art. Therefore, the scope of the appended claims should be given the broadest interpretation so as to cover all such modifications in similar circuits.

Claims (6)

1. Способ представления звуковых сигналов, включающий:1. A method for presenting sound signals, including: прием битового потока, внутри которого заключен адаптивный звуковой микс, содержащий ряд монофонических аудиопотоков и метаданные, связанные с каждым из аудиопотоков и указывающие местоположение проигрывания соответствующего монофонического аудиопотока, при этом по меньшей мере некоторые из ряда монофонических аудиопотоков идентифицируют как звук на основе каналов и другие из ряда монофонических аудиопотоков идентифицируют как звук на основе объектов, и при этом местоположение проигрывания монофонического аудиопотока на основе каналов содержит обозначение громкоговорителя в массиве громкоговорителей, и местоположение проигрывания монофонического аудиопотока на основе объектов содержит местоположение в трехмерном пространстве, и при этом каждый монофонический аудиопоток на основе объектов представляют в по меньшей мере один определенный громкоговоритель массива громкоговорителей; иreceiving a bitstream within which is embedded an adaptive audio mix comprising a plurality of mono audio streams and metadata associated with each of the audio streams indicating a playback location of the corresponding mono audio stream, wherein at least some of the plurality of mono audio streams are identified as channel-based audio and others of a number of monophonic audio streams are identified as object-based audio, and wherein the playback location of the channel-based monophonic audio stream comprises a speaker designation in the speaker array, and the playback location of the object-based monophonic audio stream comprises a location in three-dimensional space, and wherein each monophonic object-based audio stream represent at least one specific speaker of the speaker array; And представление ряда монофонических аудиопотоков в ряд сигналов, подаваемых на громкоговорители, соответствующих громкоговорителям в среде проигрывания, при этом громкоговорители массива громкоговорителей размещают в определенных положениях в пределах среды проигрывания, и при этом элементы метаданных, связанные с каждым соответствующим монофоническим аудиопотоком на основе объектов, указывают объем распределения для применения к монофоническому аудиопотоку на основе объектов, таким образом монофонический аудиопоток на основе объектов представляют в ряд сигналов, подаваемых на громкоговорители, при пространственной протяженности, соответствующей объему распределения, указанному метаданными.representation of a number of monophonic audio streams into a number of signals applied to loudspeakers corresponding to speakers in a playback environment, wherein the speakers of the speaker array are placed at specified positions within the playback environment, and wherein metadata elements associated with each corresponding monophonic audio stream based on objects indicate the volume allocations for application to the object-based mono audio stream, such that the object-based mono audio stream is presented to a series of signals applied to loudspeakers at a spatial extent corresponding to the allocation volume indicated by the metadata. 2. Способ по п. 1, отличающийся тем, что элементы метаданных, связанные с каждым монофоническим аудиопотоком на основе объектов, дополнительно указывают пространственные параметры, управляющие проигрыванием соответствующей составляющей звука, содержащей одно или более из: положения звука, ширины звука и скорости звука.2. The method of claim 1, wherein the metadata elements associated with each monophonic object-based audio stream further indicate spatial parameters controlling playback of a corresponding audio component comprising one or more of: audio position, audio width, and audio speed. 3. Способ по п. 1, отличающийся тем, что местоположение проигрывания для каждого из ряда монофонических аудиопотоков на основе объектов содержит положение в пространстве относительно экрана в среде проигрывания или поверхности, которая окружает среду проигрывания, и при этом поверхность содержит переднюю плоскость, заднюю плоскость, левую плоскость, правую плоскость, верхнюю плоскость и нижнюю плоскость, и/или независимо определяют относительно либо эгоцентрической системы отсчета, либо аллоцентрической системы отсчета, при этом эгоцентрическую систему отсчета определяют относительно слушателя в среде проигрывания, и при этом аллоцентрическую систему отсчета определяют относительно одной из характеристик среды проигрывания.3. The method of claim 1, wherein the playback location for each of the plurality of monophonic object-based audio streams comprises a position in space relative to a screen in the playback environment or a surface that surrounds the playback environment, wherein the surface comprises a front plane, a back plane , the left plane, the right plane, the top plane and the bottom plane, and/or are independently defined with respect to either an egocentric frame of reference or an allocentric frame of reference, wherein the egocentric frame of reference is defined relative to the listener in the playback environment, and wherein the allocentric frame of reference is defined with respect to one from the characteristics of the playback environment. 4. Постоянный машиночитаемый носитель данных, содержащий последовательность команд, при этом при выполнении системой обработки звуковых сигналов последовательность команд заставляет систему осуществлять способ по п. 1.4. A non-transitory computer-readable storage medium containing a sequence of commands, wherein when executed by the audio signal processing system, the sequence of commands causes the system to implement the method according to claim 1.
RU2020141861A 2011-07-01 2020-12-18 System, method and persistent machine-readable data medium for generating, encoding and presenting adaptive audio signal data RU2820838C2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US61/504,005 2011-07-01
US61/636,429 2012-04-20

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
RU2020127493A Division RU2741738C1 (en) 2011-07-01 2020-08-18 System, method and permanent machine-readable data medium for generation, coding and presentation of adaptive audio signal data

Publications (2)

Publication Number Publication Date
RU2020141861A RU2020141861A (en) 2022-06-20
RU2820838C2 true RU2820838C2 (en) 2024-06-10

Family

ID=

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070276656A1 (en) * 2006-05-25 2007-11-29 Audience, Inc. System and method for processing an audio signal
US20080126461A1 (en) * 2006-07-10 2008-05-29 Markus Christoph Signal processing system employing time and frequency domain partitioning
US20090220107A1 (en) * 2008-02-29 2009-09-03 Audience, Inc. System and method for providing single microphone noise suppression fallback
RU2376654C2 (en) * 2005-02-14 2009-12-20 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Parametric composite coding audio sources
WO2010058518A1 (en) * 2008-11-21 2010-05-27 パナソニック株式会社 Audio playback device and audio playback method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2376654C2 (en) * 2005-02-14 2009-12-20 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Parametric composite coding audio sources
US20070276656A1 (en) * 2006-05-25 2007-11-29 Audience, Inc. System and method for processing an audio signal
US20080126461A1 (en) * 2006-07-10 2008-05-29 Markus Christoph Signal processing system employing time and frequency domain partitioning
US20090220107A1 (en) * 2008-02-29 2009-09-03 Audience, Inc. System and method for providing single microphone noise suppression fallback
WO2010058518A1 (en) * 2008-11-21 2010-05-27 パナソニック株式会社 Audio playback device and audio playback method

Similar Documents

Publication Publication Date Title
RU2741738C1 (en) System, method and permanent machine-readable data medium for generation, coding and presentation of adaptive audio signal data
AU2012279357A1 (en) System and method for adaptive audio signal generation, coding and rendering
RU2820838C2 (en) System, method and persistent machine-readable data medium for generating, encoding and presenting adaptive audio signal data