JP2012503426A - Upstream signal processing for client devices in small cell radio networks - Google Patents

Upstream signal processing for client devices in small cell radio networks Download PDF

Info

Publication number
JP2012503426A
JP2012503426A JP2011527869A JP2011527869A JP2012503426A JP 2012503426 A JP2012503426 A JP 2012503426A JP 2011527869 A JP2011527869 A JP 2011527869A JP 2011527869 A JP2011527869 A JP 2011527869A JP 2012503426 A JP2012503426 A JP 2012503426A
Authority
JP
Japan
Prior art keywords
media data
data
resource
audio
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011527869A
Other languages
Japanese (ja)
Other versions
JP5273688B2 (en
Inventor
バウアー、クラウス
クロケット、ブレット・ジー
ロビンソン、チャールズ・キュー
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2012503426A publication Critical patent/JP2012503426A/en
Application granted granted Critical
Publication of JP5273688B2 publication Critical patent/JP5273688B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/765Media network packet handling intermediate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/756Media network packet handling adapting media to device capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital

Abstract

Methods, apparatuses and program logic in storage media to process media data for quality enhancement. The media data is for rendering at a wireless device. Environmental quantities are accepted from one or more sensors located remote from the wireless device but sufficiently close to be indicative of similar quantities in the device's environment. The sensors at in or connected to a network node. At the network node, the method includes processing the media data using the environmental quantities to generate processed data, and wirelessly sending the processed output to the resource constrained device for rendering, such that the processed output is usable by the resource constrained device to render or to process and render the media data.

Description

<関連出願への相互参照>
本願は、2008年9月19日に出願され、その全体が本願明細書において参照により援用されている米国特許仮出願第61/098,566号に対する優先権を主張する。
<Cross-reference to related applications>
This application claims priority to US Provisional Application No. 61 / 098,566, filed Sep. 19, 2008, which is hereby incorporated by reference in its entirety.

<発明の分野>
本開示は、ストリーミングオーディオデータの信号処理、及びビデオデータの信号処理等の、メディアデータの信号処理に関する。
<Field of Invention>
The present disclosure relates to media data signal processing, such as streaming audio data signal processing and video data signal processing.

無線携帯デバイスの人気が高まるととともに機能性も高まり続けている。このように人気が高まっているデバイスとしては、アップルのiPod等のメディアプレーヤ、携帯電話、ヘリオ製のデバイス、リンクシス等の無線IPベースの電話、マイクロソフト Zune、アップル iPhone、等の無線ネットワーク対応マルチメディアデバイス、ソニー PSP、ノキア N Gage等の携帯ゲーム機、ならびに通信及び/又はマルチメディアデータの送信、受信及び/又はレンダリングに用いられることができる他の多くのデバイスが挙げられる。このようなデバイスは通例、デジタル信号プロセッサ(digital signal processor、DSP)またはマイクロコントローラ、ならびにソフトウェア命令を含むメモリ等の、処理システムを含むものであればよい。このような携帯デバイスは処理能力及び機能性の向上ならびに/あるいは電池の長寿命化が続く一方、これらのデバイスは、コンピュータ、ネットワークアダプタ及びルータ、ならびに/あるいは固定コアネットワークデバイス等の非携帯型の処理システムに比べれば、依然として信号処理能力及び/又は他の資源が制限されている。通例、携帯デバイスは、なるべく小さく、なるべく安価であることが好ましいが、制限された処理能力、制限されたメモリ資源、及び/又は制限された電池電力しか持っていない。   As wireless handheld devices become more popular, their functionality continues to grow. Such devices that are gaining popularity include media players such as Apple iPods, mobile phones, Helio devices, wireless IP-based phones such as Linksys, Microsoft Zune, Apple iPhone, etc. Examples include media devices, handheld game machines such as Sony PSP, Nokia N Gage, and many other devices that can be used to transmit, receive and / or render communications and / or multimedia data. Such a device typically includes a processing system, such as a digital signal processor (DSP) or microcontroller, and memory containing software instructions. While such portable devices continue to improve processing power and functionality and / or extend battery life, these devices are non-portable such as computers, network adapters and routers, and / or fixed core network devices. Compared to processing systems, signal processing capabilities and / or other resources are still limited. Typically, portable devices are preferably as small as possible and as cheap as possible, but have limited processing power, limited memory resources, and / or limited battery power.

無線パーソナルエリアネットワーク(wireless personal area network、WPAN)及びピコセル携帯電話ネットワーク等の小型セル無線ネットワークは周知である。一般に、携帯電話ネットワークの場合は基地局、及び無線ネットワークの場合はアクセスポイントと呼ばれる、セル内で1つ以上のクライアントデバイスと通信する基地局を有する。これらは一般に、数メートル以下のオーダーの比較的小型のセルも有する。このようなシステムは、電池寿命が比較的長く、比較的安価な小型のクライアントデバイスを有することが重要である。   Small cell wireless networks such as wireless personal area networks (WPANs) and picocell mobile phone networks are well known. In general, it has a base station that communicates with one or more client devices in a cell, called a base station in the case of a cellular telephone network and an access point in the case of a wireless network. They generally also have relatively small cells on the order of a few meters or less. It is important that such systems have small client devices that have a relatively long battery life and are relatively inexpensive.

クライアントデバイスとは全く対照的に、無線クライアントデバイスが通信するサーバコンピュータシステム、ネットワークアダプタ、ネットワークルータ、無線基地局/アクセスポイント及び/又は何らかの固定コアネットワークデバイス等の固定処理システムは、クライアントデバイスよりも著しく大きな信号処理能力を有するとともに、電力を比較的制限なく利用できる。従って、固定システムは通例、比較的高速な処理能力、携帯デバイスよりもはるかに大きなメモリ能力、及び事実上、制限なく電力を利用できることを特徴としている。   In stark contrast to client devices, fixed processing systems, such as server computer systems, network adapters, network routers, wireless base stations / access points and / or some fixed core network devices with which wireless client devices communicate, are better than client devices. It has a significantly large signal processing capability and can use power relatively without restriction. Thus, fixed systems are typically characterized by relatively fast processing capabilities, much larger memory capabilities than portable devices, and virtually unlimited power usage.

本願明細書では、固定処理システムと比べて限られた資源しか持たない携帯デバイス等のデバイスを「制限された資源のデバイス」と呼ぶ。本願明細書において、基地局とは、メディアデータを資源制限デバイスに無線送信するアクセスポイント、セルラー基地局または同様の無線送受信機を指す。   In this specification, a device such as a portable device that has limited resources compared to a fixed processing system is referred to as a “restricted resource device”. As used herein, a base station refers to an access point, cellular base station, or similar wireless transceiver that wirelessly transmits media data to a resource restriction device.

本発明の実施形態に係る無線資源制限デバイスを備える無線機構の一例の簡略ブロック図である。It is a simplified block diagram of an example of a radio | wireless mechanism provided with the radio | wireless resource restriction | limiting device which concerns on embodiment of this invention. 本発明の実施形態に係る無線資源制限デバイスを備える無線機構の別の例の簡略ブロック図である。FIG. 6 is a simplified block diagram of another example of a radio mechanism comprising a radio resource limiting device according to an embodiment of the present invention. メディアデータの上流の処理を含み、例えば、図1A及び図1Bに示す実施形態を説明する装置実施形態の簡略ブロック図である。1B is a simplified block diagram of an apparatus embodiment that includes upstream processing of media data and that describes, for example, the embodiment shown in FIGS. 1A and 1B. FIG. 本発明の実施形態の適用例に係る、通路が1本の旅客機内の数列の座席の簡略図である。FIG. 6 is a simplified diagram of several rows of seats in a passenger aircraft having one passage according to an application example of an embodiment of the present invention. 各座席が音声入力センサを備える6席の座席の1つのピコセル例であって、そのピコセルを利用して本発明の実施形態が動作することができる、ピコセル例を示す図である。FIG. 6 is a diagram illustrating an example picocell in which each seat is an example of a picocell of six seats including a voice input sensor, and an embodiment of the present invention can operate using the picocell. 本発明の方法実施形態の簡略化されたフローチャートを示す図である。FIG. 4 shows a simplified flowchart of a method embodiment of the present invention. ハイダイナミックレンジ(high dynamic range、HDR)ビデオディスプレイを備える携帯デバイスに、ビデオデータを信号処理装置を介して無線でストリーミングする本発明の簡略ブロック図の一実施形態である。1 is an embodiment of a simplified block diagram of the present invention for streaming video data wirelessly via a signal processing device to a portable device with a high dynamic range (HDR) video display. FIG. 本発明の一実施形態に係る、クライアントデバイスから離れた所で生成されたメタデータ及び環境雑音情報を用いて、オーディオコンテントの上流雑音補償処理を行う装置の例の簡略ブロック図である。1 is a simplified block diagram of an example of an apparatus for performing upstream noise compensation processing of audio content using metadata and environmental noise information generated at a location remote from a client device according to an embodiment of the present invention. フィードフォワード機構を用いて部分特定ラウドネス(干渉雑音の存在下における特定ラウドネス)を目標特定ラウドネスに近づけるようにオーディオ信号を変更して変更済みオーディオ信号を生成する品質向上信号処理の一実施形態を表す機能ブロック図である。FIG. 4 illustrates one embodiment of quality-enhanced signal processing that uses a feedforward mechanism to modify an audio signal to generate a modified audio signal such that a partial specific loudness (specific loudness in the presence of interference noise) approaches a target specific loudness. It is a functional block diagram. フィードフォワード機構を用いて部分特定ラウドネス(干渉雑音の存在下における特定ラウドネス)を目標特定ラウドネスに近づけるようにオーディオ信号を変更して変更済みオーディオ信号を生成する品質向上信号処理の一実施形態を表す機能ブロック図である。FIG. 4 illustrates one embodiment of quality-enhanced signal processing that uses a feedforward mechanism to modify an audio signal to generate a modified audio signal such that a partial specific loudness (specific loudness in the presence of interference noise) approaches a target specific loudness. It is a functional block diagram. フィードフォワード機構を用いて部分特定ラウドネス(干渉雑音の存在下における特定ラウドネス)を目標特定ラウドネスに近づけるようにオーディオ信号を変更して変更済みオーディオ信号を生成する品質向上信号処理の一実施形態を表す機能ブロック図である。FIG. 4 illustrates one embodiment of quality-enhanced signal processing that uses a feedforward mechanism to modify an audio signal to generate a modified audio signal such that a partial specific loudness (specific loudness in the presence of interference noise) approaches a target specific loudness. It is a functional block diagram. フィードフォワード機構を用いて部分特定ラウドネス(干渉雑音の存在下における特定ラウドネス)を目標特定ラウドネスに近づけるようにオーディオ信号を変更して変更済みオーディオ信号を生成する品質向上信号処理の実施形態を表す機能ブロック図である。A function that represents an embodiment of quality-enhanced signal processing that uses a feedforward mechanism to generate a modified audio signal by changing the audio signal to bring the partial specific loudness (specific loudness in the presence of interference noise) closer to the target specific loudness It is a block diagram. 前処理において入力オーディオを周波数帯域群に分離する、雑音補償用のフィードフォワード機構の実施形態例を示す図である。It is a figure which shows the embodiment of the feedforward mechanism for noise compensation which isolate | separates input audio into a frequency band group in a pre-processing.

<概説>
本発明の実施形態には、方法、装置、及びこの方法を実行するべく1以上のコンピュータ可読有形媒体内にエンコードされたプログラム論理が含まれる。本発明の方法は、1つ以上の環境量を用いて、メディアデータに対して品質向上信号処理を行うためのものである。本発明において、環境量は、資源制約デバイスから離れているが、資源制約デバイスに十分近い場所に設けて、資源制約デバイスの近傍のセンサによる環境量が各環境量と同等の指標になる場所で収集する。本発明の信号処理は、メディアデータをレンダリングするために資源制約デバイスで用いられる処理された出力を生成するためのものである。
<Outline>
Embodiments of the invention include a method, apparatus, and program logic encoded in one or more computer-readable tangible media to perform the method. The method of the present invention is for performing quality enhancement signal processing on media data using one or more environmental quantities. In the present invention, the environmental quantity is far from the resource-constrained device, but it is provided in a place sufficiently close to the resource-constrained device, and the environmental quantity by the sensor in the vicinity of the resource-constrained device becomes an index equivalent to each environmental quantity. collect. The signal processing of the present invention is for generating a processed output that is used in a resource constrained device to render media data.

本発明の特定の実施形態には、品質向上のために処理ハードウェアを用いてメディアデータを処理する方法が含まれる。メディアデータは、資源制約無線デバイスによりレンダリングされる。この発明の方法には、1つ以上のセンサから求められる1つ以上の検知環境量を受け取るステップが含まれる。センサは、資源制約デバイスから離れているが、当該環境量が、資源制約デバイスの近傍のセンサと同じそれぞれの環境量の指標とするには十分、資源制約デバイスに近い場所にある。この発明の方法はさらに、資源制約デバイスから離れた場所において設置されるかまたはそこに結合されるネットワークノードにおいて、環境量を用いてメディアデータを処理し処理済みデータを生成するステップであって、センサがネットワークノード内にあるかまたはネットワークノードに接続されるステップと;処理済み出力をレンダリングのために資源制約デバイスに無線で送るステップと;を備え、これによって、処理済み出力がメディアデータをレンダリングするためにあるいは処理及びレンダリングするために資源制約デバイスによって利用可能となる。   Particular embodiments of the present invention include a method for processing media data using processing hardware for quality improvement. Media data is rendered by a resource constrained wireless device. The method of the present invention includes receiving one or more sensing environment quantities determined from one or more sensors. The sensor is far from the resource constraining device, but the environmental quantity is close enough to the resource constraining device to be the same indicator of the respective environmental quantity as the sensor in the vicinity of the resource constraining device. The method of the present invention further comprises the step of processing media data and generating processed data using environmental quantities at a network node located at or coupled to the resource constrained device, comprising: A sensor is in or connected to the network node; and wirelessly sending the processed output to a resource constrained device for rendering, whereby the processed output renders media data To be used by a resource constrained device for processing or rendering.

この発明の方法の実施形態では、ネットワークノードには無線ネットワークの基地局が含まれる。   In an embodiment of the method of the present invention, the network node includes a base station of a wireless network.

この発明の方法の実施形態では、処理済み出力には資源制約デバイスによるレンダリング用の処理済みメディアデータが含まれる。   In an embodiment of the inventive method, the processed output includes processed media data for rendering by a resource constrained device.

さらに、この発明の方法の実施形態では、一部のメディアデータ処理は資源制約デバイスにおいて行われ、処理済み出力には、資源制約デバイスにおけるメディアデータ処理のために資源制約デバイスによって用いられるための補助データが含まれる。   Further, in the method embodiment of the present invention, some media data processing is performed at the resource constrained device and the processed output is an auxiliary to be used by the resource constrained device for media data processing at the resource constrained device. Contains data.

「ストリーミング実施形態」と呼ばれるこの発明の方法の実施形態では、メディアデータには、1)資源制約デバイスにストリーミングされるメディアデータ、及び/又は2)無線ネットワークを介して、資源制約デバイスを含む双方向通信の一部としての資源制約デバイスにインタラクティブにストリーミングされるメディアデータ、のうちの1つ以上が含まれる。   In an embodiment of the method of the invention, referred to as a “streaming embodiment”, the media data includes both 1) media data streamed to a resource constrained device and / or 2) via a wireless network, the resource constrained device. One or more of the media data that is interactively streamed to the resource constrained device as part of the directed communication is included.

ストリーミング実施形態では、メディアデータにはオーディオデータが含まれ、1つ以上の環境量には環境内の雑音の音響プロファイルを示す少なくとも1つの量が含まれ、品質向上処理には雑音補償が含まれる。変形例では、雑音補償には:1つ以上のラウドネスレベルパラメータ、及び音響雑音プロファイルの1つ以上のパラメータを用いてオーディオデータから変更パラメータを生成することが含まれる。変更パラメータは、知覚ラウドネス領域において情報に対して操作を実行することによって生成される。雑音補償にはさらに、変更パラメータに基づきオーディオデータを変更して処理済みオーディオデータを生成することが含まれる。1つ以上のラウドネスレベルパラメータには、オーディオ雑音補償のオンの有無、資源制約デバイスのための参照レベル、所望の再現レベル、及び/又は雑音補償の量のうちの1つ以上が含まれる。   In the streaming embodiment, the media data includes audio data, the one or more environmental quantities include at least one quantity indicative of an acoustic profile of noise in the environment, and the quality enhancement process includes noise compensation. . In a variation, noise compensation includes generating change parameters from the audio data using one or more loudness level parameters and one or more parameters of the acoustic noise profile. Change parameters are generated by performing operations on information in the perceptual loudness region. Noise compensation further includes changing the audio data based on the change parameter to generate processed audio data. The one or more loudness level parameters include one or more of audio noise compensation on / off, a reference level for a resource constrained device, a desired reproduction level, and / or an amount of noise compensation.

雑音補償方法の実施形態では、メディアデータの品質向上処理には、オーディオデータに適用される自動ゲイン制御、ダイナミックレンジ圧縮及び/又はイコライゼーションのうちの1つ以上が含まれる。   In an embodiment of the noise compensation method, the media data quality enhancement process includes one or more of automatic gain control, dynamic range compression and / or equalization applied to the audio data.

ストリーミング実施形態では、メディアデータにはビデオデータが含まれ、1つ以上の環境量には、環境内の照明を示す少なくとも1つのパラメータが含まれ、品質向上処理には、パラメータのうちの1つ以上に従ってビデオデータのコントラスト及び/又は明るさを変更することが含まれる。   In the streaming embodiment, the media data includes video data, the one or more environmental quantities include at least one parameter that indicates lighting in the environment, and the quality enhancement process includes one of the parameters. This includes changing the contrast and / or brightness of the video data according to the above.

ストリーミング実施形態では、メディアデータにはビデオデータが含まれ、1つ以上の環境量には、環境内の照明の指標となる少なくとも1つのパラメータが含まれ、資源制約デバイスには、ビデオデータとともに資源制約デバイスに送られる画像依存調節データに従って各々調節される位置依存性バックライト素子を有するフラットパネルディスプレイデバイスが含まれる。品質向上処理には、ビデオデータのコントラスト及び/又は明るさを変更することが含まれる。ネットワークノードにおけるデータ処理には、1つ以上のパラメータのうちの少なくとも1つに従って画像依存調節データを生成することが含まれる。   In the streaming embodiment, the media data includes video data, the one or more environmental quantities include at least one parameter indicative of lighting in the environment, and the resource constrained device includes a resource along with the video data. A flat panel display device is included having position dependent backlight elements that are each adjusted according to image dependent adjustment data sent to the constraining device. The quality improvement process includes changing the contrast and / or brightness of the video data. Data processing at the network node includes generating image dependent adjustment data according to at least one of the one or more parameters.

特定の実施形態には、処理システムの少なくとも1つのプロセッサによって実行されると本概説セクションにおいて記載されている方法実施形態のうちのいずれか1つを実行させるプログラム論理が含まれる。このようなプログラム論理は、例えばコンピュータ可読記憶媒体内に備えられている。   Particular embodiments include program logic that, when executed by at least one processor of the processing system, causes any one of the method embodiments described in this overview section to be executed. Such program logic is provided, for example, in a computer-readable storage medium.

特定の実施形態には、処理システムの少なくとも1つのプロセッサによって実行されると本概説セクションにおいて記載されている方法実施形態のうちのいずれか1つを実行させるプログラム論理を内蔵するコンピュータ可読媒体が含まれる。   Certain embodiments include a computer-readable medium containing program logic that, when executed by at least one processor of a processing system, causes any one of the method embodiments described in this overview section to be executed. It is.

特定の実施形態には、メディアデータの品質向上処理の少なくとも一部を実行する装置が含まれる。この装置は、資源制約デバイスに無線接続するように構成されるネットワークノード、ならびにネットワークノードに接続されるかまたはその中にある1つ以上のセンサを備える。このセンサは、資源制約デバイスから離れているが、資源制約デバイスに十分近い場所にあり、資源制約デバイスの近傍のセンサで検知した環境量が1以上の各環境量の指標になる。この装置はネットワークノードに接続されるかまたはその中にあり、1つ以上の環境量を受け取り、品質向上を達成するべく、受け取られる環境量の少なくとも一部を用いてメディアデータのデータ処理を実行し処理済み出力を生成するように構成された処理ハードウェアをさらに備える。さらに、ネットワークノードは処理済み出力を資源制約デバイスに無線で送るように構成され、それによって、処理済み出力がメディアデータをレンダリングするためにあるいは処理及びレンダリングするために資源制約デバイスによって利用可能となる。この発明の装置は、本概説セクションにおいて記載されている方法の実施形態のうちのいずれか1つを実行可能に構成される。   Particular embodiments include an apparatus that performs at least a portion of a media data quality enhancement process. The apparatus comprises a network node configured to wirelessly connect to a resource constrained device, as well as one or more sensors connected to or within the network node. Although this sensor is far from the resource constraining device, it is in a location sufficiently close to the resource constraining device, and the environmental amount detected by the sensor in the vicinity of the resource constraining device is an index of each environmental amount of 1 or more. The apparatus is connected to or within a network node, receives one or more environmental quantities, and performs data processing of media data using at least a portion of the received environmental quantities to achieve quality improvement And processing hardware configured to generate processed output. Further, the network node is configured to wirelessly send the processed output to the resource constrained device, so that the processed output can be used by the resource constrained device to render or process and render media data. . The apparatus of the present invention is configured to perform any one of the method embodiments described in this overview section.

特定の実施形態には、メディアデータの品質向上処理の少なくとも一部を実行する装置が含まれる。この装置は、少なくとも1つのプロセッサを含む処理システムと、記憶デバイスとを備える。記憶デバイスにはプログラム論理が備えられ、このプログラム論理が実行されたとき、装置は方法の実施形態のうちのいずれか1つを実行する。   Particular embodiments include an apparatus that performs at least a portion of a media data quality enhancement process. The apparatus includes a processing system including at least one processor and a storage device. The storage device is provided with program logic, and when the program logic is executed, the apparatus executes any one of the method embodiments.

特定の実施形態がこれらの態様、特徴または利点の全てを提供する場合もあるし、一部を提供する場合もあるし、または全く提供しない場合もある。特定の実施形態が他の態様、特徴または利点を1つ以上提供する場合があり、そのうちの1つ以上は本願明細書における図、記載、及び請求項から当業者には容易に理解できるであろう。   Particular embodiments may provide all of these aspects, features or advantages, some may provide, or none at all. Certain embodiments may provide one or more other aspects, features or advantages, one or more of which will be readily apparent to those skilled in the art from the figures, descriptions, and claims herein. Let's go.

<実施形態例>
<実施形態の典型的なアーキテクチャ>
図1A及び図2Bは、本発明の実施形態に係る無線資源制限デバイスを含む無線機構の2つの異なる例の簡略ブロック図を示す。
<Example Embodiment>
<Typical Architecture of Embodiment>
1A and 2B show simplified block diagrams of two different examples of a radio mechanism including a radio resource restriction device according to an embodiment of the present invention.

図1Cは、本発明の実施形態を表す簡略ブロック図である。図1A及び図1Bの各々に示される特定の実施形態はそれぞれ図1Cの機構によって説明できる。   FIG. 1C is a simplified block diagram illustrating an embodiment of the present invention. The particular embodiment shown in each of FIGS. 1A and 1B can be described by the mechanism of FIG. 1C, respectively.

図1Aは、クライアントデバイスにおけるレンダリングのためにメディアデータがクライアントデバイスにストリーミングされる第1の機構例を示す。基地局103に結合されるネットワーク101も含まれる。本記載においては「基地局」の用語は同義的且つ交換可能に用いられることに留意されたい。「基地局」とはセルラー通信ネットワークを述べる際に一般に用いられる用語であり、一方、「アクセスポイント」とはインフラストラクチャ型の無線ローカルエリアネットワークを述べる際に一般に用いられる用語である。基地局103は、少なくとも1つのアンテナを含むアンテナサブシステム105に結合された無線送受信機107、ならびにプロセッサ111及び記憶サブシステム113を含む処理サブシステムを備える。記憶サブシステム113にはメモリ要素が1つ以上、及び場合により磁気ディスク等の他の記憶要素が1つ以上含まれる。本願では、サブシステム113を一括して記憶デバイスと呼ぶ。いくつかの実施形態では、記憶デバイスはプログラム論理を備え、例えば実行されたときに、基地局に本発明の実施形態に係る方法のステップを実行させる命令等のプログラム論理を備える。   FIG. 1A illustrates a first example mechanism in which media data is streamed to a client device for rendering at the client device. A network 101 coupled to the base station 103 is also included. Note that in this description, the term “base station” is used synonymously and interchangeably. “Base station” is a term commonly used in describing cellular communication networks, while “access point” is a term commonly used in describing infrastructure-type wireless local area networks. Base station 103 comprises a radio transceiver 107 coupled to an antenna subsystem 105 that includes at least one antenna, and a processing subsystem that includes a processor 111 and a storage subsystem 113. The storage subsystem 113 includes one or more memory elements, and possibly one or more other storage elements such as a magnetic disk. In the present application, the subsystem 113 is collectively referred to as a storage device. In some embodiments, the storage device comprises program logic, eg, program logic such as instructions that, when executed, cause a base station to perform the steps of the method according to embodiments of the present invention.

基地局は資源制約クライアントデバイス121と無線通信するように構成される。基地局は、オーディオデータ、あるいはオーディオデータ及びビデオデータ等の、メディアデータを(資源制約)クライアントデバイス121におけるレンダリングのためにストリーミングするように設計される。資源制約クライアントデバイスは、無線送信を、基地局103などから受信するためのアンテナサブシステム123と、他のコンポーネントとともにオーディオをレンダリングするためのラウドスピーカ/イヤホン、及び/又は他のコンポーネントとともにビデオをレンダリングするための表示画面などの1つ以上のトランスデューサと、を備える。   The base station is configured to communicate wirelessly with the resource constrained client device 121. The base station is designed to stream media data, such as audio data, or audio and video data, for rendering at the (resource constrained) client device 121. The resource constrained client device renders video with antenna subsystem 123 for receiving wireless transmissions, such as from base station 103, and loudspeakers / earphones for rendering audio with other components, and / or other components. One or more transducers, such as a display screen.

本発明の1つの実施形態では、オーディオデータ、あるいはオーディオデータ及びビデオデータ等の、メディアデータをストリーミングする。   In one embodiment of the invention, media data such as audio data or audio data and video data is streamed.

図1Aに、メディアデータのソースを、ネットワーク101に結合される1つ以上のメディアサーバ(図面には1つのメディアサーバ例131を示す)の形で図示する。このようなサーバに共通しているように、サーバ101には、プロセッサ133を含む処理システムと、メモリ、ならびに場合により光学及び/又は磁気媒体システム等の1つ以上の他の記憶要素を含む記憶サブシステム135とが含まれる。コンピュータ可読記憶サブシステム135には、プロセッサ(単数または複数)133によって実行されたとき、サーバにネットワーク101を介してメディアデータを供給させる命令137が含まれる。   In FIG. 1A, the source of media data is illustrated in the form of one or more media servers (one media server example 131 is shown) coupled to the network 101. As is common to such servers, the server 101 includes a processing system including a processor 133, memory, and optionally one or more other storage elements such as optical and / or magnetic media systems. Subsystem 135 is included. Computer readable storage subsystem 135 includes instructions 137 that, when executed by processor (s) 133, cause the server to supply media data over network 101.

特定の例では、クライアントデバイス121はパーソナルオーディオ再生デバイスであり、出力トランスデューサには、ネットワーク101を介してストリーミングされるオーディオ番組を聴くための飛行機内のヘッドセットが含まれる。もう1つの特定の例として、クライアントデバイス121はパーソナルビデオ再生デバイスであり、出力トランスデューサには、ネットワーク101を介してストリーミングされるビデオデータを見るための、飛行機内の表示画面が含まれる。どちらの場合でも、メディアデータが資源制約クライアントデバイス121におけるレンダリングのためにストリーミングされ、資源制約クライアントデバイス121がメディアデータを、1つ以上の出力トランスデューサ125を介して聴く及び/又は見るためにレンダリングする。   In a particular example, the client device 121 is a personal audio playback device, and the output transducer includes an in-plane headset for listening to audio programs streamed over the network 101. As another specific example, client device 121 is a personal video playback device, and the output transducer includes a display screen in the plane for viewing video data streamed over network 101. In either case, the media data is streamed for rendering at the resource constrained client device 121, and the resource constrained client device 121 renders the media data for listening and / or viewing via one or more output transducers 125. .

本発明の1つの態様には、クライアントデバイス121によるレンダリング用のメディアデータを、クライアントデバイス121の環境を示す検知環境量を1つ以上用いる信号処理を実行することによって変更することが含まれる。1つ以上のセンサ109が1つ以上の環境量を検知するように構成される。環境量の例としては、オーディオの場合は雑音特性、及びビデオの場合は背景照明が挙げられる。ただし、それらに限定されるものではない。本発明の1つの態様は、1つ以上のセンサは、クライアントデバイス121から離れた場所にあるが、検知される環境量を資源制約デバイスの近傍の1つ以上の環境量と同等の指標とするには十分、資源制約デバイスに近い場所にあるというものである。図1Aの実施形態では、センサ109は基地局103にある、すなわち、基地局103に直接結合されている。これは資源制限デバイスにおける電力の使用を抑え、資源制限クライアントデバイス121における信号処理量も抑える。   One aspect of the present invention includes changing media data for rendering by the client device 121 by performing signal processing that uses one or more sensing environment quantities indicative of the environment of the client device 121. One or more sensors 109 are configured to detect one or more environmental quantities. Examples of environmental quantities include noise characteristics for audio and background illumination for video. However, it is not limited to them. In one aspect of the present invention, the one or more sensors are located away from the client device 121, but the detected environmental quantity is an index equivalent to one or more environmental quantities in the vicinity of the resource constrained device. Is sufficiently close to the resource constrained device. In the embodiment of FIG. 1A, sensor 109 is at base station 103, i.e., is directly coupled to base station 103. This suppresses the use of power in the resource limit device and also reduces the amount of signal processing in the resource limit client device 121.

本発明の1つの態様は、基地局103を含む無線ネットワークに無線で結合される資源制約デバイス121によるレンダリング用のメディアデータを変更する方法である。処理システム、例えば、プロセッサ111を含む処理システムが、センサ109から1つ以上の検知環境量を受信する。処理システムは、受信された検知環境量を用いてメディアデータをデータ処理し、処理済み出力、例えば、処理済みメディアデータ、及び/又は携帯デバイスにおけるメディアデータの処理のために携帯デバイス内で用いられるべき補助データを生成するように構成される。1つの実施形態では、処理システムによるデータ処理には、受信された検知環境量を用いて変更パラメータを生成し、変更パラメータに基づいてメディアデータを処理し処理済みメディアデータを生成することが含まれる。処理済みメディアデータ及び/又は補助データは、出力トランスデューサを介したレンダリングのために、あるいは処理及びレンダリングのために資源制約デバイス121に無線で送られる。従って、レンダリングデバイス121の環境内の環境量を用いるが、レンダリングデバイス121内では制限されている資源を必要とする信号処理方法が、デバイス121のような資源制限がなく、デバイス121から離れたプロセッサによって実行される。   One aspect of the present invention is a method for modifying media data for rendering by a resource constraining device 121 that is wirelessly coupled to a wireless network including a base station 103. A processing system, for example, a processing system including processor 111 receives one or more detected environmental quantities from sensor 109. The processing system processes the media data using the received sensing environment quantity and is used in the mobile device for processing processed output, eg, processed media data, and / or media data in the mobile device. Configured to generate auxiliary data. In one embodiment, the data processing by the processing system includes generating a change parameter using the received detected environment quantity and processing the media data based on the change parameter to generate processed media data. . The processed media data and / or auxiliary data is sent wirelessly to the resource constraint device 121 for rendering via the output transducer or for processing and rendering. Therefore, a signal processing method that uses an environment quantity in the environment of the rendering device 121 but requires a resource that is restricted in the rendering device 121 has no resource restriction as in the device 121, and is a processor separated from the device 121. Executed by.

示されている機構を有利に用いることができるいくつかのこのような信号処理方法が本願明細書において後により詳細に記載される。   Several such signal processing methods that can advantageously use the mechanism shown are described in more detail later herein.

いくつかの実施形態では、メディアデータのソースは上流からクライアントデバイス121に送られるが、本発明の他の実施形態では、メディアデータのソースはネットワークの上流の別個のデバイスにあるのではなく、クライアントデバイス121内にある。このような実施形態では、メディアデータは、プロセッサ111を備える処理システムへと上流に送られる。この処理システムは、メディアデータと、1つ以上の検知環境量とを受信する。   In some embodiments, the source of media data is sent from upstream to the client device 121, but in other embodiments of the invention the source of media data is not on a separate device upstream of the network, but on the client Located in device 121. In such an embodiment, the media data is sent upstream to a processing system that includes a processor 111. The processing system receives media data and one or more detected environmental quantities.

図1Bは第2の例を表し、ネットワーク101に結合された基地局103を介した双方向会話に用いられる無線クライアントデバイス121、例えば携帯電話の例を表す。本願明細書においては、図1Aにおけるものと同様の機能を有する参照要素に同じ参照符号が用いられることに留意されたい。たとえ同じ参照符号が用いられていても、任意の特定の要素の詳細は、機能を達成するべく要素によって用いられる手段を含め、実施形態ごとに異なる場合がある。図1Bの本例については、基地局103は、送受信機107を含め最小限のコンポーネントしか備えず、その機能性は、ネットワーク101に同様に結合されたコントローラ141により制御される、いわゆる「軽量」基地局であるという点で、図1Aのものとは異なる動作をする。コントローラ141は、少なくとも1つのプロセッサ143を含む処理サブシステム、及び記憶サブシステム145を備える。記憶サブシステム145は、メモリ要素を1つ以上、及び場合により磁気ディスク等の他の記憶要素を1つ以上備える。本願明細書では、サブシステム145を一括して記憶デバイスと呼ぶ。制御データ及び命令が安全な制御プロトコルによってネットワークを介して通信され、それにより、基地局は、コントローラとの組み合わせにより、図1Aに示されるものより機能豊富な基地局と同様の様式で動作する。本願明細書において記載されるように、ある実施形態では、記憶デバイスは、基地局103に本発明の方法の実施形態の各ステップを実行させる命令を、例えばコンピュータプログラム147として備えている。   FIG. 1B represents a second example, representing an example of a wireless client device 121, such as a mobile phone, used for two-way conversation via a base station 103 coupled to the network 101. FIG. Note that the same reference numerals are used herein for reference elements having functions similar to those in FIG. 1A. Even if the same reference signs are used, the details of any particular element may vary from embodiment to embodiment, including the means used by the element to accomplish the function. For this example of FIG. 1B, the base station 103 has minimal components, including a transceiver 107, whose functionality is controlled by a controller 141 that is also coupled to the network 101, so-called “lightweight”. It operates differently than that of FIG. 1A in that it is a base station. The controller 141 includes a processing subsystem including at least one processor 143 and a storage subsystem 145. The storage subsystem 145 comprises one or more memory elements and possibly one or more other storage elements such as a magnetic disk. In the present specification, the subsystem 145 is collectively referred to as a storage device. Control data and instructions are communicated over the network by a secure control protocol, whereby the base station operates in a manner similar to the richer base station than that shown in FIG. 1A in combination with the controller. As described herein, in some embodiments, the storage device comprises instructions, for example as a computer program 147, that cause the base station 103 to perform the steps of the method embodiment of the present invention.

基地局103は、例えば記憶サブシステム145内のプログラムによって、資源制約クライアントデバイス121と無線通信するように構成される。基地局はメディアデータを(資源制約)クライアントデバイス121でレンダリングするためのオーディオデータとして受信するように設計されるとともに、クライアントデバイス121内のマイクロホンなどのセンサによって集められるオーディオデータなどのメディアデータを受信するように設計される。資源制約デバイスは、例えば基地局103から無線送信を受信するためのアンテナサブシステム123、ならびに1つ以上の入力/出力トランスデューサ125、例えば、レンダリングのためのラウドスピーカ/イヤホン及びオーディオを受信するためのマイクロホンを備える。   The base station 103 is configured to wirelessly communicate with the resource constrained client device 121, for example, by a program in the storage subsystem 145. The base station is designed to receive media data as (resource-constrained) audio data for rendering on the client device 121 and receive media data such as audio data collected by a sensor such as a microphone in the client device 121. Designed to do. The resource constraining device is for example an antenna subsystem 123 for receiving radio transmissions from the base station 103, and one or more input / output transducers 125, eg for receiving loudspeakers / earphones and audio for rendering. A microphone is provided.

本発明の1つの実施形態では、オーディオデータ等のメディアデータを、資源制約デバイス121を含む双方向通信の一部としての資源制約デバイス121に、基地局103及び資源を含む無線ネットワークを通じてインタラクティブにストリーミングするように設計する。このような用途の典型例は携帯電話である。   In one embodiment of the invention, media data, such as audio data, is interactively streamed to a resource constraining device 121 as part of a two-way communication that includes the resource constraining device 121 through a wireless network including the base station 103 and the resource. Design to do. A typical example of such an application is a mobile phone.

図1Bに示すように、コントローラ131に加えて、メディアソースとして、図1Aのメディアサーバと同様のメディアサーバ131が備えられている。メディアサーバ131は、例えばエンタテインメントまたは他のメッセージ等のメディアデータを、資源制限デバイス121または何らかの他の資源制限デバイスにストリーミングすることができる。   As shown in FIG. 1B, in addition to the controller 131, a media server 131 similar to the media server in FIG. 1A is provided as a media source. The media server 131 can stream media data, such as entertainment or other messages, to the resource limiting device 121 or some other resource limiting device.

本発明の1つの態様では、クライアントデバイス121によるレンダリング用のメディアデータを、クライアントデバイス121の環境を示す検知環境量を1つ以上用いる信号処理を実行することによって変更する。1つ以上のセンサ109が1つ以上の環境量を検知するように構成される。環境量の例としては、オーディオの場合は雑音特性、及び/又はビデオの場合は背景照明が挙げられる。ただし、それらに限定されるものではない。本発明の1つの態様では、1つ以上のセンサは、クライアントデバイス121から離れた場所にあるが、検知された環境量を資源制約デバイスの近傍の1つ以上の環境量と同等の指標とするためには十分資源制約デバイスに近い場所にある。図1Bの実施形態では、センサ109は基地局103にある、すなわち、基地局103に直接結合されている。これは資源制限デバイスにおける電力の使用を抑え、資源制限クライアントデバイス121における信号処理量も抑える。   In one aspect of the present invention, media data for rendering by the client device 121 is changed by executing signal processing using one or more detection environment quantities indicating the environment of the client device 121. One or more sensors 109 are configured to detect one or more environmental quantities. Examples of environmental quantities include noise characteristics for audio and / or background lighting for video. However, it is not limited to them. In one aspect of the present invention, the one or more sensors are located away from the client device 121, but the detected environmental quantity is an index equivalent to one or more environmental quantities in the vicinity of the resource constrained device. It is close enough to a resource constrained device. In the embodiment of FIG. 1B, sensor 109 is at base station 103, i.e., is directly coupled to base station 103. This suppresses the use of power in the resource limit device and also reduces the amount of signal processing in the resource limit client device 121.

処理システム、例えばコントローラ141におけるプロセッサ143を含む処理システムが、基地局103及びネットワーク101を介してセンサ109から1つ以上の検知環境量を受信する。処理システムは、受信された検知環境量を用いてメディアデータをデータ処理し、処理済み出力、例えばメディアデータ、及び/又は資源制約デバイス121においてメディアデータをさらに処理するために用いられるべき補助データを生成するように構成される。1つの実施形態では、処理システムによるこのようなデータ処理には、受信された検知環境量を用いて変更パラメータを生成し、変更パラメータに基づいてメディアデータを処理し処理済みメディアデータを生成することが含まれる。コントローラは、処理済みメディアデータ及び/又は補助データを、出力トランスデューサを介したレンダリングのために、または処理及びレンダリングに用いるために、資源制約デバイス121に無線で送られるように構成される。従って、レンダリングデバイス121の環境内の環境量を用いるものの、レンダリングデバイス121内では制約される資源を必要とする信号処理方法を、デバイス121のような資源の制約が無く、デバイス121から離れたプロセッサによって実行することができる。   A processing system, such as a processing system including a processor 143 in the controller 141, receives one or more detected environmental quantities from the sensor 109 via the base station 103 and the network 101. The processing system processes the media data using the received sensing environment quantity and processes the processed output, eg, media data, and / or auxiliary data to be used to further process the media data at the resource constraint device 121. Configured to generate. In one embodiment, such data processing by the processing system includes generating a change parameter using the received detected environmental quantity and processing the media data based on the change parameter to generate processed media data. Is included. The controller is configured to send processed media data and / or auxiliary data wirelessly to the resource constraint device 121 for rendering via the output transducer or for use in processing and rendering. Accordingly, a signal processing method that uses resources in the environment of the rendering device 121 but requires resources that are constrained in the rendering device 121 is a processor that is not constrained by resources like the device 121 and that is remote from the device 121. Can be executed by.

いくつかの実施形態では、メディアデータのソースは上流からクライアントデバイス121に送られるが、本発明の他の実施形態では、メディアデータのソースは、ネットワークの上流の別個のデバイスにあるのではなく、クライアントデバイス121内にある。それ故、図1A及び図1Bに示すように、クライアントデバイス121は、メディアデータを記憶可能な記憶領域を備える。このような実施形態では、メディアデータは、プロセッサ111を含む上流側の処理システムへ送られる。この処理システムは、メディアデータ及び1つ以上の検知環境量を受信する。   In some embodiments, the source of media data is sent from upstream to the client device 121, but in other embodiments of the invention the source of media data is not on a separate device upstream of the network, Located in the client device 121. Therefore, as shown in FIGS. 1A and 1B, the client device 121 includes a storage area capable of storing media data. In such an embodiment, the media data is sent to an upstream processing system that includes the processor 111. The processing system receives media data and one or more detected environmental quantities.

示されている機構を有利に用いることができるいくつかの品質向上信号処理方法が本願明細書において後により詳細に記載される。   Several quality enhancement signal processing methods that can advantageously use the mechanism shown are described in more detail later herein.

<適用例>
図1A及び図2Bの例では、センサとクライアントデバイス121との間の距離が比較的短い。1つの例がピコセルネットワークである。例えば、飛行機の座席を考える。クライアントデバイスは、基地局を介してピコセルのクライアントにストリーミングされる素材を聴くための1対の無線ヘッドホンであるとする。ピコセルには飛行機内の座席のセットのうちの座席のサブセットが含まれる。別の適用例では、例えば再び飛行機の座席を考え、クライアントデバイスは、基地局を介してピコセルのクライアントデバイスにストリーミングされる素材を聴くことも含め、双方向会話を行うための携帯電話であるとする。ピコセルには飛行機内の座席のセットのうちの座席のサブセットが含まれる。第2の例として、無線クライアントデバイス121が例えば航空機の座席の近傍のピコセルに無線接続されるように設計される音楽プレーヤであるとし、航空機は、無線クライアントデバイス121内に記憶される音楽データのための品質向上サービスを提供するものとする。
<Application example>
In the example of FIGS. 1A and 2B, the distance between the sensor and the client device 121 is relatively short. One example is a picocell network. For example, consider an airplane seat. Assume that the client device is a pair of wireless headphones for listening to material that is streamed to a picocell client via a base station. A picocell includes a subset of seats in a set of seats in an airplane. In another application, for example, again considering an airplane seat, the client device is a mobile phone for two-way conversations, including listening to material that is streamed to the picocell client device via the base station. To do. A picocell includes a subset of seats in a set of seats in an airplane. As a second example, assume that the wireless client device 121 is a music player designed to be wirelessly connected to, for example, a picocell in the vicinity of an aircraft seat, and the aircraft is configured to store music data stored in the wireless client device 121. To provide quality improvement services.

図2Aに、本発明の実施形態の適用例における、通路が1本の旅客機内の数列の座席201の簡略図を示す。本例では、2列、2通路の座席がピコセル203を形成し、それ故、このようなピコセルが4つ示されており、各ピコセル203には基地局209及び最大6席までの座席が含まれる。   FIG. 2A shows a simplified diagram of several rows of seats 201 in a passenger aircraft having one passage in an application example of the embodiment of the present invention. In this example, two rows and two aisle seats form a picocell 203, and therefore four such picocells are shown, each picocell 203 including a base station 209 and up to six seats. It is.

図2Bに、6席の座席の1つのピコセル203の例を示す。各座席205は音声入力センサ、例えば、任意の乗客の頭の近くにあり、座席の後部内のマイクロホン207を備える。一番前の一番左の座席は、そこにいる乗客とともに示されている。その乗客用のセルホン211が、単純化され拡大された形で示されている。各マイクロホン207は基地局に直接結合される。無線ヘッドホン213(同様に単純化され誇張、拡大された形で示されている)も各乗客用の代替のクライアントデバイスとして利用可能である。   FIG. 2B shows an example of one picocell 203 having six seats. Each seat 205 is near the head of any passenger, such as a voice input sensor, and includes a microphone 207 in the back of the seat. The front leftmost seat is shown with the passengers there. The passenger cell phone 211 is shown in a simplified and enlarged form. Each microphone 207 is directly coupled to the base station. Wireless headphones 213 (also shown in simplified, exaggerated and enlarged form) are also available as alternative client devices for each passenger.

多くの処理を必要としないようにするため、且つ、再充電及び/又は電池交換を頻繁に行わなくてすみ多くの電力を要しないようにするため、セルホン受話器211及びヘッドホンは極めて安価なものにすることが有利である。にもかかわらず、例えば乗客に送信されるオーディオなどの乗客のエクスペリエンスを、環境、例えば乗客の近傍の環境雑音、を考慮する信号処理を実行することによって向上させたいという要望が依然ある。   The cell phone handset 211 and headphones are extremely inexpensive so that they do not require a lot of processing and do not require frequent recharging and / or battery replacement and do not require much power. It is advantageous to do so. Nevertheless, there remains a desire to improve the passenger experience, such as audio transmitted to the passenger, by performing signal processing that takes into account the environment, eg, environmental noise in the vicinity of the passenger.

別のシナリオでは、自分たちのオーディオ再生デバイスを自分たちのピコセル無線ネットワークを介して接続する乗客のために、航空機が品質向上サービスを提供することが有利である。   In another scenario, it is advantageous for the aircraft to provide quality enhancement services for passengers connecting their audio playback devices via their picocell wireless network.

クライアントデバイス211及び213の各々は図1A及び図1Bに示す一般的構造を有する。基地局は、図1Aに示す一般的アーキテクチャを有する完全な基地局、または図1Bのアーキテクチャを有する軽量基地局、すなわち何らかの他のアーキテクチャを用いた基地局であればよい。   Each of client devices 211 and 213 has the general structure shown in FIGS. 1A and 1B. The base station may be a complete base station having the general architecture shown in FIG. 1A, or a lightweight base station having the architecture of FIG. 1B, ie a base station using some other architecture.

適用例の別の変形例では、より少ないマイクロホン207がピコセル203の範囲内で用いられることに留意されたい。例えば、1つのマイクロホンを用いてピコセル領域203全体のための背景雑音量を得ることができる。   Note that in another variation of the application, fewer microphones 207 are used within the picocell 203. For example, the amount of background noise for the entire picocell region 203 can be obtained using one microphone.

図2A及び図2Bにオーディオに関連する適用例を示しているが、同様の適用例を、クライアントデバイスであって、制約された資源を有する携帯ビデオデバイス上でビデオまたは静止画像を見ることに適用することができる。   Although FIGS. 2A and 2B illustrate audio related applications, a similar application is applied to viewing video or still images on a portable video device that is a client device and has constrained resources. can do.

<方法の実施形態>
図3に、例えば、図1Cに示される装置、ならびに図1A及び図1Bの各々に示される特定の実施形態例によって実施される通りの、本発明の方法実施形態の簡略化されたフローチャートを示す。メディアデータを変更する方法、例えば、無線ネットワークに無線で結合された資源制約デバイスによるレンダリングのための品質向上のために変更する方法300を図示する。この方法には、ステップ301において1つ以上のセンサ109から1つ以上の検知環境量を受信することが含まれる。センサ109は、資源制約デバイス121から離れた場所にあるが、検知された環境量を資源制約デバイス121の近傍の1つ以上の環境量と同等の指標とするには十分、資源制約デバイス121に近い場所にある。
<Method Embodiment>
FIG. 3 shows a simplified flowchart of a method embodiment of the present invention, as implemented, for example, by the apparatus shown in FIG. 1C and the specific example embodiment shown in each of FIGS. 1A and 1B. . FIG. 10 illustrates a method 300 for changing media data, eg, a method 300 for improving quality for rendering by a resource constrained device wirelessly coupled to a wireless network. The method includes receiving one or more detected environmental quantities from one or more sensors 109 in step 301. The sensor 109 is located away from the resource constraint device 121, but is sufficient for the detected environment quantity to be an index equivalent to one or more environment quantities in the vicinity of the resource constraint device 121. It is close.

この方法にはさらに、ステップ303において、センサ109の場所、すなわち資源制約デバイス121から離れた場所にあるか、またはそこに結合されたネットワークノード161において、受信された検知環境量を用いてメディアデータをデータ処理し、例えば処理済みメディアデータ等の処理済み出力、または資源制約デバイスでの処理に用いるための補助データ、あるいは処理済みメディアデータ及び補助データの両方を生成することが含まれる。   The method further includes, at step 303, media data using the sensed environment quantity received at the network node 161 at or coupled to the location of the sensor 109, i.e., away from the resource constraint device 121. Data processing to generate processed output, such as processed media data, or auxiliary data for use in processing at a resource constrained device, or both processed media data and auxiliary data.

この方法には、ステップ305において、資源制約デバイス121におけるレンダリングのために、あるいは処理及びレンダリングのために資源制約デバイス121に処理済み出力(処理済みメディアデータ及び/又は補助データ)を無線で送ることが含まれる。   In this method, in step 305, the processed output (processed media data and / or auxiliary data) is sent wirelessly to the resource constraining device 121 for rendering at the resource constraining device 121 or for processing and rendering. Is included.

ある実施形態では、メディアデータにはオーディオデータ、例えば、品質向上処理用オーディオデータが含まれる。他の実施形態では、メディアデータには、品質向上処理用のビデオデータが含まれる。ある実施形態では、メディアデータには、品質向上処理用のオーディオデータ、及び品質向上処理用のビデオデータの両方が含まれる。   In an embodiment, the media data includes audio data, for example, audio data for quality improvement processing. In other embodiments, the media data includes video data for quality enhancement processing. In one embodiment, the media data includes both audio data for quality improvement processing and video data for quality improvement processing.

ある実施形態では、ネットワークノード161には無線ネットワークの基地局が含まれる。「無線ネットワークの基地局」の用語には、処理を実行するための処理能力をそれ自身が有する基地局131、または処理を実行するための処理能力を有する要素にネットワークを介して結合された基地局131のいずれかが含まれる。それ故、「基地局」の用語は図1A及び同様に図1Bのシナリオを範囲に含む。   In some embodiments, network node 161 includes a base station of a wireless network. The term “base station of a wireless network” includes a base station 131 that itself has processing capability to perform processing, or a base coupled to an element that has processing capability to perform processing via a network. Any of the stations 131 is included. Therefore, the term “base station” covers the scenario of FIG. 1A and likewise FIG. 1B.

ある実施形態では、メディアデータには、資源制約デバイスにストリーミングされるメディアデータが含まれる。ある実施形態では、メディアデータには、資源制約デバイスを含む双方向通信の一部としての資源制約デバイスに無線ネットワークを通じてインタラクティブにストリーミングされるメディアデータが含まれる。さらに他の実施形態では、メディアデータには、資源制約デバイスにストリーミングされるメディアデータ、ならびに資源制約デバイスを含む双方向通信の一部としての資源制約デバイスに無線ネットワークを通じてインタラクティブにストリーミングされるメディアデータの両方が含まれる。   In some embodiments, the media data includes media data that is streamed to a resource constrained device. In some embodiments, the media data includes media data that is interactively streamed over a wireless network to a resource constrained device as part of an interactive communication that includes the resource constrained device. In still other embodiments, the media data includes media data that is streamed to a resource constrained device, as well as media data that is interactively streamed over a wireless network to a resource constrained device as part of a two-way communication that includes the resource constrained device. Both are included.

ある実施形態では、メディアデータは無線クライアントにおいて作り出され、次に、処理の後、無線クライアントに送り返される。   In some embodiments, the media data is created at the wireless client and then sent back to the wireless client after processing.

<検知環境量を用いる処理の形式>
本発明は、検知環境量を用いる処理の形式に限定されるものではなく、本発明を有利に利用することができる多くのこのような形式の信号処理操作が知られている。移動デバイスの環境の近傍の音響雑音プロファイルの推定値を利用することができる、オーディオデータのための品質向上信号処理技法には、知覚ラウドネス領域、または単純にラウドネス領域とも呼ばれる、知覚領域において実行される処理が含まれる。1つの実施形態では、このような処理には雑音補償が含まれる。雑音補償の実施形態では、処理には自動ゲイン制御、ダイナミックレンジ圧縮及び/又はダイナミックイコライゼーションのうちの1つ以上がさらに含まれる。
<Type of processing using the detected environmental quantity>
The present invention is not limited to the type of processing that uses the detected environment quantity, and many such types of signal processing operations are known that can advantageously utilize the present invention. A quality-enhanced signal processing technique for audio data that can utilize an estimate of the acoustic noise profile in the vicinity of the environment of the mobile device is performed in the perceptual domain, also called the perceived loudness domain, or simply the loudness domain. Processing is included. In one embodiment, such processing includes noise compensation. In a noise compensation embodiment, the processing further includes one or more of automatic gain control, dynamic range compression, and / or dynamic equalization.

無線デバイスから離れているがその近くで得られる環境照明の推定値を利用することができるビデオデータの品質向上信号処理技法には、彩度調節、明るさ調節、コントラスト調節等が含まれ、例えばいわゆるハイダイナミックレンジ(HDR)ディスプレイ用のバックライティングLED等の、個別に調節可能な多数の光素子を用いたフラットパネルディスプレイデバイス用のバックライト素子群を調節するための画像依存信号を生成することが含まれる。   Video data quality-enhancing signal processing techniques that can take advantage of ambient lighting estimates away from, but close to, the wireless device include saturation adjustment, brightness adjustment, contrast adjustment, etc. Generating image-dependent signals for adjusting backlight elements for flat panel display devices using a number of individually adjustable light elements, such as backlighting LEDs for so-called high dynamic range (HDR) displays Is included.

<HDRディスプレイ類のための例示的な実施形態>
HDRディスプレイ類及びそれらの背景にある技術は、本発明の譲受人に関係するドルビーラボラトリーズ社によってドルビーコントラスト、ドルビーHDR及びドルビービジョンとして市販されている。現在構築されているHDRディスプレイは、バックライトに調節発光ダイオード(light emitting diode、LED)等の調節光源を用いる。このようなバックライトはIMLED(Individually Modulated Array of LED、個別調節LEDアレイ)バックライトと呼ばれることがある。1つの変形例では、各LEDの明るさは8ビット信号によって制御され、従って、各LEDは256個の明るさ段階を有する。LCD画面の背後に単一の光源を有するのではなく、複数の小領域が、示されているシーン内の局所的な明るさ及びコントラストに従って調節される様式でバックライトされる。
<Exemplary Embodiment for HDR Displays>
HDR displays and the technology behind them are marketed as Dolby Contrast, Dolby HDR and Dolby Vision by Dolby Laboratories, Inc., related to the assignee of the present invention. Currently constructed HDR displays use a regulated light source such as a light emitting diode (LED) for the backlight. Such a backlight is sometimes referred to as an IMLED (Individually Modulated Array of LED) backlight. In one variation, the brightness of each LED is controlled by an 8-bit signal, so each LED has 256 brightness steps. Rather than having a single light source behind the LCD screen, multiple sub-regions are backlit in a manner that is adjusted according to local brightness and contrast in the scene shown.

調節信号は、ビデオ信号に対する処理を実行することによって得られ、バックライティング用LEDをさらに調節する信号を生成する。さらなる詳細については、例えば、ヘルゲ・ゼーツェン(Helge Seetzen)、ヴォルフガング・ハイドリッヒ(Wolfgang Heidrich)、ヴォルフガング・シュチュアーズリンガー(Wolfgang Stuerzlinger)、グレッグ・ウォード(Greg Ward)、ローン ・ホワイトヘッド(Lorne Whitehead)、マシュー・トレンタコステ(Matthew Trentacoste)、アビジート・ゴーシュ(Abhijeet Ghosh)、アンドレイ・ヴォロズコフス(Andrejs Vorozcovs):『ハイダイナミックレンジディスプレイシステム』、ACMトランザクションズ・オン・グラフィックス(ACM Transactions on Graphics(TOG))、第23巻、第3号、特別号:2004年SIGGRAPHカンファレンス(2004年8月)の議事録を参照されたい。米国特許出願第6,891,672号も参照されたい。   The adjustment signal is obtained by performing processing on the video signal and generates a signal that further adjusts the backlighting LED. For further details see, for example, Helge Seezen, Wolfgang Heidrich, Wolfgang Stuerslinger, Greg Ward, Greg Ward, Lone Matthew Trentacoste, Abhijeet Ghosh, Andreis Vorozkovs: "High Dynamic Range Display System", ACM Transactions on Graphics (ACM TransonGacts) s (TOG)), Vol. 23, No. 3, special issue: see the minutes of the 2004 SIGGRAPH Conference (August 2004). See also US Patent Application No. 6,891,672.

ビデオ信号から調節信号を求める信号処理はたやすくはない。従って、資源制約のある観視デバイスではこのような処理の能力がない場合がある。しかし、このような信号処理は、資源制約観視デバイスの環境の近くで提供される、求められる、または測定される1つ以上のパラメータに基づいて、上流において有利に実行されることができる。   The signal processing for obtaining the adjustment signal from the video signal is not easy. Therefore, a viewing device with resource constraints may not have such processing capability. However, such signal processing can be advantageously performed upstream based on one or more parameters provided, determined or measured in the vicinity of the environment of the resource constrained viewing device.

それ故、コントラスト及び明るさを局所的な観視条件、例えば観視環境の明るさに従って変更することが知られている。1つの実施形態では、処理要素に接続されているが無線クライアントからは離れた環境センサが、観視環境に近い明るさの指標を求める。環境の明るさは上流のプロセスに提供される。1つの実施形態では、1つ以上の他のパラメータ、例えば、コントラスト強調の量を示すパラメータ、観視者によって望まれる明るさ設定を示すパラメータ等が送られる。上流のプロセッサは資源制限観視デバイスからこのようなパラメータを受信し、信号処理を実行してLEDデバイスのバックライティングのためのレベルを求める。通例、バックライティングは単色であり、主ビデオよりもはるかに粗い解像度である。解像度がより低いバックライトデータがビデオ信号と一緒に資源制限デバイスに送られ、受信されたパラメータに従って調節され、資源制限観視デバイスによって組み合わせてレンダリングされる。   Therefore, it is known to change the contrast and brightness according to local viewing conditions, for example, the brightness of the viewing environment. In one embodiment, an environmental sensor connected to the processing element but remote from the wireless client determines a brightness indicator close to the viewing environment. Environmental brightness is provided to upstream processes. In one embodiment, one or more other parameters are sent, such as a parameter indicating the amount of contrast enhancement, a parameter indicating the brightness setting desired by the viewer, and the like. The upstream processor receives such parameters from the resource limited viewing device and performs signal processing to determine the level for the backlighting of the LED device. Typically, backlighting is monochromatic and has a much coarser resolution than the main video. The lower resolution backlight data is sent along with the video signal to the resource limit device, adjusted according to the received parameters, and combined and rendered by the resource limit viewing device.

図4に、本発明の実施形態の簡略ブロック図を表す。この実施形態ではメディアデータが信号処理装置403を介して携帯デバイスにストリーミングされる。この実施形態の場合、携帯デバイスはLCDパネル415と、環境に依存して調節されるバックライティングとなる多数の個別調節発光ダイオードデバイス417で構成されるHDRビデオディスプレイ413とを備える、無線デバイス511である。当然であるが、図4ではディスプレイ413を最も単純化した2次元の形態で表している。信号処理装置403に結合されるデバイス421が、無線携帯デバイス411付近のアンビエント光の指示を測定するように構成される光センサ325を備える。図示の実施形態には、オーディオ雑音環境量を得るためのマイクロホン423も、メタデータを提供するためのユーザインターフェース(user interface、UI)として含まれている。アンビエント光環境量は、ある頻度で、例えば1秒に1回の頻度で、オーディオ及び/又はビデオの品質向上処理に関するメタデータの1つ以上の他の項目、及び/又は他の環境量と一緒に、上流の信号処理装置403に提供される。上流の信号処理装置は、アンビエント光環境量及びビデオメディアデータを受け取るように構成されるとともに、ビデオデータを処理して、HDRディスプレイ413内の個別調節LEDデバイス417用の信号を生成するべく携帯デバイスによって利用可能な調節信号を生成するようにさらに構成された、HDR信号プロセッサ405を備える。処理とは、ビデオ信号内の輝度に基づくだけでなく、さらに、携帯デバイス409においてビデオが観視されている場のアンビエント照明に基づいて、ビデオ内のコントラストを強調することである。処理装置403にはさらに、メタデータの他の項目による別のオーディオ及び/又はビデオ品質向上処理や、例えば背景雑音等の他の環境量による別のオーディオ及び/又はビデオ品質向上処理が含まれていてもよい。   FIG. 4 shows a simplified block diagram of an embodiment of the present invention. In this embodiment, media data is streamed to the portable device via the signal processing device 403. In this embodiment, the portable device is a wireless device 511 comprising an LCD panel 415 and an HDR video display 413 composed of a number of individually adjusted light emitting diode devices 417 for backlighting that is adjusted depending on the environment. is there. As a matter of course, FIG. 4 shows the display 413 in the most simplified two-dimensional form. A device 421 coupled to the signal processing device 403 includes an optical sensor 325 configured to measure an indication of ambient light near the wireless portable device 411. In the illustrated embodiment, a microphone 423 for obtaining an audio noise environment quantity is also included as a user interface (UI) for providing metadata. The ambient light environment quantity is combined with one or more other items of metadata relating to audio and / or video quality enhancement processing and / or other environment quantities at a certain frequency, for example, once a second. To the upstream signal processing device 403. The upstream signal processing device is configured to receive the ambient light environment quantity and the video media data and process the video data to generate a signal for the individually adjusting LED device 417 in the HDR display 413. The HDR signal processor 405 is further configured to generate an adjustment signal usable by Processing is not only based on the luminance in the video signal, but also enhances the contrast in the video based on the ambient illumination of the field where the video is being viewed on the portable device 409. The processing device 403 further includes another audio and / or video quality enhancement process due to other items of metadata, and another audio and / or video quality enhancement process due to other environmental quantities such as background noise, for example. May be.

ある実施形態では、信号処理ブロック403には、プロセッサと、本発明のいくつかの実施形態による方法ステップを実行する命令で構成されるプログラム論理を備える記憶デバイスとが含まれる。   In some embodiments, signal processing block 403 includes a processor and a storage device comprising program logic comprised of instructions that perform method steps according to some embodiments of the present invention.

<雑音補償の実施形態例>
図5に、メディアデータにオーディオデータが含まれ、無線携帯デバイス511付近にあるデバイス521の少なくとも1つのセンサ523によって測定される少なくとも1つの環境量を、無線デバイス511の環境付近の音響雑音プロファイルの指標として用いる装置の実施形態の簡略ブロック図を示す。品質向上処理は上流の処理ブロック503内で実行され、品質向上処理にはデバイス521によって生成されるメタデータ及び環境雑音量を用いた雑音補償が含まれる。この雑音補償の詳細は後述する。ある実施形態では、雑音補償に、1つ以上のラウドネスレベルパラメータ、及び音響雑音プロファイルの指標となる1つ以上の環境量を用いて、オーディオデータから変更パラメータを生成することが含まれる。変更パラメータは、「知覚領域」と呼ばれるものにおいて情報に対する操作を実行することによって生成される。雑音補償には、変更パラメータに基づいてオーディオデータを変更し、携帯デバイス511に無線で送られる処理済みオーディオデータを生成することが含まれる。例として、ラウドネスレベルパラメータには:オーディオ雑音補償スイッチがオンか否か、資源制約デバイスのための参照レベル、所望の再現レベル、及び/又は雑音補償の量のうちの1つ以上が含まれる。ある変更例では、オーディオデータの処理には、オーディオデータに適用されるAGC、ダイナミックレンジ圧縮及び/又はダイナミックイコライゼーションのうちの1つ以上がさらに含まれる。図5に、送られる可能性があるメタデータ及び環境量のいくつかの典型的な値を示す。環境量には雑音パワーの推定値が含まれ、例えばいくつかの帯域の組合せにおける雑音の大きさが環境量となる。これらの環境量は、含まれるマイクロホン523からの入力を受け取るデバイス521内に含まれるプロセッサによって決められる。1つの実施形態では、20個の雑音スペクトル強度値を決め、使用する。別の実施形態では、40個の雑音スペクトル強度値を使用する。均一化及び雑音補償の経験がある当業者は、20個ないし40個の周波数帯域内で均一化及び雑音補償を実行すれば、現在の処理能力に基づいた良好な結果が得られることを見いだしている。当然、技術が進歩するに従い、より多くのスペクトル帯域が用いられるようになる可能性があろうし、上流の処理までもいくらか制約される何らかの状況では、より少ない周波数帯域、及び従ってスペクトル雑音値が用いられるだけですむようになる可能性があろう。このメタデータ及び環境量は、オーディオ雑音補償を実施する容量及び能力を有する上流の信号処理システム503、例えば雑音補償処理ブロック505を備えるシステム503によって受け取られる。
<Example Embodiment of Noise Compensation>
FIG. 5 shows that at least one environmental quantity measured by at least one sensor 523 of the device 521 in the vicinity of the wireless portable device 511 includes audio data in the media data, and the acoustic noise profile in the vicinity of the environment of the wireless device 511. FIG. 3 shows a simplified block diagram of an embodiment of an apparatus used as an indicator. The quality improvement processing is executed in the upstream processing block 503, and the quality improvement processing includes noise compensation using the metadata generated by the device 521 and the environmental noise amount. Details of the noise compensation will be described later. In some embodiments, noise compensation includes generating change parameters from audio data using one or more loudness level parameters and one or more environmental quantities indicative of an acoustic noise profile. The change parameter is generated by performing an operation on the information in what is called a “perception region”. Noise compensation includes changing the audio data based on the change parameter and generating processed audio data that is sent wirelessly to the portable device 511. By way of example, the loudness level parameter includes one or more of: whether the audio noise compensation switch is on, a reference level for a resource constrained device, a desired reproduction level, and / or an amount of noise compensation. In some variations, the processing of the audio data further includes one or more of AGC, dynamic range compression and / or dynamic equalization applied to the audio data. FIG. 5 shows some typical values of metadata and environmental quantities that may be sent. The environmental quantity includes an estimated value of noise power. For example, the magnitude of noise in a combination of several bands is the environmental quantity. These environmental quantities are determined by a processor included in the device 521 that receives input from the included microphone 523. In one embodiment, 20 noise spectral intensity values are determined and used. In another embodiment, 40 noise spectral intensity values are used. Those skilled in the art with experience in equalization and noise compensation have found that performing equalization and noise compensation within the 20 to 40 frequency bands will give good results based on current processing capabilities. Yes. Of course, as technology advances, more spectrum bands may be used, and in some situations where even some upstream processing is somewhat constrained, fewer frequency bands, and thus spectrum noise values, are used. There is a possibility that it will only become necessary. This metadata and environmental quantity is received by an upstream signal processing system 503 having the capacity and ability to perform audio noise compensation, eg, a system 503 comprising a noise compensation processing block 505.

通例、環境量はオーディオデータの周波数レンジよりもはるかに低い頻度で、例えば1秒ごとにおよそ1セットの頻度で測定され提供される。   Typically, the environmental quantity is measured and provided at a frequency much lower than the frequency range of the audio data, for example, approximately one set every second.

ある実施形態では、信号処理ブロック503には、プロセッサと、本発明のいくつかの実施形態による方法ステップを実行する命令で構成されるプログラム論理を備える記憶デバイスとが含まれる。   In some embodiments, signal processing block 503 includes a processor and a storage device comprising program logic comprised of instructions that perform the method steps according to some embodiments of the invention.

1つの実施形態では、ラウドネスに基づく雑音補償では、雑音補償処理が含まれる上流での信号処理において、例えば携帯デバイス等のクライアントデバイスにストリーミングするオーディオデータを処理するために必要な情報が、以下のメタデータパラメータ及び環境情報により提供される。ある実施形態において用いられる単位、及びいくつかの典型的な値を例示する:
パラメータ1:雑音補償オン/オフ(0または1)
パラメータ2:携帯デバイス参照再現レベル(75dB)
パラメータ3:目標再現レベル(−20dB)
パラメータ4:雑音スペクトル推定値、例えば、1秒につきおよそ1回送られる20ないし40個の雑音スペクトル強度値。
パラメータ5:雑音補償の量(1〜10)
In one embodiment, in loudness-based noise compensation, information required to process audio data that is streamed to a client device such as a mobile device in upstream signal processing, including noise compensation processing, includes: Provided by metadata parameters and environmental information. Illustrate the units used in certain embodiments, and some typical values:
Parameter 1: Noise compensation on / off (0 or 1)
Parameter 2: portable device reference reproduction level (75 dB)
Parameter 3: Target reproduction level (−20 dB)
Parameter 4: Noise spectrum estimate, for example, 20 to 40 noise spectrum intensity values sent approximately once per second.
Parameter 5: Amount of noise compensation (1 to 10)

図4及び図5は、図1Cの一般構造を有する種々の実施形態によって実行されることができる、ありうるオーディオデータ品質向上信号処理及び/又はビデオデータ品質向上信号処理のほんの数例を示しているだけであることは当業者には明らかであろう。   4 and 5 show just a few examples of possible audio data quality enhancement signal processing and / or video data quality enhancement signal processing that can be performed by various embodiments having the general structure of FIG. 1C. It will be apparent to those skilled in the art.

<知覚領域における処理のさらなる詳細>
本発明はオーディオメディアデータのいずれの特定の形式の品質向上処理にも限定されるものではない。しかし、本発明の実施形態の有利な利用をはっきり示すために、雑音補償−本願明細書において知覚領域と呼ばれる、同様に知覚ラウドネス領域または単純にラウドネス領域とも呼ばれるものにおいて行われるオーディオ品質向上信号処理方法の一例が本セクションにおいて記載される。品質向上信号処理において、知覚されるラウドネスの指標を知覚領域において求め用いることが知られている。例えば、オーディオ信号の、知覚されるラウドネスを算出し調節する方法、装置及びコンピュータプログラム(METHOD,APPARATUS,AND COMPUTER PROGRAM FOR CALCULATING AND ADJUSTING THE PERCEIVED LOUDNESS OF AN AUDIO SIGNAL)と題され、国際公開第2004111994号として公開されている国際特許出願PCT/US2004/016964号、ならびにオーディオ信号の、知覚されるラウドネス及び/又は知覚されるスペクトルバランスの算出及び調節(CALCULATING AND ADJUSTING THE PERCEIVED LOUDNESS AND/OR THE PERCEIVED SPECTRAL BALANCE OF AN AUDIO SIGNAL)と題され、国際公開第2006047600号として公開されている国際特許出願PCT/US2005/038579号を参照されたい。オーディオ信号の、知覚されるラウドネス及び/又は知覚されるスペクトルバランスの算出及び調節(CALCULATING AND ADJUSTING THE PERCEIVED LOUDNESS AND/OR THE PERCEIVED SPECTRAL BALANCE OF AN AUDIO SIGNAL)と題され、国際公開第2007120453号として公開されている国際特許出願PCT/US20075/007946号も参照されたい。これらの出願の各々はアメリカ合衆国を指定国とする。上記の公報、国際公開第2004111994号、国際公開第2006047600号及び国際公開第2007120453号の各々の内容は本願明細書において参照により援用されている。アラン・ゼーフェルト:『ラウドネス領域信号処理(Loudness Domain Signal Processing)』、論文第7180号、議事録、オーディオ技術者協会(Audio Engineering Society)第123回大会、ニューヨーク、ニューヨーク州、アメリカ合衆国、2007年、5−8も参照されたい。本願明細書において記載されているオーディオ品質向上信号処理方法のいくつかの詳細が上記の公開特許出願及び公開論文内にある。
<Further details of processing in the perceptual domain>
The present invention is not limited to quality enhancement processing of any particular format of audio media data. However, to clearly demonstrate the advantageous use of embodiments of the present invention, noise compensation—audio quality enhancement signal processing performed in what is referred to herein as a perceptual region, also referred to as a perceptual loudness region or simply referred to as a loudness region. An example of a method is described in this section. In quality-enhanced signal processing, it is known to obtain and use a perceived loudness index in the perceptual region. For example, a method, apparatus and computer program for calculating and adjusting perceived loudness of an audio signal (METHOD, APPARATUS, AND COMPUTER PROGRAM FOR CALCULATINGING and ADJUSTING THE PERCEIVED LOUDNESS OF AN AUDIO 94, published in 1994). International Patent Application No. PCT / US2004 / 016964 published as and the calculation and adjustment of perceived loudness and / or perceived spectral balance of audio signals (CALCULATING AND ADJUSTING THE PERCEIVED LOUDNESS AND / OR THE PERCEIVED SPECTRAL BAL NCE OF AN AUDIO SIGNAL) and entitled, see International Patent Application PCT / US2005 / 038579 published as WO 2006047600. Calculation and adjustment of perceived loudness and / or perceived spectral balance of audio signals (CALCULATING AND ADJUSTING THE PERCEVED LOUDNESS AND / OR THE PERCEIVED SPECTRAL BALANCE OF AN AUDIO SIGNAL) See also published international patent application PCT / US2000075 / 007946. Each of these applications is designated the United States. The contents of each of the above publications, WO20041111994, WO2006047600 and WO2007120453 are incorporated herein by reference. Alain Seefeld: "Loudness Domain Signal Processing", Paper 7180, Minutes, Audio Engineering Society 123rd Annual Meeting, New York, New York, USA, 2007, 5 See also -8. Some details of the audio quality enhancement signal processing methods described herein are in the above-mentioned published patent applications and published papers.

品質向上信号処理方法には、知覚ラウドネス領域において実行された計算から変更パラメータを求め、変更パラメータに従ってオーディオメディアデータを変更することが含まれる。知覚ラウドネス領域において変更パラメータを求めれば、このような変更パラメータを電気信号領域で導出した場合よりも、知覚ラウドネス及び知覚されるスペクトルのバランスのよい制御を達成できる可能性がある。加えて、ラウドネス領域での計算を実施する際に、基底膜を模擬する音響心理学的フィルタバンクまたはその同等物を利用すると、電気信号領域において変更パラメータを導出する機構よりも、知覚されるスペクトルを詳細に制御することができる可能性がある。   The quality-enhanced signal processing method includes obtaining change parameters from calculations performed in the perceptual loudness region and changing the audio media data according to the change parameters. If a change parameter is obtained in the perceptual loudness region, it may be possible to achieve a control with a better balance between the perceived loudness and the perceived spectrum than when such a change parameter is derived in the electrical signal region. In addition, when performing calculations in the loudness region, using a psychoacoustic filter bank that simulates the basement membrane or equivalent, the perceived spectrum rather than a mechanism that derives the modified parameters in the electrical signal region. May be able to be controlled in detail.

オーディオメディアデータが、指定された参照レベルで再現されるように期待されていることがしばしばある。しかし、多くの場合、メディアデータは、低下されたレベルで再生される。再現レベルに応じてオーディオの知覚に変化があることが知られている。このような変化は心理音響学ならびに等ラウドネス曲線及び静音における最小可聴域値に関連する。再生レベルが変更されると、参照レベルで再生される同じメディアデータと比べたとき、オーディオの音色及び空間的知覚に劇的な違いをもたらすことができる。本発明のいくつかの実施形態の品質向上信号処理には、オーディオ信号の中の知覚されるラウドネスを、改良された方法で求めて調節することが含まれる。オーディオ信号のラウドネスの指標を知覚単位で算出するために、音響心理学的モデルを用いる。このような知覚領域ラウドネスの指標は特定ラウドネスと呼ばれ、周波数及び時間の関数としての知覚ラウドネスの指標である。1つの例として、知覚領域において求められるパラメータを用いた音量制御方法に、信号処理方法を用いて広帯域乗算ゲインを計算することが含まれ、広帯域乗算ゲインは、オーディオに適用されたとき、参照ラウドネスと実質的に同じになるゲイン変更されたオーディオのラウドネスを生じさせる。ゲインの調節方法には、再生レベルに応じてオーディオを分析して変更し、それを参照再生レベルで知覚されるような状態に復元する信号処理方法が含まれる。これは、画像化、明瞭度、及びオーディオメディアデータの可聴性の向上をもたらすことが見いだされている。さらなる詳細が後に提示される。   Often, audio media data is expected to be reproduced at a specified reference level. However, in many cases, media data is played at a reduced level. It is known that there is a change in audio perception according to the reproduction level. Such changes are related to psychoacoustics and the isoloudness curve and the minimum audible value in silence. Changing the playback level can make dramatic differences in audio timbre and spatial perception when compared to the same media data played at the reference level. Quality-enhancing signal processing in some embodiments of the invention includes determining and adjusting perceived loudness in the audio signal in an improved manner. A psychoacoustic model is used to calculate the loudness index of the audio signal in perceptual units. Such an indicator of perceived loudness is called specific loudness and is an indicator of perceived loudness as a function of frequency and time. As one example, a volume control method using parameters determined in the perceptual region includes calculating a wideband multiplication gain using a signal processing method, and the wideband multiplication gain, when applied to audio, is a reference loudness. Causes the loudness of the gain-changed audio to be substantially the same. The gain adjustment method includes a signal processing method in which the audio is analyzed and changed according to the reproduction level and restored to a state perceived at the reference reproduction level. This has been found to provide improved imaging, clarity and audio media data audibility. Further details will be presented later.

<音量均一化(任意にダイナミックレンジ制御及び/又は自動ゲイン制御を用いる)としての雑音補償>
雑音補償は雑音存在下での(及び雑音を考慮に入れた)音量均一化の一例である。音量均一化はラウドネス均一化及びラウドネス補償均一化とも呼ばれ、とりわけ、特定ラウドネスと目標特定ラウドネスとの間の差を縮小するためにオーディオ信号を変更することによって、オーディオ信号の特定ラウドネスの制御に利用できる情報を導出することも含まれる。実用的な実施では、変更済みオーディオ信号の特定ラウドネスは、目標特定ラウドネスを近似するように作られればよい。近似は、通常の信号処理の考慮だけでなく、変更において用いられる場合がある時間及び/又は周波数平滑化によって影響を受ける場合がある。方法には、オーディオ信号の特定ラウドネスの形でオーディオ信号の知覚ラウドネスを求め、オーディオ信号を変更するためにオーディオ信号の複数の帯域に適用すべきマルチバンドゲインを求めることが含まれる。ある実施形態では、オーディオメディアデータの知覚されるラウドネスの一貫性が保たれるように、信号の変更ではオーディオにマルチバンドゲインの変更を動的に適用する。こうしたものがオーディオシステムの音量制御と併せて用いられると、音量コントローラは変容され、増幅部に送られているオーディオ信号レベルを制御する電気抵抗器をエミュレートするものではもはやなくなる。その代わり、音量コントローラは均一化方法への入力を提供し、ユーザの所望の知覚されるラウドネス再現レベルを示すものとなる。
<Noise compensation as sound volume equalization (optionally using dynamic range control and / or automatic gain control)>
Noise compensation is an example of volume equalization in the presence of noise (and taking noise into account). Volume equalization, also called loudness equalization and loudness compensation equalization, is used to control the specific loudness of the audio signal, especially by changing the audio signal to reduce the difference between the specific loudness and the target specific loudness. Deriving available information is also included. In practical implementations, the specific loudness of the modified audio signal may be made to approximate the target specific loudness. The approximation may be affected not only by normal signal processing considerations, but also by time and / or frequency smoothing that may be used in the change. The method includes determining a perceived loudness of the audio signal in the form of a specific loudness of the audio signal and determining a multi-band gain to be applied to multiple bands of the audio signal to modify the audio signal. In some embodiments, signal changes dynamically apply multiband gain changes to the audio so that the perceived loudness consistency of the audio media data is maintained. When these are used in conjunction with audio system volume control, the volume controller is transformed and no longer emulates an electrical resistor that controls the level of the audio signal being sent to the amplifier. Instead, the volume controller provides an input to the homogenization method and indicates the user's desired perceived loudness reproduction level.

<雑音補償−雑音干渉の存在下における均一化>
多くのオーディオ再生環境では、聴取者が聴きたいオーディオに干渉する背景雑音が存在する。例えば、動いている自動車の車内にいる聴取者が、搭載されているステレオシステムを通じて音楽をかけている場合があり、エンジン及び道路からの雑音が音楽の知覚を著しく変化させる場合がある。特に、音楽のエネルギーに対して雑音のエネルギーが相当あるスペクトルの部分については、音楽の知覚されるラウドネスは減じられてしまう。雑音のレベルが十分大きければ、音楽は完全にマスキングされてしまう。本発明のいくつかの実施形態における品質向上信号処理には、オーディオ再生環境内で干渉する背景雑音を補償する方法が含まれる。オーディオの部分特定ラウドネスは、雑音等の二次的干渉音声信号の存在下におけるオーディオの知覚ラウドネスとして定義される。いくつかの実施形態における信号処理には、部分特定ラウドネスと目標特定ラウドネスとの間の差を縮小するためにオーディオ信号を変更することによって、オーディオ信号の部分特定ラウドネスの制御に利用できる情報を求めることが含まれる。そのようにすることで、知覚的に正確な様式で雑音の効果が軽減される。
<Noise compensation-homogenization in the presence of noise interference>
In many audio playback environments, there is background noise that interferes with the audio that the listener wants to hear. For example, a listener in a moving car may be playing music through an on-board stereo system, and noise from the engine and road may significantly change the perception of the music. In particular, the perceived loudness of the music is reduced in the part of the spectrum where the noise energy is considerably larger than the music energy. If the noise level is high enough, the music will be completely masked. Quality-enhanced signal processing in some embodiments of the present invention includes a method of compensating for background noise that interferes in an audio playback environment. Audio partial loudness is defined as the perceived loudness of audio in the presence of secondary interfering speech signals such as noise. Signal processing in some embodiments seeks information that can be used to control the partial specific loudness of the audio signal by modifying the audio signal to reduce the difference between the partial specific loudness and the target specific loudness. It is included. By doing so, the effect of noise is reduced in a perceptually accurate manner.

<自動ゲイン制御またはダイナミックレンジ圧縮を用いた雑音補償>
雑音の存在下における均一化を用いて、再現されるオーディオの、知覚されるラウドネスをユーザの所望のラウドネスレベルに一致するように変更するために用いる変更情報を求めることができる。これを用いて自動ゲイン制御及び/又はダイナミックレンジ圧縮を達成することができる。自動ゲイン制御及びダイナミックレンジ圧縮を達成する均一化の詳細は後述する。
<Noise compensation using automatic gain control or dynamic range compression>
Uniformation in the presence of noise can be used to determine change information used to change the perceived loudness of the reproduced audio to match the user's desired loudness level. This can be used to achieve automatic gain control and / or dynamic range compression. Details of equalization to achieve automatic gain control and dynamic range compression will be described later.

<ダイナミックイコライゼーション(Dynamic Equalization、DEQ)>
雑音の存在下における単純な均一化とは異なり、オーディオをユーザの所望の知覚ラウドネスレベルに一致するように変化させる代わりに、ダイナミックイコライゼーションはオーディオを、プリセットの又はユーザが定義するイコライゼーションまたはスペクトルバランスプロファイルに一致するように変化させる。特定ラウドネスは、周波数及び時間の関数としてのオーディオ信号の知覚ラウドネスの指標であるので、オーディオ信号の特定ラウドネスと目標特定ラウドネスとの間の差を縮小するために、変更はオーディオ信号を周波数の関数として変更すればよい。場合によっては、目標特定ラウドネスは時間的に不変である場合があり、オーディオ信号自体は定常状態の時間的に不変な信号である場合があるが、通例、変更はオーディオ信号を時間の関数として変更してもよい。時間且つ周波数変化するスケールファクタの場合、特定ラウドネスは、所望のスペクトル形状の指標の、オーディオ信号のスペクトル形状の指標に対する比によってスケーリングされればよい。このようなスケーリングを用いて、オーディオ信号の、知覚されるスペクトルを、時間変化する知覚されるスペクトルから、実質的に時間的に不変の知覚されるスペクトルに変換すればよい。特定ラウドネスが、所望のスペクトル形状の指標の、オーディオ信号のスペクトル形状の指標に対する比によってスケーリングされる場合、このようなスケーリングはダイナミックイコライザとして利用できる場合がある。
<Dynamic equalization (DEQ)>
Unlike simple homogenization in the presence of noise, instead of changing the audio to match the user's desired perceived loudness level, dynamic equalization uses a preset or user-defined equalization or spectral balance profile. To match. Since specific loudness is a measure of the perceived loudness of an audio signal as a function of frequency and time, changes are made to the audio signal as a function of frequency in order to reduce the difference between the specific loudness of the audio signal and the target specific loudness. You can change as follows. In some cases, the target specific loudness may be time-invariant and the audio signal itself may be a steady-state time-invariant signal, but the change usually changes the audio signal as a function of time. May be. For a time and frequency varying scale factor, the specific loudness may be scaled by the ratio of the desired spectral shape index to the spectral shape index of the audio signal. Using such scaling, the perceived spectrum of the audio signal may be converted from a time-varying perceived spectrum to a substantially time-invariant perceived spectrum. If the specific loudness is scaled by the ratio of the desired spectral shape index to the spectral shape index of the audio signal, such scaling may be used as a dynamic equalizer.

雑音補償等の、均一化を含む知覚領域処理の場合、受信される検知環境量には、資源制約デバイスの環境に近い環境の音響雑音プロファイルを示す1つ以上のパラメータが含まれる。メタデータには1つ以上のラウドネス均一化パラメータが含まれる。メディアデータの処理には、オーディオデータに適用されるダイナミックレンジ圧縮及び/又はイコライゼーションを場合により含む雑音補償が含まれる。雑音補償には、ラウドネスレベルパラメータのうちの1つ以上、及び音響雑音プロファイルの1つ以上のパラメータを用いてオーディオデータから変更パラメータを生成し、変更パラメータに基づきオーディオデータを変更し処理済みオーディオデータを生成することが含まれる。変更パラメータは、知覚ラウドネス領域において情報に対して操作を実行することによって生成される。1つ以上のラウドネスレベルパラメータには、参照再現レベル、所望の再現レベル及び/又は均一化の量のうちの1つ以上が含まれる。   In the case of perceptual region processing including equalization, such as noise compensation, the amount of detected environment received includes one or more parameters indicative of the acoustic noise profile of the environment close to the environment of the resource constrained device. The metadata includes one or more loudness equalization parameters. The processing of the media data includes noise compensation that optionally includes dynamic range compression and / or equalization applied to the audio data. For noise compensation, one or more of the loudness level parameters and one or more parameters of the acoustic noise profile are used to generate change parameters from the audio data, and the audio data is changed based on the change parameters and processed audio data. Is included. Change parameters are generated by performing operations on information in the perceptual loudness region. The one or more loudness level parameters include one or more of a reference reproduction level, a desired reproduction level, and / or an amount of homogenization.

特定の実施形態では、受信される検知環境量には、資源制約デバイスの環境内の音響雑音プロファイルを示す1つ以上のパラメータが含まれる。オーディオデータに適用される雑音補償は、(a)資源制約デバイスの環境内の音響雑音プロファイルを示すパラメータを少なくとも1つ含む、受信される検知環境量のうちの1つ以上、及び(b)オーディオ雑音補償スイッチがオンか否か、などの1つ以上のパラメータ、資源制約デバイスのための参照レベル、ならびに/あるいは所望の再現レベル及び雑音補償の量などの1つ以上の処理パラメータ、に基づく。   In certain embodiments, the sensed environmental quantity received includes one or more parameters indicative of an acoustic noise profile within the environment of the resource constrained device. Noise compensation applied to the audio data includes: (a) one or more of the received sensing environment quantities that include at least one parameter indicative of an acoustic noise profile within the environment of the resource constrained device; and (b) audio. Based on one or more parameters such as whether the noise compensation switch is on, a reference level for the resource constrained device, and / or one or more processing parameters such as a desired reproduction level and amount of noise compensation.

<知覚領域ベースの品質向上処理のさらに詳細な概説>
以下の記載全体を通じ、「フィルタ」または「フィルタバンク」等の用語には、無限インパルス応答(infinite impulse response、IIR)フィルタまたは変換、ならびに有限インパルス応答(finite impulse response、FIR)フィルタ等の、本質的に任意の形の再帰型及び非再帰型フィルタリングが含まれる。「フィルタリングされた」情報とは、このようなフィルタまたはフィルタ群を適用することの結果を意味する。後述する実施形態は、変換によって実行されるフィルタバンクを用いるものである。
<A more detailed overview of perceptual domain-based quality improvement processing>
Throughout the following description, terms such as “filter” or “filter bank” include essential elements such as infinite impulse response (IIR) filters or transforms, and finite impulse response (FIR) filters. Any form of recursive and non-recursive filtering is included. “Filtered” information means the result of applying such a filter or group of filters. In the embodiment described later, a filter bank executed by conversion is used.

上述のように、本発明の実施形態に含むことができる知覚ラウドネス領域におけるオーディオ品質向上信号処理の操作には、雑音干渉の存在下における均一化などの雑音補償が含まれる。このような雑音補償はダイナミックレンジ制御または自動ゲイン制御、ならびに/あるいはダイナミックイコライゼーション(DEQ)と好都合に組み合わせられる可能性があろう。   As described above, audio quality enhancement signal processing operations in the perceptual loudness region that can be included in embodiments of the present invention include noise compensation, such as equalization in the presence of noise interference. Such noise compensation could be advantageously combined with dynamic range control or automatic gain control, and / or dynamic equalization (DEQ).

このような実施形態には、オーディオ信号の特定ラウドネス、及び資源制約デバイスの場所に近い場所から送られる環境量に基づいた雑音の特定ラウドネスを求めることが含まれる。品質向上信号処理には、資源制限デバイスから離れて設置されているが、資源制限デバイスの環境内の雑音の指標とするためには十分近くにある1つ以上のセンサから雑音の指標を受信し、さらに、部分特定ラウドネスと目標特定ラウドネスとの間の差を縮小するべくオーディオ信号を変更することによって、オーディオ信号の部分特定ラウドネスを制御することが含まれる。品質向上信号処理には、1つ以上のプロセス及び1つ以上のプロセス制御パラメータに従ってオーディオ信号またはその指標を処理することによってオーディオ信号を処理し、目標特定ラウドネスを有する信号を作成することが含まれていてもよい。   Such embodiments include determining the specific loudness of the audio signal and the specific loudness of the noise based on the amount of environment sent from a location close to the location of the resource constrained device. For quality-enhanced signal processing, a noise indicator is received from one or more sensors that are located remotely from the resource limiting device, but are close enough to be an indicator of the noise in the environment of the resource limiting device. Further included is controlling the partial specific loudness of the audio signal by modifying the audio signal to reduce the difference between the partial specific loudness and the target specific loudness. Quality-enhancing signal processing includes processing the audio signal by processing the audio signal or its indication according to one or more processes and one or more process control parameters to create a signal having a target specific loudness. It may be.

目標特定ラウドネスはオーディオ信号の関数であるか、またはオーディオ信号の関数ではない場合がある。後者の場合、目標特定ラウドネスは、記憶された目標特定ラウドネス、またはパラメータとして受信される目標特定ラウドネスであるか、あるいは受信されたパラメータから求められればよい。このような場合、変更または導出は特定ラウドネスまたは部分特定ラウドネスを陽的または陰的に算出すればよい。陰的算出の例として、ルックアップテーブル、あるいは特定ラウドネス及び/又は部分特定ラウドネスが本質的に求められる数式の計算によることが挙げられる。   Target specific loudness may or may not be a function of the audio signal. In the latter case, the target specific loudness is the stored target specific loudness, or the target specific loudness received as a parameter, or may be determined from the received parameter. In such a case, the modification or derivation may be performed by explicitly or implicitly calculating the specific loudness or the partial specific loudness. An example of an implicit calculation is by a look-up table or by calculating a mathematical formula in which specific loudness and / or partial specific loudness is essentially determined.

<フィードフォワード機構>
図6A〜図6Dに、フィードフォワード機構を用いて部分特定ラウドネスを目標特定ラウドネスに近づけるべく、オーディオ信号を変更して変更済みオーディオを生成する品質向上信号処理のいくつかの実施形態を表す機能ブロック図を示す。特に、図6Aは、オーディオ信号611が、2つの経路:1つ以上の変更パラメータ619に応答してオーディオ信号611を変更するように構成されるプロセスまたはデバイスを1つ以上有する信号変更経路601、並びに変更パラメータ619を生成するように構成されたパラメータ生成制御経路602を有するパラメータ生成制御経路、に印加されるフィードフォワードトポロジを示す。図6Aのフィードフォワードトポロジの例における信号変更経路601は、オーディオ信号、例えばその振幅を、パラメータ生成制御経路602から受信される変更パラメータ619に従って周波数変化及び/又は時間変化するような態様で変更することができるデバイスまたはプロセスであればよい。1つの実施形態では、パラメータ生成制御経路602の少なくとも一部は、知覚ラウドネス領域において動作する。一方、信号変更経路601は電気信号領域において動作し、変更済みオーディオ信号615を作成する。
<Feed forward mechanism>
6A-6D, functional blocks representing several embodiments of quality-enhanced signal processing that alters an audio signal to produce modified audio to bring the partial specific loudness closer to the target specific loudness using a feedforward mechanism. The figure is shown. In particular, FIG. 6A shows that the audio signal 611 has two paths: a signal modification path 601 having one or more processes or devices configured to modify the audio signal 611 in response to one or more modification parameters 619. And a feedforward topology applied to a parameter generation control path having a parameter generation control path 602 configured to generate a modified parameter 619. The signal change path 601 in the feedforward topology example of FIG. 6A changes the audio signal, eg, its amplitude, in a manner that changes in frequency and / or time according to a change parameter 619 received from the parameter generation control path 602. Any device or process that can be used. In one embodiment, at least a portion of the parameter generation control path 602 operates in the perceptual loudness region. On the other hand, the signal change path 601 operates in the electrical signal domain and creates a changed audio signal 615.

信号変更経路601及びパラメータ生成制御経路602は、特定ラウドネスと目標特定ラウドネス623との間の差を縮小するべくオーディオ信号を変更するように構成される。   The signal change path 601 and the parameter generation control path 602 are configured to change the audio signal to reduce the difference between the specific loudness and the target specific loudness 623.

1つの実施形態では、信号変更経路601及びパラメータ生成制御経路602の各々は、前処理操作またはデバイスによって予め処理された信号を処理する。このため、図6Aでは、前処理済みオーディオ613を作成する前処理機能ブロック603を例示している。   In one embodiment, each of the signal modification path 601 and the parameter generation control path 602 processes a signal that has been pre-processed by a pre-processing operation or device. For this reason, FIG. 6A illustrates a preprocessing function block 603 that creates a preprocessed audio 613.

図6Aのフィードフォワードの例では、パラメータ生成制御経路602はいくつかのプロセス及び/又はデバイスを備えるものであればよい:図6Aに示す例では、パラメータ生成制御経路602には、オーディオ信号611、またはオーディオ信号の指標に応答して、及び前処理済みオーディオ信号613に応答してオーディオ信号の特定ラウドネス617を算出するように構成された1つ以上のプロセス及び/又はデバイスを備え、特定ラウドネスを算出するブロック605が含まれる。パラメータ生成制御経路602には変更パラメータを算出するブロック607が含まれる。変更パラメータを算出するブロック607は、特定ラウドネスまたは励振617、目標特定ラウドネス623、雑音等の二次的干渉オーディオ信号621による励振や特定ラウドネスに応答して、変更パラメータを算出する。従って、変更パラメータを算出するブロック607は、入力としてこのような二次的干渉オーディオ信号の指標を受信するか、または二次的干渉信号そのものを入力の1つとして受信する。本願明細書において後に、ならびに国際公開第2006047600号及び国際公開第2007120453号においてさらに詳細に記載されているように、二次的干渉信号の指標はその励振とすればよい。図6Aに示す変更パラメータを算出するブロック607への干渉信号の指標または信号そのものの印加によって、適切に構成されたプロセスまたはデバイスにより、雑音補償を達成するべく干渉信号を考慮に入れた変更パラメータ619を算出することができる。   In the feedforward example of FIG. 6A, the parameter generation control path 602 may comprise several processes and / or devices: In the example shown in FIG. 6A, the parameter generation control path 602 includes an audio signal 611, Or comprising one or more processes and / or devices configured to calculate a specific loudness 617 of the audio signal in response to the indication of the audio signal and in response to the preprocessed audio signal 613, the specific loudness A block 605 to calculate is included. The parameter generation control path 602 includes a block 607 for calculating a change parameter. The change parameter calculation block 607 calculates the change parameter in response to excitation or specific loudness due to secondary interference audio signal 621 such as specific loudness or excitation 617, target specific loudness 623, noise, and the like. Accordingly, the change parameter calculation block 607 receives such a secondary interference audio signal indicator as an input, or receives the secondary interference signal itself as one of its inputs. As described in more detail later in this specification and in WO2006047600 and WO2007120453, the indicator of the secondary interference signal may be its excitation. A change parameter 619 that takes into account the interference signal to achieve noise compensation by an appropriately configured process or device by applying an indicator of the interference signal or the signal itself to the block 607 for calculating the change parameter shown in FIG. 6A. Can be calculated.

図6Aのフィードフォワードの例では、部分特定ラウドネスが陽的に算出されない。図6Aの、変更パラメータを算出するブロック607が、変更済みオーディオの部分特定ラウドネスに、目標特定ラウドネス623を近似させるのに適当な変更パラメータを算出する。フィードバック及びハイブリッド構成では、部分特定ラウドネスも算出される場合がある。   In the feedforward example of FIG. 6A, the partial specific loudness is not calculated explicitly. The change parameter calculation block 607 of FIG. 6A calculates the appropriate change parameter to approximate the target specific loudness 623 to the partial specific loudness of the modified audio. For feedback and hybrid configurations, partial specific loudness may also be calculated.

ある実施形態では、図6Bに示すように、制御経路602の変更パラメータを算出するブロック607の目標特定ラウドネスは、一般にはオーディオ信号またはその指標、ならびに図示の実施形態では前処理済みオーディオ信号613に応答して目標特定ラウドネス623を算出するように構成されるプロセスまたはデバイスを1つ以上備える目標特定ラウドネスブロック631によって求められる。この目標特定ラウドネスを算出するブロック631は、各々が関数パラメータを有する1つ以上の関数「F」を実施する。例えばブロック631はオーディオ信号の特定ラウドネスを算出し、次に、それに1つ以上の関数Fを適用して目標特定ラウドネス623を提供すればよい。このため図6Aに、目標特定ラウドネスを算出するブロック631への「関数及び/又は関数パラメータ」入力633を概略的に図示している。   In one embodiment, as shown in FIG. 6B, the target specific loudness of block 607 for calculating the change parameter of the control path 602 is typically in the audio signal or its indicator, as well as in the illustrated embodiment the preprocessed audio signal 613. Determined by a target specific loudness block 631 comprising one or more processes or devices configured to calculate target specific loudness 623 in response. This target specific loudness calculation block 631 implements one or more functions “F” each having a function parameter. For example, block 631 may calculate a specific loudness of the audio signal and then apply one or more functions F to it to provide a target specific loudness 623. To this end, FIG. 6A schematically illustrates a “function and / or function parameter” input 633 to a block 631 for calculating target specific loudness.

ある実施形態では、図6Cに示すように、目標特定ラウドネス623は模式的に示す記憶要素635から提供され、パラメータ生成制御経路602内に含まれるか、または関連付けられる。   In some embodiments, as shown in FIG. 6C, the target specific loudness 623 is provided from the storage element 635 schematically shown and included in or associated with the parameter generation control path 602.

さらに、図6Dに示すように、ある実施形態では、目標特定ラウドネス623はプロセスまたはデバイス全体の外部のソースによって提供される。   Further, as shown in FIG. 6D, in one embodiment, target specific loudness 623 is provided by a source external to the process or the entire device.

従って、変更パラメータ619は、少なくとも一部が知覚(音響心理学的)ラウドネス領域における算出に基づく。   Accordingly, the change parameter 619 is based at least in part on calculations in the perceptual (acoustic psychological) loudness region.

図6Aの例におけるプロセスまたはデバイス605及び607、ならびに図6Bにおける631によって実施される算出は、陽的及び/又は陰的に実施されればよい。陰的実施の例としては、(1)項目の全部または一部が特定ラウドネス及び/又は目標特定ラウドネス623ならびに/あるいは変更パラメータの算出に基づくルックアップテーブルと、(2)本質的に全てまたは一部が特定ラウドネス及び/又は目標特定ラウドネス623ならびに/あるいは変更パラメータに基づく閉じた数式とが挙げられる。   The calculations performed by the processes or devices 605 and 607 in the example of FIG. 6A and 631 in FIG. 6B may be performed explicitly and / or implicitly. Examples of implicit implementations include: (1) a lookup table in which all or part of the items are based on specific loudness and / or target specific loudness 623 and / or calculation of modified parameters; and (2) essentially all or one. And closed mathematical formulas whose parts are based on specific loudness and / or target specific loudness 623 and / or modified parameters.

図6A及び図6Bの例の算出ブロック605、607及び631は模式的に示されており、さらに別個のもののように記載されているが、これは単に説明の目的のためでしかない。これらのプロセスまたはデバイスのうちの或るものまたは全てが、単一のプロセスまたはデバイス内で組み合わせられるか、あるいは複数のプロセスまたはデバイス内で様々に組み合わせられてよいことは理解されよう。   Although the calculation blocks 605, 607, and 631 in the example of FIGS. 6A and 6B are schematically illustrated and described as separate, this is for illustrative purposes only. It will be appreciated that some or all of these processes or devices may be combined within a single process or device, or various combinations within multiple processes or devices.

目標特定ラウドネスはオーディオ信号の特定ラウドネス等のオーディオ信号の指標のスケーリングであればよい。例えば、国際公開第2006047600号及び国際公開第2007120453号に詳細に記載されているように、スケーリングは特定ラウドネスの下記のスケーリングの1つまたはその組み合わせであればよい。ここでbは周波数の指標、例えば前処理603が入力信号を複数の周波数帯域に分離する場合の帯域数を示し、tは時間の指標を示し、   The target specific loudness may be a scaling of an index of the audio signal such as the specific loudness of the audio signal. For example, as described in detail in WO2006047600 and WO2007120453, the scaling may be one or a combination of the following scalings for a specific loudness. Here, b represents a frequency index, for example, the number of bands when the preprocessing 603 separates the input signal into a plurality of frequency bands, t represents a time index,

Figure 2012503426
は目標特定ラウドネス623を示し、N[b,t]はオーディオ信号611の特定ラウドネス617を示す。
Figure 2012503426
Indicates the target specific loudness 623, and N [b, t] indicates the specific loudness 617 of the audio signal 611.

(a)時間且つ周波数変化スケールファクタΞ[b,t]による、次の関係にあるような、特定ラウドネスのスケーリング:   (A) Scaling a specific loudness as a function of time and frequency change scale factor Ξ [b, t]:

Figure 2012503426
Figure 2012503426

(b)時間変化、周波数不変スケールファクタΦ[t]による、次の関係にあるような、特定ラウドネスのスケーリング:   (B) Scaling of a specific loudness with the following relationship by time-varying, frequency-invariant scale factor Φ [t]:

Figure 2012503426
Figure 2012503426

(c)時間不変、周波数変化スケールファクタΘ[b]による、次の関係にあるような、特定ラウドネスのスケーリング:   (C) Time-invariant, frequency change scale factor Θ [b] with a specific loudness scale as:

Figure 2012503426
Figure 2012503426

(d)時間不変、周波数不変のスケールファクタαによる、次の関係にあるような、オーディオ信号の特定ラウドネスのスケーリング:   (D) Scaling the specific loudness of the audio signal with a time-invariant, frequency-invariant scale factor α, such that:

Figure 2012503426
Figure 2012503426

Figure 2012503426
Figure 2012503426

と示される目標特定ラウドネス623は、ゆえにオーディオ信号またはオーディオ信号の指標の組み合わせでFによって示される1つ以上の関数として表されればよく、特定ラウドネスN[b,t]をオーディオ信号の1つのありうる指標とすれば、次のようになる:   The target specific loudness 623, denoted as, may thus be expressed as one or more functions denoted by F in the audio signal or a combination of audio signal indicators, and the specific loudness N [b, t] Possible indicators are as follows:

Figure 2012503426
Figure 2012503426

関数または関数群Fが可逆的であるならば、未変更オーディオ信号611の特定ラウドネスN[b,t]は目標特定ラウドネス623の逆関数または関数群F−1(N[b,t])として算出されてよい。 If the function or function group F is reversible, the specific loudness N [b, t] of the unchanged audio signal 611 is the inverse function of the target specific loudness 623 or the function group F −1 (N [b, t]). May be calculated.

図6Aにフィードフォワード機構を示しているが、逆関数または関数群F−1( )が算出されるフィードバック及びハイブリッドフィードフォワード/フィードバック機構を用いることも知られている。例えば、国際公開第2006047600号及び国際公開第2007120453号を参照されたい。しかし、解説を簡潔にするために、本願明細書においてはフィードフォワード構成のみを記載する。 Although FIG. 6A shows a feedforward mechanism, it is also known to use a feedback and hybrid feedforward / feedback mechanism in which an inverse function or function group F −1 () is calculated. See, for example, WO2006047600 and WO2007120453. However, for the sake of brevity, only the feedforward configuration is described herein.

ルックアップテーブル、閉じた数式、または何らかの他の技法のいずれを用いるにせよ、パラメータ生成制御経路602の操作は、たとえ特定ラウドネス及び目標特定ラウドネス623が陽的に算出されない場合があっても、算出は知覚(音響心理学的)ラウドネス領域を拠点とするものである。陽的な特定ラウドネスがあるか、又は概念的、陰的な特定ラウドネスがあるかのいずれかがある。同様に、陽的な目標特定ラウドネス623があるか、又は概念的、陰的な目標特定ラウドネス623があるかのいずれかがある。いずれの場合でも、変更パラメータの算出は、特定ラウドネスと目標特定ラウドネス623との間の差を縮小するべくオーディオ信号を変更する変更パラメータを生成することを追求するものである。   Whether using a look-up table, a closed formula, or some other technique, the operation of the parameter generation control path 602 is calculated even though the specific loudness and target specific loudness 623 may not be calculated explicitly. Is based in the perceptual (acoustic psychological) loudness domain. There is either explicit specific loudness or conceptual or implicit specific loudness. Similarly, there is either an explicit target specific loudness 623 or a conceptual, implicit target specific loudness 623. In any case, the calculation of the change parameter seeks to generate a change parameter that changes the audio signal to reduce the difference between the specific loudness and the target specific loudness 623.

変更パラメータ619は、信号変更経路601によってオーディオ信号(または前処理済みオーディオ信号)に適用されると、結果として生じる変更済みオーディオの部分特定ラウドネスと目標特定ラウドネス623との間の差を縮小する。理想的には、変更済みオーディオ信号615の部分特定ラウドネスは目標特定ラウドネス623をよく近似するかまたはそれと同じになる。   The change parameter 619 when applied to the audio signal (or preprocessed audio signal) by the signal change path 601 reduces the difference between the resulting changed audio partial specific loudness and the target specific loudness 623. Ideally, the partial specific loudness of the modified audio signal 615 closely approximates or is the same as the target specific loudness 623.

ある実施形態では、前処理は、例えばフィルタバンクを用いて、オーディオ信号を複数の周波数帯域に分離する。このような実施形態では、変更パラメータ619は、後により詳細に記載される例におけるように、603内でフィルタバンクから導出される周波数帯域に適用される時間変化ゲインファクタの形をとればよい。代替の実施形態では、変更パラメータ619は時間変化フィルタの係数に適用される。それに応じて、図6Aの例において、信号変更経路601は、例えば或る周波数帯域内で各々動作する複数の振幅スケーラ、または時間変化フィルタ、例えばマルチタップFIRフィルタまたは多極IIRフィルタとして実装されればよい。   In some embodiments, the preprocessing separates the audio signal into multiple frequency bands using, for example, a filter bank. In such an embodiment, the change parameter 619 may take the form of a time-varying gain factor applied to the frequency band derived from the filter bank within 603, as in the example described in more detail later. In an alternative embodiment, the change parameter 619 is applied to the coefficients of the time varying filter. Accordingly, in the example of FIG. 6A, the signal modification path 601 is implemented as, for example, a plurality of amplitude scalers each operating within a certain frequency band, or a time-varying filter, such as a multi-tap FIR filter or a multipole IIR filter. That's fine.

特定ラウドネスまたは部分特定ラウドネスを求める際に重要または不可欠というものではないが、ある実施形態では、特定ラウドネスを算出するブロック605において、上述の国際公開第2004/111964号において説明されている技法であって、算出が、2つ以上の特定ラウドネスモデル関数のグループから、特定ラウドネスモデル関数のうちの1つまたはその2つ以上の組み合わせを選択し、その選択は入力オーディオ信号の特性の指標によって制御される、技法を用いるものがある。   While not critical or indispensable in determining specific loudness or partial specific loudness, in one embodiment, the technique described in WO 2004/111964 described above is used in block 605 to calculate specific loudness. The calculation selects one or a combination of two or more specific loudness model functions from a group of two or more specific loudness model functions, the selection being controlled by an indicator of the characteristics of the input audio signal. Some use techniques.

本発明のさらなる態様によれば、未変更オーディオ信号611、ならびに(1)変更パラメータ619または(2)目標特定ラウドネス623もしくは目標特定ラウドネス623の表現、例えば、目標特定ラウドネス623を陽的または陰的に算出する際に利用可能なスケールファクタのうちのいずれかは、例えば時間的及び/又は空間的に分離したデバイスまたはプロセスにおける利用のために、記憶されるかまたは送信されればよい。変更パラメータ、目標特定ラウドネス623、または目標特定ラウドネス623の表現は任意の適切な方法で求められればよい。実際には、図6Aの例におけるもの等のフィードフォワード機構が最も複雑さが低く且つ最も高速である。なぜなら、それは変更済みオーディオ信号615に基づいた算出を避けるからである。   According to further aspects of the invention, the unmodified audio signal 611 and (1) the modified parameter 619 or (2) the target specific loudness 623 or a representation of the target specific loudness 623, eg, the target specific loudness 623 may be explicit or implicit. Any of the scale factors available in calculating can be stored or transmitted, for example, for use in temporally and / or spatially separated devices or processes. The change parameter, the target specific loudness 623, or the expression of the target specific loudness 623 may be obtained by any appropriate method. In practice, a feedforward mechanism such as that in the example of FIG. 6A is the least complex and the fastest. This is because it avoids calculations based on the modified audio signal 615.

図7に、前処理において入力オーディオを周波数帯域群に分離するフィードフォワード機構を備える本発明の態様の一実施形態例の詳細を示す。実際の実施形態では、オーディオの処理はデジタル領域において実行され、従って、アナログ信号のサンプリング及びデジタル化が実行される。このような詳細は本記載からは外されているが、当業者には明らかであろう。   FIG. 7 shows details of an example embodiment of an aspect of the present invention that includes a feedforward mechanism that separates input audio into frequency band groups during preprocessing. In an actual embodiment, the audio processing is performed in the digital domain, and thus analog signal sampling and digitization is performed. Such details are omitted from this description but will be apparent to those skilled in the art.

オーディオ611はまず、オーディオ信号を複数の周波数帯域に分割する分析フィルタバンク関数またはデバイス703に通される。これは本実施形態例での前処理603である。図7における太線は複数の信号を示しており、従って各々は分析フィルタバンク703からの周波数帯域である複数の出力である。これらの周波数帯域の各々は、図示されている様々な処理ステップを受け、合成フィルタバンク723に至り、合成フィルタバンク723は帯域を結合広帯域信号に合計して変更済みオーディオ信号615を生成する。   The audio 611 is first passed through an analysis filter bank function or device 703 that divides the audio signal into a plurality of frequency bands. This is the preprocessing 603 in this embodiment. The thick lines in FIG. 7 indicate a plurality of signals, and thus each is a plurality of outputs that are frequency bands from the analysis filter bank 703. Each of these frequency bands is subjected to the various processing steps shown, leading to a synthesis filter bank 723, which sums the bands into a combined wideband signal to produce a modified audio signal 615.

分析フィルタバンク703内の各周波数帯域に関連付けられるフィルタの応答は、人間の内耳内の基底膜の特定の場所における応答を模擬するように設計される。ある実施形態では、分析フィルタバンク703には、等価矩形帯域幅(equivalent rectangular bandwidth、ERB)の周波数スケール上で帯域幅及び間隔が一定である線形フィルタのセットが含まれる。   The filter response associated with each frequency band in the analysis filter bank 703 is designed to mimic the response at a specific location of the basement membrane in the human inner ear. In one embodiment, the analysis filter bank 703 includes a set of linear filters that have a constant bandwidth and spacing on the frequency scale of the equivalent rectangular bandwidth (ERB).

分析フィルタバンク703は、短時間離散フーリエ変換(短時間DFT、STDFT)または変形離散コサイン変換(変形DCT、MDCT)を用いることによって効率的に実行されればよい。STDFTまたはMDCTは合成フィルタバンク723の実行に同様に用いられればよい。   The analysis filter bank 703 may be efficiently executed by using short-time discrete Fourier transform (short-time DFT, STDFT) or modified discrete cosine transform (modified DCT, MDCT). STDFT or MDCT may be used in the same way for the execution of the synthesis filter bank 723.

分析フィルタバンク703内の各フィルタの出力は次に、人間の外耳及び中耳を通じたオーディオの伝導のフィルタリング効果を模擬するように設計される伝導フィルタ関数またはデバイス705内に進む。   The output of each filter in the analysis filter bank 703 then proceeds into a conduction filter function or device 705 that is designed to simulate the filtering effect of audio conduction through the human outer and middle ears.

入力オーディオ信号のラウドネスを計算するために、分析フィルタバンク703の各フィルタ内の、伝導フィルタ705の適用後のオーディオ信号の短時間エネルギーの指標が得られる。この時間且つ周波数変化指標は励振と呼ばれ、E[b,t]と示される。ここで、bは周波数帯域を示し、tは時間を示す。励振を得るために、伝導フィルタ705の出力は次に励振関数またはデバイス707内に進む。励振関数またはデバイス707の出力は、人間の耳の基底膜に沿ったエネルギーの分布を模擬するように設計される。所望の効果に応じて、励振エネルギー値は、処理の所望の効果の要求に従って設定される時間定数を有するように設計される平滑化関数またはデバイス709によって、時間にわたって平滑化されればよい。励振関数707の出力は、bと示されるそれぞれのERB帯域内の、tと示される時間当たりのEと示されるエネルギーの周波数領域表現である。   In order to calculate the loudness of the input audio signal, an indication of the short-time energy of the audio signal after application of the conduction filter 705 within each filter of the analysis filter bank 703 is obtained. This time and frequency change index is called excitation and is denoted as E [b, t]. Here, b indicates a frequency band, and t indicates time. In order to obtain excitation, the output of the conduction filter 705 then proceeds into the excitation function or device 707. The excitation function or output of device 707 is designed to simulate the distribution of energy along the basement membrane of the human ear. Depending on the desired effect, the excitation energy value may be smoothed over time by a smoothing function or device 709 that is designed to have a time constant set according to the desired effect requirements of the process. The output of the excitation function 707 is a frequency domain representation of the energy, denoted E, per time, denoted t, within the respective ERB band denoted b.

特定ラウドネス関数またはデバイス711が、平滑化された励振信号を特定ラウドネス(specific loudness、SL)に変換する。特定ラウドネスは、例えば、単位周波数当たりのソーン単位、例えば、ERB当たりのソーン、で表現されればよい。特定ラウドネスから、全体または総合ラウドネスは、全帯域bにわたる特定ラウドネスの合計となることに留意されたい。特定ラウドネス関数711の設計には、楽音及び雑音についてのラウドネスの増大に関する実験データに一致するように選定される、狭帯域及び広帯域の推定値のためのゲインを求めることが含まれる。さらに、特定ラウドネス関数711は、励振が最小可聴域値にあるときは特定ラウドネスがゼロの代わりに或る小さな値となるように、及び励振がゼロまで減少するにつれて特定ラウドネスがゼロまで単調減少するように設計される。励振E[b,t]の、N[b,t]と示される特定ラウドネスへの変換は、本願明細書においてΨ{・}によって示される関数によるものであり、従って、特定ラウドネスはN[b,t]=Ψ{E[b,t]}となる。   A specific loudness function or device 711 converts the smoothed excitation signal to a specific loudness (SL). The specific loudness may be expressed by, for example, a thorn unit per unit frequency, for example, a thorn per ERB. Note that from a specific loudness, the total or total loudness is the sum of the specific loudness over the entire band b. The design of the specific loudness function 711 includes determining gains for narrowband and wideband estimates that are chosen to be consistent with experimental data regarding loudness increases for music and noise. Furthermore, the specific loudness function 711 is such that when the excitation is at the minimum audible value, the specific loudness is some small value instead of zero, and as the excitation decreases to zero, the specific loudness decreases monotonically to zero. Designed as such. The transformation of the excitation E [b, t] into a specific loudness, denoted N [b, t], is due to the function denoted by Ψ {·} herein, and therefore the specific loudness is N [b , T] = Ψ {E [b, t]}.

処理の特定の所望の効果または効果群に応じて、周波数帯域に関連付けられる特定ラウドネス成分は、目標特定ラウドネスを生成する特定ラウドネス変更関数、またはデバイス713に送られる。図6Bを参照して、上述のように、ある実施形態ではその目標特定ラウドネスは、処理の所望の効果に従う、入力オーディオの特定ラウドネスの関数である。目標特定ラウドネスは、例えば音量制御のスケールファクタを用いて算出することができる。自動ゲイン制御(automatic gain control、AGC)の場合、またはダイナミックレンジ制御(dynamic range control、DRC)の場合については、所望の出力ラウドネスの、入力ラウドネスに対する比を用いて目標特定ラウドネスを算出すればよい。1つの実施形態でには、全ての帯域についてDRCを実施する代わりに、1つの帯域から次の帯域へ適用されるDRCの量が急激に変化しないように、N[b,t]で表される特定ラウドネスを帯域にわたって実施し平滑化する。   Depending on the particular desired effect or group of effects of the process, the specific loudness component associated with the frequency band is sent to a specific loudness change function or device 713 that produces the target specific loudness. Referring to FIG. 6B, as described above, in one embodiment, the target specific loudness is a function of the specific loudness of the input audio according to the desired effect of the processing. The target specific loudness can be calculated using, for example, a scale factor for volume control. For automatic gain control (AGC) or dynamic range control (DRC), the target specific loudness can be calculated using the ratio of the desired output loudness to the input loudness. . In one embodiment, instead of performing DRC for all bands, it is represented by N [b, t] so that the amount of DRC applied from one band to the next does not change abruptly. A specific loudness is applied and smoothed over the band.

ダイナミックイコライゼーション(DEQ)の場合は、流れているオーディオのスペクトルを考慮した関係を用いて目標特定ラウドネスを算出する。具体的には、信号のスペクトルを測定し、次に信号を動的に変更して、測定されたスペクトルを、EQ[b]と呼ばれ、帯域bにわたって規定される基本的に静的な所望の形状に変換する。オーディオ信号のスペクトル形状はL[b,t]によって表され、1つの実施形態では、N[b,t]と示される特定ラウドネスの、時間にわたる平滑化として求められる。マルチバンドDRCと同様に、DEQ変更が1つの帯域から次へ急激に変化してほしくない場合があるため、帯域平滑化されたスペクトルを生成するために帯域平滑化関数を適用する。オーディオの元のダイナミックレンジを保存するために、所望のスペクトルEQ[b]は、L[b,t]によって与えられる測定スペクトル形状と同じ全体ラウドネスを有するように正規化されなければならない。1つの実施形態では、パラメータ、例えば値0がDEQ無しを示すものとして、適用されるDEQの量を表す0から1まで変化するパラメータが指定される。従って、SL変更713は各帯域とは独立に動作する場合もあるし、あるいは帯域同士の間または帯域群の中に相互依存性が存在する場合もある。   In the case of dynamic equalization (DEQ), the target specific loudness is calculated using a relationship that takes into account the spectrum of the flowing audio. Specifically, the spectrum of the signal is measured, and then the signal is dynamically changed, and the measured spectrum is referred to as EQ [b], which is basically a static desired Convert to shape. The spectral shape of the audio signal is represented by L [b, t] and, in one embodiment, is determined as a smoothing over time of a specific loudness denoted N [b, t]. As with multiband DRC, the DEQ change may not want to change rapidly from one band to the next, so a band smoothing function is applied to generate a band smoothed spectrum. In order to preserve the original dynamic range of the audio, the desired spectrum EQ [b] must be normalized to have the same overall loudness as the measured spectral shape given by L [b, t]. In one embodiment, a parameter is specified that varies from 0 to 1 representing the amount of DEQ applied, for example, a value of 0 indicating no DEQ. Accordingly, the SL change 713 may operate independently of each band, or there may be interdependence between bands or within a band group.

この実施形態には、ブロック703、705、707及び709の操作に対応する方法での、分析フィルタバンク733、伝導フィルタ735、励振737及び平滑化739による雑音励振の測定も含まれる。雑音励振は、平滑化709からのオーディオの励振及びSL変更713からの目標特定ラウドネスとともに、ゲインソルバ631に送られる。   This embodiment also includes measurement of noise excitation by analysis filter bank 733, conduction filter 735, excitation 737 and smoothing 739 in a manner corresponding to the operation of blocks 703, 705, 707 and 709. The noise excitation is sent to the gain solver 631 along with the audio excitation from the smoothing 709 and the target specific loudness from the SL change 713.

平滑器709からの平滑化された励振周波数帯域成分、平滑器739からの平滑化された励振周波数帯域成分、及びSL変更713からの目標特定ラウドネス623をその入力として取り込むゲインソルバ関数またはデバイス715が、求められた部分特定ラウドネスを目標特定ラウドネス623に変換するために、各帯域に適用する必要があるゲインを求めるように構成される。求められるゲインは一般的に周波数且つ時間変化ゲインであり、そこれらのゲインがオーディオ入力及び雑音の元の励振に適用されると、理想的には所望の目標特定ラウドネスに等しい部分特定ラウドネスを生じさせ、実際には部分特定ラウドネスと目標特定ラウドネスとの間の差を縮小するためにオーディオ信号を変更する結果となる。ゲインソルバ515は様々な方法で実行されればよい。閉じた計算が可能な場合は、それが適用される。テーブル索引が可能な場合は、そのようなテーブル索引が用いられてもよい。1つの実施形態では、ゲインソルバは、反復ごとにゲインの現在の推定値を用いて部分特定ラウドネスが評価される反復プロセスを含むものであればよい。結果として生じる部分特定ラウドネスは所望の目標と比較され、ゲインは誤差に基づいて反復的に更新される。このような反復的方法は、国際公開第2004111964号として公開されている上述の国際特許出願において開示されている。特定ラウドネス及び目標特定ラウドネスの陽的または陰的いずれかの計算を通じて変更パラメータを計算する他の方法が考案されてもよく、本発明はそのような方法を全て範囲に含むことを意図している。   A gain solver function or device 715 that takes as input the smoothed excitation frequency band component from the smoother 709, the smoothed excitation frequency band component from the smoother 739, and the target specific loudness 623 from the SL change 713. In order to convert the determined partial specific loudness to the target specific loudness 623, it is configured to determine a gain that needs to be applied to each band. The required gains are typically frequency and time-varying gains, and when these gains are applied to the original excitation of the audio input and noise, they produce a partial specific loudness that is ideally equal to the desired target specific loudness. In practice, this results in changing the audio signal to reduce the difference between the partial specific loudness and the target specific loudness. The gain solver 515 may be executed by various methods. If a closed calculation is possible, it is applied. If a table index is possible, such a table index may be used. In one embodiment, the gain solver may include an iterative process in which the partial specific loudness is evaluated using the current estimate of gain at each iteration. The resulting partial specific loudness is compared to the desired target, and the gain is iteratively updated based on the error. Such an iterative method is disclosed in the aforementioned international patent application published as WO2004111964. Other methods may be devised to calculate the modified parameters through either explicit or implicit calculation of specific loudness and target specific loudness, and the present invention is intended to cover all such methods in scope. .

ゲインソルバ715によって生成された帯域当たりのゲインは、知覚アーチファクトを最小限に抑えるために任意の平滑化関数またはデバイス719によって時間にわたってさらに平滑化される。代替的に、時間的平滑化がプロセスまたはデバイス全体内の他所で適用されることが有利である場合がある。   The gain per band generated by the gain solver 715 is further smoothed over time by any smoothing function or device 719 to minimize perceptual artifacts. Alternatively, it may be advantageous that temporal smoothing is applied elsewhere in the process or the entire device.

最後に、ゲインソルバ715によって求められたゲインは、各乗算結合関数または結合器721を通じてそれぞれの帯域に適用される。乗算結合関数または結合器721は、ゲインを分析フィルタバンクからの遅延された出力に適用する。分析フィルタバンクからの出力はゲイン計算に関連付けられる任意のレイテンシを補償するように構成されたデバイス725又は適切な遅延関数によって遅延されている。   Finally, the gain determined by the gain solver 715 is applied to each band through each multiplying function or combiner 721. Multiply combining function or combiner 721 applies the gain to the delayed output from the analysis filter bank. The output from the analysis filter bank is delayed by a device 725 configured to compensate for any latency associated with the gain calculation or an appropriate delay function.

変更済みオーディオ615は、合成フィルタバンク関数またはデバイス723内のゲイン変更された帯域から合成される。上述のように、分析フィルタバンク703は短時間DFTまたは変形DCTを利用することによって効率的に実行されればよく、STDFTまたはMDCTは合成フィルタバンク723の実行に同様に用いられればよい。各帯域の合成フィルタは、分析フィルタバンク703内で用いられるフィルタ、及び遅延725の遅延から決定される。   The modified audio 615 is synthesized from the synthesized filter bank function or the gain modified band in the device 723. As described above, the analysis filter bank 703 may be efficiently executed by using the short-time DFT or the modified DCT, and the STDFT or MDCT may be similarly used for the execution of the synthesis filter bank 723. The synthesis filter for each band is determined from the filter used in the analysis filter bank 703 and the delay of delay 725.

あるいは、周波数帯域におけるゲイン変更を行うために利用するゲインを算出する代わりに、ゲインソルバ715はマルチタップFIRフィルタまたは多極IIRフィルタ等の時間変化フィルタを制御するフィルタ係数を算出してもよいことに留意されたい。説明を簡潔にするために、本発明の態様では、主に周波数帯域に適用されるゲインファクタを用いる場合について説明しているが、実際の実施形態ではフィルタ係数及び時間変化フィルタが用いられてもよいことは理解されよう。   Alternatively, instead of calculating the gain used to change the gain in the frequency band, the gain solver 715 may calculate a filter coefficient for controlling a time-varying filter such as a multi-tap FIR filter or a multipole IIR filter. Please keep in mind. For the sake of brevity, the case of using a gain factor mainly applied to the frequency band is described in the aspect of the present invention. However, in the actual embodiment, a filter coefficient and a time-varying filter may be used. It will be understood that it is good.

雑音補償のために、G[b,t]で表されるゲインソルバからのゲインは、干渉雑音の存在下における処理済みオーディオの特定ラウドネスが目標特定ラウドネスに等しいか、又はそれに近くなる。この効果を得るためには、部分ラウドネスのコンセプトを用いればよい。E[b,t]は雑音からの励振を表し、E[b,t]は雑音のないオーディオからの励振を表す。オーディオ及び雑音の結合特定ラウドネスは次式によって与えられる。
Tot[b,t]=Ψ{E[b,t]+E[b,t]}
ここで、再び、Ψ{・}は励振から特定ラウドネスへの変換を示す。聴取者の聴覚が、結合特定ラウドネスを、結合特定ラウドネスを保存する様式で、オーディオの部分特定ラウドネスと雑音の部分特定ラウドネスとの間で仕切ると仮定してよい。ここで、N[b,t]と表されるオーディオの部分特定ラウドネスが、制御したい値であり、従ってこの値について解かなければならない。国際公開第2006047600号及び国際公開第2007120453号が、E[b,t]、NTot[b,t]、雑音の存在下におけるマスキングされた閾値、及び静音における、帯域bにおける最小可聴域値から雑音の部分特定ラウドネスがどのように近似されればよいかを記載しており、オーディオの励振が雑音のマスク閾値に等しいとき、オーディオの部分特定ラウドネスは、静音における閾値にある信号のラウドネスに等しく、オーディオの励振が雑音のものよりもはるかに大きいとき、オーディオの特定ラウドネスは、雑音がないとした場合のものに大体等しいという特性を持つ、オーディオの部分特定ラウドネスN[b,t]のための式に達することができる。換言すると、オーディオが雑音よりもはるかに大きくなると、雑音はオーディオによってマスキングされる。式には、雑音内の楽音のラウドネスに関するデータに信号対雑音比の関数としてぴったり合うように経験的に選定されることができる指数値が含まれる。雑音のマスキングされた閾値は、雑音励振自身の関数として近似されればよい。
For noise compensation, the gain from the gain solver denoted G [b, t] is such that the specific loudness of the processed audio in the presence of interference noise is equal to or close to the target specific loudness. In order to obtain this effect, the partial loudness concept may be used. E N [b, t] represents excitation from noise and E A [b, t] represents excitation from noiseless audio. The combined specific loudness of audio and noise is given by:
N Tot [b, t] = Ψ {E A [b, t] + E N [b, t]}
Here, again, Ψ {·} indicates a conversion from excitation to a specific loudness. It may be assumed that the listener's hearing partitions the combined specific loudness between the audio specific loudness and the noise partial specific loudness in a manner that preserves the combined specific loudness. Here, the part specific loudness of the audio, denoted as N A [b, t], is the value that we want to control and therefore must be solved for this value. WO2006047600 and WO2007120453 disclose E N [b, t], N Tot [b, t], masked threshold in the presence of noise, and the minimum audible range value in band b in silence. Describes how the noise specific loudness should be approximated, and when the audio excitation is equal to the noise mask threshold, the audio partial loudness is the signal loudness at the silent threshold. Equally, when the audio excitation is much greater than that of noisy, the audio specific loudness has the property that it is roughly equal to that in the absence of noise, with a partial audio loudness N A [b, t]. Can reach the formula for. In other words, when the audio is much larger than the noise, the noise is masked by the audio. The formula includes an exponent value that can be chosen empirically to fit the data about the loudness of the musical tone in noise as a function of the signal-to-noise ratio. The noise masked threshold may be approximated as a function of the noise excitation itself.

雑音補償の場合、変更されたゲインソルバを用いて、雑音の存在下における処理済みオーディオの部分特定ラウドネスが目標特定ラウドネスに等しいかまたはそれに近くなるようにゲインG[b,t]を算出する。   In the case of noise compensation, a gain G [b, t] is calculated using a modified gain solver so that the partial specific loudness of the processed audio in the presence of noise is equal to or close to the target specific loudness.

最も基本的な動作モードでは、図7におけるSL変更713は目標特定ラウドネスをオーディオN[b,t]の元の特定ラウドネスに単に等しく設定すればよい。換言すると、SLの変更は、周波数不変のスケールファクタによるオーディオ信号の特定ラウドネスのスケーリングを提供する。図7の機構等を用いて、雑音の存在下における処理済みオーディオの知覚されるラウドネススペクトルが、雑音の不在下におけるオーディオのラウドネススペクトルに等しくなるようにしてゲインを算出する。さらに、音量制御、AGC、DRC及びDEQを含む目標特定ラウドネスを元のものの関数として計算する上述の技法のうちの任意の1つまたはそれらの組み合わせを、雑音補償ラウドネス変更システムと併せて用いてもよい。   In the most basic mode of operation, the SL change 713 in FIG. 7 simply sets the target specific loudness equal to the original specific loudness of the audio N [b, t]. In other words, changing the SL provides a specific loudness scaling of the audio signal by a frequency invariant scale factor. Using the mechanism of FIG. 7 and the like, the gain is calculated so that the perceived loudness spectrum of the processed audio in the presence of noise is equal to the loudness spectrum of the audio in the absence of noise. Further, any one or combination of the above techniques that calculate target specific loudness including volume control, AGC, DRC and DEQ as a function of the original may be used in conjunction with a noise compensated loudness modification system. Good.

実際の実施形態では、雑音の測定は、オーディオが再生される場になる環境内またはその付近に設けられるマイクロホンから得られればよい。本発明の1つの態様では、雑音の測定は、再生用資源制約デバイスではなく、信号処理が行われるシステム内のネットワーク要素に結合されたセンサによって行われる。   In an actual embodiment, noise measurements may be obtained from a microphone provided in or near the environment where audio is played. In one aspect of the invention, noise measurement is performed by a sensor coupled to a network element in the system where signal processing is performed, rather than a playback resource constrained device.

図6A〜4Bを図7と比較すると、前処理ブロック603は分析フィルタバンク703によって実行され、オーディオの変更は遅延725、ゲイン乗算721及び合成フィルタバンクの組み合わせによって実行される。特定ラウドネスを算出するブロック605は伝導フィルタ705、励振707、平滑化709及び特定ラウドネス関数711の組み合わせによって実行される。変更パラメータの算出はゲインG(b,t)を算出し、雑音補償がない場合はゲインソルバ715によって、任意に平滑化719と組み合わせて実行される、ならびに、ゲインソルバ715によって、分析フィルタバンク733、伝導フィルタ735、励振737、平滑化739及び特定ラウドネス関数611と組み合わせて、及び任意に平滑化719と組み合わせて実行される。種々の適用例において、図6Bに示す目標特定ラウドネスの算出631は、特定ラウドネス変更ブロック713によって実行される。   Comparing FIGS. 6A-4B with FIG. 7, preprocessing block 603 is performed by analysis filter bank 703 and audio modification is performed by a combination of delay 725, gain multiplication 721 and synthesis filter bank. The block 605 for calculating the specific loudness is executed by a combination of the conduction filter 705, the excitation 707, the smoothing 709 and the specific loudness function 711. The change parameter is calculated by calculating the gain G (b, t), and in the absence of noise compensation, the gain solver 715 optionally executes in combination with the smoothing 719. The gain solver 715 also performs analysis filter bank 733, conduction It is performed in combination with filter 735, excitation 737, smoothing 739 and specific loudness function 611, and optionally in combination with smoothing 719. In various applications, the target specific loudness calculation 631 shown in FIG. 6B is performed by a specific loudness change block 713.

雑音補償が、場合により音量制御、AGC、ダイナミックレンジ制御及び/又はダイナミックイコライゼーションのうちの1つ以上とともに、本願明細書においてある程度詳しく記載されているが、これは、本発明が限定される信号処理の形式を限定することを意味されるものでは決してない。本発明は、メディアデータをレンダリングするべくあるいは処理及びレンダリングするべく資源制約デバイスによって利用可能な処理済み出力を生成するために、資源制限デバイスの環境に関連するが資源制限デバイスからは離れて得られる情報を用いた処理に十分な資源が1つ以上利用可能なネットワーク要素において上流で有利に実行されることができる、メディアデータに対する信号処理操作に適用可能である。   Noise compensation has been described in some detail herein, possibly with one or more of volume control, AGC, dynamic range control, and / or dynamic equalization, which is signal processing to which the present invention is limited. It is never meant to limit the form of. The present invention is related to the environment of a resource limiting device but is obtained remotely from the resource limiting device to generate processed output that can be used by the resource constraining device to render or process and render media data. Applicable to signal processing operations on media data that can be advantageously performed upstream in a network element where one or more resources sufficient for processing with information are available.

上述の記載ならびに国際公開第2004111994号及び国際公開第2006047600号は、特定ラウドネスを求めるいくつかの方法を記載しているが、特定ラウドネスを求めるための他の方法も知られていることに留意されたい。例えば、国際公開第2007120453号を参照されたい。   It is noted that the above description, as well as WO2004111994 and WO2006047600, describe several methods for determining specific loudness, but other methods for determining specific loudness are also known. I want. See, for example, WO2007120453.

1つの実施形態では、コンピュータ可読媒体が、プログラム論理、例えば、少なくとも1つのプロセッサによって実行されると本願明細書において記載されている方法の方法ステップのセットを実行させる命令のセット、を用いて構成される。   In one embodiment, a computer-readable medium is configured with program logic, eg, a set of instructions that, when executed by at least one processor, causes a set of method steps of the methods described herein to be performed. Is done.

一般的な業界用語に従い、「基地局」、「アクセスポイント」及び「AP」の用語は、複数の他の電子デバイスと無線で且つ実質的に同時に通信することができる電子デバイスを表すために本願明細書において同義で用いられ、一方、「クライアント」、「移動デバイス」「携帯デバイス」及び「資源制約デバイス」の用語は、メディアデータをレンダリングする能力を有する複数の他の電子デバイスのいずれかを表すために同義で用いられる。ただし、本発明の範囲は、これらの用語で表されるデバイスに限定されるものではない。   In accordance with common industry terminology, the terms “base station”, “access point”, and “AP” are used to describe an electronic device that can communicate with a plurality of other electronic devices wirelessly and substantially simultaneously. While the terms are used interchangeably in the specification, the terms “client”, “mobile device”, “portable device”, and “resource constrained device” refer to any of a plurality of other electronic devices that have the ability to render media data. Used interchangeably to represent. However, the scope of the present invention is not limited to the devices represented by these terms.

本文書の文脈の中では、「無線」の用語及びその派生語は、非固体媒質を介する変調電磁放射線を利用してデータを通信すればよい回路、デバイス、システム、方法、技法、通信チャンネル等を記載するために用いられればよい。用語は、関連デバイスが線材を全く含まないことを含意するものではない。ただし、実施形態によっては全く含まない場合もある。   In the context of this document, the term “wireless” and its derivatives refer to circuits, devices, systems, methods, techniques, communication channels, etc. that may communicate data using modulated electromagnetic radiation over a non-solid medium. May be used to describe. The term does not imply that the associated device does not contain any wire. However, it may not be included at all depending on the embodiment.

特に別に断らない限り、以下の説明から明らかなように、明細書全体を通じて「処理する」、「計算する」、「算出する」、「求める」または同様のもの等の用語を利用する説明が、コンピュータまたは計算システム、あるいは同様の電子計算デバイスの、電子量等の物理量として表現されるデータを、物理量として同様に表現される他のデータに加工及び/又は変換するアクション及び/又はプロセスを指すことは理解されよう。   Unless otherwise specified, as will be apparent from the following description, explanations using terms such as “process,” “calculate,” “calculate,” “seek,” or the like throughout the specification, Refers to actions and / or processes that process and / or convert data expressed as physical quantities, such as electronic quantities, into other data that is also expressed as physical quantities in a computer or computing system or similar electronic computing device Will be understood.

同様に、「プロセッサ」の用語は、例えばレジスタ及び/又はメモリなどからの電子データを処理し、その電子データを例えばレジスタ及び/又はメモリなどの中に記憶されればよい他の電子データに変換する任意のデバイスまたはデバイスの部分を指すものであればよい。「コンピュータ」あるいは「計算機」または「計算プラットフォーム」とはプロセッサを少なくとも1つ含むものであればよい。   Similarly, the term “processor” processes electronic data from, for example, registers and / or memories, and converts the electronic data into other electronic data that may be stored in, for example, registers and / or memory. Any device or part of a device may be used. The “computer” or “computer” or “computation platform” may include at least one processor.

いくつかの要素、例えばいくつかのステップを含む方法が記載されるとき、特に断らない限り、このような要素の順序付け、例えばステップの順序付け、は含意されていないことに留意されたい。   It should be noted that when a method is described that includes several elements, eg, several steps, the ordering of such elements, eg, the ordering of steps, is not implied unless specifically stated otherwise.

本願明細書において記載されている手法は、1つの実施形態では、1つ以上のコンピュータ可読媒体上で具体化されるコンピュータ実行可能(機械実行可能とも呼ばれる)プログラム論理を受け取る1つ以上のプロセッサによって実施可能である。プログラム論理は、プロセッサのうちの1つ以上によって実行されると本願明細書において記載されている方法のうちの少なくとも1つを実行する命令のセットを含む。取るべきアクションを指定する命令のセット(順次または他の形式)を実行する能力がある任意のプロセッサが含まれる。従って、1つの例は、1つのプロセッサまたはそれを超えるプロセッサを含む典型的な処理システムである。各プロセッサはCPU、グラフィックス処理ユニット及びプログラム可能DSPユニットのうちの1つ以上を含むものであればよい。処理システムはメインRAM及び/又はスタティックRAM、ならびに/あるいはROMを含むメモリサブシステムを含む記憶サブシステムをさらに含んでよい。記憶サブシステムは他の記憶デバイスを1つ以上さらに含んでよい。コンポーネント同士の間の通信のためにバスサブシステムが含まれればよい。処理システムはさらに、ネットワークによって結合されるプロセッサを備える分散処理システムであってもよい。処理システムがディスプレイを必要とする場合は、そのようなディスプレイ、例えば、液晶ディスプレイ(liquid crystal display、LCD)または陰極線管(cathode ray tube、CRT)ディスプレイ、が含まれればよい。手作業のデータ入力が必要とされる場合は、処理システムはキーボード等の英数字入力ユニット、マウス等のポインティング制御デバイスなどのうちの1つ以上等の入力デバイスも含む。本願明細書において用いられるような記憶デバイス、記憶サブシステム等のユニットの用語は、文脈から明らかである場合、及び明示的に別に断らない限り、ディスクドライブユニット等の記憶デバイスも包含する。一部の構成における処理システムは音声出力デバイス及びネットワークインターフェースデバイスを含んでよい。従って、記憶サブシステムは、1つ以上のプロセッサによって実行されると本願明細書において記載されている方法のうちの1つ以上を実施させる命令のセットを含むプログラム論理(例えばソフトウェア)を保持するコンピュータ可読媒体を含む。プログラム論理はハードディスク内にあってもよいし、あるいは処理システムによるその実行中はRAM内に及び/又はプロセッサ内に、完全にまたは少なくとも部分的に、あってもよい。従って、メモリ及びプロセッサも、プログラム論理が例えば命令の形でエンコードされるコンピュータ可読媒体の構成要素となる。   The techniques described herein may be implemented, in one embodiment, by one or more processors that receive computer-executable (also called machine-executable) program logic embodied on one or more computer-readable media. It can be implemented. The program logic includes a set of instructions that, when executed by one or more of the processors, perform at least one of the methods described herein. Any processor capable of executing a set of instructions (sequential or other form) specifying the action to be taken is included. Thus, one example is a typical processing system that includes one processor or more. Each processor may include one or more of a CPU, a graphics processing unit, and a programmable DSP unit. The processing system may further include a storage subsystem including a main RAM and / or static RAM, and / or a memory subsystem including a ROM. The storage subsystem may further include one or more other storage devices. A bus subsystem may be included for communication between components. The processing system may further be a distributed processing system comprising processors coupled by a network. If the processing system requires a display, such a display may be included, for example, a liquid crystal display (LCD) or a cathode ray tube (CRT) display. If manual data entry is required, the processing system also includes an input device such as one or more of an alphanumeric input unit such as a keyboard, a pointing control device such as a mouse, and the like. The term units such as storage devices, storage subsystems, etc. as used herein includes storage devices such as disk drive units, unless otherwise apparent from the context and unless explicitly stated otherwise. The processing system in some configurations may include an audio output device and a network interface device. Accordingly, a storage subsystem is a computer that retains program logic (eg, software) that includes a set of instructions that, when executed by one or more processors, cause one or more of the methods described herein to be performed. Includes readable media. The program logic may be in the hard disk, or may be wholly or at least partially in RAM and / or in the processor during its execution by the processing system. Thus, the memory and processor are also components of a computer readable medium in which program logic is encoded, for example in the form of instructions.

さらに、コンピュータ可読媒体がコンピュータプログラム製品を形成するかまたはその中に含まれてもよい。   Further, a computer readable medium may form or be included in a computer program product.

代替の実施形態では、1つ以上のプロセッサは単独のデバイスとして動作するか、あるいは、他のプロセッサ(単数または複数)に接続される、例えば、ネットワーク配置内でネットワーク接続されてもよく、1つ以上のプロセッサはサーバ−クライアントネットワーク環境内のサーバもしくはクライアント機械の容量内で、またはピアツーピアまたは分散ネットワーク環境内のピアマシンとして動作すればよい。1つ以上のプロセッサは、パーソナルコンピュータ(personal computer、PC)、タブレットPC、セットトップボックス(set−top box、STB)、パーソナルデジタルアシスタント(Personal Digital Assistant 、PDA)、携帯電話、ウェブ機器、ネットワークルータ、スイッチまたはブリッジ、あるいは当該機械によって取られるべきアクションを指定する命令のセット(順次または他の形式)を実行する能力がある任意の機械を形成するものであればよい。   In alternative embodiments, one or more processors may operate as a single device or may be connected to other processor (s), eg, networked within a network deployment. These processors may operate within the capacity of a server or client machine in a server-client network environment or as a peer machine in a peer-to-peer or distributed network environment. One or more processors are: a personal computer (PC), a tablet PC, a set-top box (STB), a personal digital assistant (Personal Digital Assistant, PDA), a mobile phone, a web device, a network router , A switch or bridge, or any machine capable of executing a set of instructions (sequential or other form) that specify the action to be taken by the machine.

いくつかの図(単数または複数)は単一のプロセッサ、及び命令を含む論理を保持する単一のメモリしか示していないが、当業者は、上述のコンポーネントは多数含まれるが、本発明の態様をわかりにくくしないようにするために明示的には示されていないまたは記載されていないことを理解しようことに留意されたい。例えば、単一の機械しか図示されていないが、「機械」の用語は、本願明細書において説明される手法のうちの任意の1つ以上を実施する命令のセット(または複数のセット)を個別にまたは合同で実行する機械の任意の集合を含むものとも見なされなければならない。   Although some figures (s) only show a single processor and a single memory holding the logic containing the instructions, those skilled in the art will appreciate that many of the components described above are included, Note that it will be understood that it has not been explicitly shown or described in order not to obscure. For example, although only a single machine is illustrated, the term “machine” refers to a set (or sets) of instructions that perform any one or more of the techniques described herein. It must also be considered to include any set of machines that perform together or jointly.

従って、本願明細書において記載されている方法の各々の1つの実施形態は、信号処理装置の一部である1つ以上のプロセッサなどの1つ以上のプロセッサの上での実行のためのコンピュータプログラムなどの命令のセットで構成されるコンピュータ可読媒体の形態とされている。従って、当業者によって理解されるように、本発明の実施形態は、方法、専用装置等の装置、データ処理システム等の装置、またはコンピュータ可読媒体、例えばコンピュータプログラム製品、として具体化されればよい。コンピュータ可読媒体は、1つ以上のプロセッサ上で実行されると方法ステップを実行させる命令のセットを含む論理を保持する。よって、本発明の態様は、方法、完全にハードウェアの実施形態、完全にソフトウェアの実施形態あるいはソフトウェア及びハードウェアの態様を組み合わせる実施形態の形をとってよい。さらに、本発明は、コンピュータ可読記憶媒体上のコンピュータプログラムなど、コンピュータ可読媒体などにあるプログラム論理、またはコンピュータプログラム製品などのコンピュータ可読プログラムコードで構成されるコンピュータ可読媒体の形をとってもよい。   Accordingly, one embodiment of each of the methods described herein is a computer program for execution on one or more processors, such as one or more processors that are part of a signal processing apparatus. Or the like. Thus, as will be appreciated by those skilled in the art, embodiments of the present invention may be embodied as a method, a device such as a dedicated device, a device such as a data processing system, or a computer readable medium, such as a computer program product. . The computer-readable medium retains logic that includes a set of instructions that, when executed on one or more processors, cause the method steps to be performed. Thus, aspects of the invention may take the form of a method, an entirely hardware embodiment, an entirely software embodiment or an embodiment combining software and hardware aspects. Furthermore, the present invention may take the form of a computer readable medium comprised of program logic, such as a computer program on a computer readable storage medium, or computer readable program code, such as a computer program product.

コンピュータ可読媒体は実施形態例において単一の媒体であるように示されているが、「媒体」の用語は、命令のセットを1つ以上記憶する単一の媒体または複数の媒体(例えば集中または分散データベースならびに/あるいは関連キャッシュ及びサーバ)を含むものと見なされなければならない。「コンピュータ可読媒体」の用語は、プロセッサのうちの1つ以上のものによる実行用のものであって、本発明の手法のうちの任意の1つ以上のものの実行をさせる命令のセットを記憶、エンコードする能力があるかまたはさもなければそれで構成される任意のコンピュータ可読媒体を含むものとも見なされなければならない。コンピュータ可読媒体とは、不揮発性媒体及び揮発性媒体を含む、ただしそれらに限定されるものではない、多くの形態をとってよいものである。不揮発性媒体としては、例えば、光学、磁気ディスク及び磁気光学ディスクが挙げられる。揮発性媒体としては、主メモリ等のダイナミックメモリが挙げられる。   Although a computer readable medium is shown as being a single medium in the example embodiments, the term “medium” refers to a single medium or multiple media (eg, centralized or multiple) that store one or more sets of instructions. Distributed database and / or associated cache and server). The term “computer-readable medium” is for execution by one or more of the processors and stores a set of instructions that cause execution of any one or more of the techniques of the present invention; It must also be considered to include any computer readable medium that is capable of encoding or otherwise composed thereof. Computer-readable media can take many forms, including but not limited to, non-volatile media and volatile media. Non-volatile media includes, for example, optical, magnetic disks, and magneto-optical disks. The volatile medium includes a dynamic memory such as a main memory.

説明されている方法のステップは、1つの実施形態では、記憶内に記憶されている命令を実行する処理システム(例えばコンピュータシステム)の適当なプロセッサ(またはプロセッサ群)によって実施されることは理解されよう。本発明の実施形態はいかなる特定の実装またはプログラミング技法にも限定されるものではないこと、ならびに、本発明は、本願明細書において記載されている機能性を実行するための任意の適当な技法を用いて実行されればよいことも理解されよう。さらに、実施形態はいかなる特定のプログラミング言語またはオペレーティングシステムにも限定されるものではない。   It is understood that the method steps described are performed, in one embodiment, by a suitable processor (or group of processors) of a processing system (eg, a computer system) that executes instructions stored in storage. Like. The embodiments of the present invention are not limited to any particular implementation or programming technique, and the present invention employs any suitable technique for performing the functionality described herein. It will also be understood that it may be implemented using. In addition, embodiments are not limited to any particular programming language or operating system.

本明細書全体を通じ、「1つの実施形態」または「一実施形態」への言及は、実施形態に関連して記載される特定の特徴、構造または特性が本発明の少なくとも1つの実施形態内に含まれることを意味する。従って、本明細書全体を通じた様々な箇所における「1つの実施形態」または「一実施形態」の語句の出現は、そういう場合もあるが、必ずしも全てが同じ実施形態に言及しているわけではない。さらに、特定の特徴、構造または特性は、本開示から当業者には明らかであろうように、1つ以上の実施形態内で任意の適切な様式で組み合わせられてよい。   Throughout this specification, reference to “one embodiment” or “one embodiment” refers to a particular feature, structure, or characteristic described in connection with the embodiment within at least one embodiment of the invention. Means included. Thus, the appearances of the phrases “in one embodiment” or “in one embodiment” in various places throughout this specification are not necessarily all referring to the same embodiment. . Furthermore, the particular features, structures or characteristics may be combined in any suitable manner within one or more embodiments, as will be apparent to those skilled in the art from this disclosure.

同様に、本発明の実施形態例の上述の記載では、開示を簡素化し、種々の本発明の態様のうちの1つ以上のものの理解を助ける目的のために、本発明の種々の特徴が、単一の実施形態、図、またはその説明内にまとめられていることがあることを理解されたい。しかし、この開示方法は、請求されている発明が、各請求項において明示的に記載されているよりも多くの特徴を必要とするという意図を反映するものとして解釈されるべきではない。むしろ、添付の請求項が反映している通り、発明の態様は、先に開示されている単一の実施形態の全ての特徴よりも少ない特徴内に存する。それ故、発明を実施するための形態に続く請求項は、本願明細書によって、この発明を実施するための形態に明示的に組み込まれ、各請求項はそれ自体で本発明の独立した実施形態として存在する。   Similarly, in the above description of example embodiments of the invention, for purposes of simplifying the disclosure and assisting in understanding one or more of the various aspects of the invention, It should be understood that they may be grouped together in a single embodiment, figure, or description thereof. This method of disclosure, however, should not be interpreted as reflecting an intention that the claimed invention requires more features than are expressly recited in each claim. Rather, as the appended claims reflect, aspects of the invention reside in less than all features of a single embodiment disclosed above. Thus, the claims following the detailed description are hereby expressly incorporated into this Detailed Description, with each claim standing on its own as an independent embodiment of the invention. Exists as.

さらに、本願明細書において記載されているいくつかの実施形態は、他の実施形態内に含まれる特徴を一部含むものの他の特徴は含まないというふうになっているが、当業者によって理解されよう通り、異なる実施形態の特徴の組み合わせが本発明の範囲内にあるように意図され、異なる実施形態を形成する。例えば、添付の請求項では、請求されている実施形態のうちの任意のものが任意の組み合わせで用いられることができる。   Further, some embodiments described herein are intended to include some of the features included in other embodiments but not other features, but will be understood by those skilled in the art. As such, combinations of features of different embodiments are intended to be within the scope of this invention and form different embodiments. For example, in the appended claims, any of the claimed embodiments can be used in any combination.

さらに、実施形態のうちのいくつかは、本願明細書において、コンピュータシステムのプロセッサによってまたはその機能を実行する他の手段によって実行されることができる方法、または方法の要素の組み合わせとして記載されている。従って、このような方法、または方法の要素を実行するために必要な命令を備えたプロセッサが、方法、または方法の要素を実行する手段を形成する。さらに、本願明細書において記載されている、装置実施形態の要素が、本発明を実行する目的のために要素によって実施される機能を実行する手段の例である。   Furthermore, some of the embodiments are described herein as a method or combination of elements of a method that can be performed by a processor of a computer system or by other means of performing that function. . Accordingly, a processor with the necessary instructions to carry out such a method or method element forms the means for carrying out the method or method element. Furthermore, elements of apparatus embodiments described herein are examples of means for performing the functions performed by the elements for the purpose of carrying out the invention.

本願明細書において提供されている記載では、数多くの具体的詳細が説明されている。しかし、これらの具体的詳細を用いずに本発明の実施形態が実施されてもよいことは理解されよう。他の例では、本記載の理解を曖昧にしないようにするために、周知の方法、構造及び技法が詳細に示されていない。   In the description provided herein, numerous specific details are set forth. However, it will be understood that embodiments of the invention may be practiced without these specific details. In other instances, well-known methods, structures and techniques have not been shown in detail in order not to obscure the understanding of this description.

本願明細書において用いられるように、別に指定されない限り、共通の物を記述するための、順序を示す形容詞「第1の」、「第2の」、「第3の」等の使用は、同様の物の異なる例が言及されていることを単に示すだけのものであり、そのように記述されている物が、時間的に、空間的に、順位において、または任意の他の様式のいずれかによって、所与の順序になっていなければならないことを示唆するように意図されるものではない。   As used herein, unless otherwise specified, the use of the adjectives “first”, “second”, “third”, etc. to indicate a common thing is similar for describing common things. It is merely an indication that different examples of the object are mentioned, and the object so described is either temporally, spatially, in rank, or in any other manner Is not intended to imply that it must be in a given order.

本明細書における、従来技術のいかなる説明も、このような従来技術が周知のものであること、公知のものであること、または本分野における一般知識の一部を形成することの承認とは決して見なされてはならない。   Any discussion of prior art in this specification is in no way an acknowledgment that such prior art is well known, known or forms part of the general knowledge in the field. Should not be considered.

添付の請求項及び本願明細書における記載では、〜を備える(comprising)、〜が備えられる(comprised of)または〜を備える〜(which comprises)という用語はいずれも、後に続く要素/特徴を少なくとも含むが、その他を除外するものではないことを意味する非限定語(open term)である。それ故、〜を備える(comprising)の用語は、請求項において用いられる場合、その後に列挙される手段または要素あるいはステップに限定するものとして解釈されてはならない。例えば、A及びBを備えるデバイスという表現の範囲は、要素A及びBのみから成るデバイスに限定されてはならない。本願明細書において用いられているような、〜を含む(including)あるいは〜を含む〜(which includes)または〜を含む〜(that includes)という用語もいずれも、用語の後に続く要素/特徴を少なくとも含むが、その他を除外するものではないことを同様に意味する非限定語である。従って、〜を含む(including)は〜を備える(comprising)と同義でありそれを意味するものである。   In the appended claims and the description herein, the terms “comprising”, “comprised of”, or “comprising of” each include at least the following element / feature. Is an open term meaning that it does not exclude others. Therefore, the term “comprising”, as used in the claims, should not be interpreted as being restricted to the means or elements or steps listed thereafter. For example, the scope of the expression device comprising A and B should not be limited to devices consisting only of elements A and B. As used herein, the terms including, including, or including, including, that at least includes the elements / features that follow the term. It is a non-limiting word that also means that it includes but does not exclude others. Accordingly, including is synonymous with and meaning “comprising”.

同様に、結合される(coupled)という用語は、請求項において用いられる場合、直接的な接続のみに限定するものとして解釈されてはならないことに注意されたい。「結合される(coupled)」及び「接続される(connected)」という用語、ならびにそれらの派生語が用いられる場合がある。これらの用語は互いに対する同義語として意図されるものではないことを理解されたい。従って、デバイスBに結合されるデバイスAという表現の範囲は、デバイスAの出力がデバイスBの入力に直接接続されるデバイスまたはシステムに限定されてはならない。それは、Aの出力とBの入力との間に、他のデバイスまたは手段を含む経路であってもよい経路が存在することを意味するものである。「結合される(Coupled)」は2つ以上の要素が直接的な物理的接触または電気的接触のいずれかの接触をしていること、あるいは2つ以上の要素は互いに直接接触してはいないが、それでもなお、互いに協働または相互作用することを意味するものであればよい。   Similarly, the term coupled, as used in the claims, should not be construed as limited to direct connections only. The terms “coupled” and “connected” and their derivatives may be used. It should be understood that these terms are not intended as synonyms for each other. Accordingly, the scope of the expression device A coupled to device B should not be limited to devices or systems where the output of device A is directly connected to the input of device B. That means that there is a path between the output of A and the input of B that may be a path that includes other devices or means. “Coupled” means that two or more elements are in direct physical or electrical contact, or two or more elements are not in direct contact with each other However, it only needs to mean that they cooperate or interact with each other.

従って、本発明の好ましい実施形態と考えられるものが記載されているが、当業者は、本発明の精神から逸脱することなく他の及びさらなる変更がそれになされてよいこと、ならびに、このような変化及び変更は全て本発明の範囲内に入るものとして請求することが意図されていることを理解しよう。例えば、上述の式はいずれも、用いられればよい手続きの代表にすぎない。ブロック図から機能性が追加または削除されてもよいし、機能ブロック群の中で操作が入れ替えられてもよい。記載されている方法に本発明の範囲内でステップが追加または削除されてもよい。   Thus, while what has been considered as a preferred embodiment of the present invention has been described, those skilled in the art will recognize that other and further modifications may be made thereto, and such changes without departing from the spirit of the present invention. It will be understood that all changes and modifications are intended to be claimed as falling within the scope of the invention. For example, any of the above equations are only representative of procedures that may be used. Functionality may be added or deleted from the block diagram, and operations may be switched within the functional block group. Steps may be added or deleted from the described methods within the scope of the present invention.

本願明細書では、固定処理システムと比べて限られた資源しか持たない携帯デバイス等のデバイスを「制限された資源のデバイス」と呼ぶ。本願明細書において、基地局とは、メディアデータを資源制限デバイスに無線送信するアクセスポイント、セルラー基地局または同様の無線送受信機を指す。
米国特許第5802467号に音声およびデータ送受信のための無線通信、指令、制御および検知システムが記載されている。国際公開第02/27985号に、測定されたパラメータに基づいて無線(radio)デバイスに対する音量制御を自動化するシステムが記載されている。
In the present specification, a device such as a portable device that has limited resources compared to a fixed processing system is referred to as a “restricted resource device”. As used herein, a base station refers to an access point, cellular base station, or similar wireless transceiver that wirelessly transmits media data to a resource restriction device.
US Pat. No. 5,802,467 describes a wireless communication, command, control and detection system for voice and data transmission and reception. WO 02/27985 describes a system for automating volume control for a radio device based on measured parameters.

Claims (15)

メディアデータを処理ハードウェアにより処理して品質向上させる方法であって、前記メディアデータは資源制約無線デバイスによるレンダリング用のメディアデータであり、前記方法が:
1以上のセンサが検知した1以上の環境量を受け取るステップであって、前記センサを前記資源制約デバイスから離れているが前記資源制約デバイスに十分近い場所に設けて、前記資源制約デバイスの近傍の前記センサによる前記環境量を1以上の各環境量と同等の指標になるようにするステップと、
前記資源制約デバイスから離れた場所に設けられるか、又はそこに結合されるネットワークノードにおいて:
前記環境量を用いて前記メディアデータをデータ処理し処理済みデータを生成するステップであって、前記センサが前記ネットワークノード内にあるかまたはそこに接続されているステップと;
前記処理済み出力をレンダリングのために前記資源制約デバイスへ無線で送るステップと;を備え、
これらにより前記処理済み出力を前記資源制約デバイスにより利用可能になるようにして、前記メディアデータをレンダリング、又は処理及びレンダリングする方法。
A method of processing media data by processing hardware to improve quality, wherein the media data is media data for rendering by a resource constrained wireless device, the method comprising:
Receiving one or more environmental quantities detected by one or more sensors, wherein the sensors are located far from the resource constraining device but close enough to the resource constraining device, Making the environmental quantity by the sensor an index equivalent to one or more environmental quantities;
At a network node located at or remote from the resource constrained device:
Processing the media data using the environmental quantity to generate processed data, wherein the sensor is in or connected to the network node;
Wirelessly sending the processed output to the resource constrained device for rendering;
A method for rendering or processing and rendering the media data such that the processed output is made available to the resource constrained device.
前記ネットワークノードに、無線ネットワークの基地局が含まれる、請求項1に記載の方法。 The method of claim 1, wherein the network node includes a base station of a wireless network. 前記処理済み出力に、前記資源制約デバイスによるレンダリング用の処理済みメディアデータが含まれる、請求項1に記載の方法。 The method of claim 1, wherein the processed output includes processed media data for rendering by the resource constrained device. 一部のメディアデータ処理が前記資源制約デバイスにおいて行われ、前記処理済み出力に、前記資源制約デバイスでのメディアデータ処理の際に前記資源制約デバイスによって用いられる補助データが含まれる、請求項1に記載の方法。 The media data processing is performed in the resource constrained device, and the processed output includes auxiliary data used by the resource constrained device during media data processing in the resource constrained device. The method described. 前記メディアデータに:
前記資源制約デバイスにストリーミングされるメディアデータ、または
前記無線ネットワークを介して、前記資源制約デバイスを含む双方向通信の一部としての前記資源制約デバイスにインタラクティブにストリーミングされるメディアデータ、
のうちの1つ以上が含まれる、請求項1から4のいずれか1項に記載の方法。
For the media data:
Media data streamed to the resource constrained device or media data interactively streamed to the resource constrained device as part of a two-way communication involving the resource constrained device via the wireless network;
5. A method according to any one of claims 1 to 4, wherein one or more of: are included.
前記メディアデータにオーディオデータが含まれ、
前記1つ以上の環境量に、環境内の雑音の音響プロファイルの指標となる少なくとも1つの量が含まれ、
前記品質向上処理に雑音補償が含まれる、
請求項5に記載の方法。
Audio data is included in the media data,
The one or more environmental quantities include at least one quantity indicative of an acoustic profile of noise in the environment;
The quality enhancement process includes noise compensation,
The method of claim 5.
前記メディアデータにオーディオデータが含まれ、
前記1つ以上の環境量に、環境内の雑音の音響プロファイルの指標となる少なくとも1つの量が含まれ、
前記メディアデータの前記品質向上処理に雑音補償が含まれ、前記雑音補償は:
1つ以上のラウドネスレベルパラメータと音響雑音プロファイルの1つ以上のパラメータとを用いて前記オーディオデータから変更パラメータを生成するステップであって、前記変更パラメータを、知覚ラウドネス領域における情報に対して操作を実行することによって生成するステップと、
前記変更パラメータに基づいて前記オーディオデータを変更して処理済みオーディオデータを生成するステップと、
を備え、
前記1つ以上のラウドネスレベルパラメータに:オーディオ雑音補償スイッチがオンか否か、前記資源制約デバイスの参照レベル、所望の再現レベル、及び/又は雑音補償の量のうちの1つ以上が含まれる、請求項5に記載の方法。
Audio data is included in the media data,
The one or more environmental quantities include at least one quantity indicative of an acoustic profile of noise in the environment;
The quality enhancement process of the media data includes noise compensation, and the noise compensation is:
Generating modified parameters from the audio data using one or more loudness level parameters and one or more parameters of an acoustic noise profile, wherein the modified parameters are manipulated on information in a perceived loudness domain. Generating by executing, and
Modifying the audio data based on the modification parameter to generate processed audio data;
With
The one or more loudness level parameters include one or more of: whether an audio noise compensation switch is on, a reference level of the resource constrained device, a desired reproduction level, and / or an amount of noise compensation. The method of claim 5.
前記メディアデータの前記品質向上処理に、前記オーディオデータに適用される自動ゲイン制御、ダイナミックレンジ圧縮及び/又はイコライゼーションのうちの1つ以上が含まれる、請求項7に記載の方法。 The method of claim 7, wherein the quality enhancement process of the media data includes one or more of automatic gain control, dynamic range compression and / or equalization applied to the audio data. 前記メディアデータに、前記資源制約デバイスにストリーミングされるメディアデータが含まれ、
前記メディアデータにビデオデータが含まれ、
前記1つ以上の環境量に、環境内の照明の指標となる少なくとも1つのパラメータが含まれ、
前記品質向上処理に、前記環境内の照明の指標となるパラメータのうちの1つ以上によって前記ビデオデータのコントラスト及び/又は明るさを変更するステップが含まれる、
請求項5に記載の方法。
The media data includes media data streamed to the resource constrained device;
The media data includes video data,
The one or more environmental quantities include at least one parameter indicative of illumination in the environment;
The quality improvement process includes a step of changing the contrast and / or brightness of the video data according to one or more parameters serving as indicators of illumination in the environment.
The method of claim 5.
前記メディアデータに、前記資源制約デバイスにストリーミングされるメディアデータが含まれ、
前記メディアデータにビデオデータが含まれ、
前記1つ以上の環境量に、環境内の照明の指標となる少なくとも1つのパラメータが含まれ、
前記資源制約デバイスは、前記ビデオデータとともに前記資源制約デバイスに送られる画像依存調節データに従って各々調節される位置依存性バックライト素子を有するフラットパネルディスプレイデバイスを備え、
前記品質向上処理に、前記ビデオデータのコントラスト及び/又は明るさを変更するステップが含まれ、
前記ネットワークノードにおける前記データ処理に、前記環境内の照明の指標となる1つ以上のパラメータのうちの少なくとも1つによって前記画像依存調節データを生成するステップが含まれる、
請求項5に記載の方法。
The media data includes media data streamed to the resource constrained device;
The media data includes video data,
The one or more environmental quantities include at least one parameter indicative of illumination in the environment;
The resource constraining device comprises a flat panel display device having position dependent backlight elements that are each adjusted according to image dependent adjustment data sent to the resource constraining device along with the video data;
The quality improvement process includes a step of changing a contrast and / or brightness of the video data,
The data processing at the network node includes generating the image dependent adjustment data with at least one of one or more parameters indicative of illumination in the environment.
The method of claim 5.
処理システムの少なくとも1のプロセッサによって実行されたとき、請求項1から10のいずれか1項に記載の方法を実行させるプログラム論理。 11. Program logic that, when executed by at least one processor of a processing system, causes the method of any one of claims 1 to 10 to be executed. 処理システムの少なくとも1のプロセッサによって実行されたとき、請求項1から10のいずれか1項に記載の方法を実行させるプログラム論理を内蔵する、コンピュータ可読媒体。 A computer readable medium containing program logic that, when executed by at least one processor of a processing system, causes the method of any one of claims 1 to 10 to be performed. メディアデータの品質向上処理の少なくとも一部を実行する装置であって、前記装置が:
資源制約デバイスに無線接続するように構成されるネットワークノードと、
前記ネットワークノードに接続されるかまたはその中にある1つ以上のセンサであって、前記資源制約デバイスから離れているが前記資源制約デバイスに十分近い場所に設けられ、前記センサにより1以上の環境量が検知され、前記資源制約デバイスの近傍の前記センサによる前記環境量を1以上の各環境量と同等の指標になるようにするセンサと、
前記ネットワークノードに接続されるかまたはその中にある処理ハードウェアであって、
前記1つ以上の環境量を受け取り、受け取った環境量の少なくとも一部を用いて処理済み出力を生成することによりメディアデータのデータ処理を実行して、品質向上を達成するように構成された処理ハードウェアとを備え、
前記ネットワークノードはさらに、前記処理済み出力を前記資源制約デバイスに無線で送るように構成され、
これらにより前記処理済み出力が前記資源制約デバイスにより利用可能になるようにして、前記メディアデータをレンダリング、又は処理及びレンダリングする装置。
An apparatus for performing at least a part of a media data quality improvement process, wherein the apparatus:
A network node configured to wirelessly connect to a resource constrained device;
One or more sensors connected to or within the network node, the sensor being provided at a location remote from the resource constraining device but sufficiently close to the resource constraining device, wherein the sensor provides one or more environments A sensor that detects an amount, and causes the environmental amount by the sensor in the vicinity of the resource-constrained device to be an index equivalent to one or more environmental amounts;
Processing hardware connected to or within the network node, comprising:
A process configured to receive the one or more environmental quantities and perform data processing of the media data by generating a processed output using at least a portion of the received environmental quantities to achieve improved quality With hardware,
The network node is further configured to wirelessly send the processed output to the resource constrained device;
An apparatus for rendering or processing and rendering the media data such that the processed output is made available to the resource constrained device.
請求項1から10のいずれか1項に記載の方法を実行するように構成された、請求項13に記載の装置。 14. An apparatus according to claim 13, configured to perform the method according to any one of claims 1 to 10. 少なくとも1つのプロセッサと、記憶デバイスとを含む処理システムを備える装置であって、
前記記憶デバイスが、前記装置に請求項1から10のいずれか1項に記載の方法を実行させるプログラム論理を備える装置。
An apparatus comprising a processing system including at least one processor and a storage device,
11. An apparatus comprising program logic, wherein the storage device causes the apparatus to perform the method of any one of claims 1-10.
JP2011527869A 2008-09-19 2009-09-03 Upstream signal processing for client devices in small cell radio networks Expired - Fee Related JP5273688B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US9856608P 2008-09-19 2008-09-19
US61/098,566 2008-09-19
PCT/US2009/055835 WO2010033387A2 (en) 2008-09-19 2009-09-03 Upstream signal processing for client devices in a small-cell wireless network

Publications (2)

Publication Number Publication Date
JP2012503426A true JP2012503426A (en) 2012-02-02
JP5273688B2 JP5273688B2 (en) 2013-08-28

Family

ID=41818867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011527869A Expired - Fee Related JP5273688B2 (en) 2008-09-19 2009-09-03 Upstream signal processing for client devices in small cell radio networks

Country Status (8)

Country Link
US (1) US9300714B2 (en)
EP (1) EP2347556B1 (en)
JP (1) JP5273688B2 (en)
CN (1) CN102160358B (en)
AT (1) ATE552690T1 (en)
ES (1) ES2385293T3 (en)
TW (1) TWI458311B (en)
WO (1) WO2010033387A2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014204320A (en) * 2013-04-05 2014-10-27 日本放送協会 Acoustic signal reproducing device and acoustic signal preparation device
JP2016506640A (en) * 2012-11-19 2016-03-03 ハーマン インターナショナル インダストリーズ インコーポレイテッド Audio loudness control system
JP2016520854A (en) * 2013-03-21 2016-07-14 インテレクチュアル ディスカバリー カンパニー リミテッド Audio signal size control method and apparatus

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5134508B2 (en) * 2008-11-19 2013-01-30 株式会社日立製作所 Television equipment
US9692946B2 (en) * 2009-06-29 2017-06-27 Dolby Laboratories Licensing Corporation System and method for backlight and LCD adjustment
US8473287B2 (en) 2010-04-19 2013-06-25 Audience, Inc. Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system
US8538035B2 (en) 2010-04-29 2013-09-17 Audience, Inc. Multi-microphone robust noise suppression
US8781137B1 (en) 2010-04-27 2014-07-15 Audience, Inc. Wind noise detection and suppression
US9837097B2 (en) 2010-05-24 2017-12-05 Nec Corporation Single processing method, information processing apparatus and signal processing program
US8447596B2 (en) 2010-07-12 2013-05-21 Audience, Inc. Monaural noise suppression based on computational auditory scene analysis
KR20220164802A (en) 2013-01-21 2022-12-13 돌비 레버러토리즈 라이쎈싱 코오포레이션 Optimizing loudness and dynamic range across different playback devices
EP2787746A1 (en) * 2013-04-05 2014-10-08 Koninklijke Philips N.V. Apparatus and method for improving the audibility of specific sounds to a user
CN107093991B (en) 2013-03-26 2020-10-09 杜比实验室特许公司 Loudness normalization method and equipment based on target loudness
JP6216553B2 (en) * 2013-06-27 2017-10-18 クラリオン株式会社 Propagation delay correction apparatus and propagation delay correction method
US10423946B2 (en) * 2013-11-11 2019-09-24 Nec Corporation POS terminal device, commodity recognition method, and non-transitory computer readable medium storing program
US10720091B2 (en) 2017-02-16 2020-07-21 Microsoft Technology Licensing, Llc Content mastering with an energy-preserving bloom operator during playback of high dynamic range video
US10833886B2 (en) * 2018-11-07 2020-11-10 International Business Machines Corporation Optimal device selection for streaming content
WO2021072558A1 (en) * 2019-10-17 2021-04-22 D-Box Technologies Inc. Method and system for synchronizing a viewer-effect signal of a media content with a media signal of the media content
CN113395551A (en) * 2021-07-20 2021-09-14 珠海极海半导体有限公司 Processor, NPU chip and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10341201A (en) * 1997-06-06 1998-12-22 Sanyo Electric Co Ltd Base station
JP2002223268A (en) * 2001-01-29 2002-08-09 Mitsubishi Electric Corp Voice control device and mobile telephone using the same
JP2004104245A (en) * 2002-09-05 2004-04-02 Matsushita Electric Ind Co Ltd Mobile terminal
JP2004173173A (en) * 2002-11-22 2004-06-17 Matsushita Electric Ind Co Ltd Voice processing apparatus
JP2004350214A (en) * 2003-05-26 2004-12-09 Hitachi Ltd Content distributing server and terminal, and program

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8801014D0 (en) * 1988-01-18 1988-02-17 British Telecomm Noise reduction
FR2640839B1 (en) 1988-12-20 1991-03-15 Portenseigne Radiotechnique VIDEO IMAGE REPRODUCING APPARATUS HAVING A CONTRAST ADJUSTMENT, AND CONTRAST ADJUSTING METHOD OF SUCH A REPRODUCING APPARATUS
US5802467A (en) * 1995-09-28 1998-09-01 Innovative Intelcom Industries Wireless and wired communications, command, control and sensing system for sound and/or data transmission and reception
KR20010030608A (en) 1997-09-16 2001-04-16 레이크 테크놀로지 리미티드 Utilisation of filtering effects in stereo headphone devices to enhance spatialization of source around a listener
CN100353664C (en) 1998-03-25 2007-12-05 雷克技术有限公司 Audio signal processing method and appts.
US6813777B1 (en) * 1998-05-26 2004-11-02 Rockwell Collins Transaction dispatcher for a passenger entertainment system, method and article of manufacture
US6249913B1 (en) * 1998-10-09 2001-06-19 General Dynamics Ots (Aerospace), Inc. Aircraft data management system
US7035897B1 (en) * 1999-01-15 2006-04-25 California Institute Of Technology Wireless augmented reality communication system
US20030154055A1 (en) * 2000-11-07 2003-08-14 Kazuyoshi Yoshimura System for measurement and display of environmental data
TW564372B (en) 2000-09-22 2003-12-01 Seiko Epson Corp Image processing method
AU2002211322A1 (en) 2000-09-29 2002-04-08 Matsushita Mobile Communications Development Corp. Of U.S.A. Adjustable automatic volume control
EP1391115A4 (en) * 2000-10-18 2009-12-16 Honeywell Int Inc Modular entertainment and data system
EP2309314B1 (en) * 2001-02-27 2020-12-16 Dolby Laboratories Licensing Corporation A method and device for displaying an image
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7610602B2 (en) * 2001-05-23 2009-10-27 The Directv Group, Inc. Method, system and computer program product for aircraft multimedia distribution
DE60120233D1 (en) * 2001-06-11 2006-07-06 Lear Automotive Eeds Spain METHOD AND SYSTEM FOR SUPPRESSING ECHOS AND NOISE IN ENVIRONMENTS UNDER VARIABLE ACOUSTIC AND STRONG RETIRED CONDITIONS
CA2354755A1 (en) * 2001-08-07 2003-02-07 Dspfactory Ltd. Sound intelligibilty enhancement using a psychoacoustic model and an oversampled filterbank
US6944474B2 (en) * 2001-09-20 2005-09-13 Sound Id Sound enhancement for mobile phones and other products producing personalized audio for users
US7454331B2 (en) * 2002-08-30 2008-11-18 Dolby Laboratories Licensing Corporation Controlling loudness of speech in signals that contain speech and other types of audio material
US20040165732A1 (en) * 2003-02-20 2004-08-26 Edwards Systems Technology, Inc. Speaker system and method for selectively activating speakers
CN1795490A (en) * 2003-05-28 2006-06-28 杜比实验室特许公司 Method, apparatus and computer program for calculating and adjusting the perceived loudness of an audio signal
WO2005094060A1 (en) 2004-03-02 2005-10-06 Koninklijke Philips Electronics N.V. Signal processing system
WO2005120068A2 (en) * 2004-05-27 2005-12-15 Thales Avionics, Inc. System for delivering multimedia content to airline passengers
FR2872317A1 (en) 2004-06-08 2005-12-30 Do Labs Sa METHOD FOR IMPROVING THE QUALITY OF USE OF A SERVICE RELATING TO AT LEAST ONE MULTIMEDIA DATA
WO2005125207A2 (en) * 2004-06-15 2005-12-29 Panasonic Avionics Corporation Portable media device and method for presenting viewing content during travel
US7617109B2 (en) 2004-07-01 2009-11-10 Dolby Laboratories Licensing Corporation Method for correcting metadata affecting the playback loudness and dynamic range of audio information
BRPI0518278B1 (en) 2004-10-26 2018-04-24 Dolby Laboratories Licensing Corporation METHOD AND APPARATUS FOR CONTROLING A PARTICULAR SOUND FEATURE OF AN AUDIO SIGNAL
US20060176169A1 (en) * 2004-12-17 2006-08-10 The Regents Of The University Of California System for sensing environmental conditions
BRPI0611505A2 (en) * 2005-06-03 2010-09-08 Dolby Lab Licensing Corp channel reconfiguration with secondary information
TWI269565B (en) * 2005-07-20 2006-12-21 Cheng-Yan Kao Human body sensor network gateway (HBG) and the method using the same to perform human body network detecting
TWI396188B (en) 2005-08-02 2013-05-11 Dolby Lab Licensing Corp Controlling spatial audio coding parameters as a function of auditory events
US20070044126A1 (en) * 2005-08-18 2007-02-22 Rockwell Collins, Inc. Wireless video entertainment system
US7936885B2 (en) * 2005-12-06 2011-05-03 At&T Intellectual Property I, Lp Audio/video reproducing systems, methods and computer program products that modify audio/video electrical signals in response to specific sounds/images
TWI517562B (en) 2006-04-04 2016-01-11 杜比實驗室特許公司 Method, apparatus, and computer program for scaling the overall perceived loudness of a multichannel audio signal by a desired amount
BRPI0709877B1 (en) * 2006-04-04 2019-12-31 Dolby Laboratories Licensing Corp method and apparatus for controlling a particular acoustic intensity characteristic of an audio signal
DE602007002291D1 (en) 2006-04-04 2009-10-15 Dolby Lab Licensing Corp VOLUME MEASUREMENT OF TONE SIGNALS AND CHANGE IN THE MDCT AREA
WO2007127023A1 (en) 2006-04-27 2007-11-08 Dolby Laboratories Licensing Corporation Audio gain control using specific-loudness-based auditory event detection
US7459962B2 (en) * 2006-07-26 2008-12-02 The Boeing Company Transient signal detection algorithm using order statistic filters applied to the power spectral estimate
US7675414B2 (en) * 2006-08-10 2010-03-09 Qualcomm Incorporated Methods and apparatus for an environmental and behavioral adaptive wireless communication device
US20100062713A1 (en) 2006-11-13 2010-03-11 Peter John Blamey Headset distributed processing
US7873114B2 (en) * 2007-03-29 2011-01-18 Motorola Mobility, Inc. Method and apparatus for quickly detecting a presence of abrupt noise and updating a noise estimate
US8635654B2 (en) * 2007-04-30 2014-01-21 Thales Avionics, Inc. Wireless audio distribution system and method for an in-flight entertainment system
US8489396B2 (en) * 2007-07-25 2013-07-16 Qnx Software Systems Limited Noise reduction with integrated tonal noise reduction
US8138930B1 (en) * 2008-01-22 2012-03-20 Google Inc. Advertising based on environmental conditions
CN102160115A (en) * 2008-09-19 2011-08-17 杜比实验室特许公司 Upstream quality enhancement signal processing for resource constrained client devices
US20100088736A1 (en) * 2008-10-07 2010-04-08 Besen Peter D Enhanced video processing functionality in auxiliary system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10341201A (en) * 1997-06-06 1998-12-22 Sanyo Electric Co Ltd Base station
JP2002223268A (en) * 2001-01-29 2002-08-09 Mitsubishi Electric Corp Voice control device and mobile telephone using the same
JP2004104245A (en) * 2002-09-05 2004-04-02 Matsushita Electric Ind Co Ltd Mobile terminal
JP2004173173A (en) * 2002-11-22 2004-06-17 Matsushita Electric Ind Co Ltd Voice processing apparatus
JP2004350214A (en) * 2003-05-26 2004-12-09 Hitachi Ltd Content distributing server and terminal, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016506640A (en) * 2012-11-19 2016-03-03 ハーマン インターナショナル インダストリーズ インコーポレイテッド Audio loudness control system
JP2016520854A (en) * 2013-03-21 2016-07-14 インテレクチュアル ディスカバリー カンパニー リミテッド Audio signal size control method and apparatus
JP2014204320A (en) * 2013-04-05 2014-10-27 日本放送協会 Acoustic signal reproducing device and acoustic signal preparation device

Also Published As

Publication number Publication date
US9300714B2 (en) 2016-03-29
US20110169721A1 (en) 2011-07-14
TW201025969A (en) 2010-07-01
CN102160358A (en) 2011-08-17
JP5273688B2 (en) 2013-08-28
ATE552690T1 (en) 2012-04-15
TWI458311B (en) 2014-10-21
EP2347556A2 (en) 2011-07-27
EP2347556B1 (en) 2012-04-04
WO2010033387A3 (en) 2010-05-27
ES2385293T3 (en) 2012-07-20
CN102160358B (en) 2015-03-11
WO2010033387A2 (en) 2010-03-25

Similar Documents

Publication Publication Date Title
JP5273688B2 (en) Upstream signal processing for client devices in small cell radio networks
US9251802B2 (en) Upstream quality enhancement signal processing for resource constrained client devices
US9613028B2 (en) Remotely updating a hearing and profile
JP6574046B2 (en) Dynamic range control of encoded audio extension metadatabase
US9307340B2 (en) Audio system equalization for portable media playback devices
US10778171B2 (en) Equalization filter coefficient determinator, apparatus, equalization filter coefficient processor, system and methods
KR101445075B1 (en) Method and apparatus for controlling sound field through array speaker
US10757522B2 (en) Active monitoring headphone and a method for calibrating the same
TW201142831A (en) Adaptive environmental noise compensation for audio playback
JP2013530420A (en) Audio system equalization processing for portable media playback devices
JP6821699B2 (en) How to regularize active monitoring headphones and their inversion
US20190130927A1 (en) An active monitoring headphone and a binaural method for the same
EP3669780B1 (en) Methods, devices and system for a compensated hearing test
CN109791771A (en) Reduce the codec noise in acoustic equipment
Czyzewski et al. Adaptive personal tuning of sound in mobile computers
TWI832942B (en) Methods, devices and system for a compensated hearing test
JP6695256B2 (en) Addition of virtual bass (BASS) to audio signal

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130115

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130508

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees