JP4787442B2 - マルチチャネル・オーディオ環境において対話型オーディオを提供するシステムおよび方法 - Google Patents

マルチチャネル・オーディオ環境において対話型オーディオを提供するシステムおよび方法 Download PDF

Info

Publication number
JP4787442B2
JP4787442B2 JP2001534924A JP2001534924A JP4787442B2 JP 4787442 B2 JP4787442 B2 JP 4787442B2 JP 2001534924 A JP2001534924 A JP 2001534924A JP 2001534924 A JP2001534924 A JP 2001534924A JP 4787442 B2 JP4787442 B2 JP 4787442B2
Authority
JP
Japan
Prior art keywords
audio
channel
data
scale factor
subband
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001534924A
Other languages
English (en)
Other versions
JP2003513325A (ja
Inventor
マクドウェル,サミュエル・キース
Original Assignee
ディー・ティー・エス,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディー・ティー・エス,インコーポレーテッド filed Critical ディー・ティー・エス,インコーポレーテッド
Publication of JP2003513325A publication Critical patent/JP2003513325A/ja
Application granted granted Critical
Publication of JP4787442B2 publication Critical patent/JP4787442B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved

Description

【0001】
発明の分野
本発明は、完全対話型のオーディオ・システムに関し、より具体的には、3Dゲーム、バーチャル・リアリティ、および他の対話型オーディオの応用に適切である豊かで没入型のサラウンド・サウンド環境を創出するために、リアルタイム・マルチチャネル対話型デジタル・オーディオをレンダリングするシステムおよび方法に関する。
【0002】
発明の背景
オーディオ技術における最近の開発は、聞き手を取り囲む3次元空間(「音場」)のあらゆる場所において、サウンドのリアルタイムな対話型位置決めを創出することに焦点が当てられてきた。真の対話型オーディオは、オンデマンドでサウンドを創出する能力だけでなく、サウンドを正確に音場に配置する能力にも備えている。そのような技術のサポートは様々な製品に見ることができるが、最も頻繁には、自然で、没入型の、対話型オーディオ環境を創出するためのビデオ・ゲーム用ソフトウエアに見ることができる。応用分野は、ゲームを超えて、DVDなど視聴覚製品の形態でエンターテイメントの世界にまで広がり、また、ビデオ会議、シミュレーション・システム、および他の対話型環境にも広がっている。
【0003】
オーディオ技術の進展は、オーディオ環境を聞き手にとって「リアル」なものにする方向に進んできた。サラウンド・サウンドの開発は、聞き手をサラウンド・サウンドの環境に没入させるために、まず、アナログ領域において、HRTF、ドルビー・サラウンドと続き、後に、デジタル領域において、AC−3、MPEG、およびDTSと続いた。
【0004】
現実的な合成環境を描写するために、バーチャル・サウンド・システムは、複数のスピーカを必要とせずに、サラウンドなオーディオの錯覚を創出するために、バイノーラル技術と音響心理学的な手掛かりを使用する。これらのバーチャル化された3Dオーディオ技術の大半は、HRTF(頭部関連伝達関数、Head-Related Transfer Function)の概念に基づいている。当初のデジタル化されたサウンドは、望ましい空間位置に対応する左耳および右耳のHRTFでリアルタイムにからみつき、聞いたときに、望ましい位置から来るように聞こえる、右耳および左耳のバイノーラル信号が生成される。サウンドを配置するために、HRTFは、望ましい新しい位置に対して変更され、プロセスが繰り返される。聞き手は、オーディオ信号が聞き手自身のHRTFでフィルタリングされる場合、ヘッドフォンを通してほぼ自由音場のリスニングを経験することができる。しかし、これは、しばしば非実用的であり、実験者は、広範な聞き手に対し良好な性能を有する、一般的なHRTFのセットを探求してきた。これは、前方後方混同という特定の障害のために実現することが困難であった。前方後方混同とは、頭の前または後のサウンドが同じ方向から来ているという感覚を表す。この欠点にも関わらず、HRTFの方法は、PCMオーディオと、はるかに少ない計算負荷で圧縮MPEGオーディオとの両方にうまく適用されてきた。HRTFに基づいたバーチャル・サウンド技術は、完全なホーム・シアタのセットアップが実際的ではない状況において、大きな利点を提供するが、これらの現在の解決法は、特定のサウンドの対話型配置には、なんら手段を提供しない。
【0005】
ドルビー(R)・サラウンド・システムは、位置的オーディオを実施する他の方法である。ドルビー(R)・サラウンドは、ステレオ(2チャネル)媒体が4チャネル・オーディオを搬送することを可能にするマトリクス・プロセスである。このシステムは、4チャネルのオーディオを用い、左トータル(Lt)および右トータル(Rt)として識別される2チャネルのドルビー(R)・サラウンドのエンコードされた素材を生成する。エンコードされたマテリアル(素材)は、左チャネル、右チャネル、中央チャネル、およびモノ・サラウンド・チャネルの4つチャネルの出力を生成する、ドルビー(R)・プロロジック・デコーダによってデコードされる。中央チャネルは、スクリーンに音声をつなぎ留めるように設計されている。左チャネルおよび右チャネルは、音楽およびいくつかのサウンド効果を意図しており、サラウンド・チャネルは、主に、サウンド効果専用である。サラウンド・サウンド・トラックは、ドルビー(R)・サラウンド・フォーマットで事前にエンコードされ、従って、映画に最適であるが、ビデオ・ゲームなどの対話型の応用には特に有用ではない。PCMオーディオは、より制御性の低い対話型オーディオの経験を提供するために、ドルビー(R)・サラウンド・サウンド・オーディオにオーバーレイすることができる。残念ながら、PCMをドルビー(R)・サラウンド・サウンドと混合することは、内容に依存するものであり、PCMオーディオをドルビー(R)・サラウンド・サウンド・オーディオにオーバーレイすることは、ドルビー(R)・プロロジック・デコーダを混乱させる傾向があり、これにより、望ましくないサラウンド・アーティファクトおよびクロストークが創出されることがある。
【0006】
ドルビー(R)・デジタルおよびDTSなど、チャネル分離デジタル・サラウンド・サウンド技術を改善することは、別々の左サラウンド・リア・スピーカ、右サラウンド・リア・スピーカ、およびサブウーファと共に、左、中央、および右のフロント・スピーカの、6つの離散したデジタル・サウンドのチャネルを提供する。デジタル・サラウンドは、事前記録型の技術であり、従って、映画およびホームA/Vシステムのようなデコード待ち時間に対処することができるものには最適であるが、現在の形態では、ビデオ・ゲームなどの対話型応用には特に有用ではない。しかし、ドルビー(R)・デジタルおよびDTSは、忠実度の高い位置オーディオを提供し、ホーム・シアタ・デコーダの大きな据え付けられたベース、即ち、マルチチャネル5.1スピーカ・フォーマットの定義および市販の製品を有するので、PC、特に、コンソールを基にするゲーム・システムに対しては、それらを完全に対話型にすることができる場合、非常に望ましいマルチチャネル環境を呈する。しかし、PCのアーキテクチャは、一般に、マルチチャネルのデジタルPCMオーディオを家庭用エンターテイメント・システムへ送ることができなかった。これは、主に、標準的なPCのデジタル出力が、ステレオをベースとするS/PDIFデジタル出力コネクタを通るということのためである。
【0007】
Cambridge SoundWorks(R)(ケンブリッジ・サウンドワーク)は、ハイブリッド・デジタル・サラウンド/PCMの手法を、デスクトップ・シアタ(R)5.1DTT2500の形態で提供する。この製品は、事前にエンコードされたドルビー(R)・デジタル5.1バックグラウンド・マテリアルと対話型4チャネル・デジタルPCMオーディオとを組み合わせるビルトインのドルビー(R)・デジタル・デコーダを搭載している。このシステムは2つの別々のコネクタ、即ち、ドルビー(R)・デジタルを送る1つのものと、4チャネル・デジタル・オーディオを送る1つのものとを必要とする。ステップは進行するが、デスクトップ・シアタ(R)は、ドルビー(R)・デジタル・デコーダの既存の据え付けられたベースとは互換性がなく、PCM出力の複数チャネルをサポートするサウンド・カードを必要とする。サウンドは、既知の位置に配置されたスピーカから再生されるが、対話型3Dサウンドの分野における目標は、サウンドが、聞き手の回りの任意に選択された方向から発するように出現する信頼できる環境を創出することである。デスクトップ・シアタ(R)の対話型オーディオの豊かさは、PCMデータを処理するために必要な計算要件によって、更に制限される。位置オーディオ環境の重要な成分である横向きローカリゼーション(局所化)は、フィルタリングおよび等化の演算のように、時間領域データに適用するには、計算にコストがかかる。
【0008】
ゲーム業界は、3Dゲームおよび他の対話型オーディオ・アプリケーションに適し、ゲーム・プログラマが、多数のオーディオ源を混合し、かつ正確にそれらを音場に配置することを可能にし、そして、ホーム・シアタ・デジタル・サラウンド・サウンド・システムの既存のインフラストラクチャと互換性のある、低コストで完全に対話型の待ち時間の短い没入型のデジタル・サラウンド・サウンド環境が必要である。
【0009】
発明の概要
上記の問題を考慮して、本発明は、3Dゲームおよび他の忠実度の高いオーディオ・アプリケーションに適し、デジタル・サラウンド・サウンド・デコーダの既存のインフラストラクチャとの互換性を維持するように構成することができる、低コストで完全に対話型の没入型のデジタル・サラウンド・サウンド環境を提供する。
【0010】
これは、各オーディオ成分を、計算の容易さを優先してコード化と記憶の効率を犠牲にする圧縮フォーマットで記憶し、その成分を時間領域ではなくサブバンド領域において混合し、マルチチャネルの混合されたオーディオを圧縮フォーマットに再圧縮およびパック(パッキング)し、それをデコードおよび配布のために下流のサラウンド・サウンド・プロセッサへ渡すことによって、達成される。マルチチャネル・データは圧縮フォーマットになっているので、ステレオ・ベースのS/PDIFデジタル出力コネクタを通過することができる。また、技術は、PCMオーディオを操作するゲーム・アプリケーションでは重要で標準的な特徴である、圧縮されたオーディオを「ルーピング」するために提供される。更に、デコーダの同期性は、混合されたオーディオが処理の待ち時間またはゲーム・アプリケーションのために存在しないときにはいつでも、「無音(silence)」のフレームを送信することによって保証される。
【0011】
より具体的には、成分は、サブバンド表現にエンコードされ、データ・フレームに圧縮およびパックされ、データ・フレームでは、スケール・ファクタとサブバンド・データのみがフレームごとに異なるようにすることが好ましい。この圧縮フォーマットが必要とするメモリは、標準的なPCMオーディオより著しく少ないが、ドルビー(R)AC−3またはMPEGにおいて使用されるような可変長のコード記憶によって必要とされるよりは多い。更に重要なことは、この手法は、アンパック/パック、混合(ミックス)、および圧縮解除/圧縮のオペレーションを非常に簡単にし、それにより、プロセッサの使用を低減することである。更に、固定長のコード(FLC)は、エンコードされたビットストリームを通じてのランダム・アクセス・ナビゲーションを補助する。ソース・オーディオと混合された出力チャネルとをエンコードするために、単一の事前定義されたビット割当てテーブルを使用することによって、高レベルのスループットを達成することができる。現在の好ましい実施形態では、オーディオ・レンダラ(renderer)は、固定されたヘッダとビット割当てテーブルとに対してハードコードされており、従って、オーディオ・レンダラは、スケール・ファクタとサブバンド・データとを処理するだけでよい。
【0012】
混合(ミキシング)は、可聴であると考えられる成分からサブバンド・データのみを部分的にデコード(圧縮解除)し、それらをサブバンド領域において混合することによって達成される。サブバンド表現は、単純化した音響心理学的マスキング技術に役立ち、従って、処理の複雑さを増大させずに、または、混合された信号の質を落とさずに、多数のソースをレンダリングすることができる。更に、マルチチャネル信号は、送信前に圧縮フォーマットにエンコードされるので、豊かで忠実度の高い統一されたサラウンド・サウンド信号を、単一の接続を通じてデコーダへ送ることができる。
【0013】
本発明のこれらおよび他の特徴と利点は、当業者には、添付の図面と好ましい実施形態の以下の詳細な記述とから明らかになるであろう。
【0014】
発明の詳細な説明
DTS対話型は、3Dゲームおよび他の忠実度の高いオーディオ・アプリケーションに適した低コストで完全に対話型(インタラクティブ)の没入型のデジタル・サラウンド・サウンド環境を提供する。DTS対話型は、成分オーディオを圧縮およびパックされたフォーマットで記憶し、ソース・オーディオをサブバンド領域において混合し、マルチチャネルの混合されたオーディオを圧縮フォーマットに再圧縮およびパックし、それをデコードおよび配布のために下流のサラウンド・サウンド・プロセッサへ渡す。マルチチャネル・データは、圧縮フォーマットになっているので、ステレオ・ベースのS/PDIFデジタル出力コネクタを通すことができる。DTS対話型は、計算の負担を増大せずに、または、レンダリングしたオーディオの質を低下せずに、没入型のマルチチャネル環境において一緒にレンダリングすることのできるオーディオ・ソースの数を非常に増大する。DTS対話型は、等化とフェーズ配置オペレーションを簡単にする。更に、技術は、圧縮されたオーディオを「ルーピングする」ために提供されており、デコーダの同期性は、ソース・オーディオが存在しない場合に「無音」のフレームを送信することによって保証されるものであり、ここで無音とは真の無音または低レベルの雑音を含むものである。DTS対話型は、DTSサラウンド・サウンド・デコーダの既存のインフラストラクチャとの旧版互換性を維持するように設計される。しかし、記述したフォーマットおよび混合の技術を使用して、既存のデコーダとソース互換性および/または宛先互換性を維持することに限定されない専用のゲーム・コンソールを設計することができる。
【0015】
DTS対話型
DTS対話型システムは複数のプラットフォームによってサポートされ、それには、DTS5.1マルチチャネル・ホーム・シアタ・システム10が存在し、これは、図1a、1b、および1cに示したように、デコーダおよびAV増幅器、AV増幅器14を有するハードウエアDTSデコーダ・チップセットを備えたサウンド・カード12、または、オーディオ・カード18およびAV増幅器20を有しソフトウエアが実装されたDTSデコーダ16を含む。これらのすべてのシステムは、左22、右24、左サラウンド26、右サラウンド28、中央30、およびサブウーファ32と命名したスピーカのセットと、マルチチャネル・デコーダと、マルチチャネル増幅器とを必要とする。デコーダは、圧縮されたオーディオ・データを供給するための、デジタルS/PDIFまたは他の入力を提供する。増幅器は、6つの個別のスピーカに電力を供給する。ビデオは、通常TVまたは他のモニタであるディスプレイまたは投影装置34の上でレンダリングされる。ユーザは、キーボード36、マウス38、位置センサ、トラックボール、またはジョイ・スティックなどのヒューマン・インタフェース装置(HID)を通じてAV環境と対話する。
【0016】
アプリケーション・プログラミング・インタフェース(API)
図2および3に示したように、DTS対話型(インタラクティブ)システムは、アプリケーション40、アプリケーション・プログラミング・インタフェース(API)42、およびオーディオ・レンダラ44の3層からなる。ソフトウエア・アプリケーションは、ゲーム、または、おそらくは音楽再生/作曲プログラムとすることができ、これらは成分オーディオ・ファイル46を用い、それぞれの或るデフォルト位置キャラクタ48へ割り当てる。また、アプリケーションは、HID36/38を介して、ユーザから対話型データを受け取る。
【0017】
各ゲーム・レベルに対して、しばしば使用されるオーディオ・コンポーネントは、メモリにロードされる(ステップ50)。それぞれのコンポーネント(成分)は、オブジェクトとして取り扱われるので、プログラマは、サウンドのフォーマットとレンダリングの詳細について気づかないままであり、プログラマは、聞き手に対する絶対的な位置と、望ましいて思われる効果処理を考慮するだけでよい。DTS対話型フォーマットにより、これらの成分は、低周波数効果(LFE)を有するまたは有していない、モノ、ステレオ、またはマルチチャネルとすることが可能になる。DTS対話型は、成分を圧縮フォーマットで記憶するので(図6参照)、そうでない場合により解像度の高いビデオ・レンダリング、より多くの色、またはより多くのテキスチャに使用することができる価値のあるシステム・メモリを、節約する。また、圧縮フォーマットの効果としてファイル・サイズが小さくなることにより、記憶媒体から迅速なオンデマンドのローディングが可能になる。サウンド成分は、位置、等化、ボリューム、および必要な効果を詳述するパラメータを備える。これらの詳細は、レンダリング・プロセスの結果に影響することになる。
【0018】
API層42は、各サウンド効果を創出および制御するために、プログラマにインタフェースを提供し、また、オーディオ・データの混合を扱う複雑なリアルタイム・オーディオ・レンダリング・プロセスからの分離をもたらす。オブジェクト指向のクラスは、サウンドの生成を創出および制御する。プログラマが自由にできるいくつかのクラス・メンバが存在し、それは、ロード、アンロード、プレイ、休止(ポーズ)、停止(ストップ)、ルーピング、遅延、ボリューム、等化、3D位置、環境の最大および最小のサウンド次元、メモリの割付け、メモリのロッキングおよび同期化である。
【0019】
APIは、創出されてメモリにロードされた、または媒体からアクセスされた、すべてのサウンド・オブジェクトの記録を生成する(ステップ52)。このデータは、オブジェクト・リスト・テーブルに記憶される。オブジェクト・リストは、実際のオーディオ・データを含まず、むしろ、圧縮されたオーディオ・ストリーム内におけるデータ・ポインタの位置、サウンドの位置座標、聞き手の位置までの方位および距離、サウンド生成の状況、およびデータの混合に必要な任意の特別な処理を示す情報などのような、サウンドの生成に重要な情報を追跡する。サウンド・オブジェクトを創出するためにAPIが呼び出されるとき、そのオブジェクトに対する基準ポインタは、自動的にオブジェクト・リストに入力される。オブジェクトが消去されるとき、オブジェクト・リストにおける対応するポインタ・エントリは、ヌルに設定される。オブジェクト・リストが一杯の場合、簡単な経時ベースのキャッシング・システムは、古い事象(インスタンス)を上書きすることを選択することができる。オブジェクト・リストは、非同期アプリケーション、同期ミキサ、および圧縮オーディオ生成装置プロセスの間にブリッジを形成する。
【0020】
各オブジェクトによって引き継がれたクラスにより、開始、停止、休止、ロード、およびアンロードの機能が、サウンドの生成を制御することが可能になる。これらの制御により、プレイ・リスト・マネジャが、オブジェクト・リストを検査し、その時点で実際にプレイしているそれらのサウンドのみのプレイ・リスト53を構築することが可能になる。マネジャは、サウンドが休止、停止、プレイを完了、またはプレイを開始するのに十分遅延されていない場合、プレイ・リストからそのサウンドを除くことを決定することができる。プレイ・リストの各エントリは、検査しなければならないサウンド内の個々のフレームに対するポインタであり、このサウンドは、必要であれば、混合前に区分的にアンパックされる。フレームのサイズは一定なので、ポインタの操作により、出力サウンドの再生の位置決め、ルーピング、および遅延が可能になる。このポインタの値は、圧縮されたオーディオ・ストリーム内における現在のデコード位置を示す。
【0021】
サウンドの位置的ローカリゼーションは、サウンドを個々のレンダリング・パイプラインに割り当てることを必要とするか、または、次にラウドスピーカの構成の上に直接マッピングする実行バッファに割り当てることを必要とする(ステップ54)。これがマッピング機能の目的である。フレーム・リストのエントリに対する位置データは、どの信号処理機能を適用するかを決定し、聞き手に対する各サウンドの方位および方向を一新し、環境に対する物理的モデルに応じて各サウンドを変更し、混合係数を決定し、オーディオ・ストリームを利用可能な最も適切なスピーカに割り付けるために、検査される。すべてのパラメータとモデルのデータとは、パイプラインに入る各圧縮オーディオ・フレームに関連付けられているスケール・ファクタに対する変更を導出するために組み合わされる。横向きローカリゼーションが望ましい場合、フェーズ・シフト・テーブルからデータが示され、インデックスされる。
【0022】
オーディオ・レンダリング
図2および3に示したように、オーディオ・レンダリング層44は、オブジェクト・クラスによって設定された3Dパラメータ57に従って、望ましいサブバンド・データ55を混合する責務を担う。複数のオーディオ成分を混合するには、各成分を選択的にアンパックおよび圧縮解除し、相関のあるサンプルを合計し、各サブバンドに対して新しいスケール・ファクタを計算することを必要とする。レンダリング層のすべてのプロセスは、圧縮されたオーディオ・データの滑らかで連続的な流れをデコード・システムへ送るために、リアルタイムで機能しなければならない。パイプラインは、プレイされているサウンド・オブジェクトのリストと、各オブジェクト内からのサウンドを変更する指示とを受け取る。各パイプラインは、混合係数に従って成分オーディオを操作し、単一スピーカ・チャネルに対して出力ストリームを混合するように、設計される。出力ストリームは、統一出力ビットストリームへとパックおよび多重化される。
【0023】
より具体的には、レンダリング・プロセスは、各成分のスケール・ファクタをフレームごとにメモリへとアンパックおよび圧縮解除するか(ステップ56)、または、一度に複数のフレームをアンパックおよび圧縮解除する(図7参照)ことによって、開始される。この段階では、各サブバンドに対するスケール・ファクタの情報のみが、その成分または成分の部分がレンダリングされたストリームにおいて可聴である場合、評価することを必要とされる。固定長コード化が使用されるので、そのスケール・ファクタを含むフレームの部分のみをアンパックおよび圧縮解除することができ、それにより、プロセッサの使用を減らせる。SIMDの性能のために、各7ビットのスケール・ファクタの値は、バイトとしてメモリ・スペースに記憶され、32バイトのアドレス境界と位置合わせされて、キャッシュ・ライン読み出しが1つのキャッシュ充填オペレーションにおいてすべてのスケール・ファクタを獲得し、かつキャッシュ・メモリの汚染を生じないことを保証するようにする。更にこのオペレーションを高速化するために、スケール・ファクタをバイトとしてソース・マテリアルに記憶し、32バイトのアドレス境界上においてメモリ内で生じるように編成することが可能である。
【0024】
3D位置、ボリューム、混合、および等化によって提供された3Dパラメータ57は、抽出したスケール・ファクタを変更するために使用される各サブバンドに対する変更アレイを決定するために組み合わされる(ステップ58)。各成分は、サブバンド領域において表されているので、等化は、スケール・ファクタを介して望ましいようにサブバンド係数を調整する自明なオペレーションである。
【0025】
ステップ60において、パイプラインのすべてのエレメントに対してインデックスされた最大スケール・ファクタが特定され、メモリ・スペースにおいて適切に位置合わせされている出力アレイへ記憶される。この情報を使用して、あるサブバンドの成分を混合する必要性を決定する。
【0026】
ステップ62というこの時点で、スピーカのパイプラインから可聴でないサブバンドを除去するために、他のパイプライン化されたサウンド・オブジェクトとのマスキング比較が実施される(詳細は図8および9を参照)。マスキング比較は、高速化するために、各サブバンドに対して独立して実施されることが好ましく、また、マスキング比較は、リストによって参照されたオブジェクトのスケール・ファクタに基づいている。パイプラインは、単一のスピーカからの可聴である情報のみを含む。出力スケール・ファクタが、人間の聴覚の閾値(スレッショルド)より低い場合、出力スケール・ファクタは、ゼロに設定することが可能であり、そうすることにより、対応するサブバンドの成分を混合する必要性が除かれる。PCM時間領域オーディオの操作に対するDTS対話型の利点は、ゲーム・プログラマが、より多くの成分を使用でき、且つ過剰な計算をせずに任意の所与の時間に可聴なサウンドのみを抽出および混合するマスキング・ルーチンに依存することが可能なことである。
【0027】
望ましいサブバンドが識別された後、オーディオ・フレームは、更に、可聴なサブバンド・データのみを抽出するためにアンパックおよび圧縮解除され(ステップ64)、これは、左シフトされたDWORDフォーマットとしてメモリに記憶される(図10a〜10c参照)。この記述を通して、DWORDは、一般性を失わずに、32ビットに想定されている。ゲームの環境では、FLCを使用するために失われた圧縮に支払われる代償は、サブバンド・データをアンパックおよび圧縮解除するために必要な計算の数を減らすことによって補償されるよりも大きい。このプロセスは、すべての成分とチャネルに対し、単一の事前定義されたビット割付けテーブルを使用することによって、更に簡単になる。FLCにより、成分内の任意のサブバンドにおいて、読み出し位置をランダムに配置することが可能になる。
【0028】
ステップ66において、フェーズ(位相)位置決めフィルタリングが、バンド1および2のサブバンド・データに適用される。フィルタは、特有のフェーズ特性を有し、耳が位置の手掛かりとして最も敏感である200Hzから1200Hzの周波数領域に対してのみ適用されることを必要とする。フェーズ位置の計算は、32のサブバンドのうち最初の2つのバンドにのみ適用されるので、計算の数は、同等な時間領域オペレーションに必要な数の約16分の1である。横向きローカリゼーションが必要でない場合、または計算のオーバーヘッドが過剰であると見なされる場合、位相の修正は無視することができる。
【0029】
ステップ68において、サブバンド・データは、それに、対応する変更されたスケール・ファクタを乗算し、それを、パイプラインの他の適格のサブバンド成分のスケール化されたサブバンド産出物と合計することによって、混合される(図11参照)。ビット割り当て(割付け)によって指図される、ステップサイズによる通常の乗算は、ビット割付けテーブルをすべてのオーディオ成分に対して同じであると事前に定義することによって、回避される。最大スケール・ファクタのインデックスがルックアップされ、混合された結果へと除算(または逆数を乗算)される。除算と逆数オペレーションによる乗算とは数学的には同等であるが、乗算オペレーションは一桁高速である。混合された結果が1つのDWORDに記憶される値を超えるとき、オーバーフローが生じることがある。浮動小数点ワードを整数として記憶する試行により、影響を受けるサブバンドに適用されるスケール・ファクタを変更するためにトラップおよび使用される例外が創出される。混合のプロセス後、データは、左にシフトした形態で記憶される。
【0030】
出力データ・フレームのアセンブリおよびキューイング
図4に示したように、コントローラ70は、出力フレーム72をアセンブルし、それらを、サラウンド・サウンド・デコーダに送信するためにキューに配置する。デコーダは、データ・ストリーム内に埋め込まれている反復同期化マーカまたは同期化コードに位置合わせすることができる場合、有用な出力を生成するだけでよい。S/PDIFデータ・ストリームを介してのコード化されたデジタル・オーディオの送信は、元のIEC958仕様の修正であり、コード化されたオーディオ・フォーマットの識別に対する準備とはならない。マルチフォーマット・デコーダは、まず、並行同期ワードを確実に検出することによってデータ・フォーマットを決定し、次いで、適切なデコード方法を確立しなければならない。同期条件の損失すると、デコーダが出力信号をミュートし、コード化されたオーディオ・フォーマットを再確立しようとするので、オーディオの再生に中断をもたらす。
【0031】
コントローラ70は、「無音」を表す圧縮されたオーディオを含むヌル出力テンプレート74を準備する。現在の好ましい実施形態では、ヘッダ情報はフレームごとの違いはなく、スケール・ファクタおよびサブバンド・データ領域のみを更新する必要がある。テンプレートのヘッダは、ストリーム・ビット割付けのフォーマットに関する不変の情報と、情報をデコードおよびアンパックするための追加的情報とを搬送する。
【0032】
同時に、オーディオ・レンダラは、サウンド・オブジェクトのリストを生成し、それをスピーカの位置へマッピングする。マッピングされたデータ内では、可聴なサブバンド・データは、上述したように、パイプライン82によって混合される。パイプライン82によって生成されたマルチチャネル・サブバンド・データは、事前定義されたビット割付けテーブルに従って、FLCに圧縮される(ステップ78)。パイプラインは、並列に編成されており、それぞれは、特定のスピーカ・チャネルに特有である。
【0033】
ITU推奨BS.775−1は、マルチチャネル・サウンド送信、HDTV、DVD、および他のデジタル・オーディオ応用のための2チャネル・サウンド・システムの限界を認識する。この推奨は、聞き手の回りに一定の距離の配列に構成された2つのリア/サイド・スピーカと3つのフロント・スピーカとを組み合わせることを推奨する。変更されたITUスピーカ構成が採用される或る場合には、左サラウンド・チャネルおよび右サラウンド・チャネルは、圧縮されたオーディオ・フレーム全体の数によって遅延(84)される。
【0034】
パッカ86は、スケール・ファクタおよびサブバンド・データをパックし(ステップ88)、パックされたデータをコントローラ70へ渡す。出力ストリームの各チャネルに対するビット割付けテーブルが事前に定義されているので、フレームがオーバーフローする可能性は排除される。DTS対話型フォーマットは、ビットレート制限されておらず、線形およびブロックのエンコードの簡単で迅速なエンコード技術を適用することができる。
【0035】
デコーダの同期を維持するために、コントローラ70は、パックされたデータの次のフレームの出力準備ができているかを判定する(ステップ92)。答えがイエスである場合、コントローラ70は、パックされたデータ(スケール・ファクタとサブバンド・データ)を以前の出力フレーム72に上書きし(ステップ94)、それをキューに配置する(ステップ96)。答えがノーである場合、コントローラ70は、ヌル出力テンプレート74を出力する。圧縮された無音をこの方法で送信することにより、同期を維持するために、デコーダへフレームを中断なしに出力することが保証される。
【0036】
即ち、コントローラ70は、データ・ポンプ・プロセスを提供する。この機能は、出力装置による継ぎ目のない生成のために、出力ストリームに中断またはギャップをもたらさずに、コード化オーディオ・フレーム・バッファを管理することである。データ・ポンプ・プロセスは、最も最近出力を完了したオーディオ・バッファをキューに入れる。バッファが出力を終了すると、それは出力バッファ・キューに再配置(repost)され、空であるとフラグが立てられる。この空状態フラグにより、混合プロセスは、データを識別し、そして、キューの次のバッファが出力されるのと同時に且つ残りのバッファが出力を待機している間に、そのデータをその未使用のバッファにコピーすることが可能になる。データ・ポンプ・プロセスを準備するためには、キューのリストに、まず、ヌル・オーディオ・バッファ・イベントを配置しなければならない。初期設定バッファのコンテンツは、コード化されているか否かに関わらず、無音または他の非可聴または意図した信号を表すべきである。キューのバッファの数と各バッファのサイズは、ユーザの入力に対する応答時間に影響を与える。待ち時間を短く維持し、より現実的な対話型経験を提供するために、出力キューは、2バッファの深度に制限され、一方、各バッファのサイズは、宛先デコーダとユーザが受け入れ可能な待ち時間とにより許容される最大のフレーム・サイズによって決定される。
【0037】
オーディオの質は、ユーザの待ち時間に対して、折り合いをつけることが可能である。小さなフレーム・サイズは、ヘッダ情報の反復的に送信することにより負担をかけられ、これにより、オーディオ・データをコード化するのに利用可能なビット数が減少し、それにより、レンダリングされたオーディオの質が低下する。一方、大きなフレームのサイズは、ホーム・シアタのデコーダにおけるローカルDSPメモリの利用可能性により制限され、それにより、ユーザの待ち時間を増大させる。サンプル・レートと組み合わされて、この2つの量は、圧縮されたオーディオ出力のバッファを更新するための最大リフレッシュ間隔を決定する。DTS対話型システムでは、これはタイムベースであり、サウンドのローカリゼーションをリフレッシュし、リアルタイム対話の錯覚を提供するために使用される。このシステムでは、出力フレームのサイズは、4096バイトに設定されており、最小限のヘッダ・サイズ、編集およびループ創出のための良好な時間分解能、およびユーザの応答に対する短い待ち時間を提供する。通常、4096バイトのフレーム・サイズに対しては69msから92msであり、2048バイトのフレーム・サイズに対しては34msから46msである。各フレーム時間において、聞き手の位置に対するアクティブのサウンドの距離および角度が計算され、この情報は、個々のサウンドをレンダリングするために使用される。例として、サンプル・レートに依存する31Hzから47Hzの間のリフレッシュ・レートが、4096バイトのフレーム・サイズに対して可能である。
【0038】
圧縮されたオーディオのルーピング
ルーピングは、望ましいオーディオ効果を創出するために、同じサウンド・ビットが不確定にルーピングされる標準的なゲームの技術である。例えば、ヘリコプタ・サウンドの少数のフレームを記憶してルーピングし、ゲームに必要とされる長さだけリコプタを生成することができる。時間領域では、サウンドの終了位置と開始位置との間の遷移ゾーン中に、可聴なクリックまたはひずみは、開始と終了の振幅が相補的である場合には聞かれることはない。この同じ技術は、圧縮オーディオ領域では作用しない。
【0039】
圧縮されたオーディオは、PCMサンプルの固定されたフレームからエンコードされたデータのパケットに含まれており、そして、以前に処理されたオーディオに対する圧縮オーディオ・フレームの相互依存によって、更に複雑になっている。DTSサラウンド・サウンド・デコーダの再構築フィルタは出力オーディオを遅延させ、第1オーディオ・サンプルが、再構築フィルタの特性により、低レベルの過渡的な振舞いを呈するようにさせる。
【0040】
図5に示したように、DTS対話型システムにおいて実施されたルーピング解決法は、対話型ゲーム環境におけるリアルタイムのルーピングの実行とコンパチブルな圧縮フォーマットで記憶するためのコンポーネント・オーディオを用意するように、オフラインで実施される。このルーピング解決法の第1ステップは、ルーピングされたシーケンスのPCMデータが、圧縮されたオーディオ・フレームの全体の数によって定められた境界内に精確にフィットするように、まず、時間についてコンパクト化または拡張されることを必要とする(ステップ100)。エンコードされたデータは、エンコードされた各フレームからのオーディオ・サンプルの固定数を表す。DTSシステムでは、サンプルの持続期間は、1024サンプルの倍数である。開始するためには、圧縮されていない「読み出し」オーディオの少なくともNフレームが、ファイルの終端部から読み出され(ステップ102)、ルーピングされるセグメントの開始へ一時的に添付される(ステップ104)。この例では、Nは値1を有するが、以前のフレームに対する再構築フィルタの依存性をカバーするのに十分な大きさの任意の値を使用することが可能である。エンコード(ステップ106)の後、Nの圧縮されたフレームは、圧縮されたオーディオ・ループ・シーケンスをもたらすために、エンコードされたビットストリームの始めから除去される(ステップ108)。このプロセスにより、終了フレーム中に再構築合成フィルタにある値が、開始フレームとの継ぎ目のない連結を保証するのに必要な値と一致することが保証され、そうすることにより、可聴なクリックまたはひずみが防止される。ルーピングされた再生の際に、読み出しポインタは、グリッチのない再生のために、ルーピングされたシーケンスの始めへと戻すように向けられる。
【0041】
DTS対話型フレーム・フォーマット
DTS対話型フレーム72は、図6に示したように構成されたデータからなる。ヘッダ110は、オーディオ・ペイロードをデコードするのに必要な、コンテンツのフォーマット、サブバンドの数、チャネル・フォーマット、サンプリング周波数、およびテーブル(DTS規格において定義されている)を記述する。また、この領域は、ヘッダの始めを識別し、かつアンパックのために、エンコードされたストリームの位置合わせ(アライメント)を提供するために、同期ワードを含む。
【0042】
ヘッダに続いて、ビット割付けセクション112は、どのサブバンドがフレームに存在するか、ならびに、サブバンドのサンプルあたりに割り付けられたビットの数の指示を示す。ビット割付けテーブルにおけるゼロのエントリは、関連するサブバンドがフレームに存在しないことを示す。ビットの割付けは、混合の速さについて、成分ごと、チャネルごと、フレームごと、および各サブバンドに対して固定されている。固定されたビットの割付けは、DTS対話型システムによって採用され、ビット割付けテーブルを検査、記憶、および走査する必要性を排除し、アンパック段階中におけるビット幅の規則的なチェックを排除する。例えば、以下のビット割付けは、使用に適している{15、10、9、8、8、8、7、7、7、6、6、5、5、5、5、5、5、5、5、5、5、5、5、5、5、5、5、5、5、5、5、5、5}。
【0043】
スケール・ファクタ・セクション114は、例えば32サブバンドなどのように、サブバンドのそれぞれに対するスケール・ファクタを識別する。スケール・ファクタのデータは、対応するサブバンド・データと共に、フレームごとに異なる。
【0044】
最後に、サブバンド・データ・セクション116は、すべての量子化されたサブバンド・データを含む。図7に示したように、サブバンドのデータの各フレームはサブバンドあたり32のサンプルからなり、サイズ8の4つのベクトル118a〜118dとして編成されている。サブバンドのサンプルは、線形コードまたはブロック・コードによって表すことができる。線形コードは、符号ビットで始まり、それにサンプル・データが続く。一方、ブロック・コードは、符号を含めたサブバンド・サンプルの効率的にエンコードされたグループである。サブバンド・データ116とのビット割付け112およびスケール・ファクタ114の位置合わせについても記述されている。
【0045】
圧縮されたオーディオのサブバンド領域混合
以前に説明したように、DTS対話型は、通常のPCMフォーマットではなく、圧縮されたフォーマットで、サブバンド・データなどの成分オーディオを混合し、大きな計算の柔軟性と忠実度の利益を実現する。これらの利益は、2段階においてユーザにとって可聴でないサブバンドを破棄することによって獲得される。第1に、ゲーム・プログラマは、特有のオーディオ成分の周波数コンテンツに関する以前の情報に基づいて、有用な情報を僅かに含むか又は全く含まない上部(高周波数)サブバンドを破棄することができる。これはオフラインで実施されるものであり、成分オーディオを記憶する前に、上部バンド・ビット割付けをゼロに設定することによって行われる。
【0046】
より具体的には、48.0kHz、44.1kHz、および32.0kHzのサンプル・レートにはしばしばオーディオにおいて遭遇するが、高いサンプル・レートは、メモリを費やして忠実度の高い完全なバンド幅のオーディオを提供する。これは、素材が音声などのような、僅かな高周波数を含むものである場合、リソースの浪費となることがある。より低いサンプル・レートは、或る素材にはより適切であるが、異なるサンプル・レートの混合の問題が生じる。ゲームのオーディオは、オーディオ品質とメモリ要件との妥当な妥協として、22.050kHzのサンプリング・レートを頻繁に使用する。DTS対話型システムでは、すべての素材は、以前に記述した最高のサポートされるサンプル・レートでエンコードされ、全オーディオ・スペクトルを完全に占有しない素材は、以下のように取り扱われる。例えば11.025kHzにおいてエンコードすることを意図した素材は、44.1kHzでサンプリングされ、高周波数コンテンツを記述するサブバンドの上部75%は破棄される。この結果としてのエンコードされたファイルは、他のより高い忠実度の信号との互換性および混合の容易さを保持し、更にファイルのサイズを低減することを可能にするファイルである。この原理を拡張して、サブバンドの上部50%を破棄することによって22.050kHzのサンプリングを可能にすることができる方法は、容易に理解される。
【0047】
第2に、DTS対話型は、スケール・ファクタをアンパックし(ステップ120)、それらを簡略化した音響心理学的分析に使用して(図9参照)、マップ機能(ステップ54)によって選択されたオーディオ成分のどれが、各サブバンドにおいて可聴であるかを決定する(ステップ124)。近傍のサブバンドを考慮に入れる標準的な音響心理学的分析を実施して、少し良好な性能を達成することができるが、速さを犠牲にすることになる。その後、オーディオ・レンダラは、可聴であるそれらのサブバンドのみをアンパックおよび圧縮解除する(ステップ126)。レンダラは、サブバンド領域において、各サブバンドのサブバンド・データを混合し(ステップ128)、それを再圧縮して、それを図4に示したようにパッキングのためにフォーマットする(アイテム86)。
【0048】
このプロセスの計算の利益は、可聴であるそれらのサブバンドのみをアンパック、圧縮解除、混合、再圧縮、およびパックしなければならないことから実現される。同様に、混合のプロセスは自動的に可聴でないデータをすべて破棄するので、ゲーム・プログラマには、量子化雑音フロアを上昇させずに、より多数のオーディオ成分を用いて豊かなサウンド環境を創出するためのすぐれた柔軟性を提供される。これらは、リアルタイム対話型環境において、即ち、ユーザの待ち時間が重要であり、豊かで忠実度の高い没入型のオーディオ環境が目標である環境において、非常に大きな利点である。
【0049】
音響心理学的マスキング効果
音響心理学的な測定は、知覚的に不適切な情報を決定するために使用される。この情報は、人間の聞き手が聞くことができず、かつ、時間領域、サブバンド領域、またはいくつかの他の基盤において測定することができる、オーディオ信号の部分として定義される。2つの主なファクタが、音響心理学的な測定に影響を与える。一方は、人間に適用可能な聴覚の、周波数依存の絶対スレッショルドである。他方は、1つのサウンドと同時にプレイされた第2のサウンド、又は第1のサウンドの後の第2のサウンドを聞くための人間の能力に対しての、第1のサウンドが持つマスキング効果である。即ち、同じサブバンドまたは近傍のサブバンド内にある第1のサウンドは、我々が第2のサウンドを聞くことを妨げ、それをマスク・アウトすると言う。
【0050】
サブバンド・コーダでは、音響心理学的計算の最終結果は、そのインスタンスでの各サブバンドの可聴でないレベルの雑音を特定する数のセットである。この計算は、よく知られており、MPEG1圧縮規格、ISO/IEC DIS11172「Information technology−Coding of moving pictures and associated audio for digital storage media up to about 1.5 Mbits/s(情報技術−約1.5Mビット/sまでのデジタル記録媒体のための動画および関連のオーディオのコード化)」、1992、に入れられている。これらの数は、オーディオ信号と共に動的に変化する。コーダは、これらのサブバンドにおける量子化雑音が可聴なレベル未満であるように、ビット割付けプロセスによって、サブバンドの量子化雑音フロアを調節することを試みる。
【0051】
DTS対話型は、現在、サブバンド間の依存を不能にすることによって、通常の音響心理学的マスキング・オペレーションを簡単にする。最終分析では、スケール・ファクタからサブバンド内のマスキング効果を計算することにより、各サブバンドの可聴な成分を識別する。これは、サブバンドごとに同じである可能性も異なる可能性もある。完全な音響心理学的分析は、或るサブバンドではより多くの成分を提供し、他のサブバンド、最も高い可能性としては上部サブバンド、を完全に破棄する可能性がある。
【0052】
図9に示したように、音響心理学的なマスキングの機能は、オブジェクト・リストを検査し、供給された成分ストリームの各サブバンドに対しての最大の変更されたスケール値を抽出する(ステップ130)。この情報は、オブジェクト・リストに存在する最も音の大きい信号に対する基準として、マスキング機能へ入力される。また、最大スケール・ファクタは、混合された結果をDTS圧縮オーディオ・フォーマットにエンコードするための基礎として、量子化器へ送られる。
【0053】
DTS領域のフィルタリングには、時間領域信号は利用できず、従って、マスキングのスレッショルドは、DTS信号のサブバンドのサンプルから推定される。マスキング・スレッショルドは、最大スケール・ファクタと人間の聴覚応答とから、各サブバンドに対して計算される(ステップ132)。各サブバンドのスケール・ファクタは、そのバンドのマスキング・スレッショルドと比較され(ステップ136)、そのバンドに対して設定されたマスキング・スレッショルド未満であることがわかった場合、そのサブバンドは可聴ではないと見なされ、混合プロセスから除去される(ステップ138)。そうでない場合、サブバンドは、可聴であると見なされ、混合プロセスのために維持される(ステップ140)。現在のプロセスは、同じサブバンドのマスキング効果のみを考慮し、近傍のサブバンドの効果は無視する。これにより、性能はいくらか落ちるが、このプロセスは簡単であり、従って、対話型リアルタイム環境において要求されるより遙かに高速である。
【0054】
ビット操作
上述のように、DTS対話型は、オーディオ信号を混合およびレンダリングするために必要な計算の数を減らすように設計される。アンパックおよび再パックしなければならないデータの量を最小限に抑えるように最大の努力が払われるが、その理由は、これらおよび圧縮解除/再圧縮のオペレーションは計算的に集中するからである。それでも、可聴なサブバンド・データは、アンパック、圧縮解除、混合、圧縮、および再パックをしなければならない。従って、DTS対話型はまた、図10a〜10cに示したようにデータをアンパックおよびパックし、図11に示したようにサブバンド・データを混合する計算の数を減らすために、データを操作する異なる手法を提供する。
【0055】
通常、デジタル・サラウンド・システムは、圧縮を最適化するために、可変長のビット・フィールドを使用してビット・ストリームをエンコードする。アンパック・プロセスの重要な要素は、可変長ビット・フィールドの符号付き抽出である。アンパックの手続きは、このルーチンを実行する頻度に起因して集中的である。例えば、Nビットのフィールドを抽出するために、まず32ビット(DWORD)のデータを左にシフトして、符号ビットを最も左のビット・フィールドに配置する。次に、符号エクステンションを導入するために、この値を2の累乗によって除算するか、または、(32−N)ビットの位置だけ右にシフトする。多数のシフト・オペレーションは、有限の時間で実行されるが、残念ながら、現代のペンティアム(R)・プロセッサでは、他の命令と並行して実行することやパイプライン化することはできない。
【0056】
DTS対話型は、スケール・ファクタがビット幅サイズに関関連していることを利用し、これにより、最終的右シフト・オペレーションを、以下の場合、即ち、a)スケール・ファクタが、その場所において、しかるべく扱われ、b)サブバンド・データを表すビットの数が十分であるので、(32−N)の最右ビットによって表された「ノイズ」が、再構築された信号のノイズ・フロアより低い場合において、無視する可能性を提供するということを実現する。Nはわずか数ビットとすることが可能であるが、これは、通常、ノイズ・フロアがより高い上部サブバンドでのみ生じる。非常に高い圧縮率を適用するVLCシステムでは、ノイズ・フロアを超えるであろう。
【0057】
図10aに示したように、通常のフレームは、サブバンド・データ140のセクションを含み、このセクションは、個々のNビット・サブバンド・データ142を含み、ここにおいてNは、サブバンドにわたって変化することが許容されるが、サンプルにわたって変化することは許容されない。図10bに示したように、オーディオ・レンダラは、サブバンド・データのセクションを抽出して、それをローカル・メモリに記憶するが、それは、通常は第1ビットが符号ビット146であり、次の31のビットがデータ・ビットである32ビットのワード144として記憶する。
【0058】
図10cに示したように、オーディオ・レンダラは、サブバンド・データ142を左にシフトしており、従って、その符号ビットは、符号ビットン146と位置合わせされている。すべてのデータがVLCではなくFLCとして記憶されるので、これは、自明なオペレーションである。オーディオ・レンダラは、データを右にシフトすることはない。代わりに、スケール・ファクタは、2によってそれらを除算することによって事前スケール化され、(32−N)の累乗へと上げられ、記憶され、そして、32−Nの最右ビット148は、可聴でない雑音(ノイズ)として取り扱われる。即ち、スケール・ファクタの1ビットの右シフトとサブバンド・データの1ビットの左シフトとを組み合わせても、その産物の値を変化させない。また、同じ技術をデコーダによって使用することができる。
【0059】
すべての混合産物の合計と量子化の後には、オーバーフローする値を識別することは簡単なことであるが、その理由は、記憶の限界が固定されるからである。これにより、サブバンド・データが左シフト・オペレーションによって取り扱われていないシステムと比較して、非常に優れた検出速度が提供される。
【0060】
データが再パックされるとき、レンダリングされたオーディオは、各32ビットのワードから最左のNビットをつかみとり、それにより、32−Nの左シフト・オペレーションを回避する。(32−N)の右および左のシフト・オペレーションを回避することは、それほど重要でないように見えるかも知れないが、アンパックおよびパックのルーチンを実行する頻度は非常に高いので、計算は著しく減ることになる。
【0061】
サブバンド・データの混合
図11に示したように、混合のプロセスが開始され、可聴なサブバンド・データは、位置、等化、位相のローカリゼーションなどに対して調整された、対応するスケール・ファクタによって乗算され(ステップ150)、和は、パイプラインの他の適格のアイテムの対応するサブバンド産物に付加される(ステップ152)。所与のサブバンドにおける各成分のビットの数は同じなので、ステップ・サイズ・ファクタを無視することができ、従って、計算を減らすことができる。最大のスケール・ファクタのインデックスを探索し(ステップ154)、その逆数を、混合の結果と乗算する(ステップ156)。
【0062】
混合の結果が、1つのDWORDに記憶されている値を超えるとき、オーバーフローが生じ得る(ステップ158)。浮動小数点のワードを整数として記憶する試行により例外が創出され、この例外は、すべての影響を受けるサブバンドに適用されるスケール・ファクタを修正するためにトラップおよび使用されるものである。例外が生じる場合、最大のスケール・ファクタは増分され(ステップ160)、サブバンド・データは再計算される(ステップ156)。最大スケール・ファクタは開始点として使用されるが、その理由は、伝統的すぎるぐらいの方が良いからであり、また、信号のダイナミック・レンジを低減するよりはスケール・ファクタを増分する方が良いからである。混合プロセス後、データは、再圧縮およびパックのために、スケール・ファクタのデータを変更することによって左シフトされた形態で記憶される。
【0063】
本発明の幾つかの例示的な実施形態について、図示および記述してきたが、当業者なら、多くの変更形態および代替形態を思いつくであろう。例えば、2つの5.1チャネル信号を混合し、および共にインタリーブして、高さの次元を追加した真の3D没入型のための10.2チャネル信号を生成することができる。更に、一度に1つのフレームを処理する代わりに、処理を組み合わせることによって、オーディオ・レンダラは、フレームのサイズを2分の1に小さくし、2つのフレームを一度に処理することができる。これにより、待ち時間は2分の1になるが、ヘッダ情報を2回反復するたびに、いくつかのビットを浪費するという犠牲を伴う。しかし、専用のシステムでは、ヘッダ情報の多くは除くことができる。そのような変更形態および代替形態が考慮され、それらは、特許請求の範囲において定義されている本発明の精神および範囲から逸脱せずに実施することができる。
【図面の簡単な説明】
【図1】 図1aから1cは、本発明による様々なゲーム構成のブロック図である。
【図2】 図2は、完全に対話型のサラウンド・サウンド環境のための、アプリケーションの層構造に関するブロック図である。
【図3】 図3−1および3−2(合わせて図3)は、図2に示したオーディオ・レンダリング層のフローチャートである。
【図4】 図4は、サラウンド・サウンド・デコーダへ送信するために、出力データ・フレームをアセンブルおよびキュー・アップするためのパック・プロセスのブロック図である。
【図5】 図5は、圧縮されたオーディオのルーピングを示すフロー・チャートである。
【図6】 図6は、データ・フレームの編成を示す図である。
【図7】 図7は、各フレームにおける量子化されたサブバンド・データ、スケール・ファクタ、およびビット割付けの編成を示す図である。
【図8】 図8は、サブバンド領域の混合プロセスのブロック図である。
【図9】 図9は、音響心理学的マスキング効果を示す図である。
【図10】 図10aから10cは、各フレームをパックおよびアンパックするためのビット抽出プロセスの図である。
【図11】 図11は、指定されたサブバンド・データの混合を示す図である。

Claims (31)

  1. マルチチャネル対話型オーディオ・システムであって、
    複数のオーディオ成分を入力データ・フレーム(72)のシーケンスとして記憶するためのメモリであって、前記入力データ・フレームのそれぞれが、圧縮およびパックされたサブバンド・データ(55、116)およびそのスケール・ファクタ(114)を含む、メモリと、
    ユーザから入力を受け取るための人的入力装置(HID)(36、38)と、
    前記ユーザの入力に応答してオーディオ成分のリストを生成するアプリケーション・プログラミング・インタフェース(API)(42)と、
    オーディオ・レンダラ(44)であって、前記リストに基づいて、
    各チャネルのオーディオ成分のサブバンド・データおよびスケール・ファクタをアンパックおよび圧縮解除し、
    サブバンド・データの混合のためにスケール・ファクタを計算し、
    各チャネルについて前記サブバンドの領域において、アンパックおよび圧縮解除された前記オーディオ成分のサブバンド・データを混合し、
    各チャネルについて混合された前記サブバンド・データおよびそのスケール・ファクタを圧縮し、
    前記チャネルの圧縮されたサブバンド・データおよびスケール・ファクタを出力フレーム内にパックおよび多重化し、
    前記出力フレームをデコーダへ送信するためにキュー内に配置する
    オーディオ・レンダラ(44)と、
    を備えるマルチチャネル対話型オーディオ・システム。
  2. 前記オーディオ・レンダラが、前記ユーザにとって可聴であると見なされる前記サブバンド・データのみを混合する、請求項1に記載のマルチチャネル対話型オーディオ・システム。
  3. 前記オーディオ・レンダラが、リストされた前記オーディオ成分のスケール・ファクタを使用して、前記サブバンドにおけるマスキング効果を計算し、かつ、各サブバンドについて可聴でないオーディオ成分を破棄することによって、何れのサブバンドがユーザにとって可聴であるかを決定する、請求項2に記載のマルチチャネル対話型オーディオ・システム。
  4. 前記オーディオ・レンダラが、まず、前記オーディオ成分のスケール・ファクタをアンパックおよび圧縮解除し(56)、可聴なサブバンドを決定し、次いで、前記可聴なサブバンドのサブバンド・データのみをアンパックおよび圧縮解除する(64)、請求項3に記載のマルチチャネル対話型オーディオ・システム。
  5. 前記オーディオ・レンダラが、
    a.アンパックおよび圧縮解除された前記サブバンド・データを、左にシフトしたフォーマットで前記メモリへ記憶し(64)、前記メモリへの記憶において、Nビットの前記サブバンド・データの符号ビットが、Mビットのフォーマットの符号ビットと位置合わせされ、M−Nの最右ビットが、ノイズ・フロアより低いノイズを表すものであり、
    b.各サブバンドについて、可聴な前記サブバンド・データにそれぞれのスケール・ファクタを乗算し(68)、それらを足し合わせて合計を出し、
    c.各サブバンドについて、混合されたサブバンド・データを生成するために、可聴な前記サブバンド・データの最大スケール・ファクタの逆数を前記合計に乗算し、
    d.前記混合されたサブバンド・データが前記フォーマットをオーバーフローする場合に、最大スケール・ファクタを次に大きい値に増分して、ステップcを反復する、
    請求項4に記載のマルチチャネル対話型オーディオ・システム。
  6. 前記入力データ・フレームが、フレームごとに固定されているヘッダ(110)およびビット割付けテーブル(112)を更に含み、前記スケール・ファクタおよびサブバンド・データのみが変化する、請求項1に記載のマルチチャネル対話型オーディオ・システム。
  7. 圧縮された前記サブバンド・データが固定長のコードでコード化される、請求項6に記載のマルチチャネル対話型オーディオ・システム。
  8. 前記オーディオ・レンダラが、Nがサブバンドにわたって変化するものであるNビットの前記サブバンド・データの各々をアンパックするものであって、
    a.FLCと固定ビット割付けとを使用して、前記入力オーディオ・フレームにおける前記サブバンド・データの位置を計算し、前記サブバンド・データを抽出し、それを、最左ビットが符号ビットであるMビットのワードとして前記メモリに記憶し、
    b.前記サブバンド・データを、その符号ビットが前記Mビットのワードの符号ビットと位置合わせされるまで、左にシフトし、最右のM−Nビットが前記Mビットのワードにノイズとして残るものである、
    ようにアンパックするものである、
    請求項7に記載のマルチチャネル対話型オーディオ・システム。
  9. 前記オーディオ・レンダラが、固定ヘッダとビット割付けテーブルとに対してハードコードされており、前記オーディオ・レンダラが、速さを増すために、前記スケール・ファクタおよび前記サブバンド・データのみを処理する、請求項8に記載のマルチチャネル対話型オーディオ・システム。
  10. 前記オーディオ・レンダラが、前記オーディオ成分の等化を提供するアプリケーションとインタフェースし、前記オーディオ・レンダラが、それぞれの前記オーディオ成分を、そのスケール・ファクタを変更することによって等化する、請求項1に記載のマルチチャネル対話型オーディオ・システム。
  11. 前記オーディオ・レンダラが、前記オーディオ成分の横向きローカリゼーションを提供するアプリケーションとインタフェースし、前記オーディオ・レンダラが、200Hzから1200Hzの範囲にわたる前記サブバンド・データに位相位置決めフィルタを適用することによって、前記オーディオ成分の横向きローカリゼーションを行う、請求項1に記載のマルチチャネル対話型オーディオ・システム。
  12. 前記入力フレームおよび出力フレームが、ヘッダ(110)およびビット割付けテーブル(112)も含み、前記オーディオ・レンダラが、
    a.前記ヘッダと、前記ビット割付けテーブルと、可聴でない信号を表すスケール・ファクタおよびサブバンド・データとを含むヌル出力テンプレート(74)をキューに配置し、
    b.混合されたサブバンド・データとスケール・ファクタの次のフレームが準備されている場合には、混合された前記サブバンド・データおよびスケール・ファクタを以前の出力フレームに上書きして、その出力フレームを送信し、
    c.前記次のフレームが準備されていない場合には、前記ヌル出力テンプレートを送信する
    ことによって、デコーダの同期を維持するために出力フレームの継ぎ目のない生成に対して備えるものである、
    請求項1に記載のマルチチャネル対話型オーディオ・システム。
  13. 前記デコーダが、マルチチャネル・オーディオをデコードすることができるデジタル・サラウンド・サウンド・デコーダであり、前記オーディオ・レンダラが一連の前記出力フレームを送信し、該出力フレームは、前記マルチチャネル・オーディオと同じフォーマットでリアルタイム対話型マルチチャネル・オーディオを提供するものである、請求項1に記載のマルチチャネル対話型オーディオ・システム。
  14. 単一バンド制限コネクタを更に備え、前記オーディオ・レンダラは、リアルタイムで、かつ前記ユーザの入力に応答して、前記出力フレームを統一され且つ圧縮されたビットストリームとして、前記単一バンド制限コネクタを通じて前記デジタル・サラウンド・サウンド・デコーダ(12)へ送信し、該デジタル・サラウンド・サウンド・デコーダは、前記ビットストリームを、バンド幅が前記単一バンド制限コネクタのものを超える対話型マルチチャネル・オーディオへとデコードする、請求項13に記載のマルチチャネル対話型オーディオ・システム。
  15. 単一バンド制限コネクタを更に備え、前記オーディオ・レンダラは、リアルタイムで、かつ前記ユーザの入力に応答して、前記出力フレームを統一され且つ圧縮されたビットストリームとして、前記単一バンド制限コネクタを通じて前記デコーダへ送信し、該デコーダは、前記ビットストリームを、バンド幅が前記単一バンド制限コネクタのものを超えるマルチチャネル・オーディオへとデコードする、請求項1に記載のマルチチャネル対話型オーディオ・システム。
  16. 前記オーディオ成分の1つまたは複数のものが、開始の入力フレームと、該開始のフレームとの継ぎ目のない連結を保証するためにサブバンド・データが前処理されている終了の入力フレームとを有するルーピングされたデータを備える、請求項1に記載のマルチチャネル対話型オーディオ・システム。
  17. マルチチャネル対話型オーディオ・システムであって、
    複数のオーディオ成分を、固定長コード(FLC)でコード化されるビットストリームの入力データ・フレームのシーケンスとして記憶するメモリであって、各前記入力データ・フレームが、ヘッダ(110)と、ビット割付けテーブル(112)と、圧縮およびパックされたサブバンド・データ(116)およびスケール・ファクタ(114)とを含み、前記ヘッダおよびビット割付けテーブルが、成分ごと、チャネルごと、およびフレームごとに固定される、メモリと、
    ユーザから入力を受け取るための人的入力装置(HID)(36、38)と、 前記ユーザの入力に応答して、オーディオ成分のリストを生成するアプリケーション・プログラミング・インタフェース(API)(42)と、
    固定された前記ヘッダおよびビット割付けテーブルに対してハードコードされるオーディオ・レンダラ(44)であって、前記リストに基づいて、
    各チャネルに対して前記オーディオ成分のスケール・ファクタ(114)をアンパックおよび圧縮解除し、
    サブバンド・データの混合のためにスケール・ファクタを計算し、
    前記スケール・ファクタを使用して、可聴な前記サブバンド・データを決定し、
    前記可聴なサブバンド・データのみをアンパックおよび圧縮解除し、
    各チャネルについて前記サブバンド領域において、アンパックおよび圧縮解除された前記可聴なサブバンド・データを混合し、
    各チャネルについて前記混合されたサブバンド・データおよびそのスケール・ファクタを圧縮し、
    前記チャネルの圧縮されたサブバンド・データおよびスケール・ファクタを出力フレーム内にパックおよび多重化し、
    前記出力フレームを、デコーダへ送信するためにキューに配置する
    オーディオ・レンダラ(44)と
    を備えるマルチチャネル対話型オーディオ・システム。
  18. 前記オーディオ・レンダラが、Nがサブバンドにわたって変化するものであるNビットの可聴の前記サブバンド・データの各々をアンパックするものであって、
    a.FLCと固定ビット割付けとを使用して、前記入力オーディオ・フレームにおける前記可聴のサブバンド・データの位置を計算し、前記可聴のサブバンド・データを抽出し、それを、最左ビットが符号ビットであるMビットのワードとして前記メモリに記憶し、
    b.前記可聴のサブバンド・データを、その符号ビットが前記Mビットのワードの符号ビットと位置合わせされるまで、左にシフトし、最右のM−Nビットが前記Mビットのワードにノイズとして残るものである、
    ようにアンパックするものである、
    請求項17に記載のマルチチャネル対話型オーディオ・システム。
  19. 前記デコーダが、マルチチャネル・オーディオをデコードすることができるデジタル・サラウンド・サウンド・デコーダ(10、12、16)である、請求項17に記載のマルチチャネル対話型オーディオ・システム。
  20. 前記オーディオ・レンダラが、
    a.前記ヘッダ、前記ビット割付けテーブル、および可聴でない信号を表すサブバンドおよびスケール・ファクタを含むヌル出力テンプレートを、デコーダへ送信するためにキューに配置し、
    b.混合されたサブバンド・データおよびスケール・ファクタの次のフレームが準備されている場合に、前記混合されたサブバンド・データおよびスケール・ファクタを以前の出力フレームに上書きし、その出力フレームを送信し、
    c.前記次のフレームが準備されていない場合に、前記ヌル出力テンプレートを送信する
    ことによって出力フレームの継ぎ目のないシーケンスを生成する、
    請求項17に記載のマルチチャネル対話型オーディオ・システム。
  21. マルチチャネル対話型オーディオ・システムであって、
    複数のオーディオ成分を入力データ・フレーム(72)のシーケンスとして記憶するメモリであって、それぞれの前記入力データ・フレームが、ヘッダ(110)、ビット割付けテーブル(112)、および圧縮およびパックされたオーディオ・データ(116)を含む、メモリと、
    ユーザから入力を受け取る人的入力装置(HID)(36、38)と、
    前記ユーザの入力に応答して、オーディオ成分のリストを生成するアプリケーション・プログラミング・インタフェース(API)(42)と、
    出力フレームの継ぎ目のないシーケンスを生成するオーディオ・レンダラ(44)であって、前記リストに基づいて、
    a.前記ヘッダ、前記ビット割付けテーブル、および可聴でない信号を表すサブバンド・データおよびスケール・ファクタ(114)を含むヌル出力テンプレート(74)を、デコーダへ送信するためにキューに配置し、
    b.各チャネルについて前記オーディオ成分のデータを同時にアンパックおよび圧縮解除し、各チャネルについて、アンパックおよび圧縮解除された前記オーディオ成分のデータを混合し、混合した前記データのスケール・ファクタを計算し、各チャネルについて前記混合したデータを圧縮し、前記チャネルの圧縮したデータをパックおよび多重化し、
    c.前記混合したデータの次のフレームが準備されている場合に、前記混合したデータを以前の出力フレームに上書きし、その出力フレームを送信し、
    d.前記次のフレームが準備されていない場合に、前記ヌル出力テンプレートを送信する
    ことによって継ぎ目のないシーケンスを生成するオーディオ・レンダラ(44)と、
    を備えるマルチチャネル対話型オーディオ・システム。
  22. 前記デコーダが、マルチチャネル・オーディオをデコードすることができるデジタル・サラウンド・サウンド・デコーダ(10、12、16)である、請求項21に記載のマルチチャネル対話型オーディオ・システム。
  23. 前記オーディオ・データが、サブバンド・データおよびそのスケール・ファクタを備え、前記オーディオ・レンダラが、前記ユーザに対して可聴であると見なされる前記サブバンド・データのみを混合する、請求項21に記載のマルチチャネル対話型オーディオ・システム。
  24. 前記オーディオ・レンダラが、リストされた前記オーディオ成分のスケール・ファクタを使用することによって、サブバンドにおけるマスキング効果を計算し、サブバンドの可聴でないオーディオ成分を破棄することによって、何れのサブバンドが前記ユーザにとって可聴であるかを決定する、請求項23に記載のマルチチャネル対話型オーディオ・システム。
  25. 前記オーディオ・レンダラが、まず、前記オーディオ成分のスケール・ファクタをアンパックおよび圧縮解除し、前記可聴なサブバンドを決定し、次いで、前記可聴なサブバンドの前記サブバンド・データのみをアンパックおよび圧縮解除する、請求項24に記載のマルチチャネル対話型オーディオ・システム。
  26. マルチチャネル対話型オーディオ・システムであって、
    複数のオーディオ成分を入力データ・フレーム(72)のシーケンスとして記憶するためのメモリであって、それぞれの前記入力データ・フレームは、ヘッダ(110)、ビット割付けテーブル(112)、圧縮およびパックされたサブバンド・データ(116)およびスケール・ファクタ(114)を含むものである、メモリと、
    ユーザから入力を受け取る人的入力装置(HID)(36、38)と、
    前記ユーザの入力に応答して、オーディオ成分のリストを生成し、前記リスト上の各オーディオ成分をデジタル・サラウンド・サウンド環境の各チャネルにマッピングするマッピング係数を計算するアプリケーション・プログラミング・インタフェース(API)(42)と、
    オーディオ・レンダラ(44)であって、前記リストに基づいて、
    各チャネルに対する前記オーディオ成分のサブバンド・データおよびスケール・ファクタをアンパックおよび圧縮解除し、
    サブバンド・データの混合のためにスケール・ファクタを計算し、
    各チャネルに対して前記サブバンドの領域において、アンパックおよび圧縮解除された前記オーディオ成分のサブバンド・データを混合し、
    各チャネルに対して前記混合したサブバンド・データおよびそのスケール・ファクタを圧縮し、
    前記チャネルの圧縮したサブバンド・データおよびスケール・ファクタを出力フレームへとパックおよび多重化し、
    前記出力フレームをキュー内に配置する
    オーディオ・レンダラ(44)と、
    マルチチャネル・オーディオを生成するために、既存の事前に記録したマルチチャネル・デジタル・オーディオと同じフォーマットを有する前記出力フレームをデコードするデジタル・サラウンド・サウンド・デコーダと
    を備えるマルチチャネル対話型オーディオ・システム。
  27. マルチチャネル対話型オーディオ・システムであって、
    ユーザから入力を受け取る人的入力装置(HID)(36、38)と、
    コンソールであって、
    複数のオーディオ成分を入力データ・フレーム(72)のシーケンスとして記憶するためのメモリであって、それぞれの前記入力データフレームが圧縮およびパックされたサブバンド・データ(116)およびそのスケール・ファクタ(114)を含むものである、メモリと、
    前記ユーザの入力に応答して、オーディオ成分のリストを生成するアプリケーション・プログラミング・インタフェース(API)(42)と、
    オーディオ・レンダラ(44)と、
    を備えるコンソールと、
    前記オーディオ・レンダラが、前記リストに基づいて、
    各チャネルに対して前記オーディオ成分のサブバンド・データおよびスケール・ファクタをアンパックおよび圧縮解除し、
    サブバンド・データの混合のためにスケール・ファクタを計算し、
    各チャネルに対して前記サブバンドの領域において、アンパックおよび圧縮解除された前記オーディオ成分のサブバンド・データを混合し、
    各チャネルに対して前記混合したサブバンド・データおよびそのスケール・ファクタを圧縮し、
    前記チャネルの圧縮した前記サブバンド・データおよびスケール・ファクタを出力フレームへとパックおよび多重化し、
    前記出力フレームを、前記圧縮したオーディオ・データが継ぎ目のない統一されたビットストリームとして出力されるようにキュー内に配置する
    オーディオ・レンダラ(44)であることと、
    前記ビットストリームをマルチチャネル・オーディオ信号にデコードするデジタル・デコーダ(10、12、16)と、
    前記ビットストリームを前記デコーダへ送る単一バンド制限コネクタと
    を備えるマルチチャネル対話型オーディオ・システム。
  28. マルチチャネル・オーディオをレンダリングする方法であって、
    a.複数のオーディオ成分を、圧縮およびパックされたサブバンド・データ(116)およびスケール・ファクタ(114)をそれぞれが含む入力データ・フレーム(72)のシーケンスとして記憶し、
    b.ユーザの入力に応答して、オーディオ成分のリストを生成し、
    前記リストに基づいて、
    c.各チャネルに対して前記サブバンド・データおよびスケール・ファクタをアンパックおよび圧縮解除し、
    d.サブバンド・データの混合のためにスケール・ファクタを計算し、
    e.各チャネルに対して、アンパックおよび圧縮解除された前記サブバンド・データを混合し、
    f.混合した前記サブバンド・データおよびそのスケール・ファクタを圧縮し、
    g.前記チャネルの圧縮した前記サブバンド・データおよびスケール・ファクタを出力フレームへとパックおよび多重化し、
    h.前記出力フレームをデコーダに送信するためにキューに配置する
    ステップを備える方法。
  29. 前記サブバンド・データをアンパックおよび圧縮解除することが、
    前記スケール・ファクタのみをアンパックおよび圧縮解除し、
    何れのサブバンドが可聴であるかを決定するために前記スケール・ファクタを使用し、
    可聴な前記サブバンド・データのみをアンパックおよび圧縮解除する
    ステップを備える、
    請求項28に記載の方法。
  30. 位相位置決めフィルタを、約200Hzから約1200Hzの範囲にわたる前記サブバンド・データに適用することによって、前記オーディオ成分の横向きローカリゼーションを行うことを更に備える、請求項29に記載の方法。
  31. a.ヘッダ(110)、ビット割付けテーブル(112)、および可聴でない信号を表すサブバンド・データ(116)およびスケール・ファクタ(114)を含むヌル出力テンプレート(74)をデコーダへ送信するためにキューに配置し、
    b.混合したサブバンド・データおよびスケール・ファクタの次のフレームが準備されている場合には、前記混合したサブバンド・データおよびスケール・ファクタを以前の出力フレームに上書きし、その出力フレームを送信し、
    c.前記次のフレームが準備されていない場合には、前記ヌル出力テンプレートを送信する
    ステップを更に備える請求項28に記載の方法。
JP2001534924A 1999-11-02 2000-11-02 マルチチャネル・オーディオ環境において対話型オーディオを提供するシステムおよび方法 Expired - Fee Related JP4787442B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/432,917 1999-11-02
US09/432,917 US6931370B1 (en) 1999-11-02 1999-11-02 System and method for providing interactive audio in a multi-channel audio environment
PCT/US2000/030425 WO2001033905A2 (en) 1999-11-02 2000-11-02 System and method for providing interactive audio in a multi-channel audio environment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011131607A Division JP5156110B2 (ja) 1999-11-02 2011-06-13 リアルタイム・マルチチャネル対話型デジタル・オーディオを提供するための方法

Publications (2)

Publication Number Publication Date
JP2003513325A JP2003513325A (ja) 2003-04-08
JP4787442B2 true JP4787442B2 (ja) 2011-10-05

Family

ID=23718099

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2001534924A Expired - Fee Related JP4787442B2 (ja) 1999-11-02 2000-11-02 マルチチャネル・オーディオ環境において対話型オーディオを提供するシステムおよび方法
JP2011131607A Expired - Fee Related JP5156110B2 (ja) 1999-11-02 2011-06-13 リアルタイム・マルチチャネル対話型デジタル・オーディオを提供するための方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011131607A Expired - Fee Related JP5156110B2 (ja) 1999-11-02 2011-06-13 リアルタイム・マルチチャネル対話型デジタル・オーディオを提供するための方法

Country Status (11)

Country Link
US (2) US6931370B1 (ja)
EP (1) EP1226740B1 (ja)
JP (2) JP4787442B2 (ja)
KR (1) KR100630850B1 (ja)
CN (2) CN1254152C (ja)
AT (1) ATE498283T1 (ja)
AU (1) AU1583901A (ja)
CA (1) CA2389311C (ja)
DE (1) DE60045618D1 (ja)
HK (1) HK1046615B (ja)
WO (1) WO2001033905A2 (ja)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931370B1 (en) * 1999-11-02 2005-08-16 Digital Theater Systems, Inc. System and method for providing interactive audio in a multi-channel audio environment
JP4595150B2 (ja) 1999-12-20 2010-12-08 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム格納媒体
US7599753B2 (en) * 2000-09-23 2009-10-06 Microsoft Corporation Systems and methods for running priority-based application threads on a realtime component
US7479063B2 (en) 2000-10-04 2009-01-20 Wms Gaming Inc. Audio network for gaming machines
US7376159B1 (en) 2002-01-03 2008-05-20 The Directv Group, Inc. Exploitation of null packets in packetized digital television systems
US7286473B1 (en) 2002-07-10 2007-10-23 The Directv Group, Inc. Null packet replacement with bi-level scheduling
US7378586B2 (en) * 2002-10-01 2008-05-27 Yamaha Corporation Compressed data structure and apparatus and method related thereto
EP1427252A1 (en) * 2002-12-02 2004-06-09 Deutsche Thomson-Brandt Gmbh Method and apparatus for processing audio signals from a bitstream
PL378021A1 (pl) * 2002-12-28 2006-02-20 Samsung Electronics Co., Ltd. Sposób i urządzenie do mieszania strumieni akustycznych i nośnik pamięciowy informacji
US7867085B2 (en) 2003-01-16 2011-01-11 Wms Gaming Inc. Gaming machine environment having controlled audio and visual media presentation
US7364508B2 (en) 2003-01-16 2008-04-29 Wms Gaming, Inc. Gaming machine environment having controlled audio and visual media presentation
US7367886B2 (en) 2003-01-16 2008-05-06 Wms Gaming Inc. Gaming system with surround sound
CN1742492B (zh) * 2003-02-14 2011-07-20 汤姆森特许公司 媒体内容的基于音频和视频的媒体服务的自动同步
US8313374B2 (en) 2003-02-14 2012-11-20 Wms Gaming Inc. Gaming machine having improved audio control architecture
US7618323B2 (en) 2003-02-26 2009-11-17 Wms Gaming Inc. Gaming machine system having a gesture-sensing mechanism
US7647221B2 (en) * 2003-04-30 2010-01-12 The Directv Group, Inc. Audio level control for compressed audio
US7620545B2 (en) * 2003-07-08 2009-11-17 Industrial Technology Research Institute Scale factor based bit shifting in fine granularity scalability audio coding
US20050010396A1 (en) * 2003-07-08 2005-01-13 Industrial Technology Research Institute Scale factor based bit shifting in fine granularity scalability audio coding
US7912226B1 (en) * 2003-09-12 2011-03-22 The Directv Group, Inc. Automatic measurement of audio presence and level by direct processing of an MPEG data stream
US20090299756A1 (en) * 2004-03-01 2009-12-03 Dolby Laboratories Licensing Corporation Ratio of speech to non-speech audio such as for elderly or hearing-impaired listeners
CA2992125C (en) 2004-03-01 2018-09-25 Dolby Laboratories Licensing Corporation Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters
US8651939B2 (en) 2004-10-01 2014-02-18 Igt Gaming system having a plurality of adjacently arranged gaming machines and a mechanical moveable indicator operable to individually indicate the gaming machines
CN101120400B (zh) 2005-01-31 2013-03-27 斯凯普有限公司 在通信系统中生成隐藏帧的方法
WO2007018680A2 (en) 2005-05-25 2007-02-15 Wms Gaming Inc. Gaming machine with rotating wild feature
WO2006126843A2 (en) 2005-05-26 2006-11-30 Lg Electronics Inc. Method and apparatus for decoding audio signal
CN101185118B (zh) * 2005-05-26 2013-01-16 Lg电子株式会社 解码音频信号的方法和装置
JP4988716B2 (ja) 2005-05-26 2012-08-01 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及び装置
JP4735196B2 (ja) * 2005-11-04 2011-07-27 ヤマハ株式会社 オーディオ再生装置
US20070112563A1 (en) * 2005-11-17 2007-05-17 Microsoft Corporation Determination of audio device quality
TWI344638B (en) 2006-01-19 2011-07-01 Lg Electronics Inc Method and apparatus for processing a media signal
WO2007091849A1 (en) 2006-02-07 2007-08-16 Lg Electronics Inc. Apparatus and method for encoding/decoding signal
CA2667110C (en) * 2006-11-08 2014-01-14 Dolby Laboratories Licensing Corporation Apparatuses and methods for use in creating an audio scene
WO2008063391A2 (en) 2006-11-10 2008-05-29 Wms Gaming Inc. Wagering games using multi-level gaming structure
US20090028669A1 (en) * 2007-07-25 2009-01-29 Dynamic Micro Systems Removable compartments for workpiece stocker
US9015051B2 (en) * 2007-03-21 2015-04-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Reconstruction of audio channels with direction parameters indicating direction of origin
US8908873B2 (en) * 2007-03-21 2014-12-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for conversion between multi-channel audio formats
US8515052B2 (en) 2007-12-17 2013-08-20 Wai Wu Parallel signal processing system and method
KR101439205B1 (ko) * 2007-12-21 2014-09-11 삼성전자주식회사 오디오 매트릭스 인코딩 및 디코딩 방법 및 장치
DE102008036924B4 (de) * 2008-08-08 2011-04-21 Gunnar Kron Verfahren zur Mehrkanalbearbeitung in einem Mehrkanaltonsystem
US8160271B2 (en) * 2008-10-23 2012-04-17 Continental Automotive Systems, Inc. Variable noise masking during periods of substantial silence
US8457387B2 (en) * 2009-03-13 2013-06-04 Disney Enterprises, Inc. System and method for interactive environments presented by video playback devices
US8542854B2 (en) * 2010-03-04 2013-09-24 Logitech Europe, S.A. Virtual surround for loudspeakers with increased constant directivity
US9264813B2 (en) * 2010-03-04 2016-02-16 Logitech, Europe S.A. Virtual surround for loudspeakers with increased constant directivity
KR101289269B1 (ko) * 2010-03-23 2013-07-24 한국전자통신연구원 영상 시스템에서 영상 디스플레이 장치 및 방법
JP2011216965A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム
US8775707B2 (en) 2010-12-02 2014-07-08 Blackberry Limited Single wire bus system
JP5417352B2 (ja) * 2011-01-27 2014-02-12 株式会社東芝 音場制御装置及び方法
CN102760437B (zh) * 2011-04-29 2014-03-12 上海交通大学 实时声道控制转换的音频解码装置
BR112013031994A2 (pt) * 2011-06-13 2017-06-06 Venkata Chalapathy Krishnappa Narayana sistema de produção de som estéreo digital surround tridimensional natural a 360 graus
US8959459B2 (en) 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
RU2617553C2 (ru) 2011-07-01 2017-04-25 Долби Лабораторис Лайсэнзин Корпорейшн Система и способ для генерирования, кодирования и представления данных адаптивного звукового сигнала
US9729120B1 (en) 2011-07-13 2017-08-08 The Directv Group, Inc. System and method to monitor audio loudness and provide audio automatic gain control
US9086732B2 (en) 2012-05-03 2015-07-21 Wms Gaming Inc. Gesture fusion
EP2669634A1 (en) * 2012-05-30 2013-12-04 GN Store Nord A/S A personal navigation system with a hearing device
US9332373B2 (en) * 2012-05-31 2016-05-03 Dts, Inc. Audio depth dynamic range enhancement
US9479275B2 (en) * 2012-06-01 2016-10-25 Blackberry Limited Multiformat digital audio interface
KR101733273B1 (ko) 2012-06-01 2017-05-24 블랙베리 리미티드 다중 포맷 오디오 시스템들에서의 확률적 로크 보장 방법에 기초한 범용 동기화 엔진
US9609452B2 (en) 2013-02-08 2017-03-28 Qualcomm Incorporated Obtaining sparseness information for higher order ambisonic audio renderers
US10178489B2 (en) * 2013-02-08 2019-01-08 Qualcomm Incorporated Signaling audio rendering information in a bitstream
US9883310B2 (en) * 2013-02-08 2018-01-30 Qualcomm Incorporated Obtaining symmetry information for higher order ambisonic audio renderers
US9461812B2 (en) 2013-03-04 2016-10-04 Blackberry Limited Increased bandwidth encoding scheme
TWI530941B (zh) 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
EP2800401A1 (en) * 2013-04-29 2014-11-05 Thomson Licensing Method and Apparatus for compressing and decompressing a Higher Order Ambisonics representation
US9489952B2 (en) 2013-09-11 2016-11-08 Bally Gaming, Inc. Wagering game having seamless looping of compressed audio
US9412222B2 (en) 2013-09-20 2016-08-09 Igt Coordinated gaming machine attract via gaming machine cameras
US9704491B2 (en) 2014-02-11 2017-07-11 Disney Enterprises, Inc. Storytelling environment: distributed immersive audio soundscape
JP6243770B2 (ja) * 2014-03-25 2017-12-06 日本放送協会 チャンネル数変換装置
US9473876B2 (en) 2014-03-31 2016-10-18 Blackberry Limited Method and system for tunneling messages between two or more devices using different communication protocols
EP3164868A1 (en) * 2014-07-02 2017-05-10 Dolby International AB Method and apparatus for decoding a compressed hoa representation, and method and apparatus for encoding a compressed hoa representation
EP2963949A1 (en) * 2014-07-02 2016-01-06 Thomson Licensing Method and apparatus for decoding a compressed HOA representation, and method and apparatus for encoding a compressed HOA representation
EP2980792A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating an enhanced signal using independent noise-filling
CN106055305A (zh) * 2016-06-22 2016-10-26 重庆长安汽车股份有限公司 多控制器共用音频输入输出设备的系统及实现方法
CN106648538B (zh) * 2016-12-30 2018-09-04 维沃移动通信有限公司 一种移动终端的音频播放方法及移动终端
TWI725567B (zh) * 2019-10-04 2021-04-21 友達光電股份有限公司 揚聲系統、顯示裝置以及音場重建方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6387000A (ja) * 1986-09-30 1988-04-18 Yamaha Corp 再生特性制御回路
JPS63221708A (ja) * 1987-03-11 1988-09-14 Victor Co Of Japan Ltd オ−デイオ用振幅及び群遅延の調整装置
JPS63264000A (ja) * 1987-04-22 1988-10-31 Victor Co Of Japan Ltd 2チヤンネル立体再生音場調整装置
JPH05505298A (ja) * 1991-01-08 1993-08-05 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 多次元音場のための符号器・復号器
JPH05505504A (ja) * 1991-01-08 1993-08-12 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 多次元音場チャンネル用復号器
JPH07273665A (ja) * 1994-04-01 1995-10-20 Sony Corp データ圧縮符号化方法、データ圧縮符号化装置及びデータ記録媒体
JPH1084285A (ja) * 1996-03-29 1998-03-31 Philips Electron Nv 圧縮ディジタルオーディオ信号の減衰及び混合方法

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US564813A (en) * 1896-07-28 Sash holder and fastener
DE3168990D1 (en) * 1980-03-19 1985-03-28 Matsushita Electric Ind Co Ltd Sound reproducing system having sonic image localization networks
US4532647A (en) * 1981-08-19 1985-07-30 John C. Bogue Automatic dimension control for a directional enhancement system
US4525855A (en) * 1981-08-27 1985-06-25 John C. Bogue Variable rate and variable limit dimension controls for a directional enhancement system
US4546212A (en) * 1984-03-08 1985-10-08 Crowder, Inc. Data/voice adapter for telephone network
US4675863A (en) * 1985-03-20 1987-06-23 International Mobile Machines Corp. Subscriber RF telephone system for providing multiple speech and/or data signals simultaneously over either a single or a plurality of RF channels
JP2536493B2 (ja) * 1986-09-18 1996-09-18 カシオ計算機株式会社 波形読出装置
US5222059A (en) * 1988-01-06 1993-06-22 Lucasfilm Ltd. Surround-sound system with motion picture soundtrack timbre correction, surround sound channel timbre correction, defined loudspeaker directionality, and reduced comb-filter effects
US5043970A (en) * 1988-01-06 1991-08-27 Lucasarts Entertainment Company Sound system with source material and surround timbre response correction, specified front and surround loudspeaker directionality, and multi-loudspeaker surround
NL9000338A (nl) 1989-06-02 1991-01-02 Koninkl Philips Electronics Nv Digitaal transmissiesysteem, zender en ontvanger te gebruiken in het transmissiesysteem en registratiedrager verkregen met de zender in de vorm van een optekeninrichting.
JP2669073B2 (ja) * 1989-09-22 1997-10-27 ヤマハ株式会社 Pcm音源装置
US5216718A (en) * 1990-04-26 1993-06-01 Sanyo Electric Co., Ltd. Method and apparatus for processing audio signals
US5386082A (en) * 1990-05-08 1995-01-31 Yamaha Corporation Method of detecting localization of acoustic image and acoustic image localizing system
GB2244629B (en) * 1990-05-30 1994-03-16 Sony Corp Three channel audio transmission and/or reproduction systems
US5339363A (en) * 1990-06-08 1994-08-16 Fosgate James W Apparatus for enhancing monophonic audio signals using phase shifters
JPH0553585A (ja) * 1991-08-28 1993-03-05 Sony Corp 信号処理方法
US5228093A (en) * 1991-10-24 1993-07-13 Agnello Anthony M Method for mixing source audio signals and an audio signal mixing system
NL9200391A (nl) * 1992-03-03 1993-10-01 Nederland Ptt Inrichting voor het in een stroom van transmissiecellen aanbrengen van een wijziging.
WO1994010816A1 (en) * 1992-10-29 1994-05-11 Wisconsin Alumni Research Foundation Methods and apparatus for producing directional sound
JP3246012B2 (ja) * 1992-11-16 2002-01-15 日本ビクター株式会社 楽音信号の音源装置
SG43996A1 (en) * 1993-06-22 1997-11-14 Thomson Brandt Gmbh Method for obtaining a multi-channel decoder matrix
DE69433258T2 (de) * 1993-07-30 2004-07-01 Victor Company of Japan, Ltd., Yokohama Raumklangsignalverarbeitungsvorrichtung
US5487113A (en) * 1993-11-12 1996-01-23 Spheric Audio Laboratories, Inc. Method and apparatus for generating audiospatial effects
US5434913A (en) * 1993-11-24 1995-07-18 Intel Corporation Audio subsystem for computer-based conferencing system
US5521981A (en) * 1994-01-06 1996-05-28 Gehring; Louis S. Sound positioner
US5448568A (en) 1994-04-28 1995-09-05 Thomson Consumer Electronics, Inc. System of transmitting an interactive TV signal
JP3258526B2 (ja) * 1995-05-11 2002-02-18 カネボウ株式会社 圧縮音声伸長装置
WO1997000514A1 (fr) * 1995-06-16 1997-01-03 Sony Corporation Procede et appareil de generation de son
US5841993A (en) * 1996-01-02 1998-11-24 Ho; Lawrence Surround sound system for personal computer for interfacing surround sound with personal computer
US6430533B1 (en) * 1996-05-03 2002-08-06 Lsi Logic Corporation Audio decoder core MPEG-1/MPEG-2/AC-3 functional algorithm partitioning and implementation
US5850455A (en) * 1996-06-18 1998-12-15 Extreme Audio Reality, Inc. Discrete dynamic positioning of audio signals in a 360° environment
US5845251A (en) * 1996-12-20 1998-12-01 U S West, Inc. Method, system and product for modifying the bandwidth of subband encoded audio data
US5864820A (en) * 1996-12-20 1999-01-26 U S West, Inc. Method, system and product for mixing of encoded audio signals
TW429700B (en) * 1997-02-26 2001-04-11 Sony Corp Information encoding method and apparatus, information decoding method and apparatus and information recording medium
US5807217A (en) * 1997-07-23 1998-09-15 Endelman; Ken Ring shaped exercise apparatus
US6006179A (en) * 1997-10-28 1999-12-21 America Online, Inc. Audio codec using adaptive sparse vector quantization with subband vector classification
US5960401A (en) * 1997-11-14 1999-09-28 Crystal Semiconductor Corporation Method for exponent processing in an audio decoding system
US6081783A (en) * 1997-11-14 2000-06-27 Cirrus Logic, Inc. Dual processor digital audio decoder with shared memory data transfer and task partitioning for decompressing compressed audio data, and systems and methods using the same
US6145007A (en) * 1997-11-14 2000-11-07 Cirrus Logic, Inc. Interprocessor communication circuitry and methods
US6205223B1 (en) * 1998-03-13 2001-03-20 Cirrus Logic, Inc. Input data format autodetection systems and methods
US6278387B1 (en) * 1999-09-28 2001-08-21 Conexant Systems, Inc. Audio encoder and decoder utilizing time scaling for variable playback
US6915263B1 (en) * 1999-10-20 2005-07-05 Sony Corporation Digital audio decoder having error concealment using a dynamic recovery delay and frame repeating and also having fast audio muting capabilities
US6931370B1 (en) * 1999-11-02 2005-08-16 Digital Theater Systems, Inc. System and method for providing interactive audio in a multi-channel audio environment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6387000A (ja) * 1986-09-30 1988-04-18 Yamaha Corp 再生特性制御回路
JPS63221708A (ja) * 1987-03-11 1988-09-14 Victor Co Of Japan Ltd オ−デイオ用振幅及び群遅延の調整装置
JPS63264000A (ja) * 1987-04-22 1988-10-31 Victor Co Of Japan Ltd 2チヤンネル立体再生音場調整装置
JPH05505298A (ja) * 1991-01-08 1993-08-05 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 多次元音場のための符号器・復号器
JPH05505504A (ja) * 1991-01-08 1993-08-12 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 多次元音場チャンネル用復号器
JPH07273665A (ja) * 1994-04-01 1995-10-20 Sony Corp データ圧縮符号化方法、データ圧縮符号化装置及びデータ記録媒体
JPH1084285A (ja) * 1996-03-29 1998-03-31 Philips Electron Nv 圧縮ディジタルオーディオ信号の減衰及び混合方法

Also Published As

Publication number Publication date
US20050222841A1 (en) 2005-10-06
HK1046615B (zh) 2011-09-30
JP5156110B2 (ja) 2013-03-06
US6931370B1 (en) 2005-08-16
CN1411679A (zh) 2003-04-16
EP1226740B1 (en) 2011-02-09
CN1254152C (zh) 2006-04-26
ATE498283T1 (de) 2011-02-15
EP1226740A2 (en) 2002-07-31
CN100571450C (zh) 2009-12-16
JP2011232766A (ja) 2011-11-17
CA2389311A1 (en) 2001-05-10
DE60045618D1 (de) 2011-03-24
WO2001033905A2 (en) 2001-05-10
AU1583901A (en) 2001-05-14
CA2389311C (en) 2006-04-25
WO2001033905A3 (en) 2002-01-17
KR100630850B1 (ko) 2006-10-04
JP2003513325A (ja) 2003-04-08
KR20020059667A (ko) 2002-07-13
CN1964578A (zh) 2007-05-16
HK1046615A1 (en) 2003-01-17

Similar Documents

Publication Publication Date Title
JP4787442B2 (ja) マルチチャネル・オーディオ環境において対話型オーディオを提供するシステムおよび方法
JP6710675B2 (ja) オーディオ処理システムおよび方法
KR102294767B1 (ko) 고채널 카운트 멀티채널 오디오에 대한 멀티플렛 기반 매트릭스 믹싱
JP5467105B2 (ja) オブジェクトベースのメタデータを用いてオーディオ出力信号を生成するための装置および方法
US5546465A (en) Audio playback apparatus and method
CN110459229B (zh) 用于解码声音或声场的高阶高保真度立体声响复制(hoa)表示的方法
US20170098452A1 (en) Method and system for audio processing of dialog, music, effect and height objects
JPH07143596A (ja) マルチチャンネルデコーダーマトリクスを得るための方法
KR20200014428A (ko) 3차원 오디오 사운드트랙의 인코딩 및 재현
WO2020182020A1 (zh) 一种音频信号播放方法及显示设备
TWI820530B (zh) 用以判定用於描述將振幅變化對應為2之指數之非差分增益值之表示之最低整數位元數以用於hoa資料框表示壓縮之方法及裝置以及用於執行其的電腦程式產品、編碼之hoa資料框表示以及用於儲存其的儲存媒體,以及解碼聲音或聲場之壓縮高階保真立體音響(hoa)聲音表示之方法及裝置
CN112216292A (zh) 声音或声场的压缩hoa声音表示的解码方法和装置
US20070297624A1 (en) Digital audio encoding
US9373335B2 (en) Processing audio objects in principal and supplementary encoded audio signals
JPH10336798A (ja) 音場補正回路
US7920708B2 (en) Low computation mono to stereo conversion using intra-aural differences
US6917915B2 (en) Memory sharing scheme in audio post-processing
TW202403729A (zh) 對於高階保真立體音響資料框表示之壓縮判定用於描述非差分增益值表示的最低整數位元數之方法與裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071102

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20081224

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081224

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110224

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110513

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110711

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110715

R150 Certificate of patent or registration of utility model

Ref document number: 4787442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees