JP5010851B2 - 音声処理 - Google Patents

音声処理 Download PDF

Info

Publication number
JP5010851B2
JP5010851B2 JP2006130829A JP2006130829A JP5010851B2 JP 5010851 B2 JP5010851 B2 JP 5010851B2 JP 2006130829 A JP2006130829 A JP 2006130829A JP 2006130829 A JP2006130829 A JP 2006130829A JP 5010851 B2 JP5010851 B2 JP 5010851B2
Authority
JP
Japan
Prior art keywords
audio stream
frequency domain
audio
processing apparatus
input audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006130829A
Other languages
English (en)
Other versions
JP2006340343A (ja
Inventor
アンソニー ページ ジェイソン
ジョージ ヒューム オリバー
ケネディ ニコラス
スカーギル ポール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2006340343A publication Critical patent/JP2006340343A/ja
Application granted granted Critical
Publication of JP5010851B2 publication Critical patent/JP5010851B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Amplifiers (AREA)

Description

本発明は音声処理に関する。
音声ストリームに対してさまざまな処理技術が施されることが知られている。このような音声処理の例としては、フィルタリング、圧縮、等化、およびボリュームコントロールが含まれる。現行の音声処理装置は、音声ストリームを時間領域で処理する。すなわち、アナログ音声処理のためには、時間の関数である電圧として音声データを処理し、デジタル音声処理のためには、時間的連続音声サンプルのシーケンスとして音声データを処理する。必要とされる特定の処理によって、音声処理装置は、一時的に入力音声ストリームの音声データを、時間領域から周波数領域へと変換し、処理の特定部分を実行し、処理済の音声データを時間領域へと戻す。任意の処理ステップのシーケンスについて、いくつもの周波数領域処理ステップでインターリーブされた、いくつもの時間領域ステップを実行する必要がある。その結果、時間領域と周波数領域の相互間での変換が数多く必要となる。
また、音声ストリームのミキシングを行うことも周知であり、このミキシングにおいては、二つ以上の入力音声ストリームが共に結合され、単一の出力音声ストリームを形成する。これは例えば、何人もの人が自身の個人用マイクロホンを所有しているインタビューの場面などに生じる。別の例としては、音楽コンサートやスポーツイベントなどで多くのマイクロホンが使用されており、ときに解説者用にさらに音声ストリームを加えて、そこで生成された音声ストリームが共にミックスされ、放送用の単一出力ストリームが作成される場合に生じる。ミキシングは、時間領域処理である。
本発明の一態様により、複数の入力音声ストリームをミックスして、一つの出力音声ストリームを形成するよう機能する音声処理装置が提供され、該装置は、入力音声ストリームを受信し、周波数ベース表現の混合周波数ベース音声ストリームを出力するよう機能するミキサーと、
混合周波数ベース音声ストリームを、周波数ベース表現から時間ベース表現へと変換して、出力音声ストリームを形成するよう機能する周波数−時間コンバータとから構成される。
本発明の実施例は、最初に、すべての入力音声ストリームが周波数領域へと変換されることに利点がある。すべての音声ミキシングおよび音声処理は、その後、周波数領域で実行される。処理済みかつ混合済みの音声ストリームはその後、周波数領域から出力用に時間領域へと変換される。このようにして、時間領域と周波数領域の間の、複数の連続した変換の必要性が回避される。これによって、音声処理を実行するために必要とされるハードウェアの量を軽減することができ、同時に、このような複数の変換によって生じてしまうであろう、システム全体の待ち時間を削減する。
本発明のさらなる態様および特徴は、それぞれ、添付の請求の範囲により定義される。
以下、例示のみを目的として、添付の図面を参照しながら本発明の実施例について説明する。
図1は、音声処理装置の一例としてのプレイステーション2(RTM)ゲーム機の全体的なシステム構造を概略的に示したものである。 図2は、エモーションエンジンの構造について概略的に示したものである。 図3は、グラフィックスシンセサイザの構造を概略的に示したものである。 図4は、音声ミキシングの一例を概略的に示したものである。 図5は、音声ミキシングの他の例を概略的に示したものである。 図6は、本発明の一実施例による音声ミキシングおよび音声処理を概略的に示したものである。
図1は、プレイステーション2ゲーム機の全体的なシステム構造を概略的に示したものである。一方、本発明の実施例は、プレイステーション2ゲーム機に限定されるわけではないと理解される。
システムユニット10は、当該システムユニットに接続可能なさまざまな周辺装置を備える。
システムユニット10は、エモーションエンジン100、グラフィックスシンセサイザ200、 ダイナミックランダムアクセスメモリ(DRAM)を有するサウンドプロセッサユニット300、読出し専用メモリ(ROM)400、コンパクトディスク(CD)およびデジタル多用途ディスク(DVD)リーダー450、 ラムバス・ダイナミックランダムアクセスメモリ(RDRAM)装置500、専用RAM750を有する入出力プロセッサ(IOP)700から構成される。(任意の)外部ハードディスクドライブ(HDD)390が接続される場合もある。
入出力プロセッサ700は、二つのユニバーサル・シリアル・バス(USB)ポート715、およびiLinkまたはIEEE1394ポートを有する(iLinkとは、ソニー株式会社が、IEEE1394標準を実施したもの)。入出力プロセッサ700は、USB、iLinkおよびゲームコントローラのデータ・トラフィックのすべてを処理する。例えば、ユーザがゲームをしている際、入出力プロセッサ700は、ゲームコントローラからデータを受信して、それをエモーションエンジン100に送り出し、エモーションエンジンはそれに従い、ゲームの現在の状態を更新する。入出力プロセッサ700は、迅速なデータ転送速度を容易に実現するダイレクト・メモリ・アクセス(DMA)構造を有する。DMAは、CPUにデータを通さずに、メインメモリから装置までのデータを転送することを必要とする。USBインタフェースはオープン・ホスト・コントローラ・インタフェース(OHCI)と互換性があり、1.5Mbpsから12Mbpsまでのデータ転送速度を処理できる。これらのインタフェースが装備されているということは、プレイステーション2が潜在的に、ビデオ・カセット・レコーダ(VCRs)、デジタルカメラ、マイクロホン、セットトップボックス、プリンタ、キーボード、マウスおよびジョイスティック等の周辺装置と互換性を持つことを意味する。
通常、USBポート715に接続されている周辺装置との間で円滑なデータ通信が行われるように、デバイス・ドライバのような適当なソフトウェア部分を備えなければならない。デバイス・ドライバ技術は非常に良く知られており、ここで詳細を説明しない。ただし、当業者であれば、ここに記載する実施例において、デバイス・ドライバまたは類似のソフトウェア・インタフェースが必要とされると認識するであろう。
本実施例において、USBマイクロホン730は、USBポートに接続されている。USBマイクロホン730は、手持ち式マイクロホン、またはオペレータにより着用されるヘッドセットの一部を形成する場合もあると理解される。ヘッドセットを着用することによる利点は、オペレータの手が自由になり、他の動作を行うことができるということである。このマイクロホンは、アナログデジタルコンバータ(ADC)および基本ハードウェアをベースにしたリアルタイムデータ圧縮およびコード化構成を含み、その結果、音声データは、例えばプレイステーション2システムユニット10で復号化するための16ビット・モノラルPCM(非圧縮フォーマット)のような適切なフォーマットで、マイクロホン730によってUSBポート715に送信される。
USBポートとは別に、他に二つのポート705、710が専用ソケットとなっており、ゲーム関連の情報を格納するための専用不揮発性RAMメモリカード720、手持ち式ゲームコントローラ725、またはダンスマット等の手持ち式コントローラに類する装置(図示せず)の接続を可能とする。
システムユニット10は、ネットワークにインタフェース(例えばイーサネット・インタフェース)を提供するネットワークアダプタ805に接続することが可能である。例えば、このネットワークは、LAN、WANまたはインターネットであってもよい。このネットワークは一般のネットワークであってもよいし、または、ゲーム関連の通信専用のものであってもよい。このネットワークアダプタ805によって、同じネットワークに接続される他のシステムユニット10とデータの送受信を行うことが可能である。(他のシステムユニット10もまた対応するネットワークアダプタ805を有する)。
エモーションエンジン100は、128ビット中央演算処理装置(CPU)であり、ゲームアプリケーション用三次元(3D)グラフィックスの効率的シミュレーションのために専用に設計されたものである。エモーションエンジンの構成要素は、データバス、キャッシュメモリおよびレジスタを含み、いずれも128ビットである。これによって、大量のマルチメディア・データの迅速処理を容易にする。これと比較すると、従来のPCは、基本64ビットのデータ構造を有する。プレイステーション2の浮動小数点演算性能は、6.2GFLOPsである。エモーションエンジンはまた、MPEG2デコーダ回路を備え、これによって3DグラフィックスデータとDVDデータの同時処理が可能となる。エモーションエンジンは、数学的変換およびトランスレーションを含む幾何学的計算を実行し、更に、例えば二つのオブジェクト間の摩擦の算出など、シミュレーションオブジェクトの物理的過程に関連する計算を行う。これによって、その次にグラフィックスシンセサイザ200によって使用されるイメージレンダリングコマンドのシーケンスが生成される。このイメージレンダリングコマンドは、表示リスト形式で出力される。表示リストとは、描画コマンドのシーケンスであり、画面上、どの初期グラフィックスオブジェクト(例えば、点、線、三角形、スプライト)をどの座標に描くかをグラフィックスシンセサイザに指示する。従って、典型的な表示リストは、頂点を描くためのコマンド、多角形の表面に陰影をつけたり、ビットマップを描いたりするためのコマンド等を備える。エモーションエンジン100は、非同期で複数の表示リストを生成できる。
グラフィックスシンセサイザ200は、エモーションエンジン100により生成された表示リストのレンダリングを行うビデオアクセラレータである。グラフィックスシンセサイザ200は、この複数の表示リストを処理し、追跡し、管理するグラフィックスインタフェース装置(GIF)を含む。グラフィックスシンセサイザ200のレンダリング機能は、選択肢となるいくつかの標準出力画像フォーマット、すなわちNTSC/PAL、高精細デジタルテレビ、およびVESAをサポートする画像データを生成することができる。一般に、グラフィックスシステムのレンダリング能力は、ピクセルエンジンとビデオメモリの間のメモリ帯幅によって定められ、その各々は、グラフィックスプロセッサ内に位置する。従来のグラフィックスシステムは、外部ビデオランダムアクセスメモリ(VRAM)を使用しており、これはオフ・チップバスを介してピクセルロジックに接続されるので利用可能な帯幅を制限する傾向にある。しかし、プレイステーション2のグラフィックスシンセサイザ200は、ピクセルロジックとビデオメモリを単一の高性能チップ上に備え、これによって、1秒につき38.4ギガバイトという比較的大きいメモリアクセス帯幅を可能とする。このグラフィックスシンセサイザは、理論的には、1秒につき7,500万ポリゴンの最高描画容量を実現できる。テクスチャ、ライティングおよびトランスペアレンシー等あらゆる種類の効果を用いても、1秒につき2,000万ポリゴンの持続速度で、連続的に描画できる。従って、グラフィックスシンセサイザ200は、フィルム品質の画像を描画することが可能である。
サウンドプロセッサユニット(SPU)300は、事実上、本システムのサウンドカードであって、DVDに使用されるサウンドフォーマットである、デジタルシアターサウンド(DTS(R))やAC−3(ドルビーデジタルとしても知られる)のような三次元デジタルサウンドを認識できる。
対応するスピーカー構成310を伴ったビデオモニタまたはテレビ等のディスプレイおよび音声出力装置305は、グラフィックスシンセサイザ200およびサウンドプロセッサユニット300に接続され、映像および音声信号を受け取る。
エモーションエンジン100をサポートしているメインメモリは、ラムバス社製のRDRAM(ラムバス・ダイナミック・ランダムアクセスメモリ)モジュール500である。このRDRAMメモリ・サブシステムは、RAM、RAMコントローラ、および、RAMをエモーションエンジン100に接続しているバスにより構成されている。
図2は、図1のエモーションエンジン100の構造を概略的に示したものである。エモーションエンジン100は、浮動小数点数演算装置(FPU)104、中央演算処理装置(CPU)コア102、ベクトルユニットゼロ(VU0)106、ベクトルユニット1(VU1)108、グラフィックスインタフェース装置(GIF)110、割り込みコントローラ(INTC)112、タイマー装置114、ダイレクトメモリ・アクセス・コントローラ116、画像データ処理装置(IPU)118、ダイナミック・ランダム・アクセス・メモリ・コントローラ(DRAMC)120、サブバスインタフェース(SIF)122により構成され、これらの構成要素のすべては128ビット・メインバス124を介して接続される。
CPUコア102は、クロック300MHzで動作する128ビットプロセッサである。このCPUコアは、DRAMC120を介して、メインメモリのうちの32MBに対してアクセスする。このCPUコア102の命令セットは、さらにマルチメディア命令を追加したMIPS IV RISC命令をいくつか有するMIPS III RISCに基づいている。MIPS IIIおよびIVは、縮小命令セットコンピュータ(RISC)の命令セット構造であり、MIPSテクノロジ社が所有権を有する。標準命令は、64ビット、ツーウェイ・スーパースカラであって、すなわち、二つの命令を同時に実行できる。一方、マルチメディア命令は、二つのパイプラインを介した128ビット命令を使用する。CPUコア102は、16KBの命令キャッシュ、8KBのデータキャッシュ、および、CPUによるダイレクトプライベート使用のために確保されるキャッシュの一部である16KBのスクラッチパッドRAMにより構成される。
FPU104は、CPUコア102用の第一のコプロセッサとしての役割を果たす。ベクトルユニット106は、第二のコプロセッサとして動作する。FPU104は、浮動小数点積和演算器(FMAC)および浮動小数点除算演算器(FDIV)により構成される。FMACおよびFDIVは、どちらも32ビット値で演算を行うので、演算が128ビット値(4つの32ビット値から成る)で行われる場合は、4つのすべての部分において、並行して演算が実行される。例えば、二本のベクトルの合算を同時に行うことができる。
ベクトルユニット106および108は、数値演算を実行するものであり、ベクトル方程式の乗算および加算で数値を求める場合に極めて高速である、基本的に専門FPUである。これらは、加算および乗算演算用の浮動点少数積和演算器(FMACs)および除算および平方根演算用の浮動小数点除算器(FDIVs)を使用する。これらは、マイクロプログラムを格納するための内蔵メモリを有し、ベクトル・インタフェース・ユニット(VIFs)を介して、システムの残りの部分とのインタフェースをとる。
ベクトルユニットゼロ106は、専用128ビットバスを介してCPUコア102に対するコプロセッサとして機能できるので、これは基本的に第二の専門FPUである。一方、ベクトルユニットワン108は、グラフィックスシンセサイザ200への専用バスを有するので、それによって、完全に分離したプロセッサとして考えることができる。二台のベクトルユニットを搭載することにより、ソフトウェア開発者はCPUの異なる部分間に作業を切り分けることが可能となり、これらのベクトルユニットはシリアルまたはパラレル接続のいずれかで使用できる。
ベクトルユニットゼロ106は、四つのFMACSと一つのFDIVとを備える。ベクトルユニットゼロは、コプロセッサ接続によりCPUコア102に接続される。これは、データ用ベクトルユニットメモリ4Kbと、命令用マイクロメモリ4Kbを有する。ベクトルユニットゼロ106は、表示用画像に関連する物理計算を行うために有用である。これは主に、CPUコア102と共に非パターン化幾何学処理を実行する。
ベクトルユニットワン108は、五つのFMACSと二つのFDIVsとを備える。これは、GIFユニット110へのダイレクトパスは有するが、CPUコア102へのダイレクトパスを有しない。これは、データ用ベクトルユニットメモリ16Kbと、命令用マイクロメモリ16Kbを有する。ベクトルユニットワン108は、変換を実行する際に有用である。これは主に、パターン化された幾何学処理を実行して、生成された表示リストをGIF110に直接出力する。
GIF110は、グラフィックスシンセサイザ200に対するインタフェースユニットである。表示リストパケットの最初のタグ指定に従って、データを変換し、相互に複数の転送を調整しながら、描画命令をグラフィックスシンセサイザ200に転送する。割り込みコントローラ(INTC)112は、DMAC116を除いた周辺装置からの割り込みを調整する役割を果たす。
タイマー装置114は、16ビットカウンタを有する四つの独立したタイマーから成る。このタイマーは、バスクロック(1/16または1/256間隔)によって、または外部クロックを介して駆動される。DMAC116は、メインメモリおよび周辺処理装置間の、または、メインメモリおよびスクラッチパッドメモリ間のデータ転送を行う。同時に、メインバス124を調整する。DMAC116のパフォーマンス最適化は、エモーションエンジン性能を向上させる鍵となる方法である。画像処理装置(IPU)118は、圧縮された動画およびテクスチャ画像を展開するために用いる画像データプロセッサである。これは、I−PICTUREマクロブロック・デコーディング、カラースペース変換、およびベクトル量子化を実行する。最後に、サブバスインタフェース(SIF)122は、IOP700に対するインタフェースユニットである。サウンドチップおよび記憶装置等の入出力装置を制御するために、サブバスインタフェースは、それ自体のメモリおよびバスを有する。
図3は、グラフィックスシンセサイザ200の構成を概略的に示したものである。グラフィックスシンセサイザは、ホストインターフェース202、セットアップ・ラスタライズ用ユニット、ピクセルパイプライン206、メモリインターフェース208、フレームページ・バッファ214およびテクスチャページ・バッファ216を含むローカルメモリ212、およびビデオコンバータ210を備える。
ホストインターフェース202は、ホストとデータのやりとりを行う(エモーションエンジン100のCPUコア102の場合)。ホストからの描画データおよびバッファデータは双方とも、このインタフェースを通過する。ホストインターフェース202からの出力は、グラフィックスシンセサイザ200に供給される。このグラフィックスシンセサイザ200は、グラフィックスを展開し、エモーションエンジン100から受け取った頂点情報に基づいてピクセルを描画し、各ピクセルの、RGBA値、深度値(例えばZ値)、テクスチャ値およびフォグ値等の情報を算出する。RGBA値は、赤、緑、青(RGB)のカラー構成要素を特定し、A(アルファ)構成要素は画像オブジェクトの不透明性を表す。アルファ値は、完全に透明から完全に不透明まで変化させることができる。ピクセルデータは、ピクセルパイプライン206に供給され、ここで、テクスチャマッピング、フォギングおよびアルファブレンディング等の処理を行い、算出されたピクセル情報に基づいて最終的な描画のカラーを決定する。
ピクセルパイプライン206は、16個のピクセルエンジンPE1、PE2、・・・PE16を備え、最大16ピクセルを同時に処理できる。ピクセルパイプライン206は、32ビットカラーおよび32ビットZバッファで、150MHzで動作する。メモリインターフェース208は、ローカル・グラフィックスシンセサイザ・メモリ212からデータを読み込み、かつ、書き込みを行う。ピクセル操作の終了時には、メモリに対して描画ピクセル値(RGBAおよびZ)を書き込み、メモリからフレームバッファ214のピクセル値を読み込む。フレームバッファ214から読み込まれるこれらのピクセル値は、ピクセルテストまたはアルファブレンディングのために使用される。メモリインターフェース208はまた、ローカルメモリ212から、フレームバッファの現在の内容に対するRGBA値を読み込む。ローカルメモリ212は、グラフィックスシンセサイザ200に内蔵される32Mビット(4MB)のメモリである。これは、フレームバッファ214、テクスチャバッファ216および32ビットZバッファ215で構成することができる。フレームバッファ214は、カラー情報のようなピクセルデータが格納されるビデオメモリの部分である。
グラフィックスシンセサイザは、視覚的な細部を三次元ジオメトリに加えるために、二次元から三次元へのテクスチャマッピング処理を使用する。各テクスチャは、三次元画像オブジェクトの周囲に巻きつけられ、伸ばされ、そして曲げられて、三次元のグラフィック効果を与える。テクスチャバッファは、画像オブジェクトに対するテクスチャ情報を格納するために使用される。Zバッファ215(別名、深度バッファ)は、ピクセルについての深度情報を格納するために利用できるメモリである。画像は、グラフィックスプリミティブまたはポリゴンとして知られる基本構成ブロックにより構築される。ポリゴンが、Zバッファリングを使って描かれる場合、各ピクセルの深度値は、Zバッファに格納される対応する値と比較される。Zバッファに格納される値が新しいピクセル値の深度以上の場合、このピクセルが可視であると決定され、その結果、そのピクセルは描画されることとなって、Zバッファは新しいピクセル深度により更新される。しかしながら、Zバッファ深度値が新しいピクセル深度値よりも小さい場合、新しいピクセル値はすでに描画されたものの後ろ側にあって、描かれることはない。
ローカルメモリ212は、フレームバッファとZバッファとにアクセスするための1024ビットの読み込みポートおよび1024ピットの書き込みポート、およびテクスチャ読込み用の512ビットのポートを有する。ビデオコンバータ210は、ある特定の出力フォーマットにおいて、フレームメモリの内容を表示するよう機能する。
図4は、音声ミキシングの一例を概略的に示したものである。5つの入力音声ストリーム1000a、1000b、1000c、1000d、1000eがミックスされて、単一の出力音声ストリーム1002を生成する。このミキシングは、サウンドプロセッサユニット300よって実行される。この入力音声ストリーム1000は、少なくとも一台のマイクロホン730、およびまたはリーダー450によって読み込まれるCD・DVDディスク等、さまざまなソースによってもたらされる。図4は、入力音声ストリーム1000のミキシング以外に、入力音声ストリーム1000上または出力音声ストリーム1002上で行われる音声処理を全く示していないが、サウンドプロセッサユニット300は、さまざまな他の音声処理ステップを実行する場合があると理解される。また、図4は、単一の出力音声ストリーム1002を生成するためにミックスされている五つの入力音声ストリーム1000を示しているが、入力音声ストリーム1000の数については他のいかなる数でも利用可能であると理解される。
図5は、サウンドプロセッサユニット300により行われる音声ミキシングの他の例を概略的に示したものである。図4に示された方法と同様に、五つの入力音声ストリーム1010a、1010b、1010c、1010d、1010eがともにミックスされ、単一の出力音声ストリーム1012を形成している。しかし、図5に示すように、サウンドプロセッサユニット300によりミキシングの中間段階が行われる。具体的には、二つの入力音声ストリーム1010a、1010bはミックスされて、予備音声ストリーム1014aを生成し、一方、他の残りの三つの入力音声ストリーム1010c、1010d、1010eはミックスされて、予備音声ストリーム1014bを生成する。予備音声ストリーム1014aと1014bは、その後ミックスされて、出力音声ストリーム1012を生成する。図5に示されるミキシング動作が図4に示されるものよりも優れている点は、もし、最初の二つの入力音声ストリーム1010a、1010bのように、入力音声ストリーム1010のうちのいくつかが、各々同じ音声処理を実行することを要求する場合、これらの音声ストリームをともにミックスして単一の予備音声ストリーム1014aを形成し、それについてその音声処理が実行される。このような方法で、入力音声ストリーム1010a、1010bの各々に一つずつ、二つの音声処理ステップを行う必要なく、単一の予備音声ストリーム1014aに対して単一の音声処理ステップが実行される。これによって、より効率的な音声処理を実現できる。
図6は、本発明の一実施例による音声ミキシングおよび音声処理を概略的に示したものである。三つの入力音声ストリーム1100a、1100b、1100cはミックスされて予備音声ストリーム1102aが生成される。他の二つの入力音声ストリーム1100d、1100eは、ミックスされてもう一つ別の予備音声ストリーム1102bが生成される。予備音声ストリーム1102a、1102bは、その後ミックスされて、出力音声ストリーム1104を生成する。図6は、ミックスされて一つの予備音声ストリーム1102aを形成する三つの入力音声ストリーム1100a、1100b、1100cを示し、また、ミックスされて別の予備音声ストリーム1102bを形成する二つの異なる入力音声ストリーム1100d、1100eを示しているが、ミキシングの実際の構成は、音声処理の特定の要件によって変わる場合があると理解される。実際には、異なる数の入力音声ストリーム1100があってもよいし、異なる数の予備音声ストリーム1102があってもよい。さらに、少なくとも一つの入力音声ストリーム1100が、少なくとも二つの予備音声ストリーム1102の一因となってもよい。
入力音声ストリーム1100a、1100b、1100c、1100d、1100eの各々は、少なくとも一つの音声チャネルから成る。
ここで、個々の入力音声ストリーム1100で実行される最初の処理を説明する。入力音声ストリーム1100a、1100b、1100c、1100d、1100eの各々は、それぞれ対応するプロセッサ1101a、1101b、1101c、1101d、1101eにより処理される。これらは、上記のプレイステーション2ゲーム機の機能の一部として、各々スタンドアロンのデジタル信号プロセッサとして、また、複数の同時操作を行うことが可能な汎用データプロセッサのソフトウェア制御操作等として、実装されるものである。もちろん、プレイステーション2ゲーム機は、この機能の一部またはすべてを実行することが可能な装置の有用な一例にすぎないと理解される。
入力音声ストリーム1100は、対応するプロセッサ1101の入力1106で受信される。この入力音声ストリーム1100は、例えば、リーダー450を介してCDやDVDから受信される場合もあるし、マイクロホン730を介して受信される場合もある。あるいは、この入力音声ストリーム1100は、RAM(例えばRAM720)に格納される場合もある。
入力音声ストリーム1100の包絡線は、包絡線プロセッサ1107により変調・加工される。
その後、高速フーリエ変換(FFT)プロセッサ1108が、時間領域から周波数領域へと入力音声ストリーム1100を変換する。もし入力音声ストリーム1100が、一つ以上の音声チャンネルで構成されていれば、FFTプロセッサは、FFTをチャネル毎に別々に施す。FFTプロセッサ1108は、適切なサイズに設定された音声サンプルのウィンドウであればいかなるウィンドウでも動作可能である。好ましい実施例では、48kHzでサンプルされた入力音声ストリーム1100を有する1024サンプルのウィンドウサイズを使用する。FFTプロセッサ1108は、浮動小数点周波数領域サンプルか、固定ビット幅に限られている周波数領域サンプルのいずれかを出力できる。FFTプロセッサ1108は、時間領域から周波数領域へと入力音声ストリームを変換させるためにFFTを利用するが、他のいかなる時間領域から周波数領域への変換でも利用可能であると理解される。
入力音声ストリーム1100は、周波数領域データとしてプロセッサ1101に供給されると理解される。例えば、入力音声ストリーム1100は、最初から周波数領域で生成された場合もある。このような場合、FFTプロセッサ1108はバイパスされ、プロセッサ1101が時間領域の入力音声ストリーム1100を受信するときのみ、FFTプロセッサ1108が使用される。
その後、音声処理ユニット1112は、周波数領域に変換された入力音声ストリーム1100に対してさまざまな音声処理を実行する。例えば、音声処理ユニット1112は、タイムストレッチングおよびまたはピッチシフティングを行うことができる。タイムストレッチングを実行する際、入力音声ストリーム1100の再生時間は、入力音声ストリーム1100の実際のピッチを変えることなく変更される。ピッチシフティングを実行する際は、入力音声ストリーム1100のピッチは、入力音声ストリーム1100の再生時間を変えずに変更される。
一旦、音声処理ユニット1112が、周波数領域変換された入力音声ストリーム1100に対する処理を終えると、イコライザ1114は、この入力音声ストリーム1100に対し周波数等化を行う。等化とは、周知の技術であるので本願明細書においては詳述しない。
イコライザ1114が、周波数領域変換入力音声ストリーム1100の等化を行った後、周波数領域変換入力音声ストリーム1100は、イコライザ1114からボリュームコントローラ1110へと出力される。ボリュームコントローラ1110は、入力音声ストリーム1100のレベルを制御する役割を果たす。ボリュームコントローラ1100は、入力音声ストリーム1100のレベルを制御するためのいかなる周知技術も利用することが可能である。例えば、出力音声ストリーム1104のフォーマットが7.1サラウンドサウンドである場合、ボリュームコントローラ1110は、対応するスピーカー各々にひとつずつ、八つのボリュームパラメータを生成する。その結果、入力音声ストリーム1100の出力ボリュームは、スピーカーベースで制御することができる。
ボリュームコントローラ1110が、周波数領域変換入力音声ストリーム1100に対するボリューム処理を実行した後、エフェクトプロセッサ1116が周波数領域変換入力音声ストリーム1100をさまざまな異なる方法で(例えば、入力音声ストリーム1100の音声チャネルの各々に対する等化により)変調し、これらの変調されたバージョンをミックスする。これは、例えば反響音のような、さまざまな効果を作り出すために使用される。
包絡線プロセッサ1107、ボリュームコントローラ1110、音声処理ユニット1112、イコライザ1114、およびエフェクトプロセッサ1116により実行される音声処理は、どのような順序で行われてもよいと理解される。実際には、ある特定の音声処理効果のために、包絡線プロセッサ1107、ボリュームコントローラ1110、音声処理ユニット1112、イコライザ1114またはエフェクトプロセッサ1116により行われる処理がバイパスされる場合もある。しかし、FFTプロセッサ1108に従ったすべての処理は、FFTプロセッサ1108により生成される周波数領域変換入力音声ストリーム1100を使用して、周波数領域で開始される。
入力音声ストリーム1100の各々に施される音声処理は、ストリーム毎に変化する場合がある。
ここで予備音声ストリーム1102の生成について説明する。予備音声ストリーム1102a、1102bの各々はそれぞれ、サブバス1103a、1103bにより生成される。
サブバス1103のミキサー1118は、周波数領域で表される少なくとも一つの処理済み入力音声ストリーム1100を受信して、これらの処理済み入力音声ストリーム1100のミックスバージョンを作り出す。図6において、第一のサブバス1103aのミキサー1118は、入力音声ストリーム1100a、1100b、1100cの処理済みバージョンを受信する。その後、ミックスされた音声ストリームは、イコライザ1120へと引き渡される。イコライザ1120は、イコライザ1114と同様の機能を実行する。その後、イコライザ1120の出力は、エフェクトプロセッサ1122に引き渡される。エフェクトプロセッサ1122により実行される処理は、エフェクトプロセッサ1116により実行される処理と同様のものである。
サブバスプロセッサ1124は、エフェクトプロセッサ1122からの出力を受信し、少なくとも一つの他のサブバス1103から受信した制御情報に従って、エフェクトプロセッサ1122の出力のレベルを調整する(しばしば「ダッキング」または「サイドチェーンコンプレッション(side chain compression)」と称する)。このサブバスプロセッサ1124はまた、少なくとも一つの他のサブバス1103に対して制御情報を与え、その結果、これらのサブバス1103は、サブバスプロセッサ1124により供給された制御情報に従って、その予備音声ストリームのレベルを調整できる。例えば、予備音声ストリーム1102aはフットボールの試合からの音声に関連させ、一方、予備音声ストリーム1102bはそのフットボールの試合に対する解説に関連させることができる。予備音声ストリーム1102aおよび1102b各々に対するサブバスプロセッサ1124がともに、フットボールの試合とその解説からの音声のレベルを調整するよう動作し、解説が適宜フェイドイン、フェイドアウトされる。
また、イコライザ1120、エフェクトプロセッサ1122、およびサブバスプロセッサ1124により実行される音声処理は、どのような順序で行われてもよいと理解される。実際には、特定の音声処理効果のために、イコライザ1120、エフェクトプロセッサ1122、サブバスプロセッサ1124により実行される処理はバイパスされる場合がある。しかしながら、これらの処理のすべては周波数領域で開始される。
ここで、最終的に出力される音声ストリームの生成について説明する。ミキサー1126は、予備音声ストリーム1102aおよび1102bを受信して、それらをミックスし、最初の混合出力音声ストリームを作り出す。ミキサー1126の出力は、イコライザ1128に供給される。イコライザ1128は、イコライザ1120およびイコライザ1114と同様の処理を実行する。イコライザ1128の出力は、エフェクトプロセッサ1130に供給される。エフェクトプロセッサ1130は、エフェクトプロセッサ1122およびエフェクトプロセッサ1116と同様の処理を実行する。最後に、エフェクトプロセッサ1130の出力は、逆FFTプロセッサ1132に供給される。逆FFTプロセッサ1132は、FFTプロセッサ1108により施された変換を逆にするために、すなわち、エフェクトプロセッサ1130により出力された音声ストリームの周波数領域表現を、時間領域表現に変換するために、逆FFTを実行する。混合出力音声ストリームが一つ以上の音声チャネルから構成されている場合は、逆FFTプロセッサ1132は、このチャネル毎に別々に逆FFTを施す。その後、逆FFTプロセッサ1132による時間領域表現出力は、少なくとも一台のスピーカー1134等、時間領域音声信号を受信すると想定されている適切な音声装置に供給される。
FFTプロセッサ1108および逆FFTプロセッサ1132の間で実行される音声処理の全ては、周波数領域で行われ、時間領域ではないと理解される。このように、時間領域入力音声ストリーム1100の各々について、時間領域から周波数領域への変換はこれまでに一回のみである。さらに、時間領域から周波数領域への変換もこれまでに一回のみであり、かつ、これは最終の混合出力音声ストリームに対してのみ実行される。
実行される音声処理は、ソフトウェア、ハードウェア、またはハードウェアおよびソフトウェアの組合せにおいて行うことが可能である。上記の本発明の実施例を実現するにおいては、少なくとも一部はソフトウェアに制御されたデータ処理装置を使用し、このようなソフトウェア制御を提供しているコンピュータプログラム、およびこのようなコンピュータプログラムを格納する記憶媒体は、本発明の態様として実現可能であると理解される。

Claims (14)

  1. 複数の入力音声ストリームをミックスして、一つの出力音声ストリームを形成するよう機能する音声処理装置であって、
    前記入力音声ストリームを受信し、周波数領域表現の混合周波数領域音声ストリームを出力するよう機能するミキサーと、
    前記混合周波数領域音声ストリームを、周波数領域表現から時間領域表現へと変換して、出力音声ストリームを形成するよう機能する周波数−時間コンバータとから構成され
    前記ミキサーは、
    複数のサブミキサーを備え、各サブミキサーは入力音声ストリームに各々対応する、複数の中間周波数領域音声ストリームを受信するよう機能し、該中間周波数領域音声ストリームをミックスして対応する予備周波数領域音声ストリームを作成する複数のサブミキサーと、
    前記予備周波数領域音声ストリームをミックスして、混合周波数領域音声ストリームを作成するよう機能するメインミキサーと、を有すること
    特徴とする音声処理装置。
  2. 請求項1に記載された音声処理装置であって、
    前記ミキサーは、時間領域表現の入力音声ストリームを受信するよう機能し、該ミキサーは、入力音声ストリームを時間領域表現から周波数領域表現へと変換するよう機能する、時間−周波数コンバータを備えることを特徴とする音声処理装置。
  3. 請求項1または請求項2に記載された音声処理装置であって、
    前記ミキサーは、周波数領域表現の入力音声ストリームを受信するよう機能することを特徴とする音声処理装置。
  4. 請求項1から3のいずれか一つの請求項に記載された音声処理装置であって、
    音声ストリームの各々は、少なくとも一つの音声チャネルを備えることを特徴とする音声処理装置。
  5. 請求項2に従属する請求項4に記載の音声処理装置であって、
    前記時間−周波数コンバータは、入力音声ストリームの音声チャネルに高速フーリエ変換を施すよう機能し、前記周波数−時間コンバータは、混合周波数領域音声ストリームの音声チャネルに、逆高速フーリエ変換を施すよう機能することを特徴とする音声処理装置。
  6. 請求項1から5のいずれか一つの請求項に記載された音声処理装置であって、
    前記ミキサーは、
    周波数領域表現の入力音声ストリームおよびまたは混合周波数領域音声ストリームに対し、オーディオエフェクトを施すよう機能するエフェクト装置を備えることを特徴とする音声処理装置。
  7. 請求項6に記載の音声処理装置であって、
    前記エフェクト装置は、予備周波数領域音声ストリームに対してオーディオエフェクトを施すよう機能することを特徴とする音声処理装置。
  8. 請求項に記載の音声処理装置であって、
    前記エフェクト装置は、別の予備周波数領域音声ストリームのボリュームに従って、ある予備周波数領域音声ストリームのボリュームを制御するよう機能することを特徴とする音声処理装置。
  9. 請求項から請求項のいずれか一つに記載の音声処理装置であって、
    前記エフェクト装置によって施されるオーディオエフェクトは、等化、ピッチシフティング、反響音適用、ボリューム制御、圧縮、音声ストリームの包絡線の調整、のうちの少なくとも一つを含むことを特徴とする音声処理装置。
  10. 請求項1から9のいずれか一つに記載の音声処理装置であって、
    前記周波数領域音声ストリームは、浮動小数点データとして処理されることを特徴とする音声処理装置。
  11. 複数の入力音声ストリームをミックスして、一つの出力音声ストリームを形成するよう機能する音声処理方法であって、
    前記入力音声ストリームをミックスして、周波数ベース表現の混合周波数ベース音声ストリームを出力するミックスステップと、
    前記混合周波数領域音声ストリームを、周波数領域表現から時間領域表現へと変換して、出力音声ストリームを形成する周波数−時間変換を行う変換ステップと、を備え、
    前記ミックスステップは、
    前記入力音声ストリームに各々対応する、複数の中間周波数領域音声ストリームをサブミックスして、対応する予備周波数領域音声ストリームを作成するステップと、
    前記予備周波数領域音声ストリームをミックスして、混合周波数領域音声ストリームを作成するステップと、を備えることを特徴とする音声処理方法。
  12. 請求項11に記載の音声処理方法をコンピュータに実行させるためのプログラム。
  13. 請求項12に記載のプログラム記録した記憶媒体。
  14. 請求項11に記載の音声処理方法によって生成された音声ストリームが記録された記憶媒体。
JP2006130829A 2005-05-09 2006-05-09 音声処理 Active JP5010851B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0509425.5 2005-05-09
GB0509425A GB2426168B (en) 2005-05-09 2005-05-09 Audio processing

Publications (2)

Publication Number Publication Date
JP2006340343A JP2006340343A (ja) 2006-12-14
JP5010851B2 true JP5010851B2 (ja) 2012-08-29

Family

ID=34685303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006130829A Active JP5010851B2 (ja) 2005-05-09 2006-05-09 音声処理

Country Status (6)

Country Link
US (1) US20060269086A1 (ja)
EP (1) EP1880576B1 (ja)
JP (1) JP5010851B2 (ja)
AU (1) AU2006245571A1 (ja)
GB (1) GB2426168B (ja)
WO (1) WO2006120419A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8270439B2 (en) * 2005-07-08 2012-09-18 Activevideo Networks, Inc. Video game system using pre-encoded digital audio mixing
US8074248B2 (en) 2005-07-26 2011-12-06 Activevideo Networks, Inc. System and method for providing video content associated with a source image to a television in a communication network
US8036903B2 (en) * 2006-10-18 2011-10-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Analysis filterbank, synthesis filterbank, encoder, de-coder, mixer and conferencing system
US8155202B2 (en) 2007-01-12 2012-04-10 Activevideo Networks, Inc. System and method for encoding scrolling raster images
US9826197B2 (en) 2007-01-12 2017-11-21 Activevideo Networks, Inc. Providing television broadcasts over a managed network and interactive content over an unmanaged network to a client device
US8140715B2 (en) * 2009-05-28 2012-03-20 Microsoft Corporation Virtual media input device
US8194862B2 (en) * 2009-07-31 2012-06-05 Activevideo Networks, Inc. Video game system with mixing of independent pre-encoded digital audio bitstreams
AU2011315950B2 (en) 2010-10-14 2015-09-03 Activevideo Networks, Inc. Streaming digital video between video devices using a cable television system
EP2695388B1 (en) 2011-04-07 2017-06-07 ActiveVideo Networks, Inc. Reduction of latency in video distribution networks using adaptive bit rates
WO2013106390A1 (en) 2012-01-09 2013-07-18 Activevideo Networks, Inc. Rendering of an interactive lean-backward user interface on a television
US9800945B2 (en) 2012-04-03 2017-10-24 Activevideo Networks, Inc. Class-based intelligent multiplexing over unmanaged networks
US9123084B2 (en) 2012-04-12 2015-09-01 Activevideo Networks, Inc. Graphical application integration with MPEG objects
US9317458B2 (en) * 2012-04-16 2016-04-19 Harman International Industries, Incorporated System for converting a signal
WO2014145921A1 (en) 2013-03-15 2014-09-18 Activevideo Networks, Inc. A multiple-mode system and method for providing user selectable video content
US9294785B2 (en) 2013-06-06 2016-03-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9326047B2 (en) 2013-06-06 2016-04-26 Activevideo Networks, Inc. Overlay rendering of user interface onto source video
US9219922B2 (en) 2013-06-06 2015-12-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9788029B2 (en) 2014-04-25 2017-10-10 Activevideo Networks, Inc. Intelligent multiplexing using class-based, multi-dimensioned decision logic for managed networks
US9554207B2 (en) 2015-04-30 2017-01-24 Shure Acquisition Holdings, Inc. Offset cartridge microphones
US9565493B2 (en) 2015-04-30 2017-02-07 Shure Acquisition Holdings, Inc. Array microphone system and method of assembling the same
CN106878230A (zh) * 2015-12-10 2017-06-20 中国电信股份有限公司 网络电话会议中的音频处理方法、服务器以及系统
US10367948B2 (en) 2017-01-13 2019-07-30 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
JP2018191738A (ja) * 2017-05-12 2018-12-06 株式会社ユニバーサルエンターテインメント 遊技機
EP3804356A1 (en) 2018-06-01 2021-04-14 Shure Acquisition Holdings, Inc. Pattern-forming microphone array
US11297423B2 (en) 2018-06-15 2022-04-05 Shure Acquisition Holdings, Inc. Endfire linear array microphone
WO2020061353A1 (en) 2018-09-20 2020-03-26 Shure Acquisition Holdings, Inc. Adjustable lobe shape for array microphones
TW202044236A (zh) 2019-03-21 2020-12-01 美商舒爾獲得控股公司 具有抑制功能的波束形成麥克風瓣之自動對焦、區域內自動對焦、及自動配置
US11558693B2 (en) 2019-03-21 2023-01-17 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality
EP3942842A1 (en) 2019-03-21 2022-01-26 Shure Acquisition Holdings, Inc. Housings and associated design features for ceiling array microphones
EP3973716A1 (en) 2019-05-23 2022-03-30 Shure Acquisition Holdings, Inc. Steerable speaker array, system, and method for the same
JP2022535229A (ja) 2019-05-31 2022-08-05 シュアー アクイジッション ホールディングス インコーポレイテッド 音声およびノイズアクティビティ検出と統合された低レイテンシオートミキサー
CN114467312A (zh) 2019-08-23 2022-05-10 舒尔获得控股公司 具有改进方向性的二维麦克风阵列
US12028678B2 (en) 2019-11-01 2024-07-02 Shure Acquisition Holdings, Inc. Proximity microphone
US11552611B2 (en) 2020-02-07 2023-01-10 Shure Acquisition Holdings, Inc. System and method for automatic adjustment of reference gain
WO2021243368A2 (en) 2020-05-29 2021-12-02 Shure Acquisition Holdings, Inc. Transducer steering and configuration systems and methods using a local positioning system
CN112233683B (zh) * 2020-09-18 2023-10-13 江苏大学 一种汽车电动后视镜异响检测方法及检测系统
WO2022165007A1 (en) 2021-01-28 2022-08-04 Shure Acquisition Holdings, Inc. Hybrid audio beamforming system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993003549A1 (en) * 1991-07-31 1993-02-18 Euphonix, Inc. Automated audio mixer
US5228093A (en) * 1991-10-24 1993-07-13 Agnello Anthony M Method for mixing source audio signals and an audio signal mixing system
JP3266974B2 (ja) * 1993-04-16 2002-03-18 カシオ計算機株式会社 デジタル音響波形の作成装置、デジタル音響波形の作成方法、楽音波形生成装置におけるデジタル音響波形均一化方法、及び楽音波形生成装置
US5555465A (en) * 1994-05-28 1996-09-10 Sony Corporation Digital signal processing apparatus and method for processing impulse and flat components separately
JP2993418B2 (ja) * 1996-01-19 1999-12-20 ヤマハ株式会社 音場効果装置
US6473733B1 (en) * 1999-12-01 2002-10-29 Research In Motion Limited Signal enhancement for voice coding
DE20005666U1 (de) * 2000-03-27 2000-06-15 Albrecht Marc Vorrichtung zur Umsetzung analoger Reglerstellungen in digitale Datenströme
US7369665B1 (en) * 2000-08-23 2008-05-06 Nintendo Co., Ltd. Method and apparatus for mixing sound signals
US7039204B2 (en) * 2002-06-24 2006-05-02 Agere Systems Inc. Equalization for audio mixing
US6881891B1 (en) * 2002-07-16 2005-04-19 Line 6, Inc. Multi-channel nonlinear processing of a single musical instrument signal
US6925186B2 (en) * 2003-03-24 2005-08-02 Todd Hamilton Bacon Ambient sound audio system
JP4330381B2 (ja) * 2003-06-20 2009-09-16 株式会社コルグ ノイズ除去装置
JP4638695B2 (ja) * 2003-07-31 2011-02-23 パナソニック株式会社 信号処理装置及びその方法
JP4298466B2 (ja) * 2003-10-30 2009-07-22 日本電信電話株式会社 収音方法、装置、プログラム、および記録媒体
US20060093164A1 (en) * 2004-10-28 2006-05-04 Neural Audio, Inc. Audio spatial environment engine
US8155343B2 (en) * 2005-03-11 2012-04-10 Yamaha Corporation Engine sound processing system

Also Published As

Publication number Publication date
EP1880576A1 (en) 2008-01-23
AU2006245571A1 (en) 2006-11-16
WO2006120419A1 (en) 2006-11-16
GB0509425D0 (en) 2005-06-15
US20060269086A1 (en) 2006-11-30
GB2426168A (en) 2006-11-15
EP1880576B1 (en) 2012-06-20
GB2426168B (en) 2008-08-27
JP2006340343A (ja) 2006-12-14

Similar Documents

Publication Publication Date Title
JP5010851B2 (ja) 音声処理
JP2006325207A (ja) 音声処理
GB2398690A (en) Control of an image processor in dependance of image luminance
US20100250864A1 (en) Method And Apparatus For Compressing And Decompressing Data
JP5241805B2 (ja) タイミング・オフセット許容型カラオケゲーム
GB2435335A (en) Multi-processor emulation by a multi-processor
JP2003524954A (ja) メディア処理システムおよび方法
EP1383315B1 (en) Video processing
AU5785801A (en) Method and apparatus for pre-caching data in audio memory
JP4570766B2 (ja) 音声信号をミキシングするための方法および装置
JP2004096730A (ja) ビデオ処理方法及びビデオ処理装置
JP5345780B2 (ja) データ処理
KR101484101B1 (ko) 동영상 변환 장치
ES2640192T3 (es) Procesamiento de datos
JP5361962B2 (ja) グラフィクスプロセッシングユニットおよび情報処理装置
JP2004141351A (ja) 画像生成システム、プログラム及び情報記憶媒体
GB2441975A (en) Video game

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20070123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090410

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100427

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101126

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5010851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250