JP3596263B2 - データ処理装置およびデータ処理方法 - Google Patents

データ処理装置およびデータ処理方法 Download PDF

Info

Publication number
JP3596263B2
JP3596263B2 JP34020197A JP34020197A JP3596263B2 JP 3596263 B2 JP3596263 B2 JP 3596263B2 JP 34020197 A JP34020197 A JP 34020197A JP 34020197 A JP34020197 A JP 34020197A JP 3596263 B2 JP3596263 B2 JP 3596263B2
Authority
JP
Japan
Prior art keywords
data
tone
video data
processing
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34020197A
Other languages
English (en)
Other versions
JPH11175069A (ja
Inventor
了 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP34020197A priority Critical patent/JP3596263B2/ja
Priority to TW087119980A priority patent/TW388841B/zh
Priority to US09/207,098 priority patent/US6529191B1/en
Publication of JPH11175069A publication Critical patent/JPH11175069A/ja
Application granted granted Critical
Publication of JP3596263B2 publication Critical patent/JP3596263B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/275Musical interface to a personal computer PCI bus, "peripheral component interconnect bus"
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/621Waveform interpolation

Description

【0001】
【発明の属する技術分野】
本発明は、テクスチャデータを用いて3Dグラフィック処理を行うとともに、ウエーブテーブルデータを用いてサウンド処理を行うのに好適なデータ処理装置およびデータ処理方法に関する。
【0002】
【従来の技術】
近年のパーソナルコンピュータにあっては、テキストの入力や計算処理ばかりでなく、3Dグラフィックスと呼ばれる映像処理やサウンド処理の機能を備えたものが開発されている。3Dグラフィックスにあっては、例えば、三角形のポリゴンによって記述された幾何学形状を入力として、視点や照明といったパラメータを与えると、立体感のある画像が出力される。また、サウンド処理にあっては、各種の効果音をサンプリングして得られた波形データをウエーブテーブルデータとしてメモリに保持しておき、必要なタイミングで記憶データを読み出してピッチ変換等の処理を施して、所望の楽音データを得ることが行われる。このようなグラフィック処理とサウンド処理は、特に、ゲーム等のアミューズメントの分野において、臨場感に溢れる効果を演出するのに役立っている。
【0003】
このようなグラフィック処理とサウンド処理の機能を備えたパーソナルコンピュータにあっては、映像データと楽音データの性質が相違することから、別個独立に処理するのが一般的である。
図5は、従来のパーソナルコンピュータにおけるグラフィック処理とサウンド処理に係わる部分のブロック図である。このパーソナルコンピュータは、映像制御データDgcと楽音制御データDscを生成するCPU1、グラフィック処理系A、サウンド処理系B、およびこれらの部分を接続するPCIバス2から大略構成される。グラフィック処理系Aはビデオカードと呼ばれる1枚の基板に、サウンド処理系Bはサウンドカードと呼ばれる1枚の基板に各々まとめられており、これらの基板は、拡張スロットに差し込むことによって、パーソナルコンピュータに実装されるのが一般的である。
【0004】
この場合、映像制御データDgcは、ポリゴンデータDpとテクスチャデータDtから構成される。ポリゴンデータDpは3次元3角形の頂点座標および各頂点に対応したテクスチャアドレス等を示し、テクスチャデータDtは、ポリゴン内部を塗りつぶすビットパターンによって構成される。また、楽音制御データDscは、各種の波形をサンプリングすることにより得られた各種の音色に対応するウエーブテーブルデータDwと発音制御データDhから構成される。
【0005】
映像制御データDgcがPCIバス2を介してグラフィック処理系Aに供給されると、映像制御データDgcはPCIバスインターフェース21を介して3Dグラフィックテンポラリバッファ22に一旦記憶される。この後、3Dグラフィックテンポラリバッファ22から読み出されたテクスチャデータDtはテクスチァメモリ23に格納される。このテクスチャデータDtは、必要に応じて3Dグラフィックエンジン24に読み出される。3Dグラフィックエンジン24は、ポリゴンデータDpとテクスチャデータDtに基づいて、ポリゴンの内部を塗りつぶすマッピング処理を行って映像データDgを生成する。映像データDgはフレームメモリ25に格納される。この後、フレームメモリ25から読み出された映像データDgは、RAMDAC16によってデジタル信号からアナログ信号に変換され、図示せぬ表示装置に供給される。
【0006】
一方、楽音制御データDscが、PCIバス2を介して音声処理系Bに供給されると、楽音制御データDscはPCIバスインターフェース31を介してサウンドテンポラリバッファ32に一旦記憶される。この後、サウンドテンポラリバッファ32から読み出されたウエーブテーブルデータDwはWTデータメモリ33に格納される。WTエンジン34は、発音制御データDhの指示する音色に応じたウエーブテーブルデータDwをWTデータメモリ33から読み出し、このウエーブテーブルデータDwに発音制御データDhの指示するピッチに応じたピッチ変換を施して楽音データDsを生成する。こうして生成された楽音データDsがエフェクト処理部35に供給されると、エフェクト処理部35は、エフェクトディレイメモリ36に楽音データDsを記憶することによって、遅延された楽音データDsを生成し、これを用いて、エコー等の時間軸上でのエフェクト処理を実行する。エフェクト処理が施された楽音データDsはDAC37によってディジタル信号からアナログ信号に変換され、楽音信号として図示せぬ発音手段に供給される。
【0007】
このように、従来のパーソナルコンピュータにあっては、映像データDgを生成するグラフィック処理系Aと、楽音データDsを生成するサウンド処理系Bとは別個独立して設けられている。
【0008】
【発明が解決しようとする課題】
ところで、グラフィック処理系Aで行われる演算処理と、音声処理系Bで行われる演算処理とは、両者ともメモリから読み出した元データ(テクスチャデータDt,ウエーブテーブルデータDw)に対して処理を施す点では共通している。しかしながら、従来のパーソナルコンピュータにあっては、グラフィック処理とサウンド処理は別系統で行われていたので、構成が複雑となり、回路規模およびシステム規模が大きいといった問題があった。
【0009】
本発明は、上述した事情に鑑みてなされたものであり、音と映像で処理系統を共用し、回路規模を大幅に削減したデータ処理装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記課題を解決するため、この発明は、補間処理または間引処理を実行する機能を有する演算部を有し、楽音のピッチおよび元波形データを指示する情報を含む発音制御データに基づき、指示された元波形データの補間処理または間引処理を前記演算部に行わせ、指示されたピッチの楽音データを生成する楽音データ生成処理と、元映像データの種別情報およびスクリーン上における元映像データのマッピング対象領域を指示する情報を含む画像制御データに基づき、指示された元映像データの補間処理または間引き処理を前記演算部に行わせ、指示されたスクリーン上のマッピング対象領域にマッピングされた映像データを生成する映像データ生成処理とを時分割により行うことを特徴とするデータ処理装置を提供する。
好ましい態様において、前記演算部は合成処理を実行する機能をさらに有し、前記発音制御データは音量情報をさらに含み、前記画像制御データは透過度情報をさらに含み、前記楽音データ生成処理は、前記波形データの補間処理または間引処理により生成された複数の楽音データを前記発音制御データに含まれる情報により指示された音量情報に基づいて合成する合成処理を前記演算部に実行させる処理をさらに含み、前記映像データ生成処理は、前記元映像データの補間処理または間引処理により生成された複数の映像データを前記画像制御データの指示する透過度情報に応じて合成する合成処理を前記演算部に実行させる処理をさらに含む。
他の好ましい態様において、データ処理装置は、複数の元波形データと複数の元映像データとを記憶する記憶手段を備え、前記発音制御データによって指示された元波形データを前記記憶手段から読み出すとと共に前記画像制御データによって指示された元映像データを前記記憶手段から読み出す。
他の好ましい態様において、データ処理装置は、前記演算部によって生成される楽音データにバッファリングを施して連続した前記楽音データを出力する楽音バッファと、前記演算部によって生成される映像データにバッファリングを施して連続した前記映像データを出力する映像バッファとを備える。
他の好ましい態様において、データ処理装置は、分割されたタイムスロットの始まりから前記楽音生成制御を行い、この後、当該タイムスロットが終了するまでの残り時間を利用して前記映像生成制御を行う。
また、この発明は、補間処理または間引処理を実行する機能を有する演算部を備えたデータ処理装置におけるデータ処理方法において、楽音のピッチおよび元波形データを指示する情報を含む発音制御データに基づき、指示された元波形データの補間処理または間引処理を前記演算部に行わせ、指示されたピッチの楽音データを生成する楽音データ生成処理と、元映像データの種別情報およびスクリーン上における元映像データのマッピング対象領域を指示する情報を含む画像制御データに基づき、指示された元映像データの補間処理または間引き処理を前記演算部に行わせ、指示されたスクリーン上のマッピング対象領域にマッピングされた映像データを生成する映像データ生成処理とを時分割により行うことを特徴とするデータ処理方法を提供する。
【0016】
【発明の実施の形態】
1.実施形態の構成
以下、図面を参照しつつ、本発明の一実施形態に係わるデータ処理装置を説明する。図1は、本実施形態に係わるデータ処理装置のブロック図である。図において、1はCPUであって、データ処理装置100全体を制御するとともに、映像制御データDgcと楽音制御データDscを生成する。映像制御データDgcは、ポリゴンデータDp(画像制御データ)とテクスチャデータDt(元映像データ)から構成される。ここで、テクスチャデータDtは、模様データや写真データなどポリゴン内部を塗りつぶすビットパターンによって構成される。ポリゴンデータDpはいわゆるジオメトリ処理によって得られた3次元3角形のポリゴン配列を三角形の各頂点のX,Y,Z座標として与えるとともに、テクスチャの種別情報、テクスチャのアドレス情報、合成処理に用いられる透過度情報等を指示する。
【0017】
また、楽音制御データDscは、各種の波形をサンプリングすることにより得られた各音色に対応するウエーブテーブルデータDw(元波形データ)、ピッチ、音色、音量あるいはエフェクトといった発音に係わるパラメータを指示する発音制御データDhから構成される。
なお、テクスチャデータDtとウエーブテーブルデータDwとは、常に、映像制御データDgcと楽音制御データDscに含まれているものではなく、処理の内容に応じてこれらのデータに付加されるものであり、例えば、処理の開始時にCPU1がハードディスク(図示せず)から読み出すようになっている。
【0018】
次に、2はPCIバスであり、高速のデータ転送が可能である。PCIバス2は、データ/アドレスとも32ビット幅(あるいは64ビット幅)の転送となっている。また、PCIバスの動作クロックは33MHzであり、理論上の最高データ転送速度は132Mバイト/秒(あるいは264Mバイト/秒)である。さらに、サポートしているバスマスタ機能では、汎用DMAコントローラを使用しない高速なDMAやCPUにかかる負荷の軽減を実現することができる。
【0019】
また、PCIバスは、ISAバスではサポートされていないバースト転送モードを備えている。バースト転送モードとは、1回のアドレス指定で複数のデータをまとめて連続的に転送するモードであり、このバースト転送モードを利用することにより、後述のバースト転送モードを備えたDRAM(Dynamic RAM)からの連続データの読み出しを高速化することができる。さらに、PCIバスには、バスに接続するためのインタフェースを安価に製造できるという利点もある。以上がPCIバス2を用いる理由であり、このような特性を有するのであれば、PCIバス2以外の拡張バスを用いてもよい。
【0020】
次に、3はPCIバスインターフェースであり、PCIバス2から映像制御データDgcや楽音制御データDscを受け取り、これを後段に出力する。また、4は3Dグラッフィク(以下、3DGという)・サウンド共用バッファであり、例えばFIFO等により構成され、そこには、PCIバスインターフェース3からの映像制御データDgcと楽音制御データDscとが一旦記憶され、必要に応じてこれらのデータが読み出されるようになっている。これにより、映像制御データDgcと楽音制御データDscを一時格納するメモリが共用化される。したがって、映像制御データDgcと楽音制御データDscとで別個にメモリを設ける必要がないので、メモリ数を削減することができ、また、メモリを配置するボード面積やそのI/Oポートの配線に必要とされるボード面積を削減することができ、さらに、メモリの制御系を共通にしてメモリ管理を簡易にすることができる。
【0021】
次に、5はテクスチャ・サウンド共用メモリであって、RAM等によって構成される。このテクスチャ・サウンド共用メモリ5には、テクスチャデータDtとウエーブテーブルデータDwとが格納される。この場合にも、3DG・サウンド共用バッファ4と同様に、映像と音でメモリが共用されるので、メモリ数やボード面積を削減でき、メモリ管理を簡易にできる等の利点がある。
【0022】
次に6は3DG・WT音源共用エンジンである。この3DG・WT音源共用エンジン6には、補間処理、間引処理および合成処理を行う演算部がハードウエアによって構成されており、パラメータを変えることによって、各種の処理が実行できるようになっている。3DG・WT音源共用エンジン6では、映像制御データDgcに基づいてグラフィック処理が行われビットマップに展開された映像データDgが生成され、また、楽音制御データDscに基づいて楽音データDsが生成されるようになっている。この例では、サウンド処理を優先した時分割処理が行われるようになっている。
【0023】
3DG・WT音源共用エンジン6におけるサウンド処理にあっては、発音制御データDhの示す音色に応じたウエーブテーブルデータDwがテクスチャ・サウンド共用メモリ5から読み出され、発音制御データDhの指示するピッチに応じて、ウエーブテーブルデータDwに補間処理や間引処理を施して、楽音データDsを生成する。また、同時に複数の楽音を発音する場合にあっては、まず、複数の楽音データDsが上述した手順で各々生成され、次に、生成された楽音データDsに発音制御データDhの示す音量情報に応じた係数が乗算され、乗算結果を加算する合成処理によって、一つの楽音データDsが生成されるようになっている。したがって、楽音データDsの生成に要する時間は、同時発音数によって異なる。
【0024】
一方、グラフィック処理にあっては、ポリゴンデータDpの指示するテクスチャーデータDtの種別と指示するアドレスに従って、必要とされるテクスチャデータDtがテクスチャ・サウンド共用メモリ5から読み出され、ポリゴンの頂点の座標に応じてテクスチャデータDtをマッピングすることによりスクリーン上に展開された映像データDgが生成される。この際、ポリゴンの傾きや拡大縮小に応じて、テクスチャデータDtの補間処理や間引処理を行いつつ、マッピングが行われる。ところで、窓の外の風景を描画するといったように透明なものを表す場合には、窓ガラスと風景といったように2種類の画像を重ねる処理が必要になる。ポリゴンデータDpに含まれる透過度情報は、このような場合に使用される。この場合には、ある領域において、複数の映像データDgを生成し、これらに透過度情報に応じた係数を乗算し、これらの乗算結果を加算する合成処理(αブレンディング処理)が行われる。
【0025】
ここで、上述したサウンド処理とグラフィック処理を比較すると、いずれもウエーブテーブルデータDwやテクスチャデータDtといった加工の元になる元データに対して、補間処理あるいは間引処理を行って中間的な中間データを生成し、複数の中間データを合成して最終的なデータである楽音データDsや映像データDgを生成する点で共通している。本実施形態では、サウンド処理とグラフィック処理の共通点に着目して、これらの処理を実行するエンジンを共用化している。
【0026】
このような共用化を図る場合に問題となるのは、いずれか一方の処理に時間がかかり他方の処理が間に合わなくなる場合の対処である。例えば、複雑な画像を描画する場合には、グラフィック処理に長時間を要することになり、サウンド処理が間に合わないといった事態も起こり得る。このような場合、楽音データDsを前値ホールドすることも考えられるが、聴感上、そのような音には違和感が伴う。一方、映像データDgで対処する場合には、あるフレームをフリーズにすればよく、この場合には、視覚上さほど目立たないため、違和感がない。そこで、この例にあっては、グラフィック処理とサウンド処理を時分割で行う際に、各タイムスロットの開始直後からサウンド処理を開始してこれが終了した後、グラフィック処理を開始するようにしている。すなわち、グラフィック処理は、サウンド処理が終了した後の余りの時間で行われるようになっている。
【0027】
次に、7はエフェクト共用エンジンであって、3DG・WT音源共用エンジン6で生成された楽音データDsや映像データDgに対して各種のエフェクト処理を実行し、エフェクト処理が施された楽音データDs’と映像データDg’を生成する。楽音データDsに対する処理としては、エコーやリバーブがある。これらの処理では、ワークRAM8に先に生成された楽音データDsを記憶しておき、これらを合成することが行われる。また、グラフィック処理では、エフェクト共用エンジン7がワークRAM8を用いて各種の演算を実行することにより、2次元上の効果が与えられる。例えば、ランダムノイズを付加する処理、元の画像とずらした画像を重ねることにより二重写しにする処理、ぼかし処理、あるいはエッジ強調処理等である。これにより、エフェクト共用エンジン7とワークRAM8との共用化が図られるので、構成を簡易にすることができる。
【0028】
次に、9は、グラフィック処理とサウンド処理との間の時分割処理に同期して動作するスイッチ、10はグラフィックバッファ、11はサウンドバッファである。スイッチ9はエフェクト共用エンジン7で生成された楽音データDs’と映像データDg’とをグラフィックバッファ10とサウンドバッファ11とに振り分けて出力する。グラフィックバッファ10は、バッファ10aとバッファ10bから構成されている。あるタイムスロットにおいて、一方のバッファに映像データDg’を書き込む場合、他方のバッファから映像データDg’が読み出されるようになっており、書き込みと読み出しが交互に行われるようになっている。また、サウンドバッファ11は、グラフィックバッファ10と同様に、バッファ11aとバッファ11bから構成されており、書き込みと読み出しが交互に行われるようになっている。
【0029】
次に、12はRAMDACであり、グラフィックバッファ10から読み出された映像データDg’をデジタル信号からアナログ信号に変換して映像信号を生成する。また、13はサウンドDACであって、サウンドバッファ11から読み出された楽音データDs’をデジタル信号からアナログ信号に変換して楽音信号を生成する。
【0030】
以上の構成によれば、グラフィック処理とサウンド処理とで、PCIバスインターフェース3、3DG・サウンド共用バッファ4、テクスチャ・サウンド共用メモリ5、3DG・WT音源共用エンジン6、エフェクト共用エンジン7、およびワークRAM8を兼用できるので、構成を簡易にすることができる。
【0031】
2.実施形態の動作
次に、図面を参照しつつ、本実施形態に係わるデータ処理装置の動作を説明する。
まず、データ処理装置100の全体動作について説明する。図2は、グラフィック処理とサウンド処理の時分割動作を示す概念図である。図に示すように、データ処理装置100は、5.3ms毎のタイムスロットを基本単位として動作しており、各タイムスロット0,1,…の中でグラフィック処理とサウンド処理が時分割で行われる。なお、1タイムスロットの期間を5.3msに設定したのは、楽音データDg’のサンプリング周波数を48KHzに設定した場合、1タイムスロットのサンプリング数が256個となり、処理単位として都合が良いからである。
【0032】
サウンド処理は、各タイムスロット0,1,…の開始直後に行われる。この例にあっては、TS0,TS1,…がサウンド処理期間として割り当てられている。ところで、サウンド処理期間TS0,TS1,…における同時発音数は、動的に変化するので、それらの処理に要する時間も同時発音数に応じて変化する。このため、各サウンド期間TS0,TS1,…は一致するとは限らないが、各タイムスロットの開始直後からサウンド処理期間は始まるので、処理時間が不足するといった不都合は生じない。したがって、各タイムスロット毎に256サンプルの楽音データDs’が、サウンドバッファ11を構成するバッファ11a,11bに交互に書き込まれ、それらから読み出される。
【0033】
一方、グラフィック処理は、サウンド処理期間が終了した直後から開始し、当該タイムスロットが終了するまで継続する。この例にあっては、Tg0,Tg1,…がグラフィック処理期間として割り当てられている。すなわち、サウンド処理期間終了後の残りの時間で処理可能なだけグラフィック処理を実行する。このため、グラフィックバッファ10に書き込まれる映像データDg’のサンプル数は変動するが、3DG・WT音源共用エンジン6やエフェクト共用エンジン7の動作速度は、余裕をもって設定されているので、グラフィック処理が間に合わないといった事態は希である。また、仮にグラフィック処理が間に合わない場合には、前のフレームのデータを使用することにより、使用者に違和感を与えないようにしている。
【0034】
次に、3DG・WT音源共用エンジン6で行われる内部処理を説明する。図3は、3DG・WT音源共用エンジン6で行われるサウンド処理の内容を示す概念図である。まず、テクスチャ・サウンド共用メモリ5には図に示す原波形をサンプリングして得たウエーブテーブルデータDwが格納されているものとする。この場合、当該ウエーブテーブルデータDwはデータD1〜D9から構成されている。ここで、発音制御データDhの示すピッチが、ウエーブテーブルデータDwの1/2倍であったとすると、3DG・WT音源共用エンジン6は隣接するデータを用いて補間処理を行う。図に示す補間波形は、補間処理の結果を示すものである。例えば、データD2’は、D2’=(D2+D3)/2によって算出される。
ここで、同時発音数を3とすれば、図3の下段に示すように各々の音色に応じた補間波形が3つ得られる。この後、発音制御データDhの示す音量に応じた係数を各々乗算し、各乗算結果を加算することによって、楽音データDsが生成される。
【0035】
また、図4は、3DG・WT音源共用エンジン6で行われるグラフィック処理の内容を示す概念図である。図4の上段はテクスチャデータDtをビットマップ形式で示したのものであり、白丸は各ピクセルを表している。ここで、処理対象のポリゴンに対応する領域が三角形Gで示されるものであり、ポリゴンデータDpの指示する座標情報が三角形Gを横方向に拡大し、紙面方向に三角形Gを傾けること表しているとすれば、スクリーン上でのポリゴンは、例えば、図4の中段に示すものとなる。この場合、白丸のピクセルは元のテクスチャデータDtに存在した実データであり、黒丸のピクセルは補間処理によって生成されたものである。例えば、ピクセルP1’は、隣接するピクセルP1とピクセルP2から補間されたものである。ピクセルP1を示すデータをDp1、ピクセルP1’を示すデータをDp1’、ピクセルP2を示すデータをDp2とすれば、データDp1’は、Dp1’=(Dp1+Dp2)/2によって算出される。
【0036】
このようにして各ポリゴンに対応するデータが生成された後、透明度を付加するαブレンディング処理が行われる。例えば、3つのポリゴンを重ねて表示するような場合にあっては、図4の下段に示すように、各ポリゴンに対応するデータに、ポリゴンデータDpが指示する透明度に応じた係数を各々乗算し、乗算結果を加算することによって、映像データDgが生成される。
【0037】
以上、説明したように本実施形態によれば、グラフィック処理とサウンド処理の共通点に着目して、従来別系統で行われていた処理を1系統で行うようにしたので、PCIバスインターフェース3、3DG・サウンド共用バッファ4、テクスチャ・サウンド共用メモリ5、3DG・WT音源共用エンジン6、エフェクト共用エンジン7、およびワークRAM8を兼用することができる。この結果、構成を略半分に削減することができる。
【0038】
また、各タイムスロットの始めの部分でサウンド処理を行うようにしたので、楽音データDsを確実に生成することができる。この結果、処理時間が間に合わくなって不連続な楽音データDsを出力するといったことがないので、違和感がなく高品質の楽音信号を生成することが可能となる。しかも、サウンド処理が終了した後は、グラッフィク処理を当該タイムスロットが終了するまで可能な限り行うので、映像データDgの処理が間に合わないといったこともほとんどない。また、仮に処理が間に合わないとしても、映像データDgはフレーム間の相関性が極めて高いので、前のフレームで生成された映像データDgを使用できるので、画質劣化の少ない映像信号を出力することができる。
【0039】
なお、上述した実施形態にあっては、テクスチャデータDtとウエーブテーブルデータDwとをテクスチャ・サウンド共用メモリ5に格納したが、本発明はこれに限定されるものではなく、テクスチャデータDtを格納するメモリとウエーブテーブルデータDwを格納するメモリを別々に設けてもよい。
また、PCIバス3の代わりにAGPバスを用いてもよい。この場合には、テクスチャ・サウンド共用メモリ5をサウンド・ビデオ共用カード上に配置するだけでなく、システムのメインメモリ上にも配置して、テクスチャ・サウンド共用メモリ5の容量を削減することができる。
また、上述した3DG・WT音源共用エンジン6は、補間処理、間引処理および合成処理を行うものであったが、合成処理を行わないものであってもよい。
【0040】
【発明の効果】
上述したように本発明に係る発明特定事項によれば、グラフィック処理とサウンド処理とを1系統で行うようにしたので、データ処理装置の回路規模を大幅に削減することができる。
また、サウンド処理をグラッフィク処理に優先させるようにしたので、違和感がなく高品質の楽音データを生成することができ、装置全体として見たとき、バランスのとれたシステムにすることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係わるデータ処理装置のブロック図である。
【図2】同実施形態に係わるグラフィック処理とサウンド処理の時分割動作を示す概念図である。
【図3】同実施形態に係わる3DG・WT音源共用エンジンで行われるサウンド処理の内容を示す概念図である。
【図4】同実施形態に係わる3DG・WT音源共用エンジンで行われるグラフィック処理の内容を示す概念図である。
【図5】従来のパーソナルコンピュータにおけるグラフィック処理とサウンド処理に係わる部分のブロック図である。
【符号の説明】
5…テクスチャ・サウンド共用メモリ(記憶手段)、6…3DG・WT音源共用エンジン(処理手段)、11…サウンドバッファ(楽音バッファ)、12…グラッフィクバッファ(映像バッファ)、Dh…発音制御データ、Dw…ウエーブテーブルデータ(元波形データ)、Ds…楽音データ、Dp…ポリゴンデータ(画像制御データ)、Dt…テクスチャデータ(元映像データ)、Dg…映像データ。

Claims (6)

  1. 補間処理または間引処理を実行する機能を有する演算部を有し、
    楽音のピッチおよび元波形データを指示する情報を含む発音制御データに基づき、指示された元波形データの補間処理または間引処理を前記演算部に行わせ、指示されたピッチの楽音データを生成する楽音データ生成処理と、元映像データの種別情報およびスクリーン上における元映像データのマッピング対象領域を指示する情報を含む画像制御データに基づき、指示された元映像データの補間処理または間引き処理を前記演算部に行わせ、指示されたスクリーン上のマッピング対象領域にマッピングされた映像データを生成する映像データ生成処理とを時分割により行うことを特徴とするデータ処理装置。
  2. 前記演算部は合成処理を実行する機能をさらに有し、
    前記発音制御データは音量情報をさらに含み、
    前記画像制御データは透過度情報をさらに含み、
    前記楽音データ生成処理は、前記波形データの補間処理または間引処理により生成された複数の楽音データを前記発音制御データに含まれる情報により指示された音量情報に基づいて合成する合成処理を前記演算部に実行させる処理をさらに含み、
    前記映像データ生成処理は、前記元映像データの補間処理または間引処理により生成された複数の映像データを前記画像制御データの指示する透過度情報に応じて合成する合成処理を前記演算部に実行させる処理をさらに含むことを特徴とする請求項1に記載のデータ処理装置。
  3. 数の元波形データと数の元映像データとを記憶する記憶手段を備え、前記発音制御データによって指示された元波形データを前記記憶手段から読み出すと共に前記画像制御データによって指示された元映像データを前記記憶手段から読み出すことを特徴とする請求項1または2に記載のデータ処理装置。
  4. 前記演算部によって生成される楽音データにバッファリングを施して連続した前記楽音データを出力する楽音バッファと、
    前記演算部によって生成される映像データにバッファリングを施して連続した前記映像データを出力する映像バッファと
    を備えたことを特徴とする請求項1または2に記載のデータ処理装置。
  5. 分割されたタイムスロットの始まりから前記楽音データ生成処理を行い、この後、当該タイムスロットが終了するまでの残り時間を利用して前記映像データ生成処理を行うことを特徴とする請求項1ないし4のうちいずれか1項に記載のデータ処理装置。
  6. 補間処理または間引処理を実行する機能を有する演算部を備えたデータ処理装置におけるデータ処理方法において、
    楽音のピッチおよび元波形データを指示する情報を含む発音制御データに基づき、指示された元波形データの補間処理または間引処理を前記演算部に行わせ、指示されたピッチの楽音データを生成する楽音データ生成処理と、元映像データの種別情報およびスクリーン上における元映像データのマッピング対象領域を指示する情報を含む画像制御データに基づき、指示された元映像データの補間処理または間引き処理を前記演算部に行わせ、指示されたスクリーン上のマッピング対象領域にマッピングされた映像データを生成する映像データ生成処理とを時分割により行うことを特徴とするデータ処理方法。
JP34020197A 1997-12-10 1997-12-10 データ処理装置およびデータ処理方法 Expired - Fee Related JP3596263B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP34020197A JP3596263B2 (ja) 1997-12-10 1997-12-10 データ処理装置およびデータ処理方法
TW087119980A TW388841B (en) 1997-12-10 1998-12-02 Data processing apparatus and data processing method
US09/207,098 US6529191B1 (en) 1997-12-10 1998-12-07 Data processing apparatus and data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34020197A JP3596263B2 (ja) 1997-12-10 1997-12-10 データ処理装置およびデータ処理方法

Publications (2)

Publication Number Publication Date
JPH11175069A JPH11175069A (ja) 1999-07-02
JP3596263B2 true JP3596263B2 (ja) 2004-12-02

Family

ID=18334683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34020197A Expired - Fee Related JP3596263B2 (ja) 1997-12-10 1997-12-10 データ処理装置およびデータ処理方法

Country Status (3)

Country Link
US (1) US6529191B1 (ja)
JP (1) JP3596263B2 (ja)
TW (1) TW388841B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049363A (ja) * 2000-05-24 2002-02-15 Sharp Corp 画像表示システム
US7648416B2 (en) * 2001-02-08 2010-01-19 Sony Computer Entertainment Inc. Information expressing method
TWI252468B (en) * 2004-02-13 2006-04-01 Mediatek Inc Wavetable synthesis system with memory management according to data importance and method of the same
US8571237B2 (en) * 2009-07-02 2013-10-29 Amp'd PC Technologies, LLC Multi-zone audio amplification system for multimedia

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK0670555T3 (da) * 1992-09-28 2000-09-18 Olympus Optical Co Registreringsmedium med prikkode og informationsregistreringssystem
JP2765426B2 (ja) * 1992-10-30 1998-06-18 ヤマハ株式会社 効果付与装置および電子楽器
JP3625880B2 (ja) * 1994-12-02 2005-03-02 株式会社ソニー・コンピュータエンタテインメント 音源装置
EP0750290B1 (en) * 1995-06-19 2002-09-25 Yamaha Corporation Method and device for forming a tone waveform by combined use of different waveform sample forming resolutions
JP3384290B2 (ja) * 1997-07-25 2003-03-10 ヤマハ株式会社 音源装置
JP3637578B2 (ja) * 1997-10-21 2005-04-13 ヤマハ株式会社 楽音生成方法

Also Published As

Publication number Publication date
JPH11175069A (ja) 1999-07-02
TW388841B (en) 2000-05-01
US6529191B1 (en) 2003-03-04

Similar Documents

Publication Publication Date Title
US5915972A (en) Display apparatus for karaoke
JP3645024B2 (ja) 描画装置及び描画方法
JP2004005567A (ja) コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ
JP2003515766A (ja) ハンドヘルドlcd素子に高い色解像度を表示するための方法および装置
US6339430B1 (en) Video game machine and method for changing texture of models
JP3352982B2 (ja) レンダリング方法及び装置、ゲーム装置、並びに立体モデルをレンダリングするプログラムを格納するコンピュータ読み取り可能な記録媒体
JP3596263B2 (ja) データ処理装置およびデータ処理方法
JP2002117412A (ja) 画像処理システム、デバイス、方法及びコンピュータプログラム
JP3979162B2 (ja) 画像処理装置およびその方法
US6151035A (en) Method and system for generating graphic data
US6646650B2 (en) Image generating apparatus and image generating program
JP3548648B2 (ja) 描画装置及び描画方法
JP4637199B2 (ja) 画像処理装置、画像処理方法、ならびに、プログラム
JP3910259B2 (ja) 画像処理装置および方法、並びにレンダリング装置および方法
JP2000056750A (ja) 画像生成装置および画像生成方法
JP3971448B2 (ja) 描画装置及び描画方法
JPH06180569A (ja) 画像処理装置
JP2000149052A (ja) 画像処理装置及び記憶媒体
JP3701557B2 (ja) 画像表示制御方法及び装置、並びにコンピュータ読取可能な記録媒体
JP4635379B2 (ja) 画像処理装置
JP3330841B2 (ja) 三次元画像生成方法及びその装置
JP2003296748A (ja) 画像処理装置およびその方法
JP2007132961A (ja) マルチメディアプロセッサ及びサウンドプロセッサ
JP3358891B2 (ja) Z値の透視変換処理方法及び画像処理装置
JP3934111B2 (ja) 描画装置及び描画方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040830

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070917

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080917

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090917

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100917

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100917

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110917

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120917

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees