JP2008039958A - Sound source processing apparatus and method, and electronic equipment utilizing them - Google Patents
Sound source processing apparatus and method, and electronic equipment utilizing them Download PDFInfo
- Publication number
- JP2008039958A JP2008039958A JP2006211702A JP2006211702A JP2008039958A JP 2008039958 A JP2008039958 A JP 2008039958A JP 2006211702 A JP2006211702 A JP 2006211702A JP 2006211702 A JP2006211702 A JP 2006211702A JP 2008039958 A JP2008039958 A JP 2008039958A
- Authority
- JP
- Japan
- Prior art keywords
- effect
- processing unit
- audio signal
- waveform data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、MIDI(Musical Instrument Digital Interface)規格等により記述されたデータにもとづき、音声データを生成する音源処理技術に関する。 The present invention relates to a sound source processing technique for generating audio data based on data described by the MIDI (Musical Instrument Digital Interface) standard or the like.
あらかじめサンプリングされた音の波形データにもとづいて、さまざまな音声信号を生成する電子楽器を制御する方法として、MIDI規格による制御が知られている。MIDI規格では、ボイスとよばれる単位ごとに、ノートオン、ノートオフなどを指示するチャンネルメッセージが用意され、このチャンネルメッセージに従って、波形データを読み出し、MIDIデータの作成者の意図した音声を再現する。たとえば、特許文献1、2には、関連技術が記載されている。
こうしたMIDI音源を利用した音声再生が、近年、携帯電話端末などの電子機器においても行われている。携帯電話端末などでは、消費電力やスペース上の制約から、専用のMIDI音源などを用いた場合のように、高いクロック数を使用できず、また使用できる演算処理用のプロセッサの個数や処理能力も制限されてしまう。したがって、携帯電話端末上において、高音質な音源処理を行う場合、効率よく処理を行う必要がある。 In recent years, sound reproduction using such a MIDI sound source is also performed in electronic devices such as mobile phone terminals. In mobile phone terminals, etc., due to power consumption and space constraints, a high clock count cannot be used as in the case of using a dedicated MIDI sound source, and the number of processing processors and processing power that can be used are also low. It will be restricted. Therefore, when high-quality sound source processing is performed on a mobile phone terminal, it is necessary to perform the processing efficiently.
MIDIを利用した音声再生では、臨場感を高めたり、音楽の制作者の意図と近い楽曲再生を実現するために、再生すべき音声信号に、残響効果を付加するリバーブやコーラスなどのエフェクト処理や、周波数特性を変更するイコライザなどのエフェクト処理を施す場合がある。 In audio playback using MIDI, effects processing such as reverb or chorus that adds reverberation effect to the audio signal to be played, in order to enhance the sense of reality or to reproduce the music close to the intention of the music producer, In some cases, an effect process such as an equalizer for changing frequency characteristics is performed.
音色ごとに所望のエフェクト処理を施したい場合には、複数の音源を用意するとともに、エフェクト処理を施したい音色を出力する音源ごとに、エフェクト用の装置を用意する必要があった。しかしながら、携帯電話端末等に搭載される音源処理装置では、プロセッサの個数や動作速度が制約されることから、複数の音源を設けたり、複数のエフェクト用の装置を用意することは困難であった。かかる事情から、従来の携帯電話端末等に搭載される音源処理装置は、すべての音色に対してのみ、画一的にエフェクト処理を施しており、個別の音色に対してエフェクト処理を施すことはできなかった。 When it is desired to perform desired effect processing for each timbre, it is necessary to prepare a plurality of sound sources and to prepare an effect device for each sound source that outputs the timbre for which effect processing is desired. However, since the number of processors and the operation speed are limited in a sound source processing device mounted on a mobile phone terminal or the like, it is difficult to provide a plurality of sound sources or to prepare a plurality of effect devices. . For this reason, sound source processing devices installed in conventional mobile phone terminals and the like perform effect processing uniformly only for all timbres, and it is not possible to perform effect processing for individual timbres. could not.
本発明はこうした課題に鑑みてなされたものであり、その目的は、柔軟なエフェクト処理を施すことが可能な音源処理装置の提供にある。 The present invention has been made in view of such problems, and an object thereof is to provide a sound source processing apparatus capable of performing flexible effect processing.
本発明のある態様によれば、入力されたデータにもとづいて、再生すべき音声波形データを生成して出力する音源処理装置が提供される。この音源処理装置は、ボイス単位で表現されたデータを、順番に解析し、ボイス単位のパラメータデータとして出力する中央演算処理装置と、パラメータデータに応じてボイスごとの波形データを生成し、メインパスからすべてのボイスの波形データを順次出力し、エフェクト用パスから、所定のボイスの波形データを順次出力するデジタル信号処理装置と、メインパスおよびエフェクト用パスから出力される波形データを、それぞれ別個に合成し、メインオーディオ信号およびエフェクト用オーディオ信号として出力するミキサ処理部と、少なくともエフェクト用オーディオ信号に所定のエフェクト処理を施した後、メインオーディオ信号と合成し、再生すべき音声波形データとして出力するエフェクト処理部と、を備える。 According to an aspect of the present invention, a sound source processing device that generates and outputs audio waveform data to be reproduced based on input data is provided. This sound source processing device sequentially analyzes data expressed in units of voice and outputs it as parameter data in units of voice, generates waveform data for each voice according to the parameter data, The digital signal processor that sequentially outputs the waveform data of all voices from the effect path, and the waveform data output from the main path and the effect path separately from the digital signal processing apparatus that sequentially outputs the waveform data of the predetermined voice. A mixer processing unit that synthesizes and outputs the result as a main audio signal and an effect audio signal, and at least a predetermined effect process is performed on the effect audio signal, and then is synthesized with the main audio signal and output as audio waveform data to be reproduced. An effect processing unit.
この態様によると、すべてのボイスの波形データを合成したメインオーディオ信号に加えて、所定のエフェクト処理を施したいボイスの波形データだけを合成したエフェクトオーディオ信号を別途生成することにより、柔軟なエフェクト処理が可能となる。 According to this aspect, in addition to the main audio signal obtained by synthesizing the waveform data of all voices, an effect audio signal obtained by synthesizing only the waveform data of the voice to be subjected to predetermined effect processing is separately generated, thereby enabling flexible effect processing. Is possible.
エフェクト処理部は、メインオーディオ信号に対してエフェクト処理を施す第1信号処理部と、エフェクト用オーディオ信号に対してエフェクト処理を施す第2信号処理部と、を含んでもよい。 The effect processing unit may include a first signal processing unit that performs effect processing on the main audio signal and a second signal processing unit that performs effect processing on the effect audio signal.
第1信号処理部と、第2信号処理部は、所定の単位時間ごとのパイプライン処理を行ってもよい。さらに、ミキサ処理部と、第1信号処理部は、所定の単位時間ごとのパイプライン処理を行ってもよい。 The first signal processing unit and the second signal processing unit may perform pipeline processing every predetermined unit time. Furthermore, the mixer processing unit and the first signal processing unit may perform pipeline processing for each predetermined unit time.
このために、エフェクト処理部は、ミキサ処理部から出力されるメインオーディオ信号およびエフェクト用オーディオ信号を保持するメモリをさらに含んでもよい。第1信号処理部は、ある単位時間において、メモリからメインオーディオ信号を読み出し、所定のエフェクト処理を施した後、メモリに再度書き込み、第2信号処理部は、次の単位時間において、メモリからエフェクト用オーディオ信号を読み出し、所定のエフェクト処理を施した後、メインオーディオ信号と合成して出力してもよい。
2つの信号処理部を利用してパイプライン処理を行うことにより、処理効率を高めることができる。また、メモリを介してパイプライン処理を行うことにより、第1信号処理部と第2信号処理部の信号処理の独立性を高めることができる。
To this end, the effect processing unit may further include a memory that holds the main audio signal and the effect audio signal output from the mixer processing unit. The first signal processing unit reads the main audio signal from the memory in a certain unit time, performs a predetermined effect process, and then writes it back to the memory. The second signal processing unit reads the effect from the memory in the next unit time. The audio signal may be read out, subjected to predetermined effect processing, and then synthesized with the main audio signal and output.
By performing pipeline processing using two signal processing units, the processing efficiency can be increased. Moreover, the independence of the signal processing of the first signal processing unit and the second signal processing unit can be enhanced by performing pipeline processing via the memory.
第2信号処理部は、ある単位時間においてエフェクト用オーディオ信号に対して、所定のエフェクト処理を施した結果得られたオーディオ信号をメモリに再度書き込み、第1信号処理部は、次の単位時間において、第2信号処理部によって書き込まれたオーディオ信号をメモリから読み出し、このオーディオ信号に対しても所定のエフェクト処理を施してもよい。
この場合、エフェクト用オーディオ信号に対しても、第1信号処理部でのエフェクト処理が可能となる。
The second signal processing unit rewrites the audio signal obtained as a result of performing predetermined effect processing on the effect audio signal in a certain unit time into the memory, and the first signal processing unit performs the next unit time. The audio signal written by the second signal processing unit may be read from the memory, and a predetermined effect process may be performed on the audio signal.
In this case, the effect processing in the first signal processing unit can be performed on the effect audio signal.
第1信号処理部がメインオーディオ信号に対して、複数のエフェクト処理を施す際に、そのエフェクト処理に要する時間が、単位時間より長くなる場合に、第1信号処理部は、ある単位時間において、複数のエフェクト処理の一部をメインオーディオ信号に対して施し、第2信号処理部は、次の単位時間において、メモリからメインオーディオ信号を読み出し、複数のエフェクト処理の残りをメインオーディオ信号に施すとともに、このメインオーディオ信号に、エフェクト処理を施したエフェクト用オーディオ信号を合成してもよい。
この場合、音源処理装置に供給されるクロック信号の周波数が低下した場合などにおいて、第1信号処理部の処理の一部を第2信号処理部へと引き渡すことにより、パイプライン処理が破綻するのを防止することができる。
When the first signal processing unit performs a plurality of effect processing on the main audio signal, and the time required for the effect processing is longer than the unit time, the first signal processing unit A part of the plurality of effect processes is applied to the main audio signal, and the second signal processing unit reads the main audio signal from the memory in the next unit time, and applies the rest of the plurality of effect processes to the main audio signal. The effect audio signal subjected to the effect processing may be synthesized with the main audio signal.
In this case, when the frequency of the clock signal supplied to the sound source processing device is lowered, the pipeline processing breaks down by passing a part of the processing of the first signal processing unit to the second signal processing unit. Can be prevented.
メインパスは、ステレオの波形データを出力するステレオメインパスと、モノラルの波形データを出力するエフェクト用メインパスと、を含んでもよい。エフェクト処理部の第1信号処理部は、エフェクト用メインパスから出力される波形データを利用して、ステレオメインパスから出力される波形データに残響効果を付加してもよい。 The main path may include a stereo main path that outputs stereo waveform data and an effect main path that outputs monaural waveform data. The first signal processing unit of the effect processing unit may add a reverberation effect to the waveform data output from the stereo main path using the waveform data output from the effect main path.
デジタル信号処理装置は、中央演算処理装置からのパラメータデータによって指示されたボイスの波形データを、エフェクト用パスから出力してもよい。 The digital signal processing device may output the waveform data of the voice designated by the parameter data from the central processing unit from the effect path.
音源処理装置は、ひとつの半導体基板上に一体集積化されてもよい。「一体集積化」とは、回路の構成要素のすべてが半導体基板上に形成される場合や、回路の主要構成要素が一体集積化される場合が含まれ、回路定数の調節用に一部の抵抗やキャパシタなどが半導体基板の外部に設けられていてもよい。1つのLSIとして集積化することにより、回路面積を削減することができるとともに、回路素子の特性を均一に保つことができる。 The sound source processing device may be integrated on a single semiconductor substrate. “Integrated integration” includes the case where all of the circuit components are formed on a semiconductor substrate and the case where the main components of the circuit are integrated. A resistor, a capacitor, or the like may be provided outside the semiconductor substrate. By integrating as one LSI, the circuit area can be reduced and the characteristics of the circuit elements can be kept uniform.
本発明の別の態様は、電子機器である。この電子機器は、上述の音源処理装置と、この音源処理装置に対して、再生すべき音声波形を記述するデータを出力するホストプロセッサと、を備える。 Another embodiment of the present invention is an electronic device. The electronic apparatus includes the above-described sound source processing device and a host processor that outputs data describing a sound waveform to be reproduced to the sound source processing device.
本発明のさらに別の態様によれば、入力されたデータにもとづいて、再生すべき音声波形データを生成して出力する音源処理方法が提供される。この、音源処理方法は、ボイス単位で表現されたデータを、順番に解析し、ボイス単位のパラメータデータとして出力するステップと、パラメータデータに応じてボイスごとの波形データを生成するステップと、生成された波形データのうち、すべてのボイスの波形データを順次出力するステップと、生成された波形データのうち、所定のボイスの波形データを順次出力するステップと、所定のボイスの波形データに対して、所定のエフェクト処理を施すステップと、所定のエフェクト処理を施した波形データを、すべてのボイスの波形データと合成するステップと、を含む。 According to still another aspect of the present invention, a sound source processing method for generating and outputting audio waveform data to be reproduced based on input data is provided. This sound source processing method is generated by sequentially analyzing data expressed in units of voice and outputting the data as parameter data in units of voice, and generating waveform data for each voice according to the parameter data. Among the waveform data, the step of sequentially outputting the waveform data of all voices, the step of sequentially outputting the waveform data of the predetermined voice among the generated waveform data, and the waveform data of the predetermined voice, Performing a predetermined effect process; and synthesizing the waveform data subjected to the predetermined effect process with the waveform data of all voices.
この態様によると、すべてのボイスの波形データと、所定のエフェクト処理を施したいボイスの波形データと、を別々に生成することにより、柔軟なエフェクト処理が可能となる。 According to this aspect, by generating separately the waveform data of all the voices and the waveform data of the voices to be subjected to predetermined effect processing, flexible effect processing is possible.
本発明のさらに別の態様もまた、音源処理方法に関する。この方法は、再生すべき音声波形データを生成して出力する音源処理装置であって、再生すべき音声信号の特性を既述するデータを順次出力するステップと、データに対応する波形データを順次生成するステップと、波形データのすべてを合成し、メインオーディオ信号として出力するステップと、波形データのうち、所定の音色に対応する波形データを合成し、エフェクト用オーディオ信号として出力するステップと、エフェクト用オーディオ信号に所定のエフェクト処理を施すステップと、エフェクト処理が施されたエフェクト用オーディオ信号を、メインオーディオ信号と合成し、再生すべき音声波形データとして出力するステップと、を含む。 Still another embodiment of the present invention also relates to a sound source processing method. This method is a sound source processing apparatus that generates and outputs audio waveform data to be reproduced, and sequentially outputs data describing characteristics of an audio signal to be reproduced, and waveform data corresponding to the data sequentially. A step of generating, synthesizing all of the waveform data and outputting as a main audio signal, a step of synthesizing waveform data corresponding to a predetermined tone among the waveform data and outputting as an audio signal for an effect, and an effect Performing a predetermined effect process on the audio signal, and synthesizing the effect audio signal subjected to the effect process with the main audio signal and outputting the synthesized audio signal as audio waveform data to be reproduced.
なお、以上の構成要素の任意の組合せや、本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements, and those obtained by replacing constituent elements and expressions of the present invention with each other among methods, apparatuses, systems, etc. are also effective as an aspect of the present invention.
本発明のある態様の音源処理装置によれば、柔軟なエフェクト処理が可能となる。 According to the sound source processing device of an aspect of the present invention, flexible effect processing is possible.
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合せは、必ずしも発明の本質的なものであるとは限らない。 The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent components, members, and processes shown in the drawings are denoted by the same reference numerals, and repeated descriptions are omitted as appropriate. Further, the embodiments are illustrative rather than limiting the invention, and all features and combinations thereof described in the embodiments are not necessarily essential to the invention.
なお、図中、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。また、異なる処理を実行する機能ブロックは、かならずしも別の演算処理ユニットで構成されている必要はなく、同一の演算処理ユニットが、異なるタイミングで複数の機能を実行してもよい。 In the figure, each element described as a functional block for performing various processes can be configured with a CPU, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one. In addition, the functional blocks that execute different processes do not necessarily need to be configured by different arithmetic processing units, and the same arithmetic processing unit may execute a plurality of functions at different timings.
図1は、実施の形態に係る音源LSI100の構成を示すブロック図である。本実施の形態に係る音源LSI100は、MIDI(Musical Instrument Data Interface)音源を含み、外部から入力されるMIDIメッセージに応じた音声信号を生成し、外部へと出力する機能を有する。たとえば、音源LSI100は、携帯電話端末などの電子機器に搭載され、着信用メロディなどを演奏するために利用される。
FIG. 1 is a block diagram showing a configuration of a
まず、音源LSI100を含む周辺の回路とのデータの送受信について説明する。図2は、音源LSI100が搭載される電子機器200の構成を示すブロック図である。電子機器200は、携帯電話端末であり、操作部2、ホストプロセッサ4、メモリ5、LCDモニタ6、通信処理部8、音声出力部10、音源LSI100を含む。
First, data transmission / reception with peripheral circuits including the
操作部2は、ユーザが電話番号等を入力するためのボタンを含む。通信処理部8は、通信に必要な処理を実行する通信ユニットであって、具体的には外部の電話機やサーバからの着信を検出し、または外部の電話機またはサーバに対して発信する。なお、ここでいう着信は、電話の着呼だけでなく、ネットワーク経由のサーバからのパケット通信の着呼も含む。なお、発信についても同様である。
The
通信処理部8は、ネットワーク経由で着信メロディを外部サーバからダウンロードする。このとき、データ伝送量を軽減するべく、通信処理部8は、楽曲データが記述された楽曲ファイルをダウンロードする。楽曲データを記述した楽曲ファイルとしてはMIDIファイルが代表的であり、現在、事実上の業界標準となっているGM規格により構成されるものであってもよい。なお、他の規格で記述した楽曲ファイルであってもよく、いずれの場合であっても、楽曲の波形データをダウンロードする場合と比較して、データ量が少ないという利点がある。ダウンロードされた楽曲ファイルは、メモリ5に格納される。以下では、代表して、着信音データがMIDI規格により記述されている場合について説明する。なお、楽曲ファイルは、ネットワーク経由ではなく、その他の記憶媒体を介して、メモリ5に保存されてもよい。
The
ホストプロセッサ4は、電子機器200の処理全体を統括的に制御するユニットであり、たとえばベースバンドICに相当する。メモリ5は、ホストプロセッサ4とバスを介して接続されており、さまざまなデータが格納される。ホストプロセッサ4は、着信があった場合に、メモリ5に格納された楽曲ファイルを読み出し、MIDIメッセージを、音源LSI100に対して出力する。音源LSI100は、受信したMIDIメッセージにもとづき、音声の波形データを生成し、音声出力部10から出力する。音声出力部10は、入力された信号を増幅する増幅器や、スピーカやイヤホンを含んで構成される。
The
まず、実施の形態について詳細に説明する前に、いくつかの用語の定義、説明を行う。本実施の形態において、「ボイス」とは、たとえば、ひとつの音を表現するための単位をいう。また、チャンネルとは、しばしば楽器の演奏者にたとえられる概念であって、ひとつのチャンネルが一つの楽器を表現する。チャンネル数には上限があり、同時に発音可能な楽器の数は制約を受ける。「ボイス」は、アサイナ処理によって、音色毎に複数の「チャンネル」のいずれかに割り当てられる。たとえば、ある「ボイス」が、ピアノの音色を有するとき、アサイナ処理により、このボイスは、チャンネル1番に割り当てられ、「ボイス」がトランペットの音色を有するとき、このボイスは、チャンネル1番とは別の、たとえばチャンネル2番に割り当てられる。「パラメータデータ」は、音源処理装置の内部で使用されるデータであって、たとえば、後段の波形メモリにおいて、そのボイスにより指示された音色が、どのアドレスに記憶されているかを記述するデータを含む。
First, before describing the embodiments in detail, some terms are defined and explained. In this embodiment, “voice” refers to a unit for expressing one sound, for example. A channel is a concept often compared to a musical instrument player, and one channel represents one musical instrument. There is an upper limit to the number of channels, and the number of instruments that can be played simultaneously is limited. The “voice” is assigned to one of a plurality of “channels” for each tone color by assigner processing. For example, when a “voice” has a piano tone, the assigner process assigns this voice to
本実施の形態において、楽曲ファイルは、たとえば、SMF(Standard MIDI File)の形式で記述されている。SMFは、デルタタイムと呼ばれるイベント間の時間を指定するデータと、MIDIメッセージを含んだデータ(以下、メッセージデータMSと称す)を一つの単位としてボイスごとに構成される。「ボイス」は、ノートとも呼ばれ、ひとつの音を表現するための単位をいう。「ボイス」ごとに、音色、音程、強さ、長さ等を記述することにより、ある音を表現することができる。音源LSI100は、ホストプロセッサ4から順次入力されるMIDIメッセージを解析し、再生すべき音声信号を生成する。
In the present embodiment, the music file is described in, for example, an SMF (Standard MIDI File) format. The SMF is configured for each voice with data specifying a time between events called delta time and data including a MIDI message (hereinafter referred to as message data MS) as one unit. “Voice” is also called a note, and is a unit for expressing one sound. By describing tone color, pitch, strength, length, etc. for each “voice”, a certain sound can be expressed. The
図1に戻り、入力されたメッセージデータにもとづいて、再生すべき音声波形データを生成して出力する音源LSI100の構成について説明する。
音源LSI100は、インターフェース(以下、I/Fと略す)20、音源ブロック22、デジタルアナログ変換器(以下、DACと略す)24を含み、一つの半導体基板上に機能ICとして集積化されている。
I/F20は、図2のホストプロセッサ4と音源ブロック22の通信を制御するインターフェース回路であり、I/F20に、ホストプロセッサ4からのメッセージデータMSGが入力される。
音源ブロック22は、メッセージデータMSGを解析し、発音波形を生成する。たとえば、64音(ボイス)の同時発音が可能となっている。後述のように、音源ブロック22の内部のROM(Road Only Memory)には、PCM圧縮されたウェーブデータが格納されている。また、音源ブロック22はアサイナ機能、メッセージデータMSGの解析、変換制御および音源へのアクセスの時間管理を行い、所望のタイミングで演奏に必要なデータ設定を行う。
Returning to FIG. 1, the configuration of the
The
The I /
The
音源ブロック22は、CPU(中央演算処理装置)30、DSP(デジタル信号処理装置)32、エフェクト処理部34を含む。
CPU30は、ボイス単位で表現されたメッセージデータMSGを、順番に解析して、メッセージの種類、パラメータを特定し、アサイナ処理を行い、解析した結果得られた情報(以下、単にパラメータデータPRMという)を、DSP32へと出力する。
The
The
DSP32は、CPU30から出力されたパラメータデータPRMにもとづき、内部のROMからウェーブデータを読み出し、ピッチエンベロープ処理、フィルタエンベロープ処理、アンプエンベロープ処理を行ってボイスごとの波形データを生成する。「ピッチエンベロープ処理」、「フィルタエンベロープ処理」、「アンプエンベロープ処理」は、それぞれ、音のピッチ(音程)、フィルタのカットオフ周波数、音の強弱を、時間とともに変化させることにより、実際の楽器の音色に近づけるための処理をいう。さらに、DSP32は、最大64ボイスの音声信号を合成するミキシング処理を行い、後段のエフェクト処理部34に出力する。エフェクト処理部34は、コーラスやリバーブその他の音響効果を付加するブロックである。エフェクト処理部34から出力されたデータは、DAC24によってアナログ信号に変換され、音声出力部10に出力される。
The
本実施の形態に係る音源LSI100は、CPU30とDSP32という2つの信号処理ブロックを備えることを特徴としている。以下、この2つの信号処理ブロックにおけるデータ処理について詳細に説明する。
図3は、CPU30およびDSP32の詳細な構成を示すブロック図である。CPU30およびDSP32は、パラメータバンク36を介して接続される。
The
FIG. 3 is a block diagram showing a detailed configuration of the
ここで、音源LSI100における演算処理の単位について説明する。MIDIデータによって再生される波形データは、サンプリング時間Tsでサンプリングされている。音源LSI100は、このサンプリング時間Tsの間に、最大64ボイス分のデータを処理することになる。また、サンプリング時間TsをN倍(Nは整数であって、たとえば、128、256、512、1024など)した時間をフレーム時間Tfと呼ぶ。本実施の形態において、CPU30は、1フレームを処理の単位とし、メッセージデータMSGを解析して生成したパラメータデータPRMを、1フレームごとに、パラメータバンク36へと出力する。
Here, a unit of arithmetic processing in the
まず、CPU30とDSP32の間のデータの送受信について説明する。本実施の形態において、CPU30とDSP32は、フレーム単位のパイプライン処理を実行する。パラメータバンク36は、メモリ空間が第0バンクBANK0、第1バンクBANK1の2つの領域(バンク)に分割されたデュアルバンク構成のメモリであり、CPU30は、パラメータバンク36へのパラメータデータPRMの書き込みに際して、フレームごとに、第1バンクと第2バンクを切り換える。
First, data transmission / reception between the
DSP32は、CPU30により使用されるバンクと反対側のバンクに格納されたデータを読み出して処理する。すなわち、DSP32内部では、CPU30によって第0バンクBANK0が使用される期間においては、第1バンクBANK1に格納されたパラメータデータPRMを読み出し、CPU30によって第1バンクBANK0が使用される期間においては、第1バンクBANK1に格納されたパラメータデータPRMを読み出す。
The
図4は、CPU30およびDSP32によるフレーム処理のタイムチャートである。CPU30は、期間Tnに、第nフレームのデータを第0バンクBANK0に書き込み、次の期間Tn+1に、第(n+1)フレームのデータを、第1バンクBANK1に書き込み、次の期間Tn+2に、第(n+2)フレームのデータを第0バンクBANK0に順番に書き込んでいく。一方で、DSP32は、期間Tnにパラメータバンク40の第1バンクBANK1に格納された第(n−1)フレームのデータを、期間Tn+1に、第0バンクBANK0に格納された第nフレームのデータを、期間Tn+2に、第0バンクBANK0に格納された第(n+1)フレームのデータを、順に読み出していく。
FIG. 4 is a time chart of frame processing by the
このように、CPU30とDSP32の間に、メモリ空間が分割されたデュアルバンクのパラメータバンク36を配置し、書き込みと読み出しを、それぞれ反対のバンクを利用して交互に行うことにより、CPU30とDSP32間で、フレーム単位のパイプライン処理が実現される。このパイプライン処理により、CPU30とDSP32の独立性が高まり、効率的な処理が可能となり、各ブロック内の設計の自由度を高めることができる。
In this way, the dual
図3に戻り、DSP32の内部構成およびその機能について説明する。DSP32は、パラメータバンクインターフェース(以下、単にI/Fという)40、第1演算処理部42、ウェーブメモリ44、作業用メモリ46、第2演算処理部48、ミキサ処理部50、タイミングコントローラ52を備える。
Returning to FIG. 3, the internal configuration and function of the
I/F40は、フレームごとに、パラメータバンク36のアクセス先のバンクを切り換えて、データを読み出す。第1演算処理部42および第2演算処理部48は、パラメータバンク36に書き込まれたパラメータデータPRMを、サンプリング時間Tsごとに、ボイス単位で順次読み出してパイプライン処理を行う。以下、このパイプライン処理について説明する。なお、ボイス単位のパラメータをボイスパラメータVPと称す。
The I /
ウェーブメモリ44には、PCM(Pulse Code Modulation)により符号化されたさまざまな音色のウェーブデータが格納されている。第1演算処理部42は、パラメータバンク40から1ボイス分のパラメータVPを読み出し、読み出したデータに指定されたアドレスに格納された波形データを、ウェーブメモリ44から読み出す。さらに、第1演算処理部42は、読み出した波形データに対して、ピッチエンベロープ処理を施す。第1演算処理部42は、作業用メモリ46に、演算中のデータを一時的に格納するとともに、演算終了後のデータを格納する。第1演算処理部42は、1ボイス分のデータ処理を、所定の時間内(以下、ボイス時間Tvと呼ぶ)に完了する。第1演算処理部42は、ボイス時間ごとに、順次、ボイスパラメータを読み出し、パラメータに応じた演算処理を実行する。なお、ウェーブメモリ44は、ADPCM(Adaptive Differential PCM)により符号化されたデータが格納されていてもよい。
The
第1演算処理部42による演算処理の結果得られたデータは、作業用メモリ46内に、異なるアドレスに順に書き込まれていく。ここで、作業用メモリ46は、デュアルポートを有しており、第1ポートは、第1演算処理部42に接続され、第2ポートは第2演算処理部48に接続される。このような構成とすることにより、作業用メモリ46は、2つのブロックから同時にデータアクセスが可能となっている。第2演算処理部48は、パラメータバンク36から、ボイスパラメータVPを読み出すとともに、ひとつ前のボイス時間に、第1演算処理部42によって処理されたデータを作業用メモリ46から読み出す。第2演算処理部48は、作業用メモリ46から読み出したデータに対して、ボイスパラメータに応じて、フィルタエンベロープ処理、アンプエンベロープ処理を施し、後段のミキサ処理部50へと出力する。第2演算処理部48は、1ボイス分のデータ処理を、ボイス時間内に完了する。
Data obtained as a result of the arithmetic processing by the first
ミキサ処理部50は、第2演算処理部48から順に出力されるボイスデータを合成するミキシング処理を実行し、1サンプルすなわち64ボイス分の合成が終了すると、サンプリング時間Tsを単位として出力する。
The
図5は、DSP32内部におけるボイス単位のパイプライン処理のフローを示す図である。第1演算処理部42は、1ボイスづつ順に処理をしていく。第2演算処理部48は、第1演算処理部42よりも1ボイス時間遅れて、所定の処理を実行していく。ミキサ処理部50は、さらに1ボイス時間遅れて所定の処理を実行していく。第1演算処理部42、第2演算処理部48によるボイス単位のパイプライン処理は、タイミングコントローラ52により時間管理される。
FIG. 5 is a diagram showing a flow of pipeline processing for each voice in the
図6は、ボイス単位のパイプライン処理の際のDSP32によるメモリアクセスの様子を示す図である。期間Tv1では、第1演算処理部42は、パラメータバンク36のアドレスPe1を参照し、ボイスV1に関連するパラメータを読み出し、作業用メモリ46のアドレスW1を利用して演算処理を実行する。続く期間Tv2では、第1演算処理部42は、パラメータバンク36のアドレスPo2を参照し、ボイスV2に関連するパラメータを読み出し、作業用メモリ46のアドレスW2を利用して演算処理を実行する。
FIG. 6 is a diagram showing a state of memory access by the
一方、第2演算処理部48は、期間Tv2では、パラメータバンク36のアドレスPo2を参照し、ボイスV2に関連するパラメータを読み出す。この期間Tv2において、パラメータバンク36は、第1演算処理部42および第2演算処理部48からアクセスされることになる。ここで、パラメータバンク36のアドレスは、奇数(odd)と偶数(even)で区別されており、処理が続けて行われるボイス(たとえば、V1とV2)に関するデータは、奇数と偶数のアドレスが異なるように格納される。これは、第1演算処理部42と第2演算処理部48が、同じアドレスにアクセスするのを防止するためである。期間Tv2において、第2演算処理部48は、期間Tv1において第1演算処理部42により処理されたデータが格納される作業用メモリ46のアドレスW2を利用して、所定の処理を実行する。第2演算処理部48は、続く期間T3においては、次のボイスV2について同様の処理を実行する。
On the other hand, in the period Tv2, the second
このように、本実施の形態において、DSP32の内部では、ボイス単位のパイプライン処理を実行する。
本実施の形態では、1ボイス時間Tvで所定の処理が完了するように、第1演算処理部42と第2演算処理部48に処理内容を割り振っている。ウェーブデータがADPCMにより符号化がされている場合には、復号処理に多くの演算処理が必要とされるため、復号処理とアンプエンベロープ処理を第1演算処理部42に割り振り、残りの処理を第2演算処理部48に割り振るのが好ましい。もっとも、第1演算処理部42、第2演算処理部48による処理の割り当てはこれに限定されるものではなく、処理量やクロック数、バス幅などに応じて設定すればよい。
Thus, in the present embodiment, pipeline processing for each voice is executed inside the
In the present embodiment, processing contents are allocated to the first
また、本実施の形態に係る音源LSI100のDSP32には、第1演算処理部42および第2演算処理部48の両方から同時にアクセス可能なデュアルポートメモリが設けられている。その結果、1ボイスごとにメモリのアクセス領域を順に切り換えていくことにより、パイプライン処理を適切に行うことができる。これは、単にFIFOなどのバッファなどを設ける場合に比べて、確実な処理を提供するものである。
Further, the
次に、音源LSI100において、柔軟なエフェクト処理を実行するための構成について説明する。図7は、DSP32およびエフェクト処理部34の構成を示すブロック図である。DSP32については、第2演算処理部48の最終段に設けられた出力部49およびミキサ処理部50のみが示されている。出力部49からは、図3の第1演算処理部42、第2演算処理部48によって処理されたボイス単位の波形データが、順次出力される。
Next, a configuration for executing flexible effect processing in the
出力部49は、入力されたボイス単位の波形データを、複数のパスに分配して、後段のミキサ処理部50へと出力する。出力部49には複数のパスとして、メインパスPm_L、Pm_R、Pm_CRS、Pm_REVおよびエフェクト用パスPefxを備えている。出力部49は、入力された全てのボイスの波形データを、メインパスPm_L、Pm_R、Rm_CRS、Pm_REVから順次出力する。また、出力部49は、エフェクト用パスPefxから、所定のボイスの波形データを順次出力する。
The
図3の第2演算処理部48によって生成される波形データは、モノラル信号であり、ステレオ分配部51によって、LチャンネルとRチャンネルに信号が分配され、それぞれが、メインパスPm_L、Pm_Rから出力される。また、メインパスPm_CRS、Pm_REVからは、入力されたモノラル信号の波形データが、そのまま出力される。メインパスPm_CRS、Pm_REVから出力されるモノラル信号は、それぞれ、コーラスおよびリバーブといった残響音を付加するエフェクト処理に利用される。
The waveform data generated by the second
さらに、出力部49は、エフェクト用パスPefxから、所定のボイスの波形データのみを選択して、順次出力する。セレクタ54は、所定のボイスを選択するために設けられている。セレクタ54により選択すべきボイスは、図3のCPU30から出力されるパラメータデータPRMによって指定される。
Further, the
ミキサ処理部50は、出力部49の複数のパスから出力される1フレーム時間Tf分の波形データを、パスごとに別個に合成(ミキシング)し、エフェクト処理部34へと出力する。メインパスPm_L、Pm_R、Pm_CRS、Pm_REVから出力される波形データを合成した信号をそれぞれ、メインオーディオ信号Sm_L、Sm_R、Sm_CRS、Sm_REVといい、必要に応じてこれらの信号を、メインオーディオ信号Smと総称する。また、エフェクト用パスPefxから出力される波形データを合成した信号を、エフェクト用オーディオ信号Sefxという。
The
エフェクト処理部34は、少なくともエフェクト用オーディオ信号Sefxに所定のエフェクト処理を施した後、メインオーディオ信号Sm_L、Sm_Rと合成し、再生すべき音声波形データSoutとして出力する。
The
具体的には、エフェクト処理部34は以下の処理を行う。エフェクト処理部34は、メモリ60、第1信号処理部61、第2信号処理部62を含む。DSP32から出力されたオーディオ信号Sm_L、Sm_R、Sm_CRS、Sm_REVは、メモリ60に書き込まれる。このデータは、フレーム時間Tfごとに更新される。
Specifically, the
第1信号処理部61は、メインオーディオ信号Sm_L、Sm_Rに対してエフェクト処理を施す。第1信号処理部61によって施されるエフェクト処理は、たとえば、コーラスCRS、リバーブREVといった残響音を付加するエフェクト処理である。第1信号処理部61は、メインオーディオ信号Sm_CRSに、所定の係数を乗じ、所定の遅延時間を与えて、メインオーディオ信号Sm_L、Sm_Rと重畳することにより、コーラス効果を付加する。また、第1信号処理部61は、メインオーディオ信号Sm_REVに、所定の係数を乗じて、また所定の遅延時間を与えて、メインオーディオ信号Sm_L、Sm_Rと重畳することにより、リバーブ効果を付加する。
The first
さらに、第1信号処理部61は、イコライザ処理EQを行ってもよい。イコライザ処理EQは、オーディオ信号の所定の周波数成分を増幅、減衰させる処理であり、デジタルフィルタを利用して実行することができる。第1信号処理部61は、コーラスCRS、リバーブREV、イコライザ処理EQのうち、パラメータデータPRMによって指示された処理を、メインオーディオ信号Smに対して施す。複数の処理を施す場合、第1信号処理部61は、コーラスCRS、リバーブREV、イコライザEQを順に施すものとする。当然ながら、第1信号処理部61は、これらのエフェクト処理に加え、あるいは代えて、その他のエフェクト処理を施してもよい。
Further, the first
また、第2信号処理部62は、エフェクト用オーディオ信号Sefxに対して所定のエフェクト処理を施す。たとえば、第2信号処理部62は、オーバードライブOVDといった音声データを歪ませる処理等を行う。エフェクト用オーディオ信号Sefxは、所定のボイスについてのみ合成された信号であるから、第2信号処理部62は、所望のボイスを対象として、エフェクト処理を施すことができる。
Further, the second
図8は、エフェクト処理部34の詳細な構成を示すブロック図である。第1信号処理部61は、機能ブロックとして、加算部70、71、残響エフェクト処理部72を含む。図8では、第1信号処理部61の残響エフェクト処理部72が、コーラス処理CRSを施す場合を示している。
FIG. 8 is a block diagram showing a detailed configuration of the
第1信号処理部61は、あるフレーム時間Tfにおいて、メモリ60からメインオーディオ信号Sm_L、Sm_R、Sm_CRSおよび第2信号処理部62により生成されたコーラス処理用のオーディオ信号DSP2_CRSを読み出す。このオーディオ信号DSP2_CRSは、第2信号処理部62によってエフェクト処理が施された信号に対して、残響を与えるために用意されたデータである。
The first
第1信号処理部61の残響エフェクト処理部72には、オーディオ信号Sm_CRSおよびオーディオ信号DSP2_CRSが入力される。残響エフェクト処理部72は、これらの信号に対して、それぞれ、所定の係数αを乗じるとともに、遅延τを与え、LチャンネルおよびRチャンネルのステレオ信号として出力する。Lチャンネル加算部70は、メインオーディオ信号Sm_Lと残響エフェクト処理部72のLチャンネルの出力データを加算する。同様に、Rチャンネル加算部71は、メインオーディオ信号Sm_Rと残響エフェクト処理部72のRチャンネルの出力データを加算する。Lチャンネル加算部70、Rチャンネル加算部71から出力データは、データDSP1_L、DSP1_Rとして、メモリ60に書き込まれる。
The reverberation
第2信号処理部62は、エフェクト処理部80、ステレオ分配部81、Lチャンネル加算部82、Rチャンネル加算部83を含む。第2信号処理部62は、メモリ60から、エフェクト用オーディオ信号SefxならびにデータDSP1_L、DSP1_Rを読み出す。エフェクト処理部80は、エフェクト用オーディオ信号Sefxに対して、所定のエフェクト処理を施す。エフェクト処理部80の出力は、ステレオ分配部81によって、LチャンネルおよびRチャンネルのデータSefx_DSP2_L、Sefx_DSP2_Rとして出力される。
さらに、エフェクト処理部80の出力は、モノラルの状態で、残響効果を付加するために、上述のデータDSP2_CRSとしてメモリ60に書き込まれる。
The second
Further, the output of the
Lチャンネル加算部82は、第1信号処理部61の出力データDSP1_Lと、ステレオ分配部81のLチャンネルの出力データDSP2_Lを加算する。同様に、Rチャンネル加算部83は、第1信号処理部61の出力データDSP1_Rと、ステレオ分配部81のRチャンネルの出力データDSP2_Rを加算する。Lチャンネル加算部82、Rチャンネル加算部83の出力データが、エフェクト処理部34の最終的なステレオデータOUT_L、OUT_Rとして出力される。
The L
なお、図8には図示されないが、メモリ60には、ミキサ処理部50によってメインオーディオ信号Sm_REVが書き込まれる。さらに、エフェクト処理部80からはリバーブ処理用のオーディオ信号DSP2_REVが、オーディオ信号DSP2_CRSと同様にメモリ60に対して出力される。この場合、第1信号処理部61は、リバーブ処理を行う際に、オーディオ信号Sm_CRS、DSP2_CRSに換えて、オーディオ信号Sm_REV、DSP2_REVを読み出してリバーブ効果を付加すればよい。
Although not shown in FIG. 8, the main audio signal Sm_REV is written in the
図9は、図8のエフェクト処理部34における信号処理のタイムチャートである。本実施の形態において、第1信号処理部61と第2信号処理部62は、所定の単位時間ごとのパイプライン処理を実行する。この所定の単位時間は、メモリ60に書き込まれるデータが更新される時間、すなわちフレーム時間Tfに設定する。
FIG. 9 is a time chart of signal processing in the
フレーム時間Tf(n)において、ミキサ処理部50は、メインオーディオ信号Sm_L(n)、Sm_R(n)、Sm_CRS(n)、Sm_REV(n)およびエフェクト用オーディオ信号Sefx(n)を合成し、メモリ60に書き込んでいる。
また、フレーム時間Tf(n)において、第1信号処理部61は、オーディオ信号DSP1_L(n)、DSP1_R(n)を生成し、メモリ60に書き込んでいる。
さらに、このフレーム時間Tf(n)において、第2信号処理部62は、ひとつ前のフレーム時間Tf(n−1)のエフェクト用オーディオ信号Sefx(n−1)を利用して、オーディオ信号DSP2_L(n)、DSP2_R(n)およびオーディオ信号DSP2_CRS(n)、DSP2_REV(n)を生成し、メモリ60に書き込んでいる。
これらのデータの生成については既述した。
At the frame time Tf (n), the
At the frame time Tf (n), the first
Further, in the frame time Tf (n), the second
The generation of these data has already been described.
続くフレーム時間Tf(n+1)において、第1信号処理部61は、メインオーディオ信号Sm_L(n)、Sm_R(n)、Sm_CRS(n)、Sm_REV(n)を読み出す。第1信号処理部61は、フレーム時間Tf(n+1)の前半に、オーディオ信号Sm_CRS(n)を利用して、オーディオ信号Sm_L(n)、Sm_R(n)にコーラス効果CRSを付加する。続いて、フレーム時間Tf(n+1)の後半に、オーディオ信号Sm_REV(n)を利用して、オーディオ信号Sm_L(n)、Sm_R(n)にリバーブ効果REVを付加する。第1信号処理部61によって生成されたオーディオ信号DSP1_L(n+1)、DSP1_R(n+1)は、メモリ60に書き込まれる。
In the subsequent frame time Tf (n + 1), the first
一方、フレーム時間Tf(n+1)において、第2信号処理部62は、ひとつ前のフレーム時間Tf(n)の第1信号処理部61の出力であるオーディオ信号DSP1_L(n)、DSP1_R(n)と、ひとつ前のフレーム時間Tf(n)に生成されたエフェクト用オーディオ信号Sefx(n)と、ひとつ前のフレーム時間Tf(n)の第2信号処理部62の出力であるオーディオ信号DSP2_L(n)、DSP2_R(n)を読み出す。
On the other hand, at the frame time Tf (n + 1), the second
第2信号処理部62は、フレーム時間Tf(n+1)の前半(OUTPUT)において、オーディオ信号DSP1_L(n)およびDSP1_R(n)を、それぞれDSP2_L(n)およびDSP2_R(n)と加算し、最終出力であるオーディオ信号OUT_L(n)、OUT_R(n)として出力する。この処理は、図8のLチャンネル加算部82、Rチャンネル加算部83によって行われる。
The second
続いて、フレーム時間Tf(n+1)の後半において、第2信号処理部62は、信号Sefx(n)に所定のエフェクト処理を施し、ステレオ化することにより、信号DSP1_L(n+1)、DSP1_R(n+1)を生成する。さらにモノラルの信号DSP2_CRS(n+1)およびDSP2_REV(n+1)を、メモリ60に書き込む。この処理は、図8のエフェクト処理部80、ステレオ分配部81によって行われる。
Subsequently, in the second half of the frame time Tf (n + 1), the second
このように、第1信号処理部61、第2信号処理部62を利用し、パイプライン処理によってエフェクト処理を施すことにより、処理効率を高めることができる。また、メモリ60を介してパイプライン処理を行うことにより、第1信号処理部61と第2信号処理部62の信号処理の独立性を高めることができる。
In this way, by using the first
さらに言えば、第1信号処理部61はミキサ処理部50とパイプライン処理を行っている。したがって、ミキサ処理部50、第1信号処理部61、第2信号処理部62がフレーム時間Tfを単位としたパイプライン処理を行っている。その結果、さらに処理効率を高めることができる。
Furthermore, the first
また、本実施の形態では、第2信号処理部62において所定のエフェクト処理を施した信号を、コーラスおよびリバーブ用のモノラル信号であるオーディオ信号DSP2_CRS、DSP2_REVとしてメモリ60に書き戻し、これらの信号に対しても、第1信号処理部61においてエフェクト処理を施している。その結果、エフェクト用オーディオ信号Sefxに対しても、コーラス効果やリバーブ効果を付加することができる。
In the present embodiment, signals that have been subjected to predetermined effect processing in the second
また、第1信号処理部61がメインオーディオ信号Smに対して、複数のエフェクト処理を施す際に、そのエフェクト処理に要する時間が、単位時間であるフレーム時間Tfより長くなる場合、第1信号処理部61は、あるフレーム時間Tfにおいて、複数のエフェクト処理の一部をメインオーディオ信号Smに対して施し、第2信号処理部62は、次のフレーム時間において、メモリ60からメインオーディオ信号Smを読み出し、複数のエフェクト処理の残りをメインオーディオ信号Smに施すとともに、エフェクト処理部80によってエフェクト処理を施したオーディオ信号DSP2_L、Rにメインオーディオ信号Smを合成してもよい。
When the first
この場合、音源LSI100に供給されるクロック信号の周波数が低下した場合などにおいて、第1信号処理部61の処理の一部を第2信号処理部62へと引き渡すことにより、パイプライン処理が破綻するのを防止することができる。
In this case, when the frequency of the clock signal supplied to the
実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .
実施の形態では、音源LSI100は携帯電話端末に搭載される場合について説明したが、本発明の用途はこれに限定されるものではなく、MIDI音源専用装置などに使用することも当然に可能である。
In the embodiment, the case where the
また、実施の形態では、MIDI音源を例に説明したが、過去において存在し、あるいは将来にわたって開発されるであろう、これに変わる同等の音源についても、本発明は適用することができる。 In the embodiment, the MIDI sound source has been described as an example. However, the present invention can also be applied to equivalent sound sources that exist in the past or that will be developed in the future.
実施の形態にもとづき、本発明を説明したが、実施の形態は、本発明の原理、応用を示しているにすぎないことはいうまでもなく、実施の形態には、請求の範囲に規定された本発明の思想を離脱しない範囲において、多くの変形例や配置の変更が可能であることはいうまでもない。 Although the present invention has been described based on the embodiments, it should be understood that the embodiments merely illustrate the principles and applications of the present invention, and the embodiments are defined in the claims. Needless to say, many modifications and arrangements can be made without departing from the spirit of the present invention.
2・・・操作部、4・・・ホストプロセッサ、5・・・メモリ、6・・・LCDモニタ、8・・・通信処理部、10・・・音声出力部、22・・・音源ブロック、24・・・DAC、30・・・CPU、32・・・DSP、34・・・エフェクト処理部、36・・・パラメータバンク、42・・・第1演算処理部、44・・・ウェーブメモリ、46・・・作業用メモリ、48・・・第2演算処理部、49・・・出力部、50・・・ミキサ処理部、52・・・タイミングコントローラ、60・・・メモリ、61・・・第1信号処理部、62・・・第2信号処理部、70・・・Lチャンネル加算部、71・・・Rチャンネル加算部、72・・・残響エフェクト処理部、80・・・エフェクト処理部、81・・・ステレオ分配部、82・・・Lチャンネル加算部、83・・・Rチャンネル加算部、100・・・音源LSI、200・・・電子機器。
2 ... operation unit, 4 ... host processor, 5 ... memory, 6 ... LCD monitor, 8 ... communication processing unit, 10 ... audio output unit, 22 ... sound source block, 24 ... DAC, 30 ... CPU, 32 ... DSP, 34 ... effect processing unit, 36 ... parameter bank, 42 ... first arithmetic processing unit, 44 ... wave memory, 46 ... Working memory, 48 ... Second arithmetic processing unit, 49 ... Output unit, 50 ... Mixer processing unit, 52 ... Timing controller, 60 ... Memory, 61 ... First signal processing unit, 62 ... second signal processing unit, 70 ... L channel addition unit, 71 ... R channel addition unit, 72 ... reverberation effect processing unit, 80 ...
Claims (13)
ボイス単位で表現されたデータを、順番に解析し、ボイス単位のパラメータデータとして出力する中央演算処理装置と、
前記パラメータデータに応じてボイスごとの波形データを生成し、メインパスからすべてのボイスの波形データを順次出力し、エフェクト用パスから、所定のボイスの波形データを順次出力するデジタル信号処理装置と、
前記メインパスおよび前記エフェクト用パスから出力される波形データを、それぞれ別個に合成し、メインオーディオ信号およびエフェクト用オーディオ信号として出力するミキサ処理部と、
少なくとも前記エフェクト用オーディオ信号に所定のエフェクト処理を施した後、前記メインオーディオ信号と合成し、再生すべき音声波形データとして出力するエフェクト処理部と、
を備えることを特徴とする音源処理装置。 A sound source processing device that generates and outputs audio waveform data to be reproduced based on input data,
A central processing unit that analyzes data expressed in voice units in order and outputs the data as parameter data in voice units;
A digital signal processing device that generates waveform data for each voice according to the parameter data, sequentially outputs waveform data of all voices from the main path, and sequentially outputs waveform data of predetermined voices from the effect path;
Waveform data output from the main path and the effect path are separately combined, and a mixer processing unit that outputs the main audio signal and the effect audio signal;
An effect processing unit for performing at least predetermined effect processing on the audio signal for effect, then synthesizing with the main audio signal and outputting as audio waveform data to be reproduced;
A sound source processing apparatus comprising:
前記第1信号処理部は、ある単位時間において、前記メモリから前記メインオーディオ信号を読み出し、所定のエフェクト処理を施した後、前記メモリに再度書き込み、
前記第2信号処理部は、次の単位時間において、前記メモリから前記エフェクト用オーディオ信号を読み出し、所定のエフェクト処理を施した後、前記メインオーディオ信号と合成して出力することを特徴とする請求項3に記載の音源処理装置。 The effect processing unit further includes a memory that holds the main audio signal and the effect audio signal output from the mixer processing unit,
The first signal processing unit reads the main audio signal from the memory in a certain unit time, performs a predetermined effect processing, and then writes the memory again.
The second signal processing unit reads out the effect audio signal from the memory in a next unit time, performs predetermined effect processing, and then synthesizes and outputs the synthesized signal with the main audio signal. Item 4. The sound source processing device according to item 3.
前記第1信号処理部は、次の単位時間において、前記メモリから、前記第2信号処理部によって書き込まれた前記オーディオ信号を読み出し、このオーディオ信号に対しても所定のエフェクト処理を施すことを特徴とする請求項5に記載の音源処理装置。 The second signal processing unit rewrites the audio signal obtained as a result of performing the predetermined effect processing on the effect audio signal in a certain unit time in the memory again.
The first signal processing unit reads the audio signal written by the second signal processing unit from the memory in the next unit time, and performs predetermined effect processing also on the audio signal. The sound source processing device according to claim 5.
ステレオの波形データを出力するステレオメインパスと、
モノラルの波形データを出力するエフェクト用メインパスと、
を含み、
前記エフェクト処理部の前記第1信号処理部は、前記エフェクト用メインパスから出力される波形データを利用して、前記ステレオメインパスから出力される波形データに残響効果を付加することを特徴とする請求項2に記載の音源処理装置。 The main path is
Stereo main path that outputs stereo waveform data;
A main path for effects that outputs monaural waveform data,
Including
The first signal processing unit of the effect processing unit adds a reverberation effect to the waveform data output from the stereo main path using the waveform data output from the effect main path. The sound source processing device according to claim 2.
前記第1信号処理部は、ある単位時間において、複数のエフェクト処理の一部を前記メインオーディオ信号に対して施し、
前記第2信号処理部は、次の単位時間において、前記メモリから前記メインオーディオ信号を読み出し、前記複数のエフェクト処理の残りを前記メインオーディオ信号に施すとともに、このメインオーディオ信号に、エフェクト処理を施した前記エフェクト用オーディオ信号を合成することを特徴とする請求項5に記載の音源処理装置。 When the first signal processing unit performs a plurality of effect processing on the main audio signal, when the time required for the effect processing is longer than the unit time,
The first signal processing unit performs a part of a plurality of effect processes on the main audio signal in a certain unit time,
The second signal processing unit reads the main audio signal from the memory in the next unit time, applies the rest of the plurality of effect processing to the main audio signal, and applies effect processing to the main audio signal. 6. The sound source processing apparatus according to claim 5, wherein the effect audio signal is synthesized.
前記音源処理装置に対して、再生すべき音声波形を記述するデータを出力するホストプロセッサと、
を備えることを特徴とする電子機器。 A sound source processing device according to any one of claims 1 to 8,
A host processor for outputting data describing a sound waveform to be reproduced to the sound source processing device;
An electronic device comprising:
ボイス単位で表現されたデータを、順番に解析し、ボイス単位のパラメータデータとして出力するステップと、
前記パラメータデータに応じてボイスごとの波形データを生成するステップと、
生成された波形データのうち、すべてのボイスの波形データを順次出力するステップと、
生成された波形データのうち、所定のボイスの波形データを順次出力するステップと、
前記所定のボイスの波形データに対して、所定のエフェクト処理を施すステップと、
前記所定のエフェクト処理を施した波形データを、前記すべてのボイスの波形データと合成するステップと、
を含むことを特徴とする音源処理方法。 A sound source processing method for generating and outputting audio waveform data to be reproduced based on input data,
Analyzing the data expressed in voice units in order and outputting as parameter data in voice units;
Generating waveform data for each voice according to the parameter data;
A step of sequentially outputting waveform data of all voices of the generated waveform data;
A step of sequentially outputting waveform data of a predetermined voice among the generated waveform data;
Applying predetermined effect processing to the waveform data of the predetermined voice;
Synthesizing the waveform data subjected to the predetermined effect processing with the waveform data of all the voices;
A sound source processing method comprising:
前記データに対応する波形データを順次生成するステップと、
前記波形データのすべてを合成し、メインオーディオ信号として出力するステップと、
前記波形データのうち、所定の音色に対応する波形データを合成し、エフェクト用オーディオ信号として出力するステップと、
前記エフェクト用オーディオ信号に所定のエフェクト処理を施すステップと、
エフェクト処理が施された前記エフェクト用オーディオ信号を、前記メインオーディオ信号と合成し、再生すべき音声波形データとして出力するステップと、
を含むことを特徴とする音源処理方法。 Sequentially outputting data describing the characteristics of the audio signal to be reproduced;
Sequentially generating waveform data corresponding to the data;
Synthesizing all of the waveform data and outputting as a main audio signal;
Synthesizing waveform data corresponding to a predetermined tone among the waveform data, and outputting as an effect audio signal;
Applying predetermined effect processing to the audio signal for effects;
Synthesizing the effect audio signal subjected to the effect processing with the main audio signal, and outputting it as audio waveform data to be reproduced;
A sound source processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006211702A JP2008039958A (en) | 2006-08-03 | 2006-08-03 | Sound source processing apparatus and method, and electronic equipment utilizing them |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006211702A JP2008039958A (en) | 2006-08-03 | 2006-08-03 | Sound source processing apparatus and method, and electronic equipment utilizing them |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008039958A true JP2008039958A (en) | 2008-02-21 |
Family
ID=39175065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006211702A Pending JP2008039958A (en) | 2006-08-03 | 2006-08-03 | Sound source processing apparatus and method, and electronic equipment utilizing them |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008039958A (en) |
-
2006
- 2006-08-03 JP JP2006211702A patent/JP2008039958A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7069058B2 (en) | Musical composition reproducing apparatus portable terminal musical composition reproducing method and storage medium | |
US20040159219A1 (en) | Method and apparatus for combining processing power of MIDI-enabled mobile stations to increase polyphony | |
JPH0816169A (en) | Sound formation, sound formation device and sound formation controller | |
JP2007534214A (en) | Method, apparatus, and system for synthesizing audio performance using convolution at various sample rates | |
US6259792B1 (en) | Waveform playback device for active noise cancellation | |
KR100717324B1 (en) | A Karaoke system using the portable digital music player | |
KR100901555B1 (en) | Sound generation assignment device, music sound generator and a computer readable recording medium recording sound generation assignment process program | |
JP4591391B2 (en) | Audio data reproducing device and portable terminal device | |
JP2008039958A (en) | Sound source processing apparatus and method, and electronic equipment utilizing them | |
JP2008009031A (en) | Sound source processing apparatus and method, and electronic equipment using the same | |
KR20050057040A (en) | Sound synthesiser | |
KR100509126B1 (en) | Audio melody tune generation device and portable terminal device using it | |
JP2008009033A (en) | Sound source processing apparatus, and method, sound processing apparatus, and electronic equipment using the same | |
JP2008009032A (en) | Sound source processing apparatus, and method, and electronic equipment using the same | |
JP2004094163A (en) | Network sound system and sound server | |
KR20050087368A (en) | Transaction apparatus of bell sound for wireless terminal | |
KR20020060977A (en) | Sound source circuit and telephone terminal comprising thereof | |
JP4939753B2 (en) | Sound synthesizer | |
JP3991475B2 (en) | Audio data processing apparatus and computer system | |
JP4306944B2 (en) | Music playback device | |
KR100650938B1 (en) | A noraebang system on digital audio devices and controlling method thereof | |
KR20060012489A (en) | Sound effect device for mobile station | |
JP2023098384A (en) | Loudspeaker system and control method for the same | |
CN115938339A (en) | Audio data processing method and system | |
KR20080080013A (en) | Mobile terminal apparatus |