JP2008039958A - Sound source processing apparatus and method, and electronic equipment utilizing them - Google Patents

Sound source processing apparatus and method, and electronic equipment utilizing them Download PDF

Info

Publication number
JP2008039958A
JP2008039958A JP2006211702A JP2006211702A JP2008039958A JP 2008039958 A JP2008039958 A JP 2008039958A JP 2006211702 A JP2006211702 A JP 2006211702A JP 2006211702 A JP2006211702 A JP 2006211702A JP 2008039958 A JP2008039958 A JP 2008039958A
Authority
JP
Japan
Prior art keywords
effect
processing unit
audio signal
waveform data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006211702A
Other languages
Japanese (ja)
Inventor
Takayoshi Hoshi
孝芳 星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Priority to JP2006211702A priority Critical patent/JP2008039958A/en
Publication of JP2008039958A publication Critical patent/JP2008039958A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound source processing apparatus capable of attaining flexible effect processing. <P>SOLUTION: A sound source LSI generates a voice waveform data to be reproduced, on the basis of an input data. A DSP 32 generates a waveform data for each voice according to a parameter data. An output section 49 sequentially outputs the waveform data of all voices from a main path Pm, and sequentially outputs the waveform data of predetermined voice from a path Pefx for effects. A mixer processing section 50 separately combines the waveform data which are output from the main path Pm and the path Pefx for effects, and outputs them as a main audio signal Sm and an audio signal Sefx for effects. An effect processing section 34 applies a predetermined effect processing at least on the audio signal Sefx for effects, and thereafter, combines it with the main audio signal Sm, and outputs the composite signal as the voice waveform data to be reproduced. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、MIDI(Musical Instrument Digital Interface)規格等により記述されたデータにもとづき、音声データを生成する音源処理技術に関する。   The present invention relates to a sound source processing technique for generating audio data based on data described by the MIDI (Musical Instrument Digital Interface) standard or the like.

あらかじめサンプリングされた音の波形データにもとづいて、さまざまな音声信号を生成する電子楽器を制御する方法として、MIDI規格による制御が知られている。MIDI規格では、ボイスとよばれる単位ごとに、ノートオン、ノートオフなどを指示するチャンネルメッセージが用意され、このチャンネルメッセージに従って、波形データを読み出し、MIDIデータの作成者の意図した音声を再現する。たとえば、特許文献1、2には、関連技術が記載されている。
特開2001−265352号公報 特開平9−237090号公報
As a method for controlling an electronic musical instrument that generates various audio signals based on pre-sampled sound waveform data, control based on the MIDI standard is known. In the MIDI standard, a channel message for instructing note-on, note-off, etc. is prepared for each unit called voice, and waveform data is read according to this channel message to reproduce the sound intended by the creator of the MIDI data. For example, Patent Documents 1 and 2 describe related technologies.
JP 2001-265352 A Japanese Patent Laid-Open No. 9-237090

こうしたMIDI音源を利用した音声再生が、近年、携帯電話端末などの電子機器においても行われている。携帯電話端末などでは、消費電力やスペース上の制約から、専用のMIDI音源などを用いた場合のように、高いクロック数を使用できず、また使用できる演算処理用のプロセッサの個数や処理能力も制限されてしまう。したがって、携帯電話端末上において、高音質な音源処理を行う場合、効率よく処理を行う必要がある。   In recent years, sound reproduction using such a MIDI sound source is also performed in electronic devices such as mobile phone terminals. In mobile phone terminals, etc., due to power consumption and space constraints, a high clock count cannot be used as in the case of using a dedicated MIDI sound source, and the number of processing processors and processing power that can be used are also low. It will be restricted. Therefore, when high-quality sound source processing is performed on a mobile phone terminal, it is necessary to perform the processing efficiently.

MIDIを利用した音声再生では、臨場感を高めたり、音楽の制作者の意図と近い楽曲再生を実現するために、再生すべき音声信号に、残響効果を付加するリバーブやコーラスなどのエフェクト処理や、周波数特性を変更するイコライザなどのエフェクト処理を施す場合がある。   In audio playback using MIDI, effects processing such as reverb or chorus that adds reverberation effect to the audio signal to be played, in order to enhance the sense of reality or to reproduce the music close to the intention of the music producer, In some cases, an effect process such as an equalizer for changing frequency characteristics is performed.

音色ごとに所望のエフェクト処理を施したい場合には、複数の音源を用意するとともに、エフェクト処理を施したい音色を出力する音源ごとに、エフェクト用の装置を用意する必要があった。しかしながら、携帯電話端末等に搭載される音源処理装置では、プロセッサの個数や動作速度が制約されることから、複数の音源を設けたり、複数のエフェクト用の装置を用意することは困難であった。かかる事情から、従来の携帯電話端末等に搭載される音源処理装置は、すべての音色に対してのみ、画一的にエフェクト処理を施しており、個別の音色に対してエフェクト処理を施すことはできなかった。   When it is desired to perform desired effect processing for each timbre, it is necessary to prepare a plurality of sound sources and to prepare an effect device for each sound source that outputs the timbre for which effect processing is desired. However, since the number of processors and the operation speed are limited in a sound source processing device mounted on a mobile phone terminal or the like, it is difficult to provide a plurality of sound sources or to prepare a plurality of effect devices. . For this reason, sound source processing devices installed in conventional mobile phone terminals and the like perform effect processing uniformly only for all timbres, and it is not possible to perform effect processing for individual timbres. could not.

本発明はこうした課題に鑑みてなされたものであり、その目的は、柔軟なエフェクト処理を施すことが可能な音源処理装置の提供にある。   The present invention has been made in view of such problems, and an object thereof is to provide a sound source processing apparatus capable of performing flexible effect processing.

本発明のある態様によれば、入力されたデータにもとづいて、再生すべき音声波形データを生成して出力する音源処理装置が提供される。この音源処理装置は、ボイス単位で表現されたデータを、順番に解析し、ボイス単位のパラメータデータとして出力する中央演算処理装置と、パラメータデータに応じてボイスごとの波形データを生成し、メインパスからすべてのボイスの波形データを順次出力し、エフェクト用パスから、所定のボイスの波形データを順次出力するデジタル信号処理装置と、メインパスおよびエフェクト用パスから出力される波形データを、それぞれ別個に合成し、メインオーディオ信号およびエフェクト用オーディオ信号として出力するミキサ処理部と、少なくともエフェクト用オーディオ信号に所定のエフェクト処理を施した後、メインオーディオ信号と合成し、再生すべき音声波形データとして出力するエフェクト処理部と、を備える。   According to an aspect of the present invention, a sound source processing device that generates and outputs audio waveform data to be reproduced based on input data is provided. This sound source processing device sequentially analyzes data expressed in units of voice and outputs it as parameter data in units of voice, generates waveform data for each voice according to the parameter data, The digital signal processor that sequentially outputs the waveform data of all voices from the effect path, and the waveform data output from the main path and the effect path separately from the digital signal processing apparatus that sequentially outputs the waveform data of the predetermined voice. A mixer processing unit that synthesizes and outputs the result as a main audio signal and an effect audio signal, and at least a predetermined effect process is performed on the effect audio signal, and then is synthesized with the main audio signal and output as audio waveform data to be reproduced. An effect processing unit.

この態様によると、すべてのボイスの波形データを合成したメインオーディオ信号に加えて、所定のエフェクト処理を施したいボイスの波形データだけを合成したエフェクトオーディオ信号を別途生成することにより、柔軟なエフェクト処理が可能となる。   According to this aspect, in addition to the main audio signal obtained by synthesizing the waveform data of all voices, an effect audio signal obtained by synthesizing only the waveform data of the voice to be subjected to predetermined effect processing is separately generated, thereby enabling flexible effect processing. Is possible.

エフェクト処理部は、メインオーディオ信号に対してエフェクト処理を施す第1信号処理部と、エフェクト用オーディオ信号に対してエフェクト処理を施す第2信号処理部と、を含んでもよい。   The effect processing unit may include a first signal processing unit that performs effect processing on the main audio signal and a second signal processing unit that performs effect processing on the effect audio signal.

第1信号処理部と、第2信号処理部は、所定の単位時間ごとのパイプライン処理を行ってもよい。さらに、ミキサ処理部と、第1信号処理部は、所定の単位時間ごとのパイプライン処理を行ってもよい。   The first signal processing unit and the second signal processing unit may perform pipeline processing every predetermined unit time. Furthermore, the mixer processing unit and the first signal processing unit may perform pipeline processing for each predetermined unit time.

このために、エフェクト処理部は、ミキサ処理部から出力されるメインオーディオ信号およびエフェクト用オーディオ信号を保持するメモリをさらに含んでもよい。第1信号処理部は、ある単位時間において、メモリからメインオーディオ信号を読み出し、所定のエフェクト処理を施した後、メモリに再度書き込み、第2信号処理部は、次の単位時間において、メモリからエフェクト用オーディオ信号を読み出し、所定のエフェクト処理を施した後、メインオーディオ信号と合成して出力してもよい。
2つの信号処理部を利用してパイプライン処理を行うことにより、処理効率を高めることができる。また、メモリを介してパイプライン処理を行うことにより、第1信号処理部と第2信号処理部の信号処理の独立性を高めることができる。
To this end, the effect processing unit may further include a memory that holds the main audio signal and the effect audio signal output from the mixer processing unit. The first signal processing unit reads the main audio signal from the memory in a certain unit time, performs a predetermined effect process, and then writes it back to the memory. The second signal processing unit reads the effect from the memory in the next unit time. The audio signal may be read out, subjected to predetermined effect processing, and then synthesized with the main audio signal and output.
By performing pipeline processing using two signal processing units, the processing efficiency can be increased. Moreover, the independence of the signal processing of the first signal processing unit and the second signal processing unit can be enhanced by performing pipeline processing via the memory.

第2信号処理部は、ある単位時間においてエフェクト用オーディオ信号に対して、所定のエフェクト処理を施した結果得られたオーディオ信号をメモリに再度書き込み、第1信号処理部は、次の単位時間において、第2信号処理部によって書き込まれたオーディオ信号をメモリから読み出し、このオーディオ信号に対しても所定のエフェクト処理を施してもよい。
この場合、エフェクト用オーディオ信号に対しても、第1信号処理部でのエフェクト処理が可能となる。
The second signal processing unit rewrites the audio signal obtained as a result of performing predetermined effect processing on the effect audio signal in a certain unit time into the memory, and the first signal processing unit performs the next unit time. The audio signal written by the second signal processing unit may be read from the memory, and a predetermined effect process may be performed on the audio signal.
In this case, the effect processing in the first signal processing unit can be performed on the effect audio signal.

第1信号処理部がメインオーディオ信号に対して、複数のエフェクト処理を施す際に、そのエフェクト処理に要する時間が、単位時間より長くなる場合に、第1信号処理部は、ある単位時間において、複数のエフェクト処理の一部をメインオーディオ信号に対して施し、第2信号処理部は、次の単位時間において、メモリからメインオーディオ信号を読み出し、複数のエフェクト処理の残りをメインオーディオ信号に施すとともに、このメインオーディオ信号に、エフェクト処理を施したエフェクト用オーディオ信号を合成してもよい。
この場合、音源処理装置に供給されるクロック信号の周波数が低下した場合などにおいて、第1信号処理部の処理の一部を第2信号処理部へと引き渡すことにより、パイプライン処理が破綻するのを防止することができる。
When the first signal processing unit performs a plurality of effect processing on the main audio signal, and the time required for the effect processing is longer than the unit time, the first signal processing unit A part of the plurality of effect processes is applied to the main audio signal, and the second signal processing unit reads the main audio signal from the memory in the next unit time, and applies the rest of the plurality of effect processes to the main audio signal. The effect audio signal subjected to the effect processing may be synthesized with the main audio signal.
In this case, when the frequency of the clock signal supplied to the sound source processing device is lowered, the pipeline processing breaks down by passing a part of the processing of the first signal processing unit to the second signal processing unit. Can be prevented.

メインパスは、ステレオの波形データを出力するステレオメインパスと、モノラルの波形データを出力するエフェクト用メインパスと、を含んでもよい。エフェクト処理部の第1信号処理部は、エフェクト用メインパスから出力される波形データを利用して、ステレオメインパスから出力される波形データに残響効果を付加してもよい。   The main path may include a stereo main path that outputs stereo waveform data and an effect main path that outputs monaural waveform data. The first signal processing unit of the effect processing unit may add a reverberation effect to the waveform data output from the stereo main path using the waveform data output from the effect main path.

デジタル信号処理装置は、中央演算処理装置からのパラメータデータによって指示されたボイスの波形データを、エフェクト用パスから出力してもよい。   The digital signal processing device may output the waveform data of the voice designated by the parameter data from the central processing unit from the effect path.

音源処理装置は、ひとつの半導体基板上に一体集積化されてもよい。「一体集積化」とは、回路の構成要素のすべてが半導体基板上に形成される場合や、回路の主要構成要素が一体集積化される場合が含まれ、回路定数の調節用に一部の抵抗やキャパシタなどが半導体基板の外部に設けられていてもよい。1つのLSIとして集積化することにより、回路面積を削減することができるとともに、回路素子の特性を均一に保つことができる。   The sound source processing device may be integrated on a single semiconductor substrate. “Integrated integration” includes the case where all of the circuit components are formed on a semiconductor substrate and the case where the main components of the circuit are integrated. A resistor, a capacitor, or the like may be provided outside the semiconductor substrate. By integrating as one LSI, the circuit area can be reduced and the characteristics of the circuit elements can be kept uniform.

本発明の別の態様は、電子機器である。この電子機器は、上述の音源処理装置と、この音源処理装置に対して、再生すべき音声波形を記述するデータを出力するホストプロセッサと、を備える。   Another embodiment of the present invention is an electronic device. The electronic apparatus includes the above-described sound source processing device and a host processor that outputs data describing a sound waveform to be reproduced to the sound source processing device.

本発明のさらに別の態様によれば、入力されたデータにもとづいて、再生すべき音声波形データを生成して出力する音源処理方法が提供される。この、音源処理方法は、ボイス単位で表現されたデータを、順番に解析し、ボイス単位のパラメータデータとして出力するステップと、パラメータデータに応じてボイスごとの波形データを生成するステップと、生成された波形データのうち、すべてのボイスの波形データを順次出力するステップと、生成された波形データのうち、所定のボイスの波形データを順次出力するステップと、所定のボイスの波形データに対して、所定のエフェクト処理を施すステップと、所定のエフェクト処理を施した波形データを、すべてのボイスの波形データと合成するステップと、を含む。   According to still another aspect of the present invention, a sound source processing method for generating and outputting audio waveform data to be reproduced based on input data is provided. This sound source processing method is generated by sequentially analyzing data expressed in units of voice and outputting the data as parameter data in units of voice, and generating waveform data for each voice according to the parameter data. Among the waveform data, the step of sequentially outputting the waveform data of all voices, the step of sequentially outputting the waveform data of the predetermined voice among the generated waveform data, and the waveform data of the predetermined voice, Performing a predetermined effect process; and synthesizing the waveform data subjected to the predetermined effect process with the waveform data of all voices.

この態様によると、すべてのボイスの波形データと、所定のエフェクト処理を施したいボイスの波形データと、を別々に生成することにより、柔軟なエフェクト処理が可能となる。   According to this aspect, by generating separately the waveform data of all the voices and the waveform data of the voices to be subjected to predetermined effect processing, flexible effect processing is possible.

本発明のさらに別の態様もまた、音源処理方法に関する。この方法は、再生すべき音声波形データを生成して出力する音源処理装置であって、再生すべき音声信号の特性を既述するデータを順次出力するステップと、データに対応する波形データを順次生成するステップと、波形データのすべてを合成し、メインオーディオ信号として出力するステップと、波形データのうち、所定の音色に対応する波形データを合成し、エフェクト用オーディオ信号として出力するステップと、エフェクト用オーディオ信号に所定のエフェクト処理を施すステップと、エフェクト処理が施されたエフェクト用オーディオ信号を、メインオーディオ信号と合成し、再生すべき音声波形データとして出力するステップと、を含む。   Still another embodiment of the present invention also relates to a sound source processing method. This method is a sound source processing apparatus that generates and outputs audio waveform data to be reproduced, and sequentially outputs data describing characteristics of an audio signal to be reproduced, and waveform data corresponding to the data sequentially. A step of generating, synthesizing all of the waveform data and outputting as a main audio signal, a step of synthesizing waveform data corresponding to a predetermined tone among the waveform data and outputting as an audio signal for an effect, and an effect Performing a predetermined effect process on the audio signal, and synthesizing the effect audio signal subjected to the effect process with the main audio signal and outputting the synthesized audio signal as audio waveform data to be reproduced.

なお、以上の構成要素の任意の組合せや、本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements, and those obtained by replacing constituent elements and expressions of the present invention with each other among methods, apparatuses, systems, etc. are also effective as an aspect of the present invention.

本発明のある態様の音源処理装置によれば、柔軟なエフェクト処理が可能となる。   According to the sound source processing device of an aspect of the present invention, flexible effect processing is possible.

以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合せは、必ずしも発明の本質的なものであるとは限らない。   The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent components, members, and processes shown in the drawings are denoted by the same reference numerals, and repeated descriptions are omitted as appropriate. Further, the embodiments are illustrative rather than limiting the invention, and all features and combinations thereof described in the embodiments are not necessarily essential to the invention.

なお、図中、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。また、異なる処理を実行する機能ブロックは、かならずしも別の演算処理ユニットで構成されている必要はなく、同一の演算処理ユニットが、異なるタイミングで複数の機能を実行してもよい。   In the figure, each element described as a functional block for performing various processes can be configured with a CPU, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one. In addition, the functional blocks that execute different processes do not necessarily need to be configured by different arithmetic processing units, and the same arithmetic processing unit may execute a plurality of functions at different timings.

図1は、実施の形態に係る音源LSI100の構成を示すブロック図である。本実施の形態に係る音源LSI100は、MIDI(Musical Instrument Data Interface)音源を含み、外部から入力されるMIDIメッセージに応じた音声信号を生成し、外部へと出力する機能を有する。たとえば、音源LSI100は、携帯電話端末などの電子機器に搭載され、着信用メロディなどを演奏するために利用される。   FIG. 1 is a block diagram showing a configuration of a tone generator LSI 100 according to the embodiment. The sound source LSI 100 according to the present embodiment includes a MIDI (Musical Instrument Data Interface) sound source, and has a function of generating an audio signal corresponding to a MIDI message input from the outside and outputting the sound signal to the outside. For example, the tone generator LSI 100 is mounted on an electronic device such as a mobile phone terminal, and is used to play a ringing melody or the like.

まず、音源LSI100を含む周辺の回路とのデータの送受信について説明する。図2は、音源LSI100が搭載される電子機器200の構成を示すブロック図である。電子機器200は、携帯電話端末であり、操作部2、ホストプロセッサ4、メモリ5、LCDモニタ6、通信処理部8、音声出力部10、音源LSI100を含む。   First, data transmission / reception with peripheral circuits including the tone generator LSI 100 will be described. FIG. 2 is a block diagram showing a configuration of the electronic device 200 on which the sound source LSI 100 is mounted. The electronic device 200 is a mobile phone terminal, and includes an operation unit 2, a host processor 4, a memory 5, an LCD monitor 6, a communication processing unit 8, an audio output unit 10, and a sound source LSI 100.

操作部2は、ユーザが電話番号等を入力するためのボタンを含む。通信処理部8は、通信に必要な処理を実行する通信ユニットであって、具体的には外部の電話機やサーバからの着信を検出し、または外部の電話機またはサーバに対して発信する。なお、ここでいう着信は、電話の着呼だけでなく、ネットワーク経由のサーバからのパケット通信の着呼も含む。なお、発信についても同様である。   The operation unit 2 includes a button for the user to input a telephone number and the like. The communication processing unit 8 is a communication unit that executes processing necessary for communication. Specifically, the communication processing unit 8 detects an incoming call from an external telephone or server, or transmits to an external telephone or server. Here, the term “incoming call” includes not only incoming calls but also incoming calls of packet communication from a server via a network. The same applies to outgoing calls.

通信処理部8は、ネットワーク経由で着信メロディを外部サーバからダウンロードする。このとき、データ伝送量を軽減するべく、通信処理部8は、楽曲データが記述された楽曲ファイルをダウンロードする。楽曲データを記述した楽曲ファイルとしてはMIDIファイルが代表的であり、現在、事実上の業界標準となっているGM規格により構成されるものであってもよい。なお、他の規格で記述した楽曲ファイルであってもよく、いずれの場合であっても、楽曲の波形データをダウンロードする場合と比較して、データ量が少ないという利点がある。ダウンロードされた楽曲ファイルは、メモリ5に格納される。以下では、代表して、着信音データがMIDI規格により記述されている場合について説明する。なお、楽曲ファイルは、ネットワーク経由ではなく、その他の記憶媒体を介して、メモリ5に保存されてもよい。   The communication processing unit 8 downloads the incoming melody from the external server via the network. At this time, in order to reduce the data transmission amount, the communication processing unit 8 downloads a music file in which music data is described. The music file describing the music data is typically a MIDI file, and may be constituted by the GM standard that is now a de facto industry standard. Note that music files described in other standards may be used, and in any case, there is an advantage that the data amount is small as compared with the case where the waveform data of music is downloaded. The downloaded music file is stored in the memory 5. In the following, as an example, the case where the ring tone data is described in the MIDI standard will be described. Note that the music file may be stored in the memory 5 not via the network but via another storage medium.

ホストプロセッサ4は、電子機器200の処理全体を統括的に制御するユニットであり、たとえばベースバンドICに相当する。メモリ5は、ホストプロセッサ4とバスを介して接続されており、さまざまなデータが格納される。ホストプロセッサ4は、着信があった場合に、メモリ5に格納された楽曲ファイルを読み出し、MIDIメッセージを、音源LSI100に対して出力する。音源LSI100は、受信したMIDIメッセージにもとづき、音声の波形データを生成し、音声出力部10から出力する。音声出力部10は、入力された信号を増幅する増幅器や、スピーカやイヤホンを含んで構成される。   The host processor 4 is a unit that comprehensively controls the entire processing of the electronic device 200, and corresponds to, for example, a baseband IC. The memory 5 is connected to the host processor 4 via a bus and stores various data. When there is an incoming call, the host processor 4 reads the music file stored in the memory 5 and outputs a MIDI message to the tone generator LSI 100. The tone generator LSI 100 generates voice waveform data based on the received MIDI message and outputs the voice waveform data from the voice output unit 10. The audio output unit 10 includes an amplifier that amplifies an input signal, a speaker, and an earphone.

まず、実施の形態について詳細に説明する前に、いくつかの用語の定義、説明を行う。本実施の形態において、「ボイス」とは、たとえば、ひとつの音を表現するための単位をいう。また、チャンネルとは、しばしば楽器の演奏者にたとえられる概念であって、ひとつのチャンネルが一つの楽器を表現する。チャンネル数には上限があり、同時に発音可能な楽器の数は制約を受ける。「ボイス」は、アサイナ処理によって、音色毎に複数の「チャンネル」のいずれかに割り当てられる。たとえば、ある「ボイス」が、ピアノの音色を有するとき、アサイナ処理により、このボイスは、チャンネル1番に割り当てられ、「ボイス」がトランペットの音色を有するとき、このボイスは、チャンネル1番とは別の、たとえばチャンネル2番に割り当てられる。「パラメータデータ」は、音源処理装置の内部で使用されるデータであって、たとえば、後段の波形メモリにおいて、そのボイスにより指示された音色が、どのアドレスに記憶されているかを記述するデータを含む。   First, before describing the embodiments in detail, some terms are defined and explained. In this embodiment, “voice” refers to a unit for expressing one sound, for example. A channel is a concept often compared to a musical instrument player, and one channel represents one musical instrument. There is an upper limit to the number of channels, and the number of instruments that can be played simultaneously is limited. The “voice” is assigned to one of a plurality of “channels” for each tone color by assigner processing. For example, when a “voice” has a piano tone, the assigner process assigns this voice to channel 1 and when “voice” has a trumpet tone, this voice Another channel, for example, is assigned to channel 2. “Parameter data” is data used inside the sound source processing device, and includes, for example, data describing in which address the tone color designated by the voice is stored in the waveform memory at the subsequent stage. .

本実施の形態において、楽曲ファイルは、たとえば、SMF(Standard MIDI File)の形式で記述されている。SMFは、デルタタイムと呼ばれるイベント間の時間を指定するデータと、MIDIメッセージを含んだデータ(以下、メッセージデータMSと称す)を一つの単位としてボイスごとに構成される。「ボイス」は、ノートとも呼ばれ、ひとつの音を表現するための単位をいう。「ボイス」ごとに、音色、音程、強さ、長さ等を記述することにより、ある音を表現することができる。音源LSI100は、ホストプロセッサ4から順次入力されるMIDIメッセージを解析し、再生すべき音声信号を生成する。   In the present embodiment, the music file is described in, for example, an SMF (Standard MIDI File) format. The SMF is configured for each voice with data specifying a time between events called delta time and data including a MIDI message (hereinafter referred to as message data MS) as one unit. “Voice” is also called a note, and is a unit for expressing one sound. By describing tone color, pitch, strength, length, etc. for each “voice”, a certain sound can be expressed. The tone generator LSI 100 analyzes MIDI messages sequentially input from the host processor 4 and generates an audio signal to be reproduced.

図1に戻り、入力されたメッセージデータにもとづいて、再生すべき音声波形データを生成して出力する音源LSI100の構成について説明する。
音源LSI100は、インターフェース(以下、I/Fと略す)20、音源ブロック22、デジタルアナログ変換器(以下、DACと略す)24を含み、一つの半導体基板上に機能ICとして集積化されている。
I/F20は、図2のホストプロセッサ4と音源ブロック22の通信を制御するインターフェース回路であり、I/F20に、ホストプロセッサ4からのメッセージデータMSGが入力される。
音源ブロック22は、メッセージデータMSGを解析し、発音波形を生成する。たとえば、64音(ボイス)の同時発音が可能となっている。後述のように、音源ブロック22の内部のROM(Road Only Memory)には、PCM圧縮されたウェーブデータが格納されている。また、音源ブロック22はアサイナ機能、メッセージデータMSGの解析、変換制御および音源へのアクセスの時間管理を行い、所望のタイミングで演奏に必要なデータ設定を行う。
Returning to FIG. 1, the configuration of the tone generator LSI 100 that generates and outputs audio waveform data to be reproduced based on the input message data will be described.
The tone generator LSI 100 includes an interface (hereinafter abbreviated as I / F) 20, a tone generator block 22, and a digital-analog converter (hereinafter abbreviated as DAC) 24, and is integrated as a functional IC on a single semiconductor substrate.
The I / F 20 is an interface circuit that controls communication between the host processor 4 and the sound source block 22 in FIG. 2, and message data MSG from the host processor 4 is input to the I / F 20.
The sound source block 22 analyzes the message data MSG and generates a sound waveform. For example, simultaneous pronunciation of 64 sounds (voices) is possible. As will be described later, PCM compressed wave data is stored in a ROM (Load Only Memory) inside the sound source block 22. The sound source block 22 performs assigner function, analysis of message data MSG, conversion control, and time management of access to the sound source, and sets data necessary for performance at a desired timing.

音源ブロック22は、CPU(中央演算処理装置)30、DSP(デジタル信号処理装置)32、エフェクト処理部34を含む。
CPU30は、ボイス単位で表現されたメッセージデータMSGを、順番に解析して、メッセージの種類、パラメータを特定し、アサイナ処理を行い、解析した結果得られた情報(以下、単にパラメータデータPRMという)を、DSP32へと出力する。
The sound source block 22 includes a CPU (Central Processing Unit) 30, a DSP (Digital Signal Processing Unit) 32, and an effect processing unit 34.
The CPU 30 sequentially analyzes the message data MSG expressed in units of voice, specifies the message type and parameters, performs assigner processing, and obtains information obtained as a result of the analysis (hereinafter simply referred to as parameter data PRM). Is output to the DSP 32.

DSP32は、CPU30から出力されたパラメータデータPRMにもとづき、内部のROMからウェーブデータを読み出し、ピッチエンベロープ処理、フィルタエンベロープ処理、アンプエンベロープ処理を行ってボイスごとの波形データを生成する。「ピッチエンベロープ処理」、「フィルタエンベロープ処理」、「アンプエンベロープ処理」は、それぞれ、音のピッチ(音程)、フィルタのカットオフ周波数、音の強弱を、時間とともに変化させることにより、実際の楽器の音色に近づけるための処理をいう。さらに、DSP32は、最大64ボイスの音声信号を合成するミキシング処理を行い、後段のエフェクト処理部34に出力する。エフェクト処理部34は、コーラスやリバーブその他の音響効果を付加するブロックである。エフェクト処理部34から出力されたデータは、DAC24によってアナログ信号に変換され、音声出力部10に出力される。   The DSP 32 reads the wave data from the internal ROM based on the parameter data PRM output from the CPU 30, and generates the waveform data for each voice by performing pitch envelope processing, filter envelope processing, and amplifier envelope processing. “Pitch envelope processing”, “Filter envelope processing”, and “Amplifier envelope processing” are used to change the pitch of the sound, the cutoff frequency of the filter, and the strength of the sound over time. This is a process for getting close to the timbre. Further, the DSP 32 performs a mixing process for synthesizing an audio signal of a maximum of 64 voices and outputs it to the effect processing unit 34 at the subsequent stage. The effect processing unit 34 is a block that adds chorus, reverb and other acoustic effects. The data output from the effect processing unit 34 is converted into an analog signal by the DAC 24 and output to the audio output unit 10.

本実施の形態に係る音源LSI100は、CPU30とDSP32という2つの信号処理ブロックを備えることを特徴としている。以下、この2つの信号処理ブロックにおけるデータ処理について詳細に説明する。
図3は、CPU30およびDSP32の詳細な構成を示すブロック図である。CPU30およびDSP32は、パラメータバンク36を介して接続される。
The tone generator LSI 100 according to the present embodiment includes two signal processing blocks, a CPU 30 and a DSP 32. Hereinafter, data processing in these two signal processing blocks will be described in detail.
FIG. 3 is a block diagram showing a detailed configuration of the CPU 30 and the DSP 32. The CPU 30 and the DSP 32 are connected via the parameter bank 36.

ここで、音源LSI100における演算処理の単位について説明する。MIDIデータによって再生される波形データは、サンプリング時間Tsでサンプリングされている。音源LSI100は、このサンプリング時間Tsの間に、最大64ボイス分のデータを処理することになる。また、サンプリング時間TsをN倍(Nは整数であって、たとえば、128、256、512、1024など)した時間をフレーム時間Tfと呼ぶ。本実施の形態において、CPU30は、1フレームを処理の単位とし、メッセージデータMSGを解析して生成したパラメータデータPRMを、1フレームごとに、パラメータバンク36へと出力する。   Here, a unit of arithmetic processing in the tone generator LSI 100 will be described. The waveform data reproduced by the MIDI data is sampled at the sampling time Ts. The tone generator LSI 100 processes data for a maximum of 64 voices during the sampling time Ts. A time obtained by multiplying the sampling time Ts by N times (N is an integer, for example, 128, 256, 512, 1024, etc.) is called a frame time Tf. In the present embodiment, the CPU 30 outputs the parameter data PRM generated by analyzing the message data MSG to the parameter bank 36 for each frame, with one frame as a unit of processing.

まず、CPU30とDSP32の間のデータの送受信について説明する。本実施の形態において、CPU30とDSP32は、フレーム単位のパイプライン処理を実行する。パラメータバンク36は、メモリ空間が第0バンクBANK0、第1バンクBANK1の2つの領域(バンク)に分割されたデュアルバンク構成のメモリであり、CPU30は、パラメータバンク36へのパラメータデータPRMの書き込みに際して、フレームごとに、第1バンクと第2バンクを切り換える。   First, data transmission / reception between the CPU 30 and the DSP 32 will be described. In the present embodiment, the CPU 30 and the DSP 32 execute pipeline processing in units of frames. The parameter bank 36 is a dual-bank memory in which the memory space is divided into two areas (banks) of the 0th bank BANK0 and the first bank BANK1, and the CPU 30 writes the parameter data PRM to the parameter bank 36. For each frame, the first bank and the second bank are switched.

DSP32は、CPU30により使用されるバンクと反対側のバンクに格納されたデータを読み出して処理する。すなわち、DSP32内部では、CPU30によって第0バンクBANK0が使用される期間においては、第1バンクBANK1に格納されたパラメータデータPRMを読み出し、CPU30によって第1バンクBANK0が使用される期間においては、第1バンクBANK1に格納されたパラメータデータPRMを読み出す。   The DSP 32 reads and processes the data stored in the bank opposite to the bank used by the CPU 30. That is, in the DSP 32, the parameter data PRM stored in the first bank BANK1 is read during the period when the 0th bank BANK0 is used by the CPU 30, and the first bank BANK0 is used by the CPU 30 during the period when the first bank BANK0 is used. The parameter data PRM stored in the bank BANK1 is read.

図4は、CPU30およびDSP32によるフレーム処理のタイムチャートである。CPU30は、期間Tnに、第nフレームのデータを第0バンクBANK0に書き込み、次の期間Tn+1に、第(n+1)フレームのデータを、第1バンクBANK1に書き込み、次の期間Tn+2に、第(n+2)フレームのデータを第0バンクBANK0に順番に書き込んでいく。一方で、DSP32は、期間Tnにパラメータバンク40の第1バンクBANK1に格納された第(n−1)フレームのデータを、期間Tn+1に、第0バンクBANK0に格納された第nフレームのデータを、期間Tn+2に、第0バンクBANK0に格納された第(n+1)フレームのデータを、順に読み出していく。   FIG. 4 is a time chart of frame processing by the CPU 30 and the DSP 32. The CPU 30 writes the data of the nth frame to the 0th bank BANK0 in the period Tn, writes the data of the (n + 1) th frame to the first bank BANK1 in the next period Tn + 1, and the (( n + 2) The frame data is sequentially written into the 0th bank BANK0. On the other hand, the DSP 32 receives the (n−1) th frame data stored in the first bank BANK1 of the parameter bank 40 in the period Tn, and the nth frame data stored in the 0th bank BANK0 in the period Tn + 1. In the period Tn + 2, the data of the (n + 1) th frame stored in the 0th bank BANK0 is sequentially read.

このように、CPU30とDSP32の間に、メモリ空間が分割されたデュアルバンクのパラメータバンク36を配置し、書き込みと読み出しを、それぞれ反対のバンクを利用して交互に行うことにより、CPU30とDSP32間で、フレーム単位のパイプライン処理が実現される。このパイプライン処理により、CPU30とDSP32の独立性が高まり、効率的な処理が可能となり、各ブロック内の設計の自由度を高めることができる。   In this way, the dual bank parameter bank 36 in which the memory space is divided is arranged between the CPU 30 and the DSP 32, and writing and reading are alternately performed using the opposite banks, so that the CPU 30 and the DSP 32 are connected. Thus, pipeline processing in units of frames is realized. This pipeline processing increases the independence of the CPU 30 and the DSP 32, enables efficient processing, and increases the degree of design freedom within each block.

図3に戻り、DSP32の内部構成およびその機能について説明する。DSP32は、パラメータバンクインターフェース(以下、単にI/Fという)40、第1演算処理部42、ウェーブメモリ44、作業用メモリ46、第2演算処理部48、ミキサ処理部50、タイミングコントローラ52を備える。   Returning to FIG. 3, the internal configuration and function of the DSP 32 will be described. The DSP 32 includes a parameter bank interface (hereinafter simply referred to as I / F) 40, a first arithmetic processing unit 42, a wave memory 44, a work memory 46, a second arithmetic processing unit 48, a mixer processing unit 50, and a timing controller 52. .

I/F40は、フレームごとに、パラメータバンク36のアクセス先のバンクを切り換えて、データを読み出す。第1演算処理部42および第2演算処理部48は、パラメータバンク36に書き込まれたパラメータデータPRMを、サンプリング時間Tsごとに、ボイス単位で順次読み出してパイプライン処理を行う。以下、このパイプライン処理について説明する。なお、ボイス単位のパラメータをボイスパラメータVPと称す。   The I / F 40 switches the access bank of the parameter bank 36 for each frame and reads data. The first arithmetic processing unit 42 and the second arithmetic processing unit 48 sequentially read out the parameter data PRM written in the parameter bank 36 in units of voice for each sampling time Ts and perform pipeline processing. Hereinafter, this pipeline processing will be described. The parameter for each voice is referred to as a voice parameter VP.

ウェーブメモリ44には、PCM(Pulse Code Modulation)により符号化されたさまざまな音色のウェーブデータが格納されている。第1演算処理部42は、パラメータバンク40から1ボイス分のパラメータVPを読み出し、読み出したデータに指定されたアドレスに格納された波形データを、ウェーブメモリ44から読み出す。さらに、第1演算処理部42は、読み出した波形データに対して、ピッチエンベロープ処理を施す。第1演算処理部42は、作業用メモリ46に、演算中のデータを一時的に格納するとともに、演算終了後のデータを格納する。第1演算処理部42は、1ボイス分のデータ処理を、所定の時間内(以下、ボイス時間Tvと呼ぶ)に完了する。第1演算処理部42は、ボイス時間ごとに、順次、ボイスパラメータを読み出し、パラメータに応じた演算処理を実行する。なお、ウェーブメモリ44は、ADPCM(Adaptive Differential PCM)により符号化されたデータが格納されていてもよい。   The wave memory 44 stores wave data of various timbres encoded by PCM (Pulse Code Modulation). The first arithmetic processing unit 42 reads the parameter VP for one voice from the parameter bank 40, and reads the waveform data stored at the address specified in the read data from the wave memory 44. Further, the first arithmetic processing unit 42 performs pitch envelope processing on the read waveform data. The first calculation processing unit 42 temporarily stores data being calculated in the work memory 46 and stores data after the calculation is completed. The first arithmetic processing unit 42 completes data processing for one voice within a predetermined time (hereinafter referred to as voice time Tv). The first arithmetic processing unit 42 sequentially reads out voice parameters for each voice time, and executes arithmetic processing according to the parameters. The wave memory 44 may store data encoded by ADPCM (Adaptive Differential PCM).

第1演算処理部42による演算処理の結果得られたデータは、作業用メモリ46内に、異なるアドレスに順に書き込まれていく。ここで、作業用メモリ46は、デュアルポートを有しており、第1ポートは、第1演算処理部42に接続され、第2ポートは第2演算処理部48に接続される。このような構成とすることにより、作業用メモリ46は、2つのブロックから同時にデータアクセスが可能となっている。第2演算処理部48は、パラメータバンク36から、ボイスパラメータVPを読み出すとともに、ひとつ前のボイス時間に、第1演算処理部42によって処理されたデータを作業用メモリ46から読み出す。第2演算処理部48は、作業用メモリ46から読み出したデータに対して、ボイスパラメータに応じて、フィルタエンベロープ処理、アンプエンベロープ処理を施し、後段のミキサ処理部50へと出力する。第2演算処理部48は、1ボイス分のデータ処理を、ボイス時間内に完了する。   Data obtained as a result of the arithmetic processing by the first arithmetic processing unit 42 is sequentially written in the working memory 46 at different addresses. Here, the working memory 46 has a dual port, the first port is connected to the first arithmetic processing unit 42, and the second port is connected to the second arithmetic processing unit 48. With this configuration, the work memory 46 can simultaneously access data from two blocks. The second arithmetic processing unit 48 reads out the voice parameter VP from the parameter bank 36 and reads out the data processed by the first arithmetic processing unit 42 from the work memory 46 during the previous voice time. The second arithmetic processing unit 48 performs filter envelope processing and amplifier envelope processing on the data read from the work memory 46 in accordance with the voice parameter, and outputs the result to the subsequent mixer processing unit 50. The second arithmetic processing unit 48 completes the data processing for one voice within the voice time.

ミキサ処理部50は、第2演算処理部48から順に出力されるボイスデータを合成するミキシング処理を実行し、1サンプルすなわち64ボイス分の合成が終了すると、サンプリング時間Tsを単位として出力する。   The mixer processing unit 50 performs a mixing process for synthesizing voice data output in order from the second arithmetic processing unit 48, and outputs the sampling time Ts as a unit when synthesis of one sample, that is, 64 voices is completed.

図5は、DSP32内部におけるボイス単位のパイプライン処理のフローを示す図である。第1演算処理部42は、1ボイスづつ順に処理をしていく。第2演算処理部48は、第1演算処理部42よりも1ボイス時間遅れて、所定の処理を実行していく。ミキサ処理部50は、さらに1ボイス時間遅れて所定の処理を実行していく。第1演算処理部42、第2演算処理部48によるボイス単位のパイプライン処理は、タイミングコントローラ52により時間管理される。   FIG. 5 is a diagram showing a flow of pipeline processing for each voice in the DSP 32. The first arithmetic processing unit 42 processes one voice at a time. The second arithmetic processing unit 48 executes predetermined processing with a delay of one voice time from the first arithmetic processing unit 42. The mixer processing unit 50 further executes predetermined processing with a delay of one voice time. The pipeline processing for each voice by the first arithmetic processing unit 42 and the second arithmetic processing unit 48 is time-managed by the timing controller 52.

図6は、ボイス単位のパイプライン処理の際のDSP32によるメモリアクセスの様子を示す図である。期間Tv1では、第1演算処理部42は、パラメータバンク36のアドレスPe1を参照し、ボイスV1に関連するパラメータを読み出し、作業用メモリ46のアドレスW1を利用して演算処理を実行する。続く期間Tv2では、第1演算処理部42は、パラメータバンク36のアドレスPo2を参照し、ボイスV2に関連するパラメータを読み出し、作業用メモリ46のアドレスW2を利用して演算処理を実行する。   FIG. 6 is a diagram showing a state of memory access by the DSP 32 during pipeline processing in units of voices. In the period Tv1, the first arithmetic processing unit 42 refers to the address Pe1 in the parameter bank 36, reads out a parameter related to the voice V1, and executes arithmetic processing using the address W1 in the work memory 46. In the subsequent period Tv2, the first arithmetic processing unit 42 refers to the address Po2 in the parameter bank 36, reads out a parameter related to the voice V2, and executes arithmetic processing using the address W2 in the work memory 46.

一方、第2演算処理部48は、期間Tv2では、パラメータバンク36のアドレスPo2を参照し、ボイスV2に関連するパラメータを読み出す。この期間Tv2において、パラメータバンク36は、第1演算処理部42および第2演算処理部48からアクセスされることになる。ここで、パラメータバンク36のアドレスは、奇数(odd)と偶数(even)で区別されており、処理が続けて行われるボイス(たとえば、V1とV2)に関するデータは、奇数と偶数のアドレスが異なるように格納される。これは、第1演算処理部42と第2演算処理部48が、同じアドレスにアクセスするのを防止するためである。期間Tv2において、第2演算処理部48は、期間Tv1において第1演算処理部42により処理されたデータが格納される作業用メモリ46のアドレスW2を利用して、所定の処理を実行する。第2演算処理部48は、続く期間T3においては、次のボイスV2について同様の処理を実行する。   On the other hand, in the period Tv2, the second arithmetic processing unit 48 refers to the address Po2 in the parameter bank 36 and reads parameters related to the voice V2. In this period Tv2, the parameter bank 36 is accessed from the first arithmetic processing unit 42 and the second arithmetic processing unit 48. Here, the addresses of the parameter bank 36 are distinguished by odd numbers (odd) and even numbers (even), and the data relating to voices (for example, V1 and V2) that are continuously processed have different odd and even addresses. Is stored as follows. This is to prevent the first arithmetic processing unit 42 and the second arithmetic processing unit 48 from accessing the same address. In the period Tv2, the second arithmetic processing unit 48 performs a predetermined process using the address W2 of the work memory 46 in which the data processed by the first arithmetic processing unit 42 in the period Tv1 is stored. The second arithmetic processing unit 48 performs the same processing for the next voice V2 in the subsequent period T3.

このように、本実施の形態において、DSP32の内部では、ボイス単位のパイプライン処理を実行する。
本実施の形態では、1ボイス時間Tvで所定の処理が完了するように、第1演算処理部42と第2演算処理部48に処理内容を割り振っている。ウェーブデータがADPCMにより符号化がされている場合には、復号処理に多くの演算処理が必要とされるため、復号処理とアンプエンベロープ処理を第1演算処理部42に割り振り、残りの処理を第2演算処理部48に割り振るのが好ましい。もっとも、第1演算処理部42、第2演算処理部48による処理の割り当てはこれに限定されるものではなく、処理量やクロック数、バス幅などに応じて設定すればよい。
Thus, in the present embodiment, pipeline processing for each voice is executed inside the DSP 32.
In the present embodiment, processing contents are allocated to the first arithmetic processing unit 42 and the second arithmetic processing unit 48 so that predetermined processing is completed in one voice time Tv. When the wave data is encoded by ADPCM, a large amount of arithmetic processing is required for the decoding processing. Therefore, the decoding processing and the amplifier envelope processing are allocated to the first arithmetic processing unit 42, and the remaining processing is performed first. 2 is preferably allocated to the arithmetic processing unit 48. However, the allocation of processing by the first arithmetic processing unit 42 and the second arithmetic processing unit 48 is not limited to this, and may be set according to the processing amount, the number of clocks, the bus width, and the like.

また、本実施の形態に係る音源LSI100のDSP32には、第1演算処理部42および第2演算処理部48の両方から同時にアクセス可能なデュアルポートメモリが設けられている。その結果、1ボイスごとにメモリのアクセス領域を順に切り換えていくことにより、パイプライン処理を適切に行うことができる。これは、単にFIFOなどのバッファなどを設ける場合に比べて、確実な処理を提供するものである。   Further, the DSP 32 of the tone generator LSI 100 according to the present embodiment is provided with a dual port memory that can be simultaneously accessed from both the first arithmetic processing unit 42 and the second arithmetic processing unit 48. As a result, pipeline processing can be performed appropriately by sequentially switching the memory access area for each voice. This provides more reliable processing than simply providing a buffer such as a FIFO.

次に、音源LSI100において、柔軟なエフェクト処理を実行するための構成について説明する。図7は、DSP32およびエフェクト処理部34の構成を示すブロック図である。DSP32については、第2演算処理部48の最終段に設けられた出力部49およびミキサ処理部50のみが示されている。出力部49からは、図3の第1演算処理部42、第2演算処理部48によって処理されたボイス単位の波形データが、順次出力される。   Next, a configuration for executing flexible effect processing in the tone generator LSI 100 will be described. FIG. 7 is a block diagram showing the configuration of the DSP 32 and the effect processing unit 34. For the DSP 32, only the output unit 49 and the mixer processing unit 50 provided in the final stage of the second arithmetic processing unit 48 are shown. From the output unit 49, waveform data in units of voices processed by the first calculation processing unit 42 and the second calculation processing unit 48 of FIG.

出力部49は、入力されたボイス単位の波形データを、複数のパスに分配して、後段のミキサ処理部50へと出力する。出力部49には複数のパスとして、メインパスPm_L、Pm_R、Pm_CRS、Pm_REVおよびエフェクト用パスPefxを備えている。出力部49は、入力された全てのボイスの波形データを、メインパスPm_L、Pm_R、Rm_CRS、Pm_REVから順次出力する。また、出力部49は、エフェクト用パスPefxから、所定のボイスの波形データを順次出力する。   The output unit 49 distributes the input waveform data in units of voice to a plurality of paths, and outputs it to the subsequent mixer processing unit 50. The output unit 49 includes main paths Pm_L, Pm_R, Pm_CRS, Pm_REV, and an effect path Pefx as a plurality of paths. The output unit 49 sequentially outputs the waveform data of all input voices from the main paths Pm_L, Pm_R, Rm_CRS, and Pm_REV. The output unit 49 sequentially outputs waveform data of a predetermined voice from the effect path Pefx.

図3の第2演算処理部48によって生成される波形データは、モノラル信号であり、ステレオ分配部51によって、LチャンネルとRチャンネルに信号が分配され、それぞれが、メインパスPm_L、Pm_Rから出力される。また、メインパスPm_CRS、Pm_REVからは、入力されたモノラル信号の波形データが、そのまま出力される。メインパスPm_CRS、Pm_REVから出力されるモノラル信号は、それぞれ、コーラスおよびリバーブといった残響音を付加するエフェクト処理に利用される。   The waveform data generated by the second arithmetic processing unit 48 of FIG. 3 is a monaural signal, and the signal is distributed to the L channel and the R channel by the stereo distribution unit 51, which are output from the main paths Pm_L and Pm_R, respectively. The Further, the waveform data of the input monaural signal is output as it is from the main paths Pm_CRS and Pm_REV. The monaural signals output from the main paths Pm_CRS and Pm_REV are used for effect processing for adding reverberant sounds such as chorus and reverb, respectively.

さらに、出力部49は、エフェクト用パスPefxから、所定のボイスの波形データのみを選択して、順次出力する。セレクタ54は、所定のボイスを選択するために設けられている。セレクタ54により選択すべきボイスは、図3のCPU30から出力されるパラメータデータPRMによって指定される。   Further, the output unit 49 selects only waveform data of a predetermined voice from the effect path Pefx and sequentially outputs it. The selector 54 is provided for selecting a predetermined voice. The voice to be selected by the selector 54 is designated by the parameter data PRM output from the CPU 30 in FIG.

ミキサ処理部50は、出力部49の複数のパスから出力される1フレーム時間Tf分の波形データを、パスごとに別個に合成(ミキシング)し、エフェクト処理部34へと出力する。メインパスPm_L、Pm_R、Pm_CRS、Pm_REVから出力される波形データを合成した信号をそれぞれ、メインオーディオ信号Sm_L、Sm_R、Sm_CRS、Sm_REVといい、必要に応じてこれらの信号を、メインオーディオ信号Smと総称する。また、エフェクト用パスPefxから出力される波形データを合成した信号を、エフェクト用オーディオ信号Sefxという。   The mixer processing unit 50 separately synthesizes (mixes) the waveform data for one frame time Tf output from the plurality of paths of the output unit 49 for each path, and outputs the combined data to the effect processing unit 34. Signals obtained by synthesizing waveform data output from the main paths Pm_L, Pm_R, Pm_CRS, and Pm_REV are referred to as main audio signals Sm_L, Sm_R, Sm_CRS, and Sm_REV, respectively. These signals are collectively referred to as the main audio signal Sm as necessary. To do. A signal obtained by synthesizing the waveform data output from the effect path Pefx is referred to as an effect audio signal Sefx.

エフェクト処理部34は、少なくともエフェクト用オーディオ信号Sefxに所定のエフェクト処理を施した後、メインオーディオ信号Sm_L、Sm_Rと合成し、再生すべき音声波形データSoutとして出力する。   The effect processing unit 34 performs predetermined effect processing on at least the audio signal for effect Sfx, synthesizes it with the main audio signals Sm_L and Sm_R, and outputs it as audio waveform data Sout to be reproduced.

具体的には、エフェクト処理部34は以下の処理を行う。エフェクト処理部34は、メモリ60、第1信号処理部61、第2信号処理部62を含む。DSP32から出力されたオーディオ信号Sm_L、Sm_R、Sm_CRS、Sm_REVは、メモリ60に書き込まれる。このデータは、フレーム時間Tfごとに更新される。   Specifically, the effect processing unit 34 performs the following processing. The effect processing unit 34 includes a memory 60, a first signal processing unit 61, and a second signal processing unit 62. Audio signals Sm_L, Sm_R, Sm_CRS, and Sm_REV output from the DSP 32 are written in the memory 60. This data is updated every frame time Tf.

第1信号処理部61は、メインオーディオ信号Sm_L、Sm_Rに対してエフェクト処理を施す。第1信号処理部61によって施されるエフェクト処理は、たとえば、コーラスCRS、リバーブREVといった残響音を付加するエフェクト処理である。第1信号処理部61は、メインオーディオ信号Sm_CRSに、所定の係数を乗じ、所定の遅延時間を与えて、メインオーディオ信号Sm_L、Sm_Rと重畳することにより、コーラス効果を付加する。また、第1信号処理部61は、メインオーディオ信号Sm_REVに、所定の係数を乗じて、また所定の遅延時間を与えて、メインオーディオ信号Sm_L、Sm_Rと重畳することにより、リバーブ効果を付加する。   The first signal processing unit 61 performs effect processing on the main audio signals Sm_L and Sm_R. The effect process performed by the first signal processing unit 61 is an effect process for adding a reverberant sound such as a chorus CRS or a reverb REV. The first signal processing unit 61 multiplies the main audio signal Sm_CRS by a predetermined coefficient, gives a predetermined delay time, and superimposes it with the main audio signals Sm_L and Sm_R to add a chorus effect. The first signal processing unit 61 adds a reverb effect by multiplying the main audio signal Sm_REV by a predetermined coefficient and giving a predetermined delay time and superimposing the main audio signal Sm_L and Sm_R.

さらに、第1信号処理部61は、イコライザ処理EQを行ってもよい。イコライザ処理EQは、オーディオ信号の所定の周波数成分を増幅、減衰させる処理であり、デジタルフィルタを利用して実行することができる。第1信号処理部61は、コーラスCRS、リバーブREV、イコライザ処理EQのうち、パラメータデータPRMによって指示された処理を、メインオーディオ信号Smに対して施す。複数の処理を施す場合、第1信号処理部61は、コーラスCRS、リバーブREV、イコライザEQを順に施すものとする。当然ながら、第1信号処理部61は、これらのエフェクト処理に加え、あるいは代えて、その他のエフェクト処理を施してもよい。   Further, the first signal processing unit 61 may perform an equalizer process EQ. The equalizer process EQ is a process for amplifying and attenuating a predetermined frequency component of the audio signal, and can be executed using a digital filter. The first signal processing unit 61 performs the processing instructed by the parameter data PRM among the chorus CRS, the reverb REV, and the equalizer processing EQ on the main audio signal Sm. When performing a plurality of processes, the first signal processing unit 61 performs a chorus CRS, a reverb REV, and an equalizer EQ in order. Of course, the first signal processing unit 61 may perform other effect processing in addition to or instead of these effect processing.

また、第2信号処理部62は、エフェクト用オーディオ信号Sefxに対して所定のエフェクト処理を施す。たとえば、第2信号処理部62は、オーバードライブOVDといった音声データを歪ませる処理等を行う。エフェクト用オーディオ信号Sefxは、所定のボイスについてのみ合成された信号であるから、第2信号処理部62は、所望のボイスを対象として、エフェクト処理を施すことができる。   Further, the second signal processing unit 62 performs predetermined effect processing on the audio signal for effects Sfx. For example, the second signal processing unit 62 performs a process of distorting audio data such as overdrive OVD. Since the effect audio signal Sfx is a signal synthesized only for a predetermined voice, the second signal processing unit 62 can perform effect processing on a desired voice.

図8は、エフェクト処理部34の詳細な構成を示すブロック図である。第1信号処理部61は、機能ブロックとして、加算部70、71、残響エフェクト処理部72を含む。図8では、第1信号処理部61の残響エフェクト処理部72が、コーラス処理CRSを施す場合を示している。   FIG. 8 is a block diagram showing a detailed configuration of the effect processing unit 34. The first signal processing unit 61 includes addition units 70 and 71 and a reverberation effect processing unit 72 as functional blocks. FIG. 8 shows a case where the reverberation effect processing unit 72 of the first signal processing unit 61 performs chorus processing CRS.

第1信号処理部61は、あるフレーム時間Tfにおいて、メモリ60からメインオーディオ信号Sm_L、Sm_R、Sm_CRSおよび第2信号処理部62により生成されたコーラス処理用のオーディオ信号DSP2_CRSを読み出す。このオーディオ信号DSP2_CRSは、第2信号処理部62によってエフェクト処理が施された信号に対して、残響を与えるために用意されたデータである。   The first signal processing unit 61 reads the main audio signals Sm_L, Sm_R, Sm_CRS and the audio signal DSP2_CRS for chorus processing generated by the second signal processing unit 62 from the memory 60 at a certain frame time Tf. The audio signal DSP2_CRS is data prepared to give reverberation to the signal subjected to the effect processing by the second signal processing unit 62.

第1信号処理部61の残響エフェクト処理部72には、オーディオ信号Sm_CRSおよびオーディオ信号DSP2_CRSが入力される。残響エフェクト処理部72は、これらの信号に対して、それぞれ、所定の係数αを乗じるとともに、遅延τを与え、LチャンネルおよびRチャンネルのステレオ信号として出力する。Lチャンネル加算部70は、メインオーディオ信号Sm_Lと残響エフェクト処理部72のLチャンネルの出力データを加算する。同様に、Rチャンネル加算部71は、メインオーディオ信号Sm_Rと残響エフェクト処理部72のRチャンネルの出力データを加算する。Lチャンネル加算部70、Rチャンネル加算部71から出力データは、データDSP1_L、DSP1_Rとして、メモリ60に書き込まれる。   The reverberation effect processing unit 72 of the first signal processing unit 61 receives the audio signal Sm_CRS and the audio signal DSP2_CRS. The reverberation effect processing unit 72 multiplies these signals by a predetermined coefficient α, gives a delay τ, and outputs the signals as L channel and R channel stereo signals. The L channel adding unit 70 adds the main audio signal Sm_L and the output data of the L channel of the reverberation effect processing unit 72. Similarly, the R channel adding unit 71 adds the main audio signal Sm_R and the output data of the R channel of the reverberation effect processing unit 72. Output data from the L channel adder 70 and the R channel adder 71 is written to the memory 60 as data DSP1_L and DSP1_R.

第2信号処理部62は、エフェクト処理部80、ステレオ分配部81、Lチャンネル加算部82、Rチャンネル加算部83を含む。第2信号処理部62は、メモリ60から、エフェクト用オーディオ信号SefxならびにデータDSP1_L、DSP1_Rを読み出す。エフェクト処理部80は、エフェクト用オーディオ信号Sefxに対して、所定のエフェクト処理を施す。エフェクト処理部80の出力は、ステレオ分配部81によって、LチャンネルおよびRチャンネルのデータSefx_DSP2_L、Sefx_DSP2_Rとして出力される。
さらに、エフェクト処理部80の出力は、モノラルの状態で、残響効果を付加するために、上述のデータDSP2_CRSとしてメモリ60に書き込まれる。
The second signal processing unit 62 includes an effect processing unit 80, a stereo distribution unit 81, an L channel addition unit 82, and an R channel addition unit 83. The second signal processing unit 62 reads out the effect audio signal Sefx and the data DSP1_L and DSP1_R from the memory 60. The effect processing unit 80 performs predetermined effect processing on the effect audio signal Sfx. The output of the effect processing unit 80 is output by the stereo distribution unit 81 as data Sfx_DSP2_L and Sfx_DSP2_R of the L channel and the R channel.
Further, the output of the effect processing unit 80 is written in the memory 60 as the above-described data DSP2_CRS in order to add a reverberation effect in a monaural state.

Lチャンネル加算部82は、第1信号処理部61の出力データDSP1_Lと、ステレオ分配部81のLチャンネルの出力データDSP2_Lを加算する。同様に、Rチャンネル加算部83は、第1信号処理部61の出力データDSP1_Rと、ステレオ分配部81のRチャンネルの出力データDSP2_Rを加算する。Lチャンネル加算部82、Rチャンネル加算部83の出力データが、エフェクト処理部34の最終的なステレオデータOUT_L、OUT_Rとして出力される。   The L channel addition unit 82 adds the output data DSP1_L of the first signal processing unit 61 and the output data DSP2_L of the L channel of the stereo distribution unit 81. Similarly, the R channel addition unit 83 adds the output data DSP1_R of the first signal processing unit 61 and the output data DSP2_R of the R channel of the stereo distribution unit 81. The output data of the L channel addition unit 82 and the R channel addition unit 83 are output as final stereo data OUT_L and OUT_R of the effect processing unit 34.

なお、図8には図示されないが、メモリ60には、ミキサ処理部50によってメインオーディオ信号Sm_REVが書き込まれる。さらに、エフェクト処理部80からはリバーブ処理用のオーディオ信号DSP2_REVが、オーディオ信号DSP2_CRSと同様にメモリ60に対して出力される。この場合、第1信号処理部61は、リバーブ処理を行う際に、オーディオ信号Sm_CRS、DSP2_CRSに換えて、オーディオ信号Sm_REV、DSP2_REVを読み出してリバーブ効果を付加すればよい。   Although not shown in FIG. 8, the main audio signal Sm_REV is written in the memory 60 by the mixer processing unit 50. Furthermore, the audio signal DSP2_REV for reverberation processing is output from the effect processing unit 80 to the memory 60 in the same manner as the audio signal DSP2_CRS. In this case, when the reverberation process is performed, the first signal processing unit 61 may read the audio signals Sm_REV and DSP2_REV instead of the audio signals Sm_CRS and DSP2_CRS and add a reverb effect.

図9は、図8のエフェクト処理部34における信号処理のタイムチャートである。本実施の形態において、第1信号処理部61と第2信号処理部62は、所定の単位時間ごとのパイプライン処理を実行する。この所定の単位時間は、メモリ60に書き込まれるデータが更新される時間、すなわちフレーム時間Tfに設定する。   FIG. 9 is a time chart of signal processing in the effect processing unit 34 of FIG. In the present embodiment, the first signal processing unit 61 and the second signal processing unit 62 execute pipeline processing every predetermined unit time. The predetermined unit time is set to a time for updating data written in the memory 60, that is, a frame time Tf.

フレーム時間Tf(n)において、ミキサ処理部50は、メインオーディオ信号Sm_L(n)、Sm_R(n)、Sm_CRS(n)、Sm_REV(n)およびエフェクト用オーディオ信号Sefx(n)を合成し、メモリ60に書き込んでいる。
また、フレーム時間Tf(n)において、第1信号処理部61は、オーディオ信号DSP1_L(n)、DSP1_R(n)を生成し、メモリ60に書き込んでいる。
さらに、このフレーム時間Tf(n)において、第2信号処理部62は、ひとつ前のフレーム時間Tf(n−1)のエフェクト用オーディオ信号Sefx(n−1)を利用して、オーディオ信号DSP2_L(n)、DSP2_R(n)およびオーディオ信号DSP2_CRS(n)、DSP2_REV(n)を生成し、メモリ60に書き込んでいる。
これらのデータの生成については既述した。
At the frame time Tf (n), the mixer processing unit 50 synthesizes the main audio signals Sm_L (n), Sm_R (n), Sm_CRS (n), Sm_REV (n), and the effect audio signal Sefx (n), and stores the memory. 60 is written.
At the frame time Tf (n), the first signal processing unit 61 generates audio signals DSP1_L (n) and DSP1_R (n) and writes them in the memory 60.
Further, in the frame time Tf (n), the second signal processing unit 62 uses the audio signal DSPx_n () for the effect audio signal Sfx (n−1) of the previous frame time Tf (n−1). n), DSP2_R (n) and audio signals DSP2_CRS (n), DSP2_REV (n) are generated and written to the memory 60.
The generation of these data has already been described.

続くフレーム時間Tf(n+1)において、第1信号処理部61は、メインオーディオ信号Sm_L(n)、Sm_R(n)、Sm_CRS(n)、Sm_REV(n)を読み出す。第1信号処理部61は、フレーム時間Tf(n+1)の前半に、オーディオ信号Sm_CRS(n)を利用して、オーディオ信号Sm_L(n)、Sm_R(n)にコーラス効果CRSを付加する。続いて、フレーム時間Tf(n+1)の後半に、オーディオ信号Sm_REV(n)を利用して、オーディオ信号Sm_L(n)、Sm_R(n)にリバーブ効果REVを付加する。第1信号処理部61によって生成されたオーディオ信号DSP1_L(n+1)、DSP1_R(n+1)は、メモリ60に書き込まれる。   In the subsequent frame time Tf (n + 1), the first signal processing unit 61 reads the main audio signals Sm_L (n), Sm_R (n), Sm_CRS (n), and Sm_REV (n). The first signal processing unit 61 uses the audio signal Sm_CRS (n) in the first half of the frame time Tf (n + 1) to add the chorus effect CRS to the audio signals Sm_L (n) and Sm_R (n). Subsequently, the reverb effect REV is added to the audio signals Sm_L (n) and Sm_R (n) using the audio signal Sm_REV (n) in the second half of the frame time Tf (n + 1). The audio signals DSP1_L (n + 1) and DSP1_R (n + 1) generated by the first signal processing unit 61 are written in the memory 60.

一方、フレーム時間Tf(n+1)において、第2信号処理部62は、ひとつ前のフレーム時間Tf(n)の第1信号処理部61の出力であるオーディオ信号DSP1_L(n)、DSP1_R(n)と、ひとつ前のフレーム時間Tf(n)に生成されたエフェクト用オーディオ信号Sefx(n)と、ひとつ前のフレーム時間Tf(n)の第2信号処理部62の出力であるオーディオ信号DSP2_L(n)、DSP2_R(n)を読み出す。   On the other hand, at the frame time Tf (n + 1), the second signal processing unit 62 receives audio signals DSP1_L (n) and DSP1_R (n) that are outputs of the first signal processing unit 61 at the previous frame time Tf (n). , The effect audio signal Sefx (n) generated at the previous frame time Tf (n) and the audio signal DSP2_L (n) that is the output of the second signal processing unit 62 at the previous frame time Tf (n). , DSP2_R (n) is read out.

第2信号処理部62は、フレーム時間Tf(n+1)の前半(OUTPUT)において、オーディオ信号DSP1_L(n)およびDSP1_R(n)を、それぞれDSP2_L(n)およびDSP2_R(n)と加算し、最終出力であるオーディオ信号OUT_L(n)、OUT_R(n)として出力する。この処理は、図8のLチャンネル加算部82、Rチャンネル加算部83によって行われる。   The second signal processing unit 62 adds the audio signals DSP1_L (n) and DSP1_R (n) to DSP2_L (n) and DSP2_R (n), respectively, in the first half (OUTPUT) of the frame time Tf (n + 1), and the final output Are output as audio signals OUT_L (n) and OUT_R (n). This process is performed by the L channel adder 82 and the R channel adder 83 in FIG.

続いて、フレーム時間Tf(n+1)の後半において、第2信号処理部62は、信号Sefx(n)に所定のエフェクト処理を施し、ステレオ化することにより、信号DSP1_L(n+1)、DSP1_R(n+1)を生成する。さらにモノラルの信号DSP2_CRS(n+1)およびDSP2_REV(n+1)を、メモリ60に書き込む。この処理は、図8のエフェクト処理部80、ステレオ分配部81によって行われる。   Subsequently, in the second half of the frame time Tf (n + 1), the second signal processing unit 62 performs predetermined effect processing on the signal Sefx (n) and converts it to a stereo signal, thereby generating signals DSP1_L (n + 1) and DSP1_R (n + 1). Is generated. Further, the monaural signals DSP2_CRS (n + 1) and DSP2_REV (n + 1) are written in the memory 60. This processing is performed by the effect processing unit 80 and the stereo distribution unit 81 shown in FIG.

このように、第1信号処理部61、第2信号処理部62を利用し、パイプライン処理によってエフェクト処理を施すことにより、処理効率を高めることができる。また、メモリ60を介してパイプライン処理を行うことにより、第1信号処理部61と第2信号処理部62の信号処理の独立性を高めることができる。   In this way, by using the first signal processing unit 61 and the second signal processing unit 62 and performing effect processing by pipeline processing, the processing efficiency can be improved. In addition, by performing pipeline processing via the memory 60, the independence of the signal processing of the first signal processing unit 61 and the second signal processing unit 62 can be enhanced.

さらに言えば、第1信号処理部61はミキサ処理部50とパイプライン処理を行っている。したがって、ミキサ処理部50、第1信号処理部61、第2信号処理部62がフレーム時間Tfを単位としたパイプライン処理を行っている。その結果、さらに処理効率を高めることができる。   Furthermore, the first signal processing unit 61 performs pipeline processing with the mixer processing unit 50. Therefore, the mixer processing unit 50, the first signal processing unit 61, and the second signal processing unit 62 perform pipeline processing with the frame time Tf as a unit. As a result, the processing efficiency can be further increased.

また、本実施の形態では、第2信号処理部62において所定のエフェクト処理を施した信号を、コーラスおよびリバーブ用のモノラル信号であるオーディオ信号DSP2_CRS、DSP2_REVとしてメモリ60に書き戻し、これらの信号に対しても、第1信号処理部61においてエフェクト処理を施している。その結果、エフェクト用オーディオ信号Sefxに対しても、コーラス効果やリバーブ効果を付加することができる。   In the present embodiment, signals that have been subjected to predetermined effect processing in the second signal processing unit 62 are written back to the memory 60 as audio signals DSP2_CRS and DSP2_REV, which are monaural signals for chorus and reverb, In contrast, the first signal processing unit 61 performs effect processing. As a result, a chorus effect and a reverb effect can be added to the effect audio signal Sfx.

また、第1信号処理部61がメインオーディオ信号Smに対して、複数のエフェクト処理を施す際に、そのエフェクト処理に要する時間が、単位時間であるフレーム時間Tfより長くなる場合、第1信号処理部61は、あるフレーム時間Tfにおいて、複数のエフェクト処理の一部をメインオーディオ信号Smに対して施し、第2信号処理部62は、次のフレーム時間において、メモリ60からメインオーディオ信号Smを読み出し、複数のエフェクト処理の残りをメインオーディオ信号Smに施すとともに、エフェクト処理部80によってエフェクト処理を施したオーディオ信号DSP2_L、Rにメインオーディオ信号Smを合成してもよい。   When the first signal processing unit 61 performs a plurality of effect processes on the main audio signal Sm, if the time required for the effect process is longer than the frame time Tf which is a unit time, the first signal process The unit 61 performs a part of the plurality of effect processes on the main audio signal Sm at a certain frame time Tf, and the second signal processing unit 62 reads the main audio signal Sm from the memory 60 at the next frame time. Further, the remainder of the plurality of effect processes may be applied to the main audio signal Sm, and the main audio signal Sm may be synthesized with the audio signals DSP2_L and R that have been subjected to the effect process by the effect processing unit 80.

この場合、音源LSI100に供給されるクロック信号の周波数が低下した場合などにおいて、第1信号処理部61の処理の一部を第2信号処理部62へと引き渡すことにより、パイプライン処理が破綻するのを防止することができる。   In this case, when the frequency of the clock signal supplied to the tone generator LSI 100 is lowered, a part of the processing of the first signal processing unit 61 is handed over to the second signal processing unit 62, thereby causing the pipeline processing to fail. Can be prevented.

実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

実施の形態では、音源LSI100は携帯電話端末に搭載される場合について説明したが、本発明の用途はこれに限定されるものではなく、MIDI音源専用装置などに使用することも当然に可能である。   In the embodiment, the case where the tone generator LSI 100 is mounted on a mobile phone terminal has been described. However, the application of the present invention is not limited to this, and can naturally be used for a MIDI tone generator dedicated device or the like. .

また、実施の形態では、MIDI音源を例に説明したが、過去において存在し、あるいは将来にわたって開発されるであろう、これに変わる同等の音源についても、本発明は適用することができる。   In the embodiment, the MIDI sound source has been described as an example. However, the present invention can also be applied to equivalent sound sources that exist in the past or that will be developed in the future.

実施の形態にもとづき、本発明を説明したが、実施の形態は、本発明の原理、応用を示しているにすぎないことはいうまでもなく、実施の形態には、請求の範囲に規定された本発明の思想を離脱しない範囲において、多くの変形例や配置の変更が可能であることはいうまでもない。   Although the present invention has been described based on the embodiments, it should be understood that the embodiments merely illustrate the principles and applications of the present invention, and the embodiments are defined in the claims. Needless to say, many modifications and arrangements can be made without departing from the spirit of the present invention.

実施の形態に係る音源LSIの構成を示すブロック図である。It is a block diagram which shows the structure of the sound source LSI which concerns on embodiment. 音源LSIが搭載される電子機器の構成を示すブロック図である。It is a block diagram which shows the structure of the electronic device by which sound source LSI is mounted. CPUおよびDSPの詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of CPU and DSP. CPUおよびDSPによるフレーム処理のタイムチャートである。It is a time chart of the frame processing by CPU and DSP. DSP内部におけるボイス単位のパイプライン処理のフローを示す図である。It is a figure which shows the flow of the pipeline process of the voice unit in DSP inside. ボイス単位のパイプライン処理の際のDSPによるメモリアクセスの様子を示す図である。It is a figure which shows the mode of the memory access by DSP in the case of the pipeline process of a voice unit. DSPおよびエフェクト処理部の構成を示すブロック図である。It is a block diagram which shows the structure of DSP and an effect process part. エフェクト処理部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of an effect process part. 図8のエフェクト処理部における信号処理のタイムチャートである。It is a time chart of the signal processing in the effect processing part of FIG.

符号の説明Explanation of symbols

2・・・操作部、4・・・ホストプロセッサ、5・・・メモリ、6・・・LCDモニタ、8・・・通信処理部、10・・・音声出力部、22・・・音源ブロック、24・・・DAC、30・・・CPU、32・・・DSP、34・・・エフェクト処理部、36・・・パラメータバンク、42・・・第1演算処理部、44・・・ウェーブメモリ、46・・・作業用メモリ、48・・・第2演算処理部、49・・・出力部、50・・・ミキサ処理部、52・・・タイミングコントローラ、60・・・メモリ、61・・・第1信号処理部、62・・・第2信号処理部、70・・・Lチャンネル加算部、71・・・Rチャンネル加算部、72・・・残響エフェクト処理部、80・・・エフェクト処理部、81・・・ステレオ分配部、82・・・Lチャンネル加算部、83・・・Rチャンネル加算部、100・・・音源LSI、200・・・電子機器。

2 ... operation unit, 4 ... host processor, 5 ... memory, 6 ... LCD monitor, 8 ... communication processing unit, 10 ... audio output unit, 22 ... sound source block, 24 ... DAC, 30 ... CPU, 32 ... DSP, 34 ... effect processing unit, 36 ... parameter bank, 42 ... first arithmetic processing unit, 44 ... wave memory, 46 ... Working memory, 48 ... Second arithmetic processing unit, 49 ... Output unit, 50 ... Mixer processing unit, 52 ... Timing controller, 60 ... Memory, 61 ... First signal processing unit, 62 ... second signal processing unit, 70 ... L channel addition unit, 71 ... R channel addition unit, 72 ... reverberation effect processing unit, 80 ... effect processing unit 81 ... stereo distribution unit, 82 ... L Channel adding unit, 83 ··· R channel addition unit, 100 ... sound source LSI, 200 ··· electronic devices.

Claims (13)

入力されたデータにもとづいて、再生すべき音声波形データを生成して出力する音源処理装置であって、
ボイス単位で表現されたデータを、順番に解析し、ボイス単位のパラメータデータとして出力する中央演算処理装置と、
前記パラメータデータに応じてボイスごとの波形データを生成し、メインパスからすべてのボイスの波形データを順次出力し、エフェクト用パスから、所定のボイスの波形データを順次出力するデジタル信号処理装置と、
前記メインパスおよび前記エフェクト用パスから出力される波形データを、それぞれ別個に合成し、メインオーディオ信号およびエフェクト用オーディオ信号として出力するミキサ処理部と、
少なくとも前記エフェクト用オーディオ信号に所定のエフェクト処理を施した後、前記メインオーディオ信号と合成し、再生すべき音声波形データとして出力するエフェクト処理部と、
を備えることを特徴とする音源処理装置。
A sound source processing device that generates and outputs audio waveform data to be reproduced based on input data,
A central processing unit that analyzes data expressed in voice units in order and outputs the data as parameter data in voice units;
A digital signal processing device that generates waveform data for each voice according to the parameter data, sequentially outputs waveform data of all voices from the main path, and sequentially outputs waveform data of predetermined voices from the effect path;
Waveform data output from the main path and the effect path are separately combined, and a mixer processing unit that outputs the main audio signal and the effect audio signal;
An effect processing unit for performing at least predetermined effect processing on the audio signal for effect, then synthesizing with the main audio signal and outputting as audio waveform data to be reproduced;
A sound source processing apparatus comprising:
前記エフェクト処理部は、少なくとも前記メインオーディオ信号に対してエフェクト処理を施す第1信号処理部と、少なくとも前記エフェクト用オーディオ信号に対してエフェクト処理を施す第2信号処理部と、を含むことを特徴とする請求項1に記載の音源処理装置。   The effect processing unit includes a first signal processing unit that performs an effect process on at least the main audio signal, and a second signal processing unit that performs an effect process on at least the effect audio signal. The sound source processing device according to claim 1. 前記第1信号処理部と、前記第2信号処理部は、所定の単位時間ごとのパイプライン処理を行うことを特徴とする請求項2に記載の音源処理装置。   The sound source processing apparatus according to claim 2, wherein the first signal processing unit and the second signal processing unit perform pipeline processing every predetermined unit time. さらに、前記ミキサ処理部と、前記第1信号処理部は、前記所定の単位時間ごとのパイプライン処理を行うことを特徴とする請求項3に記載の音源処理装置。   The sound source processing device according to claim 3, wherein the mixer processing unit and the first signal processing unit perform pipeline processing for each predetermined unit time. 前記エフェクト処理部は、前記ミキサ処理部から出力される前記メインオーディオ信号および前記エフェクト用オーディオ信号を保持するメモリをさらに含み、
前記第1信号処理部は、ある単位時間において、前記メモリから前記メインオーディオ信号を読み出し、所定のエフェクト処理を施した後、前記メモリに再度書き込み、
前記第2信号処理部は、次の単位時間において、前記メモリから前記エフェクト用オーディオ信号を読み出し、所定のエフェクト処理を施した後、前記メインオーディオ信号と合成して出力することを特徴とする請求項3に記載の音源処理装置。
The effect processing unit further includes a memory that holds the main audio signal and the effect audio signal output from the mixer processing unit,
The first signal processing unit reads the main audio signal from the memory in a certain unit time, performs a predetermined effect processing, and then writes the memory again.
The second signal processing unit reads out the effect audio signal from the memory in a next unit time, performs predetermined effect processing, and then synthesizes and outputs the synthesized signal with the main audio signal. Item 4. The sound source processing device according to item 3.
前記第2信号処理部は、ある単位時間において前記エフェクト用オーディオ信号に対して、前記所定のエフェクト処理を施した結果得られたオーディオ信号を前記メモリに再度書き込み、
前記第1信号処理部は、次の単位時間において、前記メモリから、前記第2信号処理部によって書き込まれた前記オーディオ信号を読み出し、このオーディオ信号に対しても所定のエフェクト処理を施すことを特徴とする請求項5に記載の音源処理装置。
The second signal processing unit rewrites the audio signal obtained as a result of performing the predetermined effect processing on the effect audio signal in a certain unit time in the memory again.
The first signal processing unit reads the audio signal written by the second signal processing unit from the memory in the next unit time, and performs predetermined effect processing also on the audio signal. The sound source processing device according to claim 5.
前記メインパスは、
ステレオの波形データを出力するステレオメインパスと、
モノラルの波形データを出力するエフェクト用メインパスと、
を含み、
前記エフェクト処理部の前記第1信号処理部は、前記エフェクト用メインパスから出力される波形データを利用して、前記ステレオメインパスから出力される波形データに残響効果を付加することを特徴とする請求項2に記載の音源処理装置。
The main path is
Stereo main path that outputs stereo waveform data;
A main path for effects that outputs monaural waveform data,
Including
The first signal processing unit of the effect processing unit adds a reverberation effect to the waveform data output from the stereo main path using the waveform data output from the effect main path. The sound source processing device according to claim 2.
前記第1信号処理部が前記メインオーディオ信号に対して、複数のエフェクト処理を施す際に、そのエフェクト処理に要する時間が、前記単位時間より長くなる場合に、
前記第1信号処理部は、ある単位時間において、複数のエフェクト処理の一部を前記メインオーディオ信号に対して施し、
前記第2信号処理部は、次の単位時間において、前記メモリから前記メインオーディオ信号を読み出し、前記複数のエフェクト処理の残りを前記メインオーディオ信号に施すとともに、このメインオーディオ信号に、エフェクト処理を施した前記エフェクト用オーディオ信号を合成することを特徴とする請求項5に記載の音源処理装置。
When the first signal processing unit performs a plurality of effect processing on the main audio signal, when the time required for the effect processing is longer than the unit time,
The first signal processing unit performs a part of a plurality of effect processes on the main audio signal in a certain unit time,
The second signal processing unit reads the main audio signal from the memory in the next unit time, applies the rest of the plurality of effect processing to the main audio signal, and applies effect processing to the main audio signal. 6. The sound source processing apparatus according to claim 5, wherein the effect audio signal is synthesized.
前記デジタル信号処理装置は、前記中央演算処理装置からのパラメータデータによって指示されたボイスの波形データを、前記所定のボイスの波形データとして前記エフェクト用パスから出力することを特徴とする請求項1から8のいずれかに記載の音源処理装置。   The digital signal processing device outputs the waveform data of the voice designated by the parameter data from the central processing unit from the effect path as the waveform data of the predetermined voice. The sound source processing device according to claim 8. ひとつの半導体基板上に一体集積化されたことを特徴とする請求項1から8のいずれかに記載の音源処理装置。   9. The sound source processing device according to claim 1, wherein the sound source processing device is integrated on a single semiconductor substrate. 請求項1から8のいずれかに記載の音源処理装置と、
前記音源処理装置に対して、再生すべき音声波形を記述するデータを出力するホストプロセッサと、
を備えることを特徴とする電子機器。
A sound source processing device according to any one of claims 1 to 8,
A host processor for outputting data describing a sound waveform to be reproduced to the sound source processing device;
An electronic device comprising:
入力されたデータにもとづいて、再生すべき音声波形データを生成して出力する音源処理方法であって、
ボイス単位で表現されたデータを、順番に解析し、ボイス単位のパラメータデータとして出力するステップと、
前記パラメータデータに応じてボイスごとの波形データを生成するステップと、
生成された波形データのうち、すべてのボイスの波形データを順次出力するステップと、
生成された波形データのうち、所定のボイスの波形データを順次出力するステップと、
前記所定のボイスの波形データに対して、所定のエフェクト処理を施すステップと、
前記所定のエフェクト処理を施した波形データを、前記すべてのボイスの波形データと合成するステップと、
を含むことを特徴とする音源処理方法。
A sound source processing method for generating and outputting audio waveform data to be reproduced based on input data,
Analyzing the data expressed in voice units in order and outputting as parameter data in voice units;
Generating waveform data for each voice according to the parameter data;
A step of sequentially outputting waveform data of all voices of the generated waveform data;
A step of sequentially outputting waveform data of a predetermined voice among the generated waveform data;
Applying predetermined effect processing to the waveform data of the predetermined voice;
Synthesizing the waveform data subjected to the predetermined effect processing with the waveform data of all the voices;
A sound source processing method comprising:
再生すべき音声信号の特性を既述するデータを順次出力するステップと、
前記データに対応する波形データを順次生成するステップと、
前記波形データのすべてを合成し、メインオーディオ信号として出力するステップと、
前記波形データのうち、所定の音色に対応する波形データを合成し、エフェクト用オーディオ信号として出力するステップと、
前記エフェクト用オーディオ信号に所定のエフェクト処理を施すステップと、
エフェクト処理が施された前記エフェクト用オーディオ信号を、前記メインオーディオ信号と合成し、再生すべき音声波形データとして出力するステップと、
を含むことを特徴とする音源処理方法。
Sequentially outputting data describing the characteristics of the audio signal to be reproduced;
Sequentially generating waveform data corresponding to the data;
Synthesizing all of the waveform data and outputting as a main audio signal;
Synthesizing waveform data corresponding to a predetermined tone among the waveform data, and outputting as an effect audio signal;
Applying predetermined effect processing to the audio signal for effects;
Synthesizing the effect audio signal subjected to the effect processing with the main audio signal, and outputting it as audio waveform data to be reproduced;
A sound source processing method comprising:
JP2006211702A 2006-08-03 2006-08-03 Sound source processing apparatus and method, and electronic equipment utilizing them Pending JP2008039958A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006211702A JP2008039958A (en) 2006-08-03 2006-08-03 Sound source processing apparatus and method, and electronic equipment utilizing them

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006211702A JP2008039958A (en) 2006-08-03 2006-08-03 Sound source processing apparatus and method, and electronic equipment utilizing them

Publications (1)

Publication Number Publication Date
JP2008039958A true JP2008039958A (en) 2008-02-21

Family

ID=39175065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006211702A Pending JP2008039958A (en) 2006-08-03 2006-08-03 Sound source processing apparatus and method, and electronic equipment utilizing them

Country Status (1)

Country Link
JP (1) JP2008039958A (en)

Similar Documents

Publication Publication Date Title
US7069058B2 (en) Musical composition reproducing apparatus portable terminal musical composition reproducing method and storage medium
US20040159219A1 (en) Method and apparatus for combining processing power of MIDI-enabled mobile stations to increase polyphony
JPH0816169A (en) Sound formation, sound formation device and sound formation controller
JP2007534214A (en) Method, apparatus, and system for synthesizing audio performance using convolution at various sample rates
US6259792B1 (en) Waveform playback device for active noise cancellation
KR100717324B1 (en) A Karaoke system using the portable digital music player
KR100901555B1 (en) Sound generation assignment device, music sound generator and a computer readable recording medium recording sound generation assignment process program
JP4591391B2 (en) Audio data reproducing device and portable terminal device
JP2008039958A (en) Sound source processing apparatus and method, and electronic equipment utilizing them
JP2008009031A (en) Sound source processing apparatus and method, and electronic equipment using the same
KR20050057040A (en) Sound synthesiser
KR100509126B1 (en) Audio melody tune generation device and portable terminal device using it
JP2008009033A (en) Sound source processing apparatus, and method, sound processing apparatus, and electronic equipment using the same
JP2008009032A (en) Sound source processing apparatus, and method, and electronic equipment using the same
JP2004094163A (en) Network sound system and sound server
KR20050087368A (en) Transaction apparatus of bell sound for wireless terminal
KR20020060977A (en) Sound source circuit and telephone terminal comprising thereof
JP4939753B2 (en) Sound synthesizer
JP3991475B2 (en) Audio data processing apparatus and computer system
JP4306944B2 (en) Music playback device
KR100650938B1 (en) A noraebang system on digital audio devices and controlling method thereof
KR20060012489A (en) Sound effect device for mobile station
JP2023098384A (en) Loudspeaker system and control method for the same
CN115938339A (en) Audio data processing method and system
KR20080080013A (en) Mobile terminal apparatus