JP2006139190A - Speech data processor and speech data processing method - Google Patents

Speech data processor and speech data processing method Download PDF

Info

Publication number
JP2006139190A
JP2006139190A JP2004330521A JP2004330521A JP2006139190A JP 2006139190 A JP2006139190 A JP 2006139190A JP 2004330521 A JP2004330521 A JP 2004330521A JP 2004330521 A JP2004330521 A JP 2004330521A JP 2006139190 A JP2006139190 A JP 2006139190A
Authority
JP
Japan
Prior art keywords
audio data
processing
audio
output
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004330521A
Other languages
Japanese (ja)
Inventor
Akira Naganuma
昌 長沼
Kazuhisa Tamura
和久 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004330521A priority Critical patent/JP2006139190A/en
Publication of JP2006139190A publication Critical patent/JP2006139190A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a high-grade speech processing and broadcasting with a simple and inexpensive configuration. <P>SOLUTION: AES/EBU format speech data is received through a D/D converter 7 from each of a plurality of sound sources and is converted to PCM format speech data. The PCM format speech data is accumulated in an input buffer 1a and an input message queue 1b, and is processed and composited in a speech data processing/compositing section 1c according to output speech edition information, and is then outputted through an output section 1f. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ラジオ放送局、テレビ放送局等の放送局において、デジタル音声データの制御及び処理に使用される音声データ処理装置に関する。   The present invention relates to an audio data processing apparatus used for control and processing of digital audio data in a broadcasting station such as a radio broadcasting station or a television broadcasting station.

近年、放送局におけるマスター設備においては、伝送特性、管理効率等の観点から、デジタル化が進められている。このような傾向の中、マスター設備中の音声データ処理装置は、デジタル音声信号制御の効率的な処理を実施するため、その改良が進められている。   In recent years, master facilities in broadcasting stations have been digitized from the viewpoint of transmission characteristics, management efficiency, and the like. In such a tendency, the audio data processing device in the master facility is being improved in order to perform efficient processing of digital audio signal control.

図12に、音声データ処理装置としてのラジオマスター設備の全体概念図を示す。ラジオマスター設備は、音声切換部と再生出力部という各々の装置ユニットに分離されている。また、図13には、図12のラジオマスター設備における音声データの処理手順が、概念的に示されている。   FIG. 12 shows an overall conceptual diagram of radio master equipment as an audio data processing device. The radio master facility is separated into respective device units, ie, an audio switching unit and a reproduction output unit. Further, FIG. 13 conceptually shows a processing procedure of audio data in the radio master facility of FIG.

一般的に、再生出力部には、内部又は外部の種々の音源から、デジタルフォーマットの一つであるPCM(Pulse Code Modulation)に準じた音声データが入力される。一方、放送用のデジタルオーディオ信号の伝送規格はAES(Audio Engineering Society)及びEBU(ヨーロッパ放送連合:European Broadcast Union)によって定められたAES/EBUフォーマットに統一されている。このため、ラジオマスター設備は、一般的にAES/EBUフォーマットの入出力データに対応するよう構成されている。従って、音声切換部において使用されるデジタルデータフォーマットも、AES/EBUフォーマットである。そこで、図12、図13に示すように、再生出力部のPCMフォーマットデータを、AES/EBUフォーマットデータに変換するためのコンバータが使用される。また、AES/EBUフォーマットデータへの変換、AES/EBUフォーマットデータの加工(例えば音量制御)は、DSP(Digital Signal Processor)等、高速デジタル信号処理を行うデバイスが使用される。   Generally, audio data in accordance with PCM (Pulse Code Modulation), which is one of digital formats, is input to the reproduction output unit from various internal or external sound sources. On the other hand, the transmission standard of digital audio signals for broadcasting is unified to the AES / EBU format defined by AES (Audio Engineering Society) and EBU (European Broadcast Union). For this reason, the radio master facility is generally configured to support input / output data in the AES / EBU format. Therefore, the digital data format used in the voice switching unit is also the AES / EBU format. Therefore, as shown in FIGS. 12 and 13, a converter for converting the PCM format data of the reproduction output unit into AES / EBU format data is used. For conversion to AES / EBU format data and processing (for example, volume control) of AES / EBU format data, a device that performs high-speed digital signal processing such as a DSP (Digital Signal Processor) is used.

また、図14に示すように、音声切換部におけるプログラムスイッチャーは、種々の音源から取得される入力音声データを切替えるマトリックススイッチャーを使用している。マトリックス構造において、出力側へ出力される音声データをオン・オフ制御することにより出力するべき入力音声データを選択し、ミキシング回路にて各入力音声データのフェーダー制御を行うと共に、入力データを合成することにより、最終的な出力音声が得られる。   Further, as shown in FIG. 14, the program switcher in the voice switching unit uses a matrix switcher that switches input voice data acquired from various sound sources. In the matrix structure, input audio data to be output is selected by controlling on / off the audio data output to the output side, fader control of each input audio data is performed by the mixing circuit, and the input data is synthesized Thus, the final output sound can be obtained.

特開平5−048551号公報JP-A-5-048551 特開平9−181968号公報JP-A-9-181968

上述した様に、従来のラジオマスター設備では、入力音声データの切換回路に相当するマトリックススイッチャーと出力音声のミキシング回路は、別個のハードウェアとして完全に分離されている。このような構成においては、マトリックススイッチャーとミキシング回路が、協調して入力音声データの切換時に発生するノイズを防止する必要性が生ずることとなる。すなわち、マトリックススイッチャーにおける音声切換制御とミキシング回路におけるフェーダー制御(音量制御)との制御タイミングの整合性を考慮する必要が生じてくる。例えば、ある音源を新たに入力する場合、ミキシング回路にて予めその音量をしぼった後、マトリックススイッチャーにおいて当該音源をオンにする必要がある。このタイミングの整合性がよくない場合、ノイズが発生するおそれがある。また、このような考慮は入力システム構築作業、コストの増大を招くこととなる。   As described above, in the conventional radio master equipment, the matrix switcher corresponding to the input audio data switching circuit and the output audio mixing circuit are completely separated as separate hardware. In such a configuration, there is a need for the matrix switcher and the mixing circuit to cooperate to prevent noise generated when switching the input audio data. That is, it is necessary to consider the consistency of control timing between the voice switching control in the matrix switcher and the fader control (volume control) in the mixing circuit. For example, when a new sound source is newly input, it is necessary to turn on the sound source in the matrix switcher after the sound volume is reduced in advance by the mixing circuit. If the timing consistency is not good, noise may occur. In addition, such consideration causes an increase in input system construction work and cost.

また、再生出力部の音声データはPCMフォーマットのため、当該データの音声切換部に送る前に、音声切換部からスタンバイデータを送った後、再生コマンドを音声切換部から再生出力部に出力し再生出力部でPCMフォーマットデータをAES/EBUフォーマットに変換して出力する必要があり、スムーズな音源の選択、切換が困難となる(シームレスな音源切換ができない)という問題があった。   Also, since the audio data in the playback output unit is in PCM format, the standby command is sent from the voice switching unit before being sent to the voice switching unit for the data, and then the playback command is output from the voice switching unit to the playback output unit for playback. There is a problem that it is necessary to convert the PCM format data to the AES / EBU format and output it at the output unit, and it becomes difficult to select and switch the sound source smoothly (seamless sound source switching cannot be performed).

更に上述した通り、従来のラジオマスター設備では、音声切換部に使用されるデジタルデータフォーマットは、AES/EBUフォーマットであり、再生出力部で使用されるデジタルデータフォーマットはPCMである。これら二つの異なるフォーマットを同一の処理系で処理することはできない。従って、図13に示すように、AES/EBUフォーマットをPCMに変換するためのコンバータを用いることが必要となり、システム構築作業、コストの増大を招くこととなる。   Further, as described above, in the conventional radio master equipment, the digital data format used in the audio switching unit is the AES / EBU format, and the digital data format used in the reproduction output unit is PCM. These two different formats cannot be processed by the same processing system. Therefore, as shown in FIG. 13, it is necessary to use a converter for converting the AES / EBU format to PCM, which leads to an increase in system construction work and cost.

本発明は、簡易な構成により、デジタル信号制御を効率的にかつスムーズに処理する音声データ処理装置及び音声データ処理方法を提供する。   The present invention provides an audio data processing apparatus and an audio data processing method that efficiently and smoothly process digital signal control with a simple configuration.

本発明の音声データ処理装置は、複数の音源各々から、付加情報を含む付加情報付き音声データを受信する音声データ受信部と、受信された付加情報付き音声データを、付加情報を含まない処理用音声データに変換する第1の音声データ変換部と、処理用音声データを蓄積する第1の蓄積部と、第1の蓄積部に蓄積された、前記各音源に対応する処理用音声データを、出力音声編集情報に基づいて加工及び合成する音声データ加工合成部と、加工及び合成された処理用音声データを出力する出力部とを備える。   An audio data processing device according to the present invention includes an audio data receiving unit that receives audio data with additional information including additional information from each of a plurality of sound sources, and the received audio data with additional information for processing that does not include additional information. A first audio data conversion unit for converting into audio data; a first accumulation unit for accumulating processing audio data; and processing audio data corresponding to each sound source accumulated in the first accumulation unit, An audio data processing / synthesizing unit that processes and synthesizes based on the output audio editing information, and an output unit that outputs the processed and synthesized processing audio data.

第1の蓄積部が、各音源に対応した複数の仮想的なトラックを含み、各音源の処理用音声データが、対応する前記トラックに展開されるよう、音声データ処理装置を構成することができる。各トラックをキューより構成することができる。さらに第1の蓄積部に、トラックへの処理用音声データの展開の前に、処理用音声データを一時的に蓄積するバッファを設けることもできる。   The audio data processing device can be configured such that the first accumulation unit includes a plurality of virtual tracks corresponding to each sound source, and the sound data for processing of each sound source is developed on the corresponding track. . Each track can be composed of cues. Furthermore, the first storage unit may be provided with a buffer for temporarily storing the processing sound data before the processing sound data is developed on the track.

また、加工及び合成された処理用音声データを蓄積した後、出力部へ出力する第2の蓄積部を更に設けることもできる。   Further, a second storage unit that stores the processed and synthesized processing voice data and then outputs the processed speech data to the output unit may be further provided.

また、出力部より出力された処理用音声データを、付加情報付き音声データに変換する第2の音声データ変換部を更に設けることもできる。   In addition, a second audio data conversion unit that converts the processing audio data output from the output unit into audio data with additional information may be further provided.

また、音声データ受信部と第1の音声データ変換部から独立して、処理用音声データを蓄積し、再生する再生出力部を更に設けることもできる。   Further, it is possible to further provide a reproduction output unit for accumulating and reproducing the processing audio data independently of the audio data receiving unit and the first audio data conversion unit.

出力音声編集情報には、各音源の処理用音声データに対する乗算情報と、全音源の処理用音声データの加算情報を含ませることができる。   The output sound editing information can include multiplication information for processing sound data of each sound source and addition information of processing sound data for all sound sources.

上述において、付加情報付き音声データが、AES/EBUフォーマット音声データであり、処理用音声データが、PCMフォーマット音声データである場合に、本発明の音声データ処理装置を適用することができる。   In the above description, when the audio data with additional information is AES / EBU format audio data and the processing audio data is PCM format audio data, the audio data processing device of the present invention can be applied.

更に本発明の音声データ処理方法は、複数の音源各々から、付加情報を含む付加情報付き音声データを受信し、受信された付加情報付き音声データを、付加情報を含まない処理用音声データに変換し、処理用音声データを蓄積し、蓄積された各音源に対応する処理用音声データを、出力音声編集情報に基づいて加工及び合成し、加工及び合成された処理用音声データを出力する。また、これらの各ステップをコンピュータに実行させるためのプログラムも本発明に含まれる。   Furthermore, the audio data processing method of the present invention receives audio data with additional information including additional information from each of a plurality of sound sources, and converts the received audio data with additional information into processing audio data that does not include additional information. Then, the processing voice data is stored, the processing voice data corresponding to each stored sound source is processed and synthesized based on the output voice editing information, and the processed and synthesized processing voice data is output. A program for causing a computer to execute these steps is also included in the present invention.

本発明の音声データ処理装置及び音声データ処理方法によれば、簡易かつ安価な構成にて高品位の音声処理、放送が実現され得る。   According to the audio data processing apparatus and the audio data processing method of the present invention, high-quality audio processing and broadcasting can be realized with a simple and inexpensive configuration.

以下、本発明の実施の形態を、図面を参照して説明する。図1は、本発明の音声データ処理装置の構成及び当該装置と他の機器、設備との接続関係を示すブロック図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an audio data processing apparatus of the present invention and a connection relationship between the apparatus and other devices and equipment.

音声データ処理装置100は、ラジオ放送局に設置され、時間帯に応じた種々の番組、番組を構成する音声要素(楽曲、トーク等)を提供する設備である。音声データ処理装置100は、デジタルスイッチャー1と、再生出力部3と、音声切換制御部5とを備えている。更に、音声データ処理装置100は、デジタルスイッチャー1に接続されるD/Dコンバータ7、A/Dコンバータ11、D/Dコンバータ15及びD/Aコンバータ21をも含む。   The audio data processing apparatus 100 is installed in a radio broadcasting station, and is a facility that provides various programs according to time zones and audio elements (music, talk, etc.) constituting the programs. The audio data processing device 100 includes a digital switcher 1, a reproduction output unit 3, and an audio switching control unit 5. Furthermore, the audio data processing device 100 also includes a D / D converter 7, an A / D converter 11, a D / D converter 15, and a D / A converter 21 connected to the digital switcher 1.

音声データ処理装置100は、D/Dコンバータ7を介して、DAF(デジタルオーディオファイル)9a、デジタルオーディオテープレコーダー(DAT)9b、MO(光磁気ディスク)9c、MO9d等の各種デジタル音源(音声素材)に接続されている。これらデジタル音源からのAES/EBUフォーマットのデジタル音声データは、D/Dコンバータ7によって、所定の周波数変換とともにAES/EBUフォーマットからPCMフォーマットへの変換がなされた上で、音声データ処理装置100に送られる。D/Dコンバータ7は、AES/EBUフォーマット音声データを受信する音声データ受信部と、受信されたAES/EBUフォーマット音声データを、PCMフォーマット音声データに変換する第1の音声データ変換部を構成する。もちろん、D/Dコンバータ7から音声データ受信機能を切り離し、別途音声データ受信部を設けることも可能である。   The audio data processing apparatus 100 receives various digital sound sources (audio material) such as DAF (digital audio file) 9a, digital audio tape recorder (DAT) 9b, MO (magneto-optical disk) 9c, and MO9d via the D / D converter 7. )It is connected to the. The digital audio data in AES / EBU format from these digital sound sources is sent to the audio data processing apparatus 100 after being converted from the AES / EBU format to the PCM format along with a predetermined frequency conversion by the D / D converter 7. It is done. The D / D converter 7 constitutes an audio data receiving unit that receives AES / EBU format audio data, and a first audio data conversion unit that converts the received AES / EBU format audio data into PCM format audio data. . Of course, the audio data receiving function can be separated from the D / D converter 7 and a separate audio data receiving unit can be provided.

また、音声データ処理装置100は、A/Dコンバータ11を介して、スタジオ13a、スタジオ13b、テープレコーダー13c、テープレコーダー13d等の各種アナログ音源(音声素材)に接続されている。これらアナログ音源からのアナログ音声データは、A/Dコンバータ11によって、PCMフォーマット形式を有する所定のデジタル音声データに変換された上で、音声データ処理装置100に送られる。これら各音源は、上述の番組、音声要素を提供するものである。   The audio data processing apparatus 100 is connected via the A / D converter 11 to various analog sound sources (audio materials) such as a studio 13a, a studio 13b, a tape recorder 13c, and a tape recorder 13d. Analog audio data from these analog sound sources is converted into predetermined digital audio data having a PCM format by the A / D converter 11 and then sent to the audio data processing apparatus 100. Each of these sound sources provides the above-described program and audio elements.

上述の様に、音声データ処理装置100に入力されたデジタル音声データは、後述する処理を施された後、D/Dコンバータ15及びD/Aコンバータ21に送られる。D/Dコンバータ15に出力されたデジタル音声データは、所定の周波数変換とともにPCMフォーマットからAES/EBUフォーマットへの変換がなされた上で、通常用いられる送信機17に出力され、送信用アンテナ19により他の受信局に送信される。D/Dコンバータ15は、PCMフォーマット音声データを、AES/EBUフォーマット音声データに変換する第2の音声データ変換部を構成する。また、D/Aコンバータ21に出力されたデジタル音声データは、アナログ音声データに変換され、他のスタジオ23a,23b,23cに送られる。   As described above, the digital audio data input to the audio data processing apparatus 100 is subjected to processing described later, and then sent to the D / D converter 15 and the D / A converter 21. The digital audio data output to the D / D converter 15 is converted from the PCM format to the AES / EBU format together with a predetermined frequency conversion, and then output to the transmitter 17 that is normally used. It is transmitted to other receiving stations. The D / D converter 15 constitutes a second audio data converter that converts PCM format audio data into AES / EBU format audio data. The digital audio data output to the D / A converter 21 is converted into analog audio data and sent to other studios 23a, 23b, and 23c.

尚、音声データ処理装置100に接続される入力側の音源の種類や数は限定されない。また、音声データ処理装置100に接続される出力側の放送局、スタジオ等の出力先の種類や数も限定はされない。   The type and number of sound sources on the input side connected to the audio data processing device 100 are not limited. Also, the type and number of output destinations such as broadcast stations and studios on the output side connected to the audio data processing apparatus 100 are not limited.

次に、音声データ処理装置100を構成するデジタルスイッチャー1、再生出力部3、音声切換制御部5各々について説明する。   Next, each of the digital switcher 1, the reproduction output unit 3, and the audio switching control unit 5 constituting the audio data processing device 100 will be described.

デジタルスイッチャー1は、上述の如き入力側のスタジオ音源、テープレコーダー等の複数の入力音源(音声素材)から、時間帯に応じて適切な音源を選択し、出力側に送る音源を決定するものである。音源の選択、決定は24時間連続して自動的に行うことが可能であるが、放送に応じて種々の態様が考えられる。デジタルスイッチャー1は、ラジオ放送の自動番組送出装置、自動運行装置的な役割を果たし、APC(Auto Program Controller)、APS(Auto Program System)等の名称で呼ばれることがある。デジタルスイッチャー1の機能については後に詳述する。   The digital switcher 1 determines a sound source to be sent to the output side by selecting an appropriate sound source from a plurality of input sound sources (audio materials) such as the above-described studio sound source and tape recorder as described above according to the time zone. is there. The selection and determination of the sound source can be automatically performed continuously for 24 hours, but various modes are conceivable depending on the broadcast. The digital switcher 1 plays the role of a radio broadcast automatic program transmission device and automatic operation device, and is sometimes referred to as an APC (Auto Program Controller), APS (Auto Program System), or the like. The function of the digital switcher 1 will be described in detail later.

再生出力部3は、音源の一つとみなすことができ、音声データをPCMフォーマット形式で蓄積するものである。要するに、再生出力部3は、音声データ受信部及び第1の音声データ変換部であるD/Dコンバータ7から独立して、PCMフォーマット音声データを蓄積し再生する。しかしながら、D/Dコンバータ7、A/Dコンバータ11を介して入力されたPCMフォーマット音声データを蓄積することもできる。再生出力部3は、DAF(Digital Audio File)と呼ばれることがある。   The reproduction output unit 3 can be regarded as one of sound sources, and accumulates audio data in the PCM format format. In short, the reproduction output unit 3 accumulates and reproduces PCM format audio data independently of the audio data receiving unit and the D / D converter 7 which is the first audio data conversion unit. However, PCM format audio data input via the D / D converter 7 and the A / D converter 11 can also be stored. The reproduction output unit 3 is sometimes called DAF (Digital Audio File).

尚、図1において、再生出力部3はデジタルスイッチャー1の一部として記載されているが、本発明はこのような構成に限定されず、デジタルスイッチャー1と再生出力部3を、別々に構成することも可能である。また、デジタルスイッチャー1と再生出力部3をあわせたものを、ACC(Audio Control Center)と呼ぶことがある。   In FIG. 1, the reproduction output unit 3 is described as a part of the digital switcher 1. However, the present invention is not limited to such a configuration, and the digital switcher 1 and the reproduction output unit 3 are configured separately. It is also possible. A combination of the digital switcher 1 and the reproduction output unit 3 may be called an ACC (Audio Control Center).

音声切換制御部5は、スタジオ内の操作卓等外部機器からのユーザーによる設定や、予め蓄積されたプログラムを受けて、デジタルスイッチャー1、再生出力部3を制御するものである。音声切換制御部5は、通常使用される汎用のCPUで構成され得る。音声切換制御部5は、DCC(Data Control Center)と呼ばれることがある。音声切換制御部5の機能についても後に詳述する。   The audio switching control unit 5 controls the digital switcher 1 and the reproduction output unit 3 in response to user settings from an external device such as a console in the studio or a program stored in advance. The voice switching control unit 5 can be composed of a general-purpose CPU that is normally used. The voice switching control unit 5 may be called a DCC (Data Control Center). The function of the voice switching control unit 5 will also be described in detail later.

図2は、本発明下のデジタル音声データの処理手順全体を概念的に示している。本発明の音声データ処理装置100においては、入力音声データは総てPCMフォーマットで統一された上で、スイッチング処理、フェーダー制御が行われる。上述したように、放送機器等から入力される音声データは、一般的に、放送業界で規格化された放送用音声データフォーマット(本説明ではAES/EBU)を有している。このようなフォーマットを有する入力音声データは、D/Dコンバータ又はA/Dコンバータを用いてPCMフォーマット音声データに変換され、プログラムスイッチャー(デジタルスイッチャー1)に常時(ストリーム的に)入力される。また、別途内部に保存された音声素材(再生出力部3)はPCMフォーマットの形式で保存されており、プログラムスイッチャーに常時(ストリーム的に)入力される。プログラムスイッチャーに入力された複数のPCMフォーマット音声データは、CPU(音声切換制御部5)によるソフト的な制御の下、プログラムスイッチャーにて各々その音量(フェーダー)が変更され、合成された上で外部に出力される。   FIG. 2 conceptually shows the entire processing procedure of digital audio data under the present invention. In the audio data processing apparatus 100 of the present invention, all input audio data is unified in the PCM format, and then switching processing and fader control are performed. As described above, audio data input from a broadcasting device or the like generally has a broadcasting audio data format (AES / EBU in this description) standardized in the broadcasting industry. Input audio data having such a format is converted into PCM format audio data using a D / D converter or an A / D converter, and is always (streamwise) input to the program switcher (digital switcher 1). Also, the audio material (reproduction output unit 3) separately stored inside is stored in the PCM format and is always input (in a stream) to the program switcher. A plurality of PCM format audio data input to the program switcher is synthesized with the volume (fader) being changed and synthesized by the program switcher under software control by the CPU (audio switching control unit 5). Is output.

一方、図12〜図14に示した従来の処理下では、放送用音声データフォーマット(AES/EBU)を有する音声データが外部の放送機器等から入力され、そのままプログラムスイッチャー(マトリックススイッチャー)に入力される。また、別途PCMフォーマットの形式で内部に保存された音声素材は、同じフォーマット(AES/EBU)に変換された上で、プログラムスイッチャーに入力される。そして、プログラムスイッチャーに入力された複数のAES/EBUフォーマット音声データは、DSPの制御下、図12に示したように、ハード処理的なマトリックススイッチのオン・オフ切換により、各々の音源の取捨選択が行われ、合成された上で外部に出力される。   On the other hand, under the conventional processing shown in FIGS. 12 to 14, audio data having a broadcast audio data format (AES / EBU) is input from an external broadcasting device or the like and input to a program switcher (matrix switcher) as it is. The Also, the audio material separately stored in the PCM format is converted to the same format (AES / EBU) and input to the program switcher. Then, a plurality of AES / EBU format audio data input to the program switcher is selected by selecting a sound source by turning on / off the matrix switch as hardware processing as shown in FIG. 12 under the control of the DSP. Are synthesized and output to the outside.

AES/EBUフォーマット音声データの如き放送用音声データフォーマットのデータは、実体的な音声データ以外の種々の付加情報を含んだ、付加情報付き音声データである。付加情報とは、実体的音声データの性質を表わす情報や、データ送信時に必要とされる情報等、実質的に音声に対応した音声データ以外の総ての情報を含み得る(例:同期プリアンブル、オキジャリ、パリティフラグ、ユーザーズデータ、チャンネルステータス、パリティ等)。すなわち、処理対象の音声データは、純粋な音声データのみならず他のデータをも含んでおり、一連の連続的な音声データとして構成されていない。このようなデータをソフト的に処理することは不可能であり、従来技術ではハードウェアであるマトリックススイッチャーが必要であった。そして、マトリックススイッチャーの導入に伴い、先述したノイズ発生、シームレスな音源切換の実現困難等の問題が生じていた。   Data in a broadcast audio data format such as AES / EBU format audio data is audio data with additional information including various additional information other than substantial audio data. The additional information may include all information other than audio data substantially corresponding to audio, such as information representing the nature of substantive audio data and information required at the time of data transmission (eg, synchronization preamble, Critical, parity flag, user data, channel status, parity, etc.). That is, the audio data to be processed includes not only pure audio data but also other data, and is not configured as a series of continuous audio data. It is impossible to process such data in software, and the prior art requires a matrix switcher that is hardware. With the introduction of the matrix switcher, problems such as the aforementioned noise generation and difficulty in realizing seamless sound source switching have occurred.

しかし、本発明の音声データ処理装置では、上述したように音声データが、PCMフォーマットデータに統一された状態で、データ処理が行われる。PCMフォーマットデータは、AES/EBUフォーマットのデータのような付加情報を含まない処理用音声データであり、実質的な音声データのみで構成されている。いいかえると、本発明では、AES/EBUフォーマットデータから付加情報を取り除く処理が行われた上で、データ処理が行われる。このようなフォーマットデータに対してはソフト的に音源切換処理、フェーダー調整をすることが可能となり、マトリックススイッチを別途用いる必要がなくなる。この結果、機械的なマトリックススイッチのオン・オフに不可避的に伴うノイズを防止するとともに、途切れのない(シームレスな)入力音声切換を行うことが可能となる。また、音源切換処理、フェーダー調整を単一の音声切換制御部5(CPU)で行うことにより、制御の遅延時間を短縮することが可能となる。従来のDSPでは、複数音声の切換はDSPでは処理することができない。   However, in the audio data processing apparatus of the present invention, as described above, data processing is performed in a state where the audio data is unified into PCM format data. The PCM format data is processing audio data that does not include additional information such as data in AES / EBU format, and is composed of only substantial audio data. In other words, in the present invention, data processing is performed after processing for removing additional information from AES / EBU format data is performed. For such format data, it is possible to perform sound source switching processing and fader adjustment in software, eliminating the need to use a separate matrix switch. As a result, it is possible to prevent noise inevitably associated with the on / off of the mechanical matrix switch and to perform seamless (seamless) input voice switching. Further, by performing the sound source switching process and the fader adjustment by a single voice switching control unit 5 (CPU), it becomes possible to shorten the control delay time. In the conventional DSP, the switching of plural voices cannot be processed by the DSP.

次に、本発明の装置内部の具体的なデータ処理方法を説明する。本発明においては、仮想トラック選択方式という、各音源に対応させられて定義される仮想上のトラックを使用してPCMフォーマットの入力音声データを処理する。図3は、D/Dコンバータ7、A/Dコンバータ11、再生出力部3からのPCMフォーマットの入力音声データを、仮想トラックへ展開する状態を概念的に示したものである。各音源に対応した入力音声データの総てを、常時ソフトウェアの処理で各仮想トラックに展開した後、音声切換制御部5の制御信号に応じて仮想トラックを選択することで、入力音声データを選択する。図3の例では、トラック1〜8の8個のトラックに常時音声データが入力されているが、選択制御においてトラック1とトラック4の音声データのみが選択されている。   Next, a specific data processing method inside the apparatus of the present invention will be described. In the present invention, input audio data in the PCM format is processed using a virtual track that is defined in correspondence with each sound source, which is called a virtual track selection method. FIG. 3 conceptually shows a state in which input audio data in the PCM format from the D / D converter 7, the A / D converter 11, and the reproduction output unit 3 is developed on a virtual track. After all input audio data corresponding to each sound source is expanded to each virtual track by software processing, the input audio data is selected by selecting the virtual track according to the control signal of the audio switching control unit 5 To do. In the example of FIG. 3, audio data is always input to eight tracks 1 to 8, but only the audio data of tracks 1 and 4 is selected in the selection control.

図4は、仮想トラックに展開された入力音声データを合成する状態を概念的に示したものである。本発明においては、図のトラックイメージの様に、PCMフォーマット音声データが、所定単位のブロックDB(データセグメント)毎に各トラックを常時流れている。このような仮想トラック選択方式では、音声切換制御とフェーダー調整を同時に実現するため、入力音声データを瞬時に切換えることができる。また、ノイズ対策のために音声切換制御とフェーダー制御の制御タイミングで整合性を考慮する必要がなくなることとなる。   FIG. 4 conceptually shows a state in which input audio data developed on a virtual track is synthesized. In the present invention, PCM format audio data always flows through each track for each block DB (data segment) of a predetermined unit, as shown in the track image in the figure. In such a virtual track selection method, since voice switching control and fader adjustment are realized simultaneously, input voice data can be switched instantaneously. Further, it is not necessary to consider consistency at the control timing of the voice switching control and the fader control for noise countermeasures.

図4の例では、選択された仮想トラック1,2の音声データが、各々加工され(フェーダー制御、音量制御に相当)、合成される。一方、選択されていない仮想トラック3の音声データは読み捨てることとなる(後述のフェーダー係数が0)。各トラックのデータは送信された順序に従って、所定単位のブロックDB毎に順次展開処理されている。ここでは、後述するように、キューを利用したFIFO(First In First Out)的な処理が音声データに対して施されている。   In the example of FIG. 4, the audio data of the selected virtual tracks 1 and 2 are respectively processed (equivalent to fader control and volume control) and synthesized. On the other hand, the audio data of the virtual track 3 that has not been selected is discarded (fader coefficient described later is 0). The data of each track is sequentially expanded for each block DB in a predetermined unit according to the order of transmission. Here, as will be described later, FIFO (First In First Out) processing using a queue is performed on the audio data.

上述のような処理を実現するためのデジタルスイッチャー1の構成例を、図5に示す。デジタルスイッチャー1は、入力バッファ1a、入力メッセージキュー1b、音声データ加工・合成処理部1c、出力メッセージキュー1d、出力バッファ1e、出力部1fを備える。入力バッファ1a、入力メッセージキュー1bは、第1の蓄積部を構成し、出力メッセージキュー1d、出力バッファ1eは第2の蓄積部を構成するが、出力メッセージキュー1d、出力バッファ1eは省略することが可能である。各構成部分は通常用いられる各種のプロセッサ、メモリ等によって実現され、音声切換制御部5からの種々の指令、情報(後述の出力音声編集情報を含む)により、所定のプログラムに従って制御される。   An example of the configuration of the digital switcher 1 for realizing the processing as described above is shown in FIG. The digital switcher 1 includes an input buffer 1a, an input message queue 1b, an audio data processing / synthesis unit 1c, an output message queue 1d, an output buffer 1e, and an output unit 1f. The input buffer 1a and the input message queue 1b constitute a first accumulation unit, and the output message queue 1d and the output buffer 1e constitute a second accumulation unit, but the output message queue 1d and the output buffer 1e are omitted. Is possible. Each component is realized by various commonly used processors, memories, and the like, and is controlled according to a predetermined program by various commands and information (including output audio editing information described later) from the audio switching control unit 5.

音声切換制御部5によって制御されるデジタルスイッチャー1の動作を、上述の図5及び図6〜図8を用いて説明する。図6は、音声データ割り込み入力時に実施される音声データ割り込み処理の手順を示す処理フローである。音声データ割り込み処理は、入力音声データ取得処理(ステップS100)、音声データ加工及び合成処理(ステップS200)、出力音声データ設定処理(ステップS300)、の順に従って行われる。   The operation of the digital switcher 1 controlled by the voice switching control unit 5 will be described with reference to FIGS. 5 and 6 to 8 described above. FIG. 6 is a process flow showing the procedure of the audio data interrupt process performed when the audio data interrupt is input. The audio data interruption process is performed in the order of input audio data acquisition process (step S100), audio data processing and synthesis process (step S200), and output audio data setting process (step S300).

図7は、入力音声データ取得処理(図6;ステップS100)の詳細な処理手順を示す処理フローである(図3、4のトラックイメージへの展開処理の前半に該当)。まず、D/Dコンバータ7、A/Dコンバータ11、再生出力部3から、入力バッファ1aへの音声データの書き込みがなされ、音声データが入力バッファに一時的に蓄積される。この蓄積を音声データの割り込み入力として、入力音声チャンネル用インデックスの初期化が行われ(ステップS110)、次に総ての入力音声チャンネルの音声データ取得が完了したか否かが判断される(ステップS120)。総ての入力音声チャンネルの初期化が完了していないと判断された場合は(ステップS120;No)、入力バッファ1aから音声データを取得し(ステップS130)、音声データを入力メッセージキュー1bの対応するトラックへ展開し、格納する(ステップS140)。ここで、「音声チャンネル」とは物理的な入力元又は出力先のことをいう。一方、上述の「トラック」とは、音声データの蓄積イメージをいう。従って、入力チャンネル、トラック、出力チャンネルの如き流れで音声データは処理される。   FIG. 7 is a processing flow showing a detailed processing procedure of the input audio data acquisition processing (FIG. 6; step S100) (corresponding to the first half of the processing for developing the track image in FIGS. 3 and 4). First, audio data is written to the input buffer 1a from the D / D converter 7, the A / D converter 11, and the reproduction output unit 3, and the audio data is temporarily stored in the input buffer. Using this accumulation as an interrupt input for audio data, the input audio channel index is initialized (step S110), and it is then determined whether or not acquisition of audio data for all input audio channels has been completed (step S110). S120). If it is determined that initialization of all input audio channels has not been completed (step S120; No), audio data is acquired from the input buffer 1a (step S130), and the audio data is associated with the input message queue 1b. The track is developed and stored (step S140). Here, “audio channel” refers to a physical input source or output destination. On the other hand, the above-mentioned “track” refers to an accumulation image of audio data. Therefore, the audio data is processed in the flow such as the input channel, the track, and the output channel.

そして、入力音声チャンネル用インデックスの更新を行い(ステップS150)、ステップS120に戻って、総ての入力音声チャンネルの初期化が完了したか否かが再び判断される(ステップS120)。総ての入力音声チャンネルの初期化が完了したと判断された場合は(ステップS120;Yes)、入力音声データ取得処理の終了となる。総ての入力音声チャンネルの初期化が完了していないと判断された場合は(ステップS120;No)、再びステップS130〜ステップS150の処理を行う。   Then, the input audio channel index is updated (step S150), and the process returns to step S120 to determine again whether or not the initialization of all the input audio channels has been completed (step S120). If it is determined that initialization of all input audio channels has been completed (step S120; Yes), the input audio data acquisition process ends. If it is determined that the initialization of all input audio channels has not been completed (step S120; No), the processes of steps S130 to S150 are performed again.

図8は、音声データ加工及び合成処理(図6;ステップS200)の詳細な処理手順を示す処理フローである(図3、4のトラックイメージへの展開処理の中盤に該当)。まず、入力メッセージキュー1bへの音声データの格納が検知されると、出力音声チャンネル用インデックスの初期化が行われ(ステップS210)、次に総ての出力音声チャンネルの音声データ取得が完了したか否かが判断される(ステップS220)。総ての出力音声チャンネルの初期化が完了していないと判断された場合は(ステップS220;No)、音声データ加工・合成部1cは、音声切換制御部5から出力音声編集情報(スタジオ内に設置された操作卓等によるユーザーの設定入力や、予めプログラムされた設定に基づいて生成された情報等)を取得し(ステップS230)、さらに入力メッセージキュー1bから音声データを取得する(ステップS240)。そして、入力音声データを加工・合成して(ステップS250)、加工・合成された音声データを出力メッセージキュー1dへ格納する(ステップS260)。   FIG. 8 is a processing flow showing a detailed processing procedure of the audio data processing and synthesis processing (FIG. 6; step S200) (corresponding to the middle stage of the processing for developing the track image in FIGS. First, when it is detected that audio data is stored in the input message queue 1b, the output audio channel index is initialized (step S210), and then audio data acquisition for all output audio channels is completed. It is determined whether or not (step S220). If it is determined that initialization of all output audio channels has not been completed (step S220; No), the audio data processing / synthesizing unit 1c sends output audio editing information (in the studio) from the audio switching control unit 5. User setting input by an installed console or the like, information generated based on preprogrammed settings, etc.) is acquired (step S230), and voice data is acquired from the input message queue 1b (step S240). . Then, the input voice data is processed / synthesized (step S250), and the processed / synthesized voice data is stored in the output message queue 1d (step S260).

上述のステップにおいて、前述の出力音声編集情報に含まれている各音源の音量情報を参照して、各音源のフェーダー制御(音量制御)が行われる。加工は音声データに対する所定係数の乗算により実現され、合成は全音声データ(全音源からの音声データ)の加算により実現される。上述の所定係数が、各音源のフェーダー(音量)に対応する場合、音声データにフェーダー係数が乗算されることとなる。ある音源のデータが選択されない場合は、当該音源の音声データのフェーダー係数が0となり、図4の仮想トラック3のように読み捨てられることとなる。全音声データの加算とは、このようなフェーダー係数0の音声データが存在する場合も含まれる。結局、フェーダー係数を0にすることは、音声切換制御を実行することに等しくなり、音声切換制御とフェーダー制御が同時に行われることになる。   In the above steps, fader control (volume control) of each sound source is performed with reference to the volume information of each sound source included in the above-described output audio editing information. Processing is realized by multiplying audio data by a predetermined coefficient, and synthesis is realized by adding all audio data (audio data from all sound sources). When the predetermined coefficient described above corresponds to the fader (volume) of each sound source, the audio data is multiplied by the fader coefficient. When data of a certain sound source is not selected, the fader coefficient of the sound data of the sound source becomes 0 and is discarded as shown in the virtual track 3 of FIG. The addition of all audio data includes the case where such audio data with fader coefficient 0 exists. After all, setting the fader coefficient to 0 is equivalent to executing the voice switching control, and the voice switching control and the fader control are performed simultaneously.

そして、出力音声チャンネル用インデックスの更新を行い(ステップS270)、ステップS220に戻って、総ての出力音声チャンネルの初期化が完了したか否かが再び判断される(ステップS220)。総ての出力音声チャンネルの初期化が完了したと判断された場合は(ステップS220;Yes)、音声データ加工及び合成処理の終了となる。総ての出力音声チャンネルの初期化が完了していないと判断された場合は(ステップS220;No)、再びステップS230〜ステップS270の処理を行う。   Then, the output audio channel index is updated (step S270), and the process returns to step S220 to determine again whether or not the initialization of all output audio channels has been completed (step S220). If it is determined that the initialization of all output audio channels has been completed (step S220; Yes), the audio data processing and synthesis processing are terminated. If it is determined that initialization of all output audio channels has not been completed (step S220; No), the processing from step S230 to step S270 is performed again.

図9は、出力音声データ設定処理(図6;ステップS300)の詳細な処理手順を示す処理フローである(図3、4のトラックイメージへの展開処理の後半に該当)。まず、出力メッセージキュー1dへの音声データの格納が検知されると、出力音声チャンネル用インデックスの初期化が行われ(ステップS310)、総ての出力音声チャンネルの音声データ取得が完了したか否かが判断される(ステップS320)。総ての出力音声チャンネルの初期化が完了していないと判断された場合は(ステップS320;No)、出力メッセージキュー1dから音声データを取得し(ステップS330)、音声データを出力バッファへ設定する(ステップS340)。   FIG. 9 is a process flow showing a detailed processing procedure of the output audio data setting process (FIG. 6; step S300) (corresponding to the latter half of the process of developing the track image in FIGS. 3 and 4). First, when storage of audio data in the output message queue 1d is detected, an output audio channel index is initialized (step S310), and whether or not audio data acquisition for all output audio channels is completed. Is determined (step S320). If it is determined that initialization of all output audio channels has not been completed (step S320; No), audio data is acquired from the output message queue 1d (step S330), and the audio data is set in the output buffer. (Step S340).

そして、出力音声チャンネル用インデックスの更新を行い(ステップS350)、ステップS320に戻って、総ての出力音声チャンネルの初期化が完了したか否かが再び判断される(ステップS320)。総ての出力音声チャンネルの初期化が完了したと判断された場合は(ステップS320;Yes)、出力音声データ設定処理の終了となる。総ての出力音声チャンネルの初期化が完了していないと判断された場合は(ステップS320;No)、再びステップS330〜ステップS350の処理を行う。   Then, the output audio channel index is updated (step S350), and the process returns to step S320 to determine again whether or not the initialization of all output audio channels has been completed (step S320). If it is determined that initialization of all output audio channels has been completed (step S320; Yes), the output audio data setting process is terminated. If it is determined that initialization of all output audio channels has not been completed (step S320; No), the processing from step S330 to step S350 is performed again.

このようにして出力バッファ1eに設定された出力音声データは、所定のタイミングで出力部1fに送られ、最終的な出力音声データが出力される。   The output audio data set in the output buffer 1e in this way is sent to the output unit 1f at a predetermined timing, and final output audio data is output.

出力部1fから出力されたPCMフォーマット音声データは、D/Dコンバータ15、D/Aコンバータ21にてAES/EBUフォーマット又はアナログへの変換が施され、出力先へ送信される。   The PCM format audio data output from the output unit 1f is converted to AES / EBU format or analog by the D / D converter 15 and the D / A converter 21, and transmitted to the output destination.

さらに、本実施形態では出力部1fに対し、MADI(Multichannel Audio Digital Interface)規格を採用し、MADI規格方式にて、PCMフォーマット音声データを 出力する構成を採用している。MADI規格は、AESが1991年に定義した最大56チャンネル入出力のMADI(AES10−1991)と2001年に定義した最大64チャンネル入出力のMADI−X(MADI−Extended)フォーマットの総称である。コアキシャルケーブル(同軸ケーブル)又はオプティカルケーブル(光ケーブル)1本で、50チャンネルを越える放送情報、オーディオ情報を1度に伝送することが可能である。   Further, in the present embodiment, the output unit 1f adopts the MADI (Multichannel Audio Digital Interface) standard, and adopts a configuration for outputting PCM format audio data by the MADI standard method. The MADI standard is a general term for MADI (AES10-1991) with maximum 56 channel input / output defined by AES in 1991 and MADI-X (MADI-Extended) format with maximum 64 channel input / output defined in 2001. With one coaxial cable (coaxial cable) or optical cable (optical cable), it is possible to transmit broadcast information and audio information exceeding 50 channels at a time.

特に、上述のMADI−Xでは、出力部に対してモノラル8出力(ステレオ4出力)毎に出力列を最大モノラル64出力(ステレオ32出力)まで拡張することが可能となる。これにより、物理的に音声処理装置のサイズを変更することなく、出力音声のチャンネルを増加することが可能となる。   In particular, in the above-described MADI-X, it is possible to expand the output string to the maximum monaural 64 outputs (stereo 32 outputs) for each monaural 8 outputs (stereo 4 outputs) with respect to the output unit. As a result, it is possible to increase the channels of output audio without physically changing the size of the audio processing device.

また、モノラル8出力(ステレオ4出力)毎にコンバータの種別を割り付けることも可能となる。従って、コンバータの実装数を減らすことも可能となる。   It is also possible to assign a converter type for each monaural 8 output (stereo 4 output). Therefore, the number of converters mounted can be reduced.

図10は、MADI規格下での出力部1fでの音声データの送信を、模式的に示している。この図では、1チャンネル〜4チャンネルの4つの音声チャンネルが、MADI規格の採用により、1本のシリアル線40によって、音声データ処理装置100から出力されている様子が示されている。MADI規格の採用により、4つのチャンネル分のデータを、シリアル線40によって送ることが可能となる。この場合、出力部1fは音声データ処理装置100の本体側に組み込まれたMADIインターフェースと、本体とは別途に設けられたMADIユニット30(MADI出力部)から構成されることとなる。しかしながら、MADIインターフェースと、MADIユニット30を必ずしも、各々別ユニットにて構成する必要はなく、一体にて構成することもできる。   FIG. 10 schematically shows transmission of audio data at the output unit 1f under the MADI standard. This figure shows a state in which four audio channels 1 to 4 are output from the audio data processing device 100 through one serial line 40 by adopting the MADI standard. By adopting the MADI standard, data for four channels can be sent by the serial line 40. In this case, the output unit 1f includes a MADI interface incorporated on the main body side of the audio data processing apparatus 100 and a MADI unit 30 (MADI output unit) provided separately from the main body. However, the MADI interface and the MADI unit 30 are not necessarily configured as separate units, and may be configured as a single unit.

図11は、MADIユニット30の背面構成の概略を示したものである。MADIユニット30はシリアル線40を介して出力部1fに接続されている。又は、MADIユニット30は出力部1fの一部を構成しているということもできる。そして、MADIユニット30は更に図1のD/Dコンバータ15、D/Aコンバータ21に接続される。MADIユニット30の背面には、出力側ポート30aが設けられており、この一つ一つがシリアル線40に接続される。また、入力側ポート30bは、入力側のD/Dコンバータ7又はA/Dコンバータ11と、デジタルスイッチャー1の間に配置され、同じくMADI規格にてデータの送受信を行う際に使用されるものであるが、本発明では必須のものではない。   FIG. 11 shows an outline of the rear configuration of the MADI unit 30. The MADI unit 30 is connected to the output unit 1 f via the serial line 40. Alternatively, it can also be said that the MADI unit 30 constitutes a part of the output unit 1f. The MADI unit 30 is further connected to the D / D converter 15 and the D / A converter 21 of FIG. An output side port 30 a is provided on the back surface of the MADI unit 30, and each one is connected to the serial line 40. The input side port 30b is disposed between the D / D converter 7 or A / D converter 11 on the input side and the digital switcher 1 and is used when data is transmitted and received in the same manner as the MADI standard. However, it is not essential in the present invention.

以上の様に、本発明においては、装置内部における処理対象の音声データが、付加情報のないフォーマットデータ(PCM)である。従って、音声データを、ソフトウェアを用いて処理することが可能となる。具体的には、入力音声データをソフトウェア制御により仮想トラックに展開した後、フェーダー制御により仮想トラックを選択し、音声をミキシングすることが可能となる。   As described above, in the present invention, the audio data to be processed in the apparatus is format data (PCM) without additional information. Therefore, it is possible to process the audio data using software. Specifically, after the input audio data is developed into a virtual track by software control, the virtual track can be selected by fader control and audio can be mixed.

このような仮想トラック選択方式では、音声切換制御とフェーダー制御が同時に実現されていると考えられる。従って入力音声を瞬時に(ブランク時間0で)切換えることができる。また、ノイズ対策のために音声切換制御とフェーダー制御のタイミングの整合性を考慮する必要がなくなることとなる。また、入力音声の切換タイミングにバリエーションを持たせることができる。   In such a virtual track selection method, it is considered that voice switching control and fader control are realized simultaneously. Therefore, the input voice can be switched instantaneously (with blank time 0). Further, it is not necessary to consider the consistency of the timings of the voice switching control and the fader control for noise countermeasures. In addition, it is possible to give variations to the switching timing of the input voice.

また、従来技術の音声切換部において使用されていたマトリックススイッチャーが不要のため、装置構成を簡素化するとともに、コストを削減することが可能となる。   Further, since the matrix switcher used in the voice switching unit of the prior art is not necessary, the apparatus configuration can be simplified and the cost can be reduced.

本発明の音声データ処理装置は、ラジオ放送局、テレビ放送局等の放送局において、デジタル信号制御に使用されるデジタルマスターシステム(ラジオ放送の場合はラジオマスターシステム)に好ましく用いられるが、特にその用途は限定されない。また、付加情報付きデータには、「ADPCM」、「MPEG2・AAC」、「MP3」等があるが、これらの音声データ、圧縮データの処理にも本発明は適用される。   The audio data processing apparatus of the present invention is preferably used in a digital master system (radio master system in the case of radio broadcasting) used for digital signal control in broadcasting stations such as radio broadcasting stations and television broadcasting stations. The application is not limited. Further, the data with additional information includes “ADPCM”, “MPEG2 / AAC”, “MP3”, etc., but the present invention is also applied to processing of these audio data and compressed data.

更に本発明は、音声データの処理方法をも含むものである。当該方法は、1)複数の音源各々から、付加情報を含む付加情報付き音声データを受信するステップと、2)受信された付加情報付き音声データを、付加情報を含まない処理用音声データに変換するステップと、3)処理用音声データを蓄積するステップと、4)蓄積された各音源に対応する処理用音声データを出力音声編集情報に基づいて加工及び合成するステップと、5)加工及び合成された処理用音声データを出力するステップと、を備える。   Furthermore, the present invention includes a method for processing audio data. The method includes: 1) receiving audio data with additional information including additional information from each of a plurality of sound sources; and 2) converting the received audio data with additional information into processing audio data not including additional information. 3) a step of storing processing voice data, 4) a step of processing and synthesizing the stored processing voice data corresponding to each sound source based on the output voice editing information, and 5) processing and synthesis. Outputting the processed audio data for processing.

また、上述の各ステップをコンピュータに実行させるためのプログラムも本発明に含まれる。このプログラムは種々の形式で装置内又は装置外に組み込まれる。例えば音声切換制御部5内の所定のメモリにプログラムを記録することができる。また、ハードディスクのような情報記録装置や、CD−ROMやDVD−ROM、メモリカードのような情報記録媒体にプログラムを記録し、音声データ処理装置に装填することもできる。   A program for causing a computer to execute the above steps is also included in the present invention. This program can be incorporated in or outside the device in various formats. For example, the program can be recorded in a predetermined memory in the voice switching control unit 5. It is also possible to record the program in an information recording device such as a hard disk, or an information recording medium such as a CD-ROM, DVD-ROM, or memory card, and load it into an audio data processing device.

以上、本発明の各種実施形態を説明したが、本発明は前記実施形態において示された事項に限定されず、明細書の記載、並びに周知の技術に基づいて、当業者がその変更・応用することも本発明の予定するところであり、保護を求める範囲に含まれる。   Although various embodiments of the present invention have been described above, the present invention is not limited to the matters shown in the above-described embodiments, and those skilled in the art can make modifications and applications based on the description and well-known techniques. This is also the scope of the present invention, and is included in the scope of seeking protection.

本発明の音声データ処理装置及び音声データ処理方法によれば、簡易かつ安価な構成にて高品位の音声処理、放送が実現され得る。   According to the audio data processing apparatus and the audio data processing method of the present invention, high-quality audio processing and broadcasting can be realized with a simple and inexpensive configuration.

本発明の音声データ処理装置及び他の機器、設備との接続関係の概要を示すブロック図。The block diagram which shows the outline | summary of the connection relation with the audio | voice data processing apparatus of this invention, another apparatus, and installation. 本発明の音声データ処理装置における音声データの処理手順を示す概念図。The conceptual diagram which shows the process sequence of the audio | voice data in the audio | voice data processing apparatus of this invention. 入力音声データの仮想トラックへの展開の概念図。The conceptual diagram of expansion | deployment to the virtual track | truck of input audio | voice data. 仮想トラックに展開された入力音声データの選択方法を示す概念図。The conceptual diagram which shows the selection method of the input audio | voice data expand | deployed by the virtual track | truck. デジタルスイッチャーの構成を示すブロック図。The block diagram which shows the structure of a digital switcher. 音声データ割り込み入力時に実施される音声データ割り込み処理の手順を示す処理フロー。The processing flow which shows the procedure of the audio | voice data interruption process implemented at the time of audio | voice data interruption input. 図6における入力音声データ取得処理の処理手順を示す処理フロー。7 is a processing flow showing a processing procedure of input voice data acquisition processing in FIG. 図6における音声データ加工及び合成処理の処理手順を示す処理フロー。FIG. 7 is a processing flow showing a processing procedure of voice data processing and synthesis processing in FIG. 6. 図6における出力音声データ設定処理の処理手順を示す処理フロー。7 is a processing flow showing a processing procedure of output audio data setting processing in FIG. MADI規格下での、出力部での音声データの送信を示す模式図。The schematic diagram which shows transmission of the audio | speech data in an output part under MADI specification. MADIユニット背面の概略図。Schematic of the back of the MADI unit. 従来のラジオマスター設備の概念図。The conceptual diagram of the conventional radio master equipment. 従来のラジオマスター設備における音声データの処理手順を示す概念図。The conceptual diagram which shows the process sequence of the audio | voice data in the conventional radio master equipment. 従来のラジオマスター設備において使用されるマトリックススイッチャーの概念図。The conceptual diagram of the matrix switcher used in the conventional radio master equipment.

符号の説明Explanation of symbols

1 デジタルスイッチャー
3 再生出力部
5 音声切替制御部
7 D/Dコンバータ
11 A/Dコンバータ
15 D/Dコンバータ
21 D/Aコンバータ
30 MADIユニット
40 シリアル線
100 音声データ処理装置
DESCRIPTION OF SYMBOLS 1 Digital switcher 3 Reproduction | regeneration output part 5 Audio | voice switching control part 7 D / D converter 11 A / D converter 15 D / D converter 21 D / A converter 30 MADI unit 40 Serial line 100 Audio | voice data processing apparatus

Claims (11)

複数の音源各々から、付加情報を含む付加情報付き音声データを受信する音声データ受信部と、
受信された前記付加情報付き音声データを、付加情報を含まない処理用音声データに変換する第1の音声データ変換部と、
前記処理用音声データを蓄積する第1の蓄積部と、
前記第1の蓄積部に蓄積された、前記各音源に対応する処理用音声データを、出力音声編集情報に基づいて加工及び合成する音声データ加工合成部と、
前記加工及び合成された処理用音声データを出力する出力部と、を備える音声データ処理装置。
An audio data receiving unit for receiving audio data with additional information including additional information from each of a plurality of sound sources;
A first audio data converter that converts the received audio data with additional information into audio data for processing not including additional information;
A first storage unit for storing the processing voice data;
An audio data processing / synthesizing unit that processes and synthesizes the processing audio data corresponding to each sound source stored in the first storage unit based on output audio editing information;
An audio data processing apparatus comprising: an output unit that outputs the processed and synthesized audio data for processing.
請求項1記載の音声データ処理装置であって、
前記第1の蓄積部が、前記各音源に対応した複数の仮想的なトラックを含み、
前記各音源の処理用音声データが、対応する前記トラックに展開される、音声データ処理装置。
The audio data processing device according to claim 1,
The first storage unit includes a plurality of virtual tracks corresponding to the sound sources,
An audio data processing device in which audio data for processing of each sound source is developed on the corresponding track.
請求項2記載の音声データ処理装置であって、
前記各トラックがキューより構成される、音声データ処理装置。
The audio data processing device according to claim 2,
An audio data processing apparatus, wherein each track is composed of cues.
請求項2又は3記載の音声データ処理装置であって、
前記第1の蓄積部が、前記トラックへの前記処理用音声データの展開の前に、前記処理用音声データを一時的に蓄積するバッファを備える、音声データ処理装置。
The voice data processing device according to claim 2 or 3,
The audio data processing device, wherein the first storage unit includes a buffer that temporarily stores the processing audio data before the processing audio data is expanded to the track.
請求項1ないし4のいずれか1項記載の音声データ処理装置であって、
前記加工及び合成された処理用音声データを蓄積した後、前記出力部へ出力する第2の蓄積部を更に備える、音声データ処理装置
The voice data processing device according to any one of claims 1 to 4,
An audio data processing apparatus further comprising a second storage unit that stores the processed and synthesized processing audio data and then outputs the processed audio data to the output unit
請求項1ないし5のいずれか1項記載の音声データ処理装置であって、
前記出力部より出力された前記処理用音声データを、付加情報付き音声データに変換する第2の音声データ変換部を更に備える、音声データ処理装置。
The voice data processing device according to any one of claims 1 to 5,
An audio data processing apparatus, further comprising: a second audio data conversion unit that converts the processing audio data output from the output unit into audio data with additional information.
請求項1ないし6のいずれか1項記載の音声データ処理装置であって、
前記音声データ受信部と前記第1の音声データ変換部から独立して、前記処理用音声データを蓄積し、再生する再生出力部を更に含む、音声データ処理装置。
The voice data processing device according to any one of claims 1 to 6,
An audio data processing apparatus further comprising a reproduction output unit for accumulating and reproducing the audio data for processing independently of the audio data receiving unit and the first audio data conversion unit.
請求項1ないし7のいずれか1項記載の音声データ処理装置であって、
前記出力音声編集情報は、各音源の処理用音声データに対する乗算情報と、全音源の処理用音声データの加算情報を含む、音声データ処理装置。
The voice data processing device according to any one of claims 1 to 7,
The output audio editing information is an audio data processing device including multiplication information for processing sound data of each sound source and addition information of processing sound data of all sound sources.
請求項1ないし8のいずれか1項記載の音声データ処理装置であって、
前記付加情報付き音声データが、AES/EBUフォーマット音声データであり、
前記処理用音声データが、PCMフォーマット音声データである、音声データ処理装置。
The voice data processing device according to any one of claims 1 to 8,
The audio data with additional information is AES / EBU format audio data,
An audio data processing apparatus, wherein the processing audio data is PCM format audio data.
複数の音源各々から、付加情報を含む付加情報付き音声データを受信し、
受信された前記付加情報付き音声データを、付加情報を含まない処理用音声データに変換し、
前記処理用音声データを蓄積し、
蓄積された前記各音源に対応する処理用音声データを、出力音声編集情報に基づいて加工及び合成し、
前記加工及び合成された処理用音声データを出力する、音声データ処理方法。
Receive audio data with additional information including additional information from each of a plurality of sound sources,
The received voice data with additional information is converted into processing voice data not including additional information,
Storing the processing voice data;
Processing and synthesizing the processing audio data corresponding to each of the accumulated sound sources based on the output audio editing information,
An audio data processing method for outputting the processed and synthesized audio data for processing.
請求項10記載の各ステップをコンピュータに実行させるためのプログラム。   The program for making a computer perform each step of Claim 10.
JP2004330521A 2004-11-15 2004-11-15 Speech data processor and speech data processing method Withdrawn JP2006139190A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004330521A JP2006139190A (en) 2004-11-15 2004-11-15 Speech data processor and speech data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004330521A JP2006139190A (en) 2004-11-15 2004-11-15 Speech data processor and speech data processing method

Publications (1)

Publication Number Publication Date
JP2006139190A true JP2006139190A (en) 2006-06-01

Family

ID=36620045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004330521A Withdrawn JP2006139190A (en) 2004-11-15 2004-11-15 Speech data processor and speech data processing method

Country Status (1)

Country Link
JP (1) JP2006139190A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251569A (en) * 2008-04-11 2009-10-29 Nec Electronics Corp Sound data processing device, sound data processing method, program and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251569A (en) * 2008-04-11 2009-10-29 Nec Electronics Corp Sound data processing device, sound data processing method, program and recording medium

Similar Documents

Publication Publication Date Title
US6330214B1 (en) Signal recording/reproducing apparatus and method
US7408851B2 (en) Pseudo multi-channel play-back apparatus
CN100505064C (en) Audio reproducing apparatus
JP2004364171A (en) Multichannel audio system, as well as head unit and slave unit used in same
US6501717B1 (en) Apparatus and method for processing digital audio signals of plural channels to derive combined signals with overflow prevented
JP2005084459A (en) Audio device and reproducing method of audio device
JP2701364B2 (en) PCM audio data recording / reproducing device
JP4419849B2 (en) Digital audio signal recording / reproducing apparatus
JP2006139190A (en) Speech data processor and speech data processing method
JP2006140909A (en) Apparatus and method for processing voice data
JP2005130346A (en) Audio system, audio unit and sound signal output processing method
JP2009277277A (en) Speech processing unit
JPH10143350A (en) First-in first-out memory control system
US20040030561A1 (en) Method and apparatus for digital signal communication between computer-based multi-channel audio controller and surround sound systems
JP4408573B2 (en) Auto local network
JP6604213B2 (en) Control equipment
KR100629507B1 (en) Multi-format sound delay apparatus capable of selectable delay and a method thereof
JP2008140434A (en) Digital audio device and its sample rate changing method
JP2003257125A (en) Sound reproducing method and sound reproducing device
JP2001143394A (en) Reproducing device and reproducing method
JP2864790B2 (en) Recording audio switching circuit
JP2006033278A (en) Sound signal outputting device and recording/reproducing device
JP2005166188A (en) Digital audio signal processor and digital audio signal processing method
JP2005311440A (en) Digital data reproducing apparatus
JP2005086389A (en) Acoustic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071030

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071120

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20091112