JP4462368B2 - Music playback device and music playback program - Google Patents

Music playback device and music playback program Download PDF

Info

Publication number
JP4462368B2
JP4462368B2 JP2008104704A JP2008104704A JP4462368B2 JP 4462368 B2 JP4462368 B2 JP 4462368B2 JP 2008104704 A JP2008104704 A JP 2008104704A JP 2008104704 A JP2008104704 A JP 2008104704A JP 4462368 B2 JP4462368 B2 JP 4462368B2
Authority
JP
Japan
Prior art keywords
music
localization
information
data
sound image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008104704A
Other languages
Japanese (ja)
Other versions
JP2008176347A (en
Inventor
秀昭 樽口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008104704A priority Critical patent/JP4462368B2/en
Publication of JP2008176347A publication Critical patent/JP2008176347A/en
Application granted granted Critical
Publication of JP4462368B2 publication Critical patent/JP4462368B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、楽曲データを再生する楽曲再生装置及び楽曲再生プログラムに関する。   The present invention relates to a music playback device and a music playback program for playing back music data.

記憶部等に記憶されている楽曲データを再生するときには、その楽曲データをそのまま再生するのが通常である。
そして、その楽曲の内容に関する情報、例えば、その楽曲のジャンル、演奏時間、その楽曲にユーザの好みのフレーズが含まれているかどうか、どのようなパート構成であるか、といった情報は、再生された楽曲を聴くことにより取得していた。
When music data stored in a storage unit or the like is reproduced, the music data is usually reproduced as it is.
Then, information related to the contents of the music, for example, information such as the genre of the music, performance time, whether the music contains a phrase preferred by the user, and what part configuration is reproduced. It was acquired by listening to music.

なお、音楽信号を分析してその音楽ジャンルを判別し、そのジャンルに対応するホールシミュレーションモードでサラウンド音場補正を行う技術は特許文献1に記載されている。
特開平8−37700号公報
A technique for analyzing a music signal to determine the music genre and correcting the surround sound field in a hall simulation mode corresponding to the genre is described in Patent Document 1.
JP-A-8-37700

上述のように、ユーザは、記憶部等に記憶されている楽曲データがどのような内容のものであるのかを知るために、再生させる楽曲をそのまま聴いて解釈していたため、楽曲の内容の解釈には経験と時間を必要としていた。
なお、上記特許文献1に記載されたものは、音楽ジャンルに従って総合的な音場設定を行うものであり、これにより、楽曲の内容を知ることは困難である。
As described above, since the user listens to and interprets the music to be played back in order to know what the music data stored in the storage unit or the like is, the interpretation of the contents of the music Needed experience and time.
In addition, what was described in the said patent document 1 performs comprehensive sound field setting according to a music genre, and it is difficult to know the content of a music by this.

そこで、本発明は、効率の良い楽曲の解釈を可能とする楽曲再生装置を提供することを目的としている。   SUMMARY OF THE INVENTION An object of the present invention is to provide a music playback device that enables efficient interpretation of music.

上記目的を達成するために、本発明の楽曲再生装置は、シーケンスデータ又はオーディオデータを演奏情報として含む楽曲データを記憶する記憶手段と、前記楽曲データを再生する再生手段と、前記再生手段から出力される楽音信号に対して制御信号に基づいて音像定位処理を行う音像定位処理手段と、楽曲の内容とそれに対応する定位方法が定義されている定位制御テーブルと、前記楽曲データの演奏情報であるシーケンスデータ又はオーディオデータを直接分析することでその楽曲の内容に関する情報を取得する分析手段と、前記定位制御テーブルから前記分析手段により取得された情報に対応する定位方法であって、楽曲全体を定位させる方法、楽曲中の特定の区間において定位を移動させる方法、楽曲の構成部分に応じて定位を分割して配置する方法、又は、楽曲の途中で定位の分割、結合を行う方法のいずれかである定位方法を取得し、該定位方法を実行するための制御情報を前記音像定位処理手段に送る手段とを有するものである。
また、前記定位制御テーブルには、楽曲の内容とそれに対応する定位方法の優先順位が定義されているものである。
さらに、前記分析手段は、特定のフレーズの有無を判断するものである。
さらにまた、前記分析手段により取得した楽曲の内容に関する情報を、その楽曲データに対応付けて記憶する手段を有するものである
さらにまた、本発明の楽曲再生プログラムは、シーケンスデータ又はオーディオデータを演奏情報として含む楽曲データを記憶する記憶手段と、前記楽曲データを再生する再生手段と、前記再生手段から出力される楽音信号に対して制御信号に基づいて音像定位処理を行う音像定位処理手段と、楽曲の内容とそれに対応する定位方法が定義されている定位制御テーブルとを有する楽曲再生装置における楽曲再生プログラムであって、コンピュータを、前記楽曲データの演奏情報であるシーケンスデータ又はオーディオデータを直接分析することでその楽曲の内容に関する情報を取得する分析手段、及び、前記定位制御テーブルから前記分析手段により取得された情報に対応する定位方法であって、楽曲全体を定位させる方法、楽曲中の特定の区間において定位を移動させる方法、楽曲の構成部分に応じて定位を分割して配置する方法、又は、楽曲の途中で定位の分割、結合を行う方法のいずれかである定位方法を取得し、該定位方法を実行するための制御情報を前記音像定位処理手段に送る手段として動作させるものである。
In order to achieve the above object, a music reproducing apparatus of the present invention stores storage means for storing music data including sequence data or audio data as performance information, reproducing means for reproducing the music data, and output from the reproducing means. Sound image localization processing means for performing sound image localization processing based on a control signal for a musical sound signal to be played, a localization control table in which the content of the music and a corresponding localization method are defined, and performance information of the music data Analyzing means for acquiring information related to the contents of the music by directly analyzing sequence data or audio data, and a localization method corresponding to the information acquired by the analyzing means from the localization control table , wherein the entire music is The method of localization, the method of moving the localization in a specific section of the music, the localization according to the composition part of the music How to arrange the or the division of the orientation in the middle of a song, acquires the localization method is any method of performing coupling, sends control information for executing the constant position method to the sound image localization processing unit means It has.
The localization control table defines the contents of music and the priority of localization methods corresponding to the contents.
Furthermore, the analysis means determines the presence or absence of a specific phrase.
Furthermore, it has a means to memorize | store the information regarding the content of the music acquired by the said analysis means matched with the music data .
Still further, the music reproducing program of the present invention includes a storage means for storing music data including sequence data or audio data as performance information, a reproducing means for reproducing the music data, and a musical sound signal output from the reproducing means. A music playback program in a music playback device having sound image localization processing means for performing sound image localization processing on the basis of a control signal, and a localization control table in which the contents of the music and the corresponding localization method are defined, comprising: To the information acquired by the analysis means from the localization control table, and the analysis means for acquiring information relating to the contents of the music by directly analyzing the sequence data or audio data which is the performance information of the music data a corresponding localization method, a method of localizing the entire song, particular in music The method of moving the localization in the interval, a method of placing by dividing the localization in accordance with the component of the music, or to obtain a localization method is any method of performing division of the localization in the middle of the music, the binding, the It is operated as means for sending control information for executing the localization method to the sound image localization processing means.

このような本発明の楽曲再生装置及び楽曲再生プログラムによれば、楽音の分析結果を立体音響の音像の定位に反映させて再生することにより、効率の良い楽曲解釈が可能となる。すなわち、従来と同じ聴覚のみで、一回の再生を行う時間も同じでありながら、定位による付加情報が追加されているために、ユーザがあらかじめその定位の仕方の意味を知っていれば、その曲の内容に関する各種情報(曲のジャンル、演奏時間、好みのフレーズの有無、パートなど)を容易に知ることができる。
このことは、大量の音楽配信を受けて、様々な曲を聴くときなどに便利である。
According to such a music playback device and music playback program of the present invention, efficient music interpretation can be performed by reflecting the analysis result of the musical sound in the localization of the sound image of the stereophonic sound. In other words, only the same hearing as before, the time for one playback is the same, but additional information by localization is added, so if the user knows the meaning of the localization method in advance, Various information related to the contents of the song (song genre, performance time, presence / absence of a favorite phrase, part, etc.) can be easily known.
This is convenient when listening to various songs after receiving a large amount of music distribution.

図1は、本発明の楽曲再生装置の一実施の形態の要部構成を示す機能ブロック図である。本発明の楽曲再生装置は、携帯電話などの移動端末、携帯音楽再生機、AV機能を有するパーソナルコンピュータなど各種の装置に適用することができるが、図1には、携帯電話などの移動端末である場合を示している。
図1において、10は楽曲再生装置(移動端末)、11は楽曲再生装置10全体の動作を制御する制御部(CPU)、12は各種制御プログラムやデータを記憶するROM及びRAMからなるメモリ、13は楽曲データを記憶する楽曲情報保持部、14は各種タイミング信号を出力するタイマ、15は前記楽曲情報保持部13に記憶されている楽曲データからその内容に関する情報を取得する楽曲分析部、16は表示部21に各種情報を表示するための表示制御部、17は前記楽曲情報保持部13に記憶されている楽曲データに含まれている演奏情報を再生してスピーカ22へ出力する演奏制御部、18は操作器23からの操作信号を入力する操作部、19は通信部、20はアンテナ、21は液晶表示部などの表示部、22は少なくとも2個設けられ前記演奏制御部17からの演奏情報を立体再生することができるスピーカ(又はヘッドフォン)、23は各種操作情報を入力する操作キーなどの操作器、24は各種データを転送するためのバスである。
FIG. 1 is a functional block diagram showing a main configuration of an embodiment of a music reproducing device according to the present invention. The music reproducing device of the present invention can be applied to various devices such as a mobile terminal such as a mobile phone, a portable music player, and a personal computer having an AV function. FIG. 1 shows a mobile terminal such as a mobile phone. It shows a case.
In FIG. 1, 10 is a music playback device (mobile terminal), 11 is a control unit (CPU) for controlling the overall operation of the music playback device 10, 12 is a memory composed of ROM and RAM for storing various control programs and data, 13 Is a music information storage unit that stores music data, 14 is a timer that outputs various timing signals, 15 is a music analysis unit that acquires information about the contents from music data stored in the music information storage unit 13, and 16 is A display control unit 17 for displaying various information on the display unit 21; a performance control unit 17 that reproduces performance information included in the music data stored in the music information holding unit 13 and outputs it to the speaker 22; 18 is an operation unit for inputting an operation signal from the operation unit 23, 19 is a communication unit, 20 is an antenna, 21 is a display unit such as a liquid crystal display unit, and 22 is at least two. A speaker (or headphones) capable of reproducing the performance information from the performance control unit 17 in three dimensions, 23 is an operation device such as operation keys for inputting various operation information, and 24 is a bus for transferring various data. is there.

前記楽曲情報保持部13に記憶される楽曲データとしては、SMF(Standard MIDI File)、SMAF(Synthetic music Mobile Application Format)等の演奏情報(シーケンスデータ)を含むデータが基本であるが、オーディオデータ(MP3(MPEG Audio Layer-3)、AAC(MPEG-2 Audio AAC (Advanced Audio Coding))などのオーディオ圧縮フォーマットデータ)であってもよい。そして、この楽曲データは、元々ステレオ、あるいは3D音響のフォーマットのデータであってもよいし、全くのモノラルのデータであってもよい。
また、前記楽曲分析部15は、前記CPU11によるソフトウェア処理によって実現するようにしてもよい。
さらに、前記演奏制御部17は前記楽曲データを再生することができる音源部であり、FM音源、WT(Wave Table)音源、MP3デコーダなどのデコーダ、あるいは、それらの複合音源を備えている。
The music data stored in the music information holding unit 13 is basically data including performance information (sequence data) such as SMF (Standard MIDI File), SMAF (Synthetic music Mobile Application Format), but audio data ( MP3 (MPEG Audio Layer-3), AAC (MPEG-2 Audio AAC (Advanced Audio Coding)) and other audio compression format data). The music data may be originally stereo or 3D audio format data, or may be completely monaural data.
Further, the music analysis unit 15 may be realized by software processing by the CPU 11.
Further, the performance control unit 17 is a sound source unit capable of reproducing the music data, and includes an FM sound source, a WT (Wave Table) sound source, a decoder such as an MP3 decoder, or a composite sound source thereof.

図2は、前記図1に記載された移動端末である楽曲再生装置が接続されるシステムの全体構成を示す図である。
この図において、1、2及び3は、前記図1に示した移動端末10であり、基地局4を介して、インターネットなどの大規模ネットワーク5に接続することができるようになされている。大規模ネットワーク5には配信サーバ6及び7が接続されており、前記移動端末1〜3は、該配信サーバ6又は7から、楽曲データをダウンロードして、前記楽曲情報保持部13(図1)に記憶し、前記演奏制御部17を用いて再生することができるようになされている。
FIG. 2 is a diagram showing an overall configuration of a system to which the music reproducing apparatus which is the mobile terminal described in FIG. 1 is connected.
In this figure, 1, 2 and 3 are the mobile terminals 10 shown in FIG. 1, and can be connected to a large-scale network 5 such as the Internet via the base station 4. Distribution servers 6 and 7 are connected to the large-scale network 5, and the mobile terminals 1 to 3 download music data from the distribution server 6 or 7, and the music information holding unit 13 (FIG. 1). And can be played back using the performance controller 17.

図3は、前記演奏制御部17の詳細な構成を示す図である。
演奏制御部17において、31は前記バス24に接続された第1のインターフェース回路、32は該第1のインターフェース回路31を介して入力される演奏情報(シーケンスデータ)が格納される第1のFIFO(First in first out)バッファ、33は該第1のバッファ32を介して演奏情報を受け取り、該演奏情報中のデュレーションデータにより指定されるタイミングでイベントデータを音源34に出力するシーケンサ、34は前記シーケンサ33から供給される演奏情報(イベントデータ)に基づいて対応する楽音を生成する音源、35は前記音源34から入力される楽音信号又は後述するMP3デコーダ38からの楽音信号に対して、前記第1のインターフェース回路31を介して入力される音像定位制御用信号(3D制御用信号)に基づいて音像定位処理を行う音像定位処理回路(3D回路)である。
また、36は前記バス24に接続された第2のインターフェース回路、37は該第2のインターフェース回路36を介して供給されるオーディオ圧縮フォーマットデータ(この例では、MP3データ)を格納する第2のFIFOバッファ、38は前記第2のバッファ37から供給されるMP3データをデコードして前記音像定位処理回路35に出力するMP3デコーダである。
さらに、39は前記音像定位処理回路35から出力されるディジタルオーディオ信号をアナログ信号に変換するA/D変換器(DAC)であり、該DAC39の出力信号が増幅されて前記ステレオのスピーカ22から出力されることとなる。
FIG. 3 is a diagram showing a detailed configuration of the performance control unit 17.
In the performance controller 17, 31 is a first interface circuit connected to the bus 24, and 32 is a first FIFO in which performance information (sequence data) input through the first interface circuit 31 is stored. (First in first out) buffer 33 is a sequencer that receives performance information via first buffer 32 and outputs event data to sound source 34 at a timing specified by duration data in the performance information. A sound source for generating a corresponding musical sound based on performance information (event data) supplied from the sequencer 33, and 35 for the musical sound signal input from the sound source 34 or the musical sound signal from the MP3 decoder 38 to be described later. 1 for a sound image localization control signal (3D control signal) input via the interface circuit 31 A sound image localization processing circuit for performing a sound image localization processing Zui (3D circuit).
Reference numeral 36 denotes a second interface circuit connected to the bus 24, and reference numeral 37 denotes a second interface for storing audio compression format data (MP3 data in this example) supplied via the second interface circuit 36. A FIFO buffer 38 is an MP3 decoder that decodes MP3 data supplied from the second buffer 37 and outputs the decoded data to the sound image localization processing circuit 35.
Reference numeral 39 denotes an A / D converter (DAC) that converts the digital audio signal output from the sound image localization processing circuit 35 into an analog signal. The output signal of the DAC 39 is amplified and output from the stereo speaker 22. Will be.

図4は、前記音像定位処理回路35の構成例を示すブロック図である。
図示するように音像定位処理回路35は、第1の入力信号ch1とLチャンネルの出力Loutとの間に設けられたFIRフィルタ41、第2の入力信号ch2とLoutとの間に設けられたFIRフィルタ42、ch1とRチャンネルの出力Routとの間に設けられたFIRフィルタ43、及び、ch2とRoutとの間に設けられたFIRフィルタ44により構成されている。そして、音像を配置したい位置に対応して予め用意されているフィルタ係数(HRTF:頭部伝達関数)を前記FIRフィルタ41〜44に設定することにより、聴取者の周りの任意の位置(3次元)から音が出ているように聞こえるようにすることができる。ここで、HRTF(Head Related Transfer Function)は、音源から聴取者の鼓膜までの音の伝達特性を表した伝達関数であり、人が音像を判断するための、両耳に届く時間誤差や周波数特性などの情報を包括しているものである。
なお、図4には、入力が2チャンネルの場合を示しているが、1チャンネルでも、もっと多いチャンネルでも構成を変えることにより可能である。定位は、各々のチャンネルで単独に行うことができる。例えば、図4において、ch1は右、ch2は正面というように各チャンネルで独立に仮想音源位置を配置することができる。
FIG. 4 is a block diagram showing a configuration example of the sound image localization processing circuit 35.
As illustrated, the sound image localization processing circuit 35 includes an FIR filter 41 provided between the first input signal ch1 and the output Lout of the L channel, and an FIR provided between the second input signal ch2 and Lout. The filter 42 includes an FIR filter 43 provided between the ch1 and the R channel output Rout, and an FIR filter 44 provided between the ch2 and Rout. Then, a filter coefficient (HRTF: head related transfer function) prepared in advance corresponding to the position where the sound image is to be arranged is set in the FIR filters 41 to 44, so that an arbitrary position (three-dimensional) around the listener can be obtained. ) To make it sound like it ’s coming out. Here, HRTF (Head Related Transfer Function) is a transfer function that represents the transfer characteristics of sound from the sound source to the eardrum of the listener, and the time error and frequency characteristics that reach both ears for the person to judge the sound image. It contains information such as.
Although FIG. 4 shows a case where the input is two channels, it is possible to change the configuration of one channel or more channels. Localization can be performed independently for each channel. For example, in FIG. 4, the virtual sound source position can be independently arranged in each channel such that ch1 is on the right and ch2 is on the front.

このように構成された楽曲再生装置10において、前記操作器23の操作などにより前記楽曲情報保持部13に記憶されている楽曲の再生が指示されると、前記楽曲分析部15は、その楽曲データからその楽曲の内容に関する情報を取得し、前記CPU11は、該取得した楽曲の内容に関する情報に応じて決定される定位方法でその楽曲の再生を開始する。このように、楽曲の分析結果を立体音響の音像の定位に反映させて再生することにより、効率の良い楽音解釈が可能となる。   In the music reproducing device 10 configured as described above, when the reproduction of the music stored in the music information holding unit 13 is instructed by the operation of the operation unit 23 or the like, the music analysis unit 15 displays the music data. Then, the CPU 11 acquires information on the contents of the music, and the CPU 11 starts reproduction of the music by a localization method determined according to the acquired information on the contents of the music. In this way, efficient music interpretation can be achieved by reflecting the music analysis result in the localization of the stereophonic sound image.

ここで、楽曲の内容に関する情報の取得方法としては、(1)楽曲データに付属する属性情報から取得する方法、及び、(2)楽曲データの演奏情報又はオーディオデータそのものを分析して取得する方法の2通りがある。
(1)楽曲データ付属情報
例えば、SMAFファイルのコンテンツ・インフォ・チャンクなどには、ジャンル名、アーティスト名、作成日時などの各種情報を格納することができるようになされており、このデータからジャンル等の情報を取得することができる。また、オーディオデータファイルにも各種情報を格納した属性情報が付属している場合があり、この属性情報からジャンル等の情報を取得することができる。
また、SMAFファイルには、Aメロ、Bメロ、サビなどの区間に対応したアドレスが入れられるようになっており、また、チャンネルごとに、メロディ、リズム等が指定できるようになっている。これらの情報が格納されていれば、それを利用して、演奏の構成に関する情報を取得することができる。
(2)演奏情報の分析
楽曲再生指示があると、楽曲分析部15がシーケンスデータ又はオーディオデータの全体をサーチし、所定のアルゴリズムで演奏時間、高頻度のフレーズなどを抽出する。そして、その情報を前記CPU11に送る。
なお、一度、情報を取得すれば、その楽曲データに対応付けて記憶しておき、次回以降に再生するときには、その情報を使用するようにする。
Here, as a method for acquiring information related to the contents of the music, (1) a method for acquiring from the attribute information attached to the music data, and (2) a method for analyzing and acquiring performance information of the music data or the audio data itself. There are two ways.
(1) Music Data Attached Information For example, various information such as genre name, artist name, creation date and time can be stored in the content info chunk of the SMAF file. Information can be acquired. Also, attribute information storing various information may be attached to the audio data file, and information such as genre can be acquired from this attribute information.
The SMAF file can contain addresses corresponding to sections such as A melody, B melody, and chorus, and a melody, rhythm, etc. can be designated for each channel. If these pieces of information are stored, it is possible to obtain information on the composition of the performance.
(2) Analysis of performance information When a music playback instruction is given, the music analysis unit 15 searches the entire sequence data or audio data, and extracts a performance time, a high frequency phrase, and the like by a predetermined algorithm. Then, the information is sent to the CPU 11.
Once the information is acquired, it is stored in association with the music data, and the information is used for the next playback.

また、定位方法としては、(A)楽曲自体(楽曲全体)を定位させる、(B)楽曲の特定区間(フレーズ又はパート)の定位を移動させる、(C)楽曲の構成部分(区間、パート、特定部分)に応じて定位を分割して配置する、及び、(D)楽曲の途中で定位の分割、結合を行う、の各種の方法がある。   As a localization method, (A) the music itself (the whole music) is localized, (B) the localization of a specific section (phrase or part) of the music is moved, and (C) a constituent part of the music (section, part, There are various methods in which the localization is divided and arranged according to the specific part), and (D) the localization is divided and combined in the middle of the music.

上記情報取得方法で取得された楽曲の内容に関する情報と上述した定位方法とを組み合わせることにより、楽曲に関する種々の情報を表現することができる。これらの例について、図5を参照して説明する。
図5の(A)は楽曲自体(楽曲全体)を定位させる場合を示す図である。この例では、聴取者の右に定位が置かれている。
例えば、楽曲データに付属している属性情報から演歌、J−POPなどのジャンル情報を取得し、演歌は真右、J−POPは右45°、ROCKは真左などというように定位させて再生する。
あるいは、前記楽曲分析部15により演奏情報を直接分析して、例えば、演奏時間が30秒以下であれば真右、30秒以上1分以下であれば正面、それ以上であれば真左というように定位を決定する。
さらに、演奏情報から頻度の高いフレーズを抽出し、演奏情報の分類情報とフレーズの対応関係を記憶したデータベースを使って、抽出したフレーズをキーに分類情報を検索し、検索された分類情報に応じて定位を決定する(ジャンル分析)。例えば、最高頻度のフレーズが、「♪:ド、♪:レ、♪:ミ」の場合、定位を右にする。
さらにまた、そのユーザの過去の利用情報を基に、ユーザの嗜好に近いものかどうかを分析し、嗜好度を評価する。例えば、ユーザが過去に利用したなかで頻度の高いものを嗜好度の目安として使用する。ジャンル「演歌」がユーザに好まれていると判断できれば、演歌の演奏情報は定位を右に置いて再生する(嗜好分析)。
このように、楽曲の分析結果や付属する属性情報を、楽曲を再生するときの定位に反映することができる
By combining the information related to the content of the music acquired by the information acquisition method and the localization method described above, various information related to the music can be expressed. These examples will be described with reference to FIG.
(A) of FIG. 5 is a figure which shows the case where the music itself (the whole music) is localized. In this example, the localization is placed to the right of the listener.
For example, genre information such as enka and J-POP is acquired from the attribute information attached to the music data, and enka is played to the right, J-POP is right 45 °, ROCK is right, etc. To do.
Alternatively, performance information is directly analyzed by the music analysis unit 15 and, for example, if the performance time is 30 seconds or less, it is right, if it is 30 seconds or more and 1 minute or less, it is front, and if it is more, it is right Determine the localization.
In addition, a frequently used phrase is extracted from the performance information, and a database storing the correspondence information between the performance information classification information and the phrase is used to search the classification information using the extracted phrase as a key, and according to the retrieved classification information. To determine the localization (genre analysis). For example, if the most frequently used phrase is “♪: de, ♪: le, ♪: mi”, the localization is set to the right.
Furthermore, based on the user's past usage information, it is analyzed whether or not the user's preference is close, and the preference level is evaluated. For example, a frequently used item used by the user in the past is used as a measure of preference. If it can be determined that the genre “Enka” is preferred by the user, the performance information of the Enka is played with the localization on the right (preference analysis).
In this way, music analysis results and attached attribute information can be reflected in the localization when playing music.

図5の(B)は楽曲の特定部分(フレーズ又はパート)の定位を移動させる場合の例を示す図である。この場合は、特定のフレーズの再生、又は、特定のパートについて、図示するように、音像位置を聴取者の周りを一周するように移動させている。これにより、楽音の時間情報を定位の移動に反映させることができる。
例えば、楽曲データに付属する属性情報を使用し、定位を移動させる。これにより、今、特定フレーズであることがはっきりわかる。特定フレーズの繰り返しなど、演奏情報の構成情報が付属する場合は、各フレーズ区間の演奏時間でそのフレーズを含むパートの定位を一周させる。また、特定フレーズが無く繰り返しのないパートについては、演奏の最初から最後までかけて定位を一周させる。
あるいは、演奏情報を直接分析して、時間情報、演奏情報の構成情報を取得する。例えば、特定フレーズの繰り返し状態などをパート別に分析し、フレーズにより演奏情報の構成の分析ができた場合には、上述と同様に定位を一定速度で一周させる。なお、一周は純粋な円運動でなくとも、移動状態を利用者が認識し、時間推移状態を意識できるような対称性のある起動であれば、円、楕円、正多角形、立体など、どのようなものでもよい。
(B) of FIG. 5 is a figure which shows the example in the case of moving the localization of the specific part (phrase or part) of a music. In this case, for the reproduction of a specific phrase or for a specific part, the sound image position is moved around the listener as shown in the figure. As a result, the time information of the musical sound can be reflected in the localization movement.
For example, the localization is moved using attribute information attached to the music data. This clearly shows that the phrase is now a specific phrase. When composition information of performance information such as repetition of a specific phrase is attached, the localization of the part including the phrase is made to circulate in the performance time of each phrase section. For parts that do not have a specific phrase and are not repeated, the panning is made from the beginning to the end of the performance.
Alternatively, performance information is directly analyzed to obtain time information and composition information of performance information. For example, the repetition state of a specific phrase is analyzed for each part, and when the composition of performance information can be analyzed by the phrase, the localization is rotated at a constant speed as described above. In addition, even if it is not a pure circular motion, if it is a symmetrical activation that allows the user to recognize the movement state and be aware of the time transition state, it can be any circle, ellipse, regular polygon, solid, etc. Something like that.

図5の(C)は曲の構成部分で定位を分割して配置する場合の例を示す図である。
楽曲データに構成情報が付属する場合は、その情報を使用して、定位を分割させるための情報を取得する。あるいは、演奏情報を直接分析して、演奏の構成情報を取得する。
例えば、(1)Aメロは右、Bメロは左、サビは正面に定位を置く(例1)。あるいは、(2)リズムパートは右、メロディーパートは左に定位を置く(例2)。さらに、(3)類似フレーズは右、ランダムフレーズは左に、(4)コードの協和性において、協和部分は右、不協和部分は左に、などとすることもできる。
このように、楽音の構成情報を定位の分割に反映させることができる。
FIG. 5C is a diagram showing an example of the case where the localization is divided and arranged in the constituent parts of the music.
When composition information is attached to music data, the information is used to acquire information for dividing the localization. Alternatively, performance information is directly analyzed to obtain performance configuration information.
For example, (1) A melody is placed on the right, B melody on the left, and rust on the front (Example 1). Alternatively, (2) the rhythm part is placed on the right and the melody part is placed on the left (example 2). Further, (3) a similar phrase can be set to the right, a random phrase can be set to the left, and (4) in the synergisticity of the chord, the cooperative part can be set to the right, the non-consonant part can be set to the left, and so on.
In this way, the composition information of the musical sound can be reflected in the localization division.

図5の(D)は曲の途中で定位を分割又は結合させる場合の例を示す図である。
この場合は、定位を移動させながら分割と結合のタイミングで時間を表現する。例えば、図示するように、フェードイン中には左右に別れていた音像を結合して正面に置き、フェードアウト中には左右に分割させる。このようにフェードイン/アウト部分で、定位の分割/結合を行うことにより、あとどの位で演奏が終了するのかといったことがわかる。すなわち、定位の分割から結合で時間情報を表現することができる。
楽曲データに構成情報(例えば、フェードイン、フェードアウトのタイミングの情報)が付属する場合は、直接その情報を使用し、定位を分割又は結合させるための情報を取得する。また、演奏情報を直接分析して、演奏の構成情報を取得する。
このように、定位を移動させながら、分割と結合のタイミングで時間を表現することができる。
(D) of FIG. 5 is a figure which shows the example in the case of dividing or combining a localization in the middle of a music.
In this case, time is expressed by the timing of division and combination while moving the localization. For example, as shown in the figure, sound images that have been separated into left and right during fade-in are combined and placed on the front, and divided into left and right during fade-out. In this way, by dividing / combining the localization at the fade-in / out portion, it can be seen how long the performance is to end. In other words, time information can be expressed by combining from localization division.
When composition information (for example, fade-in / fade-out timing information) is attached to the music data, the information is directly used to obtain information for dividing or combining the localization. Also, performance information is directly analyzed to obtain performance configuration information.
In this way, time can be expressed at the timing of division and combination while moving the localization.

次に、上述のような処理を行うために、前記CPU11により実行される処理について、図6に示す定位制御テーブル及び図7に示すフローチャートを参照して説明する。
図6は、定位制御テーブルの一例を示す図であり、この図に示すように、定位制御テーブルには、楽曲の分析により取得された楽曲の内容とそれに対応する定位方法及び優先順位が定義されている。この定位制御テーブルは、前記楽曲情報保持部13又は前記メモリ12に記憶されており、前記CPU11は、この定位制御テーブルを参照して、前記楽曲分析部15により分析された楽曲の内容に応じた定位方法を決定している。なお、この定位制御テーブルの内容は、前記操作器23等を用いてユーザが任意に変更することができるようになされている。これにより、ユーザが自分で定位方法を設定することができるため、自動的に、最も適した定位、又はユーザが好む定位とすることができる。
図6に示した例では、第1番目の優先順位として、特定のフレーズ(フレーズ1、2)があるときに、そのフレーズの定位を移動(一周)させることが定義されており、第2番目の優先順位として、ジャンル(演歌、J−POP)に応じて定位を右又は左に設定することが定義されており、第3番目の優先順位として、その他のジャンルのときは、曲の構成部分(リズムパート、メロディパート、その他パート)に応じて定位を右、正面、左に分割して配置することが定義されている。
Next, the processing executed by the CPU 11 in order to perform the above-described processing will be described with reference to the localization control table shown in FIG. 6 and the flowchart shown in FIG.
FIG. 6 is a diagram showing an example of the localization control table. As shown in this figure, the localization control table defines the contents of the music acquired by analyzing the music, the localization method and priority corresponding to the contents. ing. The localization control table is stored in the music information holding unit 13 or the memory 12, and the CPU 11 refers to the localization control table according to the contents of the music analyzed by the music analysis unit 15. The localization method is determined. The content of the localization control table can be arbitrarily changed by the user using the operation device 23 or the like. Thereby, since the user can set the localization method by himself, the most suitable localization or the localization preferred by the user can be automatically performed.
In the example shown in FIG. 6, as the first priority, it is defined that when there is a specific phrase (phrases 1 and 2), the localization of the phrase is moved (rounded). It is defined that the panning is set to the right or left according to the genre (enka, J-POP) as the priority of the genre. It is defined that the localization is divided into right, front, and left according to (rhythm part, melody part, other part).

図7は、前記CPU11により実行される処理の流れを示すフローチャートである。
ユーザにより前記楽曲情報保持部13に記憶されている楽曲データが指定され、その再生が指示されると、前記CPU11はその楽曲データを分析することを楽曲分析部15に指示し、その楽曲に内容に関する情報を取得する(ステップS1)。この分析は、上述のように、(1)楽曲データに付属している属性情報などから取得する方法、及び、(2)演奏情報を分析してその楽曲の内容に関する情報を取得する方法の2通りがあり、そのいずれか一方又は両方によりその楽曲の内容に関する情報(ジャンル、演奏の構成に関する情報、演奏時間、所定のフレーズが含まれているか否か、等々の情報)を取得する。
次に、CPU11は、ステップS1で取得された曲の内容を表す情報が、前記定位制御テーブル中に定義されている情報であるか否かを判定する(ステップS2)。
その結果、前記定位制御テーブルに記録されている情報が取得されていたときは、その曲の楽曲データを順次前記演奏制御部17に送って、その再生を開始する(ステップS3)とともに、前記定位制御テーブルに定義されている定位方法を実行するための3D制御用信号を前記音像定位処理回路35に送る(ステップS4)。このステップS3とS4を楽曲の終了まで繰り返して、その曲の再生を終了する。
一方、前記ステップS2の判定の結果、前記定位制御テーブルにおいて設定されている情報が取得されていなかったと判定されたときは、曲の内容に応じた定位の制御をすることなく通常通りの楽曲データの再生を行う(ステップS6,S7)。
このようにして、前記定位制御テーブルを参照して、楽曲の内容に応じた定位をもってその楽曲を再生することができ、ユーザはその楽曲の解釈を容易に行うことができる。
FIG. 7 is a flowchart showing a flow of processing executed by the CPU 11.
When the music data stored in the music information holding unit 13 is designated by the user and the reproduction is instructed, the CPU 11 instructs the music analysis unit 15 to analyze the music data, and the content of the music is stored in the music. The information regarding is acquired (step S1). As described above, this analysis includes (1) a method of acquiring from attribute information attached to music data, and (2) a method of analyzing performance information and acquiring information on the contents of the music. There are streets, and information about the contents of the music (genre, information about the composition of the performance, performance time, whether or not a predetermined phrase is included, etc.) is acquired by either or both of them.
Next, the CPU 11 determines whether or not the information representing the content of the song acquired in step S1 is information defined in the localization control table (step S2).
As a result, when the information recorded in the localization control table is acquired, the music data of the song is sequentially sent to the performance control unit 17 to start the reproduction (step S3), and the localization is performed. A 3D control signal for executing the localization method defined in the control table is sent to the sound image localization processing circuit 35 (step S4). Steps S3 and S4 are repeated until the end of the music, and the reproduction of the music is completed.
On the other hand, as a result of the determination in step S2, if it is determined that the information set in the localization control table has not been acquired, normal music data without performing localization control according to the content of the music Is reproduced (steps S6 and S7).
In this way, with reference to the localization control table, the music can be reproduced with a localization according to the content of the music, and the user can easily interpret the music.

なお、各楽曲の内容に関する情報に基づく定位方法として前記図5に示したものは単なる例であり、これに限られることはなく、任意の定位情報を設定することができる。
また、定位を制御するための各種情報、例えば、図6の定位制御テーブルの全部又は一部を楽曲データに付属させ、通信部19等を介して他の同様の端末へ送信してもよい。送信された端末では、同様の定位で楽曲を再生することができる。
Note that the localization method based on the information related to the contents of each piece of music is shown in FIG. 5 as an example, and is not limited to this, and any localization information can be set.
Various information for controlling localization, for example, all or part of the localization control table in FIG. 6 may be attached to the music data and transmitted to other similar terminals via the communication unit 19 or the like. The transmitted terminal can play music with the same localization.

本発明の楽曲再生装置の一実施の形態である携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of the portable terminal which is one Embodiment of the music reproduction apparatus of this invention. 図1に示した携帯端末が使用されるシステム全体の構成を示す図である。It is a figure which shows the structure of the whole system in which the portable terminal shown in FIG. 1 is used. 本発明の楽曲再生装置における演奏制御部の構成を示す図である。It is a figure which shows the structure of the performance control part in the music reproduction apparatus of this invention. 音像定位処理回路の構成を示すブロック図である。It is a block diagram which shows the structure of a sound image localization processing circuit. 定位方法の例を示す図であり、(A)は楽曲自体を定位する例、(B)はフレーズ又はパートの定位を移動させる例、(C)は曲の構成部分で定位を分割して配置する例、(D)は曲の途中で定位を分割又は結合する例を示す図である。It is a figure which shows the example of the localization method, (A) is an example which localizes a music itself, (B) is an example which moves the localization of a phrase or a part, (C) is divided | segmented and arrange | positioned by the component part of a music (D) is a figure which shows the example which divides or couple | bonds a localization in the middle of a music. 定位制御テーブルの一例を示す図である。It is a figure which shows an example of a localization control table. CPU11により実行される処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process performed by CPU11.

符号の説明Explanation of symbols

10:楽曲再生装置、11:制御部(CPU)、12:メモリ、13:楽曲情報保持部、14:タイマ、15:楽曲分析部、16:表示制御部、17:演奏制御部、18:操作部、19:通信部、20:アンテナ、21:表示部、22:スピーカ、23:操作器、31,36:インターフェース回路、32,37:FIFOバッファ、33:シーケンサ、34:音源、35:音像定位処理回路、38:デコーダ、39:D/A変換器、41〜44:FIRフィルタ   10: Music playback device, 11: Control unit (CPU), 12: Memory, 13: Music information holding unit, 14: Timer, 15: Music analysis unit, 16: Display control unit, 17: Performance control unit, 18: Operation Unit: 19: communication unit, 20: antenna, 21: display unit, 22: speaker, 23: controller, 31, 36: interface circuit, 32, 37: FIFO buffer, 33: sequencer, 34: sound source, 35: sound image Localization processing circuit, 38: decoder, 39: D / A converter, 41-44: FIR filter

Claims (5)

シーケンスデータ又はオーディオデータを演奏情報として含む楽曲データを記憶する記憶手段と、
前記楽曲データを再生する再生手段と、
前記再生手段から出力される楽音信号に対して制御信号に基づいて音像定位処理を行う音像定位処理手段と、
楽曲の内容とそれに対応する定位方法が定義されている定位制御テーブルと、
前記楽曲データの演奏情報であるシーケンスデータ又はオーディオデータを直接分析することでその楽曲の内容に関する情報を取得する分析手段と、
前記定位制御テーブルから前記分析手段により取得された情報に対応する定位方法であって、楽曲全体を定位させる方法、楽曲中の特定の区間において定位を移動させる方法、楽曲の構成部分に応じて定位を分割して配置する方法、又は、楽曲の途中で定位の分割、結合を行う方法のいずれかである定位方法を取得し、該定位方法を実行するための制御情報を前記音像定位処理手段に送る手段と
を有することを特徴とする楽曲再生装置。
Storage means for storing music data including sequence data or audio data as performance information;
Playing means for playing the music data;
Sound image localization processing means for performing sound image localization processing on the basis of a control signal for the musical sound signal output from the reproduction means;
A localization control table in which the content of the music and the corresponding localization method are defined;
Analyzing means for acquiring information related to the contents of the music by directly analyzing sequence data or audio data which is performance information of the music data;
According to the localization method corresponding to the information acquired from the localization control table by the analysis means, the method of localizing the entire music, the method of moving the localization in a specific section in the music, the constituent parts of the music The sound image localization processing means obtains a localization method which is either a method of dividing and arranging the localization or a method of dividing and combining the localization in the middle of the music, and the control information for executing the localization method And a music playback device.
前記定位制御テーブルには、楽曲の内容とそれに対応する定位方法の優先順位が定義されていることを特徴とする請求項1記載の楽曲再生装置。   The music reproducing apparatus according to claim 1, wherein the localization control table defines the contents of the music and the priority of the localization method corresponding to the contents. 前記分析手段は、特定のフレーズの有無を判断するものであることを特徴とする請求項1記載の楽曲再生装置。   The music reproducing apparatus according to claim 1, wherein the analyzing unit is configured to determine the presence or absence of a specific phrase. 前記分析手段により取得した楽曲の内容に関する情報を、その楽曲データに対応付けて記憶する手段を有することを特徴とする請求項1〜3のいずれかに記載の楽曲再生装置。   The music reproducing apparatus according to any one of claims 1 to 3, further comprising means for storing information relating to the contents of the music acquired by the analyzing means in association with the music data. シーケンスデータ又はオーディオデータを演奏情報として含む楽曲データを記憶する記憶手段と、前記楽曲データを再生する再生手段と、前記再生手段から出力される楽音信号に対して制御信号に基づいて音像定位処理を行う音像定位処理手段と、楽曲の内容とそれに対応する定位方法が定義されている定位制御テーブルとを有する楽曲再生装置における楽曲再生プログラムであって、
コンピュータを、前記楽曲データの演奏情報であるシーケンスデータ又はオーディオデータを直接分析することでその楽曲の内容に関する情報を取得する分析手段、及び、前記定位制御テーブルから前記分析手段により取得された情報に対応する定位方法であって、楽曲全体を定位させる方法、楽曲中の特定の区間において定位を移動させる方法、楽曲の構成部分に応じて定位を分割して配置する方法、又は、楽曲の途中で定位の分割、結合を行う方法のいずれかである定位方法を取得し、該定位方法を実行するための制御情報を前記音像定位処理手段に送る手段として動作させることを特徴とする楽曲再生プログラム。
Storage means for storing music data including sequence data or audio data as performance information, playback means for playing back the music data, and sound image localization processing based on a control signal for a musical sound signal output from the playback means A music playback program in a music playback device having sound image localization processing means to perform, and a localization control table in which the content of the music and the corresponding localization method are defined,
Information obtained by the analysis means from the localization control table, and analysis means for obtaining information relating to the contents of the music by directly analyzing sequence data or audio data which is performance information of the music data, and a computer A localization method corresponding to the above, a method of localizing the entire music, a method of moving the localization in a specific section in the music, a method of dividing and arranging the localization according to the constituent parts of the music, or in the middle of the music A music reproduction program that acquires a localization method , which is one of the methods for performing localization and division, and operates as means for sending control information for executing the localization method to the sound image localization processing means .
JP2008104704A 2008-04-14 2008-04-14 Music playback device and music playback program Expired - Fee Related JP4462368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008104704A JP4462368B2 (en) 2008-04-14 2008-04-14 Music playback device and music playback program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008104704A JP4462368B2 (en) 2008-04-14 2008-04-14 Music playback device and music playback program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005015232A Division JP4397330B2 (en) 2005-01-24 2005-01-24 Music playback device and music playback program

Publications (2)

Publication Number Publication Date
JP2008176347A JP2008176347A (en) 2008-07-31
JP4462368B2 true JP4462368B2 (en) 2010-05-12

Family

ID=39703348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008104704A Expired - Fee Related JP4462368B2 (en) 2008-04-14 2008-04-14 Music playback device and music playback program

Country Status (1)

Country Link
JP (1) JP4462368B2 (en)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3055150B2 (en) * 1990-04-25 2000-06-26 ヤマハ株式会社 Music control device
JP2800429B2 (en) * 1991-01-09 1998-09-21 ヤマハ株式会社 Sound image localization control device
JPH0588668A (en) * 1991-09-25 1993-04-09 Casio Comput Co Ltd Panning controller
JP3318790B2 (en) * 1993-05-25 2002-08-26 カシオ計算機株式会社 Sound image localization control device
JPH06348258A (en) * 1993-06-03 1994-12-22 Kawai Musical Instr Mfg Co Ltd Automatic playing device of electronic musical instrument
JPH0837700A (en) * 1994-07-21 1996-02-06 Kenwood Corp Sound field correction circuit
JP3293536B2 (en) * 1997-10-31 2002-06-17 ヤマハ株式会社 Apparatus and method for processing audio signal or tone signal, and computer-readable recording medium recording processing program for audio signal or tone signal
IT1298504B1 (en) * 1998-01-28 2000-01-12 Roland Europ Spa METHOD AND ELECTRONIC EQUIPMENT FOR CATALOGING AND AUTOMATIC SEARCH OF MUSICAL SONGS USING MUSICAL TECHNIQUE
JPH11259071A (en) * 1998-03-10 1999-09-24 Roland Corp Automatic performance device
JP3705139B2 (en) * 2001-03-05 2005-10-12 ヤマハ株式会社 Musical performance device
JP3664126B2 (en) * 2001-11-15 2005-06-22 ヤマハ株式会社 Automatic composer
JP2003204600A (en) * 2002-01-08 2003-07-18 Mitsubishi Electric Corp Multi-channel reproduction acoustic apparatus
JP2003264896A (en) * 2002-03-11 2003-09-19 Fujitsu Ten Ltd Acoustic reproducing apparatus
JP4089351B2 (en) * 2002-08-27 2008-05-28 ヤマハ株式会社 Recording / reproducing method and recording / reproducing apparatus

Also Published As

Publication number Publication date
JP2008176347A (en) 2008-07-31

Similar Documents

Publication Publication Date Title
US8046689B2 (en) Media presentation with supplementary media
TW201642245A (en) Processing method of making song request and system thereof
WO2005104088A1 (en) Music composition reproduction device and composite device including the same
JP2006195385A (en) Device and program for music reproduction
JP4665776B2 (en) Electronic musical instrument and music information provision server
CN107251009A (en) Digital audio frequency filter for variable sample rates
US20120308014A1 (en) Audio playback device and method
JP2009093779A (en) Content reproducing device and contents reproducing method
JP4860513B2 (en) Music video playback device that specifies the music for viewing the continuation of the video work
KR20040077784A (en) Music retrieval system for joining in with the retrieved piece of music
JP4397330B2 (en) Music playback device and music playback program
JP2007025570A (en) Karaoke sound-recording and editing device performing cut and paste editing on the basis of lyrics character
JP4462368B2 (en) Music playback device and music playback program
JP2005285285A (en) Content read system and musical piece reproduction apparatus
JP2008016131A (en) Content reproduction control device, content reproduction control method and content reproduction control program and recording medium
JP2015041091A (en) Communication karaoke system having feature in switching processing of voice and the like during communication duet
KR20180099375A (en) Method of searching highlight in multimedia data and apparatus therof
JP2007158985A (en) Apparatus and program for adding stereophonic effect in music playback
WO2007088490A1 (en) Device for and method of processing audio data
JPH10319977A (en) Karaoke (sign-along machine) playing device and portable test hearing terminal for karaoke
KR100775188B1 (en) Method for mixing music file and terminal using the same
JP2006252051A (en) Musical sound information provision system and portable music reproduction device
JP2005300578A (en) Music content distribution system
WO2020208811A1 (en) Reproduction control device, program, and reproduction control method
JP2016157087A (en) Music reproduction system, server, music data providing method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4462368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140226

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees