JP4278667B2 - 楽曲結合装置、楽曲結合方法、及び楽曲結合プログラム - Google Patents

楽曲結合装置、楽曲結合方法、及び楽曲結合プログラム Download PDF

Info

Publication number
JP4278667B2
JP4278667B2 JP2006221137A JP2006221137A JP4278667B2 JP 4278667 B2 JP4278667 B2 JP 4278667B2 JP 2006221137 A JP2006221137 A JP 2006221137A JP 2006221137 A JP2006221137 A JP 2006221137A JP 4278667 B2 JP4278667 B2 JP 4278667B2
Authority
JP
Japan
Prior art keywords
music
segment
music content
unit
quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006221137A
Other languages
English (en)
Other versions
JP2008047203A (ja
Inventor
悟 松本
友二 山本
達雄 古賀
良輔 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006221137A priority Critical patent/JP4278667B2/ja
Publication of JP2008047203A publication Critical patent/JP2008047203A/ja
Application granted granted Critical
Publication of JP4278667B2 publication Critical patent/JP4278667B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は楽曲コンテンツ処理技術に関し、特に、複数の楽曲コンテンツを結合する楽曲結合装置、楽曲結合方法、及び楽曲結合プログラムに関する。
テレビ放送又はラジオ放送等を受信し、楽曲コンテンツを自動的に収集(録音)する装置が知られている。このような装置において、同一の楽曲コンテンツを2つ記録した場合の対処法として、以下の2つの手法が提案されている(特許文献1参照)。
(1)2つの楽曲コンテンツのうちで雑音レベルの低い楽曲コンテンツを択一的に選択する手法(以下、「第1の背景技術」という)。
(2)2つの楽曲コンテンツの振幅の平均をとる手法(以下、「第2の背景技術」という)。
特表2005−522057号公報
しかしながら、上述した第1の背景技術では、2つの楽曲コンテンツにおいて、全体として雑音レベルの低い方が選択されるため、選択された楽曲コンテンツには、部分的に非常に大きな雑音が含まれている場合がある。
上述した第2の背景技術では、2つの楽曲コンテンツにおいては、雑音レベルの低い部分と、雑音レベルの高い部分との平均をとることになる。つまり、高品質な部分と、低品質な部分との平均をとることにより、高品質な部分を劣化させることになる。
したがって、上述した第1及び第2の背景技術では、複数の楽曲コンテンツから高品質な楽曲コンテンツを作成することは困難であった。
上記問題点を鑑み、本発明は、複数の楽曲コンテンツから高品質な楽曲コンテンツを作成可能な楽曲結合装置、楽曲結合方法、及び楽曲結合プログラムを提供することを目的とする。
上記目的を達成するために、本発明の第1の特徴は、複数の楽曲コンテンツを結合する楽曲結合装置であって、複数の楽曲コンテンツの少なくとも1つから特徴量を算出し、当該特徴量が閾値を超えた時点をカット点として検出するカット点検出部と、当該カット点を用いて、各楽曲コンテンツを複数のセグメントに分割するセグメント化部と、各楽曲コンテンツの各セグメントの品質を判定する品質判定部と、当該品質の判定結果に基づき、各楽曲コンテンツにおいて時間的位置の等しい各セグメント間で、最も品質の高いセグメントを選択するセグメント選択部と、当該選択されたセグメントを順次結合して1つの楽曲コンテンツを得るセグメント結合部とを備えることを要旨とする。
ここで、「楽曲コンテンツ」とは、音楽(楽曲)が含まれるコンテンツを意味する。また、「品質」とは、雑音やディスクジョッキー(DJ)の声など、本来の楽曲以外の音声が含まれるかによって決まり、これらが含まれている場合には品質が悪いとする。よって、「品質の高いセグメント」とは、雑音やDJの声など、本来の楽曲以外の音声が含まれる量が少ないセグメントを意味する。
この特徴によれば、上記カット点により各楽曲コンテンツを複数のセグメントに分割し、品質の高いセグメントを集めて1つの楽曲コンテンツを作成するので、高品質な楽曲コンテンツを作成できる。
第2の特徴は、第1の特徴に係る楽曲結合装置において、上記カット点検出部は、上記特徴量として、音声信号のパワー又は周波数の単位時間当たりの変化量を算出することを要旨とする。ここで「音声信号のパワー」とは、例えば、フーリエ変換などにより音声信号から振幅スペクトルを算出し、この振幅スペクトルの2乗和を求めたものを意味する。
この特徴によれば、楽曲コンテンツから音声信号のパワー又は周波数の単位時間当たりの変化量を特徴量として算出するので、楽曲コンテンツについて好ましい特徴量を得ることができ、精度の良いカット点を検出することができる。
第3の特徴は、第1又は第2の特徴に係る楽曲結合装置において、上記品質判定部は、各セグメントに含まれるノイズのレベルに応じて、各セグメントの品質を判定することを要旨とする。ここで、ノイズとは、雑音やDJの声などを意味する。雑音はS/N比、DJの声は周波数の特徴量分布で判断できる。また、「ノイズのレベル」とは、ノイズの振幅を意味する。
この特徴によれば、雑音の少ない、品質の良い部分を集めて結合することにより、雑音の少ない楽曲コンテンツを得ることができる。
第4の特徴は、第1又は第2の特徴に係る楽曲結合装置において、上記品質判定部は、各セグメントに楽曲以外の音声信号が付加されていることの尤度に応じて、各セグメントの品質を判定することを要旨とする。ここで、「楽曲以外の音声信号」とは、例えば、楽曲コンテンツがラジオ放送を録音して得られたものである場合、DJによる曲紹介等を意味する。以下においては、楽曲以外の音声信号を「トーク」と呼ぶ。また、「各セグメントに楽曲以外の音声信号が付加されていることの尤度」とは、例えば、分類するクラスごとのモデルをガウス混合分布(GMM)を用いてモデル化し、このモデルごとに似ているかどうかを示す尤度関数が用意されており、入力した音声とトークについての尤度関数を用いて算出された確率(尤度)を意味する。
この特徴によれば、トークの尤度が高いものをトークの尤度が低いもので置き換えることにより、トークの少ない楽曲コンテンツを得ることができる。
第5の特徴は、第1〜第4のいずれかの特徴に係る楽曲結合装置において、複数の楽曲コンテンツを記憶する楽曲コンテンツ記憶部と、上記結合して得られた1つの楽曲コンテンツを楽曲コンテンツ記憶部に記憶するとともに、上記複数の楽曲コンテンツを楽曲コンテンツ記憶部から削除する制御部とを更に備えることを要旨とする。
この特徴によれば、重複する複数の楽曲コンテンツを楽曲コンテンツ記憶部から削除して、上記結合して得られた1つの楽曲コンテンツを楽曲コンテンツ記憶部に記憶するので、楽曲コンテンツ記憶部の記憶容量を削減できる。
第6の特徴は、第1〜第4のいずれかの特徴に係る楽曲結合装置において、上記複数の楽曲コンテンツを記憶する楽曲コンテンツ記憶部と、上記選択されたセグメントに関する情報をプレイリストとして記憶するプレイリスト記憶部と、当該記憶されたプレイリストに従って、上記楽曲コンテンツ記憶部から上記複数の楽曲コンテンツをセグメント単位で読み出す制御部とを更に備え、上記セグメント結合部は、楽曲コンテンツ記憶部から読み出されたセグメントを選択されたセグメントとして順次結合することを要旨とする。
この特徴によれば、重複する複数の楽曲コンテンツを楽曲コンテンツ記憶部から削除することなく、プレイリストで管理するので、元の楽曲コンテンツをそのままの状態で保存することができる。
第7の特徴は、複数の楽曲コンテンツを結合する楽曲結合方法であって、複数の楽曲コンテンツの少なくとも1つから特徴量を算出して、当該特徴量が閾値を超えた時点をカット点として検出するステップと、当該カット点を用いて、各楽曲コンテンツを複数のセグメントに分割するステップと、各楽曲コンテンツの各セグメントの品質を判定するステップと、当該品質の判定結果に基づき、各楽曲コンテンツにおいて時間的位置の等しい各セグメント間で、最も品質の高いセグメントを選択するステップと、当該選択されたセグメントを順次結合して1つの楽曲コンテンツを得るステップとを含むことを要旨とする。
この特徴によれば、上記カット点により各楽曲コンテンツを複数のセグメントに分割し、品質の高いセグメントを集めて1つの楽曲コンテンツを作成するので、高品質な楽曲コンテンツを作成できる。
第8の特徴は、複数の楽曲コンテンツを結合する楽曲結合プログラムであって、コンピュータに、複数の楽曲コンテンツの少なくとも1つから特徴量を算出して、当該特徴量が閾値を超えた時点をカット点として検出する手順と、当該カット点を用いて、各楽曲コンテンツを複数のセグメントに分割する手順と、各楽曲コンテンツの各セグメントの品質を判定する手順と、当該品質の判定結果に基づき、各楽曲コンテンツにおいて時間的位置の等しい各セグメント間で、最も品質の高いセグメントを選択する手順と、当該選択されたセグメントを順次結合して1つの楽曲コンテンツを得る手順とを実行させることを要旨とする。
本発明によれば、重複する複数の楽曲コンテンツから高品質な楽曲コンテンツを作成可能な楽曲結合装置、楽曲結合方法、及び楽曲結合プログラムを提供できる。
次に、図面を参照して、本発明の第1及び第2実施形態を説明する。以下の第1及び第2実施形態における図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。
[第1実施形態]
(録音再生装置のハードウェア構成例)
本発明の第1実施形態に係る楽曲録音再生装置のハードウェア構成図を図1に示す。楽曲録音再生装置は、チューナ1と、楽曲結合装置100aと、スピーカ5とを備える。チューナ1は例えばラジオ放送等の放送信号を受信し、放送信号から音声信号を復調する。楽曲結合装置100aは、楽曲コンテンツの録音再生処理を行うとともに、重複する複数の楽曲コンテンツを結合する。スピーカ5は、楽曲結合装置100aによって再生された音声信号を出力する。
楽曲結合装置100aは、A/D(Analog to Digital)変換器2と、MP3(MPEG Audio Layer-3)コーデック3と、D/A(Digital to Analog)変換器4と、DSP(Digital Signal Processor)7と、CPU(Central Processing Unit)8と、HDD(Hard Disk Drive)9と、メモリ10と、バス6とを備える。A/D変換器2、MP3コーデック3、D/A変換器4、DSP7、CPU8、HDD9、及びメモリ10は、バス6を介して各種のデータを授受する。
A/D変換器2は、チューナ1からの音声信号をデジタル信号データに変換する。MP3コーデック3は、入力されたデジタル音声データを圧縮符号化して符号化音声データを得るエンコーダの機能と、符号化音声データを復号化するデコーダの機能とを有する。D/A変換器4は、MP3コーデック3によって復号化されたデジタル音声データをアナログ信号に変換してスピーカ5に供給する。
HDD9は、主に、符号化音声データを記憶する。メモリ10は、DSP7及びCPU8で実行されるプログラムを記憶するとともに、DSP7及びCPU8のプログラム実行中に作業領域として利用される。DSP7は、入力された音声信号を解析する。CPU8は、楽曲結合装置100a全体の制御を実行する。
(楽曲結合装置の機能構成例)
次に、楽曲結合装置100aの機能ブロック図を図2に示す。図2に示す楽曲結合装置100aは、図1に示したA/D変換器2、MP3コーデック3、及びD/A変換器4に加えて、楽曲コンテンツ抽出部70と、カット点検出部71と、品質判定部72aと、カット点情報記憶部92と、品質情報記憶部93と、一致検出部81aと、セグメント化部82aと、位置合わせ処理部83と、セグメント選択部84aと、セグメント結合部85aと、制御部80aと、楽曲コンテンツ記憶部91とを備えている。
楽曲コンテンツ抽出部70、カット点検出部71、及び品質判定部72aのそれぞれの機能は、図1のDSP7により実現される。一致検出部81a、セグメント化部82a、位置合わせ処理部83、セグメント選択部84a、セグメント結合部85a、及び制御部80aのそれぞれの機能は、図1のCPU8により実現される。カット点情報記憶部92、品質情報記憶部93、及び楽曲コンテンツ記憶部91は、図1のHDD9内に構成される。
楽曲コンテンツ抽出部70は、A/D変換器2からのデジタル音声データから楽曲コンテンツを抽出する。制御部80aは、楽曲コンテンツ抽出部70が抽出した楽曲コンテンツをMP3コーデック3に供給する。MP3コーデック3は、楽曲コンテンツを圧縮符号化する。圧縮符号化された楽曲コンテンツは、楽曲コンテンツ記憶部91に記録される。
カット点検出部71は、楽曲コンテンツ抽出部70が抽出した楽曲コンテンツから特徴量を算出し、特徴量が閾値を超えた時点をカット点として検出する。ここで「特徴量」としては、例えば音声信号のパワーの単位時間当たりの変化量が利用できる。カット点検出部71の詳細については後述する。
カット点情報記憶部92は、カット点検出部71が検出したカット点に関する情報を記憶する。具体的には、カット点情報記憶部92は、各楽曲コンテンツを識別する楽曲コンテンツ識別子と、各楽曲コンテンツのカット点数とを対応付けたカット点数情報を記憶するとともに、各カット点を識別するカット点識別子と、各カット点の検出時刻(楽曲コンテンツの開始時刻からの経過時刻)とを対応付けたカット点時刻情報を記憶する。以下、上記カット点数情報とカット点時刻情報とを併せて「カット点情報」と呼ぶ。
このように、新たな楽曲コンテンツが楽曲コンテンツ記憶部91に記録される際には、当該新たな楽曲コンテンツのカット点情報も同時にカット点情報記憶部92に記録される。
品質判定部72aは、楽曲コンテンツの品質を判定する。楽曲コンテンツの品質判定基準としては、雑音のレベル又はトークの尤度の少なくとも一方が利用できる。以下では、楽曲コンテンツの品質判定基準として、雑音のレベル及びトークの尤度の両方を利用する場合について説明する。
品質判定部72aは、隣接する2つのカット点により区分される「セグメント」毎に品質を判定しても良く、楽曲コンテンツの所定時間毎の品質を判定しても良い。ここでは品質判定部72aが、セグメント毎に楽曲コンテンツの品質を判定する場合について説明する。
楽曲コンテンツの品質判定基準としてトークの尤度を利用する場合、音声認識技術を使用したクラスタリングにより、楽曲コンテンツとトークとを区別することが可能である。なお、「トーク」とは、上述したように、楽曲コンテンツに付加されている音声信号であり、例えば、ディスクジョッキー(DJ)による曲紹介等がこれに該当する。
品質情報記憶部93は、品質判定部72aが判定した各セグメントの品質を品質情報として記憶する。具体的には、各セグメントを識別するセグメント識別子と、各セグメントの品質情報(雑音レベル、トークの尤度)とを対応付けて記憶する。
一致検出部81aは、カット点情報記憶部92に記憶されたカット点情報に基づき、新たに記録された楽曲コンテンツと過去に記録された楽曲コンテンツとの重複を検出する。一例として、一致検出部81aは、上記カット点情報に基づき、各楽曲コンテンツのカット点の数が同じであるか否かを判定する。各楽曲コンテンツのカット点の数が同じであれば、上記カット点時刻情報に基づき、各楽曲コンテンツにおいて、1つ目のカット点と2つ目のカット点の時間を計算する。このカット点区間の時間が2つの楽曲コンテンツの間で同じであれば、一致検出部81aは、次のカット点間の時間を計算し、最後のカット点まで繰り返す。2つの楽曲コンテンツにおいてすべてのカット点間の時間が同じであれば楽曲コンテンツが重複していると判定される。
一致検出部81aによって重複する2つの楽曲コンテンツが検出された場合、制御部80aは、重複する2つの楽曲コンテンツを楽曲コンテンツ記憶部91から取得し、MP3コーデック3により各楽曲コンテンツを復号化する。復号化された各楽曲コンテンツは、セグメント化部82aに供給される。
セグメント化部82aは、上記カット点情報を用いて、各楽曲コンテンツを複数のセグメントに分割する。詳細には、セグメント化部82aは、新たに記録された楽曲コンテンツのカット点情報を用いて、新たに記録された楽曲コンテンツをセグメント化するとともに、過去に記録された楽曲コンテンツのカット点情報を用いて、過去に記録された楽曲コンテンツをセグメント化する。セグメント化された各楽曲コンテンツは、位置合わせ処理部83に供給される。
位置合わせ処理部83は、各楽曲コンテンツにおける相対位置を一致させるため、各楽曲コンテンツの最初のカット点の位置を一致させる。相対位置を一致させることで、対応するセグメントを明らかにする。なお、セグメントとは、上述したように、隣り合う2つカット点で挟まれた楽曲コンテンツの一部である。位置合わせ処理後の各楽曲コンテンツは、セグメント選択部84aに供給される。
セグメント選択部84aは、品質情報記憶部93に記憶された各楽曲コンテンツの品質情報に基づき、各楽曲コンテンツにおいて時間的位置の等しい各セグメント間で、最も品質の高いセグメントを選択する。つまり、セグメント選択部84aは、各楽曲コンテンツの各セグメントの雑音レベルやトークの尤度を品質情報記憶部93から読み出し、より低雑音であるセグメント、もしくは、より低いトークの尤度をもつセグメントを選択する。セグメント選択部84aによって選択されたセグメントは、セグメント結合部85aに供給される。
セグメント結合部85aは、セグメント選択部84aによって選択されたセグメントを順次結合して1つの楽曲コンテンツを得る。ここで、各セグメントは、カット点を接点にして結合される。セグメント結合部85aが作成した楽曲コンテンツは、制御部80aに供給される。
制御部80aは、セグメント結合部85aから供給される楽曲コンテンツを、MP3コーデック3を用いて圧縮符号化し、圧縮符号化後の楽曲コンテンツを楽曲コンテンツ記憶部91に記憶する。その際、制御部80aは、結合対象となった元の各楽曲コンテンツを楽曲コンテンツ記憶部91から削除する。
(カット点検出部の構成例)
次に、カット点検出部71の機能ブロック図を図3に示す。カット点検出部71は、パワー算出部711と、微分演算部712と、閾値比較部713と、カット点記録処理部714とを備えている。
パワー算出部711は、図4に示すように、時間領域において、楽曲コンテンツから音声信号のパワーを算出する。
微分演算部712は、音声信号のパワーの変化を検知するため、特徴量として音声信号のパワーを微分する。図5に示すように、時刻T前後の所定の期間W1における平均パワーの差の絶対値が、微分値として算出される。微分された結果、パワーの変化が大きい期間は微分値が大きくなる。
閾値比較部713は、微分演算部712が算出した所定の期間での微分値(特徴量)が所定の閾値以上であれば、当該期間は音声信号の変化が大きいことを意味し、図4に示すように、当該期間の始点又は終点をカット点として検出する。なお、所定の閾値は、楽曲の種類(ジャンル、曲調等)によって変更しても良い。
カット点記録処理部714は、閾値比較部713によって検出されたカット点に関する情報をカット点情報記憶部92に記録する。
なお、図3の構成に限らず、周波数領域において周波数分析を行い、特定の周波数帯域でのパワーが閾値を越え、ある時間その状態が続いたときに、音声の変化が大きいとして、カット点として検出する構成でも良い。
(セグメント選択部及びセグメント結合部の動作例)
次に、図6の波形図を用いて、セグメント選択部84a及びセグメント結合部85aの動作を説明する。
図6(a)及び(b)は、異なる時刻に記録された、同一の楽曲コンテンツの音声波形を示している。図6(a)及び(b)に示す音声波形においては、カット点1〜3の合計3つのカット点が検出されている。
図6(a)のカット点1及び2で区分されるセグメントは、雑音及びトークの少ないセグメントである。図6(a)のカット点2及び3で区分されるセグメントは、雑音が多いセグメントである。
また、図6(b)のカット点1及び2で区分されるセグメントは、トークの多いセグメントである。図6(b)のカット点2及び3で区分されるセグメントは、雑音の少ないセグメントである。
セグメント選択部84aは、図6(a)のカット点1及び2で区分されるセグメントと、図6(b)のカット点1及び2で区分されるセグメントとを比較評価し、図6(a)のカット点1及び2で区分されるセグメントを選択する。
セグメント選択部84aは、図6(a)のカット点2及び3で区分されるセグメントと、図6(b)のカット点2及び3で区分されるセグメントとを比較評価し、図6(b)のカット点2及び3で区分されるセグメントを選択する。
この結果、セグメント結合部85aは、図6(c)に示すように、図6(a)のカット点1及び2で区分されるセグメントと、図6(b)のカット点2及び3で区分されるセグメントとを、カット点2を接点として結合する。このようにして、雑音及びトークの少ない楽曲コンテンツが作成される。
(楽曲録音処理フロー例)
次に、図7に示すフローチャートを参照して、第1実施形態に係る楽曲録音処理フローの一例について説明する。
図7のステップS101において、図2に示すチューナ1は、例えばラジオ放送等の放送信号を受信し、放送信号から音声信号を復調する。
ステップS102において、A/D変換器2は、ステップS101で得られた音声信号をデジタル信号データに変換する。
ステップS103において、楽曲コンテンツ抽出部70は、ステップS102で得られたデジタル音声データから、楽曲コンテンツを抽出する。
ステップS104において、MP3コーデック3は、ステップS103で得られた楽曲コンテンツを圧縮符号化する。
ステップS105において、制御部80aは、ステップS104で圧縮符号化された楽曲コンテンツを楽曲コンテンツ記憶部91に記憶する。
一方、ステップS106において、図3に示すパワー算出部711は、ステップS103で得られた楽曲コンテンツから音声信号のパワーを算出する。更に、微分演算部712は、パワー算出部711が算出した音声信号のパワーを微分する。
ステップS107において、閾値比較部713は、ステップS106で算出された微分値がある閾値以上であれば、その時刻をカット点として検出する。閾値比較部713が検出したカット点の情報は、図1のカット点情報記憶部92に記録される。
ステップS108において、図1に示す品質判定部72aは、ステップS103で抽出された楽曲コンテンツの雑音レベルをセグメント単位で判定する。
ステップS109において、品質判定部72aは、ステップS103で抽出された楽曲コンテンツのトークの尤度をセグメント単位で判定する。ステップS108及びステップS109で判定された雑音レベル及びトークの尤度の情報は、品質情報記憶部93に記録される。
(楽曲再生処理フロー例)
次に、図8に示すフローチャートを参照して、第1実施形態に係る楽曲再生処理フローの一例について説明する。
図8のステップS201において、制御部80aは、楽曲コンテンツ記憶部91から、圧縮符号化された楽曲コンテンツ(符号化音声データ)を読み出す。
ステップS202において、MP3コーデック3は、ステップS201で読み出された符号化音声データを復号化してデジタル音声データを得る。
ステップS203において、D/A変換器4は、ステップS202で得られたデジタル音声データをアナログ信号に変換して音声信号を得る。
ステップS204において、スピーカ5は、ステップS203で得られた音声信号を出力する。
(楽曲結合処理フロー例)
次に、図9に示すフローチャートを参照して、第1実施形態に係る楽曲結合処理フローの一例について説明する。
図9のステップS301において、図2に示す一致検出部81aは、カット点情報記憶部92に記憶されたカット点情報に基づき、カット点情報の一致判定を実行し、新たに記録された楽曲コンテンツと過去に記録された楽曲コンテンツとの重複を検出する。なお、ステップS301の詳細については後述する。
ステップS302において、位置合わせ処理部83は、楽曲コンテンツの相対位置を一致させるため、各楽曲コンテンツの最初のカット点の位置を一致させる。ステップS302の詳細については後述する。
ステップS303において、セグメント選択部84aは、各楽曲コンテンツにて時間的位置の等しい各セグメントを、MP3コーデック3及び制御部80aを介して楽曲コンテンツ記憶部91から取得する。
ステップS304において、セグメント選択部84aは、各楽曲コンテンツにて時間的位置の等しい各セグメントについての品質情報(雑音レベル、トークの尤度)を、品質情報記憶部93から取得する。セグメント選択部84aは、より低雑音であるセグメント、もしくは、より低いトークの尤度を有するセグメントを選択する。
ステップS305において、セグメント結合部85aは、ステップS304で選択されたセグメントを、カット点を接点として結合する。
ステップS306において、制御部80aは、各楽曲コンテンツの各セグメントのうち、最後のセグメントまで楽曲結合処理が完了したか否かを判定する。最後のセグメントまで楽曲結合処理が完了したと判定された場合、楽曲結合処理が完了する。最後のセグメントまで楽曲結合処理が完了していないと判定された場合、ステップS303に処理が戻る。
(一致判定処理フロー例)
次に、図10に示すフローチャートを参照して、第1実施形態に係る楽曲結合処理における一致判定処理、すなわち図9のステップS301の詳細について説明する。ただし、一致判定対象の一方の(1曲目の)楽曲コンテンツのカット点の位置をT0〜TNとし、他方の(2曲目の)楽曲コンテンツのカット点の位置をS0〜SNとする(N;1以上の整数)。
図10のステップS401において、一致検出部81aは、変数“n”を0に初期化する。
ステップS402において、一致検出部81aは、各楽曲コンテンツの最後のカット点まで一致判定処理が完了したか否かを判定するため、変数“n”が“N+1”よりも小さいか否か判定する。変数“n”が“N+1”よりも小さい場合、ステップS403に移行する。変数“n”が“N+1”以上である場合、ステップS405に移行する。
ステップS403において、一致検出部81aは、隣接する2つのカット点により区分されるセグメントの期間が、各楽曲コンテンツ間で等しいか否かを判定するため、|T(n+1)−Tn|と、|S(n+1)−Sn|とが、等しいか否かを判定する。|T(n+1)−Tn|と、|S(n+1)−Sn|とが等しいと判定された場合、ステップS404に移行する。|T(n+1)−Tn|と、|S(n+1)−Sn|とが等しくないと判定された場合、ステップS406に移行する。
ステップS404において、一致検出部81aは、変数“n”をインクリメントし、その後ステップS402に処理が戻る。
一方、ステップS405において、一致検出部81aは、各楽曲コンテンツの各セグメントの期間がすべて一致しているため、各楽曲コンテンツが一致すると判定する。
これに対してステップS406において、一致検出部81aは、各楽曲コンテンツの各セグメントの期間が一致しないため、各楽曲コンテンツが一致しないと判定する。
(位置合わせ処理フロー例)
次に、図11に示すフローチャートを参照して、第1実施形態に係る楽曲結合処理における位置合わせ処理、すなわち図9のステップS302の詳細について説明する。ただし、一致判定対象の一方の(1曲目の)楽曲コンテンツのカット点の位置をT0〜TNとし、他方の(2曲目の)楽曲コンテンツのカット点の位置をS0〜SNとする(N;1以上の整数)。
図11のステップS501において、位置合わせ処理部83は、2つの楽曲コンテンツの最初のカット点S0,T0の時間的位置を一致させる。
ステップS502において、位置合わせ処理部83は、変数“n”を0に初期化する。
ステップS503において、位置合わせ処理部83は、各楽曲コンテンツの最後のカット点まで位置合わせ処理が完了したか否かを判定するため、変数“n”が“N+1”よりも小さいか否か判定する。変数“n”が“N+1”よりも小さい場合、ステップS504に移行する。変数“n”が“N+1”以上である場合、ステップS506に移行する。
ステップS504において、位置合わせ処理部83は、隣接する2つのカット点により区分されるセグメントの期間が、各楽曲コンテンツ間で等しいか否かを判定するため、|T(n+1)−Tn|と、|S(n+1)−Sn|とが、等しいか否かを判定する。|T(n+1)−Tn|と、|S(n+1)−Sn|とが等しいと判定された場合、ステップS505に移行する。|T(n+1)−Tn|と、|S(n+1)−Sn|とが等しくないと判定された場合、位置合わせ処理が終了する。
ステップS505において、位置合わせ処理部83は、変数“n”をインクリメントし、その後ステップS503に処理が戻る。
ステップS506において、位置合わせ処理部83は、2つの楽曲コンテンツの最初のカット点S0,T0の時間的位置の差を記録する。
(作用及び効果)
以上詳細に説明したように、第1実施形態によれば、上記カット点により各楽曲コンテンツを複数のセグメントに分割し、品質の高いセグメントを集めて1つの楽曲コンテンツを作成するので、高品質な楽曲コンテンツを作成できる。
また、第1実施形態によれば、楽曲コンテンツから、音声信号のパワーを特徴量として抽出するので、楽曲コンテンツに対して最適な特徴量を得ることができる。
更に、第1実施形態によれば、各セグメントの品質判定基準として雑音及びトークの尤度を用いるので、雑音及びトークの少ない楽曲コンテンツを作成可能となる。
第1実施形態によれば、重複する複数の楽曲コンテンツを楽曲コンテンツ記憶部91から削除して、上記結合して得られた1つの楽曲コンテンツを楽曲コンテンツ記憶部91に記憶するので、楽曲コンテンツ記憶部91の記憶容量を削減できる。
[第1実施形態の変形例]
上述した第1実施形態においては、上記結合して得られた1つの楽曲コンテンツを楽曲コンテンツ記憶部91に記憶するとともに、結合対象となった複数の楽曲コンテンツを楽曲コンテンツ記憶部91から削除する場合について説明した。第1実施形態の変形例においては、結合対象となった複数の楽曲コンテンツを楽曲コンテンツ記憶部91から削除しない構成について説明する。
(楽曲結合装置の機能構成例)
次に、第1実施形態の変形例に係る楽曲結合装置100bの機能ブロック図を図12に示す。楽曲結合装置100bは、セグメント選択部84aによって選択されたセグメントに関する情報(例えばセグメント識別子)をプレイリストとして記憶するプレイリスト記憶部94を備えている点で、図2とは異なっている。
制御部80bは、楽曲コンテンツの再生時において、プレイリスト記憶部94に記憶されたプレイリストに従って、楽曲コンテンツ記憶部91から複数の楽曲コンテンツをセグメント単位で読み出す。
セグメント結合部85bは、楽曲コンテンツ記憶部91から読み出されたセグメントを順次結合して1つの楽曲コンテンツを得る。
(作用及び効果)
第1実施形態の変形例によれば、品質の高いセグメントの情報を記録しおき、再生時において結合処理を実行するので、高品質な楽曲コンテンツを作成できるとともに、楽曲コンテンツの保存性に優れた構成とすることができる。つまり、重複する複数の楽曲コンテンツを楽曲コンテンツ記憶部91から削除することなく、プレイリストで管理するので、元の楽曲コンテンツをそのままの状態で保存することができる。
[第2実施形態]
以下の第2実施形態においては、第1実施形態と異なる点を主に説明し、重複する説明を省略する。
(楽曲結合装置の機能構成例)
本発明の第2実施形態に係る楽曲結合装置100cの機能ブロック図を図13に示す。楽曲結合装置100cは、図2で示したカット点情報記憶部92、品質情報記憶部93、及び位置合わせ処理部83を備えていない点で、図2とは異なっている。
楽曲コンテンツ抽出部70は、A/D変換器2からのデジタル音声データから楽曲コンテンツを抽出する。制御部80aは、楽曲コンテンツ抽出部70が抽出した楽曲コンテンツをMP3コーデック3に供給する。MP3コーデック3は、楽曲コンテンツを圧縮符号化する。圧縮符号化された楽曲コンテンツは、楽曲コンテンツ記憶部91に記録される。
一致検出部81bは、楽曲コンテンツ抽出部70が抽出した楽曲コンテンツと、楽曲コンテンツ記憶部91に記録された楽曲コンテンツとの一致を検出する。具体的には、一致検出部81bは、楽曲コンテンツ記憶部91に記録された各楽曲コンテンツを、MP3コーデック3及び制御部80cを介して順次取得する。一致検出部81bは、当該取得した楽曲コンテンツと、楽曲コンテンツ抽出部70が抽出した楽曲コンテンツとを、音声波形のマッチングにより一致判定を行う。重複する2つの楽曲コンテンツが検出された場合、当該2つの楽曲コンテンツはカット点検出部71に供給される。
カット点検出部71は、一致検出部81bから供給される2つの楽曲コンテンツのうち、一方の楽曲コンテンツからカット点を検出する。カット点の検出手法については、第1実施形態と同様である。
セグメント化部82bは、カット点検出部71が検出したカット点情報を用いて、重複する2つの楽曲コンテンツをそれぞれセグメント化する。具体的には、セグメント化部82bは、上記一方の楽曲コンテンツから検出されたカット点情報を、他方の楽曲コンテンツについても適用することで、重複する2つの楽曲コンテンツのカット点を完全一致させる。したがって、第2実施形態においては、図2に示した位置合わせ処理部83を不要としている。
品質判定部72bは、各楽曲コンテンツの品質をセグメント毎に判定する。各セグメントの品質判定手法については、第1実施形態と同様である。
セグメント選択部84bは、品質判定部72bが判定した品質情報に基づき、各楽曲コンテンツにおいて時間的位置の等しい各セグメント間で、最も品質の高いセグメントを選択する。
セグメント結合部85bは、セグメント選択部84bによって選択されたセグメントを順次結合して1つの楽曲コンテンツを得る。セグメント結合部85bが作成した楽曲コンテンツは、制御部80cに供給される。
制御部80cは、セグメント結合部85bから供給される楽曲コンテンツを、MP3コーデック3を用いて圧縮符号化し、圧縮符号化後の楽曲コンテンツを楽曲コンテンツ記憶部91に記憶する。その際、制御部80cは、結合対象となった元の各楽曲コンテンツを楽曲コンテンツ記憶部91から削除する。
(楽曲録音処理フロー例)
次に、図14に示すフローチャートを参照して、第2実施形態に係る楽曲録音処理フローの一例について説明する。
図14のステップS601において、図13に示すチューナ1は、例えばラジオ放送等の放送信号を受信し、放送信号から音声信号を復調する。
ステップS602において、A/D変換器2は、ステップS601で得られた音声信号をデジタル信号データに変換する。
ステップS603において、楽曲コンテンツ抽出部70は、ステップS602で得られたデジタル音声データから、楽曲コンテンツを抽出する。
ステップS604において、MP3コーデック3は、ステップS603で得られた楽曲コンテンツを圧縮符号化する。
ステップS605において、制御部80cは、ステップS604で圧縮符号化された楽曲コンテンツを楽曲コンテンツ記憶部91に記憶する。
(楽曲結合処理フロー例)
次に、図15に示すフローチャートを参照して、第2実施形態に係る楽曲結合処理フローの一例について説明する。
図15のステップS701において、図13に示す一致検出部81bは、上述した音声波形のマッチングにより、新たに記録された楽曲コンテンツと過去に記録された楽曲コンテンツとの重複を検出する。
ステップS702において、図3に示すパワー算出部711は、ステップS701で得られた重複する2つの楽曲コンテンツのうち一方の楽曲コンテンツから音声信号のパワーを算出する。更に、微分演算部712は、パワー算出部711が算出した音声信号のパワーを微分する。
ステップS703において、閾値比較部713は、ステップS702で算出された微分値がある閾値以上であれば、その時刻をカット点として検出する。当該検出されたカット点は、上記重複する2つの楽曲コンテンツのうち他方の楽曲コンテンツにマッピングされる。
ステップS704において、セグメント選択部84bは、各楽曲コンテンツにおいて時間的位置の等しい各セグメントを取得する。
ステップS705において、品質判定部72bは、ステップS704で取得された各セグメントの雑音レベルを判定する。
ステップS706において、品質判定部72bは、ステップS704で取得された各セグメントのトークの尤度を判定する。
ステップS707において、セグメント選択部84bは、ステップS705及びステップS706で判定された品質情報(雑音レベル、トークの尤度)に基づき、より低雑音であるセグメント、もしくは、より低いトークの尤度を有するセグメントを選択する。さらに、セグメント結合部85bは、セグメント選択部84bが選択したセグメントを、カット点を接点として結合する。
ステップS708において、制御部80cは、各楽曲コンテンツの各セグメントのうち、最後のセグメントまで楽曲結合処理が完了したか否かを判定する。最後のセグメントまで楽曲結合処理が完了したと判定された場合、楽曲結合処理が完了する。最後のセグメントまで楽曲結合処理が完了していないと判定された場合、ステップS704に処理が戻る。
(作用及び効果)
以上詳細に説明したように、第2実施形態によれば、第1実施形態と同様に、カット点により各楽曲コンテンツを複数のセグメントに分割し、品質の高いセグメントを集めて1つの楽曲コンテンツを作成するので、高品質な楽曲コンテンツを作成できる。
更に、第2実施形態によれば、重複する2つの楽曲コンテンツのうち、一方の楽曲コンテンツから検出されたカット点情報を、他方の楽曲コンテンツについても適用することで、各楽曲コンテンツのカット点を完全一致させる。したがって、第2実施形態においては、図2に示した位置合わせ処理部83を不要とすることができる。
[その他の実施形態]
上記のように、本発明は第1及び第2実施形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなる。
上述した実施形態においては、楽曲コンテンツの特徴量として、音声信号のパワーの単位時間当たりの変化量を使用する場合について説明した。その他の実施形態として、図16に示すように、楽曲コンテンツの特徴量として、音声信号の周波数の単位時間当たりの変化量を使用しても良い。
また、上述した実施形態においては、ラジオ放送を受信して、楽曲コンテンツを記録する録音再生装置の例について説明した。しかしながら、インターネット網等の通信網を利用した放送を受信しても良く、CD等から読み出された楽曲コンテンツを録音・再生しても良い。
更に、上述した実施形態においては、2つの重複する楽曲コンテンツを結合する一例について説明した。しかしながら、3つ以上の重複する楽曲コンテンツを結合する場合に適用可能である。3つ以上の重複する楽曲コンテンツを結合する場合、2つの重複する楽曲コンテンツを結合する場合よりも高品質な楽曲コンテンツを作成可能となる。
上述した実施形態においては、楽曲コンテンツ等を記憶するためにHDDを用いる一例を説明したが、HDDに限らず、フラッシュメモリ等の半導体記憶装置を用いてもかまわない。
また、上述した実施形態で説明した各処理フローをコンピュータプログラムとして実装し、パーソナルコンピュータ(PC)に実行させることが可能である。
このように本発明は、ここでは記載していない様々な実施形態等を包含するということを理解すべきである。したがって、本発明はこの開示から妥当な特許請求の範囲の発明特定事項によってのみ限定されるものである。
第1実施形態に係る楽曲録音再生装置のハードウェア構成例を示すブロック図である。 第1実施形態に係る楽曲結合装置の機能構成例を示す機能ブロック図である。 第1実施形態に係るカット点検出部の機能構成例を示す機能ブロック図である。 第1実施形態に係るパワー算出部の動作を説明するための波形図である。 第1実施形態に係る微分演算部の動作を説明するための波形図である。 第1実施形態に係るセグメント選択部及びセグメント結合部の動作を説明するための波形図である。 第1実施形態に係る楽曲録音処理フロー例を示すフローチャートである。 第1実施形態に係る楽曲再生処理フロー例を示すフローチャートである。 第1実施形態に係る楽曲結合処理フロー例を示すフローチャートである。 第1実施形態に係る楽曲結合処理における一致判定処理フロー例を示すフローチャートである。 第1実施形態に係る楽曲結合処理における位置合わせ処理フロー例を示すフローチャートである。 第1実施形態の変形例に係る楽曲結合装置の機能構成例を示す機能ブロック図である。 第2実施形態に係る楽曲結合装置の機能構成例を示す機能ブロック図である。 第2実施形態に係る楽曲録音処理フロー例を示すフローチャートである。 第2実施形態に係る楽曲結合処理フロー例を示すフローチャートである。 その他の実施形態に係るカット点検出動作を説明するための波形図である。
符号の説明
1…チューナ
2…A/D変換器
3…MP3コーデック
4…D/A変換器
5…スピーカ
6…バス
7…DSP
8…CPU
9…HDD
10…メモリ
70…楽曲コンテンツ抽出部
71…カット点検出部
72a,72b…品質判定部
80a〜80c…制御部
81a,81b…一致検出部
82a,82b…セグメント化部
83…位置合わせ処理部
84a,84b…セグメント選択部
85a,85b…セグメント結合部
91…楽曲コンテンツ記憶部
92…カット点情報記憶部
93…品質情報記憶部
94…プレイリスト記憶部
100a〜100c…楽曲結合装置
711…パワー算出部
712…微分演算部
713…閾値比較部
714…カット点記録処理部

Claims (8)

  1. 複数の楽曲コンテンツを結合する楽曲結合装置であって、
    前記複数の楽曲コンテンツの少なくとも1つから特徴量を算出して、前記特徴量が閾値を超えた時点をカット点として検出するカット点検出部と、
    前記カット点を用いて、各楽曲コンテンツを複数のセグメントに分割するセグメント化部と、
    各楽曲コンテンツの各セグメントの品質を判定する品質判定部と、
    前記品質の判定結果に基づき、各楽曲コンテンツにおいて時間的位置の等しい各セグメント間で、最も品質の高いセグメントを選択するセグメント選択部と、
    前記選択されたセグメントを順次結合して1つの楽曲コンテンツを得るセグメント結合部と
    を備えることを特徴とする楽曲結合装置。
  2. 前記カット点検出部は、前記特徴量として、音声信号のパワー又は周波数の単位時間当たりの変化量を算出することを特徴とする請求項1に記載の楽曲結合装置。
  3. 前記品質判定部は、各セグメントに含まれるノイズのレベルに応じて、各セグメントの品質を判定することを特徴とする請求項1又は2に記載の楽曲結合装置。
  4. 前記品質判定部は、各セグメントに楽曲以外の音声信号が付加されていることの尤度に応じて、各セグメントの品質を判定することを特徴とする請求項1又は2に記載の楽曲結合装置。
  5. 前記複数の楽曲コンテンツを記憶する楽曲コンテンツ記憶部と、
    前記結合して得られた1つの楽曲コンテンツを前記楽曲コンテンツ記憶部に記憶するとともに、前記複数の楽曲コンテンツを前記楽曲コンテンツ記憶部から削除する制御部と
    を更に備えることを特徴とする請求項1〜4のいずれか1項に記載の楽曲結合装置。
  6. 前記複数の楽曲コンテンツを記憶する楽曲コンテンツ記憶部と、
    前記選択されたセグメントに関する情報をプレイリストとして記憶するプレイリスト記憶部と、
    前記記憶されたプレイリストに従って、前記楽曲コンテンツ記憶部から前記複数の楽曲コンテンツをセグメント単位で読み出す制御部とを更に備え、
    前記セグメント結合部は、前記楽曲コンテンツ記憶部から読み出されたセグメントを前記選択されたセグメントとして順次結合することを特徴とする請求項1〜4のいずれか1項に記載の楽曲結合装置。
  7. 複数の楽曲コンテンツを結合する楽曲結合方法であって、
    前記複数の楽曲コンテンツの少なくとも1つから特徴量を算出して、前記特徴量が閾値を超えた時点をカット点として検出するステップと、
    前記カット点を用いて、各楽曲コンテンツを複数のセグメントに分割するステップと、
    各楽曲コンテンツの各セグメントの品質を判定するステップと、
    前記品質の判定結果に基づき、各楽曲コンテンツにおいて時間的位置の等しい各セグメント間で、最も品質の高いセグメントを選択するステップと、
    前記選択されたセグメントを順次結合して1つの楽曲コンテンツを得るステップと
    を含むことを特徴とする楽曲結合方法。
  8. 複数の楽曲コンテンツを結合する楽曲結合プログラムであって、コンピュータに、
    前記複数の楽曲コンテンツの少なくとも1つから特徴量を算出して、前記特徴量が閾値を超えた時点をカット点として検出する手順と、
    前記カット点を用いて、各楽曲コンテンツを複数のセグメントに分割する手順と、
    各楽曲コンテンツの各セグメントの品質を判定する手順と、
    前記品質の判定結果に基づき、各楽曲コンテンツにおいて時間的位置の等しい各セグメント間で、最も品質の高いセグメントを選択する手順と、
    前記選択されたセグメントを順次結合して1つの楽曲コンテンツを得る手順と
    を実行させることを特徴とする楽曲結合プログラム。
JP2006221137A 2006-08-14 2006-08-14 楽曲結合装置、楽曲結合方法、及び楽曲結合プログラム Expired - Fee Related JP4278667B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006221137A JP4278667B2 (ja) 2006-08-14 2006-08-14 楽曲結合装置、楽曲結合方法、及び楽曲結合プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006221137A JP4278667B2 (ja) 2006-08-14 2006-08-14 楽曲結合装置、楽曲結合方法、及び楽曲結合プログラム

Publications (2)

Publication Number Publication Date
JP2008047203A JP2008047203A (ja) 2008-02-28
JP4278667B2 true JP4278667B2 (ja) 2009-06-17

Family

ID=39180796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006221137A Expired - Fee Related JP4278667B2 (ja) 2006-08-14 2006-08-14 楽曲結合装置、楽曲結合方法、及び楽曲結合プログラム

Country Status (1)

Country Link
JP (1) JP4278667B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102094011B1 (ko) * 2013-06-13 2020-03-26 삼성전자주식회사 전자 장치에서 노이즈를 제거하기 위한 장치 및 방법
GB2520305A (en) * 2013-11-15 2015-05-20 Nokia Corp Handling overlapping audio recordings
US10255898B1 (en) * 2018-08-09 2019-04-09 Google Llc Audio noise reduction using synchronized recordings

Also Published As

Publication number Publication date
JP2008047203A (ja) 2008-02-28

Similar Documents

Publication Publication Date Title
US8855796B2 (en) Method and device for detecting music segment, and method and device for recording data
US8682132B2 (en) Method and device for detecting music segment, and method and device for recording data
JP2005322401A (ja) メディア・セグメント・ライブラリを生成する方法、装置およびプログラム、および、カスタム・ストリーム生成方法およびカスタム・メディア・ストリーム発信システム
US8190441B2 (en) Playback of compressed media files without quantization gaps
US20090012637A1 (en) Chorus position detection device
US20080077263A1 (en) Data recording device, data recording method, and data recording program
US7714223B2 (en) Reproduction device, reproduction method and computer usable medium having computer readable reproduction program emodied therein
JP4278667B2 (ja) 楽曲結合装置、楽曲結合方法、及び楽曲結合プログラム
JP4877811B2 (ja) 特定区間抽出装置、音楽記録再生装置、音楽配信システム
US7745714B2 (en) Recording or playback apparatus and musical piece detecting apparatus
US20110235811A1 (en) Music track extraction device and music track recording device
US7985915B2 (en) Musical piece matching judging device, musical piece recording device, musical piece matching judging method, musical piece recording method, musical piece matching judging program, and musical piece recording program
JP4990375B2 (ja) 記録再生装置
JP2010078984A (ja) 楽曲抽出装置および楽曲記録装置
JP2006270233A (ja) 信号処理方法及び信号記録再生装置
JP4961300B2 (ja) 楽曲一致判定装置、楽曲記録装置、楽曲一致判定方法、楽曲記録方法、楽曲一致判定プログラム、及び楽曲記録プログラム
JP4633022B2 (ja) 楽曲編集装置、及び楽曲編集プログラム。
JP2010027115A (ja) 音楽記録再生装置
JP2008079047A (ja) データ再生装置、データ再生方法及びデータ再生プログラム
KR100798524B1 (ko) 매체 신호 검색 및 레코딩 방법 및 장치
JP2012199849A (ja) 放送録画再生装置
JP2010175908A (ja) 楽曲抽出装置
JP2009053297A (ja) 楽曲記録装置
UA28630U (en) Method for tracing audio records

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080118

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20080201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090310

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees