JP7158331B2 - カラオケ装置 - Google Patents

カラオケ装置 Download PDF

Info

Publication number
JP7158331B2
JP7158331B2 JP2019067225A JP2019067225A JP7158331B2 JP 7158331 B2 JP7158331 B2 JP 7158331B2 JP 2019067225 A JP2019067225 A JP 2019067225A JP 2019067225 A JP2019067225 A JP 2019067225A JP 7158331 B2 JP7158331 B2 JP 7158331B2
Authority
JP
Japan
Prior art keywords
voice
character string
data
karaoke
chorusing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019067225A
Other languages
English (en)
Other versions
JP2020166141A (ja
Inventor
政之 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2019067225A priority Critical patent/JP7158331B2/ja
Publication of JP2020166141A publication Critical patent/JP2020166141A/ja
Application granted granted Critical
Publication of JP7158331B2 publication Critical patent/JP7158331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カラオケ装置に関する。
カラオケ歌唱を一人で楽しむ、「一人カラオケ」のニーズが高まっている。
一人カラオケを行う際の場を盛り上げるための技術として、たとえば、特許文献1には、マイクロホンの向きが水平を中心として上下に所定の狭い角度範囲に収まっている場合には唱和フレーズにおける聴衆の唱和の歌声データを再生させる技術が開示されている。この技術により、コンサート会場においてステージ上のアーティストが聴衆に唱和を促して盛り上げる気分を楽しめるとしている。
特開2011-154289号公報
ところで、プロのアーティストが聴衆に唱和を促す際に、唱和を求める歌詞を先に読み上げることがある。このような行為を「リードナレーション」という。
一方、一人カラオケを行っている歌唱者がアーティストを真似てリードナレーションを行ったとしても、聴衆が居ないため唱和がなされることは無い。
本発明の目的は、一人カラオケを行っている場合であっても、リードナレーションを楽しむことが可能なカラオケ装置を提供することにある。
上記目的を達成するための発明は、楽曲のカラオケ演奏に合わせて歌詞テロップを表示するための歌詞テロップデータを記憶するデータ記憶部と、楽曲のカラオケ演奏中に入力された歌唱者の音声に基づく信号を処理し、当該音声に含まれる文字列を特定する音声処理部と、特定された前記文字列と前記歌詞テロップデータとの比較結果に基づいて、前記音声がリードナレーションに対応する音声かどうかを判定する判定部と、前記音声がリードナレーションに対応する音声であると判定された場合、前記特定された文字列の唱和を模擬した唱和音声を放音手段から放音させる放音処理部と、を有するカラオケ装置である。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
本発明によれば、一人カラオケを行っている場合であっても、リードナレーションを楽しむことができる。
第1実施形態に係るカラオケ装置のハードウェア構成例を示す図である。 第1実施形態に係るカラオケ本体のソフトウェア構成例を示す図である。 第1実施形態における、ある歌唱区間における歌詞と当該歌詞に含まれる文字の時間情報との関係を示した図である。 第1実施形態に係るカラオケ装置の処理を示すフローチャートである。
<第1実施形態>
図1~図4を参照して、本実施形態に係るカラオケ装置について説明する。
==カラオケ装置==
カラオケ装置1は、カラオケ演奏及び歌唱者がカラオケ歌唱を行うための装置である。図1に示すように、カラオケ装置1は、カラオケ本体10、スピーカ20、表示装置30、マイク40、及びリモコン装置50を備える。
スピーカ20は各種音声を放音するための構成である。本実施形態におけるスピーカ20は、「放音手段」に相当する。表示装置30はカラオケ本体10からの信号に基づいて映像や画像を画面に表示するための構成である。マイク40は歌唱者の歌唱音声をアナログの信号に変換してカラオケ本体10に入力するための構成である。リモコン装置50は、カラオケ本体10に対する各種操作をおこなうための装置である。歌唱者はリモコン装置50を用いてカラオケ歌唱を希望する楽曲の選曲(予約)等を行うことができる。リモコン装置50の表示画面には各種操作の指示入力を行うためのアイコン等が表示される。
カラオケ本体10は、選曲された楽曲のカラオケ演奏制御、歌詞や背景映像等の表示制御、マイク40を通じて入力された信号の処理といった、カラオケ歌唱に関する各種の制御を行う。図1に示すように、カラオケ本体10は、制御部11、通信部12、記憶部13、音響処理部14、表示処理部15、及び操作部16を備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。
制御部11は、CPU11aおよびメモリ11bを備える。CPU11aは、メモリ11bに記憶された動作プログラムを実行することにより各種の制御機能を実現する。メモリ11bは、CPU11aに実行されるプログラムを記憶したり、プログラムの実行時に各種情報を一時的に記憶したりする記憶装置である。
通信部12は、ルーター(図示なし)を介してカラオケ本体10を通信回線に接続するためのインターフェースを提供する。
記憶部13は、各種のデータを記憶する大容量の記憶装置であり、たとえばハードディスクドライブなどである。記憶部13は、カラオケ装置1によりカラオケ演奏を行うための複数の楽曲データを記憶する。
楽曲データは、個々のカラオケ楽曲を特定するための楽曲IDが付与されている。楽曲データは、伴奏データ、リファレンスデータ等を含む。伴奏データは、カラオケ演奏音の元となるデータである。リファレンスデータは、歌唱者によるカラオケ歌唱を採点するためのデータであり、採点時の基準として用いられるデータである。リファレンスデータは、音符毎のピッチの値を含む。
また、記憶部13は、各カラオケ楽曲に対応する歌詞テロップをカラオケ演奏に合わせて表示装置30等に表示させるための歌詞テロップデータ、カラオケ演奏時に表示装置30等に表示される背景画像等の背景画像データ、及び楽曲の属性情報(歌手名、作詞・作曲者名、ジャンル等の当該楽曲に関する情報)を記憶する。
音響処理部14は、制御部11の制御に基づき、楽曲に対するカラオケ演奏の制御およびマイク40を通じて入力された歌唱音声に基づく信号の処理を行う。表示処理部15は、制御部11の制御に基づき、表示装置30やリモコン装置50における各種表示に関する処理を行う。たとえば、表示処理部15は、楽曲のカラオケ演奏時における背景映像に歌詞テロップや各種アイコンが重ねられた映像を表示装置30に表示させる制御を行う。或いは、表示処理部15は、リモコン装置50の表示画面に操作入力用の各種アイコンを表示させる。操作部16は、パネルスイッチおよびリモコン受信回路などからなり、歌唱者によるカラオケ装置1のパネルスイッチあるいはリモコン装置50の操作に応じて選曲信号、演奏中止信号などの操作信号を制御部11に対して出力する。制御部11は、操作部16からの操作信号を検出し、対応する処理を実行する。
(ソフトウェア構成)
図2はカラオケ本体10のソフトウェア構成例を示す図である。カラオケ本体10は、データ記憶部100、音声処理部200、判定部300、及び放音処理部400を備える。データ記憶部100は、記憶部13の記憶領域の一部として提供される。音声処理部200、判定部300、及び放音処理部400は、CPU11aがメモリ11bに記憶されるプログラムを実行することにより実現される。
[データ記憶部]
データ記憶部100は、歌詞テロップデータ(上述)を記憶する。歌詞テロップデータは、歌詞に含まれる文字を示すデータや、歌詞に含まれる文字毎に設定された時間情報を含む。時間情報は、楽曲の演奏開始時を0とした場合に当該文字が発声されるべきタイミング(たとえば、250msec後、1000msec後)を示す情報である。カラオケ装置1は、この時間情報に基づいたタイミングで歌詞テロップを表示したり、表示した歌詞テロップの色替えを制御したりする。図3は、楽曲Xの歌唱区間E1及びE2における歌詞、及び歌詞に含まれる各文字の時間情報を示した図である。なお、図3における時間情報は、歌唱区間E1の演奏開始時をオフセット位置(offset)とし、そこからの経過時間として示している。
また、本実施形態において、データ記憶部100は唱和音声データを記憶する。唱和音声データは、歌詞テロップに含まれる文字列の唱和を模擬した唱和音声を示す波形データである。唱和音声データは、楽曲毎に予め設定されている。
[音声処理部]
音声処理部200は、楽曲のカラオケ演奏中に入力された歌唱者の音声に基づく信号を処理し、当該音声に含まれる文字列を特定する。
ある歌唱者が予約した楽曲のカラオケ演奏が開始された後、マイク40から音声入力を受けたとする。この場合、音声処理部200は、入力された音声に基づく信号を処理し、音声に含まれる文字列を抽出する。音声認識処理は公知の手法を用いることができる。
たとえば、歌唱者がマイク40を介し、楽曲Xの歌唱区間E1において歌詞「請求項」を発声したとする。この場合、音声処理部200は、マイク40からの信号を音声認識処理することにより、文字列「せ」、「い」、「きゅ」、「こ」を抽出する。音声処理部200は、抽出した文字列の情報を判定部300に出力する。
[判定部]
判定部300は、特定された文字列と歌詞テロップデータとの比較結果に基づいて、入力された歌唱者の音声がリードナレーションに対応する音声かどうかを判定する。
具体的に、判定部300は、歌詞テロップデータ中に、特定された文字列と一致する文字列が含まれており、且つ歌唱者による当該特定された文字列に対応する音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間以上早い場合、音声がリードナレーション(唱和を求める歌詞を先に読み上げること)に対応する音声であると判定する。
所定時間は、歌唱者の音声がリードナレーションに対応する音声であるかどうかを判定するための値である。所定時間はたとえば、500msecや750msecである。なお、所定時間は予め一の値が設定されていてもよいし、楽曲のテンポに応じて適宜設定されることでもよい。
たとえば、歌唱者がマイク40を介し、歌唱区間E1のカラオケ演奏に合わせて歌詞「請求項」のうち「せ」、「い」、「きゅ」まで発声した後、本来「こ」を発声すべきタイミングにおいて「こ」の代わりに次の歌唱区間E2における歌詞「一に記載の」を発声したとする。この場合、音声処理部200は、マイク40からの信号を音声認識処理することにより、文字列「せ」、「い」、「きゅ」、「い」、「ち」、「に」、「き」、「さ」、「い」、「の」を抽出する。音声処理部200は、抽出した各文字列の情報を判定部300に出力する。
判定部300は、楽曲Xの歌詞テロップデータをデータ記憶部100から読み出し、特定された文字列と一致する文字列が含まれており、且つ歌唱者による当該特定された文字列に対応する音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間(ここでは750msecとする)以上早いかどうかを判定する。
ここで、文字列「せ」、「い」、「きゅ」は楽曲Xの歌詞「請求項」の一部であるため、歌詞テロップデータに一致する文字列が含まれている。一方、歌唱者は楽曲Xのカラオケ演奏に合わせて文字列「せ」、「い」、「きゅ」を発声しているため、通常、音声の入力タイミングと、文字列「せ」、「い」、「きゅ」が発声されるべきタイミングとに大きなずれは生じない。すなわち、音声の入力タイミングが文字列「せ」、「い」「きゅ」が発声されるべきタイミングよりも所定時間以上早くなることは無い。
よって、判定部300は、文字列「せ」、「い」、「きゅ」を含む音声がリードナレーションに対応する音声ではないと判定する。
一方、文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」は楽曲Xの歌唱区間E2における歌詞「一に記載の」であるため、歌詞テロップデータに一致する文字列が含まれている。一方、歌唱者は本来「こ」と発声すべきタイミングにおいて文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」を発声している。ここで、文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」の最初の文字「い」が入力されたタイミング(文字「こ」を発声すべきタイミング。図3のoffset+1000)は、文字「い」が本来発声されるべきタイミング(図3のoffset+2000)よりも1000msec早い。すなわち、歌唱者の音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間以上早くなっている。
よって、判定部300は、文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」を含む音声がリードナレーションに対応する音声であると判定する。
[放音処理部]
放音処理部400は、入力された歌唱者の音声がリードナレーションに対応する音声であると判定された場合、特定された文字列の唱和を模擬した唱和音声をスピーカ20から放音させる。
本実施形態において、放音処理部400は、特定された文字列の唱和を模擬した唱和音声に対応する唱和音声データをデータ記憶部100から読み出し、カラオケ演奏に合わせて唱和音声を放音させる。
たとえば、上述の通り、文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」を含む音声がリードナレーションに対応する音声であると判定されたとする。この場合、放音処理部400は、楽曲Xの唱和音声データのうち、楽曲Xの歌詞に含まれる文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」に対応する唱和音声データをデータ記憶部100から読み出す。そして、放音処理部400は、カラオケ演奏に合わせてスピーカ20から「いちにきさいの」という唱和音声を放音させる。なお、唱和音声データは楽曲Xの全歌詞に対応しており、リードナレーションであると判定された文字列に対応する歌詞テロップデータの時間情報に基づいて自由に読み出すことができる。より具体的には、文字「い」が本来発声されるべきタイミング(図3のoffset+2000)に基づいて、対応する唱和音声データを読み出すことができる。
==カラオケ装置における処理について==
次に、図4を参照して本実施形態に係るカラオケ装置1における処理の具体例について述べる。図4は、カラオケ装置1における処理例を示すフローチャートである。この例では、歌唱者が選曲した楽曲Xのカラオケ歌唱を行う例について述べる。データ記憶部100は、楽曲Xの歌詞テロップデータ及び楽曲Xの唱和音声データを記憶しているとする。
カラオケ装置1は、楽曲Xのカラオケ演奏を開始する(カラオケ演奏の開始。ステップ10)。歌唱者は、カラオケ演奏が開始された後、音声を入力する。
音声処理部200は、楽曲Xのカラオケ演奏中に入力された歌唱者の音声に基づく信号を処理し、当該音声に含まれる文字列を特定する(音声認識処理による文字列の特定。ステップ11)。
判定部300は、楽曲Xの歌詞テロップデータ中に、ステップ11で特定された文字列と一致する文字列が含まれているかどうか、及び歌唱者による当該特定された文字列に対応する音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間以上早いかどうかにより、入力された音声がリードナレーションに対応する音声かどうかを判定する。
入力された音声がリードナレーションに対応する音声であると判定された場合(ステップ12でYの場合)、放音処理部400は、ステップ11で特定された文字列の唱和を模擬した唱和音声に対応する唱和音声データをデータ記憶部100から読み出し、カラオケ演奏に合わせて唱和音声を放音させる(唱和音声を放音。ステップ13)。
カラオケ装置1は、楽曲Xのカラオケ演奏が終了するまで(ステップ14でYの場合)、ステップ11~ステップ13の処理を繰り返し行う。
以上から明らかなように、本実施形態に係るカラオケ装置1は、楽曲のカラオケ演奏に合わせて歌詞テロップを表示するための歌詞テロップデータを記憶するデータ記憶部100と、楽曲のカラオケ演奏中に入力された歌唱者の音声に基づく信号を処理し、当該音声に含まれる文字列を特定する音声処理部200と、特定された文字列と歌詞テロップデータとの比較結果に基づいて、音声がリードナレーションに対応する音声かどうかを判定する判定部300と、音声がリードナレーションに対応する音声であると判定された場合、特定された文字列の唱和を模擬した唱和音声をスピーカ20から放音させる放音処理部400と、を有する。
このようなカラオケ装置1によれば、一人カラオケを行う歌唱者がリードナレーションを行うことにより、特定された文字列の唱和を模擬した唱和音声が放音される。よって、歌唱者は、あたかも聴衆からの反応があったかのように感じるため、気分よくカラオケ歌唱を行うことができる。すなわち、本実施形態に係るカラオケ装置1によれば、一人カラオケを行っている場合であっても、リードナレーションを楽しむことができる。
また、判定部300は、歌詞テロップデータ中に、特定された文字列と一致する文字列が含まれており、且つ歌唱者による当該特定された文字列に対応する音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間以上早い場合、音声がリードナレーションに対応する音声であると判定する。このような処理を行うことにより、カラオケ演奏中に歌唱者がリードナレーションを行ったかどうかを正確に判定できる。
また、データ記憶部100は、楽曲毎に予め設定されている唱和音声に対応する唱和音声データを記憶し、放音処理部400は、特定された文字列の唱和を模擬した唱和音声に対応する唱和音声データを読み出し、カラオケ演奏に合わせて唱和音声を放音させる。このように予め設定されている唱和音声データを利用することにより、簡易にリードナレーションに対する唱和音声を放音することができる。
<第2実施形態>
次に、第2実施形態に係るカラオケ装置について説明する。本実施形態では、唱和音声データを予め記憶しておく代わりに、都度、唱和音声データを生成する例について述べる。第1実施形態と同様の構成については詳細な説明を省略する。
[データ記憶部]
本実施形態に係るデータ記憶部100は、歌詞テロップデータ及びリファレンスデータ(いずれも上述)を記憶する。
[放音処理部]
放音処理部400は、歌詞テロップデータ及びリファレンスデータを利用して特定された文字列の唱和を模擬した唱和音声に対応する唱和音声データを生成し、カラオケ演奏に合わせて唱和音声を放音させる。
たとえば、第1実施形態の例で述べた通り、文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」を含む音声がリードナレーションに対応する音声であると判定されたとする。この場合、放音処理部400は、歌詞テロップデータから文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」に対応する各文字を読み出す。また、放音処理部400は、リファレンスデータから文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」に対応する発声タイミング及びピッチを読み出す。なお、発声タイミングは歌詞テロップデータに基づいてもよい。
放音処理部400は、読み出した各文字と発声タイミング及びピッチとに基づいて唱和音声データを生成する。このような音声合成処理は、公知の手法を用いることができる。
放音処理部400は、カラオケ演奏に合わせてスピーカ20から音声合成処理により得られた「いちにきさいの」という唱和音声を放音させる。
このように、本実施形態に係るデータ記憶部100は、カラオケ歌唱を採点するためのリファレンスデータを記憶する。放音処理部400は、歌詞テロップデータ及びリファレンスデータを利用して特定された文字列の唱和を模擬した唱和音声に対応する唱和音声データを生成し、カラオケ演奏に合わせて唱和音声を放音させる。このように歌詞テロップデータ及びリファレンスデータを利用して唱和音声データを生成することにより、唱和音声データが作成されていない楽曲であってもリードナレーションを楽しむことができる。また、予め多くの唱和音声データを準備しておく必要が無いため、記憶部13の記憶領域を節約することができる。
<第3実施形態>
次に、第3実施形態に係るカラオケ装置について説明する。本実施形態では、歌唱者がリードナレーションとして歌詞以外の文字列を発声した場合の例について述べる。第1実施形態または第2実施形態と同様の構成については詳細な説明を省略する。
[データ記憶部]
本実施形態に係るデータ記憶部100は、歌詞テロップデータ及びリファレンスデータ(いずれも上述)を記憶する。
[判定部]
判定部300は、歌詞テロップデータ中に、特定された文字列に含まれる単語数及び音節数の少なくとも一方が所定割合以上一致する文字列が含まれており、且つ歌唱者による当該特定された文字列に対応する音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間以上早い場合、音声がリードナレーションに対応する音声であると判定する。
単語数は、文字列に含まれる単語の数である。たとえば、文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」の場合、「いち」、「に」、「きさい」、「の」の4つの単語が含まれる。音節数は、文字列に含まれる音節の数である。たとえば、文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」の場合、7つの音節が含まれる。所定割合は、歌唱者の音声がリードナレーションに対応する音声であるかどうかを判定するための値である。所定割合はたとえば、85%、90%である。所定割合は予め一の値が設定されている。
たとえば、歌唱者がマイク40を介し、歌唱区間E1のカラオケ演奏に合わせて歌詞「請求項」のうち「せ」、「い」、「きゅ」まで発声した後、本来「こ」を発声すべきタイミングにおいて「こ」の代わりに楽曲Xの歌詞にはない即興で作った歌詞「三も拒絶で(さんもきょぜつで)」を発声したとする。この場合、音声処理部200は、マイク40からの信号を音声認識処理することにより、文字列「せ」、「い」、「きゅ」、「さ」、「ん」、「も」、「きょ」、「ぜ」、「つ」、「で」を抽出する。音声処理部200は、抽出した各文字列の情報を判定部300に出力する。
判定部300は、楽曲Xの歌詞テロップデータをデータ記憶部100から読み出し、特定された文字列に含まれる単語数及び音節数が所定割合以上一致する文字列が含まれており、且つ歌唱者による当該特定された文字列に対応する音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間(ここでは750msecとする)以上早いかどうかを判定する。なお、判定部300は、単語数また音節数のいずれか一方のみに基づいて判定してもよい。
ここで、文字列「せ」、「い」、「きゅ」は楽曲Xの歌詞「請求項」の一部であるため、単語数及び音節数のいずれも100%一致する。一方、歌唱者は楽曲Xのカラオケ演奏に合わせて文字列「せ」、「い」、「きゅ」を発声しているため、通常、音声の入力タイミングと、文字列「せ」、「い」、「きゅ」が発声されるべきタイミングとに大きなずれは生じない。すなわち、音声の入力タイミングが文字列「せ」、「い」、「きゅ」が発声されるべきタイミングよりも所定時間以上早くなることは無い。
よって、判定部300は、文字列「せ」、「い」、「きゅ」を含む音声がリードナレーションに対応する音声ではないと判定する。
また、文字列「さ」、「ん」、「も」、「きょ」、「ぜ」、「つ」、「で」についても、歌詞テロップデータに一致する文字列が含まれていないので、本来の歌唱音声でもなければ、第1実施形態や第2実施形態で判定したようなリードナレーションにも相当しない。一方、文字列「さ」、「ん」、「も」、「きょ」、「ぜ」、「つ」、「で」は、単語数が4つ(「さん」、「も」、「きょぜつ」、「で」)、音節数が7つである。ここで、歌詞テロップデータには、一小節分の歌詞で単語数が4つ(「いち」、「に」、「きさい」、「の」)であり、音節数が7つ(「い」、「ち」、「に」、「き」、「さ」、「い」、「の」)である歌詞「一に記載の」が含まれている。すなわち、文字列「さ」、「ん」、「も」、「きょ」、「ぜ」、「つ」、「で」と単語数及び音節数のいずれも100%一致する文字例「い」、「ち」、「に」、「き」、「さ」、「い」、「の」が歌詞テロップデータに含まれている。また、歌唱者は本来「こ」と発声すべきタイミングにおいて文字列「さ」、「ん」、「も」、「きょ」、「ぜ」、「つ」、「で」を発声している。ここで、文字列「さ」、「ん」、「も」、「きょ」、「ぜ」、「つ」、「で」の最初の文字「さ」が入力されたタイミング(文字「こ」を発声すべきタイミング。図3のoffset+1000)は、単語数及び音節数のいずれも100%一致した文字例「い」、「ち」、「に」、「き」、「さ」、「い」、「の」の最初の文字「い」が本来発声されるべきタイミング(図3のoffset+2000)よりも1000msec早い。すなわち、歌唱者の音声の入力タイミングが、単語数及び音節数のいずれも100%一致する文字列の発声タイミングよりも所定時間以上早くなっている。
よって、判定部300は、文字列「さ」、「ん」、「も」、「きょ」、「ぜ」、「つ」、「で」を含む音声がリードナレーションに対応する音声であると判定する。
[放音処理部]
放音処理部400は、特定された文字列及びリファレンスデータを利用して特定された文字列の唱和を模擬した唱和音声に対応する唱和音声データを生成し、カラオケ演奏に合わせて唱和音声を放音させる。
たとえば、文字列「さ」、「ん」、「も」、「きょ」、「ぜ」、「つ」、「で」を含む音声がリードナレーションに対応する音声であると判定されたとする。この場合、放音処理部400は、入力された歌唱者の音声から抽出された文字列「さ」、「ん」、「も」、「きょ」、「ぜ」、「つ」、「で」と、リファレンスデータから読み出した文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」に対応する発声タイミング及びピッチとに基づいて唱和音声データを生成する。
放音処理部400は、カラオケ演奏に合わせてスピーカ20から音声合成処理により得られた「さんもきょぜつで」という唱和音声を放音させる。
このように、本実施形態に係るデータ記憶部100は、カラオケ歌唱を採点するためのリファレンスデータを記憶する。判定部300は、歌詞テロップデータ中に、特定された文字列に含まれる単語数及び音節数の少なくとも一方が所定割合以上一致する文字列が含まれており、且つ歌唱者による当該特定された文字列に対応する音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間以上早い場合、音声がリードナレーションに対応する音声であると判定する。放音処理部400は、特定された文字列及びリファレンスデータを利用して特定された文字列の唱和を模擬した唱和音声に対応する唱和音声データを生成し、カラオケ演奏に合わせて唱和音声を放音させる。このようなカラオケ装置1によれば、楽曲の歌詞には無い文字列や楽曲の歌詞を一部変更した即興のリードナレーションを行った場合であっても、リードナレーションに対応した唱和を模擬した唱和音声を放音することができる。
<その他>
上記実施形態で説明した歌唱区間E1のように、文字「こ」のような短い歌詞で終わる歌唱区間については、「こ」の後に続けて文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」を発声することも可能である。このような場合、所定時間を短く設定することにより、判定部300は、文字列「い」、「ち」、「に」、「き」、「さ」、「い」、「の」の音声をリードナレーションに対応する音声として判定することができる。
また、上記実施形態では、歌唱者の音声の入力タイミングが、文字列が発声されるべきタイミングよりも所定時間以上早いかどうかによりリードナレーションの判定を行っているがこれに限られない。たとえば、判定部300は、文字列が本来発声されるべきタイミング(歌詞テロップデータに基づいて決定されるタイミング)より所定の範囲内(たとえば1250msec~750msec)で早いかどうかを判定してもよい。
上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 カラオケ装置
10 カラオケ本体
11 制御部
100 データ記憶部
200 音声処理部
300 判定部
400 放音処理部

Claims (5)

  1. 楽曲のカラオケ演奏に合わせて歌詞テロップを表示するための歌詞テロップデータを記憶するデータ記憶部と、
    楽曲のカラオケ演奏中に入力された歌唱者の音声に基づく信号を処理し、当該音声に含まれる文字列を特定する音声処理部と、
    特定された前記文字列と前記歌詞テロップデータとの比較結果に基づいて、前記音声がリードナレーションに対応する音声かどうかを判定する判定部と、
    前記音声がリードナレーションに対応する音声であると判定された場合、前記特定された文字列の唱和を模擬した唱和音声を放音手段から放音させる放音処理部と、
    を有するカラオケ装置。
  2. 前記判定部は、前記歌詞テロップデータ中に、前記特定された文字列と一致する文字列が含まれており、且つ前記歌唱者による当該特定された文字列に対応する音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間以上早い場合、前記音声がリードナレーションに対応する音声であると判定することを特徴とする請求項1記載のカラオケ装置。
  3. 前記データ記憶部は、楽曲毎に予め設定されている唱和音声に対応する唱和音声データを記憶し、
    前記放音処理部は、前記特定された文字列の唱和を模擬した唱和音声に対応する前記唱和音声データを読み出し、カラオケ演奏に合わせて唱和音声を放音させることを特徴とする請求項1または2記載のカラオケ装置。
  4. 前記データ記憶部は、カラオケ歌唱を採点するためのリファレンスデータを記憶し、
    前記放音処理部は、前記歌詞テロップデータ及び前記リファレンスデータを利用して前記特定された文字列の唱和を模擬した唱和音声に対応する唱和音声データを生成し、カラオケ演奏に合わせて唱和音声を放音させることを特徴とする請求項1または2記載のカラオケ装置。
  5. 前記データ記憶部は、カラオケ歌唱を採点するためのリファレンスデータを記憶し、
    前記判定部は、前記歌詞テロップデータ中に、前記特定された文字列に含まれる単語数及び音節数の少なくとも一方が所定割合以上一致する文字列が含まれており、且つ前記歌唱者による当該特定された文字列に対応する音声の入力タイミングが、当該文字列が発声されるべきタイミングよりも所定時間以上早い場合、前記音声がリードナレーションに対応する音声であると判定し、
    前記放音処理部は、前記特定された文字列及び前記リファレンスデータを利用して前記特定された文字列の唱和を模擬した唱和音声に対応する唱和音声データを生成し、カラオケ演奏に合わせて唱和音声を放音させることを特徴とする請求項1記載のカラオケ装置。
JP2019067225A 2019-03-29 2019-03-29 カラオケ装置 Active JP7158331B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019067225A JP7158331B2 (ja) 2019-03-29 2019-03-29 カラオケ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019067225A JP7158331B2 (ja) 2019-03-29 2019-03-29 カラオケ装置

Publications (2)

Publication Number Publication Date
JP2020166141A JP2020166141A (ja) 2020-10-08
JP7158331B2 true JP7158331B2 (ja) 2022-10-21

Family

ID=72714403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019067225A Active JP7158331B2 (ja) 2019-03-29 2019-03-29 カラオケ装置

Country Status (1)

Country Link
JP (1) JP7158331B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233077A (ja) 2006-03-01 2007-09-13 Yamaha Corp 評価装置、制御方法及びプログラム
US20100255827A1 (en) 2009-04-03 2010-10-07 Ubiquity Holdings On the Go Karaoke
JP2011154290A (ja) 2010-01-28 2011-08-11 Daiichikosho Co Ltd 部分的に一人二重唱になる楽曲の歌唱を支援するカラオケ装置
JP2011154289A (ja) 2010-01-28 2011-08-11 Daiichikosho Co Ltd 聴衆に唱和をうながす気分を楽しむカラオケ装置
JP2012088521A (ja) 2010-10-20 2012-05-10 Mega Chips Corp アミューズメントシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233077A (ja) 2006-03-01 2007-09-13 Yamaha Corp 評価装置、制御方法及びプログラム
US20100255827A1 (en) 2009-04-03 2010-10-07 Ubiquity Holdings On the Go Karaoke
JP2011154290A (ja) 2010-01-28 2011-08-11 Daiichikosho Co Ltd 部分的に一人二重唱になる楽曲の歌唱を支援するカラオケ装置
JP2011154289A (ja) 2010-01-28 2011-08-11 Daiichikosho Co Ltd 聴衆に唱和をうながす気分を楽しむカラオケ装置
JP2012088521A (ja) 2010-10-20 2012-05-10 Mega Chips Corp アミューズメントシステム

Also Published As

Publication number Publication date
JP2020166141A (ja) 2020-10-08

Similar Documents

Publication Publication Date Title
KR100949872B1 (ko) 악곡 연습 지원 장치, 악곡 연습 지원 장치의 제어 방법, 악곡 연습 지원 장치를 제어하는 제어 방법을 컴퓨터로 실행시키는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
US6392132B2 (en) Musical score display for musical performance apparatus
US9355634B2 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon
JP6728754B2 (ja) 発音装置、発音方法および発音プログラム
JP6465136B2 (ja) 電子楽器、方法、及びプログラム
CN113160780A (zh) 电子乐器、方法及存储介质
JP7143816B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP4038836B2 (ja) カラオケ装置
JP2008020621A (ja) コンテンツオーサリングシステム
WO2023058173A1 (ja) 音制御装置およびその制御方法、電子楽器、プログラム
US20220044662A1 (en) Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device
JP7158331B2 (ja) カラオケ装置
JP2007047486A (ja) 車両用カラオケ装置
JP2003015672A (ja) 声域告知機能付きカラオケ装置
JP6828530B2 (ja) 発音装置及び発音制御方法
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
JP5106437B2 (ja) カラオケ装置及びその制御方法並びにその制御プログラム
JP2016071187A (ja) 音声合成装置、及び音声合成システム
JP2020134901A (ja) カラオケシステム
WO2016152708A1 (ja) 音制御装置、音制御方法、および音制御プログラム
WO2022190502A1 (ja) 音生成装置およびその制御方法、プログラム、電子楽器
JP7117229B2 (ja) カラオケ装置
JP7476934B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
WO2023058172A1 (ja) 音制御装置およびその制御方法、電子楽器、プログラム
JP2018151548A (ja) 発音装置及びループ区間設定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221011

R150 Certificate of patent or registration of utility model

Ref document number: 7158331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150