JP2019028251A - カラオケ装置 - Google Patents

カラオケ装置 Download PDF

Info

Publication number
JP2019028251A
JP2019028251A JP2017147475A JP2017147475A JP2019028251A JP 2019028251 A JP2019028251 A JP 2019028251A JP 2017147475 A JP2017147475 A JP 2017147475A JP 2017147475 A JP2017147475 A JP 2017147475A JP 2019028251 A JP2019028251 A JP 2019028251A
Authority
JP
Japan
Prior art keywords
emotion
singing
karaoke
reference data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017147475A
Other languages
English (en)
Other versions
JP6954780B2 (ja
Inventor
政之 鎌田
Masayuki Kamata
政之 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2017147475A priority Critical patent/JP6954780B2/ja
Publication of JP2019028251A publication Critical patent/JP2019028251A/ja
Application granted granted Critical
Publication of JP6954780B2 publication Critical patent/JP6954780B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】カラオケ楽曲の雰囲気にふさわしい感情表現で歌唱が行われているかを適切に評価可能なカラオケ装置を提供する。【解決手段】カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する感情リファレンスデータ取得部と、前記カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを前記歌唱区間毎に生成する歌唱感情データ生成部と、前記感情リファレンスデータと前記歌唱感情データとを比較することにより、前記歌唱区間毎の感情表現の評価を行う感情表現評価部と、を有するカラオケ装置。【選択図】図2

Description

本発明はカラオケ装置に関する。
カラオケ装置は、マイクにより入力された歌唱音声から抽出した歌唱音声データと、カラオケ演奏された楽曲の主旋律を示すリファレンスデータとを比較することにより、カラオケ歌唱の採点を行うことができる。
たとえば、特許文献1には、カラオケ演奏に合わせてマイクから入力される歌唱音声信号から音高データ及び音長データを抽出し、カラオケ演奏に並行して読み出されるガイドメロディと比較することによって歌唱の巧拙を採点評価する技術が開示されている。
一方、歌唱者の歌唱スキルには差があるため、一生懸命歌っていてもリファレンスデータとの乖離が大きい場合には十分な採点評価を得ることができない。そこで、特許文献2には、歌唱に相当する音声から感情の込め方と相関のある感情特徴量を抽出し、当該感情特徴量に基づいて歌唱に込められた感情を分析する技術が開示されている。このような技術によれば、歌唱者の感情表現を評価することができる。
特開平10−69216号公報 特開平10−187178号公報
ところで、カラオケ楽曲(カラオケ楽曲に含まれる各歌唱区間)は、歌詞や曲調等により、楽しい雰囲気や哀しい雰囲気等、様々な雰囲気が表現されている。従って、カラオケ楽曲毎の雰囲気を考慮した感情表現を伴う歌唱は巧いカラオケ歌唱であるといえる。
ここで、特許文献2に開示されている技術では、カラオケ楽曲の雰囲気に関わらず、一生懸命歌えば(たとえば音量や熱唱度が高くなれば)高評価になってしまう。すなわち、特許文献2に開示されている技術では、カラオケ楽曲の雰囲気を考慮した感情表現の評価を行うことができない。
本発明の目的は、カラオケ楽曲の雰囲気にふさわしい感情表現で歌唱が行われているかを適切に評価可能なカラオケ装置を提供することにある。
上記目的を達成するための主たる発明は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する感情リファレンスデータ取得部と、前記カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを前記歌唱区間毎に生成する歌唱感情データ生成部と、前記感情リファレンスデータと前記歌唱感情データとを比較することにより、前記歌唱区間毎の感情表現の評価を行う感情表現評価部と、を有するカラオケ装置である。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
本発明によれば、カラオケ楽曲の雰囲気にふさわしい感情表現で歌唱が行われているかを適切に評価できる。
実施形態に係るカラオケ装置のハードウェア構成例を示す図である。 実施形態に係る装置本体のソフトウェア構成例を示す図である。 実施形態に係る単語−感情タイプデータベースに記憶されるデータ例を示す図である。 実施形態に係る曲調−感情タイプデータベースに記憶されるデータ例を示す図である。 実施形態に係るカラオケ楽曲に含まれる歌唱区間毎の歌詞及び曲調を示した図である。 実施形態に係るカラオケ楽曲に含まれる歌唱区間毎の合計スコアを示した図である。 実施形態に係る感情リファレンスデータを示した図である。 実施形態に係る歌唱感情データを示した図である。 実施形態に係る感情表現の評価を示した図である。 実施形態に係るカラオケ装置の処理を示すフローチャートである。 変形例に係る装置本体のソフトウェア構成例を示す図である。 変形例に係る感情リファレンスデータを示した図である。
<実施形態>
図1〜図9を参照して、本実施形態に係るカラオケ装置1について説明する。
==カラオケ装置==
カラオケ装置1は、歌唱者が選曲した楽曲のカラオケ演奏及び歌唱者がカラオケ歌唱を行うための装置である。図1に示すように、カラオケ装置1は、カラオケ本体10、スピーカ20、表示装置30、マイク40、及びリモコン装置50を備える。
スピーカ20はカラオケ本体10からの放音信号に基づいて放音するための構成である。表示装置30はカラオケ本体10からの信号に基づいて映像や画像を画面に表示するための構成である。マイク40は歌唱者の歌唱音声(マイク40からの入力音声)をアナログの歌唱音声信号に変換してカラオケ本体10に入力するための構成である。
(カラオケ本体のハードウェア)
図1に示すように、カラオケ本体10は、制御部11、通信部12、記憶部13、音響処理部14、表示処理部15及び操作部16を備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。
カラオケ本体10は、選曲された楽曲のカラオケ演奏制御、歌詞や背景画像等の表示制御、マイク40を通じて入力された歌唱音声信号の処理といった、カラオケ歌唱に関する各種の制御を行う。
制御部11は、CPU11aおよびメモリ11bを備える。CPU11aは、メモリ11bに記憶された動作プログラムを実行することにより各種の制御機能を実現する。メモリ11bは、CPU11aに実行されるプログラムを記憶したり、プログラムの実行時に各種情報を一時的に記憶したりする記憶装置である。
通信部12は、ルーター(図示なし)を介してカラオケ本体10を通信回線に接続するためのインターフェースを提供する。
記憶部13は、各種のデータを記憶する大容量の記憶装置であり、たとえばハードディスクドライブなどである。記憶部13は、カラオケ装置1によりカラオケ演奏を行うための複数の楽曲データを記憶する。
楽曲データは、個々のカラオケ楽曲を特定するための識別情報(楽曲ID)が付与されている。楽曲データは、伴奏データ、リファレンスデータ、背景画像データ、歌詞データ及び属性情報を含む。伴奏データは、カラオケ演奏音の元となるMIDI形式のデータである。リファレンスデータは、歌唱者によるカラオケ歌唱を採点する際の基準として用いられるデータである。リファレンスデータは、ピッチ(音高)データ、音長データ、タイミングデータ等を含む。背景画像データは、カラオケ演奏時に合わせて表示装置30等に表示される背景画像に対応するデータである。歌詞データは、表示装置30等に表示させる歌詞(歌詞テロップ)に関するデータである。属性情報は、曲名、歌手名、作詞・作曲者名、及びジャンル等の当該楽曲に関する情報である。
音響処理部14は、制御部11の制御に基づき、カラオケ楽曲に対する演奏の制御およびマイク40を通じて入力された歌唱音声信号の処理を行う。音響処理部14は、たとえばMIDI音源、ミキサ、アンプ(いずれも図示なし)を含む。制御部11は、予約された楽曲の伴奏データを、テンポクロック信号に基づいて順次読み出し、MIDI音源に入力する。MIDI音源は、当該伴奏データに基づいて楽音信号を生成する。ミキサは、当該音楽信号およびマイク40から出力される歌唱音声信号を適当な比率でミキシングしてアンプに出力する。アンプは、ミキサからのミキシング信号を増幅し、放音信号としてスピーカ20へ出力する。これにより、スピーカ20からは放音信号に基づくカラオケ演奏音およびマイク40からの歌唱音声が放音される。
表示処理部15は、制御部11の制御に基づき、表示装置30における各種表示に関する処理を行う。たとえば、表示処理部15は、カラオケ演奏時における背景画像に歌詞や各種アイコンが重ねられた映像を表示装置30に表示させる制御を行う。
操作部16は、パネルスイッチおよびリモコン受信回路などからなり、歌唱者によるカラオケ装置1のパネルスイッチあるいはリモコン装置50の操作に応じて選曲信号、演奏中止信号などの操作信号を制御部11に対して出力する。制御部11は、操作部16からの操作信号を検出し、対応する処理を実行する。
リモコン装置50は、カラオケ本体10に対する各種操作をおこなうための装置である。歌唱者はリモコン装置50を用いて歌唱を希望するカラオケ楽曲の選曲(予約)等を行うことができる。
(カラオケ本体のソフトウェア)
図2はカラオケ本体10のソフトウェア構成例を示す図である。カラオケ本体10は、単語−感情タイプデータベース100、曲調−感情タイプデータベース200、感情リファレンスデータ取得部300、歌唱感情データ生成部400、感情表現評価部500、採点処理部600、及びカラオケ歌唱評価部700を備える。単語−感情タイプデータベース100、及び曲調−感情タイプデータベース200は、記憶部13の記憶領域の一部として提供される。感情リファレンスデータ取得部300、歌唱感情データ生成部400、感情表現評価部500、採点処理部600、及びカラオケ歌唱評価部700は、CPU11aがメモリ11bに記憶されるプログラムを実行することにより実現される。
[単語−感情タイプデータベース]
単語−感情タイプデータベース100は、様々なカラオケ楽曲の歌詞に含まれる単語それぞれに対し、感情タイプを関連付けたものである。感情タイプは、喜怒哀楽等の一般的な感情表現に相当する。図3は、単語−感情タイプデータベース100に記憶されるデータの一部を示したものである。この例では、感情タイプとして、「喜び」、「怒り」、「哀しみ」の3つが設定されている。各単語には、感情タイプ毎に所定のスコア(この例では1〜5点の5段階)が付与されている。たとえば、単語「いない」に対しては、感情タイプ毎に「喜び:1点、怒り:3点、哀しみ:5点」のスコアが付与されている。
[曲調−感情タイプデータベース]
曲調−感情タイプデータベース200は、カラオケ楽曲に使用される曲調と感情タイプとを関連付けたものである。図4は、曲調−感情タイプデータベース200に記憶されるデータの一部を示したものである。この例では、図3と同様、感情タイプとして、「喜び」、「怒り」、「哀しみ」の3つのタイプが設定されている。図4の例では、複数のコードで曲調を分類している。各コードには、感情タイプ毎に所定のスコア(この例では1〜5点の5段階)が付与されている。たとえば、メジャーコードに対しては、感情タイプ毎に「喜び:5点、怒り:1点、哀しみ:1点」のスコアが付与されている。また「メジャー」とは、例えばC、E、F、Gなどのメジャーコード(長調の和音)であり、「マイナー」とは、例えばDm、Em、Amなどのマイナーコード(短調の和音)である。
なお、一の単語または一の曲調に対しては、少なくとも一つの感情タイプが関連付けられていればよい。たとえば、ある単語(ある曲調)に対して最も支配的な感情タイプを一つだけ関連付けることも可能であるし、逆に4つ以上の感情タイプを関連付けることでもよい。また、単語−感情タイプデータベース100に登録されていない単語が歌詞の中で使われている可能性もありうる。そこで、単語−感情タイプデータベース100は、「その他」として「喜び:1点、怒り:1点、哀しみ:1点」のようなスコアを記憶してもよい。
[感情リファレンスデータ取得部]
感情リファレンスデータ取得部300は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する。
カラオケ楽曲の各歌唱区間は、それぞれ歌唱にふさわしい雰囲気がある。すなわち、カラオケ楽曲を歌唱する際には、歌唱区間毎に表現すべき適切な感情が存在する。たとえば、哀しい雰囲気を持ったカラオケ楽曲に対しては、哀しみの感情表現を行うことが適切である。感情リファレンスデータは、このような感情表現が適切に行われているかどうかを判断する際に参照するデータである。感情リファレンスデータの取得は、カラオケ楽曲の歌詞及び曲調の少なくとも一方に基づいて行われる。
図5は、カラオケ楽曲Xに含まれる歌唱区間毎の歌詞、及び曲調を示したものである。各歌詞は複数の単語から構成されている。感情リファレンスデータ取得部300は、図5に示した歌唱区間毎に、感情リファレンスデータを取得する。
たとえば、歌唱区間Aの歌詞は「あなたは」及び「いない」の2つの単語を含む。また、歌唱区間Aのコードは「Am」である(図5参照)。
この場合、感情リファレンスデータ取得部300は、単語−感情タイプデータベース100から単語「あなたは」及び単語「いない」それぞれについて、感情タイプ毎のスコアを読み出す。図3の例を参照すると、単語「あなたは」は「喜び:5点、怒り:3点、哀しみ:5点」のスコアであり、単語「いない」は「喜び:1点、怒り:3点、哀しみ:5点」のスコアである。
感情リファレンスデータ取得部300は、歌唱区間Aの歌詞(2つの単語)について読み出したスコアを感情タイプ毎に加算する。歌唱区間Aの例では、「喜び:6点、怒り:6点、哀しみ:10点」となる。
また、感情リファレンスデータ取得部300は、曲調−感情タイプデータベース200からコード「Am」について、感情タイプ毎のスコアを読み出す。図4の例を参照すると、コード「Am」はマイナーであるので「喜び:1点、怒り:3点、哀しみ:5点」のスコアである。
感情リファレンスデータ取得部300は、歌唱区間Aの歌詞に基づくスコア(喜び:6点、怒り:6点、哀しみ:10点)と、歌唱区間Aの曲調に基づくスコア(喜び:1点、怒り:3点、哀しみ:5点)とを感情タイプ毎に加算した合計スコア(喜び:7点、怒り:9点、哀しみ:15点)を求める。本実施形態においては、一の歌唱区間に含まれる複数の単語から成る歌詞に基づくスコアと、一の曲調に基づくスコアを単純に加算したが、歌唱区間の長さや単語及び曲調の数などに応じて、重み付けをして加算してもよい。
感情リファレンスデータ取得部300は、残りの歌唱区間B〜Hについても同様に感情タイプ毎の合計スコアを求める(図6A参照)。そして、感情リファレンスデータ取得部300は、感情タイプ毎に加算した合計スコアの比率を歌唱区間毎に算出することで感情リファレンスデータを取得する(図6B参照)。このように、感情リファレンスデータは、感情タイプ毎の数値として取得することができる。
なお、本実施形態では、歌詞(単語)及び曲調に基づいて感情リファレンスデータを取得する例について述べたが、いずれか一方のみ(たとえば、単語のみ)に基づいて感情リファレンスデータを取得してもよい。また、感情リファレンスデータは、感情タイプの比率に基づく数値でなくてもよい。たとえば、感情リファレンスデータは、ある歌唱区間について、最もスコアが高い感情タイプを100点とし、それ以外の感情タイプを0点としてもよい。図6Bの歌唱区間Aの例でいえば、最もスコアが高い「哀しみ」を100点とし、「喜び」及び「怒り」を0点とすることでもよい。また、本実施形態においては、一の歌唱区間に一のコード(曲調)が含まれている例で説明したが、一の歌唱区間に複数のコードが含まれている場合もありうる。その場合、感情リファレンスデータ取得部300は、複数のコードのスコアを感情タイプ毎に合計したものを一の歌唱区間のスコアとして取得してもよい。
[歌唱感情データ生成部]
歌唱感情データ生成部400は、カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを歌唱区間毎に生成する。
歌唱感情データは、実際のカラオケ歌唱に込められた感情表現を示すデータである。本実施形態において、歌唱感情データは数値で示される。歌唱感情データは歌唱音声を感情分析することにより得られる。感情分析は、公知の技術(たとえば、特許文献2や「音声こころ分析サービス」(株式会社日立システムズ))を利用することができる。具体例として、歌唱感情データ生成部400は、歌唱音声から感情の込め方と相関のある感情特徴量を抽出する。また、歌唱感情データ生成部400は、抽出された感情特徴量に基づいて、歌唱に込められた感情を分析する。感情分析は、所定の歌唱区間毎に行われる。そして、歌唱感情データ生成部400は、感情分析により得られた情報を数値化し、所定の感情タイプに分類することで、歌唱区間毎の歌唱感情データを生成する。
或いは、公知の人工知能技術を利用して歌唱感情データを生成することも可能である。たとえば、音声感情認識エンジンSTにより、会話音声から喜び、怒り、哀しみなどの感情状態と10段階の興奮の強さを検出する機能を有するPC用開発支援キット「ST Emotion SDK」(株式会社AGI)が存在する。歌唱感情データ生成部400がこのようなキットと同様の機能を備え、歌唱音声の感情分析を機械学習させることで歌唱者の感情を検出することが可能となる。この場合、歌唱感情データ生成部400は、検出した情報を数値化し、所定の感情タイプに分類することで、歌唱区間毎の歌唱感情データを生成することができる。
図7は、歌唱者が図5に示したカラオケ楽曲Xの歌詞を歌唱した場合の歌唱感情データを示す。この例では、歌唱区間毎に感情分析結果を3つの感情タイプに分類した歌唱感情データを生成している。また、図7の例では、3つの感情タイプの合計スコアが100点以下になるように調整されている。なお、歌唱感情データは、ある歌唱区間について、最もスコアが高い感情タイプを100点とし、それ以外の感情タイプを0点としてもよい。また、一の歌唱区間に対しては、少なくとも一つの感情タイプが関連付けられていればよい。たとえば、歌唱区間に対して最も支配的な感情タイプを一つだけ関連付けることも可能であるし、逆に4つ以上の感情タイプを関連付けることでもよい。
[感情表現評価部]
感情表現評価部500は、感情リファレンスデータと歌唱感情データとを比較することにより、歌唱区間毎の感情表現の評価を行う。
感情表現の評価は、カラオケ歌唱に感情がどれだけ込められているかを数値化することにより行う。具体的に、感情表現評価部500は、感情タイプ毎に感情リファレンスデータと歌唱感情データとの比較を行い、感情タイプ毎に得られたスコアを合計した値により感情表現の評価を行う。この場合、感情リファレンスデータ及び歌唱感情データは、共通する複数の感情タイプで構成されていることが好ましい。
たとえば、感情リファレンスデータ取得部300が図6Bに示す感情リファレンスデータを取得し、歌唱感情データ生成部400が図7に示す歌唱感情データを生成したとする。
この場合、感情表現評価部500は、歌唱区間Aについて、感情タイプ毎に感情リファレンスデータのスコアと歌唱感情データのスコアとのANDを取る。具体的には、「喜び:23点&10点=10点」、「怒り:29点&0点=0点」、「哀しみ:48点&20点=20点」となる。そして、感情表現評価部500は、各感情タイプのスコアを合計した値(10点+20点=30点)を歌唱区間Aの評価とする。感情表現評価部500は、歌唱区間B〜Hについても同様の処理を行い、歌唱区間毎に感情表現を評価する(図8参照)。なお、ある歌唱区間における感情リファレンスデータのスコアが100点を満点とし、ある歌唱区間における歌唱感情データのスコアの最大値が100点であるため、歌唱区間毎の評価は100点が満点となる。
感情表現評価部500は、評価結果を歌唱者に提示することができる。たとえば、感情表現評価部500は、図8に示す評価結果を表示装置30に表示させることが可能である。或いは、感情表現評価部500は、歌唱区間毎のスコアの平均値(図8の例であれば、53.125点)を算出し、当該平均値を提示することも可能である。
なお、感情リファレンスデータにおいて、最もスコアの高い感情タイプを100点とし、それ以外を0点とし、歌唱感情データにおいて最もスコアの高い感情タイプ以外を0点とした場合、感情表現評価部500においては実質的に、歌唱区間毎に支配的な感情タイプが一致するか否かという観点で評価がなされる事になる。
[採点処理部]
採点処理部600は、歌唱音声から抽出した歌唱音声データを、音高、音量及び歌唱技法の少なくとも一つに基づいて採点することにより採点値を算出する。
カラオケ歌唱の採点は、公知の技術を利用することができる。たとえば、採点処理部600は、マイク40から入力された歌唱音声信号から、ピッチ(音高)データ、音量データ等の歌唱音声データを抽出し、カラオケ楽曲のリファレンスデータと比較することにより、採点値を算出する。
[カラオケ歌唱評価部]
カラオケ歌唱評価部700は、カラオケ楽曲の歌唱に基づく感情表現の評価及び採点値に基づいて、カラオケ楽曲の歌唱の評価を行う。
本実施形態におけるカラオケ歌唱の評価は、リファレンスデータに沿ったカラオケ歌唱が行われたか、及び適切な感情表現が行われたかを総合的に評価することにより行う。
たとえば、カラオケ楽曲X全体の感情表現評価部500による各歌唱区間の感情表現の評価の平均値が60点であり、採点処理部600による採点結果が85点であったとする。
この場合、カラオケ歌唱評価部700は、これらのスコアを用いてカラオケ楽曲Xの歌唱評価を行う。たとえば、「採点結果:感情表現の評価=9:1」の重み付けが設定されている場合、カラオケ歌唱評価部700は、(85点×0.9)+(60点×0.1)=82.5点をカラオケ楽曲Xの歌唱評価のスコアとして算出する。
或いは、感情表現の評価を採点結果に対する10%のボーナス点として加算する場合、カラオケ歌唱評価部700は、85点+(60点×0.1)=91点をカラオケ楽曲Xの歌唱評価のスコアとして算出する。なお、このように加算方式を採用する場合、上限は、カラオケ装置1の採点機能が備える最大値(たとえば100点)とすることが好ましい。
カラオケ歌唱評価部700は、評価結果を歌唱者に提示することができる。たとえば、カラオケ歌唱評価部700は、算出したスコアを表示装置30に表示させることが可能である。
==カラオケ装置1の動作について==
次に、図9を参照して本実施形態におけるカラオケ装置1の動作の具体例について述べる。図9は、カラオケ装置1の動作例を示すフローチャートである。
カラオケ装置1は、歌唱者が選曲したカラオケ楽曲Xの伴奏データに基づいてカラオケ演奏を行う(カラオケ演奏。ステップ10)。歌唱者はカラオケ演奏に合わせてカラオケ歌唱を行う。
カラオケ楽曲Xのカラオケ歌唱が終了した後、感情リファレンスデータ取得部300は、カラオケ楽曲Xを歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する(感情リファレンスデータの取得。ステップ11)。
歌唱感情データ生成部400は、カラオケ楽曲Xを歌唱することにより得られた歌唱音声を感情分析し、歌唱区間毎に歌唱感情データを生成する(歌唱感情データの生成。ステップ12)。
感情表現評価部500は、ステップ11で取得した感情リファレンスデータと、ステップ12で生成した歌唱感情データとを比較することにより、歌唱区間毎の感情表現の評価を行う(感情表現の評価。ステップ13)。
採点処理部600は、カラオケ楽曲Xを歌唱することにより得られた歌唱音声から抽出した歌唱音声データをリファレンスデータと比較することで、採点値を算出する(採点値の算出。ステップ14)。
カラオケ歌唱評価部700は、ステップ13で行われた感情表現の評価、及びステップ14で算出された採点値に基づいて、カラオケ楽曲Xの歌唱評価を行う(カラオケ歌唱の評価。ステップ15)。
なお、上記例では、カラオケ楽曲Xのカラオケ歌唱が終了した後に処理する例について述べたが、感情表現の評価は、少なくとも一の歌唱区間のカラオケ歌唱が終了した後に行われることでもよい。たとえば、歌唱区間Aの歌唱終了後に上記ステップ11〜14の処理を行い、歌唱区間Bの歌唱終了後に上記ステップ11〜14の処理を行い、歌唱区間Cの歌唱終了後に・・・・というように、カラオケ楽曲Xの終了までステップ11〜14の処理を繰り返し行い、最後に各歌唱区間における感情表現の評価と採点値に基づいて、カラオケ楽曲Xの歌唱評価を行ってもよい。
また、感情リファレンスデータは、カラオケ楽曲の歌詞や曲調に基づいて生成したものを記憶部13に記憶しておくことでもよい。この場合、感情リファレンスデータ取得部300は、記憶部13から感情リファレンスデータを直接取得する。
このように本実施形態に係るカラオケ装置1は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する感情リファレンスデータ取得部300と、カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを歌唱区間毎に生成する歌唱感情データ生成部400と、感情リファレンスデータと歌唱感情データとを比較することにより、歌唱区間毎の感情表現の評価を行う感情表現評価部500とを有する。
歌唱音声を感情分析した歌唱感情データと感情リファレンスデータとを比較することにより、カラオケ楽曲の雰囲気を考慮した感情表現がなされている場合には評価が高くなる。一方、単に大きな声で歌唱した場合のように、雰囲気を考慮しない歌唱は評価が低くなる。すなわち、本実施形態に係るカラオケ装置1によれば、カラオケ楽曲の雰囲気にふさわしい感情表現で歌唱が行われているかを適切に評価できる。
また、本実施形態に係るカラオケ装置1において、感情リファレンスデータ及び歌唱感情データは、共通する複数の感情タイプで構成され、感情表現評価部500は、感情タイプ毎に感情リファレンスデータと歌唱感情データとの比較を行う。このように、複数の感情タイプ毎に感情リファレンスデータと歌唱感情データとの比較を行うことにより、カラオケ楽曲の雰囲気にふさわしい感情表現がなされているかどうかをより正確に判断できる。
また、本実施形態に係るカラオケ装置1は、歌唱音声から抽出した歌唱音声データを、音高、音量及び歌唱技法の少なくとも一つに基づいて採点することにより採点値を算出する採点処理部600と、カラオケ楽曲の歌唱に基づく感情表現の評価及び採点値に基づいて、カラオケ楽曲の歌唱の評価を行うカラオケ歌唱評価部700と、を有する。このようなカラオケ装置1によれば、感情表現の評価を含むカラオケ歌唱の総合評価を行うことができる。
また、感情リファレンスデータ取得部300は、カラオケ楽曲の歌詞及び曲調の少なくとも一方に基づいて、感情リファレンスデータを取得する。このように、カラオケ楽曲の歌詞及び曲調の少なくとも一方を用いることにより、カラオケ楽曲の雰囲気を反映した感情リファレンスデータの取得が可能となる。
<変形例>
上記実施形態では、感情リファレンスデータ取得部300が、カラオケ楽曲の歌詞及び曲調に基づいて、感情リファレンスデータを取得する例について述べた。
図10は、本変形例に係るカラオケ本体10のソフトウェア構成例を示す図である。カラオケ本体10は、感情リファレンスデータ取得部300、歌唱感情データ生成部400、感情表現評価部500、採点処理部600、カラオケ歌唱評価部700、及び感情リファレンスデータ記憶部800を備える。感情リファレンスデータ記憶部800は、記憶部13の記憶領域の一部として提供される。
[感情リファレンスデータ記憶部]
感情リファレンスデータ記憶部800は、カラオケ楽曲の原曲歌手の歌唱音声を感情分析した歌唱感情データに基づく感情リファレンスデータを記憶する。原曲歌手は、カラオケ楽曲を歌唱するプロの歌手等であり、カラオケ楽曲の歌唱を最も上手く歌える者である。すなわち、各歌唱区間における感情表現も正確に再現することができる。
感情リファレンスデータの記憶は、たとえば新たなカラオケ楽曲が配信される都度行われる。具体的に、歌唱感情データ生成部400は、新たなカラオケ楽曲の原曲歌手の歌唱分析を行い、複数の感情タイプからなる歌唱感情データを生成する。歌唱感情データ生成部400は、歌唱感情データを元に、複数の感情タイプの比率を100点満点で正規化し、感情リファレンスデータとして記憶する。図11は、上記実施形態における歌唱区間A〜Hの感情リファレンスデータの例を示した図である。図11から明らかなように、いずれの歌唱区間においても感情タイプの合計スコアが100点満点になるように設定されている。
[感情リファレンスデータ取得部]
本変形例に係る感情リファレンスデータ取得部300は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する。
感情リファレンスデータ取得部300は、感情リファレンスデータ記憶部800から感情リファレンスデータを取得する。たとえば、カラオケ楽曲Xが選曲された場合、感情リファレンスデータ取得部300は、感情リファレンスデータ記憶部800からカラオケ楽曲Xの感情リファレンスデータを読み出す。
このように、本変形例に係るカラオケ装置1によれば、感情表現の評価を行う都度、感情リファレンスデータを算出する必要が無い。また、原曲歌手の歌唱音声から感情リファレンスデータを作成することで、原曲歌手の歌唱に沿った適切な感情表現の評価が可能となる。
<その他>
上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 カラオケ装置
100 単語−感情タイプデータベース
200 曲調−感情タイプデータベース
300 感情リファレンスデータ取得部
400 歌唱感情データ生成部
500 感情表現評価部
600 採点処理部
700 カラオケ歌唱評価部

Claims (5)

  1. カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する感情リファレンスデータ取得部と、
    前記カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを前記歌唱区間毎に生成する歌唱感情データ生成部と、
    前記感情リファレンスデータと前記歌唱感情データとを比較することにより、前記歌唱区間毎の感情表現の評価を行う感情表現評価部と、
    を有するカラオケ装置。
  2. 前記感情リファレンスデータ及び前記歌唱感情データは、共通する複数の感情タイプで構成され、
    前記感情表現評価部は、前記感情タイプ毎に前記感情リファレンスデータと前記歌唱感情データとの比較を行うことを特徴とする請求項1記載のカラオケ装置。
  3. 前記歌唱音声から抽出した歌唱音声データを、音高、音量及び歌唱技法の少なくとも一つに基づいて採点することにより採点値を算出する採点処理部と、
    前記カラオケ楽曲の歌唱に基づく前記感情表現の評価及び前記採点値に基づいて、前記カラオケ楽曲の歌唱の評価を行うカラオケ歌唱評価部と、
    を有することを特徴とする請求項1または2記載のカラオケ装置。
  4. 前記感情リファレンスデータ取得部は、前記カラオケ楽曲の歌詞及び曲調の少なくとも一方に基づいて、前記感情リファレンスデータを取得することを特徴とする請求項1〜3のいずれか一つに記載のカラオケ装置。
  5. カラオケ楽曲の原曲歌手の歌唱音声を感情分析した歌唱感情データに基づく感情リファレンスデータを記憶する感情リファレンスデータ記憶部を有し、
    前記感情リファレンスデータ取得部は、前記感情リファレンスデータ記憶部から前記感情リファレンスデータを取得することを特徴とする請求項1〜3のいずれか一つに記載のカラオケ装置。
JP2017147475A 2017-07-31 2017-07-31 カラオケ装置 Active JP6954780B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017147475A JP6954780B2 (ja) 2017-07-31 2017-07-31 カラオケ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017147475A JP6954780B2 (ja) 2017-07-31 2017-07-31 カラオケ装置

Publications (2)

Publication Number Publication Date
JP2019028251A true JP2019028251A (ja) 2019-02-21
JP6954780B2 JP6954780B2 (ja) 2021-10-27

Family

ID=65478330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017147475A Active JP6954780B2 (ja) 2017-07-31 2017-07-31 カラオケ装置

Country Status (1)

Country Link
JP (1) JP6954780B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7402396B2 (ja) 2020-01-07 2023-12-21 株式会社鉄人化計画 感情解析装置、感情解析方法、及び感情解析プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212480A (ja) * 1996-01-31 1997-08-15 Yamaha Corp 雰囲気情報生成装置およびカラオケ装置
JP2004240066A (ja) * 2003-02-04 2004-08-26 Konami Co Ltd カラオケ装置、出力音量制御方法、ならびに、プログラム
JP2007233078A (ja) * 2006-03-01 2007-09-13 Yamaha Corp 評価装置、制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212480A (ja) * 1996-01-31 1997-08-15 Yamaha Corp 雰囲気情報生成装置およびカラオケ装置
JP2004240066A (ja) * 2003-02-04 2004-08-26 Konami Co Ltd カラオケ装置、出力音量制御方法、ならびに、プログラム
JP2007233078A (ja) * 2006-03-01 2007-09-13 Yamaha Corp 評価装置、制御方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7402396B2 (ja) 2020-01-07 2023-12-21 株式会社鉄人化計画 感情解析装置、感情解析方法、及び感情解析プログラム

Also Published As

Publication number Publication date
JP6954780B2 (ja) 2021-10-27

Similar Documents

Publication Publication Date Title
JP6724938B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP2007256617A (ja) 楽曲練習装置および楽曲練習システム
JP2008139426A (ja) 評価用データのデータ構造、カラオケ装置及び記録媒体
JP2007140165A (ja) カラオケ装置およびカラオケ装置用プログラム
JP6954780B2 (ja) カラオケ装置
JP4218066B2 (ja) カラオケ装置およびカラオケ装置用プログラム
JP6920135B2 (ja) カラオケ装置
WO2021106512A1 (ja) 楽曲生成方法および楽曲生成システム
JP7227788B2 (ja) カラオケシステム
JP5830840B2 (ja) 音声評価装置
JP6944366B2 (ja) カラオケ装置
JP2015194767A (ja) 音声評価装置
JP4218064B2 (ja) カラオケ装置およびカラオケ装置用プログラム
JP2007225916A (ja) オーサリング装置、オーサリング方法およびプログラム
JP6944390B2 (ja) カラオケ装置
JP2015161888A (ja) 歌唱対戦カラオケシステム
JP6340303B2 (ja) ハモリ歌唱の採点を行うカラオケ採点装置
JP6144592B2 (ja) 歌唱採点システム
JP6842356B2 (ja) カラオケ装置
JP7478077B2 (ja) カラオケ装置
JP7158331B2 (ja) カラオケ装置
JP2018189735A (ja) カラオケ装置
JP6546834B2 (ja) カラオケ装置
JP2022025421A (ja) カラオケ装置
JP2007233078A (ja) 評価装置、制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210930

R150 Certificate of patent or registration of utility model

Ref document number: 6954780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150