JP5803172B2 - Evaluation device - Google Patents
Evaluation device Download PDFInfo
- Publication number
- JP5803172B2 JP5803172B2 JP2011056425A JP2011056425A JP5803172B2 JP 5803172 B2 JP5803172 B2 JP 5803172B2 JP 2011056425 A JP2011056425 A JP 2011056425A JP 2011056425 A JP2011056425 A JP 2011056425A JP 5803172 B2 JP5803172 B2 JP 5803172B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- image
- singing voice
- character
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
本発明は、歌唱した音声を評価する際にキャラクターを表示する技術に関する。 The present invention relates to a technique for displaying a character when evaluating a sung voice.
従来より、カラオケなどで歌唱している歌唱者が上手に歌えるように補助する際、キャラクターを表示させる技術がある。特許文献1には、合成された歌声(いわゆるガイドボーカル)を出力することによって上記の補助をする場合に、その歌声の音韻、音高及び発音タイミング等に合わせた口の形状又は表情のキャラクターを表示させる技術が記載されている。 Conventionally, there is a technique for displaying a character when assisting a singer who sings in karaoke or the like to sing well. In Patent Document 1, when the above-mentioned assistance is performed by outputting a synthesized singing voice (so-called guide vocal), a character having a mouth shape or facial expression that matches the phonological tone, pitch, and pronunciation timing of the singing voice is disclosed. The technology to display is described.
特許文献1に記載された技術においては、1つの楽曲の中で様々な表情が表示される一方、同じ楽曲であれば表示される表情のパターン及びそれらが表示されるタイミングが決まっている。つまり、歌唱者がどのように歌っても、その内容に対する反応がないため、表示されたキャラクターと一緒に歌っているような臨場感を歌唱者に与えることが難しい。同じ理由で、歌唱者は、上記ガイドボーカル、すなわち、歌唱されるべき基準となる歌声に対して、自分が同じように歌唱しているのかどうかが分からず、楽曲の残り部分を今の調子で歌い続けるべきか、上記ガイドボーカルをもっと参考にすべきか、という判断をすることが難しい。
本発明は、このような事情に鑑みてなされたもので、その目的の1つは、歌唱されるべき基準に対して歌唱者が歌唱した音声が沿っている程度に反応するキャラクターを表示することである。
In the technique described in Patent Document 1, while various expressions are displayed in one piece of music, patterns of expressions that are displayed for the same piece of music and the timing for displaying them are determined. That is, no matter how the singer sings, there is no reaction to the contents, so it is difficult to give the singer a sense of realism as if singing with the displayed character. For the same reason, the singer does not know whether he is singing in the same way as the guide vocal, that is, the standard singing voice to be sung. It is difficult to judge whether to continue singing or to use the above guide vocal more.
The present invention has been made in view of such circumstances, and one of its purposes is to display a character that reacts to the extent that the voice sung by the singer is in line with the standard to be sung. It is.
上述の課題を解決するため、本発明は、再生されると楽曲の歌唱すべき位置を表す位置表示データと、歌唱音声を評価する基準を示すリファレンスデータとを記憶する記憶手段と、前記記憶手段から前記位置表示データを読み出して再生する再生手段と、前記再生手段が前記位置表示データを再生しているときに収音手段から供給されたオーディオ信号が表す歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該歌唱音声を評価する評価手段と、前記再生手段が前記位置表示データを再生している間、キャラクターの画像を示す第1画像データを出力し、前記評価手段により前記歌唱音声が評価された場合、前記キャラクターの表情を当該歌唱音声が評価された結果に応じた表情で表した画像を示す第2画像データを出力する出力手段であって、前記オーディオ信号が表す歌唱音声から特定の歌唱技法が検出された場合には当該表情を変化させた画像を示すデータを前記第2画像データとして出力する出力手段と、を備えることを特徴とする評価装置を提供する。 In order to solve the above-described problem, the present invention provides a storage unit that stores position display data indicating a position where a song should be sung when reproduced, and reference data indicating a reference for evaluating the singing voice, and the storage unit Read out the position display data from the reproduction means, and the singing voice represented by the audio signal supplied from the sound collection means when the reproduction means is reproducing the position display data, and read out from the storage means An evaluation unit that evaluates the singing voice by comparing with a reference indicated by the reference data, and a first image data indicating a character image is output while the reproduction unit reproduces the position display data, and When the singing voice is evaluated by the evaluation means, an image representing the facial expression of the character with a facial expression corresponding to the result of evaluating the singing voice is shown. An output means for outputting the second image data, and outputs data indicating the image obtained by changing the facial expression as the second image data if a particular singing technique from singing voice which the audio signal represented is detected And an output means .
また、別の好ましい態様において、前記評価手段は、前記オーディオ信号が表す第1の前記歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該第1の歌唱音声を評価点によって評価し、当該基準と過去に比較された第2の歌唱音声の評価点よりも前記第1の歌唱音声の評価点が高ければ当該第1の歌唱音声の評価点に加点することを特徴とする。 Moreover, in another preferable aspect, the evaluation means compares the first singing voice represented by the audio signal with a reference indicated by the reference data read from the storage means to obtain the first singing voice. If the evaluation score of the first singing voice is higher than the evaluation score of the second singing voice compared with the reference in the past, the evaluation score of the first singing voice is added. Features.
また、本発明は、再生されると楽曲の歌唱すべき位置を表す位置表示データと、歌唱音声を評価する基準を示すリファレンスデータとを記憶する記憶手段と、前記記憶手段から前記位置表示データを読み出して再生する再生手段と、前記再生手段が前記位置表示データを再生しているときに収音手段から供給されたオーディオ信号が表す第1の歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該第1の歌唱音声を評価点によって評価する評価手段であって、当該基準と過去に比較された第2の歌唱音声の評価点よりも前記第1の歌唱音声の評価点が高ければ当該第1の歌唱音声の評価点に加点する評価手段と、前記再生手段が前記位置表示データを再生している間、キャラクターの画像を示す第1画像データを出力し、前記評価手段により前記第1の歌唱音声が評価された場合、前記キャラクターの表情を当該第1の歌唱音声が評価された結果に応じた表情で表した画像を示す第2画像データを出力する出力手段と、を備えることを特徴とする評価装置を提供する。 Further, the present invention provides a storage means for storing position display data indicating a position where a song should be sung when reproduced, and reference data indicating a reference for evaluating the singing voice; and the position display data from the storage means. Reproducing means for reading and reproducing; first singing voice represented by an audio signal supplied from the sound collecting means when the reproducing means reproduces the position display data; and the reference data read from the storage means Is an evaluation means for comparing the first singing voice with the evaluation point of the second singing voice compared with the reference in the past. If the evaluation score is high, an evaluation means for adding to the evaluation score of the first singing voice, and a first image indicating a character image while the reproduction means reproduces the position display data. A second image that outputs image data and shows the facial expression of the character as a facial expression corresponding to a result of the evaluation of the first singing voice when the evaluation means evaluates the first singing voice; And an output means for outputting image data .
また、別の好ましい態様において、前記出力手段は、前記オーディオ信号が表す歌唱音声から特定の歌唱技法が検出された場合には当該表情を変化させた画像を示すデータを前記第2画像データとして出力することを特徴とする。 In another preferable aspect, the output means outputs, as the second image data, data indicating an image in which the facial expression is changed when a specific singing technique is detected from the singing voice represented by the audio signal. characterized in that it.
本発明によれば、歌唱されるべき基準に対して歌唱者が歌唱した音声が沿っている程度に反応するキャラクターを表示することが可能になる。 According to the present invention, it is possible to display a character that reacts to the extent that the voice sung by the singer is along the reference to be sung.
[実施形態]
以下、本発明の実施形態について図面を参照して説明する。
図1は、カラオケ装置1の全体構成を示すブロック図である。カラオケ装置1は、例えばカラオケ店などに設置され、いわゆるカラオケの機能を利用者に提供すると共に、利用者(歌唱者)が歌唱する音声(歌唱音声)を評価する装置であり、本発明に係る「評価装置」の一例に相当する。カラオケ装置1は、制御部10と、操作部21と、音響処理部22と、収音部23と、放音部24と、立体画像表示部25と、記憶部30とを備えている。
制御部10は、CPU(Central Processing Unit)とメモリとを備えている。CPUは、メモリに記憶されているプログラムを実行することにより、カラオケ装置1の各部を制御する。メモリは、ROM(Read Only Memory)とRAM(Random Access Memory)とを備えており、CPUによって用いられるプログラムやデータを記憶する。
操作部21は、複数の操作ボタンを備えており、利用者が操作した内容を示す操作データを制御部10に供給する。
収音部23は、マイクロホン等の収音手段であり、歌唱者が発した歌唱音声が入力され、歌唱音声を示すオーディオ信号を音響処理部22に出力する。
放音部24は、スピーカ等の放音手段であり、音響処理部22から出力されるオーディオ信号を放音する。
音響処理部22は、DSP(Digital Signal Processor)などの信号処理回路、MIDI(Musical Instrument Digital Interface)形式の信号からオーディオ信号を生成する音源などを有する。音響処理部22は、収音部23から入力されるオーディオ信号をA/D変換して制御部10に出力する。音響処理部22は、制御部10からMIDI形式のデータが入力され、そのデータに基づいてオーディオ信号を生成する。音響処理部22は、このように生成したオーディオ信号、制御部10から出力されたオーディオ信号、収音部23から入力されたオーディオ信号などを、エフェクト処理、増幅処理などの信号処理を施してから放音部24に出力する。
立体画像表示部25は、立体画像に対応したディスプレイを備えており、制御部10から供給される立体画像を示す画像データに応じた立体画像を表示する。
[Embodiment]
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing the overall configuration of the karaoke apparatus 1. The karaoke apparatus 1 is installed in, for example, a karaoke shop and provides a user with a so-called karaoke function and evaluates a voice (singing voice) sung by the user (singer), according to the present invention. It corresponds to an example of “evaluation device”. The karaoke apparatus 1 includes a
The
The
The
The
The
The stereoscopic
記憶部30は、ハードディスクを備えており、楽曲データベース310とキャラクターデータベース320とを記憶している。
楽曲データベース310には、カラオケで再生される楽曲に関するデータが記録されており、詳細には、伴奏データ311とリファレンスデータ312と歌詞データ313とが記録されている。伴奏データ311は、楽曲の伴奏の内容を示すデータであり、例えば、MIDI形式により記述されている。リファレンスデータ312は、歌唱すべき基準を示すデータであり、詳細には、歌唱すべき各構成音の音高を示している。これらの基準、すなわち、構成音の音高は、伴奏データ311が示す伴奏において各構成音が歌唱されるべき期間と対応付けられており、この期間に収音部23に入力された歌唱音声を評価するために用いられる。以下においては、この期間を「評価期間」という。評価期間の開始と終了とは、伴奏データ311が開始されてから経過する時間で表される。リファレンスデータ312は、例えば、各構成音の音高と音の長さ(評価期間に相当)とをMIDI形式により記述されている。歌詞データ313は、楽曲の歌詞の内容を示すデータ、および立体画像表示部25に表示させた歌詞テロップを色替えするためのタイミングを示すデータを有する。
The
In the
キャラクターデータベース320には、歌唱中に立体画像表示部25に表示される画像に関するデータが記録されており、詳細には、キャラクター画像データ321が記録されている。キャラクター画像データ321は、様々なキャラクターの様々な表情の画像を示すデータ(画像データ)である。ここでいうキャラクターは、例えば、絵で表された人、動物又は擬人化された物(ロボットなど)等であり、インターネットのコミュニティサイトで用いられるキャラクター(いわゆるアバター)も含まれる。なお、この絵には、実在の人、動物又は物の写真が用いられても良い。ここにおいて、キャラクターの表情とは、キャラクターの感情又は伝えたい情報等を顔つきや身振りで表したものをいい、例えば、笑っている表情、怒っている表情、悲しげに歩いている動作、うれしそうに跳び上がっている動作、テンポに合わせて手を振る又はあるタイミングを目配せして示す動作等である。
In the
次に、このようなハードウェア構成において、制御部10が機能プログラムを実行したときに構築される機能ブロックについて、図2を参照して説明する。
図2は、制御部10の機能的構成を示すブロック図である。制御部10は、再生部111と、評価部112と、特定部113と、画像生成部114と、表示制御部115とを有する。
再生部111は、操作部21から楽曲の再生を指示する操作データが供給されると、図1に示したその楽曲の伴奏データ311及び歌詞データ313を再生する。詳細には、再生部111は、楽曲データベース310からその楽曲の伴奏データ311と歌詞データ313とを読み出す。そして、再生部111は、伴奏データ311を音響処理部22に供給し、伴奏音を放音させ、また、歌詞データ313を表示制御部115に供給し、歌詞を表示させる。このとき、再生部111は、伴奏音の放音と歌詞の表示とが同じタイミングで開始されるようにこれらのデータを供給する。再生部111は、伴奏データ311を再生している間、その伴奏データ311の再生が開始されてから経過した時間(経過時間)を示すデータを、数msec毎に評価部112、画像生成部114及び表示制御部115に供給する。
Next, functional blocks constructed when the
FIG. 2 is a block diagram illustrating a functional configuration of the
When the operation data for instructing the reproduction of the music is supplied from the
評価部112は、歌唱者の歌唱音声を、リファレンスデータ312が示す基準と比較して評価する手段であり、詳細には、以下のとおり動作する。評価部112は、再生部111から上記経過時間を示すデータが供給されている状態(つまり、伴奏データ311が再生されている状態)において、音響処理部22を介して図1に示した収音部23からオーディオ信号が供給されることで動作する。まず、評価部112は、操作部21から供給された操作データが示す楽曲のリファレンスデータ312を楽曲データベース310から読み出す。次に、評価部112は、再生部111から上記経過時間を示すデータが供給された時刻に供給されたオーディオ信号が表す歌唱音声の音高と、リファレンスデータ312が示す基準(構成音の音高)のうちこの経過時間を含む評価期間に対応付けられたものとを比較し、その差の値を例えばセント値で算出する。評価部112は、この差の値を、経過時間を示すデータが再生部111から供給される度(数msec毎)に算出する。そして、評価部112は、評価期間に算出された差の値を合計したものを評価値として算出し、その値が第1閾値よりも大きい場合に、評価点の基礎となる点数から減じる(減点する)。評価部112は、伴奏データ311の再生が終了するまで評価値の算出を行い、その結果の点数を最終的な評価点として算出する。このように、評価点は、評価値の値が大きいほど、すなわち、音高が基準から離れるほど、また、減点される評価期間が多いほど、すなわち、音高が基準から離れる回数が多いほど、低くなる。なお、第1閾値は、歌唱音声と構成音の音声との音高のずれを許容する程度を示す値であり、例えば、歌唱を厳しく評価する場合に小さくし、優しく評価する場合に大きくすれば良い。
The
また、評価部112は、評価値が第1閾値以下の歌唱音声を「良い」と評価し、第1閾値より大きく第2閾値以下の歌唱音声を「普通」と評価し、第2閾値より大きい歌唱音声を「悪い」と評価する。この第2閾値は、減点が大きく評価が悪かったところ、すなわち、歌唱者が“苦手なところ”を判定するための値である。第2閾値も、第1閾値同様、歌唱を厳しく評価する場合に小さくし、優しく評価する場合に大きくすれば良い。評価部112は、画像生成部114に対して、評価期間が終了する度にこれらの評価結果(「良い」、「普通」、「悪い」)を示すデータを供給し、最後の基準に対する評価値を算出したときにこの評価値まで含めて算出した評価点を供給する。また、評価部112は、評価結果が「悪い」である場合は、この評価において比較された基準を示すデータと共に特定部113に供給する。
The
特定部113は、リファレンスデータ312により示される基準に対応づけられた期間のうち、評価部112により供給されたデータが示す基準と音高が共通する基準に対応づけられた期間を特定し、特定した期間を示すデータ(例えば、評価期間が開始する時間及び終了する時間を示すデータ)を画像生成部114に供給する。
画像生成部114は、操作部21から楽曲を示す操作データが供給されると、その楽曲の伴奏データに応じたキャラクターの画像データをキャラクターデータベース320から読み出す。そして、画像生成部114は、読み出した画像を編集又は合成等した画像データを生成して表示制御部115に供給する。この読み出した画像データは、例えば、サビでは盛り上がりを表す表情となり、ビブラートさせたいところではビブラートする歌い方を喚起する表情となるキャラクターの画像を示す画像データである。これらの画像は、伴奏データの再生中に表情が変化するが、その変化の仕方は一定であり、伴奏データが同じであれば、毎回同じように表情が変化する。このキャラクターの画像を示す画像データは、本発明に係る「第1画像データ」の一例に相当する。画像生成部114は、評価部112及び特定部113からデータが供給されない間は、上記のとおり動作する。
The identifying
When the operation data indicating the music is supplied from the
一方、画像生成部114は、評価部112から評価結果を示すデータが供給された場合、この評価結果に応じた表情のキャラクターを表す画像の画像データをキャラクターデータベース320から読み出す。また、画像生成部114は、特定部113から評価期間を示すデータが供給された場合、この評価期間に応じた表情のキャラクターを表す図1に示したキャラクター画像データ321をキャラクターデータベース320から読み出す。そして、それぞれの場合において、画像生成部114は、これらのキャラクターの画像を編集又は合成等した画像データを生成して表示制御部115に供給する。これらの場合に生成される画像データは、いずれの場合も、評価部112により歌唱が評価された結果に応じた表情のキャラクターの画像を示すものであり、本発明に係る「第2画像データ」の一例に相当する。これらの場合、画像生成部114は、生成した画像データを、上述した伴奏データに応じたキャラクターの画像データに代えて表示制御部115に供給する。表示制御部115は、立体画像表示部25の動作を制御して、画像生成部114から供給された画像データが表す画像を、再生部111から供給されるデータが示す経過時間に合わせて上述したディスプレイに表示させる。
On the other hand, when data indicating an evaluation result is supplied from the
以上の各部の動作により表示される画像について、図3、図4、図5を参照して詳細に説明する。これらの各図は、カラオケ装置1においてディスプレイに表示される画像の一例を示す図である。また、図3、図4では、時間が経過したときにそれぞれディスプレイに表示される画像を(a)、(b)、(c)の順番に示している。
図3は、歌唱を評価した結果に応じたキャラクターが表示されている画像の一例を示す図である。これらの画像には、歌詞Aと、基準画像Bと、歌唱結果線C(C1、C2、C3)と、キャラクターD(D1、D2、D3)とが表示されている。歌詞Aは、図1に示した歌詞データ313が示す歌詞が表示されている。
歌詞Aは、図1に示した伴奏データ311が再生されている部分に対応する部分が白抜きの文字から黒い文字に画像が変化することで、現在歌唱者が歌唱するべき位置が分かるように表示されている。
基準画像Bは、上述した歌唱音声の基準を示す画像であり、詳細には、各構成音の音高とその評価期間を表す棒状の画像である。基準画像Bは、五線譜に重ねて表示されており、この五線譜は、各線に沿った矢印R1が示す方向に時刻が規定されている。基準画像Bは、この五線譜のどこに表示されているかによって音高を表し、矢印R1に沿った方向の長さによって評価時間を表す。基準画像Bは、図1に示したリファレンスデータ312が示す音高とこれに対応付けられた評価期間とに基づき表示される。
The images displayed by the operations of the above units will be described in detail with reference to FIGS. Each of these drawings is a diagram illustrating an example of an image displayed on the display in the karaoke apparatus 1. In FIGS. 3 and 4, images displayed on the display when time elapses are shown in the order of (a), (b), and (c).
FIG. 3 is a diagram illustrating an example of an image in which a character corresponding to a result of evaluating a song is displayed. In these images, lyrics A, reference image B, singing result line C (C1, C2, C3), and character D (D1, D2, D3) are displayed. As the lyrics A, the lyrics indicated by the
In the lyrics A, the portion corresponding to the portion where the accompaniment data 311 shown in FIG. 1 is reproduced is changed from a white character to a black character, so that the position where the singer should sing now can be understood. It is displayed.
The reference image B is an image indicating the reference of the singing voice described above, and in detail, is a bar-shaped image representing the pitch of each constituent sound and its evaluation period. The reference image B is displayed so as to be superimposed on the staff, and the time is defined in the direction indicated by the arrow R1 along each line. The reference image B represents the pitch according to where it is displayed on the staff and represents the evaluation time according to the length in the direction along the arrow R1. The reference image B is displayed based on the pitch indicated by the
歌唱結果線Cは、歌唱音声の音高の軌跡を示す線が、基準画像Bと共に表示された五線譜に重ねて示されたものであり、以下の図において、二点鎖線で示されている。詳細には、歌唱結果線Cは、図1に示した収音部23から出力されたオーディオ信号により表される音声の音高と、それが供給されたときの時刻とが上記五線譜において示す点を順番に結んだ線である。
キャラクターDは、歌唱の音声が評価された結果に応じて表示される画像である。図3(a)では、歌唱結果線C1のうち、評価期間X1に示される部分が「普通」と評価された結果、「普通」という感情を表した表情のキャラクターD1が表示されている。図3(b)では、歌唱結果線C2のうち、評価期間X2に示される部分が「悪い」と評価された結果、「悪い」という感情を表した表情のキャラクターD2が表示されている。図3(c)では、歌唱結果線C3のうち、評価期間X3に示される部分が「良い」と評価された結果、「良い」という感情を表した表情のキャラクターD3が表示されている。これらキャラクターDの画像は、各評価期間が経過し、評価結果を示すデータが図1に示した評価部112から画像生成部114に供給されることで表示される。
The singing result line C is a line showing the pitch trajectory of the singing voice superimposed on the staff score displayed together with the reference image B, and is indicated by a two-dot chain line in the following figures. Specifically, the singing result line C is a point that the pitch of the voice represented by the audio signal output from the
The character D is an image displayed according to the result of evaluating the voice of the song. In FIG. 3A, the character D1 having a facial expression expressing the feeling of “normal” is displayed as a result of evaluating the portion indicated by the evaluation period X1 in the singing result line C1 as “normal”. In FIG. 3B, as a result of evaluating the portion indicated in the evaluation period X2 of the singing result line C2 as “bad”, a character D2 having a facial expression expressing an emotion of “bad” is displayed. In FIG. 3C, as a result of evaluating the portion indicated in the evaluation period X3 in the singing result line C3 as “good”, a character D3 having a facial expression expressing the feeling of “good” is displayed. The images of the character D are displayed when each evaluation period elapses and data indicating the evaluation result is supplied from the
図4は、特定部113により特定された評価期間に応じた表情のキャラクターが表示されている画像の一例を示す図である。図4では、図3と異なる点を中心に説明する。図4では、キャラクターE(E1、E2、E3)は、上述した「苦手なところ」を伝えるための表情をしている。この例では、図3(b)において「悪い」と評価された評価期間X2における基準(音高がG)と音高が共通する基準の評価期間が、時刻t3から始まる評価期間Y1である。図4(a)、(b)は、時刻t3よりも、時間T1前の時点又は時間T2前の時点に表示されている画像をそれぞれ示し、図4(c)は、時刻t3に表示されている画像を示している。
FIG. 4 is a diagram illustrating an example of an image in which a character with a facial expression corresponding to the evaluation period specified by the specifying
図4(a)に示すキャラクターE1は、「苦手なところ」までもうすぐであることと、そのときにどのように歌唱するべきかを示した画像である。詳細には、キャラクターE1は、左腕E1Lを上げることで、「苦手なところ」が近づいてきたことを示している。また、キャラクターE1は、右腕E1Rを上げることで、その音声を発するときには、声を少し高めに出すと良いことを示している。図4(b)に示すキャラクターE2は、左腕E2Lを矢印R2の方向に少しずつ下げることで、「苦手なところ」が近づいていることを示している。図4(c)に示すキャラクターE3は、左腕E3Lを矢印R3の方向に一気に下げることで、「苦手なところ」に到達したことを示している。以上のとおり、これらのキャラクターEは、「苦手なところ」、すなわち、評価期間Yが開始するタイミングである時刻t3よりも前に表示され、その表情の変化でこのタイミングが近づいていることを示す。これにより、歌唱者は、評価期間Yの開始に合わせて音声を発することが容易になり、カラオケ装置1は、歌唱者が上手に歌うことを補助することができる。 The character E1 shown in FIG. 4A is an image that shows that it is close to “I am not good” and how to sing at that time. More specifically, the character E1 indicates that “I am not good” is approaching by raising the left arm E1L. Further, the character E1 indicates that it is better to raise the right arm E1R so that the voice is raised slightly when the voice is emitted. The character E2 shown in FIG. 4B indicates that the “I am not good at hand” is approaching by lowering the left arm E2L little by little in the direction of the arrow R2. The character E3 shown in FIG. 4 (c) indicates that he / she has reached “I'm not good” by lowering the left arm E3L all at once in the direction of the arrow R3. As described above, these characters E are displayed “before the time t3, which is the timing when the evaluation period Y starts”, indicating that this timing is approaching due to the change in facial expression. . Thereby, it becomes easy for a singer to utter a sound in accordance with the start of the evaluation period Y, and the karaoke apparatus 1 can assist the singer to sing well.
図5は、キャラクターの様々な表情を表す画像の例を示す図である。図5(a)は、音高をどのように修正するべきか(修正方法)を歌唱者に伝えるための画像である。キャラクターG(G1、G2)は、右腕の上げ方で音高を上げるか下げるかを伝えており、右腕を上げたキャラクターG1が表示されたときは、「音高を上げる」べきであることを伝え、右腕を下げたキャラクターG2が表示されたときは、「音高を下げる」べきであることを伝えている。なお、手の指を立てる本数で、上げる(又は下げる)べきである音高の程度を表しても良く、例えば、指1本なら半音、指2本なら1音音高を上げる(又は下げる)ことを示しても良い。また、右腕を上げる角度によって、音高の程度を表しても良い。
図5(b)は、音量の修正方法を歌唱者に伝えるための画像である。キャラクターH(H1、H2、H3)は、口の開け方で音量をどうするべきかを伝えている。この例では、口を小さく開けたキャラクターH1が表示されたときは、「音量を小さくする」べきであることを伝え、口を大きく開けたキャラクターH2が表示されたときは、「音量を大きくする」べきであることを伝え、口を閉じたキャラクターH3が表示されたときは、「発声するべきではない」ことを伝えている。
FIG. 5 is a diagram illustrating examples of images representing various facial expressions of a character. FIG. 5A is an image for telling the singer how to correct the pitch (correction method). Character G (G1, G2) tells whether to raise or lower the pitch by raising the right arm, and when the character G1 with the right arm raised is displayed, it should indicate that the pitch should be raised. When the character G2 with the lower right arm is displayed, it is informed that “pitch should be lowered”. Note that the number of fingers raised by the hand may represent the degree of pitch that should be raised (or lowered). For example, one finger increases the semitone, and two fingers increases (or decreases) the pitch. You may show that. Further, the degree of pitch may be expressed by the angle at which the right arm is raised.
FIG. 5B is an image for telling the singer how to correct the volume. Character H (H1, H2, H3) tells you what to do with the volume by opening your mouth. In this example, when the character H1 with a small mouth is displayed, it is notified that “the volume should be reduced”, and when the character H2 with a wide mouth is displayed, “the volume is increased”. When the character H3 with a closed mouth is displayed, it is informed that “You should not speak”.
図5(c)は、音量の修正方法を、立体画像で歌唱者に伝えるための画像である。キャラクターJ(J1、J2、J3)は、画像の飛び出し方で音量をどの程度大きくすべきかを伝えるための画像である。説明の便宜上、各キャラクターJが飛び出して見える程度を、立体でない画像との水平方向のずれK1、K2、K3(K1<K2<K3)を仮想的に示し、このずれが大きいほど飛び出して見えているものとした。この例では、飛び出して見える度合いが最も小さい(K1)キャラクターJ1が表示されたときは、「音量をやや大きくする」べきであることを伝え、飛び出して見える度合いが最も大きい(K3)キャラクターJ3が表示されたときは、「音量をとても大きくする」べきであることを伝え、飛び出して見える度合いがこれらの間(K2)のキャラクターJ2が表示されたときは、「音量を大きくする」べきであることを伝えている。 FIG.5 (c) is an image for conveying the volume correction method to a singer with a three-dimensional image. The character J (J1, J2, J3) is an image for indicating how much the volume should be increased in the way the image is projected. For convenience of explanation, the horizontal shifts K1, K2, and K3 (K1 <K2 <K3) from the non-stereoscopic image are virtually shown to the extent that each character J appears to jump out. It was supposed to be. In this example, when the character J1 with the smallest degree of appearing popping out (K1) is displayed, it is notified that “the volume should be slightly increased”, and the character J3 with the largest degree of appearing popping out (K3) When it is displayed, it tells you that “the volume should be very loud”, and when character J2 is displayed with a degree of popping out (K2) between them, it should be “increase the volume” I tell you.
カラオケ装置1においては、図5に示した表情が伝える様々な内容について、それらを実行すべきタイミングを図4に示した左腕の表情により伝えることで、歌唱者は、自分が苦手とする音声をいつ、どのように発するべきかを知ることができる。このため、歌唱者は、苦手な音声であっても、予めそれを改善するための準備をして発するため、評価を向上させる可能性が高まる。また、カラオケ装置1は、伴奏データ311を再生しているときに、キャラクターを表した画像を表示し、かつ、歌唱を評価した結果に応じてそのキャラクターの表示を変化させて表示する。これにより、カラオケ装置1は、歌唱されるべき基準に対して歌唱音声が沿っている程度に反応するキャラクターを表示することができ、このキャラクターと一緒に歌っているような臨場感を歌唱者に与えることができる。 In the karaoke apparatus 1, the singer can hear the voice that he / she is not good at by telling the timing to execute the various contents conveyed by the facial expression shown in FIG. 5 by the facial expression of the left arm shown in FIG. 4. You can know when and how to emit. For this reason, even if the singer is not good at voice, since the singer makes a preparation for improving it in advance, the possibility of improving the evaluation is increased. Further, the karaoke apparatus 1 displays an image representing a character while reproducing the accompaniment data 311 and changes the display of the character according to the result of evaluating the singing. Thereby, the karaoke apparatus 1 can display the character which reacts to the extent to which the singing voice is along with the reference | standard which should be sung, and a singer is sung with this character. Can be given.
また、カラオケ装置1は、図5(c)に示すとおり、キャラクターの画像を立体的に表示して、その画像が飛び出す程度によって歌唱者に歌い方を伝えることができる。図1に示す立体画像表示部25が有するディスプレイは、画像を表示する面(表示面)に対して、予め定められた領域から見た場合に画像が立体的に見えるものである。例えば、カラオケルームのステージから歌唱者が見るディスプレイは、歌唱者以外の者からは見えない又は見にくい場合が多い。このディスプレイに上述したキャラクターを表示させて、それが飛び出して見える度合いで歌い方を伝えれば、キャラクターから歌い方を伝えられていることが歌唱者以外には分かりにくくすることができる。これにより、歌唱者は、他の者には気づかれにくい方法でキャラクターから歌い方を伝えてもらい、歌唱が高く評価されるように歌い方を改善することができる。
Moreover, as shown in FIG.5 (c), the karaoke apparatus 1 can display the image of a character in three dimensions, and can tell a singer how to sing by the extent to which the image jumps out. The display included in the stereoscopic
[変形例]
上述した実施形態は、本発明の実施の一例に過ぎず、次のように種々の応用・変形が可能であり、また、必要に応じて組み合わせることも可能である。
[Modification]
The above-described embodiment is merely an example of implementation of the present invention, and various applications and modifications are possible as follows, and can be combined as necessary.
(変形例1)
本発明に係るカラオケ装置は、歌唱者にはキャラクターが立体的に見えるように画像を表示させても良い。例えば、カラオケ装置が表示部に複数のディスプレイを備えている場合に、歌唱者いる位置を検知して、その位置から見ることができるディスプレイにだけキャラクターを表示させても良いし、そのディスプレイだけキャラクターを立体的に表示させても良い。また、カラオケ装置は、ディスプレイをモータ等で回転させ、検知した位置から見ることができるように向きを調整したディスプレイにキャラクターを表示させても良い。
(Modification 1)
The karaoke apparatus according to the present invention may display an image so that a singer can see a character stereoscopically. For example, when the karaoke device has a plurality of displays on the display unit, it is possible to detect the position of the singer and display the character only on the display that can be seen from that position, or the character only on the display May be displayed three-dimensionally. Further, the karaoke apparatus may display the character on a display whose orientation is adjusted so that the display can be viewed from the detected position by rotating the display with a motor or the like.
図6は、本変形例に係るカラオケ装置1aの構成を示す図である。収音部23は、2つのマイクロホン231(231a、231b)を有し、放音部24は、2つのスピーカ241(241a、241b)を有する。立体画像表示部25は、2つのディスプレイ251(251a、251b)を有し、各ディスプレイには、それぞれモータ253(253a、253b)が設けられている。モータ253は、各ディスプレイをそれぞれ回転させる。各ディスプレイは、各モータにより回転させられることで、画像を表示する向きを変えられる。記憶部30aは、ディスプレイデータ330aを記憶する。ディスプレイデータ330aは、各ディスプレイが設置されている位置と、これらが画像を表示する向きとを示すデータである。これらの位置及び向きは、各ディスプレイを設置する際、図1に示す操作部21の操作により入力され、ディスプレイデータ330aとして記憶される。
FIG. 6 is a diagram illustrating a configuration of the
制御部10aは、位置検知部117aと、方向算出部118aと、モータ制御部119aとを有する。位置検知部117aは、歌唱者が歌唱している位置(歌唱位置)を検知する手段である。詳細には、位置検知部117aは、マイクロホン231の位置を測定するための音(測定音)を示すデータを、音響処理部22を介して2つのスピーカ241に出力し、これらのスピーカ241から測定音を放音させる。このとき、位置検知部117aは、スピーカ241が測定音を放音した時刻を取得する。続いて、位置検知部117aは、各マイクロホン231が収音した音を表すオーディオ信号から、測定音が収音された時刻を算出する。位置検知部117aは、測定音が放音されてから収音されるまでの時間から、その測定音を放音したスピーカから収音したマイクロホンまでの距離を算出し、これを2つのスピーカ241について算出することで、マイクロホン231の位置を測定する。位置検知部117aは、測定した各マイクロホンの位置のうち、評価部112により評価されている音声が収集されたマイクロホンの位置を歌唱位置として検知する。位置検知部117aは、検知した歌唱位置を示すデータを、方向算出部118aに供給する。マイクロホン231、スピーカ241及び位置検知部117aが協働することで、歌唱位置を検知する検知手段として機能する。
方向算出部118aは、供給されたデータが示す位置と記憶部30aから読み出したディスプレイデータ330aが示す位置及び向きから、キャラクターを表示するべきディスプレイを判断し、そのディスプレイが画像を表示すべき方向を算出する。方向算出部118aの動作の詳細については、後に示す図7を参照しながら説明する。方向算出部118aは、算出した方向とその方向に画像を表示すべきディスプレイとを示す算出結果データを、画像生成部114a、表示制御部115a及びモータ制御部119aに供給する。
The
The
画像生成部114aは、上述したキャラクターを表す画像を含む画像データと、この画像を含まない画像データとを生成し、これらの画像データを表示制御部115aに供給する。
表示制御部115aは、画像生成部114aから供給された画像データのうち、キャラクターを表す画像を含む画像データが示す画像を、方向算出部118aから供給された算出結果データが示すディスプレイに対して表示させ、この画像を含まない画像データが示す画像を、このディスプレイ以外のディスプレイに表示させる。
モータ制御部119aは、方向算出部118aから供給された算出結果データが示すディスプレイに設けられたモータ253の動作を制御し、そのディスプレイが算出結果データが示す方向を向くように調整する。表示制御部115a、方向算出部118a及びモータ制御部119aが協働することで、本発明に係る「表示制御手段」として機能する。
The
The
The
図7は、ディスプレイの方向を調整する様子を説明するための図である。図7では、各ディスプレイと、歌唱者を含む利用者M1、M2、M3を鉛直方向上方から見た様子を模式的に示している。ディスプレイ251a、251bは、それぞれ、表示面252a、252bに画像を表示する。図7では、各表示面に表示される画像を立体的に見える第1領域とそれ以外の第2領域との境界を、点線Xa、Xbでそれぞれ示している。つまり、第1領域は、2本の点線Xaに挟まれた領域であり、同じく2本の点線Xbに挟まれた領域である。
図7(a)では、利用者M1が歌唱者であり、マイクロホン231aから音声を入力している。この場合、図6に示した位置検知部117aは、歌唱者が用いているマイクロホン231aの位置を歌唱位置として検知する。そして、図6に示した方向算出部118aは、検知された歌唱位置が点線Xaで示される領域に含まれることから、キャラクターを表示するべきディスプレイをディスプレイ251aと判断し、そのディスプレイが画像を表示すべき方向として、現在向いている方向を算出する。これにより、図6に示した表示制御部115aは、ディスプレイ251aにキャラクターを含む画像を表示させ、ディスプレイ251bにはキャラクターを含まない画像を表示させる。また、図6に示したモータ制御部119aは、算出された向きが現在向いている向きであるため、モータを回転させない。
FIG. 7 is a diagram for explaining how the direction of the display is adjusted. FIG. 7 schematically shows each display and users M1, M2, and M3 including a singer viewed from above in the vertical direction. The
In Fig.7 (a), the user M1 is a singer and has input the audio | voice from the
図7(b)では、図7(a)の状態から歌唱者が利用者M3に変わり、利用者M3がマイクロホン231bから音声を入力している状態を示している。図7(a)の状態では、マイクロホン231bの位置から画像を立体的に見ることができるディスプレイがなかった。この場合、方向算出部118aは、検知された歌唱位置が点線Xa又は点線Xbで示される領域に含まれるように向けた場合の各ディスプレイの方向を算出する。そして、方向算出部118aは、算出した方向を向くことが可能なディスプレイのうち、その方向に向けるため回転させる角度が最も小さいディスプレイ(図7(b)の例では、ディスプレイ251b)を、キャラクターを表示するべきディスプレイとして判断する。続いて、方向算出部118aは、ディスプレイ251bが画像を表示すべき方向を算出する。そして、表示制御部115aは、ディスプレイ251bにキャラクターを含む画像を表示し、モータ制御部119aは、ディスプレイ251bを、図7(b)において二点鎖線で示した状態から実線で示した状態となるまで回転させる。これにより、歌唱者は、自分でディスプレイの向きを変えたり、自分の位置を変えたりしなくとも、ディスプレイに表示されるキャラクターが立体的に見えるようになる。これにより、歌唱者がどの位置で歌っていても、キャラクターの飛び出し具合が他の者からは分かりにくくなり、歌唱者は、他の者に知られることなく、歌唱が高く評価されるように歌い方を改善することができる。
FIG. 7B shows a state where the singer is changed to the user M3 from the state of FIG. 7A and the user M3 is inputting sound from the
(変形例2)
本発明に係るカラオケ装置は、歌唱者の画像を撮影し、撮影した画像をキャラクターの画像と合成して表示させても良い。この場合、カラオケ装置は、歌唱者の画像を撮影する撮影手段を備え、撮影手段が撮影した画像と上述した各種画像とを合成した画像データを画像生成部が生成し、この画像データを立体画像表示部が有するディスプレイに出力して表示させれば良い。これにより、カラオケ装置は、キャラクターとデュエットをしているような雰囲気を歌唱者に与えることができ、上記合成した画像データを表示しない場合に比べて、臨場感をより高めることができる。
(Modification 2)
The karaoke apparatus according to the present invention may shoot a singer's image and synthesize the captured image with a character image for display. In this case, the karaoke apparatus includes a photographing unit that photographs a singer's image, and the image generation unit generates image data obtained by combining the image captured by the photographing unit and the various images described above. What is necessary is just to output and display on the display which a display part has. Thereby, the karaoke apparatus can give the singer an atmosphere that makes a duet with the character, and can enhance the sense of reality compared to the case where the synthesized image data is not displayed.
(変形例3)
本発明に係るカラオケ装置は、上述した実施形態で示したキャラクターの表情以外にも、様々な表情で感情等を伝えても良い。例えば、キャラクターに目配せをさせてタイミングを伝えても良いし、上手く歌えたとき(評価が高いとき)に、キャラクターに飛び跳ねさせて歌唱者を盛り上げるようにしても良い。また、基準とは関係なく、例えばビブラートを検出したら表情を変えても良い。また、キャラクターの表情と伝えられる内容とは、歌唱者が対応付けて伝えられる内容を認識することができるものであれば、どのように対応付けられていても良い。例えば、表情とその表情が示す内容を対応付けた表を、予め利用者に提供しておけば良い。これにより、人により表情の受け取り方が異なる場合であっても、伝えるべき感情又は内容を歌唱者に対して伝えることができる。また、この対応を、ユーザが操作部21の操作などで設定できるようにしても良い。なお、キャラクターの表情に加え、背景により感情等を伝えても良く、例えば、評価が高い状態から低い状態になるに連れて、背景の色を青から赤に変化させ、間違いが増えていることを警告するようにしても良い。また、文字を表示しても良いし、音声を発声させても良い。音声を発声させる際は、発音する音に応じて、口の形を変えてキャラクターを表示させても良い。
(Modification 3)
The karaoke apparatus according to the present invention may convey emotions and the like with various facial expressions in addition to the facial expressions of the characters shown in the above-described embodiments. For example, the character may be watched and the timing may be transmitted, or when the character is sung well (when the evaluation is high), the character may jump up and the singer can be excited. Regardless of the reference, the facial expression may be changed if, for example, vibrato is detected. Further, the content transmitted to the character's facial expression may be associated in any way as long as the singer can recognize the content transmitted in association. For example, a table in which facial expressions and contents indicated by the facial expressions are associated may be provided to the user in advance. Thereby, even if it is a case where how to receive a facial expression changes with people, the emotion or content which should be conveyed can be conveyed with respect to a singer. Further, this correspondence may be set by the user by operating the
(変形例4)
本発明に係るカラオケ装置は、キャラクターの表情を1つ1つ異なる画像で表すものでなくともよく、例えば、表情を形作るいくつかのパーツを組み合わせることで、数通りのパーツから何十種類もの表情を表すものであっても良いし、パラメータを用いて表情を生成するものであっても良い。これにより、表情の数だけ画像を用意する場合よりも、キャラクター画像データの容量を小さくすることができる。
(Modification 4)
The karaoke apparatus according to the present invention does not have to represent each character's facial expression with different images. For example, by combining several parts that form the facial expression, dozens of different facial expressions can be used. May be used, or a facial expression may be generated using a parameter. As a result, the capacity of the character image data can be reduced as compared with the case of preparing images for the number of facial expressions.
(変形例5)
本発明においては、歌唱音声の様々な特徴を基準として用いて、これを評価しても良い。例えば、基準には、拍の長さ又は音量等の特徴を用いても良いし、「ビブラート」又は「こぶし」等の歌唱技法を特徴としてとらえて用いても良い。
(Modification 5)
In the present invention, this may be evaluated using various characteristics of the singing voice as a reference. For example, features such as beat length or volume may be used as the reference, and singing techniques such as “vibrato” or “fist” may be used as features.
(変形例6)
本発明に係る制御部は、上述した実施形態において説明した方法に限らず、様々な方法で歌唱を評価しても良い。例えば、制御部が算出した評価値が第1閾値以下である場合に2点、第2閾値以下である場合に1点加点し、その合計を評価点とするというように、加点式で評価しても良い。また、評価期間を、構成音が歌唱されるべき期間とは異なる期間としても良く、例えば、1秒や2秒といった一定の時間を評価期間としても良いし、評価期間の長さをユーザが操作部21の操作などにより設定できるようにしても良い。
(Modification 6)
The control part which concerns on this invention may evaluate a song by not only the method demonstrated in embodiment mentioned above but various methods. For example, when the evaluation value calculated by the control unit is less than or equal to the first threshold value, two points are added, and when the evaluation value is less than or equal to the second threshold value, one point is added, and the total is used as an evaluation point. May be. Further, the evaluation period may be a period different from the period in which the constituent sounds are to be sung, for example, a certain time such as 1 second or 2 seconds may be set as the evaluation period, and the length of the evaluation period is operated by the user. The setting may be made by operating the
(変形例7)
本発明に係るカラオケ装置は、上述した実施形態では、評価部112による評価結果に応じた表情のキャラクターを表示し、また、特定部113により特定された評価期間を伝えるための表情のキャラクターをそれぞれ異なる画像で表示させたが、これらは、同時に表示させても良いし、いずれか一方だけを表示させても良い。前者を表示させれば、歌唱者に臨場感を与えやすく、後者を表示させれば、歌唱者が上手に歌うことを補助することができる。
(Modification 7)
In the embodiment described above, the karaoke apparatus according to the present invention displays a facial expression character according to the evaluation result by the
(変形例8)
本発明において、特定部113により特定された評価期間に、過去に歌唱したときよりも上手に歌うことができたら、評価点を高くするように加点しても良い。詳細には、評価部112は、評価期間が特定部113により特定されたものであり、かつ、音高が共通する基準のうち、1回前の基準に対する評価値よりも評価値が小さくなった場合、評価点に1点加点する。なお、この際、過去の複数回の評価値の平均値よりも小さくなった場合に加点しても良いし、加点する代わりに減点する点数を減らしても良い。
(Modification 8)
In the present invention, during the evaluation period specified by the specifying
(変形例9)
本発明に係るカラオケ装置は、上述した実施形態においては、立体画像を表示する手段(立体画像表示部)を備えていたが、2次元の画像を表示する手段を備えていても良い。この場合、画像生成部は、図5(c)に示すような立体的に飛び出して見える画像を、遠近法を用いて2次元の画像で生成すれば良い。また、飛び出して見える画像は表示せずに、図4、図5(a)、(b)に示すような平面的に表現されたキャラクターの画像を表示させても良い。この場合でも、カラオケ装置は、歌唱されるべき基準に対して歌唱音声が沿っている程度に反応するキャラクターを表示することができる。
(Modification 9)
The karaoke apparatus according to the present invention includes means for displaying a stereoscopic image (stereoscopic image display unit) in the above-described embodiment, but may include means for displaying a two-dimensional image. In this case, the image generation unit may generate an image that appears three-dimensionally as shown in FIG. 5C as a two-dimensional image using a perspective method. Further, instead of displaying an image that appears to pop out, an image of a character expressed in a plane as shown in FIGS. 4, 5A, and 5B may be displayed. Even in this case, the karaoke apparatus can display a character that reacts to the extent that the singing voice is in line with the reference to be sung.
(変形例10)
本発明に係るカラオケ装置は、上述した実施形態においては、表示制御部及び立体画像表示部を備えたが、これらの各部は、外部の装置に備えられていても良い。この場合、画像生成部は、例えばネットワークを介して、この外部の装置に備えられた表示制御部に画像データを出力すればよい。
(Modification 10)
The karaoke apparatus according to the present invention includes the display control unit and the stereoscopic image display unit in the above-described embodiment, but these units may be included in an external device. In this case, the image generation unit may output image data to a display control unit provided in the external device via a network, for example.
(変形例11)
本発明に係るカラオケ装置は、キャラクターの表情に加え、背景によって感情又は伝えたい情報等を表しても良い。この場合、記憶部にキャラクターの背景として表示させるための画像データである背景データを記憶させれば良い。ここでいう背景には、背後の景色を表したいわゆる背景に加え、上記キャラクターの表情と同様に、キャラクターの感情又は伝えたい情報等を色、形又は文字等で表したものが含まれる。
(Modification 11)
The karaoke apparatus according to the present invention may represent emotions or information to be conveyed depending on the background in addition to the facial expression of the character. In this case, background data, which is image data to be displayed as a character background, may be stored in the storage unit. The background referred to here includes, in addition to the so-called background representing the background behind the scene, the same as the character's facial expression, representing the character's emotion or information to be conveyed in color, shape, or character.
(変形例12)
本発明に係るカラオケ装置は、歌唱者が歌唱すべき時刻又は歌唱すべき位置を、伴奏音に限らず、画像等で表しても良い。例えば、上述した実施形態においては、図3に示したように、歌詞Aの色を変化させて色が変化する境目を現在歌唱すべき位置として表しているので、歌唱者は、伴奏音がなくとも歌唱すべき位置を知ることができる。また、これに限らず、図3に示した五線譜に、現在再生されているところを示すマークを表示させ、矢印R1の方向に移動させて歌唱すべき位置を知らせても良い。上述した実施形態に係る「伴奏データ311」、「歌詞データ313」及び本変形例に係るマークを表示させるデータは、いずれも、再生されると楽曲の歌唱すべき位置を表すデータであり、本発明に係る「位置表示データ」の一例に相当する。
(Modification 12)
In the karaoke apparatus according to the present invention, the time at which the singer should sing or the position at which the singer should sing may be represented not only by the accompaniment sound but also by an image or the like. For example, in the above-described embodiment, as shown in FIG. 3, the boundary where the color changes by changing the color of the lyrics A is represented as the position where the singer should sing now. Both can know where to sing. Further, the present invention is not limited to this, and a mark indicating the currently played position may be displayed on the staff shown in FIG. 3 and moved in the direction of the arrow R1 to notify the position to be sung. The “accompaniment data 311” and “
(変形例13)
画像生成部114は、上述した実施形態において、生成した画像データ(第2画像データ)を伴奏データに応じたキャラクターの画像データ(第1画像データ)に代えて表示制御部115に供給したが、これに限らず、これらの画像データを共に表示制御部115に供給してもよい。例えば、画像生成部114は、第2画像データとして、第1画像データが示すキャラクターの表情を、上述した評価結果又は特定部113により特定された評価期間に応じた表情で表した画像を示すデータを生成し、表示制御部115は、第1画像データが示す画像に第2画像データが示す画像を重ねて(オーバーレイさせて)表示させれば良い。この場合であっても、カラオケ装置1は、歌唱されるべき基準に対して歌唱音声が沿っている程度に反応するキャラクターを表示することができる。
(Modification 13)
In the above-described embodiment, the image generation unit 114 supplies the generated image data (second image data) to the display control unit 115 instead of the character image data (first image data) corresponding to the accompaniment data. Not only this but these image data may be supplied to the display control part 115 together. For example, the image generation unit 114 represents, as the second image data, data representing an image representing the facial expression of the character indicated by the first image data with the above-described evaluation result or the facial expression corresponding to the evaluation period specified by the specifying
(変形例14)
本発明は、コンピュータを本発明に係る評価装置として機能させるためのプログラムとしても特定され得るものである。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることも可能である。
(Modification 14)
The present invention can also be specified as a program for causing a computer to function as the evaluation apparatus according to the present invention. Such a program may be provided in a form recorded on a recording medium such as an optical disk, or may be provided in a form such that the program is downloaded to a computer via a network such as the Internet, and the program can be installed and used. Is possible.
1…カラオケ装置、10、10a…制御部、21…操作部、22…音響処理部、23…収音部、24…放音部、25…立体画像表示部、30…記憶部、111…再生部、112…評価部、113…特定部、114…画像生成部、115、115a…表示制御部、117a…位置検知部、118a…方向算出部、119a…モータ制御部、231…マイクロホン、251…ディスプレイ、252…表示面、253…モータ、310…楽曲データベース、311…伴奏データ、312…リファレンスデータ、313…歌詞データ、320…キャラクターデータベース、321…キャラクター画像データ、330…ディスプレイデータ
DESCRIPTION OF SYMBOLS 1 ...
Claims (4)
前記記憶手段から前記位置表示データを読み出して再生する再生手段と、
前記再生手段が前記位置表示データを再生しているときに収音手段から供給されたオーディオ信号が表す歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該歌唱音声を評価する評価手段と、
前記再生手段が前記位置表示データを再生している間、キャラクターの画像を示す第1画像データを出力し、前記評価手段により前記歌唱音声が評価された場合、前記キャラクターの表情を当該歌唱音声が評価された結果に応じた表情で表した画像を示す第2画像データを出力する出力手段であって、前記オーディオ信号が表す歌唱音声から特定の歌唱技法が検出された場合には当該表情を変化させた画像を示すデータを前記第2画像データとして出力する出力手段と
を備えることを特徴とする評価装置。 Storage means for storing position display data representing a position at which the song should be sung when played and reference data indicating a reference for evaluating the singing voice;
Reproduction means for reading out and reproducing the position display data from the storage means;
The singing voice is compared by comparing the singing voice represented by the audio signal supplied from the sound collecting means when the reproducing means is reproducing the position display data with the reference indicated by the reference data read from the storage means. An evaluation means for evaluating
While the reproduction means reproduces the position display data, the first image data indicating the character image is output, and when the singing voice is evaluated by the evaluation means, the expression of the character is represented by the singing voice. Output means for outputting second image data indicating an image represented by a facial expression according to the evaluated result, and changing the facial expression when a specific singing technique is detected from the singing voice represented by the audio signal And an output means for outputting the data indicating the processed image as the second image data .
ことを特徴とする請求項1に記載の評価装置。The evaluation apparatus according to claim 1, wherein:
前記記憶手段から前記位置表示データを読み出して再生する再生手段と、Reproduction means for reading out and reproducing the position display data from the storage means;
前記再生手段が前記位置表示データを再生しているときに収音手段から供給されたオーディオ信号が表す第1の歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該第1の歌唱音声を評価点によって評価する評価手段であって、当該基準と過去に比較された第2の歌唱音声の評価点よりも前記第1の歌唱音声の評価点が高ければ当該第1の歌唱音声の評価点に加点する評価手段と、The first singing voice represented by the audio signal supplied from the sound collecting means when the reproducing means is reproducing the position display data is compared with the reference indicated by the reference data read from the storage means. An evaluation means for evaluating the first singing voice based on an evaluation point, and if the evaluation point of the first singing voice is higher than the evaluation point of the second singing voice compared with the reference in the past, the first An evaluation means for adding to the evaluation score of one singing voice;
前記再生手段が前記位置表示データを再生している間、キャラクターの画像を示す第1画像データを出力し、前記評価手段により前記第1の歌唱音声が評価された場合、前記キャラクターの表情を当該第1の歌唱音声が評価された結果に応じた表情で表した画像を示す第2画像データを出力する出力手段と、While the reproduction means reproduces the position display data, the first image data indicating the character image is output, and when the first singing voice is evaluated by the evaluation means, the expression of the character is Output means for outputting second image data indicating an image represented by an expression according to a result of evaluation of the first singing voice;
を備えることを特徴とする評価装置。An evaluation apparatus comprising:
ことを特徴とする請求項3に記載の評価装置。The evaluation apparatus according to claim 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056425A JP5803172B2 (en) | 2011-03-15 | 2011-03-15 | Evaluation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056425A JP5803172B2 (en) | 2011-03-15 | 2011-03-15 | Evaluation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012194241A JP2012194241A (en) | 2012-10-11 |
JP5803172B2 true JP5803172B2 (en) | 2015-11-04 |
Family
ID=47086236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011056425A Expired - Fee Related JP5803172B2 (en) | 2011-03-15 | 2011-03-15 | Evaluation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5803172B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5741620B2 (en) * | 2013-03-27 | 2015-07-01 | ブラザー工業株式会社 | Karaoke device, program |
JP2016031395A (en) * | 2014-07-28 | 2016-03-07 | ヤマハ株式会社 | Reference display device, and program |
JP6276673B2 (en) * | 2014-09-29 | 2018-02-07 | 株式会社エクシング | Karaoke device and program |
JP6301275B2 (en) * | 2015-02-27 | 2018-03-28 | 株式会社エクシング | Karaoke device and karaoke program |
KR101992572B1 (en) * | 2018-08-30 | 2019-09-30 | 유영재 | Audio editing apparatus providing review function and audio review method using the same |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07146687A (en) * | 1993-04-02 | 1995-06-06 | J M C:Kk | Karaoke (accompaniment to recorded music) production device |
JPH09297594A (en) * | 1996-03-05 | 1997-11-18 | Sega Enterp Ltd | Accompaniment playing device and storage medium |
JP3270344B2 (en) * | 1996-11-29 | 2002-04-02 | ヤマハ株式会社 | Karaoke equipment |
JP3482345B2 (en) * | 1998-09-24 | 2003-12-22 | ヤマハ株式会社 | Karaoke equipment |
JP2001042879A (en) * | 1999-08-04 | 2001-02-16 | Matsushita Electric Ind Co Ltd | Karaoke device |
JP4256597B2 (en) * | 2001-05-01 | 2009-04-22 | 日本放送協会 | Stereoscopic image display device |
JP4163584B2 (en) * | 2003-09-30 | 2008-10-08 | ヤマハ株式会社 | Karaoke equipment |
JP4170995B2 (en) * | 2005-02-07 | 2008-10-22 | 株式会社リコー | Performance song playback device |
JP4748568B2 (en) * | 2005-03-18 | 2011-08-17 | 株式会社河合楽器製作所 | Singing practice system and singing practice system program |
JP2007256617A (en) * | 2006-03-23 | 2007-10-04 | Yamaha Corp | Musical piece practice device and musical piece practice system |
JP4891135B2 (en) * | 2007-04-17 | 2012-03-07 | ヤマハ株式会社 | Evaluation device |
-
2011
- 2011-03-15 JP JP2011056425A patent/JP5803172B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012194241A (en) | 2012-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4655047B2 (en) | Voice evaluation device and karaoke device | |
US9847078B2 (en) | Music performance system and method thereof | |
CN111052223B (en) | Playback control method, playback control device, and recording medium | |
TWI394142B (en) | System, method, and apparatus for singing voice synthesis | |
JP2014217627A (en) | Physical action evaluation device, karaoke system, and program | |
JP2008015195A (en) | Musical piece practice support device | |
JP6699677B2 (en) | Information processing method, information processing apparatus, and program | |
JP6776788B2 (en) | Performance control method, performance control device and program | |
JP5803172B2 (en) | Evaluation device | |
JP2016057337A (en) | Point rating device and point rating method | |
JP2008026622A (en) | Evaluation apparatus | |
JP2008139426A (en) | Data structure of data for evaluation, karaoke machine, and recording medium | |
JP2007310204A (en) | Musical piece practice support device, control method, and program | |
JP4748568B2 (en) | Singing practice system and singing practice system program | |
JP2008286946A (en) | Data reproduction device, data reproduction method, and program | |
JP2007264569A (en) | Retrieval device, control method, and program | |
JP6070652B2 (en) | Reference display device and program | |
JPWO2015008756A1 (en) | Projection device, control device, control program, and projection control method | |
JP2009169103A (en) | Practice support device | |
JP4839967B2 (en) | Instruction device and program | |
JP2014035436A (en) | Voice processing device | |
JP5486941B2 (en) | A karaoke device that makes you feel like singing to the audience | |
JP2007304489A (en) | Musical piece practice supporting device, control method, and program | |
JP2006217183A (en) | Data processor and program for generating multimedia data | |
JP2021140065A (en) | Processing system, sound system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150804 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150817 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5803172 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |