JP5803172B2 - Evaluation device - Google Patents

Evaluation device Download PDF

Info

Publication number
JP5803172B2
JP5803172B2 JP2011056425A JP2011056425A JP5803172B2 JP 5803172 B2 JP5803172 B2 JP 5803172B2 JP 2011056425 A JP2011056425 A JP 2011056425A JP 2011056425 A JP2011056425 A JP 2011056425A JP 5803172 B2 JP5803172 B2 JP 5803172B2
Authority
JP
Japan
Prior art keywords
evaluation
image
singing voice
character
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011056425A
Other languages
Japanese (ja)
Other versions
JP2012194241A (en
Inventor
隆一 成山
隆一 成山
小林 詠子
詠子 小林
木村 誠
誠 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2011056425A priority Critical patent/JP5803172B2/en
Publication of JP2012194241A publication Critical patent/JP2012194241A/en
Application granted granted Critical
Publication of JP5803172B2 publication Critical patent/JP5803172B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、歌唱した音声を評価する際にキャラクターを表示する技術に関する。   The present invention relates to a technique for displaying a character when evaluating a sung voice.

従来より、カラオケなどで歌唱している歌唱者が上手に歌えるように補助する際、キャラクターを表示させる技術がある。特許文献1には、合成された歌声(いわゆるガイドボーカル)を出力することによって上記の補助をする場合に、その歌声の音韻、音高及び発音タイミング等に合わせた口の形状又は表情のキャラクターを表示させる技術が記載されている。   Conventionally, there is a technique for displaying a character when assisting a singer who sings in karaoke or the like to sing well. In Patent Document 1, when the above-mentioned assistance is performed by outputting a synthesized singing voice (so-called guide vocal), a character having a mouth shape or facial expression that matches the phonological tone, pitch, and pronunciation timing of the singing voice is disclosed. The technology to display is described.

特開2001−42879号公報JP 2001-42879 A

特許文献1に記載された技術においては、1つの楽曲の中で様々な表情が表示される一方、同じ楽曲であれば表示される表情のパターン及びそれらが表示されるタイミングが決まっている。つまり、歌唱者がどのように歌っても、その内容に対する反応がないため、表示されたキャラクターと一緒に歌っているような臨場感を歌唱者に与えることが難しい。同じ理由で、歌唱者は、上記ガイドボーカル、すなわち、歌唱されるべき基準となる歌声に対して、自分が同じように歌唱しているのかどうかが分からず、楽曲の残り部分を今の調子で歌い続けるべきか、上記ガイドボーカルをもっと参考にすべきか、という判断をすることが難しい。
本発明は、このような事情に鑑みてなされたもので、その目的の1つは、歌唱されるべき基準に対して歌唱者が歌唱した音声が沿っている程度に反応するキャラクターを表示することである。
In the technique described in Patent Document 1, while various expressions are displayed in one piece of music, patterns of expressions that are displayed for the same piece of music and the timing for displaying them are determined. That is, no matter how the singer sings, there is no reaction to the contents, so it is difficult to give the singer a sense of realism as if singing with the displayed character. For the same reason, the singer does not know whether he is singing in the same way as the guide vocal, that is, the standard singing voice to be sung. It is difficult to judge whether to continue singing or to use the above guide vocal more.
The present invention has been made in view of such circumstances, and one of its purposes is to display a character that reacts to the extent that the voice sung by the singer is in line with the standard to be sung. It is.

上述の課題を解決するため、本発明は、再生されると楽曲の歌唱すべき位置を表す位置表示データと、歌唱音声を評価する基準を示すリファレンスデータとを記憶する記憶手段と、前記記憶手段から前記位置表示データを読み出して再生する再生手段と、前記再生手段が前記位置表示データを再生しているときに収音手段から供給されたオーディオ信号が表す歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該歌唱音声を評価する評価手段と、前記再生手段が前記位置表示データを再生している間、キャラクターの画像を示す第1画像データを出力し、前記評価手段により前記歌唱音声が評価された場合、前記キャラクターの表情を当該歌唱音声が評価された結果に応じた表情で表した画像を示す第2画像データを出力する出力手段であって、前記オーディオ信号が表す歌唱音声から特定の歌唱技法が検出された場合には当該表情を変化させた画像を示すデータを前記第2画像データとして出力する出力手段と、を備えることを特徴とする評価装置を提供する。 In order to solve the above-described problem, the present invention provides a storage unit that stores position display data indicating a position where a song should be sung when reproduced, and reference data indicating a reference for evaluating the singing voice, and the storage unit Read out the position display data from the reproduction means, and the singing voice represented by the audio signal supplied from the sound collection means when the reproduction means is reproducing the position display data, and read out from the storage means An evaluation unit that evaluates the singing voice by comparing with a reference indicated by the reference data, and a first image data indicating a character image is output while the reproduction unit reproduces the position display data, and When the singing voice is evaluated by the evaluation means, an image representing the facial expression of the character with a facial expression corresponding to the result of evaluating the singing voice is shown. An output means for outputting the second image data, and outputs data indicating the image obtained by changing the facial expression as the second image data if a particular singing technique from singing voice which the audio signal represented is detected And an output means .

また、別の好ましい態様において、前記評価手段は、前記オーディオ信号が表す第1の前記歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該第1の歌唱音声を評価点によって評価し、当該基準と過去に比較された第2の歌唱音声の評価点よりも前記第1の歌唱音声の評価点が高ければ当該第1の歌唱音声の評価点に加点することを特徴とする。 Moreover, in another preferable aspect, the evaluation means compares the first singing voice represented by the audio signal with a reference indicated by the reference data read from the storage means to obtain the first singing voice. If the evaluation score of the first singing voice is higher than the evaluation score of the second singing voice compared with the reference in the past, the evaluation score of the first singing voice is added. Features.

また、本発明は、再生されると楽曲の歌唱すべき位置を表す位置表示データと、歌唱音声を評価する基準を示すリファレンスデータとを記憶する記憶手段と、前記記憶手段から前記位置表示データを読み出して再生する再生手段と、前記再生手段が前記位置表示データを再生しているときに収音手段から供給されたオーディオ信号が表す第1の歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該第1の歌唱音声を評価点によって評価する評価手段であって、当該基準と過去に比較された第2の歌唱音声の評価点よりも前記第1の歌唱音声の評価点が高ければ当該第1の歌唱音声の評価点に加点する評価手段と、前記再生手段が前記位置表示データを再生している間、キャラクターの画像を示す第1画像データを出力し、前記評価手段により前記第1の歌唱音声が評価された場合、前記キャラクターの表情を当該第1の歌唱音声が評価された結果に応じた表情で表した画像を示す第2画像データを出力する出力手段と、を備えることを特徴とする評価装置を提供するFurther, the present invention provides a storage means for storing position display data indicating a position where a song should be sung when reproduced, and reference data indicating a reference for evaluating the singing voice; and the position display data from the storage means. Reproducing means for reading and reproducing; first singing voice represented by an audio signal supplied from the sound collecting means when the reproducing means reproduces the position display data; and the reference data read from the storage means Is an evaluation means for comparing the first singing voice with the evaluation point of the second singing voice compared with the reference in the past. If the evaluation score is high, an evaluation means for adding to the evaluation score of the first singing voice, and a first image indicating a character image while the reproduction means reproduces the position display data. A second image that outputs image data and shows the facial expression of the character as a facial expression corresponding to a result of the evaluation of the first singing voice when the evaluation means evaluates the first singing voice; And an output means for outputting image data .

また、別の好ましい態様において、前記出力手段は、前記オーディオ信号が表す歌唱音声から特定の歌唱技法が検出された場合には当該表情を変化させた画像を示すデータを前記第2画像データとして出力することを特徴とする。 In another preferable aspect, the output means outputs, as the second image data, data indicating an image in which the facial expression is changed when a specific singing technique is detected from the singing voice represented by the audio signal. characterized in that it.

本発明によれば、歌唱されるべき基準に対して歌唱者が歌唱した音声が沿っている程度に反応するキャラクターを表示することが可能になる。   According to the present invention, it is possible to display a character that reacts to the extent that the voice sung by the singer is along the reference to be sung.

実施形態に係るカラオケ装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the karaoke apparatus which concerns on embodiment. カラオケ装置の制御部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the control part of a karaoke apparatus. ディスプレイに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display. ディスプレイに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display. ディスプレイに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display. 変形例に係るカラオケ装置の構成を示す図である。It is a figure which shows the structure of the karaoke apparatus which concerns on a modification. ディスプレイの方向を調整する様子を説明するための図である。It is a figure for demonstrating a mode that the direction of a display is adjusted.

[実施形態]
以下、本発明の実施形態について図面を参照して説明する。
図1は、カラオケ装置1の全体構成を示すブロック図である。カラオケ装置1は、例えばカラオケ店などに設置され、いわゆるカラオケの機能を利用者に提供すると共に、利用者(歌唱者)が歌唱する音声(歌唱音声)を評価する装置であり、本発明に係る「評価装置」の一例に相当する。カラオケ装置1は、制御部10と、操作部21と、音響処理部22と、収音部23と、放音部24と、立体画像表示部25と、記憶部30とを備えている。
制御部10は、CPU(Central Processing Unit)とメモリとを備えている。CPUは、メモリに記憶されているプログラムを実行することにより、カラオケ装置1の各部を制御する。メモリは、ROM(Read Only Memory)とRAM(Random Access Memory)とを備えており、CPUによって用いられるプログラムやデータを記憶する。
操作部21は、複数の操作ボタンを備えており、利用者が操作した内容を示す操作データを制御部10に供給する。
収音部23は、マイクロホン等の収音手段であり、歌唱者が発した歌唱音声が入力され、歌唱音声を示すオーディオ信号を音響処理部22に出力する。
放音部24は、スピーカ等の放音手段であり、音響処理部22から出力されるオーディオ信号を放音する。
音響処理部22は、DSP(Digital Signal Processor)などの信号処理回路、MIDI(Musical Instrument Digital Interface)形式の信号からオーディオ信号を生成する音源などを有する。音響処理部22は、収音部23から入力されるオーディオ信号をA/D変換して制御部10に出力する。音響処理部22は、制御部10からMIDI形式のデータが入力され、そのデータに基づいてオーディオ信号を生成する。音響処理部22は、このように生成したオーディオ信号、制御部10から出力されたオーディオ信号、収音部23から入力されたオーディオ信号などを、エフェクト処理、増幅処理などの信号処理を施してから放音部24に出力する。
立体画像表示部25は、立体画像に対応したディスプレイを備えており、制御部10から供給される立体画像を示す画像データに応じた立体画像を表示する。
[Embodiment]
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing the overall configuration of the karaoke apparatus 1. The karaoke apparatus 1 is installed in, for example, a karaoke shop and provides a user with a so-called karaoke function and evaluates a voice (singing voice) sung by the user (singer), according to the present invention. It corresponds to an example of “evaluation device”. The karaoke apparatus 1 includes a control unit 10, an operation unit 21, an acoustic processing unit 22, a sound collection unit 23, a sound emission unit 24, a stereoscopic image display unit 25, and a storage unit 30.
The control unit 10 includes a CPU (Central Processing Unit) and a memory. The CPU controls each unit of the karaoke apparatus 1 by executing a program stored in the memory. The memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory), and stores programs and data used by the CPU.
The operation unit 21 includes a plurality of operation buttons, and supplies operation data indicating the contents operated by the user to the control unit 10.
The sound collection unit 23 is a sound collection unit such as a microphone, and receives a singing voice emitted by a singer and outputs an audio signal indicating the singing voice to the acoustic processing unit 22.
The sound emitting unit 24 is a sound emitting unit such as a speaker, and emits an audio signal output from the sound processing unit 22.
The acoustic processing unit 22 includes a signal processing circuit such as a DSP (Digital Signal Processor), a sound source that generates an audio signal from a MIDI (Musical Instrument Digital Interface) format signal, and the like. The sound processing unit 22 performs A / D conversion on the audio signal input from the sound collection unit 23 and outputs the audio signal to the control unit 10. The sound processing unit 22 receives MIDI format data from the control unit 10 and generates an audio signal based on the data. The sound processing unit 22 performs signal processing such as effect processing and amplification processing on the audio signal thus generated, the audio signal output from the control unit 10, the audio signal input from the sound collection unit 23, and the like. The sound is output to the sound emitting unit 24.
The stereoscopic image display unit 25 includes a display corresponding to the stereoscopic image, and displays a stereoscopic image corresponding to image data indicating the stereoscopic image supplied from the control unit 10.

記憶部30は、ハードディスクを備えており、楽曲データベース310とキャラクターデータベース320とを記憶している。
楽曲データベース310には、カラオケで再生される楽曲に関するデータが記録されており、詳細には、伴奏データ311とリファレンスデータ312と歌詞データ313とが記録されている。伴奏データ311は、楽曲の伴奏の内容を示すデータであり、例えば、MIDI形式により記述されている。リファレンスデータ312は、歌唱すべき基準を示すデータであり、詳細には、歌唱すべき各構成音の音高を示している。これらの基準、すなわち、構成音の音高は、伴奏データ311が示す伴奏において各構成音が歌唱されるべき期間と対応付けられており、この期間に収音部23に入力された歌唱音声を評価するために用いられる。以下においては、この期間を「評価期間」という。評価期間の開始と終了とは、伴奏データ311が開始されてから経過する時間で表される。リファレンスデータ312は、例えば、各構成音の音高と音の長さ(評価期間に相当)とをMIDI形式により記述されている。歌詞データ313は、楽曲の歌詞の内容を示すデータ、および立体画像表示部25に表示させた歌詞テロップを色替えするためのタイミングを示すデータを有する。
The storage unit 30 includes a hard disk, and stores a music database 310 and a character database 320.
In the music database 310, data related to music played in karaoke is recorded, and in detail, accompaniment data 311, reference data 312 and lyric data 313 are recorded. The accompaniment data 311 is data indicating the content of the accompaniment of the music and is described in, for example, the MIDI format. The reference data 312 is data indicating a standard to be sung, and specifically indicates the pitch of each component sound to be sung. These pitches, that is, the pitches of the constituent sounds, are associated with the period during which each constituent sound is to be sung in the accompaniment indicated by the accompaniment data 311, and the singing voice input to the sound collection unit 23 during this period Used to evaluate. Hereinafter, this period is referred to as an “evaluation period”. The start and end of the evaluation period are represented by the time elapsed after the accompaniment data 311 is started. In the reference data 312, for example, the pitch and length of each constituent sound (corresponding to the evaluation period) are described in the MIDI format. The lyrics data 313 includes data indicating the contents of the lyrics of the music and data indicating the timing for changing the color of the lyrics telop displayed on the stereoscopic image display unit 25.

キャラクターデータベース320には、歌唱中に立体画像表示部25に表示される画像に関するデータが記録されており、詳細には、キャラクター画像データ321が記録されている。キャラクター画像データ321は、様々なキャラクターの様々な表情の画像を示すデータ(画像データ)である。ここでいうキャラクターは、例えば、絵で表された人、動物又は擬人化された物(ロボットなど)等であり、インターネットのコミュニティサイトで用いられるキャラクター(いわゆるアバター)も含まれる。なお、この絵には、実在の人、動物又は物の写真が用いられても良い。ここにおいて、キャラクターの表情とは、キャラクターの感情又は伝えたい情報等を顔つきや身振りで表したものをいい、例えば、笑っている表情、怒っている表情、悲しげに歩いている動作、うれしそうに跳び上がっている動作、テンポに合わせて手を振る又はあるタイミングを目配せして示す動作等である。   In the character database 320, data relating to an image displayed on the stereoscopic image display unit 25 during singing is recorded, and in detail, character image data 321 is recorded. The character image data 321 is data (image data) indicating images of various expressions of various characters. The character here is, for example, a person represented by a picture, an animal, or an anthropomorphic object (such as a robot), and also includes a character (so-called avatar) used on an Internet community site. In addition, a photograph of a real person, an animal, or a thing may be used for this picture. Here, the character's facial expression is a character's emotion or information that you want to convey, such as a facial expression or gesture, such as a smiling expression, an angry expression, a sadly walking action, For example, a jumping action, an action of waving at the tempo, or showing a certain timing.

次に、このようなハードウェア構成において、制御部10が機能プログラムを実行したときに構築される機能ブロックについて、図2を参照して説明する。
図2は、制御部10の機能的構成を示すブロック図である。制御部10は、再生部111と、評価部112と、特定部113と、画像生成部114と、表示制御部115とを有する。
再生部111は、操作部21から楽曲の再生を指示する操作データが供給されると、図1に示したその楽曲の伴奏データ311及び歌詞データ313を再生する。詳細には、再生部111は、楽曲データベース310からその楽曲の伴奏データ311と歌詞データ313とを読み出す。そして、再生部111は、伴奏データ311を音響処理部22に供給し、伴奏音を放音させ、また、歌詞データ313を表示制御部115に供給し、歌詞を表示させる。このとき、再生部111は、伴奏音の放音と歌詞の表示とが同じタイミングで開始されるようにこれらのデータを供給する。再生部111は、伴奏データ311を再生している間、その伴奏データ311の再生が開始されてから経過した時間(経過時間)を示すデータを、数msec毎に評価部112、画像生成部114及び表示制御部115に供給する。
Next, functional blocks constructed when the control unit 10 executes a functional program in such a hardware configuration will be described with reference to FIG.
FIG. 2 is a block diagram illustrating a functional configuration of the control unit 10. The control unit 10 includes a reproduction unit 111, an evaluation unit 112, a specification unit 113, an image generation unit 114, and a display control unit 115.
When the operation data for instructing the reproduction of the music is supplied from the operation unit 21, the reproduction unit 111 reproduces the accompaniment data 311 and the lyrics data 313 of the music shown in FIG. Specifically, the playback unit 111 reads the accompaniment data 311 and the lyrics data 313 of the music from the music database 310. Then, the playback unit 111 supplies the accompaniment data 311 to the sound processing unit 22 to emit the accompaniment sound, and supplies the lyrics data 313 to the display control unit 115 to display the lyrics. At this time, the reproduction unit 111 supplies these data so that the accompaniment sound emission and the lyrics display are started at the same timing. While reproducing the accompaniment data 311, the reproducing unit 111 evaluates data indicating the time (elapsed time) that has elapsed since the reproduction of the accompaniment data 311 is started every several msec, and the image generating unit 114. And the display control unit 115.

評価部112は、歌唱者の歌唱音声を、リファレンスデータ312が示す基準と比較して評価する手段であり、詳細には、以下のとおり動作する。評価部112は、再生部111から上記経過時間を示すデータが供給されている状態(つまり、伴奏データ311が再生されている状態)において、音響処理部22を介して図1に示した収音部23からオーディオ信号が供給されることで動作する。まず、評価部112は、操作部21から供給された操作データが示す楽曲のリファレンスデータ312を楽曲データベース310から読み出す。次に、評価部112は、再生部111から上記経過時間を示すデータが供給された時刻に供給されたオーディオ信号が表す歌唱音声の音高と、リファレンスデータ312が示す基準(構成音の音高)のうちこの経過時間を含む評価期間に対応付けられたものとを比較し、その差の値を例えばセント値で算出する。評価部112は、この差の値を、経過時間を示すデータが再生部111から供給される度(数msec毎)に算出する。そして、評価部112は、評価期間に算出された差の値を合計したものを評価値として算出し、その値が第1閾値よりも大きい場合に、評価点の基礎となる点数から減じる(減点する)。評価部112は、伴奏データ311の再生が終了するまで評価値の算出を行い、その結果の点数を最終的な評価点として算出する。このように、評価点は、評価値の値が大きいほど、すなわち、音高が基準から離れるほど、また、減点される評価期間が多いほど、すなわち、音高が基準から離れる回数が多いほど、低くなる。なお、第1閾値は、歌唱音声と構成音の音声との音高のずれを許容する程度を示す値であり、例えば、歌唱を厳しく評価する場合に小さくし、優しく評価する場合に大きくすれば良い。   The evaluation unit 112 is a means for evaluating the singing voice of the singer by comparing with the reference indicated by the reference data 312, and operates in detail as follows. The evaluation unit 112 collects the sound shown in FIG. 1 via the sound processing unit 22 in a state where the data indicating the elapsed time is supplied from the reproduction unit 111 (that is, the accompaniment data 311 is reproduced). The audio signal is supplied from the unit 23 to operate. First, the evaluation unit 112 reads the reference data 312 of the music indicated by the operation data supplied from the operation unit 21 from the music database 310. Next, the evaluation unit 112 determines the pitch of the singing voice represented by the audio signal supplied at the time when the data indicating the elapsed time is supplied from the reproduction unit 111, and the reference (pitch of the constituent sound) indicated by the reference data 312. ) And the one associated with the evaluation period including this elapsed time, and the difference value is calculated, for example, as a cent value. The evaluation unit 112 calculates the difference value every time data indicating elapsed time is supplied from the reproduction unit 111 (every several msec). Then, the evaluation unit 112 calculates the sum of the difference values calculated during the evaluation period as an evaluation value, and subtracts it from the score that is the basis of the evaluation score when the value is larger than the first threshold (deduction point) To do). The evaluation unit 112 calculates an evaluation value until the reproduction of the accompaniment data 311 is completed, and calculates the score of the result as a final evaluation point. As described above, the evaluation score is larger as the value of the evaluation value is larger, that is, as the pitch is separated from the reference, and as the evaluation period is deducted, that is, as the number of times the pitch is separated from the reference is larger, Lower. Note that the first threshold is a value indicating the degree to which the pitch difference between the singing voice and the constituent voices is allowed. For example, if the singing is evaluated strictly, the first threshold is reduced, and if the singing is evaluated gently, it is increased. good.

また、評価部112は、評価値が第1閾値以下の歌唱音声を「良い」と評価し、第1閾値より大きく第2閾値以下の歌唱音声を「普通」と評価し、第2閾値より大きい歌唱音声を「悪い」と評価する。この第2閾値は、減点が大きく評価が悪かったところ、すなわち、歌唱者が“苦手なところ”を判定するための値である。第2閾値も、第1閾値同様、歌唱を厳しく評価する場合に小さくし、優しく評価する場合に大きくすれば良い。評価部112は、画像生成部114に対して、評価期間が終了する度にこれらの評価結果(「良い」、「普通」、「悪い」)を示すデータを供給し、最後の基準に対する評価値を算出したときにこの評価値まで含めて算出した評価点を供給する。また、評価部112は、評価結果が「悪い」である場合は、この評価において比較された基準を示すデータと共に特定部113に供給する。   The evaluation unit 112 evaluates a singing voice having an evaluation value equal to or lower than the first threshold as “good”, evaluates a singing voice higher than the first threshold and lower than the second threshold as “normal”, and is higher than the second threshold. Evaluate singing voice as “bad”. The second threshold value is a value for determining a place where the deduction is large and the evaluation is bad, that is, a place where the singer is not good. Similarly to the first threshold value, the second threshold value may be reduced when singing is evaluated strictly, and may be increased when evaluated gently. The evaluation unit 112 supplies the image generation unit 114 with data indicating these evaluation results (“good”, “normal”, “bad”) every time the evaluation period ends, and the evaluation value for the last criterion An evaluation score calculated by including up to this evaluation value is calculated. In addition, when the evaluation result is “bad”, the evaluation unit 112 supplies the data to the specifying unit 113 together with data indicating the criteria compared in this evaluation.

特定部113は、リファレンスデータ312により示される基準に対応づけられた期間のうち、評価部112により供給されたデータが示す基準と音高が共通する基準に対応づけられた期間を特定し、特定した期間を示すデータ(例えば、評価期間が開始する時間及び終了する時間を示すデータ)を画像生成部114に供給する。
画像生成部114は、操作部21から楽曲を示す操作データが供給されると、その楽曲の伴奏データに応じたキャラクターの画像データをキャラクターデータベース320から読み出す。そして、画像生成部114は、読み出した画像を編集又は合成等した画像データを生成して表示制御部115に供給する。この読み出した画像データは、例えば、サビでは盛り上がりを表す表情となり、ビブラートさせたいところではビブラートする歌い方を喚起する表情となるキャラクターの画像を示す画像データである。これらの画像は、伴奏データの再生中に表情が変化するが、その変化の仕方は一定であり、伴奏データが同じであれば、毎回同じように表情が変化する。このキャラクターの画像を示す画像データは、本発明に係る「第1画像データ」の一例に相当する。画像生成部114は、評価部112及び特定部113からデータが供給されない間は、上記のとおり動作する。
The identifying unit 113 identifies and identifies a period associated with a reference that has the same pitch as the reference indicated by the data supplied by the evaluation unit 112 among the periods associated with the reference indicated by the reference data 312. Data indicating the determined period (for example, data indicating the start time and end time of the evaluation period) is supplied to the image generation unit 114.
When the operation data indicating the music is supplied from the operation unit 21, the image generation unit 114 reads the character image data corresponding to the accompaniment data of the music from the character database 320. The image generation unit 114 generates image data obtained by editing or synthesizing the read image and supplies the image data to the display control unit 115. The read image data is, for example, image data indicating an image of a character that becomes a facial expression that expresses excitement in rust and an expression that evokes a vibrato singing method when it is desired to vibrato. In these images, the expression changes during the reproduction of the accompaniment data, but the manner of the change is constant. If the accompaniment data is the same, the expression changes in the same way every time. The image data indicating the character image corresponds to an example of “first image data” according to the present invention. The image generation unit 114 operates as described above while data is not supplied from the evaluation unit 112 and the specifying unit 113.

一方、画像生成部114は、評価部112から評価結果を示すデータが供給された場合、この評価結果に応じた表情のキャラクターを表す画像の画像データをキャラクターデータベース320から読み出す。また、画像生成部114は、特定部113から評価期間を示すデータが供給された場合、この評価期間に応じた表情のキャラクターを表す図1に示したキャラクター画像データ321をキャラクターデータベース320から読み出す。そして、それぞれの場合において、画像生成部114は、これらのキャラクターの画像を編集又は合成等した画像データを生成して表示制御部115に供給する。これらの場合に生成される画像データは、いずれの場合も、評価部112により歌唱が評価された結果に応じた表情のキャラクターの画像を示すものであり、本発明に係る「第2画像データ」の一例に相当する。これらの場合、画像生成部114は、生成した画像データを、上述した伴奏データに応じたキャラクターの画像データに代えて表示制御部115に供給する。表示制御部115は、立体画像表示部25の動作を制御して、画像生成部114から供給された画像データが表す画像を、再生部111から供給されるデータが示す経過時間に合わせて上述したディスプレイに表示させる。   On the other hand, when data indicating an evaluation result is supplied from the evaluation unit 112, the image generation unit 114 reads out image data of an image representing a facial expression character corresponding to the evaluation result from the character database 320. Further, when the data indicating the evaluation period is supplied from the specifying unit 113, the image generation unit 114 reads the character image data 321 shown in FIG. 1 representing the character of the facial expression corresponding to the evaluation period from the character database 320. In each case, the image generation unit 114 generates image data obtained by editing or synthesizing these character images and supplies the image data to the display control unit 115. In any case, the image data generated in these cases indicates an image of a character with a facial expression corresponding to the result of evaluation of the singing by the evaluation unit 112, and “second image data” according to the present invention. It corresponds to an example. In these cases, the image generation unit 114 supplies the generated image data to the display control unit 115 instead of the character image data corresponding to the accompaniment data described above. The display control unit 115 controls the operation of the stereoscopic image display unit 25, and the image represented by the image data supplied from the image generation unit 114 is described above according to the elapsed time indicated by the data supplied from the reproduction unit 111. Display on the display.

以上の各部の動作により表示される画像について、図3、図4、図5を参照して詳細に説明する。これらの各図は、カラオケ装置1においてディスプレイに表示される画像の一例を示す図である。また、図3、図4では、時間が経過したときにそれぞれディスプレイに表示される画像を(a)、(b)、(c)の順番に示している。
図3は、歌唱を評価した結果に応じたキャラクターが表示されている画像の一例を示す図である。これらの画像には、歌詞Aと、基準画像Bと、歌唱結果線C(C1、C2、C3)と、キャラクターD(D1、D2、D3)とが表示されている。歌詞Aは、図1に示した歌詞データ313が示す歌詞が表示されている。
歌詞Aは、図1に示した伴奏データ311が再生されている部分に対応する部分が白抜きの文字から黒い文字に画像が変化することで、現在歌唱者が歌唱するべき位置が分かるように表示されている。
基準画像Bは、上述した歌唱音声の基準を示す画像であり、詳細には、各構成音の音高とその評価期間を表す棒状の画像である。基準画像Bは、五線譜に重ねて表示されており、この五線譜は、各線に沿った矢印R1が示す方向に時刻が規定されている。基準画像Bは、この五線譜のどこに表示されているかによって音高を表し、矢印R1に沿った方向の長さによって評価時間を表す。基準画像Bは、図1に示したリファレンスデータ312が示す音高とこれに対応付けられた評価期間とに基づき表示される。
The images displayed by the operations of the above units will be described in detail with reference to FIGS. Each of these drawings is a diagram illustrating an example of an image displayed on the display in the karaoke apparatus 1. In FIGS. 3 and 4, images displayed on the display when time elapses are shown in the order of (a), (b), and (c).
FIG. 3 is a diagram illustrating an example of an image in which a character corresponding to a result of evaluating a song is displayed. In these images, lyrics A, reference image B, singing result line C (C1, C2, C3), and character D (D1, D2, D3) are displayed. As the lyrics A, the lyrics indicated by the lyrics data 313 shown in FIG. 1 are displayed.
In the lyrics A, the portion corresponding to the portion where the accompaniment data 311 shown in FIG. 1 is reproduced is changed from a white character to a black character, so that the position where the singer should sing now can be understood. It is displayed.
The reference image B is an image indicating the reference of the singing voice described above, and in detail, is a bar-shaped image representing the pitch of each constituent sound and its evaluation period. The reference image B is displayed so as to be superimposed on the staff, and the time is defined in the direction indicated by the arrow R1 along each line. The reference image B represents the pitch according to where it is displayed on the staff and represents the evaluation time according to the length in the direction along the arrow R1. The reference image B is displayed based on the pitch indicated by the reference data 312 shown in FIG. 1 and the evaluation period associated therewith.

歌唱結果線Cは、歌唱音声の音高の軌跡を示す線が、基準画像Bと共に表示された五線譜に重ねて示されたものであり、以下の図において、二点鎖線で示されている。詳細には、歌唱結果線Cは、図1に示した収音部23から出力されたオーディオ信号により表される音声の音高と、それが供給されたときの時刻とが上記五線譜において示す点を順番に結んだ線である。
キャラクターDは、歌唱の音声が評価された結果に応じて表示される画像である。図3(a)では、歌唱結果線C1のうち、評価期間X1に示される部分が「普通」と評価された結果、「普通」という感情を表した表情のキャラクターD1が表示されている。図3(b)では、歌唱結果線C2のうち、評価期間X2に示される部分が「悪い」と評価された結果、「悪い」という感情を表した表情のキャラクターD2が表示されている。図3(c)では、歌唱結果線C3のうち、評価期間X3に示される部分が「良い」と評価された結果、「良い」という感情を表した表情のキャラクターD3が表示されている。これらキャラクターDの画像は、各評価期間が経過し、評価結果を示すデータが図1に示した評価部112から画像生成部114に供給されることで表示される。
The singing result line C is a line showing the pitch trajectory of the singing voice superimposed on the staff score displayed together with the reference image B, and is indicated by a two-dot chain line in the following figures. Specifically, the singing result line C is a point that the pitch of the voice represented by the audio signal output from the sound collection unit 23 shown in FIG. It is the line which connected in order.
The character D is an image displayed according to the result of evaluating the voice of the song. In FIG. 3A, the character D1 having a facial expression expressing the feeling of “normal” is displayed as a result of evaluating the portion indicated by the evaluation period X1 in the singing result line C1 as “normal”. In FIG. 3B, as a result of evaluating the portion indicated in the evaluation period X2 of the singing result line C2 as “bad”, a character D2 having a facial expression expressing an emotion of “bad” is displayed. In FIG. 3C, as a result of evaluating the portion indicated in the evaluation period X3 in the singing result line C3 as “good”, a character D3 having a facial expression expressing the feeling of “good” is displayed. The images of the character D are displayed when each evaluation period elapses and data indicating the evaluation result is supplied from the evaluation unit 112 shown in FIG. 1 to the image generation unit 114.

図4は、特定部113により特定された評価期間に応じた表情のキャラクターが表示されている画像の一例を示す図である。図4では、図3と異なる点を中心に説明する。図4では、キャラクターE(E1、E2、E3)は、上述した「苦手なところ」を伝えるための表情をしている。この例では、図3(b)において「悪い」と評価された評価期間X2における基準(音高がG)と音高が共通する基準の評価期間が、時刻t3から始まる評価期間Y1である。図4(a)、(b)は、時刻t3よりも、時間T1前の時点又は時間T2前の時点に表示されている画像をそれぞれ示し、図4(c)は、時刻t3に表示されている画像を示している。   FIG. 4 is a diagram illustrating an example of an image in which a character with a facial expression corresponding to the evaluation period specified by the specifying unit 113 is displayed. FIG. 4 will be described with a focus on differences from FIG. In FIG. 4, the character E (E1, E2, E3) has an expression to convey the above-mentioned “I am not good”. In this example, the reference evaluation period Y1 starting from time t3 is the reference evaluation period that is common to the reference (pitch is G) in the evaluation period X2 evaluated as “bad” in FIG. 3B. 4 (a) and 4 (b) show images displayed at a time point before time T1 or a time point before time T2 before time t3, respectively, and FIG. 4 (c) is displayed at time t3. The image is shown.

図4(a)に示すキャラクターE1は、「苦手なところ」までもうすぐであることと、そのときにどのように歌唱するべきかを示した画像である。詳細には、キャラクターE1は、左腕E1Lを上げることで、「苦手なところ」が近づいてきたことを示している。また、キャラクターE1は、右腕E1Rを上げることで、その音声を発するときには、声を少し高めに出すと良いことを示している。図4(b)に示すキャラクターE2は、左腕E2Lを矢印R2の方向に少しずつ下げることで、「苦手なところ」が近づいていることを示している。図4(c)に示すキャラクターE3は、左腕E3Lを矢印R3の方向に一気に下げることで、「苦手なところ」に到達したことを示している。以上のとおり、これらのキャラクターEは、「苦手なところ」、すなわち、評価期間Yが開始するタイミングである時刻t3よりも前に表示され、その表情の変化でこのタイミングが近づいていることを示す。これにより、歌唱者は、評価期間Yの開始に合わせて音声を発することが容易になり、カラオケ装置1は、歌唱者が上手に歌うことを補助することができる。   The character E1 shown in FIG. 4A is an image that shows that it is close to “I am not good” and how to sing at that time. More specifically, the character E1 indicates that “I am not good” is approaching by raising the left arm E1L. Further, the character E1 indicates that it is better to raise the right arm E1R so that the voice is raised slightly when the voice is emitted. The character E2 shown in FIG. 4B indicates that the “I am not good at hand” is approaching by lowering the left arm E2L little by little in the direction of the arrow R2. The character E3 shown in FIG. 4 (c) indicates that he / she has reached “I'm not good” by lowering the left arm E3L all at once in the direction of the arrow R3. As described above, these characters E are displayed “before the time t3, which is the timing when the evaluation period Y starts”, indicating that this timing is approaching due to the change in facial expression. . Thereby, it becomes easy for a singer to utter a sound in accordance with the start of the evaluation period Y, and the karaoke apparatus 1 can assist the singer to sing well.

図5は、キャラクターの様々な表情を表す画像の例を示す図である。図5(a)は、音高をどのように修正するべきか(修正方法)を歌唱者に伝えるための画像である。キャラクターG(G1、G2)は、右腕の上げ方で音高を上げるか下げるかを伝えており、右腕を上げたキャラクターG1が表示されたときは、「音高を上げる」べきであることを伝え、右腕を下げたキャラクターG2が表示されたときは、「音高を下げる」べきであることを伝えている。なお、手の指を立てる本数で、上げる(又は下げる)べきである音高の程度を表しても良く、例えば、指1本なら半音、指2本なら1音音高を上げる(又は下げる)ことを示しても良い。また、右腕を上げる角度によって、音高の程度を表しても良い。
図5(b)は、音量の修正方法を歌唱者に伝えるための画像である。キャラクターH(H1、H2、H3)は、口の開け方で音量をどうするべきかを伝えている。この例では、口を小さく開けたキャラクターH1が表示されたときは、「音量を小さくする」べきであることを伝え、口を大きく開けたキャラクターH2が表示されたときは、「音量を大きくする」べきであることを伝え、口を閉じたキャラクターH3が表示されたときは、「発声するべきではない」ことを伝えている。
FIG. 5 is a diagram illustrating examples of images representing various facial expressions of a character. FIG. 5A is an image for telling the singer how to correct the pitch (correction method). Character G (G1, G2) tells whether to raise or lower the pitch by raising the right arm, and when the character G1 with the right arm raised is displayed, it should indicate that the pitch should be raised. When the character G2 with the lower right arm is displayed, it is informed that “pitch should be lowered”. Note that the number of fingers raised by the hand may represent the degree of pitch that should be raised (or lowered). For example, one finger increases the semitone, and two fingers increases (or decreases) the pitch. You may show that. Further, the degree of pitch may be expressed by the angle at which the right arm is raised.
FIG. 5B is an image for telling the singer how to correct the volume. Character H (H1, H2, H3) tells you what to do with the volume by opening your mouth. In this example, when the character H1 with a small mouth is displayed, it is notified that “the volume should be reduced”, and when the character H2 with a wide mouth is displayed, “the volume is increased”. When the character H3 with a closed mouth is displayed, it is informed that “You should not speak”.

図5(c)は、音量の修正方法を、立体画像で歌唱者に伝えるための画像である。キャラクターJ(J1、J2、J3)は、画像の飛び出し方で音量をどの程度大きくすべきかを伝えるための画像である。説明の便宜上、各キャラクターJが飛び出して見える程度を、立体でない画像との水平方向のずれK1、K2、K3(K1<K2<K3)を仮想的に示し、このずれが大きいほど飛び出して見えているものとした。この例では、飛び出して見える度合いが最も小さい(K1)キャラクターJ1が表示されたときは、「音量をやや大きくする」べきであることを伝え、飛び出して見える度合いが最も大きい(K3)キャラクターJ3が表示されたときは、「音量をとても大きくする」べきであることを伝え、飛び出して見える度合いがこれらの間(K2)のキャラクターJ2が表示されたときは、「音量を大きくする」べきであることを伝えている。   FIG.5 (c) is an image for conveying the volume correction method to a singer with a three-dimensional image. The character J (J1, J2, J3) is an image for indicating how much the volume should be increased in the way the image is projected. For convenience of explanation, the horizontal shifts K1, K2, and K3 (K1 <K2 <K3) from the non-stereoscopic image are virtually shown to the extent that each character J appears to jump out. It was supposed to be. In this example, when the character J1 with the smallest degree of appearing popping out (K1) is displayed, it is notified that “the volume should be slightly increased”, and the character J3 with the largest degree of appearing popping out (K3) When it is displayed, it tells you that “the volume should be very loud”, and when character J2 is displayed with a degree of popping out (K2) between them, it should be “increase the volume” I tell you.

カラオケ装置1においては、図5に示した表情が伝える様々な内容について、それらを実行すべきタイミングを図4に示した左腕の表情により伝えることで、歌唱者は、自分が苦手とする音声をいつ、どのように発するべきかを知ることができる。このため、歌唱者は、苦手な音声であっても、予めそれを改善するための準備をして発するため、評価を向上させる可能性が高まる。また、カラオケ装置1は、伴奏データ311を再生しているときに、キャラクターを表した画像を表示し、かつ、歌唱を評価した結果に応じてそのキャラクターの表示を変化させて表示する。これにより、カラオケ装置1は、歌唱されるべき基準に対して歌唱音声が沿っている程度に反応するキャラクターを表示することができ、このキャラクターと一緒に歌っているような臨場感を歌唱者に与えることができる。   In the karaoke apparatus 1, the singer can hear the voice that he / she is not good at by telling the timing to execute the various contents conveyed by the facial expression shown in FIG. 5 by the facial expression of the left arm shown in FIG. 4. You can know when and how to emit. For this reason, even if the singer is not good at voice, since the singer makes a preparation for improving it in advance, the possibility of improving the evaluation is increased. Further, the karaoke apparatus 1 displays an image representing a character while reproducing the accompaniment data 311 and changes the display of the character according to the result of evaluating the singing. Thereby, the karaoke apparatus 1 can display the character which reacts to the extent to which the singing voice is along with the reference | standard which should be sung, and a singer is sung with this character. Can be given.

また、カラオケ装置1は、図5(c)に示すとおり、キャラクターの画像を立体的に表示して、その画像が飛び出す程度によって歌唱者に歌い方を伝えることができる。図1に示す立体画像表示部25が有するディスプレイは、画像を表示する面(表示面)に対して、予め定められた領域から見た場合に画像が立体的に見えるものである。例えば、カラオケルームのステージから歌唱者が見るディスプレイは、歌唱者以外の者からは見えない又は見にくい場合が多い。このディスプレイに上述したキャラクターを表示させて、それが飛び出して見える度合いで歌い方を伝えれば、キャラクターから歌い方を伝えられていることが歌唱者以外には分かりにくくすることができる。これにより、歌唱者は、他の者には気づかれにくい方法でキャラクターから歌い方を伝えてもらい、歌唱が高く評価されるように歌い方を改善することができる。   Moreover, as shown in FIG.5 (c), the karaoke apparatus 1 can display the image of a character in three dimensions, and can tell a singer how to sing by the extent to which the image jumps out. The display included in the stereoscopic image display unit 25 illustrated in FIG. 1 is an image that can be viewed stereoscopically when viewed from a predetermined area with respect to a surface (display surface) for displaying an image. For example, a display that a singer sees from the stage of a karaoke room is often invisible or difficult to see by anyone other than the singer. If the character described above is displayed on this display and the way of singing is transmitted to such an extent that it appears to pop out, it can be made difficult for a non-singer to understand that the character is telling how to sing. Thereby, the singer can improve how to sing so that the singing is highly evaluated by having the character convey the way of singing in a way that is difficult for others to notice.

[変形例]
上述した実施形態は、本発明の実施の一例に過ぎず、次のように種々の応用・変形が可能であり、また、必要に応じて組み合わせることも可能である。
[Modification]
The above-described embodiment is merely an example of implementation of the present invention, and various applications and modifications are possible as follows, and can be combined as necessary.

(変形例1)
本発明に係るカラオケ装置は、歌唱者にはキャラクターが立体的に見えるように画像を表示させても良い。例えば、カラオケ装置が表示部に複数のディスプレイを備えている場合に、歌唱者いる位置を検知して、その位置から見ることができるディスプレイにだけキャラクターを表示させても良いし、そのディスプレイだけキャラクターを立体的に表示させても良い。また、カラオケ装置は、ディスプレイをモータ等で回転させ、検知した位置から見ることができるように向きを調整したディスプレイにキャラクターを表示させても良い。
(Modification 1)
The karaoke apparatus according to the present invention may display an image so that a singer can see a character stereoscopically. For example, when the karaoke device has a plurality of displays on the display unit, it is possible to detect the position of the singer and display the character only on the display that can be seen from that position, or the character only on the display May be displayed three-dimensionally. Further, the karaoke apparatus may display the character on a display whose orientation is adjusted so that the display can be viewed from the detected position by rotating the display with a motor or the like.

図6は、本変形例に係るカラオケ装置1aの構成を示す図である。収音部23は、2つのマイクロホン231(231a、231b)を有し、放音部24は、2つのスピーカ241(241a、241b)を有する。立体画像表示部25は、2つのディスプレイ251(251a、251b)を有し、各ディスプレイには、それぞれモータ253(253a、253b)が設けられている。モータ253は、各ディスプレイをそれぞれ回転させる。各ディスプレイは、各モータにより回転させられることで、画像を表示する向きを変えられる。記憶部30aは、ディスプレイデータ330aを記憶する。ディスプレイデータ330aは、各ディスプレイが設置されている位置と、これらが画像を表示する向きとを示すデータである。これらの位置及び向きは、各ディスプレイを設置する際、図1に示す操作部21の操作により入力され、ディスプレイデータ330aとして記憶される。   FIG. 6 is a diagram illustrating a configuration of the karaoke apparatus 1a according to the present modification. The sound collection unit 23 includes two microphones 231 (231a and 231b), and the sound emission unit 24 includes two speakers 241 (241a and 241b). The stereoscopic image display unit 25 includes two displays 251 (251a, 251b), and each display is provided with a motor 253 (253a, 253b). The motor 253 rotates each display. Each display can be rotated by each motor to change the direction in which an image is displayed. The storage unit 30a stores display data 330a. The display data 330a is data indicating the position where each display is installed and the direction in which these images are displayed. These positions and orientations are input by operating the operation unit 21 shown in FIG. 1 when each display is installed, and are stored as display data 330a.

制御部10aは、位置検知部117aと、方向算出部118aと、モータ制御部119aとを有する。位置検知部117aは、歌唱者が歌唱している位置(歌唱位置)を検知する手段である。詳細には、位置検知部117aは、マイクロホン231の位置を測定するための音(測定音)を示すデータを、音響処理部22を介して2つのスピーカ241に出力し、これらのスピーカ241から測定音を放音させる。このとき、位置検知部117aは、スピーカ241が測定音を放音した時刻を取得する。続いて、位置検知部117aは、各マイクロホン231が収音した音を表すオーディオ信号から、測定音が収音された時刻を算出する。位置検知部117aは、測定音が放音されてから収音されるまでの時間から、その測定音を放音したスピーカから収音したマイクロホンまでの距離を算出し、これを2つのスピーカ241について算出することで、マイクロホン231の位置を測定する。位置検知部117aは、測定した各マイクロホンの位置のうち、評価部112により評価されている音声が収集されたマイクロホンの位置を歌唱位置として検知する。位置検知部117aは、検知した歌唱位置を示すデータを、方向算出部118aに供給する。マイクロホン231、スピーカ241及び位置検知部117aが協働することで、歌唱位置を検知する検知手段として機能する。
方向算出部118aは、供給されたデータが示す位置と記憶部30aから読み出したディスプレイデータ330aが示す位置及び向きから、キャラクターを表示するべきディスプレイを判断し、そのディスプレイが画像を表示すべき方向を算出する。方向算出部118aの動作の詳細については、後に示す図7を参照しながら説明する。方向算出部118aは、算出した方向とその方向に画像を表示すべきディスプレイとを示す算出結果データを、画像生成部114a、表示制御部115a及びモータ制御部119aに供給する。
The control unit 10a includes a position detection unit 117a, a direction calculation unit 118a, and a motor control unit 119a. The position detection unit 117a is a means for detecting a position where the singer is singing (singing position). Specifically, the position detection unit 117 a outputs data indicating sound (measurement sound) for measuring the position of the microphone 231 to the two speakers 241 via the acoustic processing unit 22 and measures from these speakers 241. Sound is emitted. At this time, the position detection unit 117a acquires the time when the speaker 241 emits the measurement sound. Subsequently, the position detection unit 117a calculates the time at which the measurement sound is collected from the audio signal representing the sound collected by each microphone 231. The position detection unit 117a calculates the distance from the speaker that emitted the measurement sound to the microphone that collected the sound from the time from when the measurement sound is emitted until the sound is collected, and this is calculated for the two speakers 241. By calculating, the position of the microphone 231 is measured. The position detection unit 117a detects the position of the microphone from which the sound evaluated by the evaluation unit 112 is collected among the measured positions of each microphone as the singing position. The position detection unit 117a supplies data indicating the detected singing position to the direction calculation unit 118a. The microphone 231, the speaker 241, and the position detection unit 117a cooperate to function as a detection unit that detects the singing position.
The direction calculation unit 118a determines the display on which the character is to be displayed from the position indicated by the supplied data and the position and orientation indicated by the display data 330a read from the storage unit 30a, and determines the direction in which the display should display the image. calculate. Details of the operation of the direction calculation unit 118a will be described with reference to FIG. The direction calculation unit 118a supplies calculation result data indicating the calculated direction and a display to display an image in the direction to the image generation unit 114a, the display control unit 115a, and the motor control unit 119a.

画像生成部114aは、上述したキャラクターを表す画像を含む画像データと、この画像を含まない画像データとを生成し、これらの画像データを表示制御部115aに供給する。
表示制御部115aは、画像生成部114aから供給された画像データのうち、キャラクターを表す画像を含む画像データが示す画像を、方向算出部118aから供給された算出結果データが示すディスプレイに対して表示させ、この画像を含まない画像データが示す画像を、このディスプレイ以外のディスプレイに表示させる。
モータ制御部119aは、方向算出部118aから供給された算出結果データが示すディスプレイに設けられたモータ253の動作を制御し、そのディスプレイが算出結果データが示す方向を向くように調整する。表示制御部115a、方向算出部118a及びモータ制御部119aが協働することで、本発明に係る「表示制御手段」として機能する。
The image generation unit 114a generates image data including the image representing the character and the image data not including the image, and supplies the image data to the display control unit 115a.
The display control unit 115a displays the image indicated by the image data including the image representing the character among the image data supplied from the image generation unit 114a on the display indicated by the calculation result data supplied from the direction calculation unit 118a. The image indicated by the image data not including this image is displayed on a display other than this display.
The motor control unit 119a controls the operation of the motor 253 provided in the display indicated by the calculation result data supplied from the direction calculation unit 118a, and adjusts the display to face the direction indicated by the calculation result data. The display control unit 115a, the direction calculation unit 118a, and the motor control unit 119a cooperate to function as a “display control unit” according to the present invention.

図7は、ディスプレイの方向を調整する様子を説明するための図である。図7では、各ディスプレイと、歌唱者を含む利用者M1、M2、M3を鉛直方向上方から見た様子を模式的に示している。ディスプレイ251a、251bは、それぞれ、表示面252a、252bに画像を表示する。図7では、各表示面に表示される画像を立体的に見える第1領域とそれ以外の第2領域との境界を、点線Xa、Xbでそれぞれ示している。つまり、第1領域は、2本の点線Xaに挟まれた領域であり、同じく2本の点線Xbに挟まれた領域である。
図7(a)では、利用者M1が歌唱者であり、マイクロホン231aから音声を入力している。この場合、図6に示した位置検知部117aは、歌唱者が用いているマイクロホン231aの位置を歌唱位置として検知する。そして、図6に示した方向算出部118aは、検知された歌唱位置が点線Xaで示される領域に含まれることから、キャラクターを表示するべきディスプレイをディスプレイ251aと判断し、そのディスプレイが画像を表示すべき方向として、現在向いている方向を算出する。これにより、図6に示した表示制御部115aは、ディスプレイ251aにキャラクターを含む画像を表示させ、ディスプレイ251bにはキャラクターを含まない画像を表示させる。また、図6に示したモータ制御部119aは、算出された向きが現在向いている向きであるため、モータを回転させない。
FIG. 7 is a diagram for explaining how the direction of the display is adjusted. FIG. 7 schematically shows each display and users M1, M2, and M3 including a singer viewed from above in the vertical direction. The displays 251a and 251b display images on the display surfaces 252a and 252b, respectively. In FIG. 7, the boundaries between the first region in which images displayed on the respective display surfaces are viewed stereoscopically and the other second regions are indicated by dotted lines Xa and Xb, respectively. That is, the first region is a region sandwiched between two dotted lines Xa, and is also a region sandwiched between two dotted lines Xb.
In Fig.7 (a), the user M1 is a singer and has input the audio | voice from the microphone 231a. In this case, the position detector 117a shown in FIG. 6 detects the position of the microphone 231a used by the singer as the singing position. Then, since the detected singing position is included in the region indicated by the dotted line Xa, the direction calculation unit 118a illustrated in FIG. 6 determines that the display on which the character is to be displayed is the display 251a, and the display displays an image. As the direction to be calculated, the direction that is currently facing is calculated. Thereby, the display control unit 115a illustrated in FIG. 6 displays an image including a character on the display 251a, and displays an image including no character on the display 251b. In addition, the motor control unit 119a illustrated in FIG. 6 does not rotate the motor because the calculated direction is the current direction.

図7(b)では、図7(a)の状態から歌唱者が利用者M3に変わり、利用者M3がマイクロホン231bから音声を入力している状態を示している。図7(a)の状態では、マイクロホン231bの位置から画像を立体的に見ることができるディスプレイがなかった。この場合、方向算出部118aは、検知された歌唱位置が点線Xa又は点線Xbで示される領域に含まれるように向けた場合の各ディスプレイの方向を算出する。そして、方向算出部118aは、算出した方向を向くことが可能なディスプレイのうち、その方向に向けるため回転させる角度が最も小さいディスプレイ(図7(b)の例では、ディスプレイ251b)を、キャラクターを表示するべきディスプレイとして判断する。続いて、方向算出部118aは、ディスプレイ251bが画像を表示すべき方向を算出する。そして、表示制御部115aは、ディスプレイ251bにキャラクターを含む画像を表示し、モータ制御部119aは、ディスプレイ251bを、図7(b)において二点鎖線で示した状態から実線で示した状態となるまで回転させる。これにより、歌唱者は、自分でディスプレイの向きを変えたり、自分の位置を変えたりしなくとも、ディスプレイに表示されるキャラクターが立体的に見えるようになる。これにより、歌唱者がどの位置で歌っていても、キャラクターの飛び出し具合が他の者からは分かりにくくなり、歌唱者は、他の者に知られることなく、歌唱が高く評価されるように歌い方を改善することができる。   FIG. 7B shows a state where the singer is changed to the user M3 from the state of FIG. 7A and the user M3 is inputting sound from the microphone 231b. In the state shown in FIG. 7A, there is no display capable of stereoscopically viewing an image from the position of the microphone 231b. In this case, the direction calculation unit 118a calculates the direction of each display when the detected singing position is directed to be included in the region indicated by the dotted line Xa or the dotted line Xb. Then, the direction calculation unit 118a selects a display (display 251b in the example of FIG. 7B) having the smallest angle of rotation for directing the calculated direction from among the displays capable of facing the calculated direction. Judge as the display to be displayed. Subsequently, the direction calculation unit 118a calculates a direction in which the display 251b should display an image. Then, the display control unit 115a displays an image including a character on the display 251b, and the motor control unit 119a changes the display 251b from the state indicated by the two-dot chain line in FIG. 7B to the state indicated by the solid line. Rotate until As a result, the singer can see the character displayed on the display in a three-dimensional manner without changing the orientation of the display or changing his position. This makes it difficult for others to understand the character's pop-up, regardless of where the singer is singing, and the singer sings so that the singing is highly appreciated without being known to others. Can be improved.

(変形例2)
本発明に係るカラオケ装置は、歌唱者の画像を撮影し、撮影した画像をキャラクターの画像と合成して表示させても良い。この場合、カラオケ装置は、歌唱者の画像を撮影する撮影手段を備え、撮影手段が撮影した画像と上述した各種画像とを合成した画像データを画像生成部が生成し、この画像データを立体画像表示部が有するディスプレイに出力して表示させれば良い。これにより、カラオケ装置は、キャラクターとデュエットをしているような雰囲気を歌唱者に与えることができ、上記合成した画像データを表示しない場合に比べて、臨場感をより高めることができる。
(Modification 2)
The karaoke apparatus according to the present invention may shoot a singer's image and synthesize the captured image with a character image for display. In this case, the karaoke apparatus includes a photographing unit that photographs a singer's image, and the image generation unit generates image data obtained by combining the image captured by the photographing unit and the various images described above. What is necessary is just to output and display on the display which a display part has. Thereby, the karaoke apparatus can give the singer an atmosphere that makes a duet with the character, and can enhance the sense of reality compared to the case where the synthesized image data is not displayed.

(変形例3)
本発明に係るカラオケ装置は、上述した実施形態で示したキャラクターの表情以外にも、様々な表情で感情等を伝えても良い。例えば、キャラクターに目配せをさせてタイミングを伝えても良いし、上手く歌えたとき(評価が高いとき)に、キャラクターに飛び跳ねさせて歌唱者を盛り上げるようにしても良い。また、基準とは関係なく、例えばビブラートを検出したら表情を変えても良い。また、キャラクターの表情と伝えられる内容とは、歌唱者が対応付けて伝えられる内容を認識することができるものであれば、どのように対応付けられていても良い。例えば、表情とその表情が示す内容を対応付けた表を、予め利用者に提供しておけば良い。これにより、人により表情の受け取り方が異なる場合であっても、伝えるべき感情又は内容を歌唱者に対して伝えることができる。また、この対応を、ユーザが操作部21の操作などで設定できるようにしても良い。なお、キャラクターの表情に加え、背景により感情等を伝えても良く、例えば、評価が高い状態から低い状態になるに連れて、背景の色を青から赤に変化させ、間違いが増えていることを警告するようにしても良い。また、文字を表示しても良いし、音声を発声させても良い。音声を発声させる際は、発音する音に応じて、口の形を変えてキャラクターを表示させても良い。
(Modification 3)
The karaoke apparatus according to the present invention may convey emotions and the like with various facial expressions in addition to the facial expressions of the characters shown in the above-described embodiments. For example, the character may be watched and the timing may be transmitted, or when the character is sung well (when the evaluation is high), the character may jump up and the singer can be excited. Regardless of the reference, the facial expression may be changed if, for example, vibrato is detected. Further, the content transmitted to the character's facial expression may be associated in any way as long as the singer can recognize the content transmitted in association. For example, a table in which facial expressions and contents indicated by the facial expressions are associated may be provided to the user in advance. Thereby, even if it is a case where how to receive a facial expression changes with people, the emotion or content which should be conveyed can be conveyed with respect to a singer. Further, this correspondence may be set by the user by operating the operation unit 21 or the like. In addition to the character's facial expression, emotions etc. may be conveyed by the background, for example, as the evaluation changes from high to low, the background color changes from blue to red, and mistakes increase. May be warned. Moreover, a character may be displayed and an audio | voice may be uttered. When uttering voice, the character may be displayed with the mouth shape changed according to the sound to be generated.

(変形例4)
本発明に係るカラオケ装置は、キャラクターの表情を1つ1つ異なる画像で表すものでなくともよく、例えば、表情を形作るいくつかのパーツを組み合わせることで、数通りのパーツから何十種類もの表情を表すものであっても良いし、パラメータを用いて表情を生成するものであっても良い。これにより、表情の数だけ画像を用意する場合よりも、キャラクター画像データの容量を小さくすることができる。
(Modification 4)
The karaoke apparatus according to the present invention does not have to represent each character's facial expression with different images. For example, by combining several parts that form the facial expression, dozens of different facial expressions can be used. May be used, or a facial expression may be generated using a parameter. As a result, the capacity of the character image data can be reduced as compared with the case of preparing images for the number of facial expressions.

(変形例5)
本発明においては、歌唱音声の様々な特徴を基準として用いて、これを評価しても良い。例えば、基準には、拍の長さ又は音量等の特徴を用いても良いし、「ビブラート」又は「こぶし」等の歌唱技法を特徴としてとらえて用いても良い。
(Modification 5)
In the present invention, this may be evaluated using various characteristics of the singing voice as a reference. For example, features such as beat length or volume may be used as the reference, and singing techniques such as “vibrato” or “fist” may be used as features.

(変形例6)
本発明に係る制御部は、上述した実施形態において説明した方法に限らず、様々な方法で歌唱を評価しても良い。例えば、制御部が算出した評価値が第1閾値以下である場合に2点、第2閾値以下である場合に1点加点し、その合計を評価点とするというように、加点式で評価しても良い。また、評価期間を、構成音が歌唱されるべき期間とは異なる期間としても良く、例えば、1秒や2秒といった一定の時間を評価期間としても良いし、評価期間の長さをユーザが操作部21の操作などにより設定できるようにしても良い。
(Modification 6)
The control part which concerns on this invention may evaluate a song by not only the method demonstrated in embodiment mentioned above but various methods. For example, when the evaluation value calculated by the control unit is less than or equal to the first threshold value, two points are added, and when the evaluation value is less than or equal to the second threshold value, one point is added, and the total is used as an evaluation point. May be. Further, the evaluation period may be a period different from the period in which the constituent sounds are to be sung, for example, a certain time such as 1 second or 2 seconds may be set as the evaluation period, and the length of the evaluation period is operated by the user. The setting may be made by operating the unit 21 or the like.

(変形例7)
本発明に係るカラオケ装置は、上述した実施形態では、評価部112による評価結果に応じた表情のキャラクターを表示し、また、特定部113により特定された評価期間を伝えるための表情のキャラクターをそれぞれ異なる画像で表示させたが、これらは、同時に表示させても良いし、いずれか一方だけを表示させても良い。前者を表示させれば、歌唱者に臨場感を与えやすく、後者を表示させれば、歌唱者が上手に歌うことを補助することができる。
(Modification 7)
In the embodiment described above, the karaoke apparatus according to the present invention displays a facial expression character according to the evaluation result by the evaluation unit 112, and also displays a facial expression character for transmitting the evaluation period specified by the specifying unit 113. Although different images are displayed, these may be displayed simultaneously or only one of them may be displayed. If the former is displayed, it is easy to give a sense of reality to the singer, and if the latter is displayed, it is possible to assist the singer in singing well.

(変形例8)
本発明において、特定部113により特定された評価期間に、過去に歌唱したときよりも上手に歌うことができたら、評価点を高くするように加点しても良い。詳細には、評価部112は、評価期間が特定部113により特定されたものであり、かつ、音高が共通する基準のうち、1回前の基準に対する評価値よりも評価値が小さくなった場合、評価点に1点加点する。なお、この際、過去の複数回の評価値の平均値よりも小さくなった場合に加点しても良いし、加点する代わりに減点する点数を減らしても良い。
(Modification 8)
In the present invention, during the evaluation period specified by the specifying unit 113, if the user can sing better than when singing in the past, the evaluation point may be increased. Specifically, in the evaluation unit 112, the evaluation period is specified by the specifying unit 113, and the evaluation value is smaller than the evaluation value with respect to the previous standard among the standards having the same pitch. In this case, one point is added to the evaluation score. At this time, points may be added when the evaluation value becomes smaller than the average value of a plurality of past evaluation values, or the points to be deducted may be reduced instead of adding points.

(変形例9)
本発明に係るカラオケ装置は、上述した実施形態においては、立体画像を表示する手段(立体画像表示部)を備えていたが、2次元の画像を表示する手段を備えていても良い。この場合、画像生成部は、図5(c)に示すような立体的に飛び出して見える画像を、遠近法を用いて2次元の画像で生成すれば良い。また、飛び出して見える画像は表示せずに、図4、図5(a)、(b)に示すような平面的に表現されたキャラクターの画像を表示させても良い。この場合でも、カラオケ装置は、歌唱されるべき基準に対して歌唱音声が沿っている程度に反応するキャラクターを表示することができる。
(Modification 9)
The karaoke apparatus according to the present invention includes means for displaying a stereoscopic image (stereoscopic image display unit) in the above-described embodiment, but may include means for displaying a two-dimensional image. In this case, the image generation unit may generate an image that appears three-dimensionally as shown in FIG. 5C as a two-dimensional image using a perspective method. Further, instead of displaying an image that appears to pop out, an image of a character expressed in a plane as shown in FIGS. 4, 5A, and 5B may be displayed. Even in this case, the karaoke apparatus can display a character that reacts to the extent that the singing voice is in line with the reference to be sung.

(変形例10)
本発明に係るカラオケ装置は、上述した実施形態においては、表示制御部及び立体画像表示部を備えたが、これらの各部は、外部の装置に備えられていても良い。この場合、画像生成部は、例えばネットワークを介して、この外部の装置に備えられた表示制御部に画像データを出力すればよい。
(Modification 10)
The karaoke apparatus according to the present invention includes the display control unit and the stereoscopic image display unit in the above-described embodiment, but these units may be included in an external device. In this case, the image generation unit may output image data to a display control unit provided in the external device via a network, for example.

(変形例11)
本発明に係るカラオケ装置は、キャラクターの表情に加え、背景によって感情又は伝えたい情報等を表しても良い。この場合、記憶部にキャラクターの背景として表示させるための画像データである背景データを記憶させれば良い。ここでいう背景には、背後の景色を表したいわゆる背景に加え、上記キャラクターの表情と同様に、キャラクターの感情又は伝えたい情報等を色、形又は文字等で表したものが含まれる。
(Modification 11)
The karaoke apparatus according to the present invention may represent emotions or information to be conveyed depending on the background in addition to the facial expression of the character. In this case, background data, which is image data to be displayed as a character background, may be stored in the storage unit. The background referred to here includes, in addition to the so-called background representing the background behind the scene, the same as the character's facial expression, representing the character's emotion or information to be conveyed in color, shape, or character.

(変形例12)
本発明に係るカラオケ装置は、歌唱者が歌唱すべき時刻又は歌唱すべき位置を、伴奏音に限らず、画像等で表しても良い。例えば、上述した実施形態においては、図3に示したように、歌詞Aの色を変化させて色が変化する境目を現在歌唱すべき位置として表しているので、歌唱者は、伴奏音がなくとも歌唱すべき位置を知ることができる。また、これに限らず、図3に示した五線譜に、現在再生されているところを示すマークを表示させ、矢印R1の方向に移動させて歌唱すべき位置を知らせても良い。上述した実施形態に係る「伴奏データ311」、「歌詞データ313」及び本変形例に係るマークを表示させるデータは、いずれも、再生されると楽曲の歌唱すべき位置を表すデータであり、本発明に係る「位置表示データ」の一例に相当する。
(Modification 12)
In the karaoke apparatus according to the present invention, the time at which the singer should sing or the position at which the singer should sing may be represented not only by the accompaniment sound but also by an image or the like. For example, in the above-described embodiment, as shown in FIG. 3, the boundary where the color changes by changing the color of the lyrics A is represented as the position where the singer should sing now. Both can know where to sing. Further, the present invention is not limited to this, and a mark indicating the currently played position may be displayed on the staff shown in FIG. 3 and moved in the direction of the arrow R1 to notify the position to be sung. The “accompaniment data 311” and “lyric data 313” according to the embodiment described above and the data for displaying the mark according to this modification are all data representing the position at which the music should be sung when reproduced. This corresponds to an example of “position display data” according to the invention.

(変形例13)
画像生成部114は、上述した実施形態において、生成した画像データ(第2画像データ)を伴奏データに応じたキャラクターの画像データ(第1画像データ)に代えて表示制御部115に供給したが、これに限らず、これらの画像データを共に表示制御部115に供給してもよい。例えば、画像生成部114は、第2画像データとして、第1画像データが示すキャラクターの表情を、上述した評価結果又は特定部113により特定された評価期間に応じた表情で表した画像を示すデータを生成し、表示制御部115は、第1画像データが示す画像に第2画像データが示す画像を重ねて(オーバーレイさせて)表示させれば良い。この場合であっても、カラオケ装置1は、歌唱されるべき基準に対して歌唱音声が沿っている程度に反応するキャラクターを表示することができる。
(Modification 13)
In the above-described embodiment, the image generation unit 114 supplies the generated image data (second image data) to the display control unit 115 instead of the character image data (first image data) corresponding to the accompaniment data. Not only this but these image data may be supplied to the display control part 115 together. For example, the image generation unit 114 represents, as the second image data, data representing an image representing the facial expression of the character indicated by the first image data with the above-described evaluation result or the facial expression corresponding to the evaluation period specified by the specifying unit 113. The display control unit 115 may display the image indicated by the second image data on the image indicated by the first image data so as to overlap (overlay) the image. Even in this case, the karaoke apparatus 1 can display a character that reacts to the extent that the singing voice is along the reference to be sung.

(変形例14)
本発明は、コンピュータを本発明に係る評価装置として機能させるためのプログラムとしても特定され得るものである。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることも可能である。
(Modification 14)
The present invention can also be specified as a program for causing a computer to function as the evaluation apparatus according to the present invention. Such a program may be provided in a form recorded on a recording medium such as an optical disk, or may be provided in a form such that the program is downloaded to a computer via a network such as the Internet, and the program can be installed and used. Is possible.

1…カラオケ装置、10、10a…制御部、21…操作部、22…音響処理部、23…収音部、24…放音部、25…立体画像表示部、30…記憶部、111…再生部、112…評価部、113…特定部、114…画像生成部、115、115a…表示制御部、117a…位置検知部、118a…方向算出部、119a…モータ制御部、231…マイクロホン、251…ディスプレイ、252…表示面、253…モータ、310…楽曲データベース、311…伴奏データ、312…リファレンスデータ、313…歌詞データ、320…キャラクターデータベース、321…キャラクター画像データ、330…ディスプレイデータ DESCRIPTION OF SYMBOLS 1 ... Karaoke apparatus 10, 10a ... Control part, 21 ... Operation part, 22 ... Sound processing part, 23 ... Sound collection part, 24 ... Sound emission part, 25 ... Three-dimensional image display part, 30 ... Memory | storage part, 111 ... Playback , 112 ... evaluation unit, 113 ... identification unit, 114 ... image generation unit, 115, 115a ... display control unit, 117a ... position detection unit, 118a ... direction calculation unit, 119a ... motor control unit, 231 ... microphone, 251 ... Display, 252 ... display surface, 253 ... motor, 310 ... music database, 311 ... accompaniment data, 312 ... reference data, 313 ... lyrics data, 320 ... character database, 321 ... character image data, 330 ... display data

Claims (4)

再生されると楽曲の歌唱すべき位置を表す位置表示データと、歌唱音声を評価する基準を示すリファレンスデータとを記憶する記憶手段と、
前記記憶手段から前記位置表示データを読み出して再生する再生手段と、
前記再生手段が前記位置表示データを再生しているときに収音手段から供給されたオーディオ信号が表す歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該歌唱音声を評価する評価手段と、
前記再生手段が前記位置表示データを再生している間、キャラクターの画像を示す第1画像データを出力し、前記評価手段により前記歌唱音声が評価された場合、前記キャラクターの表情を当該歌唱音声が評価された結果に応じた表情で表した画像を示す第2画像データを出力する出力手段であって、前記オーディオ信号が表す歌唱音声から特定の歌唱技法が検出された場合には当該表情を変化させた画像を示すデータを前記第2画像データとして出力する出力手段
を備えることを特徴とする評価装置。
Storage means for storing position display data representing a position at which the song should be sung when played and reference data indicating a reference for evaluating the singing voice;
Reproduction means for reading out and reproducing the position display data from the storage means;
The singing voice is compared by comparing the singing voice represented by the audio signal supplied from the sound collecting means when the reproducing means is reproducing the position display data with the reference indicated by the reference data read from the storage means. An evaluation means for evaluating
While the reproduction means reproduces the position display data, the first image data indicating the character image is output, and when the singing voice is evaluated by the evaluation means, the expression of the character is represented by the singing voice. Output means for outputting second image data indicating an image represented by a facial expression according to the evaluated result, and changing the facial expression when a specific singing technique is detected from the singing voice represented by the audio signal And an output means for outputting the data indicating the processed image as the second image data .
前記評価手段は、前記オーディオ信号が表す第1の前記歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該第1の歌唱音声を評価点によって評価し、当該基準と過去に比較された第2の歌唱音声の評価点よりも前記第1の歌唱音声の評価点が高ければ当該第1の歌唱音声の評価点に加点するThe evaluation means compares the first singing voice represented by the audio signal with a reference indicated by the reference data read from the storage means, and evaluates the first singing voice by an evaluation point, and the reference If the evaluation score of the first singing voice is higher than the evaluation score of the second singing voice compared to the past, the evaluation score of the first singing voice is added.
ことを特徴とする請求項1に記載の評価装置。The evaluation apparatus according to claim 1, wherein:
再生されると楽曲の歌唱すべき位置を表す位置表示データと、歌唱音声を評価する基準を示すリファレンスデータとを記憶する記憶手段と、Storage means for storing position display data representing a position at which the song should be sung when played and reference data indicating a reference for evaluating the singing voice;
前記記憶手段から前記位置表示データを読み出して再生する再生手段と、Reproduction means for reading out and reproducing the position display data from the storage means;
前記再生手段が前記位置表示データを再生しているときに収音手段から供給されたオーディオ信号が表す第1の歌唱音声と、前記記憶手段から読み出した前記リファレンスデータが示す基準とを比較して当該第1の歌唱音声を評価点によって評価する評価手段であって、当該基準と過去に比較された第2の歌唱音声の評価点よりも前記第1の歌唱音声の評価点が高ければ当該第1の歌唱音声の評価点に加点する評価手段と、The first singing voice represented by the audio signal supplied from the sound collecting means when the reproducing means is reproducing the position display data is compared with the reference indicated by the reference data read from the storage means. An evaluation means for evaluating the first singing voice based on an evaluation point, and if the evaluation point of the first singing voice is higher than the evaluation point of the second singing voice compared with the reference in the past, the first An evaluation means for adding to the evaluation score of one singing voice;
前記再生手段が前記位置表示データを再生している間、キャラクターの画像を示す第1画像データを出力し、前記評価手段により前記第1の歌唱音声が評価された場合、前記キャラクターの表情を当該第1の歌唱音声が評価された結果に応じた表情で表した画像を示す第2画像データを出力する出力手段と、While the reproduction means reproduces the position display data, the first image data indicating the character image is output, and when the first singing voice is evaluated by the evaluation means, the expression of the character is Output means for outputting second image data indicating an image represented by an expression according to a result of evaluation of the first singing voice;
を備えることを特徴とする評価装置。An evaluation apparatus comprising:
前記出力手段は、前記オーディオ信号が表す歌唱音声から特定の歌唱技法が検出された場合には当該表情を変化させた画像を示すデータを前記第2画像データとして出力するWhen the specific singing technique is detected from the singing voice represented by the audio signal, the output means outputs data indicating an image in which the facial expression is changed as the second image data.
ことを特徴とする請求項3に記載の評価装置。The evaluation apparatus according to claim 3.
JP2011056425A 2011-03-15 2011-03-15 Evaluation device Expired - Fee Related JP5803172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011056425A JP5803172B2 (en) 2011-03-15 2011-03-15 Evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011056425A JP5803172B2 (en) 2011-03-15 2011-03-15 Evaluation device

Publications (2)

Publication Number Publication Date
JP2012194241A JP2012194241A (en) 2012-10-11
JP5803172B2 true JP5803172B2 (en) 2015-11-04

Family

ID=47086236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011056425A Expired - Fee Related JP5803172B2 (en) 2011-03-15 2011-03-15 Evaluation device

Country Status (1)

Country Link
JP (1) JP5803172B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5741620B2 (en) * 2013-03-27 2015-07-01 ブラザー工業株式会社 Karaoke device, program
JP2016031395A (en) * 2014-07-28 2016-03-07 ヤマハ株式会社 Reference display device, and program
JP6276673B2 (en) * 2014-09-29 2018-02-07 株式会社エクシング Karaoke device and program
JP6301275B2 (en) * 2015-02-27 2018-03-28 株式会社エクシング Karaoke device and karaoke program
KR101992572B1 (en) * 2018-08-30 2019-09-30 유영재 Audio editing apparatus providing review function and audio review method using the same

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07146687A (en) * 1993-04-02 1995-06-06 J M C:Kk Karaoke (accompaniment to recorded music) production device
JPH09297594A (en) * 1996-03-05 1997-11-18 Sega Enterp Ltd Accompaniment playing device and storage medium
JP3270344B2 (en) * 1996-11-29 2002-04-02 ヤマハ株式会社 Karaoke equipment
JP3482345B2 (en) * 1998-09-24 2003-12-22 ヤマハ株式会社 Karaoke equipment
JP2001042879A (en) * 1999-08-04 2001-02-16 Matsushita Electric Ind Co Ltd Karaoke device
JP4256597B2 (en) * 2001-05-01 2009-04-22 日本放送協会 Stereoscopic image display device
JP4163584B2 (en) * 2003-09-30 2008-10-08 ヤマハ株式会社 Karaoke equipment
JP4170995B2 (en) * 2005-02-07 2008-10-22 株式会社リコー Performance song playback device
JP4748568B2 (en) * 2005-03-18 2011-08-17 株式会社河合楽器製作所 Singing practice system and singing practice system program
JP2007256617A (en) * 2006-03-23 2007-10-04 Yamaha Corp Musical piece practice device and musical piece practice system
JP4891135B2 (en) * 2007-04-17 2012-03-07 ヤマハ株式会社 Evaluation device

Also Published As

Publication number Publication date
JP2012194241A (en) 2012-10-11

Similar Documents

Publication Publication Date Title
JP4655047B2 (en) Voice evaluation device and karaoke device
US9847078B2 (en) Music performance system and method thereof
CN111052223B (en) Playback control method, playback control device, and recording medium
TWI394142B (en) System, method, and apparatus for singing voice synthesis
JP2014217627A (en) Physical action evaluation device, karaoke system, and program
JP2008015195A (en) Musical piece practice support device
JP6699677B2 (en) Information processing method, information processing apparatus, and program
JP6776788B2 (en) Performance control method, performance control device and program
JP5803172B2 (en) Evaluation device
JP2016057337A (en) Point rating device and point rating method
JP2008026622A (en) Evaluation apparatus
JP2008139426A (en) Data structure of data for evaluation, karaoke machine, and recording medium
JP2007310204A (en) Musical piece practice support device, control method, and program
JP4748568B2 (en) Singing practice system and singing practice system program
JP2008286946A (en) Data reproduction device, data reproduction method, and program
JP2007264569A (en) Retrieval device, control method, and program
JP6070652B2 (en) Reference display device and program
JPWO2015008756A1 (en) Projection device, control device, control program, and projection control method
JP2009169103A (en) Practice support device
JP4839967B2 (en) Instruction device and program
JP2014035436A (en) Voice processing device
JP5486941B2 (en) A karaoke device that makes you feel like singing to the audience
JP2007304489A (en) Musical piece practice supporting device, control method, and program
JP2006217183A (en) Data processor and program for generating multimedia data
JP2021140065A (en) Processing system, sound system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150817

R151 Written notification of patent or utility model registration

Ref document number: 5803172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees