JP2008020798A - Apparatus for teaching singing - Google Patents

Apparatus for teaching singing Download PDF

Info

Publication number
JP2008020798A
JP2008020798A JP2006194068A JP2006194068A JP2008020798A JP 2008020798 A JP2008020798 A JP 2008020798A JP 2006194068 A JP2006194068 A JP 2006194068A JP 2006194068 A JP2006194068 A JP 2006194068A JP 2008020798 A JP2008020798 A JP 2008020798A
Authority
JP
Japan
Prior art keywords
sound
singing
accompaniment
data
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006194068A
Other languages
Japanese (ja)
Inventor
Juichi Sato
寿一 佐藤
Akane Noguchi
あかね 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006194068A priority Critical patent/JP2008020798A/en
Publication of JP2008020798A publication Critical patent/JP2008020798A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the operability when a practice person performs practice of singing with an apparatus for teaching singing which evaluates singing. <P>SOLUTION: A controller 11 of a karaoke machine 1 first reproduces a model voice for every singing section, then allows a speaker 17 to release the accompaniment sound expressed with the accompanied data memoried in the accompanied data memory region 121 for every singing section, thereby performing karaoke accompaniment. When the practice person sings in tune with the accompaniment emitted from the speaker 17, the voice of the practice person is picked up, and is stored as practice person voice data into a practice person voice data memory region 125. The controller 11 compares the model voice data and the practice person voice data, evaluates the practice person voice data based on the comparison results for every evaluation section, and displays the evaluation results for every evaluation section in the display section 13. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、歌唱指導装置に関する。   The present invention relates to a singing instruction apparatus.

歌唱を練習するための装置が種々提案されている。例えば、特許文献1に記載されたカラオケ装置は、伴奏音楽の演奏を利用者が中断して、演奏を再開させるポイントを利用者に自由に設定させることによって、利用者が希望する部分だけを的確に演奏することができるようになっている。また、特許文献2に記載のカラオケ装置によれば、フレーズ単位でお手本の再生と評価結果表示を繰り返し、歌唱練習を行うことができるようになっている。
特許第3482355号公報 特許第3588596号公報
Various devices for practicing singing have been proposed. For example, in the karaoke apparatus described in Patent Document 1, the user interrupts the performance of the accompaniment music and allows the user to freely set a point at which the performance is resumed, so that only the portion desired by the user is accurately determined. To be able to perform. Moreover, according to the karaoke apparatus described in Patent Document 2, it is possible to perform singing practice by repeatedly reproducing a model and displaying an evaluation result for each phrase.
Japanese Patent No. 3482355 Japanese Patent No. 3588596

しかしながら、特許文献1に記載の装置は、表示させる歌詞から演奏を再開させるポイントを選択するものであり、表示される歌詞だけではジャンプ先(再開ポイント)が分かりにくいことがある。また、特許文献2に記載の装置は、フレーズ単位で歌唱練習を行うものであるが、練習単位となるフレーズ単位が短すぎる場合がある。一方、フレーズの長さを歌いやすい(練習に適した)長さにとると、歌詞の各文字に対してピッチやタイミング等を評価する場合、評価結果の表示が画面に収まらない場合がある。また、曲の先頭からフレーズ毎に模範演奏と歌唱、評価を進めていくため、特定の部分だけを練習することはできない。
本発明は上述した背景の下になされたものであり、歌唱の評価を行う歌唱指導装置において、練習者が歌唱の練習を行う際の操作性を向上させることを目的とする。
However, the apparatus described in Patent Document 1 selects a point at which a performance is resumed from the displayed lyrics, and the jump destination (resume point) may be difficult to understand only by the displayed lyrics. Moreover, although the apparatus of patent document 2 performs singing practice per phrase, the phrase unit used as a practice unit may be too short. On the other hand, if the length of the phrase is easy to sing (suitable for practice), when evaluating the pitch, timing, etc. for each character of the lyrics, the display of the evaluation result may not fit on the screen. Also, since the model performance, singing, and evaluation are advanced for each phrase from the beginning of the song, it is not possible to practice only specific parts.
The present invention has been made under the above-described background, and an object thereof is to improve the operability when a practitioner practices singing in a singing instruction apparatus that performs singing evaluation.

本発明の好適な態様である歌唱指導装置は、伴奏音を表す伴奏データを予め定められた歌唱区間毎に記憶する伴奏データ記憶手段と、音声を表す第1の音声データを記憶する第1の音声データ記憶手段と、前記伴奏データ記憶手段に記憶された伴奏データの表す伴奏音を、前記歌唱区間毎に放音手段に放音させる制御手段と、収音し、収音した音声を表す第2の音声データを出力する収音手段と、前記第1の音声データ記憶手段に記憶された前記第1の音声データと前記収音手段から出力される第2の音声データとを比較し、該比較結果に基づいて、前記第2の音声データを、前記歌唱区間よりも短い評価区間毎に評価する評価手段と、前記評価手段による評価結果を、前記評価区間毎に報知する評価結果報知手段とを備える。   The singing instruction device according to a preferred aspect of the present invention includes accompaniment data storage means for storing accompaniment data representing an accompaniment sound for each predetermined singing section, and a first sound data representing sound. Voice data storage means; control means for causing the sound emission means to emit the accompaniment sound represented by the accompaniment data stored in the accompaniment data storage means; The sound collection means for outputting the second sound data, the first sound data stored in the first sound data storage means and the second sound data output from the sound collection means, Based on the comparison result, the evaluation means for evaluating the second audio data for each evaluation section shorter than the singing section; and the evaluation result notification means for notifying the evaluation result by the evaluation means for each evaluation section; Is provided.

また、本発明の好適な態様である歌唱指導装置は、伴奏音を表す伴奏データを予め定められた歌唱区間毎に記憶する伴奏データ記憶手段と、歌詞を表す歌詞データを前記歌唱区間毎に記憶する歌詞データ記憶手段と、音声を表す第1の音声データを記憶する第1の音声データ記憶手段と、前記歌詞データ記憶手段に記憶された歌詞の前記歌唱区間毎の一覧を、表示手段に表示させる表示制御手段と、前記表示制御手段により前記表示手段に表示された前記歌唱区間毎の歌詞のうちのいずれかの選択を決定する選択決定手段と、前記選択決定手段により選択が決定された歌詞の歌唱区間に対応する伴奏データを前記伴奏データ記憶手段から読み出し、読み出した伴奏データの表す伴奏音を放音手段に放音させるとともに、放音される伴奏音に対応する歌詞データを前記歌詞データ記憶手段から読み出し、読み出した歌詞データの表す歌詞を、前記歌唱区間よりも短い評価区間毎に前記表示手段に表示させる制御手段とを備える。   Moreover, the singing instruction apparatus according to the preferred embodiment of the present invention stores accompaniment data representing accompaniment sounds for each predetermined singing section, and storing lyrics data representing lyrics for each singing section. Lyric data storage means, first voice data storage means for storing first voice data representing voice, and a list of lyrics stored in the lyrics data storage means for each singing section is displayed on the display means Display control means for selecting, selection determining means for determining the selection of lyrics for each singing section displayed on the display means by the display control means, and lyrics for which selection has been determined by the selection determining means The accompaniment data corresponding to the singing section is read from the accompaniment data storage means, the accompaniment sound represented by the read accompaniment data is emitted by the sound emission means, and the accompaniment sound to be emitted is Reads the lyrics data from the lyrics data storing means for, lyrics represented by the read lyrics data, and a control means for displaying on said display means for a quick evaluation each section than the singing section.

この態様において、収音し、収音した音声を表す第2の音声データを出力する収音手段と、前記第1の音声データ記憶手段に記憶された前記第1の音声データと前記収音手段から出力される第2の音声データとを比較し、該比較結果に基づいて、前記第2の音声データを、前記評価区間毎に評価する評価手段と、前記評価手段による評価結果を、前記評価区間毎に報知する評価結果報知手段とを備えてもよい。   In this aspect, sound collection means for collecting and outputting second sound data representing the collected sound, the first sound data stored in the first sound data storage means, and the sound collection means Is compared with the second audio data output from the evaluation unit, and the evaluation unit evaluates the second audio data for each evaluation section based on the comparison result, and the evaluation result by the evaluation unit is the evaluation result. You may provide the evaluation result alerting | reporting means alert | reported for every area.

また、この態様において、前記表示制御手段により前記表示手段に表示された歌詞のうちのいずれかを選択する選択手段と、前記選択手段により選択された歌詞の歌唱区間に対応する前記第1の音声データを、前記放音手段に放音させる放音制御手段とを備えてもよい。
また、この態様において、前記収音手段から出力される前記第2の音声データを記憶する第2の音声データ記憶手段と、前記表示制御手段により前記表示手段に表示された歌詞のうちのいずれかを選択する選択手段と、前記選択手段により選択された歌詞の歌唱区間に対応する前記第2の音声データを、前記放音手段に放音させる放音制御手段とを備えてもよい。
また、この態様において、歌唱の指導内容を表す指導データを、前記評価区間毎に記憶する指導データ記憶手段と、前記制御手段により放音される伴奏音に対応する評価区間の指導データを、前記指導データ記憶手段から読み出し、読み出した指導データの表す指導内容を、前記評価区間毎に報知する指導内容報知手段とを備えてもよい。
Further, in this aspect, the selection means for selecting any of the lyrics displayed on the display means by the display control means, and the first voice corresponding to the singing section of the lyrics selected by the selection means Sound emission control means for causing the sound emission means to emit data may be provided.
Further, in this aspect, any one of the second voice data storage means for storing the second voice data output from the sound pickup means and the lyrics displayed on the display means by the display control means And a sound emission control means for causing the sound emission means to emit the second sound data corresponding to the singing section of the lyrics selected by the selection means.
Further, in this aspect, instruction data storage means for storing instruction data representing the instruction content of the singing for each evaluation section, and instruction data of the evaluation section corresponding to the accompaniment sound emitted by the control means, You may provide the guidance content alerting | reporting means which alert | reports the guidance content which the readout guidance data which read out from the guidance data storage means and the read guidance data represent for every said evaluation area.

また、この態様において、歌唱の指導内容を表す指導データを、前記評価区間毎に記憶する指導データ記憶手段と、前記伴奏データ記憶手段に記憶された伴奏データの表す伴奏音を、前記放音手段に放音させる放音制御手段と、前記放音制御手段により伴奏音が放音されている最中に、操作手段からの操作信号の入力を受け付ける入力受付手段と、前記入力受付手段により前記操作信号の入力を受け付けた場合に、放音されていた伴奏音の評価区間に対応する指導データを前記指導データ記憶手段から読み出し、読み出した指導データの表す指導内容を報知する指導内容報知手段と、前記指導内容報知手段により報知された指導内容に対応する歌唱区間のデータを前記伴奏データ記憶手段から読み出し、読み出した伴奏データの表す伴奏音を放音する第2の放音制御手段とを備えてもよい。   Further, in this aspect, instruction data storage means for storing instruction data representing instruction contents of singing for each evaluation section, and accompaniment sounds represented by accompaniment data stored in the accompaniment data storage means, the sound emission means A sound emission control means for emitting sound, an input reception means for receiving an input of an operation signal from the operation means while the accompaniment sound is being emitted by the sound emission control means, and the operation by the input reception means. When receiving an input of a signal, instruction data corresponding to the evaluation section of the accompaniment sound that was emitted is read from the instruction data storage means, instruction content notification means for notifying the instruction content represented by the read instruction data, The singing section data corresponding to the instruction content notified by the instruction content notification means is read from the accompaniment data storage means, and the accompaniment sound represented by the read accompaniment data is read. A, and a second sound emission control means for sound.

本発明によれば、歌唱の評価を行う歌唱指導装置において、練習者が歌唱の練習を行う際の操作性を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, in the singing instruction | indication apparatus which evaluates a song, the operativity at the time of a practitioner practicing a song can be improved.

以下、図面を参照して、本発明の実施形態について説明する。
<A:構成>
図1は、本実施形態であるカラオケ装置1のハードウェア構成の一例を示すブロック図である。カラオケ装置1は、歌唱の練習者に対して歌唱指導を行う歌唱指導装置として機能する。図において、制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)を備え、ROM又は記憶部12に記憶されているコンピュータプログラムを読み出して実行することにより、カラオケ装置1の各部を制御する。記憶部12は、制御部11によって実行されるプログラムやその実行時に使用されるデータを記憶するための記憶手段であり、例えばハードディスク装置である。表示部13は、液晶表示パネルを備え、制御部11による制御のもとに各種の画像を表示する表示手段である。操作部14は、テンキーや上下キー、演奏開始キー、採点キーなどの各種のキーを備えるリモコンなどの操作手段であり、練習者による操作に応じた操作信号を制御部11に出力する。マイクロフォン15は、収音して、収音した音声を表す音声信号(アナログデータ)を出力する収音手段である。音声処理部16は、マイクロフォン15が出力する音声信号(アナログデータ)をデジタルデータに変換して制御部11に出力する。スピーカ17は、音声処理部16から出力される音声信号に応じた強度で放音する放音手段である。なお、スピーカ17に代えて、耳に装着可能なイヤホンやヘッドフォンを放音手段として用いることもできる。
Embodiments of the present invention will be described below with reference to the drawings.
<A: Configuration>
FIG. 1 is a block diagram illustrating an example of a hardware configuration of a karaoke apparatus 1 according to the present embodiment. The karaoke apparatus 1 functions as a singing instruction apparatus that performs singing instruction for singing practitioners. In the figure, the control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and reads and executes a computer program stored in the ROM or the storage unit 12. Control each part of the karaoke apparatus 1. The storage unit 12 is a storage unit for storing a program executed by the control unit 11 and data used at the time of execution, and is, for example, a hard disk device. The display unit 13 includes a liquid crystal display panel, and is a display unit that displays various images under the control of the control unit 11. The operation unit 14 is an operation unit such as a remote controller including various keys such as a numeric keypad, an up / down key, a performance start key, and a scoring key, and outputs an operation signal corresponding to an operation by a practitioner to the control unit 11. The microphone 15 is sound collection means for collecting sound and outputting a sound signal (analog data) representing the collected sound. The audio processing unit 16 converts an audio signal (analog data) output from the microphone 15 into digital data and outputs the digital data to the control unit 11. The speaker 17 is a sound emitting unit that emits sound with an intensity corresponding to the sound signal output from the sound processing unit 16. Note that, instead of the speaker 17, an earphone or a headphone that can be worn on the ear can be used as the sound emitting means.

記憶部12は、図示のように、伴奏データ記憶領域121と歌詞データ記憶領域122と背景画データ記憶領域123とお手本音声データ記憶領域124と練習者音声データ記憶領域125と指導データ記憶領域126とを備えている。伴奏データ記憶領域121には、MIDI(Musical Instruments Digital Interface)形式などのデータ形式の伴奏データであって、各楽曲の伴奏楽音を構成する伴奏データが予め定められた歌唱区間毎に記憶されている。この伴奏データは、その曲の伴奏を行う各種楽器の音高(ピッチ)を示す情報が楽曲の進行に伴って記されたデータである。歌詞データ記憶領域122には、楽曲の歌詞を示す歌詞データが記憶されている。歌詞データは、カラオケ歌唱の際に歌詞テロップとして表示部13に表示される。背景画データ記憶領域123には、伴奏データと対応する動画像を示す背景画データが記憶されている。   As shown in the figure, the storage unit 12 includes an accompaniment data storage area 121, a lyrics data storage area 122, a background image data storage area 123, a model voice data storage area 124, a trainer voice data storage area 125, and a guidance data storage area 126. It has. In the accompaniment data storage area 121, accompaniment data in a data format such as MIDI (Musical Instruments Digital Interface) format, which constitutes the accompaniment sound of each song, is stored for each predetermined singing section. . The accompaniment data is data in which information indicating the pitches (pitch) of various musical instruments that accompany the music is described as the music progresses. The lyrics data storage area 122 stores lyrics data indicating the lyrics of the music. The lyrics data is displayed on the display unit 13 as a lyrics telop at the time of karaoke singing. The background image data storage area 123 stores background image data indicating a moving image corresponding to the accompaniment data.

歌詞データ記憶領域122に記憶された歌詞データは、図2に示すように、評価区間毎に区分されるとともに、歌唱区間毎に区分されている。評価区間は、歌唱区間よりも短い区間であり、この実施形態においては、複数の評価区間がまとめられて歌唱区間が構成されている。評価区間は、制御部11が評価を行う際の単位として用いられるものであり、歌唱区間は、練習者に歌唱練習を行わせるための単位として用いられるものである。この実施形態においては、歌詞を表示部13の画面に表示しきれる程度に区分したそれぞれの区間を評価区間として用い、一方、練習者が歌唱練習を行いやすい程度の時間区間毎(例えば、フレーズ毎)に区分したそれぞれを歌唱区間として用いる。   As shown in FIG. 2, the lyrics data stored in the lyrics data storage area 122 is divided for each evaluation section and for each singing section. The evaluation section is a section shorter than the singing section, and in this embodiment, a plurality of evaluation sections are collected to form a singing section. The evaluation section is used as a unit when the control unit 11 performs the evaluation, and the singing section is used as a unit for allowing the practitioner to perform the singing practice. In this embodiment, each section divided into such a degree that the lyrics can be displayed on the screen of the display unit 13 is used as an evaluation section, and on the other hand, for each time section (e.g. ) Are used as singing sections.

お手本音声データ記憶領域124には、歌唱のお手本として予め収録されたお手本音声信号を表すお手本音声データ(第1の音声データ)が記憶されている。お手本音声データは、WAVE形式やMP3(MPEG1 Audio Layer-3)形式などのデータ形式である。練習者音声データ記憶領域125には、マイクロフォン15によって収音されて音声処理部16でデジタルデータに変換される音声データ(以下、「練習者音声データ」という)が記憶される。この練習者音声データも、WAVE形式やMP3形式などのデータ形式である。指導データ記憶領域126には、歌唱の指導内容を表す指導データが評価区間毎に記憶されている。   The model voice data storage area 124 stores model voice data (first voice data) representing a model voice signal recorded in advance as a model of singing. The model audio data is a data format such as WAVE format or MP3 (MPEG1 Audio Layer-3) format. The trainer voice data storage area 125 stores voice data (hereinafter referred to as “practitioner voice data”) collected by the microphone 15 and converted into digital data by the voice processing unit 16. This practicer voice data is also in a data format such as WAVE format or MP3 format. In the instruction data storage area 126, instruction data representing instruction contents of singing is stored for each evaluation section.

<B:実施形態の動作>
次に、この実施形態の動作について説明する。まず、練習者は、カラオケ装置1の操作部14を操作して、歌唱したい楽曲を選択する操作を行う。操作部14は操作された内容に応じた操作信号を制御部11へ出力し、制御部11は、操作部14から出力される操作信号に応じて楽曲を選択する。次いで、制御部11は、練習コースの選択を促す画面を表示部13に表示させる。図3は、表示部13に表示される画面の一例を示す図である。図示のように、この画面には、「フレーズ毎練習コース」と「通常カラオケ+部分練習コース」と「ポイント練習コース」とのいずれかのコースを選択するための画面が表示される。「フレーズ毎練習コース」は、フレーズ(歌唱区間)毎にお手本の再生、歌唱、指導画面を繰り返して順にフレーズを練習するコースである。「通常カラオケ+部分練習コース」は、通常のカラオケのとおり歌唱をしていって、指導を受けたい箇所になったら練習者の入力で指導画面を表示するコースである。「ポイント練習コース」は、曲中の任意の箇所にジャンプし、ジャンプした箇所について練習するコースである。
<B: Operation of Embodiment>
Next, the operation of this embodiment will be described. First, the practitioner operates the operation unit 14 of the karaoke apparatus 1 to perform an operation of selecting a song to be sung. The operation unit 14 outputs an operation signal corresponding to the operated content to the control unit 11, and the control unit 11 selects music according to the operation signal output from the operation unit 14. Next, the control unit 11 causes the display unit 13 to display a screen that prompts selection of a practice course. FIG. 3 is a diagram illustrating an example of a screen displayed on the display unit 13. As shown in the drawing, on this screen, a screen for selecting one of the “phrase-by-phrase practice course”, “normal karaoke + partial practice course”, and “point practice course” is displayed. The “Practice Course for Each Phrase” is a course in which phrases are practiced in order by repeating reproduction of a model, singing, and guidance screen for each phrase (singing section). The “normal karaoke + partial practice course” is a course in which singing is performed as in normal karaoke, and a guidance screen is displayed by the input of the practitioner when it becomes a location where guidance is desired. The “point practice course” is a course for jumping to an arbitrary part of a song and practicing the jumped part.

練習者は、表示部13に表示された画面を確認し、操作部14を操作して練習コースを選択する。操作部14は操作された内容に応じた操作信号を制御部11へ出力し、制御部11は、操作部14から出力される操作信号に応じて選択されたコースを判定し、選択されたコースに応じた動作を行う。   The practitioner confirms the screen displayed on the display unit 13 and operates the operation unit 14 to select a practice course. The operation unit 14 outputs an operation signal corresponding to the operated content to the control unit 11, and the control unit 11 determines the course selected according to the operation signal output from the operation unit 14, and the selected course The operation according to is performed.

<B−1:「フレーズ毎練習コース」が選択された場合の動作>
まず、「フレーズ毎練習コース」が選択された場合の処理について、図4に示すフローチャートを参照しつつ説明する。フレーズ単位(歌唱区間単位)で歌詞と指導内容との表示を行うと次のような問題がある。カラオケ画面の解像度は通常あまり高くない(VGA(Video Graphics Array)程度)ので、フレーズが長いと指導画面に入りきらず、一方でフレーズが短いと歌いにくい(歌唱練習を行い難い)。そのため、この実施形態においては、歌唱単位と評価単位を別々にしている。
<B-1: Operation when “Practice Course for Each Phrase” is selected>
First, processing when “Practice Course for Each Phrase” is selected will be described with reference to the flowchart shown in FIG. If the lyrics and instruction content are displayed in phrase units (single section units), there are the following problems. The resolution of the karaoke screen is usually not very high (about VGA (Video Graphics Array)), so if the phrase is long, it will not be possible to enter the instruction screen, while if the phrase is short, it is difficult to sing (it is difficult to practice singing). Therefore, in this embodiment, the singing unit and the evaluation unit are separated.

「フレーズ毎練習コース」が選択されたと判定された場合には、制御部11は、まず、歌唱区間毎のお手本音声を再生する(ステップS1)。このとき、制御部11は、お手本音声にあわせて伴奏音を再生することもできる。次いで、制御部11は、伴奏データ記憶領域121に記憶された伴奏データの表す伴奏音を、予め定められた歌唱区間毎にスピーカ17に放音させることによって、カラオケ伴奏を行う(ステップS2)。すなわち、制御部11は、伴奏データ記憶領域121から伴奏データを読み出して音声処理部16に供給し、音声処理部16は、伴奏データをアナログ信号に変換し、スピーカ17に供給して放音させる。また、制御部11は、歌詞データ記憶領域122から歌詞データを読み出して歌詞テロップを表示部13に表示させる。   When it is determined that the “practice course for each phrase” is selected, the control unit 11 first reproduces a model voice for each singing section (step S1). At this time, the control unit 11 can also reproduce the accompaniment sound in accordance with the model voice. Next, the controller 11 performs karaoke accompaniment by causing the speaker 17 to emit the accompaniment sound represented by the accompaniment data stored in the accompaniment data storage area 121 for each predetermined singing section (step S2). That is, the control unit 11 reads the accompaniment data from the accompaniment data storage area 121 and supplies the accompaniment data to the audio processing unit 16. The audio processing unit 16 converts the accompaniment data into an analog signal and supplies the analog signal to the speaker 17 to emit sound. . Further, the control unit 11 reads out the lyrics data from the lyrics data storage area 122 and causes the display unit 13 to display the lyrics telop.

練習者は、スピーカ17から放音される伴奏にあわせて歌唱を行う。このとき、練習者の音声はマイクロフォン15によって収音されて音声信号に変換され、音声処理部16へと出力される。音声処理部16によってA/D変換された練習者音声データ(第2の音声データ)は、伴奏開始からの経過時間を示す情報と共に、練習者音声データ記憶領域125に時系列に記憶(録音)されていく(ステップS3)。   The practitioner sings along with the accompaniment emitted from the speaker 17. At this time, the voice of the practitioner is picked up by the microphone 15 and converted into a voice signal, which is output to the voice processing unit 16. The trainer speech data (second speech data) A / D converted by the speech processing unit 16 is stored (recorded) in the trainer speech data storage area 125 in time series together with information indicating the elapsed time from the start of accompaniment. (Step S3).

次いで、制御部11は、お手本音声データ記憶領域124に記憶されたお手本音声データと、音声処理部16から出力される練習者音声データとを比較し、該比較結果に基づいて、練習者音声データを、歌唱区間よりも短い評価区間毎に評価する(ステップS4)。   Next, the control unit 11 compares the model voice data stored in the model voice data storage area 124 with the trainer voice data output from the voice processing unit 16, and based on the comparison result, the trainer voice data. Are evaluated for each evaluation section shorter than the singing section (step S4).

ここで、制御部11がステップS4において行う評価処理について、以下に詳細に説明する。制御部11は、お手本音声データと練習者音声データとをそれぞれ所定時間長(例えば、「3msec」)のフレーム単位で、ピッチ、パワー、スペクトルを検出する。スペクトルの検出にはFFT(Fast Fourier Transform)が用いられる。この実施形態においては、お手本音声データ(又は練習者音声データ)のピッチ、パワー、スペクトルを、お手本音声データ(又は練習者音声データ)の「特徴」と呼ぶ。
次いで、制御部11は、お手本音声データと練習者音声データとから検出された両者のスペクトルに基づいて両者の対応関係を求める。お手本音声と練習者音声とは時間的にずれている可能性がある。このようにお手本音声と練習者音声とが時間的に前後にずれている場合であっても、両者を対応付けられるようにするため、練習者音声データの時間軸を伸縮させる時間正規化(DTW:Dynamic Time Warping)を行い、両者の時間軸を合わせる。このDTWを行うための手法としては、この実施形態ではDP(Dynamic Programming:動的計画法)を用いる。
次いで、制御部11は、お手本音声データの特徴と練習者音声データの特徴とを比較し、両者の隔たりの度合いに応じて練習者音声データを評価区間毎に評価する。具体的には、例えば、ピッチ、パワー、スペクトルのそれぞれの特徴について比較を行い、それぞれの隔たりの度合いに応じて、特徴毎に評価(採点)を行ってもよい。
Here, the evaluation process performed by the control unit 11 in step S4 will be described in detail below. The control unit 11 detects the pitch, power, and spectrum of the model voice data and the practice person voice data in units of frames each having a predetermined time length (for example, “3 msec”). FFT (Fast Fourier Transform) is used for spectrum detection. In this embodiment, the pitch, power, and spectrum of the model voice data (or the practicer voice data) are referred to as “features” of the model voice data (or the practicer voice data).
Subsequently, the control part 11 calculates | requires the correspondence of both based on both spectrums detected from model audio | voice data and practitioner audio | voice data. There is a possibility that the model voice and the trainer voice are shifted in time. In this way, even if the model voice and the trainer voice are shifted forward and backward in time, time normalization (DTW) is performed so that the time axis of the trainer voice data is expanded and contracted so that they can be associated with each other. : Dynamic Time Warping) and adjust the time axis of both. As a technique for performing this DTW, DP (Dynamic Programming) is used in this embodiment.
Next, the control unit 11 compares the characteristics of the model voice data with the characteristics of the practitioner voice data, and evaluates the practitioner voice data for each evaluation section according to the degree of separation between the two. Specifically, for example, each feature of pitch, power, and spectrum may be compared, and evaluation (scoring) may be performed for each feature according to the degree of separation.

図4の説明に戻る。制御部11は、ステップS5での評価結果を、評価区間毎に表示部13に表示させることによって、評価結果を報知する(ステップS5)。このとき、制御部11は、その評価区間に対応する指導データを、指導データ記憶領域126から読み出し、読み出した指導データの表す指導内容を、評価区間毎に表示部13に表示することもできる。
なお、評価結果の報知方法は、表示に限らず、評価結果を示す音声メッセージを放音することによって報知してもよく、要するに、評価結果を報知するものであればどのようなものであってもよい。
Returning to the description of FIG. The control part 11 alert | reports an evaluation result by displaying the evaluation result in step S5 on the display part 13 for every evaluation area (step S5). At this time, the control part 11 can also read the instruction | indication data corresponding to the evaluation area from the instruction | indication data storage area 126, and can also display the instruction | indication content which the read instruction | indication data represents on the display part 13 for every evaluation area.
The method of notifying the evaluation result is not limited to display, and may be notified by emitting a voice message indicating the evaluation result. In short, any method may be used as long as the evaluation result is notified. Also good.

図5は、ステップS5において表示部13に表示される画面の一例を示す図である。図示のように、ひとつの評価区間に含まれる歌詞W1が表示され、この評価区間の指導内容を表すコメントC1〜C4、その評価区間において用いるべき歌唱技法を表す図形I10〜I14、この指導区間に対応する評価結果を示す図形H1〜H9(例えば、「×」や「○」)など、その評価区間に対応する歌詞や指導内容、評価結果が表示される。
なお、このとき、制御部11は、上述した歌詞と指導内容との表示にあわせて、図5に示すような、お手本音声のピッチの時間的な変化を示すグラフA1や練習者音声のピッチの時間的な変化を示すグラフA2を表示することもできる。また、図5に示すような、お手本音声のリズムを表す図形A3や練習者音声のリズムを表す図形A4を表示することもできる。また、お手本音声と練習者音声との音量やリズムの違いを比較するために、お手本音声に対応する歌詞W1にあわせて、練習者音声に対応する歌詞W2を表示することもできる。
FIG. 5 is a diagram illustrating an example of a screen displayed on the display unit 13 in step S5. As shown in the figure, the lyrics W1 included in one evaluation section are displayed, comments C1 to C4 representing teaching contents of the evaluation section, figures I10 to I14 representing singing techniques to be used in the evaluation section, The lyrics, instruction contents, and evaluation results corresponding to the evaluation section, such as graphics H1 to H9 (for example, “×” and “◯”) indicating the corresponding evaluation results, are displayed.
At this time, the control unit 11 adjusts the pitch A of the trainer voice and the graph A1 showing the temporal change in the pitch of the model voice as shown in FIG. It is also possible to display a graph A2 showing temporal changes. Further, as shown in FIG. 5, a graphic A3 representing the rhythm of the model voice and a graphic A4 representing the rhythm of the trainee voice can be displayed. Further, in order to compare the difference in volume and rhythm between the model voice and the practice person voice, the lyrics W2 corresponding to the practice person voice can be displayed together with the lyrics W1 corresponding to the model voice.

次いで、制御部11は、次の評価区間があるか否かを判定し(ステップS6)、次の評価区間がある場合には(ステップS6;YES)、ステップS4の処理に戻り、次の評価区間について評価を行い(ステップS4)、図5に例示したような画面を表示部13に表示させることによって評価結果を報知する(ステップS5)。すなわち、制御部11は、ステップS4〜ステップS6の処理を繰り返すことによって、練習者音声データを評価区間毎に評価し、該評価結果を報知する。一方、次の評価区間がない、すなわち歌唱区間の最後まで評価し終えたと判定された場合には(ステップS6;NO)、制御部11は、次の歌唱区間があるか否かを判定し(ステップS7)、次の歌唱区間があると判定された場合には(ステップS7;YES)、ステップS1の処理に戻って、歌唱区間のお手本音声を再生する(ステップS1)。ステップS7において、次の歌唱区間がない、すなわち曲の最後まで再生し終えたと判断された場合には(ステップS7;NO)、制御部11は、処理を終了する。   Next, the control unit 11 determines whether or not there is a next evaluation section (step S6). If there is a next evaluation section (step S6; YES), the control unit 11 returns to the process of step S4 and performs the next evaluation. The section is evaluated (step S4), and the evaluation result is notified by displaying the screen illustrated in FIG. 5 on the display unit 13 (step S5). That is, the control unit 11 evaluates the trainer voice data for each evaluation section by repeating the processes of steps S4 to S6, and notifies the evaluation result. On the other hand, when it is determined that there is no next evaluation section, that is, it has been evaluated to the end of the singing section (step S6; NO), the control unit 11 determines whether there is a next singing section ( If it is determined in step S7) that there is a next singing section (step S7; YES), the process returns to step S1 to reproduce the model voice of the singing section (step S1). If it is determined in step S7 that there is no next singing section, that is, it has been played back to the end of the song (step S7; NO), the control unit 11 ends the process.

制御部11が図4に示す処理を行うことによって、「歌唱区間単位でのお手本音声の再生」→「歌唱区間単位での歌唱練習」→「評価区間単位での評価結果表示」・・・が繰り返される。このように、この実施形態では、歌唱練習を行うための歌唱区間単位と評価結果を表示するための評価区間単位とを別々にするから、歌唱練習を行いやすくすることができるとともに、評価結果を表示しやすくすることができる。   When the control unit 11 performs the process shown in FIG. 4, “reproduction of a model voice in a singing section” → “singing practice in a singing section” → “evaluation result display in an evaluation section”. Repeated. Thus, in this embodiment, since the singing section unit for performing the singing practice and the evaluation section unit for displaying the evaluation result are separated, the singing practice can be easily performed, and the evaluation result is obtained. Easy to display.

<B−2:「通常カラオケ+部分練習コース」が選択された場合の動作>
上述した「フレーズ毎練習コース」では、曲のすべての部分に対してお手本音声の再生と歌唱,評価を行う。これに対し、練習者が練習したいのは曲の一部分のみで、他の部分は普通のカラオケのように通して歌唱したいこともある。この「通常カラオケ+部分練習コース」はこのような場合に用いられるものである。
<B-2: Operation when “normal karaoke + partial practice course” is selected>
In the “Practice Course for Each Phrase” described above, reproduction of a model voice, singing, and evaluation are performed for all parts of the song. On the other hand, the practitioner wants to practice only a part of the song, and the other part may want to sing through like ordinary karaoke. This “normal karaoke + partial practice course” is used in such a case.

図6は、「通常カラオケ+部分練習コース」が選択されたと判定された場合に制御部11が行う処理の流れを示すフローチャートである。「通常カラオケ+部分練習コース」が選択されたと判定された場合には、まず、制御部11は、歌詞テロップを表示部13に表示させるとともに、カラオケ伴奏を開始する(ステップS11)。すなわち、制御部11は、伴奏データ記憶領域121から伴奏データを読み出して音声処理部16に供給し、音声処理部16は、伴奏データをアナログ信号に変換し、スピーカ17に供給して放音させる。また、制御部11は、歌詞データ記憶領域122から歌詞データを読み出して歌詞テロップを表示部13に表示させる。
図7は、「通常カラオケ+部分練習コース」が選択された場合に表示部13に表示される画面の一例を示す図である。図示のように、表示部13には、歌詞テロップW3が表示される。
練習者は、スピーカ17から放音される伴奏にあわせて歌唱を行う。このとき、練習者の音声はマイクロフォン15によって収音されて音声信号に変換され、音声処理部16へと出力される。音声処理部16によってA/D変換された練習者音声データは、伴奏開始からの経過時間を示す情報と共に、練習者音声データ記憶領域125に時系列に記憶(録音)されていく(ステップS12)。
FIG. 6 is a flowchart showing a flow of processing performed by the control unit 11 when it is determined that “normal karaoke + partial practice course” is selected. When it is determined that “normal karaoke + partial practice course” has been selected, first, the control unit 11 displays lyrics telop on the display unit 13 and starts karaoke accompaniment (step S11). That is, the control unit 11 reads the accompaniment data from the accompaniment data storage area 121 and supplies the accompaniment data to the audio processing unit 16. The audio processing unit 16 converts the accompaniment data into an analog signal and supplies the analog signal to the speaker 17 to emit sound. . Further, the control unit 11 reads out the lyrics data from the lyrics data storage area 122 and causes the display unit 13 to display the lyrics telop.
FIG. 7 is a diagram illustrating an example of a screen displayed on the display unit 13 when “normal karaoke + partial practice course” is selected. As illustrated, the display unit 13 displays a lyrics telop W3.
The practitioner sings along with the accompaniment emitted from the speaker 17. At this time, the voice of the practitioner is picked up by the microphone 15 and converted into a voice signal, which is output to the voice processing unit 16. The trainer speech data A / D converted by the speech processing unit 16 is stored (recorded) in time series in the trainer speech data storage area 125 together with information indicating the elapsed time from the start of accompaniment (step S12). .

この「通常カラオケ+部分練習コース」においては、制御部11は、図7に示すように、部分練習モードに移行するためのボタンB1を表示部13に表示させる。練習者が操作部14を操作することによってこのボタンB1が選択されると、操作部14は操作内容に応じた信号を制御部11に出力する。制御部11は、操作部14から出力される操作信号に応じて、部分練習モードに移行する。制御部11は、スピーカ17から伴奏音が放音されている最中に、操作部14からの操作信号の入力を受け付ける入力受付手段として機能する。操作信号が入力された、すなわち部分練習モードに移行すると判定された場合には(ステップS13;YES)、制御部11は、放音されていた伴奏音の評価区間に対応する指導データを指導データ記憶領域126から読み出し、読み出した指導データの表す指導内容を、表示部13に表示させることによって報知する(ステップS14)。
なお、指導内容の報知方法は、表示に限らず、指導内容を示す音声メッセージを放音することによって報知してもよく、要するに、指導内容を報知するものであればどのようなものであってもよい。
In this “normal karaoke + partial practice course”, the control unit 11 causes the display unit 13 to display a button B1 for shifting to the partial practice mode, as shown in FIG. When the button B1 is selected by the practitioner operating the operation unit 14, the operation unit 14 outputs a signal corresponding to the operation content to the control unit 11. The control unit 11 shifts to the partial practice mode according to the operation signal output from the operation unit 14. The control unit 11 functions as an input receiving unit that receives an operation signal input from the operation unit 14 while an accompaniment sound is being emitted from the speaker 17. When the operation signal is input, that is, when it is determined to shift to the partial practice mode (step S13; YES), the control unit 11 sets the instruction data corresponding to the evaluation section of the accompaniment sound that has been emitted as instruction data. The instruction contents read from the storage area 126 and indicated by the read instruction data are displayed on the display unit 13 for notification (step S14).
Note that the guidance content notification method is not limited to display, and may be notified by emitting a voice message indicating the guidance content. In short, any method may be used as long as the guidance content is notified. Also good.

図8は、ステップS14において表示される画面の一例を示す図である。図示のように、ひとつの評価区間に含まれる歌詞W4が表示され、この評価区間の指導内容を表すコメントC1,C2、その評価区間において用いるべき歌唱技法を表す図形I1〜I4など、その評価区間に対応する歌詞と指導内容とが表示される。   FIG. 8 is a diagram illustrating an example of a screen displayed in step S14. As shown in the figure, the lyrics W4 included in one evaluation section are displayed, and the evaluation sections such as comments C1 and C2 representing the guidance contents of the evaluation section and figures I1 to I4 representing the singing technique to be used in the evaluation section. The lyrics and instruction contents corresponding to are displayed.

また、制御部11は、表示手段に表示された指導内容に対応する歌唱区間の伴奏音を、スピーカ17から放音させることによって、歌唱区間の伴奏を再生する(ステップS15)。   Moreover, the control part 11 reproduces | regenerates the accompaniment of a song area by emitting the accompaniment sound of the song area corresponding to the instruction | indication content displayed on the display means from the speaker 17 (step S15).

歌唱区間の伴奏の再生を終えると、制御部11は、部分練習モードを終了するか否かを判定する(ステップS16)。この判定は、例えば、部分練習モードを終了する旨の操作を練習者が行ったか否かを、操作部14から出力される操作信号によって判定する。部分練習モードを終了すると判定された場合には(ステップS16;YES)、制御部11は、ステップS11の処理に戻り、カラオケ伴奏を再開する(ステップS11)。一方、部分練習モードを終了しないと判定された場合には(ステップS16;NO)、制御部11は、ステップS14の処理に戻り、部分練習を繰り返す。   When the reproduction of the accompaniment in the singing section is finished, the control unit 11 determines whether or not to end the partial practice mode (step S16). In this determination, for example, whether or not the practitioner has performed an operation to end the partial practice mode is determined by an operation signal output from the operation unit 14. When it determines with complete | finishing partial practice mode (step S16; YES), the control part 11 returns to the process of step S11, and restarts karaoke accompaniment (step S11). On the other hand, when it is determined not to end the partial practice mode (step S16; NO), the control unit 11 returns to the process of step S14 and repeats the partial practice.

また、ステップS13において、部分練習モードに移行しないと判定された場合には(ステップS13;NO)、制御部11は、曲が終了したか否かを判定し(ステップS17)、曲が終了したと判定された場合には(ステップS17;YES)、そのまま処理を終了し、一方、曲が終了していないと判定された場合には(ステップS17;NO)、ステップS11の処理に戻り、カラオケ伴奏を再開する(ステップS11)。   In Step S13, when it is determined that the mode does not shift to the partial practice mode (Step S13; NO), the control unit 11 determines whether or not the song is finished (Step S17), and the song is finished. If it is determined (step S17; YES), the process is terminated as it is. On the other hand, if it is determined that the song is not completed (step S17; NO), the process returns to step S11, and karaoke is performed. Accompaniment is resumed (step S11).

この「通常カラオケ+部分練習コース」コースにおいては、練習者がとくに操作を行わずに歌唱している場合は通常のカラオケと同様に歌唱が続けられるが、練習したい場所やうまく歌えなかった場所などにきたときに、所定のキーを押下するなどの操作がされると、指導画面が表示され、それを見て練習者は再度そのフレーズ(歌唱区間)を練習することができる。その歌唱区間の練習が終わったら、練習者が操作部14を操作することによって、そこからまた通常の歌唱を再開できる。   In this "normal karaoke + partial practice course" course, if the practitioner sings without any particular operation, the singing can be continued in the same way as normal karaoke, but places where you want to practice or where you cannot sing well When an operation such as pressing a predetermined key is performed, the instruction screen is displayed, and the practitioner can practice the phrase (singing section) again by watching it. When the practice of the singing section is finished, the practitioner can resume normal singing again by operating the operation unit 14.

<B−3:「ポイント練習コース」が選択された場合の動作>
「ポイント練習コース」では、練習したい箇所までジャンプして、その歌唱区間の練習を行うことができる。
図9は、「ポイント練習コース」が選択されたと判定された場合に制御部11が行う処理の流れを示すフローチャートである。「ポイント練習コース」が選択されたと判定された場合には、制御部11は、歌詞データ記憶領域122に記憶された歌詞の歌唱区間毎の一覧を表示部13に表示させる(ステップS21)。
図10は、ステップS21において表示される画面の一例を示す図である。図おいて、各行L1〜L5には、歌唱区間単位毎の歌詞が表示されている。
<B-3: Operation when “Point practice course” is selected>
In the “Point Practice Course”, you can jump to the point you want to practice and practice the singing section.
FIG. 9 is a flowchart showing a flow of processing performed by the control unit 11 when it is determined that the “point practice course” is selected. If it is determined that the “point practice course” has been selected, the control unit 11 causes the display unit 13 to display a list for each song section of the lyrics stored in the lyrics data storage region 122 (step S21).
FIG. 10 is a diagram illustrating an example of a screen displayed in step S21. In the figure, each line L1 to L5 displays lyrics for each singing section.

練習者は、操作部14を操作してカーソルを移動させることによって、練習したいフレーズ(歌唱区間)を選択する。操作部14は、操作された内容に応じた操作信号を制御部11に出力する。制御部11は、操作部14から出力される操作信号に応じて、表示部13に表示された歌唱区間毎の歌詞(歌唱区間)のうちのいずれかを選択する(ステップS22)。制御部11は、選択した歌詞の歌唱区間に対応するお手本音声データをお手本音声データ記憶領域124から読み出し、読み出したお手本音声データの表すお手本音声を、スピーカ17から放音させる(ステップS23)。このとき、制御部11は、お手本音声の再生に合わせて、再生されるお手本音声に対応する伴奏データの表す伴奏音をスピーカ17から放音させることもできる。   The practitioner operates the operation unit 14 to move the cursor, thereby selecting a phrase (singing section) to be practiced. The operation unit 14 outputs an operation signal corresponding to the operated content to the control unit 11. The control unit 11 selects one of lyrics (singing section) for each singing section displayed on the display unit 13 in accordance with the operation signal output from the operation unit 14 (step S22). The control unit 11 reads out the model voice data corresponding to the selected singing section of the lyrics from the model voice data storage area 124, and emits the model voice represented by the read model voice data from the speaker 17 (step S23). At this time, the control unit 11 can also emit the accompaniment sound represented by the accompaniment data corresponding to the reproduced model voice from the speaker 17 in accordance with the reproduction of the model voice.

具体的には、例えば、図10に示す画面において、行L4にカーソルが移動された場合には、制御部11は、行L4の歌詞の歌唱区間に対応するお手本音声と伴奏とを再生する。
このように、フレーズが選択される際に、フレーズ毎のお手本音声を再生することで、歌詞だけを見るよりも、ジャンプ先がどの部分であるかがわかりやすくなる。これにより、練習者が歌唱の練習を行う際の操作性を向上させることができる。
Specifically, for example, when the cursor is moved to the line L4 on the screen shown in FIG. 10, the control unit 11 reproduces the model voice and the accompaniment corresponding to the singing section of the lyrics of the line L4.
As described above, when the phrase is selected, by reproducing the model voice for each phrase, it is easier to understand which part is the jump destination than only looking at the lyrics. Thereby, the operativity at the time of a practitioner practicing a song can be improved.

練習者は、操作部14を操作してカーソルを移動させ、表示される歌詞とカーソルの移動に伴って放音されるお手本音声とを参考にして、練習したい歌唱区間の選択を決定する操作を行う。制御部11は、操作部14から供給される操作信号に応じて、歌唱区間の選択が決定されたか否かを判定する(ステップS24)。決定されていないと判定された場合には(ステップS24;NO)、制御部11は、ステップS21の処理に戻り、歌唱区間の表示と選択された(カーソルのあたっている)歌唱区間に対応するお手本音声の再生とを行う。一方、歌唱区間の選択が決定されたと判定された場合には(ステップS24;YES)、制御部11は、操作部14から供給される操作信号に応じて、表示部13に表示された歌唱区間毎の歌詞のうちのいずれかの選択を決定する(ステップS25)。制御部11は、選択が決定された歌詞の歌唱区間に対応する伴奏データを伴奏データ記憶領域121から読み出し、読み出した伴奏データの表す伴奏音をスピーカ17に放音させるとともに、放音される伴奏音に対応する歌詞データを歌詞データ記憶領域122から読み出し、読み出した歌詞データの表す歌詞を、評価区間毎に表示部13に表示させることによって、決定された歌唱区間のカラオケ伴奏を行う(ステップS26)。   The practitioner operates the operation unit 14 to move the cursor, and performs an operation for determining selection of a singing section to be practiced with reference to the displayed lyrics and a model voice that is emitted as the cursor moves. Do. The control unit 11 determines whether or not the selection of the singing section has been determined in accordance with the operation signal supplied from the operation unit 14 (step S24). If it is determined that it has not been determined (step S24; NO), the control unit 11 returns to the process of step S21, and corresponds to the singing section selected (displayed by the cursor) with the display of the singing section. Play sample audio. On the other hand, when it is determined that the selection of the singing section is determined (step S24; YES), the control unit 11 displays the singing section displayed on the display unit 13 in accordance with the operation signal supplied from the operation unit 14. The selection of any one of the lyrics is determined (step S25). The control unit 11 reads the accompaniment data corresponding to the singing section of the lyrics determined to be selected from the accompaniment data storage area 121, causes the speaker 17 to emit the accompaniment sound represented by the read accompaniment data, and the accompaniment to be emitted The lyrics data corresponding to the sound is read from the lyrics data storage area 122, and the lyrics represented by the read lyrics data are displayed on the display unit 13 for each evaluation section, thereby performing karaoke accompaniment in the determined singing section (step S26). ).

<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(1)上述した実施形態では、「ポイント練習コース」の動作において、カラオケ装置1の制御部11は、操作者によって選択された(カーソルのあたった)歌詞(歌唱区間)に対応するお手本音声を再生した。これに代えて、練習者が既に歌唱を行った場合には、練習者の歌唱音声を録音しておき、選択された歌詞に対応する歌唱済みの練習者音声を再生してもよい。このようにすれば、選択された(カーソルのあたっている)歌唱区間の練習者の歌唱音声が放音されるから、練習者は、自身が歌い間違えた部分を探しやすい。
なお、歌唱済みの歌唱区間については、制御部11が、評価区間毎に評価を行い、評価結果の低い歌唱区間に、図10に示すような図形H10,H11(「×」など)をつけるなどしてもよい。
<C: Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. An example is shown below.
(1) In the above-described embodiment, in the operation of the “point practice course”, the control unit 11 of the karaoke apparatus 1 outputs a model voice corresponding to the lyrics (song section) selected (by the cursor) by the operator. Replayed. Alternatively, if the practitioner has already sung, the practitioner's singing voice may be recorded and the singing practicing voice corresponding to the selected lyrics may be reproduced. In this way, since the singing voice of the practitioner in the selected singing section (where the cursor is hit) is emitted, the practitioner can easily find the part that he / she sang wrongly.
In addition, about the singing section already sung, the control part 11 evaluates for every evaluation section, and attaches the figures H10 and H11 ("x" etc.) as shown in FIG. 10 to the singing section with a low evaluation result. May be.

(2)上述した実施形態では、カラオケ装置1が、同実施形態に係る機能の全てを実現するようになっていた。これに対し、ネットワークで接続された2以上の装置が上記機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態のカラオケ装置1を実現してもよい。例えば、マイクロフォンやスピーカを備える端末装置と、評価機能を備える専用のコンピュータ装置とがネットワークで接続されたシステムとして構成されていてもよい。 (2) In the above-described embodiment, the karaoke apparatus 1 realizes all the functions according to the embodiment. On the other hand, two or more devices connected by a network may share the above functions, and a system including the plurality of devices may realize the karaoke device 1 of the embodiment. For example, a terminal device including a microphone and a speaker and a dedicated computer device including an evaluation function may be configured as a system connected via a network.

(3)上述した実施形態におけるカラオケ装置1の制御部11によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記録した状態で提供し得る。また、インターネットのようなネットワーク経由でカラオケ装置1にダウンロードさせることも可能である。 (3) Programs executed by the control unit 11 of the karaoke apparatus 1 in the above-described embodiment are a magnetic tape, a magnetic disk, a flexible disk, an optical recording medium, a magneto-optical recording medium, a CD (Compact Disk) -ROM, a DVD ( Digital Versatile Disk) and a recording medium such as a RAM can be provided. It is also possible to download to the karaoke apparatus 1 via a network such as the Internet.

カラオケ装置1のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the karaoke apparatus. 歌詞データの内容の一例を示す図である。It is a figure which shows an example of the content of lyrics data. 表示部13に表示される画面の一例を示す図である。6 is a diagram illustrating an example of a screen displayed on the display unit 13. FIG. 制御部11が行うフレーズ毎練習コース処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the practice course process for every phrase which the control part 11 performs. 表示部13に表示される画面の一例を示す図である。6 is a diagram illustrating an example of a screen displayed on the display unit 13. FIG. 制御部11が行う通常カラオケ+部分練習コース処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the normal karaoke + partial practice course process which the control part 11 performs. 表示部13に表示される画面の一例を示す図である。6 is a diagram illustrating an example of a screen displayed on the display unit 13. FIG. 表示部13に表示される画面の一例を示す図である。6 is a diagram illustrating an example of a screen displayed on the display unit 13. FIG. 制御部11が行うポイント練習コース処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the point practice course process which the control part 11 performs. 表示部13に表示される画面の一例を示す図である。6 is a diagram illustrating an example of a screen displayed on the display unit 13. FIG.

符号の説明Explanation of symbols

1…カラオケ装置、11…制御部、12…記憶部、13…表示部、14…操作部、15…マイクロフォン、16…音声処理部、17…スピーカ、121…伴奏データ記憶領域、122…歌詞データ記憶領域、123…背景画データ記憶領域、124…お手本音声データ記憶領域、125…練習者音声データ記憶領域、126…指導データ記憶領域。 DESCRIPTION OF SYMBOLS 1 ... Karaoke apparatus, 11 ... Control part, 12 ... Memory | storage part, 13 ... Display part, 14 ... Operation part, 15 ... Microphone, 16 ... Sound processing part, 17 ... Speaker, 121 ... Accompaniment data storage area, 122 ... Lyric data Storage area, 123 ... background image data storage area, 124 ... model voice data storage area, 125 ... practitioner voice data storage area, 126 ... instruction data storage area.

Claims (7)

伴奏音を表す伴奏データを予め定められた歌唱区間毎に記憶する伴奏データ記憶手段と、
音声を表す第1の音声データを記憶する第1の音声データ記憶手段と、
前記伴奏データ記憶手段に記憶された伴奏データの表す伴奏音を、前記歌唱区間毎に放音手段に放音させる制御手段と、
収音し、収音した音声を表す第2の音声データを出力する収音手段と、
前記第1の音声データ記憶手段に記憶された前記第1の音声データと前記収音手段から出力される第2の音声データとを比較し、該比較結果に基づいて、前記第2の音声データを、前記歌唱区間よりも短い評価区間毎に評価する評価手段と、
前記評価手段による評価結果を、前記評価区間毎に報知する評価結果報知手段と
を備えることを特徴とする歌唱指導装置。
Accompaniment data storage means for storing accompaniment data representing an accompaniment sound for each predetermined singing section;
First voice data storage means for storing first voice data representing voice;
Control means for causing the sound emission means to emit the accompaniment sound represented by the accompaniment data stored in the accompaniment data storage means for each singing section;
Sound collection means for collecting and outputting second sound data representing the collected sound;
The first audio data stored in the first audio data storage means is compared with the second audio data output from the sound collection means, and the second audio data is determined based on the comparison result. Evaluation means for evaluating each evaluation section shorter than the singing section;
A singing instruction apparatus comprising: an evaluation result notifying means for notifying an evaluation result by the evaluation means for each of the evaluation sections.
伴奏音を表す伴奏データを予め定められた歌唱区間毎に記憶する伴奏データ記憶手段と、
歌詞を表す歌詞データを前記歌唱区間毎に記憶する歌詞データ記憶手段と、
音声を表す第1の音声データを記憶する第1の音声データ記憶手段と、
前記歌詞データ記憶手段に記憶された歌詞の前記歌唱区間毎の一覧を、表示手段に表示させる表示制御手段と、
前記表示制御手段により前記表示手段に表示された前記歌唱区間毎の歌詞のうちのいずれかの選択を決定する選択決定手段と、
前記選択決定手段により選択が決定された歌詞の歌唱区間に対応する伴奏データを前記伴奏データ記憶手段から読み出し、読み出した伴奏データの表す伴奏音を放音手段に放音させるとともに、放音される伴奏音に対応する歌詞データを前記歌詞データ記憶手段から読み出し、読み出した歌詞データの表す歌詞を、前記歌唱区間よりも短い評価区間毎に前記表示手段に表示させる制御手段と
を備えることを特徴とする歌唱指導装置。
Accompaniment data storage means for storing accompaniment data representing an accompaniment sound for each predetermined singing section;
Lyric data storage means for storing lyrics data representing lyrics for each singing section;
First voice data storage means for storing first voice data representing voice;
Display control means for displaying on the display means a list for each singing section of the lyrics stored in the lyrics data storage means;
Selection determining means for determining the selection of any of the lyrics for each singing section displayed on the display means by the display control means;
The accompaniment data corresponding to the singing section of the lyrics determined to be selected by the selection determining means is read from the accompaniment data storage means, and the accompaniment sound represented by the read accompaniment data is emitted to the sound emitting means and emitted. Control means for reading out lyric data corresponding to the accompaniment sound from the lyric data storage means, and displaying the lyrics represented by the read out lyric data on the display means for each evaluation section shorter than the singing section. A singing instruction device.
収音し、収音した音声を表す第2の音声データを出力する収音手段と、
前記第1の音声データ記憶手段に記憶された前記第1の音声データと前記収音手段から出力される第2の音声データとを比較し、該比較結果に基づいて、前記第2の音声データを、前記評価区間毎に評価する評価手段と、
前記評価手段による評価結果を、前記評価区間毎に報知する評価結果報知手段と
を備えることを特徴とする請求項2に記載の歌唱指導装置。
Sound collection means for collecting and outputting second sound data representing the collected sound;
The first audio data stored in the first audio data storage means is compared with the second audio data output from the sound collection means, and the second audio data is determined based on the comparison result. Evaluation means for evaluating each evaluation section;
The singing instruction apparatus according to claim 2, further comprising: an evaluation result notifying unit that notifies the evaluation result by the evaluation unit for each evaluation section.
前記表示制御手段により前記表示手段に表示された歌詞のうちのいずれかを選択する選択手段と、
前記選択手段により選択された歌詞の歌唱区間に対応する前記第1の音声データを、前記放音手段に放音させる放音制御手段と
を備えることを特徴とする請求項2又は3に記載の歌唱指導装置。
Selecting means for selecting any of the lyrics displayed on the display means by the display control means;
The sound emission control means for causing the sound emission means to emit the first voice data corresponding to the singing section of the lyrics selected by the selection means. Singing guidance device.
前記収音手段から出力される前記第2の音声データを記憶する第2の音声データ記憶手段と、
前記表示制御手段により前記表示手段に表示された歌詞のうちのいずれかを選択する選択手段と、
前記選択手段により選択された歌詞の歌唱区間に対応する前記第2の音声データを、前記放音手段に放音させる放音制御手段と
を備えることを特徴とする請求項2又は3に記載の歌唱指導装置。
Second sound data storage means for storing the second sound data output from the sound collecting means;
Selecting means for selecting any of the lyrics displayed on the display means by the display control means;
The sound emission control means for causing the sound emission means to emit the second sound data corresponding to the singing section of the lyrics selected by the selection means. Singing guidance device.
歌唱の指導内容を表す指導データを、前記評価区間毎に記憶する指導データ記憶手段と、
前記制御手段により放音される伴奏音に対応する評価区間の指導データを、前記指導データ記憶手段から読み出し、読み出した指導データの表す指導内容を、前記評価区間毎に報知する指導内容報知手段と
を備えることを特徴とする請求項1乃至5のいずれかに記載の歌唱指導装置。
Instruction data storage means for storing instruction data representing instruction contents of singing for each evaluation section;
Instruction content notification means for reading out the instruction data of the evaluation section corresponding to the accompaniment sound emitted by the control means from the instruction data storage means, and informing the instruction contents represented by the read instruction data for each evaluation section; The singing instruction apparatus according to claim 1, comprising:
歌唱の指導内容を表す指導データを、前記評価区間毎に記憶する指導データ記憶手段と、
前記伴奏データ記憶手段に記憶された伴奏データの表す伴奏音を、前記放音手段に放音させる放音制御手段と、
前記放音制御手段により伴奏音が放音されている最中に、操作手段からの操作信号の入力を受け付ける入力受付手段と、
前記入力受付手段により前記操作信号の入力を受け付けた場合に、放音されていた伴奏音の評価区間に対応する指導データを前記指導データ記憶手段から読み出し、読み出した指導データの表す指導内容を報知する指導内容報知手段と、
前記指導内容報知手段により報知された指導内容に対応する歌唱区間のデータを前記伴奏データ記憶手段から読み出し、読み出した伴奏データの表す伴奏音を放音する第2の放音制御手段と
を備えることを特徴とする請求項1又は2に記載の歌唱指導装置。
Instruction data storage means for storing instruction data representing instruction contents of singing for each evaluation section;
Sound emission control means for causing the sound emission means to emit an accompaniment sound represented by the accompaniment data stored in the accompaniment data storage means;
An input receiving means for receiving an input of an operation signal from the operation means while the accompaniment sound is being emitted by the sound emission control means;
When the input of the operation signal is received by the input receiving means, the instruction data corresponding to the evaluation section of the accompaniment sound that has been emitted is read from the instruction data storage means, and the instruction content represented by the read instruction data is notified. Instruction content notification means to perform,
A second sound emission control means for reading out data of a singing section corresponding to the instruction content notified by the instruction content notification means from the accompaniment data storage means and emitting an accompaniment sound represented by the read accompaniment data. The singing instruction apparatus according to claim 1 or 2, characterized in that:
JP2006194068A 2006-07-14 2006-07-14 Apparatus for teaching singing Pending JP2008020798A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006194068A JP2008020798A (en) 2006-07-14 2006-07-14 Apparatus for teaching singing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006194068A JP2008020798A (en) 2006-07-14 2006-07-14 Apparatus for teaching singing

Publications (1)

Publication Number Publication Date
JP2008020798A true JP2008020798A (en) 2008-01-31

Family

ID=39076747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006194068A Pending JP2008020798A (en) 2006-07-14 2006-07-14 Apparatus for teaching singing

Country Status (1)

Country Link
JP (1) JP2008020798A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048003A (en) * 2010-08-27 2012-03-08 Brother Ind Ltd Karaoke device
JP2014010190A (en) * 2012-06-27 2014-01-20 Yamaha Corp Device and program for synthesizing singing
JP2014240902A (en) * 2013-06-11 2014-12-25 株式会社ジャストシステム Learning support device
JP2016136204A (en) * 2015-01-23 2016-07-28 株式会社第一興商 Karaoke device provided with repetitive reproduction function
JP2016180848A (en) * 2015-03-24 2016-10-13 株式会社第一興商 Karaoke device
JPWO2014088036A1 (en) * 2012-12-04 2017-01-05 国立研究開発法人産業技術総合研究所 Singing voice synthesis system and singing voice synthesis method
CN106781844A (en) * 2017-02-07 2017-05-31 苟小平 Demonstration table is practised in vocal music
CN110310615A (en) * 2018-03-27 2019-10-08 卡西欧计算机株式会社 Singing exercise device, singing exercising method and storage medium
CN113343022A (en) * 2021-07-06 2021-09-03 广州酷狗计算机科技有限公司 Song teaching method, device, terminal and storage medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048003A (en) * 2010-08-27 2012-03-08 Brother Ind Ltd Karaoke device
JP2014010190A (en) * 2012-06-27 2014-01-20 Yamaha Corp Device and program for synthesizing singing
US9489938B2 (en) 2012-06-27 2016-11-08 Yamaha Corporation Sound synthesis method and sound synthesis apparatus
JPWO2014088036A1 (en) * 2012-12-04 2017-01-05 国立研究開発法人産業技術総合研究所 Singing voice synthesis system and singing voice synthesis method
JP2014240902A (en) * 2013-06-11 2014-12-25 株式会社ジャストシステム Learning support device
JP2016136204A (en) * 2015-01-23 2016-07-28 株式会社第一興商 Karaoke device provided with repetitive reproduction function
JP2016180848A (en) * 2015-03-24 2016-10-13 株式会社第一興商 Karaoke device
CN106781844A (en) * 2017-02-07 2017-05-31 苟小平 Demonstration table is practised in vocal music
CN110310615A (en) * 2018-03-27 2019-10-08 卡西欧计算机株式会社 Singing exercise device, singing exercising method and storage medium
CN110310615B (en) * 2018-03-27 2024-02-13 卡西欧计算机株式会社 Singing exercise device, singing exercise method, and storage medium
CN113343022A (en) * 2021-07-06 2021-09-03 广州酷狗计算机科技有限公司 Song teaching method, device, terminal and storage medium

Similar Documents

Publication Publication Date Title
JP2008020798A (en) Apparatus for teaching singing
JP5313196B2 (en) Difficulty level calculation device, difficulty level calculation method, and computer program
JP2007310204A (en) Musical piece practice support device, control method, and program
JP4913638B2 (en) Evaluation device and karaoke device
JP2007264569A (en) Retrieval device, control method, and program
JP2007322934A (en) Singing practice device, karaoke device, and program
JP2009031549A (en) Melody display control device and karaoke device
JP2007256619A (en) Evaluation device, control method and program
JP2014035436A (en) Voice processing device
JP5902119B2 (en) Karaoke device, karaoke program, and recording medium
JP4891135B2 (en) Evaluation device
JP2009198714A (en) Karaoke device and reproduction processing method of karaoke accompaniment music and program
JP2009092871A (en) Scoring device and program
JP5109426B2 (en) Electronic musical instruments and programs
KR200255782Y1 (en) Karaoke apparatus for practice on the instrumental accompaniments
JP4007298B2 (en) Karaoke device and program
JP3673385B2 (en) Music performance device
JP4501874B2 (en) Music practice device
JP2007233078A (en) Evaluation device, control method, and program
JP6920489B1 (en) Karaoke equipment
JP4161714B2 (en) Karaoke equipment
KR20080015993A (en) Method for performance digital instrument in karaoke system
JP2640587B2 (en) Automatic performance device with singing ability evaluation function
JP6427439B2 (en) Karaoke device
KR960011983A (en) Character Display Device and Control Method of Karaoke System