JP2016126135A - Karaoke device - Google Patents

Karaoke device Download PDF

Info

Publication number
JP2016126135A
JP2016126135A JP2014266353A JP2014266353A JP2016126135A JP 2016126135 A JP2016126135 A JP 2016126135A JP 2014266353 A JP2014266353 A JP 2014266353A JP 2014266353 A JP2014266353 A JP 2014266353A JP 2016126135 A JP2016126135 A JP 2016126135A
Authority
JP
Japan
Prior art keywords
syllable
data
jaw
opening
singing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014266353A
Other languages
Japanese (ja)
Other versions
JP6436770B2 (en
Inventor
豪 矢吹
Takeshi Yabuki
豪 矢吹
直孝 野村
Naotaka Nomura
直孝 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2014266353A priority Critical patent/JP6436770B2/en
Publication of JP2016126135A publication Critical patent/JP2016126135A/en
Application granted granted Critical
Publication of JP6436770B2 publication Critical patent/JP6436770B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a karaoke device for supporting singing so that food vocalization is promoted, by making a user be conscious of a motion of a jaw during singing.SOLUTION: An opening/closing motion state according to a jaw motion of a singing person is identified, from a signal which is received at detection motion identification means 32 and transmitted from a detection device during musical performance of a music. Then syllable specification means 33 and reference specification means 34 for forming reference information processing means specify reference data for estimating the opening/closing motion state according to a jaw motion of the singing person according to a syllable of text data of the music which the singing person sings, from a monosyllable table 54, and two continuous syllable tables 55 in which the syllable and jaw opening/closing motion state are set in advance. Then comparison determination processing means 35 compares the jaw opening/closing motion state identified by the detection motion identification means 32 and the reference data specified by the reference information processing means at a singing timing corresponding to each text letter, then, displays a comparison result evaluation.SELECTED DRAWING: Figure 1

Description

本発明は、カラオケ歌唱における発声支援機能を備えるカラオケ装置に関する。   The present invention relates to a karaoke apparatus having an utterance support function in karaoke singing.

近年、カラオケルームに設置されたカラオケ装置の演奏に合わせて利用者が歌唱する際に、良い発声をするために、また美容や健康のために、口を大きく開けて歌唱することが推奨されている。カラオケ歌唱においては、極端に口を大きく開けることにより顎関節への負担が増して弊害が生じる可能性があるため、大きく口を開けることを意識するのではなく、下顎の関節をリラックスさせてスムーズに動かすことを意識することが必要と考えられている。一方で、気心の知れたメンバーと歌唱するような時は、指導者のもとで歌唱する場合とは異なり、特に顎の動きなど気に留めることもなく、さらにマイク信号の増幅機能により余り下顎骨を動かさずに歌唱する傾向が強く、このような歌唱者の傾向に対しては、下顎の関節をリラックスさせてスムーズに動かすことを意識させるカラオケコンテンツの提供が望まれる。   In recent years, when a user sings along with the performance of a karaoke device installed in a karaoke room, it is recommended to sing with a wide open mouth for good speech and beauty and health. Yes. In karaoke singing, opening the mouth extremely wide may increase the burden on the temporomandibular joint and cause harm, so do not be conscious of opening the mouth greatly, but relax the joint of the lower jaw and smoothly It is thought that it is necessary to be conscious of moving. On the other hand, when singing with a well-known member, unlike the case of singing under the leadership, there is no particular concern about the movement of the chin, and the microphone signal amplification function is much lower. There is a strong tendency to sing without moving the jawbone, and it is desirable to provide karaoke content that makes it conscious that the joint of the lower jaw can be moved smoothly by relaxing the joint of the lower jaw.

従来、顎の動きを検出する技術として、例えば、特許文献1のように、咀嚼によって生じる筋肉の動きによる耳道内の圧力変化を、外耳道内に挿入した圧力センサによって感知して測定し、その圧力変化の回数を咀嚼回数として表示する技術が知られている。また、特許文献2のように、基台部を人体に密着させ、当該基台部に連続して検知手段が位置されて咀嚼により派生する動きを検知し、この検知信号を受信して咀嚼回数として記録して表示する技術も知られている。   Conventionally, as a technique for detecting the movement of the jaw, for example, as in Patent Document 1, the pressure change in the ear canal caused by the movement of the muscle caused by mastication is sensed and measured by a pressure sensor inserted in the ear canal, and the pressure is measured. A technique for displaying the number of changes as the number of mastications is known. Further, as in Patent Document 2, the base part is brought into close contact with the human body, the detection means is continuously located on the base part, the movement derived from mastication is detected, the detection signal is received, and the number of chewing times A technique for recording and displaying as is also known.

一方、カラオケにおいては歌唱者の口の形状の適切さを採点結果に反映させる技術が知られており、例えば、特許文献3のように、口の理想的な縦横比を表す形状データを母音ごとに有する理想形状データとして記憶しておき、演奏中の楽曲データ内の歌詞データに基づいて特定される歌唱者が現に発音すべき音節を、当該音節を構成する母音に応じた形状データを理想形状データから抽出し、この抽出した形状データの縦横比に対するカメラの撮像画像から計測された歌唱者の口の縦横比の形状適合度を算出して、この形状適合度に基づく画像点数データを生成する技術が知られている。   On the other hand, in karaoke, a technique for reflecting the appropriateness of the mouth shape of the singer in the scoring result is known. For example, as in Patent Document 3, shape data representing the ideal aspect ratio of the mouth is obtained for each vowel. Is stored as ideal shape data, and the syllables to be pronounced by the singer identified based on the lyric data in the music data being played are shape data corresponding to the vowels constituting the syllable. Extracting from the data, calculating the shape adaptability of the aspect ratio of the singer's mouth measured from the captured image of the camera with respect to the aspect ratio of the extracted shape data, and generating image score data based on the shape adaptability Technology is known.

特開平07−213510号公報Japanese Patent Application Laid-Open No. 07-213510 特開平07−171136号公報Japanese Patent Application Laid-Open No. 07-171136 特開2005−242230号公報JP 2005-242230 A

ところで、カラオケ楽曲を歌詞に従って歌唱することは咀嚼と同様に顎を動かすことになるため、特許文献1や特許文献2に記載の咀嚼回数を検出できる装置を歌唱者が装着することで、歌唱の際の顎の動きを検出することが可能となるが、顎が動いた回数をカウントするだけの技術であって実際に顎が動いた回数が結果として表示されるだけであり、各カラオケ楽曲を歌詞通りに歌唱した場合の理想的な顎の動きの比較を行うことができず、良い発声を促す歌唱支援とすることができないという問題がある。   By the way, singing karaoke music according to the lyrics moves the chin like chewing, so the singer can wear a device that can detect the number of mastications described in Patent Document 1 and Patent Document 2, so It is possible to detect the movement of the jaw at the time, but it is a technology that only counts the number of times the jaw has moved, and only the number of times the jaw has actually moved is displayed as a result. There is a problem that it is not possible to compare ideal jaw movements when singing according to the lyrics, and it is not possible to provide singing support that promotes good utterance.

また、特許文献3に記載の技術は、単に歌唱採点をさせる手法に過ぎず、歌唱時の口の形状の特定だけでは歌唱時に歌詞の沿ってスムーズな顎の動きが出来ているか否かを判定することができず、良い発声を促す歌唱支援とさせることができないという問題がある。   In addition, the technique described in Patent Document 3 is merely a technique for scoring a song, and it is determined whether or not a smooth jaw movement can be performed along the lyrics when singing only by specifying the mouth shape at the time of singing. There is a problem that it cannot be used as a singing support that promotes good utterance.

そこで、本発明は上記課題に鑑みなされたもので、歌唱時に顎の動きを意識させて良い発声を促す歌唱を支援するカラオケ装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a karaoke apparatus that supports singing that encourages utterance that allows the user to be aware of the jaw movement during singing.

上記課題を解決するために、請求項1の発明では、歌唱による歌唱者の顎の動きを検出する検出装置と通信自在であり、当該検出信号を受信可能なカラオケ装置であって、楽曲の演奏中に前記検出装置より受信した信号に基づき歌唱者の顎の動きに応じた開閉動作状態を識別する検出動作識別手段と、歌唱される前記楽曲の歌詞データに含まれる歌詞文字の音節に応じて歌唱者の顎の動きに応じた開閉動作状態を推測するリファレンスデータを、音節と顎の開閉動作状態とを予め設定した所定数の音節テーブルに基づいて特定するリファレンス情報処理手段と、歌唱される前記楽曲の歌詞データに含まれる各歌詞文字には歌唱タイミングデータが対応付けられ、当該歌唱タイミングデータに基づき歌唱すべき期間が到来している音節の前記リファレンス情報処理手段で特定したリファレンスデータと、前記検出動作識別手段で識別された顎の開閉動作状態とを比較し、比較結果の評価を表示させる比較評価処理手段と、を有する構成とする。   In order to solve the above-mentioned problems, the invention of claim 1 is a karaoke apparatus capable of communicating with a detecting device for detecting movement of a singer's jaw by singing and capable of receiving the detection signal, and playing a musical piece. In accordance with the syllable of the lyric character included in the lyrics data of the song to be sung, and the detection operation identification means for identifying the opening / closing operation state according to the movement of the singer's jaw based on the signal received from the detection device The reference information processing means for specifying the reference data for estimating the opening / closing operation state according to the movement of the singer's jaw based on a predetermined number of syllable tables in which the syllable and the jaw opening / closing operation state are set in advance is sung Singing timing data is associated with each lyric character included in the lyric data of the music, and the syllable of the syllable in which the period to sing based on the singing timing data has arrived. And reference data specified in Arensu information processing means compares the opening and closing operation state of the identified jaws by the detection operation identification means, a configuration having a comparison evaluation processing means for displaying the evaluation of the comparison results.

請求項2〜4の発明では、「前記所定数の音節テーブルは、一つの音節を発声する際の顎の開閉動作状態を対応付けた単音節テーブル、二つの音節について第一の音節を発声した状態から第二の音節を発声する際の顎の開閉動作状態を当該二つの音節の順による組に対応付けた2連音節テーブルであり、前記リファレンス情報処理手段は、前記歌詞データの先頭文字から順次音節を特定する音節特定手段と、前記歌詞データを複数のフレーズ区間に区分し、前記音節特定手段により特定された音節が、フレーズ区間の先頭の場合に当該音節に対応する顎の開閉動作状態を前記単音節テーブルより特定し、フレーズ区間の先頭以外の音節の場合に当該音節の前の音節と当該音節の順による組に対応する顎の開閉動作状態を前記2連音節テーブルから特定するリファレンス特定手段と、を有する」構成とし、
「前記楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、当該歌詞データに含まれる歌詞文字ごとの色変えタイミングデータであり、前記リファレンス特定手段は、前記フレーズ区間を、歌詞の色変えが連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定する」構成とし、
「前記楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、楽曲の演奏データに含まれる旋律パートの楽譜データの各音符に歌詞文字が対応づけられたデータであり、前記リファレンス特定手段は、前記フレーズ区間を、音符の発音が連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定する」構成とする。
According to the second to fourth aspects of the present invention, “the predetermined number of syllable tables is a single syllable table associated with the opening / closing operation state of the jaw when uttering one syllable, and the first syllable is uttered for two syllables. A syllable table in which the jaw opening / closing operation state at the time of uttering the second syllable from the state is associated with the pair in the order of the two syllables, and the reference information processing means starts from the first character of the lyrics data Syllable specifying means for sequentially specifying syllables, and the lyrics data is divided into a plurality of phrase sections, and when the syllable specified by the syllable specifying means is the head of a phrase section, the jaw opening / closing operation state corresponding to the syllable Is determined from the single syllable table, and in the case of a syllable other than the head of the phrase section, the syllable preceding the syllable and the jaw opening / closing operation state corresponding to the pair in the order of the syllable are described in the double syllable table. And a reference identifying means for al identified, and the having "configuration,
“Singing timing data associated with each lyric character included in the lyric data of the music is color change timing data for each lyric character included in the lyric data, and the reference specifying means includes the phrase section, The lyric character strings that change the color of the lyrics continuously are classified as a batch, and the opening and closing operation state of each syllable jaw is specified for each category.
“Singing timing data associated with each lyric character included in the lyric data of the music is data in which a lyric character is associated with each note of the musical score data of the melody part included in the performance data of the music, The reference specifying means has a configuration in which the phrase section is divided into lyrics character strings in which the pronunciation of notes is continuously performed, and the opening / closing operation state of each syllable jaw is specified for each division.

請求項1の発明によれば、楽曲の演奏中に検出装置より受信した信号から歌唱者の顎の動きに応じた開閉動作状態を識別し、歌唱される楽曲の歌詞データに含まれる歌詞文字の音節に応じて歌唱者の顎の動きに応じた開閉動作状態を推測するリファレンスデータを、音節と顎の開閉動作状態とを予め設定した所定数の音節テーブルに基づいて特定し、楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータに基づき歌唱すべき期間が到来している音節のリファレンスデータと検出動作識別手段で識別された顎の開閉動作状態とを比較し、比較結果の評価を表示させる構成とすることにより、カラオケ楽曲の演奏の際に画面に表示される歌詞に合わせ、歌唱者が歌唱した際の顎の動きと、当該楽曲の歌詞に基づく理想的な顎の動とが音節毎に比較されるため、歌唱時のスムーズな顎の動きが出来ているか否かを歌唱者が音節毎に確認することが可能となり、歌唱時に顎の動きを意識させて良い発声を促す歌唱を支援することができるものである。   According to the first aspect of the present invention, the opening / closing operation state corresponding to the movement of the singer's jaw is identified from the signal received from the detection device during the performance of the music, and the lyrics characters included in the lyrics data of the music to be sung Lyric data of music by specifying reference data for estimating the opening / closing operation state according to the movement of the singer's jaw according to the syllable based on a predetermined number of syllable tables in which the syllable and the opening / closing operation state of the jaw are set in advance. The reference data of the syllable that has reached the period to be sung based on the singing timing data associated with each lyric character included in the lyric character is compared with the opening / closing operation state of the jaw identified by the detection operation identifying means, and the comparison result It is ideal based on the movement of the jaw when the singer sings and the lyrics of the song, in accordance with the lyrics displayed on the screen when playing the karaoke song. Since the movement of the chin is compared for each syllable, it is possible for the singer to check for each syllable whether the movement of the chin is smooth or not. It can support singing that promotes good utterance.

請求項2の発明によれば、一つの音節を発声する際の顎の開閉動作状態を対応付けた単音節テーブル、二つの音節について第一の音節を発声した状態から第二の音節を発声する際の顎の開閉動作状態を当該二つの音節の順による組に対応付けた2連音節テーブルを備え、歌詞データの先頭文字から順次音節を特定し、歌詞データを複数のフレーズ区間に区分して、特定された音節が、フレーズ区間の先頭の場合に当該音節に対応する顎の開閉動作状態を単音節テーブルより特定し、フレーズ区間の先頭以外の音節の場合に当該音節の前の音節と当該音節の順による組に対応する顎の開閉動作状態を2連音節テーブルから特定する構成とすることにより、歌詞データより楽曲歌唱の際の顎の開閉動作状態をリファレンスデータで推測、特定することから、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。   According to the invention of claim 2, the single syllable table in which the opening / closing operation state of the jaw when speaking one syllable is associated, the second syllable is uttered from the state where the first syllable is uttered for two syllables. It has a double syllable table that associates the opening and closing movement state of the jaw with the pair in the order of the two syllables, specifies the syllables sequentially from the first character of the lyric data, and divides the lyric data into a plurality of phrase sections When the specified syllable is the beginning of a phrase section, the jaw opening / closing operation state corresponding to the syllable is specified from the single syllable table, and when it is a syllable other than the beginning of the phrase section, the syllable before the syllable and the corresponding syllable By configuring the jaw opening / closing operation state corresponding to the syllable order from the double syllable table, the jaw opening / closing operation state at the time of song singing is estimated and specified from the lyric data by reference data. From, there is no need to create a pre-data to the karaoke song reaches several million songs, those that can be realized with a simple configuration.

請求項3,4の発明によれば、楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、当該歌詞データに含まれる歌詞文字ごとの色変えタイミングデータ又は楽曲の演奏データに含まれる旋律パートの楽譜データの各音符に歌詞文字が対応づけられたデータであり、フレーズ区間を、歌詞の色変えが連続的に行われる歌詞文字列又は音符の発音が連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定する構成とすることにより、歌詞データや演奏データによる楽曲歌唱の際の顎の開閉動作状態のリファレンスデータでの推測、特定をより高精度とすることができるものである。   According to the third and fourth aspects of the invention, the singing timing data associated with each lyric character included in the lyric data of the music is the color change timing data for each lyric character included in the lyric data or the performance data of the music. This is data in which lyrics characters are associated with each note of the musical score data of the melody part included in the lyric part. By categorizing the lyrics character string as a whole and specifying the opening / closing operation state of each syllable jaw for each division, the reference data of the opening / closing operation state of the jaw when singing a song by lyric data or performance data The estimation and identification can be made with higher accuracy.

本発明に係るカラオケ装置のブロック構成図である。It is a block block diagram of the karaoke apparatus which concerns on this invention. 図1の単音節テーブル及び2連音節テーブルの説明図である。It is explanatory drawing of the single syllable table of FIG. 1, and a double syllable table. リファレンス特定対象の歌詞データの説明図である。It is explanatory drawing of the lyric data of a reference specific object. 図1の検出装置のブロック構成図である。It is a block block diagram of the detection apparatus of FIG. 図1のリファレンス特定手段における歌詞データに基づく顎動作特定処理の説明図である。It is explanatory drawing of the jaw movement specific process based on the lyric data in the reference specific means of FIG. 図5の個別音節の顎動作特定処理の説明図である。It is explanatory drawing of the jaw movement specific process of the individual syllable of FIG. 図1の比較評価手段における比較評価の説明図である。It is explanatory drawing of the comparative evaluation in the comparative evaluation means of FIG. 図1のリファレンス特定手段における他の歌詞データに基づくフレーズ区間特定、リファレンス特定の説明図である。It is explanatory drawing of phrase area specification based on the other lyric data in the reference specific | specification means of FIG. 1, and reference specific.

以下、本発明の実施形態を図により説明する。
図1に本発明に係るカラオケ装置のブロック構成図を示すと共に、図2に図1の単音節テーブル及び2連音節テーブルの説明図を示し、図3にリファレンス特定対象の歌詞データの説明図を示し、図4に図1の検出装置のブロック構成図を示す。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of the karaoke apparatus according to the present invention, FIG. 2 is an explanatory diagram of the single syllable table and the double syllable table of FIG. 1, and FIG. FIG. 4 shows a block diagram of the detection apparatus of FIG.

図1において、カラオケ装置11は、主要装置としてのカラオケ本体12に、有線又は無線で外部接続されるものとして、表示部13、ミキシングアンプ14、マイク15、スピーカ16、遠隔入出力装置17が接続されることで構成され、当該カラオケ本体12は、所定数の検出装置18(18A〜18N)に対して通信自在とされる(検出装置18については図4で説明する)。   In FIG. 1, a karaoke apparatus 11 is connected to a karaoke main body 12 serving as a main apparatus by wired or wireless connection, and a display unit 13, a mixing amplifier 14, a microphone 15, a speaker 16, and a remote input / output device 17 are connected. The karaoke main body 12 is configured to be communicable with a predetermined number of detection devices 18 (18A to 18N) (the detection device 18 will be described with reference to FIG. 4).

上記表示部13は、通常の楽曲選曲表示やカラオケ演奏時の背景映像等を表示するもので、例えば液晶ディスプレイ(LCD)、プラズマディスプレイ(PDP)、その他種々のディスプレイを採用することができる。上記ミキシングアンプ14は、カラオケ本体12より送られてくる音楽演奏信号に、マイク15からの音声信号をミキシングし、増幅してスピーカ16より出力する。   The display unit 13 displays a normal music selection display, a background image during karaoke performance, and the like. For example, a liquid crystal display (LCD), a plasma display (PDP), and other various displays can be employed. The mixing amplifier 14 mixes the audio signal from the microphone 15 with the music performance signal sent from the karaoke main body 12, amplifies it, and outputs it from the speaker 16.

上記遠隔入出力装置17は、図示しない端末送受信部により、カラオケ本体12に対して有線方式ないし無線方式(IR方式やブルートゥース(登録商標)機構のピコネット接続方式など)を利用してデータ授受を行うためのもので、少なくともログイン・ログアウト処理手段17A、楽曲検索手段である選曲楽曲登録手段17B、検出装置選択手段17C及びリモコン表示部17Dを適宜備える。   The remote input / output device 17 transmits / receives data to / from the karaoke main body 12 using a wired system or a wireless system (IR system, Bluetooth (registered trademark) mechanism piconet connection system, etc.) by a terminal transmission / reception unit (not shown). Therefore, at least a login / logout processing means 17A, a music selection music registration means 17B as music search means, a detection device selection means 17C, and a remote control display unit 17D are provided as appropriate.

上記ログイン・ログアウト処理手段17Aは、利用者によるログイン操作に応じて当該利用者より利用者名や利用者IDを取得し、RAM23に利用者情報42として記憶してログインを許可する処理を行うと共に、ログアウト操作に応じて利用終了の処理を行うプログラムである。なお、遠隔入出力装置17は後述のGUI機能によって利用者が歌唱したい楽曲を検索して予約することが可能であるが、利用者は先にカラオケ装置11にログインしていることが望ましい。   The login / logout processing means 17A obtains a user name and user ID from the user in response to a login operation by the user, stores the user name and user ID in the RAM 23 as user information 42, and performs a process of permitting login. This is a program that performs use termination processing in response to a logout operation. The remote input / output device 17 can search and reserve a song that the user wants to sing using a GUI function described later, but the user preferably logs in to the karaoke device 11 first.

上記選曲楽曲登録手段17Bは、楽曲IDや曲名、アーチスト名などのデータからなるテーブルに基づいて、利用者が所望する楽曲を検索させ、選曲された楽曲の楽曲IDをカラオケ本体12に送信するプログラムである。送信された楽曲IDは、カラオケ本体12におけるRAM23予約待ち行列41に登録される。   The music selection music registration means 17B is a program for searching the music desired by the user based on a table including data such as music ID, music title, artist name, etc. and transmitting the music ID of the music selected to the karaoke main body 12. It is. The transmitted music ID is registered in the RAM 23 reservation queue 41 in the karaoke main body 12.

上記検出装置選択手段17Cは、検出装置18とログインした利用者とを対応付けるプログラムである。具体的には、リモコン表示部17Dに、既にカラオケ装置11とペアリングがなされている検出装置18A〜18Nのリストを表示させ、当該リストの中から、自分の使用する検出装置18を選択することで利用者と検出装置18とを対応付け、その情報をRAM23に利用者情報42の一つとして記憶する。そして、利用者は楽曲予約時に、歌唱者として自分を選択した上で予約操作を行えば、当該楽曲の演奏時にカラオケ装置11は、当該利用者に対応付けられている検出装置18からの検出信号のみを受信することになる。   The detection device selection means 17C is a program that associates the detection device 18 with the logged-in user. Specifically, a list of the detection devices 18A to 18N that have already been paired with the karaoke device 11 is displayed on the remote control display unit 17D, and the detection device 18 to be used is selected from the list. The user is associated with the detection device 18 and the information is stored in the RAM 23 as one of the user information 42. And if a user performs reservation operation after selecting himself as a singer at the time of a music reservation, the karaoke apparatus 11 will detect the detection signal from the detection apparatus 18 matched with the said user at the time of the performance of the said music. Will only receive.

上記リモコン表示部17Dは、液晶ディスプレイ(LCD)とタッチセンサとを積層して入出力用とし、表示されるアイコン等に対応して当該タッチセンサにより楽曲の選択などのデータを入力することができるGUIのユーザインタフェース機能を有するものである。   The remote control display unit 17D has a liquid crystal display (LCD) and a touch sensor stacked to be used for input / output, and can input data such as music selection by the touch sensor corresponding to displayed icons and the like. It has a GUI user interface function.

上記カラオケ本体12は、バス20、中央制御部21、ROM22、RAM23、映像表示制御手段24、音楽演奏制御部25、音源(シンセサイザ)25A、採点手段26、A/D変換部26A、送受信部27、記憶部28、検出信号受信部31、検出動作識別手段32、音節特定手段33、リファレンス特定手段34及び比較評価処理手段35を備える。音節特定手段33及びリファレンス特定手段34によりリファレンス情報処理手段を構成する。   The karaoke main body 12 includes a bus 20, a central control unit 21, a ROM 22, a RAM 23, a video display control unit 24, a music performance control unit 25, a sound source (synthesizer) 25A, a scoring unit 26, an A / D conversion unit 26A, and a transmission / reception unit 27. , A storage unit 28, a detection signal receiving unit 31, a detection operation identification unit 32, a syllable identification unit 33, a reference identification unit 34, and a comparative evaluation processing unit 35. The syllable specifying means 33 and the reference specifying means 34 constitute reference information processing means.

上記RAM23には予約待ち行列41、利用者情報42、対象歌詞データ43、リファレンスデータ44及び比較結果データ45の記憶領域が形成される。また、記憶部28には、楽曲データベース(楽曲DB)51、映像データベース(映像DB)52、リファレンスデータベース(リファレンスDB)53、単音節テーブル54及び2連音節テーブル55が記憶される。なお、上記各構成について、本発明の要旨と直接関連しない要素部分であっても、従前のカラオケシステムにおいても大部分が適用可能であることを示すために、構成要素の全体を説明する。   In the RAM 23, storage areas for a reservation queue 41, user information 42, target lyrics data 43, reference data 44, and comparison result data 45 are formed. The storage unit 28 also stores a music database (music DB) 51, a video database (video DB) 52, a reference database (reference DB) 53, a single syllable table 54, and a double syllable table 55. In addition, about each said structure, even if it is an element part which is not directly related to the summary of this invention, in order to show that most can be applied also in the conventional karaoke system, the whole component is demonstrated.

上記中央制御部21は、このシステムを統括的に処理制御する物理的なCPUであり、ROM22に記憶されているプログラムに基づくアルゴリズム処理を行う。上記RAM23は、予約待ち行列41、利用者情報42、対象歌詞データ43、リファレンスデータ44及び比較結果データ45の記憶領域が形成される他に、上記種々のプログラムを展開、実行させるための作業領域としての役割をなすもので、例えば半導体メモリで構成され、仮想的にハードディスク上に構築される場合をも含む概念である。   The central control unit 21 is a physical CPU that performs overall processing control of the system, and performs algorithm processing based on a program stored in the ROM 22. The RAM 23 has a storage area for a reservation queue 41, user information 42, target lyrics data 43, reference data 44, and comparison result data 45, and a work area for developing and executing the various programs. It is a concept that includes a case where it is configured by, for example, a semiconductor memory and is virtually built on a hard disk.

RAM23に記憶される上記対象歌詞データ43は、予約待ち行列41に選曲予約登録された楽曲IDに基づく楽曲DB51より読み出した歌詞データである。この楽曲の歌詞データは、図3に示すように、全歌詞文字を適宜な小節ごとに区切った頁と、表示部13等に表示される横1列分の文字列で区切った行、各文字の文字番号と文字コード、歌詞本文かルビかの種別コード、表示部13等の画面の表示位置を示す表示レイアウト、各文字についての演奏時系列上で色変え処理する色変えタイミングからなる。当該色替えタイミングは、色変え開始時間と終了時間からなり、例えば演奏開始からの経過時間をms単位で表したものである。   The target lyrics data 43 stored in the RAM 23 is the lyrics data read from the music DB 51 based on the music ID registered in the reservation queue 41 for music selection reservation. As shown in FIG. 3, the lyric data of this music is composed of a page in which all lyrics characters are divided into appropriate measures, a line delimited by one horizontal character string displayed on the display unit 13 and the like, and each character. Character number and character code, lyric text or ruby type code, display layout indicating the display position of the display unit 13 or the like, and color change timing for color change processing on the performance time series for each character. The color change timing includes a color change start time and an end time. For example, the color change timing represents an elapsed time from the start of performance in ms units.

すなわち、この歌詞データは頁と行によって区分されており、頁は表示部13の1画面分における最大表示単位、行は表示部13等に表示したときの横1行分の文字列であり、この頁、または行が後述のリファレンス特定手段34において複数のフレーズ区間に区分され(図5参照)、後述の顎の動きに応じた開閉動作状態の特定処理を行う。なお、読み出し処理は、予約待ち行列41に予約登録されて演奏開始時に中央制御部21により行われるが、この処理に特化したプログラムを別に備えさせてもよい。   That is, this lyric data is divided into pages and lines, the page is the maximum display unit for one screen of the display unit 13, and the line is a character string for one horizontal line when displayed on the display unit 13 or the like. This page or line is divided into a plurality of phrase sections in the reference specifying means 34 described later (see FIG. 5), and an opening / closing operation state specifying process corresponding to the jaw movement described later is performed. The reading process is reserved and registered in the reservation queue 41 and is performed by the central control unit 21 at the start of performance. However, a program specialized for this process may be provided separately.

RAM23に記憶される比較結果データ45は、比較評価処理手段35による比較結果であり、音節ごとにリアルタイムで記憶されていくもので、歌唱終了した時点で歌唱全体の全比較結果のデータとなる。   The comparison result data 45 stored in the RAM 23 is a comparison result by the comparative evaluation processing means 35 and is stored in real time for each syllable, and becomes data of all comparison results of the entire singing when the singing is completed.

上記映像表示制御手段24は、演奏時に、映像DB52より抽出された背景映像及び楽曲DB51より抽出された楽曲の歌詞データを表示部13に出力するプログラム乃至電子回路である。なお、比較評価処理手段35における評価を表示させることとしてもよい。上記音楽演奏制御部25は、例えばシーケンスプログラムを備え、楽曲IDで楽曲DB51より抽出された音符データに従って音源(シンセサイザ)25Aを駆動するもので、当該音源25Aの出力は演奏信号としてミキシングアンプ14に出力される。   The video display control means 24 is a program or an electronic circuit that outputs the background video extracted from the video DB 52 and the lyrics data of the music extracted from the music DB 51 to the display unit 13 during performance. Note that the evaluation in the comparative evaluation processing means 35 may be displayed. The music performance control unit 25 includes, for example, a sequence program, and drives a sound source (synthesizer) 25A according to the note data extracted from the music DB 51 with the music ID. The output of the sound source 25A is sent to the mixing amplifier 14 as a performance signal. Is output.

上記採点手段26は、利用者による歌唱音声のピッチを検出して後述の楽曲ごとの主旋律のリファレンスデータの各音高と比較することにより採点するもので、マイク15から入力されA/D変換部26Aでデジタル変換された音声信号を、歌唱採点するためのリファレンスデータに基づいて採点処理を行うプログラムである。具体的には、例えば特許第4222915号公報に記載されている手法を用いることができる。   The scoring means 26 is for scoring by detecting the pitch of the singing voice by the user and comparing it with the pitches of the reference data of the main melody for each music, which will be described later. It is a program that performs scoring processing based on reference data for singing a voice signal digitally converted by 26A. Specifically, for example, a technique described in Japanese Patent No. 4229915 can be used.

上記送受信部27は、遠隔入出力装置17との間で有線方式ないし無線方式(IR方式やブルートゥース(登録商標)機構のピコネット接続方式など)を利用してデータ授受を行うためのもので、そのための電子回路及びプログラムである。   The transmission / reception unit 27 is used to exchange data with the remote input / output device 17 using a wired system or a wireless system (such as an IR system or a Bluetooth (registered trademark) mechanism piconet connection system). Electronic circuit and program.

上記記憶部28に記憶されている楽曲DB51は、楽曲毎に、音符データ、歌詞データなどを格納する。演奏に関して、具体的には、楽曲ID、曲名及びアーチストID(アーチスト名)が関連付けられた楽曲テーブルを有し、楽曲毎に、楽曲IDで管理される所定データ形式のカラオケ楽曲の演奏データ(例えば、MIDI(登録商標)形式の旋律パートの音符ごとの楽譜データ)等で構成される楽曲データ(ファイル)について当該楽曲IDをファイル名としてそれぞれ格納したデータベースである。上記記憶部28に記憶されている映像DB52は、楽曲毎に応じた背景映像データについて楽曲IDをファイル名としてそれぞれ格納したデータベースである。   The music DB 51 stored in the storage unit 28 stores note data, lyrics data, and the like for each music. Regarding performance, specifically, performance data of a karaoke piece of music in a predetermined data format having a music table in which a music ID, a music title, and an artist ID (artist name) are associated and managed by the music ID for each piece of music (for example, This is a database storing music IDs as file names for music data (files) composed of MIDI (registered trademark) format melody part musical score data). The video DB 52 stored in the storage unit 28 is a database in which music IDs are stored as file names for background video data corresponding to each music.

上記記憶部28に記憶されているリファレンスDB53は、楽曲ごとの主旋律の採点リファレンスデータであって、上記楽曲DB51に記憶されているカラオケ楽曲と当該カラオケ楽曲の歌唱区間に合わせた歌唱者による歌唱を評価、分析するための評価基準として用いられる採点リファレンスデータとを紐付けて記憶するデータベースである。   Reference DB53 memorize | stored in the said memory | storage part 28 is scoring reference data of the main melody for every music, Comprising: The karaoke music memorize | stored in the said music DB51 and the song by the singer according to the song section of the said karaoke music are carried out. It is a database that stores and stores scoring reference data used as evaluation criteria for evaluation and analysis.

上記記憶部28に記憶されている単音節テーブル54は、歌詞データにおける対象の音節が、後述のリファレンス特定手段34で区分処理されるフレーズ区間の先頭の場合を対象に当該対象の音節を発声するに際して、顎を開く方向、または閉じる方向に動かす顎の開閉動作状態を特定したテーブルであり、図2(A)に示すように、対象の音節である「母音」若しくは「子音+母音」の一つの音節に対して顎の動き(開閉動作状態)を予め設定したものである。なお、フレーズ区間の先頭の音節は、顎を閉じた状態からフレーズ区間の先頭の音節を発声するに際しての顎が動きを設定している。なお、図2(A)、(B)において、「↑」は顎を開く動き、「↓」は顎を閉じる動き、「−」は顎の動きがない状態を表している。   The single syllable table 54 stored in the storage unit 28 utters the target syllable in the case where the target syllable in the lyrics data is the head of a phrase section that is processed by the reference specifying unit 34 described later. At this time, it is a table that specifies the opening / closing operation state of the jaw that moves in the direction of opening or closing the jaw, and as shown in FIG. 2 (A), one of “vowel” or “consonant + vowel” that is the target syllable. Jaw movement (opening / closing operation state) is preset for one syllable. The syllable at the beginning of the phrase section is set to move when the syllable at the beginning of the phrase section is uttered from a state where the chin is closed. 2A and 2B, “↑” represents a movement for opening the jaw, “↓” represents a movement for closing the jaw, and “−” represents a state where there is no movement of the jaw.

上記記憶部28に記憶されている2連音節テーブル55は、歌詞データにおける対象の音節がフレーズ区間の先頭以外の音節の場合に、当該対象の音節の前の音節と当該対象の音節との二つの音節を順に発声する際に、顎の開く方向、又は閉じる方向の動きを特定したテーブルであり、図2(B)に示すように、対象の音節の前の音節である「母音」若しくは「子音+母音」と、対象の音節である「母音」及び「子音+母音」並びに特殊発声音節(例えば、「母音a」及び「子音+母音a」、「母音e」及び「子音+母音e」、並びに「母音o」及び「子音+母音o」に対しては「は(ha)」、「へ(he)」、「ほ(ho)」、「ん(n)」)の二つの音節の順による組に対して顎の開閉動作状態を予め設定したものである。なお、フレーズ区間の先頭以外の音節は、二つの連続した音節について、一つ目の音節を発声した状態から二つ目の音節を発声するに際しての顎の動きを設定している。   The double syllable table 55 stored in the storage unit 28 stores the second syllable between the syllable before the target syllable and the target syllable when the target syllable in the lyrics data is a syllable other than the head of the phrase section. 2 is a table that specifies movements of the jaw opening direction or closing direction when uttering two syllables in order. As shown in FIG. 2B, “vowel” or “ “Consonant + vowel”, the target syllables “vowel” and “consonant + vowel”, and special vocal syllables (for example, “vowel a” and “consonant + vowel a”, “vowel e” and “consonant + vowel e”) , And “vowel o” and “consonant + vowel o” are “ha (ha)”, “he (he)”, “ho (ho)”, “n (n)”). The opening / closing operation state of the jaw is set in advance for the group according to the order. Note that the syllables other than the head of the phrase section set the jaw movement when uttering the second syllable from the state of uttering the first syllable for two consecutive syllables.

上記検出信号受信部31は、後述の検出装置18より送信されてくる検出信号を受信するプログラム乃至電子回路である。上記検出動作識別手段32は、楽曲の演奏中に検出装置18より受信した信号から顎の開閉状態を識別するプログラム乃至電子回路である。例えば、検出信号として電圧レベル信号(そのレベル値に特化したデータ信号でもよい)を検出装置18より受信し、当該信号に基づいてレベル値を特定し、予め設定されたレベル値に応じて顎の開き、閉じ、不動の開閉状態の対応付けより識別する。   The detection signal receiving unit 31 is a program or an electronic circuit that receives a detection signal transmitted from the detection device 18 described later. The detection operation identifying means 32 is a program or an electronic circuit for identifying the open / closed state of the jaw from the signal received from the detection device 18 during the performance of the music. For example, a voltage level signal (which may be a data signal specialized for the level value) is received from the detection device 18 as the detection signal, the level value is specified based on the signal, and the jaw is set according to the preset level value. Is identified based on the correspondence between open, closed, and stationary open / closed states.

上記音節特定手段33及びリファレンス特定手段34で構成されるリファレンス情報処理手段は、歌唱される楽曲の歌詞データの音節に応じて歌唱者の顎の動きの開閉動作状態を推測するリファレンスデータを、音節と顎の開閉動作状態とを予め設定した上記単音節テーブル54及び2連音節テーブル55に基づいて算出するもので、音節特定手段33は、RAM23に記憶されている図3に示す対象歌詞データ43に基づいて、当該歌詞データの先頭文字から順次音節を特定するプログラムである(図5で説明する)。   The reference information processing means composed of the syllable specifying means 33 and the reference specifying means 34 uses reference data for estimating the opening / closing operation state of the singer's jaw movement according to the syllable of the lyrics data of the song to be sung. 3 is calculated based on the preset single syllable table 54 and the double syllable table 55. The syllable specifying means 33 stores the target lyrics data 43 shown in FIG. Is a program for specifying syllables sequentially from the first character of the lyrics data (described with reference to FIG. 5).

リファレンス特定手段34は、対象歌詞データ43を複数のフレーズ区間に区分し(区分については図5及び図8で説明する)、音節特定手段33により特定された音節が、歌唱区間の先頭の場合に当該音節に対応する顎の開閉動作状態を上記単音節テーブル54より特定し、歌唱区間の先頭以外の音節の場合に当該音節の前の音節と当該音節の順による組に対応する顎の開閉動作状態を上記2連音節テーブル55から特定し、RAM23にリファレンスデータ44として記憶するプログラムである(図5及び図6で説明する)。   The reference specifying unit 34 divides the target lyrics data 43 into a plurality of phrase sections (the division will be described with reference to FIGS. 5 and 8), and the syllable specified by the syllable specifying unit 33 is the head of the singing section. The jaw opening / closing operation state corresponding to the syllable is specified from the single syllable table 54, and in the case of a syllable other than the head of the singing section, the jaw opening / closing operation corresponding to the pair in the order of the syllable before the syllable and the syllable This is a program that specifies the state from the above-mentioned double syllable table 55 and stores it as reference data 44 in the RAM 23 (described in FIGS. 5 and 6).

上記比較評価処理手段35は、後述の歌唱タイミングデータに基づき歌唱すべき期間が到来している音節について、リファレンス情報処理手段(音節特定手段33及びリファレンス特定手段34)で特定された顎の開閉動作状態であるRAM23に記憶されているリファレンスデータ44と上記検出動作識別手段32で識別された顎の開閉動作状態のデータとを比較し、比較結果の評価を遠隔入出力装置17のリモコン表示部17D若しくは表示部13(リモコン表示部17Dと共にでもよい)に表示させると共に、比較結果をRAM23に比較結果データ45として記憶していくプログラムである。なお、比較処理、評価処理については図7で説明する。   The comparative evaluation processing means 35 opens and closes the jaws specified by the reference information processing means (the syllable specifying means 33 and the reference specifying means 34) for the syllable in which the period to be sung has arrived based on the singing timing data described later. The reference data 44 stored in the RAM 23 as the state is compared with the data of the jaw opening / closing operation state identified by the detection operation identifying means 32, and the comparison result is evaluated and the remote control display unit 17D of the remote input / output device 17 is evaluated. Alternatively, the program is displayed on the display unit 13 (may be combined with the remote control display unit 17D) and the comparison result is stored in the RAM 23 as the comparison result data 45. The comparison process and the evaluation process will be described with reference to FIG.

ここで、図1に示される検出装置18は、ウェアラブル端末であって、カラオケルームなどに常備されて利用者によって当該検出装置18を選択的に所持されるもので、予めカラオケ装置11(検出信号受信部31)と近距離無線通信によりペアリングがなされている。検出装置18は、図4に示すように、装置本体61に検出処理手段62及び検出送信手段63を備え、外部に延長接続された検知センサ64を備える。当該検出処理手段62は、装置IDを保持して装置全体を統御するプログラムを備え、当該利用者がログインしたときに当該検出装置18(装置ID)を選択指定することにより関連付けられてRAM23に利用者情報42の一部として記憶される。   Here, the detection device 18 shown in FIG. 1 is a wearable terminal, which is always provided in a karaoke room or the like, and is selectively held by the user. The receiver 31) is paired by short-range wireless communication. As shown in FIG. 4, the detection apparatus 18 includes a detection processing unit 62 and a detection transmission unit 63 in the apparatus main body 61, and a detection sensor 64 extended and connected to the outside. The detection processing means 62 is provided with a program that holds the device ID and manages the entire device. When the user logs in, the detection processing unit 62 selects and specifies the detection device 18 (device ID) and uses it in the RAM 23. Stored as part of the person information 42.

上記検出送信手段63は、ペアリングされたカラオケ装置11の検出信号受信部31に対して検知センサ64で検知した検出信号を、例えば電圧レベルの信号又はレベル値に特化したデータ信号として送信するプログラム乃至電子回路である。上記検知センサ64は、歌唱による顎の動きを検出する圧力センサなどの検出素子を備えるもので、利用者の耳孔内に挿入できる形態のものや、耳孔周辺に装着できる形態などのものを使用することができるものである。   The detection transmission means 63 transmits the detection signal detected by the detection sensor 64 to the detection signal reception unit 31 of the paired karaoke apparatus 11 as, for example, a voltage level signal or a data signal specialized for the level value. A program or an electronic circuit. The detection sensor 64 includes a detection element such as a pressure sensor that detects movement of the jaw by singing, and uses a sensor that can be inserted into the ear canal of the user or a sensor that can be worn around the ear canal. It is something that can be done.

そこで、図5に図1のリファレンス特定手段における歌詞データに基づく顎動作特定処理の説明図を示すと共に、図6に図5の個別音節の顎動作特定処理の説明図を示し、図7に図1の比較評価手段における比較評価の説明図を示す。ここでは、楽曲が予約待ち行列41に選曲予約された際に、図3に示すRAM23に対象歌詞データ43が記憶されることを前提とする。   Therefore, FIG. 5 shows an explanatory diagram of the jaw movement specifying process based on the lyrics data in the reference specifying means of FIG. 1, FIG. 6 shows an explanatory diagram of the individual syllable jaw movement specifying process of FIG. 5, and FIG. The explanatory view of comparative evaluation in one comparative evaluation means is shown. Here, it is assumed that the target lyrics data 43 is stored in the RAM 23 shown in FIG. 3 when a music piece is reserved in the reservation queue 41.

楽曲の選曲予約がされると、当該楽曲の楽曲IDに基づいて、RAM23より読み出された図3に示す対象歌詞データ43に対して、音節特定手段33が、図5に示すように、歌詞データの最初の文字から順に、文字コードがひらがなである文字を音節として特定していく(漢字は特定しない)。   When the music selection reservation is made, the syllable specifying means 33 performs the lyrics as shown in FIG. 5 for the target lyrics data 43 shown in FIG. 3 read from the RAM 23 based on the music ID of the music. In order from the first character of the data, the character whose character code is hiragana is specified as a syllable (kanji is not specified).

リファレンス特定手段34は、図5に示すように、対象歌詞データ43を複数のフレーズ区間に区分する。例えば、図3の対象歌詞データ43において、歌詞の色変えが連続的に行われる歌詞文字列を一括のひとまとまりとして区分されている区間とするもので、各歌詞に対応付けられている色変タイミングデータに基づき、対象の音節の開始タイミングと、対象の音節の前の音節の終了タイミングが連続している場合は、この二つの音節は連続的に色変えが行われていることになり、一つのフレーズ区間に含ませる。   The reference specifying means 34 divides the target lyrics data 43 into a plurality of phrase sections as shown in FIG. For example, in the target lyric data 43 of FIG. 3, lyric character strings in which the lyric color is continuously changed are set as sections that are grouped together, and the color change associated with each lyric is changed. Based on the timing data, if the start timing of the target syllable and the end timing of the syllable before the target syllable are continuous, then the two syllables are continuously color-changed, Include in one phrase section.

図3の具体例を挙げれば、歌詞データにおける文字番号1の「あ」の終了タイミングと、続く文字番号2の「た」の開始タイミングが、どちらも演奏開始からの経過時間である9750msで連続し、以後文字番号7の「も」と文字番号8の「の」まで連続状態が続いており、これを一つのフレーズ区間に含ませる。   In the specific example of FIG. 3, the end timing of the character number 1 “A” in the lyrics data and the start timing of the subsequent character number 2 “TA” are both continuous at 9750 ms, which is the elapsed time from the start of the performance. Thereafter, the continuous state continues from the character number 7 “mo” to the character number 8 “no”, and this is included in one phrase section.

一方、対象の音節の開始タイミングと、対象の音節の前の音節の終了タイミングが連続していない場合は、この二つの音節は連続的に色変えが行われていないこととなり、ここがフレーズの区切りとなるため、対象の音節がフレーズ先頭となる。図3の具体例を挙げれば、歌詞データにおける文字番号8の「の」の終了タイミングが演奏開始からの経過時間である12700msで、続く文字番号10の「う」の開始タイミングが演奏開始からの経過時間である13000msであり、間に300msの連続しない区間があり、ここがフレーズの区切りとなるものである。   On the other hand, when the start timing of the target syllable and the end timing of the syllable before the target syllable are not consecutive, the two syllables are not continuously changed in color, and this is the phrase Since it is a delimiter, the target syllable is the beginning of the phrase. In the specific example of FIG. 3, the end timing of “no” of the character number 8 in the lyrics data is 12700 ms, which is the elapsed time from the start of the performance, and the start timing of the subsequent “u” of the character number 10 is from the start of the performance. The elapsed time is 13000 ms, and there is a non-continuous interval of 300 ms between them, which is a phrase delimiter.

リファレンス特定手段34は、続いて、音節特定手段33により特定された音節に対し、フレーズ区間の先頭の音節に対しては単音節テーブル54を参照して対応する顎の開閉動作状態を特定し、フレーズ区間の先頭以外の音節に対しては2連音節テーブル55を参照して当該対象の音節の直前の音節と当該対象の音節の順による組に対応する顎の開閉動作状態を特定していくものである。   Subsequently, the reference specifying means 34 specifies the opening / closing operation state of the corresponding jaw with respect to the syllable specified by the syllable specifying means 33 with reference to the single syllable table 54 for the first syllable of the phrase section, For the syllables other than the head of the phrase section, the double syllable table 55 is referred to and the jaw opening / closing operation state corresponding to the pair in the order of the syllable immediately before the target syllable and the target syllable is specified. Is.

具体例を示すと、図6(A)の例では、演奏に沿った図5の文字番号1の「あ」[(子音+)a]の音節について、フレーズ区間の先頭であるため、単音節テーブル54を参照して対象の音節[(子音+)a]に対応する顎の動き「↑」を特定する。また、図6(B)の例では、演奏に沿った図5の文字番号2の「た」[(子音+)a]の音節について、フレーズ区間の途中であるため、直前の音節が「あ」[(子音+)a]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)a]→[(子音+)a]に対応する顎の動き「↓↑」を特定する。   Specifically, in the example of FIG. 6A, since the syllable of “A” [(consonant +) a] of character number 1 in FIG. 5 along the performance is the head of the phrase section, it is a single syllable. The jaw movement “↑” corresponding to the target syllable [(consonant +) a] is specified with reference to the table 54. In the example of FIG. 6B, the syllable of “ta” [(consonant +) a] of the character number 2 in FIG. 5 along the performance is in the middle of the phrase section, so the immediately preceding syllable is “A”. ”[(Consonant +) a], referring to the double syllable table 55, the jaw movement“ ↓ corresponding to the target syllable [(consonant +) a] → [(consonant +) a] ” ↑ ”is specified.

図6(C)の例では、演奏に沿った図5の文字番号6の「く」[(子音+)u]の音節について、フレーズ区間の途中であるため、直前の音節が「を」[(子音+)o]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)o]→[(子音+)u]に対応する顎の動き「↓」を特定する。さらに、図6(D)の例では、演奏に沿った図5の文字番号7の「も」[(子音+)o]の音節について、フレーズ区間の途中であるため、直前の音節が「く」[(子音+)u]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)u]→[(子音+)o]に対応する顎の動き「↑」を特定する。   In the example of FIG. 6C, since the syllable of “ku” [(consonant +) u] of the character number 6 of FIG. 5 along the performance is in the middle of the phrase section, the immediately preceding syllable is “O” [ (Consonant +) o] is specified, and the jaw movement “↓” corresponding to the target syllable [(consonant +) o] → [(consonant +) u] is determined by referring to the double syllable table 55. Identify. Furthermore, in the example of FIG. 6D, the syllable of “M” [(consonant +) o] of the character number 7 of FIG. 5 along the performance is in the middle of the phrase section, so the immediately preceding syllable is “ku”. ”[(Consonant +) u]”, referring to the double syllable table 55, the jaw movement “↑ corresponding to the target syllable [(consonant +) u] → [(consonant +) o]” Is specified.

そして、リファレンス特定手段34において、上記歌詞データの特定する音節ごとに、上記のように顎の開閉動作状態を特定したリファレンスデータを特定していき、歌詞データ全部の音節で特定したリファレンスデータをRAM23にリファレンスデータ44として記憶する。   Then, in the reference specifying means 34, the reference data specifying the jaw opening / closing operation state as described above is specified for each syllable specified by the lyrics data, and the reference data specified by the syllable of all the lyrics data is stored in the RAM 23. Is stored as reference data 44.

そこで、比較評価処理手段35は、選曲予約されたカラオケ楽曲の演奏の際にRAM23よりリファレンスデータ44を読み出し、選曲予約されたカラオケ楽曲の演奏が開始され、歌唱タイミングデータに基づいて歌唱すべき期間が到来している音節のリファレンスデータと、当該音節の歌唱すべき期間中に歌唱者が装着した検出装置から受信して識別された検出動(顎の開閉動作状態)を比較することにより、その比較結果の評価を与える。   Therefore, the comparative evaluation processing means 35 reads the reference data 44 from the RAM 23 when the karaoke music reserved for music selection is played, the performance of the karaoke music reserved for music selection is started, and the period to be sung based on the singing timing data. By comparing the reference data of the syllables that have arrived with the detection motion (open / close operation state of the jaw) received and identified from the detection device worn by the singer during the period of singing of the syllable, Give an evaluation of the comparison results.

具体的には、図7に示すように、演奏時間軸上において、音節「あ」を歌唱すべき期間中に受信した検出動作が「↑(顎を開いた)」であった場合、当該音節「あ」に対応する顎の動きのレファレンスデータは「↑」であるため、当該音節については理想的な顎の動きが出来ているということとなり、例えば比較結果「○」となり、続く音節「た」の歌唱すべき期間中に受信した検出信号が「↓(顎を閉じた)」であった場合、当該音節「た」に対応する顎の動きリファレンスデータは「↓↑」であるため、当該音節については理想的な顎の動きが出来ていないということで、例えば比較結果「×」となるものである。   Specifically, as shown in FIG. 7, when the detection operation received during the period of singing the syllable “A” on the performance time axis is “↑ (open chin)”, the syllable Since the reference data of jaw movement corresponding to “A” is “↑”, it means that an ideal jaw movement has been made for the syllable, for example, the comparison result is “○”, and the following syllable “ When the detection signal received during the singing period is “↓ (jaw closed)”, the jaw movement reference data corresponding to the syllable “ta” is “↓ ↑”. For syllables, the ideal jaw movement has not been achieved, and for example, the comparison result is “x”.

比較評価処理手段35は、比較結果の評価を、遠隔入出力装置17のリモコン表示部17D及び表示部13の一方又は両方に表示させる。例えば、評価内容を歌唱の際にリアルタイム表示させる場合には、任意の音節の歌唱すべき期間が終了した時点での比較結果である「○」の回数と「×」の回数を評価内容として、表示部13やリモコン表示部17Dの画面上の所定の場所にリアルタイムに表示する。これによって、「×」より「○」の回数を増加させることを、すなわち顎の動きを気にしながら歌唱させることを意識させるものである。   The comparative evaluation processing unit 35 displays the evaluation of the comparison result on one or both of the remote control display unit 17D and the display unit 13 of the remote input / output device 17. For example, when the evaluation content is displayed in real time during the singing, the number of times “○” and the number of times “×”, which are comparison results at the time when the period for singing an arbitrary syllable is over, It is displayed in real time at a predetermined location on the screen of the display unit 13 or the remote control display unit 17D. In this way, the user is conscious of increasing the number of times “◯” from “X”, that is, singing while considering the movement of the jaw.

別の比較評価から評価表示の処理として、比較評価処理手段35において、上記リファレンスデータ44と受信した検出信号から識別した検出動作による顎の動きに基づいて、それぞれの顎の開閉回数をカウントする。具体的には、音節「あ」を歌唱すべき期間中の顎の動きは「↑」でこれを1回とし、続く音節「た」を歌唱すべき期間中の顎の動きは「↓↑」で2回とし、これが「の」まで演奏が進むと、リファレンスデータ44の顎の動き回数は9回になる。各音節の歌唱すべき期間が終了する度に、リファレンスデータ44に基づくカウント値と、検出動作のカウント値とを比較し、その比較結果の差に応じて評価する。   As a process of evaluation display from another comparative evaluation, the comparative evaluation processing means 35 counts the number of times each jaw is opened and closed based on the movement of the jaw by the detection operation identified from the reference data 44 and the received detection signal. Specifically, the jaw movement during the period to sing the syllable “a” is “↑”, and this is once, and the jaw movement during the period to sing the subsequent syllable “ta” is “↓ ↑”. When the performance progresses to “no”, the number of jaw movements in the reference data 44 is nine. Each time the syllable singing period ends, the count value based on the reference data 44 is compared with the count value of the detection operation, and evaluation is performed according to the difference between the comparison results.

すなわち、リファレンスデータ44と検出動作より特定した顎の動きに応じた開閉動作状態に基づいて、特定した「↑」、「↓」、「↓↑」からそれぞれの顎の開閉回数をカウントしていき、任意の音節を歌唱すべき期間が終了する度にリファレンスデータ44に基づくカウント値に対して、検出信号の検出動作のカウント値が所定値以上少ない比較結果のときには顎を意識して動かす意味での「↑」を評価とし、検出信号の検出動作のカウント値が所定値以上多い比較結果のときには顎を動かし過ぎという意味での「↓」を評価とし、検出信号の検出動作のカウント値が顎を動かすべき回数との差が所定値以内との比較結果のときにはスムーズに顎が動いているという意味での「GOOD」を評価としてリアルタイムに表示する。これによって、「GOOD」表示をいかに続けられるか、つまり顎の動きを気にしながら歌唱させるという歌唱を支援することができる。   That is, based on the reference data 44 and the open / close operation state corresponding to the jaw movement specified from the detection operation, the number of open / close times of each jaw is counted from the specified “↑”, “↓”, “↓ ↑”. When the period for singing an arbitrary syllable is over, the count value of the detection operation of the detection signal is less than a predetermined value relative to the count value based on the reference data 44, meaning that the jaw is consciously moved. “↑” is evaluated, and if the count value of the detection operation of the detection signal is more than a predetermined value, the evaluation value is “↓” in the sense that the jaw is moved too much, and the count value of the detection operation of the detection signal is When the difference from the number of times to move is within a predetermined value, “GOOD” in the sense that the jaw is moving smoothly is displayed in real time as an evaluation. Thus, it is possible to support the singing of how to continue the “GOOD” display, that is, singing while taking care of the jaw movement.

一方、評価内容を歌唱後に表示する場合には、比較評価処理手段35において、歌唱音節毎の比較結果をRAM23より比較結果データ45を読み出して歌唱後に表示させる。例えば、歌唱後に比較評価処理手段35が比較結果データ45を遠隔入出力装置17に対して楽曲ID及び利用者IDを紐づけて転送すれば、歌唱した利用者と比較結果データ45とが対応づけられることとなり、当該歌唱者は歌唱した楽曲の音節(ひらがな)をリモコン表示部17Dに表示し、当該比較結果データ45の各音節の比較結果を評価内容として「○」は青色で、「×」は赤色で文字を表示する。これにより、歌唱者はスムーズに顎が動いている音節、動いていない音節を確認することができるものである。   On the other hand, when the evaluation content is displayed after singing, the comparison evaluation processing means 35 reads the comparison result data 45 for each singing syllable from the RAM 23 and displays it after the singing. For example, if the comparative evaluation processing means 35 transfers the comparison result data 45 in association with the music ID and the user ID to the remote input / output device 17 after singing, the singer and the comparison result data 45 are associated with each other. The singer displays the syllable (hiragana) of the sung song on the remote control display unit 17D, and the comparison result of each syllable in the comparison result data 45 is evaluated as “○” in blue, “×” Displays characters in red. Thereby, the singer can confirm the syllables in which the jaw moves smoothly and the syllables in which the jaw does not move.

次に、図8に、図1のリファレンス特定手段における他の歌詞データに基づくフレーズ区間特定、リファレンス特定の説明図を示す。ここでは、フレーズ区間特定及びリファレンス特定の処理を示したものである。また、RAM23には、図8(A)に示すように、対象演奏データ71の記憶領域が形成され、予約待ち行列41に選曲予約された楽曲IDに基づいて楽曲DB51より読み出された演奏データが記憶される。   Next, FIG. 8 shows an explanatory diagram of phrase section specification and reference specification based on other lyrics data in the reference specifying means of FIG. Here, the phrase section specifying process and the reference specifying process are shown. Further, as shown in FIG. 8A, the RAM 23 has a storage area for the target performance data 71, and the performance data read from the music DB 51 based on the music ID reserved for music selection in the reservation queue 41. Is memorized.

そこで、リファレンス特定手段34は、図8(B)において、まず、RAM23に記憶された対象歌詞データ43及び対象演奏データ71から、楽曲の演奏データに含まれる歌唱旋律パートの楽譜データの各音符に対して歌唱すべき歌詞文字データを対応づけた歌詞文字・旋律対応データ(図8(B)の音符・休符、音高、歌詞の対応データ)を作成する。具体的には、歌唱旋律パートの楽譜データの各音符の発音タイミングと、対象歌詞データ43の各音節の色変えタイミングの一致度から、音符に対応する音節をそれぞれ特定する。その際、歌唱者が歌唱しやすいように各音符の発音の開始より先に音節の色替えが開始されるよう設定されているため、このタイミング差を考慮するとよい。また、ひとつの音節を複数の音符で発音するような場合でも、当該音節の色替え時間と当該二つの音符の発音持続時間の一致度によって対応付けが可能となる。   Therefore, in FIG. 8B, the reference specifying means 34 first converts each musical note data of the singing melody part included in the musical performance data from the target lyrics data 43 and the target musical performance data 71 stored in the RAM 23. On the other hand, lyric character / melody correspondence data (corresponding data of note / rest, pitch, and lyrics in FIG. 8B) is created in association with lyric character data to be sung. Specifically, the syllable corresponding to the note is specified from the degree of coincidence between the pronunciation timing of each note in the musical score data of the singing melody part and the color change timing of each syllable in the target lyrics data 43. At this time, the syllable color change is set to be started before the start of the pronunciation of each note so that the singer can easily sing, so this timing difference should be taken into consideration. Further, even when one syllable is pronounced with a plurality of notes, it is possible to associate them according to the degree of coincidence between the color change time of the syllable and the pronunciation duration of the two notes.

続いて、上記歌詞文字・旋律対応データに基づいて顎の動きを特定する場合のフレーズ区間を、旋律パートの音符の発音が連続的に行われる歌詞文字列を一括のひとまとまりとして区分する。すなわち、音符が連続している間は、二つの音符に対応付けられた音節は連続的に発音されることとなるため、ひとつのフレーズ区間に含ませる。例えば、図8(B)に示す音節「あたまをくものうえにだし」に対応する音符は連続しているものを一つのフレーズ区間に含ませる。   Subsequently, the phrase section in the case where the movement of the jaw is specified based on the lyric character / melody correspondence data is classified as a batch of lyric character strings in which the melody part's notes are continuously pronounced. In other words, while the notes are continuous, the syllables associated with the two notes are continuously pronounced, and thus are included in one phrase section. For example, notes that correspond to the syllable “Atamagomono ni dashi” shown in FIG. 8B are included in one phrase section.

また、休符を挟む前後二つの音符は休符により連続的に発音されないこととなるため、休符をフレーズの区切りとし、休符の次の音符に対応付けられた音節をフレーズ先頭とする。例えば、図8(B)に示す音節「〜うえにだし」の「し」に対応する二分音符の次に四分休符があるため、その次の付点四分音符対応する音節「しほうの」の「し」をフレーズ先頭とさせるものである。   In addition, since the two notes before and after the rest are not continuously pronounced by the rest, the rest is a phrase delimiter, and the syllable associated with the next note after the rest is the head of the phrase. For example, since there is a quarter rest next to the half note corresponding to “shi” in the syllable “˜ue ni dashi” shown in FIG. 8 (B), the syllable “shikata” corresponding to the next dotted quarter note. “” Of “no” is the head of the phrase.

そして、図8(B)に示すように、単音節テーブル54及び2連音節テーブル55を参照して特定した顎の動き(「↑」、「↓」、「↓↑」)を対象の音節に対応付けることにより、歌詞データ及び演奏データに基づいた音節毎のリファレンスデータ44を特定するものである。なお、このように特定され記憶されたリファレンスデータ44は、比較評価処理手段35における処理において、歌唱旋律パートの楽譜データの各音符の発音タイミングに基づいて、歌唱すべき期間が到来している音節のリファレンスデータを特定することになる。   Then, as shown in FIG. 8B, the jaw movements (“↑”, “↓”, “↓ ↑”) identified with reference to the single syllable table 54 and the double syllable table 55 are set as the target syllables. By associating, the reference data 44 for each syllable based on the lyrics data and the performance data is specified. The reference data 44 specified and stored in this way is the syllable in which the period to be sung has arrived in the processing in the comparative evaluation processing means 35 based on the pronunciation timing of each note of the musical score data of the singing melody part. The reference data is specified.

このような歌詞データ及び演奏データによるフレーズの区分処理によっても楽曲歌唱の際の顎の開閉動作状態のリファレンスデータでの推測、特定をより高精度とすることができ、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。   This sort of phrasal data and performance data can be used to estimate and specify the jaw opening / closing operation state during song singing with higher accuracy, and karaoke of tens of thousands of songs. It is not necessary to create data in advance for music, and can be realized with a simple configuration.

上記のように、カラオケ楽曲の演奏の際に画面に表示される歌詞に合わせて、歌唱者が歌唱した際の顎の動きと、当該楽曲の歌詞に基づく理想的な顎の動とが歌唱すべき音節毎に比較されるため、歌唱時のスムーズな顎の動きが出来ているか否かを歌唱者が音節毎に確認することが可能となり、歌唱時に顎の動きを意識させて良い発声を促す歌唱を支援することができるものである。   As described above, according to the lyrics displayed on the screen during the performance of karaoke music, the movement of the jaw when the singer sings and the ideal movement of the jaw based on the lyrics of the music sings Since it is compared for each syllable, it is possible for the singer to check for smooth chin movements at the time of singing for each syllable. It can support singing.

また、歌詞データや演奏データより楽曲歌唱の際に開閉するであろう顎の開閉動作(リファレンスデータ)を推測、特定することから、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。   Moreover, since the jaw opening / closing operation (reference data) that will open and close during song singing is estimated and specified from the lyrics data and performance data, data is created in advance for tens of thousands of karaoke songs. This is not necessary and can be realized with a simple configuration.

本発明のカラオケ装置は、カラオケの基本的機能を備えたカラオケ端末及びカラオケ用のサーバの製造、使用、販売等の産業に利用可能である。   The karaoke apparatus of the present invention can be used in industries such as manufacture, use, and sales of a karaoke terminal having a basic karaoke function and a karaoke server.

11 カラオケ装置
12 カラオケ本体
17 遠隔入出力装置
18 検出装置
28 記憶部
31 検出信号受信部
32 検出動作識別手段
33 音節特定手段
34 リファレンス特定手段
35 比較評価処理手段
43 対象歌詞データ
44 リファレンスデータ
45 比較結果データ
53 リファレンスデータベース
54 単音節テーブル
55 2連音節テーブル
63 検出送信手段
64 検知センサ
DESCRIPTION OF SYMBOLS 11 Karaoke apparatus 12 Karaoke main body 17 Remote input / output apparatus 18 Detection apparatus 28 Memory | storage part 31 Detection signal receiving part 32 Detection operation | movement identification means 33 Syllable identification means 34 Reference identification means 35 Comparison evaluation processing means 43 Target lyrics data 44 Reference data 45 Comparison result Data 53 Reference database 54 Single syllable table 55 Dual syllable table 63 Detection transmission means 64 Detection sensor

Claims (4)

歌唱による歌唱者の顎の動きを検出する検出装置と通信自在であり、当該検出信号を受信可能なカラオケ装置であって、
楽曲の演奏中に前記検出装置より受信した信号に基づき歌唱者の顎の動きに応じた開閉動作状態を識別する検出動作識別手段と、
歌唱される前記楽曲の歌詞データに含まれる歌詞文字の音節に応じて歌唱者の顎の動きに応じた開閉動作状態を推測するリファレンスデータを、音節と顎の開閉動作状態とを予め設定した所定数の音節テーブルに基づいて特定するリファレンス情報処理手段と、
歌唱される前記楽曲の歌詞データに含まれる各歌詞文字には歌唱タイミングデータが対応付けられ、当該歌唱タイミングデータに基づき歌唱すべき期間が到来している音節の前記リファレンス情報処理手段で特定したリファレンスデータと、前記検出動作識別手段で識別された顎の開閉動作状態とを比較し、比較結果の評価を表示させる比較評価処理手段と、
を有することを特徴とするカラオケ装置。
A karaoke device that can communicate with a detection device that detects the movement of a singer's jaw by singing and can receive the detection signal,
A detection operation identifying means for identifying an opening / closing operation state according to the movement of the singer's jaw based on a signal received from the detection device during the performance of the music;
Reference data for inferring the opening / closing operation state according to the movement of the singer's jaw according to the syllable of the lyric character included in the lyrics data of the song to be sung, a predetermined syllable and the opening / closing operation state of the jaw Reference information processing means for identifying based on a number of syllable tables;
Singing timing data is associated with each lyric character included in the lyric data of the song to be sung, and the reference specified by the reference information processing means of the syllable in which the period to be sung has arrived based on the singing timing data Comparison evaluation processing means for comparing the data and the open / close operation state of the jaw identified by the detection action identification means, and displaying the evaluation of the comparison result,
A karaoke apparatus comprising:
請求項1記載のカラオケ装置であって、
前記所定数の音節テーブルは、一つの音節を発声する際の顎の開閉動作状態を対応付けた単音節テーブル、二つの音節について第一の音節を発声した状態から第二の音節を発声する際の顎の開閉動作状態を当該二つの音節の順による組に対応付けた2連音節テーブルであり、
前記リファレンス情報処理手段は、
前記歌詞データの先頭文字から順次音節を特定する音節特定手段と、
前記歌詞データを複数のフレーズ区間に区分し、前記音節特定手段により特定された音節が、フレーズ区間の先頭の場合に当該音節に対応する顎の開閉動作状態を前記単音節テーブルより特定し、フレーズ区間の先頭以外の音節の場合に当該音節の前の音節と当該音節の順による組に対応する顎の開閉動作状態を前記2連音節テーブルから特定するリファレンス特定手段と、
を有することを特徴とするカラオケ装置。
The karaoke apparatus according to claim 1,
The predetermined number of syllable tables is a single syllable table that correlates the opening / closing operation state of the jaw when uttering one syllable, and when uttering the second syllable from the state that uttered the first syllable for two syllables Is a double syllable table in which the opening / closing operation state of the chin is associated with a pair in the order of the two syllables,
The reference information processing means includes
Syllable specifying means for sequentially specifying syllables from the first character of the lyrics data;
The lyrics data is divided into a plurality of phrase sections, and when the syllable specified by the syllable specifying means is the head of the phrase section, the jaw opening / closing operation state corresponding to the syllable is specified from the single syllable table, and the phrase A reference specifying means for specifying, from the double syllable table, a jaw opening / closing operation state corresponding to a pair in the order of the syllable preceding the syllable and the syllable in the case of a syllable other than the head of the section;
A karaoke apparatus comprising:
請求項2記載のカラオケ装置であって、
前記楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、当該歌詞データに含まれる歌詞文字ごとの色変えタイミングデータであり、
前記リファレンス特定手段は、前記フレーズ区間を、歌詞の色変えが連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定することを特徴とするカラオケ装置。
A karaoke apparatus according to claim 2,
Singing timing data associated with each lyric character included in the lyric data of the music is color change timing data for each lyric character included in the lyric data,
The karaoke characterized in that the reference specifying means classifies the phrase section as a batch of lyrics character strings in which the color of the lyrics is continuously changed, and specifies the opening / closing operation state of each syllable jaw for each section. apparatus.
請求項2記載のカラオケ装置であって、
前記楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、楽曲の演奏データに含まれる旋律パートの楽譜データの各音符に歌詞文字が対応づけられたデータであり、
前記リファレンス特定手段は、前記フレーズ区間を、音符の発音が連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定することを特徴とするカラオケ装置。
A karaoke apparatus according to claim 2,
Singing timing data associated with each lyric character included in the lyric data of the music is data in which a lyric character is associated with each note of the musical score data of the melody part included in the performance data of the music,
The karaoke apparatus characterized in that the reference specifying means divides the phrase section as a batch of lyrics character strings in which the pronunciation of notes is continuously performed, and specifies the opening / closing operation state of each syllable jaw for each section .
JP2014266353A 2014-12-26 2014-12-26 Karaoke equipment Active JP6436770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014266353A JP6436770B2 (en) 2014-12-26 2014-12-26 Karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014266353A JP6436770B2 (en) 2014-12-26 2014-12-26 Karaoke equipment

Publications (2)

Publication Number Publication Date
JP2016126135A true JP2016126135A (en) 2016-07-11
JP6436770B2 JP6436770B2 (en) 2018-12-12

Family

ID=56359363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014266353A Active JP6436770B2 (en) 2014-12-26 2014-12-26 Karaoke equipment

Country Status (1)

Country Link
JP (1) JP6436770B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111552836A (en) * 2020-04-29 2020-08-18 咪咕文化科技有限公司 Lyric display method, device and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166345A (en) * 1997-08-11 1999-03-09 Sega Enterp Ltd Image acoustic processor and recording medium
JP2005242230A (en) * 2004-02-27 2005-09-08 Yamaha Corp Karaoke machine
JP2012047998A (en) * 2010-08-27 2012-03-08 Tokai Univ Utterance learning support device and program thereof
JP2013050705A (en) * 2011-07-29 2013-03-14 Yamaha Corp Voice synthesizer
JP2014063089A (en) * 2012-09-24 2014-04-10 Brother Ind Ltd Karaoke device and program for karaoke

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166345A (en) * 1997-08-11 1999-03-09 Sega Enterp Ltd Image acoustic processor and recording medium
JP2005242230A (en) * 2004-02-27 2005-09-08 Yamaha Corp Karaoke machine
JP2012047998A (en) * 2010-08-27 2012-03-08 Tokai Univ Utterance learning support device and program thereof
JP2013050705A (en) * 2011-07-29 2013-03-14 Yamaha Corp Voice synthesizer
JP2014063089A (en) * 2012-09-24 2014-04-10 Brother Ind Ltd Karaoke device and program for karaoke

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111552836A (en) * 2020-04-29 2020-08-18 咪咕文化科技有限公司 Lyric display method, device and storage medium

Also Published As

Publication number Publication date
JP6436770B2 (en) 2018-12-12

Similar Documents

Publication Publication Date Title
CN101223571B (en) Voice tone variation portion locating device and method
JP6158179B2 (en) Information processing apparatus and information processing method
US10553240B2 (en) Conversation evaluation device and method
JP2007256617A (en) Musical piece practice device and musical piece practice system
KR20140071070A (en) Method and apparatus for learning pronunciation of foreign language using phonetic symbol
JP4748568B2 (en) Singing practice system and singing practice system program
JP6436770B2 (en) Karaoke equipment
WO2014087571A1 (en) Information processing device and information processing method
JP2007292979A (en) Device for supporting aphasia rehabilitation training
JP4048226B1 (en) Aphasia practice support equipment
JP6150276B2 (en) Speech evaluation apparatus, speech evaluation method, and program
JP6429610B2 (en) Karaoke equipment
JP2020076878A (en) Karaoke device, karaoke device control method, and program
JP2007140548A (en) Portrait output device and karaoke device
JP4185991B2 (en) Finger music playing device
JP2017198922A (en) Karaoke device
JP2005345555A (en) Karaoke system having grading information display function
JP4501874B2 (en) Music practice device
KR102634347B1 (en) Apparatus for training and testing to cognitive function using user interaction
EP4213130A1 (en) Device, system and method for providing a singing teaching and/or vocal training lesson
KR102559460B1 (en) Apparatus for improving auditory function using music-based multi-task training, singing training, and instrument discrimination training
JP7223650B2 (en) karaoke device
Lui A Compact Spectrum-Assisted Human Beatboxing Reinforcement Learning Tool On Smartphone.
JP6821747B2 (en) Karaoke equipment
KR20070105098A (en) An apparatus for correcting a pitch

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181113

R150 Certificate of patent or registration of utility model

Ref document number: 6436770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250