JP2016126135A - Karaoke device - Google Patents
Karaoke device Download PDFInfo
- Publication number
- JP2016126135A JP2016126135A JP2014266353A JP2014266353A JP2016126135A JP 2016126135 A JP2016126135 A JP 2016126135A JP 2014266353 A JP2014266353 A JP 2014266353A JP 2014266353 A JP2014266353 A JP 2014266353A JP 2016126135 A JP2016126135 A JP 2016126135A
- Authority
- JP
- Japan
- Prior art keywords
- syllable
- data
- jaw
- opening
- singing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、カラオケ歌唱における発声支援機能を備えるカラオケ装置に関する。 The present invention relates to a karaoke apparatus having an utterance support function in karaoke singing.
近年、カラオケルームに設置されたカラオケ装置の演奏に合わせて利用者が歌唱する際に、良い発声をするために、また美容や健康のために、口を大きく開けて歌唱することが推奨されている。カラオケ歌唱においては、極端に口を大きく開けることにより顎関節への負担が増して弊害が生じる可能性があるため、大きく口を開けることを意識するのではなく、下顎の関節をリラックスさせてスムーズに動かすことを意識することが必要と考えられている。一方で、気心の知れたメンバーと歌唱するような時は、指導者のもとで歌唱する場合とは異なり、特に顎の動きなど気に留めることもなく、さらにマイク信号の増幅機能により余り下顎骨を動かさずに歌唱する傾向が強く、このような歌唱者の傾向に対しては、下顎の関節をリラックスさせてスムーズに動かすことを意識させるカラオケコンテンツの提供が望まれる。 In recent years, when a user sings along with the performance of a karaoke device installed in a karaoke room, it is recommended to sing with a wide open mouth for good speech and beauty and health. Yes. In karaoke singing, opening the mouth extremely wide may increase the burden on the temporomandibular joint and cause harm, so do not be conscious of opening the mouth greatly, but relax the joint of the lower jaw and smoothly It is thought that it is necessary to be conscious of moving. On the other hand, when singing with a well-known member, unlike the case of singing under the leadership, there is no particular concern about the movement of the chin, and the microphone signal amplification function is much lower. There is a strong tendency to sing without moving the jawbone, and it is desirable to provide karaoke content that makes it conscious that the joint of the lower jaw can be moved smoothly by relaxing the joint of the lower jaw.
従来、顎の動きを検出する技術として、例えば、特許文献1のように、咀嚼によって生じる筋肉の動きによる耳道内の圧力変化を、外耳道内に挿入した圧力センサによって感知して測定し、その圧力変化の回数を咀嚼回数として表示する技術が知られている。また、特許文献2のように、基台部を人体に密着させ、当該基台部に連続して検知手段が位置されて咀嚼により派生する動きを検知し、この検知信号を受信して咀嚼回数として記録して表示する技術も知られている。
Conventionally, as a technique for detecting the movement of the jaw, for example, as in
一方、カラオケにおいては歌唱者の口の形状の適切さを採点結果に反映させる技術が知られており、例えば、特許文献3のように、口の理想的な縦横比を表す形状データを母音ごとに有する理想形状データとして記憶しておき、演奏中の楽曲データ内の歌詞データに基づいて特定される歌唱者が現に発音すべき音節を、当該音節を構成する母音に応じた形状データを理想形状データから抽出し、この抽出した形状データの縦横比に対するカメラの撮像画像から計測された歌唱者の口の縦横比の形状適合度を算出して、この形状適合度に基づく画像点数データを生成する技術が知られている。
On the other hand, in karaoke, a technique for reflecting the appropriateness of the mouth shape of the singer in the scoring result is known. For example, as in
ところで、カラオケ楽曲を歌詞に従って歌唱することは咀嚼と同様に顎を動かすことになるため、特許文献1や特許文献2に記載の咀嚼回数を検出できる装置を歌唱者が装着することで、歌唱の際の顎の動きを検出することが可能となるが、顎が動いた回数をカウントするだけの技術であって実際に顎が動いた回数が結果として表示されるだけであり、各カラオケ楽曲を歌詞通りに歌唱した場合の理想的な顎の動きの比較を行うことができず、良い発声を促す歌唱支援とすることができないという問題がある。
By the way, singing karaoke music according to the lyrics moves the chin like chewing, so the singer can wear a device that can detect the number of mastications described in
また、特許文献3に記載の技術は、単に歌唱採点をさせる手法に過ぎず、歌唱時の口の形状の特定だけでは歌唱時に歌詞の沿ってスムーズな顎の動きが出来ているか否かを判定することができず、良い発声を促す歌唱支援とさせることができないという問題がある。
In addition, the technique described in
そこで、本発明は上記課題に鑑みなされたもので、歌唱時に顎の動きを意識させて良い発声を促す歌唱を支援するカラオケ装置を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a karaoke apparatus that supports singing that encourages utterance that allows the user to be aware of the jaw movement during singing.
上記課題を解決するために、請求項1の発明では、歌唱による歌唱者の顎の動きを検出する検出装置と通信自在であり、当該検出信号を受信可能なカラオケ装置であって、楽曲の演奏中に前記検出装置より受信した信号に基づき歌唱者の顎の動きに応じた開閉動作状態を識別する検出動作識別手段と、歌唱される前記楽曲の歌詞データに含まれる歌詞文字の音節に応じて歌唱者の顎の動きに応じた開閉動作状態を推測するリファレンスデータを、音節と顎の開閉動作状態とを予め設定した所定数の音節テーブルに基づいて特定するリファレンス情報処理手段と、歌唱される前記楽曲の歌詞データに含まれる各歌詞文字には歌唱タイミングデータが対応付けられ、当該歌唱タイミングデータに基づき歌唱すべき期間が到来している音節の前記リファレンス情報処理手段で特定したリファレンスデータと、前記検出動作識別手段で識別された顎の開閉動作状態とを比較し、比較結果の評価を表示させる比較評価処理手段と、を有する構成とする。
In order to solve the above-mentioned problems, the invention of
請求項2〜4の発明では、「前記所定数の音節テーブルは、一つの音節を発声する際の顎の開閉動作状態を対応付けた単音節テーブル、二つの音節について第一の音節を発声した状態から第二の音節を発声する際の顎の開閉動作状態を当該二つの音節の順による組に対応付けた2連音節テーブルであり、前記リファレンス情報処理手段は、前記歌詞データの先頭文字から順次音節を特定する音節特定手段と、前記歌詞データを複数のフレーズ区間に区分し、前記音節特定手段により特定された音節が、フレーズ区間の先頭の場合に当該音節に対応する顎の開閉動作状態を前記単音節テーブルより特定し、フレーズ区間の先頭以外の音節の場合に当該音節の前の音節と当該音節の順による組に対応する顎の開閉動作状態を前記2連音節テーブルから特定するリファレンス特定手段と、を有する」構成とし、
「前記楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、当該歌詞データに含まれる歌詞文字ごとの色変えタイミングデータであり、前記リファレンス特定手段は、前記フレーズ区間を、歌詞の色変えが連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定する」構成とし、
「前記楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、楽曲の演奏データに含まれる旋律パートの楽譜データの各音符に歌詞文字が対応づけられたデータであり、前記リファレンス特定手段は、前記フレーズ区間を、音符の発音が連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定する」構成とする。
According to the second to fourth aspects of the present invention, “the predetermined number of syllable tables is a single syllable table associated with the opening / closing operation state of the jaw when uttering one syllable, and the first syllable is uttered for two syllables. A syllable table in which the jaw opening / closing operation state at the time of uttering the second syllable from the state is associated with the pair in the order of the two syllables, and the reference information processing means starts from the first character of the lyrics data Syllable specifying means for sequentially specifying syllables, and the lyrics data is divided into a plurality of phrase sections, and when the syllable specified by the syllable specifying means is the head of a phrase section, the jaw opening / closing operation state corresponding to the syllable Is determined from the single syllable table, and in the case of a syllable other than the head of the phrase section, the syllable preceding the syllable and the jaw opening / closing operation state corresponding to the pair in the order of the syllable are described in the double syllable table. And a reference identifying means for al identified, and the having "configuration,
“Singing timing data associated with each lyric character included in the lyric data of the music is color change timing data for each lyric character included in the lyric data, and the reference specifying means includes the phrase section, The lyric character strings that change the color of the lyrics continuously are classified as a batch, and the opening and closing operation state of each syllable jaw is specified for each category.
“Singing timing data associated with each lyric character included in the lyric data of the music is data in which a lyric character is associated with each note of the musical score data of the melody part included in the performance data of the music, The reference specifying means has a configuration in which the phrase section is divided into lyrics character strings in which the pronunciation of notes is continuously performed, and the opening / closing operation state of each syllable jaw is specified for each division.
請求項1の発明によれば、楽曲の演奏中に検出装置より受信した信号から歌唱者の顎の動きに応じた開閉動作状態を識別し、歌唱される楽曲の歌詞データに含まれる歌詞文字の音節に応じて歌唱者の顎の動きに応じた開閉動作状態を推測するリファレンスデータを、音節と顎の開閉動作状態とを予め設定した所定数の音節テーブルに基づいて特定し、楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータに基づき歌唱すべき期間が到来している音節のリファレンスデータと検出動作識別手段で識別された顎の開閉動作状態とを比較し、比較結果の評価を表示させる構成とすることにより、カラオケ楽曲の演奏の際に画面に表示される歌詞に合わせ、歌唱者が歌唱した際の顎の動きと、当該楽曲の歌詞に基づく理想的な顎の動とが音節毎に比較されるため、歌唱時のスムーズな顎の動きが出来ているか否かを歌唱者が音節毎に確認することが可能となり、歌唱時に顎の動きを意識させて良い発声を促す歌唱を支援することができるものである。 According to the first aspect of the present invention, the opening / closing operation state corresponding to the movement of the singer's jaw is identified from the signal received from the detection device during the performance of the music, and the lyrics characters included in the lyrics data of the music to be sung Lyric data of music by specifying reference data for estimating the opening / closing operation state according to the movement of the singer's jaw according to the syllable based on a predetermined number of syllable tables in which the syllable and the opening / closing operation state of the jaw are set in advance. The reference data of the syllable that has reached the period to be sung based on the singing timing data associated with each lyric character included in the lyric character is compared with the opening / closing operation state of the jaw identified by the detection operation identifying means, and the comparison result It is ideal based on the movement of the jaw when the singer sings and the lyrics of the song, in accordance with the lyrics displayed on the screen when playing the karaoke song. Since the movement of the chin is compared for each syllable, it is possible for the singer to check for each syllable whether the movement of the chin is smooth or not. It can support singing that promotes good utterance.
請求項2の発明によれば、一つの音節を発声する際の顎の開閉動作状態を対応付けた単音節テーブル、二つの音節について第一の音節を発声した状態から第二の音節を発声する際の顎の開閉動作状態を当該二つの音節の順による組に対応付けた2連音節テーブルを備え、歌詞データの先頭文字から順次音節を特定し、歌詞データを複数のフレーズ区間に区分して、特定された音節が、フレーズ区間の先頭の場合に当該音節に対応する顎の開閉動作状態を単音節テーブルより特定し、フレーズ区間の先頭以外の音節の場合に当該音節の前の音節と当該音節の順による組に対応する顎の開閉動作状態を2連音節テーブルから特定する構成とすることにより、歌詞データより楽曲歌唱の際の顎の開閉動作状態をリファレンスデータで推測、特定することから、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。
According to the invention of
請求項3,4の発明によれば、楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、当該歌詞データに含まれる歌詞文字ごとの色変えタイミングデータ又は楽曲の演奏データに含まれる旋律パートの楽譜データの各音符に歌詞文字が対応づけられたデータであり、フレーズ区間を、歌詞の色変えが連続的に行われる歌詞文字列又は音符の発音が連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定する構成とすることにより、歌詞データや演奏データによる楽曲歌唱の際の顎の開閉動作状態のリファレンスデータでの推測、特定をより高精度とすることができるものである。 According to the third and fourth aspects of the invention, the singing timing data associated with each lyric character included in the lyric data of the music is the color change timing data for each lyric character included in the lyric data or the performance data of the music. This is data in which lyrics characters are associated with each note of the musical score data of the melody part included in the lyric part. By categorizing the lyrics character string as a whole and specifying the opening / closing operation state of each syllable jaw for each division, the reference data of the opening / closing operation state of the jaw when singing a song by lyric data or performance data The estimation and identification can be made with higher accuracy.
以下、本発明の実施形態を図により説明する。
図1に本発明に係るカラオケ装置のブロック構成図を示すと共に、図2に図1の単音節テーブル及び2連音節テーブルの説明図を示し、図3にリファレンス特定対象の歌詞データの説明図を示し、図4に図1の検出装置のブロック構成図を示す。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of the karaoke apparatus according to the present invention, FIG. 2 is an explanatory diagram of the single syllable table and the double syllable table of FIG. 1, and FIG. FIG. 4 shows a block diagram of the detection apparatus of FIG.
図1において、カラオケ装置11は、主要装置としてのカラオケ本体12に、有線又は無線で外部接続されるものとして、表示部13、ミキシングアンプ14、マイク15、スピーカ16、遠隔入出力装置17が接続されることで構成され、当該カラオケ本体12は、所定数の検出装置18(18A〜18N)に対して通信自在とされる(検出装置18については図4で説明する)。
In FIG. 1, a
上記表示部13は、通常の楽曲選曲表示やカラオケ演奏時の背景映像等を表示するもので、例えば液晶ディスプレイ(LCD)、プラズマディスプレイ(PDP)、その他種々のディスプレイを採用することができる。上記ミキシングアンプ14は、カラオケ本体12より送られてくる音楽演奏信号に、マイク15からの音声信号をミキシングし、増幅してスピーカ16より出力する。
The
上記遠隔入出力装置17は、図示しない端末送受信部により、カラオケ本体12に対して有線方式ないし無線方式(IR方式やブルートゥース(登録商標)機構のピコネット接続方式など)を利用してデータ授受を行うためのもので、少なくともログイン・ログアウト処理手段17A、楽曲検索手段である選曲楽曲登録手段17B、検出装置選択手段17C及びリモコン表示部17Dを適宜備える。
The remote input /
上記ログイン・ログアウト処理手段17Aは、利用者によるログイン操作に応じて当該利用者より利用者名や利用者IDを取得し、RAM23に利用者情報42として記憶してログインを許可する処理を行うと共に、ログアウト操作に応じて利用終了の処理を行うプログラムである。なお、遠隔入出力装置17は後述のGUI機能によって利用者が歌唱したい楽曲を検索して予約することが可能であるが、利用者は先にカラオケ装置11にログインしていることが望ましい。
The login / logout processing means 17A obtains a user name and user ID from the user in response to a login operation by the user, stores the user name and user ID in the
上記選曲楽曲登録手段17Bは、楽曲IDや曲名、アーチスト名などのデータからなるテーブルに基づいて、利用者が所望する楽曲を検索させ、選曲された楽曲の楽曲IDをカラオケ本体12に送信するプログラムである。送信された楽曲IDは、カラオケ本体12におけるRAM23予約待ち行列41に登録される。
The music selection music registration means 17B is a program for searching the music desired by the user based on a table including data such as music ID, music title, artist name, etc. and transmitting the music ID of the music selected to the karaoke
上記検出装置選択手段17Cは、検出装置18とログインした利用者とを対応付けるプログラムである。具体的には、リモコン表示部17Dに、既にカラオケ装置11とペアリングがなされている検出装置18A〜18Nのリストを表示させ、当該リストの中から、自分の使用する検出装置18を選択することで利用者と検出装置18とを対応付け、その情報をRAM23に利用者情報42の一つとして記憶する。そして、利用者は楽曲予約時に、歌唱者として自分を選択した上で予約操作を行えば、当該楽曲の演奏時にカラオケ装置11は、当該利用者に対応付けられている検出装置18からの検出信号のみを受信することになる。
The detection device selection means 17C is a program that associates the
上記リモコン表示部17Dは、液晶ディスプレイ(LCD)とタッチセンサとを積層して入出力用とし、表示されるアイコン等に対応して当該タッチセンサにより楽曲の選択などのデータを入力することができるGUIのユーザインタフェース機能を有するものである。 The remote control display unit 17D has a liquid crystal display (LCD) and a touch sensor stacked to be used for input / output, and can input data such as music selection by the touch sensor corresponding to displayed icons and the like. It has a GUI user interface function.
上記カラオケ本体12は、バス20、中央制御部21、ROM22、RAM23、映像表示制御手段24、音楽演奏制御部25、音源(シンセサイザ)25A、採点手段26、A/D変換部26A、送受信部27、記憶部28、検出信号受信部31、検出動作識別手段32、音節特定手段33、リファレンス特定手段34及び比較評価処理手段35を備える。音節特定手段33及びリファレンス特定手段34によりリファレンス情報処理手段を構成する。
The karaoke
上記RAM23には予約待ち行列41、利用者情報42、対象歌詞データ43、リファレンスデータ44及び比較結果データ45の記憶領域が形成される。また、記憶部28には、楽曲データベース(楽曲DB)51、映像データベース(映像DB)52、リファレンスデータベース(リファレンスDB)53、単音節テーブル54及び2連音節テーブル55が記憶される。なお、上記各構成について、本発明の要旨と直接関連しない要素部分であっても、従前のカラオケシステムにおいても大部分が適用可能であることを示すために、構成要素の全体を説明する。
In the
上記中央制御部21は、このシステムを統括的に処理制御する物理的なCPUであり、ROM22に記憶されているプログラムに基づくアルゴリズム処理を行う。上記RAM23は、予約待ち行列41、利用者情報42、対象歌詞データ43、リファレンスデータ44及び比較結果データ45の記憶領域が形成される他に、上記種々のプログラムを展開、実行させるための作業領域としての役割をなすもので、例えば半導体メモリで構成され、仮想的にハードディスク上に構築される場合をも含む概念である。
The
RAM23に記憶される上記対象歌詞データ43は、予約待ち行列41に選曲予約登録された楽曲IDに基づく楽曲DB51より読み出した歌詞データである。この楽曲の歌詞データは、図3に示すように、全歌詞文字を適宜な小節ごとに区切った頁と、表示部13等に表示される横1列分の文字列で区切った行、各文字の文字番号と文字コード、歌詞本文かルビかの種別コード、表示部13等の画面の表示位置を示す表示レイアウト、各文字についての演奏時系列上で色変え処理する色変えタイミングからなる。当該色替えタイミングは、色変え開始時間と終了時間からなり、例えば演奏開始からの経過時間をms単位で表したものである。
The
すなわち、この歌詞データは頁と行によって区分されており、頁は表示部13の1画面分における最大表示単位、行は表示部13等に表示したときの横1行分の文字列であり、この頁、または行が後述のリファレンス特定手段34において複数のフレーズ区間に区分され(図5参照)、後述の顎の動きに応じた開閉動作状態の特定処理を行う。なお、読み出し処理は、予約待ち行列41に予約登録されて演奏開始時に中央制御部21により行われるが、この処理に特化したプログラムを別に備えさせてもよい。
That is, this lyric data is divided into pages and lines, the page is the maximum display unit for one screen of the
RAM23に記憶される比較結果データ45は、比較評価処理手段35による比較結果であり、音節ごとにリアルタイムで記憶されていくもので、歌唱終了した時点で歌唱全体の全比較結果のデータとなる。
The
上記映像表示制御手段24は、演奏時に、映像DB52より抽出された背景映像及び楽曲DB51より抽出された楽曲の歌詞データを表示部13に出力するプログラム乃至電子回路である。なお、比較評価処理手段35における評価を表示させることとしてもよい。上記音楽演奏制御部25は、例えばシーケンスプログラムを備え、楽曲IDで楽曲DB51より抽出された音符データに従って音源(シンセサイザ)25Aを駆動するもので、当該音源25Aの出力は演奏信号としてミキシングアンプ14に出力される。
The video display control means 24 is a program or an electronic circuit that outputs the background video extracted from the
上記採点手段26は、利用者による歌唱音声のピッチを検出して後述の楽曲ごとの主旋律のリファレンスデータの各音高と比較することにより採点するもので、マイク15から入力されA/D変換部26Aでデジタル変換された音声信号を、歌唱採点するためのリファレンスデータに基づいて採点処理を行うプログラムである。具体的には、例えば特許第4222915号公報に記載されている手法を用いることができる。 The scoring means 26 is for scoring by detecting the pitch of the singing voice by the user and comparing it with the pitches of the reference data of the main melody for each music, which will be described later. It is a program that performs scoring processing based on reference data for singing a voice signal digitally converted by 26A. Specifically, for example, a technique described in Japanese Patent No. 4229915 can be used.
上記送受信部27は、遠隔入出力装置17との間で有線方式ないし無線方式(IR方式やブルートゥース(登録商標)機構のピコネット接続方式など)を利用してデータ授受を行うためのもので、そのための電子回路及びプログラムである。
The transmission /
上記記憶部28に記憶されている楽曲DB51は、楽曲毎に、音符データ、歌詞データなどを格納する。演奏に関して、具体的には、楽曲ID、曲名及びアーチストID(アーチスト名)が関連付けられた楽曲テーブルを有し、楽曲毎に、楽曲IDで管理される所定データ形式のカラオケ楽曲の演奏データ(例えば、MIDI(登録商標)形式の旋律パートの音符ごとの楽譜データ)等で構成される楽曲データ(ファイル)について当該楽曲IDをファイル名としてそれぞれ格納したデータベースである。上記記憶部28に記憶されている映像DB52は、楽曲毎に応じた背景映像データについて楽曲IDをファイル名としてそれぞれ格納したデータベースである。
The music DB 51 stored in the
上記記憶部28に記憶されているリファレンスDB53は、楽曲ごとの主旋律の採点リファレンスデータであって、上記楽曲DB51に記憶されているカラオケ楽曲と当該カラオケ楽曲の歌唱区間に合わせた歌唱者による歌唱を評価、分析するための評価基準として用いられる採点リファレンスデータとを紐付けて記憶するデータベースである。
Reference DB53 memorize | stored in the said memory |
上記記憶部28に記憶されている単音節テーブル54は、歌詞データにおける対象の音節が、後述のリファレンス特定手段34で区分処理されるフレーズ区間の先頭の場合を対象に当該対象の音節を発声するに際して、顎を開く方向、または閉じる方向に動かす顎の開閉動作状態を特定したテーブルであり、図2(A)に示すように、対象の音節である「母音」若しくは「子音+母音」の一つの音節に対して顎の動き(開閉動作状態)を予め設定したものである。なお、フレーズ区間の先頭の音節は、顎を閉じた状態からフレーズ区間の先頭の音節を発声するに際しての顎が動きを設定している。なお、図2(A)、(B)において、「↑」は顎を開く動き、「↓」は顎を閉じる動き、「−」は顎の動きがない状態を表している。
The single syllable table 54 stored in the
上記記憶部28に記憶されている2連音節テーブル55は、歌詞データにおける対象の音節がフレーズ区間の先頭以外の音節の場合に、当該対象の音節の前の音節と当該対象の音節との二つの音節を順に発声する際に、顎の開く方向、又は閉じる方向の動きを特定したテーブルであり、図2(B)に示すように、対象の音節の前の音節である「母音」若しくは「子音+母音」と、対象の音節である「母音」及び「子音+母音」並びに特殊発声音節(例えば、「母音a」及び「子音+母音a」、「母音e」及び「子音+母音e」、並びに「母音o」及び「子音+母音o」に対しては「は(ha)」、「へ(he)」、「ほ(ho)」、「ん(n)」)の二つの音節の順による組に対して顎の開閉動作状態を予め設定したものである。なお、フレーズ区間の先頭以外の音節は、二つの連続した音節について、一つ目の音節を発声した状態から二つ目の音節を発声するに際しての顎の動きを設定している。
The double syllable table 55 stored in the
上記検出信号受信部31は、後述の検出装置18より送信されてくる検出信号を受信するプログラム乃至電子回路である。上記検出動作識別手段32は、楽曲の演奏中に検出装置18より受信した信号から顎の開閉状態を識別するプログラム乃至電子回路である。例えば、検出信号として電圧レベル信号(そのレベル値に特化したデータ信号でもよい)を検出装置18より受信し、当該信号に基づいてレベル値を特定し、予め設定されたレベル値に応じて顎の開き、閉じ、不動の開閉状態の対応付けより識別する。
The detection
上記音節特定手段33及びリファレンス特定手段34で構成されるリファレンス情報処理手段は、歌唱される楽曲の歌詞データの音節に応じて歌唱者の顎の動きの開閉動作状態を推測するリファレンスデータを、音節と顎の開閉動作状態とを予め設定した上記単音節テーブル54及び2連音節テーブル55に基づいて算出するもので、音節特定手段33は、RAM23に記憶されている図3に示す対象歌詞データ43に基づいて、当該歌詞データの先頭文字から順次音節を特定するプログラムである(図5で説明する)。
The reference information processing means composed of the syllable specifying means 33 and the
リファレンス特定手段34は、対象歌詞データ43を複数のフレーズ区間に区分し(区分については図5及び図8で説明する)、音節特定手段33により特定された音節が、歌唱区間の先頭の場合に当該音節に対応する顎の開閉動作状態を上記単音節テーブル54より特定し、歌唱区間の先頭以外の音節の場合に当該音節の前の音節と当該音節の順による組に対応する顎の開閉動作状態を上記2連音節テーブル55から特定し、RAM23にリファレンスデータ44として記憶するプログラムである(図5及び図6で説明する)。
The
上記比較評価処理手段35は、後述の歌唱タイミングデータに基づき歌唱すべき期間が到来している音節について、リファレンス情報処理手段(音節特定手段33及びリファレンス特定手段34)で特定された顎の開閉動作状態であるRAM23に記憶されているリファレンスデータ44と上記検出動作識別手段32で識別された顎の開閉動作状態のデータとを比較し、比較結果の評価を遠隔入出力装置17のリモコン表示部17D若しくは表示部13(リモコン表示部17Dと共にでもよい)に表示させると共に、比較結果をRAM23に比較結果データ45として記憶していくプログラムである。なお、比較処理、評価処理については図7で説明する。
The comparative evaluation processing means 35 opens and closes the jaws specified by the reference information processing means (the syllable specifying means 33 and the reference specifying means 34) for the syllable in which the period to be sung has arrived based on the singing timing data described later. The reference data 44 stored in the
ここで、図1に示される検出装置18は、ウェアラブル端末であって、カラオケルームなどに常備されて利用者によって当該検出装置18を選択的に所持されるもので、予めカラオケ装置11(検出信号受信部31)と近距離無線通信によりペアリングがなされている。検出装置18は、図4に示すように、装置本体61に検出処理手段62及び検出送信手段63を備え、外部に延長接続された検知センサ64を備える。当該検出処理手段62は、装置IDを保持して装置全体を統御するプログラムを備え、当該利用者がログインしたときに当該検出装置18(装置ID)を選択指定することにより関連付けられてRAM23に利用者情報42の一部として記憶される。
Here, the
上記検出送信手段63は、ペアリングされたカラオケ装置11の検出信号受信部31に対して検知センサ64で検知した検出信号を、例えば電圧レベルの信号又はレベル値に特化したデータ信号として送信するプログラム乃至電子回路である。上記検知センサ64は、歌唱による顎の動きを検出する圧力センサなどの検出素子を備えるもので、利用者の耳孔内に挿入できる形態のものや、耳孔周辺に装着できる形態などのものを使用することができるものである。
The detection transmission means 63 transmits the detection signal detected by the detection sensor 64 to the detection
そこで、図5に図1のリファレンス特定手段における歌詞データに基づく顎動作特定処理の説明図を示すと共に、図6に図5の個別音節の顎動作特定処理の説明図を示し、図7に図1の比較評価手段における比較評価の説明図を示す。ここでは、楽曲が予約待ち行列41に選曲予約された際に、図3に示すRAM23に対象歌詞データ43が記憶されることを前提とする。
Therefore, FIG. 5 shows an explanatory diagram of the jaw movement specifying process based on the lyrics data in the reference specifying means of FIG. 1, FIG. 6 shows an explanatory diagram of the individual syllable jaw movement specifying process of FIG. 5, and FIG. The explanatory view of comparative evaluation in one comparative evaluation means is shown. Here, it is assumed that the
楽曲の選曲予約がされると、当該楽曲の楽曲IDに基づいて、RAM23より読み出された図3に示す対象歌詞データ43に対して、音節特定手段33が、図5に示すように、歌詞データの最初の文字から順に、文字コードがひらがなである文字を音節として特定していく(漢字は特定しない)。
When the music selection reservation is made, the syllable specifying means 33 performs the lyrics as shown in FIG. 5 for the
リファレンス特定手段34は、図5に示すように、対象歌詞データ43を複数のフレーズ区間に区分する。例えば、図3の対象歌詞データ43において、歌詞の色変えが連続的に行われる歌詞文字列を一括のひとまとまりとして区分されている区間とするもので、各歌詞に対応付けられている色変タイミングデータに基づき、対象の音節の開始タイミングと、対象の音節の前の音節の終了タイミングが連続している場合は、この二つの音節は連続的に色変えが行われていることになり、一つのフレーズ区間に含ませる。
The
図3の具体例を挙げれば、歌詞データにおける文字番号1の「あ」の終了タイミングと、続く文字番号2の「た」の開始タイミングが、どちらも演奏開始からの経過時間である9750msで連続し、以後文字番号7の「も」と文字番号8の「の」まで連続状態が続いており、これを一つのフレーズ区間に含ませる。
In the specific example of FIG. 3, the end timing of the
一方、対象の音節の開始タイミングと、対象の音節の前の音節の終了タイミングが連続していない場合は、この二つの音節は連続的に色変えが行われていないこととなり、ここがフレーズの区切りとなるため、対象の音節がフレーズ先頭となる。図3の具体例を挙げれば、歌詞データにおける文字番号8の「の」の終了タイミングが演奏開始からの経過時間である12700msで、続く文字番号10の「う」の開始タイミングが演奏開始からの経過時間である13000msであり、間に300msの連続しない区間があり、ここがフレーズの区切りとなるものである。
On the other hand, when the start timing of the target syllable and the end timing of the syllable before the target syllable are not consecutive, the two syllables are not continuously changed in color, and this is the phrase Since it is a delimiter, the target syllable is the beginning of the phrase. In the specific example of FIG. 3, the end timing of “no” of the
リファレンス特定手段34は、続いて、音節特定手段33により特定された音節に対し、フレーズ区間の先頭の音節に対しては単音節テーブル54を参照して対応する顎の開閉動作状態を特定し、フレーズ区間の先頭以外の音節に対しては2連音節テーブル55を参照して当該対象の音節の直前の音節と当該対象の音節の順による組に対応する顎の開閉動作状態を特定していくものである。
Subsequently, the
具体例を示すと、図6(A)の例では、演奏に沿った図5の文字番号1の「あ」[(子音+)a]の音節について、フレーズ区間の先頭であるため、単音節テーブル54を参照して対象の音節[(子音+)a]に対応する顎の動き「↑」を特定する。また、図6(B)の例では、演奏に沿った図5の文字番号2の「た」[(子音+)a]の音節について、フレーズ区間の途中であるため、直前の音節が「あ」[(子音+)a]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)a]→[(子音+)a]に対応する顎の動き「↓↑」を特定する。
Specifically, in the example of FIG. 6A, since the syllable of “A” [(consonant +) a] of
図6(C)の例では、演奏に沿った図5の文字番号6の「く」[(子音+)u]の音節について、フレーズ区間の途中であるため、直前の音節が「を」[(子音+)o]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)o]→[(子音+)u]に対応する顎の動き「↓」を特定する。さらに、図6(D)の例では、演奏に沿った図5の文字番号7の「も」[(子音+)o]の音節について、フレーズ区間の途中であるため、直前の音節が「く」[(子音+)u]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)u]→[(子音+)o]に対応する顎の動き「↑」を特定する。
In the example of FIG. 6C, since the syllable of “ku” [(consonant +) u] of the
そして、リファレンス特定手段34において、上記歌詞データの特定する音節ごとに、上記のように顎の開閉動作状態を特定したリファレンスデータを特定していき、歌詞データ全部の音節で特定したリファレンスデータをRAM23にリファレンスデータ44として記憶する。
Then, in the
そこで、比較評価処理手段35は、選曲予約されたカラオケ楽曲の演奏の際にRAM23よりリファレンスデータ44を読み出し、選曲予約されたカラオケ楽曲の演奏が開始され、歌唱タイミングデータに基づいて歌唱すべき期間が到来している音節のリファレンスデータと、当該音節の歌唱すべき期間中に歌唱者が装着した検出装置から受信して識別された検出動(顎の開閉動作状態)を比較することにより、その比較結果の評価を与える。
Therefore, the comparative evaluation processing means 35 reads the reference data 44 from the
具体的には、図7に示すように、演奏時間軸上において、音節「あ」を歌唱すべき期間中に受信した検出動作が「↑(顎を開いた)」であった場合、当該音節「あ」に対応する顎の動きのレファレンスデータは「↑」であるため、当該音節については理想的な顎の動きが出来ているということとなり、例えば比較結果「○」となり、続く音節「た」の歌唱すべき期間中に受信した検出信号が「↓(顎を閉じた)」であった場合、当該音節「た」に対応する顎の動きリファレンスデータは「↓↑」であるため、当該音節については理想的な顎の動きが出来ていないということで、例えば比較結果「×」となるものである。 Specifically, as shown in FIG. 7, when the detection operation received during the period of singing the syllable “A” on the performance time axis is “↑ (open chin)”, the syllable Since the reference data of jaw movement corresponding to “A” is “↑”, it means that an ideal jaw movement has been made for the syllable, for example, the comparison result is “○”, and the following syllable “ When the detection signal received during the singing period is “↓ (jaw closed)”, the jaw movement reference data corresponding to the syllable “ta” is “↓ ↑”. For syllables, the ideal jaw movement has not been achieved, and for example, the comparison result is “x”.
比較評価処理手段35は、比較結果の評価を、遠隔入出力装置17のリモコン表示部17D及び表示部13の一方又は両方に表示させる。例えば、評価内容を歌唱の際にリアルタイム表示させる場合には、任意の音節の歌唱すべき期間が終了した時点での比較結果である「○」の回数と「×」の回数を評価内容として、表示部13やリモコン表示部17Dの画面上の所定の場所にリアルタイムに表示する。これによって、「×」より「○」の回数を増加させることを、すなわち顎の動きを気にしながら歌唱させることを意識させるものである。
The comparative evaluation processing unit 35 displays the evaluation of the comparison result on one or both of the remote control display unit 17D and the
別の比較評価から評価表示の処理として、比較評価処理手段35において、上記リファレンスデータ44と受信した検出信号から識別した検出動作による顎の動きに基づいて、それぞれの顎の開閉回数をカウントする。具体的には、音節「あ」を歌唱すべき期間中の顎の動きは「↑」でこれを1回とし、続く音節「た」を歌唱すべき期間中の顎の動きは「↓↑」で2回とし、これが「の」まで演奏が進むと、リファレンスデータ44の顎の動き回数は9回になる。各音節の歌唱すべき期間が終了する度に、リファレンスデータ44に基づくカウント値と、検出動作のカウント値とを比較し、その比較結果の差に応じて評価する。 As a process of evaluation display from another comparative evaluation, the comparative evaluation processing means 35 counts the number of times each jaw is opened and closed based on the movement of the jaw by the detection operation identified from the reference data 44 and the received detection signal. Specifically, the jaw movement during the period to sing the syllable “a” is “↑”, and this is once, and the jaw movement during the period to sing the subsequent syllable “ta” is “↓ ↑”. When the performance progresses to “no”, the number of jaw movements in the reference data 44 is nine. Each time the syllable singing period ends, the count value based on the reference data 44 is compared with the count value of the detection operation, and evaluation is performed according to the difference between the comparison results.
すなわち、リファレンスデータ44と検出動作より特定した顎の動きに応じた開閉動作状態に基づいて、特定した「↑」、「↓」、「↓↑」からそれぞれの顎の開閉回数をカウントしていき、任意の音節を歌唱すべき期間が終了する度にリファレンスデータ44に基づくカウント値に対して、検出信号の検出動作のカウント値が所定値以上少ない比較結果のときには顎を意識して動かす意味での「↑」を評価とし、検出信号の検出動作のカウント値が所定値以上多い比較結果のときには顎を動かし過ぎという意味での「↓」を評価とし、検出信号の検出動作のカウント値が顎を動かすべき回数との差が所定値以内との比較結果のときにはスムーズに顎が動いているという意味での「GOOD」を評価としてリアルタイムに表示する。これによって、「GOOD」表示をいかに続けられるか、つまり顎の動きを気にしながら歌唱させるという歌唱を支援することができる。 That is, based on the reference data 44 and the open / close operation state corresponding to the jaw movement specified from the detection operation, the number of open / close times of each jaw is counted from the specified “↑”, “↓”, “↓ ↑”. When the period for singing an arbitrary syllable is over, the count value of the detection operation of the detection signal is less than a predetermined value relative to the count value based on the reference data 44, meaning that the jaw is consciously moved. “↑” is evaluated, and if the count value of the detection operation of the detection signal is more than a predetermined value, the evaluation value is “↓” in the sense that the jaw is moved too much, and the count value of the detection operation of the detection signal is When the difference from the number of times to move is within a predetermined value, “GOOD” in the sense that the jaw is moving smoothly is displayed in real time as an evaluation. Thus, it is possible to support the singing of how to continue the “GOOD” display, that is, singing while taking care of the jaw movement.
一方、評価内容を歌唱後に表示する場合には、比較評価処理手段35において、歌唱音節毎の比較結果をRAM23より比較結果データ45を読み出して歌唱後に表示させる。例えば、歌唱後に比較評価処理手段35が比較結果データ45を遠隔入出力装置17に対して楽曲ID及び利用者IDを紐づけて転送すれば、歌唱した利用者と比較結果データ45とが対応づけられることとなり、当該歌唱者は歌唱した楽曲の音節(ひらがな)をリモコン表示部17Dに表示し、当該比較結果データ45の各音節の比較結果を評価内容として「○」は青色で、「×」は赤色で文字を表示する。これにより、歌唱者はスムーズに顎が動いている音節、動いていない音節を確認することができるものである。
On the other hand, when the evaluation content is displayed after singing, the comparison evaluation processing means 35 reads the
次に、図8に、図1のリファレンス特定手段における他の歌詞データに基づくフレーズ区間特定、リファレンス特定の説明図を示す。ここでは、フレーズ区間特定及びリファレンス特定の処理を示したものである。また、RAM23には、図8(A)に示すように、対象演奏データ71の記憶領域が形成され、予約待ち行列41に選曲予約された楽曲IDに基づいて楽曲DB51より読み出された演奏データが記憶される。
Next, FIG. 8 shows an explanatory diagram of phrase section specification and reference specification based on other lyrics data in the reference specifying means of FIG. Here, the phrase section specifying process and the reference specifying process are shown. Further, as shown in FIG. 8A, the
そこで、リファレンス特定手段34は、図8(B)において、まず、RAM23に記憶された対象歌詞データ43及び対象演奏データ71から、楽曲の演奏データに含まれる歌唱旋律パートの楽譜データの各音符に対して歌唱すべき歌詞文字データを対応づけた歌詞文字・旋律対応データ(図8(B)の音符・休符、音高、歌詞の対応データ)を作成する。具体的には、歌唱旋律パートの楽譜データの各音符の発音タイミングと、対象歌詞データ43の各音節の色変えタイミングの一致度から、音符に対応する音節をそれぞれ特定する。その際、歌唱者が歌唱しやすいように各音符の発音の開始より先に音節の色替えが開始されるよう設定されているため、このタイミング差を考慮するとよい。また、ひとつの音節を複数の音符で発音するような場合でも、当該音節の色替え時間と当該二つの音符の発音持続時間の一致度によって対応付けが可能となる。
Therefore, in FIG. 8B, the reference specifying means 34 first converts each musical note data of the singing melody part included in the musical performance data from the
続いて、上記歌詞文字・旋律対応データに基づいて顎の動きを特定する場合のフレーズ区間を、旋律パートの音符の発音が連続的に行われる歌詞文字列を一括のひとまとまりとして区分する。すなわち、音符が連続している間は、二つの音符に対応付けられた音節は連続的に発音されることとなるため、ひとつのフレーズ区間に含ませる。例えば、図8(B)に示す音節「あたまをくものうえにだし」に対応する音符は連続しているものを一つのフレーズ区間に含ませる。 Subsequently, the phrase section in the case where the movement of the jaw is specified based on the lyric character / melody correspondence data is classified as a batch of lyric character strings in which the melody part's notes are continuously pronounced. In other words, while the notes are continuous, the syllables associated with the two notes are continuously pronounced, and thus are included in one phrase section. For example, notes that correspond to the syllable “Atamagomono ni dashi” shown in FIG. 8B are included in one phrase section.
また、休符を挟む前後二つの音符は休符により連続的に発音されないこととなるため、休符をフレーズの区切りとし、休符の次の音符に対応付けられた音節をフレーズ先頭とする。例えば、図8(B)に示す音節「〜うえにだし」の「し」に対応する二分音符の次に四分休符があるため、その次の付点四分音符対応する音節「しほうの」の「し」をフレーズ先頭とさせるものである。 In addition, since the two notes before and after the rest are not continuously pronounced by the rest, the rest is a phrase delimiter, and the syllable associated with the next note after the rest is the head of the phrase. For example, since there is a quarter rest next to the half note corresponding to “shi” in the syllable “˜ue ni dashi” shown in FIG. 8 (B), the syllable “shikata” corresponding to the next dotted quarter note. “” Of “no” is the head of the phrase.
そして、図8(B)に示すように、単音節テーブル54及び2連音節テーブル55を参照して特定した顎の動き(「↑」、「↓」、「↓↑」)を対象の音節に対応付けることにより、歌詞データ及び演奏データに基づいた音節毎のリファレンスデータ44を特定するものである。なお、このように特定され記憶されたリファレンスデータ44は、比較評価処理手段35における処理において、歌唱旋律パートの楽譜データの各音符の発音タイミングに基づいて、歌唱すべき期間が到来している音節のリファレンスデータを特定することになる。 Then, as shown in FIG. 8B, the jaw movements (“↑”, “↓”, “↓ ↑”) identified with reference to the single syllable table 54 and the double syllable table 55 are set as the target syllables. By associating, the reference data 44 for each syllable based on the lyrics data and the performance data is specified. The reference data 44 specified and stored in this way is the syllable in which the period to be sung has arrived in the processing in the comparative evaluation processing means 35 based on the pronunciation timing of each note of the musical score data of the singing melody part. The reference data is specified.
このような歌詞データ及び演奏データによるフレーズの区分処理によっても楽曲歌唱の際の顎の開閉動作状態のリファレンスデータでの推測、特定をより高精度とすることができ、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。 This sort of phrasal data and performance data can be used to estimate and specify the jaw opening / closing operation state during song singing with higher accuracy, and karaoke of tens of thousands of songs. It is not necessary to create data in advance for music, and can be realized with a simple configuration.
上記のように、カラオケ楽曲の演奏の際に画面に表示される歌詞に合わせて、歌唱者が歌唱した際の顎の動きと、当該楽曲の歌詞に基づく理想的な顎の動とが歌唱すべき音節毎に比較されるため、歌唱時のスムーズな顎の動きが出来ているか否かを歌唱者が音節毎に確認することが可能となり、歌唱時に顎の動きを意識させて良い発声を促す歌唱を支援することができるものである。 As described above, according to the lyrics displayed on the screen during the performance of karaoke music, the movement of the jaw when the singer sings and the ideal movement of the jaw based on the lyrics of the music sings Since it is compared for each syllable, it is possible for the singer to check for smooth chin movements at the time of singing for each syllable. It can support singing.
また、歌詞データや演奏データより楽曲歌唱の際に開閉するであろう顎の開閉動作(リファレンスデータ)を推測、特定することから、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。 Moreover, since the jaw opening / closing operation (reference data) that will open and close during song singing is estimated and specified from the lyrics data and performance data, data is created in advance for tens of thousands of karaoke songs. This is not necessary and can be realized with a simple configuration.
本発明のカラオケ装置は、カラオケの基本的機能を備えたカラオケ端末及びカラオケ用のサーバの製造、使用、販売等の産業に利用可能である。 The karaoke apparatus of the present invention can be used in industries such as manufacture, use, and sales of a karaoke terminal having a basic karaoke function and a karaoke server.
11 カラオケ装置
12 カラオケ本体
17 遠隔入出力装置
18 検出装置
28 記憶部
31 検出信号受信部
32 検出動作識別手段
33 音節特定手段
34 リファレンス特定手段
35 比較評価処理手段
43 対象歌詞データ
44 リファレンスデータ
45 比較結果データ
53 リファレンスデータベース
54 単音節テーブル
55 2連音節テーブル
63 検出送信手段
64 検知センサ
DESCRIPTION OF
Claims (4)
楽曲の演奏中に前記検出装置より受信した信号に基づき歌唱者の顎の動きに応じた開閉動作状態を識別する検出動作識別手段と、
歌唱される前記楽曲の歌詞データに含まれる歌詞文字の音節に応じて歌唱者の顎の動きに応じた開閉動作状態を推測するリファレンスデータを、音節と顎の開閉動作状態とを予め設定した所定数の音節テーブルに基づいて特定するリファレンス情報処理手段と、
歌唱される前記楽曲の歌詞データに含まれる各歌詞文字には歌唱タイミングデータが対応付けられ、当該歌唱タイミングデータに基づき歌唱すべき期間が到来している音節の前記リファレンス情報処理手段で特定したリファレンスデータと、前記検出動作識別手段で識別された顎の開閉動作状態とを比較し、比較結果の評価を表示させる比較評価処理手段と、
を有することを特徴とするカラオケ装置。 A karaoke device that can communicate with a detection device that detects the movement of a singer's jaw by singing and can receive the detection signal,
A detection operation identifying means for identifying an opening / closing operation state according to the movement of the singer's jaw based on a signal received from the detection device during the performance of the music;
Reference data for inferring the opening / closing operation state according to the movement of the singer's jaw according to the syllable of the lyric character included in the lyrics data of the song to be sung, a predetermined syllable and the opening / closing operation state of the jaw Reference information processing means for identifying based on a number of syllable tables;
Singing timing data is associated with each lyric character included in the lyric data of the song to be sung, and the reference specified by the reference information processing means of the syllable in which the period to be sung has arrived based on the singing timing data Comparison evaluation processing means for comparing the data and the open / close operation state of the jaw identified by the detection action identification means, and displaying the evaluation of the comparison result,
A karaoke apparatus comprising:
前記所定数の音節テーブルは、一つの音節を発声する際の顎の開閉動作状態を対応付けた単音節テーブル、二つの音節について第一の音節を発声した状態から第二の音節を発声する際の顎の開閉動作状態を当該二つの音節の順による組に対応付けた2連音節テーブルであり、
前記リファレンス情報処理手段は、
前記歌詞データの先頭文字から順次音節を特定する音節特定手段と、
前記歌詞データを複数のフレーズ区間に区分し、前記音節特定手段により特定された音節が、フレーズ区間の先頭の場合に当該音節に対応する顎の開閉動作状態を前記単音節テーブルより特定し、フレーズ区間の先頭以外の音節の場合に当該音節の前の音節と当該音節の順による組に対応する顎の開閉動作状態を前記2連音節テーブルから特定するリファレンス特定手段と、
を有することを特徴とするカラオケ装置。 The karaoke apparatus according to claim 1,
The predetermined number of syllable tables is a single syllable table that correlates the opening / closing operation state of the jaw when uttering one syllable, and when uttering the second syllable from the state that uttered the first syllable for two syllables Is a double syllable table in which the opening / closing operation state of the chin is associated with a pair in the order of the two syllables,
The reference information processing means includes
Syllable specifying means for sequentially specifying syllables from the first character of the lyrics data;
The lyrics data is divided into a plurality of phrase sections, and when the syllable specified by the syllable specifying means is the head of the phrase section, the jaw opening / closing operation state corresponding to the syllable is specified from the single syllable table, and the phrase A reference specifying means for specifying, from the double syllable table, a jaw opening / closing operation state corresponding to a pair in the order of the syllable preceding the syllable and the syllable in the case of a syllable other than the head of the section;
A karaoke apparatus comprising:
前記楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、当該歌詞データに含まれる歌詞文字ごとの色変えタイミングデータであり、
前記リファレンス特定手段は、前記フレーズ区間を、歌詞の色変えが連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定することを特徴とするカラオケ装置。 A karaoke apparatus according to claim 2,
Singing timing data associated with each lyric character included in the lyric data of the music is color change timing data for each lyric character included in the lyric data,
The karaoke characterized in that the reference specifying means classifies the phrase section as a batch of lyrics character strings in which the color of the lyrics is continuously changed, and specifies the opening / closing operation state of each syllable jaw for each section. apparatus.
前記楽曲の歌詞データに含まれる各歌詞文字に対応付けられた歌唱タイミングデータは、楽曲の演奏データに含まれる旋律パートの楽譜データの各音符に歌詞文字が対応づけられたデータであり、
前記リファレンス特定手段は、前記フレーズ区間を、音符の発音が連続的に行われる歌詞文字列を一括として区分し、区分ごとに各音節の顎の開閉動作状態を特定することを特徴とするカラオケ装置。 A karaoke apparatus according to claim 2,
Singing timing data associated with each lyric character included in the lyric data of the music is data in which a lyric character is associated with each note of the musical score data of the melody part included in the performance data of the music,
The karaoke apparatus characterized in that the reference specifying means divides the phrase section as a batch of lyrics character strings in which the pronunciation of notes is continuously performed, and specifies the opening / closing operation state of each syllable jaw for each section .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014266353A JP6436770B2 (en) | 2014-12-26 | 2014-12-26 | Karaoke equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014266353A JP6436770B2 (en) | 2014-12-26 | 2014-12-26 | Karaoke equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016126135A true JP2016126135A (en) | 2016-07-11 |
JP6436770B2 JP6436770B2 (en) | 2018-12-12 |
Family
ID=56359363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014266353A Active JP6436770B2 (en) | 2014-12-26 | 2014-12-26 | Karaoke equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6436770B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111552836A (en) * | 2020-04-29 | 2020-08-18 | 咪咕文化科技有限公司 | Lyric display method, device and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1166345A (en) * | 1997-08-11 | 1999-03-09 | Sega Enterp Ltd | Image acoustic processor and recording medium |
JP2005242230A (en) * | 2004-02-27 | 2005-09-08 | Yamaha Corp | Karaoke machine |
JP2012047998A (en) * | 2010-08-27 | 2012-03-08 | Tokai Univ | Utterance learning support device and program thereof |
JP2013050705A (en) * | 2011-07-29 | 2013-03-14 | Yamaha Corp | Voice synthesizer |
JP2014063089A (en) * | 2012-09-24 | 2014-04-10 | Brother Ind Ltd | Karaoke device and program for karaoke |
-
2014
- 2014-12-26 JP JP2014266353A patent/JP6436770B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1166345A (en) * | 1997-08-11 | 1999-03-09 | Sega Enterp Ltd | Image acoustic processor and recording medium |
JP2005242230A (en) * | 2004-02-27 | 2005-09-08 | Yamaha Corp | Karaoke machine |
JP2012047998A (en) * | 2010-08-27 | 2012-03-08 | Tokai Univ | Utterance learning support device and program thereof |
JP2013050705A (en) * | 2011-07-29 | 2013-03-14 | Yamaha Corp | Voice synthesizer |
JP2014063089A (en) * | 2012-09-24 | 2014-04-10 | Brother Ind Ltd | Karaoke device and program for karaoke |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111552836A (en) * | 2020-04-29 | 2020-08-18 | 咪咕文化科技有限公司 | Lyric display method, device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6436770B2 (en) | 2018-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101223571B (en) | Voice tone variation portion locating device and method | |
JP6158179B2 (en) | Information processing apparatus and information processing method | |
US10553240B2 (en) | Conversation evaluation device and method | |
JP2007256617A (en) | Musical piece practice device and musical piece practice system | |
KR20140071070A (en) | Method and apparatus for learning pronunciation of foreign language using phonetic symbol | |
JP4748568B2 (en) | Singing practice system and singing practice system program | |
JP6436770B2 (en) | Karaoke equipment | |
WO2014087571A1 (en) | Information processing device and information processing method | |
JP2007292979A (en) | Device for supporting aphasia rehabilitation training | |
JP4048226B1 (en) | Aphasia practice support equipment | |
JP6150276B2 (en) | Speech evaluation apparatus, speech evaluation method, and program | |
JP6429610B2 (en) | Karaoke equipment | |
JP2020076878A (en) | Karaoke device, karaoke device control method, and program | |
JP2007140548A (en) | Portrait output device and karaoke device | |
JP4185991B2 (en) | Finger music playing device | |
JP2017198922A (en) | Karaoke device | |
JP2005345555A (en) | Karaoke system having grading information display function | |
JP4501874B2 (en) | Music practice device | |
KR102634347B1 (en) | Apparatus for training and testing to cognitive function using user interaction | |
EP4213130A1 (en) | Device, system and method for providing a singing teaching and/or vocal training lesson | |
KR102559460B1 (en) | Apparatus for improving auditory function using music-based multi-task training, singing training, and instrument discrimination training | |
JP7223650B2 (en) | karaoke device | |
Lui | A Compact Spectrum-Assisted Human Beatboxing Reinforcement Learning Tool On Smartphone. | |
JP6821747B2 (en) | Karaoke equipment | |
KR20070105098A (en) | An apparatus for correcting a pitch |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6436770 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |