JP6429610B2 - Karaoke equipment - Google Patents

Karaoke equipment Download PDF

Info

Publication number
JP6429610B2
JP6429610B2 JP2014242355A JP2014242355A JP6429610B2 JP 6429610 B2 JP6429610 B2 JP 6429610B2 JP 2014242355 A JP2014242355 A JP 2014242355A JP 2014242355 A JP2014242355 A JP 2014242355A JP 6429610 B2 JP6429610 B2 JP 6429610B2
Authority
JP
Japan
Prior art keywords
syllable
singing
music
jaw
karaoke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014242355A
Other languages
Japanese (ja)
Other versions
JP2016102959A (en
Inventor
豪 矢吹
豪 矢吹
直孝 野村
直孝 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2014242355A priority Critical patent/JP6429610B2/en
Publication of JP2016102959A publication Critical patent/JP2016102959A/en
Application granted granted Critical
Publication of JP6429610B2 publication Critical patent/JP6429610B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カラオケ歌唱における発声支援機能を備えるカラオケ装置に関する。   The present invention relates to a karaoke apparatus having an utterance support function in karaoke singing.

近年、カラオケルームに設置されたカラオケ装置の演奏に合わせて利用者が歌唱する際に、良い発声をするために、また美容や健康のために、口を大きく開けて歌唱することが推奨されている。カラオケ歌唱においては、極端に口を大きく開けることにより顎関節への負担が増して弊害が生じる可能性があるため、大きく口を開けることを意識するのではなく、下顎の関節をリラックスさせてスムーズに動かすことを意識することが必要と考えられている。一方で、気心の知れたメンバーと歌唱するような時は、指導者のもとで歌唱する場合とは異なり、特に顎の動きなど気に留めることもなく、さらにマイク信号の増幅機能により余り下顎骨を動かさずに歌唱する傾向が強く、このような歌唱者の傾向に対しては、下顎の関節をリラックスさせてスムーズに動かすことを意識させるカラオケコンテンツの提供が望まれる。   In recent years, when a user sings along with the performance of a karaoke device installed in a karaoke room, it is recommended to sing with a wide open mouth for good speech and beauty and health. Yes. In karaoke singing, opening the mouth extremely wide may increase the burden on the temporomandibular joint and cause harm, so do not be conscious of opening the mouth greatly, but relax the joint of the lower jaw and smoothly It is thought that it is necessary to be conscious of moving. On the other hand, when singing with a well-known member, unlike the case of singing under the leadership, there is no particular concern about the movement of the chin, and the microphone signal amplification function is much lower. There is a strong tendency to sing without moving the jawbone, and it is desirable to provide karaoke content that makes it conscious that the joint of the lower jaw can be moved smoothly by relaxing the joint of the lower jaw.

従来、顎の動きを検出する技術として、例えば、特許文献1のように、咀嚼によって生じる筋肉の動きによる耳道内の圧力変化を、外耳道内に挿入した圧力センサによって感知して測定し、その圧力変化の回数を咀嚼回数として表示する技術が知られている。また、特許文献2のように、基台部を人体に密着させ、当該基台部に連続して検知手段が位置されて咀嚼により派生する動きを検知し、この検知信号を受信して咀嚼回数として記録して表示する技術も知られている。   Conventionally, as a technique for detecting the movement of the jaw, for example, as in Patent Document 1, the pressure change in the ear canal caused by the movement of the muscle caused by mastication is sensed and measured by a pressure sensor inserted in the ear canal, and the pressure is measured. A technique for displaying the number of changes as the number of mastications is known. Further, as in Patent Document 2, the base part is brought into close contact with the human body, the detection means is continuously located on the base part, the movement derived from mastication is detected, the detection signal is received, and the number of chewing times A technique for recording and displaying as is also known.

一方、カラオケにおいては歌唱者の口の形状の適切さを採点結果に反映させる技術が知られており、例えば、特許文献3のように、口の理想的な縦横比を表す形状データを母音ごとに有する理想形状データとして記憶しておき、演奏中の楽曲データ内の歌詞データに基づいて特定される歌唱者が現に発音すべき音節を、当該音節を構成する母音に応じた形状データを理想形状データから抽出し、この抽出した形状データの縦横比に対するカメラの撮像画像から計測された歌唱者の口の縦横比の形状適合度を算出して、この形状適合度に基づく画像点数データを生成する技術が知られている。   On the other hand, in karaoke, a technique for reflecting the appropriateness of the mouth shape of the singer in the scoring result is known. For example, as in Patent Document 3, shape data representing the ideal aspect ratio of the mouth is obtained for each vowel. Is stored as ideal shape data, and the syllables to be pronounced by the singer identified based on the lyric data in the music data being played are shape data corresponding to the vowels constituting the syllable. Extracting from the data, calculating the shape adaptability of the aspect ratio of the singer's mouth measured from the captured image of the camera with respect to the aspect ratio of the extracted shape data, and generating image score data based on the shape adaptability Technology is known.

特開平07−213510号公報Japanese Patent Application Laid-Open No. 07-213510 特開平07−171136号公報Japanese Patent Application Laid-Open No. 07-171136 特開2005−242230号公報JP 2005-242230 A

ところで、カラオケ楽曲を歌詞に従って歌唱することは咀嚼と同様に顎を動かすことになるため、特許文献1や特許文献2に記載の咀嚼回数を検出できる装置を歌唱者が装着することで、歌唱の際の顎の動きを検出することが可能となるが、咀嚼回数を楽曲に関連付けることができず、歌唱時に歌詞に沿ってスムーズな顎の動きが出来ているか否かを特定して良い発声を促す歌唱支援とすることができないという問題がある。   By the way, singing karaoke music according to the lyrics moves the chin like chewing, so the singer can wear a device that can detect the number of mastications described in Patent Document 1 and Patent Document 2, so It is possible to detect the movement of the jaw at the time, but it is not possible to relate the number of chewing times to the music, and it is possible to specify whether or not the jaw movement is smooth along the lyrics when singing There is a problem that it can not be singing support to encourage.

また、特許文献3に記載の技術は、単に歌唱採点をさせる手法に過ぎず、歌唱時の口の形状の特定だけでは歌唱時に歌詞の沿ってスムーズな顎の動きが出来ているか否かを判定することができず、良い発声を促す歌唱支援とさせることができないという問題がある。   In addition, the technique described in Patent Document 3 is merely a technique for scoring a song, and it is determined whether or not a smooth jaw movement can be performed along the lyrics when singing only by specifying the mouth shape at the time of singing. There is a problem that it cannot be used as a singing support that promotes good utterance.

そこで、本発明は上記課題に鑑みなされたもので、歌唱時に下顎の関節をリラックスさせてスムーズに動かすことを意識させて良い発声を促す歌唱を支援するカラオケ装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a karaoke apparatus that supports singing that promotes utterance that allows the user to be aware that the joint of the lower jaw is relaxed and moved smoothly during singing.

上記課題を解決するために、請求項1の発明では、歌唱による歌唱者の顎の動きを検出する検出装置と通信自在であり、当該検出装置から送信されてくる検出信号を受信可能なカラオケ装置であって、楽曲の演奏中に前記検出装置より受信した検出信号を計数する計数処理手段と、歌唱される前記楽曲の歌詞データに含まれる歌詞文字の音節に応じて歌唱者の顎の動きを推測するリファレンス回数を、音節と顎の開閉回数とを予め設定した所定数の音節テーブルに基づいて算出するリファレンス情報処理手段と、前記計数処理手段で計数された回数と、前記リファレンス情報処理手段で算出されたリファレンス回数とを比較し、比較結果の差が小さいほど高評価を与える比較評価手段と、を有する構成とする。
In order to solve the above-mentioned problem, in the invention of claim 1, a karaoke apparatus capable of communicating with a detection device for detecting movement of a singer's jaw by singing and capable of receiving a detection signal transmitted from the detection device. The counting processing means for counting the detection signal received from the detection device during the performance of the music, and the movement of the singer's jaw according to the syllables of the lyrics characters included in the lyrics data of the music to be sung Reference information processing means for calculating a reference frequency to be estimated based on a predetermined number of syllable tables in which the number of syllables and jaw opening / closing times is preset, the number of times counted by the counting processing means, and the reference information processing means A comparison evaluation unit that compares the calculated number of references and gives a higher evaluation as the difference in the comparison result is smaller is adopted.

請求項2の発明では、「前記歌詞データは、歌詞文字列単位で複数の歌唱区間に区分されており、前記所定数の音節テーブルは、一つの音節を発声する際の顎の開閉回数を対応付けた単音節テーブル、二つの音節について第一の音節を発声した状態から第二の音節を発声する際の顎の開閉回数を当該二つの音節の順による組に対応付けた2連音節テーブルであり、前記リファレンス情報処理手段は、前記歌唱区間ごとに、前記歌詞データの先頭文字から順次音節を特定する音節特定手段と、前記音節特定手段により特定された音節が、歌唱区間の先頭の場合に当該音節に対応する顎の開閉回数を前記単音節テーブルより特定し、歌唱区間の先頭以外の音節の場合に当該音節の直前の音節と当該音節の順による組に対応する顎の開閉回数を前記2連音節テーブルから特定するリファレンス回数特定手段と、を備える、」構成とする。   According to a second aspect of the present invention, “the lyrics data is divided into a plurality of singing sections in units of lyric character strings, and the predetermined number of syllable tables corresponds to the number of times of opening and closing the chin when speaking one syllable. A single syllable table, a double syllable table that associates the number of times the jaw is opened and closed when the second syllable is uttered from the state where the first syllable is uttered with two syllables. Yes, the reference information processing means, for each singing section, the syllable specifying means for sequentially specifying the syllable from the first character of the lyrics data, and when the syllable specified by the syllable specifying means is the head of the singing section The number of times of opening and closing the jaw corresponding to the syllable is specified from the single syllable table, and in the case of a syllable other than the head of the singing section, the number of times of opening and closing the jaw corresponding to the pair according to the order of the syllable immediately before the syllable and the syllable Comprising a reference number identifying means for identifying the communicating syllable table, and "a configuration.

請求項1の発明によれば、楽曲の演奏中に検出装置より受信した検出信号を計数し、歌唱される楽曲の歌詞データに含まれる歌詞文字の音節に応じて歌唱者の顎の動きを推測するリファレンス回数を、音節と顎の開閉回数とを予め設定した所定数の音節テーブルに基づいて算出し、当該検出信号を計数した回数と、当該算出されたリファレンス回数とを比較して比較結果の差が小さいほど高評価を与える構成とすることにより、実際に歌唱した際に顎を動かした回数と、当該楽曲の顎を動かすべき回数とを比較することから、歌唱者はこの比較結果により歌唱時にスムーズな顎の動きが出来ているか否かを確認することが可能となり、歌唱時に下顎の関節をリラックスさせてスムーズに動かすことを意識させて良い発声を促す歌唱を支援することができるものである。   According to the first aspect of the present invention, the detection signals received from the detection device during the performance of the music are counted, and the movement of the singer's jaw is estimated according to the syllables of the lyrics characters included in the lyrics data of the music to be sung. The number of times of reference is calculated based on a predetermined number of syllable tables in which the number of syllables and jaw opening / closing is set in advance, and the number of times the detection signal is counted is compared with the calculated number of references. By making the configuration so that the smaller the difference is, the higher the evaluation is, the number of times the jaw is moved when actually singing is compared with the number of times the jaw of the music should be moved. It is possible to check whether or not smooth jaw movements are sometimes possible, and support singing that encourages good utterance by making the lower jaw joint relax and smoothly move when singing One in which it is bet.

請求項2の発明によれば、歌詞データは、歌詞文字列単位で複数の歌唱区間に区分されており、一つの音節を発声する際の顎の開閉回数を対応付けた単音節テーブル、二つの音節について第一の音節を発声した状態から第二の音節を発声する際の顎の開閉回数を当該二つの音節の順による組に対応付けた2連音節テーブルを備え、歌唱区間ごとに、歌詞データの先頭文字から順次音節を特定し、特定された音節が、歌唱区間の先頭の場合に当該音節に対応する顎の開閉回数を単音節テーブルより特定し、歌唱区間の先頭以外の音節の場合に当該音節の直前の音節と当該音節の順による組に対応する顎の開閉回数を2連音節テーブルから特定する構成とすることにより、歌詞データより楽曲歌唱の際に開閉するであろうリファレンス回数を推測、特定することから、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。   According to the invention of claim 2, the lyric data is divided into a plurality of singing sections in units of lyric character strings, and a single syllable table that associates the number of times of opening and closing the jaw when speaking one syllable, For syllables, it is equipped with a double syllable table that associates the number of times the syllables are opened and closed when the second syllable is uttered with a pair in the order of the two syllables. If the syllable is identified sequentially from the first character of the data, and the identified syllable is the beginning of a singing section, the number of jaws corresponding to the syllable is identified from the single syllable table, and the syllable other than the beginning of the singing section The number of references that will be opened and closed during song singing from the lyric data by specifying from the double syllable table the number of times of opening and closing the chin corresponding to the syllable immediately before the syllable and the order of the syllable. Guess By identifying, it is not necessary to create a pre-data to the karaoke song reaches several million songs, those that can be realized with a simple configuration.

本発明に係るカラオケ装置のブロック構成図である。It is a block block diagram of the karaoke apparatus which concerns on this invention. 図1の単音節テーブル及び2連音節テーブルの説明図である。It is explanatory drawing of the single syllable table of FIG. 1, and a double syllable table. リファレンス回数特定対象の歌詞データの説明図である。It is explanatory drawing of the lyric data of reference frequency specific object. 図1の検出装置のブロック構成図である。It is a block block diagram of the detection apparatus of FIG. 図1のリファレンス回数特定手段における歌詞データに基づく回数特定処理の説明図である。It is explanatory drawing of the frequency specific process based on the lyric data in the reference frequency specific means of FIG. 図5の個別音節の回数特定処理の説明図である。It is explanatory drawing of the frequency | count identification process of the separate syllable of FIG.

以下、本発明の実施形態を図により説明する。
図1に本発明に係るカラオケ装置のブロック構成図を示すと共に、図2に図1の単音節テーブル及び2連音節テーブルの説明図を示し、図3にリファレンス回数特定対象の歌詞データの説明図を示し、図4に図1の検出装置のブロック構成図を示す。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1 is a block diagram of the karaoke apparatus according to the present invention, FIG. 2 is an explanatory diagram of the single syllable table and the double syllable table of FIG. 1, and FIG. FIG. 4 is a block diagram of the detection apparatus of FIG.

図1において、カラオケ装置11は、主要装置としてのカラオケ本体12に、有線又は無線で外部接続されるものとして、表示部13、ミキシングアンプ14、マイク15、スピーカ16、遠隔入出力装置17が接続されることで構成され、当該カラオケ本体12は、所定数の検出装置18(18A〜18N)に対して通信自在とされる(検出装置18については図4で説明する)。   In FIG. 1, a karaoke apparatus 11 is connected to a karaoke main body 12 serving as a main apparatus by wired or wireless connection, and a display unit 13, a mixing amplifier 14, a microphone 15, a speaker 16, and a remote input / output device 17 are connected. The karaoke main body 12 is configured to be communicable with a predetermined number of detection devices 18 (18A to 18N) (the detection device 18 will be described with reference to FIG. 4).

上記表示部13は、通常の楽曲選曲表示やカラオケ演奏時の背景映像等を表示するもので、例えば液晶ディスプレイ(LCD)、プラズマディスプレイ(PDP)、その他種々のディスプレイを採用することができる。上記ミキシングアンプ14は、カラオケ本体12より送られてくる音楽演奏信号に、マイク15からの音声信号をミキシングし、増幅してスピーカ16より出力する。   The display unit 13 displays a normal music selection display, a background image during karaoke performance, and the like. For example, a liquid crystal display (LCD), a plasma display (PDP), and other various displays can be employed. The mixing amplifier 14 mixes the audio signal from the microphone 15 with the music performance signal sent from the karaoke main body 12, amplifies it, and outputs it from the speaker 16.

上記遠隔入出力装置17は、図示しない端末送受信部により、カラオケ本体12に対して有線方式ないし無線方式(IR方式やブルートゥース(登録商標)機構のピコネット接続方式など)を利用してデータ授受を行うためのもので、少なくともログイン・ログアウト処理手段17A、楽曲検索手段である選曲楽曲登録手段17B、検出装置選択手段17C及びリモコン表示部17Dを適宜備える。   The remote input / output device 17 transmits / receives data to / from the karaoke main body 12 using a wired system or a wireless system (IR system, Bluetooth (registered trademark) mechanism piconet connection system, etc.) by a terminal transmission / reception unit (not shown). Therefore, at least a login / logout processing means 17A, a music selection music registration means 17B as music search means, a detection device selection means 17C, and a remote control display unit 17D are provided as appropriate.

上記ログイン・ログアウト処理手段17Aは、利用者によるログイン操作に応じて当該利用者より利用者名や利用者IDを取得し、RAM23に利用者情報42として記憶してログインを許可する処理を行うと共に、ログアウト操作に応じて利用終了の処理を行うプログラムである。なお、遠隔入出力装置17は後述のGUI機能によって利用者が歌唱したい楽曲を検索して予約することが可能であるが、利用者は先にカラオケ装置11にログインしていることが望ましい。   The login / logout processing means 17A obtains a user name and user ID from the user in response to a login operation by the user, stores the user name and user ID in the RAM 23 as user information 42, and performs a process of permitting login. This is a program that performs use termination processing in response to a logout operation. The remote input / output device 17 can search and reserve a song that the user wants to sing using a GUI function described later, but the user preferably logs in to the karaoke device 11 first.

上記選曲楽曲登録手段17Bは、楽曲IDや曲名、アーチスト名などのデータからなるテーブルに基づいて、利用者が所望する楽曲を検索させ、選曲された楽曲の楽曲IDをカラオケ本体12に送信するプログラムである。送信された楽曲IDは、カラオケ本体12におけるRAM23予約待ち行列41に登録される。上記検出装置選択手段17Cは、検出装置18とログインした利用者とを対応付けるプログラムである。   The music selection music registration means 17B is a program for searching the music desired by the user based on a table including data such as music ID, music title, artist name, etc. and transmitting the music ID of the music selected to the karaoke main body 12. It is. The transmitted music ID is registered in the RAM 23 reservation queue 41 in the karaoke main body 12. The detection device selection means 17C is a program that associates the detection device 18 with the logged-in user.

具体的には、リモコン表示部17Dに、既にカラオケ装置11とペアリングがなされている検出装置18A〜18Nのリストを表示させ、当該リストの中から、自分の使用する検出装置18を選択することで利用者と検出装置18とを対応付け、その情報をRAM23に利用者情報42の一つとして記憶する。そして、利用者は楽曲予約時に、歌唱者として自分を選択した上で予約操作を行えば、当該楽曲の演奏時にカラオケ装置11は、当該利用者に対応付けられている検出装置18からの検出信号のみを受信することになる。   Specifically, a list of the detection devices 18A to 18N that have already been paired with the karaoke device 11 is displayed on the remote control display unit 17D, and the detection device 18 to be used is selected from the list. The user is associated with the detection device 18 and the information is stored in the RAM 23 as one of the user information 42. And if a user performs reservation operation after selecting himself as a singer at the time of a music reservation, the karaoke apparatus 11 will detect the detection signal from the detection apparatus 18 matched with the said user at the time of the performance of the said music. Will only receive.

上記リモコン表示部17Dは、液晶ディスプレイ(LCD)とタッチセンサとを積層して入出力用とし、表示されるアイコン等に対応して当該タッチセンサにより楽曲の選択などのデータを入力することができるGUIのユーザインタフェース機能を有するものである。   The remote control display unit 17D has a liquid crystal display (LCD) and a touch sensor stacked to be used for input / output, and can input data such as music selection by the touch sensor corresponding to displayed icons and the like. It has a GUI user interface function.

上記カラオケ本体12は、バス20、中央制御部21、ROM22、RAM23、映像表示制御手段24、音楽演奏制御部25、音源(シンセサイザ)25A、採点手段26、A/D変換部26A、送受信部27、記憶部28、検出信号受信部31、計数処理手段32、音節特定手段33、リファレンス回数特定手段34及び比較評価手段35を備える。音節特定手段33及びリファレンス回数特定手段34によりリファレンス情報処理手段を構成する。   The karaoke main body 12 includes a bus 20, a central control unit 21, a ROM 22, a RAM 23, a video display control unit 24, a music performance control unit 25, a sound source (synthesizer) 25A, a scoring unit 26, an A / D conversion unit 26A, and a transmission / reception unit 27. , A storage unit 28, a detection signal receiving unit 31, a counting processing unit 32, a syllable specifying unit 33, a reference number specifying unit 34, and a comparative evaluation unit 35. The syllable specifying means 33 and the reference number specifying means 34 constitute reference information processing means.

上記RAM23には予約待ち行列41、利用者情報42、対象歌詞データ43、歌詞対応集計値44及び検出計数値45の記憶領域が形成される。また、記憶部28には、楽曲データベース(楽曲DB)51、映像データベース(映像DB)52、リファレンスデータベース(リファレンスDB)53、単音節テーブル54及び2連音節テーブル55が記憶される。なお、上記各構成について、本発明の要旨と直接関連しない要素部分であっても、従前のカラオケシステムにおいても大部分が適用可能であることを示すために、構成要素の全体を説明する。   In the RAM 23, a storage area for a reservation queue 41, user information 42, target lyrics data 43, lyrics-corresponding total value 44, and detection count value 45 is formed. The storage unit 28 also stores a music database (music DB) 51, a video database (video DB) 52, a reference database (reference DB) 53, a single syllable table 54, and a double syllable table 55. In addition, about each said structure, even if it is an element part which is not directly related to the summary of this invention, in order to show that most can be applied also in the conventional karaoke system, the whole component is demonstrated.

上記中央制御部21は、このシステムを統括的に処理制御する物理的なCPUであり、ROM22に記憶されているプログラムに基づくアルゴリズム処理を行う。上記RAM23は、予約待ち行列41、利用者情報42、対象歌詞データ43、歌詞対応集計値44及び検出計数値45の記憶領域が形成される他に、上記種々のプログラムを展開、実行させるための作業領域としての役割をなすもので、例えば半導体メモリで構成され、仮想的にハードディスク上に構築される場合をも含む概念である。   The central control unit 21 is a physical CPU that performs overall processing control of the system, and performs algorithm processing based on a program stored in the ROM 22. The RAM 23 is provided with a storage area for the reservation queue 41, user information 42, target lyrics data 43, lyrics-corresponding aggregate value 44, and detection count value 45, and for developing and executing the various programs. It serves as a work area, and is a concept that includes, for example, a case where it is configured by a semiconductor memory and is virtually built on a hard disk.

RAM23に記憶される上記対象歌詞データ43は、楽曲の演奏される際に楽曲IDに基づく楽曲DB51より読み出した歌詞データである(図3参照)。この歌詞データは表示部13の所定の位置に画面表示させるための表示レイアウトデータが付加された歌詞文字の文字コードの集合であり、これら各歌詞文字を色変え処理するタイミングデータが含まれる。また、この歌詞データは頁と行によって区分されており、頁は表示部13の1画面分における最大表示単位、行は表示部13に表示したときの横1行分の文字列であり、この頁、または行をひとつの歌唱区間として後述の回数特定処理を行う。なお、読み出し処理は、予約待ち行列41に予約登録されて演奏開始時に中央制御部21により行われるが、この処理に特化したプログラムを別に備えさせてもよい。   The target lyrics data 43 stored in the RAM 23 is the lyrics data read from the music DB 51 based on the music ID when the music is played (see FIG. 3). This lyric data is a set of character codes of lyric characters to which display layout data for display on a screen at a predetermined position of the display unit 13 is added, and includes timing data for color-changing each lyric character. The lyrics data is divided into pages and lines. The page is the maximum display unit for one screen of the display unit 13, and the line is a character string for one horizontal line when displayed on the display unit 13. The number-of-times specifying process described later is performed with a page or line as one singing section. The reading process is reserved and registered in the reservation queue 41 and is performed by the central control unit 21 at the start of performance. However, a program specialized for this process may be provided separately.

上記映像表示制御手段24は、演奏時に、映像DB52より抽出された背景映像及び楽曲DB51より抽出された楽曲の歌詞データを表示部13に出力するプログラム乃至電子回路である。なお、比較評価手段35における評価を表示させることとしてもよい。上記音楽演奏制御部25は、例えばシーケンスプログラムを備え、楽曲IDで楽曲DB51より抽出された音符データに従って音源(シンセサイザ)25Aを駆動するもので、当該音源25Aの出力は演奏信号としてミキシングアンプ14に出力される。   The video display control means 24 is a program or an electronic circuit that outputs the background video extracted from the video DB 52 and the lyrics data of the music extracted from the music DB 51 to the display unit 13 during performance. In addition, it is good also as displaying the evaluation in the comparative evaluation means 35. FIG. The music performance control unit 25 includes, for example, a sequence program, and drives a sound source (synthesizer) 25A according to the note data extracted from the music DB 51 with the music ID. The output of the sound source 25A is sent to the mixing amplifier 14 as a performance signal. Is output.

上記採点手段26は、利用者による歌唱音声のピッチを検出して後述の楽曲ごとの主旋律のリファレンスデータの各音高と比較することにより採点するもので、マイク15から入力されA/D変換部26Aでデジタル変換された音声信号を、歌唱採点するためのリファレンスデータに基づいて採点処理を行うプログラムである。具体的には、例えば特許第4222915号公報に記載されている手法を用いることができる。   The scoring means 26 is for scoring by detecting the pitch of the singing voice by the user and comparing it with the pitches of the reference data of the main melody for each music, which will be described later. It is a program that performs scoring processing based on reference data for singing a voice signal digitally converted by 26A. Specifically, for example, a technique described in Japanese Patent No. 4229915 can be used.

上記送受信部27は、遠隔入出力装置17との間で有線方式ないし無線方式(IR方式やブルートゥース(登録商標)機構のピコネット接続方式など)を利用してデータ授受を行うためのもので、そのための電子回路及びプログラムである。   The transmission / reception unit 27 is used to exchange data with the remote input / output device 17 using a wired system or a wireless system (such as an IR system or a Bluetooth (registered trademark) mechanism piconet connection system). Electronic circuit and program.

上記記憶部28に記憶されている楽曲DB51は、楽曲毎に、音符データ、歌詞データなどを格納する。演奏に関して、具体的には、楽曲ID、曲名及びアーチストID(アーチスト名)が関連付けられた楽曲テーブルを有し、楽曲毎に、楽曲IDで管理される所定データ形式のカラオケ楽曲の音符データ(例えば、MIDI(登録商標)形式の音符データ)等で構成される楽曲データ(ファイル)について当該楽曲IDをファイル名としてそれぞれ格納したデータベースである。上記記憶部28に記憶されている映像DB52は、楽曲毎に応じた背景映像データについて楽曲IDをファイル名としてそれぞれ格納したデータベースである。   The music DB 51 stored in the storage unit 28 stores note data, lyrics data, and the like for each music. Regarding performance, specifically, there is a music table in which a music ID, a music title, and an artist ID (artist name) are associated, and for each music, note data of a karaoke music in a predetermined data format managed by the music ID (for example, , MIDI (registered trademark) format note data) or the like, and the music ID is stored as a file name. The video DB 52 stored in the storage unit 28 is a database in which music IDs are stored as file names for background video data corresponding to each music.

上記記憶部28に記憶されているリファレンスDB53は、楽曲ごとの主旋律のリファレンスデータであって、上記楽曲DB51に記憶されているカラオケ楽曲と当該カラオケ楽曲の歌唱区間に合わせた歌唱者による歌唱を評価、分析するための評価基準として用いられるリファレンスデータとを紐付けて記憶するデータベースである。   Reference DB53 memorize | stored in the said memory | storage part 28 is reference data of the main melody for every music, Comprising: The karaoke music memorize | stored in the said music DB51 and the song by the singer matched with the song area of the said karaoke music are evaluated. This is a database that stores reference data used as an evaluation standard for analysis in association with each other.

上記記憶部28に記憶されている単音節テーブル54は、歌詞データにおける対象の音節が、歌唱区間の先頭の場合に当該対象の音節を発声するに際して、顎を開く方向、または閉じる方向に動かす回数を特定したテーブルであり、図2(A)に示すように、対象の音節である「母音」若しくは「子音+母音」の一つの音節に対して顎の開閉回数を予め設定したものである。なお、歌唱区間の先頭の音節は、顎を閉じた状態から歌唱区間の先頭の音節を発声するに際しての顎が動く回数を設定している。   The single syllable table 54 stored in the storage unit 28 indicates the number of times the target syllable in the lyric data is moved in the direction of opening or closing the jaw when the target syllable is uttered. As shown in FIG. 2 (A), the number of jaw opening / closing times is preset for one syllable of “vowel” or “consonant + vowel” as the target syllable. Note that the syllable at the beginning of the singing section sets the number of times the chin moves when the syllable at the beginning of the singing section is uttered from a state where the chin is closed.

上記記憶部28に記憶されている2連音節テーブル55は、歌詞データにおける対象の音節が、歌唱区間の先頭以外の音節の場合に当該対象の音節の直前の音節と当該対象の音節との二つの音節を順に発生する際に、顎を開く方向、又は閉じる方向に動かす回数を特定したテーブルであり、図2(B)に示すように、対象の音節の直前の音節である「母音」若しくは「子音+母音」と、対象の音節である「母音」及び「子音+母音」並びに特殊発声音節(例えば、「母音a」及び「子音+母音a」、「母音e」及び「子音+母音e」、並びに「母音o」及び「子音+母音o」に対しては「は(ha)」、「へ(he)」、「ほ(ho)」、「ん(n)」)の二つの音節の順による組に対して顎の開閉回数を予め設定したものである。なお、歌唱区間の先頭以外の音節は、二つの連続した音節について、一つ目の音節を発声した状態から二つ目の音節を発声するに際しての顎が動く回数を設定している。 The double syllable table 55 stored in the storage unit 28 stores the second syllable between the syllable immediately before the target syllable and the target syllable when the target syllable in the lyrics data is a syllable other than the head of the singing section. 2 is a table that specifies the number of times the syllable is moved in the direction to open or close the chin, and as shown in FIG. 2B, the vowel that is the syllable immediately before the target syllable, “Consonant + vowel”, the target syllables “vowel” and “consonant + vowel”, and special vowel syllables (for example, “vowel a” and “consonant + vowel a”, “vowel e” and “consonant + vowel e”) , And “vowel o” and “consonant + vowel o” are two syllables of “ha (ha)”, “he (he)”, “ho (ho)”, “n (n)”). The number of times of opening and closing the jaws is set in advance for the group in the order of. For the syllables other than the beginning of the singing section, the number of times the jaw moves when the second syllable is uttered from the state where the first syllable is uttered is set for two consecutive syllables.

上記検出信号受信部31は、検出装置18より送信されてくる検出信号を受信するプログラム乃至電子回路である。上記計数処理手段32は、楽曲の演奏中に検出装置18より受信した検出信号を計数し、集計してRAM23に検出計数値45として記憶するプログラム乃至電子回路である。   The detection signal receiving unit 31 is a program or an electronic circuit that receives a detection signal transmitted from the detection device 18. The count processing means 32 is a program or an electronic circuit that counts the detection signals received from the detection device 18 during the performance of the music, sums them up, and stores them as a detection count value 45 in the RAM 23.

上記音節特定手段33及びリファレンス回数特定手段34で構成されるリファレンス情報処理手段は、歌唱される楽曲の歌詞データの音節に応じて歌唱者の顎の動きを推測するリファレンス回数を、音節と顎の開閉回数とを予め設定した上記単音節テーブル54及び2連音節テーブル55に基づいて算出するもので、音節特定手段33は、RAM23に記憶されている図3に示す対象歌詞データ43に基づいて歌唱区間ごとに、当該歌詞データの先頭文字から順次音節を特定するプログラムであり(図5で説明する)、リファレンス回数特定手段34は、音節特定手段33により特定された音節が、歌唱区間の先頭の場合に当該音節に対応する顎の開閉回数を上記単音節テーブル54より特定し、歌唱区間の先頭以外の音節の場合に当該音節の直前の音節と当該音節の順による組に対応する顎の開閉回数を上記2連音節テーブル55から特定して集計し、RAM23に歌詞対応集計値44として記憶するプログラムである(図5及び図6で説明する)。   The reference information processing means composed of the syllable specifying means 33 and the reference number specifying means 34 determines the reference number of times to estimate the movement of the singer's jaw according to the syllable of the lyrics data of the song to be sung. The number of times of opening and closing is calculated based on the preset single syllable table 54 and the double syllable table 55, and the syllable specifying means 33 sings based on the target lyrics data 43 shown in FIG. It is a program for specifying syllables sequentially from the first character of the lyrics data for each section (described in FIG. 5), and the reference number specifying means 34 is the syllable specified by the syllable specifying means 33 at the head of the singing section. In this case, the number of times of opening and closing the jaw corresponding to the syllable is specified from the single syllable table 54, and in the case of a syllable other than the head of the singing section, the syllable This is a program for specifying the number of jaw opening / closing corresponding to a pair in the order of the previous syllable and the syllable from the double syllable table 55 and storing it in the RAM 23 as a lyrics corresponding total value 44 (FIGS. 5 and 6). To explain).

上記比較評価手段35は、上記計数処理手段32で計数された検出装置18からの受信検出回数としてRAM23に記憶されている検出計数値45と、リファレンス情報処理手段(音節特定手段33及びリファレンス回数特定手段34)で算出されたリファレンス回数であるRAM23に記憶されている歌詞対応集計値44とを比較し、比較結果の差が小さいほど高評価を与え、遠隔入出力装置17のリモコン表示部17D若しくは表示部13(リモコン表示部17Dと共にでもよい)に表示するプログラムである。なお、評価内容(内容例は後述する)は比較値に応じて予め定めて保持される。   The comparison evaluation unit 35 includes a detection count value 45 stored in the RAM 23 as the number of detections of reception from the detection device 18 counted by the counting processing unit 32, and reference information processing units (syllable identification unit 33 and reference number identification). The lyrics correspondence total value 44 stored in the RAM 23, which is the reference count calculated by the means 34), is compared, and the smaller the difference in the comparison result, the higher the evaluation is given, and the remote display 17D of the remote input / output device 17 or This program is displayed on the display unit 13 (may be used together with the remote control display unit 17D). The evaluation contents (content examples will be described later) are determined and held in advance according to the comparison value.

ここで、図1に示される検出装置18は、ウェアラブル端末であって、カラオケルームなどに常備されて利用者によって当該検出装置18を選択的に所持されるもので、予めカラオケ装置11(検出信号受信部31)と近距離無線通信によりペアリングがなされている。検出装置18は、図4に示すように、装置本体61に検出処理手段62及び検出送信手段63を備え、外部に延長接続された検知センサ64を備える。当該検出処理手段62は、装置IDを保持して装置全体を統御するプログラムを備え、当該利用者がログインしたときに当該検出装置18(装置ID)を選択指定することにより関連付けられてRAM23に利用者情報42の一部として記憶される。   Here, the detection device 18 shown in FIG. 1 is a wearable terminal, which is always provided in a karaoke room or the like, and is selectively held by the user. The receiver 31) is paired by short-range wireless communication. As shown in FIG. 4, the detection apparatus 18 includes a detection processing unit 62 and a detection transmission unit 63 in the apparatus main body 61, and a detection sensor 64 extended and connected to the outside. The detection processing means 62 is provided with a program that holds the device ID and manages the entire device. When the user logs in, the detection processing unit 62 selects and specifies the detection device 18 (device ID) and uses it in the RAM 23. Stored as part of the person information 42.

上記検出送信手段63は、ペアリングされたカラオケ装置11の検出信号受信部31に対して検知センサ64で検知した検出信号を送信するプログラム乃至電子回路である。上記検知センサ64は、歌唱による顎の動きを検出する圧力センサなどの検出素子を備えるもので、利用者の耳孔内に挿入できる形態のものや、耳孔周辺に装着できる形態などのものを使用することができるものである。   The detection transmission means 63 is a program or an electronic circuit that transmits a detection signal detected by the detection sensor 64 to the detection signal reception unit 31 of the paired karaoke apparatus 11. The detection sensor 64 includes a detection element such as a pressure sensor that detects movement of the jaw by singing, and uses a sensor that can be inserted into the ear canal of the user or a sensor that can be worn around the ear canal. It is something that can be done.

そこで、図5に図1のリファレンス回数特定手段における歌詞データに基づく回数特定処理の説明図を示すと共に、図6に図5の個別音節の回数特定処理の説明図を示す。ここでは、カラオケ楽曲の演奏の際に、図3に示すRAM23に対象歌詞データ43が記憶されていることを前提とする。   FIG. 5 shows an explanatory diagram of the number specifying process based on the lyrics data in the reference number specifying means of FIG. 1, and FIG. 6 shows an explanatory diagram of the individual syllable number specifying process of FIG. Here, it is assumed that the target lyrics data 43 is stored in the RAM 23 shown in FIG.

カラオケ楽曲の演奏開始の際に、当該楽曲の楽曲IDに基づいて、RAM23より読み出された図3に示す対象歌詞データ43に対して、音節特定手段33が、図5に示すように、歌詞データの最初の文字から順に、対象歌詞データの2行分の歌唱区間を一つのフレーズ区間として、文字コードがひらがなである文字を音節としてフレーズ区間ごとに特定していく(漢字は特定しない)。   When the performance of the karaoke music is started, the syllable specifying means 33 performs the lyrics as shown in FIG. 5 for the target lyrics data 43 shown in FIG. 3 read from the RAM 23 based on the music ID of the music. In order from the first character of the data, the singing section for two lines of the target lyric data is set as one phrase section, and the character with the hiragana character code is specified for each phrase section (kanji is not specified).

リファレンス回数特定手段34は、図5に示すように、音節特定手段33により特定された音節に対し、フレーズ区間の先頭の音節に対しては単音節テーブル54を参照して対応する顎の開閉回数を特定し、フレーズ区間の先頭以外の音節に対しては2連音節テーブル55を参照して当該対象の音節の直前の音節と当該対象の音節の順による組に対応する顎の開閉回数を特定していくものである。   As shown in FIG. 5, the reference number specifying unit 34 refers to the syllable specified by the syllable specifying unit 33, and refers to the single syllable table 54 for the first syllable of the phrase section, and the corresponding number of times of opening and closing the jaw Referring to the double syllable table 55 for the syllables other than the head of the phrase section, specify the number of times of opening and closing the jaw corresponding to the pair in the order of the syllable immediately before the target syllable and the target syllable. It is something to do.

具体例を示すと、図6(A)の例では、演奏に沿った図5の文字番号2の「あ」[(子音+)a]の音節について、フレーズ区間の先頭であるため、単音節テーブル54を参照して対象の音節[(子音+)a]に対応する回数「1」を特定する。また、図6(B)の例では、演奏に沿った図5の文字番号3の「た」[(子音+)a]の音節について、フレーズ区間の途中であるため、直前の音節が「あ」[(子音+)a]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)a]→[(子音+)a]に対応する回数「2」を特定する。   In a specific example, in the example of FIG. 6A, the syllable of “a” [(consonant +) a] of the character number 2 in FIG. With reference to the table 54, the number of times “1” corresponding to the target syllable [(consonant +) a] is specified. In the example of FIG. 6B, the syllable of “ta” [(consonant +) a] of the character number 3 in FIG. 5 along the performance is in the middle of the phrase section, so the immediately preceding syllable is “A”. ”[(Consonant +) a]”, and the number of times “2” corresponding to the target syllable [(consonant +) a] → [(consonant +) a] is obtained by referring to the double syllable table 55. Identify.

図6(C)の例では、演奏に沿った図5の文字番号7の「く」[(子音+)u]の音節について、フレーズ区間の途中であるため、直前の音節が「を」[(子音+)o]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)o]→[(子音+)u]に対応する回数「1」を特定する。さらに、図6(D)の例では、演奏に沿った図5の文字番号8の「も」[(子音+)o]の音節について、フレーズ区間の途中であるため、直前の音節が「く」[(子音+)u]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)u]→[(子音+)o]に対応する回数「1」を特定する。   In the example of FIG. 6C, since the syllable of “ku” [(consonant +) u] of the character number 7 in FIG. 5 along the performance is in the middle of the phrase section, the immediately preceding syllable is “O” [ (Consonant +) o] is specified, and the number of times “1” corresponding to the target syllable [(consonant +) o] → [(consonant +) u] is specified with reference to the double syllable table 55. . Further, in the example of FIG. 6D, the syllable of “M” ((consonant +) o) of the character number 8 of FIG. 5 along the performance is in the middle of the phrase section, so the immediately preceding syllable is “ku”. ”[(Consonant +) u]”, and the number of times “1” corresponding to the target syllable [(consonant +) u] → [(consonant +) o] is determined by referring to the double syllable table 55. Identify.

そして、リファレンス回数特定手段34において、上記歌詞データの特定する音節ごとに特定したリファレンス回数を集計してRAM23に歌詞対応集計値44として記憶する。一方で、カラオケ演奏に対する利用者の歌唱中に、当該利用者によって使用されている検出装置18より歌唱に際する顎の開閉に対応する検出信号を計数処理手段32が受信して集計し、歌唱終了後にRAM23の検出計数値45として記憶する。   Then, the reference count specifying means 34 counts the reference count specified for each syllable specified by the lyrics data and stores it in the RAM 23 as the lyrics corresponding count value 44. On the other hand, during the singing of the user for karaoke performance, the counting processing means 32 receives and counts the detection signals corresponding to the opening and closing of the chin when singing from the detection device 18 used by the user, and sings. After completion, it is stored as a detection count value 45 in the RAM 23.

そこで、比較評価手段35は、RAM23に記憶されている歌詞対応集計値44と検出計数値45とを比較し、比較結果の差が小さいほど高評価を与えるもので、例えば、「この楽曲の標準的な顎の動く回数は100回、あなたの顎の動いた回数は88回、もう少し顎の動きを意識して歌唱しましょう!」などの表示内容を遠隔入出力装置17のリモコン表示部17D及び表示部13の一方又は両方に表示するものである。   Therefore, the comparison evaluation unit 35 compares the lyrics correspondence total value 44 stored in the RAM 23 with the detection count value 45, and gives a higher evaluation as the difference between the comparison results is smaller. The number of times the typical jaw moves 100 times, the number of times your jaw moves 88 times, let's sing with a little more attention to jaw movement! ” It is displayed on one or both of the display unit 13.

このように、実際に歌唱した際に顎を動かした回数と、当該楽曲の顎を動かすべきリファレンス回数とを比較することから、歌唱者はこの比較結果により歌唱時にスムーズな顎の動きが出来ているか否かを確認することが可能となり、歌唱時に下顎の関節をリラックスさせてスムーズに動かすことを意識させて良い発声を促す歌唱を支援することができるものである。   In this way, since the number of times that the jaw was moved when actually singing was compared with the number of times the chin of the music should be moved, the singer can move the jaw smoothly during singing based on the comparison result. Thus, it is possible to support singing that encourages good utterance by making the lower jaw joint relax and smoothly move during singing.

また、歌詞データより楽曲歌唱の際に開閉するであろう顎の開閉回数(リファレンス回数)を推測、特定することから、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。   In addition, it is not necessary to create data for tens of thousands of karaoke songs in advance, since the number of times of opening and closing the jaws (reference times) that will open and close during song singing is estimated and specified from the lyrics data. It can be realized with a simple configuration.

本発明のカラオケ装置は、カラオケの基本的機能を備えたカラオケ端末及びカラオケ用のサーバの製造、使用、販売等の産業に利用可能である。   The karaoke apparatus of the present invention can be used in industries such as manufacture, use, and sales of a karaoke terminal having a basic karaoke function and a karaoke server.

11 カラオケ装置
12 カラオケ本体
17 遠隔入出力装置
18 検出装置
28 記憶部
31 検出信号受信部
32 計数処理手段
33 音節特定手段
34 リファレンス回数特定手段
35 比較評価手段
43 対象歌詞データ
44 歌詞対応集計値
45 検出計数値
53 リファレンスデータベース
54 単音節テーブル
55 2連音節テーブル
63 検出送信手段
64 検知センサ
DESCRIPTION OF SYMBOLS 11 Karaoke apparatus 12 Karaoke main body 17 Remote input / output apparatus 18 Detection apparatus 28 Memory | storage part 31 Detection signal receiving part 32 Count processing means 33 Syllable identification means 34 Reference frequency specification means 35 Comparison evaluation means 43 Target lyrics data 44 Lyric corresponding total value 45 Detection Count value 53 Reference database 54 Single syllable table 55 Double syllable table 63 Detection transmission means 64 Detection sensor

Claims (2)

歌唱による歌唱者の顎の動きを検出する検出装置と通信自在であり、当該検出装置から送信されてくる検出信号を受信可能なカラオケ装置であって、
楽曲の演奏中に前記検出装置より受信した検出信号を計数する計数処理手段と、
歌唱される前記楽曲の歌詞データに含まれる歌詞文字の音節に応じて歌唱者の顎の動きを推測するリファレンス回数を、音節と顎の開閉回数とを予め設定した所定数の音節テーブルに基づいて算出するリファレンス情報処理手段と、
前記計数処理手段で計数された回数と、前記リファレンス情報処理手段で算出されたリファレンス回数とを比較し、比較結果の差が小さいほど高評価を与える比較評価手段と、
を有することを特徴とするカラオケ装置。
A karaoke device that can communicate with a detection device that detects movement of a singer's jaw by singing, and that can receive a detection signal transmitted from the detection device ,
Counting processing means for counting detection signals received from the detection device during the performance of the music;
Based on a predetermined number of syllable tables in which the syllable and the number of times of opening and closing the chin are set in advance, the number of references for estimating the movement of the singer's jaw according to the syllable of the lyric character included in the lyrics data of the song to be sung Reference information processing means for calculating;
A comparison evaluation means that compares the number of times counted by the counting processing means with the reference number of times calculated by the reference information processing means, and gives a higher evaluation as the difference between the comparison results is smaller;
A karaoke apparatus comprising:
請求項1記載のカラオケ装置であって、
前記歌詞データは、歌詞文字列単位で複数の歌唱区間に区分されており、
前記所定数の音節テーブルは、一つの音節を発声する際の顎の開閉回数を対応付けた単音節テーブル、二つの音節について第一の音節を発声した状態から第二の音節を発声する際の顎の開閉回数を当該二つの音節の順による組に対応付けた2連音節テーブルであり、
前記リファレンス情報処理手段は、
前記歌唱区間ごとに、前記歌詞データの先頭文字から順次音節を特定する音節特定手段と、
前記音節特定手段により特定された音節が、歌唱区間の先頭の場合に当該音節に対応する顎の開閉回数を前記単音節テーブルより特定し、歌唱区間の先頭以外の音節の場合に当該音節の直前の音節と当該音節の順による組に対応する顎の開閉回数を前記2連音節テーブルから特定するリファレンス回数特定手段と、
を備えることを特徴とするカラオケ装置。
The karaoke apparatus according to claim 1,
The lyric data is divided into a plurality of singing sections in units of lyric strings,
The predetermined number of syllable tables is a single syllable table that correlates the number of times of opening and closing the jaw when uttering one syllable, and when uttering the second syllable from the state where the first syllable is uttered for two syllables. It is a double syllable table in which the number of times of opening and closing the chin is associated with a pair in the order of the two syllables,
The reference information processing means includes
For each singing section, syllable identifying means for sequentially identifying syllables from the first character of the lyrics data;
If the syllable specified by the syllable specifying means is at the beginning of a singing section, the number of jaws corresponding to the syllable is specified from the single syllable table, and if it is a syllable other than the beginning of the singing section, immediately before the syllable Reference number specifying means for specifying from the double syllable table the number of times of opening and closing the chin corresponding to the set of syllables and the order of the syllable,
A karaoke apparatus comprising:
JP2014242355A 2014-11-28 2014-11-28 Karaoke equipment Active JP6429610B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014242355A JP6429610B2 (en) 2014-11-28 2014-11-28 Karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014242355A JP6429610B2 (en) 2014-11-28 2014-11-28 Karaoke equipment

Publications (2)

Publication Number Publication Date
JP2016102959A JP2016102959A (en) 2016-06-02
JP6429610B2 true JP6429610B2 (en) 2018-11-28

Family

ID=56088133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242355A Active JP6429610B2 (en) 2014-11-28 2014-11-28 Karaoke equipment

Country Status (1)

Country Link
JP (1) JP6429610B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166345A (en) * 1997-08-11 1999-03-09 Sega Enterp Ltd Image acoustic processor and recording medium
JP4134921B2 (en) * 2004-02-27 2008-08-20 ヤマハ株式会社 Karaoke equipment
JP4487909B2 (en) * 2005-11-21 2010-06-23 カシオ計算機株式会社 Voice control device and voice control method
JP5534517B2 (en) * 2010-08-27 2014-07-02 学校法人東海大学 Utterance learning support device and program thereof
JP5935545B2 (en) * 2011-07-29 2016-06-15 ヤマハ株式会社 Speech synthesizer

Also Published As

Publication number Publication date
JP2016102959A (en) 2016-06-02

Similar Documents

Publication Publication Date Title
JP6158179B2 (en) Information processing apparatus and information processing method
JP2007256617A (en) Musical piece practice device and musical piece practice system
KR102495888B1 (en) Electronic device for outputting sound and operating method thereof
KR20210070270A (en) information processing unit
JP2006259471A (en) Singing practice system and program for singing practice system
WO2014087571A1 (en) Information processing device and information processing method
JP6436770B2 (en) Karaoke equipment
JP6429610B2 (en) Karaoke equipment
JP5417022B2 (en) Karaoke device that automatically changes keys when a person of different gender sings from the original singer
JP4048226B1 (en) Aphasia practice support equipment
JP6150276B2 (en) Speech evaluation apparatus, speech evaluation method, and program
JP4404784B2 (en) Karaoke system
JP6177027B2 (en) Singing scoring system
KR102634347B1 (en) Apparatus for training and testing to cognitive function using user interaction
JP6775218B2 (en) Swallowing information presentation device
JP2005345555A (en) Karaoke system having grading information display function
JP6144592B2 (en) Singing scoring system
JP6144593B2 (en) Singing scoring system
EP4213130A1 (en) Device, system and method for providing a singing teaching and/or vocal training lesson
Lui A Compact Spectrum-Assisted Human Beatboxing Reinforcement Learning Tool On Smartphone.
KR102556571B1 (en) Apparatus for training and testing to improve cognitive and auditory function, method and program of the same
JP6821747B2 (en) Karaoke equipment
JP6144605B2 (en) Singing scoring system
JP2009244607A (en) Duet part singing generation system
KR20070105098A (en) An apparatus for correcting a pitch

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181030

R150 Certificate of patent or registration of utility model

Ref document number: 6429610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250