JP7149218B2 - karaoke device - Google Patents

karaoke device Download PDF

Info

Publication number
JP7149218B2
JP7149218B2 JP2019067226A JP2019067226A JP7149218B2 JP 7149218 B2 JP7149218 B2 JP 7149218B2 JP 2019067226 A JP2019067226 A JP 2019067226A JP 2019067226 A JP2019067226 A JP 2019067226A JP 7149218 B2 JP7149218 B2 JP 7149218B2
Authority
JP
Japan
Prior art keywords
karaoke
singer
music genre
singing
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019067226A
Other languages
Japanese (ja)
Other versions
JP2020166142A (en
Inventor
直樹 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2019067226A priority Critical patent/JP7149218B2/en
Publication of JP2020166142A publication Critical patent/JP2020166142A/en
Application granted granted Critical
Publication of JP7149218B2 publication Critical patent/JP7149218B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、カラオケ装置に関する。 The present invention relates to a karaoke machine.

カラオケ装置において、歌唱者の歌唱音声を分析し、その結果に基づいて様々な処理を行う技術が知られている。 2. Description of the Related Art In a karaoke machine, a technique is known in which a singer's singing voice is analyzed and various processing is performed based on the analysis result.

たとえば、特許文献1には、歌唱者の歌唱にかかる音声データを分析し、歌唱者が歌うのに適した楽曲や音楽ジャンルを提示することができる技術が開示されている。 For example, Patent Literature 1 discloses a technique capable of analyzing audio data of a singer's singing and presenting songs and music genres suitable for the singer to sing.

特開2009-162818号公報JP 2009-162818 A

しかし、特許文献1の技術により提示される楽曲については、歌唱者が知らない楽曲(すなわち、カラオケ歌唱が出来ない楽曲)もあり得る。 However, among the songs presented by the technique of Patent Literature 1, there may be songs that the singer does not know (that is, songs that cannot be sung in karaoke).

本発明の目的は、歌唱者がカラオケ歌唱を行うことができる楽曲について、歌唱者が歌うのに適した音楽ジャンルに対応したカラオケ演奏が可能なカラオケ装置を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a karaoke apparatus capable of karaoke performance corresponding to a music genre suitable for a singer to sing for a song that the singer can sing in karaoke.

上記目的を達成するための発明は、楽曲のカラオケ演奏を行うための伴奏データを記憶するデータ記憶部と、ある楽曲の所定の歌唱区間において入力された歌唱者の音声に基づく信号を分析し、分析結果を取得する分析部と、取得した前記分析結果に基づいて、前記歌唱者が歌うのに適した音楽ジャンルを特定する特定部と、前記所定の歌唱区間以降において、特定した前記音楽ジャンルに対応したカラオケ演奏音を放音させる演奏制御部と、を有するカラオケ装置である。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
The invention for achieving the above object analyzes a data storage unit that stores accompaniment data for performing karaoke performance of a song, and a signal based on the singer's voice input in a predetermined singing section of a certain song, An analysis unit that acquires the analysis result, a specification unit that specifies a music genre suitable for the singer to sing based on the acquired analysis result, and the specified music genre after the predetermined singing section. and a performance control section for emitting corresponding karaoke performance sounds.
Other features of the present invention will be clarified by the description of the specification and drawings described later.

本発明によれば、歌唱者がカラオケ歌唱を行うことができる楽曲について、歌唱者が歌うのに適した音楽ジャンルに対応したカラオケ演奏ができる。 According to the present invention, a karaoke performance corresponding to a music genre suitable for a singer to sing can be performed for a song that the singer can sing in karaoke.

第1実施形態に係るカラオケ装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the karaoke apparatus which concerns on 1st Embodiment. 第1実施形態に係るカラオケ本体のソフトウェア構成例を示す図である。It is a figure which shows the software structural example of the karaoke main body which concerns on 1st Embodiment. 第1実施形態における、音楽ジャンル毎の歌唱技法のスコアを示した図である。FIG. 4 is a diagram showing scores of singing techniques for each music genre in the first embodiment; 第1実施形態に係るカラオケ装置の処理を示すフローチャートである。It is a flow chart which shows processing of a karaoke device concerning a 1st embodiment. 第2実施形態における、音楽ジャンル毎の声質のスコアを示した図である。FIG. 10 is a diagram showing voice quality scores for each music genre in the second embodiment; 第2実施形態に係るカラオケ装置の処理を示すフローチャートである。It is a flow chart which shows processing of a karaoke device concerning a 2nd embodiment.

<第1実施形態>
図1~図4を参照して、本実施形態に係るカラオケ装置について説明する。
<First Embodiment>
A karaoke apparatus according to the present embodiment will be described with reference to FIGS. 1 to 4. FIG.

==カラオケ装置==
カラオケ装置1は、カラオケ演奏及び歌唱者がカラオケ歌唱を行うための装置である。図1に示すように、カラオケ装置1は、カラオケ本体10、スピーカ20、表示装置30、マイク40、及びリモコン装置50を備える。
==Karaoke Device==
The karaoke device 1 is a device for performing karaoke and singing karaoke by a singer. As shown in FIG. 1, the karaoke device 1 includes a karaoke main body 10, a speaker 20, a display device 30, a microphone 40, and a remote control device 50. As shown in FIG.

スピーカ20は各種音声を放音するための構成である。本実施形態におけるスピーカ20は、「放音手段」に相当する。表示装置30はカラオケ本体10からの信号に基づいて映像や画像を画面に表示するための構成である。マイク40は歌唱者の歌唱音声をアナログの信号に変換してカラオケ本体10に入力するための構成である。リモコン装置50は、カラオケ本体10に対する各種操作をおこなうための装置である。歌唱者はリモコン装置50を用いてカラオケ歌唱を希望する楽曲の選曲(予約)等を行うことができる。リモコン装置50の表示画面には各種操作の指示入力を行うためのアイコン等が表示される。 The speaker 20 is configured to emit various sounds. The speaker 20 in this embodiment corresponds to "sound emitting means". The display device 30 is configured to display video and images on the screen based on the signal from the karaoke main body 10 . The microphone 40 is configured to convert the singing voice of the singer into an analog signal and input it to the karaoke main body 10 . The remote control device 50 is a device for performing various operations on the karaoke main body 10 . The singer can use the remote control device 50 to select (reserve) a desired song for karaoke singing. Icons and the like for inputting instructions for various operations are displayed on the display screen of the remote control device 50 .

カラオケ本体10は、選曲された楽曲のカラオケ演奏制御、歌詞や背景映像等の表示制御、マイク40を通じて入力された信号の処理といった、カラオケ歌唱に関する各種の制御を行う。図1に示すように、カラオケ本体10は、制御部11、通信部12、記憶部13、音響処理部14、表示処理部15及び操作部16を備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。 The karaoke main body 10 performs various controls related to karaoke singing, such as karaoke performance control of selected music, display control of lyrics, background images, etc., and processing of signals input through the microphone 40 . As shown in FIG. 1, the karaoke main body 10 includes a control section 11, a communication section 12, a storage section 13, a sound processing section 14, a display processing section 15 and an operation section 16. FIG. Each configuration is connected to bus B via an interface (not shown).

制御部11は、CPU11aおよびメモリ11bを備える。CPU11aは、メモリ11bに記憶された動作プログラムを実行することにより各種の制御機能を実現する。メモリ11bは、CPU11aに実行されるプログラムを記憶したり、プログラムの実行時に各種情報を一時的に記憶したりする記憶装置である。 The control unit 11 includes a CPU 11a and a memory 11b. The CPU 11a realizes various control functions by executing operation programs stored in the memory 11b. The memory 11b is a storage device that stores programs to be executed by the CPU 11a and temporarily stores various types of information during execution of the programs.

通信部12は、ルーター(図示なし)を介してカラオケ本体10を通信回線に接続するためのインターフェースを提供する。 The communication unit 12 provides an interface for connecting the karaoke main body 10 to a communication line via a router (not shown).

記憶部13は、各種のデータを記憶する大容量の記憶装置であり、たとえばハードディスクドライブなどである。記憶部13は、カラオケ装置1によりカラオケ演奏を行うための複数の楽曲データを記憶する。 The storage unit 13 is a large-capacity storage device that stores various data, such as a hard disk drive. The storage unit 13 stores a plurality of song data for karaoke performance by the karaoke apparatus 1 .

楽曲データは、個々の楽曲を特定するための楽曲IDが付与されている。楽曲データは、伴奏データ、リファレンスデータ等を含む。伴奏データは、カラオケ演奏音の元となるデータである。リファレンスデータは、歌唱者によるカラオケ歌唱を採点するためのデータであり、採点時の基準として用いられるデータである。 The music data is given a music ID for identifying each music. The music data includes accompaniment data, reference data, and the like. Accompaniment data is data that is the source of karaoke performance sounds. Reference data is data for scoring karaoke singing by a singer, and is data used as a reference at the time of scoring.

また、記憶部13は、各楽曲に対応する歌詞テロップをカラオケ演奏に合わせて表示装置30等に表示させるための歌詞テロップデータ、カラオケ演奏時に表示装置30等に表示される背景画像等の背景画像データ、及び楽曲の属性情報(歌手名、作詞・作曲者名、音楽ジャンル等の当該楽曲に関する情報)を記憶する。 The storage unit 13 also stores lyric telop data for displaying lyric telops corresponding to each song on the display device 30 or the like in time with the karaoke performance, and background images such as background images displayed on the display device 30 or the like during the karaoke performance. Data and music attribute information (singer name, lyricist/composer name, music genre, and other information related to the music) are stored.

音響処理部14は、制御部11の制御に基づき、楽曲に対するカラオケ演奏の制御およびマイク40を通じて入力された歌唱音声に基づく信号の処理を行う。音響処理部14は、イコライザ14aを含む。イコライザ14aは、イコライジング・パラメータに応じてカラオケ演奏音の周波数特性を調整することにより、楽曲それぞれの雰囲気に合ったカラオケ演奏音を出力する装置である。表示処理部15は、制御部11の制御に基づき、表示装置30やリモコン装置50における各種表示に関する処理を行う。たとえば、表示処理部15は、楽曲のカラオケ演奏時における背景映像に歌詞テロップや各種アイコンが重ねられた映像を表示装置30に表示させる制御を行う。或いは、表示処理部15は、リモコン装置50の表示画面に操作入力用の各種アイコンを表示させる。操作部16は、パネルスイッチおよびリモコン受信回路などからなり、歌唱者によるカラオケ装置1のパネルスイッチあるいはリモコン装置50の操作に応じて選曲信号、演奏中止信号などの操作信号を制御部11に対して出力する。制御部11は、操作部16からの操作信号を検出し、対応する処理を実行する。 Under the control of the control unit 11 , the sound processing unit 14 controls karaoke performance of music and processes signals based on singing voices input through the microphone 40 . The acoustic processing unit 14 includes an equalizer 14a. The equalizer 14a is a device that adjusts the frequency characteristics of the karaoke performance sound in accordance with the equalizing parameters, thereby outputting the karaoke performance sound that matches the atmosphere of each piece of music. The display processing unit 15 performs processing related to various displays on the display device 30 and the remote control device 50 under the control of the control unit 11 . For example, the display processing unit 15 controls the display device 30 to display an image in which lyric telops and various icons are superimposed on a background image during a karaoke performance of a song. Alternatively, the display processing unit 15 causes the display screen of the remote control device 50 to display various icons for operation input. The operation unit 16 consists of a panel switch, a remote control receiving circuit, and the like, and transmits operation signals such as a music selection signal and a performance stop signal to the control unit 11 according to the operation of the panel switch of the karaoke device 1 or the remote control device 50 by the singer. Output. The control unit 11 detects an operation signal from the operation unit 16 and executes corresponding processing.

(ソフトウェア構成)
図2はカラオケ本体10のソフトウェア構成例を示す図である。カラオケ本体10は、データ記憶部100、分析部200、特定部300、及び演奏制御部400を備える。データ記憶部100は、記憶部13の記憶領域の一部として提供される。分析部200、特定部300、及び演奏制御部400は、CPU11aがメモリ11bに記憶されるプログラムを実行することにより実現される。
(software configuration)
FIG. 2 is a diagram showing an example of the software configuration of the karaoke main body 10. As shown in FIG. The karaoke main body 10 includes a data storage section 100 , an analysis section 200 , an identification section 300 and a performance control section 400 . A data storage unit 100 is provided as part of the storage area of the storage unit 13 . The analysis unit 200, the identification unit 300, and the performance control unit 400 are implemented by the CPU 11a executing a program stored in the memory 11b.

[データ記憶部]
データ記憶部100は、楽曲毎に、異なる音楽ジャンルに応じてアレンジされた複数の伴奏データを記憶する。
[Data storage part]
The data storage unit 100 stores a plurality of accompaniment data arranged according to different music genres for each piece of music.

たとえば、音楽ジャンルがポップスに分類される楽曲Xがある場合、データ記憶部100は、楽曲Xの属性情報(音楽ジャンル)に基づいた伴奏データXDPを記憶する。すなわち、伴奏データXDPは、ポップスの音楽ジャンルに応じてアレンジされたデータである。楽曲Xのカラオケ演奏を行う場合、通常は、伴奏データXDPに基づくカラオケ演奏音が放音される。 For example, when there is a song X whose music genre is classified as pops, the data storage unit 100 stores accompaniment data XDP based on the attribute information (music genre) of the song X. FIG. That is, the accompaniment data XDP is data arranged according to the pop music genre. When performing a karaoke performance of the music piece X, karaoke performance sounds based on the accompaniment data XDP are normally emitted.

一方、データ記憶部100は、楽曲Xについて、属性情報が示す音楽ジャンル以外の伴奏データも記憶している。たとえば、データ記憶部100は、楽曲Xの伴奏データとして、アイドルの音楽ジャンルに応じてアレンジされた伴奏データXDI、ロックの音楽ジャンルに応じてアレンジされた伴奏データXDR、演歌の音楽ジャンルに応じてアレンジされた伴奏データXDE、ジャズの音楽ジャンルに応じてアレンジされた伴奏データXDJ、ギター弾き語りの音楽ジャンルに応じてアレンジされた伴奏データXDGを記憶している。 On the other hand, the data storage unit 100 also stores accompaniment data for music X other than the music genre indicated by the attribute information. For example, the data storage unit 100 stores, as accompaniment data for a song X, accompaniment data XDI arranged according to the idol music genre, accompaniment data XDR arranged according to the rock music genre, Arranged accompaniment data XDE, accompaniment data XDJ arranged according to the jazz music genre, and accompaniment data XDG arranged according to the guitar-playing music genre are stored.

なお、音楽ジャンルに応じたアレンジとは、たとえば、ロックの音楽ジャンルであれば、エレクトリック・ギター、エレクトリック・ベース、ドラムを中心とした楽音で8ビートのアレンジ、ジャズの音楽ジャンルであればアコースティック・ピアノ、ウッド・ベース、ブラシで演奏するドラムやサックス等の管楽器を中心とした楽音で4ビートのアレンジ、ギター弾き語りの音楽ジャンルであれば、アコースティック・ギターを中心としたアレンジである。 Arrangement according to the music genre is, for example, an 8-beat arrangement with musical tones centered on electric guitar, electric bass, and drums in the case of rock music genre, and an acoustic arrangement in the case of jazz music genre. A 4-beat arrangement with musical sounds centered on wind instruments such as piano, wood bass, drums and saxophone played with brushes, and an arrangement centered on acoustic guitar if it is a music genre of singing with guitar.

[分析部]
分析部200は、ある楽曲の所定の歌唱区間において入力された歌唱者の音声に基づく信号を分析し、分析結果を取得する。本実施形態における分析部200は、分析結果として、歌唱者がある楽曲のカラオケ歌唱で使用した歌唱技法を取得する。
[Analysis Department]
The analysis unit 200 analyzes a signal based on a singer's voice input in a predetermined singing section of a certain piece of music, and obtains an analysis result. The analysis unit 200 in the present embodiment acquires, as an analysis result, the singing technique used by the singer in karaoke singing of a certain piece of music.

楽曲の歌唱区間は、カラオケ歌唱を行うための歌詞が付与されている区間である。なお、非歌唱区間は、カラオケ歌唱を行うための歌詞が付与されていない区間である。所定の歌唱区間は、楽曲の歌唱区間において予め設定されている一部の区間である。所定の歌唱区間は、ある楽曲の歌唱区間の一部(たとえば最初の4小節)であったり、最初のAメロに対応する歌唱区間等、予め任意の区間を設定しておくことができる。歌唱技法は、歌唱者がカラオケ歌唱の際に駆使する特殊な歌唱法である。歌唱技法の具体例としては、たとえば「しゃくり」、「フォール」、「こぶし」、「シャウト」、「抑揚」、「ヒーカップ」、「アクセント」がある。以下の説明ではこの7つの歌唱技法が含まれているかどうかを判定するものとする。但し、これら歌唱技法のうち、一部の歌唱技法のみについて含まれているかどうかを判定してもよい。 The singing section of a song is a section in which lyrics for karaoke singing are provided. In addition, the non-singing section is a section in which the lyrics for karaoke singing are not provided. The predetermined singing segment is a preset part of the singing segment of the song. The predetermined singing section can be set in advance as a part of the singing section (for example, the first 4 bars) of a song, or the singing section corresponding to the first A melody. Singing technique is a special singing method used by singers when singing karaoke. Specific examples of singing techniques include ``shakuri'', ``fall'', ``fist'', ``shout'', ``intonation'', ``heacup'', and ``accent''. In the following description, it is determined whether these seven singing techniques are included. However, among these singing techniques, it may be determined whether or not only some singing techniques are included.

ここで、歌唱者が楽曲Xを選曲したとする。カラオケ装置1は、ポップスの音楽ジャンルに応じてアレンジされた伴奏データXDPに基づいてカラオケ演奏を開始する。楽曲Xの最初の歌唱区間E1に対応するカラオケ演奏が開始された場合、歌唱者は、マイク40を使ってカラオケ歌唱を行う。分析部200は、マイク40に入力された歌唱者の音声に基づく信号を取得し、上記7つの歌唱技法が含まれているかどうかを判定する。この例では歌唱者の音声に「しゃくり」及び「こぶし」の歌唱技法が含まれているとする。この場合、分析部200は、分析結果として「しゃくり」及び「こぶし」を取得する。 Here, it is assumed that the singer has selected a piece of music X. The karaoke device 1 starts karaoke performance based on the accompaniment data XDP arranged according to the pop music genre. When the karaoke performance corresponding to the first singing section E1 of the song X is started, the singer uses the microphone 40 to sing karaoke. The analysis unit 200 acquires a signal based on the singer's voice input to the microphone 40 and determines whether the above seven singing techniques are included. In this example, it is assumed that the singer's voice includes the singing techniques of "shakuri" and "kobushi". In this case, the analysis unit 200 acquires “jerking” and “fisting” as the analysis results.

なお、歌唱技法は公知の技術により取得できる。たとえば、「しゃくり」は、特開2005-107336号公報に記載の技術を利用することができる。「フォール」は、特開2008-225115号公報に記載の技術を利用することができる。「こぶし」は、特開2008-268370号公報に記載の技術を利用することができる。「シャウト」は、特開2012-078701号公報に記載の技術を利用することができる。「抑揚」は、特開2008-268359号公報に記載の技術を利用することができる。「ヒーカップ」は、特開2017-156364号公報に記載の技術を利用することができる。「アクセント」は、特開2019-015761号公報に記載の技術を利用することができる。 The singing technique can be obtained by a known technique. For example, "Shakuri" can use the technology described in Japanese Patent Application Laid-Open No. 2005-107336. "Fall" can use the technique described in Japanese Patent Application Laid-Open No. 2008-225115. The technique described in JP-A-2008-268370 can be used for the "fist". "Shout" can use the technology described in Japanese Patent Application Laid-Open No. 2012-078701. For the “intonation”, the technique described in Japanese Patent Application Laid-Open No. 2008-268359 can be used. “Heacup” can use the technology described in Japanese Patent Application Laid-Open No. 2017-156364. The “accent” can use the technology described in Japanese Patent Application Laid-Open No. 2019-015761.

[特定部]
特定部300は、取得した分析結果に基づいて、歌唱者が歌うのに適した音楽ジャンルを特定する。本実施形態における特定部300は、取得した歌唱技法を用いて音楽ジャンルを特定する。
[Specified part]
The identification unit 300 identifies a music genre suitable for a singer to sing based on the acquired analysis results. The identification unit 300 in this embodiment identifies the music genre using the acquired singing technique.

歌唱技法を用いた音楽ジャンルの特定は、たとえば、図3に示したテーブルデータを利用して行う。このようなテーブルデータは、記憶部13に予め記憶されている。図3に示したテーブルデータは、音楽ジャンル毎に、使用頻度の高い歌唱技法ほどスコアが高くなるよう設定されている。たとえば、ロックの場合、一般的には、「シャウト」の使用頻度が高くなる一方、「こぶし」や「抑揚」はロックでの使用を避けるべきである。よって、図3のテーブルデータにおいて、音楽ジャンルがロックの場合には、シャウトのスコアを「5」とし、「こぶし」及び「抑揚」のスコアを「-1」としている。 Identification of the music genre using the singing technique is performed using, for example, the table data shown in FIG. Such table data is pre-stored in the storage unit 13 . The table data shown in FIG. 3 is set for each music genre so that the singing technique used more frequently has a higher score. For example, in rock, "shout" is generally used more frequently, while "fist" and "inflection" should be avoided in rock. Therefore, in the table data of FIG. 3, when the music genre is rock, the shout score is "5", and the "fist" and "intonation" scores are "-1".

ここで、上記例に示した通り、分析結果として「しゃくり」及び「こぶし」の歌唱技法が取得されたとする。この場合、特定部300は、テーブルデータを参照し、取得された「しゃくり」及び「こぶし」の歌唱技法については「×1.0」とし、他の歌唱技法については「×0.0」として、音楽ジャンル毎にスコアの算出を行う。図3の例によれば、ポップスの音楽ジャンルは、しゃくりのスコア(3×1.0)+こぶしのスコア(1×1.0)=「4」となる。アイドルの音楽ジャンルは、しゃくりのスコア(3×1.0)+こぶしのスコア(-1×1.0)=「2」となる。ロックの音楽ジャンルは、しゃくりのスコア(1×1.0)+こぶしのスコア(-1×1.0)=「0」となる。演歌の音楽ジャンルは、しゃくりのスコア(3×1.0)+こぶしのスコア(5×1.0)=「8」となる。ジャズの音楽ジャンルは、しゃくりのスコア(3×1.0)+こぶしのスコア(-1×1.0)=「2」となる。ギター弾き語りの音楽ジャンルは、しゃくりのスコア(5×1.0)+こぶしのスコア(-1×1.0)=「4」となる。すなわち、この例では、演歌の音楽ジャンルが最も高いスコア「8」となる。特定部300は、この結果に基づいて、歌唱者が歌うのに適した音楽ジャンルとして「演歌」を特定する。 Here, as shown in the above example, it is assumed that the singing techniques of "shakuri" and "kobushi" are obtained as an analysis result. In this case, the identification unit 300 refers to the table data, sets the acquired singing techniques of “shakuri” and “kobushi” to “×1.0”, and sets the other singing techniques to “×0.0”. , score is calculated for each music genre. According to the example of FIG. 3, the music genre of pop music is: shakuri score (3×1.0)+fist score (1×1.0)=“4”. The idol's music genre is the shakuri score (3×1.0)+the fist score (−1×1.0)=“2”. In the rock music genre, the shakuri score (1×1.0)+the fist score (−1×1.0)=“0”. The music genre of enka is: shakuri score (3×1.0)+fist score (5×1.0)=“8”. For the jazz music genre, the shakuri score (3×1.0)+the fist score (−1×1.0)=“2”. The music genre of guitar-playing narration is the score of shakuri (5×1.0)+score of fist (−1×1.0)=“4”. That is, in this example, the enka music genre has the highest score of "8". Based on this result, the identifying unit 300 identifies "enka" as a music genre suitable for the singer to sing.

なお、上述した各歌唱技法のスコアやスコアの乗数(「×1.0」等)は一例である。たとえば、取得された歌唱技法の頻度や巧さに応じて乗数を細かく設定してもよい(歌唱技法頻度が多い場合には「×1.2」、少ない場合には「×0.8」とする等)。 Note that the scores and score multipliers (“×1.0”, etc.) for each singing technique described above are examples. For example, the multiplier may be finely set according to the frequency and proficiency of the acquired singing technique ("x 1.2" if the singing technique frequency is high, and "x 0.8" if it is low). etc.).

[演奏制御部]
演奏制御部400は、カラオケ装置1におけるカラオケ演奏の制御を行う。演奏制御部400は、楽曲の伴奏データを記憶部13から読み出し、音響処理部14を制御することで、スピーカ20からカラオケ演奏音を放音させる。
[Performance control section]
The performance control unit 400 controls karaoke performance in the karaoke device 1 . The performance control unit 400 reads the accompaniment data of the music from the storage unit 13 and controls the sound processing unit 14 to cause the speaker 20 to emit karaoke performance sounds.

また、演奏制御部400は、所定の歌唱区間以降において、特定した音楽ジャンルに対応したカラオケ演奏音を放音させる。本実施形態において、演奏制御部400は、所定の歌唱区間以降において、特定した音楽ジャンルに対応した伴奏データを選択し、選択した当該伴奏データに基づくカラオケ演奏音を放音させる。なお、本実施形態における「所定の歌唱区間以降」には所定の歌唱区間自体は含まれない。 Also, the performance control unit 400 emits karaoke performance sounds corresponding to the specified music genre after the predetermined singing interval. In this embodiment, the performance control unit 400 selects accompaniment data corresponding to the specified music genre after a predetermined singing interval, and emits karaoke performance sounds based on the selected accompaniment data. In addition, the predetermined singing section itself is not included in "after the predetermined singing section" in this embodiment.

たとえば、上述の通り、楽曲Xの歌唱区間E1において入力された歌唱者の音声に基づく信号から、「演歌」の音楽ジャンルが特定されたとする。 For example, as described above, it is assumed that the music genre of "enka" is specified from the signal based on the voice of the singer input in the singing section E1 of the song X.

この場合、演奏制御部400は、歌唱区間E1以降の歌唱区間及び非歌唱区間においては、楽曲Xの本来の音楽ジャンルであるポップスの伴奏データXDPではなく、特定された音楽ジャンルである演歌の伴奏データXDEを選択する。演奏制御部400は、選択した伴奏データXDEをデータ記憶部100から読み出し、当該伴奏データXDEに基づくカラオケ演奏音をスピーカ20から放音させる。 In this case, in the singing section and the non-singing section after the singing section E1, the performance control unit 400 does not use the pops accompaniment data XDP that is the original music genre of the song X, but enka that is the specified music genre. Select Data XDE. The performance control unit 400 reads out the selected accompaniment data XDE from the data storage unit 100 and causes the speaker 20 to emit karaoke performance sounds based on the accompaniment data XDE.

なお、楽曲Xをカラオケ歌唱した場合に、特定された音楽ジャンルが「ポップス」となる可能性もありうる。この場合、演奏制御部400は、所定の歌唱区間以降においても、ポップスの伴奏データXDPに基づくカラオケ演奏音を放音させる。 It should be noted that there is a possibility that the specified music genre will be "pops" when the song X is sung in karaoke. In this case, the performance control unit 400 emits the karaoke performance sound based on the pop accompaniment data XDP even after the predetermined singing interval.

==カラオケ装置における処理について==
次に、図4を参照して本実施形態に係るカラオケ装置1における処理の具体例について述べる。図4は、カラオケ装置1における処理例を示すフローチャートである。この例では、歌唱者が選曲した楽曲Xのカラオケ歌唱を行う例について述べる。データ記憶部100は、楽曲Xについて、異なる音楽ジャンルに応じてアレンジされた複数の伴奏データを記憶しているとする。
==About the processing in the karaoke machine==
Next, a specific example of processing in the karaoke apparatus 1 according to this embodiment will be described with reference to FIG. FIG. 4 is a flow chart showing an example of processing in the karaoke machine 1. As shown in FIG. In this example, an example of karaoke singing of music X selected by a singer will be described. It is assumed that the data storage unit 100 stores a plurality of pieces of accompaniment data arranged according to different music genres for a piece of music X. FIG.

カラオケ装置1は、楽曲Xのカラオケ演奏を開始する(カラオケ演奏の開始。ステップ10)。歌唱者は、カラオケ演奏が開始された後、音声を入力する。 The karaoke device 1 starts karaoke performance of song X (start of karaoke performance, step 10). The singer inputs voice after the karaoke performance is started.

分析部200は、楽曲Xの所定の歌唱区間において入力された歌唱者の音声に基づく信号を分析し、歌唱者が行った歌唱技法を取得する(歌唱技法の取得。ステップ11)。 The analysis unit 200 analyzes a signal based on the voice of the singer input in a predetermined singing section of the song X, and acquires the singing technique performed by the singer (acquisition of singing technique, step 11).

特定部300は、ステップ11で取得した歌唱技法に基づいて、歌唱者が歌うのに適した音楽ジャンルを特定する(音楽ジャンルの特定。ステップ12)。 The identification unit 300 identifies a music genre suitable for the singer to sing based on the singing technique acquired in step 11 (music genre identification; step 12).

演奏制御部400は、所定の歌唱区間以降において、ステップ12で特定した音楽ジャンルに対応した伴奏データを選択し、選択した当該伴奏データに基づくカラオケ演奏音を放音させる(音楽ジャンルに応じたカラオケ演奏音を放音。ステップ13)。 The performance control unit 400 selects accompaniment data corresponding to the music genre specified in step 12 after a predetermined singing interval, and emits karaoke performance sound based on the selected accompaniment data (karaoke according to the music genre). Emit a performance sound (step 13).

以上から明らかなように、本実施形態に係るカラオケ装置1は、楽曲のカラオケ演奏を行うための伴奏データを記憶するデータ記憶部100と、ある楽曲の所定の歌唱区間において入力された歌唱者の音声に基づく信号を分析し、分析結果を取得する分析部200と、取得した分析結果に基づいて、歌唱者が歌うのに適した音楽ジャンルを特定する特定部300と、所定の歌唱区間以降において、特定した音楽ジャンルに対応したカラオケ演奏音を放音させる演奏制御部400と、を有する。 As is clear from the above, the karaoke apparatus 1 according to the present embodiment includes a data storage unit 100 that stores accompaniment data for karaoke performance of a song, and a singer input in a predetermined singing section of a certain song. An analysis unit 200 that analyzes a signal based on voice and acquires an analysis result, an identification unit 300 that identifies a music genre suitable for the singer to sing based on the obtained analysis result, and a predetermined singing interval and later , and a performance control unit 400 that emits a karaoke performance sound corresponding to the specified music genre.

このようなカラオケ装置1によれば、歌唱者自身で選曲した楽曲(すなわちカラオケ歌唱が可能な楽曲)のカラオケ歌唱を行う際、選曲した楽曲の音楽ジャンルが、当該歌唱者が歌うのに適していない音楽ジャンルであった場合には、当該歌唱者のカラオケ歌唱に基づいて、当該歌唱者が歌うのに適した音楽ジャンルを特定することができる。そして、カラオケ装置1は、特定した音楽ジャンルに対応したカラオケ演奏音を放音することができる。すなわち、本実施形態に係るカラオケ装置1によれば、歌唱者がカラオケ歌唱を行うことができる楽曲について、歌唱者が歌うのに適した音楽ジャンルに対応したカラオケ演奏を行うことができる。 According to such a karaoke device 1, when performing karaoke singing of a song selected by the singer himself (that is, a song that can be sung by karaoke), the music genre of the selected song is suitable for the singer to sing. If it is a music genre that does not exist, it is possible to specify a music genre suitable for the singer to sing based on the singer's karaoke singing. Then, the karaoke device 1 can emit karaoke performance sounds corresponding to the identified music genre. That is, according to the karaoke device 1 according to the present embodiment, it is possible to perform karaoke performance corresponding to the music genre suitable for the singer to sing for the song that the singer can sing karaoke.

また、分析部200は、分析結果として、歌唱者がある楽曲のカラオケ歌唱で使用した歌唱技法を取得し、特定部300は、取得した歌唱技法を用いて音楽ジャンルを特定する。このように歌唱技法を用いて音楽ジャンルを特定することにより、歌唱者が得意とする歌唱技法を活用できる音楽ジャンルの伴奏データでカラオケ演奏を行うことが可能となる。 In addition, the analysis unit 200 acquires the singing technique used by the singer in karaoke singing of a song as an analysis result, and the specifying unit 300 specifies the music genre using the acquired singing technique. By specifying the music genre using the singing technique in this way, it is possible to perform karaoke performance with the accompaniment data of the music genre in which the singing technique that the singer is good at can be utilized.

また、データ記憶部100は、楽曲毎に、異なる音楽ジャンルに応じてアレンジされた複数の伴奏データを記憶し、演奏制御部400は、所定の歌唱区間以降において、特定した音楽ジャンルに対応した伴奏データを選択し、選択した当該伴奏データに基づくカラオケ演奏音を放音させる。このように様々な音楽ジャンルの伴奏データを予め記憶しておき、特定された音楽ジャンルに応じた一の伴奏データを利用することにより、歌唱者が歌うのに適した音楽ジャンルに対応したカラオケ演奏を簡易に行うことができる。 In addition, the data storage unit 100 stores a plurality of accompaniment data arranged according to different music genres for each piece of music, and the performance control unit 400 stores accompaniment data corresponding to the specified music genre after a predetermined singing interval. Data is selected, and karaoke performance sounds based on the selected accompaniment data are emitted. By storing accompaniment data of various music genres in advance and using one accompaniment data corresponding to the specified music genre, a karaoke performance corresponding to the music genre suitable for the singer to sing is performed. can be easily performed.

<第2実施形態>
次に、図5及び図6を参照して、第2実施形態に係るカラオケ装置について説明する。本実施形態では、イコライジング・パラメータを用いて歌唱者が歌うのに適した音楽ジャンルに対応したカラオケ演奏を行う例について述べる。第1実施形態と同様の構成については詳細な説明を省略する。
<Second embodiment>
Next, a karaoke apparatus according to the second embodiment will be described with reference to FIGS. 5 and 6. FIG. In this embodiment, an example of karaoke performance corresponding to a music genre suitable for a singer to sing using equalizing parameters will be described. A detailed description of the configuration similar to that of the first embodiment will be omitted.

[データ記憶部]
本実施形態に係るデータ記憶部100は、イコライザ14aに付与するパラメータであって、異なる音楽ジャンルに応じて設定された複数のイコライジング・パラメータを記憶する。
[Data storage part]
The data storage unit 100 according to the present embodiment stores a plurality of equalizing parameters, which are parameters to be given to the equalizer 14a and are set according to different music genres.

たとえば、データ記憶部100は、標準的な周波数特性に設定されたイコライジング・パラメータEQNを記憶する。楽曲のカラオケ演奏を行う場合、通常は、イコライジング・パラメータEQNがイコライザ14aに付与される。 For example, the data storage unit 100 stores equalizing parameters EQN set to standard frequency characteristics. When performing a karaoke performance of a piece of music, an equalizing parameter EQN is normally given to the equalizer 14a.

一方、データ記憶部100は、音楽ジャンルに応じた複数のイコライジング・パラメータも記憶している。たとえば、データ記憶部100は、ポップスの音楽ジャンルに適した周波数特性に設定されたイコライジング・パラメータEQP、アイドルの音楽ジャンルに適した周波数特性に設定されたイコライジング・パラメータEQI、ロックの音楽ジャンルに適した周波数特性に設定されたイコライジング・パラメータEQR、演歌の音楽ジャンルに適した周波数特性に設定されたイコライジング・パラメータEQE、ジャズの音楽ジャンルに適した周波数特性に設定されたイコライジング・パラメータEQJ、ギター弾き語りの音楽ジャンルに適した周波数特性に設定されたイコライジング・パラメータEQGを記憶している。 On the other hand, the data storage section 100 also stores a plurality of equalizing parameters corresponding to music genres. For example, the data storage unit 100 stores the equalizing parameter EQP set to frequency characteristics suitable for the pop music genre, the equalizing parameter EQI set to frequency characteristics suitable for the idol music genre, and the equalizing parameter EQI suitable for the rock music genre. Equalizing parameter EQR set to frequency characteristics suitable for enka music genre, Equalizing parameter EQE set to frequency characteristics suitable for enka music genre, Equalizing parameter EQJ set to frequency characteristics suitable for jazz music genre, guitar playing and singing stores equalizing parameters EQG set to frequency characteristics suitable for the music genre.

なお、音楽ジャンルに適した周波数特性の設定とは、たとえば、アイドルの音楽ジャンルであれば、低域と高域を持ち上げた、所謂「ドンシャリ」の設定、ロックの音楽ジャンルであれば、エレクトリック・ベースやバスドラムといった低音楽器を強調する設定、ギター弾き語りの音楽ジャンルであれば、ギターやボーカルのアコースティック感を生かすために中高音域を持ち上げた設定である。 The setting of the frequency characteristics suitable for the music genre is, for example, the so-called "donshari" setting, which raises the low and high frequencies in the idol music genre, and the electric and high frequency characteristics in the rock music genre. A setting that emphasizes low-pitched instruments such as bass and bass drums, and a setting that raises the mid-high range to make the most of the acoustic feeling of the guitar and vocals if the music genre is guitar-playing.

[分析部]
本実施形態における分析部200は、分析結果として、歌唱者の声質を取得する。
[Analysis Department]
The analysis unit 200 in this embodiment acquires the voice quality of the singer as an analysis result.

声質は、歌唱者が本来持っている声の質である。声質の具体例としては、たとえば「安定度」、「響き度」、「裏声」、「豊かさ」、「ハスキーボイス」、「明瞭度」がある。以下の説明ではこの6つの声質が含まれているかどうかを抽出するものとする。但し、これら声質のうち、一部の声質のみについて含まれているかどうかを抽出してもよい。 Voice quality is the quality of the voice that a singer originally has. Specific examples of voice quality include "stability", "reverberation", "false voice", "richness", "husky voice", and "intelligibility". In the following explanation, it is assumed that whether or not these six voice qualities are included is extracted. However, it may be possible to extract whether or not only some of these voice qualities are included.

ここで、歌唱者が楽曲X(音楽ジャンル:ポップス)を選曲したとする。カラオケ装置1は、楽曲Xの伴奏データに基づいてカラオケ演奏を開始する。楽曲Xの最初の歌唱区間E1に対応するカラオケ演奏が開始された場合、歌唱者は、マイク40を使ってカラオケ歌唱を行う。分析部200は、マイク40に入力された歌唱者の音声に基づく信号を取得し、音声に含まれている声質を抽出する。この例では歌唱者の声質として「安定度」及び「裏声」が抽出されたとする。この場合、分析部200は、分析結果として「安定度」及び「裏声」を取得する。 Here, it is assumed that the singer selects music X (music genre: pops). The karaoke device 1 starts karaoke performance based on the accompaniment data of the music piece X. When the karaoke performance corresponding to the first singing section E1 of the song X is started, the singer uses the microphone 40 to sing karaoke. The analysis unit 200 acquires a signal based on the singer's voice input to the microphone 40 and extracts the voice quality contained in the voice. In this example, it is assumed that "stability" and "fake voice" are extracted as the voice quality of the singer. In this case, the analysis unit 200 acquires “stability” and “false voice” as the analysis results.

なお、声質は公知の技術により取得できる。たとえば、「安定度」は、特開2006-195449号公報に記載の技術を利用することができる。「響き度」は、特開2006-259333号公報に記載の技術を利用することができる。「裏声」は、特開2012-194389号公報に記載の技術を利用することができる。「豊かさ」及び「ハスキーボイス」は、特開2005-107088号公報に記載の技術を利用することができる。「明瞭度」は、特開2008-145940号公報に記載の技術を利用することができる。 Note that the voice quality can be obtained by a known technique. For example, the "stability" can use the technique described in Japanese Patent Application Laid-Open No. 2006-195449. The "sound level" can use the technique described in Japanese Patent Application Laid-Open No. 2006-259333. The technique described in JP-A-2012-194389 can be used for the "false voice". "Richness" and "husky voice" can use the technology described in Japanese Patent Application Laid-Open No. 2005-107088. The “clearness” can use the technique described in Japanese Patent Application Laid-Open No. 2008-145940.

[特定部]
本実施形態における特定部300は、取得した声質を用いて音楽ジャンルを特定する。
[Specified part]
The identification unit 300 in this embodiment identifies the music genre using the acquired voice qualities.

声質を用いた音楽ジャンルの特定は、たとえば、図5に示したテーブルデータを利用して行う。このようなテーブルデータは、記憶部13に予め記憶されている。図5に示したテーブルデータは、音楽ジャンル毎に、当該音楽ジャンルの歌唱に適した声質ほどスコアが高くなるよう設定されている。たとえば、アイドルの場合、一般的には、「裏声」の声質が適している一方、「ハスキーボイス」の声質は避けるべきである。よって、図5のテーブルデータにおいて、音楽ジャンルがアイドルの場合には、裏声のスコアを「5」とし、「ハスキーボイス」のスコアを「-1」としている。 Identification of the music genre using the voice quality is performed using, for example, the table data shown in FIG. Such table data is pre-stored in the storage unit 13 . The table data shown in FIG. 5 is set for each music genre so that the voice quality more suitable for singing of the music genre has a higher score. For example, in the case of idols, a "false voice" voice quality is generally suitable, while a "husky voice" voice quality should be avoided. Therefore, in the table data of FIG. 5, when the music genre is idol, the false voice score is "5" and the "husky voice" score is "-1".

ここで、上記例に示した通り、分析結果として「安定度」及び「裏声」の声質が取得されたとする。この場合、特定部300は、テーブルデータを参照し、取得された「安定度」及び「裏声」の声質については「×1.0」とし、他の声質については「×0.0」として、音楽ジャンル毎にスコアの算出を行う。図5の例によれば、ポップスの音楽ジャンルは、安定度のスコア(1×1.0)+裏声のスコア(1×1.0)=「2」となる。アイドルの音楽ジャンルは、安定度のスコア(1×1.0)+裏声のスコア(5×1.0)=「6」となる。ロックの音楽ジャンルは、安定度のスコア(5×1.0)+裏声のスコア(3×1.0)=「8」となる。演歌の音楽ジャンルは、安定度のスコア(1×1.0)+裏声のスコア(-1×1.0)=「0」となる。ジャズの音楽ジャンルは、安定度のスコア(1×1.0)+裏声のスコア(1×1.0)=「2」となる。ギター弾き語りの音楽ジャンルは、安定度のスコア(1×1.0)+裏声のスコア(3×1.0)=「4」となる。すなわち、この例では、ロックの音楽ジャンルが最も高いスコア「8」となる。特定部300は、この結果に基づいて、歌唱者が歌うのに適した音楽ジャンルとして「ロック」を特定する。 Here, as shown in the above example, it is assumed that the voice qualities of "stability" and "fake voice" are acquired as analysis results. In this case, the specifying unit 300 refers to the table data, sets the acquired “stability” and the voice quality of the “fake voice” to “×1.0”, and sets the other voice qualities to “×0.0”, A score is calculated for each music genre. According to the example of FIG. 5, the music genre of pops is stability score (1×1.0)+false voice score (1×1.0)=“2”. The idol's music genre is stability score (1×1.0)+false voice score (5×1.0)=“6”. For the rock music genre, the stability score (5×1.0)+the fake voice score (3×1.0)=“8”. The music genre of enka is stability score (1×1.0)+false voice score (−1×1.0)=“0”. For the jazz music genre, the stability score (1×1.0)+the falsetto score (1×1.0)=“2”. The music genre of singing with a guitar is score of stability (1×1.0)+score of fake voice (3×1.0)=“4”. That is, in this example, the rock music genre has the highest score of "8". Based on this result, the identification unit 300 identifies “rock” as a music genre suitable for the singer to sing.

[演奏制御部]
本実施形態において、演奏制御部400は、所定の歌唱区間以降において、特定した音楽ジャンルに対応したイコライジング・パラメータを選択し、選択した当該イコライジング・パラメータをイコライザ14aに付与することにより、周波数特性を調整したカラオケ演奏音を放音させる。
[Performance control section]
In this embodiment, the performance control unit 400 selects an equalizing parameter corresponding to the specified music genre after a predetermined singing interval, and applies the selected equalizing parameter to the equalizer 14a, thereby improving the frequency characteristics. To emit the adjusted karaoke performance sound.

たとえば、上述の通り、楽曲Xの歌唱区間E1において入力された歌唱者の音声に基づく信号から、「ロック」の音楽ジャンルが特定されたとする。 For example, as described above, it is assumed that the music genre "rock" is specified from the signal based on the singer's voice input in the singing section E1 of the song X.

この場合、演奏制御部400は、歌唱区間E1以降の歌唱区間及び非歌唱区間においては、楽曲Xの本来の音楽ジャンルであるポップスに対応したイコライジング・パラメータEQNではなく、特定された音楽ジャンルであるロックのイコライジング・パラメータEQRを選択する。演奏制御部400は、選択したイコライライジング・パラメータEQRをイコライザ14aに付与し、周波数特性が調整されたカラオケ演奏音をスピーカ20から放音させる。 In this case, the performance control unit 400 uses the specified music genre instead of the equalizing parameter EQN corresponding to pops, which is the original music genre of the song X, in the singing section and the non-singing section after the singing section E1. Select the lock equalizing parameter EQR. The performance control unit 400 gives the selected equalizing parameter EQR to the equalizer 14a, and causes the speaker 20 to emit the karaoke performance sound whose frequency characteristics have been adjusted.

==カラオケ装置における処理について==
次に、図6を参照して本実施形態に係るカラオケ装置1における処理の具体例について述べる。図6は、カラオケ装置1における処理例を示すフローチャートである。この例では、歌唱者が選曲した楽曲Xのカラオケ歌唱を行う例について述べる。データ記憶部100は、異なる音楽ジャンルに応じて設定された複数のイコライジング・パラメータを記憶しているとする。
==About the processing in the karaoke machine==
Next, a specific example of processing in the karaoke apparatus 1 according to this embodiment will be described with reference to FIG. FIG. 6 is a flow chart showing an example of processing in the karaoke device 1. As shown in FIG. In this example, an example of karaoke singing of music X selected by a singer will be described. It is assumed that the data storage unit 100 stores a plurality of equalizing parameters set according to different music genres.

カラオケ装置1は、楽曲Xのカラオケ演奏を開始する(カラオケ演奏の開始。ステップ20)。歌唱者は、カラオケ演奏が開始された後、音声を入力する。 The karaoke device 1 starts karaoke performance of song X (start of karaoke performance, step 20). The singer inputs voice after the karaoke performance is started.

分析部200は、楽曲Xの所定の歌唱区間において入力された歌唱者の音声に基づく信号を分析し、歌唱者の声質を取得する(声質の取得。ステップ21)。 The analysis unit 200 analyzes a signal based on the voice of the singer input in a predetermined singing section of the song X, and acquires the voice quality of the singer (acquisition of voice quality, step 21).

特定部300は、ステップ21で取得した声質に基づいて、歌唱者が歌うのに適した音楽ジャンルを特定する(音楽ジャンルの特定。ステップ22)。 The identification unit 300 identifies a music genre suitable for the singer to sing based on the voice quality acquired in step 21 (music genre identification; step 22).

演奏制御部400は、所定の歌唱区間以降において、ステップ22で特定した音楽ジャンルに対応したイコライジング・パラメータを選択し、選択したイコライジング・パラメータにより周波数特性が調整されたカラオケ演奏音を放音させる(音楽ジャンルに応じたカラオケ演奏音を放音。ステップ23)。 The performance control unit 400 selects an equalizing parameter corresponding to the music genre specified in step 22 after a predetermined singing interval, and emits a karaoke performance sound whose frequency characteristics are adjusted by the selected equalizing parameter ( A karaoke performance sound corresponding to the music genre is emitted (step 23).

このように、本実施形態における分析部200は、分析結果として、歌唱者の声質を取得し、特定部300は、取得した声質を用いて音楽ジャンルを特定する。このように声質を用いて音楽ジャンルを特定することにより、歌唱者の声質に向いている音楽ジャンルの周波数特性でカラオケ演奏音を放音させることが可能となる。 In this way, the analysis unit 200 in this embodiment acquires the vocal quality of the singer as an analysis result, and the specifying unit 300 specifies the music genre using the acquired voice quality. By specifying the music genre using the voice quality in this way, it is possible to emit the karaoke performance sound with the frequency characteristics of the music genre suitable for the voice quality of the singer.

また、データ記憶部100は、イコライザ14aに付与するパラメータであって、異なる音楽ジャンルに応じて設定された複数のイコライジング・パラメータを記憶し、演奏制御部400は、所定の歌唱区間以降において、特定した音楽ジャンルに対応したイコライジング・パラメータを選択し、選択した当該イコライジング・パラメータをイコライザ14aに付与することにより、周波数特性を調整したカラオケ演奏音を放音させる。このように様々な音楽ジャンルに応じたイコライジング・パラメータを予め記憶しておき、特定された音楽ジャンルに応じた一のイコライジング・パラメータを利用することにより、歌唱者が歌うのに適した音楽ジャンルに対応したカラオケ演奏を簡易に行うことができる。また、予め楽曲毎に複数の伴奏データを準備する必要が無いため、より簡便である。 In addition, the data storage unit 100 stores a plurality of equalizing parameters, which are parameters to be given to the equalizer 14a and are set according to different music genres. By selecting equalizing parameters corresponding to the selected music genre and applying the selected equalizing parameters to the equalizer 14a, karaoke performance sounds with adjusted frequency characteristics are emitted. Thus, by storing equalizing parameters corresponding to various music genres in advance and using one equalizing parameter corresponding to the specified music genre, the music genre suitable for the singer to sing is obtained. Corresponding karaoke performance can be performed easily. In addition, since there is no need to prepare a plurality of pieces of accompaniment data for each piece of music in advance, it is more convenient.

<その他>
たとえば、特定部300が、取得した歌唱者の歌唱技法を用いて音楽ジャンルを特定し、演奏制御部400が、特定した音楽ジャンルに対応したイコライジング・パラメータを選択してもよい。或いは、特定部300が、取得した歌唱者の声質を用いて音楽ジャンルを特定し、演奏制御部400が、特定した音楽ジャンルに応じてアレンジされた伴奏データを選択してもよい。或いは、データ記憶部100は、第1実施形態で説明した楽曲毎の複数の伴奏データと、複数のイコライジング・パラメータの双方を記憶していてもよい。この場合、たとえば、特定部300が、取得した歌唱者の歌唱技法を用いて音楽ジャンル「演歌」を特定し、演奏制御部400が特定した音楽ジャンル「演歌」に応じてアレンジされた伴奏データを選択する。併せて、特定部300が、取得した歌唱者の声質を用いて音楽ジャンル「ロック」を特定し、演奏制御部400が、特定した音楽ジャンル「ロック」に対応したイコライジング・パラメータを選択することができる。よって、スピーカ20から放音されるカラオケ演奏音は、演歌の音楽ジャンルに応じてアレンジされた伴奏データに基づくカラオケ演奏音の周波数特性を、ロックの音楽ジャンルのイコライジング・パラメータで調整した音となる。
<Others>
For example, the identification unit 300 may identify a music genre using the acquired singing technique of the singer, and the performance control unit 400 may select equalizing parameters corresponding to the identified music genre. Alternatively, the specifying unit 300 may specify the music genre using the acquired vocal quality of the singer, and the performance control unit 400 may select accompaniment data arranged according to the specified music genre. Alternatively, the data storage unit 100 may store both a plurality of accompaniment data for each piece of music and a plurality of equalizing parameters described in the first embodiment. In this case, for example, the identification unit 300 identifies the music genre "enka" using the acquired singing technique of the singer, and the accompaniment data arranged according to the music genre "enka" identified by the performance control unit 400. select. At the same time, the identifying unit 300 identifies the music genre “rock” using the acquired vocal quality of the singer, and the performance control unit 400 selects an equalizing parameter corresponding to the identified music genre “rock”. can. Therefore, the karaoke performance sound emitted from the speaker 20 is a sound obtained by adjusting the frequency characteristics of the karaoke performance sound based on the accompaniment data arranged according to the enka music genre with the equalizing parameters of the rock music genre. .

また、歌唱者が得意とする歌唱技法や歌唱者の声質は、基本的には変わらない。そこで、上記実施形態の構成により、ある歌唱者が歌うのに適した音楽ジャンルが一旦、特定された場合、データ記憶部100は、歌唱者を識別するための専用IDのような歌唱者識別情報と、特定した音楽ジャンルとを紐付けて記憶してもよい。 Also, the singing technique that the singer is good at and the vocal quality of the singer are basically the same. Therefore, with the configuration of the above embodiment, once a music genre suitable for a singer to sing is specified, the data storage unit 100 stores singer identification information such as a dedicated ID for identifying the singer. and the specified music genre may be linked and stored.

この場合、演奏制御部400は、当該歌唱者がカラオケ歌唱を行う場合には、予め歌唱者の歌唱者識別情報に紐付けられている特定した音楽ジャンルを認識することにより、当該音楽ジャンルに対応したカラオケ演奏音を放音させることができる。このように予め歌唱者が歌うのに適した音楽ジャンルを記憶しておくことにより、都度、音楽ジャンルを特定することなく、歌唱者に合ったカラオケ演奏を行うことが可能となる。 In this case, when the singer sings karaoke, the performance control unit 400 recognizes the specified music genre linked in advance to the singer identification information of the singer, Corresponding to the music genre The karaoke performance sound can be emitted. By storing in advance the music genre suitable for the singer to sing in this way, it is possible to perform a karaoke performance suitable for the singer without specifying the music genre each time.

上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 The above embodiments are presented as examples and are not intended to limit the scope of the invention. The above configurations can be implemented in combination as appropriate, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The above-described embodiments and modifications thereof are included in the invention described in the claims and their equivalents, as well as being included in the scope and gist of the invention.

1 カラオケ装置
10 カラオケ本体
11 制御部
100 データ記憶部
200 分析部
300 特定部
400 演奏制御部
1 karaoke device 10 karaoke main body 11 control unit 100 data storage unit 200 analysis unit 300 identification unit 400 performance control unit

Claims (5)

楽曲のカラオケ演奏を行うための伴奏データを記憶するデータ記憶部と、
ある楽曲の所定の歌唱区間において入力された歌唱者の音声に基づく信号を分析し、分析結果を取得する分析部と、
取得した前記分析結果に基づいて、前記歌唱者が歌うのに適した音楽ジャンルを特定する特定部と、
前記所定の歌唱区間以降において、特定した前記音楽ジャンルに対応したカラオケ演奏音を放音させる演奏制御部と、
を有するカラオケ装置。
a data storage unit that stores accompaniment data for karaoke performance of a song;
an analysis unit that analyzes a signal based on a singer's voice input in a predetermined singing section of a song and obtains an analysis result;
an identification unit that identifies a music genre suitable for the singer to sing based on the acquired analysis results;
A performance control unit that emits a karaoke performance sound corresponding to the specified music genre after the predetermined singing section;
A karaoke device having
前記分析部は、前記分析結果として、前記歌唱者が前記ある楽曲のカラオケ歌唱で使用した歌唱技法、及び前記歌唱者の声質の少なくとも一方を取得し、
前記特定部は、取得した前記歌唱技法及び前記声質の少なくとも一方を用いて前記音楽ジャンルを特定することを特徴とする請求項1記載のカラオケ装置。
The analysis unit acquires at least one of the singing technique used by the singer in karaoke singing of the certain song and the voice quality of the singer as the analysis result,
2. The karaoke apparatus according to claim 1, wherein the specifying unit specifies the music genre using at least one of the acquired singing technique and voice quality.
前記データ記憶部は、楽曲毎に、異なる音楽ジャンルに応じてアレンジされた複数の伴奏データを記憶し、
前記演奏制御部は、前記所定の歌唱区間以降において、特定した前記音楽ジャンルに対応した伴奏データを選択し、選択した当該伴奏データに基づくカラオケ演奏音を放音させることを特徴とする請求項1または2記載のカラオケ装置。
The data storage unit stores a plurality of accompaniment data arranged according to different music genres for each piece of music,
2. The performance control unit selects accompaniment data corresponding to the identified music genre after the predetermined singing interval, and emits karaoke performance sound based on the selected accompaniment data. 3. The karaoke device according to 2 above.
前記データ記憶部は、イコライザに付与するパラメータであって、異なる音楽ジャンルに応じて設定された複数のイコライジング・パラメータを記憶し、
前記演奏制御部は、前記所定の歌唱区間以降において、特定した前記音楽ジャンルに対応したイコライジング・パラメータを選択し、選択した当該イコライジング・パラメータを前記イコライザに付与することにより、周波数特性を調整したカラオケ演奏音を放音させることを特徴とする請求項1~3のいずれか一つに記載のカラオケ装置。
The data storage unit stores a plurality of equalizing parameters, which are parameters to be given to the equalizer and are set according to different music genres,
The performance control unit selects an equalizing parameter corresponding to the specified music genre after the predetermined singing section, and gives the selected equalizing parameter to the equalizer, thereby adjusting the frequency characteristics Karaoke 4. The karaoke machine according to any one of claims 1 to 3, wherein a performance sound is emitted.
前記データ記憶部は、歌唱者を識別するための歌唱者識別情報と、特定した前記音楽ジャンルとを紐付けて記憶し、
前記演奏制御部は、歌唱者の歌唱者識別情報に紐付けられている特定した前記音楽ジャンルに対応したカラオケ演奏音を放音させることを特徴とする請求項1から4のいずれか一つに記載のカラオケ装置。
The data storage unit stores the singer identification information for identifying the singer and the specified music genre in association with each other,
5. Any one of claims 1 to 4, wherein the performance control unit emits a karaoke performance sound corresponding to the specified music genre that is linked to the singer identification information of the singer. Karaoke apparatus as described.
JP2019067226A 2019-03-29 2019-03-29 karaoke device Active JP7149218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019067226A JP7149218B2 (en) 2019-03-29 2019-03-29 karaoke device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019067226A JP7149218B2 (en) 2019-03-29 2019-03-29 karaoke device

Publications (2)

Publication Number Publication Date
JP2020166142A JP2020166142A (en) 2020-10-08
JP7149218B2 true JP7149218B2 (en) 2022-10-06

Family

ID=72717318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019067226A Active JP7149218B2 (en) 2019-03-29 2019-03-29 karaoke device

Country Status (1)

Country Link
JP (1) JP7149218B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009162818A (en) 2007-12-28 2009-07-23 Nintendo Co Ltd Music displaying apparatus and music displaying program
CN107590152A (en) 2016-07-07 2018-01-16 乐视控股(北京)有限公司 A kind of method and device for the audio pattern for adjusting audio

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314484A (en) * 1995-05-15 1996-11-29 Matsushita Electric Ind Co Ltd Automatic playing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009162818A (en) 2007-12-28 2009-07-23 Nintendo Co Ltd Music displaying apparatus and music displaying program
CN107590152A (en) 2016-07-07 2018-01-16 乐视控股(北京)有限公司 A kind of method and device for the audio pattern for adjusting audio

Also Published As

Publication number Publication date
JP2020166142A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP5187798B2 (en) Metadata mapping sound reproducing apparatus and audio sampling / sample processing system usable therefor
Cuesta et al. Analysis of intonation in unison choir singing
US10298192B2 (en) Sound processing device and sound processing method
JP7149218B2 (en) karaoke device
JP2020122948A (en) Karaoke device
JP2017181793A (en) Sound processing device and program
JP6406273B2 (en) Karaoke device and program
JP6657866B2 (en) Sound effect imparting device and sound effect imparting program
JP2008197350A (en) Musical signal creating device and karaoke device
JP3618203B2 (en) Karaoke device that allows users to play accompaniment music
JP6867900B2 (en) Karaoke equipment
JP5618743B2 (en) Singing voice evaluation device
JP7117229B2 (en) karaoke equipment
JP2020134901A (en) Karaoke system
JP2889841B2 (en) Chord change processing method for electronic musical instrument automatic accompaniment
JP5983670B2 (en) Program, information processing apparatus, and data generation method
JP5569307B2 (en) Program and editing device
JP7158331B2 (en) karaoke device
JP6587396B2 (en) Karaoke device with guitar karaoke scoring function
CN112185325A (en) Audio playing style adjusting method and device, electronic equipment and storage medium
JP6281447B2 (en) Speech synthesis apparatus and speech synthesis system
JP2004272067A (en) Music performance practice device and program
JP2023033753A (en) karaoke device
CN113270081A (en) Method for adjusting accompaniment sound of song and electronic device for adjusting accompaniment sound of song
JP5034471B2 (en) Music signal generator and karaoke device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R150 Certificate of patent or registration of utility model

Ref document number: 7149218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150