JP6732216B2 - Lyrics display device, lyrics display method in lyrics display device, and electronic musical instrument - Google Patents

Lyrics display device, lyrics display method in lyrics display device, and electronic musical instrument Download PDF

Info

Publication number
JP6732216B2
JP6732216B2 JP2019515080A JP2019515080A JP6732216B2 JP 6732216 B2 JP6732216 B2 JP 6732216B2 JP 2019515080 A JP2019515080 A JP 2019515080A JP 2019515080 A JP2019515080 A JP 2019515080A JP 6732216 B2 JP6732216 B2 JP 6732216B2
Authority
JP
Japan
Prior art keywords
display
lyrics
display unit
unit
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019515080A
Other languages
Japanese (ja)
Other versions
JPWO2018198382A1 (en
Inventor
一輝 柏瀬
一輝 柏瀬
桂三 濱野
桂三 濱野
宇新 鄭
宇新 鄭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of JPWO2018198382A1 publication Critical patent/JPWO2018198382A1/en
Application granted granted Critical
Publication of JP6732216B2 publication Critical patent/JP6732216B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Description

本発明は、歌詞を表示する歌詞表示装置及び歌詞表示装置における歌詞表示方法、電子楽器に関する。 The present invention relates to a lyrics display device for displaying lyrics, a lyrics display method in the lyrics display device, and an electronic musical instrument .

従来、演奏者による演奏に応じて歌唱される歌詞を表示させる装置が知られている(特許文献1)。この装置は、歌詞データが示す歌詞における歌唱位置を更新し、歌唱位置とされている文字を他の文字とは異なる態様(色)で表示させる。また、電子楽器等においては、各種機能や音生成パラメータ等の設定のために設定画面を表示して指示を受け付けるものがある。 2. Description of the Related Art Conventionally, there is known a device for displaying lyrics that are sung according to a performance by a player (Patent Document 1). This device updates the singing position in the lyrics indicated by the lyrics data and displays the character at the singing position in a mode (color) different from other characters. In addition, some electronic musical instruments and the like display a setting screen to receive instructions for setting various functions and sound generation parameters.

特許第4735544号公報Japanese Patent No. 4735544

しかし、各種の設定を行ったり設定を終了させたりするためにその都度操作して画面を切り替えなければならないと、煩わしい。例えば、歌詞や状態を見たい場合に歌詞や状態を表示させる画面に切り替える操作を要すると、操作が煩雑となる。特に、演奏しながらだと切り替え操作は一層容易でない。 However, it is troublesome that the user has to operate each time to switch the screen in order to perform various settings or finish the settings. For example, if it is necessary to switch to a screen for displaying lyrics or a state when the user wants to see the lyrics or the state, the operation becomes complicated. In particular, the switching operation is not easy while playing.

本発明の目的は、煩雑な操作不要で歌詞及び状態を視認することができる歌詞表示装置及び歌詞表示装置における歌詞表示方法、電子楽器を提供することである。 An object of the present invention is to provide a lyrics display device, a lyrics display method in the lyrics display device, and an electronic musical instrument that allow the user to visually recognize the lyrics and the state without complicated operations.

上記目的を達成するために本発明によれば、歌詞表示装置であって、1文字が表示されるものとして規定されている区画である表示部が連続して複数配置された表示ユニットと、歌詞を表示するための文字情報を含む歌詞データを取得するデータ取得部と、前記歌詞表示装置に関する所定の状態を取得する状態取得部と、前記データ取得部により取得された歌詞データに含まれる文字情報を、前記表示ユニットにおける連続した一部の表示部群である第1の表示部群に表示させると共に、前記状態取得部により取得された状態を、前記表示ユニットにおける連続した一部の表示部群であって前記第1の表示部群に属しない第2の表示部群に表示させる表示制御部と、所定の設定の指示を取得する設定指示取得部と、を有し、前記表示制御部は、前記設定指示取得部により前記所定の設定の指示が取得された場合は、前記第1の表示部群及び前記第2の表示部群を用いて前記所定の設定のための情報を表示させるよう、前記表示ユニットの表示態様を切り替える、歌詞表示装置が提供される。 According to the present invention in order to achieve the above object, a lyrics display device, a display unit in which a plurality arranged display unit is continuously a compartment which is defined as one character is displayed, a data acquisition unit that acquires the lyrics data containing character information for displaying the lyrics, and a status acquisition unit for acquiring a predetermined state for said lyrics display device, included in the lyrics data acquired by the data acquisition unit The character information is displayed on the first display unit group that is a continuous partial display unit group in the display unit, and the state acquired by the state acquisition unit is displayed as a continuous partial display on the display unit. a display control unit that a part group to be displayed on the second display area group not belonging to the first display element group, and the setting instruction acquisition unit which acquires an instruction of a predetermined set, wherein the display control The unit displays information for the predetermined setting using the first display unit group and the second display unit group when the setting instruction acquisition unit acquires the predetermined setting instruction. Thus, a lyrics display device is provided that switches the display mode of the display unit .

上記目的を達成するために本発明によれば、1文字が表示されるものとして規定されている区画である表示部が連続して複数配置された表示ユニットを有する歌詞表示装置における歌詞表示方法であって、歌詞を表示するための文字情報を含む歌詞データを取得するデータ取得ステップと、前記歌詞表示装置に関する所定の状態を取得する状態取得ステップと、前記データ取得ステップにより取得された歌詞データに含まれる文字情報を、前記表示ユニットにおける連続した一部の表示部群である第1の表示部群に表示させると共に、前記状態取得ステップにより取得された状態を、前記表示ユニットにおける連続した一部の表示部群であって前記第1の表示部群に属しない第2の表示部群に表示させる表示制御ステップと、所定の設定の指示を取得する設定指示取得ステップと、を有し、前記表示制御ステップは、前記設定指示取得ステップにより前記所定の設定の指示が取得された場合は、前記第1の表示部群及び前記第2の表示部群を用いて前記所定の設定のための情報を表示させるよう、前記表示ユニットの表示態様を切り替える、歌詞表示装置における歌詞表示方法が提供される。なお、上記括弧内の符号は例示である。
上記目的を達成するために本発明によれば、電子楽器であって、1文字が表示されるものとして規定されている区画である表示部が連続して複数配置された表示ユニットと、歌詞を表示するための文字情報を含む歌詞データを取得するデータ取得部と、前記電子楽器に関する所定の状態を取得する状態取得部と、前記データ取得部により取得された歌詞データに含まれる文字情報を、前記表示ユニットにおける連続した一部の表示部群である第1の表示部群に表示させると共に、前記状態取得部により取得された状態を、前記表示ユニットにおける連続した一部の表示部群であって前記第1の表示部群に属しない第2の表示部群に表示させる表示制御部と、所定の設定の指示を取得する設定指示取得部と、を有し、前記表示制御部は、前記設定指示取得部により前記所定の設定の指示が取得された場合は、前記第1の表示部群及び前記第2の表示部群を用いて前記所定の設定のための情報を表示させるよう、前記表示ユニットの表示態様を切り替える、電子楽器が提供される。
To achieve the above object, according to the present invention, there is provided a lyrics display method in a lyrics display device having a display unit in which a plurality of display units, which are sections defined as displaying one character , are continuously arranged. There is a data acquisition step of acquiring lyrics data including character information for displaying lyrics, a state acquisition step of acquiring a predetermined state regarding the lyrics display device , and lyrics data acquired by the data acquisition step. some of the text information contained, with displays on the first display area group is the display area group of some consecutive on the display unit, the state acquired by the state acquisition step, and continuous in the display unit A display control step of displaying on a second display section group that does not belong to the first display section group, and a setting instruction acquisition step of acquiring a predetermined setting instruction, The display control step uses the information for the predetermined setting using the first display unit group and the second display unit group when the predetermined setting instruction is acquired by the setting instruction acquisition step. There is provided a lyrics display method in a lyrics display device, in which the display mode of the display unit is switched to display . The reference numerals in the parentheses above are examples.
In order to achieve the above object, according to the present invention, an electronic musical instrument, a display unit in which a plurality of display units, which are sections defined to display one character, are continuously arranged, and lyrics are displayed. A data acquisition unit that acquires lyrics data including character information for displaying, a state acquisition unit that acquires a predetermined state regarding the electronic musical instrument, and character information included in the lyrics data acquired by the data acquisition unit, The state acquired by the state acquisition unit is displayed on the first display unit group which is a continuous partial display unit group of the display unit, and the state acquired by the state acquisition unit is a continuous partial display unit group of the display unit. A display control unit for displaying on a second display unit group not belonging to the first display unit group, and a setting instruction acquisition unit for acquiring a predetermined setting instruction. When the instruction for the predetermined setting is acquired by the setting instruction acquisition unit, the information for the predetermined setting is displayed using the first display unit group and the second display unit group, An electronic musical instrument is provided that switches the display mode of a display unit.

本発明によれば、煩雑な操作不要で歌詞及び状態を視認することができる。 According to the present invention, the lyrics and the state can be visually recognized without a complicated operation.

[図1]歌詞表示装置の模式図である。
[図2]歌詞表示装置の模式図である。
[図3]電子楽器のブロック図である。
[図4]表示ユニットの主要部を示す図である。
[図5]演奏が行われる場合の処理の流れの一例を示すフローチャートである。
[図6]歌詞テキストデータの一例を示す図である。
[図7]音声素片データの種類の一例を示す図である。
[図8]表示処理のフローチャートである。
[図9]表示ユニットにおける表示例を示す図である。
[図10]表示ユニットにおける表示例を示す図である。
[図11A乃至図11C]サブエリアの表示例を示す図である。
[図12]表示ユニットにおける表示例を示す図である。
[図13]表示ユニットにおける表示例を示す図である。
[図14]表示ユニットにおける表示例を示す図である。
FIG. 1 is a schematic diagram of a lyrics display device.
FIG. 2 is a schematic diagram of a lyrics display device.
FIG. 3 is a block diagram of an electronic musical instrument.
FIG. 4 is a diagram showing a main part of a display unit.
FIG. 5 is a flowchart showing an example of the flow of processing when a performance is performed.
FIG. 6 is a diagram showing an example of lyrics text data.
FIG. 7 is a diagram showing an example of types of speech unit data.
FIG. 8 is a flowchart of display processing.
FIG. 9 is a diagram showing a display example on the display unit.
FIG. 10 is a diagram showing a display example in the display unit.
FIG. 11A to FIG. 11C are diagrams showing display examples of sub-areas.
FIG. 12 is a diagram showing a display example on the display unit.
FIG. 13 is a diagram showing a display example in the display unit.
FIG. 14 is a diagram showing a display example on the display unit.

以下、図面を参照して本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1、図2は、本発明の一実施の形態に係る歌詞表示装置の模式図である。この歌詞表示装置は、一例として鍵盤楽器である電子楽器100として構成され、本体部30及びネック部31を有する。本体部30は、第1面30a、第2面30b、第3面30c、第4面30dを有する。第1面30aは、複数の鍵から成る鍵盤部KBが配設される鍵盤配設面である。第2面30bは裏面である。第2面30bにはフック36、37が設けられる。フック36、37間には不図示のストラップを架けることができ、演奏者は通常、ストラップを肩に掛けて鍵盤部KBの操作等の演奏を行う。従って、肩掛けした使用時で、特に鍵盤部KBの音階方向(鍵の配列方向)が左右方向となるとき、第1面30a及び鍵盤部KBが聴取者側を向き、第3面30c、第4面30dはそれぞれ概ね下方、上方を向く。なお、電子楽器100は、肩掛け使用時に鍵盤部KBを主として右手で演奏する仕様となっている。 1 and 2 are schematic diagrams of a lyrics display device according to an embodiment of the present invention. This lyrics display device is configured as an electronic musical instrument 100 which is a keyboard musical instrument as an example, and has a main body portion 30 and a neck portion 31. The body portion 30 has a first surface 30a, a second surface 30b, a third surface 30c, and a fourth surface 30d. The first surface 30a is a keyboard arrangement surface on which a keyboard portion KB including a plurality of keys is arranged. The second surface 30b is the back surface. Hooks 36 and 37 are provided on the second surface 30b. A strap (not shown) can be hung between the hooks 36 and 37, and the player usually hangs the strap on his shoulder to perform operations such as operating the keyboard portion KB. Therefore, when the player is on a shoulder, especially when the scale direction (key arrangement direction) of the keyboard portion KB is the left-right direction, the first surface 30a and the keyboard portion KB face the listener side, and the third surface 30c, the fourth surface 30c. The surfaces 30d face generally downward and upward, respectively. It should be noted that the electronic musical instrument 100 is designed so that the keyboard portion KB is played mainly by the right hand when it is used on the shoulder.

ネック部31は本体部30の側部から延設される。ネック部31には、進み操作子34、戻し操作子35をはじめとする各種の操作子が配設される。本体部30の第4面30dには、液晶等で構成される表示ユニット33が配設される。なお、本体部30、ネック部31の側面視形状は概ね矩形であるが、矩形を構成する4つの各面は平坦面でなくてもよく、凸面等の湾曲面であってもよい。 The neck portion 31 extends from the side portion of the main body portion 30. The neck portion 31 is provided with various operators such as a forward operator 34 and a return operator 35. A display unit 33 made of liquid crystal or the like is arranged on the fourth surface 30d of the body portion 30. The side view shapes of the main body portion 30 and the neck portion 31 are generally rectangular, but each of the four surfaces forming the rectangle does not have to be a flat surface, and may be a curved surface such as a convex surface.

電子楽器100は、演奏操作子への操作に応じて歌唱模擬を行うことができる楽器である。ここで、歌唱模擬とは、歌唱合成により人間の声を模擬した音声を出力することである。鍵盤部KBの各鍵は白鍵、黒鍵が音高順に並べられ、各鍵は、それぞれ異なる音高に対応付けられている。電子楽器100を演奏する場合、ユーザは、鍵盤部KBの所望の鍵を押下する。電子楽器100はユーザにより操作された鍵を検出し、操作された鍵に応じた音高の歌唱音を発音する。なお、発音される歌唱音の音節の順序は予め定められている。 The electronic musical instrument 100 is a musical instrument that can perform a singing simulation in response to an operation on a performance operator. Here, the singing voice simulation is to output a voice simulating a human voice by singing voice synthesis. White keys and black keys are arranged in the order of pitch of each key of the keyboard portion KB, and each key is associated with a different pitch. When playing the electronic musical instrument 100, the user presses a desired key on the keyboard portion KB. The electronic musical instrument 100 detects a key operated by the user and produces a singing sound having a pitch corresponding to the operated key. The order of the syllables of the singing sounds to be pronounced is predetermined.

図3は、電子楽器100のブロック図である。電子楽器100は、CPU(Central Processing Unit)10と、タイマ11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、データ記憶部14と、演奏操作子15と、他操作子16と、パラメータ値設定操作子17と、表示ユニット33と、音源19と、効果回路20と、サウンドシステム21と、通信I/F(Interface)と、バス23と、を備える。 FIG. 3 is a block diagram of the electronic musical instrument 100. The electronic musical instrument 100 includes a CPU (Central Processing Unit) 10, a timer 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a data storage unit 14, a performance operator 15, and other operations. A child 16, a parameter value setting operator 17, a display unit 33, a sound source 19, an effect circuit 20, a sound system 21, a communication I/F (Interface), and a bus 23.

CPU10は、電子楽器100全体の制御を行う中央処理装置である。タイマ11は、時間を計測するモジュールである。ROM12は制御プログラムや各種のデータなどを格納する不揮発性のメモリである。RAM13はCPU10のワーク領域及び各種のバッファなどとして使用される揮発性のメモリである。表示ユニット33は、液晶ディスプレイパネル、有機EL(Electro−Luminescence)パネルなどの表示モジュールである。表示ユニット33は、電子楽器100の動作状態、各種設定画面、ユーザに対するメッセージなどを表示する。 The CPU 10 is a central processing unit that controls the entire electronic musical instrument 100. The timer 11 is a module that measures time. The ROM 12 is a non-volatile memory that stores a control program and various data. The RAM 13 is a volatile memory used as a work area of the CPU 10 and various buffers. The display unit 33 is a display module such as a liquid crystal display panel or an organic EL (Electro-Luminescence) panel. The display unit 33 displays the operating state of the electronic musical instrument 100, various setting screens, messages to the user, and the like.

演奏操作子15は、主として音高を指定する演奏操作を受け付けるモジュールである。本実施の形態では、鍵盤部KB、進み操作子34、戻し操作子35は演奏操作子15に含まれる。一例として、演奏操作子15が鍵盤である場合、演奏操作子15は、各鍵に対応するセンサのオン/オフに基づくノートオン/ノートオフ、押鍵の強さ(速さ、ベロシティ)などの演奏情報を出力する。この演奏情報は、MIDI(musical instrument digital interface)メッセージ形式であってもよい。 The performance operator 15 is a module that mainly accepts a performance operation that specifies a pitch. In the present embodiment, the keyboard KB, the advance operator 34, and the return operator 35 are included in the performance operator 15. As an example, when the performance operator 15 is a keyboard, the performance operator 15 indicates note-on/note-off based on ON/OFF of a sensor corresponding to each key, key pressing strength (speed, velocity), and the like. Outputs performance information. This performance information may be in the form of a MIDI (musical instrument digital interface) message.

他操作子16は、例えば、電子楽器100に関する設定など、演奏以外の設定を行うための操作ボタンや操作つまみなどの操作モジュールである。パラメータ値設定操作子17は、音のパラメータを設定するための操作ボタンや操作つまみなどの操作モジュールである。歌唱音の属性についてのパラメータとしては、例えば、和声(Harmonics)、明るさ(Brightness)、共鳴(Resonance)、性別要素(Gender Factor)等がある。和声とは、声に含まれる倍音成分のバランスを設定するパラメータである。明るさとは、声の明暗を設定するパラメータであり、トーン変化を与える。共鳴とは、有色音の音色や強弱を設定するパラメータである。性別要素とは、フォルマントを設定するパラメータであり、声の太さ、質感を女性的、或いは、男性的に変化させる。外部記憶装置3は、例えば、電子楽器100に接続される外部機器であり、例えば、音声データを記憶する装置である。通信I/F22は、外部機器と通信する通信モジュールである。バス23は電子楽器100における各部の間のデータ転送を行う。 The other operator 16 is an operation module such as operation buttons and operation knobs for performing settings other than performance, such as settings related to the electronic musical instrument 100. The parameter value setting operator 17 is an operation module such as operation buttons and operation knobs for setting sound parameters. Examples of the parameter regarding the attribute of the singing sound include harmony (Harmonics), brightness (Brightness), resonance (Resonance), and gender factor (Gender Factor). Harmony is a parameter that sets the balance of the overtone components contained in the voice. Brightness is a parameter that sets the brightness of a voice, and gives a tone change. Resonance is a parameter that sets the tone color and strength of colored sounds. The sex factor is a parameter that sets the formant, and changes the thickness and texture of the voice to be feminine or masculine. The external storage device 3 is, for example, an external device connected to the electronic musical instrument 100, and is, for example, a device that stores audio data. The communication I/F 22 is a communication module that communicates with an external device. The bus 23 transfers data between the respective parts of the electronic musical instrument 100.

データ記憶部14は、歌唱用データ14a(歌詞データ)を格納する。歌唱用データ14aには歌詞テキストデータ、音韻情報データベースなどが含まれる。歌詞テキストデータは、歌詞を記述するデータである。歌詞テキストデータには、曲ごとの歌詞が音節単位で区切られて記述されている。すなわち、歌詞テキストデータは歌詞を音節に区切った文字情報を有し、この文字情報は音節に対応して歌詞を表示するための表示用の情報でもある。ここで音節とは、1回の演奏操作に応じて出力する音のまとまりである。音韻情報データベースは、音声素片データを格納するデータベースである。音声素片データは音声の波形を示すデータであり、例えば、音声素片のサンプル列のスペクトルデータを波形データとして含む。また、音声素片データには、音声素片の波形のピッチを示す素片ピッチデータが含まれる。歌詞テキストデータ、音声素片データは、それぞれ、データベースにより管理されてもよい。 The data storage unit 14 stores singing data 14a (lyric data). The singing data 14a includes lyrics text data, a phoneme information database, and the like. The lyrics text data is data that describes the lyrics. In the lyrics text data, the lyrics of each song are described in syllable units. That is, the lyrics text data has character information in which the lyrics are divided into syllables, and this character information is also display information for displaying the lyrics corresponding to the syllables. Here, a syllable is a group of sounds output in response to one performance operation. The phonological information database is a database that stores voice segment data. The voice unit data is data indicating a waveform of voice, and includes, for example, spectrum data of a sample sequence of voice units as waveform data. Further, the voice unit data includes voice unit pitch data indicating the pitch of the waveform of the voice unit. The lyrics text data and the voice segment data may be managed by a database.

音源19は、複数の発音チャンネルを有するモジュールである。音源19には、CPU10の制御の基で、ユーザの演奏に応じて1つの発音チャンネルが割り当てられる。歌唱音を発音する場合、音源19は、割り当てられた発音チャンネルにおいて、データ記憶部14から演奏に対応する音声素片データを読み出して歌唱音データを生成する。効果回路20は、音源19が生成した歌唱音データに対して、パラメータ値設定操作子17により指定された音響効果を適用する。サウンドシステム21は、効果回路20による処理後の歌唱音データを、デジタル/アナログ変換器によりアナログ信号に変換する。そして、サウンドシステム21は、アナログ信号に変換された歌唱音を増幅してスピーカなどから出力する。 The sound source 19 is a module having a plurality of sound generation channels. One tone generation channel is assigned to the sound source 19 under the control of the CPU 10 in accordance with the performance of the user. When singing a singing sound, the sound source 19 reads out the voice unit data corresponding to the performance from the data storage unit 14 in the assigned sounding channel to generate singing sound data. The effect circuit 20 applies the acoustic effect designated by the parameter value setting operator 17 to the singing sound data generated by the sound source 19. The sound system 21 converts the singing sound data processed by the effect circuit 20 into an analog signal by a digital/analog converter. Then, the sound system 21 amplifies the singing sound converted into an analog signal and outputs it from a speaker or the like.

図4は、表示ユニット33の主要部を示す図である。表示ユニット33は、表示領域として、第1メインエリア41、第2メインエリア42、第1サブエリア43、第2サブエリア44を有する。全体の表示領域は2行(2段)構成となっており、第1メインエリア41及び第1サブエリア43が1行目(上段)、第2メインエリア42及び第2サブエリア44が2行目(下段)に配置される。メインエリア41、42のそれぞれにおいて、表示ユニット33の長手方向に複数の表示部である表示枠45(45−1、45−2、45−3・・・45−13)が直列に連続配置されている。サブエリア43、44のそれぞれも複数の表示部である表示枠46(46−1、46−2、46−3)を有している。複数の表示枠45は、連続した一部の表示部群である第1の表示部群であり、複数の表示枠46は、第1の表示部群に属しない第2の表示部群である。表示枠45は文字を表示でき、表示枠46はアイコン等の視覚情報を表示できる構成であればよく、それぞれの構成は問わず、また、枠で囲まれて区画されることも必須でない。図4の左端の表示枠45−1を先頭として、音節に対応する文字が発音予定順に表示される。メインエリア41、42は主として歌詞表示に用いられる。サブエリア43、44は、歌詞以外の表示であって、主として状態表示に用いられる。 FIG. 4 is a diagram showing a main part of the display unit 33. The display unit 33 has a first main area 41, a second main area 42, a first sub area 43, and a second sub area 44 as display areas. The entire display area has a two-row (two-stage) structure, with the first main area 41 and the first sub-area 43 being the first row (upper row), and the second main area 42 and the second sub-area 44 being two rows. It is placed in the eye (lower). In each of the main areas 41 and 42, a plurality of display frames 45 (45-1, 45-2, 45-3... 45-13) which are a plurality of display units are continuously arranged in series in the longitudinal direction of the display unit 33. ing. Each of the sub areas 43 and 44 also has a display frame 46 (46-1, 46-2, 46-3) which is a plurality of display units. The plurality of display frames 45 are a first display unit group which is a continuous partial display unit group, and the plurality of display frames 46 are a second display unit group which do not belong to the first display unit group. .. The display frame 45 may display characters, and the display frame 46 may have a structure capable of displaying visual information such as an icon. The structure does not matter, and it is not essential that the display frame 46 be surrounded by a frame. With the display frame 45-1 at the left end of FIG. 4 as the head, the characters corresponding to the syllables are displayed in the order of pronunciation. The main areas 41 and 42 are mainly used for displaying lyrics. The sub-areas 43 and 44 are displays other than lyrics and are mainly used for status display.

図5は、電子楽器100による演奏が行われる場合の処理の流れの一例を示すフローチャートである。ここでは、ユーザにより、演奏曲の選択と選択した曲の演奏とが行われる場合の処理について説明する。また、説明を簡単にするため、複数の鍵が同時に操作された場合であっても、単音のみを出力する場合について説明する。この場合、同時に操作された鍵の音高のうち、最も高い音高のみについて処理してもよいし、最も低い音高のみについて処理してもよい。なお、以下に説明する処理は、例えば、CPU10がROM12やRAM13に記憶されたプログラムを実行し、電子楽器100が備える各種構成を制御する制御部として機能することにより実現される。 FIG. 5 is a flowchart showing an example of the flow of processing when the electronic musical instrument 100 performs a performance. Here, a process when the user selects a performance song and plays the selected song will be described. Further, in order to simplify the description, a case will be described in which only a single sound is output even when a plurality of keys are simultaneously operated. In this case, of the pitches of the keys operated simultaneously, only the highest pitch may be processed, or only the lowest pitch may be processed. The processing described below is realized, for example, by the CPU 10 executing a program stored in the ROM 12 or the RAM 13 and functioning as a control unit that controls various configurations of the electronic musical instrument 100.

電源がオンにされると、CPU10は、演奏する曲を選択する操作がユーザから受け付けられるまで待つ(ステップS101)。なお、一定時間経過しても曲選択の操作がない場合は、CPU10は、デフォルトで設定されている曲が選択されたと判断してもよい。CPU10は、曲の選択を受け付けると、選択された曲の歌唱用データ14aの歌詞テキストデータを読み出す。そして、CPU10は、歌詞テキストデータに記述された先頭の音節にカーソル位置を設定する(ステップS102)。ここで、カーソルとは、次に発音する音節の位置を示す仮想的な指標である。次に、CPU10は、鍵盤部KBの操作に基づくノートオンを検出したか否かを判定する(ステップS103)。CPU10は、ノートオンが検出されない場合、ノートオフを検出したか否かを判別する(ステップS107)。一方、ノートオンを検出した場合、すなわち新たな押鍵を検出した場合は、CPU10は、音を出力中であればその音の出力を停止する(ステップS104)。次にCPU10は、ノートオンに応じた歌唱音を発音する出力音生成処理を実行する(ステップS105)。 When the power is turned on, the CPU 10 waits until an operation for selecting a song to be played is accepted by the user (step S101). If there is no music selection operation even after a certain period of time, the CPU 10 may determine that the music set by default has been selected. Upon receiving the selection of the song, the CPU 10 reads the lyrics text data of the song data 14a of the selected song. Then, the CPU 10 sets the cursor position to the head syllable described in the lyrics text data (step S102). Here, the cursor is a virtual index indicating the position of the syllable to be generated next. Next, the CPU 10 determines whether or not the note-on based on the operation of the keyboard portion KB is detected (step S103). When the note-on is not detected, the CPU 10 determines whether or not the note-off is detected (step S107). On the other hand, when note-on is detected, that is, when a new key depression is detected, the CPU 10 stops outputting the sound if the sound is being output (step S104). Next, the CPU 10 executes an output sound generation process of generating a singing sound corresponding to the note-on (step S105).

この出力音生成処理を説明する。CPU10はまず、カーソル位置に対応する音節の音声素片データ(波形データ)を読み出し、ノートオンに対応する音高で、読み出した音声素片データが示す波形の音を出力する。具体的には、CPU10は、音声素片データに含まれる素片ピッチデータが示す音高と、操作された鍵に対応する音高との差分を求め、この差分に相当する周波数だけ波形データが示すスペクトル分布を周波数軸方向に移動させる。これにより、電子楽器100は、操作された鍵に対応する音高で歌唱音を出力することができる。次に、CPU10は、カーソル位置(読出位置)を更新し(ステップS106)、処理をステップS107に進める。 This output sound generation process will be described. First, the CPU 10 reads the voice segment data (waveform data) of the syllable corresponding to the cursor position, and outputs the waveform sound indicated by the read voice segment data at the pitch corresponding to note-on. Specifically, the CPU 10 obtains the difference between the pitch indicated by the unit pitch data included in the voice unit data and the pitch corresponding to the operated key, and the waveform data is generated only at the frequency corresponding to this difference. The spectrum distribution shown is moved in the frequency axis direction. Accordingly, the electronic musical instrument 100 can output a singing sound at a pitch corresponding to the operated key. Next, the CPU 10 updates the cursor position (reading position) (step S106) and advances the process to step S107.

ここで、ステップS105、S106の処理に係るカーソル位置の決定と歌唱音の発音について、具体例を用いて説明する。まず、カーソル位置の更新について説明する。図6は、歌詞テキストデータの一例を示す図である。図6の例では、歌詞テキストデータには、5つの音節c1〜c5の歌詞が記述されている。各字「は」、「る」、「よ」、「こ」、「い」は、日本語のひらがなの1字を示し、各字が1音節に対応する。CPU10は、音節単位でカーソル位置を更新する。例えば、カーソルが音節c3に位置している場合、「よ」に対応する音声素片データをデータ記憶部14から読み出し、「よ」の歌唱音を発音する。CPU10は、「よ」の発音が終了すると、次の音節c4にカーソル位置を移動させる。このように、CPU10は、ノートオンに応じて次の音節にカーソル位置を順次移動させる。 Here, the determination of the cursor position and the pronunciation of the singing sound according to the processes of steps S105 and S106 will be described using a specific example. First, the updating of the cursor position will be described. FIG. 6 is a diagram showing an example of lyrics text data. In the example of FIG. 6, the lyrics of five syllables c1 to c5 are described in the lyrics text data. Each character "ha", "ru", "yo", "ko", "i" represents one Japanese hiragana character, and each character corresponds to one syllable. The CPU 10 updates the cursor position in syllable units. For example, when the cursor is located at the syllable c3, the voice unit data corresponding to “yo” is read from the data storage unit 14 and the singing sound of “yo” is generated. When the pronunciation of "yo" ends, the CPU 10 moves the cursor position to the next syllable c4. In this way, the CPU 10 sequentially moves the cursor position to the next syllable in response to note-on.

次に、歌唱音の発音について説明する。図7は、音声素片データの種類の一例を示す図である。CPU10は、カーソル位置に対応する音節を発音させるために、音韻情報データベースから、音節に対応する音声素片データを抽出する。音声素片データには、音素連鎖データと、定常部分データの2種類が存在する。音素連鎖データとは、「無音(#)から子音」、「子音から母音」、「母音から(次の音節の)子音又は母音」など、発音が変化する際の音声素片を示すデータである。定常部分データは、母音の発音が継続する際の音声素片を示すデータである。例えば、カーソル位置が音節c1の「は(ha)」に設定されている場合、音源19は、「無音→子音h」に対応する音声連鎖データ「#−h」と、「子音h→母音a」に対応する音声連鎖データ「h−a」と、「母音a」に対応する定常部分データ「a」と、を選択する。そして、CPU10は、演奏が開始されて押鍵を検出すると、音声連鎖データ「#−h」、音声連鎖データ「h−a」、定常部分データ「a」に基づく歌唱音を、操作された鍵に応じた音高、操作に応じたベロシティで出力する。このようにして、カーソル位置の決定と歌唱音の発音が実行される。 Next, the pronunciation of the singing sound will be described. FIG. 7 is a diagram showing an example of types of speech unit data. The CPU 10 extracts the voice unit data corresponding to the syllable from the phoneme information database in order to pronounce the syllable corresponding to the cursor position. There are two types of phoneme segment data: phoneme chain data and stationary part data. The phoneme chain data is data indicating a phoneme when the pronunciation changes, such as “silence (#) to consonant”, “consonant to vowel”, “vowel to consonant (next syllable) or vowel”. .. The stationary part data is data indicating a voice segment when the pronunciation of a vowel continues. For example, when the cursor position is set to “ha (ha)” of the syllable c1, the sound source 19 outputs the voice chain data “#-h” corresponding to “silence→consonant h” and “consonant h→vowel a”. Of the voice chain data "ha" corresponding to "" and the stationary part data "a" corresponding to "vowel a" are selected. When the performance is started and the key depression is detected, the CPU 10 operates the singing sound based on the voice chain data “#-h”, the voice chain data “ha”, and the steady part data “a”. The pitch is output according to and the velocity is output according to the operation. In this way, the cursor position is determined and the singing sound is pronounced.

図5のステップS107でノートオフを検出した場合は、CPU10は、音を出力中であればその音の出力を停止して(ステップS108)、処理をステップS110に進める。一方、ノートオフが検出されない場合は、CPU10は処理をステップS110に進める。ステップS110では、CPU10は、演奏が終了したか否かを判別する。CPU10は、ステップS110で、演奏を終了していない場合は処理をステップS103に戻す。一方、演奏を終了した場合は、CPU10は、音を出力中であればその音の出力を停止して(ステップS111)、図5に示す処理を終了する。なお、CPU10は、演奏を終了したか否かを、例えば、選択曲の最後尾の音節が発音されたか否か、あるいは他操作子16により演奏を終了する操作が行われた否か、などに基づき判別できる。 If note-off is detected in step S107 of FIG. 5, the CPU 10 stops outputting the sound if the sound is being output (step S108), and advances the process to step S110. On the other hand, if note-off is not detected, the CPU 10 advances the process to step S110. In step S110, the CPU 10 determines whether the performance has ended. CPU10 returns a process to step S103, when performance is not complete|finished by step S110. On the other hand, when the performance is ended, the CPU 10 stops the output of the sound if the sound is being output (step S111), and ends the processing shown in FIG. It should be noted that the CPU 10 determines whether or not the performance has ended, for example, whether or not the last syllable of the selected song has been sounded, or whether or not the operation for ending the performance has been performed by the other operator 16. It can be determined based on.

次に、歌詞表示に着目した動作について説明する。まず、歌唱用データ14aに含まれる歌詞テキストデータは、選択曲に応じた複数の各音節に対応付けられた文字情報を少なくとも含む。歌詞テキストデータは、歌唱部(音源19、効果回路20及びサウンドシステム21)により歌唱されるためのデータである。歌詞テキストデータは、予め複数の区間に分けられており、分割された各区間を「フレーズ」と称する。フレーズは、あるまとまりのある単位であり、ユーザが認識しやすい意味により区切られたものであるが、区間の定義はこれに限定されない。CPU10は、曲が選択されると、複数のフレーズに分けられた状態で取得する。フレーズには1以上の音節とその音節に対応する文字情報が含まれる。 Next, the operation focusing on the lyrics display will be described. First, the lyrics text data included in the singing data 14a includes at least character information associated with each of a plurality of syllables corresponding to the selected song. The lyrics text data is data to be sung by the singing section (sound source 19, effect circuit 20, and sound system 21). The lyrics text data is divided into a plurality of sections in advance, and each of the divided sections is called a "phrase". A phrase is a unit that has a certain unit, and is separated by a meaning that a user can easily recognize, but the definition of a section is not limited to this. When the song is selected, the CPU 10 acquires the song in a state of being divided into a plurality of phrases. The phrase includes one or more syllables and character information corresponding to the syllables.

電子楽器100が起動されると、CPU10は、選択曲に対応する複数のフレーズのうち先頭のフレーズに対応する文字情報を、表示ユニット33の第1メインエリア41(図4)に表示させる。その際、1フレーズ目の先頭の文字が左端の表示枠45−1に表示され、第1メインエリア41に表示可能な数だけ文字が表示される。2フレーズ目については、第2メインエリア42に表示可能な数だけ文字が表示される。鍵盤部KBは、歌唱の指示、ひいては文字情報の表示進行の指示を取得する進行指示取得部としての役割を果たす。CPU10は、歌唱の指示が取得されたことに応じて、次に歌唱する音節を歌唱部に歌唱させると共に、第1メインエリア41に表示された文字の表示を、音節の進行に従って進める。文字表示の歩進方向は図4の左方向であり、最初に表示しきれなかった文字は、歌唱の進行に応じて右端の表示枠45から表れる。上記カーソル位置は次に歌唱する音節を示すものであり、第1メインエリア41の表示枠45−1に表示された文字に対応する音節を指示する。 When the electronic musical instrument 100 is activated, the CPU 10 causes the first main area 41 (FIG. 4) of the display unit 33 to display the character information corresponding to the first phrase of the plurality of phrases corresponding to the selected song. At that time, the first character of the first phrase is displayed in the display frame 45-1 at the left end, and as many characters as can be displayed in the first main area 41 are displayed. As for the second phrase, as many characters as can be displayed in the second main area 42 are displayed. The keyboard portion KB plays a role as a progress instruction acquisition portion that acquires a singing instruction, and thus an instruction to advance the display of character information. In response to the acquisition of the singing instruction, the CPU 10 causes the singing section to sing the syllable to be singed next, and advances the display of the characters displayed in the first main area 41 according to the progress of the syllable. The stepping direction of the character display is the left direction in FIG. 4, and the character that could not be displayed first appears from the display frame 45 at the right end according to the progress of the singing. The cursor position indicates the syllable to be sung next, and indicates the syllable corresponding to the character displayed in the display frame 45-1 of the first main area 41.

なお、1文字と1音節とは必ずしも対応しない。例えば、濁点を有する「だ」(da)は、「た」(ta)と「″」の2文字が1音節に対応する。また、歌詞は英語でもよく、例えば歌詞が「september」の場合、「sep」「tem」「ber」の3音節となる。「sep」は1音節であるが、「s」「e」「p」の3文字が1音節に対応する。文字表示の歩進はあくまで音節単位であるので、「だ」の場合は歌唱により2文字進むことになる。このように、歌詞は、日本語に限らず他言語であってもよい。 Note that one character and one syllable do not necessarily correspond. For example, in "da" (da) having a dakuten, two characters "ta" (ta) and """ correspond to one syllable. Further, the lyrics may be English, and for example, when the lyrics are “septmber”, the syllables are “sep”, “tem”, and “ber”. Although "sep" is one syllable, three characters "s", "e", and "p" correspond to one syllable. Since the step of character display is in syllable units, in the case of "da", two characters are advanced by singing. As described above, the lyrics are not limited to Japanese and may be in another language.

図8は、表示処理のフローチャートである。なお、この処理は、例えば、CPU10がROM12やRAM13に記憶されたプログラムを実行し、電子楽器100が備える各種構成を制御する制御部として機能することにより実現される。また、図8に示す処理は、電源がオンにされた後、図5に示す処理と並行して実行される。図8に示す処理において、CPU10は、状態取得部、表示制御部、データ取得部、設定指示取得部としての役割を果たす。図9、図10、図12、図13、図14は、表示ユニット33における表示例を示す図である。図11A、図11B、図11Cはサブエリアの表示例を示す図である。 FIG. 8 is a flowchart of the display process. Note that this processing is realized, for example, by the CPU 10 executing a program stored in the ROM 12 or the RAM 13 and functioning as a control unit that controls various components included in the electronic musical instrument 100. Further, the processing shown in FIG. 8 is executed in parallel with the processing shown in FIG. 5 after the power is turned on. In the process shown in FIG. 8, the CPU 10 functions as a state acquisition unit, a display control unit, a data acquisition unit, and a setting instruction acquisition unit. 9, FIG. 12, FIG. 12, FIG. 13, and FIG. 14 are diagrams showing display examples on the display unit 33. 11A, 11B, and 11C are diagrams showing display examples of subareas.

電源がオンにされると、CPU10は、図9に示す起動時画面を表示ユニット33に表示させる(ステップS201)。この起動時画面では、最初、例えば、第1メインエリア41及び第1サブエリア43にはメーカ名、第2メインエリア42及び第2サブエリア44には製品名等が表示される。そして、CPU10は、電子楽器100に関する「所定の状態」を取得する(ステップS202)。なお、状態取得中、CPU10は、表示ユニット33を、起動中を示す表示に切り替えてもよい。ここで、所定の状態には給電に関する状態が含まれ、例えば、電源の種類が商用電源であるか電池であるか、さらには電池残量の状態が含まれる。また、所定の状態にはキートランスポーズの設定状態及びその値、現在の選択曲の番号、ネット接続有無等の状態等が含まれる。所定の状態はこれらの例示に限定されない。なお、CPU10は、所定の状態の取得の際に、選択曲の歌唱用データ14aも取得し、さらに取得した歌唱用データ14aの歌詞テキストデータから選択曲に対応する複数のフレーズを抽出する。複数のフレーズには既に順番が付けられている。 When the power is turned on, the CPU 10 causes the display unit 33 to display the startup screen shown in FIG. 9 (step S201). In this startup screen, for example, the manufacturer name is displayed in the first main area 41 and the first sub area 43, and the product name and the like are displayed in the second main area 42 and the second sub area 44. Then, the CPU 10 acquires the “predetermined state” regarding the electronic musical instrument 100 (step S202). During the acquisition of the state, the CPU 10 may switch the display unit 33 to a display indicating that it is being activated. Here, the predetermined state includes a state related to power supply, and includes, for example, whether the type of power source is a commercial power source or a battery, and further the state of the remaining battery level. Further, the predetermined state includes the setting state and the value of the key transpose, the number of the currently selected song, the state such as the presence or absence of internet connection, and the like. The predetermined state is not limited to these examples. It should be noted that the CPU 10 also acquires the singing data 14a of the selected song when acquiring the predetermined state, and further extracts a plurality of phrases corresponding to the selected song from the lyrics text data of the acquired singing data 14a. Multiple phrases are already ordered.

次に、CPU10は、図10に示すような通常画面を表示ユニット33に表示させる(ステップS203)。具体的には、CPU10は、メインエリア41、42に歌詞を表示させると共に、サブエリア43、44に、上記取得した状態に関する情報を表示させる。特に歌詞表示に関しては、CPU10は、抽出した複数のフレーズのうち1フレーズ目の文字を、第1メインエリア41に先頭から表示可能な分だけ表示させると共に、2フレーズ目の文字を、第2メインエリア42に先頭から表示可能な分だけ表示させる。例えばCPU10は、図10に示すように、文字列「ダンダント・・・」を第1メインエリア41に表示させると共に、文字列「アイウエオ・・・」を第2メインエリア42に表示させる。なお、上記起動中を示す表示から通常画面表示へ遷移する途中で、選択曲や設定音色に関する情報が一時的に表示されるとしてもよい。 Next, the CPU 10 causes the display unit 33 to display a normal screen as shown in FIG. 10 (step S203). Specifically, the CPU 10 displays the lyrics in the main areas 41 and 42, and displays the information regarding the acquired state in the sub areas 43 and 44. In particular, regarding the lyrics display, the CPU 10 displays the characters of the first phrase of the extracted plurality of phrases in the first main area 41 as much as can be displayed from the beginning, and the characters of the second phrase are displayed in the second main. The area 42 is displayed as much as possible from the beginning. For example, as shown in FIG. 10, the CPU 10 displays the character string “dundant...” In the first main area 41 and the character string “aiueo...” In the second main area 42. Information about the selected song and the set tone color may be temporarily displayed during the transition from the display indicating the start-up to the normal screen display.

ところで、CPU10は、歌詞表示用にメインエリア41、42の少なくとも一方を用いてもよく、状態に関する情報(以下、状態情報)表示用にサブエリア43、44の少なくとも一方を用いてもよい。状態情報表示の一例として、図10では、給電状態が電池であり、充電状態(電池残量)が満充電であることがアイコンによって示されている。なお、電子楽器100は歌唱合成モードと楽器発音モードとを備えてもよい。図10の表示例は歌唱合成モードを想定している。楽器発音モードにおける通常画面表示では、CPU10は、歌詞の代わりに楽器音色を示す情報をメインエリア41、42に表示させてもよい。 By the way, the CPU 10 may use at least one of the main areas 41 and 42 for displaying lyrics, and may use at least one of the sub areas 43 and 44 for displaying information related to a state (hereinafter, state information). As an example of the state information display, in FIG. 10, the icon indicates that the power supply state is battery and the charge state (remaining battery level) is fully charged. The electronic musical instrument 100 may have a singing voice synthesis mode and a musical instrument pronunciation mode. The display example of FIG. 10 assumes a singing voice synthesis mode. In the normal screen display in the musical instrument sounding mode, the CPU 10 may display information indicating the musical instrument tone color in the main areas 41, 42 instead of the lyrics.

次に、CPU10は、電源がオフにされたか否かを判別し(ステップS204)、電源がオフにされた場合は、現在の各種情報(状態や設定値等)を不揮発メモリ(データ記憶部14等)に記憶させてから(ステップS205)、図8に示す処理を終了させる。一方、電源がオフにされない場合は、CPU10は、所定の状態に関して変化があったか否かを判別する(ステップS206)。そしてCPU10は、所定の状態に関して変化がない場合は処理をステップS208に進める一方、所定の状態に関して変化があった場合は、状態情報の表示を更新して(ステップS207)、処理をステップS208に進める。 Next, the CPU 10 determines whether or not the power is turned off (step S204), and if the power is turned off, various current information (state, set value, etc.) is stored in the nonvolatile memory (data storage unit 14). Etc.) (step S205), and then the processing shown in FIG. 8 ends. On the other hand, if the power is not turned off, the CPU 10 determines whether or not there is a change in the predetermined state (step S206). Then, the CPU 10 advances the processing to step S208 when there is no change in the predetermined state, while updating the display of the state information when there is a change in the predetermined state (step S207) and shifts the processing to step S208. Proceed.

ここで、ステップS207では、CPU10は、新たに取得した所定の状態に関する情報に基づきサブエリア43、44の表示を更新する。例えばCPU10は、電池残量が少なくなった、あるいは残量無しになったという状態情報を取得した場合、図11A、図11Bに示すように、サブエリア44における電池残量表示を残量に対応する表示に切り替える。あるいは、電源が電池から商用電源に切り替わった場合、CPU10は、図11Cに示すように、サブエリア44の表示を、コンセントを模擬したアイコンに切り替える。なお、これらの際、メインエリア41、42における歌詞表示はそのまま維持される。 Here, in step S207, the CPU 10 updates the display of the sub areas 43 and 44 based on the newly acquired information regarding the predetermined state. For example, when the CPU 10 obtains the status information indicating that the remaining battery level is low or the remaining battery level is low, the CPU 10 displays the remaining battery level in the sub-area 44 as shown in FIGS. 11A and 11B. Switch to the display. Alternatively, when the power source is switched from the battery to the commercial power source, the CPU 10 switches the display of the sub area 44 to the icon simulating the outlet, as shown in FIG. 11C. In these cases, the lyrics display in the main areas 41 and 42 is maintained as it is.

ステップS208では、CPU10は、歌唱用データ14aに関する変更を受け付けたか否かを判別する。歌唱用データ14aに関する変更には、例えば、現在の選択曲における歌唱位置の変更、あるいは、選択曲自体の変更が該当する。そしてCPU10は、歌唱用データ14aに関する変更を受け付けていない場合は、所定の設定の指示を受け付けたか否かを判別する(ステップS209)。ここで、所定の設定には、例えば、音の生成に関する設定(パラメータの設定変更、例えば、エフェクト、ボリューム等)や、各種機能に関する設定(オクターブシフト、ミュート等)に関する設定が含まれる。所定の設定にはまた、ファームウェアのアップデート等も含まれる。所定の設定はこれらの例示に限定されない。 In step S208, the CPU 10 determines whether or not a change regarding the singing data 14a has been accepted. The change regarding the singing data 14a corresponds to, for example, a change in the singing position in the currently selected song or a change in the selected song itself. Then, when the change regarding the singing data 14a is not accepted, the CPU 10 determines whether or not an instruction for a predetermined setting is accepted (step S209). Here, the predetermined settings include, for example, settings related to sound generation (parameter setting changes such as effects and volume) and settings related to various functions (octave shift, mute, etc.). The predetermined settings also include firmware updates and the like. The predetermined setting is not limited to these examples.

CPU10は、ステップS209で、所定の設定の指示を受け付けていない場合は、処理をステップS204に戻す一方、所定の設定の指示を受け付けた場合は、処理をステップS210に進める。ステップS210では、CPU10は、メインエリアとサブエリアの双方を用いて設定画面を表示させる。すなわちCPU10は、通常画面表示から、表示ユニット33における第1の表示部群及び第2の表示部群の双方を用いて所定の設定のための情報を表示させる設定画面表示へと、表示態様を切り替える。例えば、ファームウェアのアップデートの設定指示を受け付けた場合、CPU10は、図12に示すように、アップデートモードである旨を示す文字情報をメインエリア41及びサブエリア43に表示させると共に、現在と更新後の各バージョンを示す文字情報をメインエリア42、サブエリア44に表示させる。なお、エフェクト変更の設定指示を受け付けた場合、CPU10は、変更前後のエフェクトの種類や値等を、メインエリア41、42、サブエリア43、44を用いて表示させる。なお、表示ユニット33における1行目と2行目を用いる場合、各行の利用の態様に限定はない。例えば、1行目に設定変更の項目、2行目に設定値を表示させる等の態様が考えられる。 If the CPU 10 has not received the instruction for the predetermined setting in step S209, the process returns to step S204, and if the instruction for the predetermined setting is received, the process proceeds to step S210. In step S210, the CPU 10 displays the setting screen using both the main area and the sub area. That is, the CPU 10 changes the display mode from the normal screen display to the setting screen display for displaying the information for the predetermined setting using both the first display unit group and the second display unit group in the display unit 33. Switch. For example, when the firmware update setting instruction is received, the CPU 10 causes the main area 41 and the sub area 43 to display character information indicating that the update mode is set, as shown in FIG. Character information indicating each version is displayed in the main area 42 and the sub area 44. When the effect change setting instruction is received, the CPU 10 displays the effect types and values before and after the change using the main areas 41 and 42 and the sub areas 43 and 44. In addition, when using the 1st line and the 2nd line in the display unit 33, there is no limitation in the mode of utilization of each line. For example, a mode in which setting change items are displayed on the first line and setting values are displayed on the second line can be considered.

ステップS211では、CPU10は、受け付けた設定指示の内容を反映させ、次に、設定画面表示が表示された状態で、所定時間、継続して設定指示に関する操作が無いか否かを判別する(ステップS212)。そして、所定時間が経過する前に新たに設定指示に関する操作があると、それを受け付け、ステップS210に処理を戻す。なお、ステップS210〜S212の繰り返しにより、設定画面表示の表示は刻々と変化するものであり、図12に示す例はその途中の一例である。一方、設定画面表示が表示された状態で、所定時間、継続して設定指示に関する操作が無い場合は、CPU10は、表示ユニット33の表示態様を、設定画面表示へ切り替える直前の状態に戻す(ステップS213)。従って、所定の設定のための情報を表示させている状態で、所定時間、継続して設定指示に関する操作が無い場合は、直前の通常画面表示に戻る。その後、処理はステップS204に戻る。 In step S211, the CPU 10 reflects the content of the received setting instruction, and then determines whether or not there is an operation related to the setting instruction for a predetermined time while the setting screen display is displayed (step S21). S212). Then, if there is a new operation related to the setting instruction before the elapse of the predetermined time, the operation is accepted and the process returns to step S210. Note that the display of the setting screen display changes every moment by repeating steps S210 to S212, and the example shown in FIG. 12 is an example in the middle thereof. On the other hand, when the setting screen display is displayed and there is no operation related to the setting instruction for a predetermined time, the CPU 10 returns the display mode of the display unit 33 to the state immediately before switching to the setting screen display (step S213). Therefore, in the state where the information for the predetermined setting is displayed, if there is no operation related to the setting instruction for the predetermined time, the normal screen display immediately before is returned. Then, the process returns to step S204.

ステップS208で、歌唱用データ14aに関する変更を受け付けている場合は、CPU10は、選択曲の変更を受け付けたか否かを判別する(ステップS214)。そして、選択曲の変更を受け付けていない場合、受け付けられたのは現在の選択曲における歌唱位置の変更であるので、CPU10は、メインエリア41、42における歌詞表示を更新する(ステップS218)。すなわち、CPU10は、第1メインエリア41のフレーズの表示を1音節分進める。詳細には、CPU10は、第1メインエリア41の左端の1音節に対応する文字を消去すると共に、消去した数の分だけ文字列を左に詰める。フレーズの表示を1音節分進めることで新たに表示枠45−1に表示された文字に対応する音節が、次の歌唱対象となる。例えば、図10に示す表示状態において、鍵盤部KBのいずれかの鍵が押下操作されることで第1メインエリア41の先頭の「ダ」の音節が歌唱されると、次の音節に対応する「ン」が先頭に表示される(図13)。ここで第2メインエリア42の表示は変化しない(歩進しない)。従って、ステップS218は図5のステップS105、S106に対応している。なお、進み操作子34の操作により、フレーズ単位で表示を繰り上げてもよい。また、戻し操作子35の操作により、フレーズ単位で表示を繰り下げてもよい。これらフレーズ単位での繰り上げ、繰り下げを採用する場合、それに対応して、図5のステップS110の直前にカーソル位置を更新する処理を追加してもよい。その後、処理はステップS209に進む。 When the change regarding the singing data 14a is accepted in step S208, the CPU 10 determines whether or not the change in the selected song is accepted (step S214). Then, when the change of the selected song is not accepted, the accepted change is the song position of the currently selected song, so the CPU 10 updates the lyrics display in the main areas 41 and 42 (step S218). That is, the CPU 10 advances the display of the phrase in the first main area 41 by one syllable. Specifically, the CPU 10 deletes the character corresponding to the leftmost one syllable of the first main area 41, and fills the character string to the left by the deleted number. By advancing the phrase display by one syllable, the syllable corresponding to the character newly displayed in the display frame 45-1 becomes the next singing target. For example, in the display state shown in FIG. 10, when one of the keys of the keyboard portion KB is pressed to sing the leading “da” syllable in the first main area 41, the syllable corresponding to the next syllable “N” is displayed at the top (FIG. 13). Here, the display of the second main area 42 does not change (does not step). Therefore, step S218 corresponds to steps S105 and S106 of FIG. The display may be moved forward in phrase units by operating the advance operator 34. Further, the display may be moved backward in phrase units by operating the return operator 35. When adopting the carry-up and carry-down for each phrase, a process of updating the cursor position may be added immediately before step S110 of FIG. 5 correspondingly. After that, the process proceeds to step S209.

ステップS214で、選択曲の変更を受け付けた場合、CPU10は、表示ユニット33におけるメインエリア41、42のいずれかまたは双方を用いて、曲変更のための画面を表示させ(ステップS215)、変更指示に応じて変更内容を反映させる(ステップS216)。その際、サブエリア43、44には状態表示が維持される。例えば、図14に示すように、第1メインエリア41に、変更前、変更後の曲のタイトル等が表示されると共に、データの入れ替えがなされる。その後、所定時間、選択曲に関する操作が無いと、CPU10は、ステップS217で、変更後の選択曲の歌詞をメインエリア41、42に表示させる通常画面表示に表示態様を切り替える。従って、図10に示すような通常画面表示で、選択曲に応じた歌詞に更新された内容が表示ユニット33に表示される。その後、処理はステップS209に進む。 When the change of the selected song is accepted in step S214, the CPU 10 causes one or both of the main areas 41 and 42 in the display unit 33 to display a screen for changing the song (step S215), and gives a change instruction. The changed contents are reflected in accordance with (step S216). At this time, the status display is maintained in the sub areas 43 and 44. For example, as shown in FIG. 14, the titles of the songs before and after the change are displayed in the first main area 41, and the data is replaced. After that, if there is no operation regarding the selected song for a predetermined time, the CPU 10 switches the display mode to the normal screen display in which the lyrics of the changed selected song are displayed in the main areas 41 and 42 in step S217. Therefore, in the normal screen display as shown in FIG. 10, the content updated to the lyrics according to the selected song is displayed on the display unit 33. After that, the process proceeds to step S209.

本実施の形態によれば、CPU10は、取得された歌唱用データ14aに含まれる文字情報を、表示ユニット33における第1の表示部群(メインエリア41、42の表示枠45群)に表示させると共に、取得された状態を、第2の表示部群(サブエリア43、44の表示枠46群)に表示させる。これにより、煩雑な操作不要で歌詞及び状態を視認することができる。 According to the present embodiment, CPU 10 causes the first display section group (display frame 45 group of main areas 41, 42) in display unit 33 to display the character information included in acquired song data 14a. At the same time, the acquired state is displayed on the second display unit group (the display frame 46 group of the sub areas 43 and 44). As a result, the lyrics and the state can be visually recognized without complicated operations.

また、所定の設定の指示が取得されると、第1の表示部群及び第2の表示部群の双方を用いて所定の設定のための情報が表示されるので、所定の設定をしたいときには表示ユニット33の広い範囲を用いることができる。 Further, when the instruction of the predetermined setting is acquired, information for the predetermined setting is displayed using both the first display unit group and the second display unit group. A wide range of display units 33 can be used.

また、所定の設定のための情報を表示させている状態で、所定の設定の指示に関する操作が所定時間継続して無いと、表示ユニット33の表示態様が、切り替える直前の通常画面表示の状態に戻るので、設定終了により、操作不要で歌詞及び状態表示に戻すことができる。 Further, when the operation related to the instruction for the predetermined setting is not continued for the predetermined time while the information for the predetermined setting is displayed, the display mode of the display unit 33 is changed to the normal screen display state immediately before the switching. Since the setting is returned, it is possible to return to the lyrics and the status display without any operation when the setting is completed.

なお、表示ユニット33の全体の表示領域は2行(2段)構成としたが、3行以上の構成としてもよい。また、メインエリアは上下に並べて配置したが、配置関係は例示に限定されず、左右に並べてもよい。 Although the entire display area of the display unit 33 has a two-row (two-stage) configuration, it may have three or more rows. Further, although the main areas are arranged side by side vertically, the arrangement relationship is not limited to the example, and they may be arranged side by side.

なお、歌唱用データ14aの取得先は記憶部に限定されず、通信I/F22を通じた外部機器を取得先としてもよい。また、電子楽器100でユーザが編集または作成することでCPU10により取得されるようにしてもよい。 The acquisition source of the singing data 14a is not limited to the storage unit, and an external device via the communication I/F 22 may be acquired. The electronic musical instrument 100 may be acquired by the CPU 10 by being edited or created by the user.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 Although the present invention has been described above in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various embodiments within the scope not departing from the gist of the present invention are also included in the present invention. included.

10 CPU(状態取得部、表示制御部、データ取得部、設定指示取得部)
14a 歌唱用データ(歌詞データ)
33 表示ユニット
41 第1メインエリア
42 第2メインエリア
43 第1サブエリア
44 第2サブエリア
45 表示枠(第1の表示部群)
46 表示枠(第2の表示部群)
10 CPU (state acquisition unit, display control unit, data acquisition unit, setting instruction acquisition unit)
14a Singing data (lyric data)
33 display unit 41 first main area 42 second main area 43 first sub area 44 second sub area 45 display frame (first display unit group)
46 display frame (second display unit group)

Claims (7)

歌詞表示装置であって、
1文字が表示されるものとして規定されている区画である表示部が連続して複数配置された表示ユニットと、
歌詞を表示するための文字情報を含む歌詞データを取得するデータ取得部と、
前記歌詞表示装置に関する所定の状態を取得する状態取得部と、
前記データ取得部により取得された歌詞データに含まれる文字情報を、前記表示ユニットにおける連続した一部の表示部群である第1の表示部群に表示させると共に、前記状態取得部により取得された状態を、前記表示ユニットにおける連続した一部の表示部群であって前記第1の表示部群に属しない第2の表示部群に表示させる表示制御部と、
所定の設定の指示を取得する設定指示取得部と、を有し、
前記表示制御部は、前記設定指示取得部により前記所定の設定の指示が取得された場合は、前記第1の表示部群及び前記第2の表示部群を用いて前記所定の設定のための情報を表示させるよう、前記表示ユニットの表示態様を切り替える、歌詞表示装置。
A lyrics display device,
A display unit in which a plurality of display sections, which are sections defined as displaying one character, are continuously arranged ;
A data acquisition unit that acquires lyrics data including character information for displaying lyrics,
A state acquisition unit for acquiring a predetermined state regarding the lyrics display device ,
The character information included in the lyrics data acquired by the data acquisition unit is displayed on the first display unit group which is a continuous partial display unit group in the display unit, and is acquired by the state acquisition unit. A display control unit for displaying a state on a second display unit group which is a continuous partial display unit group in the display unit and which does not belong to the first display unit group;
A setting instruction acquisition unit that acquires an instruction for a predetermined setting,
The display control unit uses the first display unit group and the second display unit group for the predetermined setting when the setting instruction acquisition unit acquires the predetermined setting instruction. A lyrics display device for switching the display mode of the display unit so as to display information .
前記表示制御部は、前記表示ユニットに前記所定の設定のための情報を表示させている状態で、前記所定の設定の指示に関する操作が所定時間継続して無いと、前記表示ユニットの表示態様を、切り替える直前の状態に戻す請求項に記載の歌詞表示装置。 The display control unit displays the display mode of the display unit when the operation related to the instruction of the predetermined setting is not continued for a predetermined time while the information for the predetermined setting is displayed on the display unit. The lyrics display device according to claim 1 , wherein the lyrics display device is returned to a state immediately before switching. 文字情報の表示進行の指示を取得する進行指示取得部を有し、
前記表示制御部は、前記進行指示取得部により文字情報の表示進行の指示が取得されたことに応じて、前記第1の表示部群に表示させる文字情報を更新する請求項1または2に記載の歌詞表示装置。
It has a progress instruction acquisition unit for obtaining an instruction to display the text information,
Wherein the display control unit, in response to an instruction for displaying the progress of the character information by the progress instruction acquisition unit is acquired, according to claim 1 or 2 to update the character information to be displayed on the first display area group Lyrics display device.
前記所定の状態は、前記歌詞表示装置の給電に関する状態を含む請求項1〜のいずれか1項に記載の歌詞表示装置。 It said predetermined condition, lyrics display device according to any one of claims 1 to 3 including the condition relating to the feeding of the lyrics display device. 前記所定の設定は、音の生成に関する設定を含む請求項1〜のいずれか1項に記載の歌詞表示装置。 Said predetermined configuration, lyrics display device according to any one of claims 1 to 4 including the settings for the generation of sound. 1文字が表示されるものとして規定されている区画である表示部が連続して複数配置された表示ユニットを有する歌詞表示装置における歌詞表示方法であって、
歌詞を表示するための文字情報を含む歌詞データを取得するデータ取得ステップと、
前記歌詞表示装置に関する所定の状態を取得する状態取得ステップと、
前記データ取得ステップにより取得された歌詞データに含まれる文字情報を、前記表示ユニットにおける連続した一部の表示部群である第1の表示部群に表示させると共に、前記状態取得ステップにより取得された状態を、前記表示ユニットにおける連続した一部の表示部群であって前記第1の表示部群に属しない第2の表示部群に表示させる表示制御ステップと、
所定の設定の指示を取得する設定指示取得ステップと、を有し、
前記表示制御ステップは、前記設定指示取得ステップにより前記所定の設定の指示が取得された場合は、前記第1の表示部群及び前記第2の表示部群を用いて前記所定の設定のための情報を表示させるよう、前記表示ユニットの表示態様を切り替える、歌詞表示装置における歌詞表示方法。
A lyrics display method in a lyrics display device having a display unit in which a plurality of display units, which are sections defined as displaying one character, are continuously arranged,
A data acquisition step of acquiring lyrics data including character information for displaying lyrics,
A state acquisition step of acquiring a predetermined state regarding the lyrics display device ,
The text information contained in the lyrics data acquired by the data acquisition step, the is displayed on the first display area group is the display area group of some consecutive in the display unit, acquired by the state acquisition step A display control step of displaying a state on a second display section group which is a continuous partial display section group in the display unit and which does not belong to the first display section group;
A setting instruction acquisition step of acquiring a predetermined setting instruction,
The display control step uses the first display unit group and the second display unit group for the predetermined setting when the predetermined setting instruction is acquired by the setting instruction acquisition step. A lyrics display method in a lyrics display device, wherein a display mode of the display unit is switched so as to display information .
電子楽器であって、 An electronic musical instrument,
1文字が表示されるものとして規定されている区画である表示部が連続して複数配置された表示ユニットと、 A display unit in which a plurality of display sections, which are sections defined as displaying one character, are continuously arranged;
歌詞を表示するための文字情報を含む歌詞データを取得するデータ取得部と、 A data acquisition unit that acquires lyrics data including character information for displaying lyrics,
前記電子楽器に関する所定の状態を取得する状態取得部と、 A state acquisition unit for acquiring a predetermined state regarding the electronic musical instrument,
前記データ取得部により取得された歌詞データに含まれる文字情報を、前記表示ユニットにおける連続した一部の表示部群である第1の表示部群に表示させると共に、前記状態取得部により取得された状態を、前記表示ユニットにおける連続した一部の表示部群であって前記第1の表示部群に属しない第2の表示部群に表示させる表示制御部と、 The character information included in the lyrics data acquired by the data acquisition unit is displayed on the first display unit group, which is a continuous partial display unit group in the display unit, and is acquired by the state acquisition unit. A display control unit for displaying a state on a second display unit group that is a continuous partial display unit group in the display unit and does not belong to the first display unit group;
所定の設定の指示を取得する設定指示取得部と、を有し、 A setting instruction acquisition unit that acquires an instruction for a predetermined setting,
前記表示制御部は、前記設定指示取得部により前記所定の設定の指示が取得された場合は、前記第1の表示部群及び前記第2の表示部群を用いて前記所定の設定のための情報を表示させるよう、前記表示ユニットの表示態様を切り替える、電子楽器。 The display control unit uses the first display unit group and the second display unit group for the predetermined setting when the setting instruction acquisition unit acquires the predetermined setting instruction. An electronic musical instrument that switches the display mode of the display unit so as to display information.
JP2019515080A 2017-04-27 2017-04-27 Lyrics display device, lyrics display method in lyrics display device, and electronic musical instrument Active JP6732216B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/017436 WO2018198382A1 (en) 2017-04-27 2017-04-27 Apparatus and method for displaying lyrics

Publications (2)

Publication Number Publication Date
JPWO2018198382A1 JPWO2018198382A1 (en) 2019-11-21
JP6732216B2 true JP6732216B2 (en) 2020-07-29

Family

ID=63918855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019515080A Active JP6732216B2 (en) 2017-04-27 2017-04-27 Lyrics display device, lyrics display method in lyrics display device, and electronic musical instrument

Country Status (3)

Country Link
JP (1) JP6732216B2 (en)
CN (1) CN110546705B (en)
WO (1) WO2018198382A1 (en)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09146566A (en) * 1995-11-20 1997-06-06 Fujitsu General Ltd Karaoke device
JPH09146573A (en) * 1995-11-21 1997-06-06 Ekushingu:Kk Karaoke device
JPH10161655A (en) * 1996-11-29 1998-06-19 Casio Comput Co Ltd Navigating device of musical instrument
JPH11282464A (en) * 1998-03-26 1999-10-15 Roland Corp Display device of automatic playing device
JP3691730B2 (en) * 2000-06-22 2005-09-07 株式会社第一興商 Music therapy support device
JP4049014B2 (en) * 2003-05-09 2008-02-20 ヤマハ株式会社 Music score display device and music score display computer program
JP4368817B2 (en) * 2005-03-17 2009-11-18 株式会社第一興商 Portable music player with lyrics display
JP4735544B2 (en) * 2007-01-10 2011-07-27 ヤマハ株式会社 Apparatus and program for singing synthesis
JP2009295012A (en) * 2008-06-06 2009-12-17 Sharp Corp Control method for information display, display control program and information display
JP5549521B2 (en) * 2010-10-12 2014-07-16 ヤマハ株式会社 Speech synthesis apparatus and program
JP2012159575A (en) * 2011-01-31 2012-08-23 Daiichikosho Co Ltd Singing guidance system by plurality of singers
JP6589356B2 (en) * 2015-04-24 2019-10-16 ヤマハ株式会社 Display control device, electronic musical instrument, and program

Also Published As

Publication number Publication date
CN110546705B (en) 2023-05-09
WO2018198382A1 (en) 2018-11-01
CN110546705A (en) 2019-12-06
JPWO2018198382A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
EP2680254B1 (en) Sound synthesis method and sound synthesis apparatus
JP6728754B2 (en) Pronunciation device, pronunciation method and pronunciation program
US20220076658A1 (en) Electronic musical instrument, method, and storage medium
JP7259817B2 (en) Electronic musical instrument, method and program
JP4929604B2 (en) Song data input program
JP2000315081A (en) Device and method for automatically composing music and storage medium therefor
JP6732216B2 (en) Lyrics display device, lyrics display method in lyrics display device, and electronic musical instrument
JP6255744B2 (en) Music display device and music display method
JP6179221B2 (en) Sound processing apparatus and sound processing method
JP5434679B2 (en) Lyric syllable number presentation device and program
JP6809608B2 (en) Singing sound generator and method, program
JP6977741B2 (en) Information processing equipment, information processing methods, performance data display systems, and programs
JP6787491B2 (en) Sound generator and method
WO2018198380A1 (en) Song lyric display device and method
JP7456430B2 (en) Information processing device, electronic musical instrument system, electronic musical instrument, syllable progression control method and program
WO2023120121A1 (en) Consonant length changing device, electronic musical instrument, musical instrument system, method, and program
JP2011180428A (en) Display device of syllable number of lyrics and program
WO2018198381A1 (en) Sound-generating device, method, and musical instrument
TWM531033U (en) Real-time composer and playback apparatus
JP2016177277A (en) Sound generating device, sound generating method, and sound generating program
WO2019003348A1 (en) Singing sound effect generation device, method and program
CN117877459A (en) Recording medium, sound processing method, and sound processing system
WO2019026233A1 (en) Effect control device
JP2017161721A (en) Lyrics generator and lyrics generating method
JP2004347758A (en) Lyric writing and composing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200621

R151 Written notification of patent or utility model registration

Ref document number: 6732216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151