WO2023175844A1 - 電子管楽器及び電子管楽器の制御方法 - Google Patents

電子管楽器及び電子管楽器の制御方法 Download PDF

Info

Publication number
WO2023175844A1
WO2023175844A1 PCT/JP2022/012334 JP2022012334W WO2023175844A1 WO 2023175844 A1 WO2023175844 A1 WO 2023175844A1 JP 2022012334 W JP2022012334 W JP 2022012334W WO 2023175844 A1 WO2023175844 A1 WO 2023175844A1
Authority
WO
WIPO (PCT)
Prior art keywords
breath
wind instrument
data
electronic wind
timing
Prior art date
Application number
PCT/JP2022/012334
Other languages
English (en)
French (fr)
Inventor
達也 入山
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to JP2024507354A priority Critical patent/JPWO2023175844A1/ja
Priority to PCT/JP2022/012334 priority patent/WO2023175844A1/ja
Publication of WO2023175844A1 publication Critical patent/WO2023175844A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser

Definitions

  • the present disclosure relates to an electronic wind instrument and a method of controlling the electronic wind instrument.
  • Patent Document 1 describes a technology in which, in an electronic wind instrument, a consonant is produced when a user's operation of pressing a performance key is detected, and a vowel is produced when a user's blowing operation is detected.
  • One example of the object of the present disclosure is to provide an electronic wind instrument and a method for controlling the electronic wind instrument that can generate sound signals using a normal performance operation method.
  • An electronic wind instrument includes a breath sensor that detects a user's breath, an operator that accepts an operation from the user, and a device that detects the breath by the breath sensor and accepts the operation by the operator. and a generating section that generates a sound signal corresponding to the characters forming the lyrics in response to the output of the start signal.
  • an electronic wind instrument and a method for controlling the electronic wind instrument that can generate a sound signal using a normal performance operation method.
  • FIG. 2 is a block diagram illustrating the configuration of an electronic wind instrument.
  • FIG. 2 is a block diagram illustrating the functions of an electronic wind instrument. It is a flowchart which illustrates the procedure of generating an accompaniment sound signal and a singing sound signal. It is a flow chart which illustrates the procedure of controlling generation of a singing sound signal.
  • the electronic wind instrument 100 may be an electronic wind instrument other than a saxophone, such as a clarinet or a flute.
  • FIG. 1 is a schematic diagram of an electronic wind instrument 100.
  • FIG. 2 is a block diagram illustrating the configuration of the electronic wind instrument 100.
  • the electronic wind instrument 100 includes a tube body 100a, an operator 1, an operation detection section 2, a sound generation section 3, a mouthpiece 4, a breath sensor 5, and an electronic control device 6. .
  • the tube body portion 100a is a saxophone-shaped tube body.
  • the operator 1 consists of a plurality of performance keys 1A arranged on the outer surface of the tubular body portion 100a and one or more setting keys 1B.
  • the operator 1 is operated by a user.
  • the performance key 1A is an operator for specifying pitch.
  • the setting key 1B is an operator for setting a function of changing the pitch according to the key of the music, a function of finely adjusting the pitch, and the like.
  • the operation detection unit 2 detects an operation on the operator 1.
  • the operation detection unit 2 individually detects the operations of the operators 1 and outputs a signal indicating the detected operation to the electronic control device 6.
  • the operation detection section 2 detects an operation of the performance key 1A by the user, and outputs pitch data indicating a pitch corresponding to the detected operation to the electronic control device 6.
  • the sounding section 3 is provided at the first end E1 of the tubular body section 100a.
  • the sound generating section 3 generates sound.
  • the sound generating unit 3 outputs, for example, a sound signal output from the electronic control device 6 as sound.
  • the sound generation unit 3 includes, for example, a mixer that mixes an accompaniment sound signal and a singing sound signal, which will be described later, a signal amplification unit that amplifies the mixed signal, and a speaker that outputs the amplified signal as sound.
  • the mouthpiece 4 is provided at the second end E2 of the tube portion 100a.
  • the mouthpiece 4 outputs the breath blown by the user to the breath sensor 5 .
  • the breath sensor 5 detects the breath output from the mouthpiece 4.
  • the breath sensor 5 includes, for example, a pressure sensor.
  • the breath sensor 5 generates a breath value according to the amount of breath blown by the user, and/or the breath pressure.
  • the breath value is used for processing by the breath sensor 5, which will be described later, such as starting the generation of the singing sound, stopping the generation of the singing sound, and setting the volume level of the singing sound.
  • the breath sensor 5 outputs information including the breath value to the electronic control unit 6 as breath data.
  • the electronic control device 6 is provided inside the tubular body portion 100a.
  • the electronic control device 6 controls the electronic wind instrument 100.
  • the electronic control device 6 is a computer.
  • the electronic control device 6 acquires pitch data from the operation detection section 2.
  • the electronic control device 6 acquires breath data from the breath sensor 5.
  • the electronic control device 6 generates an accompaniment sound signal and a singing sound signal (sound signal), and outputs the generated accompaniment sound signal and singing sound signal to the sound generation section 3.
  • the accompaniment sound signal is a sound signal corresponding to the accompaniment sound of a song.
  • the singing sound signal is a sound signal for producing lyrics of a song at a pitch corresponding to the operation of the operator 1. The method by which the electronic control device 6 generates the singing sound signal will be explained in detail later.
  • the operation detection section 2, the sound generation section 3, the breath sensor 5, and the electronic control device 6 are connected to the bus 11.
  • the bus 11 mediates the transmission and reception of data by these components (the operation detection section 2, the sound generation section 3, the breath sensor 5, and the electronic control device 6).
  • the electronic control device 6 includes, for example, a CPU 61 (Central Processing Unit), a ROM 62 (Read Only Memory), a RAM 63 (Random Access Memory), and a sound source 64.
  • a CPU 61 Central Processing Unit
  • ROM 62 Read Only Memory
  • RAM 63 Random Access Memory
  • the CPU 61 includes, for example, an acquisition section 611, an output section 612, and a generation section 613.
  • the CPU 61 realizes these functions, that is, the functions of the acquisition section 611, the output section 612, and the generation section 613, by executing a program stored in a recording medium, for example, the RAM 63.
  • the ROM 62 is a read-only recording medium.
  • the ROM 62 stores programs for realizing various functions of the CPU 61.
  • the ROM 62 stores lyrics data 621 and song data 622.
  • the lyrics data 621 is data in which a plurality of characters are arranged in chronological order.
  • the song data 622 is data for generating an accompaniment sound signal for a song corresponding to the lyrics data 621.
  • the song data 622 is, for example, MIDI data.
  • the music data 622 includes various information such as sound production timing (note on), pitch, tone color, and muting timing (note off).
  • the lyrics data 621 is associated with the music data 622, and includes information that defines the pronunciation timing or silence timing for each character. That is, the lyrics data includes information (timing information) indicating the timing at which each of the characters included in the lyrics data 621 is pronounced.
  • the RAM 63 is a readable and writable recording medium.
  • the RAM 63 stores programs for realizing various functions of the CPU 61 and temporary data used when performing the various functions.
  • the sound source 64 generates an accompaniment sound signal according to various information such as sound generation timing (note-on), pitch, timbre, mute timing (note-off), etc. shown in the song data 622, and produces the generated accompaniment sound signal. Output to section 3.
  • the sound source 64 is, for example, a MIDI sound source.
  • FIG. 3 is a block diagram illustrating the functions of the electronic wind instrument 100.
  • the acquisition unit 611 acquires lyrics data 621 from the ROM 62.
  • the acquisition unit 611 acquires pitch data from the operation detection unit 2.
  • the acquisition unit 611 acquires breath data from the breath sensor 5.
  • the acquisition unit 611 outputs pitch data and breath data to the output unit 612.
  • the acquisition unit 611 outputs lyrics data 621, pitch data, and breath data to the generation unit 613.
  • the output unit 612 outputs a trigger signal.
  • the trigger signal is a control signal related to the pronunciation of characters (lyrics) according to the lyrics data 621.
  • the trigger signal includes a sound start signal, a sound stop signal, and a pitch change signal.
  • the sound generation start signal is a signal that instructs to sound out lyrics at a pitch corresponding to the operation of the operator 1.
  • the sound generation start signal includes information indicating pitch (pitch).
  • the pronunciation stop signal is a signal that instructs to stop pronunciation of lyrics.
  • the pitch change signal is a signal that instructs to change the pitch at which lyrics are pronounced.
  • the pitch change signal includes information indicating the changed pitch.
  • the output unit 612 outputs a trigger signal to the generation unit 613 based on the detection results by the breath sensor 5 and the operation detection unit 2.
  • the output unit 612 outputs a sound generation start signal when a breath is blown by the user and the operator 1 is operated by the user. More specifically, the output unit 612 outputs an indication that a breath has been added to the breath data acquired from the acquisition unit 611, and an indication that the operator 1 has been operated on the pitch data acquired from the acquisition unit 611. outputs a sound generation start signal.
  • the output unit 612 outputs a sound generation start signal including information indicating the pitch (pitch) according to the pitch data.
  • the output unit 612 outputs a sound generation stop signal when the user finishes blowing the breath. More specifically, the output unit 612 outputs a sound generation stop signal when the breath data acquired from the acquisition unit 611 indicates that no breath is recorded.
  • the output unit 612 If the user operates another operator 1 while the user is blowing a breath after outputting the sound generation start signal and before outputting the sound generation stop signal, the output unit 612 outputs a sound output signal according to the operation. Outputs a pitch change signal for changing the pitch.
  • the generation unit 613 generates a singing sound signal.
  • the singing sound signal is a sound signal for producing lyrics at a pitch corresponding to the operation of the operator 1.
  • the generation unit 613 When the sound generation start signal is output from the output unit 612, the generation unit 613 generates a singing sound signal based on the breath data, pitch data, and lyrics data. The generation unit 613 selects lyrics to be output as a singing sound signal according to the timing at which the pronunciation start signal is acquired from the output unit 612. The generation unit 613 generates the lyrics to be output as a singing sound signal so that the lyrics are pronounced at a natural timing, without giving a feeling of sluggishness as if the lyrics are being pronounced with a delay with respect to the accompaniment sound. select.
  • the generation unit 613 generates a singing sound signal corresponding to the first character when the timing at which the pronunciation start signal is acquired satisfies the first condition.
  • the generation unit 613 generates a singing sound signal corresponding to the second character when the timing at which the pronunciation start signal is acquired does not satisfy the first condition.
  • the generation unit 613 selects either the first character or the second character according to the timing at which the pronunciation start signal is acquired (acquisition timing).
  • the first character and the second character are characters included in the lyrics data 621.
  • the second character is the character following the first character. That is, in the lyrics data 621, the timing to pronounce the second character is defined so that the second character is pronounced after the first character.
  • the generation unit 613 selects, as the first character, a character to be pronounced at a timing closest to the acquisition timing (first pronunciation timing) among the characters to be pronounced at a timing earlier than the acquisition timing.
  • the generation unit 613 selects, as the second character, a character to be pronounced at a timing closest to the acquisition timing (second pronunciation timing) from among the characters to be pronounced at a timing later than the acquisition timing.
  • the generation unit 613 generates a singing sound signal corresponding to the first character when the first condition is satisfied.
  • the generation unit 613 generates a singing sound signal corresponding to the second character when the first condition is not satisfied.
  • the first condition here is that the timing at which the pronunciation start signal is output is the timing at which the first character should be pronounced (the timing at which the second character is pronounced) rather than the timing at which the second character should be pronounced (the timing at which the second character is pronounced).
  • the condition is that the timing is close to when the character is pronounced. In other words, the condition is that the interval (time difference) between the first sound generation timing and the acquisition timing is smaller than the interval (time difference) between the acquisition timing and the second sound generation timing.
  • the generation unit 613 generates a singing sound signal by associating pitches according to the pitch data with characters selected depending on whether the first condition is satisfied.
  • the generation unit 613 controls the volume level of the generated singing sound signal based on the breath data, and outputs the singing sound signal with the controlled volume level to the sound generation unit 3.
  • the generation unit 613 Upon acquiring the pitch change signal from the output unit 612, the generation unit 613 generates a singing sound signal by associating the changed pitch with the selected character depending on whether the first condition is satisfied.
  • the generation unit 613 controls the volume level of the generated singing sound signal based on the breath data, and outputs the singing sound signal with the controlled volume level to the sound generation unit 3.
  • the generation unit 613 stops generating the singing sound signal.
  • FIG. 4 is a flowchart illustrating a procedure in which the electronic control device 6 generates an accompaniment sound signal and a singing sound signal.
  • the electronic control device 6 reads the song data 622 and starts generating an accompaniment sound signal (step S1). Triggered by the generation of the accompaniment sound signal, the acquisition unit 611 of the electronic control device 6 acquires the lyrics data 621, pitch data, and breath data (step S2). The acquisition unit 611 outputs pitch data and breath data to the output unit 612. The acquisition unit 611 outputs lyrics data 621, pitch data, and breath data to the generation unit 613.
  • the output unit 612 acquires pitch data and breath data, and outputs a trigger signal to the generation unit 613 based on the acquired data (step S3).
  • the output unit 612 outputs a sound generation start signal, for example, when a breath is blown by the user and the operator 1 is operated by the user.
  • the generation unit 613 acquires the trigger signal from the output unit 612, it generates a singing sound signal based on the timing at which the trigger signal was acquired, the lyrics data 621, the pitch data, and the breath data (step S4).
  • the electronic control unit 6 determines whether reading of the song data 622 is finished (step S5). If the electronic control device 6 has not finished reading out the song data 622 (step S5: No), it returns to step S2. When the reading of the music data 622 is finished (step S5: Yes), the electronic control device 6 stops generating the accompaniment sound signal (step S6), and ends the process. If the electronic control device 6 has not finished reading out the song data 622 (step S5: No), it returns to step S2. This ends the main routine.
  • FIG. 5 is a flowchart illustrating a procedure in which the electronic control device 6 controls the generation of the singing sound signal. Specifically, FIG. 5 is a flowchart illustrating the process of step S4 in FIG. 4.
  • the lyrics data 621 characters that make up the lyrics
  • the lyrics data 621 includes the character "Ka (Ka)" as the first character and the character "Ki (Ki)" as the second character. do.
  • Ka represents a single character in Japanese hiragana.
  • Ki represents another character in Japanese hiragana.
  • the generation unit 613 of the electronic control device 6 acquires a trigger signal from the song data 622 (step S41). Next, the generation unit 613 determines whether the trigger signal is an instruction to stop sound generation (step S42). If the signal is not a sound generation stop instruction, that is, a sound generation start signal or a pitch change signal (step S42: Yes), the generation unit 613 determines whether the first condition is satisfied (step S43).
  • the first condition is for the characters "Ka (Ka)" and "Ki (Ki)" that are associated with the timing before and after the timing when the pronunciation start signal is issued. The condition is that the timing at which "Ka” should be pronounced is closer to the timing at which the sound generation start signal is issued than the timing at which it should be produced.
  • step S43: Yes When the first condition is satisfied (step S43: Yes), the generation unit 613 generates a singing sound signal that pronounces “Ka” as the first character at the pitch specified by the pitch data. is generated (step S44). If the first condition is not satisfied (Step S43: No), the generation unit 613 generates a singing sound signal that pronounces "Ki" as the second character at the pitch specified by the pitch data (Step S45). On the other hand, if the trigger signal is a sound generation stop instruction (step S42: Yes), the generation unit 613 stops generating the singing sound signal (step S46), and ends the process.
  • the output unit 612 outputs a sound generation start signal when a breath is blown by the user and the operator 1 is operated by the user.
  • the generation unit 613 acquires the pronunciation start signal, it generates a singing sound signal based on the breath data, pitch data, and lyrics data.
  • a singing sound signal can be generated by a performance operation similar to that of a normal wind instrument performance.
  • the timing at which a breath is blown by the user deviates from the timing predefined in the lyrics data, it is possible to generate appropriate singing sounds that match the accompaniment sounds.
  • song data 622 is omitted.
  • the lyrics data 621 may or may not include timing information.
  • the generation unit 613 sequentially reads out the characters defined in the lyrics data 621 and generates a singing sound signal each time a pronunciation start instruction is output, regardless of the presence or absence of timing information in the lyrics data 621.
  • the acquisition unit 611, the output unit 612, and the generation unit 613 may be realized by one or more sound source chips to generate the singing sound signal.
  • the sound source 64 may be a software sound source that functions when the CPU 61 executes a program.
  • the music data and lyrics data may be acquired from outside the electronic wind instrument 100.
  • the electronic wind instrument 100 further includes an interface.
  • the electronic wind instrument 100 acquires music data and lyrics data stored in an external device via an interface.
  • the external device is, for example, a karaoke device.
  • the breath sensor 5 may be provided in the electronic control device 6.
  • the mouthpiece 4 may include a sensor other than the breath sensor 5 as a first sensor.
  • the first sensor is, for example, a voice sensor, a tongue sensor, or a lip sensor. Further, the first sensor may be a combination of at least two of a voice sensor, a tongue sensor, and a lip sensor.
  • the generation unit 613 may impart an effect to the singing sound signal based on the output of the first sensor. The effect here is, for example, vibrato or subtone.
  • the sounding section 3 is provided at the first end E1 of the tubular body section 100a, but the present disclosure is not limited to this aspect.
  • the electronic wind instrument 100 may include the sounding section 3 in the electronic control device 6.
  • the electronic wind instrument 100 may include a bell-shaped tube at the first end E1 of the tube section 100a.
  • a program for realizing the functions of the CPU 61 may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed to perform the sound generation process.
  • the "computer system” herein includes hardware such as an OS and peripheral devices.
  • the term "computer system” includes the homepage providing environment (or display environment) if a WWW system is used.
  • the term “computer-readable recording medium” refers to portable media such as flexible disks, magneto-optical disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems.
  • the term “computer-readable recording medium” includes a medium that retains a program for a certain period of time, such as a volatile memory inside a computer system that is a server or a client.
  • the above-mentioned program may be one for realizing a part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
  • the above program may be stored in a predetermined server, and the program may be distributed (downloaded, etc.) via a communication line in response to a request from another device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

電子管楽器は、ユーザのブレスを検出するブレスセンサと、前記ユーザから操作を受け付ける操作子と、前記ブレスセンサによって前記ブレスが検出されかつ前記操作子によって前記操作が受け付けられたことに応じて開始信号を出力する出力部と、前記開始信号が出力されたことに応じて、歌詞を構成する文字に対応する音信号を生成する生成部と、を有する。

Description

電子管楽器及び電子管楽器の制御方法
 本開示は、電子管楽器及び電子管楽器の制御方法に関する。
 音高を指定するための複数の演奏キーと、息を吹込む操作を検出するブレスセンサとを備えた電子管楽器が知られている。特許文献1には、電子管楽器において、ユーザによる演奏キーを押す操作が検出されると子音を発音し、ユーザによる息を吹込む操作が検出されると母音を発音する技術が記載されている。
日本国特開2014-98801号公報
 しかしながら、特許文献1記載の技術では、ユーザが息を吹込む操作をする前に演奏キー操作による子音の発音が行われる。そのため、ユーザは通常の管楽器の演奏とは異なる操作方法を覚える必要があった。
 本開示は、このような事情に鑑みなされた。本開示の目的の一例は、通常の演奏操作方法で音信号を生成できる電子管楽器及び電子管楽器の制御方法を提供することである。
 本開示の一実施態様に係る電子管楽器は、ユーザのブレスを検出するブレスセンサと、前記ユーザから操作を受け付ける操作子と、前記ブレスセンサによって前記ブレスが検出されかつ前記操作子によって前記操作が受け付けられたことに応じて開始信号を出力する出力部と、前記開始信号が出力されたことに応じて、歌詞を構成する文字に対応する音信号を生成する生成部と、を有する。
 本開示によれば、通常の演奏操作方法で音信号を生成できる電子管楽器及び電子管楽器の制御方法を提供することができる。
電子管楽器の模式図である。 電子管楽器の構成を例示するブロック図である。 電子管楽器の機能を例示するブロック図である。 伴奏音信号及び歌唱音信号を生成する手順を例示するフローチャートである。 歌唱音信号の生成を制御する手順を例示するフローチャートである。
 以下、図面を参照して、本開示に係る実施形態を説明する。本実施形態では、電子管楽器100がサクソフォンである場合を例にして説明を行う。電子管楽器100は、クラリネットやフルートなど、サクソフォン以外の電子管楽器であってもよい。
 図1及び図2を参照して、電子管楽器100の機能について説明する。
 図1は、電子管楽器100の模式図である。図2は電子管楽器100の構成を例示するブロック図である。
 図1に示すように、電子管楽器100は、管体部100aと、操作子1と、操作検出部2と、発音部3と、マウスピース4と、ブレスセンサ5と、電子制御装置6を備える。
 管体部100aは、サクソフォン形状の管体である。
 操作子1は、管体部100aの外面に配置された複数の演奏キー1Aと、1または複数の設定キー1Bとからなる。操作子1は、ユーザにより操作される。演奏キー1Aは、音高を指定するための操作子である。設定キー1Bは、楽曲のキーに合わせて音高を変える機能、及び音高の微調整を行う機能等を設定するための操作子である。
 操作検出部2は、操作子1に対する操作を検出する。操作検出部2は、操作子1の操作を個別に検出し、検出した操作を示す信号を電子制御装置6に出力する。例えば、操作検出部2は、ユーザによる演奏キー1Aの操作を検出し、検出した操作に応じた音高を示す音高データを電子制御装置6に出力する。
 発音部3は、管体部100aの第1端部E1に設けられている。発音部3は音を発生する。発音部3は、例えば、電子制御装置6から出力される音信号を音として出力する。発音部3は、例えば、後述する伴奏音信号と歌唱音信号を混合するミキサと、混合した信号に増幅等を施す信号増幅部と、信号増幅した信号を音として出力するスピーカを備える。
 マウスピース4は、管体部100aの第2端部E2に設けられている。マウスピース4は、ユーザにより吹き込まれるブレスをブレスセンサ5に出力する。
 ブレスセンサ5は、マウスピース4から出力されたブレスを検出する。ブレスセンサ5は、例えば、圧力センサを備える。ブレスセンサ5は、ユーザにより吹き込まれた息量、及び/又は息圧等の大きさに応じたブレス値を生成する。ブレス値は、後述するブレスセンサ5による処理、すなわち歌唱音の発音開始、歌唱音の発音停止及び歌唱音の音量レベルの設定等の処理を行うために用いられる。ブレスセンサ5は、ブレス値を含む情報をブレスデータとして電子制御装置6に出力する。
 電子制御装置6は、管体部100aの内部に設けられている。電子制御装置6は電子管楽器100を制御する。電子制御装置6はコンピュータである。電子制御装置6は、操作検出部2から音高データを取得する。電子制御装置6は、ブレスセンサ5からブレスデータを取得する。電子制御装置6は、伴奏音信号と歌唱音信号(音信号)を生成し、生成した伴奏音信号と歌唱音信号を発音部3に出力する。伴奏音信号は、曲の伴奏音に対応する音信号である。歌唱音信号は、曲の歌詞を操作子1の操作に応じた音高で発音するための音信号である。電子制御装置6が歌唱音信号を生成する方法は後で詳しく説明する。
 図2に示すように、電子管楽器100において、操作検出部2と、発音部3と、ブレスセンサ5と、電子制御装置6が、バス11に接続される。バス11は、これらの構成要素(操作検出部2、発音部3、ブレスセンサ5、及び電子制御装置6)によるデータの送受信を仲介する。
 電子制御装置6は、例えば、CPU61(Central Processing Unit)、ROM62(Read Only Memory)、RAM63(Random Access Memory)、及び音源64を備える。
 CPU61は、例えば、取得部611と、出力部612と、生成部613とを備える。CPU61は、記録媒体、例えば、RAM63に記憶されているプログラムを実行することにより、これらの機能、つまり取得部611と、出力部612と、生成部613が有する機能を実現する。
 ROM62は、読み出し専用の記録媒体である。ROM62は、CPU61の各種機能を実現するためのプログラムを記憶する。
 ROM62は、歌詞データ621と、曲データ622を記憶する。歌詞データ621は、複数の文字が時系列に並べられたデータである。曲データ622は、歌詞データ621に対応する曲の伴奏音信号を生成するためのデータである。曲データ622は、例えば、MIDIデータである。曲データ622は、発音タイミング(ノートオン)、音高、音色、消音タイミング(ノートオフ)などの各種情報を含む。歌詞データ621は、曲データ622と対応付けられており、文字毎に発音タイミング又は消音タイミングを規定する情報を含む。つまり、歌詞データは、歌詞データ621に含まれる文字のそれぞれを発音するタイミングを示す情報(タイミング情報)を含む。
 RAM63は、読み出し及び書き込みが可能な記録媒体である。RAM63は、CPU61の各種機能を実現するためのプログラム、及び各種機能を行う際に利用される一時的なデータを記憶する。
 音源64は、曲データ622に示された発音タイミング(ノートオン)、音高、音色、消音タイミング(ノートオフ)などの各種情報にしたがい、伴奏音信号を生成し、生成した伴奏音信号を発音部3に出力する。音源64は、例えばMIDI音源である。
 図3を参照して電子制御装置6が歌唱音信号を生成する方法について説明する。図3は、電子管楽器100の機能を例示するブロック図である。
 取得部611は、ROM62から歌詞データ621を取得する。取得部611は、操作検出部2から音高データを取得する。取得部611は、ブレスセンサ5からブレスデータを取得する。取得部611は、出力部612に、音高データ及びブレスデータを出力する。取得部611は、生成部613に、歌詞データ621、音高データ及びブレスデータを出力する。
 出力部612は、トリガ信号を出力する。トリガ信号は、歌詞データ621に応じた文字(歌詞)の発音に関する制御信号である。トリガ信号は、発音開始信号、発音停止信号、及びピッチ変更信号を含む。
 発音開始信号(開始信号)は、歌詞を、操作子1の操作に応じた音高で発音するように指示する信号である。発音開始信号には、ピッチ(音高)を示す情報が含まれる。発音停止信号(停止信号)は、歌詞の発音を停止するように指示する信号である。ピッチ変更信号は、歌詞を発音する音高を変更するように指示する信号である。ピッチ変更信号には、変更後の音高を示す情報が含まれる。
 出力部612は、ブレスセンサ5及び操作検出部2による検出結果に基づきトリガ信号を生成部613に出力する。
 具体的に、出力部612は、ユーザによってブレスが吹き込まれ、かつユーザによって操作子1が操作された場合に、発音開始信号を出力する。より具体的に、出力部612は、取得部611から取得したブレスデータにブレスが吹き込まれていることが示され、取得部611から取得した音高データに操作子1が操作されたことが示された場合に、発音開始信号を出力する。出力部612は、音高データに応じたピッチ(音高)を示す情報を含む発音開始信号を出力する。
 出力部612は、ユーザによるブレスの吹き込みが終了すると、発音停止信号を出力する。より具体的に、出力部612は、取得部611から取得したブレスデータにブレスが吹き込まれていないことが示された場合に、発音停止信号を出力する。
 出力部612は、発音開始信号を出力した後、発音停止信号を出力するまでの間に、ユーザによってブレスが吹き込まれた状態で、別の操作子1が操作された場合、その操作に応じた音高に変更するためのピッチ変更信号を出力する。
 生成部613は、歌唱音信号を生成する。歌唱音信号は、歌詞を操作子1の操作に応じた音高で発音するための音信号である。
 生成部613は、出力部612から発音開始信号が出力されると、ブレスデータ、音高データ及び歌詞データに基づいて歌唱音信号を生成する。生成部613は、出力部612から発音開始信号を取得したタイミングに応じて、歌唱音信号として出力する歌詞を選択する。生成部613は、伴奏音に対して遅れて歌詞が発音されているかのようなもたつき感を感じさせないように、すなわち、自然なタイミングで歌詞が発音されるように歌唱音信号として出力する歌詞を選択する。
 生成部613は、発音開始信号を取得したタイミングが第1条件(条件)を満たす場合には第1文字に対応する歌唱音信号を生成する。生成部613は、発音開始信号を取得したタイミングが第1条件を満たさない場合には第2文字に対応する歌唱音信号を生成する。
 生成部613は、発音開始信号を取得したタイミング(取得タイミング)に応じて、第1文字及び第2文字のいずれかを選択する。第1文字及び第2文字は、歌詞データ621に含まれる文字である。第2文字は第1文字に続く文字である。すなわち、歌詞データ621では、第1文字の次に第2文字を発音するように、発音するタイミングが規定されている。
 具体的に、生成部613は、取得タイミングより早いタイミングで発音すべき文字のうち、取得タイミングに最も近いタイミング(第1発音タイミング)で発音する文字を、第1文字として選択する。生成部613は、取得タイミングより遅いタイミングで発音すべき文字のうち、取得タイミングに最も近いタイミング(第2発音タイミング)で発音する文字を第2文字として選択する。
 生成部613は、第1条件を満たす場合には第1文字に対応する歌唱音信号を生成する。生成部613は、第1条件を満たさない場合には第2文字に対応する歌唱音信号を生成する。ここでの第1条件とは、発音開始信号が出力されたタイミングが、第2文字を発音すべきタイミング(第2文字が発音されるタイミング)よりも第1文字を発音すべきタイミング(第1文字が発音されるタイミング)に近いという条件である。つまり、第1発音タイミングと取得タイミングの間隔(時間差)が、取得タイミングと第2発音タイミングの間隔(時間差)よりも小さいという条件である。生成部613は、第1条件を満たすか否かに応じて選択した文字に、音高データに応じた音高を対応づけることにより歌唱音信号を生成する。
 生成部613は、生成した歌唱音信号の音量レベルをブレスデータに基づいて制御し、音量レベルを制御した歌唱音信号を発音部3へ出力する。
 生成部613は、出力部612からピッチ変更信号を取得すると、第1条件を満たすか否かに応じて選択した文字に、変更後の音高を対応づけることにより歌唱音信号を生成する。生成部613は、生成した歌唱音信号の音量レベルを、ブレスデータに基づいて制御し、音量レベルを制御した歌唱音信号を発音部3へ出力する。
 また、生成部613は、出力部612から発音停止信号を取得すると、歌唱音信号の生成を停止する。
 図4は、電子制御装置6が伴奏音信号及び歌唱音信号を生成する手順を例示するフローチャートである。
 電子制御装置6は、曲データ622を読み出して伴奏音信号の生成を開始する(ステップS1)。伴奏音信号の生成を契機として、電子制御装置6の取得部611は、歌詞データ621、音高データ及びブレスデータを取得する(ステップS2)。取得部611は、音高データ及びブレスデータを出力部612に出力する。取得部611は、歌詞データ621、音高データ及びブレスデータを生成部613に出力する。
 出力部612は、音高データ及びブレスデータを取得し、取得したデータに基づいてトリガ信号を生成部613に出力する(ステップS3)。出力部612は、例えば、ユーザによってブレスが吹き込まれ、かつユーザによって操作子1が操作された場合に発音開始信号を出力する。
 生成部613は、出力部612からトリガ信号を取得すると、トリガ信号を取得したタイミング、歌詞データ621、音高データ及びブレスデータに基づいて歌唱音信号を生成する(ステップS4)。
 電子制御装置6は、曲データ622の読み出しが終わったか否かを判断する(ステップS5)。電子制御装置6は、曲データ622の読み出しが終わっていない場合には(ステップS5:No)、ステップS2へ戻る。曲データ622の読み出しが終わった場合には(ステップS5:Yes)、電子制御装置6は、伴奏音信号の生成を停止し(ステップS6)、処理を終了する。電子制御装置6は、曲データ622の読み出しが終わっていない場合には(ステップS5:No)、ステップS2へ戻る。これにより、メインルーチンが終了する。
 図5は、電子制御装置6が歌唱音信号の生成を制御する手順を例示するフローチャートである。具体的には、図5は、図4のステップS4の処理を説明するフローチャートである。以下の説明では、歌詞データ621(歌詞を構成する文字)に、第1文字として「か(Ka)」との文字を、第2文字として「き(Ki)」との文字が含まれるものとする。「か(Ka)」は、日本語のひらがなにおける一文字を表す。「き(Ki)」は、日本語のひらがなにおける別の一文字を表す。
 電子制御装置6の生成部613は、曲データ622からトリガ信号を取得する(ステップS41)。次に、生成部613は、トリガ信号が発音停止指示であるか否かを判断する(ステップS42)。生成部613は、発音停止指示でない、すなわち、発音開始信号またはピッチ変更信号である場合(ステップS42:Yes)、第1条件を満たすか否かを判断する(ステップS43)。第1条件とは、発音開始信号が発せられたタイミングに時間的に前後するタイミングに関連付けられている「か(Ka)」及び「き(Ki)」の文字について、「き(Ki)」を発音すべきタイミングよりも「か(Ka)」を発音すべきタイミングが発音開始信号が発せられたタイミングに近いという条件である。生成部613は、第1条件を満たす場合(ステップS43:Yes)、生成部613は、音高データで規定される音高で第1文字として「か(Ka)」を発音する歌唱音信号を生成する(ステップS44)。第1条件を満たさない場合(ステップS43:No)、生成部613は、音高データで規定される音高で第2文字として「き(Ki)」を発音する歌唱音信号を生成する(ステップS45)。
 一方、トリガ信号が発音停止指示である場合(ステップS42:Yes)、生成部613は、歌唱音信号の生成を停止し(ステップS46)、処理を終了する。
 以上説明したように、本開示では、出力部612が、ユーザによってブレスが吹き込まれ、かつユーザによって操作子1が操作された場合に発音開始信号を出力する。生成部613が、発音開始信号を取得すると、ブレスデータと音高データ及び歌詞データに基づいて歌唱音信号を生成する。これにより、通常の管楽器演奏と同様の演奏操作により歌唱音信号を生成することができる。
 また、これにより、ユーザによってブレスが吹き込まれるタイミングがあらかじめ歌詞データに規定されたタイミングとずれたとしても、伴奏音に適合した適切な歌唱音を生成することができる。
 本開示は、以下に示すように別の態様も含む。
 一つの側面では、曲データ622は省略される。この場合、歌詞データ621は、タイミング情報を含んでいてもよいし、含まなくてもよい。また、生成部613は、歌詞データ621のタイミング情報の有無に関係なく、発音開始指示が出力される度に、歌詞データ621で規定される文字を順次読み出して歌唱音信号を生成する。
 一つの側面では、取得部611、出力部612、及び生成部613を、1または複数の音源チップで実現して歌唱音信号を生成してもよい。
 一つの側面では、音源64を、CPU61がプログラムを実行することにより機能するソフトウェア音源としてもよい。
 一つの側面では、曲データ及び歌詞データは、電子管楽器100の外部から取得してもよい。この場合、電子管楽器100は、インターフェースをさらに備える。電子管楽器100は、外部装置に記憶された曲データ及び歌詞データを、インターフェースを介して取得する。外部装置は、例えばカラオケ装置である。
 一つの側面では、ブレスセンサ5が、電子制御装置6に設けられてもよい。
 一つの側面では、マウスピース4は、ブレスセンサ5以外のセンサを第1センサとして含んでもよい。第1センサは、例えば、ボイスセンサ、タンセンサまたはリップセンサである。また、第1センサは、ボイスセンサ、タンセンサおよびリップセンサのうち少なくとも2つの組合せでもよい。この場合、生成部613は、第1センサの出力に基づいて、歌唱音信号に効果を付与してもよい。ここでの効果は、例えばビブラートやサブトーンである。
 上述した実施形態では、発音部3を管体部100aの第1端部E1に設けたが本開示はこの態様に限らない。一つの側面では、電子管楽器100は、発音部3を、電子制御装置6に設けてもよい。この場合、電子管楽器100は、管体部100aの第1端部E1にベル形状の管体を備えてもよい。
 また、CPU61の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより発音処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものを含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、上記のプログラムを所定のサーバに記憶させておき、他の装置からの要求に応じて、当該プログラムを、通信回線を介して配信(ダウンロード等)させるようにしてもよい。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
100・・・電子管楽器
1・・・操作子
2・・・操作検出部
3・・・発音部
4・・・マウスピース
5・・・ブレスセンサ
6・・・電子制御装置
61・・・CPU
611・・・取得部
612・・・出力部
613・・・生成部

Claims (6)

  1.  ユーザのブレスを検出するブレスセンサと、
     前記ユーザから操作を受け付ける操作子と、
     前記ブレスセンサによって前記ブレスが検出されかつ前記操作子によって前記操作が受け付けられたことに応じて開始信号を出力する出力部と、
     前記開始信号が出力されたことに応じて、歌詞を構成する文字に対応する音信号を生成する生成部と、
     を有する、
     電子管楽器。
  2.  前記生成部は、前記開始信号に基づいて条件を満たすか否か判断し、
     前記生成部は、前記条件が満されていると判定した場合には、前記歌詞を構成する第1文字に対応する第1音信号を生成し、
     前記生成部は、前記条件が満たされていないと判定した場合には、前記歌詞を構成する前記第1文字に続く第2文字に対応する第2音信号を生成する、
     請求項1に記載の電子管楽器。
  3.  前記条件は、前記開始信号が出力されたタイミングが、前記第2文字を発音すべきタイミングよりも前記第1文字を発すべきタイミングに近いという条件である、
     請求項2に記載の電子管楽器。
  4.  前記ブレスセンサは前記ブレスの大きさを検出し、
     前記生成部は、前記ブレスの大きさに対応する音量を示す前記音信号を生成する
     請求項1から3のいずれか一項に記載の電子管楽器。
  5.  前記操作子は、前記操作により音高の指定を受け付け、
     前記生成部は、前記指定された音高を示す前記音信号を生成する
     請求項1から4のいずれか一項に記載の電子管楽器。
  6.  ユーザのブレスを検出するブレスセンサと前記ユーザから操作を受け付ける操作子とを備える電子管楽器の制御方法であって、
     前記ブレスセンサによって前記ブレスが検出されかつ前記操作子によって前記操作が受け付けられたことに応じて開始信号を出力し、
     前記開始信号が出力されたことに応じて、歌詞を構成する文字に対応する音信号を生成する、
     ことを含む電子管楽器の制御方法。
PCT/JP2022/012334 2022-03-17 2022-03-17 電子管楽器及び電子管楽器の制御方法 WO2023175844A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2024507354A JPWO2023175844A1 (ja) 2022-03-17 2022-03-17
PCT/JP2022/012334 WO2023175844A1 (ja) 2022-03-17 2022-03-17 電子管楽器及び電子管楽器の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/012334 WO2023175844A1 (ja) 2022-03-17 2022-03-17 電子管楽器及び電子管楽器の制御方法

Publications (1)

Publication Number Publication Date
WO2023175844A1 true WO2023175844A1 (ja) 2023-09-21

Family

ID=88022565

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012334 WO2023175844A1 (ja) 2022-03-17 2022-03-17 電子管楽器及び電子管楽器の制御方法

Country Status (2)

Country Link
JP (1) JPWO2023175844A1 (ja)
WO (1) WO2023175844A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014098801A (ja) * 2012-11-14 2014-05-29 Yamaha Corp 音声合成装置
JP2019184935A (ja) * 2018-04-16 2019-10-24 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP2021043261A (ja) * 2019-09-06 2021-03-18 ローランド株式会社 電子吹奏楽器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014098801A (ja) * 2012-11-14 2014-05-29 Yamaha Corp 音声合成装置
JP2019184935A (ja) * 2018-04-16 2019-10-24 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP2021043261A (ja) * 2019-09-06 2021-03-18 ローランド株式会社 電子吹奏楽器

Also Published As

Publication number Publication date
JPWO2023175844A1 (ja) 2023-09-21

Similar Documents

Publication Publication Date Title
US6191349B1 (en) Musical instrument digital interface with speech capability
US11996082B2 (en) Electronic musical instruments, method and storage media
US10354629B2 (en) Sound control device, sound control method, and sound control program
JP7484952B2 (ja) 電子機器、電子楽器、方法及びプログラム
WO2023175844A1 (ja) 電子管楽器及び電子管楽器の制御方法
WO2023058173A1 (ja) 音制御装置およびその制御方法、電子楽器、プログラム
JP4180548B2 (ja) 声域告知機能付きカラオケ装置
JP2003015672A (ja) 声域告知機能付きカラオケ装置
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
WO2016152708A1 (ja) 音制御装置、音制御方法、および音制御プログラム
JP6410345B2 (ja) サウンドプレビュー装置及びプログラム
WO2023233856A1 (ja) 音制御装置およびその制御方法、プログラム、電子楽器
WO2022190502A1 (ja) 音生成装置およびその制御方法、プログラム、電子楽器
WO2023058172A1 (ja) 音制御装置およびその制御方法、電子楽器、プログラム
JP2018151548A (ja) 発音装置及びループ区間設定方法
JP7158331B2 (ja) カラオケ装置
KR100382079B1 (ko) 음악용 휴대 정보단말 장치 및 그 제어방법
JP2018151547A (ja) 発音装置及び発音制御方法
JPWO2022190502A5 (ja)
JP4624879B2 (ja) 楽音情報発生プログラムおよび楽音情報発生装置
JP3547394B2 (ja) スキャット入力式合奏システムを備えたカラオケ装置
JP6305275B2 (ja) 電子楽器における音声アシスト装置及びプログラム
JP2021149043A (ja) 電子楽器、方法及びプログラム
JPH06342288A (ja) 楽音発生装置
WO2019003348A1 (ja) 歌唱音効果生成装置及び方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22932118

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024507354

Country of ref document: JP