WO2015105142A1 - Speech generation device, speech generation method, and program - Google Patents

Speech generation device, speech generation method, and program Download PDF

Info

Publication number
WO2015105142A1
WO2015105142A1 PCT/JP2015/050364 JP2015050364W WO2015105142A1 WO 2015105142 A1 WO2015105142 A1 WO 2015105142A1 JP 2015050364 W JP2015050364 W JP 2015050364W WO 2015105142 A1 WO2015105142 A1 WO 2015105142A1
Authority
WO
WIPO (PCT)
Prior art keywords
code
data
note
character data
array
Prior art date
Application number
PCT/JP2015/050364
Other languages
French (fr)
Japanese (ja)
Inventor
宮浦清
Original Assignee
佐藤勇二
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 佐藤勇二 filed Critical 佐藤勇二
Publication of WO2015105142A1 publication Critical patent/WO2015105142A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/04Transposing; Transcribing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord

Definitions

  • the present invention relates to a sound generation device, a sound generation method, and a program.
  • the present invention relates to a voice generation device, a voice generation method, and a program that generate unique voice information having the meaning of the character information from character information input from a user.
  • Patent Document 1 specific information such as music and images overflowing with originality corresponding to specific information such as a telephone number can be generated.
  • the music corresponding to the telephone number is for identifying who is calling from a mobile phone, and the music phrase constituting the music has a specific meaning. is not.
  • an object of the present invention is to provide a voice generation device, a voice generation method, and a program for generating a music phrase having Japanese linguistic meaning from character data in Japanese.
  • the inventor divides a Japanese character into a vowel and a consonant based on the concept of “Woite 48 sound” by “Awa no Uta” and generates a predetermined pitch based on the vowel and the consonant.
  • the present inventors have obtained the knowledge that a new music language having a concrete Japanese linguistic meaning can be constructed by a music phrase based on the pitch.
  • An array code extracting means for extracting the array code corresponding to the input character data from the array code table storing the array code corresponding to the input character data;
  • Note code extraction means for extracting the note code corresponding to the extracted arrangement code from the note code table storing the note code corresponding to the arrangement code;
  • Voice data generating means for generating voice data from the extracted note code; Is a voice generation device characterized by comprising:
  • the invention of claim 2 The speech generation apparatus according to claim 1, wherein the array code is at least a two-digit number.
  • the invention of claim 3 2.
  • the invention of claim 4 The character data is acquired from one terminal device through a communication network, and the generated voice data is transmitted to the other terminal device through the communication network together with the character data. It is an audio
  • An array code extracting means for extracting the array code corresponding to the input character data from an array code table storing an array code consisting of numbers corresponding to the input character data; First irrational number calculating means for calculating a first irrational number based on the number relating to the extracted sequence code; A second irrational number calculating means for inputting a second irrational number based on a number related to the input number data; A reference number calculating means for calculating a reference number serving as a reference for calculating a circulating number based on the two calculated irrational numbers; A circulation number generating means for calculating the circulating number based on the calculated reference number; Separating means for separating the calculated circulating number into a predetermined number of phrases and a discrimination number for discriminating a scale corresponding to the phrase; A scale extracting means for extracting a scale corresponding to the phrase from a scale table in which the scale corresponding to the discrimination number is stored based on the discrimination number
  • the invention of claim 6 Obtaining input character data; and Extracting the array code corresponding to the input character data from an array code table storing an array code corresponding to the input character data; Extracting a note code corresponding to the extracted sequence code from a note code table storing a note code corresponding to the sequence code; Generating voice data from the extracted note code; Is a speech generation method characterized by including:
  • the invention of claim 7 The voice generation method according to claim 6, wherein the array code is at least a two-digit number.
  • the invention of claim 8 7.
  • the invention of claim 9 The step of acquiring the character data from one terminal device through a communication network, and further transmitting the generated voice data together with the character data to another terminal device through the communication network.
  • the speech generation method according to any one of claims 1 to 8.
  • the invention of claim 10 Obtaining input character data; and Extracting the array code corresponding to the input character data from an array code table storing an array code consisting of numbers corresponding to the input character data; Calculating a first irrational number based on the number related to the extracted sequence code; Numerical data related to the character data is input, and calculating a second irrational number based on the number related to the input numerical data; Calculating a reference number as a reference for calculating a circulating number based on the two calculated irrational numbers; Generating the circulating number based on the calculated reference number; Separating the calculated circulating number into a predetermined number of phrases and a discrimination number for discriminating a scale corresponding to the phrase; Extracting a scale corresponding to the phrase from a scale table in which the scale corresponding to the discrimination number is stored based on the discrimination number; Extracting the note code corresponding to each number from the note code table storing the note code corresponding to each number included in the extracted scale and the phrase
  • the invention of claim 11 A program for causing a computer to execute the speech generation method according to claim 6.
  • a voice generation device it is possible to provide a voice generation device, a voice generation method, and a program for generating a music phrase having Japanese linguistic meaning from character data in Japanese.
  • FIGS. 2 and 3 are views showing a first embodiment of the present invention.
  • the speech generation apparatus 10 according to the present invention that generates speech data from input character data and the receiving-side output device 30 that outputs the speech data mutually communicate with each other by a communication unit 50 that can transmit and receive data.
  • a communicable voice generation system is configured.
  • the audio generation device 10 is not particularly limited as long as it is hardware capable of handling MIDI data, such as a music sequencer, MIDI controller, synthesizer, music workstation, or the like.
  • the receiving-side output device 30 is not particularly limited as long as it is hardware that can handle MIDI data, such as a synthesizer, a music workstation, and a sound source module, in the same manner as the sound generation device 10.
  • the voice generation device 10 includes an information transmitting / receiving unit 11 that performs data communication with the receiving-side output device 30, an array code table 17a that stores array codes corresponding to individual characters included in the input character data, A note code table 17b in which a note code corresponding to the arrangement code is stored, an arrangement code extraction unit 14 for extracting the arrangement code from the arrangement code table 17a, and a note corresponding to the arrangement code extracted from the note code table 17b A note code extracting unit 15 for extracting a chord, a sound data generating unit 16 for generating sound data from the extracted note code, an output unit 18 for outputting the sound data and the character data, and various data including the sound data.
  • save and the control part 12 which controls these are provided (FIG. 2).
  • the receiving-side output device 30 includes an information transmitting / receiving unit 31 that performs data communication with the voice generation device 10, a display unit 34 that displays image data associated with the voice data and the character data, the voice data, and the character data.
  • An output unit 35 for outputting, a storage unit 33 for storing various data including the audio data, and a control unit 32 for controlling them are provided (FIG. 2).
  • the voice generation device 10 and the receiving side output device 30 are connected to each other by a communication means 50 capable of transmitting and receiving data, such as a wired connection with a MIDI cable or the like, or other wireless connection.
  • FIG. 6 is a diagram showing an example of code data indicating an arrangement code and a note code corresponding to Japanese or numbers in the present embodiment. This code data is created according to the logic shown in FIGS. 1 (a) and 1 (b).
  • the array code of this code data includes a vowel string “a, i, u, e, o, a ′, i ′, u ′, e ′, o ′ (“ ′ ”means a sound one octave above). ”And a consonant string“ 0 (zero), k, h, n, m, t, r, s, y, w ”are set, and each of Japanese and numbers from 0 to 9 is the vowel string. And each sequence code described in the consonant string.
  • the five sounds “a, i, u, e, o” are divided into “pentatonic”, which divides one octave into five sounds, and “de, les, mi, so, la, de, ', Les', mi ', seo', la '("'” means the sound one octave above) "Each note code is set to correspond to each arrangement code of the vowel string Has been.
  • the consonant string includes 10 notes corresponding to a piano white key starting from "do, les, mi, fa, so, la, shi, de ', les", mi' ("'" is a sound one octave above.
  • Each note code is set so as to correspond to each arrangement code of the consonant string.
  • the sequence of the array codes can be in the order of vowels, consonants, or consonants, and vowels. In this embodiment, the sequence of vowels and consonants is used.
  • the order of assignment of the note codes follows the order of the arrangement of the arrangement codes.
  • a ten-note note code is assigned in accordance with the order of the arrangement code of “dodo, redo, mid, sodo, rad” and the arrangement code composed of the order of “zero” vowels and consonants.
  • all of Japanese and the numbers 0 to 9 can be represented by two sounds (tuplet of one vowel and one consonant) according to the character conversion logic by the arrangement code and the note code.
  • a unique note code is assigned according to the input Japanese and the numbers 0-9.
  • a specific Japanese or number is input by input means (a keyboard, a mouse, etc., not shown) provided in the voice generation device 10 (s101).
  • the sequence code extraction unit 14 accesses the sequence code table 17a and performs a process of extracting the sequence code corresponding to the input character data in accordance with the character conversion logic based on the sequence code shown in FIG. (S102). Therefore, an array code of “a′k, uw, a′h, er (“ ′ ”means a sound one octave above)” is assigned to the input “Gambare”, and the array code extraction unit 14 The sequence code “a′k, uw, a′h, er (“ ′ ”means a sound one octave above)” is extracted from the sequence code data table 17a.
  • the note code extraction unit 15 accesses the note code table 17b, and the note code corresponding to the extracted arrangement code is determined by the note code shown in FIG. Extraction processing is performed according to the character conversion logic (s103). Therefore, in the extracted sequence code of “a′k, uw, a′h, er”, “do're, mimi ', do'mi, soshi (“' ”means a sound one octave above. ) "Is assigned to the note code table 17b by the note code extraction unit 15, and the note codes" Do're, Mimi ', Do'mi, Soshi ("'” means a sound one octave above). Is extracted.
  • the voice data generation unit 16 performs a process of generating voice data such as MIDI data from the extracted note code (s104). Therefore, MIDI data related to the note code is generated by the voice data generation unit 16 from the extracted “do're, mimi ', do'mi, soshi ("' "means a sound one octave above)". Is done.
  • the generated voice data is transmitted together with the input character data by the information transmitting / receiving unit 11 to the receiving side output device 30 via the communication means 50 (s105).
  • the generated voice data and input character data are received by the information transmitting / receiving unit 31, the voice data is output by the output unit 35, and the character data and these data are displayed by the display unit 34.
  • the image data attached to is displayed (s106).
  • voice data may be output by the output unit 18 of the voice generation device 10, and the character data and image data associated with these data may be displayed by a display unit (not shown) (s107).
  • the “gambare” speech data output from the output unit 35 or the output unit 18 is converted into a unique speech phrase “Dore, Mimi” converted according to the character conversion logic based on the arrangement code and note code shown in FIG. , Do'mi, Soshi ".
  • the speech phrase “Do're, Mimi ', Do'mi, Soshi” is an original and new music language having a specific Japanese linguistic meaning of “Gambare”.
  • FIGS. 4 and 5 are views showing a second embodiment of the present invention.
  • the device 30 constitutes an audio generation system that can communicate with each other by the communication means 51 that can transmit and receive data.
  • the transmission-side terminal device 20 is not particularly limited as long as it can handle MIDI data such as a personal computer, a smartphone, a tablet terminal, a mobile phone, and a game machine.
  • the sound generation device 40 is preferably a server device that can handle MIDI data.
  • the transmission-side terminal device 20 includes an information transmission / reception unit 21 that performs data communication with the voice generation device 40 or the reception-side output device 30, an input unit 25 such as a keyboard for inputting Japanese or numbers, an input screen, and the like.
  • a display unit 24 for displaying, a storage unit 23 for storing various data including the input data, and a control unit 22 for controlling them are provided (FIG. 4).
  • the voice generation device 40 stores an information transmission / reception unit 41 that performs data communication with the transmission-side terminal device 20 or the reception-side output device 30, and an array code corresponding to each character included in the input character data.
  • the arrangement code table 47a, the note code table 47b storing the note codes corresponding to the arrangement code, the arrangement code extraction unit 44 for extracting the arrangement code from the arrangement code table 47a, and the extraction from the note code table 47b.
  • a note code extraction unit 45 that extracts a note code corresponding to the arranged code
  • a voice data generation unit 46 that generates voice data from the extracted note code
  • a storage unit 43 that stores various data including the voice data
  • the control part 42 which controls these is provided (FIG. 4).
  • the voice generation device 40, the transmission-side terminal device 20, and the reception-side output device 30 are connected to each other by a communication means 51 that can transmit and receive data, such as the Internet.
  • FIG. 5 a flowchart of voice generation according to the present embodiment will be described using the character conversion logic based on the arrangement code and the note code shown in FIG.
  • the transmitting terminal device 20 accesses the voice generation device (server) 40 via the communication means 51 and gives an instruction to download application software related to voice generation.
  • the voice generation device 40 When accessed from the transmission-side terminal device 20, the voice generation device 40 transmits application software related to the voice generation to the transmission-side terminal device 20 via the communication unit 51.
  • the transmitting terminal device 20 performs a predetermined authentication procedure and the like, and the application relating to voice generation becomes available.
  • the receiving-side output device 30 accesses the voice generation device (server) 40 via the communication unit 51 and gives an instruction to download application software related to voice generation.
  • the voice generation device 40 When the voice generation device 40 is accessed from the reception-side output device 30, the voice generation device 40 transmits the application software related to the voice generation to the reception-side output device 30 via the communication unit 51.
  • the receiving-side output device 30 performs a predetermined authentication procedure and the like, and an application relating to voice generation becomes available.
  • the transmission side terminal device 20 executes the application and transmits an instruction to acquire an input screen for generating voice to the voice generation device 40 via the communication unit 51 (s201).
  • the voice generation device 40 When receiving the instruction from the transmission side terminal device 20, the voice generation device 40 transmits information on the input screen to the transmission side terminal device 20 via the communication unit 51 (s202).
  • the transmitting terminal device 20 inputs specific Japanese or numbers (for example, “Ganbare”) by the input means 25 on the input screen related to the acquired input screen information. After the input, the character data is transmitted to the voice generation device 40 via the communication means 51 (s203).
  • the array code extraction unit 44 accesses the array code table 47a, and converts the array code corresponding to the input character data into the character according to the array code shown in FIG. Extraction processing is performed according to the conversion logic (s204). Therefore, an array code of “a′k, uw, a′h, er (“ ′ ”means a sound one octave above)” is assigned to the inputted “Ganbare”, and the array code extraction unit 44 The sequence code “a′k, uw, a′h, er (“ ′ ”means a sound one octave higher)” is extracted from the sequence code table 47a.
  • the note code extraction unit 45 accesses the note code table 47b, and uses the note code shown in FIG. 6 as the note code corresponding to the extracted arrangement code. Extraction processing is performed according to the character conversion logic (s205). Therefore, in the extracted sequence code of “a′k, uw, a′h, er”, “do're, mimi ', do'mi, soshi (“' ”means a sound one octave above. ) "Is assigned, and the note code extraction unit 45 extracts the note code from the note code table 47b.
  • the voice data generation unit 46 performs a process of generating voice data such as MIDI data from the extracted note code (s206). Therefore, MIDI data related to the note code is generated by the voice data generation unit 46 from the extracted “do're, mimi ', do'mi, soshi ("' "means a sound one octave above)". Is done.
  • the generated voice data is transmitted together with the inputted character data by the information transmitting / receiving unit 41 to the receiving side output device 30 via the communication means 51 (s207).
  • the generated voice data and input character data are received by the information transmitting / receiving unit 31, the voice data is output by the output unit 35, and the character data and these data are displayed by the display unit 34. Is displayed (s208).
  • the voice data of “Ganbare” output from the output unit 35 is converted into a unique voice phrase “Do're, Mimi ', Do'Mimi converted according to the character conversion logic based on the arrangement code and note code shown in FIG. , Soshi ".
  • the speech phrase “Do're, Mimi ', Do'mi, Soshi” is an original and new music language having a specific Japanese linguistic meaning of “Gambare”.
  • the sequence code may be the sequence code shown in FIG.
  • the code data shown in FIG. 7 is also created according to the logic shown in FIGS. 1 (a) and 1 (b).
  • the Japanese character “Aiueo” has “10, 20, 30, 40, which is composed of the vowels and consonants in the order described in the first embodiment.
  • a sequence code of “50” is assigned.
  • the order of the arrangement of the arrangement codes can be any of a row number, a column number, a column number, and a row number.
  • the sequence code has been described in the first embodiment.
  • the numbers in the horizontal row and the numbers in the vertical column are used.
  • the number of digits in each column may be a plurality of digits instead of one.
  • the rows include “do, les, mi, so, la, de ', les', mi', so ', la' (" “ “” Means a sound one octave above) ""
  • Each note code is set to correspond to each array code in the row, and in the column, "do, les, mi, fa, so, "La”, “si”, “do”, “re”, and “mi” ("" means a sound one octave above) "can be set so that each note code corresponds to each array code in the column (non- (Illustrated).
  • FIGS. 8 to 10 are views showing a fourth embodiment of the present invention.
  • the voice generation device 60 of this embodiment is a voice generation device that generates voice data from input character data by using a character conversion logic different from those of the first to third embodiments described above.
  • the voice generation device 60 includes an information transmission / reception unit 60 that performs data communication with a transmission-side terminal device 20 (not shown) or a reception-side output device 30 (not shown).
  • the voice generation device 60 includes an array code table 67a in which array codes composed of numbers corresponding to input character data are stored.
  • the speech generation device 60 includes an array code extraction unit 64 that extracts the array code corresponding to the input character data from the array code table 67a.
  • the sequence code shown in FIG. 7 described in the third embodiment is used as the sequence code. That is, the input character is assigned a numerical arrangement code composed of the order of vowels and consonants described in the first embodiment.
  • the voice generation device 60 includes a circulation number management means 68 for managing a circulation number described later.
  • the circulation number management means 68 has the following configuration.
  • the circulation number management means 68 includes a second irrational number calculation unit 68b that receives numerical data related to the character data and calculates an irrational number based on the number related to the input numerical data. Specifically, the second irrational number is calculated by dividing the number related to the number data by the golden number ⁇ .
  • the numeric data related to the character data can be numeric data related to the person such as the birthday of the person, for example, when the character data is the name of the person.
  • the golden number ⁇ is used to calculate an irrational number.
  • a number other than the golden number ⁇ can be used as long as a circulating number described later can be calculated.
  • the circulation number management means 68 includes a reference number calculation unit 68c that calculates a reference number serving as a reference for calculating the number to circulate based on the two calculated irrational numbers. Specifically, the reference number is calculated by multiplying the first irrational number calculated by the first irrational number calculation unit 68a and the second irrational number calculated by the second irrational number calculation unit 68b. .
  • the circulation number management means 68 includes a circulation number generation unit 68d that generates a circulation number based on the calculated reference number. Specifically, the number to circulate is calculated by dividing the reference number by the number of generated circulation numbers having a predetermined number of digits.
  • the circulation number generation number is an 18-digit number “360360360360360”.
  • various circulation number generation numbers can be used.
  • the circulating number is the circulating node of the circulating decimal number.
  • the circulation number management means 68 includes a separation unit 68e that separates the calculated circulating number into a predetermined number of phrases and a discrimination number for discriminating a scale corresponding to the phrase (hereinafter referred to as “scale”). I have.
  • the discriminant number is set to “0” with one digit at the head, and the remaining “123456” is set to three of “12”, “34”, and “56”.
  • the voice generation device 60 includes a scale table 67c in which the scale corresponding to the discrimination number is stored based on the discrimination number.
  • scale 1, scale 3, and scale 1 are assigned to the three phrases “12”, “34”, and “56”, respectively, where the number of discrimination is “0”.
  • the combinations of scales 1, 2, and 3 shown in the figure are combinations based on “Tonic”, “Subdominant”, and “Dominant” of harmony.
  • the voice generation device 60 includes a scale extraction unit 69 that extracts the scale corresponding to the phrase from the scale table 67c.
  • the voice generation device 60 includes a note code table 67b in which note codes corresponding to each number included in the extracted scale and the phrase are stored.
  • FIG. 1 An example of the note code stored is shown in FIG.
  • the three phrases “12”, “34”, and “56” correspond to the note code of scale 1, the note code of scale 3, and the note code of scale 1, respectively.
  • the voice generation device 60 includes a note code extraction unit 65 that extracts the note code of the scale corresponding to the phrase from the note code table 67b.
  • phrase code “12” is assigned the note code “scale 2, do 3 (numbers indicate the pitch)”.
  • the voice generation device 60 includes a voice data generation unit 66 that generates voice data from the extracted note code.
  • the voice generation device 60 includes a storage unit 63 that stores various data including the voice data, and a control unit 62 that controls information processing by each unit described above.
  • FIG. 10 is a flowchart of voice generation according to the present embodiment, using the character conversion logic based on the arrangement code shown in FIG. 7 and the scale and note code shown in FIG.
  • a specific Japanese or number is input by input means (a keyboard, a mouse, etc., not shown) provided in the voice generation device 10 (s301).
  • the array code extraction unit 64 accesses the array code table 67a and extracts an array code corresponding to the input character data according to the character conversion logic based on the array code shown in FIG. Therefore, an array code of “24183016215827” is assigned to the inputted “Miyaura Yoshiyoshi”, and the array code extraction unit 64 extracts the array code from the array code table 67a.
  • the voice generation device 10 On the display means (liquid crystal display, touch panel, etc., not shown) of the voice generation device 10, there is a screen that prompts input of numeric data related to the character data, in addition to the screen that prompts input of the character data. Is displayed. Numeric data such as birthdays can be entered on the input screen. Therefore, in this flowchart, “19530829” is input as the birthday.
  • the first irrational number calculation unit 68a performs a process of calculating the first irrational number based on the number related to the array code (s303).
  • 14 digits of “24183016215827” are divided by the above-mentioned 14 digits of the head of the golden number ⁇ “1.61803339874498”, and an irrational number “14959425971871.82” up to two decimal places is calculated.
  • the second irrational number calculation unit 68b performs a process of calculating the second irrational number based on the number related to the input numerical data. Perform (s303).
  • the reference number calculation unit 68c performs a process of calculating a reference number serving as a reference for calculating a circulating number based on the two calculated irrational numbers (s304). .
  • the circulation number generation unit 68d performs a process of generating a circulating number based on the calculated reference number (s305).
  • decimal number is calculated by dividing the reference number “18040408039866887664839.2942” by the circulation number generation number “360360360360360360” consisting of 18 digits.
  • the calculated decimal number includes an 18-digit circular clause of “6383836322929373715” after the decimal point. This circular node is generated as a circulating number.
  • the reference number matches the number of digits of the circulation node, it is good to use the reference number having a predetermined number of digits corresponding to the number of cycles to be calculated.
  • the separation unit 68e When the circulating number is generated, the separation unit 68e performs a process of separating the circulating number into a predetermined number of phrases and a determination number for determining a scale corresponding to the phrase (s306). .
  • the discriminant number is set to “6” with one digit at the head, and the remaining “38386322229673715” is separated into three phrases “38386”, “32229296”, and “73715”.
  • the scale extraction unit 69 performs a process of extracting a scale corresponding to the separated phrase from the scale table 67c based on the discrimination number “6” (s307).
  • Scale 1 is assigned to the phrase “38386” from the scale shown in FIG.
  • the note code extraction unit 65 When the scale is extracted, the note code extraction unit 65 performs a process of extracting the note code corresponding to each number of the phrase from the note code table 67b (s308).
  • the voice data generation unit 66 When the note code is extracted, the voice data generation unit 66 performs a process of generating voice data such as MIDI data from the extracted note code (s309). Therefore, “Le3, De4, Les3, De4, La3 (numbers indicate the pitch)” of the extracted scale 1 and “Mi3, Les3, Les3, 4, les 3, fa 4, la 3 (numbers indicate the pitch of the sound) ", scale 1" si 3, les 3, shi 3, seo 2, seo 3 (the numbers indicate the pitch of the sound) " , MIDI data related to the note code is generated by the voice data generation unit 66.
  • the generated voice data is output from the output unit 70 of the voice generation device 60.
  • the audio data is composed of 17 sounds of 5 sounds, 7 sounds, and 5 sounds. From the combination based on the above-mentioned harmony “tonic”, “subdominant”, and “dominant”, Japanese haiku and tanka It has become a unique phrase.
  • the output audio data “Le 3, Do 4, Le 3, Do 4, La 3 (numbers indicate the pitch)”, “Mi 3, Le 3, Les 3, Fa 4, Fa 3, , Fa 4, La 3 (numbers indicate the pitch of the sound) ",” Shi 3, Les 3, Shi 3, Seo 2, Seo 3 (the numbers indicate the pitch of the sound) " A music language with a new and unique rhythm with the linguistic meaning of a word (for example, the meaning of being a particular individual).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Telephone Function (AREA)

Abstract

The purpose of this invention is to provide a speech generation device, a speech generation method, and a program whereby, from text data in Japanese, a musical phrase that carries the linguistic meaning of said Japanese is generated. This speech generation device is characterized by having the following: a sequence-code extraction means that extracts, from a sequence-code table that stores sequence codes corresponding to inputted text data, the sequence code corresponding to given inputted text data; a musical-note-code extraction means that extracts, from a musical-note-code table that stores musical-note codes corresponding to sequence codes, the musical-note codes corresponding to the aforementioned extracted sequence code; and a speech-data generation means that generates speech data from the extracted musical-note codes.

Description

音声生成装置、音声生成方法及びプログラムVOICE GENERATION DEVICE, VOICE GENERATION METHOD, AND PROGRAM
 この発明は、音声生成装置、音声生成方法及びプログラムに関する。特に、ユーザから入力された文字情報から当該文字情報の意味を有する独自の音声情報を生成する音声生成装置、音声生成方法及びプログラムに関する。 The present invention relates to a sound generation device, a sound generation method, and a program. In particular, the present invention relates to a voice generation device, a voice generation method, and a program that generate unique voice information having the meaning of the character information from character information input from a user.
 今日の情報通信社会において、入力した文字情報を所定の言語体系で音声出力する音声変換方法や、特定の情報に対して、当該特定の情報であると識別することができる固有の表現生成方法等が種々提案されている。 In today's information and communication society, a voice conversion method that outputs input character information in a predetermined language system, a unique expression generation method that can identify specific information as specific information, etc. Various proposals have been made.
国際公開第WO2003/081572号International Publication No. WO2003 / 081572
 特許文献1によれば、電話番号等の特定の情報に対し、これに対応するオリジナリティに溢れた音楽や画像などの固有の表現を生成することができるとされている。 According to Patent Document 1, specific information such as music and images overflowing with originality corresponding to specific information such as a telephone number can be generated.
 ここで、上記電話番号に対応する音楽は、携帯電話であれば誰からの発信であるかを識別するためのものであり、当該音楽を構成する音楽フレーズが特定の意味を有しているものではない。 Here, the music corresponding to the telephone number is for identifying who is calling from a mobile phone, and the music phrase constituting the music has a specific meaning. is not.
 したがって、上記の他、入力した文字情報を所定の言語体系で音声出力する従来の音声変換方法とは異なる手法で、入力した文字情報の言語的意味を持つ表現生成方法の提案が望まれている。 Therefore, in addition to the above, it is desired to propose an expression generation method having the linguistic meaning of input character information by a method different from the conventional speech conversion method of outputting input character information in a predetermined language system. .
 そこで、この発明は、日本語による文字データから、当該日本語の言語的意味を持った音楽フレーズを生成する音声生成装置、音声生成方法及びプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a voice generation device, a voice generation method, and a program for generating a music phrase having Japanese linguistic meaning from character data in Japanese.
 日本語は「あいうえお50音表」に代表される、「a、i、u、e、o」の5音の母音と、「k、s、t、n、h、m、y、r、w」の9音の子音の組み合せから作られた言語で、世界の中で母音と子音をここまで明確に構造化して生成された言語は日本語をおいてほかには存在していない。 In Japanese, the five vowels “a, i, u, e, o” represented by the “Aiueo 50 syllabary” and “k, s, t, n, h, m, y, r, w” Is a language created from a combination of 9 consonants, and no other language in the world has been created by clearly structuring vowels and consonants.
 この「あいうえお50音表」の基になったと考えられる縄文期の言葉配列、および言霊(言葉各音の持つ日本文化的意味であり精神)の概念に、古文書「ホツマツタエ」に記された「アワのうた」(図1(a))による「ヲシテ48音」(図1b))が存在する。 The Jomon period word arrangement that is thought to be the basis of this “Aiueo 50-song table” and the concept of the word spirit (the Japanese cultural meaning and spirit of each sound of words) are described in the ancient document “Hotsumatsutae”. There is "Waite 48 sound" (Fig. 1b)) according to "Uta no Uta" (Fig. 1 (a)).
 この「ヲシテ48音」を生んだ古文書「ホツマツタエ」の考え方は、母音と子音にそれぞれ自然的および精神的な概念を当てはめたもので、その母音と子音の組み合せから生まれる一音一音の言葉には、その概念の組み合せから生じる意味が存在するとされている。 The idea of the ancient document “Hotsumatsutae” that gave birth to this “Woshite 48 sound” is that each vowel and consonant has a natural and spiritual concept applied to it. Has a meaning resulting from the combination of the concepts.
 発明者は、上記「アワのうた」による「ヲシテ48音」の考え方をもとに、日本語の文字を母音と子音とに分け、当該母音と子音をもとに所定の音程を生成させることで、その音程による音楽フレーズによって具体的な日本語の言語的意味を持った新しい音楽言語を構築できるとの知見を得、本発明に至った。 The inventor divides a Japanese character into a vowel and a consonant based on the concept of “Woite 48 sound” by “Awa no Uta” and generates a predetermined pitch based on the vowel and the consonant. Thus, the present inventors have obtained the knowledge that a new music language having a concrete Japanese linguistic meaning can be constructed by a music phrase based on the pitch.
 即ち、上記課題を解決するため、以下の発明を提案する。 That is, in order to solve the above problems, the following invention is proposed.
 請求項1の発明は、
 入力された文字データに対応する配列コードが記憶されている配列コードテーブルから、前記入力された文字データに対応する前記配列コードを抽出する配列コード抽出手段と、
 前記配列コードに対応する音符コードが記憶されている音符コードテーブルから、前記抽出された配列コードに対応する前記音符コードを抽出する音符コード抽出手段と、
 前記抽出された音符コードから音声データを生成する音声データ生成手段と、
 を備えることを特徴とする音声生成装置である。
The invention of claim 1
An array code extracting means for extracting the array code corresponding to the input character data from the array code table storing the array code corresponding to the input character data;
Note code extraction means for extracting the note code corresponding to the extracted arrangement code from the note code table storing the note code corresponding to the arrangement code;
Voice data generating means for generating voice data from the extracted note code;
Is a voice generation device characterized by comprising:
 請求項2の発明は、
  前記配列コードは、少なくとも2桁の数字であることを特徴とする請求項1記載の音声生成装置である。
The invention of claim 2
The speech generation apparatus according to claim 1, wherein the array code is at least a two-digit number.
  請求項3の発明は、
  前記配列コードは、母音並びに子音及び数字の組み合わせであることを特徴とする請求項1記載の音声生成装置である。
The invention of claim 3
2. The speech generation apparatus according to claim 1, wherein the array code is a combination of a vowel, a consonant, and a number.
 請求項4の発明は、
  前記文字データを、通信ネットワークを通じて一の端末機器から取得し、前記生成した音声データを前記文字データと共に、前記通信ネットワークを通じて他の端末機器に送信する
  ことを特徴とする請求項1乃至3いずれか一項記載の音声生成装置である。
The invention of claim 4
The character data is acquired from one terminal device through a communication network, and the generated voice data is transmitted to the other terminal device through the communication network together with the character data. It is an audio | voice production | generation apparatus of one term.
 請求項5の発明は、
 入力された文字データに対応する数字よりなる配列コードが記憶されている配列コードテーブルから、前記入力された文字データに対応する前記配列コードを抽出する配列コード抽出手段と、
 前記抽出された配列コードに係る数字に基づいて、第一の無理数を算出する第一の無理数算出手段と、
 前記文字データに関連する数字データが入力され、当該入力された数字データに係る数字に基づいて第二の無理数を算出する第二の無理数算出手段と、
 前記算出された二つの無理数に基づいて、循環する数字を算出する基準となる基準数を算出する基準数算出手段と、
 前記算出された基準数に基づいて、前記循環する数字を算出する循環数生成手段と、
 前記算出された循環する数字を、所定数のフレーズと、当該フレーズに対応するスケールを判別するための判別数とに分離する分離手段と、
 前記判別数に基づいて、前記判別数に対応する前記スケールが記憶されているスケールテーブルから、前記フレーズに対応するスケールを抽出するスケール抽出手段と、
 前記抽出されたスケール及び前記フレーズに含まれている各数字に対応する音符コードが記憶されている音符コードテーブルから、前記各数字に対応する前記音符コードを抽出する音符コード抽出手段と、
 前記抽出された音符コードから音声データを生成する音声データ生成手段と、
  を備えることを特徴とする音声生成装置である。
The invention of claim 5
An array code extracting means for extracting the array code corresponding to the input character data from an array code table storing an array code consisting of numbers corresponding to the input character data;
First irrational number calculating means for calculating a first irrational number based on the number relating to the extracted sequence code;
A second irrational number calculating means for inputting a second irrational number based on a number related to the input number data;
A reference number calculating means for calculating a reference number serving as a reference for calculating a circulating number based on the two calculated irrational numbers;
A circulation number generating means for calculating the circulating number based on the calculated reference number;
Separating means for separating the calculated circulating number into a predetermined number of phrases and a discrimination number for discriminating a scale corresponding to the phrase;
A scale extracting means for extracting a scale corresponding to the phrase from a scale table in which the scale corresponding to the discrimination number is stored based on the discrimination number;
Note code extraction means for extracting the note code corresponding to each number from the note code table storing the note code corresponding to each number included in the extracted scale and the phrase;
Voice data generating means for generating voice data from the extracted note code;
Is a voice generation device characterized by comprising:
  請求項6の発明は、
  入力された文字データを取得するステップと、
  前記入力された文字データに対応する配列コードが記憶されている配列コードテーブルから、前記入力された文字データに対応する前記配列コードを抽出するステップと、
  前記配列コードに対応する音符コードが記憶されている音符コードテーブルから、前記抽出された配列コードに対応する音符コードを抽出するステップと、
  前記抽出された音符コードから音声データを生成するするステップと、
  を含むことを特徴とする音声生成方法である。
The invention of claim 6
Obtaining input character data; and
Extracting the array code corresponding to the input character data from an array code table storing an array code corresponding to the input character data;
Extracting a note code corresponding to the extracted sequence code from a note code table storing a note code corresponding to the sequence code;
Generating voice data from the extracted note code;
Is a speech generation method characterized by including:
 請求項7の発明は、
  前記配列コードは、少なくとも2桁の数字であることを特徴とする請求項6記載の音声生成方法である。
The invention of claim 7
The voice generation method according to claim 6, wherein the array code is at least a two-digit number.
  請求項8の発明は、
  前記配列コードは、母音並びに子音及び数字の組み合わせであることを特徴とする請求項6記載の音声生成方法である。
The invention of claim 8
7. The speech generation method according to claim 6, wherein the array code is a combination of a vowel, a consonant, and a number.
 請求項9の発明は、
  前記文字データを、通信ネットワークを通じて一の端末機器から取得し、前記生成した音声データを前記文字データと共に、前記通信ネットワークを通じて他の端末機器に送信するステップを更に備える
  ことを特徴とする請求項6乃至8いずれか一項記載の音声生成方法である。
The invention of claim 9
The step of acquiring the character data from one terminal device through a communication network, and further transmitting the generated voice data together with the character data to another terminal device through the communication network. The speech generation method according to any one of claims 1 to 8.
 請求項10の発明は、
 入力された文字データを取得するステップと、
 入力された文字データに対応する数字よりなる配列コードが記憶されている配列コードテーブルから、前記入力された文字データに対応する前記配列コードを抽出するステップと、
 前記抽出された配列コードに係る数字に基づいて、第一の無理数を算出するステップと、
 前記文字データに関連する数字データが入力され、当該入力された数字データに係る数字に基づいて第二の無理数を算出するステップと、
 前記算出された二つの無理数に基づいて、循環する数字を算出する基準となる基準数を算出するステップと、
 前記算出された基準数に基づいて、前記循環する数字を生成するステップと、
 前記算出された循環する数字を、所定数のフレーズと、当該フレーズに対応するスケールを判別するための判別数とに分離するステップと、
 前記判別数に基づいて、前記判別数に対応する前記スケールが記憶されているスケールテーブルから、前記フレーズに対応するスケールを抽出するステップと、
 前記抽出されたスケール及び前記フレーズに含まれている各数字に対応する音符コードが記憶されている音符コードテーブルから、前記各数字に対応する前記音符コードを抽出するステップと、
前記抽出された音符コードから音声データを生成するステップと、
 を含むことを特徴とする音声生成方法である。
The invention of claim 10
Obtaining input character data; and
Extracting the array code corresponding to the input character data from an array code table storing an array code consisting of numbers corresponding to the input character data;
Calculating a first irrational number based on the number related to the extracted sequence code;
Numerical data related to the character data is input, and calculating a second irrational number based on the number related to the input numerical data;
Calculating a reference number as a reference for calculating a circulating number based on the two calculated irrational numbers;
Generating the circulating number based on the calculated reference number;
Separating the calculated circulating number into a predetermined number of phrases and a discrimination number for discriminating a scale corresponding to the phrase;
Extracting a scale corresponding to the phrase from a scale table in which the scale corresponding to the discrimination number is stored based on the discrimination number;
Extracting the note code corresponding to each number from the note code table storing the note code corresponding to each number included in the extracted scale and the phrase;
Generating voice data from the extracted note code;
Is a speech generation method characterized by including:
 請求項11の発明は、
 請求項6乃至10の何れかに記載した音声生成方法をコンピュータに実行させるためのプログラムである。
The invention of claim 11
A program for causing a computer to execute the speech generation method according to claim 6.
 この発明によれば、日本語による文字データから、当該日本語の言語的意味を持った音楽フレーズを生成する音声生成装置、音声生成方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide a voice generation device, a voice generation method, and a program for generating a music phrase having Japanese linguistic meaning from character data in Japanese.
(a)本発明の基礎となる「アワのうた」を表した図である。(b)本発明の基礎となる「ヲシテ48音」を表した図である(A) It is the figure showing the "Awa no Uta" used as the foundation of this invention. (B) It is the figure showing "Woshite 48 sound" used as the foundation of this invention. 本発明の音声生成装置を含むシステムの一例を表した図である(第一の実施形態)。It is a figure showing an example of the system containing the audio | voice production | generation apparatus of this invention (1st embodiment). 図2図示のシステムによる音声生成方法のフローチャートを表す図である。It is a figure showing the flowchart of the audio | voice production | generation method by the system shown in FIG. 本発明の音声生成装置を含むシステムの他の例を表した図である(第二の実施形態)。It is a figure showing the other example of the system containing the audio | voice production | generation apparatus of this invention (2nd embodiment). 図4図示のシステムによる音声生成方法のフローチャートを表す図である。It is a figure showing the flowchart of the audio | voice production | generation method by the system shown in FIG. 本発明における日本語の文字に対応する配列コードと音符コードの一例を表した図である。It is a figure showing an example of the arrangement | sequence code | cord | chord and note code corresponding to the Japanese character in this invention. 本発明の第三の実施形態における日本語の文字に対応する他の配列コードを表した図である。It is a figure showing the other sequence code corresponding to the Japanese character in 3rd embodiment of this invention. 本発明の第四の実施形態を表した図である。It is a figure showing 4th embodiment of this invention. (a)第四の実施形態におけるスケールの一例を表す図、(b)同じく音符コードの一例を表した図である。(A) A figure showing an example of a scale in a 4th embodiment, (b) A figure showing an example of a note code similarly. 第四の実施形態による音声生成方法のフローチャートを表す図である。It is a figure showing the flowchart of the audio | voice production | generation method by 4th embodiment.
 以下、添付図面を参照して本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
1.第一の実施形態
 図2及び図3は、本発明の第一の実施形態を表す図である。この実施形態では、入力された文字データから音声データを生成する本発明に係る音声生成装置10及び当該音声データを出力する受信側出力機器30とが、データの送受信を行える通信手段50によって相互に通信可能な音声生成システムを構成している。
1. First Embodiment FIGS. 2 and 3 are views showing a first embodiment of the present invention. In this embodiment, the speech generation apparatus 10 according to the present invention that generates speech data from input character data and the receiving-side output device 30 that outputs the speech data mutually communicate with each other by a communication unit 50 that can transmit and receive data. A communicable voice generation system is configured.
 音声生成装置10は、ミュージックシーケンサー、MIDIコントローラ、シンセサイザー、ミュージックワークステーションなど、MIDIデータを扱えるハードウェアであれば特に限定はない。 The audio generation device 10 is not particularly limited as long as it is hardware capable of handling MIDI data, such as a music sequencer, MIDI controller, synthesizer, music workstation, or the like.
 受信側出力機器30は、シンセサイザー、ミュージックワークステーション、音源モジュールなど、音声生成装置10と同様にMIDIデータを扱えるハードウェアであれば特に限定はない。 The receiving-side output device 30 is not particularly limited as long as it is hardware that can handle MIDI data, such as a synthesizer, a music workstation, and a sound source module, in the same manner as the sound generation device 10.
 音声生成装置10は、受信側出力機器30との間でデータ通信を行う情報送受信部11、入力された文字データに含まれる個々の文字に対応する配列コードが記憶されている配列コードテーブル17a、前記配列コードに対応する音符コードが記憶されている音符コードテーブル17b、配列コードテーブル17aから前記配列コードを抽出する配列コード抽出部14、音符コードテーブル17bから前記抽出された配列コードに対応する音符コードを抽出する音符コード抽出部15、前記抽出された音符コードから音声データを生成する音声データ生成部16、前記音声データ及び前記文字データを出力する出力部18、前記音声データを含む各種データを保存する記憶部13及びこれらを制御する制御部12を備えている(図2)。 The voice generation device 10 includes an information transmitting / receiving unit 11 that performs data communication with the receiving-side output device 30, an array code table 17a that stores array codes corresponding to individual characters included in the input character data, A note code table 17b in which a note code corresponding to the arrangement code is stored, an arrangement code extraction unit 14 for extracting the arrangement code from the arrangement code table 17a, and a note corresponding to the arrangement code extracted from the note code table 17b A note code extracting unit 15 for extracting a chord, a sound data generating unit 16 for generating sound data from the extracted note code, an output unit 18 for outputting the sound data and the character data, and various data including the sound data. The memory | storage part 13 to preserve | save and the control part 12 which controls these are provided (FIG. 2).
 受信側出力機器30は、音声生成装置10との間でデータ通信を行う情報送受信部31、前記音声データ及び前記文字データに伴う画像データを表示する表示部34、前記音声データ及び前記文字データを出力する出力部35、前記音声データを含む各種データを保存する記憶部33及びこれらを制御する制御部32を備えている(図2)。 The receiving-side output device 30 includes an information transmitting / receiving unit 31 that performs data communication with the voice generation device 10, a display unit 34 that displays image data associated with the voice data and the character data, the voice data, and the character data. An output unit 35 for outputting, a storage unit 33 for storing various data including the audio data, and a control unit 32 for controlling them are provided (FIG. 2).
 音声生成装置10と受信側出力機器30とは、MIDIケーブル等での有線接続やその他無線接続等、データの送受信を行える通信手段50によって相互に通信可能に接続されている。 The voice generation device 10 and the receiving side output device 30 are connected to each other by a communication means 50 capable of transmitting and receiving data, such as a wired connection with a MIDI cable or the like, or other wireless connection.
 図6は、本実施形態における日本語又は数字に対応する配列コードと音符コードを示すコードデータの一例を表した図である。このコードデータは、図1(a)、(b)に表されているロジックに従って作成されたものである。 FIG. 6 is a diagram showing an example of code data indicating an arrangement code and a note code corresponding to Japanese or numbers in the present embodiment. This code data is created according to the logic shown in FIGS. 1 (a) and 1 (b).
 このコードデータの配列コードには、母音列「a、i、u、e、o、a’、i’、u’、e’、o’(「'」は1オクターブ上の音を意味する)」と子音列「0(ゼロ)、k、h、n、m、t、r、s、y、w」が設定されており、日本語及び0~9までの数字のそれぞれが、前記母音列及び子音列に記載の各配列コードによって定められる。 The array code of this code data includes a vowel string “a, i, u, e, o, a ′, i ′, u ′, e ′, o ′ (“ ′ ”means a sound one octave above). ”And a consonant string“ 0 (zero), k, h, n, m, t, r, s, y, w ”are set, and each of Japanese and numbers from 0 to 9 is the vowel string. And each sequence code described in the consonant string.
 次に、前記母音列には、「a、i、u、e、o」の5音が1オクターブを5音に分ける「ペンタトニック」の設定から、「ド、レ、ミ、ソ、ラ、ド’、レ’、ミ’、ソ’、ラ’ (「'」は1オクターブ上の音を意味する)」ぞれぞれの音符コードが、前記母音列の各配列コードに対応するように設定されている。 Next, in the vowel string, the five sounds “a, i, u, e, o” are divided into “pentatonic”, which divides one octave into five sounds, and “de, les, mi, so, la, de, ', Les', mi ', seo', la '("'" means the sound one octave above) "Each note code is set to correspond to each arrangement code of the vowel string Has been.
 また、前記子音列には、ドから始まるピアノ白鍵にあたる10音「ド、レ、ミ、ファ、ソ、ラ、シ、ド’、レ’、ミ’ (「'」は1オクターブ上の音を意味する)」それぞれの音符コードが、前記子音列の各配列コードに対応するように設定されている。 Also, the consonant string includes 10 notes corresponding to a piano white key starting from "do, les, mi, fa, so, la, shi, de ', les", mi' ("'" is a sound one octave above. Each note code is set so as to correspond to each arrangement code of the consonant string.
 そして、前記母音列及び子音列の各配列コードに、対応する前記音符コードが割り当てられることによって、日本語及び0~9の数字にはそれぞれ固有の配列コード及び音符コードが割り当てられることになる。 Then, by assigning the corresponding note code to each arrangement code of the vowel string and consonant string, a unique arrangement code and note code are assigned to Japanese and the numbers 0 to 9, respectively.
 前記配列コードの配列の順番は、母音、子音、又は子音、母音のどちらの順番でも可能であるが、本実施形態では、母音、子音の順番としている。 The sequence of the array codes can be in the order of vowels, consonants, or consonants, and vowels. In this embodiment, the sequence of vowels and consonants is used.
  また、前記音符コードの割り当ての順番は、前記配列コードの配列の順番に従うこととしている。 Also, the order of assignment of the note codes follows the order of the arrangement of the arrangement codes.
  図6の配列コード及び音符コードによる文字変換ロジックに従うと、例えば、日本語の「あいうえお」という文字には、「a0(ゼロ)、i0(ゼロ)、u0(ゼロ)、e0(ゼロ)、o0(ゼロ)」の母音、子音の順番からなる配列コードと、「ドド、レド、ミド、ソド、ラド」の前記配列コードの順番に従った10音の音符コードが割り当てられる。 According to the character conversion logic based on the arrangement code and the note code in FIG. 6, for example, “a0 (zero), i0 (zero), u0 (zero), e0 (zero), and o0” A ten-note note code is assigned in accordance with the order of the arrangement code of “dodo, redo, mid, sodo, rad” and the arrangement code composed of the order of “zero” vowels and consonants.
  このように、日本語及び0~9の数字の全ては、前記配列コード及び音符コードによる文字変換ロジックに従って2音(母音1音と子音1音の連符)で表すことができる。すなわち、入力する日本語及び0~9の数字によって、固有の音符コードが割り当てられることになる。 Thus, all of Japanese and the numbers 0 to 9 can be represented by two sounds (tuplet of one vowel and one consonant) according to the character conversion logic by the arrangement code and the note code. In other words, a unique note code is assigned according to the input Japanese and the numbers 0-9.
  前記配列コード及び音符コードによる文字変換ロジックを利用して、本実施形態の音声生成のフローチャートを、図3を参照して説明する。 A flow chart of voice generation according to the present embodiment using the character conversion logic based on the arrangement code and the note code will be described with reference to FIG.
  音声生成装置10に備えられている入力手段(キーボード、マウス等、これらは図示していない)で特定の日本語又は数字(例えば「ガンバレ」)を入力する(s101)。 A specific Japanese or number (for example, “Ganbare”) is input by input means (a keyboard, a mouse, etc., not shown) provided in the voice generation device 10 (s101).
  文字データを受信すると、配列コード抽出部14は、配列コードテーブル17aにアクセスし、前記入力された文字データに対応する配列コードを、図6に示される配列コードによる文字変換ロジックに従って抽出する処理を行う(s102)。したがって、前記入力された「ガンバレ」には「a’k、uw、a’h、er(「'」は1オクターブ上の音を意味する)」の配列コードが割り当てられ、配列コード抽出部14によって配列コードデータテーブル17aから前記配列コード「a’k、uw、a’h、er(「'」は1オクターブ上の音を意味する)」が抽出される。 When the character data is received, the sequence code extraction unit 14 accesses the sequence code table 17a and performs a process of extracting the sequence code corresponding to the input character data in accordance with the character conversion logic based on the sequence code shown in FIG. (S102). Therefore, an array code of “a′k, uw, a′h, er (“ ′ ”means a sound one octave above)” is assigned to the input “Gambare”, and the array code extraction unit 14 The sequence code “a′k, uw, a′h, er (“ ′ ”means a sound one octave above)” is extracted from the sequence code data table 17a.
  配列コード抽出部14が前記抽出する処理を完了すると、音符コード抽出部15は、音符コードテーブル17bにアクセスし、前記抽出された配列コードに対応する音符コードを、図6に示される音符コードによる文字変換ロジックに従って抽出する処理を行う(s103)。したがって、前記抽出された「a’k、uw、a’h、er」の配列コードには「ド’レ、ミミ’、ド’ミ、ソシ(「'」は1オクターブ上の音を意味する)」の音符コードが割り当てられ、音符コード抽出部15によって音符コードテーブル17bから前記音符コード「ド’レ、ミミ’、ド’ミ、ソシ(「'」は1オクターブ上の音を意味する)」が抽出される。 When the arrangement code extraction unit 14 completes the extraction process, the note code extraction unit 15 accesses the note code table 17b, and the note code corresponding to the extracted arrangement code is determined by the note code shown in FIG. Extraction processing is performed according to the character conversion logic (s103). Therefore, in the extracted sequence code of “a′k, uw, a′h, er”, “do're, mimi ', do'mi, soshi (“' ”means a sound one octave above. ) "Is assigned to the note code table 17b by the note code extraction unit 15, and the note codes" Do're, Mimi ', Do'mi, Soshi ("'" means a sound one octave above). Is extracted.
  音符コード抽出部15が前記抽出する処理を完了すると、音声データ生成部16は、前記抽出された音符コードからMIDIデータなどの音声データを生成する処理を行う(s104)。したがって、前記抽出された「ド’レ、ミミ’、ド’ミ、ソシ(「'」は1オクターブ上の音を意味する)」から当該音符コードに係るMIDIデータが音声データ生成部16によって生成される。 When the note code extraction unit 15 completes the extraction process, the voice data generation unit 16 performs a process of generating voice data such as MIDI data from the extracted note code (s104). Therefore, MIDI data related to the note code is generated by the voice data generation unit 16 from the extracted “do're, mimi ', do'mi, soshi ("' "means a sound one octave above)". Is done.
  前記生成された音声データは、前記入力された文字データと共に、情報送受信部11によって通信手段50を介して受信側出力機器30へ送信される(s105)。 The generated voice data is transmitted together with the input character data by the information transmitting / receiving unit 11 to the receiving side output device 30 via the communication means 50 (s105).
  受信側出力機器30では、前記生成された音声データ及び入力された文字データを情報送受信部31で受信し、出力部35で前記音声データを出力し、表示部34で前記文字データやこれらのデータに付随する画像データを表示する(s106)。 In the receiving side output device 30, the generated voice data and input character data are received by the information transmitting / receiving unit 31, the voice data is output by the output unit 35, and the character data and these data are displayed by the display unit 34. The image data attached to is displayed (s106).
  なお、音声生成装置10の出力部18で前記音声データを出力し、非図示の表示部で前記文字データやこれらのデータに付随する画像データを表示してもよい(s107)。 Note that the voice data may be output by the output unit 18 of the voice generation device 10, and the character data and image data associated with these data may be displayed by a display unit (not shown) (s107).
  出力部35又は出力部18で出力される前記「ガンバレ」の音声データは、図6に示される前記配列コード及び音符コードによる文字変換ロジックに従って変換された固有の音声フレーズ「ド’レ、ミミ’、ド’ミ、ソシ」である。当該音声フレーズ「ド’レ、ミミ’、ド’ミ、ソシ」は、「ガンバレ」という具体的な日本語の言語的意味を持った、オリジナルで新しい音楽言語である。 The “gambare” speech data output from the output unit 35 or the output unit 18 is converted into a unique speech phrase “Dore, Mimi” converted according to the character conversion logic based on the arrangement code and note code shown in FIG. , Do'mi, Soshi ". The speech phrase “Do're, Mimi ', Do'mi, Soshi” is an original and new music language having a specific Japanese linguistic meaning of “Gambare”.
 このように、日本語による文字データから、当該日本語の言語的意味を持った新しい音楽言語の音楽フレーズを生成する音声生成装置、音声生成方法及びプログラムを提供することができる。 As described above, it is possible to provide a voice generation device, a voice generation method, and a program for generating a music phrase of a new music language having a Japanese linguistic meaning from character data in Japanese.
2.第二の実施形態
 図4及び図5は、本発明の第二の実施形態を表す図である。
2. Second Embodiment FIGS. 4 and 5 are views showing a second embodiment of the present invention.
 この実施形態では、日本語又は数字を入力するための送信側端末機器20、前記入力された文字データから音声データを生成する本発明に係る音声生成装置40及び当該音声データを出力する受信側出力機器30とが、データの送受信を行える通信手段51によって相互に通信可能な音声生成システムを構成している。 In this embodiment, the transmitting side terminal device 20 for inputting Japanese or numbers, the voice generating device 40 according to the present invention for generating voice data from the inputted character data, and the receiving side output for outputting the voice data The device 30 constitutes an audio generation system that can communicate with each other by the communication means 51 that can transmit and receive data.
  なお、上述した第一の実施形態と同一の構成については同一の符号を付し、その説明を省略する。 In addition, the same code | symbol is attached | subjected about the structure same as 1st embodiment mentioned above, and the description is abbreviate | omitted.
  送信側端末機器20は、パーソナルコンピュータ、スマートフォン、タブレット端末、携帯電話、ゲーム機等MIDIデータを扱えるハードウェアであれば特に限定はない。 The transmission-side terminal device 20 is not particularly limited as long as it can handle MIDI data such as a personal computer, a smartphone, a tablet terminal, a mobile phone, and a game machine.
  音声生成装置40は、MIDIデータを扱えるサーバ装置であることが好ましい。 The sound generation device 40 is preferably a server device that can handle MIDI data.
  送信側端末機器20は、音声生成装置40又は受信側出力機器30との間でデータ通信を行う情報送受信部21、日本語又は数字を入力するためのキーボードなどの入力部25、入力画面等を表示する表示部24、前記入力したデータを含む各種データを保存する記憶部23及びこれらを制御する制御部22を備えている(図4)。 The transmission-side terminal device 20 includes an information transmission / reception unit 21 that performs data communication with the voice generation device 40 or the reception-side output device 30, an input unit 25 such as a keyboard for inputting Japanese or numbers, an input screen, and the like. A display unit 24 for displaying, a storage unit 23 for storing various data including the input data, and a control unit 22 for controlling them are provided (FIG. 4).
  音声生成装置40は、送信側端末機器20又は受信側出力機器30との間でデータ通信を行う情報送受信部41、入力された文字データに含まれる個々の文字に対応する配列コードが記憶されている配列コードテーブル47a、前記配列コードに対応する音符コードが記憶されている音符コードテーブル47b、前記配列コードテーブル47aから前記配列コードを抽出する配列コード抽出部44、前記音符コードテーブル47bから前記抽出された配列コードに対応する音符コードを抽出する音符コード抽出部45、前記抽出された音符コードから音声データを生成する音声データ生成部46、前記音声データを含む各種データを保存する記憶部43及びこれらを制御する制御部42を備えている(図4)。 The voice generation device 40 stores an information transmission / reception unit 41 that performs data communication with the transmission-side terminal device 20 or the reception-side output device 30, and an array code corresponding to each character included in the input character data. The arrangement code table 47a, the note code table 47b storing the note codes corresponding to the arrangement code, the arrangement code extraction unit 44 for extracting the arrangement code from the arrangement code table 47a, and the extraction from the note code table 47b. A note code extraction unit 45 that extracts a note code corresponding to the arranged code, a voice data generation unit 46 that generates voice data from the extracted note code, a storage unit 43 that stores various data including the voice data, and The control part 42 which controls these is provided (FIG. 4).
  音声生成装置40と送信側端末機器20と受信側出力機器30とは、インターネット等、データの送受信を行える通信手段51によって相互に通信可能に接続されている。 The voice generation device 40, the transmission-side terminal device 20, and the reception-side output device 30 are connected to each other by a communication means 51 that can transmit and receive data, such as the Internet.
  図6図示の配列コード及び音符コードによる文字変換ロジックを利用して、本実施形態の音声生成のフローチャートを、図5を参照して説明する。 Referring to FIG. 5, a flowchart of voice generation according to the present embodiment will be described using the character conversion logic based on the arrangement code and the note code shown in FIG.
  送信側端末機器20が通信手段51を介して音声生成装置(サーバ)40へアクセスし、音声生成に係るアプリケーションソフトウェアをダウンロードする指示を行う。 The transmitting terminal device 20 accesses the voice generation device (server) 40 via the communication means 51 and gives an instruction to download application software related to voice generation.
  音声生成装置40は、送信側端末機器20からアクセスされると、前記音声生成に係るアプリケーションソフトウェアを、通信手段51を介して送信側端末機器20へ送信する。 When accessed from the transmission-side terminal device 20, the voice generation device 40 transmits application software related to the voice generation to the transmission-side terminal device 20 via the communication unit 51.
  送信側端末機器20では所定の認証手続等が行われ、音声生成に係るアプリケーションが利用可能な状態となる。 The transmitting terminal device 20 performs a predetermined authentication procedure and the like, and the application relating to voice generation becomes available.
  また、受信側出力機器30が通信手段51を介して音声生成装置(サーバ)40へアクセスし、音声生成に係るアプリケーションソフトウェアをダウンロードする指示を行う。 Also, the receiving-side output device 30 accesses the voice generation device (server) 40 via the communication unit 51 and gives an instruction to download application software related to voice generation.
  音声生成装置40は、受信側出力機器30からアクセスされると、前記音声生成に係るアプリケーションソフトウェアを、通信手段51を介して受信側出力機器30へ送信する。 When the voice generation device 40 is accessed from the reception-side output device 30, the voice generation device 40 transmits the application software related to the voice generation to the reception-side output device 30 via the communication unit 51.
  受信側出力機器30では所定の認証手続等が行われ、音声生成に係るアプリケーションが利用可能な状態となる。 The receiving-side output device 30 performs a predetermined authentication procedure and the like, and an application relating to voice generation becomes available.
  次に、送信側端末機器20にて前記アプリケーションを実行し、音声を生成するための入力画面を取得する指示を、通信手段51を介して音声生成装置40へ送信する(s201)。 Next, the transmission side terminal device 20 executes the application and transmits an instruction to acquire an input screen for generating voice to the voice generation device 40 via the communication unit 51 (s201).
  音声生成装置40は、送信側端末機器20から前記指示を受信すると、前記入力画面に係る情報を、通信手段51を介して送信側端末機器20へ送信する(s202)。 When receiving the instruction from the transmission side terminal device 20, the voice generation device 40 transmits information on the input screen to the transmission side terminal device 20 via the communication unit 51 (s202).
  送信側端末機器20では、取得した前記入力画面情報に係る入力画面に、入力手段25によって特定の日本語又は数字(例えば「ガンバレ」)を入力する。入力後、当該文字データは通信手段51を介して音声生成装置40へ送信される(s203)。 The transmitting terminal device 20 inputs specific Japanese or numbers (for example, “Ganbare”) by the input means 25 on the input screen related to the acquired input screen information. After the input, the character data is transmitted to the voice generation device 40 via the communication means 51 (s203).
  音声生成装置40では、前記文字データを受信すると、配列コード抽出部44が、配列コードテーブル47aにアクセスし、前記入力された文字データに対応する配列コードを、図6に示される配列コードによる文字変換ロジックに従って抽出する処理を行う(s204)。したがって、前記入力された「ガンバレ」には「a’k、uw、a’h、er(「'」は1オクターブ上の音を意味する)」の配列コードが割り当てられ、配列コード抽出部44によって配列コードテーブル47aから前記配列コード「a’k、uw、a’h、er(「'」は1オクターブ上の音を意味する)」が抽出される。 In the voice generation device 40, when the character data is received, the array code extraction unit 44 accesses the array code table 47a, and converts the array code corresponding to the input character data into the character according to the array code shown in FIG. Extraction processing is performed according to the conversion logic (s204). Therefore, an array code of “a′k, uw, a′h, er (“ ′ ”means a sound one octave above)” is assigned to the inputted “Ganbare”, and the array code extraction unit 44 The sequence code “a′k, uw, a′h, er (“ ′ ”means a sound one octave higher)” is extracted from the sequence code table 47a.
  配列コード抽出部44が前記抽出する処理を完了すると、音符コード抽出部45は、音符コードテーブル47bにアクセスし、前記抽出された配列コードに対応する音符コードを、図6に示される音符コードによる文字変換ロジックに従って抽出する処理を行う(s205)。したがって、前記抽出された「a’k、uw、a’h、er」の配列コードには「ド’レ、ミミ’、ド’ミ、ソシ(「'」は1オクターブ上の音を意味する)」の音符コードが割り当てられ、音符コード抽出部45によって音符コードテーブル47bから前記音符コードが抽出される。 When the arrangement code extraction unit 44 completes the extraction process, the note code extraction unit 45 accesses the note code table 47b, and uses the note code shown in FIG. 6 as the note code corresponding to the extracted arrangement code. Extraction processing is performed according to the character conversion logic (s205). Therefore, in the extracted sequence code of “a′k, uw, a′h, er”, “do're, mimi ', do'mi, soshi (“' ”means a sound one octave above. ) "Is assigned, and the note code extraction unit 45 extracts the note code from the note code table 47b.
  音符コード抽出部45が前記抽出する処理を完了すると、音声データ生成部46は、前記抽出された音符コードからMIDIデータなどの音声データを生成する処理を行う(s206)。したがって、前記抽出された「ド’レ、ミミ’、ド’ミ、ソシ(「'」は1オクターブ上の音を意味する)」から当該音符コードに係るMIDIデータが音声データ生成部46によって生成される。 When the note code extraction unit 45 completes the extraction process, the voice data generation unit 46 performs a process of generating voice data such as MIDI data from the extracted note code (s206). Therefore, MIDI data related to the note code is generated by the voice data generation unit 46 from the extracted “do're, mimi ', do'mi, soshi ("' "means a sound one octave above)". Is done.
  前記生成された音声データは、前記入力された文字データと共に、情報送受信部41によって通信手段51を介して受信側出力機器30へ送信される(s207)。 The generated voice data is transmitted together with the inputted character data by the information transmitting / receiving unit 41 to the receiving side output device 30 via the communication means 51 (s207).
  受信側出力機器30では、前記生成された音声データ及び入力された文字データを情報送受信部31で受信し、出力部35で前記音声データを出力し、表示部34で前記文字データやこれらのデータに付随する画像データを表示する(s208)。 In the receiving side output device 30, the generated voice data and input character data are received by the information transmitting / receiving unit 31, the voice data is output by the output unit 35, and the character data and these data are displayed by the display unit 34. Is displayed (s208).
  出力部35で出力される前記「ガンバレ」の音声データは、図6に示される前記配列コード及び音符コードによる文字変換ロジックに従って変換された固有の音声フレーズ「ド’レ、ミミ’、ド’ミ、ソシ」である。当該音声フレーズ「ド’レ、ミミ’、ド’ミ、ソシ」は、「ガンバレ」という具体的な日本語の言語的意味を持った、オリジナルで新しい音楽言語である。 The voice data of “Ganbare” output from the output unit 35 is converted into a unique voice phrase “Do're, Mimi ', Do'Mimi converted according to the character conversion logic based on the arrangement code and note code shown in FIG. , Soshi ". The speech phrase “Do're, Mimi ', Do'mi, Soshi” is an original and new music language having a specific Japanese linguistic meaning of “Gambare”.
 このように、日本語による文字データから、当該日本語の言語的意味を持った新しい音楽言語の音楽フレーズを生成する音声生成装置、音声生成方法及びプログラムを提供することができる。 As described above, it is possible to provide a voice generation device, a voice generation method, and a program for generating a music phrase of a new music language having a Japanese linguistic meaning from character data in Japanese.
3.第三の実施形態
 上述した第一及び第二の実施形態では、図6図示の配列コード及び音符コードによる文字変換ロジックを利用して、日本語及び数字から当該日本語及び数字固有の音声フレーズとして生成する態様を説明したが、前記配列コードを図7の配列コードとしてもよい。
3. Third Embodiment In the first and second embodiments described above, using the character conversion logic based on the arrangement code and the note code shown in FIG. Although the generation mode has been described, the sequence code may be the sequence code shown in FIG.
  図7図示のコードデータも、図1(a)、(b)に表されているロジックに従って作成されたものである。 The code data shown in FIG. 7 is also created according to the logic shown in FIGS. 1 (a) and 1 (b).
  このコードデータの配列コードには、横列と縦列共に、0~9までの数字が設定されており、日本語及び0~9までの数字のそれぞれが、前記横列及び縦列に記載の各コードによって定められる。 In the array code of this code data, numbers from 0 to 9 are set for both the row and the column, and the numbers of Japanese and 0 to 9 are determined by the codes described in the row and column, respectively. It is done.
  図7図示の配列コードによる文字変換ロジックに従うと、例えば、日本語の「あいうえお」という文字には、第一の実施形態で説明した母音、子音の順番からなる「10、20、30、40、50」の配列コードが割り当てられる。 According to the character conversion logic based on the arrangement code shown in FIG. 7, for example, the Japanese character “Aiueo” has “10, 20, 30, 40, which is composed of the vowels and consonants in the order described in the first embodiment. A sequence code of “50” is assigned.
  なお、前記配列コードの配列の順番は、横列の数字、縦列の数字、又は縦列の数字、横列の数字のどちらの順番でも可能であるが、本実施形態では、第一の実施形態で説明した母音、子音の順番に従って横列の数字、縦列の数字の順番としている。また、各列の数字の桁数も1桁でなく複数桁を採用してもよい。 The order of the arrangement of the arrangement codes can be any of a row number, a column number, a column number, and a row number. In this embodiment, the sequence code has been described in the first embodiment. According to the order of vowels and consonants, the numbers in the horizontal row and the numbers in the vertical column are used. Also, the number of digits in each column may be a plurality of digits instead of one.
  そして、図6図示の音符コードによる文字変換ロジックを利用して、前記横列には、「ド、レ、ミ、ソ、ラ、ド’、レ’、ミ’、ソ’、ラ’ (「'」は1オクターブ上の音を意味する)」ぞれぞれの音符コードが前記横列の各配列コードに対応するように設定し、前記縦列には、「ド、レ、ミ、ファ、ソ、ラ、シ、ド’、レ’、ミ’ (「'」は1オクターブ上の音を意味する)」それぞれの音符コードが前記縦列の各配列コードに対応するように設定することができる(非図示)。 Then, using the character conversion logic based on the note code shown in FIG. 6, the rows include “do, les, mi, so, la, de ', les', mi', so ', la' (" " "" Means a sound one octave above) "" Each note code is set to correspond to each array code in the row, and in the column, "do, les, mi, fa, so, "La", "si", "do", "re", and "mi" ("" means a sound one octave above) "can be set so that each note code corresponds to each array code in the column (non- (Illustrated).
4.第四の実施形態
 図8乃至図10は、本発明の第四の実施形態を表す図である。この実施形態の音声生成装置60は、上述した第一乃至第三の実施形態とは異なる文字変換ロジックを利用して、入力した文字データから音声データを生成する音声生成装置である。
4). Fourth Embodiment FIGS. 8 to 10 are views showing a fourth embodiment of the present invention. The voice generation device 60 of this embodiment is a voice generation device that generates voice data from input character data by using a character conversion logic different from those of the first to third embodiments described above.
 音声生成装置60は、図示していない送信側端末機器20又は図示していない受信側出力機器30との間でデータ通信を行う情報送受信部60を備えている。 The voice generation device 60 includes an information transmission / reception unit 60 that performs data communication with a transmission-side terminal device 20 (not shown) or a reception-side output device 30 (not shown).
 音声生成装置60は、入力された文字データに対応する数字よりなる配列コードが記憶されている配列コードテーブル67aを備えている。 The voice generation device 60 includes an array code table 67a in which array codes composed of numbers corresponding to input character data are stored.
 音声生成装置60は、配列コードテーブル67aから、前記入力された文字データに対応する前記配列コードを抽出する配列コード抽出部64を備えている。 The speech generation device 60 includes an array code extraction unit 64 that extracts the array code corresponding to the input character data from the array code table 67a.
 前記配列コードは、第三の実施形態で説明した図7図示の配列コードを使用する。つまり、入力された文字には、第一の実施形態で説明した母音、子音の順番からなる数字の配列コードが割り当てられる。 The sequence code shown in FIG. 7 described in the third embodiment is used as the sequence code. That is, the input character is assigned a numerical arrangement code composed of the order of vowels and consonants described in the first embodiment.
 音声生成装置60は、後述する循環する数を管理する循環数管理手段68を備えている。循環数管理手段68は、以下の構成を備えている。 The voice generation device 60 includes a circulation number management means 68 for managing a circulation number described later. The circulation number management means 68 has the following configuration.
 循環数管理手段68は、前記抽出された配列コードに係る数字に基づいて、無理数を算出する第一の無理数算出部68aを備えている。具体的には、前記抽出された配列コードに係る数字を黄金数φ(φ=1.61803・・・)で除算して第一の無理数を算出する。 The circulation number management means 68 includes a first irrational number calculation unit 68a that calculates an irrational number based on the number related to the extracted sequence code. Specifically, the first irrational number is calculated by dividing the number related to the extracted array code by the golden number φ (φ = 1.61803...).
 循環数管理手段68は、前記文字データに関連する数字データが入力され、当該入力された数字データに係る数字に基づいて無理数を算出する第二の無理数算出部68bを備えている。具体的には、数字データに係る数字を前記黄金数φで除算して第二の無理数を算出する。 The circulation number management means 68 includes a second irrational number calculation unit 68b that receives numerical data related to the character data and calculates an irrational number based on the number related to the input numerical data. Specifically, the second irrational number is calculated by dividing the number related to the number data by the golden number φ.
 前記文字データに関連する数字データは、例えば前記文字データを人物の名前とした場合に、当該人物の誕生日等、前記人物に関連する数字データとすることができる。 The numeric data related to the character data can be numeric data related to the person such as the birthday of the person, for example, when the character data is the name of the person.
 なお、この実施形態では、無理数を算出するために黄金数φを用いたが、後述する循環する数を算出することができれば、前記黄金数φ以外の数も用いることができる。 In this embodiment, the golden number φ is used to calculate an irrational number. However, a number other than the golden number φ can be used as long as a circulating number described later can be calculated.
 循環数管理手段68は、前記算出された二つの無理数に基づいて、循環する数を算出する基準となる基準数を算出する基準数算出部68cを備えている。具体的には、第一の無理数算出部68aが算出した前記第一の無理数と、第二の無理数算出部68bが算出した前記第二の無理数を乗算して基準数を算出する。 The circulation number management means 68 includes a reference number calculation unit 68c that calculates a reference number serving as a reference for calculating the number to circulate based on the two calculated irrational numbers. Specifically, the reference number is calculated by multiplying the first irrational number calculated by the first irrational number calculation unit 68a and the second irrational number calculated by the second irrational number calculation unit 68b. .
 循環数管理手段68は、前記算出された基準数に基づいて、循環する数を生成する循環数生成部68dを備えている。具体的には、前記基準数を所定の桁数からなる循環数生成数で除算して循環する数を算出する。 The circulation number management means 68 includes a circulation number generation unit 68d that generates a circulation number based on the calculated reference number. Specifically, the number to circulate is calculated by dividing the reference number by the number of generated circulation numbers having a predetermined number of digits.
 本実施形態では、前記循環数生成数を「360360360360360360」の18桁の数字とした。その他にも種々の循環数生成数を使用することができる。 In the present embodiment, the circulation number generation number is an 18-digit number “360360360360360360”. In addition, various circulation number generation numbers can be used.
 前記循環数生成数で前記基準数を乗算すると、小数が算出され、小数点以下に所定の桁数からなる循環小数が含まれている。そこで本実施形態では、前記循環する数を前記循環小数の循環節としている。 When the reference number is multiplied by the circulation number generation number, a decimal number is calculated, and a decimal number consisting of a predetermined number of digits is included after the decimal point. Therefore, in the present embodiment, the circulating number is the circulating node of the circulating decimal number.
 循環数管理手段68は、前記算出された循環する数字を、所定数のフレーズと、当該フレーズに対応する音階(以下「スケール」という)を判別するための判別数とに分離する分離部68eを備えている。 The circulation number management means 68 includes a separation unit 68e that separates the calculated circulating number into a predetermined number of phrases and a discrimination number for discriminating a scale corresponding to the phrase (hereinafter referred to as “scale”). I have.
 例えば、前記循環する数字を「0123456」の循環節とした場合、前記判別数を頭一桁の「0」とし、残りの「123456」を「12」、「34」、「56」の三つのフレーズに分離される。 For example, when the circulating number is a circular node of “0123456”, the discriminant number is set to “0” with one digit at the head, and the remaining “123456” is set to three of “12”, “34”, and “56”. Separated into phrases.
 音声生成装置60は、前記判別数に基づいて、前記判別数に対応する前記スケールが記憶されているスケールテーブル67cを備えている。 The voice generation device 60 includes a scale table 67c in which the scale corresponding to the discrimination number is stored based on the discrimination number.
 スケールテーブル67cに記憶されている前記スケールの一例を図9(a)に示す。上記の例では、前記判別数を「0」とした「12」、「34」、「56」の三つのフレーズにはそれぞれスケール1、スケール3、スケール1が割り当てられる。なお、図示されているスケール1、2、3の組み合わせは、和声学の「トニック」、「サブドミナント」、「ドミナント」に基づく組み合わせとしている。 An example of the scale stored in the scale table 67c is shown in FIG. In the above example, scale 1, scale 3, and scale 1 are assigned to the three phrases “12”, “34”, and “56”, respectively, where the number of discrimination is “0”. Note that the combinations of scales 1, 2, and 3 shown in the figure are combinations based on “Tonic”, “Subdominant”, and “Dominant” of harmony.
 音声生成装置60は、スケールテーブル67cから、前記フレーズに対応する前記スケールを抽出するスケール抽出部69を備えている。 The voice generation device 60 includes a scale extraction unit 69 that extracts the scale corresponding to the phrase from the scale table 67c.
 音声生成装置60は、前記抽出されたスケール及び前記フレーズに含まれている各数字に対応する音符コードが記憶されている音符コードテーブル67bを備えている。 The voice generation device 60 includes a note code table 67b in which note codes corresponding to each number included in the extracted scale and the phrase are stored.
 記憶されている音符コードの一例を図9(b)に示す。上記の例では、「12」、「34」、「56」の三つのフレーズにはそれぞれスケール1の音符コード、スケール3の音符コード、スケール1の音符コードが対応することになる。 An example of the note code stored is shown in FIG. In the above example, the three phrases “12”, “34”, and “56” correspond to the note code of scale 1, the note code of scale 3, and the note code of scale 1, respectively.
 音声生成装置60は、音符コードテーブル67bから、前記フレーズに対応する前記スケールの前記音符コードを抽出する音符コード抽出部65を備えている。 The voice generation device 60 includes a note code extraction unit 65 that extracts the note code of the scale corresponding to the phrase from the note code table 67b.
 上記の例では、「12」のフレーズには、スケール1の「ソ2、ド3(数字は音の高さを示す)」の音符コードが割り当てられる。 In the above example, the phrase code “12” is assigned the note code “scale 2, do 3 (numbers indicate the pitch)”.
 「34」のフレーズには、スケール3の「ミ3、ファ3(数字は音の高さを示す)」の音符コードが割り当てられる。 A note code of “Mi 3, Fa 3 (number indicates the pitch)” of scale 3 is assigned to the phrase “34”.
 「56」のフレーズには、スケール1の「ソ3、ラ3(数字は音の高さを示す)」の音符コードが割り当てられる。 The note code “So3, Ra3 (numbers indicate the pitch)” of scale 1 is assigned to the phrase “56”.
 音声生成装置60は、前記抽出された音符コードから音声データを生成する音声データ生成部66を備えている。 The voice generation device 60 includes a voice data generation unit 66 that generates voice data from the extracted note code.
 音声生成装置60は、前記音声データを含む各種データを保存する記憶部63及び上述した各部による情報処理を制御する制御部62を備えている。 The voice generation device 60 includes a storage unit 63 that stores various data including the voice data, and a control unit 62 that controls information processing by each unit described above.
 図7図示の配列コード及び図9図示のスケール及び音符コードによる文字変換ロジックを利用して、本実施形態の音声生成のフローチャートを、図10を参照して説明する。 FIG. 10 is a flowchart of voice generation according to the present embodiment, using the character conversion logic based on the arrangement code shown in FIG. 7 and the scale and note code shown in FIG.
  音声生成装置10に備えられている入力手段(キーボード、マウス等、これらは図示していない)で特定の日本語又は数字(例えば人物名「みやうらきよし」)を入力する(s301)。 A specific Japanese or number (for example, a person name “Miyaura Kiyoshi”) is input by input means (a keyboard, a mouse, etc., not shown) provided in the voice generation device 10 (s301).
 文字データが入力されると配列コード抽出部64は、配列コードテーブル67aにアクセスし、前記入力された文字データに対応する配列コードを、図7に示される配列コードによる文字変換ロジックに従って抽出する処理を行う(s302)したがって、前記入力された「みやうらきよし」には「24183016215827」の配列コードが割り当てられ、配列コード抽出部64によって配列コードテーブル67aから前記配列コードが抽出される。 When character data is input, the array code extraction unit 64 accesses the array code table 67a and extracts an array code corresponding to the input character data according to the character conversion logic based on the array code shown in FIG. Therefore, an array code of “24183016215827” is assigned to the inputted “Miyaura Yoshiyoshi”, and the array code extraction unit 64 extracts the array code from the array code table 67a.
 音声生成装置10の表示手段(液晶ディスプレイ、タッチパネル等、これらは図示していない)には、前記文字データの入力を促す画面とは別に、前記文字データに関連する数字データの入力を促す画面が表示される。当該入力画面には誕生日等の数字データを入力することができる。そこで、このフローチャートでは、誕生日として「19530829」を入力する。 On the display means (liquid crystal display, touch panel, etc., not shown) of the voice generation device 10, there is a screen that prompts input of numeric data related to the character data, in addition to the screen that prompts input of the character data. Is displayed. Numeric data such as birthdays can be entered on the input screen. Therefore, in this flowchart, “19530829” is input as the birthday.
 前記配列コード「24183016215827」が抽出されると、第一の無理数算出部68aは、当該配列コードに係る数字に基づいて、第一の無理数を算出する処理を行う(s303)。 When the array code “24183016215827” is extracted, the first irrational number calculation unit 68a performs a process of calculating the first irrational number based on the number related to the array code (s303).
 具体的には、「24183016215827」の14桁を上述した黄金数φの頭14桁「1.6180339887498」で除算し、小数点2桁までの無理数「14945925971871.82」を算出する。 Specifically, 14 digits of “24183016215827” are divided by the above-mentioned 14 digits of the head of the golden number φ “1.61803339874498”, and an irrational number “14959425971871.82” up to two decimal places is calculated.
 前記文字データに関連する数字データ「19530829」が入力されると、第二の無理数算出部68bは、当該入力された数字データに係る数字に基づいて、第二の無理数を算出する処理を行う(s303)。 When the numerical data “19530829” related to the character data is input, the second irrational number calculation unit 68b performs a process of calculating the second irrational number based on the number related to the input numerical data. Perform (s303).
 具体的には、「19530829」の8桁を前記黄金数φの頭8桁「1.6180339」で除算し、小数点2桁までの無理数「12070716.81」を算出する。 Specifically, 8 digits of “19530829” are divided by the first 8 digits of the golden number φ “1.6180339” to calculate an irrational number “120707716.81” to 2 decimal places.
 前記二つの無理数が算出されると、基準数算出部68cは、前記算出された二つの無理数に基づいて、循環する数を算出する基準となる基準数を算出する処理を行う(s304)。 When the two irrational numbers are calculated, the reference number calculation unit 68c performs a process of calculating a reference number serving as a reference for calculating a circulating number based on the two calculated irrational numbers (s304). .
 具体的には、前記二つの無理数「14945925971871.82」と「12070716.81」を乗算し、基準数「180408039869688764839.2942」を算出する。 More specifically, the two irrational numbers “14959425971871.82” and “120707716.81” are multiplied to calculate the reference number “1800408039866887664839.2942”.
 前記基準数が算出されると、循環数生成部68dは、前記算出された基準数に基づいて、循環する数を生成する処理を行う(s305)。 When the reference number is calculated, the circulation number generation unit 68d performs a process of generating a circulating number based on the calculated reference number (s305).
 具体的には、前記基準数「180408039869688764839.2942」を、18桁からなる循環数生成数「360360360360360360」で除算して小数を算出する。 More specifically, the decimal number is calculated by dividing the reference number “18040408039866887664839.2942” by the circulation number generation number “360360360360360360360” consisting of 18 digits.
 算出された小数には、小数点以下に「638386322929673715」の18桁の循環節が含まれている。この循環節が循環する数として生成される。 The calculated decimal number includes an 18-digit circular clause of “6383836322929373715” after the decimal point. This circular node is generated as a circulating number.
 前記基準数の桁数は、前記循環節の桁数と一致するので、算出したい循環する数に対応した所定の桁数の前記基準数を用いれはよいことになる。 Since the number of digits of the reference number matches the number of digits of the circulation node, it is good to use the reference number having a predetermined number of digits corresponding to the number of cycles to be calculated.
 前記循環する数が生成されると、分離部68eは、当該循環する数を、所定数のフレーズと、当該フレーズに対応するスケールを判別するための判別数とに分離する処理を行う(s306)。 When the circulating number is generated, the separation unit 68e performs a process of separating the circulating number into a predetermined number of phrases and a determination number for determining a scale corresponding to the phrase (s306). .
 具体的には、前記判別数を頭一桁の「6」とし、残りの「38386322929673715」を「38386」、「3229296」、「73715」の三つのフレーズに分離する。 Specifically, the discriminant number is set to “6” with one digit at the head, and the remaining “38386322229673715” is separated into three phrases “38386”, “32229296”, and “73715”.
 スケール抽出部69は、前記判別数「6」に基づいて、スケールテーブル67cから、前記分離されたフレーズに対応するスケールを抽出する処理を行う(s307)。 The scale extraction unit 69 performs a process of extracting a scale corresponding to the separated phrase from the scale table 67c based on the discrimination number “6” (s307).
 具体的には、図9(a)図示のスケールから、前記フレーズ「38386」には「スケール1」が割り当てられる。 Specifically, “Scale 1” is assigned to the phrase “38386” from the scale shown in FIG.
 前記フレーズ「3229296」には「スケール3」が割り当てられる。 Scale 3” is assigned to the phrase “3229296”.
 前記フレーズ「73715」には「スケール1」が割り当てられる。 Scale 1” is assigned to the phrase “73715”.
 前記スケールが抽出されると、音符コード抽出部65は、音符コードテーブル67bから、前記フレーズの各数字に対応する前記音符コードを抽出する処理を行う(s308)。 When the scale is extracted, the note code extraction unit 65 performs a process of extracting the note code corresponding to each number of the phrase from the note code table 67b (s308).
 具体的には、「38386」のフレーズには、スケール1の「レ3、ド4、レ3、ド4、ラ3(数字は音の高さを示す)」の音符コードが割り当てられる。 Specifically, a note code of “Le3, De4, Les3, De4, La3 (numbers indicate the pitch)” of scale 1 is assigned to the phrase “38386”.
 「3229296」のフレーズには、スケール3の「ミ3、レ3、レ3、ファ4、レ3、ファ4、ラ3(数字は音の高さを示す)」の音符コードが割り当てられる。 The phrase code “3229296” is assigned a note code of scale 3 “mi3, les3, les3, fa4, les3, fa4, la3 (numbers indicate pitch).
 「73715」のフレーズには、スケール1の「シ3、レ3、シ3、ソ2、ソ3(数字は音の高さを示す)」の音符コードが割り当てられる。 A note code of “SHI 3, LE 3, SHI 3, SOE 2, SOE 3 (number indicates the pitch)” of scale 1 is assigned to the phrase “73715”.
 前記音符コードが抽出されると、音声データ生成部66は、前記抽出された音符コードからMIDIデータなどの音声データを生成する処理を行う(s309)。したがって、前記抽出されたスケール1の「レ3、ド4、レ3、ド4、ラ3(数字は音の高さを示す)」、スケール3の「ミ3、レ3、レ3、ファ4、レ3、ファ4、ラ3(数字は音の高さを示す)」、スケール1の「シ3、レ3、シ3、ソ2、ソ3(数字は音の高さを示す)」から当該音符コードに係るMIDIデータが音声データ生成部66によって生成される。 When the note code is extracted, the voice data generation unit 66 performs a process of generating voice data such as MIDI data from the extracted note code (s309). Therefore, “Le3, De4, Les3, De4, La3 (numbers indicate the pitch)” of the extracted scale 1 and “Mi3, Les3, Les3, 4, les 3, fa 4, la 3 (numbers indicate the pitch of the sound) ", scale 1" si 3, les 3, shi 3, seo 2, seo 3 (the numbers indicate the pitch of the sound) " , MIDI data related to the note code is generated by the voice data generation unit 66.
 生成された前記音声データは、音声生成装置60の出力部70から出力される。この実施形態では、前記音声データが5音、7音、5音の17音からなり、上述した和声学の「トニック」、「サブドミナント」、「ドミナント」に基づく組み合わせから、日本の俳句や短歌のような独特のフレーズとなっている。 The generated voice data is output from the output unit 70 of the voice generation device 60. In this embodiment, the audio data is composed of 17 sounds of 5 sounds, 7 sounds, and 5 sounds. From the combination based on the above-mentioned harmony “tonic”, “subdominant”, and “dominant”, Japanese haiku and tanka It has become a unique phrase.
 そこで、出力される前記音声データ「レ3、ド4、レ3、ド4、ラ3(数字は音の高さを示す)」、「ミ3、レ3、レ3、ファ4、レ3、ファ4、ラ3(数字は音の高さを示す)」、「シ3、レ3、シ3、ソ2、ソ3(数字は音の高さを示す)」は、具体的な日本語の言語的意味(例えば特定の個人であるという意味)を持った、新しく、独特なリズムを有する音楽言語である。 Therefore, the output audio data “Le 3, Do 4, Le 3, Do 4, La 3 (numbers indicate the pitch)”, “Mi 3, Le 3, Les 3, Fa 4, Fa 3, , Fa 4, La 3 (numbers indicate the pitch of the sound) "," Shi 3, Les 3, Shi 3, Seo 2, Seo 3 (the numbers indicate the pitch of the sound) " A music language with a new and unique rhythm with the linguistic meaning of a word (for example, the meaning of being a particular individual).
 このように、日本語による文字データから、当該日本語の言語的意味を持った新しい音楽言語の音楽フレーズを生成する音声生成装置、音声生成方法及びプログラムを提供することができる。 As described above, it is possible to provide a voice generation device, a voice generation method, and a program for generating a music phrase of a new music language having a Japanese linguistic meaning from character data in Japanese.
 以上、添付図面を参照して本発明の好ましい実施形態を説明したが、本発明はかかる実施形態に限定されること無く、特許請求の範囲の記載から把握される技術的範囲において種々に変更可能である。 The preferred embodiments of the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such embodiments and can be variously modified within the technical scope grasped from the description of the claims. It is.
 10、40、60 音声生成装置
 11、41、61 情報送受信部
 12、42、62 制御部
 13、43、63 記憶部
 14、44、64 配列コード抽出部
 15、45、65 音符コード抽出部
 16、46、66 音声データ生成部
 17a、47a、67a 配列コードテーブル
 17b、47b、67b 音符コードテーブル
 18 出力部
 20 送信側端末機器
 21 情報送受信部
 22 制御部
 23 記憶部
 24 表示部
 25 入力部
 30 受信側出力機器
 31 情報送受信部
 32 制御部
 33 記憶部
 34 表示部
 35 出力部
50、51 通信手段
67c スケールテーブル
68 循環数管理手段
68a 第一の無理数算出部
68b 第二の無理数算出部
68c 基準数算出部
68d 循環数生成部
68e 分離部
69 スケール抽出部
70 出力部
10, 40, 60 Voice generation device 11, 41, 61 Information transmitting / receiving unit 12, 42, 62 Control unit 13, 43, 63 Storage unit 14, 44, 64 Sequence code extraction unit 15, 45, 65 Note code extraction unit 16, 46, 66 Audio data generation unit 17a, 47a, 67a Arrangement code table 17b, 47b, 67b Note code table 18 Output unit 20 Transmission side terminal device 21 Information transmission / reception unit 22 Control unit 23 Storage unit 24 Display unit 25 Input unit 30 Reception side Output device 31 Information transmission / reception unit 32 Control unit 33 Storage unit 34 Display unit 35 Output unit 50, 51 Communication unit 67c Scale table 68 Circulation number management unit 68a First irrational number calculation unit 68b Second irrational number calculation unit 68c Reference number Calculation unit 68d Circulation number generation unit 68e Separation unit 69 Scale extraction unit 70 Output unit

Claims (11)

  1.  入力された文字データに対応する配列コードが記憶されている配列コードテーブルから、前記入力された文字データに対応する前記配列コードを抽出する配列コード抽出手段と、
     前記配列コードに対応する音符コードが記憶されている音符コードテーブルから、前記抽出された配列コードに対応する前記音符コードを抽出する音符コード抽出手段と、
     前記抽出された音符コードから音声データを生成する音声データ生成手段と、
     を備えることを特徴とする音声生成装置。
    An array code extracting means for extracting the array code corresponding to the input character data from the array code table storing the array code corresponding to the input character data;
    Note code extraction means for extracting the note code corresponding to the extracted arrangement code from the note code table storing the note code corresponding to the arrangement code;
    Voice data generating means for generating voice data from the extracted note code;
    A voice generation device comprising:
  2.  前記配列コードは、少なくとも2桁の数字であることを特徴とする請求項1記載の音声生成装置。 The speech generation apparatus according to claim 1, wherein the array code is a number of at least two digits.
  3.  前記配列コードは、母音並びに子音及び数字の組み合わせであることを特徴とする請求項1記載の音声生成装置。 The speech generation apparatus according to claim 1, wherein the array code is a combination of a vowel, a consonant, and a number.
  4.  前記文字データを、通信ネットワークを通じて一の端末機器から取得し、前記生成した音声データを前記文字データと共に、前記通信ネットワークを通じて他の端末機器に送信する
     ことを特徴とする請求項1乃至3いずれか一項記載の音声生成装置。
    The character data is acquired from one terminal device through a communication network, and the generated voice data is transmitted to the other terminal device through the communication network together with the character data. The speech generation device according to one item.
  5.  入力された文字データに対応する数字よりなる配列コードが記憶されている配列コードテーブルから、前記入力された文字データに対応する前記配列コードを抽出する配列コード抽出手段と、
     前記抽出された配列コードに係る数字に基づいて、第一の無理数を算出する第一の無理数算出手段と、
     前記文字データに関連する数字データが入力され、当該入力された数字データに係る数字に基づいて第二の無理数を算出する第二の無理数算出手段と、
     前記算出された二つの無理数に基づいて、循環する数字を算出する基準となる基準数を算出する基準数算出手段と、
     前記算出された基準数に基づいて、前記循環する数字を算出する循環数生成手段と、
     前記算出された循環する数字を、所定数のフレーズと、当該フレーズに対応するスケールを判別するための判別数とに分離する分離手段と、
     前記判別数に基づいて、前記判別数に対応する前記スケールが記憶されているスケールテーブルから、前記フレーズに対応するスケールを抽出するスケール抽出手段と、
     前記抽出されたスケール及び前記フレーズに含まれている各数字に対応する音符コードが記憶されている音符コードテーブルから、前記各数字に対応する前記音符コードを抽出する音符コード抽出手段と、
     前記抽出された音符コードから音声データを生成する音声データ生成手段と、
      を備えることを特徴とする音声生成装置。
    An array code extracting means for extracting the array code corresponding to the input character data from an array code table storing an array code consisting of numbers corresponding to the input character data;
    First irrational number calculating means for calculating a first irrational number based on the number relating to the extracted sequence code;
    A second irrational number calculating means for inputting a second irrational number based on a number related to the input number data;
    A reference number calculating means for calculating a reference number serving as a reference for calculating a circulating number based on the two calculated irrational numbers;
    A circulation number generating means for calculating the circulating number based on the calculated reference number;
    Separating means for separating the calculated circulating number into a predetermined number of phrases and a discrimination number for discriminating a scale corresponding to the phrase;
    A scale extracting means for extracting a scale corresponding to the phrase from a scale table in which the scale corresponding to the discrimination number is stored based on the discrimination number;
    Note code extraction means for extracting the note code corresponding to each number from the note code table storing the note code corresponding to each number included in the extracted scale and the phrase;
    Voice data generating means for generating voice data from the extracted note code;
    A voice generation device comprising:
  6.   入力された文字データを取得するステップと、
      前記入力された文字データに対応する配列コードが記憶されている配列コードテーブルから、前記入力された文字データに対応する前記配列コードを抽出するステップと、
      前記配列コードに対応する音符コードが記憶されている音符コードテーブルから、前記抽出された配列コードに対応する音符コードを抽出するステップと、
      前記抽出された音符コードから音声データを生成するするステップと、
      を含むことを特徴とする音声生成方法。
    Obtaining input character data; and
    Extracting the array code corresponding to the input character data from an array code table storing an array code corresponding to the input character data;
    Extracting a note code corresponding to the extracted sequence code from a note code table storing a note code corresponding to the sequence code;
    Generating voice data from the extracted note code;
    A speech generation method comprising:
  7.  前記配列コードは、少なくとも2桁の数字であることを特徴とする請求項6記載の音声生成方法。 The voice generation method according to claim 6, wherein the sequence code is at least a two-digit number.
  8.  前記配列コードは、母音並びに子音及び数字の組み合わせであることを特徴とする請求項6記載の音声生成方法。 The method according to claim 6, wherein the array code is a combination of a vowel, a consonant, and a number.
  9.  前記文字データを、通信ネットワークを通じて一の端末機器から取得し、前記生成した音声データを前記文字データと共に、前記通信ネットワークを通じて他の端末機器に送信するステップを更に備える
     ことを特徴とする請求項6乃至8いずれか一項記載の音声生成方法。
    The step of acquiring the character data from one terminal device through a communication network, and further transmitting the generated voice data together with the character data to another terminal device through the communication network. The voice generation method according to any one of claims 8 to 8.
  10.  入力された文字データを取得するステップと、
     入力された文字データに対応する数字よりなる配列コードが記憶されている配列コードテーブルから、前記入力された文字データに対応する前記配列コードを抽出するステップと、
     前記抽出された配列コードに係る数字に基づいて、第一の無理数を算出するステップと、
     前記文字データに関連する数字データが入力され、当該入力された数字データに係る数字に基づいて第二の無理数を算出するステップと、
     前記算出された二つの無理数に基づいて、循環する数字を算出する基準となる基準数を算出するステップと、
     前記算出された基準数に基づいて、前記循環する数字を生成するステップと、
     前記算出された循環する数字を、所定数のフレーズと、当該フレーズに対応するスケールを判別するための判別数とに分離するステップと、
     前記判別数に基づいて、前記判別数に対応する前記スケールが記憶されているスケールテーブルから、前記フレーズに対応するスケールを抽出するステップと、
     前記抽出されたスケール及び前記フレーズに含まれている各数字に対応する音符コードが記憶されている音符コードテーブルから、前記各数字に対応する前記音符コードを抽出するステップと、
    前記抽出された音符コードから音声データを生成するステップと、
     を含むことを特徴とする音声生成方法。
    Obtaining input character data; and
    Extracting the array code corresponding to the input character data from an array code table storing an array code consisting of numbers corresponding to the input character data;
    Calculating a first irrational number based on the number related to the extracted sequence code;
    Numerical data related to the character data is input, and calculating a second irrational number based on the number related to the input numerical data;
    Calculating a reference number as a reference for calculating a circulating number based on the two calculated irrational numbers;
    Generating the circulating number based on the calculated reference number;
    Separating the calculated circulating number into a predetermined number of phrases and a discrimination number for discriminating a scale corresponding to the phrase;
    Extracting a scale corresponding to the phrase from a scale table in which the scale corresponding to the discrimination number is stored based on the discrimination number;
    Extracting the note code corresponding to each number from the note code table storing the note code corresponding to each number included in the extracted scale and the phrase;
    Generating voice data from the extracted note code;
    A speech generation method comprising:
  11.  請求項6乃至10の何れかに記載した音声生成方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the voice generation method according to any one of claims 6 to 10.
PCT/JP2015/050364 2014-01-09 2015-01-08 Speech generation device, speech generation method, and program WO2015105142A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-002323 2014-01-09
JP2014002323A JP6081382B2 (en) 2013-04-15 2014-01-09 VOICE GENERATION DEVICE, VOICE GENERATION METHOD, AND PROGRAM

Publications (1)

Publication Number Publication Date
WO2015105142A1 true WO2015105142A1 (en) 2015-07-16

Family

ID=53525022

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/050364 WO2015105142A1 (en) 2014-01-09 2015-01-08 Speech generation device, speech generation method, and program

Country Status (2)

Country Link
JP (1) JP6081382B2 (en)
WO (1) WO2015105142A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI789403B (en) * 2017-07-06 2023-01-11 美商尼可拉斯 亞歷山大有限責任公司 Systems and methods for providing a tone emitting device that communicates data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11929789B2 (en) 2017-07-06 2024-03-12 The Tone Knows, Inc. Systems and methods for providing a tone emitting device that communicates data

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11249680A (en) * 1998-03-05 1999-09-17 Casio Comput Co Ltd Voice series synthesizer
JP2001350472A (en) * 2000-06-05 2001-12-21 Anekkusu Joho Kenkyusho:Kk Method and system for automatic composition, and storage medium therefor
JP2002162968A (en) * 2000-11-28 2002-06-07 M Zone:Kk Automatic music forming method, automatic music forming program and recording medium recorded with automatic music forming program
WO2003081572A1 (en) * 2002-03-25 2003-10-02 Yoshihiko Sano Representation generation method, representation generation device, and representation generation system
JP2004226671A (en) * 2003-01-22 2004-08-12 Omron Corp Music data generation system, music data generation server system, and music data generation method
JP2009020714A (en) * 2007-07-12 2009-01-29 Nec Soft Ltd Base sequence comparison device, base sequence comparison method, and program with sound
JP2010224327A (en) * 2009-03-25 2010-10-07 Fujitsu Ltd Melody creation device, melody creation program and melody creation method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11249680A (en) * 1998-03-05 1999-09-17 Casio Comput Co Ltd Voice series synthesizer
JP2001350472A (en) * 2000-06-05 2001-12-21 Anekkusu Joho Kenkyusho:Kk Method and system for automatic composition, and storage medium therefor
JP2002162968A (en) * 2000-11-28 2002-06-07 M Zone:Kk Automatic music forming method, automatic music forming program and recording medium recorded with automatic music forming program
WO2003081572A1 (en) * 2002-03-25 2003-10-02 Yoshihiko Sano Representation generation method, representation generation device, and representation generation system
JP2004226671A (en) * 2003-01-22 2004-08-12 Omron Corp Music data generation system, music data generation server system, and music data generation method
JP2009020714A (en) * 2007-07-12 2009-01-29 Nec Soft Ltd Base sequence comparison device, base sequence comparison method, and program with sound
JP2010224327A (en) * 2009-03-25 2010-10-07 Fujitsu Ltd Melody creation device, melody creation program and melody creation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI789403B (en) * 2017-07-06 2023-01-11 美商尼可拉斯 亞歷山大有限責任公司 Systems and methods for providing a tone emitting device that communicates data

Also Published As

Publication number Publication date
JP6081382B2 (en) 2017-02-15
JP2014224976A (en) 2014-12-04

Similar Documents

Publication Publication Date Title
US10217464B2 (en) Vocabulary generation system
CA2929018C (en) Natural expression processing method, processing and response method, device and system
CN1942875B (en) Dialogue supporting apparatus
KR101260087B1 (en) Phonetic input using a keypad
KR101326354B1 (en) Transliteration device, recording medium, and method
CN107924394A (en) For providing the natural language processor of the natural language signal in natural language output
CN108287820A (en) A kind of generation method and device of text representation
CA2705904A1 (en) An apparatus, method and computer readable medium for chinese character selection and output
US11861318B2 (en) Method for providing sentences on basis of persona, and electronic device supporting same
CN111142681A (en) Method, system, device and storage medium for determining pinyin of Chinese characters
WO2015105142A1 (en) Speech generation device, speech generation method, and program
CA2488961A1 (en) Systems and methods for semantic stenography
JP2011076384A (en) Information output device and information output program
JP7308550B2 (en) Utterance generation device, utterance generation method, and computer program
JP2019125154A (en) Information processing device, dialogue data processing method, and information processing system
WO2017122872A1 (en) Device and method for generating information on electronic publication
JP7144795B2 (en) Japanese character conversion program and Japanese character conversion device
US20230400933A1 (en) Adaptive chord typing system
KR20150030586A (en) Method for providing naming service and apparatus thereof
JP7429974B2 (en) Inspection device, learning device, inspection method, learning device production method, and program
KR102675139B1 (en) Apparatus for evaluating speaking ability by evaluation item using a speaking scoring artificial intelligence model
US20240121206A1 (en) Electronic device for identifying image combined with text in multimedia content and method thereof
JP7012935B1 (en) Programs, information processing equipment, methods
CN113488010B (en) Music data generation method, device, equipment and storage medium
US20230214688A1 (en) Method, Apparatus for Determining Answer to Question, Device, Storage Medium and Program Product

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15735546

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15735546

Country of ref document: EP

Kind code of ref document: A1