WO2023073887A1 - 情報処理システム、情報処理装置、情報処理方法、及び記録媒体 - Google Patents

情報処理システム、情報処理装置、情報処理方法、及び記録媒体 Download PDF

Info

Publication number
WO2023073887A1
WO2023073887A1 PCT/JP2021/039901 JP2021039901W WO2023073887A1 WO 2023073887 A1 WO2023073887 A1 WO 2023073887A1 JP 2021039901 W JP2021039901 W JP 2021039901W WO 2023073887 A1 WO2023073887 A1 WO 2023073887A1
Authority
WO
WIPO (PCT)
Prior art keywords
text data
data
information processing
converted
speech
Prior art date
Application number
PCT/JP2021/039901
Other languages
English (en)
French (fr)
Inventor
仁 山本
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/039901 priority Critical patent/WO2023073887A1/ja
Publication of WO2023073887A1 publication Critical patent/WO2023073887A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice

Definitions

  • This disclosure relates to the technical fields of information processing systems, information processing apparatuses, information processing methods, and recording media.
  • Patent Document 1 when training a speech recognition device using speech data and text data, for text data that does not have corresponding speech data, training is performed by generating pseudo learning data that does not rely on speech recognition. disclosed to do.
  • Patent Document 2 discloses generating a post-conversion utterance by obscuring at least part of the original utterance.
  • Patent Literature 3 discloses replacing part of a text with an alternative expression in which voice quality change is least likely to occur in an alternative expression set.
  • the purpose of this disclosure is to improve the technology disclosed in prior art documents.
  • One aspect of the information processing system disclosed herein includes first text data acquisition means for acquiring first text data; text data conversion means for converting the first text data to generate converted text data; Converted speech data generating means for generating converted speech data corresponding to the converted text data; and speech for generating text data corresponding to the speech data from speech data with the first text data and the converted speech data as inputs. and learning means for learning the recognition means.
  • One aspect of the information processing apparatus disclosed herein includes: first text data acquisition means for acquiring first text data; text data conversion means for converting the first text data to generate converted text data; Converted speech data generating means for generating converted speech data corresponding to the converted text data; and speech for generating text data corresponding to the speech data from speech data with the first text data and the converted speech data as inputs. and learning means for learning the recognition means.
  • One aspect of the information processing method of the present disclosure is an information processing method executed by at least one computer, which acquires first text data and converts the first text data to generate converted text data. and generating converted speech data corresponding to the converted text data, and receiving the first text data and the converted speech data as inputs, learning speech recognition means for generating text data corresponding to the speech data from the speech data. I do.
  • At least one computer acquires first text data, converts the first text data to generate converted text data, and converts the converted text data to Execution of an information processing method for generating converted speech data, inputting the first text data and the converted speech data, and training a speech recognition means for generating text data corresponding to the speech data from the speech data.
  • a computer program is recorded.
  • FIG. 2 is a block diagram showing the hardware configuration of the information processing system according to the first embodiment
  • FIG. 1 is a block diagram showing a functional configuration of an information processing system according to a first embodiment
  • FIG. 4 is a table showing an example of first text data and converted text data
  • 4 is a flow chart showing the flow of operations by the information processing system according to the first embodiment
  • It is a block diagram which shows the functional structure of the information processing system which concerns on 2nd Embodiment.
  • 9 is a flow chart showing the flow of operations by the information processing system according to the second embodiment
  • FIG. 11 is a block diagram showing a functional configuration of an information processing system according to a third embodiment
  • FIG. FIG. 12 is a block diagram showing a functional configuration of an information processing system according to a fourth embodiment
  • FIG. 12 is a block diagram showing a functional configuration of an information processing system according to a fifth embodiment;
  • FIG. 16 is a flow chart showing the flow of conversion unit learning operation by the information processing system according to the fifth embodiment;
  • FIG. FIG. 12 is a block diagram showing a functional configuration of an information processing system according to a sixth embodiment;
  • FIG. 16 is a flow chart showing the flow of conversion unit learning operation by the information processing system according to the sixth embodiment;
  • FIG. FIG. 21 is a plan view showing an example of presentation of second text data by an information processing system according to the sixth embodiment;
  • FIG. 22 is a block diagram showing a functional configuration of an information processing system according to a seventh embodiment;
  • FIG. 16 is a flow chart showing a flow of conversion unit learning operation by an information processing system according to the seventh embodiment;
  • FIG. FIG. 22 is a block diagram showing a functional configuration of an information processing system according to an eighth embodiment;
  • FIG. 22 is a block diagram showing a functional configuration of an information processing system according to a ninth embodiment;
  • FIG. 22 is a flow chart showing the flow of speech recognition operation by the information processing system according to the ninth embodiment;
  • FIG. FIG. 22 is a block diagram showing a functional configuration of an information processing system according to a tenth embodiment;
  • FIG. FIG. 22 is a flow chart showing the flow of speech recognition operation by the information processing system according to the tenth embodiment;
  • FIG. 1 An information processing system according to the first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 An information processing system according to the first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 An information processing system according to the first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 is a block diagram showing the hardware configuration of an information processing system according to the first embodiment.
  • an information processing system 10 includes a processor 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, and a storage device .
  • Information processing system 10 may further include an input device 15 and an output device 16 .
  • the processor 11 , RAM 12 , ROM 13 , storage device 14 , input device 15 and output device 16 are connected via a data bus 17 .
  • the processor 11 reads a computer program.
  • processor 11 is configured to read a computer program stored in at least one of RAM 12, ROM 13 and storage device .
  • the processor 11 may read a computer program stored in a computer-readable recording medium using a recording medium reader (not shown).
  • the processor 11 may acquire (that is, read) a computer program from a device (not shown) arranged outside the information processing system 10 via a network interface.
  • the processor 11 controls the RAM 12, the storage device 14, the input device 15 and the output device 16 by executing the read computer program.
  • the processor 11 may function as a controller that executes each control of the information processing system 10 .
  • the processor 11 includes, for example, a CPU (Central Processing Unit), GPU (Graphics Processing Unit), FPGA (Field-Programmable Gate Array), DSP (Demand-Side Platform), ASIC (Application Specific Integral ted circuit).
  • the processor 11 may be configured with one of these, or may be configured to use a plurality of them in parallel.
  • the RAM 12 temporarily stores computer programs executed by the processor 11.
  • the RAM 12 temporarily stores data temporarily used by the processor 11 while the processor 11 is executing the computer program.
  • the RAM 12 may be, for example, a D-RAM (Dynamic RAM).
  • the ROM 13 stores computer programs executed by the processor 11 .
  • the ROM 13 may also store other fixed data.
  • the ROM 13 may be, for example, a P-ROM (Programmable ROM).
  • the storage device 14 stores data that the information processing system 10 saves for a long period of time.
  • Storage device 14 may act as a temporary storage device for processor 11 .
  • the storage device 14 may include, for example, at least one of a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device.
  • the input device 15 is a device that receives input instructions from the user of the information processing system 10 .
  • Input device 15 may include, for example, at least one of a keyboard, mouse, and touch panel.
  • the input device 15 may be configured as a mobile terminal such as a smart phone or a tablet.
  • the output device 16 is a device that outputs information about the information processing system 10 to the outside.
  • the output device 16 may be a display device (eg, display) capable of displaying information regarding the information processing system 10 .
  • the output device 16 may be a speaker or the like capable of outputting information about the information processing system 10 by voice.
  • the output device 16 may be configured as a mobile terminal such as a smart phone or a tablet.
  • FIG. 1 illustrates an example of the information processing system 10 including a plurality of devices, but all or part of these functions may be realized by one device (information processing device).
  • This information processing apparatus is configured with, for example, only the processor 11, RAM 12, and ROM 13 described above, and the other components (that is, the storage device 14, the input device 15, and the output device 16) are It may be provided in an external device to be connected. Also, the information processing device may implement a part of the arithmetic function by an external device (for example, an external server, a cloud, etc.).
  • an external device for example, an external server, a cloud, etc.
  • FIG. 2 is a block diagram showing the functional configuration of the information processing system according to the first embodiment.
  • the information processing system 10 is configured to execute learning of the speech recognizer 50 .
  • the speech recognizer 50 is a device that generates text data from speech data. Training of the speech recognizer 50 is performed, for example, to generate text data with higher accuracy. Further, the speech recognizer 50 according to the present embodiment may have a function of correcting misspelled words and converting them into text. The training of the speech recognizer 50 may be training of a conversion model used by the speech recognizer 50 (that is, a model for converting speech data into text data). Note that the information processing system 10 according to the first embodiment does not include the speech recognizer 50 itself as a component, but may be configured as a system including the speech recognizer 50 .
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, a converted speech data generation unit 130, and a learning unit 140 as components for realizing its functions. and
  • Each of the first text data acquisition unit 110, the text data conversion unit 120, the converted speech data generation unit 130, and the learning unit 140 may be a processing block implemented by, for example, the above-described processor 11 (see FIG. 1).
  • the first text data acquisition unit 110 is configured to be able to acquire the first text data.
  • the first text data is text data acquired for training of the speech recognizer.
  • the first text data may be, for example, data consisting only of words, or may be text data in the form of sentences.
  • the first text data acquisition unit 110 may acquire a plurality of first text data. Note that the first text data acquisition unit 110 may acquire the first text data by voice input. That is, voice data may be converted into text data and acquired as the first text data.
  • the text data conversion unit 120 is configured to convert the first text data acquired by the first text data acquisition unit 110 to generate converted text data.
  • Converted text data is text data in which at least part of the first text data is converted into different characters.
  • the text data conversion unit 120 may generate one converted text data from one first text data, or may generate a plurality of converted text data from one first text data. A specific method of generating converted text data will be described in detail in another embodiment described later.
  • the converted speech data generation unit 130 is configured to be able to generate converted speech data from the converted text data generated by the text data conversion unit 120 . That is, the converted speech data generation unit 130 has a function of converting text data into speech data. As for the method of converting the text data into the voice data, existing technology can be appropriately adopted, so a detailed description thereof will be omitted here.
  • the learning unit 140 can execute learning of the speech recognizer 50 using the first text data acquired by the first text data acquisition unit 110 and the converted speech data generated by the converted speech data generation unit 130. is configured to That is, the learning unit 140 is configured to perform learning using sets of first text data and converted speech data that correspond to each other. The learning unit 140 may perform learning using multiple pieces of first text data and multiple pieces of converted speech data.
  • FIG. 3 is a table showing an example of first text data and converted text data.
  • the text data conversion unit 120 may generate converted text data of "Evation”, “Inno Innovation", and "Ino Sho”. In this way, the text data conversion unit 120 may generate converted text data assuming that the first text data is misspelled. In this example, three converted text data are generated from one first text data, but one or two converted text data may be generated, or four or more converted text data may be generated. may be generated. In addition, in the above-described example, the mispronunciation when the word is stuck is mentioned, but the conversion text data may be generated by assuming other mispronunciations. For example, the converted text data may be generated assuming misuse of words such as "revoke honor" and "recover stigma".
  • the text data conversion unit 120 may convert some words included in the sentence to generate converted text data.
  • the converted text data may be generated by converting only some words included in the sentence and not converting the other parts.
  • the text data conversion unit 120 may convert only long words or katakana words among a plurality of words included in the first text data.
  • the text data conversion unit 120 converts only the word “innovation” may be converted to generate converted text data of "collecting various data to cause an evation”. Also, the text data conversion unit 120 may convert a plurality of words included in a sentence to generate converted text. For example, the text data conversion unit 120 converts the words “innovation” and “data” in the above-described first text data “collecting various data to cause innovation” to “cause innovation”. You may generate the converted text data of "Collecting various dates for
  • the text data conversion unit 120 may exclude the word (that is, may not output the word as converted text data). if converted text data "invention" is generated as a result of converting first text data "innovation", the word may not be output as converted text data.
  • FIG. 4 is a flow chart showing the operation flow of the information processing system according to the first embodiment.
  • the first text data acquisition unit 110 first acquires first text data (step S101).
  • the first text data acquired by the first text data acquisition section 110 is output to each of the text data conversion section 120 and the learning section 140 .
  • the text data conversion unit 120 converts the first text data acquired by the first text data acquisition unit 110 to generate converted text data (step S102).
  • the converted text data generated by the text data converter 120 is output to the converted voice data generator 130 .
  • the converted speech data generation unit 130 generates converted speech data from the converted text data generated by the text data conversion unit 120 (step S103).
  • the converted speech data generated by the converted speech data generation section 130 is output to the learning section 140 .
  • the learning unit 140 causes the speech recognizer 50 to learn using the first text data acquired by the first text data acquisition unit 110 and the converted speech data generated by the converted speech data generation unit 130. Execute (step S104). Note that the series of processes described above may be repeatedly executed each time the first text data is obtained.
  • the speech recognizer 50 learns by inputting the first text data and converted speech text data.
  • the data used for learning can be expanded by converting the text data, so that more appropriate learning can be performed.
  • the speech recognizer 50 can recognize the misspelling in the speech data and generate the text data. Therefore, it is also possible for the speech recognizer 50 to generate text data in which erroneous words are automatically corrected.
  • FIG. 5 An information processing system 10 according to the second embodiment will be described with reference to FIGS. 5 and 6.
  • FIG. 5 It should be noted that the second embodiment may differ from the above-described first embodiment only in a part of configuration and operation, and the other parts may be the same as those of the first embodiment. Therefore, in the following, portions different from the already described first embodiment will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 5 is a block diagram showing the functional configuration of an information processing system according to the second embodiment.
  • symbol is attached
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, and a converted voice data generation unit as components for realizing its functions. It is composed of a unit 130 , a learning unit 140 and a first audio data generation unit 150 . That is, the information processing system 10 according to the second embodiment further includes a first audio data generator 150 in addition to the configuration of the first embodiment already described (see FIG. 2).
  • the first audio data generation unit 150 may be a processing block realized by, for example, the above-described processor 11 (see FIG. 1).
  • the first voice data generation unit 150 is configured to be able to generate first voice data from the first text data acquired by the first text data acquisition unit 110 . That is, the first voice data generator 150 has a function of converting text data into voice data.
  • the first audio data generator 150 has the same function as the converted audio data generator 130 already described. Therefore, the converted audio data generator 130 and the first audio data generator 150 may be configured as one common audio data generator. In this case, the voice data generation unit generates and outputs converted voice data when converted text data is input, and generates and outputs first voice data when first text data is input. .
  • FIG. 6 is a flow chart showing the operation flow of the information processing system according to the second embodiment.
  • the same reference numerals are assigned to the same processes as those shown in FIG.
  • the first text data acquisition unit 110 first acquires first text data (step S101).
  • the first text data acquired by the first text data acquisition section 110 is output to each of the text data conversion section 120 and the learning section 140 .
  • the first voice data generation unit 150 generates first voice data from the first text data acquired by the first text data acquisition unit 110 (step S201).
  • the first audio data generated by the first audio data generating section 150 is output to the learning section 140 .
  • the first voice data generation unit 150 generates the first voice data at a different timing. You may make it For example, the first audio data generation unit 150 may generate the first audio data after the converted text data is generated, or may generate the first audio data after the converted audio data is generated. good.
  • the text data conversion unit 120 converts the first text data acquired by the first text data acquisition unit 110 to generate converted text data (step S102).
  • the converted text data generated by the text data converter 120 is output to the converted voice data generator 130 .
  • the converted speech data generation unit 130 generates converted speech data from the converted text data generated by the text data conversion unit 120 (step S103).
  • the converted speech data generated by the converted speech data generation section 130 is output to the learning section 140 .
  • the learning unit 140 acquires the first text data acquired by the first text data acquisition unit 110, the converted speech data generated by the converted speech data generation unit 130, and the converted speech data generated by the first speech data generation unit 150.
  • Learning of the speech recognizer 50 is executed using the obtained first speech data (step S202). That is, in the second embodiment, in addition to the first text data and the converted speech data, the first speech data (that is, speech data corresponding to the first text data before conversion) is used for training of the speech recognizer 50. be done.
  • the speech recognizer 50 inputs the first text data, the converted speech data, and the first speech data. be learned. In this way, the speech recognizer 50 can be trained more appropriately than when the first speech data is not used for learning (that is, when learning is performed only with the first text data and the converted speech data). can be done. Specifically, since the first text data can be learned by taking into account what kind of text specifically indicates what kind of speech the first text data contains, it is possible to realize a speech recognizer 50 with higher accuracy. can.
  • FIG. 10 An information processing system 10 according to the third embodiment will be described with reference to FIG. It should be noted that the third embodiment may differ from the above-described first and second embodiments only in a part of the configuration and operation, and other parts may be the same as those of the first and second embodiments. . Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 7 is a block diagram showing the functional configuration of an information processing system according to the third embodiment.
  • symbol is attached
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, and a converted voice data generation unit as components for realizing its functions. It is configured with a unit 130 and a learning unit 140 .
  • the text data conversion section 120 according to the third embodiment has a conversion rule storage section 121 .
  • the conversion rule storage unit 121 may be implemented by, for example, the storage device 14 (see FIG. 1) described above.
  • the conversion rule storage unit 121 is configured to be able to store conversion rules for converting the first text data into converted text data.
  • the text data conversion unit 120 reads the conversion rule stored in the conversion rule storage unit 121 and converts the first text data into converted text data.
  • the conversion rule storage unit 121 may store only one conversion rule, or may store a plurality of conversion rules.
  • the text data conversion unit 120 may select one conversion rule from the plurality of conversion rules to generate converted text data.
  • the text data conversion unit 120 may select a conversion rule suitable for the input first text data.
  • the text data conversion section 120 may generate converted text data using each of a plurality of conversion rules. For example, after converting using the first conversion rule, the text data may be further converted using the second conversion rule.
  • the conversion rules stored in the conversion rule storage unit 121 may be configured so that they can be updated (for example, added, modified, deleted, etc.) as appropriate. Updating the conversion rules may be done manually. Alternatively, the updating of transformation rules may be done mechanically (eg, by machine learning). Also, the conversion rule storage unit 121 may be configured as a database outside the system. In this case, the text data conversion unit 120 itself does not have the conversion rule storage unit 121, and may read conversion rules from a database outside the system and generate converted text data.
  • conversion rule storage unit 121 (Concrete example of conversion rule) The conversion rules stored in the conversion rule storage unit 121 will be described below with some specific examples.
  • the conversion rule may be "remove some characters”.
  • the first text data "innovation” may be converted into converted text data "ivation", for example.
  • a conversion rule may be "add some characters”.
  • the first text data "innovation” may be converted into converted text data "innovation", for example.
  • a conversion rule may be "change some characters (eg, replace them with similar sounds)".
  • the first text data "innovation” may be converted into converted text data "innovation", for example.
  • a conversion rule may be "repeat first few characters”. In this case, the first text data "innovation” is converted into the converted text data "inoinnovation", for example.
  • the conversion rules may be rules that assume actual misspellings. For example, it is assumed that the word "patent permission" is frequently mispronounced as “tokky ⁇ ky ⁇ ky ⁇ ”. Based on such a practical example, a conversion rule may be set, for example, "change vowels and consonants for words with many consonants "k” after "patent”". Conversion rules based on such examples can also be learned using, for example, actual speech data.
  • the conversion rules described above are merely examples, and the conversion rules stored in the conversion rule storage unit 121 are not limited to the above rules.
  • the information processing system 10 As described with reference to FIG. 7, the information processing system 10 according to the third embodiment generates converted text data based on conversion rules. This makes it possible to generate converted text data more easily and appropriately. Further, if the conversion rule is updated as appropriate, it is possible to generate more appropriate converted text data than when the same conversion rule continues to be used.
  • FIG. 8 is a block diagram showing the functional configuration of an information processing system according to the fourth embodiment.
  • symbol is attached
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, and a converted voice data generation unit as components for realizing its functions. It comprises a unit 130 , a learning unit 140 , a second text data acquisition unit 200 and a conversion learning unit 210 . That is, the information processing system 10 according to the fourth embodiment further includes a second text data acquisition unit 200 and a conversion learning unit 210 in addition to the configuration of the first embodiment already described (see FIG. 2). ing.
  • Each of the second text data acquisition unit 200 and the conversion learning unit 210 may be a processing block realized by, for example, the processor 11 (see FIG. 1) described above.
  • the second text data acquisition unit 200 is configured to be able to acquire second text data for learning the text data conversion unit 120 .
  • the second text data may include, for example, a phrase assumed to be misspelled.
  • the second text data acquisition unit 200 may acquire a plurality of second text data.
  • the second text data acquisition unit 200 may acquire the second text data by voice input. That is, voice data may be converted into text data and obtained as second text data.
  • the conversion learning section 210 is configured to be able to learn the text data conversion section 120 using the second text data acquired by the second text data acquisition section 200 .
  • the learning of the text data conversion unit 120 here is performed so that the text data conversion unit 120 can generate more appropriate converted text data from the first text data.
  • the learning of the text data conversion unit 120 may be, for example, learning of the conversion rule described in the third embodiment (see FIG. 7).
  • the learning of the text data conversion unit 120 may be machine learning of a generative model that generates converted text data. A specific learning method by the conversion learning unit 210 will be described in detail in another embodiment described later.
  • the text data conversion unit 120 learns using the second text data. In this way, it becomes possible to learn the text data conversion unit 120 easily and appropriately. Further, by learning the text data conversion unit 120, it becomes possible to generate more appropriate converted text data from the first text data.
  • FIG. 9 An information processing system 10 according to the fifth embodiment will be described with reference to FIGS. 9 and 10.
  • FIG. 9 It should be noted that the fifth embodiment may differ from the above-described fourth embodiment only in a part of configuration and operation, and the other parts may be the same as those of the first to fourth embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 9 is a block diagram showing the functional configuration of an information processing system according to the fifth embodiment.
  • symbol is attached
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, and a converted voice data generation unit as components for realizing its functions. It comprises a unit 130 , a learning unit 140 , a second text data acquisition unit 200 and a conversion learning unit 210 .
  • the conversion learning section 210 according to the fifth embodiment has a similar word detection section 211 .
  • the similar word detection unit 211 is configured to be able to detect whether or not words similar to the second text data are included. More specifically, the similar word detection unit 211 is configured to detect whether or not a first word and a second word similar to each other are included within a predetermined range of the second text data.
  • the “predetermined range” here corresponds to a period of time until the user who has made a mispronunciation corrects the mispronunciation (specifically, corrects the mispronounced word), and an appropriate value is set in advance. All you have to do is leave it.
  • the predetermined range may be, for example, a range set for the number of characters of text data.
  • the similar word detection unit 211 may determine whether or not there are similar words within a range of 20 characters.
  • the predetermined range may be changeable by the user. For example, if too many similar words are detected, the predetermined range may be reduced (for example, 20 characters may be changed to 15 characters). Conversely, if it is difficult to detect similar words, the predetermined range may be greatly changed (for example, 20 characters may be changed to 30 characters).
  • similar words mean, for example, words that differ from each other by one letter or several letters, or words that have at least one letter with the same consonant but different vowels.
  • the similar word detection unit 211 may calculate the degree of similarity of each word included in the second text data to detect first and second words that are similar to each other. For example, the similar word detection unit 211 extracts words included in the second text data and calculates the degree of similarity of each extracted word. It should be noted that an existing technique can be appropriately adopted as a method of calculating the degree of similarity. Then, when it is determined that there is a set of words whose degree of similarity is higher than the predetermined threshold, the similar word detection unit 211 detects those words as the first word and the second word.
  • the predetermined threshold is a preset threshold for determining whether or not words are similar. The predetermined threshold may be changeable by the user.
  • the predetermined threshold may be greatly changed. Conversely, when it is difficult to detect similar words, the predetermined threshold may be reduced. Note that the similar word detection unit 211 may detect similar words (that is, the first word and the second word) by a method other than the method described above.
  • FIG. 10 is a flow chart showing the flow of conversion learning operation by the information processing system according to the fifth embodiment.
  • the second text data acquisition unit 200 first acquires the second text data (step S501).
  • the second text data acquired by the second text data acquisition section 200 is output to the conversion learning section 210 .
  • the similar word detection unit 211 in the conversion learning unit 210 determines whether or not similar words exist within a predetermined range of the second text data (step S502). Then, if there are similar words within the predetermined range (step S502: YES), the similar word detection unit 211 detects those words as the first word and the second word (step S503).
  • the similar word detection unit 211 detects "Invation” and “Innovation”. may be detected as the first word and the second word, respectively. In this way, when the speaker makes a mistake, the speaker who notices the mistake may correct the mistake immediately after that.
  • the similar word detection unit 211 may detect the misspelled word and the corrected word as the first word and the second word, respectively.
  • the similar word detection unit 211 may detect multiple sets of the first word and the second word from the second text data. For example, if the second text data contains a document stating, "We are collecting various dates and data in order to create innovation," the similar word detection unit 211 may detect “invention” and “innovation” as the first and second words, respectively, and “date” and “data” as the first and second words, respectively. good.
  • the similar word detection unit 211 may detect, in addition to the first word and the second word, a third word similar to them. For example, if the second text data includes the sentence "We are to cause innovation, to cause innovation, to cause innovation,", the similar word detection unit 211 detects " innovation”, “innovation” and “innovation” may be detected as the first word, the second word and the third word, respectively. Thus, when there are three or more similar words, all of them may be detected as similar words. That is, the words detected by the similar word detection unit 211 are not limited to the first word and the second word.
  • step S502 YES
  • the similar word detection unit 211 does not need to detect the first word and the second word (that is, the process of step S503 is may be omitted).
  • the conversion learning unit 210 uses the second text data to perform the learning of the text data conversion unit 120 (step S504).
  • the conversion learning unit 210 assumes that one of the first word and the second word is a mispronunciation of the other.
  • the text data conversion unit 120 is trained. For example, when “invation” and “innovation” are detected as the first word and the second word, the conversion learning unit 210 treats “invation” as a mispronunciation of “innovation” and treats the text data as The conversion unit 120 is trained. Also, when three or more similar words are detected, all of these words may be considered for learning.
  • the text The data conversion unit 120 may be trained. Note that when the first word and the second word are not detected, the conversion learning unit 210 causes the text data conversion unit 120 to perform learning without considering the existence of the first word and the second word. you can go
  • FIG. 11 to 13 An information processing system 10 according to the sixth embodiment will be described with reference to FIGS. 11 to 13.
  • FIG. It should be noted that the sixth embodiment may differ from the above-described fourth and fifth embodiments only in part in configuration and operation, and may be otherwise identical to the first to fifth embodiments. . Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 11 is a block diagram showing the functional configuration of an information processing system according to the sixth embodiment.
  • symbol is attached
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, and a converted voice data generation unit as components for realizing its functions. It comprises a unit 130 , a learning unit 140 , a second text data acquisition unit 200 , a conversion learning unit 210 , a second text data presentation unit 220 and a third text data acquisition unit 230 . That is, the information processing system 10 according to the sixth embodiment has, in addition to the configuration of the fourth embodiment already described (see FIG. 8), a second text data presentation unit 220, a third text data acquisition unit 230, is further provided.
  • Each of the second text data presentation unit 220 and the third text data acquisition unit 230 may be a processing block realized by the processor 11 (see FIG. 1) described above, for example. Also, the second text data presenting unit 220 may be realized including the output device 16 (see FIG. 1) described above.
  • the second text data presentation unit 220 is configured to present the second text data acquired by the second text data acquisition unit to the user.
  • the method of presenting the second text data by the second text data presenting unit 220 is not particularly limited.
  • the second text data presenting section 220 may display the second text data to the user via a display.
  • the second text data presenting unit 220 may output the second text data by voice through a speaker (that is, the text data may be converted into voice data and output).
  • a specific presentation method by the second text data presentation unit 220 will be described later in detail.
  • the third text data acquisition section 230 is configured to be able to acquire the third text data according to the user's input presented by the second text data presentation section 220 .
  • the third text data acquisition section 230 may acquire the third text data via the above-described input device 15 (see FIG. 1), for example.
  • the third text data is text data used for learning by the text data conversion unit 120, and is acquired as corresponding to the second text data.
  • the third text data may be obtained as text data showing examples of misspellings of the second text data.
  • FIG. 12 is a flow chart showing the flow of conversion learning operation by the information processing system according to the sixth embodiment.
  • the second text data acquisition unit 200 first acquires the second text data (step S601).
  • the second text data acquired by the second text data acquisition section 200 is output to the conversion learning section 210 and the second text data presentation section, respectively.
  • the second text data presentation unit 220 presents the second text data acquired by the second text data acquisition unit 200 to the user (step S602).
  • the third text data obtaining unit 230 receives the user's input and obtains the third text data (step S603).
  • the third text data acquired by third text data acquisition section 230 is output to conversion learning section 210 .
  • the conversion learning unit 210 converts text data using the second text data acquired by the second text data acquisition unit 200 and the third text data acquired by the third text data acquisition unit 230. Learning of the conversion unit 120 is executed (step S604). Note that the conversion learning unit 210 uses only the second text data when the third text data is not acquired (for example, when the user does not input). may be performed.
  • FIG. 13 is a plan view showing a presentation example of the second text data by the information processing system according to the sixth embodiment.
  • the display is used to present the second text data.
  • the second text data is displayed in the character string column.
  • the conversion example column is displayed as a space for the user to enter the third text data.
  • the second text data "innovation” is displayed in the character string column.
  • a message "Please enter a new character string here" is displayed as a message for prompting the user to enter. This message may disappear when the user starts typing.
  • the user who receives the presentation inputs the third text data corresponding to "innovation" which is the second text data.
  • the user may input multiple third text data. For example, the user may input "i-vation”, “ino-innovation”, “inoe-sho”, etc., which are examples of misspellings of "innovation", as the third text data.
  • the plurality of acquired pieces of second text data can be displayed in a list format.
  • the third text data corresponding to each of the plurality of second text data may be input by displaying.
  • a plurality of words included in one piece of second text data a plurality of words included in the second text data are extracted, each word is displayed in a list format, and each word is displayed in a list format. You may make it input the 3rd text data to carry out.
  • the information processing system 10 presents the second text data, and acquires the third text data according to the user's input. Then, when learning the text data conversion unit 120, the third text data is used in addition to the second text data. In this way, more appropriate learning can be performed than when learning is performed using only the second text data. For example, by using the third text data, which is an example of misrepresentation of the second text data, for learning, the text data conversion unit 120 can generate appropriate converted text data.
  • FIG. 14 and 15 An information processing system 10 according to the seventh embodiment will be described with reference to FIGS. 14 and 15.
  • FIG. It should be noted that the seventh embodiment may differ only in part in configuration and operation from the fourth to sixth embodiments described above, and may be the same as the first to sixth embodiments in other respects. . Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 14 is a block diagram showing the functional configuration of an information processing system according to the seventh embodiment.
  • symbol is attached
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, and a converted voice data generation unit as components for realizing its functions. It comprises a unit 130 , a learning unit 140 , a second text data acquisition unit 200 , a conversion learning unit 210 , a minutes text data acquisition unit 240 , and a tension level acquisition unit 250 . That is, the information processing system 10 according to the seventh embodiment further includes a minutes text data acquisition unit 240 and a tension level acquisition unit 250 in addition to the configuration of the fourth embodiment already described (see FIG. 8). I have.
  • Each of the minutes text data acquisition unit 240 and the tension level acquisition unit 250 may be a processing block realized by, for example, the above-described processor 11 (see FIG. 1).
  • the minutes text data acquisition unit 240 is configured to be able to acquire a plurality of minutes text data. Minutes text data is data obtained by converting the content of speech in a conference into text.
  • the minutes text data acquisition unit 240 may acquire minutes text data that has been converted into text outside the system, or acquires speech content (speech data), converts it into text, and acquires minutes text data. You may
  • the minutes text data may include information about the conference and information about the participants of the conference.
  • the minutes text data may include information identifying who the speaker is. For example, each sentence included in the minutes text data may be associated with information for identifying a speaker.
  • the tension level acquisition unit 250 is configured to be able to acquire the tension level of the meeting on which the minutes text data is based.
  • the tension level acquisition unit 250 may acquire the tension level based on the minutes text data.
  • the tension level acquiring unit 250 may acquire information about the meeting separately from the minutes text data, and acquire the tension level from the information.
  • the tension level may be obtained, for example, based on the participants in the meeting. For example, a high value of tension may be acquired for a meeting in which a company executive participates or a meeting in which participants from other companies are included. Also, for a meeting in which only employees in the same department participate or a meeting in which only young employees participate, a low value of tension may be acquired. Alternatively, the tension level may be obtained according to the scale of the meeting.
  • a high value of tension may be obtained for a meeting with 1000 or more participants.
  • a low value of tension may be obtained.
  • the tension level may be, for example, three levels of "low”, “medium”, and “high”, or may be finer values (eg, values of "1 to 100").
  • FIG. 15 is a flow chart showing the flow of conversion learning operation by the information processing system according to the seventh embodiment.
  • the minutes text data acquisition unit 240 first acquires a plurality of minutes text data (step S701). A plurality of minutes text data acquired by the minutes text data acquisition unit 240 is output to the tension level acquisition unit 250 .
  • the minutes text data acquisition unit 240 may output only information about meetings corresponding to a plurality of minutes text data (that is, only information used to acquire the tension level) to the tension level acquisition unit 250 .
  • the tension level acquisition unit 250 acquires the tension level of the meeting (step S702).
  • the information on the tension level acquired by the tension level acquisition unit 250 is output as the second text data.
  • the second text data acquisition unit 200 acquires second text data based on the tension level acquired by the tension level acquisition unit 250 (step S703). Specifically, the second text data acquisition unit 200 acquires, as the second text data, data with a degree of tension higher than a predetermined value among the plurality of minutes data acquired by the minutes text data acquisition unit 240. .
  • the "predetermined value” here is a threshold value for determining whether or not the degree of tension is high enough to determine that there is a high possibility of mispronunciation, and is set in advance.
  • the predetermined value may be configured to be appropriately changeable by the user.
  • the predetermined value may be changed to a higher value.
  • the second text data acquired by the second text data acquisition section 200 is output to the conversion learning section 210 .
  • the conversion learning unit 210 uses the second text data to perform the learning of the text data conversion unit 120 (step S704). That is, the conversion learning unit 210 executes the learning of the text data conversion unit 120 using the minutes text data with the degree of tension higher than a predetermined value.
  • the minutes text data in which the tension level of the meeting is higher than a predetermined value is acquired as the second text data.
  • the text data conversion unit 120 can learn more appropriately.
  • the configuration for executing the learning of the text data conversion unit 120 using the second text data has been described, but the configuration of each of these embodiments may be combined. That is, the text data conversion unit 120 may learn by combining the configurations of the fourth to seventh embodiments.
  • FIG. 10 An information processing system 10 according to the eighth embodiment will be described with reference to FIG. It should be noted that the eighth embodiment may differ from the above-described first to seventh embodiments only in a part of the configuration and operation, and the other parts may be the same as those of the first to seventh embodiments. . Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 16 is a block diagram showing the functional configuration of an information processing system according to the eighth embodiment.
  • symbol is attached
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, and a converted voice data generation unit as components for realizing its functions. It is composed of a unit 130 , a learning unit 140 and a speech recognition unit 300 . That is, the information processing system 10 according to the eighth embodiment further includes a speech recognition section 300 in addition to the configuration of the first embodiment (see FIG. 2) already described.
  • the speech recognition unit 300 may be, for example, a processing block implemented by the above-described processor 11 (see FIG. 1).
  • the speech recognition unit 300 is configured to convert input speech data into text data and output the text data. That is, the speech recognition section 300 has the same function as the speech recognizer 50 described in the first to seventh embodiments. Also, the speech recognition unit 300 is configured to be learned by the learning unit 140 in the same manner as the speech recognizer 50 . That is, the speech recognition unit 300 is trained using the first text data and the converted speech data. While the speech recognizer 50 described in the first to seventh embodiments is not included in the information processing system 10, the speech recognition unit 300 is included in the information processing system 10. there is The speech recognition section 300 also includes a misspelling correction section 301 .
  • the misspelling correction unit 301 is configured to be able to correct the misspellings included in the voice data. Therefore, when speech data including mispronunciation is input to the speech recognition unit 300, text data in which the mispronunciation is corrected is output.
  • the mispronunciation correction unit 301 may correct the mispronouncement, for example, after converting the voice data into text. That is, the speech data may be converted into text while including the mispronunciation, and then the mispronunciation may be corrected.
  • the misspelling corrector 301 may correct the misspelling in the process of converting the voice data into text. In other words, when speech data including mispronunciation is input, text data in which the mispronunciation has been corrected may be generated.
  • the mispronunciation correction unit 301 may correct all mispronunciations or may correct some of the mispronunciations. good. A configuration for correcting some misspelled words will be described in detail in another embodiment described later.
  • the speech recognition unit 300 executes a process of correcting mispronunciation (or a process of generating text data in which the mispronunciation is corrected). . In this way, even if erroneous speech data is input, it is possible to correct the erroneous speech and output appropriate text data (text data without the erroneous speech).
  • FIG. 17 and 18 An information processing system 10 according to the ninth embodiment will be described with reference to FIGS. 17 and 18.
  • FIG. The ninth embodiment may differ from the eighth embodiment described above only in a part of the configuration and operation, and the other parts may be the same as those of the first to eighth embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 17 is a block diagram showing the functional configuration of an information processing system according to the ninth embodiment.
  • symbol is attached
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, and a converted voice data generation unit as components for realizing its functions. It is composed of a unit 130 , a learning unit 140 and a speech recognition unit 300 .
  • the speech recognition section 300 according to the ninth embodiment includes a score calculation section 302 in addition to the misspelling correction section 301 described in the eighth embodiment (see FIG. 16).
  • the score calculation unit 302 is configured to be able to calculate a score that indicates the possibility that the voice data contains mispronunciation.
  • This score may be a score calculated based on words included in the audio data. For example, if you mispronounce "innovation” as “evation,” “innovation” is a common dictionary word, but “evation” is a non-dictionary word. In this case, it may be determined that "innovation” is likely to be a misspelling of "innovation”, and a relatively high score may be calculated. On the other hand, if you mispronounce "data” as "date”, then both "data” and "date” are words in the general dictionary.
  • the misspelled word correction unit 301 is configured to be able to determine whether or not to correct the misspelled word based on the score calculated by the score calculation unit 302 .
  • the misspelling corrector 301 may compare the calculated score with a predetermined reference score to determine whether to correct the misspelling.
  • the mispronunciation correction unit 301 may correct the mispronunciation when the calculated score is higher than the reference score, and may not correct the mispronunciation when the calculated score is lower than the reference score.
  • the score is high, mistakes are corrected, if the score is moderate, a caution (warning that there is a possibility of a mistake) is inserted, and if the score is low, mistakes are corrected.
  • the degree of correction may be changed according to the score. For example, if the score is high, the degree of correction is high, so that relatively many words are corrected, and if the score is low, the degree of correction is low, so that relatively few words are corrected. may be made.
  • FIG. 18 is a flow chart showing the flow of speech recognition operation by the information processing system according to the ninth embodiment.
  • the speech recognition unit 300 first acquires speech data (step S901). Then, the score calculation unit 302 calculates a score indicating the possibility that the speech data contains a mispronunciation (step S902).
  • the misspelling correction unit 301 determines whether the score calculated by the score calculation unit 302 is higher than the reference score (step S903). If the calculated score is higher than the reference score (step S903: YES), the misspelling corrector 301 corrects the misspelling. Therefore, the text data in which the misspelling has been corrected is output (step S904). On the other hand, if the calculated score is lower than the reference score (step S903: NO), the misspelling corrector 301 does not correct the misspelling. Therefore, the text data in which the misspelling has not been corrected is output (step S905).
  • Whether or not to modify may be determined on a word-by-word basis, on a sentence-by-sentence basis, or on a data-by-data basis.
  • the information processing system 10 determines whether or not to correct the misspelled words contained in the voice data based on the calculated score. In this way, it is possible to appropriately correct the misspelled words, while preventing the parts that are not the misspelled words from being erroneously corrected.
  • FIG. 19 An information processing system 10 according to the tenth embodiment will be described with reference to FIGS. 19 and 20.
  • FIG. It should be noted that the tenth embodiment is only partially different in configuration and operation from the eighth and ninth embodiments described above, and other parts may be the same as those of the first to eighth embodiments. . Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 19 is a block diagram showing the functional configuration of an information processing system according to the tenth embodiment.
  • symbol is attached
  • the information processing system 10 includes a first text data acquisition unit 110, a text data conversion unit 120, and a converted voice data generation unit as components for realizing its functions. It is composed of a unit 130 , a learning unit 140 and a speech recognition unit 300 .
  • the speech recognition unit 300 according to the tenth embodiment includes a tension level determination unit 303 in addition to the misspelling correction unit 301 described in the eighth embodiment (see FIG. 16). It is assumed that recorded proceedings voice data including the content of speech in the conference is input to the speech recognition unit 300 relating to the tenth implementation.
  • the tension determination unit 303 is configured to be able to determine the tension of the meeting in which the proceedings recording voice data is recorded.
  • the tension level determination unit 303 may determine the tension level by, for example, the same method as the tension level acquisition unit 250 (see FIG. 14) described above.
  • the tension level determination unit 303 may acquire the tension level based on the pseudo-theory speech data.
  • the tension level determination unit 303 may acquire information about the meeting separately from the proceedings recorded voice data, and acquire the tension level from the information.
  • the tension level may be acquired according to, for example, the participants in the conference, the scale of the conference, and the like.
  • the mispronunciation correction unit 301 is configured to be able to determine whether or not to correct the mispronunciation based on the tension level determined by the tension level determination unit 303 .
  • the mispronunciation correction unit 301 may compare the determined tension level with a predetermined reference value to determine whether or not to correct the mispronunciation.
  • the mispronunciation correction unit 301 may correct the mispronunciation when the determined tension level is higher than a reference value, and may not correct the mispronunciation when it is lower than the reference value.
  • the degree of correction may be changed according to the degree of tension. For example, when the tension is high, the degree of correction is increased, so that relatively many words are corrected, and when the tension is low, the degree of correction is decreased, so that relatively few words are corrected. may be modified.
  • FIG. 20 is a flow chart showing the flow of speech recognition operation by the information processing system according to the tenth embodiment.
  • the speech recognition unit 300 first acquires speech data (recorded proceedings speech data) (step S1001). Then, the tension level determination unit 303 determines the tension level of the conference in which the recorded proceedings voice data is recorded (step S1002).
  • the misspelling correction unit 301 determines whether the tension determined by the tension determination unit 303 is higher than a reference value (step S1003). If the determined tension level is higher than the reference value (step S1003: YES), the mispronunciation correction unit 301 corrects the mispronunciation. Therefore, the text data in which the misspelling has been corrected is output (step S1004). On the other hand, if the determined tension level is lower than the reference value (step S1003: NO), the mispronunciation correction unit 301 does not correct the mispronunciation. Therefore, the text data in which the misspelling has not been corrected is output (step S1005).
  • Whether or not to modify may be determined on a word-by-word basis, sentence-by-sentence basis, or data-by-data basis.
  • the information processing system 10 determines whether or not to correct mispronunciations contained in the voice data based on the tension level of the meeting. In this way, it is possible to appropriately correct the misspelled words, while preventing the parts that are not the misspelled words from being erroneously corrected.
  • the configuration in which the information processing system 10 includes the speech recognition unit 300 has been described, but the configuration of each of these embodiments may be combined. That is, the speech recognition unit 300 that performs the speech recognition operation may be realized by combining the configurations of the eighth to tenth embodiments.
  • a processing method of recording a program for operating the configuration of each embodiment so as to realize the functions of each embodiment described above on a recording medium, reading the program recorded on the recording medium as a code, and executing it on a computer is also implemented. Included in the category of form. That is, a computer-readable recording medium is also included in the scope of each embodiment. In addition to the recording medium on which the above program is recorded, the program itself is also included in each embodiment.
  • a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, non-volatile memory card, and ROM can be used as recording media.
  • the program recorded on the recording medium alone executes the process, but also the one that operates on the OS and executes the process in cooperation with other software and functions of the expansion board. included in the category of Furthermore, the program itself may be stored on the server, and part or all of the program may be downloaded from the server to the user terminal.
  • the information processing system includes first text data acquisition means for acquiring first text data, text data conversion means for converting the first text data to generate converted text data, and the conversion Converted speech data generating means for generating converted speech data corresponding to text data; and speech recognition means for receiving the first text data and the converted speech data as inputs and generating text data corresponding to the speech data from the speech data. and learning means for learning the information processing system. is.
  • the information processing system according to Supplementary Note 2 further includes first audio data generation means for generating first audio data corresponding to the first text data, and the learning means generates the first text data, the 1.
  • Appendix 3 In the information processing system according to appendix 3, the information according to appendix 1 or 2, wherein the text data conversion means stores at least one conversion rule, and generates the converted text data based on the conversion rule. processing system.
  • the information processing system according to appendix 4 includes second text data acquisition means for acquiring second text data, and conversion learning means for learning the text data conversion means using the second text data.
  • the information processing system according to appendix 6 includes presenting means for presenting the second text data to a user, and corresponding to the second text data according to the user's operation received by the presenting means.
  • third text data acquisition means for acquiring third text data, wherein the conversion learning means uses the second text data and the third text data to learn the text data conversion means.
  • the information processing system includes minutes text data acquisition means for acquiring a plurality of minutes text data in which contents of speech in a meeting are converted into text, and tension level acquisition means for acquiring the tension level of the meeting. 7. Any one of Appendices 4 to 6, wherein the second text data acquisition means further comprises, from among the plurality of minutes text data, acquisition of text data with a degree of tension higher than a predetermined value as the second text data. 1. The information processing system according to claim 1.
  • the information processing system according to supplementary note 8 further comprises the speech recognition means, and the speech recognition means outputs the text data in which mispronunciations in the speech data are corrected based on the learning result of the learning means.
  • the information processing system according to any one of Appendices 1 to 7.
  • the speech recognition means calculates a score indicating the possibility that the speech data includes a mispronunciation, and corrects the mispronunciation in the speech data based on the score. 9. The information processing system according to appendix 8, wherein the information processing system determines whether the
  • the voice data is recorded proceedings voice data including utterance content in a meeting, and the voice recognition means determines the degree of tension of the conference, and based on the degree of tension, the 10.
  • the information processing apparatus includes: first text data acquisition means for acquiring first text data; text data conversion means for converting the first text data to generate converted text data; Converted speech data generating means for generating converted speech data corresponding to text data; and speech recognition means for receiving the first text data and the converted speech data as inputs and generating text data corresponding to the speech data from the speech data. and learning means for learning the information processing apparatus.
  • the information processing method according to appendix 12 is an information processing method executed by at least one computer, wherein first text data is obtained, the first text data is converted to generate converted text data, training a speech recognition means for generating converted speech data corresponding to the converted text data, receiving the first text data and the converted speech data as input, and generating text data corresponding to the speech data from the speech data; , an information processing method.
  • the recording medium according to appendix 13 is provided in at least one computer for acquiring first text data, converting the first text data to generate converted text data, and generating converted speech corresponding to the converted text data.
  • a computer program for executing an information processing method for generating data, inputting the first text data and the converted speech data, and training a speech recognition means for generating text data corresponding to the speech data from the speech data. is a recording medium on which is recorded.
  • appendix 14 The computer program according to appendix 14 causes at least one computer to acquire first text data, convert the first text data to generate converted text data, and generate converted speech corresponding to the converted text data.
  • a computer program for executing an information processing method for generating data, inputting the first text data and the converted speech data, and training a speech recognition means for generating text data corresponding to the speech data from the speech data. is.

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

情報処理システム(10)は、第1のテキストデータを取得する第1テキストデータ取得手段(110)と、第1のテキストデータを変換して変換テキストデータを生成するテキストデータ変換手段(120)と、変換テキストデータに対応する変換音声データを生成する変換音声データ生成手段(130)と、第1のテキストデータ及び変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う学習手段(140)と、を備える。

Description

情報処理システム、情報処理装置、情報処理方法、及び記録媒体
 この開示は、情報処理システム、情報処理装置、情報処理方法、及び記録媒体の技術分野に関する。
 この種のシステムとして、音声認識器に関する学習を行うものが知られている。例えば特許文献1では、音声データ及びテキストデータを用いて音声認識装置を学習する場合に、対応する音声データがないテキストデータについては、音声認識によらない擬似的な学習データを生成して学習を行うことが開示されている。
 その他の関連する技術として、特許文献2では、オリジナル発話文の少なくとも一部を曖昧化することにより、変換後発話文を生成することが開示されている。特許文献3では、テキストの一部を、代替表現セットの中で最も声質変化の起こりにくい代替表現で置換することが開示されている。
特開2014-074732号広報 特開2017-208003号公報 国際公開第2007/010680号
 この開示は、先行技術文献に開示された技術を改善することを目的とする。
 この開示の情報処理システムの一の態様は、第1のテキストデータを取得する第1テキストデータ取得手段と、前記第1のテキストデータを変換して変換テキストデータを生成するテキストデータ変換手段と、前記変換テキストデータに対応する変換音声データを生成する変換音声データ生成手段と、前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う学習手段と、を備える。
 この開示の情報処理装置の一の態様は、第1のテキストデータを取得する第1テキストデータ取得手段と、前記第1のテキストデータを変換して変換テキストデータを生成するテキストデータ変換手段と、前記変換テキストデータに対応する変換音声データを生成する変換音声データ生成手段と、前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う学習手段と、を備える。
 この開示の情報処理方法の一の態様は、少なくとも1つのコンピュータが実行する情報処理方法であって、第1のテキストデータを取得し、前記第1のテキストデータを変換して変換テキストデータを生成し、前記変換テキストデータに対応する変換音声データを生成し、前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う。
 この開示の記録媒体の一の態様は、少なくとも1つのコンピュータに、第1のテキストデータを取得し、前記第1のテキストデータを変換して変換テキストデータを生成し、前記変換テキストデータに対応する変換音声データを生成し、前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う、情報処理方法を実行させるコンピュータプログラムが記録されている。
第1実施形態に係る情報処理システムのハードウェア構成を示すブロック図である。 第1実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第1のテキストデータ及び変換テキストデータの一例を示す表である。 第1実施形態に係る情報処理システムによる動作の流れを示すフローチャートである。 第2実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第2実施形態に係る情報処理システムによる動作の流れを示すフローチャートである。 第3実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第4実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第5実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第5実施形態に係る情報処理システムによる変換部学習動作の流れを示すフローチャートである。 第6実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第6実施形態に係る情報処理システムによる変換部学習動作の流れを示すフローチャートである。 第6実施形態に係る情報処理システムによる第2のテキストデータの提示例を示す平面図である。 第7実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第7実施形態に係る情報処理システムによる変換部学習動作の流れを示すフローチャートである。 第8実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第9実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第9実施形態に係る報処理システムによる音声認識動作の流れを示すフローチャートである。 第10実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第10実施形態に係る報処理システムによる音声認識動作の流れを示すフローチャートである。
 以下、図面を参照しながら、情報処理システム、情報処理装置、情報処理方法、及び記録媒体の実施形態について説明する。
 <第1実施形態>
 第1実施形態に係る情報処理システムについて、図1から図4を参照して説明する。
 (ハードウェア構成)
 まず、図1を参照しながら、第1実施形態に係る情報処理システムのハードウェア構成について説明する。図1は、第1実施形態に係る情報処理システムのハードウェア構成を示すブロック図である。
 図1に示すように、第1実施形態に係る情報処理システム10は、プロセッサ11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、記憶装置14とを備えている。情報処理システム10は更に、入力装置15と、出力装置16と、を備えていてもよい。上述したプロセッサ11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16とは、データバス17を介して接続されている。
 プロセッサ11は、コンピュータプログラムを読み込む。例えば、プロセッサ11は、RAM12、ROM13及び記憶装置14のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込むように構成されている。或いは、プロセッサ11は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。プロセッサ11は、ネットワークインタフェースを介して、情報処理システム10の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。プロセッサ11は、読み込んだコンピュータプログラムを実行することで、RAM12、記憶装置14、入力装置15及び出力装置16を制御する。本実施形態では特に、プロセッサ11が読み込んだコンピュータプログラムを実行すると、プロセッサ11内には、音声認識器の学習を実行するための機能ブロックが実現される。即ち、プロセッサ11は、情報処理システム10の各制御を実行するコントローラとして機能してよい。
 プロセッサ11は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)として構成されてよい。プロセッサ11は、これらのうち一つで構成されてもよいし、複数を並列で用いるように構成されてもよい。
 RAM12は、プロセッサ11が実行するコンピュータプログラムを一時的に記憶する。RAM12は、プロセッサ11がコンピュータプログラムを実行している際にプロセッサ11が一時的に使用するデータを一時的に記憶する。RAM12は、例えば、D-RAM(Dynamic RAM)であってもよい。
 ROM13は、プロセッサ11が実行するコンピュータプログラムを記憶する。ROM13は、その他に固定的なデータを記憶していてもよい。ROM13は、例えば、P-ROM(Programmable ROM)であってもよい。
 記憶装置14は、情報処理システム10が長期的に保存するデータを記憶する。記憶装置14は、プロセッサ11の一時記憶装置として動作してもよい。記憶装置14は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
 入力装置15は、情報処理システム10のユーザからの入力指示を受け取る装置である。入力装置15は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。入力装置15は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。
 出力装置16は、情報処理システム10に関する情報を外部に対して出力する装置である。例えば、出力装置16は、情報処理システム10に関する情報を表示可能な表示装置(例えば、ディスプレイ)であってもよい。また、出力装置16は、情報処理システム10に関する情報を音声出力可能なスピーカ等であってもよい。出力装置16は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。
 なお、図1では、複数の装置を含んで構成される情報処理システム10の例を挙げたが、これらの全部又は一部の機能を、1つの装置(情報処理装置)で実現してもよい。この情報処理装置は、例えば、上述したプロセッサ11、RAM12、ROM13のみを備えて構成され、その他の構成要素(即ち、記憶装置14、入力装置15、出力装置16)については、例えば情報処理装置に接続される外部の装置が備えるようにしてもよい。また、情報処理装置は、一部の演算機能を外部の装置(例えば、外部サーバやクラウド等)によって実現するものであってもよい。
 (機能的構成)
 次に、図2を参照しながら、第1実施形態に係る情報処理システム10の機能的構成について説明する。図2は、第1実施形態に係る情報処理システムの機能的構成を示すブロック図である。
 図2に示すように、第1実施形態に係る情報処理システム10は、音声認識器50の学習を実行するものとして構成されている。音声認識器50は、音声データからテキストデータを生成する装置である。音声認識器50の学習は、例えばより高い精度でテキストデータを生成するために実行される。また、本実施形態に係る音声認識器50は、言い間違いを修正してテキスト化する機能を有していてもよい。音声認識器50の学習は、音声認識器50が用いる変換モデル(即ち、音声データをテキストデータに変換するモデル)を学習するものであってもよい。なお、第1実施形態に係る情報処理システム10は、音声認識器50自体を構成要素として含むものではないが、音声認識器50を含むシステムとして構成されてもよい。
 第1実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、を備えて構成されている。第1テキストデータ取得部110、テキストデータ変換部120、変換音声データ生成部130、及び学習部140の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 第1テキストデータ取得部110は、第1のテキストデータを取得可能に構成されている。第1のテキストデータは、音声認識器の学習用に取得されるテキストデータである。第1のテキストデータは、例えば単語のみからなるデータであってもよいし、文章形式のテキストデータであってもよい。第1テキストデータ取得部110は、第1のテキストデータを複数取得してもよい。なお、第1テキストデータ取得部110は、音声入力によって第1のテキストデータを取得してもよい。即ち、音声データをテキストデータに変換して、第1のテキストデータとして取得してもよい。
 テキストデータ変換部120は、第1テキストデータ取得部110で取得された第1のテキストデータを変換して、変換テキストデータを生成可能に構成されている。変換テキストデータは、第1のテキストデータの少なくとも一部が別の文字に変換されたテキストデータである。テキストデータ変換部120は、1つの第1テキストデータから1つの変換テキストデータを生成してもよいし、1つの第1テキストデータから複数の変換テキストデータを生成してもよい。変換テキストデータの具体的な生成方法については、後述する他の実施形態で詳しく説明する。
 変換音声データ生成部130は、テキストデータ変換部120で生成された変換テキストデータから変換音声データを生成可能に構成されている。即ち、変換音声データ生成部130は、テキストデータを音声データに変換する機能を有している。なお、テキストデータを音声データに変換する手法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略するものとする。
 学習部140は、第1テキストデータ取得部110で取得された第1のテキストデータと、変換音声データ生成部130で生成された変換音声データと、を用いて音声認識器50の学習を実行可能に構成されている。即ち、学習部140は、互いに対応する第1のテキストデータ及び変換音声データの組を用いて学習を実行するように構成されている。学習部140は、複数の第1のテキストデータ、及び複数の変換音声データを用いて学習を実行してよい。
 (変換テキストデータの具体例)
 次に、図3を参照しながら、変換テキストデータの具体例について説明する。図3は、第1のテキストデータ及び変換テキストデータの一例を示す表である。
 図3に示すように、第1テキストデータ取得部110が「イノベーション」という第1のテキストデータを取得したとする。この場合、テキストデータ変換部120は、「イベーション」、「イノイノベーション」、及び「イノエショー」という変換テキストデータを生成してよい。このようにテキストデータ変換部120は、第1のテキストデータの言い間違いとして想定されるものとして変換テキストデータを生成してよい。なお、ここでは、1つの第1のテキストデータから3つの変換テキストデータを生成する例を挙げているが、1つや2つの変換テキストデータが生成されてもよいし、4つ以上の変換テキストデータが生成されてもよい。また、上述した例では、言葉に詰まった場合の言い間違いを挙げているが、その他の言い間違い等を想定して変換テキストデータを生成してもよい。例えば、「名誉返上」や「汚名挽回」等の誤用による言い間違いを想定して変換テキストデータを生成してもよい。
 第1のテキストデータが文章形式である場合、テキストデータ変換部120は、その文章に含まれる一部の単語を変換して変換テキストデータを生成してよい。言い換えれば、文章に含まれる一部の単語のみを変換して、その他の部分については変換せずに変換テキストデータを生成してもよい。例えば、テキストデータ変換部120は、第1のテキストデータに含まれる複数の単語のうち、長い単語や、カタカナ語だけを変換するようにしてもよい。
 より具体的には、例えば「イノベーションを起こすために様々なデータを収集する」という第1のテキストデータが取得されている場合、テキストデータ変換部120は、その中の「イノベーション」という単語のみを変換し、「イベーションを起こすために様々なデータを収集する」という変換テキストデータを生成してよい。また、テキストデータ変換部120は、文章中に含まれる複数の単語を変換して変換テキストを生成してもよい。例えば、テキストデータ変換部120は、上述した「イノベーションを起こすために様々なデータを収集する」という第1のテキストデータについて、「イノベーション」及び「データ」という単語をそれぞれ変換し、「イベーションを起こすために様々なデートを収集する」という変換テキストデータを生成してよい。
 なお、テキストデータ変換部120は、変換テキストデータに含まれる単語が既存の単語になった場合、その単語を除外するようにしてもよい(即ち、変換テキストデータとして出力しないようにしてもよい)。例えば、「イノベーション」という第1のテキストデータを変換した結果、「インベンション」という変換テキストデータが生成された場合、その単語が変換テキストデータとして出力されないようにしてもよい。
 (動作の流れ)
 次に、図4を参照しながら、第1実施形態に係る情報処理システム10による動作(即ち、音声認識器50を学習する際の動作)の流れについて説明する。図4は、第1実施形態に係る情報処理システムによる動作の流れを示すフローチャートである。
 図4に示すように、第1実施形態に係る情報処理システム10が動作する際には、まず第1テキストデータ取得部110が第1のテキストデータを取得する(ステップS101)。第1テキストデータ取得部110で取得された第1のテキストデータは、テキストデータ変換部120及び学習部140の各々に出力される。
 続いて、テキストデータ変換部120が、第1テキストデータ取得部110で取得された第1のテキストデータを変換して、変換テキストデータを生成する(ステップS102)。テキストデータ変換部120で生成された変換テキストデータは、変換音声データ生成部130に出力される。
 続いて、変換音声データ生成部130が、テキストデータ変換部120で生成された変換テキストデータから、変換音声データを生成する(ステップS103)。変換音声データ生成部130で生成された変換音声データは、学習部140に出力される。
 続いて、学習部140が、第1テキストデータ取得部110で取得した第1のテキストデータと、変換音声データ生成部130で生成された変換音声データと、を用いて音声認識器50の学習を実行する(ステップS104)。なお、上述した一連の処理は、第1のテキストデータが取得される度に繰り返し実行されてよい。
 (技術的効果)
 次に、第1実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図1から図4で説明したように、第1実施形態に係る情報処理システム10では、第1のテキストデータ及び変換音声テキストデータを入力として、音声認識器50の学習が行われる。このようにすれば、テキストデータの変換によって学習に用いるデータを拡張することができるため、より適切な学習が行えるようになる。例えば、変換テキストデータが、第1のテキストデータの言い間違いを想定したものとして生成される場合、音声認識器50は音声データにおける言い間違いを認識してテキストデータを生成できる。よって、音声認識器50が、言い間違いを自動的に修正したテキストデータを生成することも可能となる。
 <第2実施形態>
 第2実施形態に係る情報処理システム10について、図5及び図6を参照して説明する。なお、第2実施形態は、上述した第1実施形態と比べて一部の構成及び動作が異なるのみで、その他の部分については第1実施形態と同一であってよい。このため、以下では、すでに説明した第1実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図5を参照しながら、第2実施形態に係る情報処理システム10の機能的構成について説明する。図5は、第2実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図5では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図5に示すように、第2実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、第1音声データ生成部150と、を備えて構成されている。即ち、第2実施形態に係る情報処理システム10は、すでに説明した第1実施形態の構成(図2参照)に加えて、第1音声データ生成部150を更に備えている。第1音声データ生成部150は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 第1音声データ生成部150は、第1テキストデータ取得部110で取得された第1のテキストデータから第1の音声データを生成可能に構成されている。即ち、第1音声データ生成部150は、テキストデータを音声データに変換する機能を有している。第1音声データ生成部150は、すでに説明した変換音声データ生成部130と同様の機能を有している。このため、変換音声データ生成部130と、第1音声データ生成部150とは、1つの共通する音声データ生成部として構成されてもよい。この場合、音声データ生成部は、変換テキストデータが入力されると変換音声データを生成して出力し、第1のテキストデータが入力されると第1の音声データを生成して出力すればよい。
 (動作の流れ)
 次に、第2実施形態に係る情報処理システム10による動作の流れについて説明する。図6は、第2実施形態に係る情報処理システムによる動作の流れを示すフローチャートである。なお、図6では、図4で示した処理と同様の処理に同一の符号を付している。
 図6に示すように、第2実施形態に係る情報処理システム10が動作する際には、まず第1テキストデータ取得部110が第1のテキストデータを取得する(ステップS101)。第1テキストデータ取得部110で取得された第1のテキストデータは、テキストデータ変換部120及び学習部140の各々に出力される。
 続いて、第1音声データ生成部150が、第1テキストデータ取得部110で取得された第1のテキストデータから、第1の音声データを生成する(ステップS201)。第1音声データ生成部150で生成された第1の音声データは、学習部140に出力される。なお、ここでは、第1のテキストデータを取得した直後に第1の音声データを生成する例を挙げているが、第1音声データ生成部150は、別のタイミングで第1の音声データを生成するようにしてもよい。例えば、第1音声データ生成部150は、変換テキストデータが生成された後に第1の音声データを生成してもよいし、変換音声データが生成された後に第1の音声データを生成してもよい。
 続いて、テキストデータ変換部120が、第1テキストデータ取得部110で取得された第1のテキストデータを変換して、変換テキストデータを生成する(ステップS102)。テキストデータ変換部120で生成された変換テキストデータは、変換音声データ生成部130に出力される。
 続いて、変換音声データ生成部130が、テキストデータ変換部120で生成された変換テキストデータから、変換音声データを生成する(ステップS103)。変換音声データ生成部130で生成された変換音声データは、学習部140に出力される。
 続いて、学習部140が、第1テキストデータ取得部110で取得された第1のテキストデータと、変換音声データ生成部130で生成された変換音声データと、第1音声データ生成部150で生成された第1の音声データとを用いて音声認識器50の学習を実行する(ステップS202)。即ち、第2実施形態では、第1のテキストデータ及び変換音声データに加えて、第1音声データ(即ち、変換前の第1テキストデータに対応する音声データ)が音声認識器50の学習に用いられる。
 (技術的効果)
 次に、第2実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図5及び図6で説明したように、第2実施形態に係る情報処理システム10では、第1のテキストデータと、変換音声データと、第1の音声データと、を入力として音声認識器50が学習される。このようにすれば、第1の音声データを学習に用いない場合(即ち、第1のテキストデータ及び変換音声データのみで学習する場合)と比べて、より適切に音声認識器50を学習することができる。具体的には、第1のテキストデータが具体的にどのような音声を示すテキストを含んでいるのかを考慮して学習することができるため、より精度の高い音声認識器50を実現することができる。
 <第3実施形態>
 第3実施形態に係る情報処理システム10について、図7を参照して説明する。なお、第3実施形態は、上述した第1及び第2実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1及び第2実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図7を参照しながら、第3実施形態に係る情報処理システム10の機能的構成について説明する。図7は、第3実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図7では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図7に示すように、第3実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、を備えて構成されている。そして特に、第3実施形態に係るテキストデータ変換部120は、変換ルール記憶部121を備えている。変換ルール記憶部121は、例えば上述した記憶装置14(図1参照)によって実現されてよい。
 変換ルール記憶部121は、第1のテキストデータを変換テキストデータに変換するための変換ルールを記憶可能に構成されている。本実施形態に係るテキストデータ変換部120は、変換ルール記憶部121に記憶されている変換ルールを読み出して、第1のテキストデータを変換テキストデータに変換する。変換ルール記憶部121は、1つの変換ルールのみを記憶するものであってもよいし、複数の変換ルールを記憶するものであってもよい。変換ルール記憶部121が複数の変換ルールを記憶している場合、テキストデータ変換部120は、複数の変換ルールから1つの変換ルールを選択して変換テキストデータを生成してよい。この際、テキストデータ変換部120は、入力される第1のテキストデータに適した変換ルールを選択するようにしてもよい。或いは、テキストデータ変換部120は、複数の変換ルールの各々を用いて変換テキストデータを生成してよい。例えば、第1の変換ルールを用いて変換した後、そのテキストデータを更に第2の変換ルールを用いて変換するようにしてもよい。
 変換ルール記憶部121に記憶されている変換ルールは、適宜更新(例えば、追加、修正、削除等)可能に構成されてよい。変換ルールの更新は、手動で行われてもよい。或いは、変換ルールの更新は、機械的に(例えば、機械学習によって)行われてもよい。また、変換ルール記憶部121は、システム外部のデータベースとして構成されていてもよい。この場合、テキストデータ変換部120自身は変換ルール記憶部121を有さず、システム外部のデータベースから変換ルールを読み出して、変換テキストデータを生成するようにすればよい。
 (変換ルールの具体例)
 以下では、変換ルール記憶部121が記憶する変換ルールについて、いくつかの具体例を挙げて説明する。
 変換ルールは、「一部の文字を抜く」というものであってよい。この場合、「イノベーション」という第1のテキストデータは、例えば「イベーション」という変換テキストデータに変換されてよい。変換ルールは、「一部の文字を追加する」というものであってよい。この場合、「イノベーション」という第1のテキストデータは、例えば「イノノベーション」という変換テキストデータに変換されてよい。変換ルールは、「一部の文字を変更する(例えば、似た音に置き換える)」というものであってよい。この場合、「イノベーション」という第1のテキストデータは、例えば「イノレーション」という変換テキストデータに変換されてよい。変換ルールは、「最初の何文字かを繰り返す」というものであってよい。この場合、「イノベーション」という第1のテキストデータは、例えば「イノイノベーション」という変換テキストデータに変換される。
 その他、変換ルールは、実際の言い間違いを想定したルールであってもよい。例えば、「特許許可(とっきょきょか)」という単語について、「とっきょきょきゃ」という言い間違いが多く発生しているとする。このような実例に基づいて、例えば「“特許”の後に子音の“k”が多い単語については、母音や子音を変更する」という変換ルールが設定されてよい。このような実例に基づく変換ルールは、例えば実際の音声データを用いて学習することも可能である。
 なお、上述した変換ルールはあくまで一例であり、変換ルール記憶部121が記憶する変換ルールが上述したルールに限定されるものではない。
 (技術的効果)
 次に、第3実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図7で説明したように、第3実施形態に係る情報処理システム10では、変換ルールに基づいて変換テキストデータが生成される。このようにすれば、より容易且つ適切に変換テキストデータを生成することが可能となる。また、変換ルールを適宜更新するようにすれば、同じ変換ルールを使い続ける場合と比べて、より適切な変換テキストデータを生成することが可能となる。
 <第4実施形態>
 第4実施形態に係る情報処理システム10について、図8を参照して説明する。なお、第4実施形態は、上述した第1から第3実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第3実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図8を参照しながら、第4実施形態に係る情報処理システム10の機能的構成について説明する。図8は、第4実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図8では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図8に示すように、第4実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、第2テキストデータ取得部200と、変換学習部210と、を備えて構成されている。即ち、第4実施形態に係る情報処理システム10は、すでに説明した第1実施形態の構成(図2参照)に加えて、第2テキストデータ取得部200と、変換学習部210と、を更に備えている。第2テキストデータ取得部200及び変換学習部210の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 第2テキストデータ取得部200は、テキストデータ変換部120を学習するための第2のテキストデータを取得可能に構成されている。第2のテキストデータは、例えば、言い間違いを想定したフレーズを含むものであってよい。第2テキストデータ取得部200は、第2のテキストデータを複数取得してもよい。なお、第2テキストデータ取得部200は、音声入力によって第2のテキストデータを取得してもよい。即ち、音声データをテキストデータに変換して、第2のテキストデータとして取得してもよい。
 変換学習部210は、第2テキストデータ取得部200で取得された第2のテキストデータを用いて、テキストデータ変換部120を学習可能に構成されている。ここでのテキストデータ変換部120の学習は、テキストデータ変換部120が、第1のテキストデータからより適切な変換テキストデータを生成可能とするために行われるものである。テキストデータ変換部120の学習は、例えば第3実施形態(図7参照)で説明した変換ルールを学習するものであってもよい。或いは、テキストデータ変換部120の学習は、変換テキストデータを生成する生成モデルの機械学習であってもよい。変換学習部210による具体的な学習手法については、後述する他の実施形態で詳しく説明する。
 (技術的効果)
 次に、第4実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図8で説明したように、第4実施形態に係る情報処理システム10では、第2のテキストデータを用いてテキストデータ変換部120が学習される。このようにすれば、テキストデータ変換部120を容易且つ適切に学習することが可能となる。また、テキストデータ変換部120が学習されることによって、第1のテキストデータからより適切な変換テキストデータを生成することが可能となる。
 <第5実施形態>
 第5実施形態に係る情報処理システム10について、図9及び図10を参照して説明する。なお、第5実施形態は、上述した第4実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第4実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図9を参照しながら、第5実施形態に係る情報処理システム10の機能的構成について説明する。図9は、第5実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図9では、図8で示した構成要素と同様の要素に同一の符号を付している。
 図9に示すように、第5実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、第2テキストデータ取得部200と、変換学習部210と、を備えて構成されている。そして特に、第5実施形態に係る変換学習部210は、類似単語検出部211を備えている。
 類似単語検出部211は、第2のテキストデータに類似する単語が含まれているか否かを検出可能に構成されている。より具体的には、類似単語検出部211は、第2のテキストデータの所定範囲内に、互いに類似する第1の単語及び第2の単語が含まれているか否かを検出可能に構成されている。ここでの「所定範囲」は、言い間違いをしたユーザが、言い間違いを訂正する(具体的には、正しい単語に言い直す)までの期間に対応するものであり、予め適切な値を設定しておけばよい。所定範囲は、例えばテキストデータの文字数に対して設定される範囲であってよい。例えば、類似単語検出部211は、20文字の範囲内に類似する単語があるか否かを判定するようにしてもよい。所定範囲は、ユーザによって変更可能とされてもよい。例えば、類似する単語が検出され過ぎてしまうような場合には、所定範囲を小さく変更するようにしてもよい(例えば、20文字であったものを15文字に変更してよい)。逆に、類似する単語が検出され難い場合には、所定範囲を大きく変更するようにしてもよい(例えば、20文字であったものを30文字に変更してよい)。ここで、類似する単語とは、例えば、互いに一文字または数文字だけ異なる単語、または、互いに少なくとも一文字の子音が同じだが母音が異なる単語をいう。
 類似単語検出部211は、第2のテキストデータに含まれる各単語の類似度を算出して、互いに類似する第1の単語及び第2の単語を検出してよい。例えば、類似単語検出部211は、第2のテキストデータに含まれている単語を抽出し、抽出した各単語の類似度を算出する。なお、類似度の算出手法には、既存の技術を適宜採用することが可能である。そして、類似単語検出部211は、類似度が所定閾値より高い単語の組が存在すると判定された場合には、それらの単語を第1の単語及び第2の単語として検出する。所定閾値は、単語が類似するものである否かを判定するために予め設定される閾値である。所定閾値は、ユーザによって変更可能とされてもよい。例えば、類似する単語が検出され過ぎてしまうような場合には、所定閾値を大きく変更するようにしてもよい。逆に、類似する単語が検出され難い場合には、所定閾値を小さく変更するようにしてもよい。なお、類似単語検出部211は、上述した方法以外の方法で類似する単語(即ち、第1の単語及び第2の単語)を検出してもよい。
 (変換学習動作)
 次に、図10を参照しながら、第5実施形態に係る情報処理システム10におけるテキストデータ変換部120を学習する際の動作(以下、適宜「変換学習動作」と称する)の流れについて説明する。図10は、第5実施形態に係る情報処理システムによる変換学習動作の流れを示すフローチャートである。
 図10に示すように、第5実施形態に係る情報処理システム10の変換学習動作が開始されると、まず第2テキストデータ取得部200が第2のテキストデータを取得する(ステップS501)。第2テキストデータ取得部200で取得された第2のテキストデータは、変換学習部210に出力される。
 続いて、変換学習部210における類似単語検出部211が、第2のテキストデータの所定範囲内に類似する単語が存在するか否かを判定する(ステップS502)。そして、所定範囲内に類似する単語が存在する場合(ステップS502:YES)、類似単語検出部211は、それらの単語を第1の単語及び第2の単語として検出する(ステップS503)。
 例えば、第2のテキストデータに「私達はインベーションを起こすために、イノベーションを起こすために…」という文書が含まれている場合、類似単語検出部211は、「インベーション」及び「イノベーション」をそれぞれ第1の単語及び第2の単語として検出してよい。このように、発話者が言い間違いをしてしまった場合、言い間違いに気づいた発話者は、その直後に言い間違いを訂正する可能性がある。類似単語検出部211は、このような言い間違った単語と訂正後の単語とを、それぞれ第1の単語及び第2の単語として検出してよい。
 また、類似単語検出部211は、第1の単語及び第2の単語を、第2のテキストデータから複数組検出してもよい。例えば、第2のテキストデータに「私達はインベーションを起こすために、イノベーションを起こすために、様々なデートを、データを収集しています」という文書が含まれている場合、類似単語検出部211は、「インベーション」及び「イノベーション」をそれぞれ第1の単語及び第2の単語として検出すると共に、「デート」及び「データ」をそれぞれ第1の単語及び第2の単語として検出してもよい。
 また、類似単語検出部211は、第1の単語及び第2の単語に加えて、それらと類似する第3の単語を検出してもよい。例えば、第2のテキストデータに「私達はインベーションを起こすために、イノイノベーションを起こすために、イノベーションを起こすために…」という文章が含まれている場合、類似単語検出部211は、「インベーション」、「イノイノベーション」及び「イノベーション」をそれぞれ第1の単語、第2の単語及び第3の単語として検出してよい。このように、3つ以上の類似する単語が存在する場合には、それらのすべてを類似する単語として検出してよい。即ち、類似単語検出部211が検出する単語は、第1の単語及び第2の単語の2つに限定されるものではない。
 なお、所定範囲内に類似する単語が存在しない場合(ステップS502:YES)、類似単語検出部211は、第1の単語及び第2の単語を検出しなくてよい(即ち、ステップS503の処理を省略してよい)。
 続いて、変換学習部210が、第2のテキストデータを用いてテキストデータ変換部120の学習を実行する(ステップS504)。ここで特に、上述したステップS503で第1の単語及び第2の単語が検出されている場合、変換学習部210は、第1の単語及び第2の単語の一方が他方の言い間違いであるとして、テキストデータ変換部120の学習を行う。例えば、「インベーション」及び「イノベーション」が第1の単語及び第2の単語として検出されている場合、変換学習部210は、「インベーション」を「イノベーション」の言い間違いであるとして、テキストデータ変換部120の学習を行う。また、類似する単語が3つ以上検出されている場合には、それらの単語をすべて考慮して学習を行ってもよい。例えば、第1の単語、第2の単語、及び第3の単語が検出されている場合、第1の単語及び第2の単語を言い間違えた単語、第3の単語を訂正した単語として、テキストデータ変換部120の学習を行ってもよい。なお、第1の単語及び第2の単語が検出されていない場合には、変換学習部210は、第1の単語及び第2の単語の存在を考慮せずにテキストデータ変換部120の学習を行ってよい。
 (技術的効果)
 次に、第5実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図9及び図10で説明したように、第5実施形態に係る情報処理システム10では、互いに類似する第1の単語及び第2の単語を検出して、テキストデータ変換部120の学習が行われる。このようにすれば、言い間違いの単語と、それを訂正した単語と、を考慮することができるため、より適切にテキストデータ変換部120を学習することができる。
 <第6実施形態>
 第6実施形態に係る情報処理システム10について、図11から図13を参照して説明する。なお、第6実施形態は、上述した第4及び第5実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第5実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図11を参照しながら、第6実施形態に係る情報処理システム10の機能的構成について説明する。図11は、第6実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図11では、図8で示した構成要素と同様の要素に同一の符号を付している。
 図11に示すように、第6実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、第2テキストデータ取得部200と、変換学習部210と、第2テキストデータ提示部220と、第3テキストデータ取得部230と、を備えて構成されている。即ち、第6実施形態に係る情報処理システム10は、すでに説明した第4実施形態の構成(図8参照)に加えて、第2テキストデータ提示部220と、第3テキストデータ取得部230と、を更に備えている。第2テキストデータ提示部220、及び第3テキストデータ取得部230の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。また、第2テキストデータ提示部220は、上述した出力装置16(図1参照)を含んで実現されてよい。
 第2テキストデータ提示部220は、第2テキストデータ取得部で取得された第2のテキストデータをユーザに対して提示可能に構成されている。第2テキストデータ提示部220による第2のテキストデータの提示方法は特に限定されるものではない。例えば、第2テキストデータ提示部220は、ディスプレイを介して第2のテキストデータをユーザに対して表示してよい。或いは、第2テキストデータ提示部220は、スピーカを介して第2のテキストデータを音声出力してよい(即ち、テキストデータを音声データに変換して出力してよい)。第2テキストデータ提示部220による具体的な提示方法については、後に詳しく説明する。
 第3テキストデータ取得部230は、第2テキストデータ提示部220による提示を受けたユーザの入力に応じて、第3のテキストデータを取得可能に構成されている。第3テキストデータ取得部230は、例えば上述した入力装置15(図1参照)を介して第3のテキストデータを取得してよい。第3のテキストデータは、テキストデータ変換部120の学習に用いられるテキストデータであり、第2のテキストデータに対応するものとして取得される。例えば、第3のテキストデータは、第2のテキストデータの言い間違いの例を示すテキストデータとして取得されてよい。
 (変換学習動作)
 次に、図12を参照しながら、第6実施形態に係る情報処理システム10における変換学習動作の流れについて説明する。図12は、第6実施形態に係る情報処理システムによる変換学習動作の流れを示すフローチャートである。
 図12に示すように、第6実施形態に係る情報処理システム10の変換学習動作が開始されると、まず第2テキストデータ取得部200が第2のテキストデータを取得する(ステップS601)。第2テキストデータ取得部200で取得された第2のテキストデータは、変換学習部210及び第2テキストデータ提示部にそれぞれ出力される。
 続いて、第2テキストデータ提示部220が、第2テキストデータ取得部200で取得された第2のテキストデータをユーザに対して提示する(ステップS602)。その後、第3テキストデータ取得部230が、ユーザの入力を受け付けて、第3のテキストデータを取得する(ステップS603)。第3テキストデータ取得部230で取得された第3のテキストデータは、変換学習部210に出力される。
 続いて、変換学習部210が、第2テキストデータ取得部200で取得された第2のテキストデータと、第3テキストデータ取得部230で取得された第3のテキストデータと、を用いてテキストデータ変換部120の学習を実行する(ステップS604)。なお、変換学習部210は、第3のテキストデータが取得されていない場合(例えば、ユーザによる入力が行われなかった場合)に、第2のテキストデータのみを用いてテキストデータ変換部120の学習を行ってもよい。
 (第2のテキストデータの提示例)
 次に、図13を参照しながら、第2テキストデータ提示部220による第2のテキストデータの提示方法について、具体的な提示例を挙げて説明する。図13は、第6実施形態に係る情報処理システムによる第2のテキストデータの提示例を示す平面図である。
 図13に示す例では、ディスプレイを用いて第2テキストデータが提示されている。ここでは、文字列の欄に第2のテキストデータが表示されている。また、変換例の欄は、ユーザが第3のテキストデータを入力するスペースとして表示されている。具体的には、文字列の欄には「イノベーション」という第2のテキストデータが表示されている。また、変換例の欄には、ユーザの入力促すためのメッセージとして「ここに新しい文字列を入力してください」というメッセージが表示されている。このメッセージは、ユーザが入力を開始すると表示されなくなるようにしてもよい。
 上述した提示を行った場合、提示を受けたユーザは、第2のテキストデータである「イノベーション」に対応する第3のテキストデータを入力する。ユーザは、第3のテキストデータを複数入力してもよい。例えば、ユーザは、「イノベーション」の言い間違い例である「イベーション」、「イノイノベーション」、「イノエショー」等を第3のテキストデータとして入力してよい。
 なお、ここでは第2のテキストデータを1つだけ表示する例を挙げたが、第2のテキストデータが複数取得されている場合には、取得された複数の第2のテキストデータを一覧形式で表示して、複数の第2のテキストデータの各々に対応する第3のテキストデータを入力させるようにしてもよい。また、1つの第2のテキストデータに複数の単語が含まれている場合には、第2のテキストデータに含まれる複数の単語を抽出して、各単語を一覧形式表示し、各単語に対応する第3のテキストデータを入力させるようにしてもよい。
 (技術的効果)
 次に、第6実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図11から図13で説明したように、第6実施形態に係る情報処理システム10では、第2テキストデータを提示し、ユーザの入力に応じて第3のテキストデータが取得される。そして、テキストデータ変換部120を学習する際には、第2のテキストデータに加えて、第3のテキストデータが用いられる。このようにすれば、第2のテキストデータのみを用いて学習を行う場合と比べて、より適切な学習を行うことができる。例えば、第2のテキストデータの言い間違い例である第3のテキストデータを学習に用いることで、テキストデータ変換部120が適切な変換テキストデータを生成することが可能となる。
 <第7実施形態>
 第7実施形態に係る情報処理システム10について、図14及び図15を参照して説明する。なお、第7実施形態は、上述した第4から第6実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第6実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図14を参照しながら、第7実施形態に係る情報処理システム10の機能的構成について説明する。図14は、第7実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図14では、図8で示した構成要素と同様の要素に同一の符号を付している。
 図14に示すように、第7実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、第2テキストデータ取得部200と、変換学習部210と、議事録テキストデータ取得部240と、緊張度取得部250と、を備えて構成されている。即ち、第7実施形態に係る情報処理システム10は、すでに説明した第4実施形態の構成(図8参照)に加えて、議事録テキストデータ取得部240と、緊張度取得部250と、を更に備えている。議事録テキストデータ取得部240、及び緊張度取得部250の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 議事録テキストデータ取得部240は、複数の議事録テキストデータを取得可能に構成されている。議事録テキストデータは、会議における発話内容をテキスト化したデータである。議事録テキストデータ取得部240は、システム外部でテキスト化された議事録テキストデータを取得してもよいし、発話内容(音声データ)を取得した後、それをテキスト化して議事録テキストデータを取得してもよい。議事録テキストデータは、会議に関する情報や、会議の参加者に関する情報を含んでいてもよい。議事録テキストデータは、発話者が誰であるのかを特定する情報を含んでいてよい。例えば、議事録テキストデータに含まれる各文章に、発話者を特定するための情報が紐付けられていてもよい。
 緊張度取得部250は、議事録テキストデータの元となる会議の緊張度を取得可能に構成されている。緊張度取得部250は、議事録テキストデータに基づいて緊張度を取得してよい。或いは、緊張度取得部250は、議事録テキストデータとは別に会議に関する情報を取得して、その情報から緊張度を取得してもよい。緊張度は、例えば会議の参加者に基づいて取得されてよい。例えば、会社の重役が参加する会議や、他社の参加者が含まれる会議については、高い値の緊張度が取得されてよい。また、同一部署の社員のみが参加する会議や、若手社員のみが参加する会議については、低い値の緊張度が取得されてよい。或いは、緊張度は、会議の規模に応じて取得されてもよい。例えば、参加者が1000人以上の会議については、高い値の緊張度が取得されてよい。また、参加者が2,3人の会議については、低い値の緊張度が取得されてよい。緊張度は、例えば「低」、「中」、「高」の3段階であってもよいし、より細かい値(例えば、「1~100」の値)であってもよい。
 (変換学習動作)
 次に、図15を参照しながら、第7実施形態に係る情報処理システム10における変換学習動作の流れについて説明する。図15は、第7実施形態に係る情報処理システムによる変換学習動作の流れを示すフローチャートである。
 図15に示すように、第7実施形態に係る情報処理システム10の変換学習動作が開始されると、まず議事録テキストデータ取得部240が複数の議事録テキストデータを取得する(ステップS701)。議事録テキストデータ取得部240で取得された複数の議事録テキストデータは、緊張度取得部250に出力される。議事録テキストデータ取得部240は、複数の議事録テキストデータに対応する会議に関する情報のみ(即ち、緊張度の取得に用いる情報のみ)を、緊張度取得部250に出力するようにしてもよい。
 続いて、緊張度取得部250が会議の緊張度を取得する(ステップS702)。緊張度取得部250で取得された緊張度に関する情報は、第2テキストデータに出力される。
 続いて、第2テキストデータ取得部200が、緊張度取得部250で取得された緊張度に基づいて、第2のテキストデータを取得する(ステップS703)。具体的には、第2テキストデータ取得部200は、議事録テキストデータ取得部240で取得された複数の議事録データのうち、緊張度が所定値より高いものを第2のテキストデータとして取得する。ここでの「所定値」は、言い間違いが発生する可能性が高いと判定できる程度に緊張度が高いか否かを判定するための閾値であり、予め設定されている。所定値は、例えばユーザによって適宜変更可能に構成されていてもよい。例えば、第2のテキストデータとして取得される議事録テキストデータを増やしたい(即ち、学習に用いるテキストデータの数を増やしたい)場合には、所定値を低くなるように変更してよい。また、第2のテキストデータとして取得される議事録テキストデータを減らしたい(即ち、学習に用いるテキストデータの数を減らしたい)場合には、所定値を高い値に変更してよい。第2テキストデータ取得部200で取得された第2のテキストデータは、変換学習部210に出力される。
 続いて、変換学習部210が、第2のテキストデータを用いてテキストデータ変換部120の学習を実行する(ステップS704)。即ち、変換学習部210は、緊張度が所定値より高い議事録テキストデータを用いてテキストデータ変換部120の学習を実行する。
 (技術的効果)
 次に、第7実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図14及び図15で説明したように、第7実施形態に係る情報処理システム10では、会議の緊張度が所定値より高い議事録テキストデータが第2テキストデータとして取得される。このようにすれば、言い間違いが発生している可能性が高いデータを用いて学習が実行されるため、より適切にテキストデータ変換部120の学習が行える。
 なお、第4実施形態から第7実施形態では、第2のテキストデータを用いたテキストデータ変換部120の学習を実行する構成について説明したが、これら各実施形態の構成は組み合わせてもよい。即ち、第4実施形態から第7実施形態の構成を組み合わせて、テキストデータ変換部120の学習を行うようにしてもよい。
 <第8実施形態>
 第8実施形態に情報処理システム10について、図16を参照して説明する。なお、第8実施形態は、上述した第1から第7実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第7実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図16を参照しながら、第8実施形態に係る情報処理システム10の機能的構成について説明する。図16は、第8実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図16では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図16に示すように、第8実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、音声認識部300と、を備えて構成されている。即ち、第8実施形態に係る情報処理システム10は、すでに説明した第1実施形態の構成(図2参照)に加えて、音声認識部300を更に備えている。音声認識部300は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 音声認識部300は、入力された音声データをテキストデータに変換して出力可能に構成されている。即ち、音声認識部300は、第1から第7実施形態で説明した音声認識器50と同様の機能を有している。また、音声認識部300は、音声認識器50と同様に学習部140によって学習されるものとして構成されている。即ち、音声認識部300は、第1のテキストデータと、変換音声データと、を用いて学習される。なお、第1から第7実施形態で説明した音声認識器50は、情報処理システム10の構成要素に含まれていない一方で、音声認識部300は、情報処理システム10の構成要素に含まれている。また、音声認識部300は、言い間違い修正部301を備えている。
 言い間違い修正部301は、音声データに含まれる言い間違いを修正可能に構成されている。このため、音声認識部300に言い間違いの含まれる音声データが入力された場合、その言い間違いが修正されたテキストデータが出力される。言い間違い修正部301は、例えば音声データのテキスト化が終了した後で言い間違いを修正してよい。即ち、まず言い間違いを含んだまま音声データがテキスト化され、その後で言い間違いが修正されてよい。また、言い間違い修正部301は、音声データをテキスト化する過程で言い間違いを修正してもよい。即ち、言い間違いを含んだ音声データが入力されると、言い間違いが修正された状態のテキストデータが生成されるようにしてもよい。
 なお、入力される音声データに複数の言い間違いが含まれる場合、言い間違い修正部301は、すべての言い間違いを修正するようにしてもよいし、一部の言い間違いを修正するようにしてもよい。一部の言い間違いを修正する構成については、後述する他の実施形態で詳しく説明する。
 (技術的効果)
 次に、第8実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図16で説明したように、第8実施形態に係る情報処理システム10では、音声認識部300において言い間違いを修正する処理(或いは、言い間違いを修正したテキストデータを生成する処理)が実行される。このようにすれば、言い間違いをした音声データが入力された場合でも、その言い間違いを修正して、適切なテキストデータ(言い間違いの含まれないテキストデータ)を出力することができる。
 <第9実施形態>
 第9実施形態に情報処理システム10について、図17及び図18を参照して説明する。なお、第9実施形態は、上述した第8実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第8実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図17を参照しながら、第9実施形態に係る情報処理システム10の機能的構成について説明する。図17は、第9実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図17では、図16で示した構成要素と同様の要素に同一の符号を付している。
 図17に示すように、第9実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、音声認識部300と、を備えて構成されている。そして特に、第9実施形態に係る音声認識部300は、第8実施形態(図16参照)で説明した言い間違い修正部301に加えて、スコア算出部302を備えている。
 スコア算出部302は、音声データに言い間違いが含まれている可能性を示すスコアを算出可能に構成されている。このスコアは、音声データに含まれる単語に基づいて算出されるスコアであってよい。例えば、「イノベーション」を「イベーション」と言い間違えている場合、「イノベーション」は一般的な辞書に載っている単語であるが、「イベーション」は辞書に載っていない単語である。この場合、「イベーション」については、「イノベーション」の言い間違いである可能性が高いと判定し、比較的高いスコア算出してよい。他方、「データ」を「デート」と言い間違えている場合、「データ」及び「デート」のいずれも一般的な辞書に載っている単語である。この場合、「デート」については、「データ」の言い間違いである可能性が低いと判定し、比較的低いスコアを算出してよい。また、音声データにおいて、特定の単語の前後に類似の単語が頻出している場合、または、特定の単語の登場回数と類似の単語の登場回数との差が大きい場合に、特定の単語は類似の単語の言い間違いである可能性が高いと判断してもよい。この場合、特定の単語と類似の単語とは共に辞書に登録されている単語である。例えば、「デート」の前後に「データ」が頻出している場合、または、「デート」の登場回数が1回に対し「データ」の登場回数が20回の場合、「デート」は「データ」の言い間違いである可能性が高いと判定する。
 本実施形態に係る言い間違い修正部301は、スコア算出部302で算出されたスコアに基づいて、言い間違いを修正するか否かを決定可能に構成されている。例えば、言い間違い修正部301は、算出されたスコアと所定の基準スコアとを比較して、言い間違いを修正するか否かを決定してよい。具体的には、言い間違い修正部301は、算出されたスコアが基準スコアより高い場合には言い間違いを修正し、基準スコアより低い場合には言い間違いを修正しないようにしてよい。また、スコアが高い場合には言い間違いを修正し、スコアが中程度の場合にはコーション(言い間違いの可能性があることを警告する表示)を挿入し、スコアが低い場合には言い間違いを修正しないようにしてもよい。また、スコアに応じて修正の度合いを変化させてもよい。例えば、スコアが高い場合には修正の度合いを高くすることで、比較的多くの単語が修正されるようにし、スコアが低い場合には修正の度合いを低くすることで、比較的少ない単語が修正されるようにしてもよい。
 (音声認識動作)
 次に、図18を参照しながら、第9実施形態に係る情報処理システム10における音声データをテキストデータに変換する際の動作(以下、適宜「音声認識動作」と称する)の流れについて説明する。図18は、第9実施形態に係る情報処理システムによる音声認識動作の流れを示すフローチャートである。
 図18に示すように、第9実施形態に係る情報処理システム10の音声認識動作が開始されると、まず音声認識部300が音声データを取得する(ステップS901)。そして、スコア算出部302が、音声データに言い間違いが含まれている可能性を示すスコアを算出する(ステップS902)。
 続いて、言い間違い修正部301は、スコア算出部302で算出されたスコアが基準スコアより高いか否かを判定する(ステップS903)。算出されたスコアが基準スコアよりも高い場合(ステップS903:YES)、言い間違い修正部301が言い間違いを修正する。このため、言い間違いが修正されたテキストデータが出力されることになる(ステップS904)。一方、算出されたスコアが基準スコアよりも低い場合(ステップS903:NO)、言い間違い修正部301が言い間違いを修正しない。このため、言い間違いが修正されていないテキストデータが出力されることになる(ステップS905)。
 なお、ここでは基準スコアに基づいて、言い間違いを修正するか否かを決定する例を挙げたが、すでに説明したように、コーションを挿入したり、修正の度合いを変更したりするようにしてもよい。また、修正するか否かは、単語単位で決定されてもよいし、文章単位、或いはデータ単位で決定されてもよい。
 (技術的効果)
 次に、第9実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図17及び図18で説明したように、第9実施形態に係る情報処理システム10では、算出されたスコアに基づいて、音声データに含まれる言い間違いを修正するか否かが決定される。このようにすれば、言い間違いを適切に修正しつつ、言い間違いでない部分が誤って修正されてしまうことを防止することができる。
 <第10実施形態>
 第10実施形態に情報処理システム10について、図19及び図20を参照して説明する。なお、第10実施形態は、上述した第8及び第9実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第8実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図19を参照しながら、第10実施形態に係る情報処理システム10の機能的構成について説明する。図19は、第10実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図19では、図16で示した構成要素と同様の要素に同一の符号を付している。
 図19に示すように、第10実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、第1テキストデータ取得部110と、テキストデータ変換部120と、変換音声データ生成部130と、学習部140と、音声認識部300と、を備えて構成されている。そして特に、第10実施形態に係る音声認識部300は、第8実施形態(図16参照)で説明した言い間違い修正部301に加えて、緊張度判定部303を備えている。なお、第10実施敬愛に係る音声認識部300には、会議における発話内容を含む議事録音声データが入力されるものとする。
 緊張度判定部303は、議事録音声データが録音された会議の緊張度を判定可能に構成されている。緊張度判定部303は、例えば、上述した緊張度取得部250(図14参照)と同様の方法で緊張度を判定してよい。緊張度判定部303は、疑似論音声データに基づいて緊張度を取得してよい。或いは、緊張度判定部303は、議事録音声データとは別に会議に関する情報を取得して、その情報から緊張度を取得してもよい。緊張度は、例えば会議の参加者や会議の規模等に応じて取得されてもよい。
 本実施形態に係る言い間違い修正部301は、緊張度判定部303で判定された緊張度に基づいて、言い間違いを修正するか否かを決定可能に構成されている。例えば、言い間違い修正部301は、判定された緊張度と所定の基準値とを比較して、言い間違いを修正するか否かを決定してよい。具体的には、言い間違い修正部301は、判定された緊張度が基準値より高い場合には言い間違いを修正し、基準値より低い場合には言い間違いを修正しないようにしてよい。また、緊張度が高い場合には言い間違いを修正し、緊張度が中程度の場合にはコーション(言い間違いの可能性があることを警告する表示)を挿入し、緊張度が低い場合には言い間違いを修正しないようにしてもよい。また、緊張度に応じて修正の度合いを変化させてもよい。例えば、緊張度が高い場合には修正の度合いを高くすることで、比較的多くの単語が修正されるようにし、緊張度が低い場合には修正の度合いを低くすることで、比較的少ない単語が修正されるようにしてもよい。
 (音声認識動作)
 次に、図20を参照しながら、第10実施形態に係る情報処理システム10における音声データをテキストデータに変換する際の動作(以下、適宜「音声認識動作」と称する)の流れについて説明する。図20は、第10実施形態に係る情報処理システムによる音声認識動作の流れを示すフローチャートである。
 図20に示すように、第10実施形態に係る情報処理システム10の音声認識動作が開始されると、まず音声認識部300が音声データ(議事録音声データ)を取得する(ステップS1001)。そして、緊張度判定部303が、議事録音声データを録音した会議の緊張度を判定する(ステップS1002)。
 続いて、言い間違い修正部301は、緊張度判定部303で判定された緊張度が基準値より高いか否かを判定する(ステップS1003)。判定された緊張度が基準値よりも高い場合(ステップS1003:YES)、言い間違い修正部301が言い間違いを修正する。このため、言い間違いが修正されたテキストデータが出力されることになる(ステップS1004)。一方、判定された緊張度が基準値よりも低い場合(ステップS1003:NO)、言い間違い修正部301が言い間違いを修正しない。このため、言い間違いが修正されていないテキストデータが出力されることになる(ステップS1005)。
 なお、ここでは基準値に基づいて、言い間違いを修正するか否かを決定する例を挙げたが、すでに説明したように、コーションを挿入したり、修正の度合いを変更したりするようにしてもよい。また、修正するか否かは、単語単位で決定されてもよいし、文章単位、データ単位で決定されてもよい。
 (技術的効果)
 次に、第10実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図19及び図20で説明したように、第9実施形態に係る情報処理システム10では会議の緊張度に基づいて、音声データに含まれる言い間違いを修正するか否かが決定される。このようにすれば、言い間違いを適切に修正しつつ、言い間違いでない部分が誤って修正されてしまうことを防止することができる。
 なお、第8実施形態から第10実施形態では、情報処理システム10が音声認識部300を備える構成について説明したが、これらの各実施形態の構成は組み合わせてもよい。即ち、第8実施形態から第10実施形態の構成を組み合わせて音声認識動作を行うような音声認識部300を実現してもよい。
 上述した各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。更に、プログラム自体がサーバに記憶され、ユーザ端末にサーバからプログラムの一部または全てをダウンロード可能なようにしてもよい。
 <付記>
 以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 付記1に記載の情報処理システムは、第1のテキストデータを取得する第1テキストデータ取得手段と、前記第1のテキストデータを変換して変換テキストデータを生成するテキストデータ変換手段と、前記変換テキストデータに対応する変換音声データを生成する変換音声データ生成手段と、前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う学習手段と、を備える情報処理システムである。
である。
 (付記2)
 付記2に記載の情報処理システムは、前記第1のテキストデータに対応する第1の音声データを生成する第1音声データ生成手段を更に備え、前記学習手段は、前記第1のテキストデータ、前記変換音声データ、及び前記第1の音声データを入力として、前記音声認識手段の学習を行う、付記1に記載の情報処理システムである。
 (付記3)
 付記3に記載の情報処理システムは、前記テキストデータ変換手段は、少なくとも1つの変換ルールを記憶しており、前記変換ルールに基づいて前記変換テキストデータを生成する、付記1又は2に記載の情報処理システムである。
 (付記4)
 付記4に記載の情報処理システムは、第2のテキストデータを取得する第2テキストデータ取得手段と、前記第2のテキストデータを用いて前記テキストデータ変換手段の学習を行う変換学習手段と、を更に備える付記1から3のいずれか一項に記載の情報処理システムである。
 (付記5)
 付記5に記載の情報処理システムは、前記変換学習手段は、前記第2のテキストデータにおける所定範囲内に互いに類似する第1の単語及び第2の単語が含まれている場合、前記第1の単語及び前記第2の単語の一方が他方の言い間違いであると判定して、前記テキストデータ変換手段の学習を行う、付記4に記載の情報処理システムである。
 (付記6)
 付記6に記載の情報処理システムは、前記第2のテキストデータをユーザに提示する提示手段と、前記提示手段による提示を受けた前記ユーザの操作に応じて、前記第2のテキストデータに対応する第3のテキストデータを取得する第3テキストデータ取得手段と、を更に備え、前記変換学習手段は、前記第2のテキストデータ及び前記第3のテキストデータを用いて前記テキストデータ変換手段の学習を行う、付記4又は5に記載の情報処理システムである。
 (付記7)
 付記7に記載の情報処理システムは、会議における発話内容をテキスト化した複数の議事録テキストデータを取得する議事録テキストデータ取得手段と、前記会議の緊張度を取得する緊張度取得手段と、を更に備え、前記第2テキストデータ取得手段は、前記複数の議事録テキストデータの中から、前記緊張度が所定値よりも高いものを前記第2のテキストデータとして取得する、付記4から6のいずれか一項に記載の情報処理システムである。
 (付記8)
 付記8に記載の情報処理システムは、前記音声認識手段を更に備え、前記音声認識手段は、前記学習手段による学習結果に基づいて、前記音声データにおける言い間違いを修正した前記テキストデータを出力する、付記1から7のいずれか一項に記載の情報処理システムである。
 (付記9)
 付記9に記載の情報処理システムは、前記音声認識手段は、前記音声データに言い間違いが含まれている可能性を示すスコアを算出し、前記スコアに基づいて前記音声データにおける言い間違いを修正するか否かを決定する、付記8に記載の情報処理システムである。
 (付記10)
 付記10に記載の情報処理システムは、前記音声データは、会議における発話内容を含む議事録音声データであり、前記音声認識手段は、前記会議の緊張度を判定し、前記緊張度に基づいて前記音声データにおける言い間違いを修正するか否かを決定する、付記8又は9に記載の情報処理システムである。
 (付記11)
 付記11に記載の情報処理装置は、第1のテキストデータを取得する第1テキストデータ取得手段と、前記第1のテキストデータを変換して変換テキストデータを生成するテキストデータ変換手段と、前記変換テキストデータに対応する変換音声データを生成する変換音声データ生成手段と、前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う学習手段と、を備える情報処理装置である。
 (付記12)
 付記12に記載の情報処理方法は、少なくとも1つのコンピュータが実行する情報処理方法であって、第1のテキストデータを取得し、前記第1のテキストデータを変換して変換テキストデータを生成し、前記変換テキストデータに対応する変換音声データを生成し、前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う、情報処理方法である。
 (付記13)
 付記13に記載の記録媒体は、少なくとも1つのコンピュータに、第1のテキストデータを取得し、前記第1のテキストデータを変換して変換テキストデータを生成し、前記変換テキストデータに対応する変換音声データを生成し、前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う、情報処理方法を実行させるコンピュータプログラムが記録された記録媒体である。
 (付記14)
 付記14に記載のコンピュータプログラムは、少なくとも1つのコンピュータに、第1のテキストデータを取得し、前記第1のテキストデータを変換して変換テキストデータを生成し、前記変換テキストデータに対応する変換音声データを生成し、前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う、情報処理方法を実行させるコンピュータプログラムである。
 この開示は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う情報処理システム、情報処理装置、情報処理方法、及び記録媒体もまたこの開示の技術思想に含まれる。
 10 情報処理システム
 11 プロセッサ
 14 記憶装置
 50 音声認識器
 110 第1テキストデータ取得部
 120 テキストデータ変換部
 121 変換ルール記憶部
 130 変換音声データ生成部
 140 学習部
 150 第1音声データ生成部
 200 第2テキストデータ取得部
 210 変換学習部
 211 類似単語検出部
 220 第2テキストデータ提示部
 230 第3テキストデータ取得部
 240 議事録テキストデータ取得部
 250 緊張度取得部
 300 音声認識部
 301 言い間違い修正部
 302 スコア算出部
 303 緊張度判定部

Claims (13)

  1.  第1のテキストデータを取得する第1テキストデータ取得手段と、
     前記第1のテキストデータを変換して変換テキストデータを生成するテキストデータ変換手段と、
     前記変換テキストデータに対応する変換音声データを生成する変換音声データ生成手段と、
     前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う学習手段と、
     を備える情報処理システム。
  2.  前記第1のテキストデータに対応する第1の音声データを生成する第1音声データ生成手段を更に備え、
     前記学習手段は、前記第1のテキストデータ、前記変換音声データ、及び前記第1の音声データを入力として、前記音声認識手段の学習を行う、
     請求項1に記載の情報処理システム。
  3.  前記テキストデータ変換手段は、少なくとも1つの変換ルールを記憶しており、前記変換ルールに基づいて前記変換テキストデータを生成する、
     請求項1又は2に記載の情報処理システム。
  4.  第2のテキストデータを取得する第2テキストデータ取得手段と、
     前記第2のテキストデータを用いて前記テキストデータ変換手段の学習を行う変換学習手段と、
     を更に備える請求項1から3のいずれか一項に記載の情報処理システム。
  5.  前記変換学習手段は、前記第2のテキストデータにおける所定範囲内に互いに類似する第1の単語及び第2の単語が含まれている場合、前記第1の単語及び前記第2の単語の一方が他方の言い間違いであると判定して、前記テキストデータ変換手段の学習を行う、
     請求項4に記載の情報処理システム。
  6.  前記第2のテキストデータをユーザに提示する提示手段と、
     前記提示手段による提示を受けた前記ユーザの操作に応じて、前記第2のテキストデータに対応する第3のテキストデータを取得する第3テキストデータ取得手段と、
     を更に備え、
     前記変換学習手段は、前記第2のテキストデータ及び前記第3のテキストデータを用いて前記テキストデータ変換手段の学習を行う、
     請求項4又は5に記載の情報処理システム。
  7.  会議における発話内容をテキスト化した複数の議事録テキストデータを取得する議事録テキストデータ取得手段と、
     前記会議の緊張度を取得する緊張度取得手段と、
     を更に備え、
     前記第2テキストデータ取得手段は、前記複数の議事録テキストデータの中から、前記緊張度が所定値よりも高いものを前記第2のテキストデータとして取得する、
     請求項4から6のいずれか一項に記載の情報処理システム。
  8.  前記音声認識手段を更に備え、
     前記音声認識手段は、前記学習手段による学習結果に基づいて、前記音声データにおける言い間違いを修正した前記テキストデータを出力する、
     請求項1から7のいずれか一項に記載の情報処理システム。
  9.  前記音声認識手段は、前記音声データに言い間違いが含まれている可能性を示すスコアを算出し、前記スコアに基づいて前記音声データにおける言い間違いを修正するか否かを決定する、
     請求項8に記載の情報処理システム。
  10.  前記音声データは、会議における発話内容を含む議事録音声データであり、
     前記音声認識手段は、前記会議の緊張度を判定し、前記緊張度に基づいて前記音声データにおける言い間違いを修正するか否かを決定する、
     請求項8又は9に記載の情報処理システム。
  11.  第1のテキストデータを取得する第1テキストデータ取得手段と、
     前記第1のテキストデータを変換して変換テキストデータを生成するテキストデータ変換手段と、
     前記変換テキストデータに対応する変換音声データを生成する変換音声データ生成手段と、
     前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う学習手段と、
     を備える情報処理装置。
  12.  少なくとも1つのコンピュータが実行する情報処理方法であって、
     第1のテキストデータを取得し、
     前記第1のテキストデータを変換して変換テキストデータを生成し、
     前記変換テキストデータに対応する変換音声データを生成し、
     前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う、
     情報処理方法。
  13.  少なくとも1つのコンピュータに、
     第1のテキストデータを取得し、
     前記第1のテキストデータを変換して変換テキストデータを生成し、
     前記変換テキストデータに対応する変換音声データを生成し、
     前記第1のテキストデータ及び前記変換音声データを入力として、音声データから該音声データに対応するテキストデータを生成する音声認識手段の学習を行う、
     情報処理方法を実行させるコンピュータプログラムが記録された記録媒体。
PCT/JP2021/039901 2021-10-28 2021-10-28 情報処理システム、情報処理装置、情報処理方法、及び記録媒体 WO2023073887A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/039901 WO2023073887A1 (ja) 2021-10-28 2021-10-28 情報処理システム、情報処理装置、情報処理方法、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/039901 WO2023073887A1 (ja) 2021-10-28 2021-10-28 情報処理システム、情報処理装置、情報処理方法、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023073887A1 true WO2023073887A1 (ja) 2023-05-04

Family

ID=86157529

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/039901 WO2023073887A1 (ja) 2021-10-28 2021-10-28 情報処理システム、情報処理装置、情報処理方法、及び記録媒体

Country Status (1)

Country Link
WO (1) WO2023073887A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014074732A (ja) * 2012-10-02 2014-04-24 Nippon Hoso Kyokai <Nhk> 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP2015230384A (ja) * 2014-06-05 2015-12-21 クラリオン株式会社 意図推定装置、及び、モデルの学習方法
JP2018081298A (ja) * 2016-11-16 2018-05-24 三星電子株式会社Samsung Electronics Co.,Ltd. 自然語処理方法及び装置と自然語処理モデルを学習する方法及び装置
JP2019528470A (ja) * 2016-07-29 2019-10-10 グーグル エルエルシー 訂正済みタームを使用する音響モデルトレーニング
JP2021157145A (ja) * 2020-03-30 2021-10-07 国立研究開発法人情報通信研究機構 推論器および推論器の学習方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014074732A (ja) * 2012-10-02 2014-04-24 Nippon Hoso Kyokai <Nhk> 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP2015230384A (ja) * 2014-06-05 2015-12-21 クラリオン株式会社 意図推定装置、及び、モデルの学習方法
JP2019528470A (ja) * 2016-07-29 2019-10-10 グーグル エルエルシー 訂正済みタームを使用する音響モデルトレーニング
JP2018081298A (ja) * 2016-11-16 2018-05-24 三星電子株式会社Samsung Electronics Co.,Ltd. 自然語処理方法及び装置と自然語処理モデルを学習する方法及び装置
JP2021157145A (ja) * 2020-03-30 2021-10-07 国立研究開発法人情報通信研究機構 推論器および推論器の学習方法

Similar Documents

Publication Publication Date Title
US9548052B2 (en) Ebook interaction using speech recognition
JP2014145842A (ja) 発話解析装置、音声対話制御装置、方法、及びプログラム
US8672682B2 (en) Conversion of alphabetic words into a plurality of independent spellings
US8438008B2 (en) Method of generating a transliteration font
KR101936208B1 (ko) 현대 한국어에서 대표할 수 있는 발음으로 중국 전통 음운학 사호이론에 부합하는 중성자모체계와 한글 합자법을 활용한 중문표기 제공방법 및 시스템
US10276150B2 (en) Correction system, method of correction, and computer program product
CN117480505A (zh) 多语言语法错误校正
US11694028B2 (en) Data generation apparatus and data generation method that generate recognition text from speech data
WO2023073887A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記録媒体
CN111710328A (zh) 语音识别模型的训练样本选取方法、装置及介质
KR101432791B1 (ko) 문장 음 높낮이 표시방법 및 문장 음 높낮이를 표시하는 어학콘텐츠 서비스 시스템과 그 방법
US8438005B1 (en) Generating modified phonetic representations of indic words
JP6249760B2 (ja) テキスト読み上げ装置
CN110428668B (zh) 一种数据提取方法、装置、计算机系统及可读存储介质
KR102072708B1 (ko) 텍스트 콘텐츠의 장르를 추론하는 방법 및 컴퓨터 프로그램
JP2009199434A (ja) アルファベット文字列日本語読み変換装置及びアルファベット文字列日本語読み変換プログラム
WO2023073886A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記録媒体
JP6625961B2 (ja) 発音辞書及び音響モデル生成装置、音声認識装置、方法及びプログラム
JP2021089300A (ja) 多言語音声認識およびテーマ−意義素解析方法および装置
Hong et al. A hybrid approach to english-korean name transliteration
KR20200062910A (ko) 개선된 프랑스어 발음 학습 제공 시스템
JP2014142762A (ja) 外国語の発音表記方法および情報表示装置
Shakil et al. Cognitive Devanagari (Marathi) text-to-speech system
JP2020155830A (ja) 認識装置、認識方法及びプログラム
US11893349B2 (en) Systems and methods for generating locale-specific phonetic spelling variations

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21962433

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023555999

Country of ref document: JP

Kind code of ref document: A