WO2019016985A1 - 翻訳装置、翻訳方法及びプログラム - Google Patents

翻訳装置、翻訳方法及びプログラム Download PDF

Info

Publication number
WO2019016985A1
WO2019016985A1 PCT/JP2018/003367 JP2018003367W WO2019016985A1 WO 2019016985 A1 WO2019016985 A1 WO 2019016985A1 JP 2018003367 W JP2018003367 W JP 2018003367W WO 2019016985 A1 WO2019016985 A1 WO 2019016985A1
Authority
WO
WIPO (PCT)
Prior art keywords
translation
sentence
parameter
specific
search result
Prior art date
Application number
PCT/JP2018/003367
Other languages
English (en)
French (fr)
Inventor
夏樹 佐伯
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP18835365.0A priority Critical patent/EP3657361A4/en
Priority to CN201880047246.0A priority patent/CN110892407A/zh
Priority to JP2019530864A priority patent/JP7170279B2/ja
Publication of WO2019016985A1 publication Critical patent/WO2019016985A1/ja
Priority to US16/726,306 priority patent/US11264007B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/086Detection of language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/53Processing of non-Latin text

Definitions

  • the present disclosure relates to a translation apparatus that performs machine translation, a translation method, and a program.
  • Patent Document 1 discloses a machine translation apparatus.
  • the machine translation apparatus of Patent Document 1 associates and stores example sentences of a source language with example sentences of a target language obtained by translating the example sentences of the source language.
  • the machine translation apparatus performs speech recognition of speech utterance, calculates the similarity between the speech recognition result and the example sentence, and performs translation using the example sentence whose similarity is equal to or more than a threshold.
  • Patent Document 2 discloses a speech analysis method for appropriately understanding a user's speech even when the speech recognition result includes an unclear word due to a user's misinterpretation or the like.
  • the speech analysis method of Patent Document 2 from the recognition result of speech recognition of speech data indicating the speech of the user, unclear words not conforming to the speech intention of the user are estimated according to a predetermined rule.
  • the correct word is considered in line with the user's intention based on the estimated similarity between the unclear word and the misread word.
  • An object of the present disclosure is to provide a translation apparatus and a translation method that can improve the accuracy of machine translation based on speech recognition of speech.
  • the translation apparatus includes a speech recognition unit, a storage unit, a translation processing unit, and an information acquisition unit.
  • the speech recognition unit recognizes speech and generates an utterance sentence in the first language.
  • the storage unit stores a plurality of example sentences including parameters indicating categories corresponding to a plurality of terms.
  • the translation processing unit searches a plurality of example sentences stored in the storage unit based on the utterance sentence, acquires example sentences of the search result, and generates a conversion sentence based on the example sentences of the search result.
  • the information acquisition unit acquires specific information indicating a specific term associated with a specific parameter.
  • the translation processing unit generates a conversion sentence based on a specific term indicated by the specific information when the example sentence of the search result includes a specific parameter.
  • the translation method according to the present disclosure is a translation method executed by a translation device.
  • the storage unit of the translation apparatus stores a plurality of example sentences including parameters indicating categories corresponding to a plurality of terms.
  • the translation method comprises the steps of acquiring specific information indicating a specific term associated with a specific parameter, recognizing a voice to generate an utterance sentence in the first language, and based on the utterance sentence. Searching for a plurality of example sentences stored in the storage unit to acquire example sentences of a search result, and generating a conversion sentence based on the example sentences of the search result. In the step of generating the conversion sentence, when the example sentence of the search result includes a specific parameter, the conversion sentence is generated based on the specific term indicated by the specific information.
  • a translation sentence is generated based on a specific term. This makes it possible to improve the accuracy of machine translation based on speech recognition of speech.
  • FIG. 1 is a block diagram showing the configuration of a translation system according to the first embodiment.
  • FIG. 2 is a diagram for explaining example sentence databases in the translation system.
  • FIG. 3 is a diagram for explaining a parameter table in the translation system.
  • FIG. 4 is a diagram for explaining subcategories of parameters.
  • FIG. 5 is a flowchart for explaining the operation of the translation system.
  • FIG. 6 is a diagram for explaining the operation of the translation system.
  • FIG. 7 is a diagram for explaining the information update process in the translation system.
  • FIG. 8 is a flowchart for explaining the information update process in the translation system.
  • FIG. 9 is a flowchart for explaining the translation process in the translation system.
  • FIG. 10 is a diagram for explaining the translation process in the translation system.
  • FIG. 11 is a diagram for explaining a modification of the information update process.
  • FIG. 1 is a block diagram showing the configuration of a translation system 1 according to the present embodiment.
  • the translation system 1 of the present embodiment includes a microphone (hereinafter abbreviated as “microphone”) 11, a plurality of display devices 12, and a translation device 2.
  • the translation system 1 is installed, for example, in the plane of an aircraft.
  • the translation device 2 performs machine translation of the in-flight announcement.
  • the display device 12 displays a translation by machine translation on a passenger seat or the like.
  • the microphone 11 is used for a user such as a cabin attendant.
  • the microphone 11 picks up the voice including the user's speech, and generates voice data of the pick-up result.
  • the translation system 1 may further include a speaker not shown. The speaker outputs the audio data generated by the microphone 11 into the aircraft.
  • the display device 12 is provided, for example, at a passenger seat.
  • the display device 12 includes a monitor such as a liquid crystal display or an organic EL display, a controller such as a CPU, a communication I / F (interface), an operation I / F, and the like.
  • the display device 12 displays various information such as a translated sentence on a monitor by control of the controller.
  • the display device 12 is connected to the translation device 2 via a wired or wireless communication network such as a LAN built in the aircraft.
  • a user such as a passenger can operate the display device 12 via the operation I / F, and can set, for example, the language of a translation to be displayed.
  • the translation device 2 is a computer device that executes machine translation on an utterance sentence obtained by speech recognition of voice data from the microphone 11 using a preset example sentence.
  • the example sentence is a standard sentence that is assumed to be used frequently, for example, in an in-flight announcement.
  • the translation device 2 includes a control unit 20, a storage unit 21, a communication unit 22, and an operation unit 23, as shown in FIG.
  • the control unit 20 controls the overall operation of the translation device 2.
  • the control unit 20 includes, for example, a CPU that implements a predetermined function in cooperation with software.
  • the control unit 20 reads data and programs stored in the storage unit 21 and performs various arithmetic processing to realize various functions.
  • the control unit 20 may control various operations of the translation system 1 including a communication I / F that transmits and receives data to and from the microphone 11 and each display device 12.
  • control unit 20 functions as a speech recognition unit 20a, a translation processing unit 20b, and an information update processing unit 20c.
  • the speech recognition unit 20 a executes speech recognition based on the speech data output from the microphone 11.
  • the translation processing unit 20b executes a translation process from the first language to the second language based on the recognition result of the speech recognition unit 20a.
  • Various languages can be adopted as the first and second languages.
  • the information update processing unit 20c executes an information update process for updating information used for the translation process. Details of the various processes will be described later.
  • the control unit 20 may be a hardware circuit such as a dedicated electronic circuit or a reconfigurable electronic circuit designed to realize a predetermined function.
  • the control unit 20 may be configured by various semiconductor integrated circuits such as a CPU, an MPU, a GPU, a GPGPU, a TPU, a microcomputer, a DSP, an FPGA, and an ASIC. Further, separate hardware resources functioning as the speech recognition unit 20a, the translation processing unit 20b, and the information update processing unit 20c may be used.
  • the storage unit 21 is a storage medium that stores programs and data necessary to realize the function of the translation device 2.
  • the storage unit 21 includes, for example, a hard disk (HDD) or a semiconductor storage device (SSD).
  • the above program may be provided from various communication networks, or may be stored in a portable recording medium.
  • the storage unit 21 stores information indicating the language setting of each display device 12, the example sentence database 21a, the parameter table 21b, and the like.
  • database may be abbreviated as "DB".
  • the example sentence DB 21a is a database for managing example sentences used in the translation process.
  • the example sentences are regular sentences that are assumed to be used frequently. Locations that can be replaced with various terms in the example sentences are described as parameters.
  • the parameter table 21 b is a data table that manages information on parameters in the example sentences.
  • the example sentence DB 21a and the parameter table 21b will be described later.
  • the storage unit 21 may include, for example, a RAM such as a DRAM or an SRAM, and may temporarily store data or function as a work area of the control unit 20.
  • the storage unit 21 may include, for example, a ROM that stores a program executed by the control unit 20, fixed parameters, and the like.
  • the communication unit 22 is an I / F circuit that performs communication connection to a system or the like outside the translation system 1 via a communication network.
  • the external system is a system of an aircraft that handles flight information including, for example, information indicating the flight number of the aircraft, the place of departure, the destination, and the like.
  • the communication unit 22 is an example of the information acquisition unit in the present embodiment.
  • the operation unit 23 is an input device that receives an input of a user operation.
  • the operation unit 23 includes, for example, a keyboard, a touch pad, a touch panel, a button, a switch, and a combination thereof.
  • the operation unit 23 may include various input devices that can be operated by a pilot or the like in a cockpit in the aircraft.
  • the operation unit 23 is an example of the information acquisition unit in the present embodiment.
  • FIG. 2 is a diagram for explaining example sentence DB 21a.
  • FIG. 3 is a diagram for explaining the parameter table 21b.
  • FIG. 2 exemplifies an example sentence DB 21 a storing a plurality of example sentences assumed to be used for in-flight announcement of an aircraft.
  • the example sentence DB 21a illustrated in FIG. 2 associates and records the identification numbers "No.” of the example sentences with the example sentences of "Japanese" and "English” which are mutually translated.
  • the example sentence DB 21a may further associate example sentences of various languages such as Chinese and Korean.
  • the example sentence of “English” in the example sentence DB 21 a is a parallel translation of the example sentence of “Japanese” associated with one another.
  • the example sentence of “No. 1” in the example sentence DB 21 a includes a parameter of ⁇ % airports!% ⁇ And a parameter of ⁇ % flight_num% ⁇ .
  • the symbol “ ⁇ %” indicates the beginning of the parameter location in the example sentence, and the symbol “% ⁇ ” indicates the end of the parameter location.
  • Each parameter indicates a category corresponding to a plurality of replaceable terms.
  • the parameter “ ⁇ % airports!% ⁇ ” Indicates a category “airports!” That can be substituted for various airport names.
  • the parameter " ⁇ % flight_num% ⁇ ” indicates a category "flight_num” that can be replaced with various stool names.
  • Information on various parameters is managed by the parameter table 21b.
  • the symbol “!” Indicates the weighting of the parameter according to the category.
  • the parameter table 21b illustrated in FIG. 3 associates and records "category name", "search vocabulary”, and "translational word”.
  • the "category name” indicates the name of the category of parameters as described above.
  • Search vocabulary indicates a vocabulary for searching for a term corresponding to a parameter in a sentence of the first language as a translation source.
  • Translation indicates a translation term of the second language as a translation target for the term corresponding to the "search vocabulary”.
  • the "search vocabulary” is set in Japanese.
  • the “search vocabulary” is described by a regular expression that makes it possible to search a plurality of terms in each category.
  • terms such as “Haneda Airport”, “Tokyo Airport”, “Haneda International Airport” and “Tokyo International Airport” can be uniformly searched.
  • the “search vocabulary” of the parameter table 21 b may be set in various languages used as the first language of the translation source.
  • “translational word” is set in English, but “translational word” in the parameter table 21 b may be registered in various languages depending on the second language used as a translation destination. Good.
  • FIG. 4 is a diagram for explaining subcategories of parameters.
  • subcategories are used to subdivide the categories of parameters as described above.
  • the category "airports! Includes two subcategories “airports!: Dest” and “airports!: Irreg”.
  • Subcategory designation is performed from the symbol ":”.
  • the subcategory "airports!: Dest” indicates the destination airport.
  • the subcategory “airports !: irreg” indicates the airport to which the emergency landing is made.
  • the above subcategory subdivides "Airport” into “Airport of original destination” and "Airport for emergency landing”.
  • the parameters of each subcategory are respectively included in the example sentences “No. 2” and “No. 3” in the example sentence DB 21 a of FIG. 2.
  • the category "airports! May contain further subcategories, for example the airport of departure. Further, as in the example sentence of “No. 1” in the example sentence database 21a, the parameter ⁇ % airports!% ⁇ In which the subcategory is not particularly designated may be used.
  • Subdivision into subcategories may be performed not only in the airport name category “airports!” But also in various categories.
  • the category “weather” indicating the weather is subdivided into the subcategory “weather: today” indicating the today's weather and the subcategory “weather: tomorrow” indicating the tomorrow's weather.
  • translation accuracy by the translation device 2 can be improved based on the information obtained for each subcategory.
  • FIG. 5 is a flowchart for explaining the operation of the translation system 1.
  • FIG. 6 is a diagram for explaining the operation of the translation system 1.
  • the flowchart of FIG. 5 is started when the microphone 11 generates voice data in the translation system 1 of FIG. Each process according to this flowchart is executed by the control unit 20 of the translation device 2.
  • the control unit 20 of the translation device 2 acquires audio data from the microphone 11 (S1).
  • the voice data D1 obtained when the utterance "You are flying to ABC Air and Haneda Airport" is made to the microphone 11 is shown.
  • control unit 20 performs speech recognition of the utterance sentence based on the acquired speech data D1 (S2). Specifically, the control unit 20 functions as the voice recognition unit 20a, and performs voice recognition processing in the first language set in advance on the voice data D1. The speech recognition unit 20a generates an utterance sentence D2 as a speech recognition result as text data.
  • control unit 20 performs a translation process from the first language to the second language based on the utterance text D2 of the speech recognition result (S3).
  • FIG. 6 shows an example in which the first language is Japanese and the second language is English.
  • step S3 is performed by the control unit 20 as the translation processing unit 20b searching for an example sentence similar to the utterance sentence D2 of the speech recognition result in the example sentence DB 21a.
  • the translated sentence D3 of the text data is generated by restoring the parameter in the parallel translation corresponding to the example sentence of the search result to an appropriate translated word like the restoration point P0.
  • the translated sentence D3 is an example of a converted sentence in the present embodiment.
  • control unit 20 transmits the translated text D3 of the translation result to the display device 12, and causes the display device 12 to display the translated text D3 (S4).
  • the control unit 20 distributes the translation result of the language set in advance for each display device 12.
  • the control unit 20 may cause the display device 12 to highlight the restored portion P0 in the translation. Highlighting can be done in various ways, such as bold, underline, markers, etc.
  • the control unit 20 transmits data of the translation result to the display device 12 (S4), and ends the process of this flowchart.
  • the passenger of the aircraft can confirm the translation result of the desired language on the individual display devices 12 when the in-flight announcement is broadcast.
  • the influence of the erroneous recognition can be reduced and the machine translation in step S3 can be performed with high accuracy.
  • the misrecognition location P1 is included in the speech recognition result of step S2.
  • the translation process in step S3 even if the part of the utterance text D2 includes the misrecognized part P1, the part other than the misrecognized part P1 is similar to the part D2 of the speech recognition result as the speech recognition result.
  • Example sentences are searched. Then, an appropriate translated sentence D3 corresponding to the searched example sentence is generated.
  • the term corresponding to the above-mentioned parameter may be decided beforehand. For example, in an in-flight announcement of an aircraft, information such as a destination and a flight number will be determined before the operation of the aircraft. Also, the emergency landing airport is not determined at the time of departure, but is determined at the time of emergency announcement.
  • an information update function that determines terms to be associated with parameters for each subcategory in various categories in order to improve translation accuracy using the information determined in advance as described above. Introduce. Information update processing of the present embodiment for realizing such an information update function will be described below.
  • FIG. 7 is a diagram for explaining the information update process of the present embodiment.
  • FIG. 7 illustrates parameter determination information including information indicating the parameters of the subcategory “airports!: Dest” and the term A2 meaning “Haneda Airport”.
  • the parameter determination information is an example of specific information indicating that it is determined to associate a specific term with a specific parameter defined in a subcategory.
  • the control unit 20 acquires parameter determination information via the communication unit 22 or various information acquisition units such as the operation unit 23.
  • the parameter table 21 b in the storage unit 21 of the translation device 2 is updated.
  • Japanese Japanese
  • FIG. 8 is a flowchart for explaining the information update process of the present embodiment. Each process according to the flowchart of FIG. 8 is executed by the control unit 20 of the translation device 2 functioning as the information update processing unit 20c.
  • control unit 20 acquires parameter determination information via the various information acquisition unit (S11). For example, the control unit 20 searches for information of terms determined for various subcategories at present from predetermined information such as flight information on operation of an aircraft obtained from an external system of the translation system 1 via the communication unit 22. In addition, the control unit 20 may acquire information of terms determined for various sub-categories by user input on the operation unit 23.
  • control unit 20 determines whether or not the determined term of the parameter determination information is included in the search vocabulary of the parameter table 21b (S12). For example, if the determined term is the term A2, as shown in FIG. 7, the control unit 20 matches the regular expression of the search vocabulary in the first line in the category “airports!” Proceed to "Yes".
  • the control unit 20 When determining that the determined term is included in the search vocabulary of the parameter table 21b ("Yes" in S12), the control unit 20 refers to the parameter table 21b to specify a translated word of the determined term (S13). ). For example, the control unit 20 specifies the translated word "Tokyo International Airport" associated with the regular expression of the term A2 in the parameter table 21b.
  • the control unit 20 can collectively identify translated words in each language.
  • control unit 20 determines that the determined term is not included in the search vocabulary of the parameter table 21b ("No" in S12)
  • various information acquisition units are externally received instead of the search in the parameter table 21b.
  • the translated word of the term determined through is acquired (S14).
  • the control unit 20 updates the parameter table 21b so as to save the parameter and the translated word of the subcategory to be associated with the determined term of the parameter determination information (S15).
  • the control unit 20 associates "airports!: Dest" as a category name with the translated word "Tokyo International Airport”. It registers in the parameter table 21b.
  • the update state of the parameter determination information for the parameter of the subcategory can be managed.
  • Information including the subcategory “airports!: Dest” registered in the parameter table 21b as shown in FIG. 7 is not particularly used for vocabulary search or the like in the present embodiment, and is used as information for indicating parameter determination information.
  • the translation apparatus 2 translates by using the translated word stored for the parameter of the corresponding subcategory. Improve accuracy. Details of the translation process of the present embodiment will be described below.
  • FIG. 9 is a flowchart for explaining the translation process in the translation system 1.
  • FIG. 10 is a diagram for explaining the translation process.
  • Each process of the flowchart shown in FIG. 9 is executed by the control unit 20 of the translation device 2 functioning as a translation processing unit 20b. This flowchart is started after execution of step S2 of FIG.
  • the control unit 20 refers to the parameter table 21b to search for a vocabulary included in the category indicated by the parameter in the utterance sentence of the speech recognition result (S30). For example, as shown in FIG. 10, the control unit 20 applies the search expression E1 to the utterance sentence D2 of the text data to specify the term A2. As shown in FIG. 3, the search expression E1 is associated with the category “airports!” As a regular expression of the search vocabulary in the parameter table 21b. Note that the vocabulary search in step S30 is executed without using subcategories in particular (see FIG. 7).
  • control unit 20 replaces the term of the lexical search result with a parameter in the utterance text and generates replacement information indicating the correspondence before and after the replacement (S31). For example, the control unit 20 temporarily stores the generated replacement information in the storage unit 21.
  • control unit 20 replaces the term A2 in the utterance text D2 with the parameter ⁇ % airports!% ⁇ Of the corresponding category. Furthermore, the control unit 20 acquires the translated word "Tokyo International Airport” associated with the regular expression of the term A2 from the parameter table 21b based on the result of the vocabulary search. The control unit 20 associates the parameter ⁇ % airports!% ⁇ , The term A2 of the substitution source with the translation term "Tokyo International Airport", and generates substitution information D4 as shown in FIG.
  • control unit 20 calculates, for each example sentence, a score for searching for an example sentence similar to the utterance sentence from the example sentence DB 21a of FIG. 2 based on the utterance sentence after the parameter substitution (S32) .
  • the control unit 20 calculates a score by calculating a so-called editing distance (Levenshenstein distance) between the character string D20 of the utterance sentence as shown in FIG. 10 and the character string D21 of the example sentence, for example.
  • the score of each example sentence can be calculated by applying a known method different from the editing distance, and the similarity to the utterance sentence can be evaluated.
  • the weighting symbol "! Of the category has predetermined plural (for example, five) characters "_" to increase the contribution to the evaluation of the similarity. Has been replaced by ".
  • characters such as punctuation marks are excluded from the character strings D20 and D21 so as not to contribute to the evaluation of the degree of similarity.
  • subcategory information such as ": dest" included in the example sentence in the example sentence DB 21a is not used for calculation of the editing distance, and is not made to contribute to the evaluation of the similarity similarly to punctuation marks etc. There is.
  • control unit 20 determines an example sentence of the search result in the example sentence DB 21a based on the calculation result of the score (S33). For example, the control unit 20 determines an example sentence having the highest score as an example sentence of a search result.
  • control unit 20 refers to the example sentence DB 21a to acquire a parallel translation associated with the determined example sentence (S34).
  • the example of FIG. 10 shows an example in which the parallel category acquired from the example sentence database 21a includes the subcategory parameter ⁇ % airports!: Dest% ⁇ .
  • control unit 20 determines, for example, with reference to the parameter table 21b, whether the acquired parallel translation includes the parameter of the subcategory determined in advance by the parameter determination information (S35). For example, as shown in FIG. 3, when the parameter of the subcategory is not particularly registered in the parameter table 21b, or when the parameter of the registered subcategory is not included in the acquired parallel translation, the control unit 20 selects “No” in step S35. Go to
  • control unit 20 determines that the parallel translation does not include the determined subcategory (No in S35)
  • the control unit 20 substitutes the parameters in the parallel translation into the replacement information D4 based on the substitution information D4 stored at the time of substitution of the utterance sentence D2. (S37).
  • the translated word corresponding to the parameter in the parallel translation is restored based on the information of the parameter substitution source in the utterance sentence D2, and the translated sentence D3 is generated.
  • the control unit 20 determines that the parallel translation includes the determined subcategory (Yes in S35)
  • the control unit 20 updates the replacement information D4 with the parameter determination information registered in the parameter table 21b as shown in FIG. (S36). Specifically, the control unit 20 overwrites the translated word in the replacement information D4 of the corresponding parameter based on the translated word registered in the parameter table 21b.
  • control unit 20 replaces the parameter in the parallel translation with the translation based on the updated replacement information (S37).
  • the parameter ⁇ % airports!: Dest% ⁇ is restored based on the parameter determination information obtained in advance, instead of the information of the substitution source in the utterance sentence D2, and the translated sentence D3 is generated.
  • control unit 20 outputs a translated sentence in which the parameter is replaced with the translated word as the translated sentence D3 (S38).
  • the control unit 20 ends the process of step S3 of FIG. 5 and proceeds to the process of step S4.
  • the translated word of the specific term indicated by the information is generated by restoring the parameters in the parallel text.
  • step S30 For example, if the utterance sentence to be searched for in step S30 is "everybody, this plane is bound for ABC Airlines Itami Airport", the term “Haneda Airport” from the parameter determination information is erroneously “Itami Airport” from the term “Haneda Airport”
  • the translated word obtained at parameter substitution (S31) is "Osaka International Airport” (see FIG. 7).
  • the control unit 20 can restore the translated information "Tokyo International Airport” in the translated text to "Tokyo International Airport” by updating the substitution information with the parameter determination information (S36).
  • control unit 20 can restore the translated information "Tokyo International Airport” in the translated text to "Tokyo International Airport” by updating the substitution information with the parameter determination information (S36).
  • step S31 the process of step S31 is omitted as appropriate when the term particularly corresponding to the vocabulary search is not searched in step S30.
  • the control unit 20 when a plurality of terms are searched in one sentence of the utterance sentence in step S30, the control unit 20 generates substitution information associated with each parameter.
  • step S33 calculation of the score may be performed on some example sentences in the example sentence DB 21a.
  • the control unit 20 may narrow down an example sentence to be calculated by acquiring information on a flight scene such as before or after takeoff or during boarding of an aircraft.
  • the example sentences in the example sentence DB 21a may be classified in advance according to the flight scene.
  • step S33 when the calculated score does not have a score equal to or higher than a predetermined threshold value, the output of the translated sentence in step S34 may not be performed. This makes it possible to prevent the display device 12 from displaying the translated sentence whose translation accuracy is extremely low.
  • the translation device 2 includes the speech recognition unit 20a, the storage unit 21, the translation processing unit 20b, and the communication unit 22 and the operation unit 23 as an information acquisition unit.
  • the voice recognition unit 20a recognizes voice and generates an utterance sentence D2 in the first language.
  • the storage unit 21 stores a plurality of example sentence DB 21 a of a plurality of example sentences including parameters indicating categories corresponding to a plurality of terms.
  • the translation processing unit 20b searches a plurality of example sentences stored in the storage unit 21 based on the utterance sentence D2 to obtain example sentences of the search result, and the second example of the conversion sentence based on the example sentences of the search result Generate a translated sentence D3 by language.
  • the communication unit 22 or the operation unit 23 acquires parameter determination information which is identification information indicating a specific term associated with the specific parameter (FIGS. 7 and 8).
  • the translation processing unit 20b generates the translation D3 based on the specific term indicated by the parameter determination information, when the example sentence of the search result includes the specific parameter (Yes in S35).
  • the translation processing unit 20b generates a translated sentence based on the term in the utterance sentence D2 corresponding to the parameter when the example sentence of the search result does not include the specific parameter (No in S35).
  • the translation sentence D3 is generated based on the determined term. This makes it possible to improve the accuracy of machine translation based on speech recognition of speech.
  • the above specific parameters are defined by subcategories that subdivide categories (see FIGS. 4 and 8). By making it possible to determine terms for each subcategory, it is possible to improve translation accuracy using the established terms without interfering with other subcategories.
  • the storage unit 21 associates and stores a plurality of example sentences and a plurality of parallel sentences in the second language respectively corresponding to a plurality of example sentences in the example sentence DB 21a (see FIG. 2).
  • the translation processing unit 20b generates a translation by using the parallel translation associated with the example sentence of the search result (S33 to S37).
  • the utterance sentence can be translated into various languages.
  • the translation processing unit 20b when the parameter determination information for the parameter in the example sentence of the search result is not acquired (No in S35), the translation processing unit 20b does not obtain the translation sentence associated with the example sentence. Replace the parameter with the second language translation for the term.
  • the translation processing unit 20b replaces the parameter with the translated word of the second language for the specific term. As a result, the translated word in the translated sentence can be determined by the parameter determination information, and the translation accuracy can be improved.
  • the translation processing unit 20b searches for the term corresponding to the parameter in the utterance sentence D2 based on the search expression for the term included in each category (S30).
  • a vocabulary search can be performed on the utterance sentence D2 regarding the category indicated by the parameter.
  • the translation processing unit 20b replaces the term found in the utterance sentence D2 with the corresponding parameter (S31), and the similarity between the utterance sentence including the substituted parameter and each example sentence The example sentence is searched based on the degree (S32, S33). Thus, it is possible to search for example sentences in a unified manner for terms in the same category.
  • the plurality of example sentences in the example sentence DB 21a include sentences used for an announcement in the aircraft.
  • the translation device 2 of this embodiment can be applied to in-flight announcements.
  • the translation method according to the present embodiment is a translation method that the translation device 2 executes.
  • the storage unit 21 of the translation device 2 stores a plurality of example sentences including parameters indicating categories corresponding to a plurality of terms.
  • the method includes the step S11 of acquiring specific information indicating a specific term associated with a specific parameter, the step S1 of recognizing a voice and generating an utterance sentence in a first language, and A plurality of example sentences stored in the storage unit 21 are searched based on the search result to obtain the example sentences of the search result, and a step S3 of generating a translation based on the example sentences of the search result.
  • step S3 of generating a translated text if the example sentence of the search result includes a specific parameter (Yes in S35), a translated text is generated based on the specific term indicated by the specific information. In step S3, when the example sentence of the search result includes the specific parameter (No in S35), a translated text is generated based on the term in the utterance text corresponding to the parameter.
  • a program for causing the translation device 2 to execute the above translation method may be provided. According to the above translation method and program, the accuracy of machine translation based on speech recognition of speech can be improved.
  • Embodiment 1 has been described as an example of the technology disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and is also applicable to embodiments in which changes, substitutions, additions, omissions, and the like are made as appropriate.
  • example sentence DB 21a may be further updated. This modification is described with reference to FIG.
  • FIG. 11 is a diagram for explaining a modification of the information update process.
  • the control unit 20 generates a shadow copy C2 of the example sentence in the example sentence DB 21a as shown in FIG. 11 in step S15 of FIG.
  • the shadow copy of the example sentence is data in which the determined term A2 is substituted for the parameter in the example sentence (No. 2) including the parameter of the subcategory “airports!: Dest” of the parameter determination information.
  • the shadow copy C2 of the example sentence is such that substitution with parameters does not work, such as the utterance sentence "you all, this plane is bound for ABC Airlines Aiue". It is effective when there are some errors. That is, for such an utterance sentence, it is assumed that the score of either of the example sentence of “No. 2” having the parameter and the shadow copy C2 of the example sentence becomes maximum. From this, it is possible to appropriately generate a translation even as a search result.
  • the vocabulary search in step S30 of FIG. 9 is not particularly changed.
  • the search of the determined term may be invalidated.
  • the translation device 2 is applied to translation of an in-flight announcement of an aircraft.
  • the application example of the present disclosure is not limited to this, and can be applied to, for example, machine translation using an example sentence corresponding to each example in announcements on trains, ordering of restaurants, customer service, and the like.
  • the translation device 2 that generates a translated sentence in the second language as an example of the converted sentence has been described.
  • the converted sentence generated based on the technology of the present disclosure is not limited to the translated sentence, and may be, for example, a sentence in the first language.
  • the translation apparatus of the present disclosure uses, as a converted sentence, a sentence obtained by restoring the parameter of an example sentence obtained as a search result of a speech sentence to the corresponding term in the speech sentence or the term of the first language obtained with parameter determination information. You may output it.
  • correction (translation) of a mistake in an utterance sentence, honorifics, dialects and the like can be performed with high accuracy.
  • the present disclosure is applicable to a translation apparatus, a translation method, and a program that execute machine translation using various example sentences.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

翻訳装置は、音声認識部と、記憶部と、翻訳処理部と、情報取得部とを備える。音声認識部は、音声を認識して、第1言語における発話文を生成する。記憶部は、複数の用語に対応するカテゴリを示すパラメータを含んだ複数の用例文を格納する。翻訳処理部は、発話文に基づいて記憶部に格納された複数の用例文を検索して検索結果の用例文を取得し、検索結果の用例文に基づく変換文を生成する。情報取得部は、特定のパラメータに対して対応付けられた特定の用語を示す特定情報を取得する。翻訳処理部は、検索結果の用例文が特定のパラメータを含む場合、当該特定情報が示す特定の用語に基づく変換文を生成する。

Description

翻訳装置、翻訳方法及びプログラム
 本開示は、機械翻訳を実行する翻訳装置、翻訳方法及びプログラムに関する。
 特許文献1は、機械翻訳装置を開示している。特許文献1の機械翻訳装置は、原言語の用例文と、原言語の用例文を翻訳した対象言語の用例文とを対応づけて記憶している。機械翻訳装置は、音声発話を音声認識し、音声認識結果と用例文との類似度を算出して、類似度がしきい値以上の用例文を用いて翻訳を行っている。
 特許文献2は、音声認識結果にユーザの読み間違いなどによる不明瞭な単語が含まれる場合であっても、ユーザの発話を適切に理解するための発話解析方法を開示している。特許文献2の発話解析方法では、ユーザの発話を示す音声データを音声認識した認識結果から、予め定めたルールに従って、ユーザの発話の意図に沿わない不明瞭な単語を推定している。発話解析方法では、推定された不明瞭単語と読み間違い単語との類似性に基づいて、ユーザの意図に沿った正解単語を類推している。
特許第4393494号公報 特開2014-145842号公報
 本開示の目的は、発話の音声認識に基づく機械翻訳の精度を良くすることができる翻訳装置及び翻訳方法を提供することである。
 本開示に係る翻訳装置は、音声認識部と、記憶部と、翻訳処理部と、情報取得部とを備える。音声認識部は、音声を認識して、第1言語における発話文を生成する。記憶部は、複数の用語に対応するカテゴリを示すパラメータを含んだ複数の用例文を格納する。翻訳処理部は、発話文に基づいて記憶部に格納された複数の用例文を検索して検索結果の用例文を取得し、検索結果の用例文に基づく変換文を生成する。情報取得部は、特定のパラメータに対して対応付けられた特定の用語を示す特定情報を取得する。翻訳処理部は、検索結果の用例文が特定のパラメータを含む場合、当該特定情報が示す特定の用語に基づく変換文を生成する。
 本開示に係る翻訳方法は、翻訳装置が実行する翻訳方法である。翻訳装置の記憶部には、複数の用語に対応するカテゴリを示すパラメータを含んだ複数の用例文が格納されている。翻訳方法は、特定のパラメータに対して対応付けられた特定の用語を示す特定情報を取得するステップと、音声を認識して、第1言語における発話文を生成するステップと、発話文に基づいて記憶部に格納された複数の用例文を検索して検索結果の用例文を取得し、検索結果の用例文に基づく変換文を生成するステップとを含む。変換文を生成するステップにおいて、検索結果の用例文が特定のパラメータを含む場合、当該特定情報が示す特定の用語に基づいて変換文が生成される。
 本開示に係る翻訳装置及び翻訳方法によると、発話文に対応する用例文中のパラメータに対する特定情報が取得された場合には特定の用語に基づいて翻訳文を生成する。これにより、発話の音声認識に基づく機械翻訳の精度を良くすることができる。
図1は、実施形態1に係る翻訳システムの構成を示すブロック図である。 図2は、翻訳システムにおける用例文データベースを説明するための図である。 図3は、翻訳システムにおけるパラメータテーブルを説明するための図である。 図4は、パラメータのサブカテゴリを説明するための図である。 図5は、翻訳システムの動作を説明するためのフローチャートである。 図6は、翻訳システムの動作を説明するための図である。 図7は、翻訳システムにおける情報更新処理を説明するための図である。 図8は、翻訳システムにおける情報更新処理を説明するためのフローチャートである。 図9は、翻訳システムにおける翻訳処理を説明するためのフローチャートである。 図10は、翻訳システムにおける翻訳処理を説明するための図である。 図11は、情報更新処理の変形例を説明するための図である。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 (実施形態1)
 実施形態1では、本開示に係る翻訳装置を、航空機の乗客に対するアナウンスを翻訳する翻訳システムに適用する適用例について説明する。
 1.構成
 実施形態1に係る翻訳システム及び翻訳装置の構成について、図1を用いて説明する。図1は、本実施形態に係る翻訳システム1の構成を示すブロック図である。
 本実施形態の翻訳システム1は、図1に示すように、マイクロホン(以下「マイク」と略記する)11と、複数のディスプレイ装置12と、翻訳装置2とを備える。翻訳システム1は、例えば航空機の機内に設置される。翻訳システム1では、例えば客室乗務員がマイク11を用いて種々の機内アナウンスを行う際に、翻訳装置2が、機内アナウンスの機械翻訳を行う。ディスプレイ装置12は、乗客の座席等において機械翻訳による翻訳文を表示する。
 マイク11は、客室乗務員等のユーザに用いられる。マイク11は、ユーザの発話を含む音声を収音し、収音結果の音声データを生成する。翻訳システム1は、さらに、図示しないスピーカを備えてもよい。スピーカは、マイク11によって生成された音声データを機内に音声出力する。
 ディスプレイ装置12は、例えば乗客の座席に備え付けられている。ディスプレイ装置12は、液晶ディスプレイ又は有機ELディスプレイ等のモニタ、CPU等のコントローラ、通信I/F(インタフェース)および操作I/Fなどを備える。ディスプレイ装置12は、コントローラの制御により、翻訳文などの各種情報をモニタに表示する。
 本実施形態において、ディスプレイ装置12は、機内に構築された有線又は無線のLAN等の通信ネットワークを介して、翻訳装置2に接続されている。乗客等のユーザは、操作I/Fを介してディスプレイ装置12を操作可能であり、例えば表示される翻訳文の言語を設定可能である。
 翻訳装置2は、マイク11からの音声データの音声認識によって得られる発話文に対して、予め設定された用例文を用いて機械翻訳を実行するコンピュータ装置である。用例文は、例えば機内アナウンス等において、頻繁に用いられることが想定される定型の文章である。翻訳装置2は、図1に示すように、制御部20と、記憶部21と、通信部22と、操作部23とを備える。
 制御部20は、翻訳装置2の全体動作を制御する。制御部20は、例えばソフトウェアと協働して所定の機能を実現するCPU等を含む。制御部20は、記憶部21に格納されたデータ及びプログラムを読み出して種々の演算処理を行い、各種の機能を実現する。制御部20は、マイク11及び各ディスプレイ装置12とデータの送受信を行う通信I/Fを含み、翻訳システム1の各種動作を制御してもよい。
 例えば、制御部20は、音声認識部20a、翻訳処理部20b、及び情報更新処理部20cとして機能する。音声認識部20aは、マイク11から出力される音声データに基づいて、音声認識を実行する。翻訳処理部20bは、音声認識部20aの認識結果に基づいて、第1言語から第2言語への翻訳処理を実行する。第1及び第2言語としては、種々の言語を採用することができる。情報更新処理部20cは、翻訳処理に用いる情報を更新する情報更新処理を実行する。各種処理の詳細については後述する。
 なお、制御部20は、所定の機能を実現するように設計された専用の電子回路や再構成可能な電子回路などのハードウェア回路であってもよい。制御部20は、CPU、MPU、GPU、GPGPU、TPU、マイコン、DSP、FPGA、ASIC等の種々の半導体集積回路で構成されてもよい。また、音声認識部20a、翻訳処理部20b、及び情報更新処理部20cとしてそれぞれ機能する別々のハードウェア資源が用いられてもよい。
 記憶部21は、翻訳装置2の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体である。記憶部21は、例えばハードディスク(HDD)又は半導体記憶装置(SSD)などで構成される。上記のプログラムは、各種の通信ネットワークから提供されてもよいし、可搬性を有する記録媒体に格納されていてもよい。
 例えば、記憶部21は、各ディスプレイ装置12の言語設定を示す情報、用例文データベース21a、及びパラメータテーブル21b等を格納する。以下、「データベース」を「DB」と略記する場合がある。用例文DB21aは、翻訳処理において用いられる用例文を管理するデータベースである。用例文は、頻繁に用いられることが想定される定型の文章である。用例文の中で種々の用語に置き換え可能な箇所は、パラメータとして記述される。パラメータテーブル21bは、用例文中のパラメータに関する情報を管理するデータテーブルである。用例文DB21a,パラメータテーブル21bについては後述する。
 記憶部21は、例えばDRAM又はSRAM等のRAMを含んでもよく、データを一時的に記憶したり、制御部20の作業エリアとして機能したりしてもよい。また、記憶部21は、例えば制御部20が実行するプログラム及び固定パラメータなどを格納するROMを含んでもよい。
 通信部22は、翻訳システム1の外部のシステム等に、通信ネットワークを介して通信接続するI/F回路である。外部システムは、例えば航空機の便名、出発地、目的地などを示す情報を含むフライト情報を取り扱う航空機のシステムである。通信部22は、本実施形態における情報取得部の一例である。
 操作部23は、ユーザの操作の入力を受ける入力装置である。操作部23は、例えば、キーボード、タッチパッド、タッチパネル、ボタン、スイッチ、及びこれらの組み合わせで構成される。操作部23は、機内のコックピットにおいてパイロット等が操作可能な各種入力装置を含んでもよい。操作部23は、本実施形態における情報取得部の一例である。
 1-1.データベースについて
 本実施形態において翻訳装置2の記憶部21に格納される用例文DB21a及びパラメータテーブル21bについて、図2,3,4を用いて説明する。図2は、用例文DB21aを説明するための図である。図3は、パラメータテーブル21bを説明するための図である。
 図2は、航空機の機内アナウンスに用いられることが想定される複数の用例文を格納した用例文DB21aを例示している。図2に例示する用例文DB21aは、用例文の識別番号「No.」と、互いに対訳となる「日本語」及び「英語」の用例文とを関連付けて記録している。用例文DB21aは、さらに、中国語及び韓国語などの種々の言語の用例文を関連付けていてもよい。以下では、翻訳装置2における翻訳元の第1言語が日本語であり、翻訳先の第2言語が英語である場合について説明する。この場合、用例文DB21aにおける「英語」の用例文は、関連付けされた「日本語」の用例文の対訳文となる。
 用例文DB21a中の「No.1」の用例文は、{%airports!%}というパラメータと、{%flight_num%}というパラメータとを含んでいる。記号「{%」は用例文中のパラメータ箇所の始端を示し、記号「%}」はパラメータ箇所の終端を示す。各パラメータは、置換可能な複数の用語に対応するカテゴリを示している。例えば、パラメータ「{%airports!%}」は、種々の空港名に置換可能なカテゴリ「airports!」を示している。また、パラメータ「{%flight_num%}」は、種々の便名に置換可能なカテゴリ「flight_num」を示している。各種パラメータに関する情報は、パラメータテーブル21bで管理される。なお、記号「!」は、カテゴリに応じたパラメータの重み付けを示す。
 図3に例示するパラメータテーブル21bは、「カテゴリ名」と、「検索語彙」と、「訳語」とを関連付けて記録している。「カテゴリ名」は、上記のようなパラメータのカテゴリの名称を示す。「検索語彙」は、翻訳元の第1言語の文中でパラメータに対応する用語を検索するための語彙を示す。「訳語」は、「検索語彙」に該当した用語に対する、翻訳先の第2言語の対訳の用語を示す。
 図3の例では、「検索語彙」は日本語で設定されている。「検索語彙」は、各カテゴリにおいて複数の言い方がある用語を検索可能にする正規表現で記述される。例えば、図3の検索語彙A1によると、「羽田空港」、「東京空港」、「羽田国際空港」および「東京国際空港」といった用語を統一的に検索できる。パラメータテーブル21bの「検索語彙」は、翻訳元の第1言語として用いる種々の言語で設定されてもよい。
 また、図3の例では、「訳語」は英語で設定されているが、パラメータテーブル21bの「訳語」は、翻訳先として用いる第2言語に応じて、種々の言語で複数、登録されてもよい。
 図4は、パラメータのサブカテゴリを説明するための図である。本実施形態では、上記のようなパラメータのカテゴリを細分化するサブカテゴリを用いる。例えば、図4に示すように、カテゴリ「airports!」は、二つのサブカテゴリ「airports!:dest」、「airports!:irreg」を含む。サブカテゴリの指定は、記号「:」から行われる。
 サブカテゴリ「airports!:dest」は、目的地の空港を示す。サブカテゴリ「airports!:irreg」は、緊急着陸先の空港を示す。上記のサブカテゴリは、「空港」を、「本来の目的地の空港」と「緊急着陸先の空港」とに細分化している。各サブカテゴリのパラメータは、それぞれ図2の用例文DB21a中の「No.2」、「No.3」の用例文に含まれている。カテゴリ「airports!」は、例えば出発地の空港など、さらなるサブカテゴリを含んでいてもよい。また、用例文DB21a中の「No.1」の用例文のように、特にサブカテゴリが指定されないパラメータ{%airports!%}が用いられてもよい。
 サブカテゴリによる細分化は、空港名のカテゴリ「airports!」に限らず、種々のカテゴリにおいて行われてもよい。一例として、図4の例では、天気を示すカテゴリ「weather」が、今日の天気を示すサブカテゴリ「weather:today」と、明日の天気を示すサブカテゴリ「weather:tomorrow」とに細分化されている。本実施形態では、以上のようにサブカテゴリを用いて用例文DB21a中のパラメータを構成することにより、サブカテゴリ毎に得られた情報に基づき翻訳装置2による翻訳精度を良くすることができる。
 2.動作
 以上のように構成される翻訳システム1及び翻訳装置2の動作を以下、説明する。
 2-1.全体動作
 翻訳システム1の全体動作について、図5,6を用いて説明する。図5は、翻訳システム1の動作を説明するためのフローチャートである。図6は、翻訳システム1の動作を説明するための図である。
 図5のフローチャートは、図1の翻訳システム1においてマイク11が音声データを生成したときに開始される。本フローチャートによる各処理は、翻訳装置2の制御部20によって実行される。
 まず、翻訳装置2の制御部20は、マイク11から音声データを取得する(S1)。図6の例では、「皆様、この飛行機はABC航空、羽田空港行きです。」という発話がマイク11に対して為されたときに得られた音声データD1を示している。
 次に、制御部20は、取得した音声データD1に基づいて、発話文の音声認識を行う(S2)。具体的に、制御部20は、音声認識部20aとして機能し、音声データD1に対して、予め設定された第1言語における音声認識処理を行う。音声認識部20aは、音声認識結果の発話文D2をテキストデータとして生成する。
 次に、制御部20は、音声認識結果の発話文D2に基づいて、第1言語から第2言語への翻訳処理を行う(S3)。図6では、第1言語が日本語であり、第2言語が英語である例を示している。
 ステップS3の翻訳処理は、翻訳処理部20bとしての制御部20が、用例文DB21aにおいて、音声認識結果の発話文D2に類似する用例文を検索することによって行われる。この際、検索結果の用例文に対応する対訳文中のパラメータを、復元箇所P0のように、適切な訳語に復元することで、テキストデータの翻訳文D3が生成される。以上のような翻訳処理によると、用例文DB21aに複数の言語で対訳文を格納しておくことにより、種々の第2言語への翻訳が可能となる。ステップS3の翻訳処理の詳細については後述する。翻訳文D3は、本実施形態における変換文の一例である。
 次に、制御部20は、翻訳結果の翻訳文D3をディスプレイ装置12に送信して、ディスプレイ装置12に翻訳文D3を表示させる(S4)。この際、制御部20は、ディスプレイ装置12毎に予め設定された言語の翻訳結果を配信する。また、制御部20は、翻訳文における復元箇所P0をディスプレイ装置12に強調表示させてもよい。強調表示は、太字、下線、マーカ等の種々の方法で行える。
 制御部20は、ディスプレイ装置12への翻訳結果のデータ送信を行って(S4)、本フローチャートによる処理を終了する。
 以上の処理によると、例えば航空機の乗客が、機内アナウンスが放送されているときに、個々のディスプレイ装置12において所望の言語の翻訳結果を確認することができる。
 また、以上の処理によると、例えばステップS2の音声認識に誤認識が生じた場合においても、誤認識の影響を低減して精度良くステップS3の機械翻訳を行うことができる。例えば、図6の例では、ステップS2の音声認識結果に誤認識箇所P1が含まれている。これに対して、ステップS3の翻訳処理によると、発話文D2の一部に誤認識箇所P1が含まれていても、誤認識箇所P1以外の部分において音声認識結果の発話文D2に類似した用例文が検索される。そして、検索された用例文に対応した適切な翻訳文D3が生成される。
 以上の処理においては、カテゴリに応じたパラメータを用いることにより、同一カテゴリ内の別々の用語を含む発話文に対して、共通の用例文を用いて処理することができる。ところで、上記のようなパラメータに対応する用語は、事前に確定している場合がある。例えば、航空機の機内アナウンスにおいて、目的地及び便名などの情報は、航空機の運行前の時点で確定することとなる。また、緊急着陸先の空港は、出発時には確定していないが、緊急のアナウンス時には確定している。
 本実施形態の翻訳システム1では、上記のような事前に確定している情報を利用して翻訳精度を良くするために、種々のカテゴリにおけるサブカテゴリ毎に、パラメータに対応付ける用語を確定させる情報更新機能を導入する。このような情報更新機能を実現する本実施形態の情報更新処理について、以下説明する。
 2-2.情報更新処理
 本実施形態の情報更新処理について、図7,8を用いて説明する。図7は、本実施形態の情報更新処理を説明するための図である。
 図7では、「airports!:dest」というサブカテゴリのパラメータと、「羽田空港」を意味する用語A2とを示す情報を含んだパラメータ確定情報を例示している。パラメータ確定情報は、サブカテゴリで規定される特定のパラメータに特定の用語を対応付けることが確定されたことを示す特定情報の一例である。制御部20は、通信部22或いは操作部23のような各種情報取得部を介して、パラメータ確定情報を取得する。
 本実施形態の情報更新処理では、図7に示すように、翻訳システム1においてパラメータ確定情報が取得されたときに、翻訳装置2の記憶部21におけるパラメータテーブル21bを更新する。以下では、取得されたパラメータ確定情報において、特定のパラメータに対する用語が第1言語(日本語)で確定された場合に実行される情報更新処理について説明する。
 図8は、本実施形態の情報更新処理を説明するためのフローチャートである。図8のフローチャートによる各処理は、翻訳装置2の制御部20が、情報更新処理部20cとして機能することによって実行される。
 まず、制御部20は、各種情報取得部を介して、パラメータ確定情報を取得する(S11)。例えば、制御部20は、通信部22を介して翻訳システム1の外部システムから入手した、航空機の運行に関するフライト情報などの所定の情報から、現時点で各種サブカテゴリについて確定した用語の情報を検索する。また、制御部20は、操作部23におけるユーザの入力により、各種サブカテゴリについて確定された用語の情報を取得してもよい。
 次に、制御部20は、パラメータ確定情報の確定された用語が、パラメータテーブル21bの検索語彙に含まれるか否かを判断する(S12)。例えば、確定された用語が用語A2である場合、図7に示すように、カテゴリ「airports!」における1行目の検索語彙の正規表現にマッチすることから、制御部20は、ステップS12で「Yes」に進む。
 制御部20は、確定された用語がパラメータテーブル21bの検索語彙に含まれると判断した場合(S12で「Yes」)、パラメータテーブル21bを参照して、確定された用語の訳語を特定する(S13)。例えば、制御部20は、パラメータテーブル21bにおいて用語A2の正規表現に関連付けされた訳語「Tokyo International Airport」を特定する。パラメータテーブル21bに複数の言語で訳語が格納されている場合、制御部20は、各々の言語における訳語を一括して特定可能である。
 一方、制御部20は、確定された用語がパラメータテーブル21bの検索語彙に含まれないと判断した場合(S12で「No」)、パラメータテーブル21b中の検索の代わりに外部から、各種情報取得部を介して確定された用語の訳語を取得する(S14)。
 次に、制御部20は、パラメータ確定情報の確定された用語に対応付けるサブカテゴリのパラメータ及び訳語を保存するように、パラメータテーブル21bを更新する(S15)。図7の例では、パラメータ確定情報の用語A2を「airports!:dest」に対応付けるために、制御部20は、カテゴリ名として「airports!:dest」と、訳語「Tokyo International Airport」とを関連付けてパラメータテーブル21bに登録する。
 以上の処理によると、パラメータテーブル21bにおいて、サブカテゴリのパラメータに対するパラメータ確定情報の更新状態を管理することができる。図7のようにパラメータテーブル21bに登録されたサブカテゴリ「airports!:dest」を含む情報は、本実施形態では、語彙の検索等には特に利用されず、パラメータ確定情報を示すものとして用いられる。
 以上のようにパラメータ確定情報が得られた状態において、翻訳処理(図5のS3)を実行する際に、翻訳装置2は、該当するサブカテゴリのパラメータに対して保存した訳語を用いることで、翻訳精度を向上させる。本実施形態の翻訳処理の詳細について、以下説明する。
 2-3.翻訳処理
 図5のステップS3の翻訳処理について、図9,10を用いて説明する。図9は、翻訳システム1における翻訳処理を説明するためのフローチャートである。図10は、翻訳処理を説明するための図である。
 図9に示すフローチャートの各処理は、翻訳装置2の制御部20が、翻訳処理部20bとして機能することによって実行される。本フローチャートは、図5のステップS2の実行後に開始される。
 まず、制御部20は、パラメータテーブル21bを参照して、音声認識結果の発話文において、パラメータが示すカテゴリに含まれる語彙を検索する(S30)。例えば、制御部20は、図10に示すように、テキストデータの発話文D2に検索式E1を適用して、用語A2を特定する。検索式E1は、図3に示すように、パラメータテーブル21bにおいて、検索語彙の正規表現としてカテゴリ「airports!」に関連付けされている。なお、ステップS30の語彙検索は、特にサブカテゴリを用いずに実行される(図7参照)。
 次に、制御部20は、発話文において語彙検索結果の用語をパラメータに置換すると共に、置換前後の対応関係を示す置換情報を生成する(S31)。例えば、制御部20は、生成した置換情報を記憶部21に一時的に記憶する。
 図10の例では、制御部20は、発話文D2において用語A2を、対応するカテゴリのパラメータ{%airports!%}に置換する。さらに、制御部20は、語彙検索の結果に基づき、パラメータテーブル21bから用語A2の正規表現に関連付けされた訳語「Tokyo International Airport」を取得する。制御部20は、パラメータ{%airports!%}と置換元の用語A2と訳語「Tokyo International Airport」とを関連付けて、図10に示すように置換情報D4を生成する。
 次に、制御部20は、パラメータの置換後の発話文に基づいて、図2の用例文DB21aから発話文に類似する用例文を検索するためのスコアを、用例文毎に計算する(S32)。制御部20は、例えば図10のような発話文の文字列D20と用例文の文字列D21との間のいわゆる編集距離(レーベンシュタイン距離)を計算して、スコアを算出する。また、編集距離とは別の公知の手法を適用して各用例文のスコアを算出し、発話文に対する類似度を評価することもできる。
 図10の例では、評価対象の文字列D20,D21において、カテゴリの重み付け記号「!」が、類似度の評価に対する寄与を大きくするために、所定の複数個(例えば5個)の文字「_」に置き換えられている。また、句読点などの文字は、類似度の評価に寄与しないようにするために、各文字列D20,D21から除外されている。さらに、用例文DB21a中の用例文に含まれた「:dest」のようなサブカテゴリの情報についても、編集距離の計算に用いずに、句読点などと同様に類似度の評価に寄与させないようにしている。
 次に、制御部20は、スコアの計算結果に基づいて、用例文DB21aにおける検索結果の用例文を決定する(S33)。例えば、制御部20は、最も高いスコアを有する用例文を、検索結果の用例文として決定する。
 次に、制御部20は、用例文DB21aを参照して、決定した用例文に関連付けされた対訳文を取得する(S34)。図10の例は、用例文DB21aから取得された対訳文にサブカテゴリのパラメータ{%airports!:dest%}が含まれる例を示している。
 次に、制御部20は、例えばパラメータテーブル21bを参照して、取得した対訳文が、予めパラメータ確定情報により確定されたサブカテゴリのパラメータを含むか否かを判断する(S35)。例えば、図3のようにパラメータテーブル21bにサブカテゴリのパラメータが特に登録されていない場合、或いは登録されたサブカテゴリのパラメータが取得した対訳文に含まれない場合、制御部20はステップS35で「No」に進む。
 制御部20は、対訳文が、確定されたサブカテゴリを含まないと判断した場合(S35でNo)、発話文D2の置換時に記憶した置換情報D4に基づいて、対訳文中のパラメータを置換情報D4中の訳語に置換する(S37)。この場合、発話文D2におけるパラメータの置換元の情報に基づいて、対訳文中のパラメータに対応する訳語を復元して、翻訳文D3が生成される。
 一方、制御部20は、対訳文が確定されたサブカテゴリを含むと判断した場合(S35でYes)、例えば図7のようにパラメータテーブル21bに登録されたパラメータ確定情報により、置換情報D4を更新する(S36)。具体的に、制御部20は、パラメータテーブル21bに登録された訳語に基づいて、対応するパラメータの置換情報D4中の訳語を上書きする。
 この場合、制御部20は、更新された置換情報に基づいて、対訳文中のパラメータを訳語に置換する(S37)。これにより、発話文D2における置換元の情報の代わりに、事前に得られたパラメータ確定情報に基づきパラメータ{%airports!:dest%}が復元されて、翻訳文D3が生成される。
 次に、制御部20は、パラメータを訳語に置換した対訳文を翻訳文D3として出力する(S38)。これにより、制御部20は、図5のステップS3の処理を終了し、ステップS4の処理に進む。
 以上の処理によると、パラメータ確定情報が事前に取得された場合に対応するパラメータを含む用例文が検索結果として決定された場合(S35で「Yes」)、当該情報が示す特定の用語の訳語で対訳文中のパラメータを復元して、翻訳文D3が生成される。これにより、例えばパラメータの置換元の発話文D2の中の用語が、音声認識の誤認識あるいは発話の間違い等により誤っていた場合であっても、事前にパラメータ確定情報として得られた正解の訳語に翻訳でき、翻訳精度を向上できる。
 例えば、ステップS30の検索対象の発話文が「皆様、この飛行機はABC航空伊丹空港行きです」というように、パラメータ確定情報の用語「羽田空港」から誤って「伊丹空港」になっていた場合、パラメータの置換時(S31)に得られる訳語は「Osaka International Airport」となる(図7参照)。これに対して、制御部20は、置換情報をパラメータ確定情報で更新することにより(S36)、翻訳文中では「羽田空港」の訳語「Tokyo International Airport」に復元することができる。
 また、ステップS30の検索対象の発話文が「皆様、この飛行機はABC航空あいうえお行きです」というように、空港名から誤って「あいうえお」になっていた場合、語彙検索に該当せず、パラメータへの置換が機能しないこととなる。このため、当該箇所の訳語がステップS31の時点では得られない。これに対して、制御部20は、置換情報をパラメータ確定情報で更新することにより(S36)、翻訳文中では「羽田空港」の訳語「Tokyo International Airport」に復元することができる。
 以上の翻訳処理において、ステップS31の処理は、ステップS30において特に語彙検索に該当する用語が検索されなかった場合、適宜、省略される。また、ステップS30において発話文の1文中に複数の用語が検索された場合には、制御部20は、各々のパラメータに対して、それぞれ関連付けした置換情報を生成する。
 また、ステップS33の処理において、スコアの計算は、用例文DB21aにおける一部の用例文に対して行われてもよい。例えば、制御部20は、航空機の離陸前後、或いは搭乗中などのフライトシーンに関する情報を取得して、計算対象の用例文の絞り込みを行ってもよい。この場合、例えば用例文DB21aにおける用例文が、フライトシーンに応じて予め分類されていてもよい。
 また、ステップS33の処理において、算出されたスコアに所定のしきい値以上のスコアがない場合、ステップS34における翻訳文の出力を行わないようにしてもよい。これにより、翻訳精度が著しく低い翻訳文については、ディスプレイ装置12に表示されないようにすることができる。
 3.効果等
 以上のように、本実施形態に係る翻訳装置2は、音声認識部20aと、記憶部21と、翻訳処理部20bと、情報取得部として通信部22,操作部23とを備える。音声認識部20aは、音声を認識して、第1言語における発話文D2を生成する。記憶部21は、複数の用語に対応するカテゴリを示すパラメータを含んだ複数の用例文の用例文DB21aを格納する。翻訳処理部20bは、発話文D2に基づいて記憶部21に格納された複数の用例文を検索して検索結果の用例文を取得し、検索結果の用例文に基づく変換文の一例として第2言語による翻訳文D3を生成する。通信部22または操作部23は、特定のパラメータに対して対応付けられた特定の用語を示す特定情報であるパラメータ確定情報を取得する(図7,8)。翻訳処理部20bは、検索結果の用例文が特定のパラメータを含む場合(S35でYes)、パラメータ確定情報が示す特定の用語に基づいて翻訳文D3を生成する。翻訳処理部20bは、検索結果の用例文が当該特定のパラメータを含まない場合(S35でNo)、当該パラメータに対応する発話文D2中の用語に基づいて、翻訳文を生成する。
 以上の翻訳装置2によると、パラメータ確定情報が取得された場合には確定された用語に基づいて翻訳文D3を生成する。これにより、発話の音声認識に基づく機械翻訳の精度を良くすることができる。
 本実施形態において、上記の特定のパラメータは、カテゴリを細分化するサブカテゴリによって規定される(図4,8参照)。サブカテゴリ毎に用語を確定可能にすることで、他のサブカテゴリに干渉することなく、確定された用語を用いた翻訳精度を向上できる。
 また、本実施形態において、記憶部21は、用例文DB21aにおいて、複数の用例文と、複数の用例文とそれぞれ対応する第2言語における複数の対訳文とを関連付けて格納する(図2参照)。翻訳処理部20bは、検索結果の用例文に関連付けされた対訳文を用いて翻訳文を生成する(S33~S37)。これにより、発話文を種々の言語に翻訳可能である。
 また、本実施形態において、翻訳処理部20bは、検索結果の用例文中のパラメータに対するパラメータ確定情報が取得されていない場合(S35でNo)、当該用例文に関連付けされた対訳文において、発話文中の用語に対する第2言語の訳語で当該パラメータを置換する。翻訳処理部20bは、当該パラメータに対するパラメータ確定情報が取得された場合(S35でNo)、特定の用語に対する第2言語の訳語で当該パラメータを置換する。これにより、翻訳文における訳語をパラメータ確定情報で確定して、翻訳精度を向上できる。
 また、本実施形態において、翻訳処理部20bは、各カテゴリに含まれる用語に対する検索式に基づいて、発話文D2においてパラメータに対応する用語を検索する(S30)。これにより、パラメータが示すカテゴリに関して、発話文D2において語彙検索を行うことができる。
 また、本実施形態において、翻訳処理部20bは、発話文D2において検索された用語を、対応するパラメータに置換し(S31)、置換されたパラメータを含む発話文と各用例文との間の類似度に基づいて、用例文の検索を行う(S32,S33)。これにより、同一カテゴリの用語について統一的に、用例文の検索を行うことができる。
 また、本実施形態において、用例文DB21a中の複数の用例文は、航空機内におけるアナウンスに用いられる文章を含む。本実施形態の翻訳装置2は、機内アナウンスに適用することができる。
 また、本実施形態に係る翻訳方法は、翻訳装置2が実行する翻訳方法である。翻訳装置2の記憶部21には、複数の用語に対応するカテゴリを示すパラメータを含んだ複数の用例文が格納されている。本方法は、特定のパラメータに対して対応付けられた特定の用語を示す特定情報を取得するステップS11と、音声を認識して、第1言語における発話文を生成するステップS1と、発話文に基づいて記憶部21に格納された複数の用例文を検索して検索結果の用例文を取得し、検索結果の用例文に基づき翻訳文を生成するステップS3とを含む。翻訳文を生成するステップS3において、検索結果の用例文が特定のパラメータを含む場合(S35でYes)、当該特定情報が示す特定の用語に基づいて翻訳文が生成される。ステップS3において、検索結果の用例文が当該特定のパラメータを含む場合(S35でNo)、当該パラメータに対応する発話文中の用語に基づいて、翻訳文が生成される。
 以上の翻訳方法を翻訳装置2に実行させるためのプログラムが提供されてもよい。以上の翻訳方法及びプログラムによると、発話の音声認識に基づく機械翻訳の精度を良くすることができる。
 (他の実施形態)
 以上のように、本出願において開示する技術の例示として、実施形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記各実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施形態を例示する。
 上記の実施形態1では、パラメータ確定情報が得られた際の情報更新処理においてパラメータテーブル21bを更新する例を説明した(図7,8参照)。情報更新処理においては、さらに、用例文DB21aが更新されてもよい。この変形例について、図11を用いて説明する。
 図11は、情報更新処理の変形例を説明するための図である。本変形例の情報更新処理では、制御部20は、図8のステップS15において、図11に示すように、用例文DB21aにおいて、用例文のシャドウコピーC2を生成する。用例文のシャドウコピーは、パラメータ確定情報のサブカテゴリ「airports!:dest」のパラメータを含む用例文(No.2)において、確定された用語A2がパラメータに代入されたデータである。
 用例文のシャドウコピーC2は、例えば実施形態1と同様の翻訳処理(図9)において、発話文が「皆様、この飛行機はABC航空あいうえお行きです」というように、パラメータへの置換が機能しないような誤りが含まれる場合に有効である。即ち、このような発話文に対しては、パラメータを有する「No.2」の用例文と用例文のシャドウコピーC2とのいずれかのスコアが最大となることが想定される。このことから、いずれが検索結果としても翻訳文を適切に生成することができる。
 また、上記の各実施形態においては、パラメータ確定情報が得られた際に、図9のステップS30の語彙検索については特に変更されなかった。例えば、パラメータ確定情報が得られた際には、確定された用語の検索を無効化するようにしてもよい。
 また、上記の各実施形態では、翻訳装置2を航空機の機内アナウンスの翻訳に適用する適用例を説明した。本開示の適用例はこれに限らず、例えば電車中のアナウンス、飲食店の注文、接客等において、それぞれの用例に応じた用例文を用いた機械翻訳に適用することができる。
 また、上記の各実施形態では、変換文の一例として第2言語による翻訳文を生成する翻訳装置2について説明した。本開示の技術に基づき生成される変換文は、翻訳文に限らず、例えば第1言語の文章であってもよい。例えば、本開示の翻訳装置は、発話文の検索結果として得られる用例文のパラメータを、発話文中の対応する用語又はパラメータ確定情報で得られる第1言語の用語で復元した文章を、変換文として出力してもよい。これにより、例えば、発話文中の言い誤り、敬語、方言などの修正(翻訳)を精度良く行うことができる。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において、種々の変更、置換、付加、省略などを行うことができる。
 本開示は、種々の用例文を用いた機械翻訳を実行する翻訳装置、翻訳方法及びプログラムに適用可能である。
  1  翻訳システム
  2  翻訳装置
  20  制御部
  20a  音声認識部
  20b  翻訳処理部
  20c  情報更新処理部
  21  記憶部
  22  通信部
  23  操作部

Claims (10)

  1.  音声を認識して、第1言語における発話文を生成する音声認識部と、
     複数の用語に対応するカテゴリを示すパラメータを含んだ複数の用例文を格納する記憶部と、
     前記発話文に基づいて前記記憶部に格納された前記複数の用例文を検索して検索結果の用例文を取得し、前記検索結果の用例文に基づく変換文を生成する翻訳処理部と、
     特定のパラメータに対して対応付けられた特定の用語を示す特定情報を取得する情報取得部とを備え、
     前記翻訳処理部は、
       前記検索結果の用例文が前記特定のパラメータを含む場合、前記特定情報が示す前記特定の用語に基づいて前記変換文を生成する、
    翻訳装置。
  2.  前記特定のパラメータは、前記カテゴリを細分化するサブカテゴリによって規定される
    請求項1に記載の翻訳装置。
  3.  前記記憶部は、前記複数の用例文と、前記複数の用例文とそれぞれ対応する第2言語における複数の対訳文とを関連付けて格納し、
     前記翻訳処理部は、前記複数の対訳文の中で前記検索結果の用例文に関連付けされた対訳文を用いて、前記変換文として前記第2言語による翻訳文を生成する
    請求項1又は2に記載の翻訳装置。
  4.  前記翻訳処理部は、
       前記検索結果の用例文が前記特定のパラメータを含む場合、前記特定の用語に対する前記第2言語の訳語で前記特定のパラメータを置換する
    請求項3に記載の翻訳装置。
  5.  前記翻訳処理部は、前記複数の用語に対する検索式に基づいて、前記発話文を検索して前記パラメータに対応する用語を取得する
    請求項1~4のいずれか1項に記載の翻訳装置。
  6.  前記翻訳処理部は、
     前記発話文において取得された用語を、前記パラメータに置換して文字列を生成し、
     前記パラメータを含む前記文字列と前記複数の用例文の各々との間の類似度に基づいて、前記複数の用例文の検索を行う
    請求項5に記載の翻訳装置。
  7.  前記翻訳処理部は、
       前記検索結果の用例文が前記特定のパラメータを含まない場合、前記発話文において取得された用語に対する前記第2言語の訳語で、前記検索結果の用例文の前記パラメータを置換する
    請求項6に記載の翻訳装置。
  8.  前記複数の用例文は、航空機内におけるアナウンスに用いられる文章を含む
    請求項1~7のいずれか1項に記載の翻訳装置。
  9.  翻訳装置が実行する翻訳方法であって、
     前記翻訳装置の記憶部には、複数の用語に対応するカテゴリを示すパラメータを含んだ複数の用例文が格納されており、
     特定のパラメータに対して対応付けられた特定の用語を示す特定情報を取得するステップと、
     音声を認識して、第1言語における発話文を生成するステップと、
     前記発話文に基づいて前記記憶部に格納された前記複数の用例文を検索して検索結果の用例文を取得し、前記検索結果の用例文に基づく変換文を生成するステップとを含み、
     前記変換文を生成するステップにおいて、
       前記検索結果の用例文が前記特定のパラメータを含む場合、前記特定情報が示す前記特定の用語に基づいて前記変換文が生成される
    翻訳方法。
  10.  請求項9に記載の翻訳方法を翻訳装置に実行させるためのプログラム。
PCT/JP2018/003367 2017-07-20 2018-02-01 翻訳装置、翻訳方法及びプログラム WO2019016985A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18835365.0A EP3657361A4 (en) 2017-07-20 2018-02-01 TRANSLATION DEVICE, TRANSLATION METHOD AND PROGRAM
CN201880047246.0A CN110892407A (zh) 2017-07-20 2018-02-01 翻译装置、翻译方法以及程序
JP2019530864A JP7170279B2 (ja) 2017-07-20 2018-02-01 コンピュータ装置、コンピュータシステム、方法及びプログラム
US16/726,306 US11264007B2 (en) 2017-07-20 2019-12-24 Translation device, translation method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017141130 2017-07-20
JP2017-141130 2017-07-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/726,306 Continuation US11264007B2 (en) 2017-07-20 2019-12-24 Translation device, translation method, and program

Publications (1)

Publication Number Publication Date
WO2019016985A1 true WO2019016985A1 (ja) 2019-01-24

Family

ID=65015025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/003367 WO2019016985A1 (ja) 2017-07-20 2018-02-01 翻訳装置、翻訳方法及びプログラム

Country Status (5)

Country Link
US (1) US11264007B2 (ja)
EP (1) EP3657361A4 (ja)
JP (1) JP7170279B2 (ja)
CN (1) CN110892407A (ja)
WO (1) WO2019016985A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246175A1 (ja) * 2019-06-04 2020-12-10 パナソニックIpマネジメント株式会社 翻訳装置
WO2021229651A1 (ja) * 2020-05-11 2021-11-18 パナソニックIpマネジメント株式会社 情報通信システムおよび端末の制御方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016114265A1 (de) * 2016-08-02 2018-02-08 Claas Selbstfahrende Erntemaschinen Gmbh Verfahren zum zumindest teilweise maschinellen Transferieren einer in einer Quellsprache abgefassten Wortfolge in eine Wortfolge einer Zielsprache
KR20190111009A (ko) * 2017-02-07 2019-10-01 파나소닉 아이피 매니지먼트 가부시키가이샤 번역 장치 및 번역 방법
US11093720B2 (en) * 2019-03-28 2021-08-17 Lenovo (Singapore) Pte. Ltd. Apparatus, method, and program product for converting multiple language variations

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272801A (ja) * 1995-03-28 1996-10-18 Toshiba Corp 翻訳支援方法及び装置
JPH10326277A (ja) * 1997-03-26 1998-12-08 Toshiba Corp 翻訳サービス提供方法及び翻訳サービスシステム
JP2007004473A (ja) * 2005-06-23 2007-01-11 Oki Electric Ind Co Ltd 機械翻訳装置、方法及びプログラム
JP4393494B2 (ja) 2006-09-22 2010-01-06 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
JP2014145842A (ja) 2013-01-28 2014-08-14 Fujitsu Ltd 発話解析装置、音声対話制御装置、方法、及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101235A (ja) * 1991-10-08 1993-04-23 Toshiba Corp 情報記憶媒体
JP3385146B2 (ja) * 1995-06-13 2003-03-10 シャープ株式会社 会話文翻訳装置
JPH0916602A (ja) * 1995-06-27 1997-01-17 Sony Corp 翻訳装置および翻訳方法
JP3822990B2 (ja) * 1999-01-07 2006-09-20 株式会社日立製作所 翻訳装置、記録媒体
US6356865B1 (en) * 1999-01-29 2002-03-12 Sony Corporation Method and apparatus for performing spoken language translation
US7403888B1 (en) 1999-11-05 2008-07-22 Microsoft Corporation Language input user interface
JP3962763B2 (ja) * 2004-04-12 2007-08-22 松下電器産業株式会社 対話支援装置
US8145473B2 (en) * 2006-10-10 2012-03-27 Abbyy Software Ltd. Deep model statistics method for machine translation
JP5145287B2 (ja) 2009-05-12 2013-02-13 株式会社エヌ・ティ・ティ・データ 入力誤り警告装置
DE102010027709B4 (de) * 2010-07-20 2014-08-07 Airbus Operations Gmbh Verfahren und System zum Anzeigen von Information auf einer elektrischen Anzeigeeinheit in einer Flugzeugkabine
WO2012057773A1 (en) * 2010-10-29 2012-05-03 Hewlett-Packard Development Company, L.P. Generating a taxonomy from unstructured information
US8996352B2 (en) * 2013-02-08 2015-03-31 Machine Zone, Inc. Systems and methods for correcting translations in multi-user multi-lingual communications
US20170185587A1 (en) * 2015-12-25 2017-06-29 Panasonic Intellectual Property Management Co., Ltd. Machine translation method and machine translation system
US10191903B2 (en) * 2016-09-30 2019-01-29 Microsoft Technology Licensing, Llc Customized and contextual translated content for travelers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272801A (ja) * 1995-03-28 1996-10-18 Toshiba Corp 翻訳支援方法及び装置
JPH10326277A (ja) * 1997-03-26 1998-12-08 Toshiba Corp 翻訳サービス提供方法及び翻訳サービスシステム
JP2007004473A (ja) * 2005-06-23 2007-01-11 Oki Electric Ind Co Ltd 機械翻訳装置、方法及びプログラム
JP4393494B2 (ja) 2006-09-22 2010-01-06 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
JP2014145842A (ja) 2013-01-28 2014-08-14 Fujitsu Ltd 発話解析装置、音声対話制御装置、方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3657361A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246175A1 (ja) * 2019-06-04 2020-12-10 パナソニックIpマネジメント株式会社 翻訳装置
US11995416B2 (en) 2019-06-04 2024-05-28 Panasonic Intellectual Property Management Co., Ltd. Translation device
WO2021229651A1 (ja) * 2020-05-11 2021-11-18 パナソニックIpマネジメント株式会社 情報通信システムおよび端末の制御方法

Also Published As

Publication number Publication date
US20200143793A1 (en) 2020-05-07
US11264007B2 (en) 2022-03-01
JP7170279B2 (ja) 2022-11-14
CN110892407A (zh) 2020-03-17
JPWO2019016985A1 (ja) 2020-06-25
EP3657361A1 (en) 2020-05-27
EP3657361A4 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
JP7170279B2 (ja) コンピュータ装置、コンピュータシステム、方法及びプログラム
JP6709963B2 (ja) 翻訳装置及び翻訳方法
US7840399B2 (en) Method, device, and computer program product for multi-lingual speech recognition
US10134390B2 (en) Electronic device and voice recognition method thereof
US11227116B2 (en) Translation device, translation method, and program
JP6869835B2 (ja) 音声認識システム、端末装置、及び辞書管理方法
US10055404B2 (en) Translation apparatus
CN111881675A (zh) 文本纠错方法、装置、电子设备及存储介质
EP4047503A1 (en) Navigation broadcast management method, apparatus, and device
US11048886B2 (en) Language translation by dividing character strings by fixed phases with maximum similarity
JP2021139994A (ja) 音声認識誤り訂正装置、音声認識誤り訂正方法及び音声認識誤り訂正プログラム
US10319378B2 (en) Interaction apparatus and method
WO2020246175A1 (ja) 翻訳装置
WO2018138933A1 (ja) アナウンスシステムおよび音声情報変換装置
JP6429294B2 (ja) 音声認識処理装置、音声認識処理方法およびプログラム
JP5302784B2 (ja) 機械翻訳方法、及びシステム
Dasgupta et al. A joint source channel model for the English to Bengali back transliteration
JP2020016939A (ja) 単語列修正装置、単語列修正方法及びプログラム
Rahul et al. Speech Corpus Development for Voice-Controlled MAV
WO2021205832A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US20190346992A1 (en) Aircraft data entry system
JP2022134537A (ja) 音声認識装置
CN106980390A (zh) 辅助翻译输入方法和辅助翻译输入设备
JP6106616B2 (ja) データベース作成装置、単語検索装置、情報端末、単語検索方法、プログラム
CN113705202A (zh) 搜索输入信息纠错方法、装置以及电子设备、存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18835365

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019530864

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018835365

Country of ref document: EP

Effective date: 20200220