JP7347990B2 - Automatic update of automatic translation machine using voice recognition using artificial intelligence, update distribution and information system - Google Patents

Automatic update of automatic translation machine using voice recognition using artificial intelligence, update distribution and information system Download PDF

Info

Publication number
JP7347990B2
JP7347990B2 JP2019149223A JP2019149223A JP7347990B2 JP 7347990 B2 JP7347990 B2 JP 7347990B2 JP 2019149223 A JP2019149223 A JP 2019149223A JP 2019149223 A JP2019149223 A JP 2019149223A JP 7347990 B2 JP7347990 B2 JP 7347990B2
Authority
JP
Japan
Prior art keywords
translation
language
pronunciation
requesting
language database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019149223A
Other languages
Japanese (ja)
Other versions
JP2021032921A (en
Inventor
道 齋藤
Original Assignee
株式会社日本レカム
株式会社キャンバス
株式会社ハルタ
徳武 睦裕
株式会社ファイブキャピタル
勝田 欽治
清 隼人
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日本レカム, 株式会社キャンバス, 株式会社ハルタ, 徳武 睦裕, 株式会社ファイブキャピタル, 勝田 欽治, 清 隼人 filed Critical 株式会社日本レカム
Priority to JP2019149223A priority Critical patent/JP7347990B2/en
Publication of JP2021032921A publication Critical patent/JP2021032921A/en
Application granted granted Critical
Publication of JP7347990B2 publication Critical patent/JP7347990B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、音声認識による自動翻訳機の人工知能による自動アップデートとそのアップデート配信及び情報システムに関するものである。 The present invention relates to an automatic update of an automatic translation machine using voice recognition using artificial intelligence, update distribution thereof, and an information system.

現在、入力された言語を他の言語に翻訳して出力する翻訳装置が普及している(例えば下記特許文献1等参照)。 BACKGROUND ART Translation devices that translate an input language into another language and output the translation are currently in widespread use (for example, see Patent Document 1 below).

特開平5-61908号公報Japanese Patent Application Publication No. 5-61908

従来の翻訳装置は、複数の言語(日本語、英語等)及びその翻訳関係についての言語データベースを有しているが、例えば、これらの言語は国ごとにその標準語のみに対応しており、同じ国であっても地域毎に微妙に異なる発音(例えば訛りや方言)にまでは対応していない。 Conventional translation devices have language databases for multiple languages (Japanese, English, etc.) and their translation relationships, but for example, these languages only support the standard language of each country. Even within the same country, it does not handle subtly different pronunciations (for example, accents and dialects) depending on the region.

このように、従来の翻訳装置は、予め記憶された発音に対する翻訳は可能であるが、それ以外の発音に対しては翻訳することができない。 In this way, conventional translation devices are capable of translating pre-stored pronunciations, but cannot translate other pronunciations.

本発明は、上記技術的課題に鑑み、予め記憶されていない発音に対する翻訳を行うことを可能とする、翻訳端末及び翻訳システムを提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above technical problems, an object of the present invention is to provide a translation terminal and a translation system that make it possible to translate pronunciations that are not stored in advance.

上記課題を解決するための第1の発明に係る翻訳端末は、
外部に対して入出力を行うユーザインターフェイスと、
前記外部から前記ユーザインターフェイスを介して入力された音声内容を解析し、解析した当該音声内容を他の言語に変換し、変換した当該音声内容の信号を前記ユーザインターフェイスに送信する制御部とを備え、
前記制御部は、前記音声内容を解析できなかった場合、別の発音を依頼する内容の信号を前記ユーザインターフェイスに送信する、別発音依頼動作を実行する
ことを特徴とする。
A translation terminal according to a first invention for solving the above problems,
A user interface that performs input/output to the outside,
A control unit that analyzes audio content input from the outside via the user interface, converts the analyzed audio content into another language, and transmits a signal of the converted audio content to the user interface. ,
The control unit is characterized in that, if the audio content cannot be analyzed, the control unit executes an operation for requesting another pronunciation by transmitting a signal requesting content for another pronunciation to the user interface.

上記課題を解決するための第2の発明に係る翻訳端末は、
上記第1の発明に係る翻訳端末において、
前記別の発音を依頼する内容とは、正確な発音を依頼する、標準語での発音を依頼する、訛りのない発音を依頼する、及び、他の表現を依頼する、のうち、いずれか1つである
ことを特徴とする。
A translation terminal according to a second invention for solving the above problems,
In the translation terminal according to the first invention,
The request for different pronunciation is any one of the following: requesting accurate pronunciation, requesting pronunciation in standard language, requesting pronunciation without accent, and requesting other expressions. It is characterized by being

上記課題を解決するための第3の発明に係る翻訳端末は、
上記第1又は2の発明に係る翻訳端末において、
前記制御部が前記音声内容を解析できるまで前記別発音依頼動作を繰り返し実行し、
前記別発音依頼動作における前記別発音を依頼する内容は、前回の前記別発音依頼動作における前記別発音を依頼する内容と重複しないものとする
ことを特徴とする。
A translation terminal according to a third invention for solving the above problems,
In the translation terminal according to the first or second invention,
Repeating the operation of requesting another pronunciation until the control unit can analyze the audio content;
The content of requesting the different pronunciation in the different pronunciation requesting operation is characterized in that it does not overlap with the content of requesting the different pronunciation in the previous different pronunciation requesting action.

上記課題を解決するための第4の発明に係る翻訳端末は、
上記第3の発明に係る翻訳端末において、
複数種類の言語及びその翻訳関係についての第1言語データベースが記憶された記憶部を備え、
前記制御部は、前記別発音依頼動作が1回以上為された後に前記音声内容を解析した場合、当該音声内容が初回の前記音声内容と同一の意味であると判断し、前記第1言語データベースにはこの判断情報が反映される
ことを特徴とする。
A translation terminal according to a fourth invention for solving the above problems,
In the translation terminal according to the third invention,
comprising a storage unit storing a first language database regarding multiple types of languages and their translation relationships;
When the control unit analyzes the voice content after the different pronunciation request operation is performed one or more times, the control unit determines that the voice content has the same meaning as the first voice content, and stores the voice content in the first language database. is characterized in that this judgment information is reflected.

上記課題を解決するための第5の発明に係る翻訳端末は、
上記第3の発明に係る翻訳端末において、
複数種類の言語及びその翻訳関係についての第1言語データベースが記憶された記憶部と、
前記別発音依頼動作が1回以上為された後に前記音声内容を解析した場合、当該音声内容が初回の前記音声内容と同一の意味であると判断し、前記第1言語データベースの書き換えを行うか否かを決定する第1人工知能とを備え、
前記第1人工知能が書き換えを行うと決定した場合、前記第1言語データベースには前記判断の情報が反映される
ことを特徴とする。
A translation terminal according to a fifth invention for solving the above problems,
In the translation terminal according to the third invention,
a storage unit storing a first language database regarding multiple types of languages and their translation relationships;
If the audio content is analyzed after the alternate pronunciation request operation is performed one or more times, it is determined that the audio content has the same meaning as the initial audio content, and the first language database is rewritten. and a first artificial intelligence that determines whether or not to
When the first artificial intelligence determines to perform rewriting, the information of the determination is reflected in the first language database.

上記課題を解決するための第6の発明に係る翻訳システムは、
上記第4又は5の発明に係る翻訳端末と、
前記翻訳端末と通信可能であり、前記複数種類の言語及びその翻訳関係についての第2言語データベースが記憶されたサーバとを備え、
前記サーバが前記翻訳端末から前記判断情報を受信することで、前記第2言語データベースにも前記判断情報が反映される
ことを特徴とする。
A translation system according to a sixth invention for solving the above problems,
A translation terminal according to the fourth or fifth invention,
a server capable of communicating with the translation terminal and storing a second language database regarding the plurality of languages and their translation relationships;
The present invention is characterized in that when the server receives the judgment information from the translation terminal, the judgment information is also reflected in the second language database.

上記課題を解決するための第7の発明に係る翻訳システムは、
上記第6の発明に係る翻訳システムにおいて、
前記サーバは、前記翻訳端末から前記判断の情報を受信すると、前記第2言語データベースの書き換えを行うか否かを決定する第2人工知能を備え、
前記第2言語データベースには、前記第2人工知能が書き換えを行うと決定した場合に、前記判断の情報が反映される
ことを特徴とする。
A translation system according to a seventh invention for solving the above problems,
In the translation system according to the sixth invention,
The server includes a second artificial intelligence that determines whether to rewrite the second language database when receiving the judgment information from the translation terminal,
The second language database is characterized in that when the second artificial intelligence determines to perform rewriting, information on the determination is reflected in the second language database.

上記課題を解決するための第8の発明に係る翻訳システムは、
上記第5の発明に係る翻訳システムにおいて、
複数の前記翻訳端末を備え、
前記サーバは、1つの前記翻訳端末から前記判断の情報を受信し、前記第2言語データベースに前記判断の情報を反映する場合、他の前記翻訳端末に前記判断の情報を送信するものであり、
他の前記翻訳端末は、前記サーバから受信した前記判断の情報をそれぞれ前記第1言語データベースに反映させる
ことを特徴とする。
A translation system according to an eighth invention for solving the above problem,
In the translation system according to the fifth invention,
comprising a plurality of the translation terminals,
The server receives the judgment information from one of the translation terminals, and when reflecting the judgment information in the second language database, transmits the judgment information to the other translation terminal,
The other translation terminals each reflect the judgment information received from the server in the first language database.

本発明に係る翻訳端末及び翻訳システムによれば、予め記憶されていない発音に対する翻訳を行うことが可能となる。 According to the translation terminal and translation system according to the present invention, it is possible to translate pronunciations that are not stored in advance.

本発明の実施例に係る翻訳端末及び翻訳システムの構成を説明するブロック図である。FIG. 1 is a block diagram illustrating the configuration of a translation terminal and a translation system according to an embodiment of the present invention. 本発明の実施例に係る翻訳端末及び翻訳システムの動作を説明するフローチャートである。It is a flow chart explaining operation of a translation terminal and a translation system concerning an example of the present invention. 本発明の実施例に係る翻訳端末及び翻訳システムの構成を説明するブロック図である。FIG. 1 is a block diagram illustrating the configuration of a translation terminal and a translation system according to an embodiment of the present invention.

以下、本発明に係る翻訳端末及び翻訳システムについて、実施例にて図面を用いて説明する。 EMBODIMENT OF THE INVENTION Hereinafter, the translation terminal and translation system based on this invention are demonstrated using drawing in an Example.

まず、図1を用いて本実施例に係る翻訳端末(翻訳端末1)及び翻訳システムの構成を説明する。本実施例に係る翻訳システムは、翻訳端末1,1′,1″,…及びサーバ3を備えている。翻訳端末1,1′,1″,…は、ネットワーク(LANあるいはインターネット等)2を介して、サーバ3と互いに通信可能に接続されている。 First, the configuration of a translation terminal (translation terminal 1) and a translation system according to this embodiment will be explained using FIG. The translation system according to this embodiment includes translation terminals 1, 1', 1", ... and a server 3. The translation terminals 1, 1', 1", ... are connected to a network (LAN or Internet, etc.) 2. It is connected to the server 3 via the server 3 so as to be able to communicate with each other.

翻訳端末1は、主たる構成として、表示部10、音声入力部11、音声出力部12、通信部13、記憶部14、及び、制御部15を備えている。このうち、表示部10、音声入力部11、及び、音声出力部12は、外部に対して入出力を行うユーザインターフェイスである。 The translation terminal 1 mainly includes a display section 10, a voice input section 11, a voice output section 12, a communication section 13, a storage section 14, and a control section 15. Among these, the display unit 10, the audio input unit 11, and the audio output unit 12 are user interfaces that perform input and output to the outside.

表示部10は、各種表示を行うとともに、ユーザが出力言語を含む各種設定を行うことを可能とする、タッチパネル等である。 The display unit 10 is a touch panel or the like that provides various displays and allows the user to make various settings including the output language.

音声入力部11は、翻訳端末1の外部から入力される音声を電気信号に変換し、変換した電気信号を後述する入力処理部21へ送信する、マイク等である。 The audio input unit 11 is a microphone or the like that converts audio input from the outside of the translation terminal 1 into an electrical signal and transmits the converted electrical signal to an input processing unit 21 to be described later.

音声出力部12は、後述する出力処理部22から受信する電気信号に応じた音声を翻訳端末1の外部に対して出力する、スピーカー等である。 The audio output unit 12 is a speaker or the like that outputs audio to the outside of the translation terminal 1 according to an electrical signal received from an output processing unit 22, which will be described later.

通信部13は、ネットワーク2を介してサーバ3と通信可能な通信インターフェイスである。なお、サーバ3には、複数種類(日本語、英語等)の言語(標準語)及びその翻訳関係のデータベースである言語データベース3Aが、初期設定として記憶されている。そして、この言語データベース3Aは書き換え可能となっている。 The communication unit 13 is a communication interface that can communicate with the server 3 via the network 2. Note that the server 3 stores a language database 3A as an initial setting, which is a database of multiple types of languages (standard language) (Japanese, English, etc.) and their translations. This language database 3A is rewritable.

記憶部14は、各種情報を記憶するストレージである。複数種類の言語(標準語)及びその翻訳関係のデータベースである言語データベース14Aもこの記憶部14に記憶されている。なお記憶部14は、通信部13を用いて、サーバ3と“言語データベースを書き換えした情報”を互いに送受信することで、言語データベース14Aと言語データベース3Aとは同一の内容となる。 The storage unit 14 is a storage that stores various information. A language database 14A, which is a database related to multiple types of languages (standard languages) and their translations, is also stored in this storage unit 14. Note that the storage unit 14 uses the communication unit 13 to send and receive “information that has rewritten the language database” to and from the server 3, so that the language database 14A and the language database 3A have the same contents.

制御部15は、選択要求部20、入力処理部21、出力処理部22、言語解析部23、言語変換部24、依頼設定部25、及び、言語結付部26を備えており、主に、外部から音声入力部11(ユーザインターフェイス)を介して入力された音声内容を解析し、解析した当該音声内容を他の言語に変換し、変換した当該音声内容の信号を音声出力部12(ユーザインターフェイス)に送信するものである。 The control unit 15 includes a selection request unit 20, an input processing unit 21, an output processing unit 22, a language analysis unit 23, a language conversion unit 24, a request setting unit 25, and a language connection unit 26, and mainly includes: Analyze the audio content input from the outside via the audio input unit 11 (user interface), convert the analyzed audio content into another language, and send the signal of the converted audio content to the audio output unit 12 (user interface). ).

選択要求部20は、出力言語の設定を含む各種選択を要求する内容を、表示部10に送信する。 The selection request unit 20 transmits to the display unit 10 content requesting various selections including output language settings.

入力処理部21は、音声入力部11から受信した内容を後述の言語解析部23に送信する。一方、出力処理部22は、後述の言語変換部24及び依頼設定部25から受信した内容を音声出力部12に送信する。 The input processing unit 21 transmits the content received from the voice input unit 11 to a language analysis unit 23, which will be described later. On the other hand, the output processing section 22 transmits the contents received from the language conversion section 24 and the request setting section 25, which will be described later, to the audio output section 12.

言語解析部23は、入力処理部21から受信した信号に基づき、音声内容を解析する。言語解析部23によって解析された音声内容は、言語変換部24に送信する。ただし、言語解析部23によって音声内容を解析することができなかった場合には、後述の依頼設定部25に信号を送信する。 The language analysis section 23 analyzes the audio content based on the signal received from the input processing section 21. The audio content analyzed by the language analysis section 23 is sent to the language conversion section 24. However, if the speech content cannot be analyzed by the language analysis section 23, a signal is sent to a request setting section 25, which will be described later.

言語変換部24は、言語解析部23が解析した音声内容を、予め表示部10においてユーザにより設定された出力言語に変換(翻訳)する。 The language conversion unit 24 converts (translates) the audio content analyzed by the language analysis unit 23 into an output language set by the user on the display unit 10 in advance.

依頼設定部25は、言語解析部23から信号を受信した(言語解析部23によって音声内容を解析できなかった)場合、別の発音を依頼する内容の信号を、出力処理部22を介して音声出力部12に送信する(以下、別発音依頼動作と呼称)。 When the request setting unit 25 receives a signal from the language analysis unit 23 (the language analysis unit 23 could not analyze the audio content), the request setting unit 25 sends a signal requesting a different pronunciation to the audio via the output processing unit 22. It is transmitted to the output unit 12 (hereinafter referred to as a separate pronunciation request operation).

ここでの「別の発音を依頼する内容」とは、具体的には、「正確な発音を依頼する」、「標準語での発音を依頼する」、「訛りのない発音を依頼する」、及び、「他の表現を依頼する」のうち、いずれか1つであるものとする。 Specifically, "content of requesting different pronunciation" includes "requesting accurate pronunciation," "requesting pronunciation in standard Japanese," "requesting pronunciation without an accent," and "Request other expressions."

依頼設定部25は、言語解析部23が音声内容を解析できるまで別発音依頼動作を繰り返し実行する。もし、依頼設定部25が上記動作を所定回数繰り返し行っても、言語解析部23が解析できなければ、解析不能の旨を音声出力部12に送信する。 The request setting section 25 repeatedly executes the operation of requesting different pronunciation until the language analysis section 23 can analyze the voice content. If the request setting section 25 repeats the above operation a predetermined number of times and the language analysis section 23 is unable to analyze it, it sends a message to the voice output section 12 that the analysis is impossible.

また、(別発音依頼動作における)「別の発音を依頼する内容」は、前回の(別発音依頼動作における)「別の発音を依頼する内容」と重複しないものとする。例えば、前回が「正確な発音を依頼する」であれば、その次は「標準語での発音を依頼する」とする。 Further, it is assumed that the "contents for requesting a different pronunciation" (in the alternative pronunciation request operation) do not overlap with the previous "contents for requesting a different pronunciation" (in the alternative pronunciation request action). For example, if the previous request was to ``request accurate pronunciation,'' the next request would be ``request pronunciation in standard Japanese.''

言語結付部26は、別発音依頼動作(及び、それに対する外部から音声入力)が1回以上為された後に、言語解析部23においてその音声内容を解析した場合、解析されたその音声内容が初回の音声内容と同一の意味であると判断し(結び付け)、その判断情報を、記憶部14に送信するとともに、通信部13を介してサーバ3に送信する。 When the language analysis unit 23 analyzes the voice content after the separate pronunciation request operation (and corresponding voice input from the outside) is performed one or more times, the language connection unit 26 analyzes the voice content that has been analyzed. It is determined that it has the same meaning as the first audio content (linking), and the determination information is transmitted to the storage section 14 and also to the server 3 via the communication section 13.

また、記憶部14の言語データベース14A(第1言語データベース)、及び、サーバ3の言語データベース3A(第2言語データベース)には、上記判断情報が反映される(書き換えられる)。 Further, the above judgment information is reflected (rewritten) in the language database 14A (first language database) of the storage unit 14 and the language database 3A (second language database) of the server 3.

さらに、サーバ3は、このようにして言語データベース3Aが書き換えられると、他の翻訳端末1′,1″,…に対して、上記判断情報(すなわち書き換えられた言語データベース3Aの情報)を送信し、これにより他の翻訳端末1′,1″,…内の図示しない言語データベース(第1言語データベース)にも上記判断情報が反映される(書き換えられる)。したがって、各翻訳端末1,1′,1″,…は、各言語データベースが自動アップデートされ、互いに同一の言語データベースを記憶した状態を保つこととなる。 Furthermore, when the language database 3A is rewritten in this way, the server 3 transmits the above judgment information (that is, the information of the rewritten language database 3A) to other translation terminals 1', 1'', etc. As a result, the above judgment information is also reflected (rewritten) in the language databases (first language databases) not shown in the other translation terminals 1', 1'', . . . . Therefore, each translation terminal 1, 1', 1'', . . . has its language database automatically updated, and maintains a state in which the same language database is stored.

なお、本実施例では、言語変換部24、依頼設定部25からそれぞれ送信する内容を、出力処理部22及び音声出力部12により音声で出力するものとしているが、本発明はこれに限定されるものではなく、代わりに、例えば表示部10により文字データとして表示するようにしてもよい。 Note that in this embodiment, the contents transmitted from the language conversion section 24 and the request setting section 25 are outputted as audio by the output processing section 22 and the audio output section 12, but the present invention is not limited to this. Instead, it may be displayed as character data on the display unit 10, for example.

また本実施例では、言語結付部26の判断情報により、言語データベース14Aが自動的に書き換えられるものとしているが、本発明はこのような構成に限定されるものではなく、図3に示すように、翻訳端末1(及び1′,1″,…)が、言語結付部26の代わりに、AI(Artificial Intelligence:人工知能)31を搭載するものとしてもよい。 Furthermore, in this embodiment, it is assumed that the language database 14A is automatically rewritten based on the judgment information of the language linking unit 26, but the present invention is not limited to such a configuration. Alternatively, the translation terminal 1 (and 1′, 1″, . . . ) may be equipped with an AI (Artificial Intelligence) 31 instead of the language linking unit 26.

このAI31は、言語結付部26と同様の処理を行うことに加え、言語データベース14Aの書き換えを行うか否かを決定し、書き換えを行うと決定した場合に、言語データベース14Aが書き換えられる(上記判断情報が反映される)ものとしてもよい。 In addition to performing the same processing as the language linking unit 26, the AI 31 determines whether or not to rewrite the language database 14A, and when it is determined to rewrite the language database 14A, the language database 14A is rewritten (as described above). (judgment information is reflected).

さらに本実施例では、言語結付部26の判断情報により、(ネットワーク2を介して)言語データベース3Aが自動的に書き換えられるものとしているが、本発明はこのような構成に限定されるものではなく、図3に示すように、サーバ3が、AI32を搭載するものとしてもよい。 Further, in this embodiment, the language database 3A is automatically rewritten (via the network 2) based on the judgment information of the language linking unit 26, but the present invention is not limited to such a configuration. Instead, as shown in FIG. 3, the server 3 may be equipped with an AI 32.

すなわち、サーバ3が翻訳端末1から(言語結付部26又はAI31による)上記判断情報を受信すると、このAI32(あるいはAI32及びサーバ管理者)により、言語データベース3Aの書き換えを行うか否かを決定し、書き換えを行うと決定した場合に、言語データベース3Aが書き換えられた(上記判断情報が反映された)上で、他の翻訳端末1′,1″,…に上記判断情報を送信するものとしてもよい。 That is, when the server 3 receives the above judgment information from the translation terminal 1 (by the language linking unit 26 or the AI 31), the AI 32 (or the AI 32 and the server administrator) determines whether or not to rewrite the language database 3A. However, when it is decided to rewrite, the language database 3A is rewritten (the above judgment information is reflected) and the above judgment information is transmitted to other translation terminals 1', 1'',... Good too.

以上が、本実施例に係る翻訳端末及び翻訳システムの構成の説明である。以下では、上記構成とした本実施例に係る翻訳端末及び翻訳システムの動作の一例を、図2のフローチャートを用いて説明する。 The above is the explanation of the configuration of the translation terminal and translation system according to this embodiment. An example of the operation of the translation terminal and translation system according to the present embodiment configured as described above will be explained below using the flowchart of FIG. 2.

ステップS1では、選択要求部20により表示部10から出力言語の設定を要求する表示を行い、ユーザにより出力言語を設定する。なお、当該ステップは、必ずしも毎回行わなければならないものではない。例えば、初回動作時のみ必須としてもよく、あるいは、出荷時から、初期設定として特定の言語(例えば英語等)が設定されている状態としておき、ユーザが任意で変更する形にしてもよい。 In step S1, the selection requesting section 20 causes the display section 10 to display a request for setting the output language, and the user sets the output language. Note that this step does not necessarily have to be performed every time. For example, it may be required only at the first operation, or a specific language (for example, English, etc.) may be set as an initial setting from the time of shipment, and the user may change it as desired.

ステップS2では、ユーザにより音声入力部11に音声が入力される。ステップS3は、この音声内容が解析可能か否かで分岐するステップである。解析が可能であればステップS5へ、不能であればステップS4へ移行する。 In step S2, the user inputs voice to the voice input section 11. Step S3 is a step that branches depending on whether or not the audio content can be analyzed. If the analysis is possible, the process moves to step S5, and if it is not possible, the process moves to step S4.

ステップS4では、依頼設定部25により別の発音を依頼する(別発音依頼動作)。この依頼内容は音声出力部12又は表示部10から出力され、ユーザに伝達される。ステップS4を実行した後は、ステップS2に戻る。 In step S4, the request setting unit 25 requests another pronunciation (another pronunciation request operation). The contents of this request are outputted from the audio output section 12 or the display section 10 and transmitted to the user. After executing step S4, the process returns to step S2.

ステップS5では、言語解析部23により音声内容の解析を行う。ステップS6は、ステップS4(別発音依頼動作)を行ったか否かで分岐するステップである。別発音依頼動作を行っていればステップS7A,S7Bへ、行っていなければステップS7へ移行する。 In step S5, the language analysis section 23 analyzes the audio content. Step S6 is a step that branches depending on whether or not step S4 (another pronunciation request operation) has been performed. If the alternative pronunciation request operation has been performed, the process advances to steps S7A and S7B, and if not, the process advances to step S7.

ステップS7では、音声内容を言語変換部24により他の言語(ステップS1で設定された言語)に変換する。ステップS8では、ステップS7で変換した言語を音声出力部12又は表示部10から出力する。 In step S7, the language conversion unit 24 converts the audio content into another language (the language set in step S1). In step S8, the language converted in step S7 is output from the audio output section 12 or the display section 10.

ステップS7A,S8Aは、上記ステップS7,S8とそれぞれ同じ動作を行うものであり、ここでは説明を省略する。また、ステップS7B,S8B,S9は、ステップS5において音声内容の解析を行った後、ステップS7A,S8Aと並行して行われる動作である。 Steps S7A and S8A perform the same operations as steps S7 and S8, respectively, and will not be described here. Further, steps S7B, S8B, and S9 are operations performed in parallel with steps S7A and S8A after the audio content is analyzed in step S5.

ステップS7Bでは、言語結付部26又はAI31により、初回の音声内容と(言語解析部23で)解析した音声内容とが同一の意味であると判断する(結び付ける)。 In step S7B, the language linking unit 26 or the AI 31 determines (links) that the initial audio content and the audio content analyzed (by the language analysis unit 23) have the same meaning.

ステップS8Bでは、上記ステップS7Bの判断情報に基づき、(AI31,32の判断により)言語データベース3A、及び、他の翻訳端末1′,1″,…における言語データベース14Aを書き換える。
以上が本実施例に係る翻訳システムの動作説明である。
In step S8B, the language database 3A and the language database 14A in the other translation terminals 1', 1'', .
The above is an explanation of the operation of the translation system according to this embodiment.

このようにして本実施例に係る翻訳端末及び翻訳システムは、予め記憶されていない発音に対する翻訳を行うことができる。 In this way, the translation terminal and translation system according to this embodiment can translate pronunciations that are not stored in advance.

また、別発音依頼動作を繰り返し行うことで、より確実に翻訳を行うことができる。さらに、サーバを用いて情報の送受信を行うことで、各翻訳端末の言語データベースを同一のものとすることができ、より翻訳精度を向上させることができる。 Further, by repeating the operation of requesting different pronunciations, translation can be performed more reliably. Furthermore, by transmitting and receiving information using a server, the language databases of each translation terminal can be made the same, and translation accuracy can be further improved.

本発明は、音声認識による自動翻訳機の人工知能による自動アップデートとそのアップデート配信及び情報システムとして好適である。 INDUSTRIAL APPLICATION This invention is suitable for the automatic update by artificial intelligence of the automatic translation machine by voice recognition, its update distribution, and an information system.

1,1′,1″ 翻訳端末
2 ネットワーク
3 サーバ
3A 言語データベース
10 表示部
11 音声入力部
12 音声出力部
13 通信部
14 記憶部
14A 言語データベース
15 制御部
20 選択要求部
21 入力処理部
22 出力処理部
23 言語解析部
24 言語変換部
25 依頼設定部
26 言語結付部
31,32 AI(人工知能)
1, 1', 1'' Translation terminal 2 Network 3 Server 3A Language database 10 Display unit 11 Voice input unit 12 Voice output unit 13 Communication unit 14 Storage unit 14A Language database 15 Control unit 20 Selection request unit 21 Input processing unit 22 Output processing Section 23 Language analysis section 24 Language conversion section 25 Request setting section 26 Language connection section 31, 32 AI (artificial intelligence)

Claims (5)

外部に対して入出力を行うユーザインターフェイスと、
前記外部から前記ユーザインターフェイスを介して入力された音声内容を解析し、解析した当該音声内容を他の言語に変換し、変換した当該音声内容の信号を前記ユーザインターフェイスに送信する制御部とを備え、
前記制御部は、前記音声内容を解析できなかった場合、別の発音を依頼する内容の信号を前記ユーザインターフェイスに送信する、別発音依頼動作を実行し、
前記制御部が前記音声内容を解析できるまで前記別発音依頼動作を繰り返し実行し、
前記別発音依頼動作における前記別発音を依頼する内容は、前回の前記別発音依頼動作における前記別発音を依頼する内容と重複しないものとし、
複数種類の言語及びその翻訳関係についての第1言語データベースが記憶された記憶部を備え、
前記制御部は、前記別発音依頼動作が1回以上為された後に前記音声内容を解析した場合、当該音声内容が初回の前記音声内容と同一の意味であると判断し、前記第1言語データベースには当該判断の情報が反映される
翻訳端末と、
前記翻訳端末と通信可能であり、前記複数種類の言語及びその翻訳関係についての第2言語データベースが記憶されたサーバとを備え、
前記サーバが前記翻訳端末から前記判断の情報を受信することで、前記第2言語データベースにも前記判断の情報が反映される
ことを特徴とする翻訳システム。
A user interface that performs input/output to the outside,
A control unit that analyzes audio content input from the outside via the user interface, converts the analyzed audio content into another language, and transmits a signal of the converted audio content to the user interface. ,
If the voice content cannot be analyzed, the control unit executes a different pronunciation request operation of transmitting a signal requesting a different pronunciation to the user interface;
Repeating the operation of requesting another pronunciation until the control unit can analyze the audio content;
The content of requesting the different pronunciation in the different pronunciation request action shall not overlap with the content of requesting the different pronunciation in the previous different pronunciation request action,
comprising a storage unit storing a first language database regarding multiple types of languages and their translation relationships;
When the control unit analyzes the voice content after the different pronunciation request operation is performed one or more times, the control unit determines that the voice content has the same meaning as the first voice content, and stores the voice content in the first language database. will reflect the information of the relevant judgment.
translation terminal and
a server capable of communicating with the translation terminal and storing a second language database regarding the plurality of languages and their translation relationships;
When the server receives the judgment information from the translation terminal, the judgment information is also reflected in the second language database.
A translation system characterized by:
前記翻訳端末での、前記別の発音を依頼する内容とは、正確な発音を依頼する、標準語での発音を依頼する、訛りのない発音を依頼する、及び、他の表現を依頼する、のうち、いずれか1つである
請求項1に記載の翻訳システム。
The contents of requesting different pronunciation on the translation terminal include requesting accurate pronunciation, requesting pronunciation in standard language, requesting pronunciation without accent, and requesting other expressions. One of these
The translation system according to claim 1.
前記翻訳端末は、
複数種類の言語及びその翻訳関係についての第1言語データベースが記憶された記憶部と、
前記別発音依頼動作が1回以上為された後に前記音声内容を解析した場合、当該音声内容が初回の前記音声内容と同一の意味であると判断し、前記第1言語データベースの書き換えを行うか否かを決定する第1人工知能とを備え、
前記第1人工知能が書き換えを行うと決定した場合、前記第1言語データベースには前記判断の情報が反映される
請求項1又は2に記載の翻訳システム。
The translation terminal is
a storage unit storing a first language database regarding multiple types of languages and their translation relationships;
If the audio content is analyzed after the alternate pronunciation request operation is performed one or more times, it is determined that the audio content has the same meaning as the initial audio content, and the first language database is rewritten. and a first artificial intelligence that determines whether or not to
When the first artificial intelligence decides to perform rewriting, the information of the decision is reflected in the first language database.
The translation system according to claim 1 or 2.
前記サーバは、前記翻訳端末から前記判断の情報を受信すると、前記第2言語データベースの書き換えを行うか否かを決定する第2人工知能を備え、
前記第2言語データベースには、前記第2人工知能が書き換えを行うと決定した場合に、前記判断の情報が反映される
ことを特徴とする請求項1に記載の翻訳システム。
The server includes a second artificial intelligence that determines whether to rewrite the second language database when receiving the judgment information from the translation terminal,
2. The translation system according to claim 1, wherein when the second artificial intelligence determines to perform rewriting, information on the determination is reflected in the second language database.
複数の前記翻訳端末を備え、
前記サーバは、1つの前記翻訳端末から前記判断の情報を受信し、前記第2言語データベースに前記判断の情報を反映する場合、他の前記翻訳端末に前記判断の情報を送信するものであり、
他の前記翻訳端末は、前記サーバから受信した前記判断の情報をそれぞれ前記第1言語データベースに反映させる
ことを特徴とする請求項1又は4に記載の翻訳システム。
comprising a plurality of the translation terminals,
The server receives the judgment information from one of the translation terminals, and when reflecting the judgment information in the second language database, transmits the judgment information to the other translation terminal,
5. The translation system according to claim 1 , wherein the other translation terminals respectively reflect the judgment information received from the server in the first language database.
JP2019149223A 2019-08-16 2019-08-16 Automatic update of automatic translation machine using voice recognition using artificial intelligence, update distribution and information system Active JP7347990B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019149223A JP7347990B2 (en) 2019-08-16 2019-08-16 Automatic update of automatic translation machine using voice recognition using artificial intelligence, update distribution and information system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019149223A JP7347990B2 (en) 2019-08-16 2019-08-16 Automatic update of automatic translation machine using voice recognition using artificial intelligence, update distribution and information system

Publications (2)

Publication Number Publication Date
JP2021032921A JP2021032921A (en) 2021-03-01
JP7347990B2 true JP7347990B2 (en) 2023-09-20

Family

ID=74677522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149223A Active JP7347990B2 (en) 2019-08-16 2019-08-16 Automatic update of automatic translation machine using voice recognition using artificial intelligence, update distribution and information system

Country Status (1)

Country Link
JP (1) JP7347990B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186161A1 (en) 2021-03-02 2022-09-09 Ricoh Company, Ltd. Electrode manufacturing method and electrode manufacturing apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213005A (en) 2006-01-10 2007-08-23 Nissan Motor Co Ltd Recognition dictionary system and recognition dictionary system updating method
JP2010210756A (en) 2009-03-09 2010-09-24 Toyota Motor Corp Speech recognition device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129594A (en) * 1993-10-29 1995-05-19 Toshiba Corp Automatic interpretation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213005A (en) 2006-01-10 2007-08-23 Nissan Motor Co Ltd Recognition dictionary system and recognition dictionary system updating method
JP2010210756A (en) 2009-03-09 2010-09-24 Toyota Motor Corp Speech recognition device

Also Published As

Publication number Publication date
JP2021032921A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
EP1976255B1 (en) Call center with distributed speech recognition
JP4466666B2 (en) Minutes creation method, apparatus and program thereof
KR102043365B1 (en) Local maintenance of data for voice actions that can be selectively performed offline on a speech recognition electronic device
US9349370B2 (en) Speech recognition terminal device, speech recognition system, and speech recognition method
US10008204B2 (en) Information processing system, and vehicle-mounted device
US10706085B2 (en) Method and system for exposing virtual assistant services across multiple platforms
KR102429407B1 (en) User-configured and customized interactive dialog application
US20190164556A1 (en) Master-slave personal digital assistant data and knowledge exchange system and method
JP2014106523A (en) Voice input corresponding device and voice input corresponding program
JP2011504624A (en) Automatic simultaneous interpretation system
AU2008287331B2 (en) Voice enabled telnet interface
CN116127046A (en) Training method for generating large language model and man-machine voice interaction method based on model
US20230022004A1 (en) Dynamic vocabulary customization in automated voice systems
US20230396567A1 (en) Chat bot utilizing metaphors to both relay and obtain information
JP7347990B2 (en) Automatic update of automatic translation machine using voice recognition using artificial intelligence, update distribution and information system
JP5856708B1 (en) Translation system and server
WO2022119942A1 (en) Systems and methods of integrating legacy chatbots with telephone networks
KR20130124704A (en) Method and apparatus for rescoring in the distributed environment
JP6449181B2 (en) Speech translation system, speech translation method, and speech translation program
KR20190096159A (en) Apparatus, device and method for gernerating customised language model
CN111770236B (en) Conversation processing method, device, system, server and storage medium
KR102526391B1 (en) System for providing interpretation services based on distribution model
US8073930B2 (en) Screen reader remote access system
US20240153485A1 (en) Systems and methods for machine-learning based multi-lingual pronunciation generation
JP4082249B2 (en) Content distribution system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230907

R150 Certificate of patent or registration of utility model

Ref document number: 7347990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150