JP6109664B2 - Program, apparatus and method for estimating specific feelings for synonyms between language systems - Google Patents

Program, apparatus and method for estimating specific feelings for synonyms between language systems Download PDF

Info

Publication number
JP6109664B2
JP6109664B2 JP2013148973A JP2013148973A JP6109664B2 JP 6109664 B2 JP6109664 B2 JP 6109664B2 JP 2013148973 A JP2013148973 A JP 2013148973A JP 2013148973 A JP2013148973 A JP 2013148973A JP 6109664 B2 JP6109664 B2 JP 6109664B2
Authority
JP
Japan
Prior art keywords
word
specific emotion
occurrence frequency
emotion
language system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013148973A
Other languages
Japanese (ja)
Other versions
JP2015022448A (en
JP2015022448A5 (en
Inventor
鈴木 雅実
雅実 鈴木
広海 石先
広海 石先
滝嶋 康弘
康弘 滝嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013148973A priority Critical patent/JP6109664B2/en
Publication of JP2015022448A publication Critical patent/JP2015022448A/en
Publication of JP2015022448A5 publication Critical patent/JP2015022448A5/ja
Application granted granted Critical
Publication of JP6109664B2 publication Critical patent/JP6109664B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、2つの言語体系の間に介在する対話システムの技術に関する。   The present invention relates to a technology of a dialogue system interposed between two language systems.

従来、2つの言語体系の間における対話を支援するために、自動的に通訳又は翻訳をするコミュニケーションシステムの技術がある。この技術によれば、少なくとも2つの端末の間に対訳サーバが介在し、辞書データベースを用いて、一方の端末から入力された文章を対訳し、他方の端末へ出力することができる。   Conventionally, there is a communication system technology for automatically interpreting or translating in order to support a dialogue between two language systems. According to this technique, a bilingual server is interposed between at least two terminals, and a text input from one terminal can be translated using a dictionary database and output to the other terminal.

例えば、相手方との価値観の相違と、会話トピックに対する肯定度とを推定し、コミュニケーションを支援する技術がある(例えば特許文献1参照)。この技術によれば、会話の返答に使用される語句の同意及び非同意の強度を推定する。特に、対話相手の発言に対する返答の極性(肯定/否定の程度)から、意見(価値観)がどの程度乖離しているかを検出する。また、目的言語側の文化によって、原言語側の文化的背景を吸収し、原言語側で表現している事柄を、目的言語側の表現に的確に訳出する技術もある(例えば特許文献2参照)。   For example, there is a technique for supporting communication by estimating a difference in values from the other party and an affirmation level for a conversation topic (see, for example, Patent Document 1). According to this technique, the strength of agreement and disagreement of a phrase used for replying a conversation is estimated. In particular, the degree of divergence of opinions (values) is detected from the polarity of responses (degrees of affirmation / denial) to the conversation partner's statements. In addition, there is a technology that absorbs the cultural background of the source language by the culture of the target language and accurately translates the expression expressed in the source language into the expression of the target language (see, for example, Patent Document 2). ).

特開2006−209332号公報JP 2006-209332 A 特開平06−348751号公報Japanese Patent Laid-Open No. 06-348751

2人以上で対話する場合、各人における母国語や育った環境、過去の経験知に関しては多様な相違点がある。これは、対面しているか/対面していなか、又は、リアルタイムな会話なのか/メールなのか、を問わない。言語を媒介する以上、同一の語句又は節・文が指し示す対象への認識に対するギャップ(差異)が生じることも多い。   When talking with two or more people, there are various differences in each person's native language, growing environment, and past experience. It does not matter whether they are face-to-face / not face-to-face, real-time conversation / mail. As long as language is used, there is often a gap (difference) in the recognition of objects pointed to by the same word or clause / sentence.

一般に、言語体系が異なれば、翻訳を通して同義関係の語句同士であっても、それらが指し示すイメージには、歴史や文化の違いが反映されて、異なる印象を生じさせ易いと考えられる。例えば日本語の「城」と欧州の「castle」とは、異なる印象を生じる。また、同一国語で対話する者同士であっても、地域特性の違い(例えば方言)や、個人の属性(性別・年齢・教育・・・)の違いによって、同じ言葉で表される対象への認識には、同様にギャップが存在する。しなしながら、このような異なる印象を互いに十分理解することなく対話を進めた場合、コミュニケーション自体に齟齬が生じることも多い。   In general, if the language systems are different, even if they are synonymous words through translation, the images pointed to reflect the differences in history and culture, and it is likely to give a different impression. For example, Japanese “castle” and European “castle” have different impressions. Also, even those who talk in the same national language may be subject to the same language due to differences in regional characteristics (for example, dialects) or individual attributes (gender, age, education ...). There is a gap in recognition as well. However, if dialogues are advanced without fully understanding these different impressions, the communication itself is often frustrated.

既存の対訳システムによれば、辞書データベースを参照して、構文・意味的には同義で且つ正しい翻訳結果を得ることができる。しかしながら、それを受け取る聞き手が、話し手と同様なイメージを話題の対象に対して抱く保証はない。これは、言語と指示対象の間に、文化固有の写像関係が存在するためである。   According to the existing parallel translation system, it is possible to obtain a translation result that is synonymous in terms of syntax and semantics and that is correct by referring to the dictionary database. However, there is no guarantee that the listener receiving it will have a similar image to the subject of the topic. This is because there is a culture-specific mapping relationship between the language and the instruction target.

図1は、従来技術における対訳システムについて、対話者間でコミュニケーションに祖語が生じている例を表す説明図である。   FIG. 1 is an explanatory diagram illustrating an example in which a native language is generated in communication between interlocutors in a conventional bilingual system.

図1によれば、日本人のユーザAとドイツ人のユーザBとがそれぞれの端末2を用いて、対訳システムを介在させて対話している。対訳システムは、例えば日本人の端末2Aから受信した日本語の音声を、音声認識によって日本語テキストに変換し、その日本語テキストをドイツ語テキストに翻訳し、そのドイツ語テキストを音声合成によってドイツ語の音声に変換し、そのドイツ語の音声をドイツ人の端末2Bへ送信する。一方で、ドイツ人の端末2Bから受信したドイツ語の音声を、音声認識によってドイツ語テキストに変換し、そのドイツ語テキストを日本語テキストに翻訳し、その日本語テキストを音声合成によって日本語の音声に変換し、その日本語の音声を日本人の端末2Aへ送信する。以下では、日本語とドイツ語との間で生じるであろうコミュニケーション・ギャップの例を説明する。   According to FIG. 1, a Japanese user A and a German user B are interacting with each other using a terminal 2 and a bilingual system. The bilingual system converts, for example, Japanese speech received from a Japanese terminal 2A into Japanese text by speech recognition, translates the Japanese text into German text, and translates the German text into German by speech synthesis. The voice is converted into a word voice, and the German voice is transmitted to the German terminal 2B. On the other hand, German speech received from the German terminal 2B is converted into German text by speech recognition, the German text is translated into Japanese text, and the Japanese text is translated into Japanese by speech synthesis. The voice is converted to voice and the Japanese voice is transmitted to the Japanese terminal 2A. The following describes examples of communication gaps that may arise between Japanese and German.

(S11)ドイツ人Bが、端末2Bに対して、昼時の挨拶である「Mahlzeit!」と発話したとする。この音声は、システムを介して翻訳され、端末2Aへ転送される。ここで、一般的な独和辞書では”Mahlzeit”->”食事の時”と翻訳される。
(S12)日本人Aは、端末2Aから「食事の時!」と発声され、”別に、食事の時!なんて言われなくても・・・?”と戸惑うこととなる。ドイツ人にとっては、一般的な昼時の挨拶にすぎないが、それを日本人は理解できず、コミュニケーション・ギャップが生じている。
(S11) Assume that German B utters “Mahlzeit!”, Which is a greeting at noon, to terminal 2B. This voice is translated through the system and transferred to the terminal 2A. Here, in a general German-Japanese dictionary, it is translated as “Mahlzeit”-> “When eating”.
(S12) Japanese A utters “At the time of a meal!” From the terminal 2A, and is confused as “Separately at the time of a meal! For Germans, this is just a general daytime greeting, but the Japanese cannot understand it, creating a communication gap.

(S13)次に、日本人Aとしては、端末2Aに対して、「はい、そろそろお昼ですね」と発話したとする。この音声は、システムを介して翻訳され、端末2Bへ転送される。ここで、一般的な和独辞書では”はい、そろそろお昼ですね”->”Ja,richtig!Es ist bald Mittag.”と翻訳される。
(S14)ドイツ人Bは、端末2Bから「Ja,richtig!Es ist bald Mittag.」と発声され、”昼時の挨拶をしただけなのに・・・?”と戸惑うこととなる。ドイツ人にとっては、何故このような返答になったのか理解できず、コミュニケーション・ギャップが生じている。
(S13) Next, it is assumed that the Japanese A utters “Yes, it's about noon” to the terminal 2A. This voice is translated through the system and transferred to the terminal 2B. Here, in a typical Japanese-German dictionary, it is translated as "Yes, it's about time"->"Ja, richtig! Es ist bald Mittag."
(S14) German B is uttered “Ja, richtig! Es ist bald Mittag.” From terminal 2B and is confused as “I just gave a greeting at noon…?”. For Germans, it is difficult to understand why such a response has occurred, and a communication gap has arisen.

(S15)次に、日本人Aが、くしゃみをしたとする。日本人Aとしては、”今、風邪気味なんだけど・・・”と思っている。日本人Aのくしゃみの声は、端末2Aからネットワークを介して端末2Bへ転送され、ドイツ人Bにもそのまま聞こえたとする。
(S16)ドイツ人Bは、端末2Bに対して、”お大事に”の意味である「Gasundheit!」と発話したとする。この音声は、システムを介して翻訳され、端末2Aへ転送される。ここで、一般的な独和辞書では”Gasundheit”->”健康”と翻訳される。
(S17)日本人Aは、端末2Aから「健康!」と発声されて、”???”と戸惑うこととなる。ドイツ人にとっては、相手を労ったにすぎないが、それを日本人は理解できず、コミュニケーション・ギャップが生じている。
(S15) Next, assume that Japanese A sneezes. Japanese A thinks, “I feel cold now, but ...” Assume that the sneezing voice of Japanese A is transferred from terminal 2A to terminal 2B via the network and is heard by German B as it is.
(S16) Assume that German B utters “Gasundheit!”, Which means “precious” to terminal 2B. This voice is translated through the system and transferred to the terminal 2A. Here, in a general German-Japanese dictionary, it is translated as “Gasundheit”-> “health”.
(S17) Japanese A is uttered “Healthy!” From terminal 2A and is confused as “???”. For the Germans, they only worked hard, but the Japanese could not understand it, creating a communication gap.

このようなコミュニケーション・ギャップの典型例は、話し手側の言語体系における特定の語句を辞書的に翻訳しただけでは、聞き手側が、その話し手側における文化依存的な用法の存在を想像できないことに基づくものと考えられる。逆の見方をすれば、翻訳された結果、そのものを超えるような伝達意図が存在してしまい、更なるギャップが発生してしまう。   A typical example of such a communication gap is based on the fact that the listener cannot imagine the existence of a culture-dependent usage on the speaker's side simply by lexicographically translating specific words in the speaker's language system. it is conceivable that. On the other hand, if the result of the translation is translated, there is a transmission intention that exceeds that, and a further gap is generated.

ここで、本願の発明者らは、辞書を用いた一般的な対訳で生じるコミュニケーション・ギャップを軽減することはできないか?と考えた。即ち、言語体系の間で翻訳された語句に対する感情の相違を、聞き手側が推定できればよい、と考えた。尚、前述した特許文献1及び2に記載された技術はいずれも、言語に関する感情の相違に起因するコミュニケーション・ギャップを推定するようなものではない。   Here, can the inventors of the present application reduce a communication gap caused by a general translation using a dictionary? I thought. In other words, I thought that it would be sufficient for the listener to be able to estimate the emotional difference for the translated phrases between language systems. Note that none of the techniques described in Patent Documents 1 and 2 described above estimate a communication gap caused by a difference in emotion related to language.

そこで、本発明は、言語体系の間で同義語句に対する特定の感情を推定するプログラム、装置及び方法を提供することを目的とする。   Then, an object of this invention is to provide the program, apparatus, and method which estimate the specific emotion with respect to a synonym phrase between language systems.

本発明によれば、第1の言語体系の第1の語句と第2の言語体系の第2の語句とが、対訳関係又は対応関係にある場合、当該第2の語句に接したユーザが特定感情を認識するか否かを推定するように、装置に搭載されたコンピュータを機能させるプログラムであって、
第2の言語体系に基づく参照用文章を多数含むコーパス収集蓄積手段と、
コーパス収集蓄積手段を用いて、第2の語句を含む参照用文章を検索するコーパス検索手段と、
検索された参照用文章について、第1の語句と、特定感情語との間の共起頻度を算出する共起頻度算出手段と、
検出対象となる特定感情語に対する共起頻度が、所定閾値以上高いか否かを判定する特定感情判定手段と
してコンピュータを機能させ、
特定感情判定手段によって真と判定された第2の語句は、ユーザに特定感情を認識させると推定するようにコンピュータを機能させることを特徴とする。
また、本発明のプログラムにおける他の実施形態によれば、
共起頻度算出手段は、検索された参照用文章について、第1の語句と、予め規定された複数の感情語それぞれとの間の共起頻度を更に算出し、
特定感情判定手段は、検出対象となる特定感情語に対する共起頻度が、他の複数の感情語の共起頻度よりも所定閾値以上高いか否かを判定する
ようにコンピュータを機能させることも好ましい。
According to the present invention, when the first word / phrase of the first language system and the second word / phrase of the second language system are in a parallel translation relationship or a correspondence relationship, the user who contacts the second word / phrase is specified. A program that causes a computer installed in the device to function as if it is estimated whether to recognize emotions,
Corpus collection and storage means including a number of reference sentences based on the second language system;
Corpus search means for searching for a reference sentence including the second word using the corpus collection and storage means;
A co-occurrence frequency calculating means for calculating a co-occurrence frequency between the first word and the specific emotion word for the retrieved reference sentence;
Co-occurrence frequency for a particular emotion word to be detected is, cause the computer to function as a specific emotion determination means for determining whether or Jo Tokoro threshold higher,
The second word / phrase determined to be true by the specific emotion determination means makes the computer function so as to presume that the user recognizes the specific emotion.
According to another embodiment of the program of the present invention,
The co-occurrence frequency calculating means further calculates a co-occurrence frequency between the first word and each of the plurality of emotion words defined in advance for the retrieved reference text,
The specific emotion determination means determines whether the co-occurrence frequency for the specific emotion word to be detected is higher than a co-occurrence frequency of other emotion words by a predetermined threshold or more.
It is also preferable to make the computer function.

本発明のプログラムにおける他の実施形態によれば、
第1の言語体系と第2の言語体系とは同一国語であって対応関係にあるようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
It is also preferable to cause the computer to function so that the first language system and the second language system are in the same national language and have a corresponding relationship.

本発明のプログラムにおける他の実施形態によれば、
コーパス検索手段は、第1の語句及び第2の語句を含む参照用文章を検索するようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The corpus search means preferably causes the computer to function to search for a reference sentence including the first word and the second word.

本発明のプログラムにおける他の実施形態によれば、
特定感情語は、名詞又はそれに派生する動詞であり、
複数の感情語は、少なくとも特定感情語を含むものである
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
A specific emotion word is a noun or a verb derived from it,
It is also preferable that the computer function so that the plurality of emotion words include at least the specific emotion word.

本発明のプログラムにおける他の実施形態によれば、
特定感情語は、名詞「困惑」「当惑」「疑問」又は動詞「困る」「戸惑う」「わからない」であるようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
It is also preferable to make the computer function so that the specific emotion words are the nouns “confused”, “embarrassed”, “question” or the verbs “prone”, “confused”, “don't know”.

本発明のプログラムにおける他の実施形態によれば、
共起頻度算出手段は、第1の語句と各感情語とのそれぞれについて、相互情報量基準によって、共起頻度を算出するようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The co-occurrence frequency calculating means preferably causes the computer to function so as to calculate the co-occurrence frequency for each of the first word and each emotion word based on the mutual information criterion.

本発明のプログラムにおける他の実施形態によれば、
コーパス収集蓄積手段に蓄積された第2の言語体系の文章は、Webサーバ、ブログサーバ又はSNS(Social Networking Service)サーバによって公開された文章である
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
It is also preferable to cause the computer to function so that the text of the second language system stored in the corpus collection storage means is text published by a Web server, a blog server, or an SNS (Social Networking Service) server.

本発明のプログラムにおける他の実施形態によれば、
特定感情判定手段によって真と判定された第1の語句及び第2の語句を蓄積するアラーム語句蓄積手段と、
第1の語句と第2の語句との対訳関係及び対応関係が用いられた際に、第2の語句に接したユーザに、特定感情語に基づくものであることを明示する特定感情明示手段と
してコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
Alarm phrase storage means for storing the first and second phrases determined to be true by the specific emotion determination means;
As specific emotion clarification means for clearly indicating to the user who is in contact with the second phrase that the translation is based on the specific emotion word when the parallel translation relationship and the correspondence relationship between the first phrase and the second phrase are used. It is also preferable to make the computer function.

本発明のプログラムにおける他の実施形態によれば、
特定感情明示手段は、コーパス検索手段によって検索された第2の言語体系の文章の一部若しくは全部又はリンク先アドレスを、第2の語句と共に注釈として、ユーザに明示するようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The specific emotion clarification means causes the computer to function as a comment to the user, with a part or all of a sentence of the second language system searched by the corpus search means or a link destination address as an annotation together with the second word / phrase. Is also preferable.

本発明によれば、第1の言語体系の第1の語句と第2の言語体系の第2の語句とが、対訳関係又は対応関係にある場合、当該第2の語句に接したユーザが特定感情を認識するか否かを推定する装置であって、
第2の言語体系に基づく参照用文章を多数含むコーパス収集蓄積手段と、
コーパス収集蓄積手段を用いて、第2の語句を含む参照用文章を検索するコーパス検索手段と、
検索された参照用文章について、第1の語句と、特定感情語との間の共起頻度を算出する共起頻度算出手段と、
検出対象となる特定感情語に対する共起頻度が、所定閾値以上高いか否かを判定する特定感情判定手段と
を有し、
特定感情判定手段によって真と判定された第2の語句は、ユーザに特定感情を認識させると推定することを特徴とする。
According to the present invention, when the first word / phrase of the first language system and the second word / phrase of the second language system are in a parallel translation relationship or a correspondence relationship, the user who contacts the second word / phrase is specified. A device for estimating whether or not to recognize emotions,
Corpus collection and storage means including a number of reference sentences based on the second language system;
Corpus search means for searching for a reference sentence including the second word using the corpus collection and storage means;
A co-occurrence frequency calculating means for calculating a co-occurrence frequency between the first word and the specific emotion word for the retrieved reference sentence;
Co-occurrence frequency for a particular emotion word to be detected is, and a specific emotion determination means for determining whether or Jo Tokoro threshold higher,
The second word / phrase determined to be true by the specific emotion determination means is estimated to cause the user to recognize the specific emotion.

本発明によれば、第1の言語体系の第1の語句と第2の言語体系の第2の語句とが、対訳関係又は対応関係にある場合、当該第2の語句に接したユーザが特定感情を認識するか否かを推定する装置の特定感情推定方法であって、
装置は、第2の言語体系に基づく参照用文章を多数含むコーパス収集蓄積部を有し、
装置は、
コーパス収集蓄積手段を用いて、第2の語句を含む参照用文章を検索する第1のステップと、
検索された参照用文章について、第1の語句と、特定感情語との間の共起頻度を算出する第2のステップと、
検出対象となる特定感情語に対する共起頻度が、所定閾値以上高いか否かを判定する第3のステップと
実行し、
第3のステップによって真と判定された第2の語句は、ユーザに特定感情を認識させると推定することを特徴とする。
According to the present invention, when the first word / phrase of the first language system and the second word / phrase of the second language system are in a parallel translation relationship or a correspondence relationship, the user who contacts the second word / phrase is specified. A specific emotion estimation method for a device that estimates whether or not to recognize emotions,
The apparatus has a corpus collection and accumulation unit including a large number of reference sentences based on the second language system,
The device
A first step of searching for a reference sentence including a second word using a corpus collection and storage unit;
A second step of calculating a co-occurrence frequency between the first phrase and the specific emotion word for the retrieved reference sentence;
Co-occurrence frequency for a particular emotion word to be detected is, performs a third step of determining whether or Jo Tokoro threshold higher,
The second word / phrase determined to be true in the third step is estimated to cause the user to recognize a specific emotion.

本発明のプログラム、装置及び方法によれば、言語体系の間で同義語句に対する特定の感情を推定することができる。   According to the program, apparatus, and method of the present invention, it is possible to estimate a specific emotion for a synonym phrase between language systems.

従来技術における対話システムについて、対話者間でコミュニケーションに祖語が生じている例を表す説明図である。It is explanatory drawing showing the example in which a native language has arisen in communication between the dialog persons about the dialog system in a prior art. 本発明におけるシステムのシーケンス図である。It is a sequence diagram of a system in the present invention. 本発明における端末に表示された画面の例である。It is an example of the screen displayed on the terminal in this invention. 本発明における対訳サーバの機能構成図である。It is a function block diagram of the parallel translation server in this invention. 本発明における共起頻度算出部の動作の説明図である。It is explanatory drawing of operation | movement of the co-occurrence frequency calculation part in this invention.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明は、言語体系の間で、コミュニケーション・ギャップを生じ易い語句を自動的に検出し、その語句が意味する話し手側の意図を明示的に、聞き手側の端末に表示することができる。聞き手側に、話し手側の意図を理解させることによって、聞き手側に生じるコミュニケーション・ギャップを軽減させることができる。   The present invention can automatically detect a phrase that is likely to cause a communication gap between language systems, and can explicitly display a speaker's intention meant by the phrase on a listener's terminal. By allowing the listener to understand the intention of the speaker, the communication gap that occurs on the listener can be reduced.

最初に、本発明の作用効果を明確にするべく、図1の従来技術におけるシーケンスと比較して説明する。   First, in order to clarify the operational effects of the present invention, a description will be given in comparison with the sequence in the prior art of FIG.

図2は、本発明におけるシステムのシーケンス図である。
図3は、本発明における端末に表示された画面の例である。
FIG. 2 is a sequence diagram of the system according to the present invention.
FIG. 3 is an example of a screen displayed on the terminal according to the present invention.

図3によれば、図1と比較して、シーケンス番号を対応させて説明している。
(S11)ドイツ人Bが、端末2Bに対して、昼時の挨拶である「Mahlzeit!」と発話したとする。この音声は、システムを介して翻訳され、端末2Aへ転送される。ここで、一般的な独和辞書では”Mahlzeit”->”食事の時”と翻訳される。
(S12)日本人Aは、端末2Aから「食事の時!」と発声される。このとき、本発明によれば、端末2Aのディスプレイに「※注釈 昼食時の軽い挨拶」と表示される(図3のS12参照)。日本人Aとしては、”そうなのね・・”と理解できる。
In FIG. 3, the sequence numbers are described in correspondence with those in FIG.
(S11) Assume that German B utters “Mahlzeit!”, Which is a greeting at noon, to terminal 2B. This voice is translated through the system and transferred to the terminal 2A. Here, in a general German-Japanese dictionary, it is translated as “Mahlzeit”-> “When eating”.
(S12) Japanese A utters “At the time of meal!” From terminal 2A. At this time, according to the present invention, “* Note light greeting during lunch” is displayed on the display of the terminal 2A (see S12 in FIG. 3). As a Japanese A, you can understand that it is.

(S13)次に、日本人Aとしても、端末2Aに対して、「食事の時」と発話したとする。この音声は、システムを介して翻訳され、端末2Bへ転送される。
(S14)ドイツ人Bは、端末2Bから「Mahlzeit!」と発声され、ドイツ人Bとしても何ら違和感を感じない。
(S13) Next, it is assumed that Japanese A also utters “at the time of meal” to terminal 2A. This voice is translated through the system and transferred to the terminal 2B.
(S14) German B is uttered “Mahlzeit!” From terminal 2B, and German B does not feel any sense of incongruity.

(S15)次に、日本人Aが、くしゃみをしたとする。日本人Aとしては、”今、風邪気味なんだけど・・・”と思っている。日本人Aのくしゃみの声は、端末2Aからネットワークを介して端末2Bへ転送され、ドイツ人Bにもそのまま聞こえたとする。
(S16)ドイツ人Bは、端末2Bに対して、”お大事に”の意味である「Gasundheit!」と発話したとする。この音声は、システムを介して翻訳され、端末2Aへ転送される。ここで、一般的な独和辞書では”Gasundheit”->”健康”と翻訳される。
(S17)日本人Aは、端末2Aから「健康!」と発声される。このとき、本発明によれば、端末2Aのディスプレイに「※注釈 体調不良時のお大事に」と表示される(図3のS37参照)。日本人Aとしては、ドイツ人Bが自分を労ったことを理解できる。
(S18)次に、日本人Aとしても、端末2Aに対して、「ありがとう」と発話したとする。この音声は、システムを介して翻訳され、端末2Bへ転送される。
(S19)ドイツ人Bは、端末2Bから「Danke」と発声され、ドイツ人Bとしても何ら違和感を感じない。
(S15) Next, assume that Japanese A sneezes. Japanese A thinks, “I feel cold now, but ...” Assume that the sneezing voice of Japanese A is transferred from terminal 2A to terminal 2B via the network and is heard by German B as it is.
(S16) Assume that German B utters “Gasundheit!”, Which means “precious” to terminal 2B. This voice is translated through the system and transferred to the terminal 2A. Here, in a general German-Japanese dictionary, it is translated as “Gasundheit”-> “health”.
(S17) Japanese A says “Healthy!” From terminal 2A. At this time, according to the present invention, “* notice in case of poor physical condition” is displayed on the display of the terminal 2A (see S37 in FIG. 3). As Japanese A, I can understand that German B worked hard.
(S18) Next, it is assumed that Japanese A also utters “thank you” to terminal 2A. This voice is translated through the system and transferred to the terminal 2B.
(S19) German B is uttered “Danke” from terminal 2B, and German B does not feel any sense of incongruity.

図4は、本発明における対訳サーバの機能構成図である。   FIG. 4 is a functional configuration diagram of the translation server in the present invention.

図4によれば、2つの言語体系で対話するユーザの端末2同士の間に、ネットワークを介して対訳サーバ1が介在する。また、対訳サーバ1は、ネットワークを介して他のサーバ群から多様な文章を収集することもできる。対訳サーバ1は、ユーザ同士の間の音声会話をリアルタイムに通訳するものであってもよいし、メールのようなテキストを逐次翻訳するものであってもよい。また、対訳サーバ1は、異なる言語体系の間の通訳又は翻訳に限られず、2つの言語体系が同一国語であってもよい。この場合、単に語句間の対応付けのみをモニタすることとなる。   According to FIG. 4, the bilingual server 1 is interposed between terminals 2 of users who interact in two language systems via a network. The parallel translation server 1 can also collect various sentences from other server groups via the network. The bilingual translation server 1 may interpret a voice conversation between users in real time, or may sequentially translate text such as an email. The parallel translation server 1 is not limited to interpretation or translation between different language systems, and the two language systems may be the same national language. In this case, only the association between words is monitored.

本発明における対訳サーバ1は、第1の言語体系の第1の語句と第2の言語体系の第2の語句とが、対訳関係又は対応関係にある場合、当該第2の語句に接したユーザが特定感情を認識するか否かを推定する。ここで、言語体系の相違は、日本語<->外国語(英語やドイツ語)のように国語の相違に限られず、同一国語における方言の相違であってもよい。また、「特定感情」とは、例えば「困惑」「当惑」「困る」「戸惑う」のような戸惑った感情であるとする。このような感情が、コミュニケーション・ギャップとなるからである。
第1の言語体系:話し手側の言語体系
特定感情を認識させるユーザから見て相手方ユーザ側の言語
(例えば日本人に特定感情を認識させる場合、相手方の外国語)
第2の言語体系:聞き手側の言語体系
特定感情を認識させるユーザ側の言語
(例えば日本人に特定感情を認識させる場合、日本語)
The bilingual translation server 1 according to the present invention, when the first word / phrase of the first language system and the second word / phrase of the second language system are in a bilingual relationship or a correspondence relationship, the user who contacts the second word / phrase Whether or not recognizes a specific emotion. Here, the difference in language system is not limited to a difference in national language such as Japanese <-> foreign languages (English or German), but may be a difference in dialects in the same national language. In addition, it is assumed that the “specific emotion” is a puzzled emotion such as “confused”, “embarrassed”, “prone”, “confused”. This is because such feelings create a communication gap.
First language system: Language system on the speaker side
The language on the other user's side as seen by the user recognizing the specific emotion
(For example, if you want Japanese to recognize specific emotions, the other party's foreign language)
Second language system: Language system on the listener side
User language to recognize specific emotions
(For example, if you want Japanese to recognize specific emotions, Japanese)

対訳サーバ1は、ネットワークに接続する通信ネットワーク10と、自動対訳部11と、コーパス収集蓄積部12と、コーパス検索部13と、共起頻度算出部14と、特定感情判定部15と、アラーム語句蓄積部16と、特定感情明示部17とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現できる。尚、各機能部の処理の流れは、方法としても実行できる。   The parallel translation server 1 includes a communication network 10 connected to the network, an automatic parallel translation unit 11, a corpus collection storage unit 12, a corpus search unit 13, a co-occurrence frequency calculation unit 14, a specific emotion determination unit 15, an alarm phrase The storage unit 16 and the specific emotion clarification unit 17 are included. These functional components can be realized by executing a program that causes a computer installed in the apparatus to function. The processing flow of each functional unit can also be executed as a method.

[自動対訳部11]
自動対訳部11は、既存の対訳機能であって、異なる言語体系を自動的に通訳又は翻訳する機能を有する。これは、音声会話をリアルタイムに通訳するものであってもよいし、メールのようにテキストベースで翻訳するものであってもよい。尚、また、自動対訳部11は、必ずしも異なる言語体系を処理するものに限らず、同一の言語体系のものであってもよい。この場合、単に語句間の対応付けのみをモニタすることとなる。
[Automatic translation unit 11]
The automatic parallel translation unit 11 is an existing parallel translation function and has a function of automatically interpreting or translating different language systems. This may be a real-time interpretation of a voice conversation or a text-based translation such as mail. In addition, the automatic parallel translation part 11 does not necessarily process a different language system, and may be the same language system. In this case, only the association between words is monitored.

自動対訳部11は、リアルタイムな会話を通訳する場合、一方の端末から受信した第1の言語体系の音声を音声認識によって第1のテキストに変換し、第1のテキストを第2の言語体系の第2のテキストへ翻訳し、第2のテキストを音声合成によって音声に変換し、その第2の言語体系の音声を他方の端末へ送信する。尚、メールのようなテキストを翻訳する場合、音声認識及び音声合成の処理を必要としない。   When translating the real-time conversation, the automatic translation unit 11 converts the speech of the first language system received from one terminal into the first text by speech recognition, and converts the first text to the second language system. The second text is translated into speech, the second text is converted into speech by speech synthesis, and the speech of the second language system is transmitted to the other terminal. When text such as e-mail is translated, speech recognition and speech synthesis processes are not required.

また、自動対訳部11は、第1の言語体系の第1の語句と、その対訳となる第2の言語体系の第2の語句とを、コーパス検索部13へ出力する。各語句は、形態素解析によって出力される。形態素解析とは、文法及び単語辞書を情報源として用いて、自然言語で書かれた文を言語として意味を持つ最小単位である形態素(Morpheme)に分割し、それぞれの品詞を判別する技術をいう。   Further, the automatic parallel translation unit 11 outputs the first word / phrase of the first language system and the second word / phrase of the second language system to be the parallel translation to the corpus search unit 13. Each phrase is output by morphological analysis. Morphological analysis is a technology that uses grammar and word dictionaries as information sources, divides sentences written in natural language into morphemes (Morpheme), which are the smallest units that have meaning as languages, and discriminates each part of speech. .

[コーパス収集蓄積部12]
コーパス収集蓄積部12は、第2の言語体系(図2によれば日本語)に基づく参照用文章を多数含む。コーパス収集蓄積部12は、ネットワークを介して外部のサーバ群から、ブログ等の多様な文章を収集する。第2の言語体系の文章は、Webサーバ、ブログサーバ又はSNSサーバによって公開された文章である。これらの文章は、個人が様々な社会的又は文化的な話題について、意見及び感想を述べたものであることが多い。また例えば、マスメディアによって発行された信頼性の高い文章であってもよい。
[Corpus Collection Accumulation Unit 12]
The corpus collection / storage unit 12 includes a large number of reference texts based on the second language system (Japanese according to FIG. 2). The corpus collection / storage unit 12 collects various sentences such as blogs from an external server group via a network. The text in the second language system is text published by a Web server, a blog server, or an SNS server. These texts often describe an individual's opinions and impressions on various social or cultural topics. Further, for example, a highly reliable sentence issued by mass media may be used.

ここで収集される文章は、「体験コーパス」と称されるものが好ましい。体験コーパスとは、第三者の経験の一部がブログ等の文章の中に記述されたものである。何らかのコミュニケーション・ギャップに遭遇した場合に、第1の語句及び第2の語句を引用する形で、自国語(第2の言語体系、例えば日本語)における体験コーパスが投稿される蓋然性が高い。   The sentences collected here are preferably called “experience corpus”. An experience corpus is one in which a part of the experience of a third party is described in a text such as a blog. When a communication gap is encountered, there is a high probability that an experience corpus in the native language (second language system, for example, Japanese) will be posted in the form of quoting the first phrase and the second phrase.

[コーパス検索部13]
コーパス検索部13は、コーパス収集蓄積部12を用いて、第2の語句(例えば日本語の”食事の時”)を含む参照用文章を検索する。また、第1の語句(例えばドイツ語の”Mahlzeit”)及び第2の語句(図2のS12における日本語の”食事の時”)の両方を含む、第2の言語体系(図2における日本語)の文章を検索するものであってもよい。
[Corpus Search Unit 13]
The corpus search unit 13 uses the corpus collection storage unit 12 to search for a reference sentence including the second word (for example, “when eating” in Japanese). Also, a second language system (Japan in FIG. 2) that includes both the first word (for example, “Mahlzeit” in German) and the second word (“Japanese meal” in S12 in FIG. 2). Word) may be searched.

[共起頻度算出部14]
共起頻度算出部14は、検索された参照用文章(例えば日本語の文章)について、第1の語句(例えばドイツ語の”Mahlzeit”)と、予め規定された複数の感情語それぞれとの間の共起頻度を算出する。共起頻度算出部14は、第1の語句と各感情語とのそれぞれについて、相互情報量基準によって、共起頻度を算出する。
[Co-occurrence frequency calculation unit 14]
The co-occurrence frequency calculation unit 14 determines between the first reference phrase (for example, “Mahlzeit” in German) and each of a plurality of emotion words defined in advance for the retrieved reference sentence (for example, Japanese sentence). The co-occurrence frequency of is calculated. The co-occurrence frequency calculation unit 14 calculates the co-occurrence frequency for each of the first word and each emotion word based on the mutual information amount criterion.

「感情」とは、物事に対する認知及び解釈によって引き起こされる、主観的な体験及び態度をいう。
「特定感情語」とは、名詞又はそれに派生する動詞であり、例えば名詞「困惑」「当惑」「疑問」又は動詞「困る」「戸惑う」「わからない」のような語句である。このような語句は、コミュニケーション・ギャップの体験コーパスに記述されている可能性が高い。
「感情語」とは、「うれしい」「怒る」「悲しい」「楽しい」「困惑」のように、感情を表す語句である。ここで、複数の感情語は、少なくとも特定感情語(例えば「困惑」)を含むものである。
“Emotion” refers to subjective experiences and attitudes caused by cognition and interpretation of things.
The “specific emotion word” is a noun or a verb derived from the noun, for example, a noun “Puzzled”, “Embarrassed”, “Question”, or a verb “Troubled”, “Confused”, “I don't know”. These phrases are likely to be described in the communication gap experience corpus.
An “emotion word” is a phrase that expresses emotion, such as “joyful”, “angry”, “sad”, “fun”, and “confused”. Here, the plurality of emotion words include at least a specific emotion word (for example, “confused”).

図5は、本発明における共起頻度算出部の動作の説明図である。   FIG. 5 is an explanatory diagram of the operation of the co-occurrence frequency calculation unit in the present invention.

図5によれば、共起頻度算出部14は、第1の言語体系の第1の語句毎に、各感情語に対する共起頻度及び相互情報量が対応付けられている。コーパス検索部13から出力された例えば総語句1万語程度の中から、図5のような対応グラフを生成する。ここでは、例えばドイツ語の”Mahlzeit”に対して、各感情語「困惑」「うれしい」「怒る」「悲しい」「楽しい」それぞれの共起頻度が蓄積される。   According to FIG. 5, the co-occurrence frequency calculation unit 14 associates the co-occurrence frequency and the mutual information amount for each emotion word for each first word / phrase in the first language system. For example, a correspondence graph as shown in FIG. 5 is generated from about 10,000 words / phrases output from the corpus search unit 13. Here, for example, for German “Mahlzeit”, the co-occurrence frequencies of the emotion words “confused”, “happy”, “angry”, “sad”, and “fun” are accumulated.

ここで、共起頻度算出部14は、更に相互情報量(Mutual Information)を算出している。相互情報量(Mutual
information)とは、2つの確率変数要素xi,ykにおける相互依存の尺度を表す確率的方法であって、以下のように算出したものである。
I(xi,yk)=log{p(xi,yk)/p(xi)p(yk)}
p():出現回数
例えば10000語句の中で、以下のような出現回数があったとする。
”Mahlzeit”及び感情語”困惑”の組み合わせの出現回数p=20回
”Mahlzeit”の出現回数p=24回
”困惑”の出現回数p=120回
この場合、”Mahlzeit”と感情語”困惑”との相互情報量は、以下のように表される。
I(Mahlzeit,困惑)=log{p(Mahlzeit,困惑)/p(Mahlzeit)p(困惑)}
=log2{(20/10000)/((120/10000)・(24/10000))}
≒6.118
Here, the co-occurrence frequency calculation unit 14 further calculates mutual information (Mutual Information). Mutual information (Mutual
information) is a probabilistic method that represents a measure of interdependence between two random variable elements x i and y k , and is calculated as follows.
I (x i , y k ) = log {p (x i , y k ) / p (x i ) p (y k )}
p (): Number of appearances For example, suppose that there are the following number of appearances in 10,000 words.
Number of appearances of “Mahlzeit” and emotion word “confused” p = 20 times Number of appearances of “Mahlzeit” p = 24 Number of occurrences of “confused” p = 120 In this case, “Mahlzeit” and the emotion word “confused” The mutual information amount is expressed as follows.
I (Mahlzeit, perplexity) = log {p (Mahlzeit, perplexity) / p (Mahlzeit) p (perplexity)}
= Log 2 {(20/10000) / ((120/10000) ・ (24/10000))}
≒ 6.118

このように、全ての感情語に対するMahlzeitの相互情報量を算出する。
I(Mahlzeit,困惑)
I(Mahlzeit,うれしい)
I(Mahlzeit,怒る)
I(Mahlzeit,悲しい)
I(Mahlzeit,楽しい)
・・・・・
この中で、相互情報量が大きいほど、相対的に多く組み合わされて使用されていることを意味する。尚、適切な相互情報量を算出するために、多数のサンプルを用いて、一定以上の絶対出現頻度が観測されることが前提となる。一方で、それを満たさない少数事例は、対象外とすることによって、信頼性を確保する。
Thus, the mutual information amount of Mahlzeit for all emotion words is calculated.
I (Mahlzeit, puzzled)
I (Mahlzeit, happy)
I (Mahlzeit, get angry)
I (Mahlzeit, sad)
I (Mahlzeit, fun)
...
In this, it means that it is used combining relatively many, so that mutual information amount is large. In order to calculate an appropriate amount of mutual information, it is assumed that an absolute appearance frequency of a certain level or more is observed using a large number of samples. On the other hand, reliability is ensured by excluding minority cases that do not meet this requirement.

[特定感情判定部15]
特定感情判定部15は、検出対象となる特定感情語に対する共起頻度が、他の複数の感情語の共起頻度よりも所定閾値以上高いか否かを判定する。ここで、真と判定された第2の語句は、ユーザに特定感情を認識させると推定される。
[Specific emotion determination unit 15]
The specific emotion determination unit 15 determines whether the co-occurrence frequency for the specific emotion word to be detected is higher than the co-occurrence frequency of other emotion words by a predetermined threshold or more. Here, the second word / phrase determined to be true is estimated to cause the user to recognize the specific emotion.

多くの場合、コミュニケーション・ギャップを体験した者は、「困惑」「当惑」「困る」「戸惑う」のような特定感情を抱くものと予想される。そこで、これらを特定感情語とする。そして、第1の言語体系の第1の語句(例えばドイツ語の”Mahlzeit”)に対する特定感情語(例えば”困惑”)の相互情報量が、所定閾値以上に高い場合、その第1の語句(例えば”Mahlzeit”)は、コミュニケーション・ギャップを生じさせる相対的頻度も高いと推定される。   In many cases, those who have experienced the communication gap are expected to have specific emotions such as “confused”, “embarrassed”, “distressed”, “confused”. Therefore, these are specified emotion words. When the mutual information amount of a specific emotion word (eg, “confused”) with respect to the first word (eg, “Mahlzeit” in German) of the first language system is higher than a predetermined threshold, the first word ( For example, “Mahlzeit”) is estimated to have a high relative frequency of causing a communication gap.

[アラーム語句蓄積部16]
アラーム語句蓄積部16は、特定感情判定部15によって真と判定された第1の語句(例えばドイツ語の”Mahlzeit”)と第2の語句(例えば日本語の”食事の時”)とを蓄積する。
[Alarm phrase storage unit 16]
The alarm phrase storage unit 16 stores the first phrase (for example, “Mahlzeit” in German) and the second phrase (for example, “when eating” in Japanese) determined to be true by the specific emotion determination unit 15. To do.

[特定感情明示部17]
特定感情明示部17は、第2の語句(例えば日本語の”食事の時”)に接したユーザに、特定感情語(例えば”困惑”)に基づくものであることを明示する。具体的には、特定感情明示部17は、コーパス検索部13によって検索された第2の言語体系の文章の一部若しくは全部又はリンク先アドレスを、第2の語句(例えば日本語の”食事の時”)と共に注釈として、ユーザに明示する。注釈とは、聞き手側のユーザに、特定感情”困惑”を生じる可能性があることを明示するものであって、その意味を簡潔に記述したものである。
[Specific emotion manifestation part 17]
The specific emotion specifying unit 17 clearly indicates to the user who is in contact with the second phrase (for example, “when eating” in Japanese) that the user is based on the specific emotion word (for example, “confused”). Specifically, the specific emotion clarification unit 17 converts a part or all of a sentence of the second language system searched by the corpus search unit 13 or a link destination address into the second word (for example, “Japanese meal” It is clearly indicated to the user as an annotation together with “ The annotation clearly indicates that a specific emotion “confusing” may occur to the user on the listener side, and the meaning is simply described.

特定感情明示部17は、コーパス検索部13によって検索されたコーパスを用いて、注釈を生成し、予め記憶させておくことも好ましい。例えば、第1の語句及び第2の語句に対して共起頻度が最も高い語句を、注釈として登録しておくものであってもよい。聞き手側のユーザは、注釈記述を端末の画面上で確認することによって、習慣の違い等を含む文化・社会的な差異を認識することができ、それに起因するコミュニケーション・ギャップを回避・軽減できる。尚、注釈表現の信頼性が実用的価値に直結することから、解説付きの対話事例集データベースなどを参照して、その出力情報を作成するものであってもよい。   It is also preferable that the specific emotion clarification unit 17 generates an annotation using the corpus searched by the corpus search unit 13 and stores it in advance. For example, a phrase having the highest co-occurrence frequency for the first phrase and the second phrase may be registered as an annotation. The user on the listener's side can recognize cultural and social differences including differences in habits, etc. by checking the annotation description on the terminal screen, and can avoid or reduce the communication gap caused by it. Since the reliability of the annotation expression is directly linked to the practical value, the output information may be created with reference to a dialogue case database with explanations.

最後に、前述した実施形態によれば、ドイツ語と日本語との間に生じるコミュニケーション・ギャップについて説明した。一方で、同一国語であっても、方言(第1の言語体系)と標準語(第2の言語体系)との間に、コミュニケーション・ギャップを生じる場合がある。   Finally, according to the embodiment described above, the communication gap between German and Japanese has been described. On the other hand, even in the same national language, there may be a communication gap between the dialect (first language system) and the standard language (second language system).

例えば、以下のような例がある。
・方言(茨城など)「疲れる」「硬い」 <->標準語「こわい」「恐ろしい」「不安」
・方言(岐阜など)「疲れる」「しんどい」<->標準語「えらい」「尊敬する」「素晴らしい」
For example, there are the following examples.
Dialects (Ibaraki, etc.) “Exhausted” “Hard” <-> Standard words “Scared” “Horrible” “Uneasy”
Dialects (Gifu, etc.) “get tired” “Shindo” <-> standard words “Elai” “Respect” “Great”

これらの語句が使用される会話文の記録内では、同一表現にも拘わらず、意味の差の存在によって、方言話者と標準語話者の間で誤解が生じる例が、Web等でも多数検索される。従って、異なる国語間に限らず、同一国語間であっても、本発明と同様な方法で、聞き手側に、コミュニケーション・ギャップを生ずる可能性があることを表示することができる。この場合、本発明の対訳サーバ1は、通訳や翻訳をすることなく、単に語句間の対応付けをしているだけである。   In the recording of conversational sentences in which these phrases are used, there are many examples of misunderstandings between dialect speakers and standard speakers due to the difference in meaning despite the same expression. Is done. Therefore, not only between different national languages but also between the same national languages can be displayed on the listener side that there is a possibility of causing a communication gap in the same manner as the present invention. In this case, the bilingual translation server 1 of the present invention simply associates the phrases without interpretation or translation.

以上、詳細に説明したように、本発明のプログラム、装置及び方法によれば、言語体系の間で同義語句に対する特定の感情を推定することができる。ここで、特定の感情とは、聞き手側における例えば「困惑」のような感情である。これは、話し手側から伝わった語句について、コミュニケーション・ギャップが生じている可能性が高い。本発明は、そのギャップが生じている語句を推定し、聞き手側にそれを認識させる(気付きを与える)だけである。これだけでも、異なる文化を背景とする対話者間のコミュニケーションが円滑に遂行されることとなる。   As described above in detail, according to the program, the apparatus, and the method of the present invention, it is possible to estimate a specific emotion for a synonym phrase between language systems. Here, the specific emotion is an emotion such as “confused” on the listener side. This is likely to have a communication gap in terms of words transmitted from the speaker. The present invention only estimates the phrase in which the gap occurs and allows the listener to recognize it (notice it). This alone will facilitate smooth communication between interlocutors with different cultures.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1 対訳サーバ
10 通信インタフェース
11 自動対訳部
12 コーパス収集蓄積部
13 コーパス検索部
14 共起頻度算出部
15 特定感情判定部
16 アラーム語句蓄積部
17 特定感情明示部
2 端末
DESCRIPTION OF SYMBOLS 1 Parallel translation server 10 Communication interface 11 Automatic parallel translation part 12 Corpus collection storage part 13 Corpus search part 14 Co-occurrence frequency calculation part 15 Specific emotion judgment part 16 Alarm word phrase storage part 17 Specific emotion clarification part 2 Terminal

Claims (9)

第1の言語体系の第1の語句と第2の言語体系の第2の語句とが、対訳関係又は対応関係にある場合、当該第2の語句に接したユーザが特定感情を認識するか否かを推定するように、装置に搭載されたコンピュータを機能させるプログラムであって、
第2の言語体系に基づく参照用文章を多数含むコーパス収集蓄積手段と、
前記コーパス収集蓄積手段を用いて、第2の語句を含む参照用文章を検索するコーパス
検索手段と、
検索された参照用文章について、第1の語句と、特定感情語との間の共起頻度を算出する共起頻度算出手段と、
検出対象となる特定感情語に対する共起頻度が、所定閾値以上高いか否かを判定する特定感情判定手段としてコンピュータを機能させ、
前記特定感情判定手段によって真と判定された第2の語句は、ユーザに特定感情を認識させると推定するようにコンピュータを機能させることを特徴とするプログラム。
Whether or not the user in contact with the second word recognizes a specific emotion when the first word of the first language system and the second word of the second language system are in a translational relationship or a correspondence relationship A program that causes a computer installed in the device to function so as to estimate
Corpus collection and storage means including a number of reference sentences based on the second language system;
Corpus search means for searching for a reference sentence containing a second word using the corpus collection and storage means;
A co-occurrence frequency calculating means for calculating a co-occurrence frequency between the first word and the specific emotion word for the retrieved reference sentence;
Causing the computer to function as specific emotion determination means for determining whether or not the co-occurrence frequency for the specific emotion word to be detected is higher than a predetermined threshold,
A program for causing a computer to function so as to estimate that the second word / phrase determined to be true by the specific emotion determination means causes the user to recognize the specific emotion.
第1の言語体系と第2の言語体系とは同一国語であって対応関係にあるようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。  The program according to claim 1, wherein the computer is caused to function so that the first language system and the second language system are in the same national language and have a corresponding relationship. 前記コーパス検索手段は、第1の語句及び第2の語句を含む参照用文章を検索するようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。  The program according to claim 1 or 2, wherein the corpus search means causes a computer to search for a reference sentence including a first word and a second word. 前記共起頻度算出手段は、検索された参照用文章について、第1の語句と、予め規定された複数の感情語それぞれとの間の共起頻度を更に算出し、  The co-occurrence frequency calculating means further calculates a co-occurrence frequency between the first word and each of a plurality of predefined emotion words for the retrieved reference text,
前記特定感情判定手段は、検出対象となる特定感情語に対する共起頻度が、他の複数の感情語の共起頻度よりも所定閾値以上高いか否かを判定する  The specific emotion determination unit determines whether the co-occurrence frequency for the specific emotion word to be detected is higher than a co-occurrence frequency of other emotion words by a predetermined threshold or more.
ようにコンピュータを機能させることを特徴とする請求項1から3のいずれか1項に記載のプログラム。The program according to any one of claims 1 to 3, wherein the computer functions as described above.
前記特定感情語は、名詞又はそれに派生する動詞であり、
複数の前記感情語は、少なくとも前記特定感情語を含むものである
ようにコンピュータを機能させることを特徴とする請求項に記載のプログラム。
The specific emotion word is a noun or a verb derived therefrom,
The program according to claim 4 , wherein the computer is caused to function such that the plurality of emotion words include at least the specific emotion word.
前記特定感情語は、名詞「困惑」「当惑」「疑問」又は動詞「困る」「戸惑う」「わからない」である
ようにコンピュータを機能させることを特徴とする請求項5に記載のプログラム。
6. The program according to claim 5, which causes the computer to function so that the specific emotion word is a noun “confused”, “embarrassed”, “question”, or verbs “prone”, “confused”, “don't know”.
前記共起頻度算出手段は、第1の語句と各感情語とのそれぞれについて、相互情報量基準によって、前記共起頻度を算出する
ようにコンピュータを機能させることを特徴とする請求項から6のいずれか1項に記載のプログラム。
The co-occurrence frequency calculating means, for each of the first word and each emotion word, by the mutual information criterion, from claim 4, characterized in that causes a computer to function so as to calculate the co-occurrence frequency 6 The program according to any one of the above.
第1の言語体系の第1の語句と第2の言語体系の第2の語句とが、対訳関係又は対応関係にある場合、当該第2の語句に接したユーザが特定感情を認識するか否かを推定する装置であって、
第2の言語体系に基づく参照用文章を多数含むコーパス収集蓄積手段と、
前記コーパス収集蓄積手段を用いて、第2の語句を含む参照用文章を検索するコーパス検索手段と、
検索された参照用文章について、第1の語句と、特定感情語の共起頻度を算出する共起頻度算出手段と、
検出対象となる特定感情語に対する共起頻度が、所定閾値以上高いか否かを判定する特定感情判定手段と
を有し、
前記特定感情判定手段によって真と判定された第2の語句は、ユーザに特定感情を認識させると推定することを特徴とする装置。
Whether or not the user in contact with the second word recognizes a specific emotion when the first word of the first language system and the second word of the second language system are in a translational relationship or a correspondence relationship A device for estimating
Corpus collection and storage means including a number of reference sentences based on the second language system;
Corpus search means for searching for a reference sentence containing a second word using the corpus collection and storage means;
A co-occurrence frequency calculating means for calculating the co-occurrence frequency of the first phrase and the specific emotion word for the retrieved reference sentence;
Specific emotion determination means for determining whether the co-occurrence frequency for a specific emotion word to be detected is higher than a predetermined threshold,
The apparatus that estimates that the second word / phrase determined to be true by the specific emotion determination means causes the user to recognize the specific emotion.
第1の言語体系の第1の語句と第2の言語体系の第2の語句とが、対訳関係又は対応関係にある場合、当該第2の語句に接したユーザが特定感情を認識するか否かを推定する装置の特定感情推定方法であって、
前記装置は、第2の言語体系に基づく参照用文章を多数含むコーパス収集蓄積部を有し、
前記装置は、
前記コーパス収集蓄積手段を用いて、第2の語句を含む参照用文章を検索する第1のステップと、
検索された参照用文章について、第1の語句と、特定感情語との間の共起頻度を算出する第2のステップと、
検出対象となる特定感情語に対する共起頻度が、所定閾値以上高いか否かを判定する第3のステップと
を実行し、
第3のステップによって真と判定された第2の語句は、ユーザに特定感情を認識させると推定することを特徴とする特定感情推定方法。
Whether or not the user in contact with the second word recognizes a specific emotion when the first word of the first language system and the second word of the second language system are in a translational relationship or a correspondence relationship A method for estimating a specific emotion of a device for estimating
The apparatus includes a corpus collection and accumulation unit including a large number of reference texts based on a second language system,
The device is
A first step of searching for a reference sentence including a second phrase using the corpus collection and storage means;
A second step of calculating a co-occurrence frequency between the first phrase and the specific emotion word for the retrieved reference sentence;
Executing a third step of determining whether or not the co-occurrence frequency for the specific emotion word to be detected is higher than a predetermined threshold,
A specific emotion estimation method, wherein the second phrase determined to be true by the third step is estimated to cause a user to recognize a specific emotion.
JP2013148973A 2013-07-17 2013-07-17 Program, apparatus and method for estimating specific feelings for synonyms between language systems Active JP6109664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013148973A JP6109664B2 (en) 2013-07-17 2013-07-17 Program, apparatus and method for estimating specific feelings for synonyms between language systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013148973A JP6109664B2 (en) 2013-07-17 2013-07-17 Program, apparatus and method for estimating specific feelings for synonyms between language systems

Publications (3)

Publication Number Publication Date
JP2015022448A JP2015022448A (en) 2015-02-02
JP2015022448A5 JP2015022448A5 (en) 2016-03-31
JP6109664B2 true JP6109664B2 (en) 2017-04-05

Family

ID=52486854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013148973A Active JP6109664B2 (en) 2013-07-17 2013-07-17 Program, apparatus and method for estimating specific feelings for synonyms between language systems

Country Status (1)

Country Link
JP (1) JP6109664B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109213989A (en) * 2017-07-01 2019-01-15 武汉斗鱼网络科技有限公司 Barrage distribution method, storage medium, electronic equipment and the system of metalanguage
CN109215796B (en) * 2018-08-14 2023-04-25 深圳平安医疗健康科技服务有限公司 Searching method, searching device, computer equipment and storage medium
CN111178068B (en) * 2019-12-25 2023-05-23 华中科技大学鄂州工业技术研究院 Method and device for evaluating furcation violence tendency based on dialogue emotion detection

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3896084B2 (en) * 2003-01-16 2007-03-22 株式会社東芝 Machine translation apparatus, method, program, and server apparatus storing program
KR101334196B1 (en) * 2010-10-28 2013-11-28 (주)아크릴 Intelligent Affect Deducing Apparatus and Method therefor
JP5684082B2 (en) * 2011-09-27 2015-03-11 株式会社東芝 Dialog support apparatus, method, and program

Also Published As

Publication number Publication date
JP2015022448A (en) 2015-02-02

Similar Documents

Publication Publication Date Title
AU2022221387B2 (en) Facilitating end-to-end communications with automated assistants in multiple languages
JP7163355B2 (en) Identification of tasks in messages
KR102461920B1 (en) Automated assistants with conference capabilities
US11113481B2 (en) Adapting automated assistants for use with multiple languages
US20200184158A1 (en) Facilitating communications with automated assistants in multiple languages
KR20160089152A (en) Method and computer system of analyzing communication situation based on dialogue act information
US10909973B2 (en) Intelligent facilitation of communications
JP2014071769A (en) Expression conversion device, method and program
Wang As Hill seems to suggest: Variability in formulaic sequences with interpersonal functions in L1 novice and expert academic writing
Ngueajio et al. Hey asr system! why aren’t you more inclusive? automatic speech recognition systems’ bias and proposed bias mitigation techniques. a literature review
Ojamaa et al. Sentiment analysis on conversational texts
JP6109664B2 (en) Program, apparatus and method for estimating specific feelings for synonyms between language systems
Dyriv et al. The user's psychological state identification based on Big Data analysis for person's electronic diary
US20180365224A1 (en) Natural language processing apparatus and a natural language processing method
Braunger et al. A comparative analysis of crowdsourced natural language corpora for spoken dialog systems
Sanjaya et al. The Women’s Language Features in Moana Movie
Xiao et al. TV-AfD: An Imperative-Annotated Corpus from The Big Bang Theory and Wikipedia’s Articles for Deletion Discussions
Bove Mood selection in a contact variety
Moore et al. Automated speech-unit delimitation in spoken learner English
Yamamoto et al. Ellipsis resolution in dialogues via decision-tree learning
S El Falaky Evaluating the Performance of MyMemory: A Case Study of Computer-aided Translation of Hemingway’s Homage to Switzerland
Alexandris Controlling interaction in multilingual conversation
Alexandris The CitizenShield dialogue system in multilingual applications

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170308

R150 Certificate of patent or registration of utility model

Ref document number: 6109664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150