JPH08846U - Foreign language conversation support device - Google Patents

Foreign language conversation support device

Info

Publication number
JPH08846U
JPH08846U JP049153U JP4915393U JPH08846U JP H08846 U JPH08846 U JP H08846U JP 049153 U JP049153 U JP 049153U JP 4915393 U JP4915393 U JP 4915393U JP H08846 U JPH08846 U JP H08846U
Authority
JP
Japan
Prior art keywords
japanese
foreign language
voice
display unit
character strings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP049153U
Other languages
Japanese (ja)
Inventor
義隆 平野
Original Assignee
義隆 平野
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 義隆 平野 filed Critical 義隆 平野
Priority to JP049153U priority Critical patent/JPH08846U/en
Publication of JPH08846U publication Critical patent/JPH08846U/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 (修正有) 【目的】英語及び日本語の発音と会話を視覚により表示
し、相互理解を促進する。 【構成】外国人の音声を入力する音声入力部2、その音
声を一連の外国語文字列として認識する音声認識部2、
認識した一連の外国語文字列を話者である外国人に対し
て表示する表示部2並びに同時に聞き手である日本人へ
表示する表示部1並びに表示部2上において話者である
外国人の操作により一連の外国語文字列をより単純化さ
れたいくつかの文字列へ分けるブランクそう入用ペン入
力部2を備える。外国語の電子辞書2と、単純化された
いくつかの文字列を意味のある外国語の単語へ編集し直
して表示部1、表示部2へ表示し、さらに日本語訳を付
して、表示部1へ表示する外国語構文処理部2を設け
る。日本人の音声についてもこれに準じて構成する。
(57) [Summary] (Correction) [Purpose] To promote mutual understanding by visually displaying pronunciation and conversation in English and Japanese. [Structure] A voice input unit 2 for inputting a foreign voice, a voice recognition unit 2 for recognizing the voice as a series of foreign language character strings,
Operation of a foreigner who is a speaker on the display unit 2 that displays a series of recognized foreign language character strings to a foreigner who is a speaker, the display unit 1 that simultaneously displays to the Japanese who is a listener, and the display unit 2. Is provided with a blank insertion pen input unit 2 for dividing a series of foreign language character strings into some more simplified character strings. The foreign language electronic dictionary 2 and some simplified character strings are re-edited into meaningful foreign language words and displayed on the display unit 1 and the display unit 2. A foreign language syntax processing unit 2 for displaying on the display unit 1 is provided. The voices of Japanese people will also be structured accordingly.

Description

【考案の詳細な説明】[Detailed description of the device]

【0001】 〔産業上の利用分野〕 日本人と外国人の会話を支援する装置に関するものである. 〔従来の技術〕 日本人、外国人の発音を単音、あるいは連続する単音として、とらえることは 、実用化しつつあるが、入力された音声を意味のある文として、とらえるところ までには、至っていない. 〔考案が解決しようとする課題〕 従来、日本人は英語の読み書きはできても、英語を聞くこと、話すことはへた だと、言われてきた.すなわち、中学、高校の6年、大学を含めると8年あるい は10年にわたる語学教育を受けても、英語の読み書きは若干できるが、英,米 人との会話は全くダメという方が多い. この日本人のもつ、外国語を話す、聞くことはダメだが、読むこと書くことに は、少し自信があるという特性を生かし、外国語を聞くという作業を外国語を読 むという作業へ帰着させて、外国人の話の意味が日本人にわかるようにしよう. 又、日本人の外国語を話すという動作を外国語を書くという動作へ帰着させ、 日本人にしかわからないジャパニーズイングリッシュの発音を相手の外国人にわ かってもらおう.これが、本考案である. 〔課題を解決するための手段〕 外国人の外国語の音声を入力する音声入力部2と、その音声を一連の外国語文 字列として認識する音声認識部2と、認識された一連の外国語文字列を、話者で ある外国人に向かって表示する表示部2と、同時に、聞き手である日本人に向か って表示する表示部1と、表示部2上において、話者である外国人の操作により 、一連の外国語文字列を、より単純化された、いくつかの文字列へ分けるブラン クそう入用ペン入力部2と、外国語の単語データベースである電子辞書2と、単 純化されたいくつかの文字列を、意味のある外国語の単語へ、外国語電子辞書2 のデータをもとに編集し直して、表示部1,表示部2へ表示し、さらに、外国語 電子辞書2を用いて、日本語の訳を付して表示部1へ表示する外国語構文処理部 2と、 日本人の音声を入力する音声入力部1とその音声を一連の文字列として認識す る音声認識部1と、表示部1上において、話者である日本人の操作により、日本 人の発声した一連の文字列を、より単純化された、いくつかの文字列へ分けるブ ランクそう入用ペン入力部1と、日本語の単語データベースである電子辞書1と 、単純化された日本語文字列を電子辞書1により、意味のある日本語の単語へ編 集し直し、さらに外国語の訳を付す日本語構文処理部1と全体を制御する中央制 御部から成る外国語会話支援装置。 〔実施例〕 ここでは、日本人とアメリカ人の会話をあげる. アメリカ人が外国語キー2にふれつつ、 I want your products と発音する. 外国語キー2を押すとは、アメリカ人の音声に対して、非特定話者認識の手法 が使われることを示す. この発音された音声信号は、音声入力部2より入り、音声認識部2により、 I want your products として認識され、外国人用表示部 2と日本人用表示部1に出力される.図2がそれである. 話者であるアメリカ人は、ブランクそう入用ペン入力部2により、表示部2上 、図3のようにwとyとpを指定する.すると、この文字列は、図4のような意 味のある文へ変換される。変換された文は、ただちに表示部1,表示部2へ出力 される. さらに、図5のように、一文の中の主たる箇所のみを、たとえばyを、ブラン クそう入用ペン入力部2で指定し、図6のようになったところで、電子辞書2の 外国語データベースを元に、外国語構文処理部2の働きで図4の文字列を自動的 に作るようにしてもよい. ここで、外国語電子辞書2のデータ構造は、図20のようになっておる。外国 語の見出し語部をキーにしたインデックスファイルである. 図6から、図4の文字列を自動的に生成する上記の過程は、電子辞書2の見出 し語部のデータを元にして処理される. この外国語構文処理部2はソフトウェア等で実現されるわけだが、それを補う 形でブランクそう入用ペン入力部2の人手による操作が入ることになる. つまり、一つの文、一連の文字列は、人手による、ブランクそう入用ペン入力 部2により、いくつかのより単純化されたI wantとか your pro ductsのような文字列へ、分かたれ、その単純化された文字列がI wan t とか your productsのような意味のある単語へ、外国語構文 処理部2により変換される. ここでいうブランクそう入用ペン入力部は、ペンコンピュータあるいはライト ペンのようなものを使ってもよいし、マウスを使ってもよい。又、指によるタッ チ、つまり、指でふれた箇所へ、ブランクを自動的にそう入するしくみを、表示 部へもたせてもよい. 英語を読むことの得意な日本人であれば、図4を得て、十分、外国人の話の意 味がつかめるのであるが、中には、意味のわからない単語のでてくることが、考 えられる. そこで、電子辞書2のデータベースの訳語部のデータにより、図7のように、 その日本語を、その下へ表示して、表示部1へ出力する、図7では、読み手のま ぎらわしさを防ぐために、want,productsのような名詞、動詞にの み訳を表示している.こうすればproductの意味を忘れていた、あるいは 、この単語を勉強したことのない日本人でも、その英文の意味をつかむことがで きる. 次に、日本人が英語で応答するときの応答例を示す. 本装置の持ち主が日本人で、その日本人が英語を話すときには、特定話者認識 の手法により、音声が処理される。 これは、外国語キー1にふれつつ、日本人が話すことで判断される. 本装置の持ち主であるとは、その人の音声パターンを平素登録可能であること を意味している。 日本人が音声入力部1より、 We sell our products fen millionyen と発音したとする. この発音は音声認識部1により、図8のような文字列として認識される. 図8でfenの前にブランクが入っているのは、話者の発音のブランクが表示 のブランクとして処理されているからである. ブランクそう入用ペン入力部1により、図9のように、2箇所が表示部1上で 指定されると、図10のような文字列に変わり、さらに、この文字列は外国語構 文処理部2の働きにより、図11のようになり、日本人向け表示部1と外国人向 け表示部2へ出力される. ここで、日本人が外国語キー1にふれていることにより、外国語構文処理部2 の働きが自動的になされるのであり、時間さえかければ、この働きのみで、図8 から図11を得ることができないわけではないが、実時間内に図8から図11を うるために、ブランクそう入用ペン入力部1が使われるわけである. 実用的には、日本人のジャパニーズイングリッシュが外国人にはイングリッシ ュとして理解されないのが問題ゆえ、図8の文字列が表示された時点で、相手の 外国人には、大ざっぱな意味がわかるわけである. 文の複雑さに応じて、ブランクそう入用ペン入力部1が図9のように使われる のである. なお、外国語構文処理部2のソフトウェアの性能の向上、cpu処理速度の向 上があれば実時間内に、自動的に図8から図11をうることになる. 以上は外国人の英会話を日本人が聞き、日本人が英語で答えるケースであるが 、日本人が、英語が全くできずというケースもある. この場合はアメリカ人の I want your productsのことばに対し、表示部1に図7で なく、図12のように、すべての英単語に日本語訳が付され、さらに図13のよ うに訳語としての日本語が単なることばのら列でなく、日本語構文処理部1によ りふつうの日本人に直して表示する。 このふつうの日本文表示は、図12の生の日本文との区別のために、色を変え て、あるいは、アンダーラインを引いてなされる. このアメリカ人のことばに対して、 日本人は日本語キー1を押しつつ、音声入力部1より、一千万円で売りましょう と発音する. ここで日本語キー1を押すとは、特定話者認識の手法が日本語の発音に対して 使われることを示す. 上記発音は、音声認識部1の働きにより、いっせんまんえんでうりましょう と解され、図14のように日本人向け表示部1と外国人向表示部2へ出力される . 日本人はブランクそう入用ペン入力部1で図15のように、「う」を指定する と図16のように一つの文はより単純化された2語となり、 図21のようなデータ構造をもつ、日本語電子辞書1のデータベースを用いる 日本語構文処理部1の働きで、図17のように、さらに単純化されたものになり 、日本人向表示部1と外国人向け表示部2へ出力される. 表示部2には日本語電子辞書1の訳語部のデータベースにより、図18のよう に表示される.英語の訳語を付した形で。 さらに図19のように、訳語としての英語が単なることばのら列でなく、外国 語構文処理部2により、ふつうの英語に直して表示部2へ出力される.この、ふ つうの英文表示は図18の生の英文表示と区別のため、色を変えて、あるいはア ンダーラインを引いて生の英文表示の下に出力される. こうして表示されたものは、印字部1,印字部2により、印字することもでき る.したがって、たとえば英文会話が長くなっても聞き手である日本人は前に話 された英文とその訳文を見つつ、新しい会話を聞きとることができる. このことは、外国人が、日本人のジャパニーズイングリッシュの会話、あるい は、日本人の日本語の会話を聞くときにもいえる. これらの場合は議事録をとる手間を省くことができる. 本装置はブック形コンピューターを2台接続して実現することもできるし、又 、ブック形コンピュータ1台に表示部を2つ設けて実現することもできるし、1 台のコンピュータとその1つの表示部を日本人と外国人が共用する形で実現する こともできる. つまり、図1は本装置の機能ブロック図であるが、これをハードウェアとして 実現するときには図22のようにしてもよい。図22では、日本人、外国人用の 各機能を一つにまとめている. 本装置は単なる会話にとどまらず、日本人向け表示部1を大画面テレビ、ある いは、映写機用スクリーンにすると、日本人相手の、外国人の外国語の講演にも 使える. 外国人向け表示部2を、大画面テレビ、あるいはスクリーンにすると外国人相 手の、日本人による、外国語あるいは日本語の講演にも使える. さらに本装置を外国語の録音テープ、外国語放送を聞くことに適用すると、図 23のような文字列を連続的にうることになる. この場合は、話者である外国人によるブランクのそう入がないので、話者の発 生のブランクが文字列のブランクとして、あらわれるのみであるが、聞き手が英 文を読むことの得手なものであれば、これだけでも相手のいうことの大意を読み とれることが期待される. 加えて、外国語構文処理部の処理性能の向上があれば、より読みやすい外国語 として表示されることになる. このケースでは非特定話者認識の手法を用いることになるが、外国語放送等は 、その音声入力が標準パターンに近いことが期待されるので、話者による介入が 無いが、良好な結果を望める. 本実施例で述べたyourproductsを your productsへ自動的に編集する外国語構文処理部2のソフト ウェアは、1例として、以下のロジックで実現できる. 外国語電子辞書2のインデックスファイルを まず、yourproducts でインデックスサーチする. ついで yourproduct でインデックスサーチする. ついで yourproduc でインデックスサーチする. ついで yourprodu でインデックスサーチする. ついで yourprod でインデックスサーチする. ついで yourpro でインデックスサーチする. ついで yourpr でインデックスサーチする. ついで yourp でインデックスサーチする. これらのいずれも、READができなくてエラーとなる.これらに対応した見 出し語が存在しないからである。 ついでyourでインデックスサーチする. READができる.yourという見出し語が電子辞書2に存在するからである . かくして、yourproductsを your productsとして編集し直すことができる. 〔発明の効果〕 英文の読み書きのできる日本人は、外国人の会話が表示されることにより、そ れを読むことによって、正しく相手の言う意味をつかむことができる.又、日本 人はその英文の発音が表示されることにより、へたな発音でも、外国人に意味を わかってもらえる. 英文の苦手な日本人も、相手の英会話が、日本語の訳がついて、表示されるこ とにより、相手の言う意味をつかむことができ、又、自分の話す日本語が、英文 の訳がついて、表示されることにより、外国人に意味をわかってもらえる. この訳語の表示は、日本語及び外国語電子辞書、日本語構文処理部、外国語構 文処理部の働きによる.[Industrial field of application] The present invention relates to a device that supports conversation between Japanese and foreigners. [Prior art] It is becoming practical to capture the pronunciations of Japanese and foreigners as single notes or continuous single notes, but it has not reached the point where the input voice is regarded as a meaningful sentence. . [Issues to be solved by the invention] Traditionally, it has been said that Japanese can read and write English, but they are not good at listening and speaking. In other words, even if you have 6 years of junior high school, 8 years of high school, or even 10 years of language education including university, you can read and write some English, but many of you cannot speak English and American. . I can't speak or listen to foreign languages of this Japanese, but I take advantage of the fact that I am a little confident in reading and writing, and reduce the task of listening to foreign languages to the task of reading foreign languages. Let's make Japanese understand the meaning of foreigners' stories. Also, let's reduce the Japanese speaking of foreign languages to the writing of foreign languages so that the foreigners can understand the pronunciation of Japanese English that only Japanese can understand. This is the present invention. [Means for Solving the Problems] A voice input unit 2 for inputting a foreign language voice of a foreigner, a voice recognition unit 2 for recognizing the voice as a series of foreign language character strings, and a recognized series of foreign languages. On the display unit 2 that displays the character string toward the foreigner who is the speaker, at the same time, the display unit 1 that displays toward the Japanese who is the listener, and on the display unit 2 the foreign character who is the speaker. By a human operation, a series of foreign language character strings is further simplified into a plurality of character strings, a blank insertion pen input unit 2, an electronic dictionary 2 which is a foreign language word database, and a single unit. Some of the purified character strings are re-edited into meaningful foreign words based on the data in the foreign language electronic dictionary 2 and displayed on the display unit 1 and display unit 2. Using the electronic dictionary 2 to display the Japanese translation on the display unit 1 The word syntax processing unit 2, the voice input unit 1 for inputting the Japanese voice, the voice recognition unit 1 for recognizing the voice as a series of character strings, and the operation of the Japanese speaker as the speaker on the display unit 1. The pen input unit 1 for blanking, which divides a series of characters uttered by a Japanese person into several more simplified character strings, the electronic dictionary 1 which is a Japanese word database, It consists of a Japanese syntax processing unit 1 that compiles the converted Japanese character strings into meaningful Japanese words using the electronic dictionary 1, and also adds a translation into a foreign language, and a central control unit that controls the whole. Foreign language conversation support device. [Example] Here, a conversation between a Japanese and an American is given. The American pronounces I want your products while touching the foreign language key 2. Pressing the foreign language key 2 indicates that the non-specific speaker recognition method is used for American speech. The sounded voice signal is input from the voice input unit 2, is recognized by the voice recognition unit 2 as I want your products, and is output to the display unit 2 for foreigners and the display unit 1 for Japanese. Figure 2 is that. The speaker, the American, uses the blank input pen input unit 2 to specify w, y, and p on the display unit 2 as shown in FIG. Then, this character string is converted into a meaningful sentence as shown in FIG. The converted sentence is immediately output to the display unit 1 and the display unit 2. Further, as shown in FIG. 5, only the main part of one sentence, for example, y is specified by the blank input pen input section 2, and when it becomes as shown in FIG. 6, the foreign language database of the electronic dictionary 2 is displayed. Based on, the foreign language syntax processor 2 may automatically create the character strings in FIG. Here, the data structure of the foreign language electronic dictionary 2 is as shown in FIG. This is an index file that uses the entry words of foreign languages as keys. From FIG. 6, the above-described process of automatically generating the character string of FIG. 4 is processed based on the found word data of the electronic dictionary 2. This foreign language syntax processing unit 2 is realized by software, etc., but in order to compensate for it, the blank pen input unit 2 must be manually operated. In other words, one sentence, a series of character strings, is manually divided into several more simplified character strings such as I want or your products by the blank insertion pen input unit 2, The simplified character string is converted by the foreign language syntax processing unit 2 into meaningful words such as I wan t or your products. The blank pen input section here may be a pen computer, a light pen or the like, or a mouse. Also, a mechanism for automatically inserting a blank into a touch with a finger, that is, a portion touched by the finger, may be provided on the display unit. If you are a Japanese who is good at reading English, you can get Figure 4 and get a good sense of what foreigners are talking about, but I think that some words have meaningless meanings. Be done. Therefore, as shown in FIG. 7, the Japanese is displayed below and output to the display unit 1 based on the translated word data of the database of the electronic dictionary 2. In FIG. In order to prevent it, only nouns and verbs such as want and products are displayed as translations. In this way, even a Japanese who has forgotten the meaning of product or has never studied this word can grasp the meaning of the English sentence. The following is an example of a response when a Japanese responds in English. When the owner of this device is a Japanese and that Japanese speaks English, the voice is processed by the specific speaker recognition method. This is judged by the Japanese speaking while touching the foreign language key 1. Being the owner of this device means that a person's voice pattern can be registered in plaintext. It is assumed that the Japanese pronounces from the voice input unit 1 as "We sell our products fen millilion". This pronunciation is recognized by the voice recognition unit 1 as a character string as shown in FIG. The blank is inserted before fen in Fig. 8 because the blank of the speaker's pronunciation is processed as the blank of the display. When two positions are designated on the display unit 1 by the blank insertion pen input unit 1 as shown in FIG. 9, the character string is changed to that shown in FIG. Due to the function of the section 2, it is output as shown in FIG. 11 to the display section 1 for Japanese and the display section 2 for foreigners. Here, since the Japanese touches the foreign language key 1, the function of the foreign language syntax processing unit 2 is automatically performed. Although not impossible to obtain, the blank input pen input unit 1 is used in order to go through FIGS. 8 to 11 in real time. Practically, because Japanese Japanese is not understood by foreigners as English, when the character string in Fig. 8 is displayed, the foreigner in the other party can understand the rough meaning. Is. The blank input pen input section 1 is used as shown in Fig. 9 according to the complexity of the sentence. It should be noted that if the performance of the software of the foreign language syntax processing unit 2 is improved and the cpu processing speed is improved, it is possible to automatically obtain FIGS. The above is the case where the Japanese listens to the English conversation of a foreigner and the Japanese answers in English, but there are also cases where the Japanese cannot speak English at all. In this case, in response to the American I want your products words, all English words are translated into Japanese as shown in FIG. 12 instead of in FIG. 7 on the display unit 1, and as translated words as shown in FIG. The Japanese is not just a line of words, but is displayed by the Japanese syntax processing unit 1 by being corrected to an ordinary Japanese. This ordinary Japanese sentence display is made in different colors or underlined in order to distinguish it from the raw Japanese sentence in FIG. In response to this American word, the Japanese says, while pressing the Japanese key 1, from the voice input unit 1 that it will sell for 10 million yen. Pressing Japanese key 1 here indicates that the specific speaker recognition method is used for Japanese pronunciation. The above pronunciation is understood by the function of the voice recognition unit 1 and is output to the Japanese display unit 1 and foreign display unit 2 as shown in FIG. When a Japanese person specifies "U" in the blank pen input section 1 as shown in FIG. 15, one sentence becomes two more simplified words as shown in FIG. 16, and the data structure shown in FIG. With the function of the Japanese syntax processing unit 1 which uses the database of the Japanese electronic dictionary 1 having the above, it is further simplified as shown in FIG. 17, and the display unit 1 for Japanese and the display unit 2 for foreigners are provided. Is output to. The display unit 2 is displayed as shown in Fig. 18 by the database of the translated words of the Japanese electronic dictionary 1. In the form with an English translation. Furthermore, as shown in FIG. 19, English as a translated word is not a mere word string, but the foreign language syntax processing unit 2 converts it into ordinary English and outputs it to the display unit 2. In order to distinguish this normal English display from the raw English display in FIG. 18, it is output below the raw English display by changing the color or drawing an underline. What is displayed in this way can also be printed by printing section 1 and printing section 2. Therefore, for example, even if the English conversation becomes long, the listener, the Japanese, can listen to the new conversation while looking at the previously spoken English sentence and its translated sentence. This is true even when a foreigner hears a Japanese Japanese conversation or a Japanese Japanese conversation. In these cases, it is possible to save the trouble of collecting the minutes. This device can be realized by connecting two book type computers, or can be realized by providing two display parts in one book type computer, one computer and one display thereof. It is also possible to realize the department by sharing the department with Japanese and foreigners. That is, although FIG. 1 is a functional block diagram of this apparatus, when it is realized as hardware, it may be as shown in FIG. In Fig. 22, each function for Japanese and foreigners is put together. This device can be used not only for conversation, but also for Japanese speakers who speak foreign languages in foreign languages when the display unit 1 for Japanese people is a large screen TV or a screen for projectors. If the display unit 2 for foreigners is a large-screen TV or a screen, it can be used for lectures in foreign languages or Japanese by foreigners who are Japanese. Furthermore, if this device is applied to a foreign language recording tape or listening to a foreign language broadcast, a character string as shown in Fig. 23 will be obtained continuously. In this case, the blank produced by the speaker appears only as a blank in the character string because there is no blank inserted by the foreigner who is the speaker, but the listener is good at reading English. If this is the case, it is expected that this will allow you to read the meaning of the other party. In addition, if the processing performance of the foreign language syntax processing part is improved, it will be displayed as a more readable foreign language. In this case, the method of non-specific speaker recognition will be used, but in foreign language broadcasting, etc., the voice input is expected to be close to the standard pattern, so there is no speaker intervention, but good results are obtained. I can hope. The software of the foreign language syntax processing unit 2 that automatically edits your products into your products described in this embodiment can be realized by the following logic, for example. First, the index file of the foreign language electronic dictionary 2 is index-searched with yourproducts. Next, an index search is performed with yourproduct. Then, do an index search with yourproduct. Then, do an index search with yourprodu. Then perform an index search with yourprod. Then, do an index search with yourpro. Then, do an index search with yourpr. Then, do an index search with yourp. None of these results in an error because READ cannot be performed. This is because there is no headword corresponding to these. Then, do an index search with your. READ is possible. This is because the entry word “your” exists in the electronic dictionary 2. Thus, you can re-edit your products as your products. [Effect of the invention] A Japanese who can read and write English sentences can understand the meaning of the other person correctly by reading the conversation of the foreigner. By displaying the pronunciation of the English sentence, Japanese people can make foreigners understand the meaning of the pronunciation. Japanese people who are not good at English can understand the meaning of the other person by displaying the Japanese translation of the other person's English conversation. Then, by being displayed, foreigners can understand the meaning. This translated word is displayed by the functions of the Japanese and foreign language electronic dictionaries, the Japanese syntax processing section, and the foreign language composition processing section.

【提出日】平成5年12月6日[Submission date] December 6, 1993

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】考案の詳細な説明[Compensation target item name] Detailed explanation of the device

【補正方法】変更[Correction method] Change

【補正内容】[Correction content] 【考案の詳細な説明】[Detailed description of the device]

【0001】 〔産業上の利用分野〕 日本人と外国人な会話を支援する装置に関するものである.[Industrial field of application] The present invention relates to a device for supporting conversation between a Japanese and a foreigner.

【0002】 〔従来の技術〕 日本人、外国人の発音を単音、あるいは連続する単音として、とらえることは 、実用化しつつあるが、入力された音声を意味のある文としてとらえるところま でには至っていない. [Prior Art] It is becoming practical to capture the pronunciations of Japanese and foreigners as a single sound or a continuous single sound, but until the input sound is understood as a meaningful sentence. I haven't arrived.

【0003】 〔考案が解決しようとする課題〕 従来、日本人は英語の読み書きはできても、英語を聞くこと、話すことはへた だと、言われてきた.すなわち、中学、高校の6年、大学を含めると8年あるい は10年にわたる語学教育を受けても、英語の読み書きは若干できるが、英,米 人との会話は全くダメという方が多い. この日本人のもつ、外国語を話す、聞くことはダメだが 読むこと、書くこと には少し自信があるという特性を生かし、外国語を聞くという作業を外国語を読 むという作業へ帰着させて、外国人の話の意味が日本人にわかるようにしよう. 又、日本人の外国語を話すという動作を 外国語を書くという動作へ帰着させ 、日本人にしかわからない ジャパニーズイングリッシュの発音を 相手の外国 人にわかってもらおう. これが本考案である. [ Problems to be Solved by the Invention ] Conventionally, it has been said that Japanese can read and write English, but they cannot listen to and speak English. In other words, even if you have 6 years of junior high school, 8 years of high school, or even 10 years of language education including university, you can read and write some English, but many of you cannot speak English and American. . Taking advantage of the characteristic of Japanese people that they are not good at speaking and listening to foreign languages, but having a little confidence in reading and writing, we have reduced the task of listening to foreign languages to the task of reading foreign languages. , Let the Japanese understand the meaning of the foreigner's story. Also, let's reduce the Japanese speaking of foreign languages to the writing of foreign languages so that the foreigners can understand the pronunciation of Japanese English that only Japanese can understand. This is the present invention.

【0004】 〔課題を解決するための手段〕 外国人の外国語の音声を入力する音声入力部2と、その音声を一連の外国語文 字列として認識する音声認識部2と、認識された一連の外国語文字列を、話者で ある外国人に向かって表示する表示部2と、同時に、聞き手である日本人に向か って表示する表示部1と、表示部2上において、話者である外国人の操作により 、一連の外国語文字列を、より単純化された、いくつかの文字列へ分けるブラン クそう入用ペン入力部2と、外国語の単語データベースである電子辞書2と、単 純化されたいくつかの文字列を、意味のある外国語の単語へ、外国語電子辞書2 のデータをもとに編集し直して、表示部1,表示部2へ表示し、さらに、外国語 電子辞書2を用いて、日本語の訳を付して表示部1へ表示する外国語構文処理部 2と、日本人の音声を入力する音声入力部1と、その音声を一連の文字列として 認識する音声認識部1と、表示部1上において、話者である日本人の操作により 、日本人の発声した一連の文字列を、より単純化された、いくつかの文字列へ分 けるブランクそう入用ペン入力部1と、日本語の単語データベースである電子辞 書1と、単純化された日本語文字列を、電子辞書1により、意味のある日本語の 単語へ編集し直し、さらに外国語の訳を付す 日本語構文処理部1と、全体を制 御する中央制御部から成る外国語会話支援装置. [ Means for Solving the Problem] A voice input unit 2 for inputting a foreign language voice of a foreigner, a voice recognition unit 2 for recognizing the voice as a series of foreign language character strings, and a recognized series of voices. The foreign language character string of is displayed to the foreigner who is the speaker, the display unit 1 that is displayed to the Japanese who is the listener at the same time, and the speaker is displayed on the display unit 2. By a foreigner's operation, a series of foreign language character strings is further simplified into a plurality of character strings, the blank pen input section 2 and the electronic dictionary 2 which is a foreign language word database. Then, some of the simplified character strings are re-edited into meaningful foreign words based on the data in the foreign language electronic dictionary 2 and displayed on the display unit 1 and the display unit 2. , Display part 1 with Japanese translation using foreign language electronic dictionary 2 Foreign language syntax processing section 2 to display, voice input section 1 to input Japanese voice, voice recognition section 1 to recognize the voice as a series of character strings, and display section 1 to be a speaker By the operation of the Japanese, a series of character strings uttered by the Japanese can be further simplified into several character strings, such as a blank input pen input section 1 and an electronic dictionary that is a Japanese word database. The book 1 and the simplified Japanese character string are re-edited into meaningful Japanese words by the electronic dictionary 1, and the Japanese syntax processing unit 1 that adds a translation into a foreign language is also controlled. A foreign language conversation support device consisting of a central control unit.

【0005】 〔作用〕 本実施例で述べる、入力された音声 yourproducts という文字 列を your productsへ自動的に編集する 外国語構文処理部2のソフトウェアは、一例として、以下のロジックで実現で きる. 外国語電子辞書2のインデックスファイルをまず,yourproducts でインデックスサーチする. ついで yourproduct でインデックスサーチするついで yourproduc でインデックスサーチする. ついで yourprodu でインデックスサーチする. ついで yourprod でインデックスサーチする. ついで yourpro でインデックスサーチする. ついで yourpr でインデックスサーチする. ついで yourp でインデックスサーチする. これらのいずれも、READができなくて エラーとなる.これらに対応した見 出し語が存在しないからである. ついで your でインデックスサーチする.READができる.yourという見出し語が電子辞書2に存在するからである. かくして yourproducts を your products として編集し直すことができる. [0005] described [Operation] In this embodiment, foreign language syntax processor 2 software that automatically edit the text to your products that input speech yourproducts, as an example, wear in realization with the following logic. First, the index file of the foreign language electronic dictionary 2 is first index-searched by using the word products . Next, an index search is performed with yourproduct . Then, do an index search with yourproduct. Then, do an index search with yourprodu. Then perform an index search with yourprod. Then, do an index search with yourpro. Then, do an index search with yourpr. Then, do an index search with yourp. None of these results in an error because READ cannot be performed. These is because there is no look out words that correspond. Then perform an index search with "your". READ is possible. This is because the entry word “ your ” exists in the electronic dictionary 2. Thus you can re-edit your products as your products.

【0006】 〔実施例〕 ここでは、日本人とアメリカ人の会話をあげる. アメリカ人 が外国語キー2 にふれつつ、 I want your products と発音する. 外国語キー2を押すとは、アメリカ人の音声に対して、非特定話者認識の手法 が使われることを示す. この発音された音声信号は、音声入力部2より入り、音声認識部2により、I wantyourproductsとして 認識され、外国人用表示部2と日本 人用表示部1に出力される. 図2がそれである. 話者であるアメリカ人はブランクそう入用のペン入力部2により、表示部2上 、図5のように、一文の中の 主たる箇所のみを、たとえばyを指定し、図6の ようになったところで、電子辞書2の外国語データベースを元に、外国語構文処 理部2の働きで、図4の文字列を自動的に作る. 変換された文は、ただちに表示部1,表示部2へ出力される. ここで、外国語電子辞書2のデータ構造は、図20のようになっておる. 外国語の見出し語部をキーにしたインデックスファイルである. 図6から、図4の文字列を自動的に生成する上記の過程は、電子辞書2の見出 し語部のデータを元にして、処理される. この外国語構文処理部2は、ソフトウェア等で実現されるわけだが、それを補 う形で ブランクそう入用ペン入力部2の人手による操作が入ることになる. つまり、一つの文、一連の文字列は、人手による、ブランクそう入用ペン入力 部2により、いくつかのより単純化された Iwant とか yourpro ductsのような文字列へ分かたれ、その単純化された文字列が I wan t とかyour products のような意味のある単語へ,外国語構文 処理部2により変換される. ここでいうブランクそう入用ペン入力部は、ペンコンピューターあるいはライ トペンのようなものを使ってもよいし、マウスを使ってもよい. 英語を読むことの得意な日本人であれば、図4を得て,十分,外国人の話の意 味がつかめるのであるが、中には、意味のわからない単語のでてくることが、考 えられる. そこで、電子辞書2のデータベースの訳語部のデータにより、図7のように、 その日本語を、その下へ表示して、表示部1へ出力する. 図7では、読み手のまぎらわしさを防ぐために、 want ,produc ts のような名詞、動詞にのみ訳を表示している. こうすれば product の意味を忘れていた、あるいは、この単語を勉 強したことのない日本人でも、その英文の意味をつかむことができる. [ Examples] Here, a conversation between a Japanese and an American is given. An American pronounces I want your products while touching a foreign language key 2. Pressing the foreign language key 2 indicates that the non-specific speaker recognition method is used for American speech. This sounded voice signal is input from the voice input unit 2, is recognized by the voice recognition unit 2 as I wantyourproducts, and is output to the foreigner display unit 2 and the Japanese display unit 1. Figure 2 is that. The speaker, the American, uses the blank pen input section 2 to specify only the main part of a sentence on the display section 2 as shown in FIG. By the way, based on the foreign language database of the electronic dictionary 2, the function of the foreign language syntax processing unit 2 automatically creates the character strings in FIG. The converted sentence is immediately output to the display unit 1 and the display unit 2. Here, the data structure of the foreign language electronic dictionary 2 is as shown in FIG. This is an index file that uses the headword part of a foreign language as a key. From FIG. 6, the above process of automatically generating the character string of FIG. 4 is processed based on the found word data of the electronic dictionary 2. The foreign language syntax processing unit 2 is realized by software or the like, but in addition to this, the blank pen input unit 2 is manually operated. In other words, a sentence, a series of character strings, is manually divided into several more simplified Iwant or yourproducts-like character strings by the blank input pen input unit 2, and the simplified strings are divided. The character string is converted by the foreign language syntax processing unit 2 into a meaningful word such as I want or your products. The blank pen input section referred to here may be a pen computer, a light pen, or a mouse. If you are a Japanese who is good at reading English, you can get the meaning of a foreigner's story by getting Fig.4, but some of the words have meaningless meanings. Be done. Therefore, according to the data of the translated word part of the database of the electronic dictionary 2, as shown in FIG. In FIG. 7, translations are displayed only for nouns and verbs such as want and product ts in order to prevent the ambiguity of the reader. In this way, even Japanese who have forgotten the meaning of "product" or who have never studied this word can grasp the meaning of the English sentence.

【0007】 次に、日本人が英語で応答するときの応答例を示す. 本装置の持ち主が日本人で、その日本人が英語を話すときには、特定話者認識 の手法により、音声が処理される. これは、外国語キー1にふれつつ、日本人が話すことで判断される. 本装置の持ち主であるとは、その人の音声パターンを平素登録可能であること を意味している. 日本人が音声入力部1より、 We sell our products ten million yen と発音したとする. この発音は音声認識部1により、図8のような文字列として認識される. 図8で ten の前にブランクが入っているのは、話者の発音のブランクが 表示のブランクとして処理されているからである. ブランクそう入用ペン入力部1により、図9のように、2箇所が表示部1上で 指定されると、図10のような文字列に変わり、さらに、この文字列は外国語構 文処理部2の働きにより、図11のようになり、日本人向け表示部1と外国人向 け表示部2へ出力される。 ここで、日本人が外国語キー1にふれていることにより、外国語構文処理部2 の働きが自動的になされるのであり、時間さえかければ、この働きのみで、図8 から図11を得ることができないわけではないが、実時間内に図8から図11を 得るために、ブランクそう入用ペン入力部1が使われるわけである. 実用的には、日本人のジャパニーズイングリッシュが 外国人にはイングリッ シュとして理解されないのが問題ゆえ、図8の文字列が表示された時点で、相手 の外国人には、大ざっぱな意味がわかるわけである. 文の複雑さに応じて、ブランクそう入用ペン入力部1が,図9のように使われ るのである. なお、外国語構文処理部2のソフトウェアの性能の向上、cpuの処理速度の 向上があれば実時間内に、自動的に図8から図11を得ることになる. [0007] Next, a response example of when the Japanese to respond in English. When the owner of this device is Japanese and the Japanese speaks English, the voice is processed by the method of specific speaker recognition. This is judged by the Japanese speaking while touching the foreign language key 1. Being the owner of this device means that a person's voice pattern can be registered in plain text. It is assumed that the Japanese pronounces from the voice input unit 1 as "We sell our products ten million yen". This pronunciation is recognized by the voice recognition unit 1 as a character string as shown in FIG. The blank is inserted before ten in Fig. 8 because the blank of the pronunciation of the speaker is processed as the blank of the display. When two positions are designated on the display unit 1 by the blank input pen input unit 1 as shown in FIG. 9, the character string is changed to that shown in FIG. By the function of the section 2, it is output as shown in FIG. 11 to the display section 1 for Japanese and the display section 2 for foreigners. Here, since the Japanese touches the foreign language key 1, the function of the foreign language syntax processing unit 2 is automatically performed. Although not impossible to obtain, the blank input pen input unit 1 is used in order to obtain FIGS. 8 to 11 in real time. Practically, because Japanese Japanese is not understood by foreigners as English, when the character string in Fig. 8 is displayed, the foreigner in the other party can understand the rough meaning. Is. The blank input pen input section 1 is used as shown in Fig. 9 according to the complexity of the sentence. It should be noted that if the performance of the software of the foreign language syntax processing unit 2 is improved and the processing speed of the cpu is improved, FIGS. 8 to 11 will be automatically obtained in real time.

【0008】 以上は外国人の英会話を日本人が聞き、日本人が英語で答えるケースであるが 、日本人が、英語が全くできずというケースもある.この場合は アメリカ人の I want your products のことばに対し、表示部1に図 7でなく、図12のように、すべての英単語に 日本語訳が付され、表示するよ うにしてもよい. The above is the case where the Japanese listens to the English conversation of a foreigner and the Japanese answers in English, but there are also cases where the Japanese cannot speak English at all. In this case, in response to the American I want your products words, all the English words may be displayed with Japanese translation as shown in FIG. 12 instead of FIG. 7 on the display unit 1. .

【0009】 このアメリカ人のことばに対して、日本人は日本語キー1を押しつつ、音声入 力部1より、一千万円で売りましょうと発音する. ここで日本語キー1を押すとは、特定話者認識の手法が、日本語の発音に対し て使われることを示す. 上記発音は、音声認識部1の働きにより、いっせんまんえんでうりましょう と解され、図14のように日本人向け表示部1と外国人向け表示部2へ出力され る. 日本人はブランクそう入用ペン入力部1で図15のように、「う」を指定する と 図16のように一つの文は より単純化された2語となり、図21のような データ構造をもつ、日本語電子辞書1のデータベースを用いる 日本語構文処理 部1の働きで、図17のように、さらに単純化されたものになり、日本人向表示 部1と外国人向け表示部2へ出力される. 表示部2には 日本語電子辞書1の訳語部のデータベースにより、図18のよ うに表示される。英語の訳語を付した形で。 In response to this American word, the Japanese says, while pressing the Japanese key 1, from the voice input section 1 to sell for 10 million yen. Pressing the Japanese key 1 here indicates that the specific speaker recognition method is used for Japanese pronunciation. The above pronunciation is understood by the function of the voice recognition unit 1 and is output to the Japanese display unit 1 and the foreign display unit 2 as shown in FIG. When a Japanese person specifies "U" in the blank pen input section 1 as shown in FIG. 15, one sentence becomes two more simplified words as shown in FIG. 16, and the data structure shown in FIG. With the function of the Japanese syntax processing unit 1 which uses the database of the Japanese electronic dictionary 1 having the above, the display is further simplified as shown in FIG. 17, and the display unit 1 for Japanese and the display unit 2 for foreigners are provided. Is output to. The display unit 2 displays the translated word database of the Japanese electronic dictionary 1 as shown in FIG. In the form with an English translation.

【0010】 こうして表示されたものは、印字部1,印字部2により、印字することができ る.したがって、たとえば英文会話が長くなっても 聞き手である日本人は、前 に話された英文とその訳文を見つつ、新しい会話を聞きとることができる. このことは、外国人が、日本人のジャパニーズイングリッシュの会話、あるい は、日本人の日本語の会話を聞くときにもいえる. これらの場合は議事録をとる手間を省くことができる. The items thus displayed can be printed by the printing unit 1 and the printing unit 2. Therefore, for example, the Japanese who is the listener even if the English conversation becomes long can listen to the new conversation while looking at the previously spoken English sentence and its translated sentence. This is true even when a foreigner hears a Japanese Japanese conversation or a Japanese Japanese conversation. In these cases, it is possible to save the trouble of collecting the minutes.

【0011】 本装置はブック形コンピューターを2台接続して実現することもできるし、又 、ブック形コンピューター1台に表示部を2つ設けて実現することもできるし、 1台のコンピュータとその1つの表示部を 日本人と外国人が共用する形で実現 することもできる. つまり、図1は本装置の機能ブロック図であるが、これをハードウェアとして 実現するときには、図22のようにしてもよい. 図22では、日本人,外国人用の各機能を一つにまとめている. The present apparatus can be realized by connecting two book type computers, or can be realized by providing two display portions in one book type computer, and one computer and its It is also possible to realize a single display unit so that Japanese and foreigners can share it. In other words, although FIG. 1 is a functional block diagram of this device, when it is implemented as hardware, it may be as shown in FIG. In FIG. 22, the functions for Japanese and foreigners are put together.

【0012】 本装置は単なる会話にとどまらず、日本人向け表示部1を大画面テレビ、ある いは、映写機用スクリーンにすると、日本人相手の、外国人の外国語の講演にも 使える. 外国人向け表示部2を、大画面テレビ、あるいはスクリーンにすると 外国人 相手の、日本人による、外国語あるいは日本語の講演にも使える. [0012] The present apparatus is not limited to mere conversation, a large-screen TV the Japanese for the display unit 1, there is the stomach, and the projector screen, the Japanese partner, can also be used in foreign language lecture of foreigners. If the display unit 2 for foreigners is a large-screen TV or a screen, it can be used for foreign language or Japanese lectures by Japanese people with foreigners.

【0013】 さらに本装置を外国語の録音テープ,外国語放送を聞くことに適用すると、図 23のような文字列を連続的にうることになる. この場合は、話者である外国人によるブランクのそう入がないので、話者の発 のブランクが文字列のブランクとして、あらわれるのみであるが、聞き手が英 文を読むことの得手なものであれば、これだけでも相手のいうことの大意を読み とれることが期待される. 加えて、外国語構文処理部の処理性能の向上があれば、より読みやすい外国 語として表示されることになる. このケースでは非特定話者認識の手法を用いることになるが、外国語放送等は 、その音声入力が標準パターンに近いことが期待されるので、話者による介入が 無いが、良好な結果を望める. Furthermore this device foreign language audio tape, when applied to listening to foreign language broadcasts, would sell string like Figure 23 consecutively. In this case, since there is no insertion of blank by foreigners is a speaker, as a blank of blank string of the calling voice of the speaker, but it only appears, forte thing that the listener is read the English sentence If this is the case, it is expected that this will allow you to read the meaning of the other party. In addition, if the processing performance of the foreign language syntax processing unit 2 is improved, it will be displayed as a more readable foreign language. In this case, the method of non-specific speaker recognition will be used, but in foreign language broadcasting, etc., the voice input is expected to be close to the standard pattern, so there is no speaker intervention, but good results are obtained. I can hope.

【0014】 外国語構文処理部2を使わずに、もちろん、図2において、話者であるアメリ カ人は、ブランクそう入用ペン入力部2により、表示部2上、図3のようにWと yとPを指定する.すると、この文字列は、図4のような意味のある文へ変換さ れる。このようにしてもよい [0014] without the use of foreign language syntax processing section 2, of course, in FIG. 2, Americans is a speaker, by the blank so needful pen input unit 2, on the display unit 2, as shown in FIG. 3 W And y and P are specified. Then, this character string is converted into a meaningful sentence as shown in FIG. You can do this .

【0015】[0015] ブランクそう入用ペン入力部は、指によるタッチ、つまり、指でふれた箇所へ The blank pen input section is touched by the finger, that is, to the place touched by the finger. 、ブランクを自動的にそう入するしくみを、表示部へもたせてもよい., A mechanism for automatically inserting blanks may be added to the display.

【0016】 なお、図12から、さらに図13のように訳語としての日本語が 単なること ばのら列でなく、日本語構文処理部1により、ふつうの日本文に直して表示する ようにしてもよいこのふつうの日本文表示は、図12の生の日本文との区別のために、色を変え て、あるいはアンダーラインを引いてなされる. [0016] Incidentally, from FIG. 12, not further simply be Banora column Japanese is as translation as shown in FIG. 13, the Japanese syntax processor 1, so as to display mended the normal day Text Good . This ordinary Japanese sentence display is made in different colors or underlined in order to distinguish it from the raw Japanese sentence in FIG.

【0017】[0017] 又、図18から、図19のように、訳語としての英語が 単なることばのら列 In addition, as shown in FIG. 18 to FIG. 19, English as a translated word is simply a verbal sequence. でなく、外国語構文処理部2により、ふつうの英語に直して表示部2へ出力されInstead, the foreign language syntax processing unit 2 converts it into ordinary English and outputs it to the display unit 2. るようにしてもよい.You may do so. このふつうの英文表示は、図18の生の英文表示と区別のため、色を変えて、In order to distinguish this ordinary English text display from the raw English text display of FIG. 18, the color is changed to あるいはアンダーラインを引いて生の英文表示の下に出力される.Alternatively, it is output underlined by underlining.

【0018】[0018] 日本語構文処理部1も、ソフトウェア等で実現される.The Japanese syntax processing unit 1 is also realized by software or the like.

【0019】考案の効果〕 英文の読み書きのできる日本人は、外国人の会話が表示されることにより、そ れを読むことによって、正しく相手の言う意味をつかむことができる.又、日本 人は、その英文の発音が表示されることにより、へたな発音でも、外国人に意味 をわかってもらえる. 英文の苦手な日本人も、相手の英会話が、日本語の訳がついて、表示されるこ とにより、相手の言う意味をつかむことができ、又、自分の話す日本語が、英文 の訳がついて、表示されることにより、外国人に意味をわかってもらえる. この訳語の表示は、日本語及び外国語電子辞書、日本語構文処理部,外国語 構文処理部の働きによる. [0019] Japanese that can read and write [devised effect] English is, by the conversation of foreigners is displayed, by reading the Re its, it is possible to grab the correct opponent of the senses. Also, by displaying the pronunciation of the English sentence, Japanese people can make foreigners understand the meaning even if they have a bad pronunciation. Even Japanese people who are not good at English can understand the meaning of the other person by displaying the English conversation of the other person with the Japanese translation, and the Japanese translation that I speak can be translated into English. Then, by being displayed, foreigners can understand the meaning. This translated word is displayed by the functions of the Japanese and foreign language electronic dictionaries, the Japanese syntax processing unit 1 and the foreign language syntax processing unit 2 .

【提出日】平成5年12月13日[Submission date] December 13, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0005[Name of item to be corrected] 0005

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0005】[0005]

【作用】[Action]

本実施例で述べる、入力された音声yourproducts という文字列 をyour products へ自動的に編集する外国語構文処理部2のソ フトウエアは、一例として以下のロジックで実現できる。 外国語電子辞書2のインデックスファイルを まず yourproductsでインデックスサーチする。 ついで yourproduct でインデックスサーチする。 ついで yourproduc でインデックスサーチする。 ついで yourprodu でインデックスサーチする。 ついで yourprod でインデックスサーチする。 ついで yourpro でインデックスサーチする。 ついで yourpr でインデックスサーチする。 ついで yourp でインデックスサーチする。 これらのいずれも、READができなくてエラーとなる。 これらに対応した見出し語が存在しないからである。 ついで your でインデックスサーチする。 READができる。yourという見出し語が電子辞書2に存在するからである 。 かくして yourproducts を your productsとして編集し直すことができる。 又、他の例として、以下のロジックでも実現できる。 外国語電子辞書2のインデックファイルを まず yourproductsでインデックスサーチする。 ついで ourproductsでインデックスサーチする。 ついで urproductsでインデックスサーチする。 ついで rproductsでインデックスサーチする。 ついで productsでインデックスサーチする。 READができる。productsという見出し語が電子辞書2に存在するからである。 かくして yourproducts を your products として編集し直すことができる。 この後者の例で、けずっていったyourでインデックスサーチすると READができる。 又、前者の例で、けずっていったproductsでインデックスサーチする とREADができる。これらは your productsとしての編集が完 全であることを示す。 もっと長い音声文字列で、けずっていった語句も長く、それでインデックスサ ーチして READのできないときには、その語句に対して、同じロジックを適 用して、その長い音声文字列を、電子辞書2に存在する見出し語ごとにブランク で区切ってわかりやすく表示できる。 The software of the foreign language syntax processing unit 2 for automatically editing the input character string “your products” into the “your products” described in this embodiment can be realized by the following logic, for example. First, the index file of the foreign language electronic dictionary 2 is index-searched with the word products. Then, an index search is performed with yourproduct. Then, do an index search with your product. Then, do an index search with your product. Then do an index search with yourprod. Then, do an index search with yourpro. Then, do an index search with yourpr. Then do an index search with yourp. None of these results in an error because READ cannot be performed. This is because there is no entry word corresponding to these. Then do an index search with your. READ is possible. This is because the entry word “your” exists in the electronic dictionary 2. Thus, your products can be edited back as your products. As another example, the following logic can be used. First, the index file of the foreign language electronic dictionary 2 is index-searched with the word products. Then, do an index search with our products. Next, an index search is performed with urproducts. Then, an index search is performed with rproducts. Then, an index search is performed with products. READ is possible. This is because the entry word “products” exists in the electronic dictionary 2. Thus, your products can be reedited as your products. In this latter example, READ can be performed by performing an index search on the misplaced “your” . Also, in the former example, READ can be performed by performing an index search with the products that have gone wrong . These indicate that the editing of as your products is complete. In more long voice string, longer phrase that went by cutting, so when that can not be READ and indexed over blood for that phrase, the same logic was applied, and the long voice strings, electronic dictionary It can be displayed in an easy-to-understand manner by separating each headword existing in 2 with a blank .

【提出日】平成5年12月23日[Submission date] December 23, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0018[Correction target item name] 0018

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0018】 日本語構文処理部1も、ソフトウェア等 で実現される。 人の発音は常に明りょうであるとは限らない。 本実施例であげたyourproducts という音声文字列も、実際の場では語尾が不明瞭で音声認識装置には、 yourprodu としか認識できないケースがあるかもしれない。 < は 認識不明の文字列に対する あて字。 > この場合においても、本実施例に用いた手順により、文字列の末尾から一文字 ずつ除いて、インデックスサーチを行っていくロジックにより、 < 認識できなくても、除くことはできる。除いて後、ブランクでおきかえても 良い。> この音声文字列を your produ という、よりわかりやすい 、 your という単語を生かした音声文字列へ 編集し直すことができる。 又、yourproducts という音声文字列が 語頭が不明瞭であるために、 rproducts としか認識されないケースもあるかもしれない。 このケースでは、この文字列を頭から一文字ずつ除いてインデックスサーチを 行っていくロジックにより、この文字列を r products という、products の単語を生かした、より わかりやすい音声文字列 へおきかえることができるThe Japanese syntax processing unit 1 is also realized by software or the like. A person's pronunciation is not always clear. In the actual situation, the voice character string “ ourproducts in this embodiment may be unclear, and the voice recognition device may recognize only “yourproduct” in some cases. <Is an address for unrecognized character strings. > Even in this case, according to the procedure used in the present embodiment, the characters are removed from the end of the character string one by one, and the index search logic is used. After removing it, you can replace it with a blank . > This voice character string can be re-edited into a voice character string that makes use of the word “ our ”, which is easier to understand . In addition, there may be a case in which the voice character string “ yourproducts” is recognized only as “ rproducts” because the beginning of the voice character string is unclear . In this case, the logic of performing an index search by removing each character from the beginning of this character string makes it possible to replace this character string with an easier-to-understand voice character string that uses the word of " products ", that is, " r products " .

【提出日】平成5年12月28日[Submission date] December 28, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0015[Name of item to be corrected] 0015

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0015】 ブランクそう入用ペン入力部は、指によるタッチ、つまり、指でふれた箇所へ 、ブランクを自動的にそう入するしくみを、表示部へもたせてもよい。 人はいつも、よどみなく語るとは限らない。 途中で、ことばにつかえることがある。 たとえば machine for the conversation w ith foreign people を conversation の途 中でことばが途切れて machine for the conver sa tion with foreign peole と言うことがある。 このとき、ことばの途切れに応じて conver とsation の間に 、ブランクが生じることになる。かかるケースで conver とsatio n が、あるいは、その一方が電子辞書になく、両者をくっつけた<ソフトウェ アで実現> conversation が電子辞書にあるときには、話者の発 音は途切れても、表示の方は、 conversation として、一語の正 しい表現で出力するという使い方もできる。 The blank insertion pen input unit may be provided with a mechanism for automatically inserting a blank into a position touched by a finger, that is, a portion touched by the finger. People do not always speak sloppyly. On the way, there are things I can use words. For example, sometimes referred to as machine for the conver sa tion with foreign peole interrupted the words a machine for the conversation w ith foreign people in the middle of a conversation. At this time, a blank occurs between the cover and the sation depending on the break of the word . Conver and satio n in such a case or, on the other hand is not in the electronic dictionary, were stuck to each other when the <implemented in software> conversation is in the electronic dictionary, even if interrupted calling tone of the speaker, display of If, as a conversation, you can also use that output in the correct representation of one word.

【提出日】平成5年12月29日[Submission date] December 29, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0017[Correction target item name] 0017

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0017】 又、図18から、図19のように、訳語としての英語が単なることばのら列で なく、外国語構文処理部2により、ふつうの英語に直して表示部2へ出力される ようにしてもよい。 このふつうの英文表示は、図18の生の英文表示と区別のため、色を変えて、 あるいはアンダーラインを引いて、生の英文表示の下に出力される。 単語の中には、頭の方の数文字分の発音が決まると語尾が不明でも、その単語 が一意に、もしくは、2,3件のうちのどれかに決まってしまうものがある。 たとえば、conversationの末尾の発音が不明りょうであったため 、音声認識装置がconversa に相当する発音までのみ認識したとする、 すると、この発音の単語はconversation しかないので、この語を 、画面の空いたところへ、<NOTE>又は<注>として表示するという使い方 もできる。 これは電子辞書のインデックスサーチにより、ソフトウェアにより実現できる Further, from FIG. 18 to FIG. 19, English as a translated word is not a mere word string, but the foreign language syntax processing unit 2 converts it into ordinary English and outputs it to the display unit 2. You may This ordinary English text display is output below the raw English text display in different colors or underlined in order to distinguish it from the raw English text display of FIG. In some words, even if the ending is unknown when the pronunciation of a few letters at the head is determined, the word is uniquely determined or is determined as one of a few words . For example, suppose that the pronunciation at the end of conversation is unknown, so the speech recognizer recognizes only the pronunciation equivalent to conversa. Then, since the word with this pronunciation is only conversation, this word is not available on the screen. It can also be used to display as <NOTE> or <Note> . This can be realized by software by index search of an electronic dictionary .

【図面の簡単な説明】[Brief description of drawings]

【図1】 機能ブロック図FIG. 1 Functional block diagram

【図2】 表示例[Figure 2] Display example

【図3】 表示例[Figure 3] Display example

【図4】 表示例[Figure 4] Display example

【図5】 表示例[Figure 5] Display example

【図6】 表示例[Figure 6] Display example

【図7】 表示例[Figure 7] Display example

【図8】 表示例[Figure 8] Display example

【図9】 表示例[Figure 9] Display example

【図10】 表示例[Fig. 10] Display example

【図11】 表示例[Fig. 11] Display example

【図12】 表示例[Fig. 12] Display example

【図13】 表示例[Fig. 13] Display example

【図14】 表示例[Fig. 14] Display example

【図15】 表示例[Fig. 15] Display example

【図16】 表示例FIG. 16: Display example

【図17】 表示例FIG. 17 Display example

【図18】 表示例FIG. 18 Display example

【図19】 表示例FIG. 19 Display example

【図20】 外国語電子辞書のデータ構造FIG. 20: Data structure of foreign language electronic dictionary

【図21】 日本語電子辞書のデータ構造FIG. 21: Data structure of Japanese electronic dictionary

【図22】 ハードウェアブロック図の一例FIG. 22 is an example of a hardware block diagram.

【図23】 表示例FIG. 23: Display example

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年12月6日[Submission date] December 6, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】実用新案登録請求の範囲[Name of item to be amended] Scope of utility model registration request

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【実用新案登録請求の範囲】[Scope of utility model registration request]

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 551 C 571 G ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G10L 3/00 551 C 571 G

Claims (1)

【実用新案登録請求の範囲】[Scope of utility model registration request] 【請求項1】外国人の外国語の音声を入力する音声入力
部2と、その音声を一連の外国語文字列として認識する
音声認識部2と、認識された一連の外国語文字列を、話
者である外国人に向かって表示する表示部2と、同時に
聞き手である日本人に向かって表示する表示部1と、表
示部2上において、話者である外国人の操作により、一
連の外国語文字列をより単純化された、いくつかの文字
列へ分けるブランクそう入用ペン入力部2と、外国語の
単語データベースである電子辞書2と、単純化された、
いくつかの文字列を、意味のある外国語の単語へ、外国
語電子辞書2のデータをもとに編集し直して、表示部
1,表示部2へ表示し、さらに、外国語電子辞書2を用
いて、日本語の訳を付して表示部1へ表示する外国語構
文処理部2と、 日本人の音声を入力する音声入力部1と、その音声を一
連の文字列として認識する音声認識部1と、表示部1上
において、話者である日本人の操作により、日本人の発
声した一連の文字列を、より単純化された、いくつかの
文字列へ分けるブランクそう入用ペン入力部1と、日本
語の単語データベースである電子辞書1と、単純化され
た日本語文字列を電子辞書1により、意味のある日本語
の単語へ編集し直し、さらに、外国語の訳を付す日本語
構文処理部1と、全体を制御する中央制御部から成る外
国語会話支援装置.
1. A voice input unit 2 for inputting a foreign language voice of a foreigner, a voice recognition unit 2 for recognizing the voice as a series of foreign language character strings, and a recognized series of foreign language character strings. On the display unit 2 that is displayed to the foreigner who is the speaker, at the same time that is displayed to the Japanese who is the listener, and on the display unit 2 by the operation of the foreigner who is the speaker, a series of A blank pen input section 2 that divides a foreign language character string into several more simplified character strings, an electronic dictionary 2 that is a foreign language word database, and a simplified
Some character strings are re-edited into meaningful foreign words based on the data in the foreign language electronic dictionary 2, displayed on the display unit 1 and the display unit 2, and further, the foreign language electronic dictionary 2 Using the, a foreign language syntax processing unit 2 for displaying a Japanese translation on the display unit 1, a voice input unit 1 for inputting Japanese voice, and a voice for recognizing the voice as a series of character strings. On the recognition unit 1 and the display unit 1, a blank pen for dividing a series of character strings uttered by a Japanese person into a plurality of simplified character strings by an operation of a Japanese person who is a speaker. The input unit 1, the electronic dictionary 1 that is a Japanese word database, and the simplified Japanese character string are edited back into meaningful Japanese words by the electronic dictionary 1, and further translated into foreign languages. Foreign language consisting of a Japanese syntax processing unit 1 and a central control unit that controls the whole Conversation support device.
JP049153U 1993-06-19 1993-06-19 Foreign language conversation support device Pending JPH08846U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP049153U JPH08846U (en) 1993-06-19 1993-06-19 Foreign language conversation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP049153U JPH08846U (en) 1993-06-19 1993-06-19 Foreign language conversation support device

Publications (1)

Publication Number Publication Date
JPH08846U true JPH08846U (en) 1996-05-21

Family

ID=12823159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP049153U Pending JPH08846U (en) 1993-06-19 1993-06-19 Foreign language conversation support device

Country Status (1)

Country Link
JP (1) JPH08846U (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161914A2 (en) * 2012-04-25 2013-10-31 株式会社サン・フレア Translation assistance device, translation assistance system, and program for same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161914A2 (en) * 2012-04-25 2013-10-31 株式会社サン・フレア Translation assistance device, translation assistance system, and program for same
JP2013228883A (en) * 2012-04-25 2013-11-07 Sunflare Co Ltd Translation support device, translation support system, and program therefor
WO2013161914A3 (en) * 2012-04-25 2013-12-19 株式会社サン・フレア Translation assistance device, translation assistance system, and program for same
CN104412259A (en) * 2012-04-25 2015-03-11 日耀有限公司 Translation assistance device, translation assistance system, and program for same
US9507773B2 (en) 2012-04-25 2016-11-29 Sunflare Co., Ltd. Translation assistance device, translation assistance system, and control method for the same

Similar Documents

Publication Publication Date Title
US7383182B2 (en) Systems and methods for speech recognition and separate dialect identification
US7693717B2 (en) Session file modification with annotation using speech recognition or text to speech
US20070244700A1 (en) Session File Modification with Selective Replacement of Session File Components
JP2001296880A (en) Method and device to generate plural plausible pronunciation of intrinsic name
WO2007022058A2 (en) Processing of synchronized pattern recognition data for creation of shared speaker-dependent profile
JP2001188777A (en) Method and computer for relating voice with text, method and computer for generating and reading document, method and computer for reproducing voice of text document and method for editing and evaluating text in document
WO2021033865A1 (en) Method and apparatus for learning written korean
Demuynck et al. Automatic generation of phonetic transcriptions for large speech corpora.
Bakti et al. Source language-related erroneous stress placement in the target language output of simultaneous interpreters
Moniz et al. Extending AuToBI to prominence detection in European Portuguese
KR20000049500A (en) Method of Practicing Foreign Language Using Voice Recognition and Text-to-Speech and System Thereof
JPH08846U (en) Foreign language conversation support device
JPS63157226A (en) Conversation type sentence reading device
KR100369507B1 (en) Voice recognition/synthesis systems based on standard pronunciation analysis methodology and methods therefor
TWI759003B (en) Method for training a speech recognition model
US8249869B2 (en) Lexical correction of erroneous text by transformation into a voice message
JPS62212870A (en) Sentence reading correcting device
JP2003132047A (en) Apparatus for converting written words into spoken words
Al-Safi The Perception and Production of Prosodic Features by Iraqi EFL Learners: College of Arts–University of Mosul
JPH054676B2 (en)
CN114936555A (en) Method and system for carrying out AI intelligent labeling on Mongolian
JP2022171538A (en) Foreign language speaking learning system
CN115223542A (en) Dialect semantic quick transcription technology
Pickett Transcripts for law enforcement: Special requirements
TW594605B (en) Computer aided character meaning teaching system with accent prompt and method thereof