JP3926365B2 - Audio converter - Google Patents

Audio converter Download PDF

Info

Publication number
JP3926365B2
JP3926365B2 JP2004329646A JP2004329646A JP3926365B2 JP 3926365 B2 JP3926365 B2 JP 3926365B2 JP 2004329646 A JP2004329646 A JP 2004329646A JP 2004329646 A JP2004329646 A JP 2004329646A JP 3926365 B2 JP3926365 B2 JP 3926365B2
Authority
JP
Japan
Prior art keywords
unit
language
translation
voice
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004329646A
Other languages
Japanese (ja)
Other versions
JP2005141759A (en
Inventor
研治 水谷
由実 脇田
謙二 松井
良文 ▲ひろ▼瀬
英嗣 前川
伸一 芳澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2004329646A priority Critical patent/JP3926365B2/en
Publication of JP2005141759A publication Critical patent/JP2005141759A/en
Application granted granted Critical
Publication of JP3926365B2 publication Critical patent/JP3926365B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

本発明は、例えば、音声入力された原言語の発声を目的言語に変換して音声出力する音声変換装置に関するものである。 The present invention is, for example, relates to speech conversion equipment that outputs sound by converting the utterance of the speech input original language into the target language.

音声通訳技術は、高性能なワークステーションやパーソナルコンピュータによる使用を前提としたソフトウェアとして開発され、仮に、旅行会話などに会話の範囲を限定した場合、その性能は実用的なレベルまで到達している。しかし、音声通訳装置として、一般のユーザが日常的に使用するためには、海外旅行等に簡単に携行できる程度の大きさのハードウェアと、簡単に操作ができるユーザインタフェースを設計し、同等の機能のソフトウェアをそのハードウェアに移植する必要がある。   Voice interpretation technology was developed as software premised on the use of high-performance workstations and personal computers. If the scope of conversation is limited to travel conversations, the performance has reached a practical level. . However, as a voice interpreting device, for ordinary users to use on a daily basis, hardware that is large enough to be easily carried on overseas trips, etc. and a user interface that can be easily operated are designed to be equivalent. Functional software needs to be ported to the hardware.

従来は、B5サイズ程度のノート型パーソナルコンピュータに対して音声通訳ソフトウェアを移植する作業が進められてきた。   Conventionally, the work of porting voice interpretation software to a B5 size notebook personal computer has been promoted.

一方、近年のハードウェア技術の進歩によって、携帯可能な小型の情報機器を用いて、主に海外旅行で使用する会話を対象として、音声入力による翻訳機能が実現できるようになった。この様な他の従来技術としての翻訳機能は双方向であり、例えば日本語から英語への変換機能と、英語から日本語への変換機能の両方を備える。   On the other hand, recent advances in hardware technology have made it possible to implement a translation function by voice input mainly for conversations used on overseas trips using portable information devices. Such other conventional translation functions are bidirectional, for example, having both a Japanese-to-English conversion function and an English-to-Japanese conversion function.

この様な他の従来技術の発明としては、外国語翻訳装置(例えば、特許文献1参照。)や音声入力翻訳装置(例えば、特許文献2参照。)がある。これらの発明では、言語の異なる2人が1台の機器を対面形式で使用して対話ができるように、機器の形状や表示部の配置、その内容が決定されている。
特開平8−77176号公報 特開平8−278972号公報
Such other prior art inventions include a foreign language translation device (see, for example, Patent Document 1) and a speech input translation device (see, for example, Patent Document 2). In these inventions, the shape of the device, the arrangement of the display unit, and the contents thereof are determined so that two people having different languages can interact using one device in a face-to-face format.
JP-A-8-77176 JP-A-8-278972

しかしながら、B5サイズ程度のノート型パーソナルコンピュータは、ユーザが簡単に携行して様々な場所で利用できる大きさではない。また、普通のキーボードやマウスで操作しなければならないために、ユーザインタフェースとしても使い易い形態ではない。さらに音声認識に必要とされるCPU性能やワーキングメモリの容量といった計算資源の量は、一般に認識対象語彙の大きさに比例する。   However, notebook personal computers of about B5 size are not large enough for users to carry around and use in various places. Moreover, since it must be operated with a normal keyboard or mouse, it is not easy to use as a user interface. Furthermore, the amount of computational resources such as CPU performance and working memory capacity required for speech recognition is generally proportional to the size of the recognition target vocabulary.

小型のハードウェアでは計算資源が限られるので、音声通訳装置として必要十分な単語を認識対象語彙として実装することが困難であり、音声通訳装置としての利用価値が低くなるという課題があった。以上が上記従来技術についての課題である(第1の課題)。   Since the computational resources are limited in small hardware, it is difficult to implement words necessary and sufficient as a speech interpretation device as a recognition target vocabulary, and there is a problem that the utility value as a speech interpretation device is lowered. The above is the subject concerning the above prior art (first subject).

次に、上記他の従来技術についての課題を説明する(第2の課題)。   Next, a problem with the other prior art will be described (second problem).

即ち、上記他の従来技術の翻訳装置において、衣服のポケットに入るような小型の情報機器で、その表示領域の解像度が小さい場合には、2人の利用者に必要な情報をすべて表示することはできない。そのため、翻訳装置としての使い勝手が低下するという課題があった。また、複数の表示部を実装すると消費電力が増加して翻訳装置の稼働時間が短くなるという課題もあった。また、翻訳装置は2人の利用者の発声を排他的に扱わないので、発声が重なると音声認識の認識率が低下して翻訳装置としての性能が低下するという課題もあった。   That is, in the above-described other prior art translation device, if the resolution of the display area is small with a small information device that fits in the pocket of clothes, all necessary information for two users is displayed. I can't. Therefore, there has been a problem that usability as a translation device is reduced. In addition, when a plurality of display units are mounted, there is a problem that power consumption increases and the operation time of the translation apparatus is shortened. In addition, since the translation device does not handle the utterances of two users exclusively, there is a problem that when the utterances overlap, the recognition rate of speech recognition is lowered and the performance as the translation device is lowered.

本発明は、上記従来の翻訳装置のこの様な第2の課題を考慮し、従来に比べて表示内容についての使用性の向上を図る事が出来る音声変換装置を提供することを目的とする。 The present invention, in consideration of such a second problem of the conventional translation apparatus, and an object thereof is to provide a voice conversion equipment that can be improved usability of the display contents in comparison with the conventional .

又、本発明に関連する技術の他の発明は、上記従来の音声通訳装置のこの様な第1の課題を考慮し、従来に比べてより一層小型化が可能であり、操作も簡単に出来得る音声変換装置、音声変換方法、プログラム、及び媒体を提供することを目的とする。   In addition, in consideration of the first problem of the above-described conventional speech interpretation apparatus, other inventions related to the present invention can be further downsized and can be easily operated. An object is to provide a voice conversion device, a voice conversion method, a program, and a medium.

第1の本発明は、第1又は第2の言語の音声を入力するための入力部と、
(1)前記入力部から前記第1の言語の音声を受け取った場合、それを音声認識し、且つ、所定の制御指示に基づいて、(1-a)前記音声認識された前記第1の言語の表記データを出力する、又は(1-b)前記音声認識された認識結果に基づいて決定される変換対象を前記第2の言語に変換し、その変換後の言語の少なくとも表記データを出力し、(2)前記入力部から前記第2の言語の音声を受け取った場合、それを音声認識し、且つ、所定の制御指示に基づいて、(2-a)前記音声認識された前記第2の言語の表記データを出力する、又は(2-b)前記音声認識された認識結果に基づいて決定される変換対象を前記第1の言語に変換し、その変換後の言語の少なくとも表記データを出力する音声翻訳部と、
前記音声翻訳部の前記変換対象の決定を支援するための支援部と、
前記音声翻訳部から出力される前記変換後の言語の前記表記データを、前記所定の制御指示に基づいて表示するための表示部と、
前記所定の制御指示を、少なくとも前記音声翻訳部及び前記表示部に対して行う制御部と
前記第1の言語から第2の言語、又は前記第2の言語から第1の言語への何れの翻訳が前記により行われるべきかの翻訳方向を決定するための情報を検出する言語変換方向検出部を備え、
前記制御部は、前記検出結果に基づいて、前記音声翻訳部に対して前記翻訳方向を指定し、かつ、前記入力部を制御し、
前記言語変換方向検出部は、前記音声変換装置の内部に設置されたジャイロセンサーで構成されており、
発声する利用者が前記音声変換装置を手に持つ位置で前記翻訳方向を選択する音声変換装置である。
The first aspect of the present invention is an input unit for inputting voice in the first or second language;
(1) When the voice of the first language is received from the input unit, the voice is recognized and, based on a predetermined control instruction, (1-a) the voice-recognized first language Or (1-b) converting the conversion target determined based on the speech recognition result into the second language, and outputting at least the notation data in the converted language. (2) When the second language voice is received from the input unit, the voice is recognized and, based on a predetermined control instruction, (2-a) the second voice recognized Output language notation data, or (2-b) convert the conversion target determined based on the speech recognition result to the first language, and output at least the notation data of the converted language A speech translator to
A support unit for supporting the determination of the conversion target of the speech translation unit;
A display unit for displaying the notation data of the converted language output from the speech translation unit based on the predetermined control instruction;
A control unit that performs the predetermined control instruction on at least the speech translation unit and the display unit ;
Language conversion direction detection for detecting information for determining the translation direction of which translation from the first language to the second language or from the second language to the first language should be performed by the above Part
The control unit specifies the translation direction for the speech translation unit based on the detection result, and controls the input unit,
The language conversion direction detection unit is composed of a gyro sensor installed inside the voice conversion device,
It is a speech conversion device that selects the translation direction at a position where a uttering user holds the speech conversion device.

上記本発明の構成によれば、例えば、音声変換装置としてユーザが片手で持ってボタンやタッチパネルで簡単に操作できるものを用いる。そして、対面する2人の使用者(一方の使用者が、第1の言語を使用し、他方の使用者が第2の言語を使用する)が、操作権限を手動で獲得する手段、あるいは、操作権限を手動で相手に与える手段、あるいは、自動的に獲得する手段を追加して、どちらに操作権限があるかを明示的に示し、かつ、その使用者が操作しやすい表示と入力手段を提供する。これにより、例えば、表示電力を増加させることなく、従来に比べて表示内容についての使用性の向上を図る事が出来る。
尚、上記従来技術における第1の課題を解決するための、本発明に関連する技術の第1〜第10の他の発明について以下に述べる。
According to the configuration of the present invention described above, for example, a voice conversion device that can be easily operated with a button or a touch panel held by a user with one hand is used. And two means of facing users (one user uses the first language and the other user uses the second language), the means for acquiring the operating authority manually, or A means to manually give the operation authority to the other party, or a means to automatically acquire it, explicitly indicate which one has the operation authority, and display and input means that the user can easily operate provide. Thereby, for example, it is possible to improve the usability of the display contents as compared with the conventional case without increasing the display power.
The first to tenth other inventions related to the present invention for solving the first problem in the prior art will be described below.

第1の他の発明は、第1の言語の音声を入力するための音声入力手段と、
前記入力された音声を音声認識するための音声認識手段と、
前記音声の認識結果に対応する、前記第1の言語の一つ又は複数の単語列を抽出し、表示する第1の抽出・表示手段と、
前記表示された単語列から、第2の言語への変換対象となる予定の何れかの単語列を選定するための変換対象選定手段と、
前記選定された単語列の全部又は一部が特定された際、その特定された内容に対応する用語の候補を抽出し、表示する第2の抽出・表示手段と、
前記表示された前記候補から何れかの候補を選定するための候補選定手段と、
前記選定された単語列と、前記選定された候補とに基づいて、前記第2の言語への変換対象を決定し、その決定された変換対象を前記第2の言語の音声言語に変換する変換手段と、を備えた音声変換装置である。
According to a first other aspect of the present invention, there is provided voice input means for inputting voice in the first language;
Voice recognition means for voice recognition of the input voice;
First extraction / display means for extracting and displaying one or more word strings of the first language corresponding to the speech recognition result;
A conversion target selecting means for selecting any word string to be converted from the displayed word string to a second language;
When all or part of the selected word string is specified, a second extraction / display unit that extracts and displays candidate terms corresponding to the specified content;
Candidate selection means for selecting any candidate from the displayed candidates;
Conversion for determining a conversion target to the second language based on the selected word string and the selected candidate, and converting the determined conversion target to the speech language of the second language And a voice conversion device.

又、第2の他の発明は、前記第1の抽出・表示手段は、前記選定の対象となる複数の単語列と、前記選定された単語列とを、それぞれ予め定められた領域に表示するための表示画面を備えた表示部を有しており、
前記第2の抽出・表示手段は、前記用語の候補を、前記表示画面の一部の領域にウインドウ状に重ねて表示する手段である上記第1の他の発明の音声変換装置である。
According to a second other aspect of the invention, the first extracting / displaying unit displays the plurality of word strings to be selected and the selected word string in respective predetermined areas. A display unit with a display screen for
The second extraction / display unit is the speech conversion apparatus according to the first other aspect of the present invention, which is a unit that displays the term candidates on a partial area of the display screen in a window shape.

又、第3の他の発明は、前記第1の抽出・表示手段は、前記選定された単語列を前記表示画面上に表示する際、前記単語列の一部に対して、前記対応する用語の候補の表示が可能である旨の情報をも付加して表示する手段である上記第2の他の発明の音声変換装置である。   According to a third aspect of the present invention, when the first extracting / displaying unit displays the selected word string on the display screen, the corresponding term is applied to a part of the word string. The speech conversion apparatus according to the second other aspect of the present invention, which is means for adding and displaying information indicating that the candidate can be displayed.

又、第4の他の発明は、前記付加された情報が表示されている前記単語列の一部を、前記表示画面上で特定するための画面表示特定手段を備えた上記第3の他の発明の音声変換装置である。   According to a fourth other aspect of the present invention, the third other aspect includes a screen display specifying means for specifying a part of the word string on which the added information is displayed on the display screen. It is an audio conversion device of the invention.

又、第5の他の発明は、前記変換手段は、前記単語列の内、前記特定された前記一部を、前記選定された候補の用語に置き換えた結果を、前記変換対象として決定する上記第1の他の発明の音声変換装置である。   According to a fifth other aspect of the invention, the conversion means determines, as the conversion target, a result obtained by replacing the specified part of the word string with the selected candidate term. It is a voice conversion device of the 1st other invention.

又、第6の他の発明は、第1の言語の音声を入力する音声入力ステップと、
前記入力された音声を音声認識するための音声認識ステップと、
前記音声の認識結果に対応する、前記第1の言語の一つ又は複数の単語列を抽出し、表示する第1の抽出・表示ステップと、
前記表示された単語列から、第2の言語への変換対象となる予定の何れかの単語列を選定するための変換対象選定ステップと、
前記選定された単語列の全部又は一部が特定された際、その特定された内容に対応する用語の候補を抽出し、表示する第2の抽出・表示ステップと、
前記表示された前記候補から何れかの候補を選定するための候補選定ステップと、
前記選定された単語列と、前記選定された候補とに基づいて、前記第2の言語への変換対象を決定し、その決定された変換対象を前記第2の言語の音声言語に変換する変換ステップと、を備えた音声変換方法である。
According to another aspect of the present invention, a voice input step for inputting a voice in the first language;
A voice recognition step for voice recognition of the input voice;
A first extraction / display step of extracting and displaying one or more word strings of the first language corresponding to the speech recognition result;
A conversion target selection step for selecting any word string to be converted from the displayed word string to a second language;
A second extraction / display step for extracting and displaying term candidates corresponding to the specified contents when all or part of the selected word string is specified;
A candidate selection step for selecting any candidate from the displayed candidates;
Conversion for determining a conversion target to the second language based on the selected word string and the selected candidate, and converting the determined conversion target to the speech language of the second language And a voice conversion method.

又、第7の他の発明は、上記第1〜5の何れか一つの他の発明の音声変換装置の、前記音声認識手段と、前記第1の表示・抽出手段と、前記変換対象選定手段と、前記第2の表示・抽出手段と、前記候補選定手段と、前記変換手段との全部又は一部としてコンピュータを機能させるためのプログラムである。   According to a seventh other aspect of the present invention, in the speech conversion apparatus according to any one of the first to fifth aspects, the speech recognition means, the first display / extraction means, and the conversion target selection means. And a program for causing a computer to function as all or part of the second display / extraction means, the candidate selection means, and the conversion means.

又、第8の他の発明は、上記第6の他の発明の音声変換方法の、前記音声認識ステップと、前記第1の表示・抽出ステップと、前記変換対象選定ステップと、前記第2の表示・抽出ステップと、前記候補選定ステップと、前記変換ステップとの全部又は一部をコンピュータに実行させるためのプログラムである。   The eighth other invention is the voice conversion method of the sixth other invention, wherein the voice recognition step, the first display / extraction step, the conversion target selection step, and the second A program for causing a computer to execute all or part of the display / extraction step, the candidate selection step, and the conversion step.

又、第9の他の発明は、上記第7の他の発明のプログラムを担持した媒体であって、コンピュータにより処理可能なことを特徴とする媒体である。   The ninth other invention is a medium carrying the program of the seventh other invention, which can be processed by a computer.

又、第10の他の発明は、上記第8の他の発明のプログラムを担持した媒体であって、コンピュータにより処理可能なことを特徴とする媒体である。   The tenth other aspect of the invention is a medium carrying the program of the eighth other aspect of the invention, which can be processed by a computer.

以上の構成により、上記本発明に関連する技術の他の発明では、例えば、ユーザが片手で持ってボタンやタッチパネルで簡単に操作できる小型のハードウェアを提供することが可能である。そして、例えば、音声通訳すべき用例文中に含まれる単語をクラス化して保持し、クラスを代表する少数の単語のみ認識対象語彙として音声認識部に実装することが可能である。クラスを代表する単語を含む文が発声されると、その単語を含む用例を検索してユーザに提示することが可能である。通常、ユーザは所望の用例を選択して翻訳音声を出力させる。しかし必要があれば、ユーザはその単語をクラス内の他の単語に置換して翻訳音声を出力させればよい。例えば、日本語で「アスピリンはありますか」と入力したい場合には、単語「アスピリン」が属するクラスを代表する単語「薬」に置き換えて、日本語で「何か薬はありますか」と発声し、その後「薬」の部分を「アスピリン」に置き換えればよい。このような段階的な操作によって、大規模な認識対象語彙を実装することなく、音声通訳装置としての利用価値は維持される。   With the above configuration, in another invention related to the technology related to the present invention, for example, it is possible to provide small hardware that a user can hold with one hand and easily operate with a button or a touch panel. For example, it is possible to classify and hold words included in an example sentence to be speech-interpreted, and to implement only a small number of words representing the class as a recognition target vocabulary in the speech recognition unit. When a sentence including a word representing a class is spoken, an example including the word can be searched and presented to the user. Normally, the user selects a desired example and outputs a translated speech. However, if necessary, the user can replace the word with another word in the class and output the translated speech. For example, if you want to enter “Do you have aspirin” in Japanese, replace it with the word “medicine” representing the class to which the word “aspirin” belongs, and say “Do you have any medicine” in Japanese. Then, the “medicine” part can be replaced with “aspirin”. Through such stepwise operations, the utility value as a speech interpreting apparatus is maintained without implementing a large-scale recognition target vocabulary.

本発明は、従来に比べて表示内容についての使用性の向上を図る事が出来るという長所を有する。   The present invention has an advantage that the usability of display contents can be improved as compared with the conventional case.

以下に、本発明に関連する技術の他の発明の音声変換装置の一実施の形態の音声通訳装置の構成及び動作について、図面を参照しながら述べるとともに、本発明に関連する技術の他の発明の音声変換方法の動作も同時に説明する。   In the following, the configuration and operation of a speech interpreting apparatus according to an embodiment of a speech conversion apparatus of another invention related to the present invention will be described with reference to the drawings, and another invention related to the present invention will be described. The operation of the voice conversion method will be described simultaneously.

図1は、本実施の形態の音声通訳装置のハードウェア構成を示すブロック図である。   FIG. 1 is a block diagram showing a hardware configuration of the speech interpretation apparatus according to the present embodiment.

音声入出力装置102はユーザの原言語による発声を受け取り、目的言語に通訳された音声を出力する。画像出力装置103は、本通訳装置が通訳すべき原言語の用例を表示する。画像指示装置105およびボタン106は、画像出力装置103に表示された用例をユーザに選択させるため使用する。演算制御装置101は、音声入出力装置102と画像指示装置105とボタン106から入力される原言語に関するデータを目的言語に関するデータへ音声言語的に変換し、音声入出力装置102と画像出力装置103に出力する。外部大容量不揮発性記憶装置104は、演算制御装置101に処理の手順を指示するプログラムとデータを保持する。また、外部データ入出力端子107は、演算制御装置101が外部機器とプログラムやデータを交換するために使用する。電源装置108は、演算制御装置101を駆動するために必要な電源を供給する。   The voice input / output device 102 receives the user's utterance in the source language and outputs the voice translated into the target language. The image output device 103 displays an example of the source language to be interpreted by the interpreting device. The image instruction device 105 and the button 106 are used for allowing the user to select an example displayed on the image output device 103. The arithmetic and control unit 101 converts the data related to the source language input from the voice input / output device 102, the image instruction device 105, and the button 106 into data related to the target language in a voice language, and the voice input / output device 102 and the image output device 103 Output to. The external large-capacity nonvolatile storage device 104 holds a program and data for instructing the processing procedure to the arithmetic control device 101. The external data input / output terminal 107 is used by the arithmetic and control unit 101 to exchange programs and data with external devices. The power supply device 108 supplies power necessary for driving the arithmetic control device 101.

ここで、本発明に関連する技術の他の発明の音声入力手段は、音声入力装置102に対応し、本発明に関連する技術の他の発明の第1の抽出・表示手段、及び第2の抽出・表示手段は、画像出力装置103と演算制御装置101等を含む構成部分に対応する。又、本発明に関連する技術の他の発明の画面表示特定手段は、画像指示装置105及びボタン106に対応する。又、本発明に関連する技術の他の発明の第1の言語が、本実施の形態での原言語に対応し、本発明に関連する技術の他の発明の第2の言語が、本実施の形態での目的言語に対応する。   Here, the voice input means of another invention of the technique related to the present invention corresponds to the voice input device 102, the first extraction / display means of the other invention of the technique related to the present invention, and the second The extraction / display unit corresponds to a component including the image output device 103, the arithmetic control device 101, and the like. The screen display specifying means of another invention related to the present invention corresponds to the image instruction device 105 and the button 106. The first language of another invention of the technology related to the present invention corresponds to the source language in the present embodiment, and the second language of the other invention of the technology related to the present invention is the present embodiment. Corresponds to the target language in the form of

演算制御装置101に、PC/AT互換のマザーボードを使用した具体的な構成例を図2に示す。音声入出力装置203はマザーボード201のUSB端子を利用して接続する。画像出力装置204はマザーボード201のデジタルRGBインタフェース端子を利用して接続する。外部大容量不揮発性記憶装置104には2.5インチのハードディスクドライブ202を使用し、マザーボード201とIDEインタフェースで接続する。このハードディスクドライブの替わりにフラッシュメモリディスクを使用してもよい。また、電源装置108にはLi-ion2次電池208を使用し、+5Vおよび+12Vの電圧をマザーボード201に供給する。マザーボード201の入出力端子の中で、アナログディスプレイ出力端子、ローカルエリアネットワーク端子、キーボード接続端子を引き出し、外部データ入出力端子207を構成する。   A specific configuration example in which a PC / AT compatible motherboard is used for the arithmetic and control unit 101 is shown in FIG. The voice input / output device 203 is connected using the USB terminal of the motherboard 201. The image output device 204 is connected using the digital RGB interface terminal of the motherboard 201. The external large-capacity nonvolatile storage device 104 uses a 2.5-inch hard disk drive 202 and is connected to the motherboard 201 through an IDE interface. A flash memory disk may be used instead of the hard disk drive. Further, a Li-ion secondary battery 208 is used as the power supply device 108, and + 5V and + 12V voltages are supplied to the motherboard 201. Out of the input / output terminals of the motherboard 201, an analog display output terminal, a local area network terminal, and a keyboard connection terminal are pulled out to constitute an external data input / output terminal 207.

画像出力装置204の詳細な構成を図3に示す。冷陰極線管のバックライトが背面に実装された表示面積が4インチ、解像度がVGAのLCDユニット301に対し、マザーボード302のデジタルRGBインタフェースの中から18ビットを使用して接続する。また、映像の同期信号とバックライトの制御信号も接続する。   A detailed configuration of the image output apparatus 204 is shown in FIG. A cold cathode ray tube backlight mounted on the back side is connected to an LCD unit 301 having a display area of 4 inches and a resolution of VGA using 18 bits from the digital RGB interface of the motherboard 302. Also, a video synchronization signal and a backlight control signal are connected.

画像指示装置205およびボタン206の詳細な構成を図4に示す。3.8インチの感圧式タッチパネル402をタッチパネルコントローラ401に接続し、指示位置のX座標とY座標をRS232C規格のシリアルデータに変換してマザーボード405のシリアル端子COM1に接続する。ボタン403とボタン404は、それぞれタッチパネルコントローラ401に接続され、ボタンのONまたはOFFの情報は指示位置の情報に付加される。マザーボード405に実装されるタッチパネルコントローラ401のデバイスドライバ・ソフトウェアによって受信されたシリアルデータは解読され、ボタン403はマザーボード405にマウスを接続したときの左ボタンに、ボタン404は右ボタンに相当するようにマウスクリックイベントが発生する。   A detailed configuration of the image instruction device 205 and the button 206 is shown in FIG. A 3.8-inch pressure-sensitive touch panel 402 is connected to the touch panel controller 401, and the X coordinate and Y coordinate of the indicated position are converted into RS232C standard serial data and connected to the serial terminal COM1 of the motherboard 405. The buttons 403 and 404 are connected to the touch panel controller 401, respectively, and button ON / OFF information is added to the indicated position information. The serial data received by the device driver software of the touch panel controller 401 mounted on the motherboard 405 is decoded, so that the button 403 corresponds to the left button when the mouse is connected to the motherboard 405, and the button 404 corresponds to the right button. A mouse click event occurs.

音声入出力装置203の詳細な構成を図5に示す。USBオーディオインタフェース504は入力されるアナログ音声をデジタルデータに変換してマザーボード505に送信し、マザーボード505(図2の201に対応)から送信されるデジタルデータをアナログ音声に変換する。デジタルデータの送受信にはUSBインタフェースを使用する。アナログ音声の収集にはマイク503を使用する。また、USBインタフェース504の出力はオーディオアンプ502によって増幅し、スピーカ501から出力する。なお、USBオーディオインタフェース504の替わりに、マザーボード505に実装されているオーディオインタフェースを使用してもよい。   The detailed configuration of the voice input / output device 203 is shown in FIG. The USB audio interface 504 converts the input analog sound into digital data and transmits it to the mother board 505, and converts the digital data transmitted from the mother board 505 (corresponding to 201 in FIG. 2) into analog sound. A USB interface is used to send and receive digital data. A microphone 503 is used to collect analog audio. The output of the USB interface 504 is amplified by the audio amplifier 502 and output from the speaker 501. Instead of the USB audio interface 504, an audio interface mounted on the motherboard 505 may be used.

図2の構成を、ユーザが片手で持つことが可能な筐体に実装した例の斜視図を図6、および、その三面図を図7(a)〜図7(c)に示す。主筐体601には、画像指示装置205と画像表示装置204とボタン205が実装されている。603および604はそれぞれ、ボタン403およびボタン404に相当する。副筐体602には、音声入出力装置203が実装されている。本通訳装置を利用しない場合は、画像表示装置204の表示面を副筐体602が覆って保護する。   FIG. 6 shows a perspective view of an example in which the configuration of FIG. 2 is mounted on a housing that the user can hold with one hand, and FIGS. 7A to 7C show three views thereof. An image instruction device 205, an image display device 204, and a button 205 are mounted on the main housing 601. Reference numerals 603 and 604 correspond to a button 403 and a button 404, respectively. A voice input / output device 203 is mounted on the sub-housing 602. When the interpretation apparatus is not used, the display surface of the image display apparatus 204 is covered and protected by the sub-housing 602.

本通訳装置を利用する場合は、図8のように副筐体802を音声入出力装置203(マイク803)の指向性の方向がユーザの顔を向く所定の位置まで移動させてから利用する。その三面図を図9(a)〜図9(c)に示す。すなわち副筐体802に実装されたスピーカ804がユーザ方向を向くまで持ち上げ、さらにマイク803も同じく持ち上げる。この状態でタッチパネル付LCD805が使用可能になる。   When using this interpreting apparatus, the sub-housing 802 is used after being moved to a predetermined position where the directivity direction of the voice input / output apparatus 203 (microphone 803) faces the user's face as shown in FIG. The three views are shown in FIGS. 9 (a) to 9 (c). That is, the speaker 804 mounted on the sub-housing 802 is lifted until it faces the user, and the microphone 803 is also lifted. In this state, the LCD 805 with a touch panel can be used.

図10(a)〜図10(c)に主筐体601に対する実装の様子を示す。4インチVGALCDユニット301とタッチパネル402は重ねられ、タッチパネル付LCD1005として実装される。図11(a)〜図11(c)に副筐体602に対する実装の様子を示す。   10A to 10C show how the main casing 601 is mounted. The 4-inch VGALCD unit 301 and the touch panel 402 are overlapped and mounted as a touch panel equipped LCD 1005. FIGS. 11A to 11C show how the sub-housing 602 is mounted.

図12に本発明に関連する技術の他の発明のプログラムとデータの実施の形態であるソフトウェア構成図を示す。図12において、1201は各構成要素に指示を行い、各構成要素からのデータの流れを制御する制御部、1202は制御部1201からの情報の表示や、ユーザからの入力を制御部1201に送るGUI(Graphical User Interface)部、1203は制御部1201からの指示によりユーザの音声を収録する音声入力部、1204は音声入力部から送られるユーザの音声を連続音声認識する音声認識部、1205は原言語と目的言語の用例の対応を保持する用例データベース、1206は用例データベース1205において、クラス化されている単語を保持する単語クラス辞書、1207は制御部1201から送られてくる音声認識結果から、用例データベース1205を参照して用例の選択を行う用例選択部、1208は制御部1201からの指示に従って、用例選択部1207により選択された用例の中からクラス化された単語の選択を行う単語選択部、1209は制御部1201により指定されたクラス化された単語に変わることが可能である単語を単語クラス辞書1206を参照することにより、代替単語を選択する代替単語選択部、1210は制御部1201により指定された用例を用例データベース1205および単語クラス辞書1206を参照することにより目的言語に変換する言語変換部、1211は制御部より指定された目的言語による用例文を音声合成して出力する音声合成部で構成する。尚、ここで、用例データベース1205〜言語変換部1210をまとめて翻訳部1220と呼ぶ。   FIG. 12 shows a software configuration diagram as an embodiment of a program and data of another invention of the technology related to the present invention. In FIG. 12, 1201 instructs each component, and a control unit that controls the flow of data from each component, 1202 displays information from the control unit 1201 and sends input from the user to the control unit 1201. A GUI (Graphical User Interface) unit, 1203 is a voice input unit that records a user's voice according to an instruction from the control unit 1201, 1204 is a voice recognition unit that continuously recognizes a user's voice sent from the voice input unit, and 1205 is an original. An example database that holds correspondence between language and target language examples, 1206 is an example database 1205, a word class dictionary that holds words that have been classified, and 1207 is an example from the voice recognition result sent from the control unit 1201 An example selection unit 1208 for selecting an example with reference to the database 1205 follows an instruction from the control unit 1201. The word selection unit 1209 selects a classified word from the examples selected by the example selection unit 1207. A word 1209 is a word that can be changed to the classified word specified by the control unit 1201. An alternative word selection unit for selecting an alternative word by referring to the word class dictionary 1206, and a language for converting an example specified by the control unit 1201 into a target language by referring to the example database 1205 and the word class dictionary 1206 The conversion unit 1211 includes a speech synthesis unit that synthesizes and outputs an example sentence in a target language specified by the control unit. Here, the example database 1205 to the language conversion unit 1210 are collectively referred to as a translation unit 1220.

ここで、本発明に関連する技術の他の発明の音声認識手段は、音声認識部1204に対応し、本発明に関連する技術の他の発明の変換対象選定手段は、用例選択部1207等に対応する。又、本発明に関連する技術の他の発明の画面表示特定手段は、単語選択部1208等に対応し、本発明に関連する技術の他の発明の候補選定手段は、代替単語選択部1209等に対応する。又、本発明に関連する技術の他の発明の変換手段は、言語変換部1210と音声合成部1211などを含む構成部分に対応する。   Here, the speech recognition means of another invention related to the present invention corresponds to the speech recognition unit 1204, and the conversion target selection means of another invention related to the present invention corresponds to the example selection unit 1207 or the like. Correspond. Further, the screen display specifying means of another invention related to the present invention corresponds to the word selecting unit 1208 and the like, and the candidate selecting means of the other invention related to the present invention is an alternative word selecting unit 1209 and the like. Corresponding to The conversion means according to another invention of the technology related to the present invention corresponds to the components including the language conversion unit 1210 and the speech synthesis unit 1211.

図14に、用例データベース1205の具体例を示す。用例は対話の1文に対応しており、各用例において予め定められた情報(原言語の構成要素、構成要素の依存関係)とともに、原言語と目的言語の対応を保持している。<>で囲まれた原言語の単語は、クラス化された単語であることを示す。クラス化された単語は、同じクラスの単語と置き換えることが可能であることを示す。   FIG. 14 shows a specific example of the example database 1205. The example corresponds to one sentence of the dialogue, and the correspondence between the source language and the target language is held together with information (components of the source language, dependency of the components) predetermined in each example. The source language words enclosed in <> indicate that they are classified words. Indicates that a classified word can be replaced with a word of the same class.

図15に単語クラス辞書1206の具体例を示す。ここで、クラスとは「果物」のように抽象度の高い単語のことであり、クラスに属する単語とは、「りんご」や「みかん」のようにクラスの具体的な実体を表現する単語である。なお、クラス化の抽象度は、音声認識部1204の性能に応じて変更することにより、効率的に用例選択を行うことが可能である。また、クラスを階層化して単語クラス辞書1206を構成してもよい。   FIG. 15 shows a specific example of the word class dictionary 1206. Here, a class is a word with a high degree of abstraction such as “fruit”, and a word belonging to a class is a word that expresses a specific entity of the class, such as “apple” or “mandarin orange”. is there. Note that it is possible to efficiently select an example by changing the abstraction level of the classification according to the performance of the speech recognition unit 1204. Further, the word class dictionary 1206 may be configured by hierarchizing classes.

図16にタッチパネル付LCD805に表示されたGUI部1202の詳細を示す。1601は翻訳の方向を指定する翻訳方向指定部、1603は音声認識部1204により認識された音声認識結果を表示する音声認識結果表示部、1604は用例選択部1207により、選択された用例文を表示する用例候補表示部、1605はユーザにより指定された用例を表示する用例選択結果表示部、1606は言語変換部が目的言語に変換した用例を表示する翻訳結果表示部、1607、1608はそれぞれボタン806、ボタン807に相当し、ユーザによる入力を行う。また、タッチパネル付LCD805に対して、ユーザはポインティング入力を行うことが可能である。   FIG. 16 shows details of the GUI unit 1202 displayed on the LCD 805 with a touch panel. 1601 is a translation direction designating unit that designates the direction of translation, 1603 is a speech recognition result display unit that displays a speech recognition result recognized by the speech recognition unit 1204, and 1604 displays a selected example sentence by an example selection unit 1207. 1605 is an example selection result display unit that displays an example specified by the user, 1606 is a translation result display unit that displays an example converted by the language conversion unit into a target language, and 1607 and 1608 are buttons 806, respectively. , Which corresponds to the button 807, and is input by the user. In addition, the user can perform pointing input on the LCD 805 with a touch panel.

図13は本発明に関連する技術の他の発明のソフトウェアのフローチャートである。1301は翻訳の方向を選択するステップ、1302はマイク803で音声を入力し音声認識を行うステップ、1303は音声認識結果に基づいて用例データベース1205から用例を検索するステップ、1304は検索した用例からユーザが用例の選択を行うステップ、1305はステップ1304で選択した用例を修正するか、または翻訳を行うかを決定するステップ、1306はステップ1304で選択した用例において修正する単語を選択するステップ、1307はステップ1306で選択した修正する単語に置き換え可能な単語の一覧を出力するステップ、1308はステップ1307で出力した単語の一覧からユーザが希望する単語を選択するステップ、1309はステップ1308により変更した単語に用例を置き換えるステップ。1310はステップ1305により決定された用例文を目的言語に変換するステップ、1311は、ステップ1309により目的言語に変換された用例を音声合成し、スピーカ804から出力するステップである。   FIG. 13 is a software flowchart of another invention related to the present invention. 1301 is a step of selecting a direction of translation, 1302 is a step of inputting voice by the microphone 803 and performing voice recognition, 1303 is a step of searching an example from the example database 1205 based on the voice recognition result, and 1304 is a user from the searched example Selecting an example, 1305 determining whether the example selected in step 1304 is to be modified or translated, 1306 selecting a word to be corrected in the example selected in step 1304, 1307 A step of outputting a list of words that can be replaced with the word to be corrected selected in step 1306, 1308 a step of selecting a word desired by the user from the list of words output in step 1307, and 1309 a word changed in step 1308 Steps to replace the example Flop. 1310 is a step of converting the example sentence determined in step 1305 into the target language, and 1311 is a step of synthesizing the example converted into the target language in step 1309 and outputting from the speaker 804.

以下、本発明に関連する技術の他の発明のソフトウェアの動作を図13のフローチャートと、図17から図25のタッチパネル付LCD805に表示されるGUI部1202の表示内容を参照しながら説明する。一例として、ユーザが「アスピリンはありますか」という文を翻訳したい場合について説明する。具体的には、ユーザは「薬はありますか」と入力してから、「薬」の部分を「アスピリン」に置き換える操作を行う。本発明に関連する技術の他の発明では、タッチパネルとボタンを利用して2種類の入力操作が可能であるので、以下ではタッチパネル入力、ボタン入力の順で説明する。   Hereinafter, the operation of the software of another invention related to the present invention will be described with reference to the flowchart in FIG. 13 and the display content of the GUI unit 1202 displayed on the LCD 805 with a touch panel in FIGS. As an example, a case where the user wants to translate the sentence “Are there aspirin?” Will be described. Specifically, the user inputs “Is there a medicine” and then performs an operation of replacing the “medicine” portion with “aspirin”. In another invention related to the present invention, two types of input operations can be performed using a touch panel and buttons. Therefore, description will be given below in order of touch panel input and button input.

タッチパネル入力の場合のステップ1301からステップ1303までのGUI部1202の表示内容を図17に示す。ステップ1301では、ユーザは翻訳方向指定部1701をタッチパネル入力によりクリックし日英方向の翻訳を指定する。この時、GUI部1202は翻訳方向を制御部1201に送信し、制御部1201は音声入力部1203に音声入力を指示する。ユーザはマイク803を用いて「何か薬はありますか」と発声する。音声入力部1203は、入力された音声を音声認識部1204に送信する。ステップ1302では、音声認識部1204が指定された翻訳方向に対応する音声認識を行い、誤認識を含んだ認識結果「7日薬はありますか」を制御部1201に送信したとする。制御部1201は、音声認識結果をGUI部1202、および用例選択部1207に送信する。GUI部1202は送信された音声認識結果を認識結果表示部1702に表示する。一方、ステップ1303では、用例選択部1207が音声認識結果に基づき、以下の方法で用例を検索し、検索された用例を制御部1201に送信する。   FIG. 17 shows display contents of the GUI unit 1202 from step 1301 to step 1303 in the case of touch panel input. In step 1301, the user clicks the translation direction designation unit 1701 by touch panel input and designates translation in the Japanese-English direction. At this time, the GUI unit 1202 transmits the translation direction to the control unit 1201, and the control unit 1201 instructs the voice input unit 1203 to input a voice. The user uses the microphone 803 to say “Is there any medicine?” The voice input unit 1203 transmits the input voice to the voice recognition unit 1204. In step 1302, it is assumed that the speech recognition unit 1204 performs speech recognition corresponding to the specified translation direction, and transmits a recognition result “Is there a 7-day medicine” including misrecognition to the control unit 1201. The control unit 1201 transmits the voice recognition result to the GUI unit 1202 and the example selection unit 1207. The GUI unit 1202 displays the transmitted speech recognition result on the recognition result display unit 1702. On the other hand, in step 1303, the example selection unit 1207 searches for an example by the following method based on the voice recognition result, and transmits the searched example to the control unit 1201.

用例選択部1207は、「7日薬はありますか」という音声認識結果から、用例データベース1205で定義されている重要語の集合として、「7日」,「薬」,「あり」を抽出する。   The example selection unit 1207 extracts “7 days”, “medicine”, and “yes” as a set of important words defined in the example database 1205 from the speech recognition result “Is there 7 day medicine?”.

ここで、「7日」はクラス化された単語<日数>に帰属し、「薬」はクラス化された単語<薬>に帰属する。「あり」はいかなるクラス化された単語にも帰属しない。   Here, “7 days” belongs to the classified word <days>, and “drug” belongs to the classified word <drug>. “Yes” does not belong to any classified word.

用例選択部1207は、図14の構成要素の依存関係を順次確認し、依存関係が1つ以上成立する用例の中で、成立数が多い用例から順に選択する。例えば、用例番号1の用例については、重要語の上記集合の中に「かかり」が存在しないので依存関係の成立数は0である。用例番号2の用例については、重要語の上記集合の中に「何か」が存在しないので、構成要素の依存関係の中で、(1→2)は成立しないが、(2→3)は成立する(図14参照)。したがって、依存関係の成立数は1である。   The example selection unit 1207 sequentially checks the dependency relationships of the components in FIG. 14, and sequentially selects from the examples in which the number of established relationships is large among the examples in which one or more dependency relationships are established. For example, for the example of example number 1, since there is no “over” in the above set of key words, the number of established dependency relationships is zero. As for the example of example number 2, since “something” does not exist in the above set of key words, (1 → 2) does not hold in the dependency of the constituent elements, but (2 → 3) is (See FIG. 14). Therefore, the number of established dependency relationships is 1.

用例選択部1207が、依存関係の成立数が1以上の用例を用例データベース1205の中から選択するように設計すると、図14で用例番号1の用例は選択されず、用例番号2の用例は選択される。重要語の集合の中に「何か」が存在しないので、選択された用例番号2の用例については、
・「薬はありますか」
という表記を出力する。
If the example selection unit 1207 is designed to select an example having a dependency relationship of 1 or more from the example database 1205, the example of example number 1 is not selected in FIG. 14, and the example of example number 2 is selected. Is done. Since “something” does not exist in the set of key words, for the example of the selected example number 2,
・ Is there any medicine?
Is output.

以下の説明では、用例データベース1205の中の他の用例、
・「薬ですか」
・「薬です」
が上記と同様に選択されたとして説明する。
In the following description, other examples in the example database 1205,
・ "Is it a medicine"
・ "It is a drug"
Will be described as being selected in the same manner as described above.

制御部1201は、用例選択部1207から送信された用例文をGUI部1202に送信する。GUI部1202は、選択された用例文を用例候補表示部1703に表示する。   The control unit 1201 transmits the example sentence transmitted from the example selection unit 1207 to the GUI unit 1202. The GUI unit 1202 displays the selected example sentence on the example candidate display unit 1703.

ステップ1304のGUI部1202の表示内容を図18に示す。ステップ1304では、用例候補表示部1703に表示されている用例候補の中からタッチパネル入力で1801をクリックすることにより、ユーザは自分が発声した文章を同じ文意の用例「薬はありますか」を選択する。この時、GUI部1202は選択された用例文を制御部1201に送信する。   The display content of the GUI unit 1202 in step 1304 is shown in FIG. In step 1304, the user selects an example “Is there a medicine” with the same sentence meaning by clicking 1801 on the touch panel input from the example candidates displayed on the example candidate display unit 1703. To do. At this time, the GUI unit 1202 transmits the selected example sentence to the control unit 1201.

ステップ1305のGUI部1202の表示内容を図19に示す。ステップ1305では、GUI部1202は用例結果表示部1901に選択された用例文を表示し、用例候補表示部1902をクリアする。その後、用例を決定し翻訳を行うか、用例を修正してクラス化された単語を代替可能な単語で置き換えるかを選択する。この時、ユーザは用例結果表示部1901をタッチパネルでクリックすることにより、用例を決定することが可能である。決定された用例は制御部1201に送信される。また、ユーザは用例結果表示部1901をタッチパネルでダブルクリックすることにより、用例中の単語を置き換えるモードに移行することが可能である。   The display contents of the GUI unit 1202 in step 1305 are shown in FIG. In step 1305, the GUI unit 1202 displays the selected example sentence on the example result display unit 1901 and clears the example candidate display unit 1902. After that, it is selected whether to determine the example and translate it, or to modify the example and replace the classified word with a replaceable word. At this time, the user can determine an example by clicking the example result display unit 1901 on the touch panel. The determined example is transmitted to the control unit 1201. Further, the user can shift to a mode for replacing words in the example by double-clicking the example result display unit 1901 on the touch panel.

ステップ1305で用例を決定した場合のGUI部1202の表示内容を図20に示す。ステップ1310で、制御部1201は、ユーザが決定した用例「薬はありますか」を言語変換部1210に送信する。言語変換部1210は、用例データベース1205を用いて目的言語「Any medicine」に変換し、変換結果を制御部1201に送信する。制御部1201では、変換結果をGUI部1202、および音声合成部1211に送信する。ステップ1311では、GUI部1202は、変換結果を通訳結果表示部2001に表示する。一方、音声合成部1211は、変換結果を音声合成してスピーカ804から出力する。   The display content of the GUI unit 1202 when the example is determined in step 1305 is shown in FIG. In step 1310, the control unit 1201 transmits the example “Is there any medicine” determined by the user to the language conversion unit 1210. The language conversion unit 1210 converts the target language “Any medicine” using the example database 1205 and transmits the conversion result to the control unit 1201. The control unit 1201 transmits the conversion result to the GUI unit 1202 and the speech synthesis unit 1211. In step 1311, the GUI unit 1202 displays the conversion result on the interpretation result display unit 2001. On the other hand, the voice synthesizer 1211 synthesizes the conversion result as a voice and outputs it from the speaker 804.

ステップ1306のGUI部1202の表示内容を図21に示す。ステップ1306では、ユーザがステップ1305で、単語選択モードを選択した場合に、変更する単語を選択する。この時、制御部1201は、単語選択部1208に単語選択を指示する。単語選択部1208は、用例の中からクラス化されている単語「薬」を抽出し、制御部1201に送信する。制御部1201は、GUI部1202に単語を送信し、GUI部1202は、用例結果表示部2101に表示されている「薬」に下線を引きユーザに変更可能な単語であることを表示する。ユーザはタッチパネル入力で、修正したい単語「薬」をクリックする。GUI部1202は、選択された単語を制御部1201に送信する。   The display content of the GUI unit 1202 in step 1306 is shown in FIG. In step 1306, when the user selects the word selection mode in step 1305, the word to be changed is selected. At this time, the control unit 1201 instructs the word selection unit 1208 to select a word. The word selection unit 1208 extracts the word “medicine” classified from the example and transmits it to the control unit 1201. The control unit 1201 transmits a word to the GUI unit 1202, and the GUI unit 1202 displays an underlined “medicine” displayed in the example result display unit 2101 to indicate that the word can be changed by the user. The user clicks the word “medicine” to be corrected by touch panel input. The GUI unit 1202 transmits the selected word to the control unit 1201.

ステップ1307のGUI部1202の表示内容を図22に示す。ステップ1307では、ステップ1306によりユーザに指定された単語「薬」の代替単語の一覧を表示する。制御部1201はユーザが指定した単語「薬」を代替単語選択部1209に送信する。代替単語選択部1209は、図15に示す単語クラス辞書1206を参照し、ユーザが指定した単語「薬」と同じクラスの単語
・「アスピリン」
・「かぜ薬」
・「トローチ」
・「胃腸薬」を抽出し、制御部1201に送信する。制御部1201は、GUI部1202に代替単語の一覧を送信し、GUI部1202は、リストウィンドウ2201に代替単語の一覧を表示する。
The display content of the GUI unit 1202 in step 1307 is shown in FIG. In step 1307, a list of alternative words for the word “medicine” designated by the user in step 1306 is displayed. The control unit 1201 transmits the word “drug” designated by the user to the alternative word selection unit 1209. The alternative word selection unit 1209 refers to the word class dictionary 1206 shown in FIG. 15 and is a word of the same class as the word “drug” specified by the user. “Aspirin”
・ Cold medicine
・ Troach
“Gastrointestinal” is extracted and transmitted to the control unit 1201. The control unit 1201 transmits a list of alternative words to the GUI unit 1202, and the GUI unit 1202 displays a list of alternative words in the list window 2201.

ステップ1308のGUI部1202の表示内容を図23に示す。ステップ1308は、リストウィンドウ2201に示された代替単語一覧の中から希望する単語を選択する。この時、GUI部1202はユーザのタッチパネル入力によりユーザの希望する代替単語2301をクリックすることにより代替単語「アスピリン」を取得し、制御部1201に送信する。   The display content of the GUI unit 1202 in step 1308 is shown in FIG. Step 1308 selects a desired word from the list of alternative words shown in the list window 2201. At this time, the GUI unit 1202 obtains an alternative word “aspirin” by clicking on the alternative word 2301 desired by the user through the user's touch panel input, and transmits the acquired alternative word to the control unit 1201.

ステップ1309のGUI部1202の表示内容を図24に示す。ステップ1309は、指定された代替単語「アスピリン」により用例を「アスピリンはありますか」に変更する。その後、GUI部1202は、用例結果表示部2401に表示されている用例を「アスピリンはありますか」に変更して表示する。そして、ステップ1305に戻る。   The display content of the GUI unit 1202 in step 1309 is shown in FIG. Step 1309 changes the example to “Are there aspirin” with the designated alternative word “aspirin”. After that, the GUI unit 1202 changes the example displayed in the example result display unit 2401 to “Is there aspirin?” And displays it. Then, the process returns to step 1305.

図25は、ステップ1305からステップ1308を繰り返し、ユーザがステップ1305で用例決定を選択し、「アスピリンはありますか」を目的言語「Any aspirin」に変換し、合成音声を出力するときのGUI部1202の表示内容である。   In FIG. 25, the user repeats steps 1305 to 1308, and the user selects the example determination in step 1305, converts “Is there aspirin” into the target language “Any aspirin”, and outputs a synthesized speech GUI unit 1202 Is the display content.

次に、ボタン入力の場合の場合について説明する。以下の説明では、SW1はボタン806、SW2はボタン807にそれぞれ物理的に相当する。   Next, the case of button input will be described. In the following description, SW1 physically corresponds to the button 806 and SW2 physically corresponds to the button 807.

ステップ1301からステップ1303までのGUI部1202の表示内容を図17に示す。ステップ1301では、SW1をクリックことにより日英方向の翻訳を指定し、SW2をクリックすることにより英日方向の翻訳を指定する。この場合SW1をクリックすることにより日英方向の翻訳を指定する。この時、GUI部1202は翻訳方向を制御部1201に送信し、制御部1201は音声入力部1203に音声入力を指示する。ユーザはマイクロホン803を用いて「何か薬はありますか」と発声する。音声入力部1203は、入力された音声を音声認識部1204に送信する。ステップ1302では、音声認識部1204が指定された翻訳方向に対応する音声認識を行い、誤認識を含んだ認識結果「7日薬はありますか」を制御部1201に送信したとする。制御部1201は、音声認識結果をGUI部1202、および用例選択部1207に送信する。GUI部1202は送信された音声認識結果を認識結果表示部1702に表示する。一方、ステップ1303では、用例選択部1207が音声認識結果に基づいて、用例を制御部1201に送信する。   The display contents of the GUI unit 1202 from step 1301 to step 1303 are shown in FIG. In step 1301, the translation in the Japanese-English direction is designated by clicking SW1, and the translation in the English-Japanese direction is designated by clicking SW2. In this case, click SW1 to specify Japanese-English translation. At this time, the GUI unit 1202 transmits the translation direction to the control unit 1201, and the control unit 1201 instructs the voice input unit 1203 to input a voice. The user uses the microphone 803 to say “Is there any medicine?” The voice input unit 1203 transmits the input voice to the voice recognition unit 1204. In step 1302, it is assumed that the speech recognition unit 1204 performs speech recognition corresponding to the specified translation direction, and transmits a recognition result “Is there a 7-day medicine” including misrecognition to the control unit 1201. The control unit 1201 transmits the voice recognition result to the GUI unit 1202 and the example selection unit 1207. The GUI unit 1202 displays the transmitted speech recognition result on the recognition result display unit 1702. On the other hand, in step 1303, the example selection unit 1207 transmits the example to the control unit 1201 based on the voice recognition result.

用例選択部1207は、「7日薬はありますか」という音声認識結果から、用例データベース1205で定義されている重要語の集合として、「7日」,「薬」,「あり」を抽出する。   The example selection unit 1207 extracts “7 days”, “medicine”, and “yes” as a set of important words defined in the example database 1205 from the speech recognition result “Is there 7 day medicine?”.

ここで、「7日」はクラス化された単語<日数>に帰属し、「薬」はクラス化された単語<薬>に帰属する。「あり」はいかなるクラス化された単語にも帰属しない。   Here, “7 days” belongs to the classified word <days>, and “drug” belongs to the classified word <drug>. “Yes” does not belong to any classified word.

用例選択部1207は、図14の構成要素の依存関係を順次確認し、依存関係が1つ以上成立する用例の中で、成立数が多い用例から順に選択する。例えば、用例番号1の用例については、重要語の上記集合の中に「かかり」が存在しないので依存関係の成立数は0である。用例番号2の用例については、重要語の上記集合の中に「何か」が存在しないので、構成要素の依存関係の中で、(1→2)は成立しないが、(2→3)は成立する(図14参照)。したがって、依存関係の成立数は1である。   The example selection unit 1207 sequentially checks the dependency relationships of the components in FIG. 14, and sequentially selects from the examples in which the number of established relationships is large among the examples in which one or more dependency relationships are established. For example, for the example of example number 1, since there is no “over” in the above set of key words, the number of established dependency relationships is zero. As for the example of example number 2, since “something” does not exist in the above set of key words, (1 → 2) does not hold in the dependency of the constituent elements, but (2 → 3) is (See FIG. 14). Therefore, the number of established dependency relationships is 1.

用例選択部1207が、依存関係の成立数が1以上の用例を用例データベース1205の中から選択するように設計すると、図14で用例番号1の用例は選択されず、用例番号2の用例は選択される。重要語の集合の中に「何か」が存在しないので、選択された用例番号2の用例については、
・「薬はありますか」
という表記を出力する。
If the example selection unit 1207 is designed to select an example having a dependency relationship of 1 or more from the example database 1205, the example of example number 1 is not selected in FIG. 14, and the example of example number 2 is selected. Is done. Since “something” does not exist in the set of key words, for the example of the selected example number 2,
・ Is there any medicine?
Is output.

以下の説明では、用例データベース1205の中の他の用例、
・「薬ですか」
・「薬です」
が上記と同様に選択されたとして説明する。
In the following description, other examples in the example database 1205,
・ "Is it a medicine"
・ "It is a drug"
Will be described as being selected in the same manner as described above.

制御部1201は、用例選択部1207から送信された用例文をGUI部1202に送信する。GUI部1202は、選択された用例文を用例候補表示部1703に表示する。   The control unit 1201 transmits the example sentence transmitted from the example selection unit 1207 to the GUI unit 1202. The GUI unit 1202 displays the selected example sentence on the example candidate display unit 1703.

ステップ1304のGUI部1202の表示内容を図18に示す。ステップ1304では、用例候補表示部1604に表示されている用例候補の中からボタン入力により、ユーザは自分が発声した文章を同じ文意の用例「薬はありますか」を選択する。選択方法は、SW1をクリックすることにより指定される行が一行上に移動し、またSW2をクリックすることにより、指定される行が一行下に移動する。用例を選択する場合には、SW1をダブルクリックすることにより選択する。この時、GUI部1202は選択された用例文を制御部1201に送信する。   The display content of the GUI unit 1202 in step 1304 is shown in FIG. In step 1304, the user selects an example “Is there a medicine” with the same sentence meaning by using a button input from the example candidates displayed on the example candidate display unit 1604. In the selection method, the designated line moves up by one line by clicking SW1, and the designated line moves down by one line by clicking SW2. To select an example, double-click SW1 to select it. At this time, the GUI unit 1202 transmits the selected example sentence to the control unit 1201.

ステップ1305のGUI部1202の表示内容を図19に示す。ステップ1305では、GUI部1202は用例結果表示部1901に選択された用例文を表示し、用例候補表示部1902をクリアする。その後、用例を決定し翻訳を行うか、用例を修正してクラス化された単語を代替可能な単語で置き換えるかを選択する。この時、ユーザはボタン入力でSW2をクリックすることにより、用例を決定することが可能である。決定された用例は制御部1201に送信される。また、ボタン入力でSW1をクリックすることにより、用例中の単語の置き換えモードに移行することが可能であり、制御部1201に送信される。   The display contents of the GUI unit 1202 in step 1305 are shown in FIG. In step 1305, the GUI unit 1202 displays the selected example sentence on the example result display unit 1901 and clears the example candidate display unit 1902. After that, it is selected whether to determine the example and translate it, or to modify the example and replace the classified word with a replaceable word. At this time, the user can determine an example by clicking SW2 with a button input. The determined example is transmitted to the control unit 1201. Further, by clicking SW1 with a button input, it is possible to shift to the word replacement mode in the example, and it is transmitted to the control unit 1201.

ステップ1305で用例を決定した場合のGUI部1202の表示内容を図20に示す。ステップ1310で、制御部1201は、ユーザが決定した用例「薬はありますか」を言語変換部1210に送信する。言語変換部1210は、用例データベース1205を用いて目的言語「Any medicine」に変換し、変換結果を制御部1201に送信する。制御部1201では、変換結果をGUI部1202、および音声合成部1211に送信する。ステップ1311では、GUI部1202は、変換結果を通訳結果表示部2001に表示する。一方、音声合成部1211は、変換結果を音声合成してスピーカ804から出力する。   The display content of the GUI unit 1202 when the example is determined in step 1305 is shown in FIG. In step 1310, the control unit 1201 transmits the example “Is there any medicine” determined by the user to the language conversion unit 1210. The language conversion unit 1210 converts the target language “Any medicine” using the example database 1205 and transmits the conversion result to the control unit 1201. The control unit 1201 transmits the conversion result to the GUI unit 1202 and the speech synthesis unit 1211. In step 1311, the GUI unit 1202 displays the conversion result on the interpretation result display unit 2001. On the other hand, the voice synthesizer 1211 synthesizes the conversion result as a voice and outputs it from the speaker 804.

ステップ1306のGUI部1202の表示内容を図21に示す。ステップ1306では、ユーザがステップ1305で、単語選択モードを選択した場合に、変更する単語を選択する。この時、制御部1201は、単語選択部1208に単語選択を指示する。単語選択部1208は、用例の中からクラス化されている単語「薬」を抽出し、制御部1201に送信する。制御部1201は、GUI部1202に単語を送信し、GUI部1202は、用例結果表示部2101に表示されている「薬」に下線を引きユーザに変更可能な単語であることを表示する。ユーザはボタン入力で、修正したい単語「薬」を選択する。すなわち、SW1をクリックすることにより1単語左に移動し、SW2をクリックすることにより1単語右に移動する。また、SW1をダブルクリックすることにより修正単語を選択することが可能である。GUI部1202は、選択された単語を制御部1201に送信する。   The display content of the GUI unit 1202 in step 1306 is shown in FIG. In step 1306, when the user selects the word selection mode in step 1305, the word to be changed is selected. At this time, the control unit 1201 instructs the word selection unit 1208 to select a word. The word selection unit 1208 extracts the word “medicine” classified from the example and transmits it to the control unit 1201. The control unit 1201 transmits a word to the GUI unit 1202, and the GUI unit 1202 displays an underlined “medicine” displayed in the example result display unit 2101 to indicate that the word can be changed by the user. The user selects a word “medicine” to be corrected by button input. That is, clicking SW1 moves one word to the left, and clicking SW2 moves one word to the right. It is also possible to select a correction word by double-clicking SW1. The GUI unit 1202 transmits the selected word to the control unit 1201.

ステップ1307のGUI部1202の表示内容を図22に示す。ステップ1307では、ステップ1306によりユーザに指定された単語「薬」の代替単語の一覧を表示する。制御部1201はユーザが指定した単語「薬」を代替単語選択部1209に送信する。代替単語選択部1209は、図15に示す単語クラス辞書1206を参照し、ユーザが指定した単語「薬」と同一クラスの単語
・「アスピリン」
・「かぜ薬」
・「トローチ」
・「胃腸薬」
を抽出し、制御部1201に送信する。制御部1201は、GUI部1202に代替単語の一覧を送信し、GUI部1202は、リストウィンドウ2201に代替単語の一覧を表示する。
The display content of the GUI unit 1202 in step 1307 is shown in FIG. In step 1307, a list of alternative words for the word “medicine” designated by the user in step 1306 is displayed. The control unit 1201 transmits the word “drug” designated by the user to the alternative word selection unit 1209. The alternative word selection unit 1209 refers to the word class dictionary 1206 shown in FIG. 15 and has the same class as the word “medicine” designated by the user. “Aspirin”
・ Cold medicine
・ Troach
·"Gastrointestinal drug"
Is extracted and transmitted to the control unit 1201. The control unit 1201 transmits a list of alternative words to the GUI unit 1202, and the GUI unit 1202 displays a list of alternative words in the list window 2201.

ステップ1308のGUI部1202の表示内容を図23に示す。ステップ1308は、リストウィンドウ2201に示された代替単語一覧の中から希望する単語を選択する。この時、GUI部1202はユーザのボタン入力によりユーザの希望する代替単語「アスピリン」を取得し、制御部1201に送信する。入力方法は、SW1をクリックすることにより、1単語上の単語にカーソルが移動し、SW2をクリックすることにより、1単語下の単語にカーソルが移動する。単語を選択するときは、SW1をダブルクリックすることにより選択することが可能である。   The display content of the GUI unit 1202 in step 1308 is shown in FIG. Step 1308 selects a desired word from the list of alternative words shown in the list window 2201. At this time, the GUI unit 1202 acquires the alternative word “Aspirin” desired by the user by inputting the button on the user, and transmits it to the control unit 1201. As for the input method, clicking SW1 moves the cursor to the word one word above, and clicking SW2 moves the cursor to the word one word below. When selecting a word, it is possible to select it by double-clicking SW1.

ステップ1309のGUI部1202の表示内容を図24に示す。ステップ1309は、指定された代替単語「アスピリン」により用例を「アスピリンはありますか」に変更する。その後、GUI部1202は、用例結果表示部2401に表示されている用例を「アスピリンはありますか」に変更して表示する。そして、ステップ1305に戻る。   The display content of the GUI unit 1202 in step 1309 is shown in FIG. Step 1309 changes the example to “Are there aspirin” with the designated alternative word “aspirin”. After that, the GUI unit 1202 changes the example displayed in the example result display unit 2401 to “Is there aspirin?” And displays it. Then, the process returns to step 1305.

図25は、ステップ1305からステップ1308を繰り返し、ユーザがステップ1305で、用例決定を選択し、「アスピリンはありますか」を目的言語「Any aspirin」に変換し、合成音声を出力するときのGUI部1202の表示内容である。   FIG. 25 shows the GUI section when the user repeats steps 1305 to 1308, selects the example determination in step 1305, converts “Is there aspirin” into the target language “Any aspirin”, and outputs synthesized speech 1202 is a display content.

なお、以上の説明では、GUI部1202に対するユーザの入力をタッチパネル入力、ボタン入力のそれぞれに限定して説明したが、音声認識処理を用いて音声で単語や用例を選択決定することも可能である。また、タッチパネル、ボタン、音声の各入力モダリティを組み合わせて操作することも可能である。また、一例として日本語と英語を取り上げたが、中国語など他の言語についても同様に実施可能であり、本発明に関連する技術の他の発明は言語に依存しない。   In the above description, the user input to the GUI unit 1202 is limited to the touch panel input and the button input. However, it is also possible to select and determine words and examples by voice using voice recognition processing. . It is also possible to operate by combining touch panel, button, and voice input modalities. Moreover, although Japanese and English were taken up as an example, it can be similarly implemented for other languages such as Chinese, and other inventions related to the present invention do not depend on the language.

又、本発明に関連する技術の他の発明の単語列は、上記実施の形態では、複数の単語から構成された文章の場合を例にして説明したが、これに限らず例えば、「こんにちは」の様に一つの単語から構成されていても良い。   In addition, in the above embodiment, the word string of another invention related to the technology related to the present invention has been described by taking an example of a sentence composed of a plurality of words. It may be composed of one word like

又、本発明に関連する技術の他の発明の第1の抽出・表示手段と、第2の抽出・表示手段は、上記実施の形態では、同一の表示装置により実現する場合について説明したが、これに限らず例えば、それぞれ独立した表示装置により実現する構成としても良い。   In the above embodiment, the first extraction / display unit and the second extraction / display unit of the technology related to the present invention have been described as being realized by the same display device. For example, the configuration may be realized by independent display devices.

以上説明した様に、本発明に関連する技術の他の発明の一例である音声通訳装置は、音声による入力に基づいて用例を選択し、翻訳を行う音声通訳装置であって、前記音声通訳装置のハードウェアが、音声のモダリティとして音声入出力装置を備え、画像のモダリティとして画像出力装置を備え、接触モダリティとして1個以上のボタンと画像指示装置を備え、ユーザによって前記音声入出力装置と前記画像指示装置と前記ボタンから入力される原言語に関するデータを目的言語に関するデータへ音声言語的に変換し、前記音声入出力装置と前記画像出力装置に前記出力データを出力する演算制御装置と、前記演算制御装置に前記処理の手順を指示するプログラムとデータを保持する外部大容量不揮発性記憶装置と、前記演算制御装置が外部機器と前記プログラムとデータを交換するための外部データ入出力端子と、前記演算制御装置を駆動するために必要な電源を供給する電源装置によって構成されることを特徴とする音声通訳装置である。   As described above, the speech interpreting apparatus, which is another example of the technology related to the present invention, is a speech interpreting apparatus that selects an example based on input by speech and performs translation. Hardware includes an audio input / output device as an audio modality, an image output device as an image modality, and one or more buttons and an image instruction device as a contact modality. An arithmetic control device for converting data relating to a source language input from the image instruction device and the button into data relating to a target language in a spoken language and outputting the output data to the voice input / output device and the image output device; An external large-capacity nonvolatile storage device that holds a program and data for instructing the processing procedure to the arithmetic control device, and the arithmetic control device is external And the external data input and output terminals for exchanging vessel and the program and data, a voice interpreting device characterized by being constituted by a power supply for supplying power necessary for driving the arithmetic and control unit.

又、他の一例は、上記演算制御装置としてPC/AT互換のマザーボードを使用することを特徴とする上記音声通訳装置である。   Another example is the above-described speech interpreting apparatus using a PC / AT compatible motherboard as the arithmetic and control unit.

又、他の一例は、上記の外部大容量不揮発性記憶装置として、2.5インチ以下のハードディスクドライブを使用することを特徴とする上記音声通訳装置である。   Another example is the above-described speech interpreting apparatus using a hard disk drive of 2.5 inches or less as the external large-capacity nonvolatile storage device.

又、他の一例は、上記外部大容量不揮発性記憶装置として、フラッシュメモリディスクを使用することを特徴とする上記音声通訳装置である。   Another example is the above-described speech interpreting apparatus using a flash memory disk as the external large-capacity nonvolatile storage device.

又、他の一例は、上記画像出力装置として、解像度の縦方向が240ドット以上、かつ、横方向が240ドット以上の液晶表示装置を使用することを特徴とする上記音声通訳装置である。   Another example is the above-mentioned speech interpreting apparatus using a liquid crystal display device having a resolution of 240 dots or more in the vertical direction and 240 dots or more in the horizontal direction as the image output apparatus.

又、他の一例は、上記ボタンとしては、2個の機械式ボタンを使用し、上記マザーボードにマウスを接続したときのマウスボタンに機能的に相当させることを特徴とする上記音声通訳装置である。   Another example is the voice interpreting apparatus characterized in that two buttons are used as the buttons and functionally correspond to mouse buttons when a mouse is connected to the motherboard. .

又、他の一例は、上記画像指示装置としては、上記液晶表示装置の表示面と同等の大きさ、もしくは前期表示面を包含する大きさのタッチパネルを使用することを特徴とする上記音声通訳装置である。   In another example, the voice interpreting apparatus is characterized in that a touch panel having a size equivalent to the display surface of the liquid crystal display device or a size including the previous display surface is used as the image instruction device. It is.

又、他の一例は、上記外部データ入出力端子は、上記マザーボードの入出力端子の中の、キーボード接続端子、アナログディスプレイ出力端子、ローカルエリアネットワーク端子を利用することを特徴とする上記音声通訳装置である。   In another example, the external data input / output terminal uses a keyboard connection terminal, an analog display output terminal, and a local area network terminal among the input / output terminals of the motherboard. It is.

又、他の一例は、上記音声入出力装置は、上記マザーボードのUSB端子を通じてアナログ音声データとデジタル音声データを入出力するUSBオーディオインタフェースと、ユーザの発声を収集して前記USBオーディオインタフェースに与えるマイクと、前記USBオーディオインタフェースの出力を増幅するオーディオアンプと、前記オーディオアンプに接続されるスピーカによって構成することを特徴とする上記音声通訳装置である。   In another example, the audio input / output device includes a USB audio interface that inputs and outputs analog audio data and digital audio data through the USB terminal of the motherboard, and a microphone that collects user's utterances and supplies the audio to the USB audio interface. And an audio amplifier that amplifies the output of the USB audio interface, and a speaker connected to the audio amplifier.

又、他の一例は、上記音声入出力装置は、上記マザーボードのオーディオインタフェースと、ユーザの発声を収集して前記オーディオインタフェースに与えるマイクと、前記オーディオインタフェースの出力を増幅するオーディオアンプと、前記オーディオアンプに接続されるスピーカによって構成することを特徴とする上記音声通訳装置である。   In another example, the audio input / output device includes an audio interface of the motherboard, a microphone that collects a user's utterance and applies it to the audio interface, an audio amplifier that amplifies the output of the audio interface, and the audio The voice interpreting apparatus is constituted by a speaker connected to an amplifier.

又、他の一例は、上記電源装置は、リチウムイオン2次電池によって構成されることを特徴とする上記音声通訳装置である。   In another example, the voice interpreting device is characterized in that the power supply device is constituted by a lithium ion secondary battery.

又、他の一例は、上記音声通訳装置は、ユーザが片手に持つことが可能で、かつ、前記片手の親指によってボタンを容易に操作することが可能で、かつ、他方の手で画像指示装置を操作することが可能で、かつ、画像表示装置の表示面の法線の方向と、音声入出力装置の指向性の方向が前記ユーザの顔に容易に向くようにデザインされていることを特徴とする上記音声通訳装置である。   As another example, the voice interpreting device can be held by one user in one hand, the button can be easily operated by the thumb of the one hand, and the image pointing device can be operated by the other hand. And the direction of the normal line of the display surface of the image display device and the directionality of the voice input / output device are designed to be easily directed to the user's face. The above-mentioned voice interpretation device.

又、他の一例は、上記音声通訳装置は、ボタンと画像指示装置と画像表示装置が実装される主筐体と、音声入出力装置が実装される副筐体によって構成され、前記音声通訳装置を利用しない場合は前記画像表示装置の表示面を前記副筐体が覆って保護し、かつ、前記音声通訳装置を利用する場合は前記副筐体を前記音声入出力装置の指向性の方向がユーザの顔を向く所定の位置まで移動させてから利用することを特徴とする上記音声通訳装置である。   As another example, the voice interpreting device is constituted by a main housing in which buttons, an image instruction device and an image display device are mounted, and a sub-housing in which a voice input / output device is mounted. If the voice interpreter is not used, the display surface of the image display device is covered and protected by the sub-housing, and if the voice interpreting device is used, the sub-housing has a directivity direction of the voice input / output device. The speech interpretation apparatus is used after being moved to a predetermined position facing the user's face.

又、本発明に関連する技術の他の発明の一例は、音声による入力に基づいて用例を選択し、翻訳を行う音声通訳装置において、前記音声通訳装置のソフトウェアが、ユーザとの入出力を行うGUI部と、音声を入力して音声認識を行う原言語入力部と、前記原言語入力部から入力された原言語から目的言語への翻訳を行う翻訳部と、前記翻訳部により翻訳された目的言語を音声合成して出力する音声合成部と、前記原言語入力部と前記GUI部と前記翻訳部と前記音声合成部を制御する制御部で構成されることを特徴とする音声通訳装置である。   Another example of the technology related to the present invention is an audio interpreting apparatus that selects an example based on an input by voice and performs translation. The software of the audio interpreting apparatus performs input / output with a user. A GUI unit, a source language input unit that inputs speech and performs speech recognition, a translation unit that translates from the source language input from the source language input unit to a target language, and an object translated by the translation unit A speech interpretation apparatus comprising: a speech synthesizer that synthesizes and outputs a language; and a control unit that controls the source language input unit, the GUI unit, the translation unit, and the speech synthesizer. .

又、他の一例は、上記用例としては、対話における1文を単位とすることを特徴とする上記音声通訳装置である。   Another example is the above-described speech interpreting apparatus characterized in that, as the above-mentioned example, one sentence in a dialogue is a unit.

又、他の一例は、上記用例としては、旅行会話において使用される頻度が高い文型を保持することを特徴とする上記音声通訳装置である。   Another example is the above-described speech interpreting apparatus characterized in that, as the above-described example, a sentence pattern frequently used in travel conversation is held.

又、他の一例は、上記用例に含まれる単語は、前記単語を置き換えることが可能な関連のある単語と共にクラス化されていることを特徴とする上記音声通訳装置である。   Another example is the above-described speech interpretation apparatus, wherein the words included in the above examples are classified together with related words that can replace the words.

又、他の一例は、上記原言語入力部は、制御部からの指示により音声入力を行う音声入力部と、前記音声入力部から入力される音声に対して連続音声認識を行って単語列に変換する音声認識部で構成されることを特徴とする上記音声通訳装置である。   In another example, the source language input unit includes a voice input unit that performs voice input according to an instruction from the control unit, and performs continuous voice recognition on the voice input from the voice input unit to generate a word string. The speech interpreting apparatus is configured by a speech recognition unit for conversion.

又、他の一例は、上記翻訳部は、原言語と目的言語の用例の対応を保持する用例データベースと、前記用例データベースに含まれる単語のクラス情報を保持する単語クラス辞書と、原言語入力部からの入力に基づいて、前記用例データベースから該当する用例を選択する用例選択部と、前記用例選択部により選択された用例の中から修正する単語を選択する単語選択部と、前記単語選択部により選択された単語と置き換えることが可能な単語を前記単語クラス辞書から選択する代替単語選択部と、決定された用例に基づいて前記用例データベースにより目的言語に変換する言語変換部によって構成することを特徴とする上記音声通訳装置である。   In another example, the translation unit includes an example database that holds correspondence between source language and target language examples, a word class dictionary that holds class information of words included in the example database, and a source language input unit. Based on the input from the example database, an example selection unit that selects a corresponding example from the example database, a word selection unit that selects a word to be corrected from the examples selected by the example selection unit, and the word selection unit An alternative word selection unit that selects from the word class dictionary a word that can be replaced with the selected word, and a language conversion unit that converts the target word into a target language based on the determined example. The above-mentioned voice interpretation device.

又、他の一例は、上記GUI部は、表示部に翻訳の方向を指定する翻訳方向指定部と、原言語入力部により出力される音声認識結果を表示する音声認識結果表示部と、前記用例選択部により用例データベースから選択された用例を表示する用例候補表示部と、ユーザにより選択された用例を表示する用例結果表示部と、言語変換部により出力される目的言語の用例を出力する通訳結果表示部で構成されることを特徴とする上記音声通訳装置である。   In another example, the GUI unit includes a translation direction designating unit that designates a translation direction on the display unit, a speech recognition result display unit that displays a speech recognition result output from the source language input unit, and the example. An example candidate display unit for displaying an example selected from the example database by the selection unit, an example result display unit for displaying the example selected by the user, and an interpretation result for outputting an example of the target language output by the language conversion unit It is the above-mentioned speech interpretation apparatus characterized by comprising a display unit.

又、他の一例は、上記GUI部は、ユーザが用例を用例候補表示部に表示された用例の中から選択する場合に、希望する前記用例をタッチパネル操作またはボタン操作によって選択すること特徴とする上記音声通訳装置である。   In another example, the GUI unit selects a desired example by touch panel operation or button operation when the user selects an example from examples displayed on the example candidate display unit. The voice interpreting apparatus.

又、他の一例は、上記単語選択部は、1個以上の修正可能な単語をユーザに提示する場合に、GUI部の用例結果表示部の修正可能な単語に印を付加することを特徴とする上記音声通訳装置である。   In another example, the word selection unit adds a mark to the correctable word in the example result display unit of the GUI unit when one or more correctable words are presented to the user. The voice interpreting device.

又、他の一例は、上記修正可能な単語の印は、前記単語に下線を引く、または、前記単語を反転表示する、または、前記単語を太字にする、または、前記単語を点滅表示することを特徴とする上記音声通訳装置である。   In another example, the mark of the correctable word is underlining the word, highlighting the word, bolding the word, or blinking the word. The above-mentioned speech interpreting apparatus.

又、他の一例は、上記単語選択部は、ユーザが修正単語を選択するときに、GUI部をタッチパネル操作、または、ボタン操作、または、音声認識による音声操作で決定することを特徴とする上記音声通訳装置である。   In another example, the word selection unit determines the GUI unit by touch panel operation, button operation, or voice operation by voice recognition when the user selects a correction word. It is a voice interpreting device.

又、他の一例は、上記代替単語選択部は、代替単語を選択する場合に、前記代替単語選択部が単語クラス辞書を用いて代替候補一覧を取得し、GUI部によって前記代替候補一覧をリスト状に並べて表示することを特徴とする上記音声通訳装置である。   In another example, when the alternative word selection unit selects an alternative word, the alternative word selection unit obtains an alternative candidate list using a word class dictionary, and the GUI unit lists the alternative candidate list. The voice interpreting apparatus is characterized by being displayed in a line.

又、他の一例は、上記代替候補一覧から代替候補を選択する場合は、GUI部のタッチパネル操作、または、ボタン操作、または、音声認識による音声操作によって前記代替候補を選択することを特徴とする上記音声通訳装置である。   In another example, when selecting an alternative candidate from the alternative candidate list, the alternative candidate is selected by a touch panel operation of the GUI unit, a button operation, or a voice operation by voice recognition. The voice interpreting apparatus.

又、他の一例は、上記GUI部は、ユーザが希望する用例に変更することができた場合、タッチパネル操作、または、ボタン操作によって用例を決定し、上記言語変換部によって目的言語に翻訳を行い、上記音声合成部によって前記用例の合成音声を出力することを特徴とする上記音声通訳装置である。   In another example, when the GUI unit can be changed to an example desired by the user, the example is determined by a touch panel operation or a button operation, and the language conversion unit translates the target language. The speech interpreting apparatus, wherein the speech synthesizer outputs the synthesized speech of the example.

以上述べたところから明らかなように、小型のハードウェアは音声通訳装置として、ユーザが海外旅行に出かけるときに無理なく携行することができる。また、そのユーザインタフェースは片手で簡単に操作することができるのでショッピングやレストランなど、様々なシーンで容易に利用することができる。さらに、クラスを代表する単語を用いて音声を入力し、用例を確定した後、同じクラスの関連する単語と置き換えることができるので、少ない認識対象語彙でも音声通訳装置としての利用価値が低下しない。   As is clear from the above description, the small hardware can be easily carried as a voice interpreting device when the user goes abroad. Further, since the user interface can be easily operated with one hand, it can be easily used in various scenes such as shopping and restaurants. Furthermore, since a voice is input using a word representative of a class and an example is confirmed, it can be replaced with a related word of the same class, so that even a small recognition target vocabulary does not reduce the utility value as a speech interpreter.

次に、上記従来技術における上記第2の課題を解決するための、本願発明の音声変換装置の一実施の形態の音声入力翻訳装置、及び、本発明に関連する技術の発明の音声変換装置の一例について、図面を参照しながら説明する。 Next, a speech input translation device according to an embodiment of a speech conversion device of the present invention and a speech conversion device according to a technology related to the present invention for solving the second problem in the conventional technology described above. An example will be described with reference to the drawings.

本実施の形態の構成を図26に示す。   The configuration of the present embodiment is shown in FIG.

同図に示す様に、音声入力部4101、翻訳支援部4108、音声翻訳部4102、表示部4103、音声出力部4107によって基本的な音声翻訳機能を実現する。   As shown in the figure, a basic speech translation function is realized by a speech input unit 4101, a translation support unit 4108, a speech translation unit 4102, a display unit 4103, and a speech output unit 4107.

ここで、本実施の形態の装置内部の構成については、上記実施の形態において既に説明済みであるので、ここでは詳細な説明は省略する。   Here, since the internal configuration of the apparatus according to the present embodiment has already been described in the above embodiment, a detailed description thereof is omitted here.

尚、本実施の形態の構成(図26参照)と、例えば図12に示した構成との対応関係は次の通りである。図26の音声入力部4101は、図12の音声入力部1203と対応し、音声翻訳部4102は翻訳部1220及び音声認識部1204等に対応する。又、翻訳支援部4108及び表示部4103はGUI部1202等に対応し、音声出力部4107は音声合成部1211等に対応する。   The correspondence between the configuration of the present embodiment (see FIG. 26) and the configuration shown in FIG. 12, for example, is as follows. 26 corresponds to the speech input unit 1203 in FIG. 12, and the speech translation unit 4102 corresponds to the translation unit 1220, the speech recognition unit 1204, and the like. The translation support unit 4108 and the display unit 4103 correspond to the GUI unit 1202 and the like, and the speech output unit 4107 corresponds to the speech synthesis unit 1211 and the like.

次に、本実施の形態の特有の構成部分について述べる。   Next, the characteristic components of this embodiment will be described.

図26において、言語変換方向制御部4105は2人の利用者の、どちらに翻訳装置の操作権限があるかを決定し、音声入力部4101の入力形態を制御し、音声翻訳部4102に対して翻訳方向を指定し、表示部4103の表示内容を指示する。ここで、2人の利用者の内、一方は日本語(本発明の第1の言語に対応)を使用し、他方は英語(本発明の第2の言語に対応)を使用するものとする。   In FIG. 26, the language conversion direction control unit 4105 determines which of the two users has the authority to operate the translation apparatus, controls the input form of the speech input unit 4101, and controls the speech translation unit 4102. The translation direction is designated and the display content of the display unit 4103 is designated. Here, one of the two users uses Japanese (corresponding to the first language of the present invention), and the other uses English (corresponding to the second language of the present invention). .

言語変換方向検出部4104は、言語変換方向制御部4105が操作権限のある利用者を決定するために必要な情報を収集する。対話管理部4106は、表示部4103に表示される翻訳対を逐次保持し、それを用いて、利用者の間で交わされた対話の履歴として、何れか一方の言語で表示部4103に表示する(図29参照)。   The language conversion direction detection unit 4104 collects information necessary for the language conversion direction control unit 4105 to determine a user who has operating authority. The dialogue management unit 4106 sequentially holds the translation pairs displayed on the display unit 4103, and displays them on the display unit 4103 in one of the languages as a history of dialogues exchanged between the users. (See FIG. 29).

以下の例では、図27等を参照しながら、日本語と英語についての翻訳装置の動作について説明するとともに、本発明の音声変換方法の一実施の形態についても同時に述べる。   In the following example, the operation of the translation apparatus for Japanese and English will be described with reference to FIG. 27 and the like, and an embodiment of the speech conversion method of the present invention will be described at the same time.

ここで、例えば、図27に示す様に、翻訳装置を挟んで、図中の下方側に日本語の利用者、上方側に英語の利用者が互いに向き合っているものとする。   Here, for example, as shown in FIG. 27, it is assumed that a Japanese user is facing the lower side and an English user is facing the upper side in the figure with the translation device in between.

図27の音声入力翻訳装置は、言語変換方向検出部4104がボタンである音声入力翻訳装置である。初期状態として言語変換方向制御部4105は日本語から英語への変換方向を指示していると仮定する。入力部4101はマイク4202とマイク4206で構成されるが、日本語の入力をするためにマイク4206の入力は遮断される。利用者は音声入力ボタン4201を押してから入力部4101のマイク4202に向かって発声する(例えば「くすりはありませんか」)。発声した音声は音声翻訳部4102で翻訳される。   The speech input translation device in FIG. 27 is a speech input translation device in which the language conversion direction detection unit 4104 is a button. Assume that the language conversion direction control unit 4105 indicates the conversion direction from Japanese to English as an initial state. The input unit 4101 includes a microphone 4202 and a microphone 4206, but the input of the microphone 4206 is blocked in order to input Japanese. The user presses the voice input button 4201 and then speaks into the microphone 4202 of the input unit 4101 (for example, “Is there any medicine?”). The uttered voice is translated by the voice translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

音声翻訳部4102は、音声入力部4101から日本語の音声を受け取った場合、それを音声認識し、その認識結果に対応する、日本語の一つ又は複数の単語列を抽出し、表示部4103に用例候補として表示する。   When the speech translation unit 4102 receives Japanese speech from the speech input unit 4101, the speech translation unit 4102 recognizes the speech, extracts one or more Japanese word strings corresponding to the recognition result, and displays the display unit 4103. Is displayed as an example candidate.

即ち、表示部4103の用例候補選択ウィンドウ4203に用例候補が表示されて(例えば、「薬ですか」、「薬はありますか」、「薬です」の3個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ4204に選択された用例が表示されて(例えば「薬はありますか」)、用例を翻訳した英語のテキストが音声出力部4107から発声される(例えば"Do you have medicine?")。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「薬はありますか」, "Do you have medicine?")という翻訳対)。相手の答えを求めるために、相手に翻訳装置の操作を促す場合は、言語変換方向検出部4104であるボタン4205を押す。   That is, the example candidates are displayed in the example candidate selection window 4203 of the display unit 4103 (for example, three examples of “Is it a drug”, “Is there a drug”, and “Is a drug”), and the translation support unit 4108 is displayed. When the user selects one of them (for example, selecting with the touch panel), the selected example is displayed in the example result window 4204 (for example, “Is there a medicine?”), And the English text translated from the example Is uttered from the audio output unit 4107 (for example, “Do you have medicine?”). A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, (“Do you have medicine?”, “Do you have medicine?”)). In order to prompt the other party to operate the translation apparatus, the button 4205 which is the language conversion direction detection unit 4104 is pressed in order to prompt the other party to operate the translation apparatus.

言語変換方向制御部4105は言語変換方向検出部4104からの情報に基づき、音声翻訳部4102と表示部4103に対して英語から日本語への変換方向を指示する。表示部4103の表示内容は、対面の英語の利用者が使いやすいように図28のように180°回転して、英語の表示になる。入力部4101は、英語の入力をするためにマイク4307の入力が遮断され、マイク4303が有効になる。対話履歴ウィンドウ4301には、対話管理部4106から翻訳対の英語の方が表示される。具体的には、翻訳対として、例えば、「薬はありますか」と"Do you have medicine?"とからなる翻訳対と、「はい」と"Yes, I do."とからなる翻訳対が対話管理部4106に保持されている場合、図29に示す対話履ウィンドウ4401には、(日):「薬はありますか?」、(英):「はい」が表示される。利用者は音声入力ボタン4302を押してから入力部4101のマイク4303に向かって発声する(例えば"Yes,certainly")。発声した音声は音声翻訳部41
02で翻訳される。
Based on the information from the language conversion direction detection unit 4104, the language conversion direction control unit 4105 instructs the speech translation unit 4102 and the display unit 4103 to convert from English to Japanese. The display content of the display unit 4103 is rotated by 180 ° as shown in FIG. 28 so as to be easy to use for face-to-face English users, and is displayed in English. In the input unit 4101, the input of the microphone 4307 is blocked in order to input English, and the microphone 4303 is enabled. The dialogue history window 4301 displays the English of the translation pair from the dialogue management unit 4106. Specifically, for example, a translation pair consisting of “Do you have medicine?” And “Do you have medicine?” And a translation pair consisting of “Yes” and “Yes, I do.” When held in the management unit 4106, the dialogue window 4401 shown in FIG. 29 displays (Sun): “Is there any medicine?”, (English): “Yes”. The user presses the voice input button 4302 and then speaks into the microphone 4303 of the input unit 4101 (for example, “Yes, certain”). The voice uttered is the voice translation unit 41.
Translated by 02.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

音声翻訳部4102は、音声入力部4101から英語の音声を受け取った場合、それを音声認識し、その認識結果に対応する、英語の一つ又は複数の単語列を抽出し、表示部4103に用例候補として表示する。   When the speech translation unit 4102 receives English speech from the speech input unit 4101, the speech translation unit 4102 recognizes the speech, extracts one or more English word strings corresponding to the recognition result, and displays them in the display unit 4103. Display as a candidate.

即ち、表示部4103の用例候補選択ウィンドウ4304に候補が表示されて(例えば、"Yes, I do."、"Surely."、"Certainly."の3個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ4305に選択された用例が表示されて(例えば"Yes, I do.")、用例を翻訳した日本語のテキストが音声出力部4107から発声される(例えば「はい。」)。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「はい」,"Yes, I do.")という翻訳対)。相手の答えを求めるために、相手に翻訳装置の操作を促す場合は、言語変換方向検出部4104であるボタン4306を押す。   That is, candidates are displayed in the example candidate selection window 4304 of the display unit 4103 (for example, three examples of “Yes, I do.”, “Surely.”, “Certainly.”), And the translation support unit 4108 is used. When the user selects one of them (for example, selecting with the touch panel), the selected example is displayed in the example result window 4305 (for example, “Yes, I do.”), And the translated Japanese example is displayed. The text is uttered from the voice output unit 4107 (for example, “Yes”). A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, a translation pair (“Yes”, “Yes, I do.”)). In order to prompt the other party to operate the translation apparatus, the button 4306 which is the language conversion direction detection unit 4104 is pressed.

言語変換方向制御部4105は言語変換方向検出部4104からの情報に基づき、音声翻訳部4102と表示部4103に対して日本語から英語への変換方向を指示する。表示部4103の表示内容は、対面の日本語の利用者が使いやすいように図29のように180°回転して、日本語の表示になる。入力部4101は、日本語の入力をするためにマイク4405の入力が遮断され、マイク4403が有効になる。対話履歴ウィンドウ4401には、対話管理部4106から翻訳対の日本語の方が表示される。利用者は音声入力ボタン4402を押してから入力部4101のマイク4403に向かって発声する(例えば「ありがとうございます」)。発声した音声は音声翻訳部4102で翻訳される。   Based on information from the language conversion direction detection unit 4104, the language conversion direction control unit 4105 instructs the speech translation unit 4102 and the display unit 4103 to convert from Japanese to English. The display content of the display unit 4103 is rotated by 180 ° as shown in FIG. 29 so as to be easy to use for face-to-face Japanese users, and becomes Japanese display. Since the input unit 4101 inputs Japanese, the input of the microphone 4405 is blocked and the microphone 4403 is enabled. In the dialogue history window 4401, the Japanese of the translation pair is displayed from the dialogue management unit 4106. The user presses the voice input button 4402 and then speaks into the microphone 4403 of the input unit 4101 (for example, “Thank you”). The uttered voice is translated by the voice translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ4413に候補が表示されて(例えば、「ありがとう。」の1個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ4414に選択された用例が表示されて(例えば「ありがとう。」)、用例を翻訳した日本語のテキストが音声出力部4107から発声される(例えば"Thank you.")。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「ありがとう」, "Thank you.")という翻訳対)。さらに相手の答えを求めるために、相手に翻訳装置の操作を促す場合は、言語変換方向検出部4104であるボタン4404を押す。   That is, candidates are displayed in the example candidate selection window 4413 of the display unit 4103 (for example, one example of “Thank you”), and when the user selects one of them using the translation support unit 4108 ( The selected example is displayed on the example result window 4414 (for example, “Thank you”), and the translated Japanese text is uttered from the voice output unit 4107 (for example, “Thank you. "). The translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, (Thank you, "Thank you.") Translation pair). In order to further ask the partner's answer, when the partner is prompted to operate the translation device, a button 4404 which is the language conversion direction detection unit 4104 is pressed.

図30の音声入力翻訳装置は、本発明に関連する技術の発明の一例であり、言語変換方向検出部4104がマイク4501の傾斜角度センサー4502である音声入力翻訳装置である。すなわち、マイク4501が日本語の利用者の方に傾斜しているか、英語の利用者の方に傾斜しているかを判断するために角度センサー4502を用いている。図30の状態では言語変換方向制御部4105は日本語から英語への変換方向を指示している。利用者は音声入力ボタン4503を押してから入力部4101のマイク4501に向かって発声する(例えば「くすりはありませんか」)。発声した音声は音声翻訳部4102で翻訳される。 The speech input translation device of FIG. 30 is an example of a technology invention related to the present invention, and is a speech input translation device in which the language conversion direction detection unit 4104 is the tilt angle sensor 4502 of the microphone 4501. That is, the angle sensor 4502 is used to determine whether the microphone 4501 is inclined toward the Japanese user or the English user. In the state of FIG. 30, the language conversion direction control unit 4105 indicates the conversion direction from Japanese to English. The user presses the voice input button 4503 and then speaks into the microphone 4501 of the input unit 4101 (for example, “Is there any medicine?). The uttered voice is translated by the voice translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ4504に候補が表示されて(例えば、「薬ですか」「薬はありますか」「薬です」の3個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ4505に選択された用例が表示されて(例えば「薬はありますか」)、用例を翻訳した英語のテキストが音声出力部4107から発声される(例えば"Do you have medicine?")。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「薬はありますか」, "Do you have medicine?")という翻訳対)。相手の答えを求めるために、相手に翻訳装置の操作を促す場合は、マイク4501を英語の利用者の方に向ける。   That is, candidates are displayed in the example candidate selection window 4504 of the display unit 4103 (for example, three examples of “Is it a medicine”, “Is there a medicine”, and “Is a medicine”), and are used by using the translation support unit 4108 When the user selects one of them (for example, with the touch panel), the selected example is displayed in the example result window 4505 (for example, “Is there a medicine?”), And the English text translated from the example is output as a voice. It is uttered from the part 4107 (for example, “Do you have medicine?”). A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, (“Do you have medicine?”, “Do you have medicine?”)). When the partner is prompted to operate the translation device, the microphone 4501 is pointed toward the English user.

言語変換方向制御部4105は言語変換方向検出部4104からの情報に基づき、音声翻訳部4102と表示部4103に対して英語から日本語への変換方向を指示する。表示部4103の表示内容は、対面の英語の利用者が使いやすいように図31のように180°回転して、英語の表示になる。対話履歴ウィンドウ4601には、対話管理部4106から翻訳対の英語の方が表示される。利用者は音声入力ボタン4602を押してから入力部4101のマイク4603に向かって発声する(例えば"Yes, certainly")。発声した音声は音声翻訳部4102で翻訳される。   Based on the information from the language conversion direction detection unit 4104, the language conversion direction control unit 4105 instructs the speech translation unit 4102 and the display unit 4103 to convert from English to Japanese. The display content of the display unit 4103 is rotated by 180 ° as shown in FIG. 31 so as to be easy to use for the face-to-face English user and is displayed in English. In the dialog history window 4601, the English of the translation pair is displayed from the dialog management unit 4106. The user presses the voice input button 4602 and then speaks into the microphone 4603 of the input unit 4101 (for example, “Yes, certainly”). The uttered voice is translated by the voice translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ4604に候補が表示されて(例えば、"Yes, I do."、"Surely."、"Certainly."の3個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ4605に選択された用例が表示されて(例えば"Yes, I do.")、用例を翻訳した日本語のテキストが音声出力部4107から発声される(例えば「はい。」)。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「はい」,"Yes, I do.")という翻訳対)。相手の答えを求めるために、マイク4603を日本語の利用者の方へ向ける。   That is, candidates are displayed in the example candidate selection window 4604 of the display unit 4103 (for example, three examples of “Yes, I do.”, “Surely.”, “Certainly.”), And the translation support unit 4108 is used. When the user selects one of them (for example, selecting with the touch panel), the selected example is displayed in the example result window 4605 (for example, “Yes, I do.”), And the translated Japanese example is displayed. The text is uttered from the voice output unit 4107 (for example, “Yes”). A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, a translation pair (“Yes”, “Yes, I do.”)). In order to find the answer of the other party, the microphone 4603 is pointed toward the Japanese user.

言語変換方向制御部4105は言語変換方向検出部4104からの情報に基づき、音声翻訳部4102と表示部4103に対して日本語から英語への変換方向を指示する。表示部4103の表示内容は、対面の日本語の利用者が使いやすいように図32のように180°回転して、日本語の表示になる。対話履歴ウィンドウ4701には、対話管理部4106から翻訳対の日本語の方が表示される。利用者は音声入力ボタン4702を押してから入力部4101のマイク4703に向かって発声する(例えば「ありがとうございます」)。発声した音声は音声翻訳部4102で翻訳される。   Based on information from the language conversion direction detection unit 4104, the language conversion direction control unit 4105 instructs the speech translation unit 4102 and the display unit 4103 to convert from Japanese to English. The display content of the display unit 4103 is rotated by 180 ° as shown in FIG. 32 so as to be easy to use for face-to-face Japanese users, and is displayed in Japanese. In the dialogue history window 4701, the Japanese of the translation pair is displayed from the dialogue management unit 4106. The user presses the voice input button 4702 and then speaks into the microphone 4703 of the input unit 4101 (for example, “Thank you”). The uttered voice is translated by the voice translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ4704に候補が表示されて(例えば、「ありがとう。」の1個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ4705に選択された用例が表示されて(例えば「ありがとう。」)、用例を翻訳した日本語のテキストが音声出力部4107から発声される(例えば"Thank you.")。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「ありがとう」, "Thank you.")という翻訳対)。さらに相手の答えを求めるために、相手に翻訳装置の操作を促す場合は、マイク4703を英語の利用者の方に向ける。   That is, a candidate is displayed in the example candidate selection window 4704 of the display unit 4103 (for example, one example of “Thank you”), and when the user selects one of them using the translation support unit 4108 ( The selected example is displayed in the example result window 4705 (for example, “Thank you”), and the translated Japanese text is uttered from the voice output unit 4107 (for example, “Thank you. "). The translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, (Thank you, "Thank you.") Translation pair). Further, in order to prompt the other party to operate the translation apparatus, the microphone 4703 is directed toward the English user in order to obtain the other party's answer.

図33の音声入力翻訳装置は、本発明の音声変換装置の一例であり、言語変換方向検出部4104が本体の傾きを検出するジャイロセンサー4801である音声入力翻訳装置である。ジャイロセンサーの状態で言語変換方向制御部4105は日本語から英語への変換方向を指示していると仮定する。入力部4101はマイク4802とマイク4803で構成されるが、日本語の入力をするためにマイク4803の入力は遮断される。利用者は音声入力ボタン4804を押してから入力部4101のマイク4802に向かって発声する(例えば「くすりはありませんか」)。発声した音声は音声翻訳部4102で翻訳される。 The speech input translation device of FIG. 33 is an example of the speech conversion device of the present invention, and is a speech input translation device that is a gyro sensor 4801 in which the language conversion direction detection unit 4104 detects the inclination of the main body. It is assumed that the language conversion direction control unit 4105 indicates the conversion direction from Japanese to English in the state of the gyro sensor. The input unit 4101 includes a microphone 4802 and a microphone 4803, but the input of the microphone 4803 is blocked in order to input Japanese. The user presses the voice input button 4804 and then speaks into the microphone 4802 of the input unit 4101 (for example, “Is there any medicine?). The uttered voice is translated by the voice translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ4805に候補が表示されて(例えば、「薬ですか」「薬はありますか」「薬です」の3個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ4806に選択された用例が表示されて(例えば「薬はありますか」)、用例を翻訳した英語のテキストが音声出力部4107から発声される(例えば"Do you have medicine?")。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「薬はありますか」, "Do you have medicine?")という翻訳対)。相手の答えを求めるために、相手に翻訳装置の操作を促す場合は、音声翻訳装置を相手に差し出してさかさまになるように相手に手に持ってもらう。   That is, candidates are displayed in the example candidate selection window 4805 of the display unit 4103 (for example, three examples of “Is it a medicine”, “Is there a medicine”, and “Is a medicine”), and are used by using the translation support unit 4108 When the user selects one of them (for example, with the touch panel), the selected example is displayed in the example result window 4806 (for example, “Is there any medicine?”), And the English text translated from the example is output as a voice. It is uttered from the part 4107 (for example, “Do you have medicine?”). A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, (“Do you have medicine?”, “Do you have medicine?”)). In order to ask the other party's answer, when the other party is prompted to operate the translation apparatus, the other party is held upside down by holding the speech translation apparatus upside down.

言語変換方向制御部4105はジャイロセンサー4901からの情報に基づき、音声翻訳部4102と表示部4103に対して英語から日本語への変換方向を指示する。表示部4103の表示内容は、対面の英語の利用者が使いやすいように図34のように180°回転して、英語の表示になる。入力部4101は、英語の入力をするためにマイク4902の入力が遮断され、マイク4903が有効になる。対話履歴ウィンドウ4904には、対話管理部4106から翻訳対の英語の方が表示される。利用者は音声入力ボタン4905を押してから入力部4101のマイク4903に向かって発声する(例えば"Yes, certainly")。発声した音声は音声翻訳部4102で翻訳される。
尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。
Based on the information from the gyro sensor 4901, the language conversion direction control unit 4105 instructs the speech translation unit 4102 and the display unit 4103 to convert from English to Japanese. The display content of the display unit 4103 is rotated by 180 ° as shown in FIG. 34 so as to be easy to use for the face-to-face English user and is displayed in English. In the input unit 4101, the input of the microphone 4902 is blocked in order to input English, and the microphone 4903 is enabled. In the dialogue history window 4904, the English of the translation pair is displayed from the dialogue management unit 4106. The user presses the voice input button 4905 and then speaks into the microphone 4903 of the input unit 4101 (for example, “Yes, certainly”). The uttered voice is translated by the voice translation unit 4102.
Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ4906に候補が表示されて(例えば、"Yes, I do."、"Surely."、"Certainly."の3個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ4907に選択された用例が表示されて(例えば"Yes,I do.")、用例を翻訳した日本語のテキストが音声出力部4107から発声される(例えば「はい。」)。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「はい」,"Yes, I do.")という翻訳対)。相手の答えを求めるために、相手に翻訳装置の操作を促す場合は、音声翻訳装置を相手に差し出してさかさまになるように相手に手に持ってもらう。   In other words, candidates are displayed in the example candidate selection window 4906 of the display unit 4103 (for example, three examples of “Yes, I do.”, “Surely.”, “Certainly.”), And the translation support unit 4108 is used. When the user selects one of them (for example, using the touch panel), the selected example is displayed in the example result window 4907 (for example, “Yes, I do.”), And the translated Japanese example is displayed. The text is uttered from the voice output unit 4107 (for example, “Yes”). A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, a translation pair (“Yes”, “Yes, I do.”)). In order to ask the other party's answer, when the other party is prompted to operate the translation apparatus, the other party is held upside down by holding the speech translation apparatus upside down.

言語変換方向制御部4105はジャイロセンサー5001からの情報に基づき、音声翻訳部4102と表示部4103に対して日本語から英語への変換方向を指示する。表示部4103の表示内容は、対面の日本語の利用者が使いやすいように図35のように180°回転して、日本語の表示になる。入力部4101は、日本語の入力をするためにマイク5002の入力が遮断され、マイク5003が有効になる。対話履歴ウィンドウ5004には、対話管理部4106から翻訳対の日本語の方が表示される。利用者は音声入力ボタン5005を押してから入力部4101のマイク5003に向かって発声する(例えば「ありがとうございます」)。発声した音声は音声翻訳部4102で翻訳される。   Based on information from the gyro sensor 5001, the language conversion direction control unit 4105 instructs the speech translation unit 4102 and the display unit 4103 to convert from Japanese to English. The display content of the display unit 4103 is rotated by 180 ° as shown in FIG. 35 so as to be easy to use for the face-to-face Japanese user and is displayed in Japanese. Since the input unit 4101 inputs Japanese, the input of the microphone 5002 is blocked and the microphone 5003 is enabled. In the dialogue history window 5004, the Japanese of the translation pair is displayed from the dialogue management unit 4106. The user presses the voice input button 5005 and then speaks into the microphone 5003 of the input unit 4101 (for example, “Thank you”). The uttered voice is translated by the voice translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ5006に候補が表示されて(例えば、「ありがとう。」の1個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ5007に選択された用例が表示されて(例えば「ありがとう。」)、用例を翻訳した日本語のテキストが音声出力部4107から発声される(例えば"Thank you.")。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「ありがとう」, "Thank you.")という翻訳対)。さらに相手の答えを求めるために、相手に翻訳装置の操作を促す場合は、音声翻訳装置を相手に差し出してさかさまになるように相手に手に持ってもらう。   That is, candidates are displayed in the example candidate selection window 5006 of the display unit 4103 (for example, one example of “Thank you”), and when the user selects one of them using the translation support unit 4108 ( The selected example is displayed in the example result window 5007 (for example, “Thank you”), and the translated Japanese text is uttered from the voice output unit 4107 (for example, “Thank you. "). The translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, (Thank you, "Thank you.") Translation pair). In order to further ask the partner's answer, when the partner is prompted to operate the translation device, the partner is held in the hand so that the speech translation device is turned upside down.

図36の音声入力翻訳装置は、本発明に関連する技術の発明の一例であり、入力部4101と言語変換方向検出部4104が音源の方向を検出可能なマイクアレーユニット5101である音声入力翻訳装置である。マイクアレーユニット5101は、音源の方向を特定してから、指向性の鋭い集音を行う機能を持つものであり、一般的に幾何学的に配置される複数のマイクユニットと各マイクユニットからの出力をデジタル信号処理して1つの出力に変換する演算装置によって構成される。 The speech input translation device of FIG. 36 is an example of the invention of the technology related to the present invention, and the speech input translation device is the microphone array unit 5101 in which the input unit 4101 and the language conversion direction detection unit 4104 can detect the direction of the sound source. It is. The microphone array unit 5101 has a function of collecting sound with sharp directivity after specifying the direction of the sound source. Generally, the microphone array unit 5101 includes a plurality of microphone units arranged geometrically and each microphone unit. It is constituted by an arithmetic unit that converts an output into a single output by digital signal processing.

日本語の利用者が発声を開始すると(例えば「あの、」)、マイクアレーユニット5101は発声者の音声の方向を検出し、発声可能状態となる。発声可能状態でない間は表示部4103の背景色が利用者に注意を促す色で(例えば赤色)、発生可能状態になると許可を与えられた色になる(例えば緑色)。マイクアレーユニット5101の情報に基づき言語変換方向制御部4105は日本語から英語への変換方向を指示する。発生可能状態で、利用者が発声すると(例えば「くすりはありませんか」)、発声した音声は音声翻訳部4102で翻訳される。   When a Japanese user starts to speak (for example, “no,”), the microphone array unit 5101 detects the direction of the voice of the speaker, and is ready to speak. The background color of the display unit 4103 is a color that alerts the user (for example, red) while the utterance is not possible, and the permission color is given (for example, green) when the utterance is possible. Based on the information of the microphone array unit 5101, the language conversion direction control unit 4105 instructs the conversion direction from Japanese to English. When the user utters in a state where it can be generated (for example, “Is there any medicine?), The uttered speech is translated by the speech translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ5102に候補が表示されて(例えば、「薬ですか」「薬はありますか」「薬です」の3個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ5103に選択された用例が表示されて(例えば「薬はありますか」)、用例を翻訳した英語のテキストが音声出力部4107から発声される(例えば"Do you have medicine?")。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「薬はありますか」, "Do you have medicine?")という翻訳対)。   That is, candidates are displayed in the example candidate selection window 5102 of the display unit 4103 (for example, three examples of “Is it a medicine”, “Is there a medicine”, and “Is a medicine”), and are used by using the translation support unit 4108 When the user selects one of them (for example, with the touch panel), the selected example is displayed in the example result window 5103 (for example, “Is there a medicine?”), And the English text translated from the example is output as a voice. It is uttered from the part 4107 (for example, “Do you have medicine?”). A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, (“Do you have medicine?”, “Do you have medicine?”)).

相手が答えるために発声を開始すると(例えば"Hmm,")、マイクアレーユニット5201は発声者の音声の方向を検出し、発声可能状態となる。言語変換方向制御部4105はマイクアレーユニット5201からの情報に基づき、音声翻訳部4102と表示部4103に対して英語から日本語への変換方向を指示する。表示部4103の表示内容は、対面の英語の利用者が使いやすいように図37のように180°回転して、英語の表示になる。対話履歴ウィンドウ5202には、対話管理部4106から翻訳対の英語の方が表示される。発声可能状態で、英語の利用者が発声すると(例えば"Yes,certainly")、発声した音声は音声翻訳部4102で翻訳される。   When the other party starts speaking to answer (for example, “Hmm,”), the microphone array unit 5201 detects the direction of the voice of the speaker and is ready to speak. Based on information from the microphone array unit 5201, the language conversion direction control unit 4105 instructs the speech translation unit 4102 and the display unit 4103 to convert from English to Japanese. The display content of the display unit 4103 is rotated by 180 ° as shown in FIG. 37 so as to be easy to use for the face-to-face English user and is displayed in English. In the dialogue history window 5202, the English of the translation pair is displayed from the dialogue management unit 4106. When an English user speaks in a utterable state (for example, “Yes, certain”), the uttered speech is translated by the speech translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ5203に候補が表示されて(例えば、"Yes, I do."、"Surely."、"Certainly."の3個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ5204に選択された用例が表示されて(例えば"Yes,I do.")、用例を翻訳した日本語のテキストが音声出力部4107から発声される(例えば「はい。」)。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「はい」,"Yes, I do.")という翻訳対)。   That is, candidates are displayed in the example candidate selection window 5203 of the display unit 4103 (for example, three examples of “Yes, I do.”, “Surely.”, “Certainly.”), And the translation support unit 4108 is used. When the user selects one of them (for example, selecting with the touch panel), the selected example is displayed in the example result window 5204 (for example, “Yes, I do.”), And the translated Japanese example is displayed. The text is uttered from the voice output unit 4107 (for example, “Yes”). A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, a translation pair (“Yes”, “Yes, I do.”)).

相手が答えるために発声を開始すると(例えば「あ、」)、マイクアレーユニット5301は発声者の音声の方向を検出し、発声可能状態となる。言語変換方向制御部4105はマイクアレーユニット5301からの情報に基づき、音声翻訳部4102と表示部4103に対して日本語から英語への変換方向を指示する。表示部4103の表示内容は、対面の日本語の利用者が使いやすいように図38のように180°回転して、日本語の表示になる。対話履歴ウィンドウ5302には、対話管理部4106から翻訳対の日本語の方が表示される。発生可能状態で、利用者が発声すると(例えば「ありがとう」)、発声した音声は音声翻訳部4102で翻訳される。   When the other party starts speaking to answer (for example, “Ah,”), the microphone array unit 5301 detects the direction of the voice of the speaker and becomes ready to speak. Based on information from the microphone array unit 5301, the language conversion direction control unit 4105 instructs the speech translation unit 4102 and the display unit 4103 to convert from Japanese to English. The display content of the display unit 4103 is rotated by 180 degrees as shown in FIG. In the dialogue history window 5302, the Japanese of the translation pair is displayed from the dialogue management unit 4106. When the user utters (eg, “thank you”) in a state where it can be generated, the uttered speech is translated by the speech translation unit 4102.

尚、翻訳部4102における翻訳の動作は、上記実施の形態において図14等を参照して説明しているので、ここでは、詳細な説明は省略するが、概要は以下の通りである。   Note that the translation operation in the translation unit 4102 has been described with reference to FIG. 14 and the like in the above embodiment, and therefore, detailed description thereof is omitted here, but the outline is as follows.

即ち、表示部4103の用例候補選択ウィンドウ5303に候補が表示されて(例えば、「ありがとう。」の1個の用例)、翻訳支援部4108を用いて利用者がその中から1つを選択すると(例えばタッチパネルで選択)、用例結果ウィンドウ5304に選択された用例が表示されて(例えば「ありがとう。」)、用例を翻訳した日本語のテキストが音声出力部4107から発声される(例えば"Thank you.")。表示部4103から対話管理部4106に翻訳対が送られる(例えば、(「ありがとう」, "Thank you.")という翻訳対)。   That is, candidates are displayed in the example candidate selection window 5303 of the display unit 4103 (for example, one example of “Thank you”), and when the user selects one of them using the translation support unit 4108 ( The selected example is displayed in the example result window 5304 (for example, “Thank you”), and the Japanese text translated from the example is uttered from the voice output unit 4107 (for example, “Thank you. "). The translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, (Thank you, "Thank you.") Translation pair).

なお、タッチパネル、ボタン、音声の各入力モダリティを組み合わせたり、ボタンをタッチパネルで置換して操作することも可能である。また、一例として日本語と英語を取り上げたが、中国語など他の言語についても同様に実施可能であり、本発明は言語に依存しない。   The touch panel, buttons, and voice input modalities can be combined, or the buttons can be replaced with the touch panel. Moreover, although Japanese and English were taken as an example, it can implement similarly about other languages, such as Chinese, and this invention does not depend on a language.

以上述べたことから明らかなように、上記構成によれば、表示部に一方の言語の操作画面が全面に表示されるので、小さい表示部であっても翻訳装置の使い勝手が維持される。また、画面の内容から操作権限がどちらにあるのかが理解しやすく、2人の発声が重なることがない。したがって、音声認識の認識率が低下せず、翻訳装置としての性能が低下しない。   As is clear from the above description, according to the above configuration, since the operation screen of one language is displayed on the entire surface of the display unit, the usability of the translation apparatus is maintained even with a small display unit. In addition, it is easy to understand which operation authority is in accordance with the contents of the screen, so that the two utterances do not overlap. Therefore, the recognition rate of voice recognition does not decrease, and the performance as a translation device does not decrease.

尚、上記実施の形態では、第2の言語については、翻訳結果の表示とともに、音声出力も行う場合について説明したが、これに限らず例えば、翻訳結果の表示のみの構成でも良い。   In the above-described embodiment, the second language has been described with respect to the case where the voice output is performed together with the display of the translation result. However, the present invention is not limited to this.

又、上記実施の形態では、2人の利用者が、翻訳装置を挟んで対面する形で同装置を使用する場合について説明したが、これに限らず例えば、2人が並んで同装置を使用する構成としても良い。   In the above embodiment, a case has been described in which two users use the device in a form facing each other with the translation device interposed therebetween. However, the present invention is not limited to this. For example, two people use the device side by side. It is good also as composition to do.

具体的には、図39、図40に示す構成となる。これらの図に示す通り、第1の言語(例えば、日本語)の利用者は、音声入力ボタン4201aを使用し、第2の言語(例えば、英語)の利用者は、音声入力ボタン4201bを使用する。この構成では、マイク5501が装置の上部中央に一つ設けられている。この場合にも上記構成と同様の効果発揮する。 Specifically, the configuration is as shown in FIGS. 39 and 40. As shown in these figures, a user in the first language (for example, Japanese) uses the voice input button 4201a, and a user in the second language (for example, English) uses the voice input button 4201b. To do. In this configuration, one microphone 5501 is provided in the upper center of the apparatus. In this case the same effect as the above configuration.

又、上記実施の形態では、例えば、図27、図28に示す様に用例結果を翻訳対象とする場合について説明したが、これに限らず例えば、用例結果ウィンドウ4204に表示された単語列の中から、ユーザにより指定された単語の代替単語の一覧を表示して、その代替単語の中から、所望の単語を選択し、その選択結果を反映したものを翻訳対象とする構成でも良い。即ち、この場合の構成は、図21〜図24で述べた構成を、図27等に示す構成に適用したものである。   In the above-described embodiment, for example, as shown in FIGS. 27 and 28, the case where the example result is to be translated has been described. However, the present invention is not limited to this. For example, in the word string displayed in the example result window 4204 Then, a list of alternative words for the word specified by the user may be displayed, a desired word may be selected from the alternative words, and a result reflecting the selection result may be a translation target. That is, the configuration in this case is obtained by applying the configuration described in FIGS. 21 to 24 to the configuration shown in FIG.

具体的には、図41〜図44に示す構成となる。即ち、用例結果ウィンドウ4204aに表示された単語列の中から、ユーザにより指定(図41)された単語の代替単語の一覧を表示して(図42)、その代替単語の中から、所望の単語として例えば、アスピリンの単語2301を選択し(図43)、その選択結果を反映した用例結果を用例結果ウィンドウ4204aに表示して(図44)、それを翻訳対象とするものである。その後の翻訳動作等は、図28等に示した内容と同じである。これにより翻訳対象の幅がより広がり使用性が向上する。   Specifically, the configuration shown in FIGS. That is, a list of alternative words for the word specified by the user (FIG. 41) is displayed from the word string displayed in the example result window 4204a (FIG. 42), and the desired word is displayed from the alternative words. For example, an aspirin word 2301 is selected (FIG. 43), and an example result reflecting the selection result is displayed in an example result window 4204a (FIG. 44), which is to be translated. Subsequent translation operations and the like are the same as those shown in FIG. As a result, the range of translation objects is further expanded and usability is improved.

本発明に関連する技術の発明は、上述した音声変換装置の全部又は一部の手段(又は、素子、回路、部等)の機能をコンピュータにより実行させるためのプログラムであって、コンピュータと協働して動作するプログラムである。 Invention of the technology related to the present invention, all or part of the means of the above-described voice conversion apparatus (or, elements, circuits, parts etc.) A program for executing the functions of the computer, and the computer It is a program that works in cooperation.

又、本発明に関連する技術の発明は、上述した音声変換方法の全部又は一部のステップ(又は、工程、動作、作用等)の動作をコンピュータにより実行させるためのプログラムであって、コンピュータと協働して動作するプログラムである。 Further, the invention of techniques related to the present invention, all or part of the steps of the voice conversion method described above (or processes, operations, actions, etc.) A program for causing a computer to execute the operations of A program that operates in cooperation with a computer.

又、本発明に関連する技術の発明は、上述した音声変換方法の全部又は一部のステップの全部又は一部の動作をコンピュータにより実行させるためのプログラムを担持した媒体であり、コンピュータにより読み取り可能且つ、読み取られた前記プログラムが前記コンピュータと協動して前記動作を実行する媒体である。 Further, the invention of techniques related to the present invention is a carrying medium a program for implementing the whole or part of the steps of the whole or a computer part of the operation of the voice conversion method described above, by a computer It is a readable medium and the read program is a medium for executing the operation in cooperation with the computer.

又、本発明に関連する技術の発明は、上述した音声変換装置の全部又は一部の手段の全部又は一部の機能をコンピュータにより実行させるためのプログラムを担持した媒体であり、コンピュータにより読み取り可能且つ、読み取られた前記プログラムが前記コンピュータと協動して前記機能を実行する媒体である。 Further, the invention of techniques related to the present invention is a carrying medium a program for implementing the whole or a computer part of the functions of all or part of the means of the above-described voice conversion device, a computer It is a medium that can be read and the read program executes the function in cooperation with the computer.

又、本発明に関連する技術の発明の一部の手段(又は、装置、素子、回路、部等)、本発明に関連する技術の発明の一部のステップ(又は、工程、動作、作用等)とは、それらの複数の手段又はステップの内の、幾つかの手段又はステップを意味し、あるいは、一つの手段又はステップの内の、一部の機能又は一部の動作を意味するものである。 Also, part of the means of the invention of techniques related to the present invention (or devices, elements, circuits, parts etc.), some of the steps of the invention techniques related to the present invention (or processes, operations, actions, etc. ) Means several means or steps among the plurality of means or steps, or means some function or part of operation within one means or step. is there.

又、本発明に関連する技術の発明の一部の装置(又は、素子、回路、部等)とは、それらの複数の装置の内の、幾つかの装置を意味し、あるいは、一つの装置の内の、一部の手段(又は、素子、回路、部等)を意味し、あるいは、一つの手段の内の、一部の機能を意味するものである。 Further, a part of the invention (or an element, a circuit, a part, etc.) of the technology related to the present invention means several devices among the plurality of devices, or one device. Means a part (or an element, a circuit, a part, etc.), or means a part of the function of one means.

又、本発明に関連する技術の発明のプログラムの一利用形態は、コンピュータにより読み取り可能な記録媒体に記録され、コンピュータと協働して動作する態様であっても良い。 Further, one use form of the invention program of the technology related to the present invention may be an aspect in which the program is recorded on a computer-readable recording medium and operates in cooperation with the computer.

又、本発明に関連する技術の発明のプログラムの一利用形態は、伝送媒体中を伝送し、コンピュータにより読みとられ、コンピュータと協働して動作する態様であっても良い。 Further, one use form of the invention program of the technology related to the present invention may be an aspect in which the program is transmitted through a transmission medium, read by a computer, and operated in cooperation with the computer.

又、記録媒体としては、ROM等が含まれ、伝送媒体としては、インターネット等の伝送媒体、光・電波・音波等が含まれる。   The recording medium includes a ROM and the like, and the transmission medium includes a transmission medium such as the Internet, light, radio waves, sound waves, and the like.

又、上述した本発明のコンピュータは、CPU等の純然たるハードウェアに限らず、ファームウェアや、OS、更に周辺機器を含むものであっても良い。   The computer of the present invention described above is not limited to pure hardware such as a CPU, but may include firmware, an OS, and peripheral devices.

尚、以上説明した様に、本発明の構成は、ソフトウェア的に実現しても良いし、ハードウェア的に実現しても良い。   As described above, the configuration of the present invention may be realized by software or hardware.

本発明にかかる音声変換装置は、従来に比べて表示内容についての使用性の向上を図る事が出来るという効果を有し、例えば、音声入力された原言語の発声を目的言語に変換して音声出力する音声変換装置として有用である。 Speech conversion equipment according to the present invention has the effect that it is possible to improve the usability of the display contents in comparison with the prior art, for example, it converts the utterance of the speech input original language into the target language useful as a speech conversion equipment for audio output.

本発明に関連する技術の他の発明の一実施の形態の音声通訳装置のハードウェア構成を示すブロック図The block diagram which shows the hardware constitutions of the speech interpretation apparatus of one Embodiment of the technique related to this invention of one another PC/AT互換のマザーボードを使用した場合の図1の詳細なブロック図Detailed block diagram of Figure 1 when using a PC / AT compatible motherboard 画像出力装置204の詳細なブロック図Detailed block diagram of the image output device 204 画像指示装置205およびボタン206の詳細なブロック図Detailed block diagram of image pointing device 205 and button 206 音声入出力装置203の詳細なブロック図Detailed block diagram of the voice input / output device 203 音声通訳装置を利用しないときの筐体の全体図Overall view of the cabinet when not using the voice interpreter (a)は図6に示す音声通訳装置の詳細な構造を示す正面図(b)は図6に示す音声通訳装置の詳細な構造を示す側面図 (c)は図6に示す音声通訳装置の詳細な構造を示す平面図(A) is a front view showing the detailed structure of the speech interpreting apparatus shown in FIG. 6, (b) is a side view showing the detailed structure of the speech interpreting apparatus shown in FIG. 6, and (c) is a side view of the speech interpreting apparatus shown in FIG. Plan view showing detailed structure 音声通訳装置を利用するときの筐体の全体図Overall view of the housing when using the voice interpreter (a)は図8に示す音声通訳装置の詳細な構造を示す正面図 (b)は図8に示す音声通訳装置の詳細な構造を示す側面図 (c)は図8に示す音声通訳装置の詳細な構造を示す平面図(A) is a front view showing the detailed structure of the speech interpreting apparatus shown in FIG. 8. (b) is a side view showing the detailed structure of the speech interpreting apparatus shown in FIG. 8. (c) is the side view of the speech interpreting apparatus shown in FIG. Plan view showing detailed structure (a)は主筐体801に図2の各構成要素を実装する方法を示すための正面図 (b)は主筐体801に図2の各構成要素を実装する方法を示すための側面図 (c)は主筐体801に図2の各構成要素を実装する方法を示すための平面図2A is a front view for illustrating a method of mounting each component of FIG. 2 on the main housing 801. FIG. 2B is a side view for illustrating a method of mounting each component of FIG. (C) is a plan view showing a method of mounting each component of FIG. 2 on the main housing 801 (a)は副筐体802に図2の各構成要素を実装する方法を示すための正面図 (b)は副筐体802に図2の各構成要素を実装する方法を示すための側面図 (c)は副筐体802に図2の各構成要素を実装する方法を示すための平面図2A is a front view for illustrating a method for mounting each component in FIG. 2 on the sub-housing 802. FIG. 4B is a side view for illustrating a method for mounting each component in FIG. (C) is a top view for showing the method of mounting each component of FIG. 本発明に関連する技術の他の発明の一実施の形態の音声通訳装置のソフトウェアの構成を示すブロック図The block diagram which shows the structure of the software of the speech interpretation apparatus of one Embodiment of the technique relevant to this invention. ソフトウェアの処理の流れを示すフローチャートFlow chart showing the flow of software processing 用例データベース1205の内容の一例を示す図The figure which shows an example of the content of the example database 1205 単語クラス辞書1206の内容の一例を示す図The figure which shows an example of the content of the word class dictionary 1206 GUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 ステップ1301から1303までのGUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 from step 1301 to 1303 ステップ1304の処理におけるGUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 in the process of step 1304. ステップ1305の処理におけるGUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 in the process of step 1305. ステップ1310から1311までの処理におけるGUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 in the process from step 1310 to 1311 ステップ1306の処理におけるGUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 in the process of step 1306. ステップ1307の処理におけるGUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 in the process of step 1307. ステップ1308の処理におけるGUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 in the process of step 1308. ステップ1309の処理におけるGUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 in the process of step 1309 ステップ1310から1311までの処理におけるGUI部1202の表示内容を示す図The figure which shows the display content of the GUI part 1202 in the process from step 1310 to 1311 本発明の一実施の形態の音声入力翻訳装置の構成を示すブロック図The block diagram which shows the structure of the speech input translation apparatus of one embodiment of this invention 言語変換方向検出部4104がボタンである音声翻訳装置の日本語の利用を示す図The figure which shows utilization of the Japanese of the speech translation apparatus whose language conversion direction detection part 4104 is a button 言語変換方向検出部4104がボタンである音声翻訳装置の英語の利用を示す図The figure which shows utilization of English of the speech translation apparatus whose language conversion direction detection part 4104 is a button 言語変換方向検出部4104がボタンである音声翻訳装置の日本語の利用を示す図The figure which shows utilization of the Japanese of the speech translation apparatus whose language conversion direction detection part 4104 is a button 言語変換方向検出部4104がマイク軸の角度センサーである音声翻訳装置の日本語の利用を示す図The figure which shows utilization of the Japanese of the speech translation apparatus whose language conversion direction detection part 4104 is an angle sensor of a microphone axis | shaft. 言語変換方向検出部4104がマイク軸の角度センサーである音声翻訳装置の英語の利用を示す図The figure which shows utilization of English of the speech translation apparatus whose language conversion direction detection part 4104 is an angle sensor of a microphone axis | shaft. 言語変換方向検出部4104がマイク軸の角度センサーである音声翻訳装置の日本語の利用を示す図The figure which shows utilization of the Japanese of the speech translation apparatus whose language conversion direction detection part 4104 is an angle sensor of a microphone axis | shaft. 言語変換方向検出部4104がジャイロセンサーである音声翻訳装置の日本語の利用を示す図The figure which shows utilization of the Japanese of the speech translation apparatus whose language conversion direction detection part 4104 is a gyro sensor. 言語変換方向検出部4104がジャイロセンサーである音声翻訳装置の英語の利用を示す図The figure which shows utilization of English of the speech translation apparatus whose language conversion direction detection part 4104 is a gyro sensor. 言語変換方向検出部4104がジャイロセンサーである音声翻訳装置の日本語の利用を示す図The figure which shows utilization of the Japanese of the speech translation apparatus whose language conversion direction detection part 4104 is a gyro sensor. 入力部4101と言語変換方向検出部4104がマイクアレーユニットである音声翻訳装置の日本語の利用を示す図The figure which shows utilization of the Japanese of the speech translation apparatus whose input part 4101 and language conversion direction detection part 4104 are microphone array units. 入力部4101と言語変換方向検出部4104がマイクアレーユニットである音声翻訳装置の英語の利用を示す図The figure which shows utilization of English of the speech translation apparatus whose input part 4101 and the language conversion direction detection part 4104 are microphone array units. 入力部4101と言語変換方向検出部4104がマイクアレーユニットである音声翻訳装置の日本語の利用を示す図The figure which shows utilization of the Japanese of the speech translation apparatus whose input part 4101 and language conversion direction detection part 4104 are microphone array units. 本発明の別の実施の形態の音声翻訳装置の日本語の利用を説明するための図The figure for demonstrating utilization of the Japanese of the speech translation apparatus of another embodiment of this invention 本発明の別の実施の形態の音声翻訳装置の英語の利用を説明するための図The figure for demonstrating utilization of English of the speech translation apparatus of another embodiment of this invention 本発明の更に別の実施の形態の音声翻訳装置の日本語の利用における代替単語の機能を説明するための図The figure for demonstrating the function of the alternative word in utilization of the Japanese of the speech translation apparatus of another embodiment of this invention. 本発明の更に別の実施の形態の音声翻訳装置の日本語の利用における代替単語の機能を説明するための図The figure for demonstrating the function of the alternative word in utilization of the Japanese of the speech translation apparatus of another embodiment of this invention. 本発明の更に別の実施の形態の音声翻訳装置の日本語の利用における代替単語の機能を説明するための図The figure for demonstrating the function of the alternative word in utilization of the Japanese of the speech translation apparatus of another embodiment of this invention. 本発明の更に別の実施の形態の音声翻訳装置の日本語の利用における代替単語の機能を説明するための図The figure for demonstrating the function of the alternative word in utilization of the Japanese of the speech translation apparatus of another embodiment of this invention.

符号の説明Explanation of symbols

101 演算制御装置
102 音声入出力装置
103 画像出力装置
104 外部大容量不揮発性記憶装置
105 画像指示装置
106 ボタン
107 外部データ入出力端子
108 電源装置
201 マザーボード
202 2.5インチハードディスクドライブ
203 音声入出力装置
204 画像出力装置
205 画像指示装置
206 ボタン
207 外部データ出力端子
208 Li-ion2次電池
301 バックライト付4インチVGALCDユニット
302 マザーボード
401 タッチパネルコントローラ
402 3.8インチ感圧式タッチパネル
403 ボタン
404 ボタン
405 マザーボード
501 スピーカ
502 オーディオアンプ
503 マイク
504 USBオーディオデバイス
505 マザーボード
601 主筐体
602 副筐体
603 ボタン
604 ボタン
701 正面図
702 右側面図
703 上面図
801 主筐体
802 副筐体
803 マイク
804 スピーカ
805 タッチパネル付LCD
901 正面図
902 右側面図
903 上面図
1001 正面図
1002 右側面図
1003 上面図
1004 マザーボード
1005 タッチパネル付LCD
1006 2.5インチハードディスクドライブ
1007 ボタン
1008 ボタン
1101 正面図
1102 右側面図
1103 上面図
1104 マイク
1105 スピーカ
1106 USBオーディオデバイス
1107 オーディオアンプ
1201 制御部
1202 GUI部
1203 音声入力部
1204 音声認識部
1205 用例データベース
1206 単語クラス辞書
1207 用例選択部
1208 単語選択部
1209 代替単語選択部
1210 言語変換部
1211 音声合成部
1301 翻訳の方向を決定するステップ
1302 音声認識を行うステップ
1303 用例データベースから用例を検索するステップ
1304 用例を選択するステップ
1305 用例を決定するか修正するかを判断するステップ
1306 修正する単語を決定するステップ
1307 代替単語一覧を取得するステップ
1308 代替単語を決定するステップ
1309 用例を修正するステップ
1310 言語変換を行うステップ
1311 音声合成部を行うステップ
1601 翻訳方向指定部
1602 翻訳方向指定部
1603 認識結果表示部
1604 用例候補表示部
1605 用例結果表示部
1606 通訳結果表示部
1607 ボタンSW1
1608 ボタンSW2
1701 翻訳方向指定部
1702 認識結果表示部
1703 用例候補表示部
1801 選択された用例
1901 用例結果表示部
1902 用例候補表示部
2001 通訳結果表示部
2101 用例結果表示部
2201 リストウィンドウ
2301 選択された代替単語
2401 用例結果表示部
4105 言語変換方向制御部
4106 対話履歴管理部
4104 言語変換方向検出部
DESCRIPTION OF SYMBOLS 101 Arithmetic control device 102 Voice input / output device 103 Image output device 104 External large capacity non-volatile storage device 105 Image instruction device 106 Button 107 External data input / output terminal 108 Power supply device 201 Motherboard 202 2.5 inch hard disk drive 203 Voice input / output device 204 Image output device 205 Image instruction device 206 Button 207 External data output terminal 208 Li-ion secondary battery 301 Backlit 4 inch VGALCD unit 302 Motherboard 401 Touch panel controller 402 3.8 inch pressure sensitive touch panel 403 button 404 button 405 Motherboard 501 Speaker 502 Audio Amplifier 503 Microphone 504 USB Audio Device 505 Motherboard 601 Main Case 602 Sub Case 603 Button 60 Button 701 front view 702 right side view 703 top view 801 main housing 802 sub-housing 803 microphone 804 speaker 805 LCD with a touch panel
901 Front view 902 Right side view 903 Top view 1001 Front view 1002 Right side view 1003 Top view 1004 Motherboard 1005 LCD with touch panel
1006 2.5 inch hard disk drive 1007 button 1008 button 1101 front view 1102 right side view 1103 top view 1104 microphone 1105 speaker 1106 USB audio device 1107 audio amplifier 1201 control unit 1202 GUI unit 1203 audio input unit 1204 audio recognition unit 1205 example database 1206 Word class dictionary 1207 Example selection unit 1208 Word selection unit 1209 Alternative word selection unit 1210 Language conversion unit 1211 Speech synthesis unit 1301 Step for determining the direction of translation 1302 Step for performing speech recognition 1303 Step for retrieving example from example database 1304 Example for example Step 1305 for selecting Step 1306 for determining whether to determine an example or to correct 1306 Step for determining a word to be corrected Step 1307 Obtaining an alternative word list 1308 Deciding an alternative word 1309 Modifying an example 1310 Performing language conversion 1311 Performing a speech synthesis unit 1601 Translation direction designation unit 1602 Translation direction designation unit 1603 Recognition result display unit 1604 Example candidate display unit 1605 Example result display unit 1606 Interpretation result display unit 1607 Button SW1
1608 Button SW2
1701 Translation direction designation part 1702 Recognition result display part 1703 Example candidate display part 1801 Selected example 1901 Example result display part 1902 Example candidate display part 2001 Interpretation result display part 2101 Example result display part 2201 List window 2301 Selected alternative word 2401 Example result display unit 4105 Language conversion direction control unit 4106 Dialog history management unit 4104 Language conversion direction detection unit

Claims (1)

第1又は第2の言語の音声を入力するための入力部と、
(1)前記入力部から前記第1の言語の音声を受け取った場合、それを音声認識し、且つ、所定の制御指示に基づいて、(1-a)前記音声認識された前記第1の言語の表記データを出力する、又は(1-b)前記音声認識された認識結果に基づいて決定される変換対象を前記第2の言語に変換し、その変換後の言語の少なくとも表記データを出力し、(2)前記入力部から前記第2の言語の音声を受け取った場合、それを音声認識し、且つ、所定の制御指示に基づいて、(2-a)前記音声認識された前記第2の言語の表記データを出力する、又は(2-b)前記音声認識された認識結果に基づいて決定される変換対象を前記第1の言語に変換し、その変換後の言語の少なくとも表記データを出力する音声翻訳部と、
前記音声翻訳部の前記変換対象の決定を支援するための支援部と、
前記音声翻訳部から出力される前記変換後の言語の前記表記データを、前記所定の制御指示に基づいて表示するための表示部と、
前記所定の制御指示を、少なくとも前記音声翻訳部及び前記表示部に対して行う制御部と
前記第1の言語から第2の言語、又は前記第2の言語から第1の言語への何れの翻訳が前記により行われるべきかの翻訳方向を決定するための情報を検出する言語変換方向検出部を備え、
前記制御部は、前記検出結果に基づいて、前記音声翻訳部に対して前記翻訳方向を指定し、かつ、前記入力部を制御し、
前記言語変換方向検出部は、前記音声変換装置の内部に設置されたジャイロセンサーで構成されており、
発声する利用者が前記音声変換装置を手に持つ位置で前記翻訳方向を選択する音声変換装置。
An input unit for inputting voice in the first or second language;
(1) When the voice of the first language is received from the input unit, the voice is recognized and, based on a predetermined control instruction, (1-a) the voice-recognized first language Or (1-b) converting the conversion target determined based on the speech recognition result into the second language, and outputting at least the notation data in the converted language. (2) When the second language voice is received from the input unit, the voice is recognized and, based on a predetermined control instruction, (2-a) the second voice recognized Output language notation data, or (2-b) convert the conversion target determined based on the speech recognition result to the first language, and output at least the notation data of the converted language A speech translator to
A support unit for supporting the determination of the conversion target of the speech translation unit;
A display unit for displaying the notation data of the converted language output from the speech translation unit based on the predetermined control instruction;
A control unit that performs the predetermined control instruction on at least the speech translation unit and the display unit ;
Language conversion direction detection for detecting information for determining the translation direction of which translation from the first language to the second language or from the second language to the first language should be performed by the above Part
The control unit specifies the translation direction for the speech translation unit based on the detection result, and controls the input unit,
The language conversion direction detection unit is composed of a gyro sensor installed inside the voice conversion device,
A speech conversion device for selecting a translation direction at a position where a user who speaks holds the speech conversion device.
JP2004329646A 2001-01-24 2004-11-12 Audio converter Expired - Lifetime JP3926365B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004329646A JP3926365B2 (en) 2001-01-24 2004-11-12 Audio converter

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001015383 2001-01-24
JP2002012931 2002-01-22
JP2004329646A JP3926365B2 (en) 2001-01-24 2004-11-12 Audio converter

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002014834A Division JP3974412B2 (en) 2001-01-24 2002-01-23 Audio converter

Publications (2)

Publication Number Publication Date
JP2005141759A JP2005141759A (en) 2005-06-02
JP3926365B2 true JP3926365B2 (en) 2007-06-06

Family

ID=34704794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004329646A Expired - Lifetime JP3926365B2 (en) 2001-01-24 2004-11-12 Audio converter

Country Status (1)

Country Link
JP (1) JP3926365B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4559946B2 (en) 2005-09-29 2010-10-13 株式会社東芝 Input device, input method, and input program
JP4557919B2 (en) * 2006-03-29 2010-10-06 株式会社東芝 Audio processing apparatus, audio processing method, and audio processing program
JP5273782B2 (en) * 2008-07-30 2013-08-28 Necカシオモバイルコミュニケーションズ株式会社 Portable terminal device and program
JP4977116B2 (en) * 2008-12-03 2012-07-18 株式会社東芝 Speech recognition apparatus, method, and program
JP5998298B1 (en) * 2016-01-13 2016-09-28 株式会社リクルートライフスタイル Speech translation device, speech translation method, and speech translation program
WO2018087969A1 (en) * 2016-11-11 2018-05-17 パナソニックIpマネジメント株式会社 Control method for translation device, translation device, and program
JP6876936B2 (en) * 2016-11-11 2021-05-26 パナソニックIpマネジメント株式会社 Translation device control method, translation device, and program
CN109815505A (en) * 2019-03-29 2019-05-28 北京金山安全软件有限公司 display device

Also Published As

Publication number Publication date
JP2005141759A (en) 2005-06-02

Similar Documents

Publication Publication Date Title
US7050979B2 (en) Apparatus and method for converting a spoken language to a second language
EP3193328B1 (en) Method and device for performing voice recognition using grammar model
JP3974412B2 (en) Audio converter
TWI266280B (en) Multimodal disambiguation of speech recognition
KR101513615B1 (en) Mobile terminal and voice recognition method
KR102222122B1 (en) Mobile terminal and method for controlling the same
US7719521B2 (en) Navigational interface providing auxiliary character support for mobile and wearable computers
US9053098B2 (en) Insertion of translation in displayed text consisting of grammatical variations pertaining to gender, number and tense
JP2010049699A (en) Integrated keypad system
JP2009205579A (en) Speech translation device and program
JPWO2005101235A1 (en) Dialogue support device
JP2005182208A (en) Information processor and data input method
JP2002116796A (en) Voice processor and method for voice processing and storage medium
WO2020024620A1 (en) Voice information processing method and device, apparatus, and storage medium
US20020169616A1 (en) Voice interaction method for a computer graphical user interface
CN110992927B (en) Audio generation method, device, computer readable storage medium and computing equipment
JP3926365B2 (en) Audio converter
JP2015004977A (en) Electronic device and method for conversion between audio and text
CN102968266A (en) Identification method and apparatus
JP2002116797A (en) Voice processor and method for voice recognition and storage medium
US20140180698A1 (en) Information processing apparatus, information processing method and storage medium
JPWO2017199486A1 (en) Information processing device
JP5008248B2 (en) Display processing apparatus, display processing method, display processing program, and recording medium
US20120278751A1 (en) Input method and input module thereof
JP6198879B1 (en) Speech translation device, speech translation method, and speech translation program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070227

R150 Certificate of patent or registration of utility model

Ref document number: 3926365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140309

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term