JPH09231225A - 言語情報処理装置 - Google Patents

言語情報処理装置

Info

Publication number
JPH09231225A
JPH09231225A JP8038296A JP3829696A JPH09231225A JP H09231225 A JPH09231225 A JP H09231225A JP 8038296 A JP8038296 A JP 8038296A JP 3829696 A JP3829696 A JP 3829696A JP H09231225 A JPH09231225 A JP H09231225A
Authority
JP
Japan
Prior art keywords
voice
sentence example
sentence
information processing
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8038296A
Other languages
English (en)
Inventor
Nobuki Hagiwara
信己 萩原
Kunihiro Seno
訓啓 瀬野
Hiromi Furusawa
浩美 古澤
Kentaro Tsuchiya
健太郎 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP8038296A priority Critical patent/JPH09231225A/ja
Priority to US08/804,119 priority patent/US5995935A/en
Publication of JPH09231225A publication Critical patent/JPH09231225A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification

Abstract

(57)【要約】 【課題】 異性間でのコミュニケーション等の際におけ
る違和感や性別を誤解するような間違いをなくすことが
できるようにする。 【解決手段】 CPU21は、所望する文例が選択され
た後、キー釦13の所定ボタンが押下されると、ディス
プレイ12に音符マークを表示し、異性用の文例データ
であれば、文例データに対応する音声データ(異性の
声)をROM23から読み出し、スピーカ31により発
声するか、あるいは異性用の文例に対応する音声データ
を記憶しないことで、発声しないようにする。一方、異
性用の文例データでなければ、文例データに対応する音
声データ(同性の声)をROM23から読み出し、スピ
ーカ31により発声する。また、異性用の文例であれ
ば、ディスプレイ12に表示する際、文例の前後に括弧
を付けて表示することで、利用者は、異性用か否かを容
易に識別できる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、携帯用翻訳装置
等、電子翻訳機に用いて好適な言語情報処理装置に関す
る。
【0002】
【従来の技術】従来より、言語情報処理装置として、予
め用意されている定型文(例えば、日本語)の中からユ
ーザが選択した文例を所定の他言語(例えば、英語)に
翻訳し、翻訳した文章をその言語で表示装置に表示した
り、発声する携帯用翻訳装置等の電子翻訳機が知られて
いる。ところで、一般には、男性には男性のみが使うフ
レーズ(文例)があり、女性には女性のみが使うフレー
ズ(文例)がある。つまり、男性利用者にとっては、女
性の文例は不要であり、女性利用者にとっては、男性の
文例は不要である。
【0003】そこで、従来の言語情報処理装置では、利
用者が女性の場合には、予め文例に対応する音声データ
を全て女性の声で記憶しておき、発声は全て女性の声で
行う一方、利用者が男性の場合には、予め文例に対応す
る音声データを全て男性の声で記憶しておき、発声は全
て男性の声で行っていた。つまり、利用者は、自分の性
別に応じた音声データが記憶されている装置を用いるよ
うになっていた。
【0004】
【発明が解決しようとする課題】ところで、近年、上述
した言語情報処理装置では、遠隔地の他の装置との間
で、文例情報を授受することで、コミュニケーションを
可能にしたものが提案されている。この場合、送信側で
は、相手に伝えようとする文例を指示するコードのみを
送信し、受信側では、受信した文例(コード)に対応す
る音声データを読み出し、表示または発声していた。
【0005】しかしながら、従来の言語情報処理装置で
は、利用者が男性(女性)であれば、女性専用(男性専
用)の文例に対しても男性(女性)の声で記憶されてい
たため、異性間のコミュニケーション等の際には、例え
ば、送信側が女性(男性)で、女性専用(男性専用)の
文例を送信した場合、受信側が男性(女性)であると、
女性特有(男性専用)の文例であっても、男性(女性)
の声で発声されてしまうため、相手あるいは自分自身に
違和感を与えたり、あるいは相手(自分)の性別を誤解
するという問題があった。
【0006】この発明は上述した事情に鑑みてなされた
もので、情報授受に関しての違和感をなくし、情報を正
確に伝達できる言語情報処理装置を提供することを目的
としている。
【0007】
【課題を解決するための手段】上述した問題点を解決す
るために、請求項1記載の発明では、複数の文例を記憶
する文例記憶手段と、前記文例記憶手段に記憶された文
例に対応する音声情報を男性または女性の声にて記憶す
る音声記憶手段と、前記文例記憶手段に記憶された文例
を表示する表示手段と、前記表示手段により表示された
文例が異性用の文例でない場合に、該文例に対応する音
声情報を、前記音声記憶手段から読み出して音声出力す
る音声出力手段とを具備することを特徴とする。
【0008】また、請求項2記載の発明では、請求項1
記載の言語情報処理装置において、前記音声記憶手段
は、異性用の文例以外に対する音声情報を記憶すること
を特徴とする。
【0009】また、請求項3記載の発明では、請求項1
記載の言語情報処理装置において、前記表示手段は、前
記音声出力手段により音声出力が行われない異性用の文
例を他の文例と区別して表示することを特徴とする。
【0010】また、請求項4記載の発明では、請求項3
記載の言語情報処理装置において、前記表示手段は、前
記音声出力手段により音声出力が行われない異性用の文
例に対して特定の符号を付すことにより、他の文例と区
別することを特徴とする。
【0011】また、上述した問題点を解決するために、
請求項5記載の発明では、複数の文例を記憶する文例記
憶手段と、前記文例記憶手段に記憶された文例のうち、
異性用の文例に対する音声情報を、少なくとも利用者の
性別とは異なる性別の声にて記憶する音声記憶手段と、
前記文例記憶手段に記憶された文例を表示する表示手段
と、前記表示手段により表示された文例に対応する音声
情報を前記音声記憶手段から読み出して音声出力する音
声出力手段とを具備することを特徴とする。
【0012】また、上述した問題点を解決するために、
請求項6記載の発明では、複数の文例を記憶する文例記
憶手段と、前記文例記憶手段に記憶された文例に対応す
る音声情報を、文例を使用する性別に応じて、男性の声
または女性の声にて記憶する音声記憶手段と、前記文例
記憶手段に記憶された文例を表示する表示手段と、前記
表示手段により表示された文例に対応する音声情報を、
前記音声記憶手段から読み出して音声出力する音声出力
手段とを具備することを特徴とする。
【0013】また、請求項7記載の発明では、請求項
1、5、6のいずれかに記載の言語情報処理装置におい
て、文例に対応したコード信号を入力する入力手段と、
前記入力手段により入力された前記コード信号を文例に
変換する変換手段とを具備し、前記表示手段に表示され
る文例は、前記変換手段により変換された文例であるこ
とを特徴とする。
【0014】また、請求項8記載の発明では、請求項7
記載の言語情報処理装置において、前記入力手段により
入力されるコード信号は、有線または無線の通信回線を
介して遠隔地から送信された信号であることを特徴とす
る。
【0015】また、請求項9記載の発明では、請求項8
記載の言語情報処理装置において、前記遠隔地から送信
された信号は、DTMF信号であることを特徴とする。
【0016】また、上述した問題点を解決するために、
請求項10記載の発明では、有線または無線の通信回線
を介して遠隔地の相手と情報交換する言語情報処理装置
において、複数の文例を記憶する文例記憶手段と、前記
文例記憶手段に記憶されている文例に対応する音声情報
を男性または女性の声にて記憶する音声記憶手段と、前
記遠隔地の相手の性別を認識する性別認識手段と、前記
遠隔地の相手からの文例に対応したコード信号を入力す
る入力手段と、前記入力手段により入力されたコード信
号に対応する文例を表示する表示手段と、前記性別認識
手段により認識された相手の性別に基づいて、前記音声
記憶手段の中から特定の性別の音声情報を選択するとと
もに、前記表示手段に表示された文例に対応する音声情
報を前記音声記憶手段から選択して出力する音声出力手
段とを具備することを特徴とする。
【0017】請求項1記載の発明によれば、表示手段
は、文例記憶手段に記憶された文例を表示する。また、
音声出力手段は、表示手段により表示された文例が異性
用の文例でない場合に該文例に対応する音声情報を音声
記憶手段から読み出して、記憶された性別の声で音声出
力する。したがって、異性用の文例に対しては、音声出
力しないので、情報授受に関しての違和感がなくなり、
相手の性別に関する情報を正確に伝達することが可能と
なる。
【0018】また、請求項5記載の発明によれば、文例
記憶手段に記憶された文例のうち、異性用の文例以外に
対する音声情報を、利用者の性別に応じた性別の声にて
音声記憶手段に記憶する。したがって、異性用の文例に
対しては、少なくとも、利用者の性別とは異なる性別の
声で音声出力されるので、情報授受に関しての違和感が
低減され、相手の性別に関して誤情報を伝達しないよう
にすることが可能となる。
【0019】また、請求項6記載の発明によれば、文例
記憶手段に記憶された文例に対応する音声情報を、文例
を使用する性別に応じて、男性の声または女性の声にて
記憶する。したがって、男性特有の文例であれば、男性
の声で音声出力され、女性特有の文例であれば、女性の
声で音声出力されるので、情報授受に関しての違和感が
なくなり、相手の性別に関する情報を正確に伝達するこ
とが可能となる。
【0020】また、請求項10記載の発明によれば、性
別認識手段によって、遠隔地の相手の性別を認識し、認
識された相手の性別に基づいて、音声記憶手段の中から
特定の性別の音声情報を選択するとともに、表示手段に
表示された文例に対応する音声情報を音声記憶手段から
選択して音声出力手段によって出力する。したがって、
相手が男性であるか女性であるかを識別でき、相手が男
性であれば男性の声で音声出力され、相手が女性であれ
ば女性の声で音声出力されるので、情報授受に関しての
違和感がなくなり、相手の性別に関する情報を正確に伝
達することが可能となる。
【0021】
【発明の実施の形態】次に図面を参照してこの発明の一
実施形態について説明する。
【0022】A.実施形態の構成 図1は本発明の実施形態による言語情報処理装置の構成
を示すブロック図である。図において、この言語情報提
供装置11は、異なった言語間におけるコミュニケーシ
ョンを行うために開発された装置であり、日本語、英
語、中国語等からなる文例(フレーズ)を組にして格納
し、指定された言語により本体に配置された液晶ディス
プレイ12に指定された文例を表示できるようになって
いる。また、必要に応じて、スピーカ31から指定され
た言語の音声出力ができるようになっている。
【0023】言語情報処理装置11は、各種制御の中枢
的な機能を果たすためのCPU(中央処理装置)21を
配置している。このCPU21は、後述するROM(リ
ードオンリメモリ)23に記憶されている各種の文例か
ら特定の文例を指示するためのフレーズ番号を格納し、
また各種の演算処理を行うRAM(ランダムアクセスメ
モリ)33を有している。また、CPU21は、システ
ムバス22を介してROM23、表示用ドライバ24、
釦入力装置25、スピーチIC26、DTMFジェネレ
ータ27およびDTMFレシーバ28のそれぞれと接続
されている。
【0024】ここで、ROM23は、この言語情報提供
装置11の各種制御を行うためのプログラムや、各種の
文例、また、音声出力のための音声データ等を格納した
リード・オンリ・メモリである。表示用ドライバ24
は、液晶ディスプレイ12に日本語、英語、中国語等か
らなる文例やその他の所定のデータを表示するための駆
動回路である。釦入力装置25は、後述するセットボタ
ン13−1、メニューボタン13−2、上下左右ボタン
13−3、言語変換ボタン13−4、音声ボタン13−
5、置き換えボタン13−6、電源スイッチ13−7等
の各種のスイッチからなるキー釦類13から入力データ
を取り込むための回路である。
【0025】次に、スピーチIC26は、ROM23の
一部に各文例に対応して記憶された音声データに基づい
て音声信号を出力するための集積回路である。当該スピ
ーチIC26からの音声信号は、アンプ32により増幅
され、スピーカ31から出力されるようになっている。
【0026】また、遠隔地にいる相手と音声によってコ
ミュニケーションをとりたい場合には、このスピーカ3
1から出力される音声をそのまま電話機の受話器に接続
することで、簡易に円滑なコミュニケーションが可能と
なる。また、DTMFジェネレータ27は、ROM23
の各文例に対応するアドレス番号からRAM33の演算
により作成されたコードをプッシュトーンに変換して出
力する回路である。当該DTMFジェネレータ27から
のプッシュトーンは、イヤホーンジャック29を介して
図示しない電話機のイヤホンジャックに接続され、該電
話機の発呼機能を利用して受信装置に送出される。
【0027】DTMFレシーバ28は、図示しない電話
機を介してイヤホーンジャック29からプッシュトーン
を受信し、コードに変換してシステムバス22に出力す
る回路であり、出力された該コードは、CPU21内に
あるRAM33の演算によりROM23の各文例に対応
するフレーズ例番号に変換される。
【0028】B.操作パネル面 次に、図2は、本発明の実施形態における言語情報処理
装置の操作パネル面を示す模式図である。なお、図1に
対応する部分には同一の符号を付けて説明を省略する。
本体には、各種のスイッチ、釦からなるキー釦類13を
配置している。このキー釦類13として、上下左右カー
ソルボタン13−1、セットボタン13−2、言語変換
ボタン13−3、音声ボタン13−4、前頁ボタン13
−5、送信ボタン13−6、電源スイッチ13−7が配
置されている。上下左右ボタン13−1は、ディスプレ
イ12に表示された画面やカーソルを上下/左右にスク
ロールさせるためのボタンである。セットボタン13−
2は、文例を選択する際に所望するカテゴリ(トピック
スピクト)を確定するボタンである。言語変換ボタン1
3−3は、表示中の文例を翻訳先言語に翻訳指示するた
めのボタンである。音声ボタン13−4は、表示中の文
例をスピーカ31で発声指示するためのボタンである。
前頁ボタン13−5は、文例選択中に、再度、カテゴリ
を選択する画面に戻るためのボタンである。送信ボタン
13−6は、遠隔地の他の言語情報処理装置に対して文
例を送信するためのボタンである。そして、電源スイッ
チ13−7は、電源の入/切を行うためのスイッチであ
る。なお、これらボタンの詳細な機能については後述す
る。
【0029】C.データ構造 C−1.文例データ 文例(フレーズ)データは、都市、交通、レストランな
どの、文例が使用されるカテゴリー(トピックピクトで
表現される)毎に分類されてROM23に記憶されてい
る。図3に、1つのカテゴリーの日本語文例データおよ
び英語文例データのデータ構成を示す。1つのカテゴリ
ーには、複数の文例データが記憶されており、例えば、
日英翻訳機の場合、複数の日本語文例データ60と、該
日本語文例に対応させて、該日本語文例の訳語である英
語文例データ61が格納されている。
【0030】日本語文例データ60および英語文例デー
タ61には、各々、その文例が異性に対する文例である
場合、文例データに所定の記号を付けることで、区別し
ている。本実施形態では、文例データの前後に括弧に相
当するデータを付けている。また、図示の例は、男性用
の言語情報処理装置のものであるので、括弧が付けられ
ている文例データは女性特有の文例(フレーズ)である
ことを示している。
【0031】C−2.音声データ また、図示はしていないが、ROM23には、上記文例
を発声するために、文例に対応させて、所定の性別の声
による音声データが記憶されている。なお、後述する動
作の説明では、2つの形態について述べる。第1の形態
では、男性用/女性用の言語情報処理装置にかかわら
ず、男性特有の文例に対しては、男性の声による音声デ
ータを記憶し、女性特有の文例に対しては、女性の声に
よる音声データを記憶し、男女共通の文例に対しては、
利用者が男性ならば、男性の声で、利用者が女性なら
ば、女性の声で、音声データが記憶している。すなわ
ち、全ての文例に対して、所定の音声データを記憶す
る。
【0032】また、第2の形態では、メモリの記憶容量
を小さくするために、男性用の言語情報処理装置では、
女性特有の文例に対して、音声データを記憶せず、女性
用の言語情報処理装置では、男性特有の文例に対して、
音声データを記憶しないようにし、異性文例に対して
は、文例を表示するだけで、発声しないようにしてい
る。
【0033】D.実施形態の動作 次に、上述した実施形態による言語情報処理装置の動作
について説明する。ここで、図4および図5は、上述し
た言語情報処理装置の動作(第1の形態および第2の形
態)を説明するためのフローチャートである。また、図
6は、言語情報処理装置の動作に伴う画面表示を説明す
るための遷移図である。
【0034】(1)第1の形態 まず、前述した第1の形態による動作について説明す
る。第1の形態では、前述したように、男性用/女性用
の言語情報処理装置にかかわらず、男性特有の文例に対
しては、男性の声による音声データを発声し、女性特有
の文例に対しては、女性の声による音声データを発声す
るようにしている。
【0035】装置に電源が投入されると、まず、図4に
示すステップSP1において、トピックスピクト選択画
面をディスプレイ12に表示する(図6(a))。ここ
で、トッピクスピクトとは、どのような状況における文
例を使用するかを、「家」または「自動車」等をあしら
った図形(ピクト)により表現したものである。本実施
形態では、各種のトッピクスピクトを3行5列に配置
し、その上方に表示しているトピックスピクト名(「基
本会話」等の文字列)を表示している。選択画面の初期
状態においては、左上隅のトピックピクトにカーソルが
位置する。ユーザは、上下左右カーソルボタン13−1
を押下することで、カーソルを所望するトピックピクト
に移動させる。
【0036】次に、ステップSP2において、セットボ
タン13−2が押下されたか否かを判断し、押下される
まで待機する。ユーザは、カーソルを所望するトピック
ピクトに移動させると、そトピックピクトを確定するた
めに、セットボタン13−2を押下する。そして、セッ
トボタン13−2が押下されると、ステップSP3に進
み、選択されたトピックピクトの先頭の文例を検索し、
ステップSP4で、ディスプレイ12に表示する(図6
(b))。
【0037】次に、ステップSP5において、何らかの
ボタンが押下されたか否か、もしくはトーン信号を受信
したか否かを判断し、いずれのボタンも押下されず、ト
ーン信号も受信されなければ、当該表示を継続させる。
そして、いずれかのボタンが押下されるか、トーン信号
を受信すると、操作されたボタンあるいはトーン信号受
信に応じた処理を実行する。以下、操作されたボタンあ
るいはトーン信号受信で実行される処理を順に説明す
る。
【0038】a.言語変換ボタン 言語変換ボタン13−3が押下された場合には、ステッ
プSP5からステップSP6に進み、言語情報を変更す
る。本実施形態では、日英翻訳とすると、現在、ディス
プレイ12に表示されている言語が日本語であれば、英
語に変更することになる。例えば、日本語文例データが
「はじめまして」の場合には、「Howdo you
do」が読み出される。そして、ステップSP4に戻
り、読み出した英語文例データ「Hello」をディス
プレイ12に表示し(図6(c))、ステップSP5
で、キーまたはトーンの入力待ちになる。以下、ステッ
プSP20以降の処理では、英語に対して処理が実行さ
れる。
【0039】また、異性用の文例データ(例えば、
「(このエステの体験コースはありますか)」)がディ
スプレイ12に表示されているときに、言語変換ボタン
13−3が押下されると、日本語文例データに対応する
英語文例データがディスプレイ12に表示される(図6
(l))。
【0040】b.下カーソルボタン また、下カーソルボタン13−1(上下左右カーソルボ
タンの下側)が押下された場合には、ステップSP5か
らステップSP7に進む。ステップSP7では、図3に
示す文例データを次に進める。そして、ステップSP4
に戻り、次の文例データ(この場合、「こんにちは」)
をディスプレイ12に表示し(図6(d))、ステップ
SP5で、キーまたはトーンの入力待ちになる。さら
に、下カーソルボタン13−1を押下すると、次の文例
データがディスプレイ12に表示される。この場合、
「(このエステ体験コースはありますか)」という文例
が表示される(図6(e))。このとき、文例データが
異性用のものであるので、上記のように、括弧付きで表
示される。したがって、ユーザは、現在表示されている
文例データが異性用のものであることを容易に知ること
ができる。
【0041】c.送信ボタン また、送信ボタン13−6が押下された場合には、ステ
ップSP5からステップSP8に進む。ステップSP8
では、トーン発信中であることを示す画面を表示し(図
6(f))、現在、ディスプレイ12に表示されている
文例データに対応するトーンを発信する。具体的には、
DTMFジェネレータ27によって、文例データに対応
するアドレス番号から演算により作成されたコードをプ
ッシュトーンに変換して、イヤホンジャック29を介し
て、図示しない電話機のイヤホンジャックに供給され、
電話機の発呼機能を利用して、相手の言語情報処理装置
に送出する。発信後は、ステップSP4に戻り、もとの
画面を表示し、ステップSP5で、キーまたはトーンの
入力待ちになる。
【0042】d.前頁ボタン また、前頁ボタン13−5が押下された場合には、ステ
ップSP5からステップSP1に戻り、トピックピクト
選択画面を表示し(図6(b)→図6(a))、前述し
たステップSP2〜SP4で、新たなトピックの文例デ
ータを選択させる。その後、ステップSP5で、キーま
たはトーンの入力待ちになる。
【0043】e.音声ボタン また、音声ボタン13−4が押下された場合には、ステ
ップSP5からステップS9に進み、まず、ディスプレ
イ12に音符マークを表示し(図6(g))、ステップ
SP10で、現在、ディスプレイ12に表示中の文例デ
ータが異性用の文例であるか否かを判断する。そして、
異性用の文例データであれば、ステップSP11に進
み、文例データに対応する音声データ(異性の声)を読
み出し、スピーカ31により発声する(図6(k))。
一方、異性用の文例データでなければ、ステップSP1
2に進み、文例データに対応する音声データ(同性の
声)を読み出し、スピーカ31により発声する(図6
(g))。
【0044】f.トーン受信 また、トーンを受信した場合には、ステップSP5から
ステップSP13に進み、まず、受信中であることを示
すメッセージ「受信中…」をディスプレイ12に表示し
(図6(h))、受信が終了すると、受信した文例デー
タを表示する(図6(i))。具体的には、図示しない
電話機を介してイヤホンジャック29からプッシュトー
ンを受信し、DTMFレシーバ28によってコードに変
換し、システムバス22を介してCPU21に供給す
る。CPU21は、RAM33の演算により、ROM2
3の各文例に対応するアドレス番号に変換する。該アド
レス番号で文例データを読み出す。ここで、受信した文
例には、受信した文例であることを示す記号として、行
頭に「R)」を付ける。図6の例の場合、「R)(マニ
キュアをおねがいします)」と表示されており、異性用
の文例データであることが分る。
【0045】次に、ステップSP14で、前頁ボタン1
3−5か、音声ボタンが押下されたか否かを判断し、い
ずれのボタンも押下されなければ、当該表示を継続させ
る。そして、いずれかのボタンが押下されると、操作さ
れたボタンに応じた処理を実行する。以下、押下された
ボタンで実行される処理を順に説明する。
【0046】g.前頁ボタン 前頁ボタン13−5が押下された場合には、ステップS
P14からステップSP4に戻り、受信前の文例データ
の表示に戻る。その後、ステップSP5で、キーまたは
トーンの入力待ちになる。
【0047】h.音声ボタン また、音声ボタン13−4が押下された場合には、ステ
ップSP14からステップS15に進み、まず、ディス
プレイ12に音符マークを表示し(図6(j))、ステ
ップSP16で、現在、ディスプレイ12に表示中の受
信した文例データが異性用の文例であるか否かを判断す
る。そして、異性用の文例であれば、ステップSP17
に進み、文例データに対応する音声データ(異性の声)
を読み出し、スピーカ31により発声する(図6
(j))。一方、受信した文例データが異性用の文例で
なければ、ステップSP18に進み、文例データに対応
する音声データ(同性の声)を読み出し、スピーカ31
により発声する。その後、ステップSP14で、キーの
入力待ちになる。
【0048】(2)第2の形態 次に、前述した第1の形態による動作について説明す
る。第2の形態では、男性用の言語情報処理装置におい
ては、男性特有の文例に対しては、ディスプレイ12に
表示するとともに、男性の声による音声データを発声
し、女性特有の文例に対しては、ディスプレイ12に表
示するものの、何も発声せず、女性用の言語情報処理装
置においては、男性特有の文例に対しては、ディスプレ
イ12に表示するものの、何も発声せず、女性特有の文
例に対しては、女性の声による音声データを発声する。
すなわち、異性用の文例データは、ディスプレイ12に
表示されることはあっても、発音されることはない。な
お、図4に対応するステップは、簡単に説明する。
【0049】装置に電源が投入されると、まず、図5に
示すステップSP101において、トピックスピクト選
択画面をディスプレイ12に表示する(図6(a))。
次に、ステップSP102において、セットボタン13
−2が押下されたか否かを判断し、セットボタン13−
2が押下されると、ステップSP103に進み、選択さ
れたトピックピクトの先頭の文例を検索し、ステップS
P104で、ディスプレイ12に表示する(図6
(b))。
【0050】次に、ステップSP105において、何ら
かのボタンが押下されたか否か、もしくはトーン信号を
受信したか否かを判断し、いずれのボタンも押下され
ず、トーン信号も受信されなければ、当該表示を継続さ
せる。そして、いずれかのボタンが押下されるか、トー
ン信号を受信すると、操作されたボタンあるいはトーン
信号受信に応じた処理を実行する。なお、本第2の形態
では、図4と異なる部分についてのみ説明する。
【0051】音声ボタン13−4が押下された場合に
は、ステップSP105からステップS109に進み、
現在、ディスプレイ12に表示中の文例データが異性用
の文例であるか否かを判断する。そして、異性用の文例
データであれば、発声することなく、ステップSP10
4に戻り(図6(e))、文例データを表示した後、キ
ーまたはトーンの入力待ちとなる。一方、異性用の文例
データでなければ、ステップSP110に進み、ディス
プレイ12に音符マークを表示し(図6(g))、ステ
ップSP111で、文例データに対応する音声データ
(同性の声)を読み出し、スピーカ31により発声する
(図6(g))。
【0052】また、トーンを受信し、音声ボタン13−
4が押下された場合には、ステップSP105からステ
ップS113、S114を経てステップSP115に進
み、現在、ディスプレイ12に表示中の受信した文例デ
ータが異性用の文例であるか否かを判断する。そして、
異性用の文例であれば、発声することなく、ステップS
P114に戻り(図6(i))、キーの入力待ちとな
る。
【0053】一方、受信した文例データが異性用の文例
でなければ、ステップSP116に進み、ディスプレイ
12に音符マークを表示し、ステップSP117で、受
信した文例データに対応する音声データ(同性の声)を
読み出し、スピーカ31により発声する。
【0054】E.変形例 また、利用者の性別に応じて、異なる音声情報(男性
用、女性用)を備える言語情報処理装置を用いるという
ことを利用し、男性が利用するのか、女性が利用するの
かをフラグ等によって管理し、遠隔地にある他の言語情
報処理との間でデータ授受を行う際には、文例データを
示すコード信号とともに、上記フラグを相手の装置に送
出する。このようにすれば、受信側の装置では、相手の
性別を自動的に識別できるので、受信した文例データ
(に対するコード信号)を適切な音声情報で発声するこ
とができる。
【0055】なお、上述した実施形態では、文例が異性
用であることを括弧を付けることで表したが、これに限
らず、例えば、色を変えたり、別の記号を付けるように
してもよい。また、受信した文例であることを記号
「R)」を付けることで表したが、これに限らず、上述
同様に、例えば、色を変えたり、別の記号を付けるよう
にしてもよい。
【0056】
【発明の効果】以上、説明したように、請求項1記載の
発明によれば、文例記憶手段に記憶された文例は表示手
段によって表示され、表示手段により表示された文例が
異性用の文例でない場合に、音声出力手段によって該文
例に対応する音声情報を音声記憶手段から読み出して、
記憶された性別の声で音声出力するようにしたので、異
性用の文例に対しては、音声出力されないので、情報授
受に関しての違和感がなくなり、相手の性別に関する情
報を正確に伝達することができるという利点が得られ
る。
【0057】また、請求項5記載の発明によれば、文例
記憶手段に記憶された文例のうち、異性用の文例以外に
対する音声情報を、利用者の性別に応じた性別の声にて
音声記憶手段に記憶するようにしたので、異性用の文例
に対しては、少なくとも、利用者の性別とは異なる性別
の声で音声出力されるため、情報授受に関しての違和感
が低減され、相手の性別に関して誤情報を伝達しないよ
うにすることができるという利点が得られる。
【0058】また、請求項6記載の発明によれば、文例
記憶手段に記憶された文例に対応する音声情報を、文例
を使用する性別に応じて、男性の声または女性の声にて
記憶するようにしたので、男性特有の文例であれば、男
性の声で音声出力され、女性特有の文例であれば、女性
の声で音声出力されるため、情報授受に関しての違和感
がなくなり、相手の性別に関する情報を正確に伝達する
ことができるという利点が得られる。
【0059】また、請求項10記載の発明によれば、性
別認識手段によって、遠隔地の相手の性別を認識し、認
識された相手の性別に基づいて、音声記憶手段の中から
特定の性別の音声情報を選択するとともに、表示手段に
表示された文例に対応する音声情報を音声記憶手段から
選択して音声出力手段によって出力するようにしたの
で、相手が男性であるか女性であるかを識別できるとと
もに、相手が男性であれば男性の声で音声出力し、相手
が女性であれば女性の声で音声出力するので、情報授受
に関しての違和感がなくなり、相手の性別に関する情報
を正確に伝達することができるという利点が得られる。
【図面の簡単な説明】
【図1】 本発明の実施形態による言語情報処理装置の
構成を示すブロック図である。
【図2】 言語情報処理装置の操作パネル面を示す模式
図である。
【図3】 文例データのデータ構成を示す概念図であ
る。
【図4】 第1の形態の動作を説明するためのフローチ
ャートである。
【図5】 第2の形態の動作を説明するためのフローチ
ャートである。
【図6】 言語情報処理装置の動作に伴う画面表示を説
明するための遷移図である。
【符号の説明】
12 ディスプレイ(表示手段) 13 キー釦類 21 CPU(性別認識手段) 23 ROM(文例記憶手段、音声記憶手段) 26 スピーチIC(音声出力手段) 28 DTMFレシーバ(入力手段) 29 イヤホンジャック(入力手段) 31 スピーカ(音声出力手段) 32 アンプ(音声出力手段)
フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06F 15/38 V C (72)発明者 土屋 健太郎 神奈川県海老名市本郷2274番地 富士ゼロ ックス株式会社内

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 複数の文例を記憶する文例記憶手段と、 前記文例記憶手段に記憶された文例に対応する音声情報
    を男性または女性の声にて記憶する音声記憶手段と、 前記文例記憶手段に記憶された文例を表示する表示手段
    と、 前記表示手段により表示された文例が異性用の文例でな
    い場合に、該文例に対応する音声情報を、前記音声記憶
    手段から読み出して音声出力する音声出力手段とを具備
    することを特徴とする言語情報処理装置。
  2. 【請求項2】 前記音声記憶手段は、異性用の文例以外
    に対する音声情報を記憶することを特徴とする請求項1
    記載の言語情報処理装置。
  3. 【請求項3】 前記表示手段は、前記音声出力手段によ
    り音声出力が行われない異性用の文例を他の文例と区別
    して表示することを特徴とする請求項1記載の言語情報
    処理装置。
  4. 【請求項4】 前記表示手段は、前記音声出力手段によ
    り音声出力が行われない異性用の文例に対して特定の符
    号を付すことにより、他の文例と区別することを特徴と
    する請求項3記載の言語情報処理装置。
  5. 【請求項5】 複数の文例を記憶する文例記憶手段と、 前記文例記憶手段に記憶された文例のうち、異性用の文
    例に対する音声情報を、少なくとも利用者の性別とは異
    なる性別の声にて記憶する音声記憶手段と、 前記文例記憶手段に記憶された文例を表示する表示手段
    と、 前記表示手段により表示された文例に対応する音声情報
    を、前記音声記憶手段から読み出して音声出力する音声
    出力手段とを具備することを特徴とする言語情報処理装
    置。
  6. 【請求項6】 複数の文例を記憶する文例記憶手段と、 前記文例記憶手段に記憶された文例に対応する音声情報
    を、文例を使用する性別に応じて、男性の声または女性
    の声にて記憶する音声記憶手段と、 前記文例記憶手段に記憶された文例を表示する表示手段
    と、 前記表示手段により表示された文例に対応する音声情報
    を、前記音声記憶手段から読み出して音声出力する音声
    出力手段とを具備することを特徴とする言語情報処理装
    置。
  7. 【請求項7】 文例に対応したコード信号を入力する入
    力手段と、 前記入力手段により入力された前記コード信号を文例に
    変換する変換手段とを具備し、 前記表示手段に表示される文例は、前記変換手段により
    変換された文例であることを特徴とする請求項1、5、
    6のいずれかに記載の言語情報処理装置。
  8. 【請求項8】 前記入力手段により入力されるコード信
    号は、有線または無線の通信回線を介して遠隔地から送
    信された信号であることを特徴とする請求項7記載の言
    語情報処理装置。
  9. 【請求項9】 前記遠隔地から送信された信号は、DT
    MF信号であることを特徴とする請求項8記載の言語情
    報処理装置。
  10. 【請求項10】 有線または無線の通信回線を介して遠
    隔地の相手と情報交換する言語情報処理装置において、 複数の文例を記憶する文例記憶手段と、 前記文例記憶手段に記憶されている文例に対応する音声
    情報を男性または女性の声にて記憶する音声記憶手段
    と、 前記遠隔地の相手の性別を認識する性別認識手段と、 前記遠隔地の相手からの文例に対応したコード信号を入
    力する入力手段と、 前記入力手段により入力されたコード信号に対応する文
    例を表示する表示手段と、 前記性別認識手段により認識された相手の性別に基づい
    て、前記音声記憶手段の中から特定の性別の音声情報を
    選択するとともに、前記表示手段に表示された文例に対
    応する音声情報を前記音声記憶手段から選択して出力す
    る音声出力手段とを具備することを特徴とする言語情報
    処理装置。
JP8038296A 1996-02-26 1996-02-26 言語情報処理装置 Pending JPH09231225A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP8038296A JPH09231225A (ja) 1996-02-26 1996-02-26 言語情報処理装置
US08/804,119 US5995935A (en) 1996-02-26 1997-02-20 Language information processing apparatus with speech output of a sentence example in accordance with the sex of persons who use it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8038296A JPH09231225A (ja) 1996-02-26 1996-02-26 言語情報処理装置

Publications (1)

Publication Number Publication Date
JPH09231225A true JPH09231225A (ja) 1997-09-05

Family

ID=12521355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8038296A Pending JPH09231225A (ja) 1996-02-26 1996-02-26 言語情報処理装置

Country Status (2)

Country Link
US (1) US5995935A (ja)
JP (1) JPH09231225A (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3822990B2 (ja) * 1999-01-07 2006-09-20 株式会社日立製作所 翻訳装置、記録媒体
US6278968B1 (en) 1999-01-29 2001-08-21 Sony Corporation Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system
US6356865B1 (en) * 1999-01-29 2002-03-12 Sony Corporation Method and apparatus for performing spoken language translation
US6442524B1 (en) 1999-01-29 2002-08-27 Sony Corporation Analyzing inflectional morphology in a spoken language translation system
US6266642B1 (en) 1999-01-29 2001-07-24 Sony Corporation Method and portable apparatus for performing spoken language translation
US6243669B1 (en) 1999-01-29 2001-06-05 Sony Corporation Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation
US6282507B1 (en) 1999-01-29 2001-08-28 Sony Corporation Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
US6374224B1 (en) * 1999-03-10 2002-04-16 Sony Corporation Method and apparatus for style control in natural language generation
JP2004037721A (ja) * 2002-07-02 2004-02-05 Pioneer Electronic Corp 音声応答システム、音声応答プログラム及びそのための記憶媒体
US20040266337A1 (en) * 2003-06-25 2004-12-30 Microsoft Corporation Method and apparatus for synchronizing lyrics
JP2005157494A (ja) * 2003-11-20 2005-06-16 Aruze Corp 会話制御装置及び会話制御方法
US8340971B1 (en) * 2005-01-05 2012-12-25 At&T Intellectual Property Ii, L.P. System and method of dialog trajectory analysis
US7599719B2 (en) * 2005-02-14 2009-10-06 John D. Patton Telephone and telephone accessory signal generator and methods and devices using the same
KR100699050B1 (ko) * 2006-06-30 2007-03-28 삼성전자주식회사 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법
US9070363B2 (en) * 2007-10-26 2015-06-30 Facebook, Inc. Speech translation with back-channeling cues
US8972268B2 (en) * 2008-04-15 2015-03-03 Facebook, Inc. Enhanced speech-to-speech translation system and methods for adding a new word
US8150695B1 (en) 2009-06-18 2012-04-03 Amazon Technologies, Inc. Presentation of written works based on character identities and attributes
US8903712B1 (en) * 2011-09-27 2014-12-02 Nuance Communications, Inc. Call steering data tagging interface with automatic semantic clustering
US8887044B1 (en) 2012-06-27 2014-11-11 Amazon Technologies, Inc. Visually distinguishing portions of content

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4623970A (en) * 1979-11-07 1986-11-18 Canon Kabushiki Kaisha Electronic equipment which outputs data in synthetic voice
US4624012A (en) * 1982-05-06 1986-11-18 Texas Instruments Incorporated Method and apparatus for converting voice characteristics of synthesized speech
US5113449A (en) * 1982-08-16 1992-05-12 Texas Instruments Incorporated Method and apparatus for altering voice characteristics of synthesized speech
US4823380A (en) * 1987-03-27 1989-04-18 Chaim Kohen Voice changer
JPH05324702A (ja) * 1992-05-20 1993-12-07 Fuji Xerox Co Ltd 情報処理装置
US5333275A (en) * 1992-06-23 1994-07-26 Wheatley Barbara J System and method for time aligning speech
US5636325A (en) * 1992-11-13 1997-06-03 International Business Machines Corporation Speech synthesis and analysis of dialects
EP0607615B1 (en) * 1992-12-28 1999-09-15 Kabushiki Kaisha Toshiba Speech recognition interface system suitable for window systems and speech mail systems
US5487671A (en) * 1993-01-21 1996-01-30 Dsp Solutions (International) Computerized system for teaching speech
DE69424019T2 (de) * 1993-11-24 2000-09-14 Canon Information Syst Inc System zur Sprachlichen Wiedergabe von Hypertextdokumenten, wie Hilfsdateien
US5572624A (en) * 1994-01-24 1996-11-05 Kurzweil Applied Intelligence, Inc. Speech recognition system accommodating different sources
US5715369A (en) * 1995-11-27 1998-02-03 Microsoft Corporation Single processor programmable speech recognition test system

Also Published As

Publication number Publication date
US5995935A (en) 1999-11-30

Similar Documents

Publication Publication Date Title
JPH09231225A (ja) 言語情報処理装置
TWI281146B (en) Apparatus and method for synthesized audible response to an utterance in speaker-independent voice recognition
KR0178077B1 (ko) 언어정보 공급장치
JP4135307B2 (ja) 音声通訳サービス方法および音声通訳サーバ
JP5967569B2 (ja) 音声処理システム
JP2927891B2 (ja) 音声ダイヤル装置
JP2003271597A (ja) 無線デバイス用の広く普及した言語翻訳のシステムおよび方法
EP1851757A1 (en) Selecting an order of elements for a speech synthesis
JP3260275B2 (ja) 活字入力で通話が可能な通信通話装置
JP2002278588A (ja) 音声認識装置
JP3501488B2 (ja) 音声認識装置及び方法
WO2007004391A1 (ja) 対話支援装置
JP2000122941A (ja) 電子メールを用いた情報転送方法
KR19990037776A (ko) 음성인식자동번역및통역장치
JPH11120176A (ja) 通訳装置及び方法並びに通訳装置制御プログラムを記憶した媒体
CN115066908A (zh) 用户终端及其控制方法
JP2000101705A (ja) 無線電話機
JP2001251429A (ja) 携帯電話を使用した音声翻訳システムおよび携帯電話
JPH08137385A (ja) 会話装置
JP6856277B1 (ja) 音声入力で翻訳言語を設定する自動音声翻訳システム、自動音声翻訳方法及びそのプログラム
JP2003150188A (ja) 聴覚障害者用対話支援装置
JP2005222316A (ja) 会話支援装置、会議支援システム、受付業務支援システム及びプログラム
KR100553066B1 (ko) 이동통신 단말기의 키패드 입력에 따른 음성출력 방법
KR200249965Y1 (ko) 휴대폰을 이용한 번역장치
KR100224121B1 (ko) 언어정보 처리장치 및 언어정보 처리시스템