JP2002259373A - 辞書装置 - Google Patents

辞書装置

Info

Publication number
JP2002259373A
JP2002259373A JP2001051774A JP2001051774A JP2002259373A JP 2002259373 A JP2002259373 A JP 2002259373A JP 2001051774 A JP2001051774 A JP 2001051774A JP 2001051774 A JP2001051774 A JP 2001051774A JP 2002259373 A JP2002259373 A JP 2002259373A
Authority
JP
Japan
Prior art keywords
dictionary
voice
word
text
continuous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001051774A
Other languages
English (en)
Inventor
Kazushi Kondo
量資 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001051774A priority Critical patent/JP2002259373A/ja
Publication of JP2002259373A publication Critical patent/JP2002259373A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 音声に含まれる未知の単語の辞書情報を容易
に取得できるようにする。 【解決手段】 音声データは、コントローラ101のワ
ードボタン104操作直前の所定時間(2秒間)の音声
データであり、ワードボタン操作に基づいて入力され
る。音声データは音声認識ソフトウェア21に送られて
音声認識される。テキスト生成部32は、2秒間に発声
された1または複数の単語をユーザに提示するテキスト
を音声認識結果に基づいて生成する。このテキストはス
ピーチソフトウェア23に送られて音声合成されて出力
部33を介してコントローラ101に送られてイヤーフ
ォン102から音声出力される。さらに選択された単語
について、辞書ソフトウェア22を用いて辞書情報を取
り出し、辞書情報を表すテキストが生成され、最終的に
イヤーフォン102から辞書情報が音声出力される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、音声に含まれる
未知の単語の辞書情報を容易に取得できる辞書装置に関
する。
【0002】
【従来の技術】音声情報を聞いているときに未知の単語
に遭遇することがある。とくに外国語の音声情報を聞い
ているこのようなことがしばしばある。通常、このよう
なときには、不便を感じることが多い。例えば、電車の
中で英語の学習をカセットテープ再生装置などを利用し
て行っていることを考える。聞いているうちに、知らな
い単語や聞き取れない単語があったときには、テキスト
を見て綴りを確認し、さらに、そのテキストにその単語
の意味が書いていないときには、辞書を引いていた。こ
のように通常は煩雑な手順を踏んでいた。
【0003】また、混雑した電車の中や、歩いていると
き、自動車を運転しているときなど、テキストや辞書を
簡単に開くことができない状況下では、そもそも単語の
意味を確認する術がない。
【0004】また、視覚障害者は、上述のテキストや辞
書を利用することがはなはだ困難である。
【0005】語学学習に限っていえば、外国語の文章を
読み上げた後に、日本語の文章を続けて読み上げるもの
が知られている。これを利用すれば、テキストや辞書を
用いることなく未知の単語についての情報を取得するこ
とができる。しかし、このような教材は高価であり、ま
た自分でこのような教材を準備するのも大変である。
【0006】結局、いままでは、聴覚だけを利用して未
知の単語に関する情報を取得するのは、極めて困難であ
った。
【0007】
【発明が解決する課題】この発明は、以上の事情を考慮
してなされたものであり、主に聴覚だけを利用して音声
中に含まれる未知の単語に関する辞書情報を提供する技
術を提供することを目的としている。
【0008】
【課題を解決するための手段】この発明によれば、上述
の目的を達成するために、辞書装置に、連続音声を出力
する手段と、操作者のタイミング指定を入力する手段
と、上記連続音声に対して音声認識を実行する手段と、
上記音声認識の認識結果と上記タイミング指定に基づい
て連続音声中の単語を特定する手段と、上記特定された
単語に基づいて辞書情報を生成する手段と、上記辞書情
報の音声を出力する手段とを設けるようにしている。
【0009】この構成においては、連続音声中の、操作
者のタイミング指定に対応する単語を特定し、この単語
の辞書情報を音声出力するようにしている。したがっ
て、未知の単語の音声に遭遇しても、テキストや辞書を
参照することなしに、その単語の辞書情報を取得するこ
とができる。辞書情報は、例えば、綴り、1または複数
の意味、品詞、文例等、辞書が提供する種々の情報であ
る。
【0010】音声認識は、連続して行うことが必ずしも
必要ではなく、操作者のタイミング指定に基づいて行う
ようにしてもよい。連続音声は所定のバッファメモリ等
により所定遅延を含んで音声認識処理部に送られるよう
にする。タイミング指定はボタン操作でも良いし、音声
認識を利用して音声コマンドで行っても良い。
【0011】辞書装置は、単体の機器として構成しても
良いし、ユーザ装置(例えば携帯型の音声再生装置)と
支援計算機とで構成しても良い。支援計算機は、例え
ば、携帯型あるいは据え置き型のパーソナル・コンピュ
ータであり、ワイヤやBluetooth(商標)等に
用いる微弱電波の無線チャネルを介してユーザ装置に接
続される。インターネット上に置かれるサーバを支援計
算機として用いてもよい。
【0012】また、辞書情報は、音声出力されても良い
し、表示装置を用いて表示出力されても良い。音声およ
び表示の双方で出力されても良い。
【0013】なお、この発明は装置またはシステムの形
態として実現されるのみでなく、方法の形態でも実現可
能であり、その一部をコンピュータソフトウェアとして
実現することもできる。
【0014】この発明の上述の側面およびこの発明の他
の側面は特許請求の範囲に記載されるとおりであり、以
下、実施例に即して詳細に説明される。
【0015】
【発明の実施の形態】以下、この発明の実施例について
説明する。
【0016】図1は、この発明の実施例を全体として示
しており、この図において、実施例の辞書装置は音声再
生装置100および携帯型パーソナルコンピュータ20
0を含んで構成されている。音声再生装置100にはコ
ントローラ101が設けられている。音声再生装置10
0は、オーディオカセットテープ、ミニディスク、DA
T(デジタルオーディオテープ)等の音声再生装置であ
り、任意の方式のものを採用できる。コントローラ10
1はケーブルを用いて音声再生装置100に接続され、
再生、再生中止、早送り等の制御を行うものである。操
作ボタン群103はこのような再生、再生中止等を制御
する一群のボタンであり、通常のものである。このコン
トローラ101には通常ではイヤーフォン102が接続
される。イヤーフォン102を用いて再生音声を聞くこ
とができる。なお、コントローラ101やイヤーフォン
102のケーブルに換えて無線チャネルを用いても良
い。
【0017】コントローラ101にはワードボタン10
4および通信インタフェース105も設けられている。
ワードボタン101は、聞いている音声に該当する単語
の辞書情報を調べたいときに操作するものである。通信
インタフェース105は無線で携帯型パーソナルコンピ
ュータ200と通信するものである。この例では、無線
通信は、微弱電波を用いて行い、Bluetooth
(商標)の仕様を採用している。もちろん、IEEE1
394やUSB(ユニバーサルシリアルバス)等の有線
チャネルを用いても良い。
【0018】携帯型パーソナルコンピュータ200は、
通常のハードウェア構成を有し、プロセッサ、主メモ
リ、ビデオメモリ、補助記憶装置、表示制御装置、表示
装置等を有している。さらに、この実施例の携帯型パー
ソナルコンピュータ200は通信インタフェース201
を有し、コントローラ101と通信できるようになって
いる。
【0019】図2は、携帯型パーソナルコンピュータ2
00のソフトウェア構成を示しており、この図におい
て、オペレーティング・システム20上に音声認識ソフ
トウェア21、辞書ソフトウェア22、スピーチソフト
ウェア23が実装されている。アプリケーション24
は、コントローラ101からのデータや指示情報に基づ
いてユーザとの間で所望のインターラクションを行い、
所望の単語について辞書情報を提供するものである。そ
の詳細については図3の模式図および図4のフローチャ
ートを参照して以下に詳述する。
【0020】図3はアプリケーション24を模式的に示
しており、この図において、通信インターフェース20
1(図1)を介して入力されたデータが入力部30に入
力される。入力データは音声データやコマンドである。
音声データは、コントローラ101のワードボタン10
4の操作直前の所定時間(例えば2秒間)の音声データ
であり、ワードボタン104の操作に基づいて入力され
る。コマンドは選択データ等である。音声データは音声
認識ソフトウェア21(図2)に送られて音声認識され
る。音声認識結果はバッファ31に送られ、バッファ3
1の認識結果を利用してテキスト生成部32がテキスト
を生成する。このテキストは、2秒間に発声された1ま
たは複数の単語をユーザに提示し、複数の場合には1つ
の単語の選択を促すものである。このテキストはスピー
チソフトウェア23(図2)に送られて音声合成されて
出力部33を介してコントローラ101に送られてイヤ
ーフォン104(図1)から音声出力される。音声デー
タ以外のコマンド等はテキスト生成部32に送られ、バ
ッファ31にストアされている単語から所望の単語を選
択し、辞書ソフトウェア22(図2)を用いて辞書情報
を取り出し、辞書情報を表すテキストを生成する。そし
てこの辞書情報を表せすテキストがスピーチソフトウェ
ア23(図2)に送られその音声データがコントローラ
101に送られる。この結果イヤーフォン102から辞
書情報が音声出力される。
【0021】図4は、この実施例の動作を示している。
なお、ユーザは、自分の好みに応じた辞書情報の提供方
法を指定できる。例えば、単語の綴りのみ、単語の意味
のみ等の結果の範囲、意味をいくつまで出力するかの指
定、例文を含めるかどうか、それらすべてか等を指定す
ることができる。このような個人ごとの好みをプロファ
イルに保持しておけば、とくにインターネット上のサー
バを用いる場合等に最適となる。
【0022】また、図4の動作例では、出力の仕方を音
声出力とテキスト表示出力との2つから選択できる。テ
キスト表示出力は音声再生装置100やコントローラ1
01の液晶表示装置等の表示装置を用いて行うことがで
きる。
【0023】図4の動作は以下のとおりである。
【0024】[ステップS10]:ユーザプロファイル
を読み込む。 [ステップS11]:ユーザのアクションすなわちワー
ドボタン104の押圧操作を検出する。 [ステップS12]:再生を一時停止する。 [ステップS13]:ユーザのアクションが起こる以前
の2秒間の音声データを送信する。 [ステップS14]:音声認識ソフトウェア21で単語
に分割する。 [ステップS15]:テキスト表示か音声出力かを判別
する。 [ステップS16]:テキスト表示であれば分解した単
語を順番に表示装置に出力する。 [ステップS17]:音声出力であれば、分解した単語
を順に音声で出力する。 [ステップS18]:ワードボタン104が押されたか
どうかを判別する。 [ステップS19]:該当する単語を検出する。 [ステップS20]:検出した単語について辞書を参照
する。 [ステップS21]:テキスト表示か音声出力かを判別
する。 [ステップS22]:テキスト表示であれば、表示装置
に単語の意味を順番に出力する。 [ステップS23]:音声出力であれば、単語の意味を
順番に音声で出力する。 [ステップS24]:音声の再生を再開して元に戻る。
【0025】具体的な例を挙げて上述の動作をさらに説
明する。
【0026】例えば「This is a VAIO」
という音声が再生されて、ワードボタン104が押され
たとする。この文章が丁度2秒に収まっていると、この
部分を単語に分解してつぎのような音声出力を行う。
【0027】「1st this」 「2nd is」 「3rd a」 「4th VAIO」
【0028】そして、4番目の「VAIO」について知
りたかったとすると、この発音時にワードボタン104
を操作する。そうするとつぎのような辞書情報に関する
音声が出力される。
【0029】「4番目の単語は、ヴィ、エイ、アイ、オ
ウ、ヴァイオ」
【0030】「ソニー株式会社のパーソナルコンピュー
タの名前です」この音声出力は例えばユーザが再度ワー
ドボタン104を操作するまで繰返される。もちろん、
上述の例で「1st」、「2nd」等の音声出力を省略
して単語のみを順に音声出力しても良い。
【0031】以上説明したように、この実施例によれ
ば、ワードボタンを操作するだけで所望の単語の辞書情
報を入手することができる。この実施例によれば、テキ
ストや辞書を携帯せずに未知の単語についての辞書情報
を簡易に取得できる。
【0032】また、上述の実施例によれば、テレビ番
組、映画、ラジオ等をそのまま語学学習の教材として用
いることができる。
【0033】以上でこの発明の実施例の説明を終了す
る。
【0034】なお、この発明は上述の実施例に限定され
るものではなく、その趣旨を逸脱しない範囲で種々変更
が可能である。
【0035】例えば、図5に示すように、携帯電話機3
00とコントローラ101とを無線通信で接続し、さら
に携帯電話機300をその通信事業者のパケット網30
1を介してインターネット400に接続してインターネ
ット400上のサーバ500の辞書サービスや、音声認
識サービス、音声合成サービス等を利用するようにして
も良い。なお、携帯電話機300は例えばBlueto
oth(商標)の無線通信インタフェース302を有す
る。もちろん、コントローラ101がインターネットに
直接または間接に接続するインタフェース(例えば移動
局の機能)を具備して、携帯電話機300を省略するよ
うにしても良い。
【0036】また、図6に示すように、常時、連続音声
を単語に分解して表示装置に表示するようにしても良
い。なお、図6の動作は図から明らかであるので詳細に
説明を行わない。
【0037】また図7に示すように、テキスト入力部4
0から規則音声合成部41にテキストを供給してテキス
トの音声を出力し、音声出力部(アンプ等)42を介し
てイヤーフォン102を発音駆動する際に、ワードボタ
ン104の操作によりテキスト中の単語を指定し辞書情
報を出力するようにしても良い。辞書情報や種々のナレ
ーションはテキスト生成部43が辞書ソフトウェア22
を参照して生成する。生成したテキストは規則音声合成
部41で音声情報に変換されてイヤーフォン102に供
給される。規則音声合成部41はスピーチソフトウェア
23でもよい。少なくとも音声出力部42およびイヤー
フォン102はユーザ装置に配置される。ユーザ装置の
処理能力に応じてテキスト入力部40、規則音声合成部
41、辞書ソフトウェア22等もユーザ装置側に配置し
ても良い。この例でも、ユーザ装置と他のコンピュータ
資源との間は無線等のネットワークにより接続される。
【0038】また、上述の例ではユーザ装置として音声
再生装置を用いたが音声とともにビデオを再生するもの
でもよい。また、ユーザ装置とパーソナルコンピュータ
やサーバとを連結して辞書システムを構成したが、ユー
ザ装置単体で辞書システムを構築するようにしても良
い。
【0039】また、ワードボタン等の操作により単語位
置を指定するようにしたが、任意の入力操作で単語位置
を指定できる。たとえば、音声コマンドや「今の何
?」、「え?」等の音声に基づいて単語位置を指定でき
るようにしても良い。
【0040】また、上述の例では、英語音声、日本語辞
書情報を例に挙げたが、他の任意の言語の音声から他の
任意の辞書情報を取り出すことができる。例えば日本語
音声を聞きながらフランス語の辞書情報を入手すること
ができる。もちろん、日本語音声を聞きながら日本語の
辞書情報を入手する等同一の自然言語同士でも利用可能
である。
【0041】また、単語単位ではなく、文章を抽出して
翻訳文を音声出力あるいは表示出力するようにしてもよ
い。
【0042】上述の実施例で出力した情報を保持してお
き再度学習に利用するようにしてもよい。また出力した
情報を元にテストを作成しても良い。
【0043】
【発明の効果】以上説明したように、この発明によれ
ば、音声中に含まれる未知の単語あるいは不明な発音に
遭遇したときに簡易に該当箇所の辞書情報を取得でき
る。
【図面の簡単な説明】
【図1】 この発明の実施例を全体として示すブロック
図である。
【図2】 上述実施例のパーソナルコンピュータのソフ
トウェア構成を示す図である。
【図3】 上述のパーソナルコンピュータのアプリケー
ションを説明する図である。
【図4】 上述実施例の動作を説明するフローチャート
である。
【図5】 上述実施例の変形例を説明するブロック図で
ある。
【図6】 上述実施例の他の変形例を説明するフローチ
ャートである。
【図7】 上述実施例のさらに他の変形例を説明するブ
ロック図である。
【符号の説明】
20 オペレーティング・システム 21 音声認識ソフトウェア 22 辞書ソフトウェア 23 スピーチソフトウェア 24 アプリケーション 24 出力部 30 入力部 31 バッファ 32 テキスト生成部 33 出力部 40 テキスト入力部 41 規則音声合成部 42 音声出力部 43 テキスト生成部 100 音声再生装置 101 コントローラ 102 イヤーフォン 103 操作ボタン群 104 ワードボタン 200 携帯型パーソナルコンピュータ 300 携帯電話機 301 パケット網 302 通信インタフェース 400 インターネット 500 サーバ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/24 G10L 3/00 571R H04B 7/26 H04B 7/26 R H04Q 7/38 109M 109H Fターム(参考) 5B091 AA03 BA02 CA21 CB12 CB32 CC02 CD03 5D015 AA02 BB01 GG01 KK04 LL06 LL08 5D045 AA20 AB04 AB26 5K067 AA34 BB04 BB41 CC10 EE00 EE02 EE12 EE35 FF02 FF25 HH22

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 連続音声を出力する手段と、 操作者のタイミング指定を入力する手段と、 上記連続音声に対して音声認識を実行する手段と、 上記タイミング指定に相当する部分の上記音声認識の認
    識結果に基づいて連続音声中の単語を特定する手段と、 上記特定された単語に基づいて辞書情報を生成する手段
    と、 上記辞書情報の音声を出力する手段とを有することを特
    徴とする辞書装置。
  2. 【請求項2】 上記単語を特定する手段は、上記タイミ
    ングに応じた所定個数の一連の単語を特定し、さらに、
    ユーザの指定に基づいて1の単語を特定する請求項1記
    載の辞書装置。
  3. 【請求項3】 上記タイミング指定を入力する手段は、
    押しボタン装置を含む請求項1または2記載の辞書装
    置。
  4. 【請求項4】 ユーザ装置と支援計算機とをネットワー
    クで接続し、 上記ユーザ装置は、 連続音声を出力する手段と、 操作者のタイミング指定を入力する手段とを有し、 上記支援計算機は、 上記連続音声に対して音声認識を実行する手段と、 上記タイミング指定に相当する部分の上記音声認識の認
    識結果に基づいて連続音声中の単語を特定する手段と、 上記特定された単語に基づいて辞書情報を生成する手段
    とを有し、 上記ユーザ装置は、さらに、上記辞書情報の音声を出力
    する手段を有する辞書装置。
  5. 【請求項5】 上記支援計算機は微弱電波に基づく無線
    ネットワークでユーザ装置に接続されたパーソナルコン
    ピュータとする請求項4記載の辞書装置。
  6. 【請求項6】 上記支援計算機はインターネットを介し
    て接続されるサーバ計算機とする請求項4記載の辞書装
    置。
  7. 【請求項7】 連続音声を出力する手段と、 操作者のタイミング指定を入力する手段と、 上記入力されたタイミング指定に基づいて連続音声中の
    単語を特定する手段と、 上記特定された単語に基づいて辞書情報を生成する手段
    と、 上記辞書情報を出力する手段とを有することを特徴とす
    る辞書装置。
  8. 【請求項8】 上記辞書情報は音声として出力される請
    求項7記載の辞書装置。
  9. 【請求項9】 上記単語を特定する手段は、 上記連続音声に対して音声認識を実行する手段とを有
    し、 上記音声認識の認識結果と上記タイミング指定に基づい
    て単語を特定する請求項7記載の辞書装置。
  10. 【請求項10】 上記連続音声はテキストに基づいて連
    続音声を出力する音声合成手法により出力され、 上記単語を特定する手段は、上記タイミング指定と上記
    テキストの文字列とに基づいて単語を特定する請求項7
    記載の辞書装置。
JP2001051774A 2001-02-27 2001-02-27 辞書装置 Pending JP2002259373A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001051774A JP2002259373A (ja) 2001-02-27 2001-02-27 辞書装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001051774A JP2002259373A (ja) 2001-02-27 2001-02-27 辞書装置

Publications (1)

Publication Number Publication Date
JP2002259373A true JP2002259373A (ja) 2002-09-13

Family

ID=18912504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001051774A Pending JP2002259373A (ja) 2001-02-27 2001-02-27 辞書装置

Country Status (1)

Country Link
JP (1) JP2002259373A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263184A (ja) * 2002-03-07 2003-09-19 Canon Inc 音声合成装置及びその方法、プログラム
JP2011221237A (ja) * 2010-04-08 2011-11-04 Nec Corp 音声出力装置、そのコンピュータプログラムおよびデータ処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263184A (ja) * 2002-03-07 2003-09-19 Canon Inc 音声合成装置及びその方法、プログラム
US7353175B2 (en) 2002-03-07 2008-04-01 Canon Kabushiki Kaisha Apparatus, method, and program for speech synthesis with capability of providing word meaning immediately upon request by a user
JP2011221237A (ja) * 2010-04-08 2011-11-04 Nec Corp 音声出力装置、そのコンピュータプログラムおよびデータ処理方法

Similar Documents

Publication Publication Date Title
US6377925B1 (en) Electronic translator for assisting communications
US6560574B2 (en) Speech recognition enrollment for non-readers and displayless devices
EP2005319B1 (en) System and method for extraction of meta data from a digital media storage device for media selection in a vehicle
JP5750380B2 (ja) 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
KR20030044899A (ko) 음성으로 제어되는 외국어 번역기용 방법 및 장치
US20100088096A1 (en) Hand held speech recognition device
KR101819459B1 (ko) 음성 인식 오류 수정을 지원하는 음성 인식 시스템 및 장치
JP2003307997A (ja) 語学教育システム、音声データ処理装置、音声データ処理方法、音声データ処理プログラム、及び記憶媒体
JP2011504624A (ja) 自動同時通訳システム
JP2000207170A (ja) 情報処理装置および情報処理方法
US10216732B2 (en) Information presentation method, non-transitory recording medium storing thereon computer program, and information presentation system
JPH11109991A (ja) マンマシンインターフェースシステム
JPH09325796A (ja) 文書朗読装置
JP6832503B2 (ja) 情報提示方法、情報提示プログラム及び情報提示システム
JP2001318592A (ja) 言語学習装置及びその言語分析方法
JPH10326176A (ja) 音声対話制御方法
JPH117296A (ja) 電子回路を有する記憶媒体と該記憶媒体を有する音声合成装置
KR20180045782A (ko) 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법, 이를 실행하는 모바일 단말기 및 이를 실행하기 위한 애플리케이션을 저장하는 기록매체
US20090055167A1 (en) Method for translation service using the cellular phone
WO2008118038A1 (fr) Procédé d'échange de messages et dispositif permettant sa mise en oeuvre
JP2000206987A (ja) 音声認識装置
JP2020113150A (ja) 音声翻訳対話システム
JP2002259373A (ja) 辞書装置
US20200175988A1 (en) Information providing method and information providing apparatus
JP2016186646A (ja) 音声翻訳装置、音声翻訳方法および音声翻訳プログラム