JP3962763B2 - 対話支援装置 - Google Patents

対話支援装置 Download PDF

Info

Publication number
JP3962763B2
JP3962763B2 JP2006512298A JP2006512298A JP3962763B2 JP 3962763 B2 JP3962763 B2 JP 3962763B2 JP 2006512298 A JP2006512298 A JP 2006512298A JP 2006512298 A JP2006512298 A JP 2006512298A JP 3962763 B2 JP3962763 B2 JP 3962763B2
Authority
JP
Japan
Prior art keywords
keyword
recognition result
support apparatus
matching degree
dialogue support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006512298A
Other languages
English (en)
Other versions
JPWO2005101235A1 (ja
Inventor
研治 水谷
純幸 沖本
太郎 南部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3962763B2 publication Critical patent/JP3962763B2/ja
Publication of JPWO2005101235A1 publication Critical patent/JPWO2005101235A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

本発明は、音声で入力された原言語の文を目的言語に変換して音声または文字で出力する携帯型の対話支援装置に関するものである。
音声入力を翻訳する対話支援システムは、ワークステーションやパーソナルコンピュータの上のソフトウェアとして開発されてきた。その性能は実験室環境において、旅行会話などの用途に会話の範囲を限定した場合、その使い方を熟知しているユーザにとっては実用的なレベルまで到達している。しかしながら、ユーザビリティという観点では、一般の海外旅行者が実際の旅行で使うことができるレベルには到達していない。ユーザビリティを高めるためには、容易に携行できる程度の大きさのハードウェアに実装し、かつ、容易に習熟することが可能で、簡単に操作ができるユーザインタフェースを実現する必要がある。
従来は、片手で持つことができる程度のPDA(Personal Digital Assistance)に対して、ワークステーションやパーソナルコンピュータ上で開発した音声翻訳ソフトウェアを機能や性能を制限して移植することによってユーザビリティの向上を目指してきた(例えば非特許文献1参照)。
ところで、音声入力による、用例に基づく翻訳方式では、一般的な旅行会話をカバーするためには数千の用例を用意する必要があり、音声認識の結果によっては候補となる用例が多数出現する場合がある。例えば、用例全体で見たときに出現頻度の高い単語(例えば「ある」や「円」など)が音声認識で確度良く認識され、それ以外の単語がうまく認識されない場合は、必然的に候補として選択されてユーザに提示される用例の数は増加する。そのような場合、ユーザは用例候補の中から所望の用例を選択することは容易ではない。特に用例候補の一覧を見るための表示装置が小さく、同時に見ることができる用例の数が著しく少ない場合には、提示された候補の中から所望の用例を選択することはより一層困難になる。また、候補の用例を閲覧中に所望の用例に近い用例を発見した場合、その用例を採用するのか、あるいは、より近い用例を検索するのか判断に迷う場合も多い。したがって大量の用例候補の選択を補助する機能が必要である。
そこで、本願出願人は、用例中の単語の依存関係に基づいて用例を検索することによって柔軟な検索を可能とするとともに、表示内容についての使用性の向上を図ることができる音声変換装置を提案している(例えば、特許文献1参照。)。
Kenji Matsui et al. "AN EXPERIMENTAL MULTILINGUAL SPEECH TRANSLATION SYSTEM", Workshops on Perceptual/Perceptive User Interfaces 2001, ACM Digital Library, ISBN 1-58113-448-7 特開2003−288339号公報
しかしながら、用例の検索精度の改善には限界があり、特に用例候補の一覧を見るための表示装置が小さく、同時に見ることができる用例の数が著しく少ない場合には、まだ充分ではなく、提示された候補の中から所望の用例を選択することは困難である。
そこで、本発明は上記の事情に鑑みてなされたものであり、入力された音声に対応する用例候補の中から所望の用例を容易に選択することができる対話支援装置を提供することを目的とする。
上記目的を達成するため、本発明に係る対話支援装置は、入力される原言語の音声を認識し、音声認識結果に応じて、前記原言語に対応する翻訳言語を提示する対話支援装置であって、前記音声認識結果に含まれるキーワードに基づいて原言語の用例を検索する用例検索手段と、前記用例中における前記音声認識結果に含まれるキーワードの位置と、前記音声認識結果における前記キーワードの位置とを比較することによって、前記キーワードのキーワード一致度を算出する用例比較手段と、検索された前記用例を表示するとともに、前記キーワード一致度に基づいて、前記用例の中の前記キーワードを強調表示する用例表示制御手段とを備えることを特徴とする。
以上の説明から明らかなように、本発明に係る対話支援装置によれば、多数の用例候補の中でユーザが所望するであろう用例に含まれるキーワードを、強調して表示することができる。よって、音声認識結果が不十分で用例の候補が多数得られる場合でも、ユーザは、強調表示、あるいは、ソートされた用例候補の中から所望の用例を簡単かつ速やかに選択することが可能になる。したがって、ユーザは音声入力によって速やかに所望の用例を検索することができ、対話の相手を待たせることがないので、対話支援装置を介した対話をスムーズに進行することができ、原言語以外の言語が必要とされる機会が増加し、対話支援装置が普及しつつある今日における実用的価値は極めて高い。
本発明の実施の形態に係る対話支援装置は、入力される原言語の音声を認識し、音声認識結果に応じて、前記原言語に対応する翻訳言語を提示する対話支援装置であって、前記音声認識結果に含まれるキーワードに基づいて原言語の用例を検索する用例検索手段と、前記音声認識結果と、検索された前記用例との比較を行う用例比較手段と、検索された前記用例を表示するとともに、前記音声認識結果と前記用例との比較に基づいて、前記用例の中の前記キーワードを強調表示する用例表示制御手段とを備えることを特徴とする。
これによって、多数の用例候補の中でユーザが所望するであろう用例に含まれるキーワードを、強調して表示することができる。よって、ユーザは、入力した音声に対応する多数の用例候補の中から所望の用例を簡単かつ速やかに選択することが可能になる。
ここで、前記用例比較手段は、前記用例中における前記音声認識結果に含まれるキーワードの位置と、前記音声認識結果における前記キーワードの位置とを比較することによって、前記キーワードのキーワード一致度を算出し、前記用例表示制御手段は、前記キーワード一致度に基づいて前記用例の中の前記キーワードを強調表示することが好ましい。
また、前記用例比較手段は、前記キーワード一致度に基づいて前記キーワードを強調表示する際の表示パラメータを算出し、前記用例表示制御手段は、前記表示パラメータに基づいて前記用例の中の前記キーワードを強調表示してもよい。
また、前記用例比較手段は、前記用例中における前記音声認識結果に含まれるキーワードの位置、および前記音声認識結果における前記キーワードの位置を、読み表記または発音記号の文字列における出現位置で算出してもよい。
これによって、例えば音声認識による発声からの経過時間等を用いてキーワードの位置を算出するのに比べて、キーワードの位置の算出を短時間で行うことができる。
また、前記用例比較手段は、前記用例中における前記音声認識結果に含まれるキーワードの位置、および前記音声認識結果における前記キーワードの位置を、読み表記または発音記号の文字列における出現位置で算出する際に、前記読み表記または前記発音記号の文字数を文字の種類に応じて可変して計数してもよい。
また、前記用例比較手段は、前記原言語が日本語である場合、前記文字の種類が前記読み表記の短音、長音、および促音のいずれであるかに応じて文字数を変更して計数してもよい。
また、前記用例比較手段は、前記原言語が英語である場合、前記文字の種類が前記発音記号の母音、長母音、および子音のいずれであるかに応じて文字数を変更して計数してもよい。
また、前記用例比較手段は、前記用例中における前記音声認識結果に含まれるキーワードの位置と、前記音声認識結果における前記キーワードの位置との差を、前記キーワード一致度としてもよい。
また、前記用例比較手段は、前記用例中における前記音声認識結果に含まれるキーワードの位置と、前記音声認識結果における前記キーワードの位置との差を正規化した値を、前記キーワード一致度としてもよい。
また、前記用例比較手段は、前記用例中に含まれる各キーワードの前記キーワード一致度に基づいて、前記用例に対する文一致度を算出してもよい。
ここで、前記用例比較手段は、前記キーワード一致度が所定値以上である前記キーワードの前記用例中における数を前記文一致度として算出してもよい。
また、前記用例表示制御手段は、前記用例を複数表示する際に、前記文一致度に基づいて前記用例の表示順序を決定してもよい。
これによって、多数の用例候補の中でユーザが所望するであろう用例を、優先して表示することができる。よって、ユーザは、多数の用例候補の中から所望の用例を簡単かつ速やかに選択することが可能になる。
また、本発明に係る用例検索装置は、入力される文に対応する用例を検索する用例検索装置であって、前記文に含まれるキーワードに基づいて前記用例を検索する用例検索手段と、前記文と、検索された前記用例との比較を行う用例比較手段と、検索された前記用例を表示するとともに、前記文と前記用例との比較に基づいて、前記用例の中の前記キーワードを強調表示する用例表示制御手段とを備えることを特徴とする。
これによって、多数の用例候補の中でユーザが所望するであろう用例に含まれるキーワードを、強調して表示することができる。よって、ユーザは、多数の用例候補の中から所望の用例を簡単かつ速やかに選択することが可能になる。
なお、本発明は、このような対話支援装置として実現することができるだけでなく、このような対話支援装置が備える特徴的な手段をステップとする対話支援方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
以下、本発明の実施の形態について、図面を参照しながら説明する。
図1は本発明に係る対話支援装置の一実施の形態の構成を示すブロック図である。
対話支援装置100は、入力される原言語の音声を認識し、認識された音声認識結果に応じて、原言語に対応する翻訳言語(目的言語)を提示する対話支援装置であり、図1に示すように制御部101、GUI(Graphical User Interface)部102、音声入力部103、音声認識部104、データベース部115、翻訳部116、音声合成部113、および音声出力部114を備えている。また、データベース部115は、用例データベース105、クラス単語情報106、および単語辞書107を備えている。また、翻訳部116は、用例選択部108、用例比較部112、単語選択部109、代替単語選択部110、および言語変換部111を備えている。
制御部101は、各構成要素に指示を行い、各構成要素間の情報の流れを制御する。GUI部102は、ユーザからの入力を受け付け、制御部101に送るとともに、制御部101からの用例等の情報を表示パラメータに基づいて表示する。音声入力部103は、ユーザの音声を集音する。音声認識部104は、音声入力部103から送られるユーザの音声を連続音声認識する。用例データベース105は、原言語と目的言語の用例の対応を保持する。クラス単語情報106は、用例データベース105において、クラス化されている単語に関する情報を保持する。単語辞書107は、用例データベース105とクラス単語情報106で使用されているすべての単語(キーワード)に関する情報を保持する。用例選択部108は、制御部101から送られてくる音声認識結果またはGUI部102の操作に従って、用例データベース105の中から1つ以上の用例を選択する。
用例比較部112は、用例選択部108によって選択された1つ以上の用例について、音声認識部104により認識された音声認識結果と比較し、単語の出現位置を計算する。また、用例比較部112は、単語の出現位置より単語のスコア(キーワード一致度)を計算し、この単語のスコアに基づいて各用例の各単語について表示パラメータを算出する。単語選択部109は制御部101からの指示に従って、用例選択部108により選択された用例の中の、1つの用例についてクラス化された単語の選択を行う。代替単語選択部110は、制御部101により指定されたクラス化された単語について、クラス単語情報106を参照して代替単語を選択する。言語変換部111は、制御部101により指定された用例を用例データベース105およびクラス単語情報106を参照することにより目的言語に変換する。音声合成部113は、制御部101より指定された目的言語による用例文を合成音声に変換する。音声出力部114は、音声合成部113の出力を音声としてユーザに提供する。
図2は用例データベース105の具体例を示す図である。ここでは、説明を簡単にするため多数の用例の中から4つの用例を選択したものである。用例は対話の1文に対応し、一般の旅行会話において使用される頻度が高い文である。「用例番号:」のフィールドは、用例データベースの中で1つの用例を同定するための識別子であり、他の用例と重複することはない。各用例において「原言語:」と「目的言語:」のフィールドは、原言語と目的言語の対応を保持している。「原言語の構成要素:」、「構成要素の依存関係:」は用例を音声で検索するときに使用される。
「原言語:」のフィールドにおいて、スラッシュ「/」記号は単語辞書107で管理されている単語の区切りを表す。また、「原言語:」のフィールドにおいて、丸数字は「原言語の構成要素:」のフィールドに登録されている単語を指すポインタである。例えば、用例203において「原言語:」のフィールドの丸数字2は、「原言語の構成要素:」のフィールドの丸数字2「かかり」を指す。したがって、用例203の「原言語:」フィールドは対話支援装置100において、「<日数>かかりますか」と解釈される。
対話支援装置100において、クラス化とは「意味的に同類または同種の単語と関連付けされたこと」を意味する。例えば用例203の「原言語の構成要素:」のフィールドの丸数字1、および、用例204の「原言語の構成要素:」のフィールドの丸数字2はそれぞれクラス化された単語である。クラス化された単語は、クラス単語情報106で定義される同じクラスの単語と置換が可能である。本実施の形態では便宜上、クラス化された単語については不等号で囲んで記述している。
図3はクラス単語情報106の具体例301、および、単語辞書107の具体例302を示す図である。各クラスは対話支援装置100で唯一の識別子(クラスID)を持ち、クラス名には「薬」や「果物」のように抽象度の高い単語が割り当てられる。具体例301において同じクラスIDに所属する「原言語」と「目的言語」の単語の対の中で、先頭の行はクラス代表単語である。例えば、クラス名<薬>において、「薬」"medicine"は、c1のクラス代表単語である。それ以外の行はクラスの具体的な実体を表現するメンバ単語である。例えば、c1において「アスピリン」"aspirin"や「トローチ」"troche"などはc1のメンバ単語である。なお、クラス単語情報106はクラスを階層化して構成してもよい。単語辞書107は、クラス単語情報106に含まれるすべての単語と、用例データベース105の「原言語の構成要素:」のフィールドに出現する単語を保持して管理する。各単語は本装置内で唯一の識別子(単語ID)を持ち、その表記と読み、および、クラス単語情報106へのポインタで構成される。例えば、具体例302における単語IDが「w2」である単語は、その表記として「犬」を、読みとして「イヌ」を、クラス情報としてc3を持ち、具体例301のクラス名<ペット>を指す。なお、図2に示した用例データベース105の具体例においては、「原言語:」フィールドと「原言語の構成要素:」フィールドには便宜上、単語の表記やクラス名を使用しているが、実際には単語IDやクラスIDで構成されている。
図4は市販の一般的なPDAや小型のパーソナルコンピュータに本発明を実装した様子を示す図である。音声入力部103はマイク401、音声出力部114はスピーカ402に相当し、ユーザは401に対して音声を発し、相手に402から出力される目的言語の音声を聞いてもらう。GUI部102はタッチパネル付液晶ディスプレイ403に相当し、ユーザはスタイラス404を用いて液晶ディスプレイ403に表示されたオブジェクトを操作する。また、選択部405は用例を表示および選択するための領域、用例選択結果表示部406はユーザにより指定された用例を表示する領域、翻訳結果表示部407は言語変換部111が目的言語に変換した用例を表示する領域である。ボタン408は音声入力を開始する直前に押す領域である。なお、容易に類推して実現できることから図4には示していないが、PDAやパーソナルコンピュータにボタンやキーボードなどの入力デバイスが実装されている場合は、スタイラス404の代わりにこれらの入力デバイスを用いてGUI部102を操作することも可能である。
次に、上記のように構成された対話支援装置100の動作について、まず簡単のために用例比較部112の動作を除いて説明する。
図5は対話支援装置100の用例比較部112を除いた動作の流れを示す基本的なフローチャートであり、図6から図16はGUI部102の表示内容の一例を示す図である。
まず、図6に示すようにボタン408がユーザによって指定されると、制御部101は音声入力部103に音声入力を指示する。ユーザはマイク401を用いて例えば「あの、なにかくすりはありませんか」と発声する。音声入力部103は、入力された音声を音声認識部104に送信する(ステップS501)。音声認識部104は音声認識を行い、認識結果を制御部101に出力する(ステップS502)。
以下では、「あの、なにかくすりはありませんか」という入力に対して、誤認識を含んだ認識結果「7日薬はありますか」が音声認識部104から出力された場合について説明する。
制御部101は、「7日薬はありますか」から用例を検索するように用例選択部108に命令する。用例選択部108は、「7日薬はありますか」から用例を検索する(ステップS503)。すなわち、用例選択部108は、「7日薬はありますか」という音声認識結果から、用例データベース105で定義されている用例の「原言語の構成要素:」のフィールドに出現する単語、すなわち、重要語の集合である「7日」、「薬」、「あり」、を抽出する。なお、「原言語の構成要素:」のフィールドに出現するクラスと同じクラスに所属する単語については「原言語の構成要素:」に出現する単語と見なす。例えば、図3に示すように「7日」はクラス単語<日数>のメンバ単語であり、「薬」はクラス単語<薬>のメンバ単語であるので、どちらも「原言語の構成要素:」のフィールドに出現する単語である。
用例選択部108は、用例データベース105の各用例について「原言語の依存関係:」のフィールドを走査して依存関係を順次確認する。そして、依存関係が1つ以上成立する用例の中で、成立数が多い用例から順に選択する。例えば、図2に示す用例203については、重要語の集合の中に「かかり」が存在しないので依存関係の成立数は0である。用例204については、重要語の集合の中に「何か」が存在しないので、構成要素の依存関係の中で、丸数字(1→2)は成立しないが、丸数字(2→3)は成立する。したがって、依存関係の成立数は1である。
用例選択部108が、依存関係の成立数が1以上の用例を用例データベース105の中から選択するように設計すると、用例203は選択されず、用例204は選択される。
以下の説明では、用例データベース105の中の他の用例として、「薬ですか」と「薬です」が同様に選択されたとして説明する。
制御部101は、用例選択部108から送信された用例をGUI部102に送信する。GUI部102は、選択された用例文を図7に示すように用例候補表示部405に表示する(ステップS504)。
ユーザによって図8に示すように用例候補選択部405に表示されている用例の1つ「何か薬はありますか」が選択されると、制御部101はその用例を図9に示すように用例結果部406にセットする(ステップS505)。また、ユーザによって用例が選択された後、制御部101は単語選択部109に用例の中からクラス化されている単語を抽出するように命令する。この例では「薬」が抽出される。制御部101は、GUI部102に単語を送信し、GUI部102は、用例結果部406に表示されている「薬」に下線を引き、ユーザに変更可能な単語であることを表示する。
次に、制御部101は、選択した用例の中の単語を変更するか、または翻訳を行うかを決定する(ステップS506)。すなわち、ユーザによって図10に示すように用例結果部406の文以外の表示領域がクリックされると、制御部101は、翻訳を行うと決定する。この場合、決定された用例は制御部101に送信され、制御部101はそれを言語変換部111に送信する。言語変換部111は、用例データベース105を用いて現在選択している用例の「目的言語:」のフィールドを抽出することにより「Any medicine?」に変換し、変換結果を制御部101に送信する(ステップS512)。制御部101は図11に示すように、変換結果をGUI部102、および音声合成部113に送信する。GUI部102は変換結果を翻訳結果表示部407に表示する。一方、音声合成部113は、変換結果を音声合成して音声出力部114に送信し、スピーカ402から出力する(ステップS512)。
一方、ユーザによって図12に示すように用例結果部406の文の下線を引かれた単語領域がクリックされると、制御部101は、用例中の単語を変更すると決定する。この場合、制御部101はユーザが指定した単語「薬」を代替単語選択部110に送信する。代替単語選択部110は、クラス単語情報106を参照し、ユーザが指定した単語「薬」と同じクラスのメンバ単語である、「アスピリン」、「かぜ薬」、「トローチ」、「胃腸薬」を抽出し、制御部101に送信する(ステップS507)。
次に、制御部101は、GUI部102に代替単語の一覧を送信し、図13に示すようにGUI部102は、リストウィンドウ1301に代替単語の一覧を表示する(ステップS508)。
ユーザによって図14に示すようなリストウィンドウ1301に示された代替単語一覧の中から所望の単語である代替単語1401がクリックされて選択されると、GUI部102は代替単語「アスピリン」を取得し、制御部101に送信する(ステップS509)。
制御部101は、ユーザによって指定された代替単語「アスピリン」を用いて用例を「何かアスピリンはありますか」に変更する。その後、図15に示すようにGUI部102は、用例結果表示部406に表示されている用例を「何かアスピリンはありますか」に変更して表示する(ステップS510)。そして、用例の中の単語を変更するか、または翻訳を行うかの決定処理(ステップS506)に戻る。
以降、必要に応じて同様の処理(ステップS507からS510)を繰り返す。ユーザが上記決定処理(ステップS506)で用例を確定すると、図16に示すように「何かアスピリンはありますか」が目的言語「Any aspirin?」に変換されて合成音声が出力される。
次に、用例比較部112が加わったときの対話支援装置100の動作について説明する。
以下では図17に示す用例データベース105の他の具体例を使用して説明する。ここで、図18のようにユーザによってボタン408が押されてから「いむしつーでいちょうやくわもらえませんか(医務室、で胃腸薬はもらえませんか?)」と発声されて、音声認識の結果として「売 ほしい 胃腸薬 もら あり」(ウホシイイチョウヤクモラアリ)が得られたとする。なお、用例比較部112が加わらない場合は、用例1701から用例1704までのすべての用例について、それぞれ1つの依存関係が成立する。したがって、用例選択部108は4つの用例すべてを候補として出力することになり、ユーザは用例候補選択部405に表示される多数の用例を見ながら所望の用例を決定しなければならない。
図19は用例比較部112の動作の流れを示すフローチャートである。なお、用例比較部112の動作は、図5における用例の検索処理(ステップS503)と用例の表示処理(ステップS504)との間に行われる。
用例比較部112は、まず、用例選択部108により候補として出力されるすべての用例について、音声認識結果に出現する単語の出現位置を計算する(ステップS1901)。この出現位置は、単語辞書107を使用して用例を読み文字列に変換し、その文字列における位置(文字数)を使用する。例えば、用例1701は、図20(b)に示すようにカタカナの文字列に変換される。「ョ」のような小字は1文字として数えないとすると、音声認識結果に出現する「胃腸薬」は用例1701においては、例2001に示すように位置「0」で出現し、「ほしい」は位置「6」で出現する。同様に、用例比較部112は、音声認識結果における各単語の出現位置も計算する。例えば、図20(a)に示すように音声認識結果に含まれる単語「胃腸薬」の位置は「4」である。
次に、用例比較部112は、単語の出現位置を読みの文字列の長さで正規化を行う(ステップS1902)。例えば、用例1701の場合は読みの長さは13文字であり、「胃腸薬」および「ほしい」の出現位置は、それぞれ、0/13=0および6/13=0.46として正規化される。同様に、用例比較部112は、音声認識結果における各単語の出現位置も正規化する。例えば、図20(a)に示すように音声認識結果に含まれる単語「胃腸薬」の位置は4/13=0.31として正規化される。
次に、用例比較部112は、用例中における単語の位置と音声認識結果における単語の位置とから、各用例の音声認識結果に含まれる各単語について、単語のスコアを計算する(ステップS1903)。単語のスコアは、次式
(単語のスコア)=(用例上の位置)−(音声認識結果上の位置)
で計算される。例えば、用例1703については、図21の例2101に示すように「胃腸薬」のスコアは0.29−0.31=−0.02となり、「もら」のスコアは0.65−0.69=−0.04となる。
次に、用例比較部112は、各用例の各単語について、計算された単語のスコアに基づいて表示パラメータを算出する(ステップS1904)。例えば、単語のスコアの絶対値が0.1以下の場合にアンダーラインを付けるようなパラメータがあらかじめ設定されていると、GUI部102は、この条件に該当する用例1703の「胃腸薬」および「もら」と、用例1704の「胃腸薬」にアンダーラインを付け、用例の候補は図22に示すように用例候補選択部405に表示する。したがって、ユーザはアンダーラインの付いた用例に誘導され、多数の用例候補の中から用例「医務室で胃腸薬はもらえますか」を簡単かつ速やかに選択することが可能になる。
また、上記説明では、用例比較部112は、単語のスコアに基づいて表示パラメータを算出しているが、さらに各用例ごとに文スコア(文一致度)を算出して用例の表示順を変更してもよい。図23はこの場合の用例比較部112の動作の流れを示すフローチャートである。なお、出現位置の計算処理(ステップS1901)から表示パラメータの算出処理(ステップS1904)までは上記と同様である。
用例比較部112は、各用例の文スコアとして、例えば単語スコアの絶対値が0.1以下である単語の数を計算する(ステップS2301)。図21に示す例に対しては図24に示すような文スコア2401が計算される。文スコアの大きい順に用例選択部108が出力する用例を並べ替えることにより、図25に示すように用例候補選択部405に表示される。したがって、ユーザは用例候補選択部405の先頭から見て、かつ、アンダーラインの付いた用例に誘導され、用例「医務室で胃腸薬はもらえますか」を多数の用例候補の中からさらに簡単かつ速やかに選択することが可能になる。
ここでは、文スコアに基づいて用例を並べ替えを行っているが、これに限られるものではなく、例えば文スコアが所定の値以上になる用例に対して文全体の強調するように表示しても構わない。
次に、用例比較部112が原言語として英語を処理する場合の本実施の形態の動作について説明する。なお、この場合の動作の流れは上記に説明した原言語が日本語である場合と同様であるので、図19に示すフローチャートを用いて説明するが、それぞれの動作内容が相違する。
以下では図26に示す用例データベース105の他の具体例を使用して説明する。対話支援装置100は英語から日本語への変換を行う。図27のようにユーザによってボタン408が押されてから"Wmm, can I have medicine in some room?"と発声された場合に、音声認識の結果として"want I have medicine in sell room"が得られたとする。なお、用例比較部112が加わらない場合は、用例2601から用例2604までのすべての用例について、それぞれ1つの依存関係が成立する。したがって、用例選択部108は4つの用例すべてを候補として出力することになり、ユーザは用例候補選択部405に表示される多数の用例を見ながら所望の用例を決定しなければならない。
原言語が英語の場合、用例比較部112は、まず、用例選択部108により候補として出力されるすべての用例について、音声認識結果に出現する単語の出現位置を計算する(ステップS1901)。この出現位置は単語辞書107を使用して用例を発音記号文字列に変換し、その文字列における位置(文字数)を使用する。例えば、用例2601は、図28(b)に示すように発音記号の文字列に変換される。
ここで、発音記号への変換において、イタリック体で表記される子音、すなわち軽く発声される子音は削除する、というルールを適用するものとする。また、変換された発音記号の文字数の計数については、以下のルールに従って文字の種類に応じて可変して計数する。1)単語間の空白は数えない。2)子音は0.5文字と数える。3)母音(a,iなど)は1文字と数える。4)長母音(a:など)は2文字と数える。
このようなルールに従って計数することによって、音声認識結果に出現する"want"は用例2801においては、例2801に示すように位置「2」で出現し、"medicine"は位置「4.5」で出現することになる。同様に、用例比較部112は、音声認識結果における各単語の出現位置も計算する。例えば、図28(a)に示すように音声認識結果に含まれる単語"medicine"の位置は「6.5」である。
次に、用例比較部112は、単語の出現位置を読みの文字列の長さで正規化を行う(ステップS1902)。例えば、用例2601の場合は読みの長さは7.5文字であり、"want"および"medicine"の出現位置は、それぞれ、2/7.5=0.27および4.5/7.5=0.60として正規化される。同様に、用例比較部112は、音声認識結果における各単語の出現位置も正規化する。例えば、図28(a)に示すように音声認識結果に含まれる単語"medicine"の位置は6.5/16=0.46として正規化される。
次に、用例比較部112は、用例中における単語の位置と音声認識結果における単語の位置とから、各用例の音声認識結果に含まれる各単語について、単語のスコアを計算する(ステップS1903)。単語のスコアは、次式
(単語のスコア)=(用例上の位置)−(音声認識結果上の位置)
で計算される。例えば、用例2603については、図29の例2901に示すように"have"のスコアは0.24−0.28=−0.04となり、"medicine"のスコアは0.36−0.46=−0.10となる。
次に、用例比較部112は、各用例の各単語について、計算された単語のスコアに基づいて表示パラメータを算出する(ステップS1904)。例えば、単語のスコアの絶対値が0.10以下の場合にアンダーラインを付けるようなパラメータがあらかじめ設定されていると、GUI部102は、この条件に該当する用例2603の"have"および"medicine"にアンダーラインを付け、用例の候補は図30に示すように用例候補選択部405に表示する。したがって、ユーザはアンダーラインの付いた用例に誘導され、多数の用例候補の中から用例"Can I have medicine in medical room?"を簡単かつ速やかに選択することが可能になる。
また、上記の日本語から英語への変換と同様に、用例比較部112は、各用例ごとに文スコア(文一致度)を算出して用例の表示順を変更してもよい。例えば、文スコアを単語スコアの絶対値が0.10以下である単語の数で計算すると、図29に示す例に対しては図31に示すような文スコア3101が計算される。文スコアの大きい順に用例選択部108が出力する用例を並べ替えることにより、図32に示すように用例候補選択部405に表示される。したがって、ユーザは用例候補選択部405の先頭から見て、かつ、アンダーラインの付いた用例に誘導され、用例"Can I have medicine in medical room?"を多数の用例候補の中からさらに簡単かつ速やかに選択することが可能になる。
なお、以上の説明では、GUI部102に対するユーザの入力をタッチパネル入力、ボタン入力のそれぞれに限定して説明したが、音声認識処理を用いて音声で単語や用例を選択決定することも可能である。また、タッチパネル、ボタン、音声の各入力モダリティを組み合わせて操作することも可能である。また、一例として日本語と英語を取り上げたが、中国語など他の言語についても同様に実施可能であり、本発明は言語に依存しない。
また、音声認識部102がその内部で使用する言語モデルは、用例データベース105が保持する用例の「原言語:」フィールドの文を中心に構築されている。一般に言語モデルを構築するためには、文を形態素などの最小単位に分割する必要があり、音声認識部102の出力はその最小単位の系列となる。最小単位への分割として単語辞書107の情報を利用してもよい。また、単語辞書107よりもさらに詳細な分割を行って言語モデルを構築し、音声認識部102の出力としては単語辞書107に登録されている単語に整形してから出力してもよい。
また、用例比較部112による表示パラメータの制御は、一致する単語にアンダーラインを付加する以外にも、文字の色の濃淡や文字の点滅など様々な表示方法を利用してもよい。また、用例比較部112による文スコアによる用例候補の並べ替えについても、文スコアの低い用例は表示色を薄くするなど、文スコアに応じて用例の単位で表示パラメータを制御してもよい。
また、本実施の形態では、対話支援装置について説明したが、これに限られるものではなく、入力される文に対応する用例を検索する用例検索装置にも適用することができる。
以上のように、本発明に係る対話支援装置は、音声で所望の用例を容易に検索する機能を有し、例えば携帯電話や携帯端末等で入力される原言語に対応する翻訳言語を提示するのに有用である。また、公共の街頭端末や案内端末等の用途にも応用できる。
図1は、本発明に係る対話支援装置の一実施の形態の構成を示すブロック図である。 図2は、本発明に係る対話支援装置の一実施の形態の用例データベースの構成の一例を示す図である。 図3は、本発明に係る対話支援装置の一実施の形態のクラス単語情報の構成の一例を示す図である。を示す図である。 図4は、本発明に係る対話支援装置の一実施の形態のPDAの一例を示す図である。 図5は、本発明に係る対話支援装置の一実施の形態の用例比較部を除いた動作の流れを示すフローチャートである。 図6は、本発明に係る対話支援装置の一実施の形態のPDAに対するユーザ操作の一例を示す図である。 図7は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図8は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図9は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図10は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図11は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図12は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図13は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図14は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図15は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図16は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図17は、本発明に係る対話支援装置の一実施の形態の用例データベースの構成の一例を示す図である。 図18は、本発明に係る対話支援装置の一実施の形態のPDAに対するユーザ操作の一例を示す図である。 図19は、本発明に係る対話支援装置の一実施の形態の用例比較部の動作の流れを示すフローチャートである。 図20は、本発明に係る対話支援装置の一実施の形態の用例比較部における単語出現位置の計算の一例を示す図であり、(a)音声認識結果に対する単語出現位置の計算結果、(b)用例に対する単語出現位置の計算結果、を示す図である。 図21は、本発明に係る対話支援装置の一実施の形態の用例比較部における単語スコアの計算の一例を示す図である。 図22は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図23は、本発明に係る対話支援装置の一実施の形態の用例比較部の動作の流れを示すフローチャートである。 図24は、本発明に係る対話支援装置の一実施の形態の用例比較部における文スコアの計算の一例を示す図である。 図25は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図26は、本発明に係る対話支援装置の一実施の形態の用例データベースの構成の一例を示す図である。 図27は、本発明の対話支援装置の一実施例のPDAに対するユーザ操作の一例を示す図である。 図28は、本発明に係る対話支援装置の一実施の形態の用例比較部における単語出現位置の計算の一例を示す図であり、(a)音声認識結果に対する単語出現位置の計算結果、(b)用例に対する単語出現位置の計算結果、を示す図である。 図29は、本発明に係る対話支援装置の一実施の形態の用例比較部における単語スコアの計算の一例を示す図である。 図30は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。 図31は、本発明に係る対話支援装置の一実施の形態の用例比較部における文スコアの計算の一例を示す図である。 図32は、本発明に係る対話支援装置の一実施の形態のGUI部の表示内容の一例を示す図である。
符号の説明
101 制御部
102 GUI部
103 音声入力部
104 音声認識部
105 用例データベース
106 クラス単語情報
107 単語辞書
108 用例選択部
109 単語選択部
110 代替単語選択部
111 言語変換部
112 用例比較部
113 音声合成部
114 音声出力部
201 用例
202 用例
203 用例
204 用例
301 クラス単語情報
302 単語辞書
401 マイク
402 スピーカ
403 GUI部
404 スタイラス
405 選択部
406 用例結果表示部
407 翻訳結果表示部
408 音声入力開始ボタン
1301 代替単語のリスト
1401 ユーザが決定した代替単語
1701 用例
1702 用例
1703 用例
1704 用例
2001 用例1701に対する単語出現位置の計算結果
2101 用例1703に対する単語スコアの計算結果
2401 文スコアの計算結果

Claims (16)

  1. 入力される原言語の音声を認識し、音声認識結果に応じて、前記原言語に対応する翻訳言語を提示する対話支援装置であって、
    前記音声認識結果に含まれるキーワードに基づいて原言語の用例を検索する用例検索手段と、
    前記用例中における前記音声認識結果に含まれるキーワードの位置と、前記音声認識結果における前記キーワードの位置とを比較することによって、前記キーワードのキーワード一致度を算出する用例比較手段と、
    検索された前記用例を表示するとともに、前記キーワード一致度に基づいて、前記用例の中の前記キーワードを強調表示する用例表示制御手段と
    を備えることを特徴とする対話支援装置。
  2. 前記用例比較手段は、前記キーワード一致度に基づいて前記キーワードを強調表示する際の表示パラメータを算出し、
    前記用例表示制御手段は、前記表示パラメータに基づいて前記用例の中の前記キーワードを強調表示する
    ことを特徴とする請求項1記載の対話支援装置。
  3. 前記用例比較手段は、前記用例中における前記音声認識結果に含まれるキーワードの位置、および前記音声認識結果における前記キーワードの位置を、読み表記または発音記号の文字列における出現位置で算出し、かつ、前記出現位置を前記読み表記または発音記号の文字列の長さで正規化する
    ことを特徴とする請求項1記載の対話支援装置。
  4. 前記用例比較手段は、前記用例中における前記音声認識結果に含まれるキーワードの位置、および前記音声認識結果における前記キーワードの位置を、読み表記または発音記号の文字列における出現位置で算出する際に、前記読み表記または前記発音記号の文字数を文字の種類に応じて可変して計数する
    ことを特徴とする請求項記載の対話支援装置。
  5. 前記用例比較手段は、前記原言語が日本語である場合、前記文字の種類が前記読み表記の短音、長音、および促音のいずれであるかに応じて文字数を変更して計数する
    ことを特徴とする請求項記載の対話支援装置。
  6. 前記用例比較手段は、前記原言語が英語である場合、前記文字の種類が前記発音記号の母音、長母音、および子音のいずれであるかに応じて文字数を変更して計数する
    ことを特徴とする請求項記載の対話支援装置。
  7. 前記用例比較手段は、前記用例中における前記音声認識結果に含まれるキーワードの位置と、前記音声認識結果における前記キーワードの位置との差を、前記キーワード一致度とする
    ことを特徴とする請求項記載の対話支援装置。
  8. 前記用例比較手段は、前記用例中に含まれる各キーワードの前記キーワード一致度に基づいて、前記用例に対する文一致度を算出する
    ことを特徴とする請求項1記載の対話支援装置。
  9. 前記用例比較手段は、前記キーワード一致度が所定値以上である前記キーワードの前記用例中における数を前記文一致度として算出する
    ことを特徴とする請求項記載の対話支援装置。
  10. 前記用例表示制御手段は、前記用例を複数表示する際に、前記文一致度に基づいて前記用例の表示順序を決定する
    ことを特徴とする請求項記載の対話支援装置。
  11. 前記用例表示制御手段は、前記用例を複数表示する際に、前記文一致度が高い順に前記用例を表示する
    ことを特徴とする請求項10記載の対話支援装置。
  12. 前記用例表示制御手段は、前記用例を複数表示する際に、前記文一致度が所定値以上である前記用例の文全体を強調表示する
    ことを特徴とする請求項記載の対話支援装置。
  13. 前記用例比較手段は、前記文一致度に基づいて前記用例の文全体を強調表示する際の表示パラメータを算出し、
    前記用例表示制御手段は、前記表示パラメータに基づいて前記用例の文全体を強調表示する
    ことを特徴とする請求項12記載の対話支援装置。
  14. 入力される文に対応する用例を検索する用例検索装置であって、
    前記文に含まれるキーワードに基づいて前記用例を検索する用例検索手段と、
    前記用例中における前記文に含まれるキーワードの位置と、前記文における前記キーワードの位置とを比較することによって、前記キーワードのキーワード一致度を算出する用例比較手段と、
    検索された前記用例を表示するとともに、前記キーワード一致度に基づいて、前記用例の中の前記キーワードを強調表示する用例表示制御手段と
    を備えることを特徴とする用例検索装置。
  15. 対話支援装置によって、入力される原言語の音声を認識し、音声認識結果に応じて、前記原言語に対応する翻訳言語を提示する対話支援方法であって、
    前記対話支援装置が備える用例検索手段が、前記音声認識結果に含まれるキーワードに基づいて原言語の用例を検索する用例検索ステップと、
    前記対話支援装置が備える用例比較手段が、前記用例中における前記音声認識結果に含まれるキーワードの位置と、前記音声認識結果における前記キーワードの位置とを比較することによって、前記キーワードのキーワード一致度を算出する用例比較ステップと、
    前記対話支援装置が備える用例表示制御手段が、検索された前記用例を表示するとともに、前記キーワード一致度に基づいて、前記用例の中の前記キーワードを強調表示する用例表示制御ステップと
    を含むことを特徴とする対話支援方法。
  16. 入力される原言語の音声を認識し、音声認識結果に応じて、前記原言語に対応する翻訳言語を提示するためのプログラムであって、
    前記音声認識結果に含まれるキーワードに基づいて原言語の用例を検索する用例検索手段と、
    前記用例中における前記音声認識結果に含まれるキーワードの位置と、前記音声認識結果における前記キーワードの位置とを比較することによって、前記キーワードのキーワード一致度を算出する用例比較手段と、
    検索された前記用例を表示するとともに、前記キーワード一致度に基づいて、前記用例の中の前記キーワードを強調表示する用例表示制御手段として、
    コンピュータを機能させることを特徴とするプログラム。
JP2006512298A 2004-04-12 2005-04-04 対話支援装置 Expired - Fee Related JP3962763B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004117184 2004-04-12
JP2004117184 2004-04-12
PCT/JP2005/006596 WO2005101235A1 (ja) 2004-04-12 2005-04-04 対話支援装置

Publications (2)

Publication Number Publication Date
JP3962763B2 true JP3962763B2 (ja) 2007-08-22
JPWO2005101235A1 JPWO2005101235A1 (ja) 2008-03-06

Family

ID=35150186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006512298A Expired - Fee Related JP3962763B2 (ja) 2004-04-12 2005-04-04 対話支援装置

Country Status (4)

Country Link
US (1) US7650283B2 (ja)
JP (1) JP3962763B2 (ja)
CN (1) CN1942875B (ja)
WO (1) WO2005101235A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696555B1 (ko) * 2015-10-06 2017-02-02 서울시립대학교 산학협력단 영상 또는 지리 정보에서 음성 인식을 통한 텍스트 위치 탐색 시스템 및 그 방법

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243531A1 (en) * 2003-04-28 2004-12-02 Dean Michael Anthony Methods and systems for representing, using and displaying time-varying information on the Semantic Web
US8280719B2 (en) * 2005-05-05 2012-10-02 Ramp, Inc. Methods and systems relating to information extraction
JP2007220045A (ja) * 2006-02-20 2007-08-30 Toshiba Corp コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
US7881928B2 (en) * 2006-09-01 2011-02-01 International Business Machines Corporation Enhanced linguistic transformation
US8131536B2 (en) * 2007-01-12 2012-03-06 Raytheon Bbn Technologies Corp. Extraction-empowered machine translation
JP5121252B2 (ja) * 2007-02-26 2013-01-16 株式会社東芝 原言語による音声を目的言語に翻訳する装置、方法およびプログラム
JP4791984B2 (ja) * 2007-02-27 2011-10-12 株式会社東芝 入力された音声を処理する装置、方法およびプログラム
TWI345218B (en) * 2007-04-20 2011-07-11 Asustek Comp Inc Portable computer with function for identiying speech and processing method thereof
US7890539B2 (en) * 2007-10-10 2011-02-15 Raytheon Bbn Technologies Corp. Semantic matching using predicate-argument structure
JP2009205579A (ja) * 2008-02-29 2009-09-10 Toshiba Corp 音声翻訳装置およびプログラム
US20120239377A1 (en) * 2008-12-31 2012-09-20 Scott Charles C Interpretor phone service
WO2010128950A1 (en) * 2009-05-08 2010-11-11 Werner Jungblut Interpersonal communications device and method
US20110112822A1 (en) * 2009-11-10 2011-05-12 Charles Caraher Talking Pen and Paper Translator
US9564120B2 (en) * 2010-05-14 2017-02-07 General Motors Llc Speech adaptation in speech synthesis
US8775156B2 (en) 2010-08-05 2014-07-08 Google Inc. Translating languages in response to device motion
US8635059B2 (en) * 2010-11-15 2014-01-21 Google Inc. Providing alternative translations
US9058814B2 (en) 2010-11-15 2015-06-16 At&T Intellectual Property I, L.P. Mobile devices, methods, and computer program products for enhancing social interactions with relevant social networking information
JP5666937B2 (ja) * 2011-02-16 2015-02-12 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
US20130024184A1 (en) * 2011-06-13 2013-01-24 Trinity College Dublin Data processing system and method for assessing quality of a translation
CN102346777B (zh) * 2011-10-09 2016-06-01 北京百度网讯科技有限公司 一种对例句检索结果进行排序的方法和装置
CN103020048A (zh) * 2013-01-08 2013-04-03 深圳大学 一种语言翻译方法及系统
WO2014109017A1 (ja) * 2013-01-09 2014-07-17 三菱電機株式会社 音声認識装置および表示方法
CN103198722A (zh) * 2013-03-15 2013-07-10 肖云飞 英语培训方法及装置
KR102108893B1 (ko) * 2013-07-11 2020-05-11 엘지전자 주식회사 이동 단말기
DE112014007207B4 (de) * 2014-11-25 2019-12-24 Mitsubishi Electric Corporation Informations-Präsentationssystem
US20170047063A1 (en) * 2015-03-31 2017-02-16 Sony Corporation Information processing apparatus, control method, and program
US10853449B1 (en) 2016-01-05 2020-12-01 Deepradiology, Inc. Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis
KR20170122505A (ko) * 2016-04-27 2017-11-06 삼성전자주식회사 부가 정보를 제공하는 단말 장치 및 제공 방법
US9747282B1 (en) * 2016-09-27 2017-08-29 Doppler Labs, Inc. Translation with conversational overlap
WO2019016985A1 (ja) * 2017-07-20 2019-01-24 パナソニックIpマネジメント株式会社 翻訳装置、翻訳方法及びプログラム
US10692602B1 (en) 2017-09-18 2020-06-23 Deeptradiology, Inc. Structuring free text medical reports with forced taxonomies
US10496884B1 (en) 2017-09-19 2019-12-03 Deepradiology Inc. Transformation of textbook information
US10499857B1 (en) 2017-09-19 2019-12-10 Deepradiology Inc. Medical protocol change in real-time imaging
WO2020234920A1 (ja) * 2019-05-17 2020-11-26 株式会社マネーフォワード 情報処理装置及びプログラム
CN111581373B (zh) * 2020-05-11 2021-06-01 武林强 基于对话的语言自助学习方法及系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5005127A (en) * 1987-10-26 1991-04-02 Sharp Kabushiki Kaisha System including means to translate only selected portions of an input sentence and means to translate selected portions according to distinct rules
ATE195605T1 (de) * 1993-03-12 2000-09-15 Stanford Res Inst Int Verfahren und vorrichtung für sprachunterricht mittels interaktiver sprachsteuerung
US5615301A (en) * 1994-09-28 1997-03-25 Rivers; W. L. Automated language translation system
JP3385146B2 (ja) * 1995-06-13 2003-03-10 シャープ株式会社 会話文翻訳装置
US5797123A (en) * 1996-10-01 1998-08-18 Lucent Technologies Inc. Method of key-phase detection and verification for flexible speech understanding
JP3181548B2 (ja) * 1998-02-03 2001-07-03 富士通株式会社 情報検索装置及び情報検索方法
JP3822990B2 (ja) * 1999-01-07 2006-09-20 株式会社日立製作所 翻訳装置、記録媒体
US6282507B1 (en) * 1999-01-29 2001-08-28 Sony Corporation Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
US6829603B1 (en) * 2000-02-02 2004-12-07 International Business Machines Corp. System, method and program product for interactive natural dialog
JP2002082983A (ja) * 2000-09-05 2002-03-22 Hougi Koyama 相違文字抽出システム
US7050979B2 (en) * 2001-01-24 2006-05-23 Matsushita Electric Industrial Co., Ltd. Apparatus and method for converting a spoken language to a second language
JP3974412B2 (ja) * 2001-01-24 2007-09-12 松下電器産業株式会社 音声変換装置
KR100446627B1 (ko) * 2002-03-29 2004-09-04 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법
US7552053B2 (en) * 2005-08-22 2009-06-23 International Business Machines Corporation Techniques for aiding speech-to-speech translation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696555B1 (ko) * 2015-10-06 2017-02-02 서울시립대학교 산학협력단 영상 또는 지리 정보에서 음성 인식을 통한 텍스트 위치 탐색 시스템 및 그 방법

Also Published As

Publication number Publication date
JPWO2005101235A1 (ja) 2008-03-06
US7650283B2 (en) 2010-01-19
CN1942875B (zh) 2010-05-26
US20050283365A1 (en) 2005-12-22
CN1942875A (zh) 2007-04-04
WO2005101235A1 (ja) 2005-10-27

Similar Documents

Publication Publication Date Title
JP3962763B2 (ja) 対話支援装置
US7047195B2 (en) Speech translation device and computer readable medium
RU2377664C2 (ru) Способ ввода текста
JP4829901B2 (ja) マニュアルでエントリされた不確定なテキスト入力を音声入力を使用して確定する方法および装置
US8606582B2 (en) Multimodal disambiguation of speech recognition
JP4468264B2 (ja) 多言語による名称の音声認識のための方法とシステム
EP1617409B1 (en) Multimodal method to provide input to a computing device
JP2011254553A (ja) 小型キーパッド用日本語入力メカニズム
TW200538969A (en) Handwriting and voice input with automatic correction
US20150073801A1 (en) Apparatus and method for selecting a control object by voice recognition
JP2015153108A (ja) 音声会話支援装置、及び音声会話支援方法及びプログラム
TW200415573A (en) Adaptive context sensitive analysis
US20080270128A1 (en) Text Input System and Method Based on Voice Recognition
JP5243325B2 (ja) 音声認識に仮名漢字変換システムを用いた端末、方法及びプログラム
JP2004295578A (ja) 翻訳装置
KR20020076044A (ko) 대화 모델을 이용한 자동 통역 장치 및 방법
JP4622861B2 (ja) 音声入力システム、音声入力方法、および、音声入力用プログラム
JP5008248B2 (ja) 表示処理装置、表示処理方法、表示処理プログラム、および記録媒体
JP2002014751A (ja) オンラインヘルプシステム
JP7257010B2 (ja) 検索支援サーバ、検索支援方法及びコンピュータプログラム
JP2007171275A (ja) 言語処理装置及び現後処理方法
KR20090054616A (ko) 시각장애인을 위한 음성낭독 단말기용 색인어 검색방법
CN114911896A (zh) 基于语音的搜索方法及相关设备
JP2003345794A (ja) 電子翻訳装置
KR20050001270A (ko) 키보드와 음성을 함께 이용한 음성도메인 및 음성정보검색시스템

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070521

R150 Certificate of patent or registration of utility model

Ref document number: 3962763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees