JP2006503328A - ディレクトリアシスタント方法及び装置 - Google Patents

ディレクトリアシスタント方法及び装置 Download PDF

Info

Publication number
JP2006503328A
JP2006503328A JP2004544575A JP2004544575A JP2006503328A JP 2006503328 A JP2006503328 A JP 2006503328A JP 2004544575 A JP2004544575 A JP 2004544575A JP 2004544575 A JP2004544575 A JP 2004544575A JP 2006503328 A JP2006503328 A JP 2006503328A
Authority
JP
Japan
Prior art keywords
directory
database
information
assistance device
entry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004544575A
Other languages
English (en)
Inventor
ユイ−チャン ワン
フランク ティ ビー セイデ
ユアン−フ リアオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2006503328A publication Critical patent/JP2006503328A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4931Directory assistance systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

大規模な自動対話テレコミュニケーションシステムに対するディレクトリアシスタント方法及び装置が開示される。前記ディレクトリアシスタント方法及び装置は、所望のディレクトリエントリを説明するようにユーザに要求するために自然言語対話システムを使用し、これらの説明を解析及び理解し、これらの意味を解釈するために関連知識データベースを使用する。最後に、前記ディレクトリアシスタント方法及び装置は、複数回の対話と、ディレクトリデータベースと、関連知識データベースから全ての利用することができる情報を統合し、前記ユーザの所望のディレクトリエントリ情報を提供する。

Description

本発明は、ディレクトリアシスタント方法及び装置に関し、特には、自動対話テレコミュニケーションシステム(automatic dialogue telecommunication system)におけるディレクトリアシスタント方法及び装置に関する。
顧客に電話番号を提供するディレクトリアシスタント(DA)システムは、重要なテレコミュニケーションビジネスである。例えば、Kelsey Groupは、テレコム会社が、世界中で合計して一ヶ月あたり5億1600万以上のDAコールを受けており、このほとんど全てが現在はオペレータにより処理されていると推定している。音声認識を使用してこのサービスを自動化することは、大きな市場機会である。
従来のDAシステムは、限定された対話を使用することにより実施される。従来は、前記DAシステムは、初めに、ユーザに到達されるべき人物の名前を言うように要求し、次いで、音声認識器を使用してディレクトリデータベースから幾つかの候補を見つける。前記候補が多すぎる場合には、前記DAシステムは、更に、所望の人物の名前の綴りを言うか、又は追加の情報、例えば前記所望の人物が住んでいる通りの名前を提供するように前記ユーザに要求する。このようにして、前記候補の範囲は、更に絞り込まれることができる。最後に、前記DAシステムは、対応する番号又はただ“はい/いいえ”を答えることにより正しいものを選択するように前記ユーザに要求する。このDAシステムは、小さな西洋のDAシステムに対してはうまく機能する。しかしながら、例えば、大都市で使用される12,000,000のエントリを持つ大規模なディレクトリアシスタントシステムに対しては、上述の入力情報が、全ての可能性のある候補を区別するのに十分ではないので、うまく機能しない可能性がある。
同じシステムは、大規模な中国のDAシステムに対してもうまく機能しない。前記入力情報は、以下の固有の特徴のため、全ての可能性のある候補を区別するのに十分ではない。第一に、中国語は単音節の言語である。中国語の各語は、厳密に1つの音節を含む。13000以上の常用語及び1300の正当な音節のみが存在する。平均して、各音節に対して約10の同音異義語が存在する。第二に、中国人の名前は、たいてい西洋人の名前より短い。中国人の名前は3つの音節のみを持つ。更に、10億人の中国人により頻繁に使用される約二百の名字(姓)が存在する。したがって、中国のDAシステムの曖昧さを解決するためには、より多くの情報が必要とされる。第三に、中国語は表意文字からなる言語である。中国人は、普通は、彼らの名前を一語ずつ且つ一般に使用される成句により説明することにより他の人々に彼らの名前を紹介する。中国語の語を“綴る”又は“構成する”容易且つ標準的な仕方は存在しない。したがって、既存のDAシステム、特に中国のDAシステムの性能は十分ではない。
本発明の目的は、所望のディレクトリエントリ情報を提供するディレクトリアシスタント方法及び装置を提供することである。前記ディレクトリアシスタント方法及び装置は、所望のディレクトリエントリを説明するようにユーザに要求するために自然言語対話システムを使用し、次いで、これらの説明を解析及び理解し、意味を解釈するために関連知識データベースを使用する。最後に、前記ディレクトリアシスタント方法及び装置は、複数回の対話と、ディレクトリデータベースと、関連知識データベースとから全ての利用することができる情報を統合し、前記ユーザの所望のディレクトリエントリ情報を提供する。
本発明の他の目的は、プロセッサにより実行される場合に、前記プロセッサに所望のディレクトリエントリ情報を提供させる、複数の命令が記憶されたコンピュータ読取可能媒体に存在するコンピュータプログラムを提供することである。
本発明は、説明のみのために与えられ、したがって限定的ではない、以下に与えられる詳細な記述及び添付図面から、より完全に理解されることができるようになる。
図1を参照すると、標準中国語(Mandarin)ディレクトリアシスタント装置のような、本発明のディレクトリアシスタント装置は、ディレクトリエントリ情報、文法規則及び概念系列(concept sequences)を記憶するデータベース30と、所望のディレクトリエントリを説明する音声信号を受信し、前記音声信号を認識し、認識された語系列を生成する音響認識ユニット10と、データベース30に記憶された所定の文法規則及び前記所定の文法規則の関連情報を使用することにより前記認識された語系列を解釈して概念系列を形成し、前記データベースに記憶された意味論的な意味及び前記意味論的な意味の関連情報並びに現在のシステムステータスによって前記概念系列を解釈し、これにより前記所望のディレクトリエントリに対する最大事後確率及び最大尤度基準の1つを使用することにより少なくとも1つの候補を生成する音声解釈ユニット20であって、これに加えて更に、前記システムステータスを更新する音声解釈ユニット20と、データベース30から前記少なくとも1つの候補に対応する少なくとも1つのディレクトリエントリ情報を検索するルックアップユニット40と、見つけられた前記少なくとも1つのディレクトリエントリ情報を出力する(音声出力ユニットのような)出力ユニット60とを有する。
本発明のディレクトリアシスタント装置は、更に、より多くの情報を要求するために質問を生成する質問生成器60を有し、この質問は、より多くの情報を供給するようにユーザに要求することと、リストに基づく確認と、自由回答式の確認との1つである。前記リストに基づく確認は、可能性のある候補が制限数内であるか、又はトップの候補の確率が他の候補の確率から遠くはなれている場合に使用される。前記自由回答式の確認は、確認のためにユーザに要求する名前データベース内の最もよくある説明の仕方、例えば、李登輝的李(李3登1輝1と同じ李3)という場合に使用される。
音響認識ユニット10は、更に、入力音声信号を認識し、認識された語系列を生成する音声認識器11と、事前にトレーニングされており、全ての混同する可能性のある語、対応する正しい語及び発生確率を有する混同表13によって前記認識された語系列を拡張する混同解析器12と、確実性表15によって混同する可能性のある語の対を除去する確実性測定ユニット14とを有する。
データベース30は、関連知識データベース31とディレクトリデータベース32とを有する。関連知識データベース31は、語及び前記語の使用頻度、前記語を説明する仕方、文法規則、属性及び対応する使用頻度、コミュニケーション概念及び前記コミュニケーション概念の使用頻度、対応する文法規則、並びに意味論的な意味及び使用頻度を有し、ディレクトリデータベース32は、複数のエントリを有し、各エントリは、名前、電話番号、関連情報及び使用頻度を有する。
関連知識データベース31において、よくある名前の語は、複数のよくある説明の仕方と共に記憶され、前記文法規則及び概念系列は、エントリ名又はエントリ名の少なくとも1語及び前記エントリ名の関連情報を有する前記所望のディレクトリエントリを説明するために使用され、前記文法規則は、頻繁に使用される文法テンプレート及び頻繁に使用される語により生成される。前記文法テンプレートは、頻繁に使用される名詞、有名人の名前、慣用句、文字ストローク、文字、語、及び文字の語根(character roots)等により生成される。例えば、名前の中の語は、以下のように説明されることができる。
−李登輝的李(李3登1輝1と同じ李3)のような、有名な名字の説明。
−李登輝的李(李3登1輝1と同じ李3)のような、有名な名前の説明。
−趙錢孫李的趙(趙4錢2孫1李3と同じ趙4)のような、常用語、成句、及び特に4語の中国の慣用句。
−三横一豎王(3本の水平な線及び1本の縦の線を持つ王2)、又は耳東陳(耳及び東を持つ陳2)のような一般に使用される書き方/ストロークの説明。
図2は、本発明の頻繁に使用されるテンプレート及び頻繁に使用される語からの名前説明文法規則の生成を図示する。本発明は、初めに、名前説明文法規則及び対応する意味論的なタグ(tag)を集めるデータベースを構築する。
前記データベースを構築する2つの仕方が存在する。第1の仕方は、可能な限り多くの名前及び対応する文字の説明を集めることである。このデータベースから、我々は、LN(名字の説明)84、FN1(ファーストネームの第1語の説明)85及びFN2(ファーストネームの第2語の説明)86のような名前説明文法規則及び確率統計を見つけた。
第2の仕方は、名前説明の小さなデータベース(例えば上述のデータベース)から頻繁に使用される文法テンプレートを見つけることである。この場合、我々は、見つかった文法テンプレート及び頻繁に使用される語を使用して必要な文法規則を生成する。例えば、我々は、名前の語を説明する最もよくある仕方は、
−頻繁に使用される名詞(FNoun)81と、
−有名人の名前(FName)82と、
−慣用句(CI)と、
−文字のストローク(CS)と、
−頻繁に使用される外来語(FW)と、
−文字の語根(CR)83と、
−......
−他の不規則的な仕方と、
であることを見つけた。
我々は、この場合、これらの文法テンプレート及び(辞書、インターネット、新聞等から集められた)頻繁に使用される語を組み合わせることにより必要な文法規則を確立することができる。
図3を参照すると、標準中国語ディレクトリアシスタント方法のような本発明の前記ディレクトリアシスタント方法は、以下のように記述される。
前記方法は、初めに、所望のディレクトリエントリを音声入力するように前記ユーザに要求する質問をプロンプトとして出し(100)、次いで前記所望のディレクトリエントリを説明する音声信号を受信し(110)、前記音声信号を認識し、認識された語系列を生成し、混同表によって前記認識された語系列を拡張し、確実性表によって混同する可能性のある語の対を除去し(120)、概念系列を形成するためにデータベースに記憶された所定の文法規則及び前記所定の文法規則の関連情報を使用することにより前記認識された語系列を解釈し(130)、前記データベースに記憶された意味論的な意味及び前記意味論的な意味の関連情報並びに現在のシステムステータスによって前記概念系列を解釈し、これにより前記所望のディレクトリエントリに対する最大事後確率及び最大尤度基準の1つを使用することにより少なくとも1つの候補を生成し、前記データベースから前記少なくとも1つの候補に対応する少なくとも1つのディレクトリエントリ情報を検索し、不確実性がある場合には、より多くの情報を要求する質問を生成し(150)、見つけられた前記少なくとも1つのディレクトリエントリ情報を出力し(160)、前記見つけられたディレクトリエントリ情報を確認し、前記所望のディレクトリエントリが見つけられるまで上述のステップを繰り返す(170)。
上述の方法は、コンピュータプログラム命令により実施されることができる。前記コンピュータプログラム命令は、コンピュータ又は他のプログラム可能な処理装置にロードされ、図3に図示される方法の機能を実行することができる。前記コンピュータプログラム命令は、コンピュータプログラムプロダクト又はコンピュータ読取可能媒体に記憶されることができる。コンピュータプログラムプロダクト又はコンピュータ読取可能媒体の例は、磁気テープ、フロッピー(登録商標)ディスク、ハードディスクドライブ、RAM、ROM及び光学ディスクのような記録可能型媒体、並びにデジタル及びアナログ通信リンクのような伝送型媒体を含む。
本発明は、名前の中の語を説明する仕方と、名前の中の語を説明する仕方を記憶する関連知識データベースを構築する仕方と、入力音声を解析するために文法規則として前記データベースを使用する仕方とを理解することを対象とする。この新しいアーキテクチャにより、本発明は、依然として不確実性がある場合に名前の語を説明するように前記ユーザに要求するために自然言語対話システムを使用することができる。本発明は、この場合、これらの説明を解析及び理解し、これらの意味を解釈するために前記関連知識データベースを使用する。最後に、本発明は、全ての利用することができる情報を組み合わせて、可能性のある候補の範囲を絞り込み、最終的に、正しいディレクトリエントリを見つける。本発明の一部は、例として中国語の語を使用することにより説明されているが、本発明は、他の言語にも適用されることができる。例えば、李登輝的李(李3登1輝1と同じ李3)のような有名な名字の説明は、“George Bushと同じBush”に変更されることができる。
本発明及びその利点は、詳細に記載されているが、様々な変更、置き換え及び交代が、添付の請求項より定められる本発明の精神及び範囲から外れることなくこの中で行われることができると理解されるべきである。
参考文書
1.Nick Wang及びLeo Liao, Chinese name recognition, Philips Corporate Intellectual Propertyに提出されたインベンションディスクロージャー, 2000年10月11日
2.Andreas Kellner, Bernhard Rueber, Frank Seide, 及びBach-Hiep Tran., “PADIS -- an Automatic Telephone Switchboard and Directory Information System”, Speech Communication, 23:95--111, 1997年10月
3.Bernd Souvignier, Andreas Kellner, Bernhard Rueber, Hauke Schramm, 及びFrank Seide., “The Thoughtful Elephant: Strategies for Spoken Dialog Systems”. IEEE Transactions on Speech and Audio Processing, 8(1):51--62, 2000年1月
4.Georg Rose, “PADIS-XXL, Large Scale Directory Assistant,” パワーポイントスライド, Man-Machine Interface, 2000年.
5.Andreas Meylahn, “SpeechFinder for SpeechPerl 2000 - Developer’s Guide v2.0”, Philips Speech Processing - Aachen, ドイツ, 2000年9月21日
6.Yen-Ju Yang (楊燕珠), “Statistics-based spoken dialogue modeling and its applications,” 博士論文, National Taiwan University, 台湾, 1999年.
7.Jan Kneissler及びDietrich Klakow, “Speech Recognition for Huge Vocabularies by Using Optimized Sub-Word Units”
8.Dietrich Klakow, Georg Rose及びXavier Aubert, “OOV-Detection in Large Vocabulary System Using Automatically Defined Word-Fragments as Fillers”, Proc. EUROSPEECH, Vol. 1, 1999年, 頁49-53.
9.Alex Weibel, Petra Geutner, Laura Mayfield Tomokiyo, Tanja Schultz及びMonika Woszcyna, “Multilinguality in Speech and Spoken Language Systems,” Proceedings of the IEEE, Vol. 88, No. 8, 2000年8月, 頁1297-1313.
本発明のディレクトリアシスタント装置のブロック図を示す。 本発明の頻繁に使用されるテンプレート及び頻繁に使用される語からの名前説明文法規則の生成を図示する。 本発明のディレクトリアシスタント方法のフローチャートを示す。

Claims (37)

  1. 所望のディレクトリエントリ情報を提供するディレクトリアシスタント方法において、
    (a)所望のディレクトリエントリを説明する音声信号を受信するステップと、
    (b)前記音声信号を認識し、認識された語系列を生成するステップと、
    (c)概念系列を形成するために、データベースに記憶された所定の文法規則及び前記所定の文法規則の関連情報を使用することにより前記認識された語系列を解釈するステップと、
    (d)前記データベースに記憶された意味論的な意味及び前記意味論的な意味の関連情報並びに現在のシステムステータスによって前記概念系列を解釈し、これにより前記所望のディレクトリエントリに対する少なくとも1つの候補を生成するステップと、
    (e)前記データベースから前記少なくとも1つの候補に対応する少なくとも1つのディレクトリエントリ情報を検索するステップと、
    (f)見つけられた前記少なくとも1つのディレクトリエントリ情報を出力するステップと、
    を有する方法。
  2. ユーザの訂正又は確認のステップと、前記所望のディレクトリエントリ情報が見つけられるまで前記ステップ(a)ないし(f)を繰り返すステップとを有する、請求項1に記載の方法。
  3. 前記ステップ(a)が、音声信号を受信する前に、システムがプロンプトを出すステップを有する、請求項1に記載の方法。
  4. 前記所定の文法規則及び前記概念系列が、エントリ名又はエントリ名の少なくとも1語及び前記エントリ名の関連情報を有する前記所望のディレクトリエントリを説明するために使用される、請求項1に記載の方法。
  5. 前記所定の文法規則が、頻繁に使用される文法テンプレート及び頻繁に使用される語により生成される、請求項1に記載の方法。
  6. 前記文法テンプレートが、頻繁に使用される名詞、有名人の名前、慣用句、文字ストローク、文字、語、及び文字の語根の1つにより生成される、請求項5に記載の方法。
  7. 前記データベースが、関連知識データベース及びディレクトリデータベースを有する、請求項1に記載の方法。
  8. 前記ステップ(b)が、混同表によって前記認識された語系列を拡張するステップを有する、請求項1に記載の方法。
  9. 前記混同表が、事前にトレーニングされ、全ての混同する可能性のある語と、対応する正しい語と、発生確率とを有する、請求項8に記載の方法。
  10. 前記ステップ(b)が、確実性表によって混同する可能性のある語の対を除去する確実性測定のステップを有する、請求項1に記載の方法。
  11. 前記ステップ(d)が、前記システムステータスを更新するステップを有する、請求項1に記載の方法。
  12. 前記ステップ(e)が、より多くの情報を要求するために質問を生成するステップを有する、請求項1に記載の方法。
  13. 前記質問が、より多くの情報を供給するようにユーザに要求することと、リストに基づく確認と、自由回答式の確認との1つである、請求項12に記載の方法。
  14. 前記関連知識データベースが、語及び前記語の使用頻度、前記語を説明する仕方、文法規則、並びに属性及び対応する使用頻度を有する、請求項7に記載の方法。
  15. 前記関連知識データベースが、コミュニケーション概念及び前記コミュニケーション概念の使用頻度、対応する文法規則、並びに意味論的な意味及び使用頻度を有する、請求項7に記載の方法。
  16. 前記ディレクトリデータベースが複数のエントリを有し、各エントリが、名前、電話番号、関連情報及び使用頻度を有する、請求項7に記載の方法。
  17. 前記少なくとも1つの候補が、最大事後確率及び最大尤度基準の1つを使用することにより生成される、請求項1に記載の方法。
  18. 前記方法が、標準中国語ディレクトリアシスタント方法である、請求項1に記載の方法。
  19. 複数の命令が記憶されたコンピュータ読取可能媒体上に存在するコンピュータプログラムにおいて、プロセッサにより実行される場合に、前記プロセッサに、
    所望のディレクトリエントリを説明する音声信号を受信させ、
    前記音声信号を認識させ、認識された語系列を生成させ、
    概念系列を形成するために、データベースに記憶された所定の文法規則及び前記所定の文法規則の関連情報を使用することにより前記認識された語系列を解釈させ、
    前記データベースに記憶された意味論的な意味及び前記意味論的な意味の関連情報並びに現在のシステムステータスによって前記概念系列を解釈させ、これにより前記所望のディレクトリエントリに対する少なくとも1つの候補を生成させ、
    前記データベースから前記少なくとも1つの候補に対応する少なくとも1つのディレクトリエントリ情報を検索させ、
    見つけられた前記少なくとも1つのディレクトリエントリ情報を出力させる、
    コンピュータプログラム。
  20. 所望のディレクトリエントリ情報を提供するディレクトリアシスタント装置において、
    ディレクトリエントリ情報、文法規則及び概念系列を記憶するデータベースと、
    前記所望のディレクトリエントリを説明する音声信号を受信し、前記音声信号を認識し、認識された語系列を生成する音響認識ユニットと、
    概念系列を形成するために、前記データベースに記憶された所定の文法規則及び前記文法規則の関連情報を使用することにより前記認識された語系列を解釈し、前記データベースに記憶された意味論的な意味及び前記意味論的な意味の関連情報並びに現在のシステムステータスによって前記概念系列を解釈し、これにより前記所望のディレクトリエントリに対する少なくとも1つの候補を生成する音声解釈ユニットと、
    前記データベースから前記少なくとも1つの候補に対応する少なくとも1つのディレクトリエントリ情報を検索するルックアップユニットと、
    見つけられた前記少なくとも1つのディレクトリエントリ情報を出力する出力ユニットと、
    を有するディレクトリアシスタント装置。
  21. 前記所定の文法規則及び前記概念系列が、エントリ名又はエントリ名の少なくとも1語及び前記エントリ名の関連情報を有する前記所望のディレクトリエントリを説明するために使用される、請求項20に記載のディレクトリアシスタント装置。
  22. 前記データベースが、関連知識データベース及びディレクトリデータベースを有する、請求項20に記載のディレクトリアシスタント装置。
  23. 前記関連知識データベースが、語及び前記語の使用頻度、前記語を説明する仕方、文法規則、並びに属性及び対応する使用頻度を有する、請求項22に記載のディレクトリアシスタント装置。
  24. 前記関連知識データベースが、コミュニケーション概念及び前記コミュニケーション概念の関連情報、対応する文法規則、並びに意味論的な意味及び使用頻度を有する、請求項22に記載のディレクトリアシスタント装置。
  25. 前記ディレクトリデータベースが複数のエントリを有し、各エントリが、名前、電話番号、関連情報及び使用頻度を有する、請求項22に記載のディレクトリアシスタント装置。
  26. 前記所定の文法規則が、頻繁に使用される文法テンプレート及び頻繁に使用される語により生成される、請求項20に記載のディレクトリアシスタント装置。
  27. 前記文法テンプレートが、頻繁に使用される名詞、有名人の名前、慣用句、文字ストローク、文字、語及び文字の語根の1つにより生成される、請求項26に記載のディレクトリアシスタント装置。
  28. 前記音響認識ユニットが、前記音声信号を認識し、認識された語系列を生成する音声認識器を有する、請求項20に記載のディレクトリアシスタント装置。
  29. 前記音響認識ユニットが、混同表によって前記認識された語系列を拡張する混同解析器を有する、請求項20に記載のディレクトリアシスタント装置。
  30. 前記混同表が、事前にトレーニングされ、全ての混同する可能性のある語と、対応する正しい語と、発生確率とを有する、請求項29に記載のディレクトリアシスタント装置。
  31. 前記音響認識ユニットが、確実性表によって混同する可能性のある語の対を除去する確実性測定ユニットを有する、請求項20に記載のディレクトリアシスタント装置。
  32. 前記音声解釈ユニットが、前記システムステータスを連続的に更新する、請求項20に記載のディレクトリアシスタント装置。
  33. より多くの情報を要求するために質問を生成する質問生成器を有する、請求項20に記載のディレクトリアシスタント装置。
  34. 前記質問が、より多くの情報を供給するようにユーザに要求することと、リストに基づく確認と、自由回答式の確認との1つである、請求項33に記載のディレクトリアシスタント装置。
  35. 前記少なくとも1つの候補が、最大事後確率及び最大尤度基準の1つを使用することにより生成される、請求項20に記載のディレクトリアシスタント装置。
  36. 前記出力ユニットが、音声出力ユニットである、請求項20に記載のディレクトリアシスタント装置。
  37. 前記ディレクトリアシスタント装置が、標準中国語ディレクトリアシスタント装置である、請求項20に記載のディレクトリアシスタント装置。
JP2004544575A 2002-10-16 2003-10-08 ディレクトリアシスタント方法及び装置 Pending JP2006503328A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP02102454 2002-10-16
PCT/IB2003/004429 WO2004036887A1 (en) 2002-10-16 2003-10-08 Directory assistant method and apparatus

Publications (1)

Publication Number Publication Date
JP2006503328A true JP2006503328A (ja) 2006-01-26

Family

ID=32103995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004544575A Pending JP2006503328A (ja) 2002-10-16 2003-10-08 ディレクトリアシスタント方法及び装置

Country Status (7)

Country Link
EP (1) EP1554864B1 (ja)
JP (1) JP2006503328A (ja)
KR (1) KR20050056242A (ja)
CN (1) CN100502441C (ja)
AU (1) AU2003264790A1 (ja)
TW (1) TWI307845B (ja)
WO (1) WO2004036887A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151700A1 (ja) * 2015-03-20 2016-09-29 株式会社 東芝 意図理解装置、方法およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102404358A (zh) * 2010-09-10 2012-04-04 中华电信股份有限公司 远程电话簿系统
CN107577656B (zh) * 2017-07-12 2020-02-14 中国科学院自动化研究所 文本隐含语义激活方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086940A (ja) * 1994-06-16 1996-01-12 Hitachi Ltd 音声入力方式およびそれを用いた情報処理装置
JPH09269947A (ja) * 1996-03-29 1997-10-14 Nippon Telegr & Teleph Corp <Ntt> 情報検索後処理方法と装置及び情報検索システム
JPH11153998A (ja) * 1997-11-19 1999-06-08 Canon Inc 音声応答装置及びその方法、コンピュータ可読メモリ
JPH11272665A (ja) * 1998-03-20 1999-10-08 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 日本語構文解析装置
JP2001357064A (ja) * 2001-04-09 2001-12-26 Toshiba Corp 情報共有支援システム
WO2002029620A1 (fr) * 2000-10-02 2002-04-11 Fujitsu Limited Systeme d'extraction de caractere, procede d'extraction de caractere, et support d'enregistrement lisible par ordinateur
JP2002148181A (ja) * 2000-11-07 2002-05-22 Hioki Ee Corp フローインジェクション分析装置
JP2002287787A (ja) * 2001-01-31 2002-10-04 Microsoft Corp 明確化言語モデル

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU5803394A (en) 1992-12-17 1994-07-04 Bell Atlantic Network Services, Inc. Mechanized directory assistance
CA2372671C (en) 1994-10-25 2007-01-02 British Telecommunications Public Limited Company Voice-operated services
GB9601925D0 (en) 1996-01-31 1996-04-03 British Telecomm Database access
EP1055228A1 (en) 1998-12-17 2000-11-29 ScanSoft, Inc. Speech operated automatic inquiry system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086940A (ja) * 1994-06-16 1996-01-12 Hitachi Ltd 音声入力方式およびそれを用いた情報処理装置
JPH09269947A (ja) * 1996-03-29 1997-10-14 Nippon Telegr & Teleph Corp <Ntt> 情報検索後処理方法と装置及び情報検索システム
JPH11153998A (ja) * 1997-11-19 1999-06-08 Canon Inc 音声応答装置及びその方法、コンピュータ可読メモリ
JPH11272665A (ja) * 1998-03-20 1999-10-08 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 日本語構文解析装置
WO2002029620A1 (fr) * 2000-10-02 2002-04-11 Fujitsu Limited Systeme d'extraction de caractere, procede d'extraction de caractere, et support d'enregistrement lisible par ordinateur
JP2002148181A (ja) * 2000-11-07 2002-05-22 Hioki Ee Corp フローインジェクション分析装置
JP2002287787A (ja) * 2001-01-31 2002-10-04 Microsoft Corp 明確化言語モデル
JP2001357064A (ja) * 2001-04-09 2001-12-26 Toshiba Corp 情報共有支援システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151700A1 (ja) * 2015-03-20 2016-09-29 株式会社 東芝 意図理解装置、方法およびプログラム
US10360903B2 (en) 2015-03-20 2019-07-23 Kabushiki Kaisha Toshiba Spoken language understanding apparatus, method, and program

Also Published As

Publication number Publication date
TWI307845B (en) 2009-03-21
EP1554864B1 (en) 2012-11-21
TW200419387A (en) 2004-10-01
AU2003264790A1 (en) 2004-05-04
KR20050056242A (ko) 2005-06-14
CN1706173A (zh) 2005-12-07
WO2004036887A1 (en) 2004-04-29
CN100502441C (zh) 2009-06-17
EP1554864A1 (en) 2005-07-20

Similar Documents

Publication Publication Date Title
US6839671B2 (en) Learning of dialogue states and language model of spoken information system
US6067520A (en) System and method of recognizing continuous mandarin speech utilizing chinese hidden markou models
EP0602296A1 (en) Adaptive method for generating field dependant models for intelligent systems
EP1901283A2 (en) Automatic generation of statistical laguage models for interactive voice response applacation
US20030040907A1 (en) Speech recognition system
US20070043562A1 (en) Email capture system for a voice recognition speech application
CN114580382A (zh) 文本纠错方法以及装置
JP2000353161A (ja) 自然言語生成における文体制御方法及び装置
CN114818649A (zh) 基于智能语音交互技术的业务咨询处理方法及装置
Rabiner et al. Speech recognition: Statistical methods
US7302381B2 (en) Specifying arbitrary words in rule-based grammars
KR20090063546A (ko) 음성인식 장치 및 방법
Pieraccini et al. Spoken language communication with machines: the long and winding road from research to business
Tan et al. Four-in-One: a joint approach to inverse text normalization, punctuation, capitalization, and disfluency for automatic speech recognition
JP2006503328A (ja) ディレクトリアシスタント方法及び装置
Šoić et al. Spoken notifications in smart environments using Croatian language
KR101543024B1 (ko) 발음 기반의 번역 방법 및 그 장치
CN107342080B (zh) 一种会议现场同步速记的系统和方法
JP2007265131A (ja) 対話情報抽出装置,対話情報抽出方法およびプログラム
CN112711654B (zh) 语音机器人的汉字解释话术生成方法、系统、设备及介质
CN118013390B (zh) 一种基于大数据分析的智慧工作台控制方法及系统
Qaroush et al. Automatic spoken customer query identification for Arabic language
KR20120063827A (ko) 연속 음성 인식에 대한 시맨틱 네트워크를 이용한 호 분류 방법 및 그 시스템
US8635071B2 (en) Apparatus, medium, and method for generating record sentence for corpus and apparatus, medium, and method for building corpus using the same
Gergely et al. Semantics driven intelligent front-end

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101101

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101110

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20101210