JP2008139438A - 音声処理装置、端末装置、音声情報管理装置、および、プログラム - Google Patents
音声処理装置、端末装置、音声情報管理装置、および、プログラム Download PDFInfo
- Publication number
- JP2008139438A JP2008139438A JP2006323978A JP2006323978A JP2008139438A JP 2008139438 A JP2008139438 A JP 2008139438A JP 2006323978 A JP2006323978 A JP 2006323978A JP 2006323978 A JP2006323978 A JP 2006323978A JP 2008139438 A JP2008139438 A JP 2008139438A
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- voice
- speech
- user data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/193—Formal grammars, e.g. finite state automata, context free grammars or word networks
Abstract
【解決手段】ユーザデータを格納する端末装置2と通信可能な通信処理部31と、合成音声を生成する音声合成部38、および、入力音声を認識する音声認識部37の少なくとも1つとを備えた音声処理装置3において、通信処理部31は、ユーザデータの少なくとも1項目の項目値の韻律情報を含む読み情報、および、ユーザデータの少なくとも1項目の項目値の1または複数の認識文法を示す文法情報の少なくとも1つの情報を、端末装置2から取得し、音声合成部38は、通信処理部31が取得した読み情報を用いて、合成音声を生成し、音声認識部37は、通信処理部31が取得した文法情報を用いて、入力音声を認識する。
【選択図】図1
Description
図1は、本実施形態に係る対話制御システム1の概略構成を示すブロック図である。すなわち、本実施形態に係る対話制御システム1は、端末装置2および音声処理装置3を備えている。端末装置2は、携帯電話、PHS(Personal Handyphone System)、PDA(Personal Digital Assistance)、音楽プレーヤなどの携帯端末である。音声処理装置3は、カーナビゲーションシステム、パーソナルコンピュータなどの装置である。端末装置2と音声処理装置3とは、有線Lにより互いに接続されている。なお、端末装置2と音声処理装置3とは、無線により互いにアクセス可能であっても良い。図1では、説明の簡略化のために、端末装置2および音声処理装置3を1台ずつ図示したが、対話制御システム1を構成する端末装置2および音声処理装置3の数は任意である。また、1台の音声処理装置3に、複数台の端末装置2が接続されていても良い。
端末装置2は、インタフェース部(図中、IF部)21、データ記憶部22、および、制御部23を備えている。
音声処理装置3は、通信処理部31、対話制御部32、キー入力部33、画面表示部34、音声入力部35、音声出力部36、音声認識部37、および、音声合成部38を備えている。
次に、上記の構成に係る対話制御システム1の処理について、図4および図5を参照しながら説明する。
一例として、端末装置2がPDAである場合の第1の変形例を説明する。図6は、第1の変形例におけるデータ記憶部22のデータ構造の一例を示す図である。図6に示すように、データ記憶部22は、項目名、項目値、フリガナ、発音、および、文法を、エントリ22bにて格納する。エントリ22bの1行目R1には、項目名「ID」、項目値「00123」が格納されている。「ID」は、エントリ22bを一意に識別するための識別符号である。2行目R2には、項目名「タイトル」、項目値「グループ会議」、フリガナ「グループカイギ」、発音「ぐ‘るーぷかいぎ」、文法「ぐるーぷかいぎ」および「ぐるーぷみーてぃんぐ」が格納されている。すなわち、項目値「グループ会議」には、「ぐるーぷかいぎ」および「ぐるーぷみーてぃんぐ」の2つの認識文法を示す文法情報が格納されている。3行目R3には、項目名「開始日時」、項目値「8月10日9時30分」、発音「く‘じさん‘じゅっぷん」が格納されている。4行目R4には、項目名「終了日時」、項目値「8月10日12時00分」、発音「じゅう‘にじ」が格納されている。5行目R5には、項目名「繰り返し」、項目値「毎週」が格納されている。6行目R6には、項目名「場所」、項目値「A会議室」、フリガナ「エーカイギシツ」、発音「‘えーかいぎしつ」、文法「えーかいぎしつ」が格納されている。7行目R7には、項目名「説明」、項目値「いつもの進捗会議」が格納されている。すなわち、第1の変形例におけるデータ記憶部22には、端末装置2のスケジュールのユーザデータが格納されているが、これはあくまでも一例に過ぎない。
他の例として、端末装置2が音楽プレーヤである場合の第2の変形例を説明する。図8は、第2の変形例におけるデータ記憶部22のデータ構造の一例を示す図である。図8に示すように、データ記憶部22は、項目名、項目値、フリガナ、発音、および、文法を、エントリ22cにて格納する。エントリ22cの1行目R1には、項目名「ID」、項目値「01357」が格納されている。「ID」は、エントリ22cを一意に識別するための識別符号である。2行目R2には、項目名「楽曲名」、項目値「赤いブランコ」、フリガナ「アカイブランコ」、発音「あ‘かいぶらんこ」、文法「あかいぶらんこ」が格納されている。3行目R3には、項目名「アーティスト名」、項目値「山崎次郎」、フリガナ「ヤマザキジロウ」、発音「や‘まざき‘じろう」、文法「やまざきじろう」および「やまさきじろう」が格納されている。4行目R4には、項目名「アルバム名」、項目値「チューリップ」、フリガナ「チューリップ」、発音「‘ちゅーりっぷ」、文法「ちゅーりっぷ」が格納されている。5行目R5には、項目名「楽曲番号」、項目値「1」が格納されている。6行目R6には、項目名「ファイル名」、項目値「01357.mp3」が格納されている。すなわち、図8のエントリ22cには、端末装置2の楽曲のユーザデータが格納されているが、これはあくまでも一例に過ぎない。
実施の形態1では、音声処理装置に端末装置が接続されることにより、音声処理装置が、端末装置のデータ記憶部に格納されている読み情報および文法情報の少なくとも1つの情報を取得し、取得した読み情報に基づいて合成音声を生成し、取得した文法情報に基づいて入力音声を認識する例について説明した。これに対して、実施の形態2では、音声情報管理装置に端末装置が接続されることにより、端末装置が、音声情報管理装置のユーザデータ記憶部に格納されているユーザデータと、音声情報データベースに格納されている読み情報および文法情報の少なくとも1つの情報とを音声データとして取得し、取得した音声データをデータ記憶部に格納する例について説明する。
音声情報管理装置4は、ユーザデータ記憶部41、入力部42、音声情報データベース43、読取部44、データ管理部45、データ抽出部46、および、データ伝送部47を備えている。
端末装置2は、図1に示すインタフェース部21および制御部23の代わりに、インタフェース部24および制御部25を備えている。
次に、上記の構成に係る対話制御システム10の処理について、図15を参照しながら説明する。
一例として、図15に示した工程Op23において、データ抽出部46による抽出処理の変形例を説明する。すなわち、本変形例は、データ抽出部46が、ユーザデータの住所の項目値に基づいて、音声情報データベース43に格納されている場所の読み情報および文法情報を抽出する例である。
実施の形態2では、音声情報管理装置に、1つの音声情報データベースを備える例について説明した。これに対して、実施の形態3では、音声情報管理装置に、複数の音声情報データベースを備える例について説明する。
実施の形態3では、音声情報管理装置に、複数の音声情報データベースを備える例について説明した。これに対して、実施の形態4では、音声情報管理装置に、複数の音声情報データベースを備え、さらにサーバ装置においても、音声情報データベースを備える例について説明する。
ユーザデータを格納する端末装置と通信可能な通信処理部と、合成音声を生成する音声合成部、および、入力音声を認識する音声認識部の少なくとも1つとを備えた音声処理装置において、
前記通信処理部は、前記ユーザデータの少なくとも1項目の項目値の韻律情報を含む読み情報、および、前記ユーザデータの少なくとも1項目の項目値の1または複数の認識文法を示す文法情報の少なくとも1つの情報を、前記端末装置から取得し、
前記音声合成部は、前記通信処理部が取得した読み情報を用いて、合成音声を生成し、
前記音声認識部は、前記通信処理部が取得した文法情報を用いて、入力音声を認識する、音声処理装置。
合成音声を生成する機能、および、入力音声を認識する機能の少なくとも1つの機能を有する音声処理装置と通信可能なインタフェース部と、ユーザデータを格納するデータ記憶部とを備えた端末装置において、
前記データ記憶部には、前記ユーザデータの少なくとも1項目の項目値の韻律情報を含み、合成音声を生成するために用いられる読み情報、および、前記ユーザデータの少なくとも1項目の項目値の1または複数の認識文法を示し、入力音声を認識するために用いられる文法情報の少なくとも1つの情報がさらに格納されており、
前記端末装置のイベントまたは前記音声処理装置からのイベントを検知し、検知したイベントに基づいて、前記データ記憶部に格納されている読み情報および文法情報の少なくとも1つの情報を抽出する制御部を備え、
前記インタフェース部は、前記制御部が抽出した読み情報および文法情報の少なくとも1つの情報を、前記音声処理装置に送信する、端末装置。
合成音声を生成する音声合成部、および、入力音声を認識する音声認識部の少なくとも1つを有する音声処理装置に、ユーザデータを格納するデータ記憶部を有する端末装置が通信可能な対話制御システムにおいて、
前記データ記憶部には、前記ユーザデータの少なくとも1項目の項目値の韻律情報を含み、合成音声を生成するために用いられる読み情報、および、前記ユーザデータの少なくとも1項目の項目値の1または複数の認識文法を示し、入力音声を認識するために用いられる文法情報の少なくとも1つの情報がさらに格納されており、
前記端末装置が、
前記端末装置のイベントまたは前記音声処理装置からのイベントを検知し、検知したイベントに基づいて、前記データ記憶部に格納されている読み情報および文法情報の少なくとも1つの情報を抽出する制御部と、
前記制御部が抽出した読み情報および文法情報の少なくとも1つの情報を、前記音声処理装置に送信するインタフェース部とを備え、
前記音声処理装置が、
前記インタフェース部が送信した読み情報および文法情報の少なくとも1つの情報を取得する通信処理部を備え、
前記音声合成部は、前記通信処理部が取得した読み情報を用いて、合成音声を生成し、
前記音声認識部は、前記通信処理部が取得した文法情報を用いて、入力音声を認識する、対話制御システム。
端末装置と通信可能なデータ伝送部を備えた音声情報管理装置において、
前記音声情報管理装置のイベントまたは前記端末装置からのイベントを検知し、検知したイベントに基づいて、前記音声情報管理装置または前記端末装置に設けられているユーザデータ記憶部からユーザデータを抽出するデータ管理部と、
前記ユーザデータの項目値の韻律情報を含み、合成音声を生成するために用いられる読み情報、および、前記ユーザデータの項目値の1または複数の認識文法を示し、入力音声を認識するために用いられる文法情報の少なくとも1つの情報を格納する音声情報データベースと、
前記データ管理部が抽出したユーザデータの項目値に基づいて、前記音声情報データベースに格納されている読み情報および文法情報の少なくとも1つの情報を抽出するデータ抽出部とを備え、
前記データ管理部は、前記ユーザデータの項目値に、前記データ抽出部が抽出した読み情報および文法情報の少なくとも1つの情報を関連付けた音声データを生成し、
前記データ伝送部は、前記データ管理部が生成した音声データを、前記端末装置に送信する、音声情報管理装置。
前記データ抽出部は、前記ユーザデータの住所の項目値に基づいて、前記音声情報データベースに格納されている場所の読み情報および文法情報の少なくとも1つの情報を抽出する、付記4に記載の音声情報管理装置。
前記データ抽出部は、前記ユーザデータの緯度および経度の項目値に基づいて、前記音声情報データベースに格納されている場所の読み情報および文法情報の少なくとも1つの情報を抽出する、付記4に記載の音声情報管理装置。
前記読み情報および前記文法情報の少なくとも1つの情報の種類がそれぞれ異なる複数の音声情報データベースと、
前記データ管理部が抽出したユーザデータの種類に基づいて、前記音声情報データベースを選択する選択部とをさらに備える、付記4〜6のいずれか一項に記載の音声情報管理装置。
サーバ装置と通信可能な通信部をさらに備え、
前記サーバ装置が、
前記読み情報および前記文法情報の少なくとも1つの情報を格納する音声情報データベースを備え、
前記選択部は、前記データ管理部が抽出したユーザデータの種類に基づいて、前記サーバ装置に備えられている音声情報データベースを選択する、付記7に記載の音声情報管理装置。
ユーザデータを格納する端末装置と通信可能な通信処理と、合成音声を生成する音声合成処理、および、入力音声を認識する音声認識処理の少なくとも1つの処理とをコンピュータに実行させるプログラムにおいて、
前記通信処理は、前記ユーザデータの少なくとも1項目の項目値の韻律情報を含む読み情報、および、前記ユーザデータの少なくとも1項目の項目値の1または複数の認識文法を示す文法情報の少なくとも1つの情報を、前記端末装置から取得する処理を前記コンピュータに実行させ、
前記音声合成処理は、前記通信処理で取得された読み情報を用いて、合成音声を生成する処理を前記コンピュータに実行させ、
前記音声認識処理は、前記通信処理で取得された文法情報を用いて、入力音声を認識する処理を前記コンピュータに実行させる、プログラム。
ユーザデータを格納するデータ記憶部を備えたコンピュータに、合成音声を生成する機能、および、入力音声を認識する機能の少なくとも1つの機能を有する音声処理装置と通信可能なインタフェース処理を実行させるプログラムにおいて、
前記ユーザデータの少なくとも1項目の項目値の韻律情報を含み、合成音声を生成するために用いられる読み情報、および、前記ユーザデータの少なくとも1項目の項目値の1または複数の認識文法を示し、入力音声を認識するために用いられる文法情報の少なくとも1つの情報がさらに格納されている前記データ記憶部に、前記コンピュータがアクセス可能であって、
前記コンピュータのイベントまたは前記音声処理装置からのイベントを検知し、検知したイベントに基づいて、前記データ記憶部に格納されている読み情報および文法情報の少なくとも1つの情報を抽出する制御処理を前記コンピュータに実行させ、
前記インタフェース処理は、前記制御処理で抽出された読み情報および文法情報の少なくとも1つの情報を、前記音声処理装置に送信する処理を前記コンピュータに実行させる、プログラム。
ユーザデータの項目値の韻律情報を含み、合成音声を生成するために用いられる読み情報、および、前記ユーザデータの項目値の1または複数の認識文法を示し、入力音声を認識するために用いられる文法情報の少なくとも1つの情報を格納する音声情報データベースを備えたコンピュータに、端末装置と通信可能なデータ伝送処理を実行させるプログラムにおいて、
前記コンピュータのイベントまたは前記端末装置からのイベントを検知し、検知したイベントに基づいて、前記コンピュータまたは前記端末装置に設けられているユーザデータ記憶部からユーザデータを抽出するデータ管理処理と、
前記データ管理処理で抽出されたユーザデータの項目値に基づいて、前記音声情報データベースに格納されている読み情報および文法情報の少なくとも1つの情報を抽出するデータ抽出処理とを前記コンピュータに実行させ、
前記データ管理処理は、前記ユーザデータの項目値に、前記データ抽出処理で抽出された読み情報および文法情報の少なくとも1つの情報を関連付けた音声データを生成する処理を前記コンピュータに実行させ、
前記データ伝送処理は、前記データ管理処理で生成された音声データを、前記端末装置に送信する処理を前記コンピュータに実行させる、プログラム。
2 端末装置
3 音声処理装置
4、5、6 音声情報管理装置
7 サーバ装置
21、24 インタフェース部
22 データ記憶部
23、25 制御部
31 通信処理部
37 音声認識部
38 音声合成部
41 ユーザデータ記憶部
43、51a〜51c、72 音声情報データベース
45 データ管理部
46、53a〜53c、73 データ抽出部
47 データ伝送部
52、61 選択部
62 通信部
Claims (8)
- ユーザデータを格納する端末装置と通信可能な通信処理部と、合成音声を生成する音声合成部、および、入力音声を認識する音声認識部の少なくとも1つとを備えた音声処理装置において、
前記通信処理部は、前記ユーザデータの少なくとも1項目の項目値の韻律情報を含む読み情報、および、前記ユーザデータの少なくとも1項目の項目値の1または複数の認識文法を示す文法情報の少なくとも1つの情報を、前記端末装置から取得し、
前記音声合成部は、前記通信処理部が取得した読み情報を用いて、合成音声を生成し、
前記音声認識部は、前記通信処理部が取得した文法情報を用いて、入力音声を認識する、音声処理装置。 - 合成音声を生成する機能、および、入力音声を認識する機能の少なくとも1つの機能を有する音声処理装置と通信可能なインタフェース部と、ユーザデータを格納するデータ記憶部とを備えた端末装置において、
前記データ記憶部には、前記ユーザデータの少なくとも1項目の項目値の韻律情報を含み、合成音声を生成するために用いられる読み情報、および、前記ユーザデータの少なくとも1項目の項目値の1または複数の認識文法を示し、入力音声を認識するために用いられる文法情報の少なくとも1つの情報がさらに格納されており、
前記端末装置のイベントまたは前記音声処理装置からのイベントを検知し、検知したイベントに基づいて、前記データ記憶部に格納されている読み情報および文法情報の少なくとも1つの情報を抽出する制御部を備え、
前記インタフェース部は、前記制御部が抽出した読み情報および文法情報の少なくとも1つの情報を、前記音声処理装置に送信する、端末装置。 - 端末装置と通信可能なデータ伝送部を備えた音声情報管理装置において、
前記音声情報管理装置のイベントまたは前記端末装置からのイベントを検知し、検知したイベントに基づいて、前記音声情報管理装置または前記端末装置に設けられているユーザデータ記憶部からユーザデータを抽出するデータ管理部と、
前記ユーザデータの項目値の韻律情報を含み、合成音声を生成するために用いられる読み情報、および、前記ユーザデータの項目値の1または複数の認識文法を示し、入力音声を認識するために用いられる文法情報の少なくとも1つの情報を格納する音声情報データベースと、
前記データ管理部が抽出したユーザデータの項目値に基づいて、前記音声情報データベースに格納されている読み情報および文法情報の少なくとも1つの情報を抽出するデータ抽出部とを備え、
前記データ管理部は、前記ユーザデータの項目値に、前記データ抽出部が抽出した読み情報および文法情報の少なくとも1つの情報を関連付けた音声データを生成し、
前記データ伝送部は、前記データ管理部が生成した音声データを、前記端末装置に送信する、音声情報管理装置。 - 前記データ抽出部は、前記ユーザデータの住所の項目値に基づいて、前記音声情報データベースに格納されている場所の読み情報および文法情報の少なくとも1つの情報を抽出する、請求項3に記載の音声情報管理装置。
- 前記データ抽出部は、前記ユーザデータの緯度および経度の項目値に基づいて、前記音声情報データベースに格納されている場所の読み情報および文法情報の少なくとも1つの情報を抽出する、請求項3に記載の音声情報管理装置。
- 前記読み情報および前記文法情報の少なくとも1つの情報の種類がそれぞれ異なる複数の音声情報データベースと、
前記データ管理部が抽出したユーザデータの種類に基づいて、前記音声情報データベースを選択する選択部とをさらに備える、請求項3〜5のいずれか一項に記載の音声情報管理装置。 - サーバ装置と通信可能な通信部をさらに備え、
前記サーバ装置が、
前記読み情報および前記文法情報の少なくとも1つの情報を格納する音声情報データベースを備え、
前記選択部は、前記データ管理部が抽出したユーザデータの種類に基づいて、前記サーバ装置に備えられている音声情報データベースを選択する、請求項6に記載の音声情報管理装置。 - ユーザデータを格納する端末装置と通信可能な通信処理と、合成音声を生成する音声合成処理、および、入力音声を認識する音声認識処理の少なくとも1つの処理とをコンピュータに実行させるプログラムにおいて、
前記通信処理は、前記ユーザデータの少なくとも1項目の項目値の韻律情報を含む読み情報、および、前記ユーザデータの少なくとも1項目の項目値の1または複数の認識文法を示す文法情報の少なくとも1つの情報を、前記端末装置から取得する処理を前記コンピュータに実行させ、
前記音声合成処理は、前記通信処理で取得された読み情報を用いて、合成音声を生成する処理を前記コンピュータに実行させ、
前記音声認識処理は、前記通信処理で取得された文法情報を用いて、入力音声を認識する処理を前記コンピュータに実行させる、プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006323978A JP4859642B2 (ja) | 2006-11-30 | 2006-11-30 | 音声情報管理装置 |
US11/902,490 US20080133240A1 (en) | 2006-11-30 | 2007-09-21 | Spoken dialog system, terminal device, speech information management device and recording medium with program recorded thereon |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006323978A JP4859642B2 (ja) | 2006-11-30 | 2006-11-30 | 音声情報管理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008139438A true JP2008139438A (ja) | 2008-06-19 |
JP4859642B2 JP4859642B2 (ja) | 2012-01-25 |
Family
ID=39476899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006323978A Expired - Fee Related JP4859642B2 (ja) | 2006-11-30 | 2006-11-30 | 音声情報管理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20080133240A1 (ja) |
JP (1) | JP4859642B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010060720A (ja) * | 2008-09-02 | 2010-03-18 | Denso Corp | 音声認識装置、端末機器、音声認識装置用プログラム及び端末機器用プログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140297272A1 (en) * | 2013-04-02 | 2014-10-02 | Fahim Saleh | Intelligent interactive voice communication system and method |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09258785A (ja) * | 1996-03-22 | 1997-10-03 | Sony Corp | 情報処理方法および情報処理装置 |
JPH10229449A (ja) * | 1996-11-29 | 1998-08-25 | Northern Telecom Ltd | 電話帳の登録項目から話を認識した語彙を自動的に生成する方法および装置、並びに、話認識システムにおいて使用される、話を認識した語彙を生成するためにコンピュータに命令をするためのプログラム要素を記録したコンピュータ読み取り可能な記録媒体 |
JPH1132105A (ja) * | 1997-07-10 | 1999-02-02 | Sony Corp | 携帯情報端末およびその着信報知方法 |
JPH11296791A (ja) * | 1998-04-10 | 1999-10-29 | Daihatsu Motor Co Ltd | 情報提供システム |
JPH11296189A (ja) * | 1998-04-08 | 1999-10-29 | Alpine Electronics Inc | 車載電子機器 |
JPH11344997A (ja) * | 1998-06-02 | 1999-12-14 | Sanyo Electric Co Ltd | 音声合成方法 |
JP2000056789A (ja) * | 1998-06-02 | 2000-02-25 | Sanyo Electric Co Ltd | 音声合成装置及び電話機 |
JP2002197351A (ja) * | 2000-12-25 | 2002-07-12 | Nec Corp | 情報提供システムおよび方法並びに情報提供プログラムを記録した記録媒体 |
JP2002221979A (ja) * | 2001-01-24 | 2002-08-09 | Matsushita Electric Ind Co Ltd | 音声合成装置、言語辞書メンテナンス方法および言語辞書メンテナンス装置 |
JP2003125454A (ja) * | 2001-10-12 | 2003-04-25 | Honda Motor Co Ltd | 運転状況依存通話制御システム |
EP1600942A1 (en) * | 2004-05-21 | 2005-11-30 | Harman Becker Automotive Systems GmbH | Automatic word pronunciation generation for speech recognition |
JP2006014216A (ja) * | 2004-06-29 | 2006-01-12 | Toshiba Corp | 通信端末及び辞書作成方法 |
JP2006292918A (ja) * | 2005-04-08 | 2006-10-26 | Denso Corp | ナビゲーション装置およびナビゲーション装置用プログラム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5915001A (en) * | 1996-11-14 | 1999-06-22 | Vois Corporation | System and method for providing and using universally accessible voice and speech data files |
JP3573907B2 (ja) * | 1997-03-10 | 2004-10-06 | 株式会社リコー | 音声合成装置 |
US6078886A (en) * | 1997-04-14 | 2000-06-20 | At&T Corporation | System and method for providing remote automatic speech recognition services via a packet network |
US6195641B1 (en) * | 1998-03-27 | 2001-02-27 | International Business Machines Corp. | Network universal spoken language vocabulary |
US6418440B1 (en) * | 1999-06-15 | 2002-07-09 | Lucent Technologies, Inc. | System and method for performing automated dynamic dialogue generation |
JP3581648B2 (ja) * | 2000-11-27 | 2004-10-27 | キヤノン株式会社 | 音声認識システム、情報処理装置及びそれらの制御方法、プログラム |
GB2372864B (en) * | 2001-02-28 | 2005-09-07 | Vox Generation Ltd | Spoken language interface |
GB0113581D0 (en) * | 2001-06-04 | 2001-07-25 | Hewlett Packard Co | Speech synthesis apparatus |
US7668718B2 (en) * | 2001-07-17 | 2010-02-23 | Custom Speech Usa, Inc. | Synchronized pattern recognition source data processed by manual or automatic means for creation of shared speaker-dependent speech user profile |
JP3589216B2 (ja) * | 2001-11-02 | 2004-11-17 | 日本電気株式会社 | 音声合成システム及び音声合成方法 |
US20030167167A1 (en) * | 2002-02-26 | 2003-09-04 | Li Gong | Intelligent personal assistants |
WO2004008434A1 (en) * | 2002-07-17 | 2004-01-22 | Nokia Corporation | Mobile device having voice user interface, and a methode for testing the compatibility of an application with the mobile device |
US8768701B2 (en) * | 2003-01-24 | 2014-07-01 | Nuance Communications, Inc. | Prosodic mimic method and apparatus |
US7310602B2 (en) * | 2004-09-27 | 2007-12-18 | Kabushiki Kaisha Equos Research | Navigation apparatus |
US7376645B2 (en) * | 2004-11-29 | 2008-05-20 | The Intellection Group, Inc. | Multimodal natural language query system and architecture for processing voice and proximity-based queries |
US7689423B2 (en) * | 2005-04-13 | 2010-03-30 | General Motors Llc | System and method of providing telematically user-optimized configurable audio |
US7991607B2 (en) * | 2005-06-27 | 2011-08-02 | Microsoft Corporation | Translation and capture architecture for output of conversational utterances |
US7584104B2 (en) * | 2006-09-08 | 2009-09-01 | At&T Intellectual Property Ii, L.P. | Method and system for training a text-to-speech synthesis system using a domain-specific speech database |
-
2006
- 2006-11-30 JP JP2006323978A patent/JP4859642B2/ja not_active Expired - Fee Related
-
2007
- 2007-09-21 US US11/902,490 patent/US20080133240A1/en not_active Abandoned
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09258785A (ja) * | 1996-03-22 | 1997-10-03 | Sony Corp | 情報処理方法および情報処理装置 |
JPH10229449A (ja) * | 1996-11-29 | 1998-08-25 | Northern Telecom Ltd | 電話帳の登録項目から話を認識した語彙を自動的に生成する方法および装置、並びに、話認識システムにおいて使用される、話を認識した語彙を生成するためにコンピュータに命令をするためのプログラム要素を記録したコンピュータ読み取り可能な記録媒体 |
JPH1132105A (ja) * | 1997-07-10 | 1999-02-02 | Sony Corp | 携帯情報端末およびその着信報知方法 |
JPH11296189A (ja) * | 1998-04-08 | 1999-10-29 | Alpine Electronics Inc | 車載電子機器 |
JPH11296791A (ja) * | 1998-04-10 | 1999-10-29 | Daihatsu Motor Co Ltd | 情報提供システム |
JP2000056789A (ja) * | 1998-06-02 | 2000-02-25 | Sanyo Electric Co Ltd | 音声合成装置及び電話機 |
JPH11344997A (ja) * | 1998-06-02 | 1999-12-14 | Sanyo Electric Co Ltd | 音声合成方法 |
JP2002197351A (ja) * | 2000-12-25 | 2002-07-12 | Nec Corp | 情報提供システムおよび方法並びに情報提供プログラムを記録した記録媒体 |
JP2002221979A (ja) * | 2001-01-24 | 2002-08-09 | Matsushita Electric Ind Co Ltd | 音声合成装置、言語辞書メンテナンス方法および言語辞書メンテナンス装置 |
JP2003125454A (ja) * | 2001-10-12 | 2003-04-25 | Honda Motor Co Ltd | 運転状況依存通話制御システム |
EP1600942A1 (en) * | 2004-05-21 | 2005-11-30 | Harman Becker Automotive Systems GmbH | Automatic word pronunciation generation for speech recognition |
JP2006014216A (ja) * | 2004-06-29 | 2006-01-12 | Toshiba Corp | 通信端末及び辞書作成方法 |
JP2006292918A (ja) * | 2005-04-08 | 2006-10-26 | Denso Corp | ナビゲーション装置およびナビゲーション装置用プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010060720A (ja) * | 2008-09-02 | 2010-03-18 | Denso Corp | 音声認識装置、端末機器、音声認識装置用プログラム及び端末機器用プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20080133240A1 (en) | 2008-06-05 |
JP4859642B2 (ja) | 2012-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI281146B (en) | Apparatus and method for synthesized audible response to an utterance in speaker-independent voice recognition | |
US7957972B2 (en) | Voice recognition system and method thereof | |
KR101788500B1 (ko) | 이름 발음을 위한 시스템 및 방법 | |
US9640175B2 (en) | Pronunciation learning from user correction | |
US8949133B2 (en) | Information retrieving apparatus | |
US8290775B2 (en) | Pronunciation correction of text-to-speech systems between different spoken languages | |
CN1196105C (zh) | 给用户提供声音反馈的可扩展语音识别系统 | |
EP2259252B1 (en) | Speech recognition method for selecting a combination of list elements via a speech input | |
JP2007011380A (ja) | 自動車インターフェース | |
CN1692403A (zh) | 具有个人化语音段的语音合成设备 | |
JP5731998B2 (ja) | 対話支援装置、対話支援方法および対話支援プログラム | |
KR20010076508A (ko) | Mp3 플레이어 겸용 휴대폰에서 음성 인식에 의한 선곡방법 | |
JP2013109061A (ja) | 音声データ検索システムおよびそのためのプログラム | |
JP4859642B2 (ja) | 音声情報管理装置 | |
JP5693834B2 (ja) | 音声認識装置及び音声認識方法 | |
JP2004053620A (ja) | 音声認識装置 | |
JP2000056789A (ja) | 音声合成装置及び電話機 | |
JP3179370B2 (ja) | おしゃべりオウム発声装置 | |
EP1895748B1 (en) | Method, software and device for uniquely identifying a desired contact in a contacts database based on a single utterance | |
JP4286583B2 (ja) | 波形辞書作成支援システムおよびプログラム | |
JPH11275205A (ja) | 自動ダイヤル用音声コマンドシステム | |
CN1979636A (zh) | 一种音标到语音的转换方法 | |
KR20120041051A (ko) | 초성 기반의 음성검색 기능을 갖는 단말장치 및 그 동작 방법 | |
JP2004295017A (ja) | マルチモーダルシステムおよび音声入力方法 | |
JP2004234095A (ja) | 携帯端末装置及び情報検索提供方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111101 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111101 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141111 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |