JPH10124086A - Voice interactive system - Google Patents

Voice interactive system

Info

Publication number
JPH10124086A
JPH10124086A JP8283461A JP28346196A JPH10124086A JP H10124086 A JPH10124086 A JP H10124086A JP 8283461 A JP8283461 A JP 8283461A JP 28346196 A JP28346196 A JP 28346196A JP H10124086 A JPH10124086 A JP H10124086A
Authority
JP
Japan
Prior art keywords
voice
information
recognition
knowledge base
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8283461A
Other languages
Japanese (ja)
Inventor
Kazuhiko Takahashi
和彦 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP8283461A priority Critical patent/JPH10124086A/en
Publication of JPH10124086A publication Critical patent/JPH10124086A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a system which can obtain the natural interaction between an unspecified speaker and a machine. SOLUTION: A user's voice is received by a voice input device, a communication system 12 and a voice reception data 13, and an active noise filter 14 removes noise; and a voice recognition device 15 which uses unspecified-speaker word voice recognition technology performs speech recognition and a voice understanding device 16 extracts meaning contents from the voice. Then an expert system 17 having a knowledge base of information that users request and limited information obtains answer voice information for the users and when there is not the information, a person intervenes with a voice through a system supporter 18 to send speech information from a voice output device 21 to the users with a voice or voice signal synthesized by a voice synthesizing device 19.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、不特定話者とコン
ピュータの間で音声により対話を行う音声対話システム
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech dialogue system in which an unspecified speaker and a computer interact with each other by voice.

【0002】[0002]

【従来の技術】従来、人と機械との間の対話には、テー
プレコーダ等に予め録音されたさまざまな情報を電話で
聞き取ったり、ファクリミリを利用した情報収集を行う
ときに、アナウンスに従って人が機械操作を行ってい
る。この場合、機械側が発生できる音声情報が限られる
し、人は機械操作で応答するため、対話内容及び応答時
間が大きく制限される。
2. Description of the Related Art Hitherto, in a dialogue between a person and a machine, when a user listens to various information recorded in advance on a tape recorder or the like by telephone or collects information using a facsimile, a person follows an announcement. You are operating a machine. In this case, the voice information that can be generated by the machine side is limited, and since a person responds by operating the machine, the content of the dialogue and the response time are greatly limited.

【0003】これら制限を無くそうとするものとして、
機械側が発生できる音声情報を任意とする規則合成方式
による音声合成装置がある。また、人が音声で応答し、
これを機械側が認識する音声認識・理解システム、さら
には画像情報と音声情報を取り扱うマルチメディア向け
音声インタフェースがある。
In order to eliminate these restrictions,
2. Description of the Related Art There is a speech synthesizer based on a rule synthesis method in which speech information that can be generated by a machine is arbitrary. Also, people respond by voice,
There is a voice recognition / understanding system that recognizes this on the machine side, and a voice interface for multimedia that handles image information and voice information.

【0004】図7は、日本語規則合成方式の音声合成処
理ブロック図を示す。日本語解析処理部1は、パソコン
やワープロ、ワークステーション等から入力された漢字
カナ混じり文に対して日本語辞書2を参照した構文解
析、意味解析等により読み・単語・文節境界等を解析す
る。この解析結果から、抑揚制御部3による音韻系列の
アクセントとイントネーション及び継続時間長制御部4
による音韻の継続時間の各パラメータを決定し、これら
を音響管モデルのパラメータとして音声合成部5により
音声辞書6を参照した音声合成を行い、拡声器7から合
成音声を得る。
FIG. 7 is a block diagram showing a speech synthesis process of the Japanese rule synthesis system. The Japanese parsing unit 1 analyzes reading / word / phrase boundaries and the like by syntactic analysis and semantic analysis with reference to the Japanese dictionary 2 for kanji / kana mixed sentences input from a personal computer, word processor, workstation or the like. . From this analysis result, the accent and intonation of phoneme series and the duration control unit 4 by the intonation control unit 3
, The parameters of the duration of the phoneme are determined, and these parameters are used as parameters of the acoustic tube model to perform voice synthesis with reference to the voice dictionary 6 by the voice synthesis unit 5, thereby obtaining a synthesized voice from the loudspeaker 7.

【0005】このような音声合成装置を対話システムに
利用するには、回線外部からの接続応答、回線外部への
接続要求、電話機のプッシュボタン信号認識機能などの
回線制御機構を持つ装置に音声合成装置を設け、その音
声合成部5のモジュラー端子から直接に電話回線へ出力
する。この装置は、コンピュータに接続するのみで電話
対応システムが構築でき、専用のラックを用いて最大3
2回線までの同時応答や一斉通報ができる。
In order to use such a speech synthesizer in a dialogue system, speech synthesis is performed by a device having a line control mechanism such as a connection response from outside the line, a connection request to the outside of the line, and a push button signal recognition function of a telephone. A device is provided, and a voice signal is directly output from a modular terminal of the voice synthesizing unit 5 to a telephone line. With this device, a telephone-compatible system can be constructed simply by connecting it to a computer.
Simultaneous response and simultaneous notification of up to two lines are possible.

【0006】次に、音声認識装置は、入力される音声の
音響分析と音韻認識と単語認識及び言語処理などによ
り、単語音声認識、連続単語音声認識や音声理解を行
う。例えば、単語抽出型音声認識システムは、図8に示
すように、ファジイ推論で必要な単語を大つかみに抽出
し、必要とする単語は予め登録しておき、後から学習機
能によって次第に追加して行くシステムであり、ソフト
ウェアでも作動させることが可能であるため、コンピュ
ータと人の対話における音声認識手段として利用するこ
とができる。
Next, the speech recognition apparatus performs word speech recognition, continuous word speech recognition, and speech understanding by performing acoustic analysis, phoneme recognition, word recognition, and language processing of the input speech. For example, as shown in FIG. 8, the word extraction type speech recognition system roughly extracts necessary words by fuzzy inference, registers necessary words in advance, and gradually adds them later by a learning function. Since it is a system to go and can be operated by software, it can be used as a voice recognition means in a dialogue between a computer and a person.

【0007】マルチメディア向け音声インタフェースと
しては、図9に示すように、動画像処理部と音声応答を
用いたマルチメディア技術の実現の一環として、VME
バス対応高速ニューロコンピュータ上で開発した高精度
な不特定話者単語音声認識技術を利用し、マルチタスク
対応の音声入力インタフェースをワークステーションの
Xウインドウ上に構築したものがある。
As a voice interface for multimedia, as shown in FIG. 9, as a part of realizing multimedia technology using a moving image processing unit and voice response, VME
There is one in which a multitasking-compatible voice input interface is constructed on the X window of a workstation using a high-precision unspecified speaker word voice recognition technology developed on a bus-compatible high-speed neurocomputer.

【0008】このシステムの特徴としては、(a)フォ
ーカスウインドウに対する音声入力が可能、(b)タス
クに対応した音声辞書切換が可能、(c)アプリケーシ
ョンに対してマウスと等価な動作が可能などがあげられ
る。
The features of this system include (a) voice input to a focus window, (b) voice dictionary switching corresponding to a task, and (c) operation equivalent to a mouse for an application. can give.

【0009】[0009]

【発明が解決しようとする課題】人と機械との対話手段
として、従来から音声合成装置や音声認識・理解システ
ム、さらにはマルチメディア向け音声インタフェースが
あるが、これらを単に組み合わせて音声対話システムを
構築するのでは、不特定の人と人があたかも自然に会話
をしているようなヒューマンインタフェースを実現でき
ない。
As means for dialogue between humans and machines, there have conventionally been voice synthesizers, voice recognition / understanding systems, and voice interfaces for multimedia, but these are simply combined to create a voice dialogue system. By constructing, it is impossible to realize a human interface as if an unspecified person has a natural conversation.

【0010】本発明の目的は、不特定話者と機械の間に
自然な対話を得ることができるシステムを提供すること
にある。
It is an object of the present invention to provide a system capable of obtaining a natural conversation between an unspecified speaker and a machine.

【0011】[0011]

【課題を解決するための手段】本発明は、あたかも人と
人が自然に会話をしているようなヒューマンインタフェ
ースを実現するために、不特定話者に対応可能な技術と
してVMEバス対応高速ニューロコンピュータ上で開発
した高精度な不特定話者単語音声認識技術を用い、かつ
利用者が要求している情報や限定情報を拡張するために
ルールによって対応可能とする知識ベース及び学習機能
を持ったエキスパートシステム、さらに利用者の要求を
返答するためより自然で人間の肉声に近い音声出力を得
る音声合成システムを統合し、かつワークステーション
上で動作可能としたヒューマンインタフェースを実現す
るもので、以下の構成、利用者の音声を通信システムを
介して受信し、雑音を除去した音声信号を得る音声信号
受信手段と、前記音声信号のA/D変換データを周波数
スペクトルによって大まかに分析し、特徴抽出によって
音声信号の時系列の特徴パラメータを音素単位に抽出
し、各音素単位の認識に続く単語の認識、及び構文認識
と意味認識により音声信号に対応した文字データを得る
音声認識装置と、前記文字データの意味内容を抽出する
音声理解装置と、前記音声理解装置が文字データの意味
内容の理解に失敗したときに知識ベースを使った推論で
音声不理解の音声情報をオンラインで得、意味内容を理
解できたときに知識ベースを使った推論で利用者の要求
に答えるための音声情報をオンラインで得るエキスパー
トシステムと、利用者の要求する音声情報が前記知識ベ
ースに無い場合や対応できない場合に人が媒介して対話
処理を行うためのシステムサポータと、前記エキスパー
トシステムからの音声情報を音声信号として合成する音
声合成装置と、前記音声合成装置からの音声信号又はシ
ステムサポータからの音声信号を通信システムを介して
利用者側に伝送する音声信号送信手段と、を備えたこと
を特徴とする。
SUMMARY OF THE INVENTION The present invention provides a high-speed neuron for a VME bus as a technology capable of coping with an unspecified speaker, in order to realize a human interface as if a person has a natural conversation. It has a knowledge base and a learning function that uses the high-precision unspecified speaker word speech recognition technology developed on the computer and can be handled by rules in order to extend the information and limited information required by the user. It integrates an expert system and a speech synthesis system that responds to user requests and obtains a more natural and near-human voice output, and implements a human interface that can operate on a workstation. An audio signal receiving means for receiving an audio of a user via a communication system and obtaining an audio signal from which noise has been removed; A / D conversion data of the voice signal is roughly analyzed by a frequency spectrum, and a time-series feature parameter of the voice signal is extracted for each phoneme unit by feature extraction, and word recognition and syntax recognition following recognition of each phoneme unit are performed. A voice recognition device for obtaining character data corresponding to a voice signal by semantic recognition, a voice understanding device for extracting the meaning of the character data, and a knowledge base when the voice understanding device fails to understand the meaning of the character data. An expert system that obtains speech information of speech incomprehension online using inference using, and obtains speech information online to answer user requests by inference using knowledge base when the meaning can be understood. If the voice information requested by the user is not in the knowledge base or cannot be handled, a system A voice synthesizer that synthesizes voice information from the expert system as a voice signal, and a voice signal transmitting unit that transmits a voice signal from the voice synthesizer or a voice signal from a system supporter to a user via a communication system. , Is provided.

【0012】[0012]

【発明の実施の形態】図1は、本発明の実施形態を示す
システムブロック構成図であり、図2〜図4に各部の処
理過程を同じ符号で対応付けて示す。以下、各部の構成
と処理を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a system block diagram showing an embodiment of the present invention. FIGS. Hereinafter, the configuration and processing of each unit will be described in detail.

【0013】音声入力装置11は、電話機など受話器の
マイクロフォンから利用者が音声を入力するためのもの
である。通信システム12は、例えば、ディジタル回線
で高速かつ広帯域性がある2B+DのB−ISDN及び
ネットワークを制御するATM交換システムによって通
信制御を行い、音声入力装置11からの音声信号を音声
受信装置13に伝送する。アクティブノイズフィルタ1
4は、音声受信装置13が受信した音声信号から雑音を
除去する。
The voice input device 11 is for a user to input voice from a microphone of a receiver such as a telephone. The communication system 12 performs communication control using, for example, a 2B + D B-ISDN having a high speed and a wide band with a digital line and an ATM switching system for controlling a network, and transmits a voice signal from the voice input device 11 to the voice receiving device 13. I do. Active noise filter 1
4 removes noise from the audio signal received by the audio receiving device 13.

【0014】音声認識装置15は、受信した音声を認識
及び理解するため、不特定話者に対応可能な技術として
VMEバス対応高速ニューロコンピュータ上で開発した
高精度な不特定話者単語音声認識技術のニューロコンピ
ュータシステムに構成され、音声認識処理部151と音
声分析学習部152及び音声辞書153を備える。
The speech recognition device 15 is a highly accurate unspecified speaker word speech recognition technology developed on a VME bus-compatible high-speed neurocomputer as a technology capable of coping with unspecified speakers in order to recognize and understand the received speech. consists of a neural computer system includes a speech recognition processing unit 15 1 and the voice analysis learning unit 15 2 and the voice dictionary 15 3.

【0015】この装置15では、図2及び図3に音声認
識ライブラリを使用した処理過程で示すように、入力さ
れた信号を音声理解処理、A/D変換処理した後、音声
分析により音声入力信号を周波数スペクトルによって大
まかに分析し、特徴抽出によって音声分析結果から音声
信号の特徴パラメータを時系列に抽出・変換し、セグメ
ンテーション処理により音声単位へのセグメント化を行
う。
As shown in FIG. 2 and FIG. 3 in the process of using the speech recognition library, the apparatus 15 performs speech understanding processing and A / D conversion processing on the input signal, and then performs speech analysis on the speech input signal. Is roughly analyzed by a frequency spectrum, feature parameters of a speech signal are extracted and converted in time series from speech analysis results by feature extraction, and segmentation into speech units is performed by a segmentation process.

【0016】次いで、音素認識により音素標準パターン
との比較で音素認識を行うことで音素系列を得、単語照
合と単語認識により音素系列について知識ベースに持つ
単語標準パターンとの照合で単語を認識する。この認識
に標準パターンが存在しなければ学習処理(認識・登
録)を行って単語知識を知識ベースに追加する。
Next, a phoneme sequence is obtained by performing phoneme recognition by comparison with a phoneme standard pattern by phoneme recognition, and a word is recognized by collating a phoneme sequence with a word standard pattern in a knowledge base by word matching and word recognition. . If there is no standard pattern in the recognition, a learning process (recognition / registration) is performed to add word knowledge to the knowledge base.

【0017】次いで、認識した単語について、構文照合
と構文認識により知識ベースの構文パターンとの照合で
構文的に誤りがあるか否かを解析し、誤りがあれば再検
証することで構文認識を行う。さらに、意味解析と意味
認識により認識された単語構文について意味的に妥当で
あるかを調べ、妥当な結果が得られるまで構文解析処理
と意味解析処理を繰り返す。これら解析には文字に変換
可能か否かも含め、文字変換処理により変換可能である
文字を漢字やカナに変換する。
Next, the recognized words are analyzed for syntactic errors by comparing them with the syntax patterns of the knowledge base by syntactic matching and syntactic recognition, and if there are errors, re-verification is performed to perform syntactic recognition. Do. Furthermore, it checks whether the word syntax recognized by the semantic analysis and the semantic recognition is semantically valid, and repeats the syntactic analysis processing and the semantic analysis processing until a valid result is obtained. In these analyses, characters that can be converted by character conversion processing are converted into kanji and kana, including whether or not they can be converted into characters.

【0018】図1に戻って、音声認識装置15により認
識されかつ文字変換を終えた情報について、音声理解装
置16により音声に含まれている意味内容を抽出する。
Returning to FIG. 1, for the information recognized by the speech recognition device 15 and having undergone the character conversion, the meaning understanding contained in the speech is extracted by the speech understanding device 16.

【0019】エキスパートシステム17は、従来のオフ
ライン型の知識ベースシステムと異なり、オンライン環
境下で同一コンピュータ上の他のプロセスや通信回線で
結合された他のコンピュータとデータをやり取りしなが
ら実時間で推論を行う機能を持つ。
The expert system 17 is different from a conventional offline knowledge base system in that real-time inference is performed while exchanging data with another process on the same computer or another computer connected via a communication line in an online environment. With the ability to do

【0020】このエキスパートシステム17は、知識ベ
ースライブラリになる第1の知識ベース171と第2の
知識ベース172を備え、第3図に示すように、音声理
解装置16による音声理解が失敗したときには知識ベー
ス172のルールを使った推論を行い、この知識ベース
172が持つ音声不理解であることを利用者に知らせる
内容の音声情報を得る。なお、エキスパートシステム1
7は、学習機能を有して知識ベース172への保存情報
を増大させていく。
[0020] The expert system 17 comprises a first knowledge base 17 1 and the second knowledge base 17 2 made in the knowledge base library, as shown in FIG. 3, speech understanding by the speech understanding device 16 has failed sometimes performed inference using the knowledge base 17 2 of the rules, obtaining speech information of the content to notify the user that a voice misunderstanding with this knowledge base 17 2. The expert system 1
7, gradually increasing the storage information for the knowledge base 17 2 has a learning function.

【0021】エキスパートシステム17は、音声理解装
置16が音声内容を理解できたときには、知識ベース1
1のルールを使った推論を行い、この知識ベース171
が持つ利用者の要求に答えるためのさまざまな音声情報
を得る。
When the speech understanding device 16 can understand the speech content, the expert system 17
Inference using the rules of 7 1 is performed, and this knowledge base 17 1
Obtain various audio information to answer the user's request.

【0022】システムサポータ18は、利用者の要求す
る音声情報が知識ベースに無い場合や対応できない場合
に人が媒介して対話処理を行うのに使用する。
The system supporter 18 is used by a person for mediating interactive processing when voice information requested by the user is not available in the knowledge base or cannot be handled.

【0023】音声合成装置19は、エキスパートシステ
ム17からの音声情報を音声信号として合成する。この
装置19は、従来の音声合成装置と同等のものになり、
より自然で人の肉声に近い音声出力を得る。
The voice synthesizer 19 synthesizes voice information from the expert system 17 as a voice signal. This device 19 is equivalent to a conventional speech synthesizer,
Obtain a more natural and close to human voice output.

【0024】通信システム20は、図4に示すように、
音声合成装置19により合成した音声信号、又はシステ
ムサポータ18からの生の音声をB−ISDNとATM
交換システム等によって利用者側に伝送し、音声出力装
置21により音声を再生する。
The communication system 20, as shown in FIG.
The voice signal synthesized by the voice synthesizer 19 or the raw voice from the system supporter 18 is converted to B-ISDN and ATM.
The voice is transmitted to the user by an exchange system or the like, and the voice is reproduced by the voice output device 21.

【0025】以上までのシステムブロック構成に必要な
インタフェースは、図5に示すようになる。また、シス
テム構成は図6に示すようになる。
The interface required for the above system block configuration is as shown in FIG. The system configuration is as shown in FIG.

【0026】以上までの構成により、本実施形態では、
利用者と機械との間であたかも人と人が自然に会話をし
ているようなヒューマンインタフェースを実現する。
With the above configuration, in this embodiment,
A human interface is realized as if a person has a natural conversation between a user and a machine.

【0027】[0027]

【発明の効果】以上のとおり、本発明によれば、不特定
話者に対応可能な不特定話者単語音声認識技術を用い、
かつ利用者が要求している情報や限定情報を拡張するた
めにルールによって対応可能とする知識ベース及び学習
機能を持ったエキスパートシステム、さらに利用者の要
求を返答するためより自然で人間の肉声に近い音声出力
を得る音声合成システムを統合したため、人と機械の対
話に不特定の人と人があたかも自然に会話をしているよ
うなヒューマンインタフェースを実現することができ
る。
As described above, according to the present invention, an unspecified speaker word speech recognition technology capable of coping with an unspecified speaker is used.
And an expert system with a knowledge base and learning function that can be handled by rules to extend the information requested or limited by the user, and more natural and human voice to respond to the user's request Since a voice synthesis system that obtains a close voice output is integrated, it is possible to realize a human interface that makes it possible for an unspecified person to have a natural conversation in a human-machine conversation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態を示す音声対話システムのブ
ロック構成図。
FIG. 1 is a block diagram of a voice dialogue system according to an embodiment of the present invention.

【図2】図1における処理過程(その1)。FIG. 2 is a processing step (part 1) in FIG. 1;

【図3】図1における処理過程(その2)。FIG. 3 is a processing step (part 2) in FIG. 1;

【図4】図1における処理過程(その3)。FIG. 4 is a process (part 3) in FIG. 1;

【図5】実施形態におけるインタフェース構成例。FIG. 5 is an example of an interface configuration according to the embodiment;

【図6】実施形態におけるシステム構成例。FIG. 6 is a system configuration example according to the embodiment;

【図7】ユニットタイプの音声合成処理ブロック図。FIG. 7 is a block diagram of a unit-type speech synthesis process.

【図8】単語音声認識のスペクトラム及び抽出例。FIG. 8 is a spectrum and an example of extraction of word speech recognition.

【図9】音声認識インタフェース例。FIG. 9 is an example of a voice recognition interface.

【符号の説明】[Explanation of symbols]

11…音声入力装置 12、20…通信システム 13…音声受信装置 14…アクティブノイズフィルタ 15…音声認識装置 16…音声理解装置 17…エキスパートシステム 18…システムサポータ 19…音声合成装置 21…音声出力装置 DESCRIPTION OF SYMBOLS 11 ... Voice input device 12, 20 ... Communication system 13 ... Voice receiving device 14 ... Active noise filter 15 ... Voice recognition device 16 ... Voice understanding device 17 ... Expert system 18 ... System supporter 19 ... Voice synthesis device 21 ... Voice output device

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 利用者の音声を通信システムを介して受
信し、雑音を除去した音声信号を得る音声信号受信手段
と、 前記音声信号のA/D変換データを周波数スペクトルに
よって大まかに分析し、特徴抽出によって音声信号の時
系列の特徴パラメータを音素単位に抽出し、各音素単位
の認識に続く単語の認識、及び構文認識と意味認識によ
り音声信号に対応した文字データを得る音声認識装置
と、 前記文字データの意味内容を抽出する音声理解装置と、 前記音声理解装置が文字データの意味内容の理解に失敗
したときに知識ベースを使った推論で音声不理解の音声
情報をオンラインで得、意味内容を理解できたときに知
識ベースを使った推論で利用者の要求に答えるための音
声情報をオンラインで得るエキスパートシステムと、 利用者の要求する音声情報が前記知識ベースに無い場合
や対応できない場合に人が媒介して対話処理を行うため
のシステムサポータと、 前記エキスパートシステムからの音声情報を音声信号と
して合成する音声合成装置と、 前記音声合成装置からの音声信号又はシステムサポータ
からの音声信号を通信システムを介して利用者側に伝送
する音声信号送信手段と、を備えたことを特徴とする音
声対話システム。
1. An audio signal receiving means for receiving a user's voice through a communication system and obtaining a noise-free audio signal; and roughly analyzing A / D conversion data of the audio signal by a frequency spectrum; A voice recognition device that extracts a time-series feature parameter of a voice signal in phoneme units by feature extraction, obtains word data following recognition of each phoneme unit, and character data corresponding to the voice signal by syntax recognition and semantic recognition, A voice comprehension device for extracting the meaning content of the character data, and when the voice comprehension device fails to understand the meaning content of the character data, obtain speech information of voice incomprehension online by inference using a knowledge base, An expert system that obtains voice information online to answer user requests by inference using the knowledge base when the content can be understood. A system supporter for performing a human-mediated dialogue process when voice information to be performed is not present in the knowledge base or when the voice information cannot be handled; a voice synthesizer that synthesizes voice information from the expert system as a voice signal; A voice signal transmitting means for transmitting a voice signal from the synthesizer or a voice signal from a system supporter to a user via a communication system.
JP8283461A 1996-10-25 1996-10-25 Voice interactive system Pending JPH10124086A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8283461A JPH10124086A (en) 1996-10-25 1996-10-25 Voice interactive system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8283461A JPH10124086A (en) 1996-10-25 1996-10-25 Voice interactive system

Publications (1)

Publication Number Publication Date
JPH10124086A true JPH10124086A (en) 1998-05-15

Family

ID=17665852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8283461A Pending JPH10124086A (en) 1996-10-25 1996-10-25 Voice interactive system

Country Status (1)

Country Link
JP (1) JPH10124086A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369732B1 (en) * 1999-12-21 2003-01-30 주식회사 글로벌데이타시스템. Method and Apparatus for intelligent dialog based on voice recognition using expert system
US7107217B2 (en) 2000-12-28 2006-09-12 Fujitsu Limited Voice interactive system and voice interactive method
WO2007122700A1 (en) * 2006-04-18 2007-11-01 Chiaki Takei Expert system and expert method
JP2015028791A (en) * 2014-08-15 2015-02-12 洋彰 宮崎 Autonomous knowledge improvement device
JP2017191531A (en) * 2016-04-15 2017-10-19 ロボットスタート株式会社 Communication system, server, and communication method
JP2018088626A (en) * 2016-11-29 2018-06-07 沖電気工業株式会社 Automatic response system, operator assignment device, automatic response method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106374A (en) * 1994-07-28 1996-04-23 At & T Corp Communication interface system
JPH08255150A (en) * 1995-03-17 1996-10-01 Toshiba Corp Information public offering device and multimodal information input/output system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106374A (en) * 1994-07-28 1996-04-23 At & T Corp Communication interface system
JPH08255150A (en) * 1995-03-17 1996-10-01 Toshiba Corp Information public offering device and multimodal information input/output system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369732B1 (en) * 1999-12-21 2003-01-30 주식회사 글로벌데이타시스템. Method and Apparatus for intelligent dialog based on voice recognition using expert system
US7107217B2 (en) 2000-12-28 2006-09-12 Fujitsu Limited Voice interactive system and voice interactive method
WO2007122700A1 (en) * 2006-04-18 2007-11-01 Chiaki Takei Expert system and expert method
JP2015028791A (en) * 2014-08-15 2015-02-12 洋彰 宮崎 Autonomous knowledge improvement device
WO2016024367A1 (en) * 2014-08-15 2016-02-18 洋彰 宮崎 Autonomous knowledge enhancement device
JP2017191531A (en) * 2016-04-15 2017-10-19 ロボットスタート株式会社 Communication system, server, and communication method
JP2018088626A (en) * 2016-11-29 2018-06-07 沖電気工業株式会社 Automatic response system, operator assignment device, automatic response method and program

Similar Documents

Publication Publication Date Title
EP0465058B1 (en) Written language parser system
RU2352979C2 (en) Synchronous comprehension of semantic objects for highly active interface
CN111128126A (en) Multi-language intelligent voice conversation method and system
US20030061029A1 (en) Device for conducting expectation based mixed initiative natural language dialogs
US20020087325A1 (en) Dialogue application computer platform
JP2001502828A (en) Method and apparatus for translating between languages
CN109256133A (en) A kind of voice interactive method, device, equipment and storage medium
JPH10136327A (en) Desk top conference system
JP2667408B2 (en) Translation communication system
JP2000207170A (en) Device and method for processing information
JPH10124086A (en) Voice interactive system
US5987416A (en) Electronic community system using speech recognition for use by the visually impaired
Furui et al. Ubiquitous speech processing
TW200413961A (en) Device using handheld communication equipment to calculate and process natural language and method thereof
Gilbert et al. Intelligent virtual agents for contact center automation
JP2002101203A (en) Speech processing system, speech processing method and storage medium storing the method
KR20200081925A (en) System for voice recognition of interactive robot and the method therof
JPH10224520A (en) Multi-media public telephone system
WO2000049523A1 (en) Translating method and translating device
JP2656234B2 (en) Conversation voice understanding method
JPH1026999A (en) Sign language translating device
KR20000033518A (en) Voice language translation system using network and method therefor
KUREMATSU Future perspective of automatic telephone interpretation
CN114299914A (en) Intelligent voice service system and operation method thereof
JP3136038B2 (en) Interpreting device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040203