JP2001034289A - Interactive system using natural language - Google Patents
Interactive system using natural languageInfo
- Publication number
- JP2001034289A JP2001034289A JP11202538A JP20253899A JP2001034289A JP 2001034289 A JP2001034289 A JP 2001034289A JP 11202538 A JP11202538 A JP 11202538A JP 20253899 A JP20253899 A JP 20253899A JP 2001034289 A JP2001034289 A JP 2001034289A
- Authority
- JP
- Japan
- Prior art keywords
- task
- response sentence
- natural language
- command
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、自然言語を用いた
対話システムに関し、特に、ユーザの曖昧な発話を解釈
しユーザへの応答を行なうシステム及び装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a dialogue system using a natural language, and more particularly to a system and apparatus for interpreting a vague utterance of a user and responding to the user.
【0002】[0002]
【従来の技術】タスクに対するユーザの発話は一般的に
は曖昧なものであり、曖昧な発話を解釈する従来のシス
テムとして以下のようなものがあげられる。2. Description of the Related Art Generally speaking, a user's utterance for a task is ambiguous, and the following systems are known as conventional systems for interpreting ambiguous utterance.
【0003】第1のシステムは、曖昧な発話に対してシ
ステムが確認の応答を行い、それに対してユーザに肯定
か否定かを答えさせることでユーザの発話を解釈するも
のである。例えば特開平9-171394号公報には、システム
がユーザの曖昧な発話から生成できるタスクを列挙し、
列挙したタスクの中から1つずつユーザの意図に合うか
どうか質問し、ユーザが肯定を意味する語を入力する
と、システムはそのタスクが正しい解釈であると決定す
る。[0003] In the first system, the system responds to a vague utterance to confirm and interprets the utterance of the user by allowing the user to answer affirmative or negative. For example, in Japanese Patent Application Laid-Open No. 9-171394, tasks that the system can generate from ambiguous utterances of the user are listed,
The system asks each of the listed tasks one by one to see if it meets the user's intention, and if the user enters a word that means affirmation, the system determines that the task is the correct interpretation.
【0004】第2のシステムは、ユーザの曖昧な発話を
システムはさまざまな手がかりを用いて一意に解釈し
て、確認なしにタスクを実行するものである。[0004] In the second system, a system interprets a user's ambiguous utterance uniquely using various clues and executes a task without confirmation.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、上記し
た従来のシステムは下記記載の問題点を有している。However, the above-mentioned conventional system has the following problems.
【0006】上記第1のシステムの問題点は、ユーザが
曖昧な発話するたびにシステムが確認の応答文を出力す
ることから、ユーザはそのたびに応答文に答えなくては
ならず、煩雑であり、負担がかかる、ということであ
る。A problem with the first system is that the system outputs a response sentence for confirmation every time the user makes an ambiguous utterance, so that the user must answer the response sentence each time, which is complicated. Yes, it is burdensome.
【0007】一方、上記第2のシステムの問題点は、ユ
ーザの曖昧性のある発話を一意に解釈して必ず実行して
しまうと、システムの解釈が間違っていた時にユーザは
システムが行ってしまったタスクに対して修正を行わな
くてはならず、結果としてユーザに負担がかかる、とい
うことである。[0007] On the other hand, the problem of the second system is that if a user's ambiguous utterance is uniquely interpreted and executed without fail, the user will execute the system when the system interpretation is incorrect. This means that the user has to make corrections for the tasks that have been performed, which results in a burden on the user.
【0008】したがって、本発明は、上記問題点に鑑み
てなされたものであって、その目的は、ユーザが発話し
た後、ユーザにできるだけ負荷のかけることなく、タス
クの実行と応答文の出力を行なうシステム及び装置を提
供することにある。これ以外の本発明の目的、特徴、利
点等は以下の説明から、当業者には直ちに明らかとされ
るであろう。Therefore, the present invention has been made in view of the above problems, and has as its object to execute task execution and output of a response sentence after a user speaks without imposing as much load on the user as possible. It is an object of the present invention to provide a system and apparatus for performing the above. Other objects, features, advantages and the like of the present invention will be immediately apparent to those skilled in the art from the following description.
【0009】[0009]
【課題を解決するための手段】前記目的を達成する本発
明は、入力手段から入力された自然言語を受け取り、語
彙辞書を参照して1又は複数のタスクコマンドに変換す
る自然言語解析手段と、曖昧性解消情報を参照して、複
数のタスクコマンドを1つに絞り込むとともに、絞り込
みの仕方から、確信度を求める曖昧性解消手段と、絞り
込んだタスクコマンドと求められた確信度と語彙辞書を
参照して確信度に応じた応答文を生成し、出力手段に出
力する応答文生成手段とを備える。より詳細には、本発
明は、入力された自然言語を解釈するために必要な語彙
と、該自然言語の解釈結果から応答文を生成するために
必要な語彙を予め記憶する辞書記憶部と、前記辞書記憶
部を参照して、入力された自然言語の解釈を行う自然言
語解析手段と、前記自然言語解析手段で求められた解釈
結果が複数存在した時に、1つの解釈結果に絞り込むた
めの手がかりとして用いられる情報を記憶する曖昧性解
消情報記憶部と、前記自然言語解析手段で求められた解
釈結果が複数存在した時に、前記曖昧性解消情報記憶部
を参照して、前記複数の解釈結果を1つに絞り込むとと
もに、前記1つに絞り込んだ解釈結果に対する確信度を
求める曖昧性解消手段と、前記曖昧性解消手段で絞り込
んだ解釈結果を応答文として出力し、その際、前記曖昧
性解消手段で求められた前記確信度に応じて応答文を変
化させる応答文生成手段と、を備える。According to the present invention, there is provided a natural language analyzing means for receiving a natural language input from an input means and converting the natural language into one or a plurality of task commands with reference to a vocabulary dictionary. By referring to the disambiguation information, narrow down a plurality of task commands to one, and refer to the disambiguation removing means for obtaining the certainty from the narrowing down method, and the narrowed task command, the certainty determined and the vocabulary dictionary. And a response sentence generating means for generating a response sentence according to the certainty factor and outputting the response sentence to the output means. More specifically, the present invention provides a vocabulary necessary for interpreting an input natural language, a dictionary storage unit for storing in advance a vocabulary necessary for generating a response sentence from the interpretation result of the natural language, A natural language analyzing unit that refers to the dictionary storage unit to interpret an input natural language; and a clue for narrowing down to one interpretation result when there are a plurality of interpretation results obtained by the natural language analyzing unit. An ambiguity resolution information storage unit that stores information used as the information, and when there are a plurality of interpretation results obtained by the natural language analysis unit, refer to the ambiguity resolution information storage unit to convert the plurality of interpretation results. An ambiguity resolving means for narrowing down to one, and obtaining a certainty factor for the interpretation result narrowed to one, and outputting the interpretation result narrowed down by the ambiguity resolving means as a response sentence; And a response sentence generation means for changing the response sentence according to the confidence obtained by the sexual eliminating means.
【0010】本発明は、前記曖昧性解消手段で求められ
た解釈を受けて、該解釈をタスクコマンドに変換し、前
記タスクコマンドからタスクを実行するタスク実行手段
をさらに備える。[0010] The present invention further comprises a task execution means for receiving the interpretation determined by the ambiguity resolution means, converting the interpretation into a task command, and executing a task from the task command.
【0011】本発明においては、前記応答文生成手段
が、前記曖昧性解消手段で求められた確信度に応じて、
前記タスク実行手段でタスクを実行した後にタスクの実
行を報告する応答文を生成するか、もしくは、前記タス
ク実行手段でタスクを実行する前にタスクを実行してと
よいか否かを確認するための応答文を生成するか、を決
定する。[0011] In the present invention, the response sentence generation means may determine the response sentence according to the certainty factor obtained by the ambiguity resolution means.
To generate a response statement reporting the execution of the task after executing the task by the task execution unit, or to confirm whether the task execution unit should execute the task before executing the task Is generated or not.
【0012】本発明においては、実行を行ったタスクコ
マンドに対する逆操作のタスクコマンドを記憶するキャ
ンセルコマンド記憶部と、キャンセルの意味を表す入力
があったときに、前記タスク実行手段でキャンセルコマ
ンドを実行するとともに、前記応答文生成手段におい
て、キャンセルコマンドを実行したことを報告する応答
文を生成する。In the present invention, a cancel command storage unit for storing a task command of an inverse operation to the executed task command, and executing the cancel command by the task execution means when there is an input indicating the meaning of cancellation. At the same time, the response sentence generating means generates a response sentence reporting that the cancel command has been executed.
【0013】本発明においては、システムがタスクコマ
ンドを実行してようかどうかの確認をとる応答文を出力
した後、時間の経過を測定する時間管理手段を備え、前
記時間管理手段で計時を開始後、あらかじめ定められた
所定の時間が経過しても、ユーザからの応答がない時に
は、肯定を表す入力が前記入力装置に入力されたものと
解釈する。According to the present invention, there is provided time management means for measuring the passage of time after outputting a response sentence for confirming whether or not the system executes the task command, and the time management means starts time measurement. Thereafter, if there is no response from the user even after a predetermined time has elapsed, it is interpreted that an input indicating affirmation has been input to the input device.
【0014】[0014]
【発明の実施の形態】本発明の好ましい実施の形態につ
いて以下に説明する。本発明の自然言語を用いた対話シ
ステムは、入力された自然言語を解釈する自然言語解析
手段(図1の21)と、解釈結果が複数存在する時に解
釈を1つに絞り込むとともに、その絞り込み方を用い
て、確信度を求める曖昧性解消手段(図1の22)と、
1つに絞り込まれたタスクコマンドから確信度に応じた
応答文を生成する応答文生成手段(図1の23)と、を
有する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below. The dialogue system using a natural language according to the present invention includes a natural language analyzing means (21 in FIG. 1) for interpreting an input natural language, and a method for narrowing down the interpretation to one when there are a plurality of interpretation results. Ambiguity resolution means (22 in FIG. 1) for obtaining a certainty factor using
Response sentence generating means (23 in FIG. 1) for generating a response sentence corresponding to the degree of certainty from the task commands narrowed down to one.
【0015】本発明においては、ユーザの曖昧な発話を
確信度というパラメータに変換し、確信度に応じた応答
文を生成することにより、自然な対話を行うことができ
る。In the present invention, a natural conversation can be performed by converting a vague utterance of a user into a parameter called certainty factor and generating a response sentence according to the certainty factor.
【0016】本発明はその好ましい第1の実施の形態に
おいて、図1を参照すると、入力手段(1)から入力さ
れた自然言語に対して辞書記憶部(31)を参照して解
釈を行う自然言語解析手段(21)と、自然言語解析手
段(21)で求められた解釈結果が複数存在した時に、
自然言語解析手段(21)で求められた解釈結果が複数
存在した時に、解釈結果に絞り込むための手がかりとし
て用いられる情報を記憶する曖昧性解消情報記憶部(3
2)の情報を参照して、前記複数の解釈結果を1つに絞
り込むとともに、前記1つに絞り込んだ解釈結果に対す
る確信度を求める曖昧性解消手段(22)と、曖昧性解
消手段(22)で絞り込んだ解釈結果を応答文として出
力手段(4)から出力し、その際、前記曖昧性解消手段
で求められた前記確信度に応じて応答文を変化させる応
答文生成手段(23)と、を備える。In the first preferred embodiment of the present invention, referring to FIG. 1, a natural language for interpreting a natural language input from an input means (1) by referring to a dictionary storage section (31). When there are a plurality of interpretation results obtained by the language analysis means (21) and the natural language analysis means (21),
When there are a plurality of interpretation results obtained by the natural language analysis means (21), the disambiguation information storage unit (3) stores information used as a clue for narrowing down the interpretation results.
With reference to the information of 2), the plurality of interpretation results are narrowed down to one, and the ambiguity resolving means (22) for obtaining a certainty factor for the narrowed down interpretation result, and an ambiguity resolving means (22) A response sentence generating means (23) for outputting the interpretation result narrowed down by the output means (4) as a response sentence, and at this time, changing the response sentence according to the certainty factor obtained by the ambiguity eliminating means; Is provided.
【0017】自然言語解析手段(21)で求められた複
数の解釈として複数の処理要求(タスクコマンド)があ
る場合、曖昧性解消手段(22)は、曖昧性解消情報記
憶部(32)に記憶された情報(例えば処理対象の物理
的な条件、入力された自然言語の文脈、ユーザの操作履
歴等)に基づき、複数の処理要求のうち妥当な処理要求
を一つ選択するとともに確信度を設定する。その際、自
然言語解析手段(21)で求められた解釈が一つの場
合、曖昧性がないため、確信度最大とする。When there are a plurality of processing requests (task commands) as a plurality of interpretations obtained by the natural language analysis means (21), the ambiguity resolution means (22) stores the ambiguity resolution information storage section (32). Based on the received information (eg, the physical conditions of the processing target, the context of the input natural language, the operation history of the user, etc.), select one appropriate processing request from a plurality of processing requests and set the certainty factor I do. At this time, if the interpretation obtained by the natural language analysis means (21) is one, there is no ambiguity.
【0018】本発明は、その好ましい第2の実施の形態
において、図3を参照すると、曖昧性解消手段(22)
で求められた解釈を受けて、該解釈をタスクコマンドに
変換し、前記タスクコマンドからタスクを実行するタス
ク実行手段(24)をさらに備える。In the second preferred embodiment of the present invention, referring to FIG. 3, the disambiguation means (22)
Receiving the interpretation determined in (1), converts the interpretation into a task command, and further executes a task executing means (24) for executing a task from the task command.
【0019】応答文生成手段(23)は、前記曖昧性解
消手段(22)で求められた確信度に応じて、前記タス
ク実行手段(24)でタスクを実行した後にタスクの実
行を報告する応答文を生成するか、もしくは、タスク実
行手段(24)でタスクを実行する前にタスクを実行し
てよいか否かを確認するための応答文を生成するかを決
定する。The response sentence generation means (23) responds to the task execution means (24) according to the certainty factor obtained by the ambiguity resolution means (22), after the task has been executed by the task execution means (24). It is determined whether a statement is to be generated or a response statement for confirming whether the task can be executed before the task is executed by the task execution means (24).
【0020】すなわち、自然言語解析手段(21)で
は、入力された自然言語を解釈し、該入力された自然言
語から解釈可能な処理要求(タスクコマンド)が複数あ
る場合、前記曖昧性解消手段(22)で複数のタスクコ
マンドを一つに絞り込み、該一つの絞り込まれた確信度
が小の場合、タスクコマンドを直ちに実行せずに、未実
行タスクコマンド記憶部(33)に一旦記憶しておき、
タスクを実行する前にタスクを実行してよいか否かを確
認するための応答文を出力する。該応答文に対してユー
ザが肯定を意味する入力を行なった場合、未実行タスク
コマンド記憶部(33)からタスクコマンドを取り出し
て、タスク実行手段でタスクコマンドを実行し、タスク
実行完了の応答文を出力し、一方否定入力の場合、未実
行タスク取り消しの応答文を作成して出力する。That is, the natural language analysis means (21) interprets the input natural language, and when there are a plurality of processing requests (task commands) interpretable from the input natural language, the ambiguity resolution means (21) At 22), a plurality of task commands are narrowed down to one, and when the one certainty factor is small, the task command is not immediately executed, but is temporarily stored in the non-executed task command storage unit (33). ,
Outputs a response statement to confirm whether the task can be executed before executing the task. When the user inputs an affirmative answer to the response statement, the task command is extracted from the unexecuted task command storage unit (33), the task command is executed by the task execution means, and the response statement of task execution completion is obtained. Is output. On the other hand, in the case of a negative input, a response statement for canceling an unexecuted task is created and output.
【0021】応答文生成手段(23)が、曖昧性解消手
段(22)で求められた確信度に応じて、応答文を生成
するかしないかを決定するようにしてもよい。The response sentence generating means (23) may determine whether or not to generate a response sentence according to the degree of certainty obtained by the ambiguity eliminating means (22).
【0022】応答文生成手段(23)は、曖昧性解消手
段(22)で求められた確信度に応じて、曖昧性解消手
段(22)が解釈した結果を、報告、確認、質問のうち
のいずれかを表す応答文に変更する。The response sentence generating means (23) outputs the result interpreted by the disambiguation means (22) in accordance with the degree of certainty obtained by the disambiguation means (22). Change to a response statement that indicates one of them.
【0023】本発明は、その好ましい第3の実施の形態
において、図5を参照すると、タスク実行手段で実行を
行ったタスクコマンドに対する逆操作のタスクコマンド
を記憶するキャンセルコマンド記憶部(34)を備え、
ユーザからキャンセルの意味を表す入力があったとき
に、タスク実行手段でキャンセルコマンドを実行すると
ともに、応答文生成手段(22)では、キャンセルコマ
ンドを実行したことを報告する応答文を生成する。In the third preferred embodiment of the present invention, referring to FIG. 5, a cancel command storage unit (34) for storing a task command of an inverse operation to the task command executed by the task execution means is provided. Prepared,
When there is an input indicating the meaning of cancellation from the user, the task execution means executes the cancel command, and the response sentence generation means (22) generates a response sentence reporting that the cancel command has been executed.
【0024】本発明は、その好ましい第4の実施の形態
において、図7を参照すると、絞り込まれたタスクコマ
ンドの確信度が低いときに、応答文生成手段(22)で
は、タスクコマンドを実行していいかどうかの確認をと
る応答文を出力し、該応答文を出力した後、時間の経過
を測定するタイマ等の時間管理手段(35)を備え、計
時を開始後、あらかじめ定められた所定の時間が経過し
ても、ユーザからの応答がない時には、肯定を表す入力
が入力手段(1)に入力されたものと解釈する。According to the fourth embodiment of the present invention, referring to FIG. 7, when the certainty degree of the narrowed task command is low, the response sentence generation means (22) executes the task command. A response sentence for confirming whether or not to proceed is output, and after outputting the response sentence, time management means (35) such as a timer for measuring the passage of time is provided. If there is no response from the user even after a lapse of time, it is interpreted that an input indicating affirmation has been input to the input means (1).
【0025】時間管理手段(35)によって前記所定の
時間が経過した後に、肯定を表す入力が入力手段(1)
に入力されたか否かを、曖昧性解消手段(22)で求め
た確信度に応じて決定するようにしてもよい。After the predetermined time has passed by the time management means (35), an input indicating affirmative is input to the input means (1).
May be determined according to the certainty factor obtained by the disambiguation means (22).
【0026】本発明の実施の形態において、自然言語解
析手段、曖昧性解消手段、応答文生成手段、及びタスク
実行手段はコンピュータ等データ処理装置上で実行され
るプログラムにより各々の処理・機能が実現される。こ
の場合、該プログラムを記録した記録媒体又は通信媒体
より該プログラムをデータ処理装置に読み出して実行す
ることにより本発明を実施することができる。In the embodiment of the present invention, the natural language analyzing means, the ambiguity eliminating means, the response sentence generating means, and the task executing means realize their respective processing and functions by a program executed on a data processing device such as a computer. Is done. In this case, the present invention can be implemented by reading the program from a recording medium or a communication medium on which the program is recorded to a data processing device and executing the program.
【0027】[0027]
【実施例】本発明の実施例について図面を参照して以下
に説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below with reference to the drawings.
【0028】本発明の第1の実施例について説明する。
図1は、本発明の第1の実施例の構成を示す図である。
図1を参照すると、本発明の第1の実施例は、キーボー
ドや音声認識装置等の入力装置1と、プログラム制御に
より動作するデータ処理装置2と、情報を記憶する記憶
装置3と、ディスプレイ装置や音声合成装置等の出力装
置4とを含む。A first embodiment of the present invention will be described.
FIG. 1 is a diagram showing the configuration of the first exemplary embodiment of the present invention.
Referring to FIG. 1, a first embodiment of the present invention includes an input device 1 such as a keyboard and a voice recognition device, a data processing device 2 operated by program control, a storage device 3 for storing information, and a display device. And an output device 4 such as a voice synthesizer.
【0029】記憶装置3は、辞書記憶部31と、曖昧性
解消情報記憶部32とを備えている。辞書記憶部31に
は、タスクを実行するためにユーザが使う語彙、及び、
ユーザへの応答文を生成するために使う語彙があらかじ
め記憶されている。The storage device 3 includes a dictionary storage unit 31 and an ambiguity resolution information storage unit 32. The vocabulary used by the user to execute the task is stored in the dictionary storage unit 31, and
The vocabulary used to generate the response sentence to the user is stored in advance.
【0030】曖昧性解消情報記憶部32には、タスクが
どのような構成になっているのか、タスク先の現在の状
態、ユーザが発話した文脈等、ユーザの発話の曖昧性を
解消するために必要な情報が記憶されている。The ambiguity resolving information storage unit 32 is used for resolving the ambiguity of the user's utterance, such as the configuration of the task, the current state of the task destination, the context in which the user uttered, and the like. Necessary information is stored.
【0031】データ処理装置2は、自然言語解析手段2
1と、曖昧性解消手段22と、応答文生成手段23と、
を備えている。The data processing device 2 includes a natural language analysis unit 2
1, a disambiguation unit 22, a response sentence generation unit 23,
It has.
【0032】自然言語解析手段21は、入力装置1で得
た入力文字列を辞書記憶部31に記憶された語彙を用い
て解釈する。The natural language analysis means 21 interprets the input character string obtained by the input device 1 using the vocabulary stored in the dictionary storage 31.
【0033】曖昧性解消手段22は、自然言語解析手段
21で複数の解釈結果が得られた時に、曖昧性解消情報
記憶部32の情報を参照して、解釈を1つに絞る。When a plurality of interpretation results are obtained by the natural language analysis means 21, the ambiguity resolution means 22 refers to the information in the ambiguity resolution information storage unit 32 and narrows down the interpretation to one.
【0034】また、解釈の絞り方に応じてシステムが曖
昧性を解消した結果の確信度も求める。In addition, the degree of certainty as a result of the system eliminating ambiguity is also determined according to the method of narrowing down the interpretation.
【0035】確信度は、どの手段を用いて曖昧性が解消
されたか、また曖昧性解消情報記憶部に記憶されている
どの情報を用いて曖昧性が解消されたかを用いて、求め
られる。The certainty factor is obtained by using which means has been used to resolve the ambiguity and which information stored in the ambiguity resolution information storage unit has been used to resolve the ambiguity.
【0036】以下、タスクとして、家庭内の機器操作を
例に挙げて、確信度の定義の一例について説明する。Hereinafter, as an example of the task, an example of the definition of the certainty factor will be described with reference to the operation of home appliances.
【0037】(1).自然言語解析手段21で解釈が1
つに絞られていた時は確信度最大とする。(1). Interpretation 1 by natural language analysis means 21
When it is narrowed down to one, the maximum confidence is set.
【0038】(2).タスクを実行の可否によって解釈
を1つに絞った時、例えば「つけて」という入力に対し
て、 ・「テレビをつける」というタスクと、 ・「ビデオをつける」というタスクと、 ・「明かりをつける」というタスクと、 の3つ解釈が自然言語解析手段21で行われたときに、
例えば、曖昧性解消情報記憶部32の情報から、テレビ
と明かりの電源はすでについており(電源オンとされて
おり)、ビデオの電源はついていない場合、「ビデオを
つける」という解釈に、曖昧性解消手段22で解釈を1
つに絞った時には、確信度大とする。(2). When the interpretation is narrowed down to one depending on whether the task can be executed or not, for example, for the input of “turn on”, the task of “turn on the TV”, the task of turning on the video, and the “turn on the light” When the three interpretations of “attach” and “
For example, from the information in the disambiguation information storage unit 32, if the power supply of the television and the light is already on (power is turned on) and the power supply of the video is not turned on, the interpretation that "video is turned on" is ambiguous. Interpretation 1
When it is narrowed down to one, the degree of certainty is high.
【0039】(3).文脈によって解釈を1つに絞った
時、例えば「1チャンネルにして」という入力に対し
て、自然言語解析手段21で、 ・「テレビのチャンネルを1にする」というタスクと、 ・「ビデオのチャンネルを1にする」というタスクと、 の二つの解釈ができたときに、前回の入力が「テレビを
つけて」であったため、「テレビ」が話題になっている
ものと判断して、「テレビのチャンネルを1にする」と
曖昧性解消手段22で1に絞った時には「確信度中」と
する。(3). When the interpretation is narrowed down to one according to the context, for example, in response to an input of “to one channel”, the natural language analysis means 21 performs a task of “to set the television channel to 1”; When the two tasks, "turn the TV to 1" and "interpretation of the TV," were completed, the previous input was "Turn on the TV," and it was determined that "TV was a topic." Channel is set to 1 ", and when the ambiguity eliminating means 22 narrows down to 1, the degree of confidence is determined to be" medium ".
【0040】(4).ユーザの操作の頻度によって解釈
を1つに絞った時、例えば「つけて」という入力に対し
て、自然言語解析手段21で、 ・「テレビをつける」というタスク、 ・「ビデオをつける」というタスク、 ・「明かりをつける」というタスク の三つに解釈できた時に、今までの過去の履歴を見る
と、「明かりをつける」ことが多いので、「明かりをつ
ける」という解釈に、曖昧性解消手段22で1つに絞っ
た時には、「確信度小」とする。(4). When the number of interpretations is reduced to one according to the frequency of the user's operation, for example, in response to an input of “turn on”, the natural language analysis unit 21 performs a task of “turning on a television”;・ When the task of "turn on the light" can be interpreted into three, when looking at the past history up to now, there are many cases where "turn on the light", so the ambiguity in the interpretation of "turn on the light" is resolved. When the number is reduced to one by the means 22, “small confidence” is set.
【0041】(5).曖昧性を解消する手がかりが何も
ないため、自然言語解析手段21で見つけた順番を用い
て曖昧性解消手段22で解釈を1つに絞った時には、
「確信度最小」とする。(5). Since there is no clue to disambiguate, when the interpretation is narrowed down to one by the disambiguation unit 22 using the order found by the natural language analysis unit 21,
"Minimum confidence".
【0042】応答文生成手段23は、曖昧性解消手段2
2で1つに絞った解釈と、その確信度、さらに辞書記憶
部3を使って、ユーザにできるだけ負担にならないよう
な応答文を生成する。The response sentence generation means 23 is provided with the ambiguity resolution means 2
By using the interpretation limited to one in step 2, its certainty factor, and the dictionary storage unit 3, a response sentence that does not burden the user as much as possible is generated.
【0043】例えば、確信度が高い時には、タスクを実
行してしまい、実行した結果を伝える応答文を生成す
る。For example, when the degree of certainty is high, the task is executed, and a response sentence conveying the execution result is generated.
【0044】一方、確信度が低い時には、タスクを実行
せずに、実行していいかどうかの応答文を生成する。On the other hand, when the degree of certainty is low, a response sentence as to whether or not to execute the task is generated without executing the task.
【0045】図2は、本発明の一実施例の処理手順を示
す流れ図である。図1及び図2を参照して、本発明の一
実施例の動作について詳細に説明する。FIG. 2 is a flowchart showing a processing procedure according to one embodiment of the present invention. The operation of the embodiment of the present invention will be described in detail with reference to FIGS.
【0046】入力装置1で得た入力文字列は、自然言語
解析手段21に供給される(図2のステップ101)。The input character string obtained by the input device 1 is supplied to the natural language analyzing means 21 (step 101 in FIG. 2).
【0047】自然言語解析手段21は、辞書記憶部31
に記憶されている語彙を参照して、この入力文字列を解
釈する(図2のステップ102)。The natural language analyzing means 21 includes a dictionary storage 31
The input character string is interpreted with reference to the vocabulary stored in (2) (step 102 in FIG. 2).
【0048】曖昧性解消手段22は、曖昧性解消情報記
憶部32に記憶されている情報を参照して、解釈が複数
存在している時に解釈を1つに絞り込む(図2のステッ
プ103)。The disambiguation means 22 refers to the information stored in the disambiguation information storage unit 32 and narrows down the interpretation to one when there are a plurality of interpretations (step 103 in FIG. 2).
【0049】また、どのように解釈を1つに絞ったかを
用いてシステムが曖昧性を解消した結果の確信度を求め
る(図2のステップ104)。Further, using the method of narrowing down the interpretation to one, a certainty factor of the result of the system eliminating the ambiguity is obtained (step 104 in FIG. 2).
【0050】応答文生成手段23は、辞書記憶部31に
記憶されている語彙を参照して、確信度の大きさに応じ
て異なった応答文を生成し、出力装置4に出力する(図
2のステップ105)。The response sentence generating means 23 refers to the vocabulary stored in the dictionary storage unit 31, generates a different response sentence according to the degree of certainty, and outputs it to the output device 4 (FIG. 2). Step 105).
【0051】本発明の第1の実施例について具体例に即
して以下に説明する。The first embodiment of the present invention will be described below with reference to a specific example.
【0052】入力装置1として、マイクを備え、該マイ
クから入力された信号をディジタル信号に変換して音声
認識を行ない認識結果をテキストコードとして出力する
音声認識システムからなるものとする。データ処理装置
2はパーソナル・コンピュータよりなり、磁気ディスク
記憶装置等よりなる記憶装置3を備える。また出力装置
4は、スピーカを備えた音声合成システムよりなり、応
答文生成手段23から出力されたテキスト情報を音声合
成して音声出力する。It is assumed that the input device 1 comprises a voice recognition system that includes a microphone, converts a signal input from the microphone into a digital signal, performs voice recognition, and outputs a recognition result as a text code. The data processing device 2 is composed of a personal computer and has a storage device 3 such as a magnetic disk storage device. The output device 4 is composed of a voice synthesizing system having a speaker.
【0053】データ処理装置2(パーソナル・コンピュ
ータ)は、自然言語解析手段21、曖昧性解消手段2
2、応答文生成手段23を備え、これらの各手段は、C
PU(中央演算装置)で実行されるプログラムによりそ
の処理・機能が実現される。すなわち、該プログラムを
記録した記録媒体、もしくは通信媒体から該プログラム
を読み出してデータ処理装置2で実行することにより、
本発明を実施することができる。記憶装置3には、辞書
31及び曖昧性解消情報記憶部32を備える。The data processing device 2 (personal computer) includes a natural language analyzing means 21 and an ambiguity eliminating means 2
2. A response sentence generating means 23 is provided.
The processing and functions are realized by a program executed by a PU (central processing unit). That is, by reading the program from a recording medium or a communication medium on which the program is recorded and executing the program in the data processing device 2,
The present invention can be implemented. The storage device 3 includes a dictionary 31 and an ambiguity resolution information storage unit 32.
【0054】以下は本発明を適用したシステムとして、
テレビとビデオの電源等の制御を行なう構成を例に説明
する。なお、記憶装置1の曖昧性解消情報記憶部32に
は、テレビ及びビデオの各機器の電源のオン・オフ状態
が記憶管理されるものとする。The following is a system to which the present invention is applied.
A configuration for controlling a television and a video power supply will be described as an example. In the ambiguity resolution information storage unit 32 of the storage device 1, the on / off state of the power of each device such as a television and a video is stored and managed.
【0055】ユーザが、テレビとビデオがある家の中
で、テレビを操作するために、「電源つけて」と、入力
装置1のマイクに向かって話したとする。Assume that the user speaks to the microphone of the input device 1 "turn on the power" to operate the television in a house where the television and the video are present.
【0056】入力装置1をなす音声認識システムは、
「電源つけて」と音声認識して、テキスト文字に変換す
る。The speech recognition system constituting the input device 1 is as follows.
Recognize "turn on power" and convert to text characters.
【0057】このテキスト文字と、辞書記憶部31を参
照して自然言語解析手段31は、「テレビの電源をつけ
る」と「ビデオの電源をつける」という複数の解釈結果
を出力する。Referring to the text characters and the dictionary storage unit 31, the natural language analysis means 31 outputs a plurality of interpretation results of "turn on the television" and "turn on the video".
【0058】曖昧性解消手段32は、曖昧性解消情報と
して、テレビ及びビデオの各機器の現在状態を見ると、
「テレビの電源はオフ」、「ビデオの電源はオン」であ
ることから、「テレビの電源をつける」という解釈(タ
スク)に絞り込む。The disambiguation means 32 looks at the current state of each TV and video device as disambiguation information.
Since "TV power is off" and "video power is on", the interpretation (task) of "turn on the TV" is narrowed down.
【0059】また機器の現在状態から、曖昧性を解消す
ることができたことから、確信度での最大〜最小の5段
階評価のうち「確信度大」であるとする。Since the ambiguity can be resolved from the current state of the device, the degree of certainty is determined to be “high certainty” among the five levels of maximum to minimum levels of certainty.
【0060】応答文生成手段23では、確信度大と「テ
レビの電源をつける」という解釈結果と辞書記憶部31
を参照して、「テレビの電源をつけます」という応答文
を生成し、出力装置4をなす音声合成システムでスピー
カに出力する。The response sentence generating means 23 outputs the high certainty factor, the interpretation result of "turn on the television", and the dictionary storage unit 31.
, A response sentence “Turn on the television” is generated, and is output to the speaker by the voice synthesis system constituting the output device 4.
【0061】次に本発明の第2の実施例について図面を
参照して詳細に説明する。Next, a second embodiment of the present invention will be described in detail with reference to the drawings.
【0062】図3は、本発明の第2の実施例の構成を示
す図である。図3において、図1と同等の要素には同一
の参照符号が付されている。図3を参照すると、本発明
の第2の実施例は、図1を参照して説明した前記第1の
実施例に対して、タスク実行手段24がデータ処理装置
2に追加されており、未実行タスクコマンド記憶部33
が記憶装置3にさらに付加されて構成されている。FIG. 3 is a diagram showing the configuration of the second embodiment of the present invention. In FIG. 3, the same elements as those in FIG. 1 are denoted by the same reference numerals. Referring to FIG. 3, the second embodiment of the present invention differs from the first embodiment described with reference to FIG. Execution task command storage unit 33
Is further added to the storage device 3.
【0063】タスク実行手段24は、曖昧性解消手段2
2で生成された解釈を、応答文生成手段23で実行すべ
きタスクであるか否かを判断し、実行すべきタスクであ
ると判断された時に、タスクを実行する。The task executing means 24 includes the ambiguity eliminating means 2
The response sentence generating means 23 determines whether the interpretation generated in step 2 is a task to be executed, and executes the task when it is determined that the task is to be executed.
【0064】未実行タスクコマンド記憶部33は、応答
文生成手段23で応答文を生成した中で、確信度が低
く、応答文が質問型「〜しますか」などになったとき
に、そのタスクコマンドを記憶している。When the response sentence is generated by the response sentence generating means 23, the unexecuted task command storage unit 33, when the confidence is low and the response sentence becomes a question type " Remembers task commands.
【0065】図4は、本発明の第2の実施例の動作を説
明するための流れ図である。図3及び図4を参照して、
本発明の第2の実施例の動作について説明する。入力装
置1で得た入力文字列は自然言語解析手段21に供給さ
れ(図4のステップ201)、自然言語解析手段21
は、辞書記憶部31に記憶されている語彙を参照して、
この入力文字列を解釈し、解釈可能な複数のタスクコマ
ンドに変換し(図4のステップ202)、曖昧性解消手
段22は、曖昧性解消情報記憶部32に記憶されている
情報を参照して、タスクコマンドが複数存在している時
に1つに絞り込み(図4のステップ203)、また、ど
のようにタスクコマンドを1つに絞ったかを用いてシス
テムが曖昧性を解消した結果の確信度を求める(図4の
ステップ204)。FIG. 4 is a flowchart for explaining the operation of the second embodiment of the present invention. Referring to FIG. 3 and FIG.
The operation of the second embodiment of the present invention will be described. The input character string obtained by the input device 1 is supplied to the natural language analyzing means 21 (step 201 in FIG. 4), and the natural language analyzing means 21
Refers to the vocabulary stored in the dictionary storage unit 31,
This input character string is interpreted and converted into a plurality of interpretable task commands (step 202 in FIG. 4), and the disambiguation means 22 refers to the information stored in the disambiguation information storage unit 32. When there are a plurality of task commands, the command is narrowed down to one (step 203 in FIG. 4), and the degree of certainty as a result of the system resolving the ambiguity by using how the task command is narrowed down to one is used. (Step 204 in FIG. 4).
【0066】前記第1の実施例では、確信度の大きさに
かかわらず、応答文生成手段23で応答文を生成し、出
力装置4で出力していた。In the first embodiment, the response sentence is generated by the response sentence generating means 23 and output by the output device 4 irrespective of the degree of certainty.
【0067】本発明の第2の実施例では、曖昧性解析手
段22で求められた確信度に応じて、システムがタスク
コマンドを実行してよいかどうか判断する(図4のステ
ップ205)。In the second embodiment of the present invention, it is determined whether the system can execute the task command according to the certainty factor obtained by the ambiguity analysis means 22 (step 205 in FIG. 4).
【0068】ステップ205で、確信度が低く、タスク
コマンドを実行してはいけないと判断したときには、未
実行タスクコマンド記憶部33に、タスクコマンドが記
憶される(図4のステップ208)。When it is determined in step 205 that the confidence is low and the task command should not be executed, the task command is stored in the unexecuted task command storage unit 33 (step 208 in FIG. 4).
【0069】そして、タスクコマンドを実行してよいか
どうかを表す「〜していいですか?」というような応答
文を応答文生成手段23で生成する(図4のステップ2
09)。Then, a response sentence such as "Is it OK?" Indicating whether the task command may be executed is generated by the response sentence generation means 23 (step 2 in FIG. 4).
09).
【0070】該応答文に対する、ユーザからの返答入力
を入力装置1を介してを得ると(ステップ201)、自
然言語解析手段21は、入力の自然言語と未実行タスク
コマンド記憶部33で記憶されている未実行タスクコマ
ンドを参照して、解釈可能な複数のタスクコマンドに変
換する(図4のステップ202)。When a response input from the user to the response sentence is obtained via the input device 1 (step 201), the natural language analysis unit 21 stores the input natural language and the unexecuted task command storage unit 33. The unexecuted task command is referred to and converted into a plurality of interpretable task commands (step 202 in FIG. 4).
【0071】図4のステップ203では、複数のタスク
コマンドの絞り込みを行ない、ステップ204では、絞
り込まれたタスクコマンドの確信度を求め、確信度によ
りタスクコマンドを実行してよいかどうかを判断する。In step 203 of FIG. 4, a plurality of task commands are narrowed down. In step 204, the certainty of the narrowed task command is obtained, and it is determined whether the task command can be executed based on the certainty.
【0072】「〜していいですか?」のような応答に対
して、図4のステップ204で求めた確信度が高いとき
には、入力が「はい」のような肯定を意味する入力か、
「いいえ」のような否定を意味する入力かどうかを判断
する(図4のステップ206)。In response to a response such as “Do you want to do?”, If the certainty factor obtained in step 204 in FIG. 4 is high, is the input an affirmative input such as “Yes”,
It is determined whether the input means a negative such as "No" (step 206 in FIG. 4).
【0073】ユーザから入力が、肯定を意味するもので
ある時には、応答文生成手段23はタスク実行手段24
にタスクコマンドを送り、タスク実行手段24でタスク
を実行する。When the input from the user means affirmative, the response sentence generating means 23
And the task execution means 24 executes the task.
【0074】また応答文生成手段23は、タスクの実行
完了を表す「〜しました。」のような応答文を生成する
(図4のステップ207)。The response sentence generating means 23 generates a response sentence such as "I've done it" indicating the completion of execution of the task (step 207 in FIG. 4).
【0075】また、否定を意味する入力の時には、タス
クコマンドを破棄し、未実行タスクの取り消しを表す
「〜を取り消します」のような応答文を生成する(図4
のステップ210)。When the input is negative, the task command is discarded, and a response statement such as "cancel ~" indicating cancellation of the unexecuted task is generated (FIG. 4).
Step 210).
【0076】本発明の第2の実施例について具体例に即
して説明する。以下の例でも、前記第1の実施例と同様
にテレビとビデオがある家の中での状況を想定して説明
する。A second embodiment of the present invention will be described with reference to a specific example. Also in the following example, description will be made assuming a situation in a house where a television and a video are present, as in the first embodiment.
【0077】今、ユーザがテレビの電源をつけるため
に、「テレビ」とマイクに向かって話したとする。Now, suppose that the user has spoken to the microphone "TV" in order to turn on the television.
【0078】入力装置1をなす音声認識システムは、
「テレビ」と音声認識し、テキスト文字に変換する。The voice recognition system constituting the input device 1
Recognizes "TV" and converts it to text characters.
【0079】このテキスト文字と辞書記憶部31とを参
照して、自然言語解析手段21は、 ・「テレビの電源をつける」、 ・「テレビのチャンネルを1にする」、 ・「テレビのチャンネルを2にする」、… といった複数のタスクコマンドに変換する。With reference to the text characters and the dictionary storage unit 31, the natural language analysis means 21 can be used to: "turn on the television";"set the television channel to 1"; Is converted into a plurality of task commands.
【0080】曖昧性解消手段22は、曖昧性解消情報記
憶部32からテレビの現在状況を見て、入力された「テ
レビ」に対するタスクとしては、「テレビの電源はオ
フ」から、「テレビの電源をつける」くらいの操作で大
丈夫だろうと判断し、絞り込む。また確信度は前記確信
度での最大〜最小の5段階評価で「確信度最小」と求め
たとする。The disambiguation means 22 looks at the current status of the television from the disambiguation information storage unit 32, and as a task for the input “TV”, from “TV power off” to “TV power supply”. It is determined that the operation of “apply” is okay and narrow down. It is also assumed that the certainty is determined to be “minimum certainty” by five-level evaluation from the maximum to the minimum of the certainty.
【0081】応答文生成手段23は、確信度最小と「テ
レビの電源をつける」というタスクコマンドと辞書記憶
部31を参照して、「テレビをつけますか?」という応
答文を生成し、出力装置4をなす音声合成システムのス
ピーカーに出力する。The response sentence generating means 23 generates a response sentence "Do you turn on the TV?" With reference to the minimum certainty factor and the task command "Turn on the TV" and the dictionary storage unit 31, and outputs the response sentence. Output to the speaker of the speech synthesis system constituting the device 4.
【0082】また「テレビの電源をつける」というタス
クコマンドを未実行タスクコマンド記憶部33に記憶す
る。The task command “turn on the television” is stored in the unexecuted task command storage unit 33.
【0083】このシステムからの応答後に、ユーザが
「はい」と入力すると、自然言語解析手段31は、辞書
記憶部31を参照して、この発話が肯定を意味する語だ
と認識し、また未実行タスクコマンド記憶部33に、
「テレビの電源をつける」というコマンドが記憶されて
いるため、「テレビの電源をつける」というタスクコマ
ンドを生成する。When the user inputs "Yes" after the response from the system, the natural language analysis means 31 refers to the dictionary storage section 31 and recognizes that the utterance is a word meaning affirmative. In the execution task command storage unit 33,
Since the command of "turn on the television" is stored, a task command of "turn on the television" is generated.
【0084】曖昧性解消手段22では、すでにタスクコ
マンドが一意に決まっているため、確信度を最大〜最小
の5段階評価で、「確信度最大」とする。In the ambiguity eliminating means 22, since the task command has already been uniquely determined, the certainty is determined to be “maximum certainty” by a maximum to minimum five-level evaluation.
【0085】応答文生成手段23では、確信度最大と
「テレビの電源をつける」というタスクコマンドと辞書
記憶部31を参照して、「テレビの電源をつけました」
という応答文を生成し、音声合成システムでスピーカに
出力する。The response sentence generating means 23 refers to the maximum certainty factor, the task command “Turn on the TV”, and the dictionary storage unit 31 and “turns on the TV”.
Is generated and output to the speaker by the speech synthesis system.
【0086】次に本発明の第3の実施例について図面を
参照して詳細に説明する。Next, a third embodiment of the present invention will be described in detail with reference to the drawings.
【0087】図5は、本発明の第3の実施例の構成を示
す図である。図5において、図3に示した要素と同等の
要素には同一の参照符号が付されている。FIG. 5 is a diagram showing the configuration of the third embodiment of the present invention. In FIG. 5, the same elements as those shown in FIG. 3 are denoted by the same reference numerals.
【0088】図5を参照すると、本発明の第3の実施例
は、データ処理装置2は、図3に示した前記第2の実施
例と同様に、自然言語解析手段21、曖昧製解消手段2
2、応答文生成手段23、タスク実行手段24を備えて
いる。記憶装置3は、辞書記憶部31、曖昧性解消情報
記憶部32、キャンセルコマンド記憶部34を備えてい
る。Referring to FIG. 5, according to a third embodiment of the present invention, the data processing apparatus 2 includes a natural language analyzing unit 21 and an ambiguity elimination unit, similarly to the second embodiment shown in FIG. 2
2, a response sentence generating means 23 and a task executing means 24 are provided. The storage device 3 includes a dictionary storage unit 31, an ambiguity resolution information storage unit 32, and a cancel command storage unit 34.
【0089】キャンセルコマンド記憶部34には、ユー
ザの意図に反したタスクを実行してしまったときに、元
に復旧するためのタスクコマンドが予め記憶されてい
る。The cancel command storage unit 34 previously stores a task command for restoring the original task when a task contrary to the user's intention has been executed.
【0090】図6は、本発明の第3の実施例の動作を説
明するための流れ図である。図5及び図6を参照して、
本発明の第3の実施例の動作について詳細に説明する。
なお、図6のステップ301〜304は、図2に示した
ステップ201〜204と同様とされる。FIG. 6 is a flow chart for explaining the operation of the third embodiment of the present invention. Referring to FIGS. 5 and 6,
The operation of the third embodiment of the present invention will be described in detail.
Steps 301 to 304 in FIG. 6 are the same as steps 201 to 204 shown in FIG.
【0091】前記第1の実施例では、曖昧性解消手段2
2で確信度が高く求められてしまうと、ユーザの意図に
反したものでも、応答文生成部23で実行完了の応答文
を生成して出力装置4に出力してしまう。In the first embodiment, the disambiguation means 2
If a high degree of certainty is required in 2, the response sentence generation unit 23 generates a response sentence of execution completion and outputs it to the output device 4 even if the response sentence is contrary to the user's intention.
【0092】本発明の第3の実施例においては、システ
ムがタスク実行完了の応答文を応答文生成手段23で生
成し、出力装置4に出力した時に、キャンセルや取り消
しを意味する入力を受け付けると、図6のステップ30
1−304の一連の処理において、図4のステップ20
1−204の前記第2の実施例の処理と同様に、タスク
コマンドを1つに絞り込む。その際、キャンセルや取り
消しを意味する入力を受け付けた時には、キャンセルコ
マンドが絞り込まれる。In the third embodiment of the present invention, when the system generates a response sentence of task execution completion by the response sentence generating means 23 and outputs the response sentence to the output device 4, the system accepts an input meaning cancellation or cancellation. Step 30 in FIG.
In a series of processing of 1-304, step 20 in FIG.
Similarly to the processing of the second embodiment 1-204, the task commands are narrowed down to one. At this time, when an input indicating cancellation or cancellation is received, the cancellation command is narrowed down.
【0093】絞り込まれたタスクコマンドがキャンセル
コマンドであるか否か判定する(図6のステップ30
5)。It is determined whether the narrowed task command is a cancel command (step 30 in FIG. 6).
5).
【0094】キャンセルコマンドでなければ、前記第1
の実施例と同様に、確信度に応じて応答文生成部23で
応答文を生成し、出力装置4に出力する(図6のステッ
プ306)。If it is not a cancel command, the first
Similarly to the embodiment, the response sentence generation unit 23 generates a response sentence according to the certainty factor and outputs the response sentence to the output device 4 (step 306 in FIG. 6).
【0095】キャンセルコマンドである場合、キャンセ
ルコマンド記憶部34を参照して応答文生成部23で応
答文を生成し、出力装置4に出力する(図6のステップ
307)。If the command is a cancel command, the response sentence generation unit 23 generates a response sentence with reference to the cancel command storage unit 34 and outputs it to the output device 4 (step 307 in FIG. 6).
【0096】例えば、システムが「テレビをつけまし
た」という応答文を返した時に、ユーザが、キャンセル
や取り消しを意味する入力として、「違う」と答えた時
に、システムは、「テレビを消しました」という応答文
を生成する。For example, when the system returns a response sentence "Turn on TV" and the user answers "No" as an input to indicate cancellation or cancellation, the system returns "Turn off TV". Is generated.
【0097】本発明の第3の実施例について具体例に即
して説明する。以下でも、前記第1の実施例と同様にテ
レビとビデオがある家の中での状況を想定する。The third embodiment of the present invention will be described with reference to a specific example. In the following, as in the first embodiment, a situation in a house where a television and a video are present is assumed.
【0098】今、ユーザがテレビの電源をつけるため
に、「テレビをつけて」とマイクに向かって話したとす
る。Now, it is assumed that the user speaks to the microphone "turn on the television" in order to turn on the television.
【0099】入力装置1をなす音声認識システムは、あ
やまって「ビデオをつけて」と誤認識し、テキスト文字
に変換する。このテキスト文字と辞書記憶部31を参照
して自然言語解析手段21は、「ビデオの電源をつけ
る」というタスクコマンドに変換する。The voice recognition system constituting the input device 1 erroneously recognizes "attach video" and converts it to text characters. With reference to the text characters and the dictionary storage unit 31, the natural language analysis unit 21 converts it into a task command of "turn on video power".
【0100】曖昧性解消手段22では、すでにタスクコ
マンドが一意に決まっているので、「確信度最大」とす
る。In the ambiguity eliminating means 22, since the task command has already been uniquely determined, it is set to "maximum confidence".
【0101】応答文生成手段23は、「確信度最大」
と、「ビデオの電源をつける」というタスクコマンドと
辞書記憶部31を参照して、「ビデオの電源をつけまし
た」という応答文を生成し、出力装置4をなす音声合成
システムでスピーカに出力する。The response sentence generating means 23 outputs "maximum confidence".
With reference to the task command “Turn on video power” and the dictionary storage unit 31, a response sentence “Turn on video power” is generated and output to the speaker by the voice synthesis system that forms the output device 4. I do.
【0102】また、キャンセルコマンド記憶部34に、
「ビデオの電源をつける」という操作の逆操作である
「ビデオの電源を消す」というコマンドが記憶される。The cancel command storage unit 34 stores
A command “turn off video power” which is the reverse operation of “turn on video power” is stored.
【0103】システムはユーザの意図とは異なる応答を
したために、マイクからユーザは「違う」と入力した場
合、自然言語解析手段31は辞書記憶部31を参照して
この発話がキャンセルを意味する語だと認識し、またキ
ャンセルコマンド記憶部34に「ビデオの電源を消す」
というタスクコマンドが記憶されていることを認識し
て、「ビデオの電源を消す」というタスクコマンドを生
成する。Since the system responded differently from the user's intention, if the user inputs “no” from the microphone, the natural language analysis means 31 refers to the dictionary storage unit 31 and the utterance indicates a word indicating cancellation. "Cancel the video power" in the cancel command storage unit 34.
It recognizes that the task command is stored, and generates a task command of “turn off video power”.
【0104】曖昧性解消手段22では、すでにタスクコ
マンドが一意に決まっているので、確信度最大とする。In the ambiguity eliminating means 22, since the task command has already been uniquely determined, the certainty factor is set to the maximum.
【0105】応答文生成手段23では、「確信度最大」
と「ビデオの電源を消す」というタスクコマンドと辞書
記憶部31を参照して、「ビデオの電源を消しました」
という応答文を生成し、該応答文を出力装置4をなす音
声合成システムよりスピーカに出力する。In the response sentence generating means 23, "maximum confidence"
And the task command “Turn off video” and the dictionary storage unit 31 to refer to “Turn off video”
Is generated, and the response sentence is output to the speaker from the speech synthesis system constituting the output device 4.
【0106】次に本発明の第4の実施例について説明す
る。図7は、本発明の第4の実施例の構成を示す図であ
る。図7を参照すると、本発明の第4の実施例は、図3
に示した前記第2の実施例に、時間管理部35を記憶装
置3に備えたものである。Next, a fourth embodiment of the present invention will be described. FIG. 7 is a diagram showing the configuration of the fourth embodiment of the present invention. Referring to FIG. 7, a fourth embodiment of the present invention is shown in FIG.
The time management unit 35 is provided in the storage device 3 in the second embodiment shown in FIG.
【0107】図8は、本発明の第4の実施例の動作を説
明するための流れ図である。図7及び図8を参照して、
本発明の第4の実施例の動作について説明する。FIG. 8 is a flowchart for explaining the operation of the fourth embodiment of the present invention. Referring to FIGS. 7 and 8,
The operation of the fourth embodiment of the present invention will be described.
【0108】図8のステップ402−405、ステップ
408−409は、その流れ図を図4に示した前記第2
の実施例における202−205、ステップ208−2
09と同一とされ、また、図8のステップ406、40
7、410は、前記第2の実施例におけるステップ20
6、207、210と同一の処理とされている。前記第
2の実施例と同様な手順で、図8のステップ409まで
処理が終わったとする。前記第2の実施例では、図4に
示すように、ステップ209で応答文を生成して、入力
装置1でユーザからの返答入力を待ち、返答が入力され
たときにステップ201からの処理を行っている。Steps 402-405 and 408-409 of FIG. 8 correspond to the second step shown in FIG.
202-205, step 208-2 in the embodiment of
09, and steps 406 and 40 in FIG.
Steps 7 and 410 correspond to step 20 in the second embodiment.
6, 207, and 210. It is assumed that the processing has been completed up to step 409 in FIG. 8 in the same procedure as in the second embodiment. In the second embodiment, as shown in FIG. 4, a response sentence is generated in step 209, and the input device 1 waits for a response input from the user. When a response is input, the process from step 201 is performed. Is going.
【0109】本発明の第4の実施例では、システムがユ
ーザの入力を待つような応答をしたときに、時間管理部
35に現在時刻を設定し、入力装置1では、不図示のタ
イマ(計時手段)により予め定められた一定時間だけ待
つことにする(図8のステップ401)。In the fourth embodiment of the present invention, when the system responds to wait for user input, the current time is set in the time management unit 35, and the input device 1 uses a timer (not shown). Means) and waits for a predetermined time (step 401 in FIG. 8).
【0110】一定時間内に、すなわち、タイマでのタイ
ムアウト発生前に、応答文に対するユーザからの入力が
あれば、以下の処理を前記第2の実施例と同様に行う
(図8のステップ402以降)。If there is an input from the user to the response sentence within a predetermined time, that is, before the time-out of the timer occurs, the following processing is performed in the same manner as in the second embodiment (from step 402 in FIG. 8). ).
【0111】一定時間の間にユーザからの入力がなけれ
ば、すんわち、タイマでのタイムアウトが発生した際に
は、ユーザは、応答の内を了解したものとして、入力装
置1にユーザが肯定を意味する入力を行なったものとみ
なす。If there is no input from the user for a certain period of time, that is, when a timeout occurs in the timer, the user acknowledges that the response has been acknowledged by the user on the input device 1. Is assumed to have been entered.
【0112】ステップ409で生成された「〜していい
ですか?」のような応答に対して、図8のステップ40
4で求めた確信度が高いときには、入力が「はい」のよ
うな肯定を意味する入力か、「いいえ」のような否定を
意味する入力かどうかを判断する(図8のステップ40
6)。In response to the response such as “Do you want to do?” Generated in step 409, step 40 in FIG.
When the certainty factor obtained in step 4 is high, it is determined whether the input is an input meaning affirmation such as "yes" or an input meaning negation such as "no" (step 40 in FIG. 8).
6).
【0113】ユーザから入力が、肯定を意味するもので
ある時には、応答文生成手段23はタスク実行手段24
にタスクコマンドを送り、タスク実行手段24でタスク
を実行する。When the input from the user means affirmative, the response sentence generating means 23 is
And the task execution means 24 executes the task.
【0114】また応答文生成手段23は、タスクの実行
完了を表す「〜しました。」のような応答文を生成する
(図8のステップ407)。Further, the response sentence generating means 23 generates a response sentence such as "I've done it" indicating the completion of the execution of the task (step 407 in FIG. 8).
【0115】また、否定を意味する入力の時には、タス
クコマンドを破棄し、未実行タスクの取り消しを表す
「〜を取り消します」のような応答文を生成する(図8
のステップ410)。If the input is negative, the task command is discarded, and a response statement such as "cancel ~" indicating cancellation of the unexecuted task is generated (FIG. 8).
Step 410).
【0116】本発明の第4の実施例について具体例に即
して以下に説明する。以下でも、前記第2の実施例と同
様にテレビとビデオがある家の中での状況を想定して説
明する。The fourth embodiment of the present invention will be described below with reference to a specific example. In the following, description will be made assuming a situation in a house where a television and a video are provided, as in the second embodiment.
【0117】今、ユーザがテレビの電源をつけた後に、
テレビのチャンネルを1にするために「1チャンネルに
して」とマイクに向かって話したものとする。音声認識
システムは「1チャンネルにして」と認識し、テキスト
文字に変換する。Now, after the user turns on the television,
In order to set the channel of the television to 1, it is assumed that the user has spoken to the microphone, "change to one channel". The voice recognition system recognizes "on one channel" and converts it to text characters.
【0118】このテキスト文字と辞書を参照して自然言
語解析手段31は、「テレビのチャンネルを1にす
る」、「ビデオのチャンネルを1にする」という複数の
タスクコマンドに変換する。With reference to the text characters and the dictionary, the natural language analysis means 31 converts the command into a plurality of task commands such as "set the television channel to 1" and "set the video channel to 1".
【0119】曖昧性解消手段22では、文脈を用いて
「テレビの電源をつける」を実行した後であることか
ら、「テレビのチャンネルを1にする」であるものと判
断する。また、文脈を用いて曖昧性を解消したので、確
信度を中とする。The disambiguation means 22 determines that the "channel of the television is set to 1" since "turn on the television" has been executed using the context. In addition, since the ambiguity has been eliminated using the context, the certainty factor is set to medium.
【0120】応答文生成手段23では確信度中と「テレ
ビのチャンネルを1にする」というタスクコマンドと辞
書記憶部31を参照して、「テレビのチャンネルを1に
しますね」という応答文を生成し、出力装置4をなす音
声合成システムでスピーカに出力する。The response sentence generation means 23 generates a response sentence "Set the television channel to 1" by referring to the certainty factor, the task command "Set the television channel to 1", and the dictionary storage unit 31. Then, the voice is output to the speaker by the voice synthesis system constituting the output device 4.
【0121】また、未実行タスクコマンド記憶部33に
「テレビのチャンネルを1にする」というタスクコマン
ドを記憶する。Further, a task command “set the channel of the television to 1” is stored in the unexecuted task command storage unit 33.
【0122】またスピーカで応答文を出力するのと同時
に、時間管理部35に、現在時刻を記憶させる。At the same time that the response sentence is output from the speaker, the current time is stored in the time management unit 35.
【0123】出力装置4をなすスピーカからの応答文を
出力した後、ユーザから一定時間入力がないときには、
入力装置1から肯定を表す語が入力されたものとして、
前記第2の実施例と同様な処理を行い、応答文生成手段
23において、「テレビのチャンネル1を1にしまし
た」という応答文を生成し、該応答文を、出力装置4を
なす音声合成システムよりスピーカに出力する。After outputting the response sentence from the speaker constituting the output device 4, if there is no input from the user for a certain period of time,
Assuming that a word indicating affirmation has been input from the input device 1,
By performing the same processing as in the second embodiment, the response sentence generation means 23 generates a response sentence "TV channel 1 has been set to 1", and converts the response sentence into a speech synthesis which forms the output device 4. Output from the system to the speaker.
【0124】[0124]
【発明の効果】以上説明したように、本発明によれば下
記記載の効果を奏する。As described above, according to the present invention, the following effects can be obtained.
【0125】本発明の第1の効果は、にユーザはその応
答に必ずしも返答する必要がなくなるので、ユーザにか
かる負荷を削減する、ということである。The first effect of the present invention is that the user does not always need to reply to the response, so that the load on the user is reduced.
【0126】その理由は次の通りである。本発明におい
ては、システムが求めた確信度を用いて応答文を変化さ
せることで、システムは必ずしも確認を求める応答文を
出力するわけではない。このため、ユーザはシステムか
らの応答に必ずしも返答する必要がないためである。The reason is as follows. In the present invention, by changing the response sentence using the certainty factor obtained by the system, the system does not necessarily output the response sentence requesting confirmation. For this reason, the user need not always reply to the response from the system.
【0127】本発明の第2の効果は、システムが操作を
行う前に、ユーザとシステムとの対話により曖昧性を解
消することを可能とし、システムがユーザの本来の意図
とは異なった解釈をする可能性を低減し、その結果、ユ
ーザは修正取り消し作業を行う可能性を特段に低減して
いる、ということである。A second effect of the present invention is that it is possible to eliminate ambiguity by interaction between the user and the system before the system performs an operation, and the system interprets the interpretation different from the original intention of the user. That the user has a particularly reduced chance of performing the undoing operation.
【0128】その理由は、本発明においては、システム
が求めた確信度が低いときには、システムは、システム
で解釈したタスクを実行してよいかどうかをユーザに質
問する構成とされているためである。The reason is that, in the present invention, when the certainty degree obtained by the system is low, the system is configured to ask the user whether the task interpreted by the system may be executed. .
【0129】本発明の第3の効果は、システムがユーザ
の意図と異なった解釈をしてしまう場合でも、修正取り
消し可能とし、ユーザにかかる負荷を削減する、という
ことである。A third effect of the present invention is that, even when the system interprets the data differently from the user's intention, the correction can be canceled and the load on the user can be reduced.
【0130】本発明の第4の効果は、システムがユーザ
に質問をしたときに、ユーザから一定時間応答がないと
システムに肯定を表す語が入力されたときと同様な処理
がおこなわれ、このため、ユーザはシステムの確認を表
す応答に必ずしも答える必要がないので、ユーザの負荷
を削減する、ということである。A fourth effect of the present invention is that, when the system asks a question to the user, the same processing as when a positive word is input to the system if the user does not respond for a certain period of time is performed. Therefore, the user does not need to answer the response indicating the confirmation of the system, so that the load on the user is reduced.
【図1】本発明の第1の実施例の構成を示す図である。FIG. 1 is a diagram showing a configuration of a first exemplary embodiment of the present invention.
【図2】本発明の第1の実施例の動作を説明するための
流れ図である。FIG. 2 is a flowchart for explaining the operation of the first exemplary embodiment of the present invention.
【図3】本発明の第2の実施例の構成を示すブロック図
である。FIG. 3 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.
【図4】本発明の第2の実施例の動作を説明するための
流れ図である。FIG. 4 is a flowchart for explaining the operation of the second exemplary embodiment of the present invention.
【図5】本発明の第3の実施例の構成を示す図である。FIG. 5 is a diagram showing a configuration of a third exemplary embodiment of the present invention.
【図6】本発明の第3の実施例の動作を説明するための
流れ図である。FIG. 6 is a flowchart for explaining the operation of the third embodiment of the present invention.
【図7】本発明の第4の実施例の構成を示す図である。FIG. 7 is a diagram showing a configuration of a fourth embodiment of the present invention.
【図8】本発明の第4の実施例の動作を説明するための
流れ図である。FIG. 8 is a flowchart for explaining the operation of the fourth embodiment of the present invention.
1 入力装置 2 データ処理装置 3 記憶装置 4 出力装置 21 自然言語解析手段 22 曖昧性解消手段 23 応答文生成手段 24 タスク実行手段 31 辞書記憶部 32 曖昧性解消情報記憶部 33 未実行タスクコマンド記憶部 34 キャンセルコマンド記憶部 35 時間管理部 REFERENCE SIGNS LIST 1 input device 2 data processing device 3 storage device 4 output device 21 natural language analysis means 22 ambiguity resolution means 23 response sentence generation means 24 task execution means 31 dictionary storage unit 32 ambiguity resolution information storage unit 33 unexecuted task command storage unit 34 Cancel command storage unit 35 Time management unit
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 3/00 537Z 561C Fターム(参考) 5B091 AA15 CA12 CA14 CB12 CD03 DA09 5D015 AA05 HH23 KK02 KK04 LL04 LL05 5D045 AB01 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 3/00 537Z 561C F-term (Reference) 5B091 AA15 CA12 CA14 CB12 CD03 DA09 5D015 AA05 HH23 KK02 KK04 LL04 LL05 5D045 AB01
Claims (19)
な語彙と、該自然言語の解釈結果から応答文を生成する
ために必要な語彙とを予め記憶する辞書記憶部と、 前記辞書記憶部を参照して、入力手段から入力された自
然言語の解釈を行う自然言語解析手段と、 前記自然言語解析手段で求められた解釈結果が複数存在
した場合、1つの解釈結果に絞り込むための手がかりと
して用いられる情報を記憶する曖昧性解消情報記憶部
と、 前記自然言語解析手段で求められた解釈結果が複数存在
した場合に、前記曖昧性解消情報記憶部を参照して、前
記複数の解釈結果を1つに絞り込むとともに、前記1つ
に絞り込んだ解釈結果に対する確信度を求める曖昧性解
消手段と、 前記曖昧性解消手段で絞り込んだ解釈結果を応答文とし
て出力し、その際、前記曖昧性解消手段で求められた前
記確信度に応じて応答文を変更させる応答文生成手段
と、 を備えたことを特徴とする自然言語を用いた対話システ
ム。1. A dictionary storage unit for storing in advance a vocabulary necessary for interpreting an input natural language and a vocabulary necessary for generating a response sentence from an interpretation result of the natural language; A natural language analysis unit for interpreting a natural language input from an input unit with reference to a unit; and a clue for narrowing down to one interpretation result when there are a plurality of interpretation results obtained by the natural language analysis unit. An ambiguity resolution information storage unit that stores information used as information, and when there are a plurality of interpretation results obtained by the natural language analysis unit, refer to the ambiguity resolution information storage unit to obtain the plurality of interpretation results. And an ambiguity eliminating means for obtaining a certainty factor for the interpretation result narrowed down to one, and outputting the interpretation result narrowed down by the ambiguity eliminating means as a response sentence. A response sentence generating means for changing a response sentence according to the certainty factor obtained by the ambiguity eliminating means; and a dialogue system using a natural language.
けて、該解釈に対応するタスクコマンドを実行するタス
ク実行手段をさらに備えたことを特徴とする請求項1に
記載の自然言語を用いた対話システム。2. The natural language according to claim 1, further comprising: a task execution unit that receives an interpretation obtained by the disambiguation unit and executes a task command corresponding to the interpretation. Dialogue system used.
段で求められた確信度に応じて、前記タスク実行手段で
タスクを実行した後にタスクの実行を報告する応答文を
生成するか、もしくは、前記タスク実行手段でタスクを
実行する前にタスクを実行してとよいか否かを確認する
ための応答文を生成するか、を決定する、ことを特徴と
する請求項2に記載の自然言語を用いた対話システム。3. The method according to claim 2, wherein the response sentence generating means generates a response sentence for reporting execution of the task after executing the task by the task executing means, according to the certainty factor obtained by the disambiguation means. Or determining whether to generate a response sentence for confirming whether or not to execute the task before executing the task by the task execution unit. Dialogue system using natural language.
段で求められた確信度に応じて、応答文を生成するかし
ないかを決定する、ことを特徴とする請求項2又は3に
記載の自然言語を用いた対話システム。4. The method according to claim 2, wherein said response sentence generation means determines whether or not to generate a response sentence according to the degree of certainty obtained by said disambiguation means. A dialogue system using the described natural language.
段で求められた確信度に応じて、前記曖昧性解消手段が
解釈した結果を、報告、確認、及び質問のうちのいずれ
かを表す応答文に変更する、ことを特徴とする請求項
2、3、4のいずれか一に記載の自然言語を用いた対話
システム。5. The method according to claim 1, wherein said response sentence generating means determines a result interpreted by said disambiguation means in accordance with a degree of certainty obtained by said disambiguation means, by reporting, confirming, or asking a question. The interactive system using a natural language according to any one of claims 2, 3, and 4, wherein the response system changes the response sentence.
作のタスクコマンドを記憶するキャンセルコマンド記憶
部と、 キャンセルの意味を表す入力がなされたときに、前記タ
スク実行手段でキャンセルコマンドを実行するととも
に、前記応答文生成手段において、キャンセルコマンド
を実行したことを報告する応答文を生成する、ことを特
徴とする請求項2、3、4、5のいずれか一に記載の自
然言語を用いた対話システム。6. A cancel command storage unit for storing a task command of an inverse operation to the executed task command, wherein the task execution means executes the cancel command when an input indicating the meaning of cancel is made, The interactive system according to any one of claims 2, 3, 4, and 5, wherein the response sentence generating means generates a response sentence reporting that the cancel command has been executed. .
かどうかの確認をとる応答文を出力した後、時間の経過
を測定する時間管理手段を備え、 前記時間管理手段で計時を開始後、あらかじめ定められ
た所定の時間が経過しても、ユーザからの応答がない場
合には、肯定を表す入力が前記入力手段から入力された
ものと解釈する、ことを特徴とする請求項2乃至6のい
ずれか一に記載の自然言語を用いた対話システム。7. A time management means for measuring a lapse of time after outputting a response sentence for confirming whether or not the system executes a task command. 7. The method according to claim 2, wherein if there is no response from the user even after a predetermined period of time has elapsed, an input indicating affirmation is interpreted as being input from the input unit. A dialogue system using the natural language according to any one of the above.
定の時間が経過した後に、肯定を表す入力が前記入力手
段から入力されたか否かを、前記曖昧性解消手段で求め
た確信度に応じて決定する、ことを特徴とする請求項7
に記載の自然言語を用いた対話システム。8. A certainty factor obtained by said ambiguity eliminating means as to whether or not an input indicating affirmativeness has been inputted from said input means after said predetermined time has elapsed after starting time measurement by said time management means. 8. The method according to claim 7, wherein the determination is made in accordance with:
Dialogue system using the natural language described in.
り、語彙辞書を参照して1又は複数のタスクコマンドに
変換する自然言語解析手段と、 曖昧性解消情報を参照して、複数のタスクコマンドを1
つに絞り込むとともに、絞り込みの仕方から、確信度を
求める曖昧性解消手段と、 絞り込んだタスクコマンドと求められた確信度と語彙辞
書とを参照して、前記確信度に応じた応答文を生成し、
出力手段に出力する応答文生成手段と、を備えたことを
特徴とする自然言語対話処理装置。9. A natural language analysis means for receiving a natural language input from an input means and converting it into one or more task commands with reference to a vocabulary dictionary, and a plurality of task commands with reference to disambiguation information. 1
A response sentence corresponding to the certainty factor is generated by referring to the ambiguity eliminating means for obtaining the certainty factor from the narrowing method and the narrowed task command, the determined certainty factor and the vocabulary dictionary. ,
A natural language dialogue processing device, comprising: a response sentence generating unit that outputs the response sentence to an output unit.
辞書を参照して解釈し、解釈結果として該自然言語に対
応した1又は複数のタスクコマンドを候補として出力す
る自然言語解析手段と、 前記自然言語解析手段で求められたタスクコマンドが複
数存在した場合、該解釈された自然言語の文脈情報、タ
スクの履歴情報、該タスク候補の処理対象物の状況情報
のいずれかの情報を含む、曖昧性を解消するための所定
の情報に基づき、1つのタスクコマンドに絞り込むとと
もに、前記1つに絞り込んだタスクコマンドに対する確
信度を求める曖昧性解消手段と、 前記曖昧性解消手段で求められたタスクコマンド及び前
記確信度に応じて応答文を自動作成して出力手段から出
力する応答文生成手段と、 前記タスクコマンドを実行するタスク実行手段とを備え
たことを特徴とする自然言語対話処理装置。10. A natural language analyzing means for interpreting a natural language inputted from an input means with reference to a vocabulary dictionary and outputting one or a plurality of task commands corresponding to the natural language as candidates as an interpretation result. When there are a plurality of task commands obtained by the natural language analysis means, the vagueness includes any one of the interpreted natural language context information, task history information, and status information of the processing object of the task candidate. An ambiguity eliminating means for narrowing down to one task command based on predetermined information for eliminating ambiguity and obtaining a certainty factor for the task command narrowed down to one, and a task command obtained by the ambiguity eliminating means A response sentence generating means for automatically creating a response sentence according to the certainty factor and outputting the response sentence from an output means; and a task execution for executing the task command Natural language dialog processing apparatus characterized by comprising a stage.
の確信度が小の場合、該タスクコマンドを直ちに実行せ
ずに一旦未実行コマンド記憶手段に記憶しておき、前記
応答文生成手段が、前記タスクコマンドを実行してよい
か否かを確認するための応答文を生成して前記出力手段
に出力し、 該応答文に対してユーザが肯定を意味する入力を前記入
力手段から行なった場合、前記未実行コマンド記憶手段
からタスクコマンドを取り出して前記タスク実行手段で
前記タスクコマンドを実行し、前記応答文生成手段では
タスク実行完了の応答文を出力し、一方、否定を意味す
る入力が前記入力手段から行われた場合、前記応答文生
成手段では未実行タスク取り消しの応答文を作成して出
力する、ことを特徴とする請求項10記載の自然言語対
話処理装置。11. When the certainty degree of the one narrowed task command is low, the task command is not immediately executed, but is temporarily stored in an unexecuted command storage unit, and the response sentence generation unit is When a response sentence for confirming whether or not the task command may be executed is generated and output to the output unit, and when the user inputs an affirmative answer to the response sentence from the input unit, The task command is taken out from the unexecuted command storage means, the task command is executed by the task execution means, and the response sentence generation means outputs a response sentence of task execution completion. 11. The natural language dialogue processing according to claim 10, wherein when executed by a means, the response sentence generating means creates and outputs a response sentence for canceling an unexecuted task. apparatus.
コマンドの操作をキャンセルするキャンセルコマンドを
記憶するキャンセルコマンド記憶手段をさらに備え、 タスクコマンド実行後該タスクのキャンセルの意味を表
す入力が前記入力手段から行われたときに、前記キャン
セルコマンド記憶手段から前記キャンセルコマンドを読
み出して前記タスク実行手段で前記キャンセルコマンド
を実行するとともに、前記応答文生成手段において、前
記キャンセルコマンドを実行したことを報告する応答文
を生成出力する、ことを特徴とする請求項10又は11
記載の自然言語対話処理装置。12. A system according to claim 11, further comprising a cancel command storing means for storing a cancel command for canceling the operation of the task command executed by said task executing means, wherein the input representing the meaning of the cancellation of the task after the execution of the task command is inputted to said input means. When executed, the cancel command is read from the cancel command storage means, the task execution means executes the cancel command, and the response statement generation means reports a response that the cancel command has been executed. 12. The system according to claim 10, wherein a sentence is generated and output.
Natural language dialogue processing device as described.
ンドを実行してよいか否かを確認するための応答文を生
成して出力した後、時間の経過を測定する時間管理手段
を備え、 前記時間管理手段で計時を開始後、あらかじめ定められ
た所定の時間が経過しても、ユーザからの応答がない場
合には、肯定を表す入力が前記入力手段に入力されたも
のと解釈する、ことを特徴とする請求項11記載の自然
言語対話処理装置。13. A time management means for measuring a lapse of time after the response sentence generating means generates and outputs a response sentence for confirming whether or not the task command may be executed, After starting the timing by the time management means, even if a predetermined time has elapsed, if there is no response from the user, it is interpreted that an input indicating affirmation has been input to the input means, The natural language dialogue processing device according to claim 11, wherein:
てテキストに変換出力する音声認識手段よりなり、前記
出力手段が、前記応答文生成手段で作成された前記応答
文のテキスト情報を入力し音声合成して音声出力手段か
ら出力する音声合成手段よりなる、ことを特徴とする請
求項10乃至13のいずれか一に記載の自然言語対話処
理装置。14. The input means comprises voice recognition means for recognizing the input voice and converting and outputting the text to text, wherein the output means inputs text information of the response sentence created by the response sentence generation means. 14. The natural language dialogue processing device according to claim 10, further comprising a voice synthesis unit that performs voice synthesis and outputs the voice from a voice output unit.
において、 一又は複数の機器の所定の操作を、前記所定の操作を指
示するユーザからの音声入力により行なうことを特徴と
する自然言語対話処理装置。15. The natural language dialogue processing device according to claim 14, wherein a predetermined operation of one or a plurality of devices is performed by a voice input from a user who instructs the predetermined operation. Processing equipment.
について語彙辞書記憶部を参照して解釈を行う自然言語
解析処理と、 (b)前記自然言語解析処理で求められた解釈結果が複
数存在した時に、複数の解釈結果を1つの解釈結果に絞
り込むための手がかりとして用いられる情報を記憶する
曖昧性解消情報記憶部を参照して、前記複数の解釈結果
を1つに絞り込むとともに、前記1つに絞り込んだ解釈
結果に対する確信度を求める曖昧性解消処理と、 (c)前記曖昧性解消処理で絞り込んだ解釈結果を語彙
辞書記憶部を参照して応答文として自動生成し出力手段
から出力し、その際、前記曖昧性解消手段で求められた
前記確信度に応じて応答文を変化させる応答文生成処理
と、 の前記(a)乃至(c)の処理をコンピュータで実行さ
せるためのプログラムを記録した記録媒体。16. A natural language analysis process for interpreting a natural language input from an input means by referring to a vocabulary dictionary storage unit; and b. A plurality of interpretation results obtained in the natural language analysis process. When present, the plurality of interpretation results are narrowed down to one by referring to the disambiguation information storage unit that stores information used as a clue for narrowing down the plurality of interpretation results to one interpretation result. (C) automatically generating, as a response sentence, the interpretation result narrowed down by the ambiguity resolution processing as a response sentence by referring to the vocabulary dictionary storage unit and outputting the result from the output means; At this time, a response sentence generation process of changing a response sentence according to the certainty factor obtained by the ambiguity eliminating means, and the processes (a) to (c) of the following are executed by a computer. Recording medium recording the eye of the program.
けて、該解釈に対応するタスクコマンドを実行する処
理、 を前記コンピュータで実行させるためのプログラムを記
録した記録媒体。17. The recording medium according to claim 16, wherein: (d) receiving the interpretation determined in the disambiguation processing (b), and executing a task command corresponding to the interpretation by the computer. A recording medium on which a program to be executed is recorded.
(b)で求められた確信度に応じて、タスクを実行した
後にタスクの実行を報告する応答文を生成するか、もし
くは、タスクを実行する前にタスクを実行してとよいか
否かを確認するための応答文を生成するかを決定する処
理を含み、前記処理を前記コンピュータで実行させるた
めのプログラムを記録した記録媒体。18. The recording medium according to claim 17, wherein the response sentence generation processing (c) executes the task after executing the task according to the degree of certainty obtained in the ambiguity resolution processing (b). Generating a response sentence that reports, or includes a process of determining whether to generate a response sentence for confirming whether or not to execute the task before executing the task, A recording medium that stores a program to be executed by a computer.
マンドを記憶するキャンセルコマンド記憶部を備え、 (f)キャンセルの意味を表す入力が前記入力手段から
行われたときに、キャンセルコマンドを実行するととも
に、前記応答文生成処理(c)において、キャンセルコ
マンドを実行したことを報告する応答文を生成する処理
を、前記コンピュータで実行させるためのプログラムを
記録した記録媒体。19. The recording medium according to claim 17, further comprising: a cancel command storage unit for storing a task command of an inverse operation to the executed task command, wherein: (f) an input representing the meaning of cancel is transmitted from said input means. When executed, a program for executing a cancel command and causing the computer to execute a process of generating a response sentence reporting that the cancel command has been executed in the response sentence generation process (c) is recorded. Recording medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20253899A JP3662780B2 (en) | 1999-07-16 | 1999-07-16 | Dialogue system using natural language |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20253899A JP3662780B2 (en) | 1999-07-16 | 1999-07-16 | Dialogue system using natural language |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001034289A true JP2001034289A (en) | 2001-02-09 |
JP3662780B2 JP3662780B2 (en) | 2005-06-22 |
Family
ID=16459171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20253899A Expired - Fee Related JP3662780B2 (en) | 1999-07-16 | 1999-07-16 | Dialogue system using natural language |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3662780B2 (en) |
Cited By (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0520982A (en) * | 1991-07-16 | 1993-01-29 | Aichi Denki Seisakusho:Kk | Vacuum selector circuit breaker |
JP2002169590A (en) * | 2000-12-01 | 2002-06-14 | Namco Ltd | System and method for simulated conversation and information storage medium |
JP2002287793A (en) * | 2001-03-28 | 2002-10-04 | Just Syst Corp | Method, device, and program for command processing |
JP2002304192A (en) * | 2001-04-05 | 2002-10-18 | Denso Corp | Voice recognition device |
JP2005181386A (en) * | 2003-12-16 | 2005-07-07 | Mitsubishi Electric Corp | Device, method, and program for speech interactive processing |
JP2005300989A (en) * | 2004-04-13 | 2005-10-27 | Mitsubishi Electric Corp | Speech recognition system |
JP2006146182A (en) * | 2004-11-16 | 2006-06-08 | Microsoft Corp | Centralized method and system for clarifying voice command |
JP2009036999A (en) * | 2007-08-01 | 2009-02-19 | Infocom Corp | Interactive method using computer, interactive system, computer program and computer-readable storage medium |
US7516077B2 (en) | 2002-07-25 | 2009-04-07 | Denso Corporation | Voice control system |
WO2013190956A1 (en) * | 2012-06-19 | 2013-12-27 | 株式会社エヌ・ティ・ティ・ドコモ | Function execution instruction system, function execution instruction method, and function execution instruction program |
JP2015018265A (en) * | 2011-09-28 | 2015-01-29 | アップル インコーポレイテッド | Speech recognition repair using contextual information |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US9632650B2 (en) | 2006-03-10 | 2017-04-25 | Microsoft Technology Licensing, Llc | Command searching enhancements |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
WO2017145373A1 (en) * | 2016-02-26 | 2017-08-31 | 三菱電機株式会社 | Speech recognition device |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
JP2019523907A (en) * | 2016-06-07 | 2019-08-29 | グーグル エルエルシー | Non-deterministic task start with personal assistant module |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
JP2019185360A (en) * | 2018-04-09 | 2019-10-24 | 富士ゼロックス株式会社 | Image processing device and program |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
JP2020505643A (en) * | 2017-02-15 | 2020-02-20 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Voice recognition method, electronic device, and computer storage medium |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05216618A (en) * | 1991-11-18 | 1993-08-27 | Toshiba Corp | Voice interactive system |
JPH09171394A (en) * | 1995-11-06 | 1997-06-30 | Thomson Multimedia Sa | Voice discrimination system for apparatus at inside of home environment |
JPH11143489A (en) * | 1997-11-10 | 1999-05-28 | Sony Corp | Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function |
-
1999
- 1999-07-16 JP JP20253899A patent/JP3662780B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05216618A (en) * | 1991-11-18 | 1993-08-27 | Toshiba Corp | Voice interactive system |
JPH09171394A (en) * | 1995-11-06 | 1997-06-30 | Thomson Multimedia Sa | Voice discrimination system for apparatus at inside of home environment |
JPH11143489A (en) * | 1997-11-10 | 1999-05-28 | Sony Corp | Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function |
Cited By (90)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0520982A (en) * | 1991-07-16 | 1993-01-29 | Aichi Denki Seisakusho:Kk | Vacuum selector circuit breaker |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
JP2002169590A (en) * | 2000-12-01 | 2002-06-14 | Namco Ltd | System and method for simulated conversation and information storage medium |
JP2002287793A (en) * | 2001-03-28 | 2002-10-04 | Just Syst Corp | Method, device, and program for command processing |
JP2002304192A (en) * | 2001-04-05 | 2002-10-18 | Denso Corp | Voice recognition device |
JP4724943B2 (en) * | 2001-04-05 | 2011-07-13 | 株式会社デンソー | Voice recognition device |
US7516077B2 (en) | 2002-07-25 | 2009-04-07 | Denso Corporation | Voice control system |
JP2005181386A (en) * | 2003-12-16 | 2005-07-07 | Mitsubishi Electric Corp | Device, method, and program for speech interactive processing |
JP2005300989A (en) * | 2004-04-13 | 2005-10-27 | Mitsubishi Electric Corp | Speech recognition system |
US8942985B2 (en) | 2004-11-16 | 2015-01-27 | Microsoft Corporation | Centralized method and system for clarifying voice commands |
US9972317B2 (en) | 2004-11-16 | 2018-05-15 | Microsoft Technology Licensing, Llc | Centralized method and system for clarifying voice commands |
JP2006146182A (en) * | 2004-11-16 | 2006-06-08 | Microsoft Corp | Centralized method and system for clarifying voice command |
US10748530B2 (en) | 2004-11-16 | 2020-08-18 | Microsoft Technology Licensing, Llc | Centralized method and system for determining voice commands |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9632650B2 (en) | 2006-03-10 | 2017-04-25 | Microsoft Technology Licensing, Llc | Command searching enhancements |
JP2009036999A (en) * | 2007-08-01 | 2009-02-19 | Infocom Corp | Interactive method using computer, interactive system, computer program and computer-readable storage medium |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
JP2015018265A (en) * | 2011-09-28 | 2015-01-29 | アップル インコーポレイテッド | Speech recognition repair using contextual information |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
JPWO2013190956A1 (en) * | 2012-06-19 | 2016-05-26 | 株式会社Nttドコモ | Function execution instruction system, function execution instruction method, and function execution instruction program |
WO2013190956A1 (en) * | 2012-06-19 | 2013-12-27 | 株式会社エヌ・ティ・ティ・ドコモ | Function execution instruction system, function execution instruction method, and function execution instruction program |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10657961B2 (en) | 2013-06-08 | 2020-05-19 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
WO2017145373A1 (en) * | 2016-02-26 | 2017-08-31 | 三菱電機株式会社 | Speech recognition device |
JPWO2017145373A1 (en) * | 2016-02-26 | 2018-08-09 | 三菱電機株式会社 | Voice recognition device |
US10446155B2 (en) | 2016-02-26 | 2019-10-15 | Mitsubishi Electric Corporation | Voice recognition device |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
JP2019523907A (en) * | 2016-06-07 | 2019-08-29 | グーグル エルエルシー | Non-deterministic task start with personal assistant module |
US11069347B2 (en) | 2016-06-08 | 2021-07-20 | Apple Inc. | Intelligent automated assistant for media exploration |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
JP2020505643A (en) * | 2017-02-15 | 2020-02-20 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Voice recognition method, electronic device, and computer storage medium |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
JP2019185360A (en) * | 2018-04-09 | 2019-10-24 | 富士ゼロックス株式会社 | Image processing device and program |
Also Published As
Publication number | Publication date |
---|---|
JP3662780B2 (en) | 2005-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001034289A (en) | Interactive system using natural language | |
EP3642834B1 (en) | Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface | |
US9805723B1 (en) | Method for processing the output of a speech recognizer | |
US6952665B1 (en) | Translating apparatus and method, and recording medium used therewith | |
US6327566B1 (en) | Method and apparatus for correcting misinterpreted voice commands in a speech recognition system | |
US20020178005A1 (en) | System and method for adaptive language understanding by computers | |
JP4729902B2 (en) | Spoken dialogue system | |
CN110021293B (en) | Voice recognition method and device and readable storage medium | |
JP2007093789A (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
JPH07219961A (en) | Voice interactive system | |
US11823664B2 (en) | Correcting speech misrecognition of spoken utterances | |
JP2007041319A (en) | Speech recognition device and speech recognition method | |
US11942091B2 (en) | Alphanumeric sequence biasing for automatic speech recognition using a grammar and a speller finite state transducer | |
US11532301B1 (en) | Natural language processing | |
JP2002207496A (en) | Speech processing system | |
JPH09127978A (en) | Voice recognition method, device therefor, and computer control device | |
Kumar et al. | Enabling the rapid development and adoption of speech-user interfaces | |
KR20230158107A (en) | Efficient streaming non-circular on-device end-to-end model | |
US11626107B1 (en) | Natural language processing | |
US7272560B2 (en) | Methodology for performing a refinement procedure to implement a speech recognition dictionary | |
JP2024512071A (en) | Multilingual rescoring model for automatic speech recognition | |
JP2003162524A (en) | Language processor | |
JP4537755B2 (en) | Spoken dialogue system | |
US20230206910A1 (en) | Method and system for recognizing a user utterance | |
Christina et al. | Powerpoint Controller using Speech Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20030603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050324 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080401 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090401 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100401 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110401 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120401 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120401 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130401 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130401 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140401 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |