JP2009193448A - Dialog system, method, and program - Google Patents
Dialog system, method, and program Download PDFInfo
- Publication number
- JP2009193448A JP2009193448A JP2008034743A JP2008034743A JP2009193448A JP 2009193448 A JP2009193448 A JP 2009193448A JP 2008034743 A JP2008034743 A JP 2008034743A JP 2008034743 A JP2008034743 A JP 2008034743A JP 2009193448 A JP2009193448 A JP 2009193448A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- utterance
- extraction
- dialogue
- target location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は対話システム、方法及びプログラムに関し、例えば、対話型の情報検索装置に適用し得るものである。 The present invention relates to an interactive system, method, and program, and can be applied to, for example, an interactive information search apparatus.
従来、人間の発話を解析して述語及びそれに対応する格要素を識別(抽出)して、それらを用いて応答する装置として、特許文献1に記載の応答生成装置がある。この従来装置では、ユーザの発話「…リビングのサイドボードとかを全部作ったの。」に対して、システム(装置)の発話「サイドボードを作ったの?」という応答を実現する。特許文献1に記載の装置では、システムの発話候補は複数用意されるため、ランダムに選択するか、あるいは、(発話候補の生成方法によって分類されたグループに対して)優先度を自由に設定して選択することができる。
ところで、対話型の情報検索装置として、特許出願人は、ラダリング型検索装置を研究、開発している。すなわち、装置がユーザとの対話の中で、徐々に掘り下げた質問を繰り返すことにより、ユーザのニーズや価値観を引き出し、引き出した情報とマッチするサービスやコンテンツなどを探し出す装置を研究、開発している。ユーザのニーズや価値観を適切に引き出すためには、自然な対話で寄り添い感(親しみ)をユーザに抱かせることが求められる。 By the way, as an interactive information search device, the patent applicant has been researching and developing a laddering type search device. In other words, the device researches and develops a device that draws out the needs and values of the user and searches for services and contents that match the extracted information by repeating questions that are gradually delved into the dialogue with the user. Yes. In order to appropriately draw out the user's needs and values, it is required that the user have a close feeling (familiarity) with natural dialogue.
しかしながら、上述した従来装置は、述語及びそれに対応する格要素を識別(抽出)してそれらを用いて応答する方法であり、応答の生成方法が限定的であって、寄り添い感を効果的に演出することができない。 However, the above-described conventional apparatus is a method of identifying (extracting) predicates and corresponding case elements and responding using them, and the method of generating responses is limited, effectively producing a close feeling. Can not do it.
また、従来装置では、述語や格要素は中心語だけを残し、修飾語句は応答には使われていない。述語に組み合わせる格要素は1候補には1つしか使われていない。そのため、対話の自然さを十分に保証することはできていない。 In the conventional apparatus, the predicate and case element leave only the central word, and the modifier is not used for the response. Only one case element can be combined with a predicate. For this reason, the naturalness of dialogue cannot be sufficiently guaranteed.
さらに、ラダリング型検索装置では、ユーザからの情報入手を目的とした発話(ユーザへの質問の類)をいくつか用意し、システムが主導して話を転じることが必要となるが、従来装置では、システムからの発話は「ユーザからの発話を受けた応答」あるいは「単純な相槌」であり、どのようにシステムが主導して話を転じるかを開示も示唆も行っていない。 Furthermore, in the ladder type search device, it is necessary to prepare several utterances (a kind of questions to the user) for the purpose of obtaining information from the user, and the system must take the initiative to turn the story. The utterance from the system is “response received from the user” or “simple interaction”, and does not disclose or suggest how the system leads the conversation.
さらにまた、従来装置では、ユーザの使った語彙のみしか利用できず、応答が単調になってしまう。 Furthermore, in the conventional apparatus, only the vocabulary used by the user can be used, and the response becomes monotonous.
また、従来装置では、述語も格要素も存在しなかったときには、単独で単純な相槌(「へえ」や「そうなんだ」)が出現するだけであり、寄り添い感の演出としては強いものではない。 In addition, in the conventional apparatus, when neither a predicate nor a case element exists, a simple conflict ("hee" or "yes") appears only, and it is not strong as an effect of closeness.
そのため、人間に対する寄り添い感を十分に演出できる、自然な対話(応答)を実現できる対話システム、方法及びプログラムが望まれている。 Therefore, there is a demand for a dialogue system, method, and program that can realize a natural dialogue (response) that can sufficiently produce a sense of closeness to humans.
第1の本発明は、人間とのインターフェースを行う装置との間で自然言語文のデータを授受して人間と対話する対話システムにおいて、人間の発話を解析する解析部と、上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定する対象箇所認定部と、上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する抽出部とを有することを特徴とする。 The first aspect of the present invention uses an analysis unit for analyzing a human utterance and a result of the analysis in a dialog system in which a natural language sentence data is exchanged with a device that interfaces with a human to interact with the human. Then, from the human utterance so that the system utterance becomes an appropriate length based on the target location, and the target location recognition unit for identifying the target location for extracting the elements for the system to utter from the human utterance And an extraction unit for extracting elements.
第2の本発明は、人間とのインターフェースを行う装置と対話システムとが自然言語文のデータを授受して人間と対話する対話方法において、上記対話システムは、解析部、対象箇所認定部及び抽出部を備え、上記解析部が、人間の発話を解析し、上記対象箇所認定部が、上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定し、上記抽出部が、上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出することを特徴とする。 According to a second aspect of the present invention, there is provided a dialogue method in which a device for interfacing with a human being and a dialogue system exchange natural language sentence data and interact with a human, wherein the dialogue system includes an analysis unit, a target location recognition unit, and an extraction unit. The analysis unit analyzes a human utterance, the target location recognition unit uses the analysis result, and the target location for extracting elements for the system to utter from the human utterance. The extraction unit extracts the elements from the human utterance so that the system utterance becomes an appropriate length based on the target portion.
第3の本発明の対話プログラムは、人間とのインターフェースを行う装置との間で自然言語文のデータを授受して人間と対話する対話システムを構築するコンピュータを、人間の発話を解析する解析部と、上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定する対象箇所認定部と、上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する抽出部として機能させることを特徴とする。 According to a third aspect of the present invention, there is provided a computer program for constructing a dialog system for interacting with humans by transferring natural language sentence data to and from a device that interfaces with humans, and an analysis unit for analyzing human speech. And using the above analysis results, the system utterance has an appropriate length based on the target location recognition unit for identifying the target location for extracting the elements for the system to utter from the human utterance and the target location. It is made to function as an extraction part which extracts an element from human speech so that it may become.
本発明によれば、人間発話における表現などに応じて、オウム返しで利用する箇所の選定やオウム返しでの長さ(語数)などを変更するようにしたので、人間に対する寄り添い感を十分に演出できる、自然な対話(応答)を実現できる対話システム、方法及びプログラムを提供できる。 According to the present invention, the selection of the location to be used for parrot return and the length (number of words) for the parrot return are changed according to the expression in human speech, etc., so that a sense of closeness to humans can be sufficiently produced. It is possible to provide a dialogue system, method and program capable of realizing a natural dialogue (response).
(A)第1の実施形態
以下、本発明に係る対話システム、方法及びプログラムの第1の実施形態を、図面を参照しながら詳述する。
(A) First Embodiment Hereinafter, a first embodiment of an interactive system, method and program according to the present invention will be described in detail with reference to the drawings.
(A−1)第1の実施形態の構成
図1は、第1の実施形態に係る対話システム10の主たる構成を示す機能ブロック図である。図1は、ユーザ発話を入力とし、システム発話を生成する構成部分を示している。
(A-1) Configuration of the First Embodiment FIG. 1 is a functional block diagram showing the main configuration of the
対話システム10は、例えば、ラダリング型検索装置等のより大きな装置の一部として構築されたものであっても良い。また、対話システム10は、PC(パソコン)やサーバ等の汎用的な情報処理装置に対話プログラム(固定データ等を含む)をインストールすることにより構築されたものであっても良い。いずれにせよ、機能的には、図1の構成で表すことができる。対話プログラムのインストールは、通信網を介したダウンロードによる方法に限らず、コンピュータが読取可能な記録媒体を介する方法であっても良い。例えば、転職先を検索して提供する機能を有するラダリング型検索装置の一部として利用される場合であれば、転職先提供用のサイトを提供するWebサーバ上に、対話システム10が搭載されることとなる。
The
図1において、第1の実施形態の対話システム10は、解析部11、対象箇所認定部12、抽出部13及び変形部14を有する。対象箇所認定部12、抽出部13及び変形部14は、オウム返し応答生成部15を構成している。
In FIG. 1, the
対話システム10には、自然言語文でなるユーザ発話が入力される。例えば、ユーザがユーザ端末であるパソコン上に表示されたWebページ上における、発話文入力用のフィールドに入力した自然言語文(テキスト)が対話システム10に入力される。また例えば、当該対話システム10の搭載装置がキーボードなどの入力装置を備えてユーザ発話を取り込むようにしても良い。さらに例えば、ユーザ端末のマイクロフォン若しくは当該対話システム10の搭載装置のマイクロフォンが捕捉した音声(音声信号)を認識処理してユーザ発話を取り込むようにしても良い。
The
解析部11は、ユーザ発話に対し、形態素解析や構文解析を行い、単語(形態素)に分け、文の構造を明らかにするものである。形態素解析や構文解析には、既存の解析方法を適用することができる。
The
対象箇所認定部12は、ユーザ発話の中で、オウム返しをするのに適当だと判断できる箇所を認定するものである。後述する動作説明で判断基準や判断方法を説明するが、判断基準のいくつかを挙げると、以下の通りである。ユーザ発話における末尾近くの「述語+その目的語若しくは主語」を対象箇所(の候補)とする。ユーザ発話における末尾近くの「名詞+その修飾語」を対象箇所(の候補)とする。ユーザ発話における「無理」、「困る」、「したい」、「できない」などの意思・主観表現、若しくは、それに類した表現を含む数語を対象箇所(の候補)とする。意思・主観表現そのものではなく、「困る」、「したい」の内容の方を記載した箇所を対象箇所(の候補)とする。対象箇所認定部12は、対象箇所(の候補)が複数ある場合には、予め定められているルールに従い、1個の対象箇所に絞り込むことを行う。具体的な方法は、動作の項で明らかにする。
The target
抽出部13は、対象箇所認定部12が認定したユーザ発話における対象箇所及びその近傍から、オウム返しで自然な長さになる部分(構文木でのサブツリー)を抽出(選択)するものである。動作の項で後述するように、表現の種類によって定まっている標準長さ(例えば、3語)から大幅に外れないような語数(4語や2語)ならば許容する。なお、標準長さではなく上限の語数を設定し、オウム返しでの自然な長さを担保するようにしても良い(短い場合に無理に増やすことを実行しない)。抽出部13は、抽出した部分(構文木でのサブツリー)が長い方で許容できない長さである場合には、短縮化も行う。短縮化では、所定のルールに従って、目的語や主語を落としたり、修飾語を落としたりする。
The
変形部14は、抽出部13が得たオウム返し用部分が、所定ルールに該当する場合には、表現を変形(又は整形)するものである。例えば、時制を変換したり、敬語表現に変換したりする。また、名詞(句)が抽出された場合であれば、「ですね?」や「ですね。」を付加したりする。
The
変形部14の処理を得たオウム返し用部分(自然言語文)がシステム発話となる。システム発話は、例えば、ユーザ端末であるパソコン上に表示されたWebページ上に盛り込まれて表示される。また例えば、当該対話システム10の搭載装置が表示装置を備えてシステム発話を表示するようにしても良い。さらに例えば、テキストデータでなるシステム発話に対し、音声合成を施し、ユーザ端末のスピーカ若しくは当該対話システム10の搭載装置のスピーカからシステム発話の音声(音声信号)を発声させるようにしても良い。
The parrot return part (natural language sentence) obtained by the processing of the deforming
なお、解析部11、対象箇所認定部12、抽出部13及び変形部14は、例えば、専用の制御デバイス、あるいは、プログラムを実行するプロセッサ(CPU)と、そのプロセッサで実行するプログラムとデータを記憶するRAM(Random Access Memory)、ROM、HDDなどの記憶デバイスを含むハードウエア資源で実現される。
The
また、上記では、機能別に説明したが、実現するハードウエアの物理構成が各部分毎に明確に分離され、独立に用意されている必要はない。例えば、対象箇所認定部12のプログラムを格納するHDDは、解析部11の解析用辞書データを格納するHDDと共通のものであっても良く、さらには他の機能を実現する装置の一部を利用しても良い。また、当該対話システム10を構成する一部は、ネットワークで接続された他の場所に配置されていても良い。
In the above description, each function is described. However, the physical configuration of the hardware to be realized is clearly separated for each part and does not need to be prepared independently. For example, the HDD that stores the program of the target
(A−2)第1の実施形態の動作
次に、以上の各部を有する第1の実施形態に係る対話システム10の動作(第1の実施形態に係る対話方法)を、図面を参照しながら説明する。図2は、第1の実施形態に係る対話システム10の動作を示すフローチャートである。
(A-2) Operation of the First Embodiment Next, the operation of the
第1の実施形態に係る対話システム10は、ユーザ発話が入力されると、図2に示す処理を開始し、解析部11による形態素解析・構文解析(S100)、対象箇所認定部12による対象箇所認定(S101)、抽出部13による抽出(S102)、変形部14による変形(整形)(S103)を順に実行し、システム発話を形成する。以下では、各ステップS100、S101、S102、S103の処理を詳述する。
The
解析部11は、公知の解析方法によって形態素解析及び構文解析を行う(S100)。図3は、ユーザ発話が「人と接しながら自分が人間として成長できる仕事がしたい」に対する形態素解析結果を示しており、図4は、その形態素解析結果に対する構文解析結果(構文木)を示している。
The
対象箇所認定部12は、内蔵する図5に示す認定用特殊表現リストを利用しながら、オウム返しの対象箇所を認定する(S101)。
The target
認定用特殊表現リストは、図5に示すように、グループ名称、具体的な特殊表現、抽出中心を規定している。 As shown in FIG. 5, the special expression list for authorization defines a group name, a specific special expression, and an extraction center.
第1行L11は、ユーザ発話に、「たい」、「希望する」、…などの特殊表現(リストには現在形、原形などで記述しているが、ユーザ発話に、他の形式で含まれている場合も該当する;他の行も同様)が含まれている場合は、「意思表現」のグループに属し、その「たい」、「希望する」などを述部とする主部の中核名詞を抽出の中心に据えることを表している。図4の解析結果例は、「たい」を含むので、この場合に該当し、主部の中核名詞である「仕事」を抽出の中心とすることになる。 The first line L11 is a special expression such as “I want”, “I want”,... In the user utterance (the list is described in the present form, the original form, etc., but is included in the user utterance in other forms. Is included; the same applies to other lines), it belongs to the group of “intention expressions” and is the main noun of the main part whose predicate is “I want” or “I want” Represents the center of extraction. Since the example of the analysis result in FIG. 4 includes “tai”, this corresponds to this case, and “work”, which is the main noun of the main part, is set as the center of extraction.
第2行L12は、ユーザ発話に、「困る」、「無理」、「できる」…などの特殊表現が含まれている場合は、「主観表現」のグループに属し、その「困る」、「無理」、「できる」などの直前の係り要素における中核名詞を抽出の中心に据えることを表している。図4の解析結果例は、「できる」を含むので、この場合に該当し、直前の係り要素における中核名詞である「成長」を抽出の中心とすることになる。また、ユーザ発話が「…残業が少ないところでないと困ります」であれば、「ところ」を抽出の中心とすることになる。 The second row L12 belongs to the “subjective expression” group when the user utterance includes special expressions such as “problematic”, “impossible”, “can do”, and so on. This indicates that the core noun in the immediately preceding dependency element such as “” or “can” is placed at the center of extraction. The example of the analysis result in FIG. 4 includes “can”, and thus corresponds to this case, and “growth” that is the core noun in the immediately preceding dependency element is the center of extraction. Also, if the user utterance is “... I am in trouble if there is little overtime”, “Place” will be the center of extraction.
第3行L13は、ユーザ発話に、「気づく」、「経験する」…などの特殊表現が含まれている場合は、「活動表現」のグループに属し、その「気づく」、「経験する」等の特殊表現(中核用言)そのものを抽出の中心に据えることを表している。例えば、ユーザ発話が「…活かせる仕事だって気づいたんです」であれば、「気づく」を抽出の中心とすることになる。 The third row L13 belongs to the group of “activity expression” when a special expression such as “notice”, “experience”, etc. is included in the user utterance, and “notice”, “experience”, etc. This means that the special expression (core vocabulary) itself is placed at the center of extraction. For example, if the user's utterance is “… I noticed that it is a work that can be utilized,” “notice” will be the center of extraction.
第4行L14は、ユーザ発話に、「ある」、「ない」…などの特殊表現が含まれている場合は、「有無表現」のグループに属し、その「ある」、「ない」等の特殊表現を述部とする主部の中核名詞を抽出の中心に据えることを表している。例えば、ユーザ発話が「…伸びているところの方が社内の勢いがありそうだから」であれば、「勢い」を抽出の中心とすることになる。 The fourth row L14 belongs to the “presence / absence expression” group when the user utterance includes special expressions such as “Yes”, “No”, etc., and the special utterances such as “Yes”, “No”, etc. This means that the main core nouns whose expressions are predicates are placed at the center of extraction. For example, if the user's utterance is “... the place where it is growing seems to have momentum in the company”, “momentum” will be the center of extraction.
対象箇所認定部12は、図5の認定用特殊表現リスト中の「具体的な特殊表現」に記載されている表現が、上述した解析結果に存在するか否かを確認する。存在する場合には、対象箇所認定部12は、特殊表現リスト中の該当行の「抽出中心」にあたる解析結果(ユーザ発話)の箇所を対象箇所と認定する。認定された対象箇所が複数個存在する場合には、構文解析結果において、主文の述部に最も近い方を選択する。すなわち、出現した文字列としての距離ではなく、構文解析結果における距離に鑑みて選択する。図4の構文解析結果では、特殊表現リストとの照合では、特殊表現「たい」に係る対象箇所「仕事」と、特殊表現「できる」に係る対象箇所「成長」とがあるが、主文の述部「したい」との距離が短い対象箇所は、図4から明らかなように、「仕事」であるので、対象箇所「仕事」を抽出の中心に据える。
The target
抽出部13は、内蔵する図6に示す抽出用特殊表現リストを利用しながら、オウム返しで利用するユーザ発話部分を抽出する(S102)。抽出部13は、基本的には、対象箇所認定部12が認定した、対象箇所の抽出中心の語(群)をルートとするサブツリー(構文解析の結果できるツリー状の一群)を取り出すことで、オウム返しで利用するユーザ発話部分を抽出する。抽出部13は、取り出したユーザ発話部分が、抽出用特殊表現リストにおける後述する語数目安に基づいて定まる上限語数以内に収まっているか否かを判別し、収まっている場合には、取り出したユーザ発話部分をそのまま抽出結果とし、収まっていない場合には、抽出用特殊表現リストにおける後述する抽出(要素選択)ルールに従って、取り出したユーザ発話部分から一部の表現を削減して上限語数以下にし、削減後のユーザ発話部分を抽出結果とする。
The
抽出用特殊表現リストは、図6に示すように、グループ名称、語数目安、抽出ルールを規定している。 As shown in FIG. 6, the special expression list for extraction defines group names, word count guidelines, and extraction rules.
第1行L21は、「意思表現」グループに属している所定箇所の語数目安が5であって、この語数目安に基づいて定まる上限個数より、取り出したユーザ発話部分(サブツリー)の語数が多い場合には、以下のようにして語数削減を行うことを記述している。削減は、第1に、抽出中心(図5参照)に対する修飾要素のうち、(係りの)遠い方から削除する、第2に、遠さが同じ場合には、主格、目的格などの格要素以外のものを削除する。第3に、格要素の観点も同じ場合には、出現文字列上での遠い方を削除する、という方法を適用する。ここでの削除は、単語若しくはサブツリーの枝を最小単位として行い、上限個数以内に収まるまで、第1〜第3のルールに従う削減を繰り返す。例えば、上限個数を語数目安+1語とすると、「意思表現」グループについての上限語数は6語となる。 In the first row L21, the number of words in a predetermined part belonging to the “intention expression” group is 5, and the number of extracted user utterance parts (subtrees) is larger than the upper limit number determined based on this word number guide Describes how to reduce the number of words as follows. The first reduction is to delete the modification elements for the center of extraction (see FIG. 5) from the (distant) far side. Second, if the distances are the same, the case elements such as the main case and the target case Remove anything other than. Third, when the case elements have the same viewpoint, the method of deleting the far side on the appearance character string is applied. The deletion here is performed by using a word or a sub-tree branch as a minimum unit, and repeating the reduction according to the first to third rules until it falls within the upper limit number. For example, if the upper limit number is the word count guideline + 1 word, the upper limit word count for the “intention expression” group is 6.
図4の構文解析結果に対し、上述したように、「仕事」が抽出中心であってルートとなるので、オウム返し用のユーザ発話部分(サブツリー)の取り出しでは、「自分が人間として成長できる仕事」(7語)が取り出される。上限個数の6個を越えているので、一部の削除を行う。ここで、「自分が」と「人間として」は「仕事」に対する係りの遠さは同レベルだが、格要素以外を削除という第2のルールにより、ガ格(主格)の「自分が」を残し、「人間として」を削除する。これにより、語数は5となって上限個数(6)以内となるので、この削除を行った段階を抽出結果とする。すなわち、「自分が成長できる仕事」が抽出結果となる。この抽出結果は、ユーザ発話の連続した一部分ではなく、2箇所の部分を繋げたものとなっている。 In the parsing result of FIG. 4, as described above, “work” is the extraction center and becomes the root. Therefore, when extracting the user utterance part (subtree) for parrot return, “work that can grow as a human being” "(7 words) is taken out. Since the upper limit of 6 has been exceeded, some deletions are made. Here, “I am” and “As a human being” have the same level of reliance on “work”, but the second rule of deleting all but the case element leaves the “I” of the case , Delete "as a human". As a result, the number of words becomes 5 and is within the upper limit number (6), and the stage where this deletion is performed is taken as the extraction result. In other words, “work that I can grow” is the extraction result. This extraction result is not a continuous part of the user's utterance but a connection between two parts.
以上では、語数目安からのずれを許容できないのが語数が多い場合だけとしたが、語数目安から少ない場合には、追加させるようにしても良い(図6のいずれの行について同様である)。追加ルールは、削除の際のルールと対称的なものとすれば良い。例えば、第1に、抽出中心(図5参照)に対する修飾要素のうち、(係りの)近い方を追加する、第2に、近さが同じ場合には、主格、目的格などの格要素を優先させて追加する、第3に、格要素の観点も同じ場合には、出現文字列上での近い方を追加する、という方法を適用する。 In the above description, the deviation from the word count guideline is not allowed only when the number of words is large, but when the word count guideline is small, it may be added (the same applies to any row in FIG. 6). The added rule may be symmetric with the rule for deletion. For example, firstly, add the closest one of the modification elements for the extraction center (see FIG. 5). Second, if the proximity is the same, add case elements such as the main case and the purpose case. Third, when the case elements have the same viewpoint, the method of adding the closest one on the appearance character string is applied.
抽出用特殊表現リストの第2行L22は、「主観表現」グループに属している所定箇所の語数目安が2であって、この語数目安に基づいて定まる上限個数より、取り出したユーザ発話部分(サブツリー)の語数が多い場合には、抽出中心(図5参照)に対する修飾要素のうち、(係りの)遠い方から削除することを記述している。但し、以下の二つを例外とする。修飾要素に用言がある場合には、例外的に、その主格と目的格に相当する要素は削除しない。削除した結果、中核名詞だけになってしまう場合には、削除せずに、語数オーバーのまま抽出結果とする。 The second row L22 of the special expression list for extraction has a word number guideline of a predetermined location belonging to the “subjective expression” group, and the extracted user utterance portion (subtree) is extracted from the upper limit number determined based on this word number guideline. ) Is deleted from the farther (relative) of the modifiers for the extraction center (see FIG. 5). However, there are two exceptions. In cases where there is a precaution in the modifier, the elements corresponding to the principal and purpose are not deleted. As a result of deletion, if it becomes only the core noun, it is not deleted, but the extraction result is left as it is.
ユーザ発話が「…残業が少ないところでないと困ります」であれば、上述したように、「ところ」が抽出中心となり、「残業が少ないところ」(4語)がオウム返し用のユーザ発話部分(サブツリー)として、まず、取り出される。サブツリーの語数は、上限個数を超えているので、「残業が」が遠いので削除をしたいところだが、「残業が」に対して「少ない」という用言があるので、「残業が」は削除しない。語数に収めるためには、「残業が少ない」全部を削除するしかないが、そうすると中核名詞「ところ」だけになってしまうので、語数オーバーを認めて、「残業が少ないところ」を最終的な抽出結果とする。 If the user's utterance is “... I am in trouble if there is not too much overtime,” as described above, “Place” will be the center of extraction, and “Location with less overtime” (4 words) will be the user utterance part for returning parrots (4 words) First, it is extracted as a subtree. Since the number of words in the sub-tree exceeds the upper limit, “Overtime” is far away, so I want to delete it, but there is a saying that “Overtime” is “less”, so “Overtime” is not deleted. . In order to fit in the number of words, all you have to do is delete all `` less overtime '', but then it will only be the core noun `` Place '', so accept the word number over and finally extract `` Place with less overtime '' As a result.
抽出用特殊表現リストの第3行L23は、「活動表現」グループに属している所定箇所の語数目安が1であって、抽出中心(図5参照)と認定された中核用言のみを抽出結果とすることを記述している。 The third row L23 of the special expression list for extraction is the result of extracting only the core words that are recognized as the extraction center (see FIG. 5) and the word count guideline of the predetermined part belonging to the “activity expression” group is 1. Is described.
例えば、ユーザ発話が「…活かせる仕事だって気づいたんです」であって「気づく」が抽出中心となった場合、「気づく」を特に分割できないので、この中核用言のみを抽出結果とし、削減を実行しない。 For example, if the user ’s utterance is “… I noticed that it was a work that can be utilized,” and “Awareness” was the extraction center, “Awareness” cannot be divided in particular. Do not execute.
抽出用特殊表現リストの第4行L23は、「有無表現」グループに属している所定箇所の語数目安が2であって、この語数目安に基づいて定まる上限個数より、取り出したユーザ発話部分(サブツリー)の語数が多い場合には、抽出中心(図5参照)に対する修飾要素のうち、(係りの)遠い方から削除することを記述している。 The fourth row L23 of the special expression list for extraction has a word number guideline of a predetermined location belonging to the “presence / absence expression” group, and the extracted user utterance portion (subtree) is larger than the upper limit number determined based on this word number guideline. ) Is deleted from the farther (relative) of the modifiers for the extraction center (see FIG. 5).
例えば、ユーザ発話が「…伸びているところの方が社内の勢いがありそうだから」であれって「勢い」が抽出中心であれば、「社内の勢い」(3語)がオウム返し用のユーザ発話部分(サブツリー)として取り出される。「社内の勢い」(3語)は上限個数(3語)以内であるので、「社内の勢い」がそのまま抽出結果となる。なお、構文木は記載していないが、「伸びているところの方が」は「ありそう・・・」に直接係っているので、抽出中心「勢い」から見た場合には抽出の対象外になっている。 For example, if the user's utterance is “... the place where the growth is likely to have internal momentum” and “momentum” is the center of extraction, “internal momentum” (3 words) is for returning parrots. It is extracted as a user utterance part (subtree). Since “in-house momentum” (3 words) is within the upper limit number (3 words), “in-house momentum” becomes the extraction result as it is. Note that the syntax tree is not listed, but “the one that is growing” is directly related to “probably ...”, so when viewed from the extraction center “momentum”, the target of extraction It is outside.
変形部14は、以下のような内部記録している変形ルールなどに従って、抽出部13による抽出結果の文字列を変形(整形)する(S103)。例えば、敬語への変換用の対応表を用意しておいて、見出しがマッチしたときに変形(変換)する。例としては、「気づく」を「気づかれる」(尊敬語)に変換したり、「自分」を「ご自分」(丁寧語)に変換するような対応表を用意しておいて適用したりする。ほかに例えば、抽出結果が名詞(句)で終了している場合であれば、「ですね?」や「ですね。」を付加する。最後に、一般的な形態素生成(形態素解析と逆のプロセス)を実施して、日本語として活用などがおかしくないような形にして出力する。
The
なお、対象箇所認定部12及び抽出部13の処理が終了したときに、抽出できない場合には、オウム返し応答のシステム発話をしないことになる。
In addition, when the process of the object
(A−3)第1の実施形態の効果
第1の実施形態によれば、認定用特殊表現リストを用意しておき、ユーザ発話中の意思・主観表現を探し、意思・主観表現若しくはその周辺の要素を優先的に応答(システム発話)に利用するようにしたので、ユーザに対する寄り添い感を効果的に演出することができる。
(A-3) Effects of the First Embodiment According to the first embodiment, a special expression list for authorization is prepared, the intention / subjective expression in the user's utterance is searched, and the intention / subjective expression or its periphery Since this element is preferentially used for a response (system utterance), it is possible to effectively produce a sense of closeness to the user.
また、第1の実施形態によれば、従来装置とは異なり、単に述語と格要素の中心語を抜き出すだけでなく、優先的に利用する箇所を判断し、どの語若しくはその周辺を応答に利用するかを決めた上で、事前に設定した目安の長さに合うように、要素を削ったり(付け加えたり)するようにしたので、システム応答の長さが自然の長さになって、対話の自然さを保証することができる。 In addition, according to the first embodiment, unlike the conventional apparatus, not only the predicate and the central word of the case element are extracted, but also the preferential word is used and the word or its periphery is used for the response. After deciding whether to do so, the elements were trimmed (added) to match the length of the guideline set in advance, so the length of the system response became a natural length and dialogue Can guarantee the naturalness.
さらに、第1の実施形態によれば、変形部14によって、ユーザ発話から取り出した部分に対して、変形(言い換え処理)を適用して、最終的なオウム返しのシステム発話とするようにしたので、応答が単調になったり不自然になったりすることを防止することができる。
Furthermore, according to the first embodiment, the
以上のように、寄り添い感を効果的に演出すると共に、対話の自然さを保証した結果、対話がはずみ、ユーザから情報を収集し易くなる。 As described above, as a result of effectively producing a close-in feeling and assuring the naturalness of the dialogue, the dialogue is lost and it is easy to collect information from the user.
(B)第2の実施形態
次に、本発明に係る対話システム、方法及びプログラムの第2の実施形態を、図面を参照しながら詳述する。
(B) Second Embodiment Next, a second embodiment of the interactive system, method and program according to the present invention will be described in detail with reference to the drawings.
図7は、第2の実施形態に係る対話システム10Aの主たる構成を示す機能ブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一符号を付して示している。 FIG. 7 is a functional block diagram showing the main configuration of the interactive system 10A according to the second embodiment, in which the same and corresponding parts as those in FIG. 1 according to the first embodiment are denoted by the same reference numerals. Yes.
第2の実施形態に係る対話システム10Aは、第1の実施形態の対話システム10の構成に加え、次話題選択部20及び話題データベース21を有する。
The dialogue system 10A according to the second embodiment includes a next
話題データベース(話題DB)21には、対話シナリオ情報やシステム発話等が格納されている。例えば、転職先を紹介するような検索装置に対話システム10Aが組み込まれている場合であれば、勤務希望地、希望年収、勤務時間(許容できる残業時間を含む)、勤務曜日など、多項目についてのシステム発話を、しかも、各項目について階層的に記憶していると共に(例えば、勤務希望地を問うシステム発話に対し、ユーザ発話で関東地方を希望すれば、より小さいエリアで希望を引き出すシステム発話に移行する)、ある項目内でのシステム発話の移行方法(対話シナリオ)と、ある項目について情報の収集が終了すると、どの項目のシステム発話に移行するかの移行方法(対話シナリオ)などを記憶している。 The topic database (topic DB) 21 stores dialog scenario information, system utterances, and the like. For example, if the dialogue system 10A is incorporated in a search device for introducing a job change destination, there are many items such as desired work location, desired annual income, working hours (including acceptable overtime hours), working days, etc. The system utterances are stored in a hierarchical manner for each item (for example, system utterances that ask the desired work location, and if the user utters the Kanto region, system utterances that draw out hope in a smaller area) The system utterance transition method within a certain item (dialogue scenario), and when the collection of information about a certain item is completed, the transition method (dialogue scenario) of which item the system utterance will be transferred to is memorized. is doing.
第2の実施形態では、対象箇所認定部12は対象箇所の認定をできない場合にはその旨を次話題選択部20に通知し、また、抽出部13も抽出をできない場合にはその旨を次話題選択部20に通知するようになされている。次話題選択部20は、対象箇所認定や抽出が成功しなかった場合には、話題データベース21の格納内容に従い、システム発話(次の話題)を取り出して出力する。
In the second embodiment, if the target
第2の実施形態によれば、第1の実施形態と同様な効果を奏することができ、さらに、システムの主導によって話題を転じることができるという効果をも奏する。言い換えると、オウム返し応答だけでは、他の話題に移行しない恐れがあるが、これを回避することができる。 According to the second embodiment, the same effect as that of the first embodiment can be obtained, and further, the effect that the topic can be changed by the initiative of the system is also achieved. In other words, there is a possibility that it will not shift to another topic only with a parrot return response, but this can be avoided.
(C)第3の実施形態
次に、本発明に係る対話システム、方法及びプログラムの第3の実施形態を、図面を参照しながら詳述する。
(C) Third Embodiment Next, a third embodiment of the interactive system, method and program according to the present invention will be described in detail with reference to the drawings.
図8は、第3の実施形態に係る対話システム10Bの主たる構成を示す機能ブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一符号を付して示している。 FIG. 8 is a functional block diagram showing the main configuration of the dialogue system 10B according to the third embodiment. The same reference numerals are given to the same and corresponding parts as those in FIG. 1 according to the first embodiment. Yes.
第3の実施形態に係る対話システム10Bは、第1の実施形態の対話システム10の構成に加え、換言部30をオウム返し応答生成部15B内に有する。
The dialogue system 10B according to the third embodiment includes a paraphrase
換言部30は、同義語句辞書を内蔵しており、抽出されたユーザ発話部分の全て又は一部の語句が別の表現に入れ替え可能であれば入れ替え、抽出されたユーザ発話部分を、内容が同一の他の表現に置き換えるものである。同義語句辞書は、例えば、ある語句とその言い換え語句をペアにしたデータベースである。例えば、「うまく回る」を見出しとして「スムースに進む」を入れ替え語句として獲得できるようなデータベースである。このデータベースを引くことにより、「仕事はうまく回っている」というフレーズがユーザ発話から抽出された場合に、これを言い換えて「仕事はスムースに進んでいる」にすることができる。
The paraphrasing
変形部14は、換言部30が動作しなかった場合には、抽出部13による抽出結果に対して変形処理を実行し、換言部30が動作した場合には、換言部30から出力された、抽出結果の換言文字列に対して変形処理を実行する。
When the paraphrase
第3の実施形態によれば、第1の実施形態と同様な効果を奏することができ、さらに、ユーザが使った表現を言い換えてシステム発話を形成することもでき、オウム返し応答の単調さを防止することができる。 According to the third embodiment, the same effects as those of the first embodiment can be obtained, and further, the expression used by the user can be rephrased to form a system utterance, and the monotonousness of the parrot return response can be reduced. Can be prevented.
(D)第4の実施形態
次に、本発明に係る対話システム、方法及びプログラムの第4の実施形態を、図面を参照しながら詳述する。
(D) Fourth Embodiment Next, a fourth embodiment of the interactive system, method and program according to the present invention will be described in detail with reference to the drawings.
図9は、第4の実施形態に係る対話システム10Cの主たる構成を示す機能ブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一符号を付して示している。 FIG. 9 is a functional block diagram showing the main configuration of the interactive system 10C according to the fourth embodiment. The same reference numerals are given to the same and corresponding parts as those in FIG. 1 according to the first embodiment. Yes.
第4の実施形態に係る対話システム10Cは、第1の実施形態の対話システム10の構成に加え、フレーム付加部40をオウム返し応答生成部15C内に有する。
The dialogue system 10C according to the fourth embodiment includes a
フレーム付加部40は、付加用フレーム(相槌)を取り出すためのデータベースを内蔵しており、抽出部13の抽出結果の内容(あるいは元々のユーザ発話内容)に応じて、「そうですか」、「つらいですね」、「大変でしたね」、「よかったですね」などの付加用フレーズのうちから適切なものを選択する。例えば、「そうですか」は感情を考慮することなく付加する汎用的なフレームとして利用する。例えば、「できない」、「〜られない」などの見出し語と、「つらいですね」といったフレームをペアにしたデータベースを持っておき、抽出部13が抽出した結果の中にそのデータベースの見出し語があれば、それとペアになっているフレームを選択して変形部14Cに送る。また例えば、図5の認定用特殊表現リストにおけるグループにサブグループを設け(主観表現であれば、「できる」が該当する肯定主観表現や、「困る」、「無理」が該当する否定主観表現)、サブグループ名を、付加用フレーム(相槌)を取り出すためのデータベースの見出し側に利用するようにしても良い。
The
フレーム付加部40における付加用フレーム(相槌)を取り出すためのデータベースには、付加対象のオウム返し応答の前に付加するか、付加対象のオウム返し応答の末尾に付加するかを規定する付加位置情報をも格納しておき、フレーム付加部40は、選択フレームと付加位置情報とを変形部14Cに送る。例えば、「そうですか」はオウム返し応答の前に付加するように規定しておき、「つらいですね」はオウム返し応答の末尾に付加するように規定しておく。
In the database for extracting the addition frame (consideration) in the
変形部13Cは、変形処理後のオウム返し応答の前あるいは末尾に、フレーズ付加部40から送られてきたフレーム(相槌)を加えて、システム発話として出力する。
The deforming unit 13C adds the frame (consideration) sent from the
第4の実施形態によれば、第1の実施形態と同様な効果を奏することができ、さらに、複数種類の中から選択したフレーム(相槌)を、オウム返し応答に盛り込むようにしたので、寄り添い感をより強く発揮させることができる。 According to the fourth embodiment, the same effects as those of the first embodiment can be obtained, and furthermore, the frame (contrast) selected from a plurality of types is included in the parrot return response. A feeling can be exhibited more strongly.
(E)第5の実施形態
次に、本発明に係る対話システム、方法及びプログラムの第5の実施形態を、図面を参照しながら詳述する。
(E) Fifth Embodiment Next, a fifth embodiment of the interactive system, method and program according to the present invention will be described in detail with reference to the drawings.
図10は、第5の実施形態に係る対話システム10Dの主たる構成を示す機能ブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一符号を付して示している。 FIG. 10 is a functional block diagram showing the main configuration of the interactive system 10D according to the fifth embodiment. The same reference numerals are given to the same and corresponding parts as those in FIG. 1 according to the first embodiment. Yes.
第5の実施形態に係る対話システム10Dは、第1の実施形態の対話システム10の構成に加え、システム発話確認部50をオウム返し応答生成部15D内に有する。また、第5の実施形態に係る対話システム10Dは、システム発話履歴データベース(システム発話履歴DB)51も構成要素となっている。
The dialogue system 10D according to the fifth embodiment includes a system
システム発話履歴データベース51は、少なくとも直前のシステム発話を格納しているものである。例えば、対話(システム発話及びユーザ発話)履歴を格納しているデータベースを、第5の実施形態のシステム発話履歴データベース51として流用することができる。
The system
システム発話確認部50には、対象箇所認定部12Dから、対象箇所として認定しようとした要素語(図5の抽出中心参照)の情報が与えられる。システム発話確認部50は、対象箇所として認定しようとした要素語が、システム発話履歴データベース51に存在する直前のシステム発話に含まれている語と一致するか否かを確認する。直前のシステム発話に、対象箇所として認定しようとした要素語が含まれていた場合には、システム発話確認部50は、対象箇所認定部12Dに通知し、対象箇所の認定候補から除外させる。
The system
例えば、対象箇所として認定しようとした要素語の候補が1個の場合に、対象箇所の認定候補から除外されたときには、今回のユーザ発話に対して、オウム返し応答をしないことになる。また例えば、対象箇所として認定しようとした要素語の候補が複数の場合に、一部が対象箇所の認定候補から除外されたときには、残った認定候補の中から1つを選択することになる。 For example, if there is one element word candidate to be recognized as the target location and it is excluded from the candidate candidates for the target location, a parrot return response will not be made for the current user utterance. In addition, for example, when there are a plurality of candidate element words to be recognized as target locations, when some are excluded from the candidate candidates for the target location, one of the remaining recognition candidates is selected.
第5の実施形態によれば、第1の実施形態と同様な効果を奏することができ、さらに、オウム返し応答の候補を過去のシステム発話と比較するようにしたので、オウム返し応答によって同一内容のシステム発話が重複することを防止でき、自然な対話を実現させることができる。 According to the fifth embodiment, the same effects as those of the first embodiment can be obtained, and furthermore, the parrot return response candidates are compared with the past system utterances. It is possible to prevent the system utterances from overlapping, and to realize a natural dialogue.
(F)他の実施形態
上記実施形態の説明においても、種々変形実施形態に言及したが、さらに、以下に例示するような変形実施形態を挙げることができる。
(F) Other Embodiments In the description of the above-described embodiment, various modified embodiments have been referred to. However, modified embodiments as exemplified below can be cited.
上記各実施形態の技術的特徴は、組み合わせて適用可能であれば、組み合わせて適用するようにしても良い。 The technical features of the above embodiments may be applied in combination if applicable in combination.
第1の実施形態では、図5に示すような具体的な特殊表現を含む認定用特殊表現リストを利用しながら、オウム返しの対象箇所を認定するものを示したが、これに加え、属性や属性値などを利用して、オウム返しの対象箇所を認定するようにしても良い。例えば、時間属性や地域属性に属する表現を利用して、オウム返しの対象箇所を認定するようにしても良い。ユーザ発話が、「残業は2時間以内でお願いします」でも「30分以内の残業が良いです」でも、「2時間以内」や「30分以内」がオウム返しの対象箇所の認定候補になるように、時間属性で、対象箇所を認定するようにしても良い。属性値についても、図5のような抽出中心や、図6の語数目安や抽出ルールを定めておくことになる。 In the first embodiment, while the special expression list for authorization including the specific special expressions as shown in FIG. 5 is used, the object portion for recognizing the parrot is shown. You may make it authorize the target part of a parrot return using attribute values. For example, a parrot return target location may be recognized using expressions belonging to the time attribute or the regional attribute. Regardless of whether the user's utterance is "Please do overtime within 2 hours" or "Overtime within 30 minutes is good", "Within 2 hours" or "Within 30 minutes" is a candidate for the parrot return target candidate As described above, the target portion may be authorized by the time attribute. As for the attribute value, the extraction center as shown in FIG. 5, the word number standard and the extraction rule as shown in FIG. 6 are determined.
第2の実施形態では、オウム返しし得ない場合に、システム発話を次の話題に切り替えるものを示したが、オウム返しし得る場合にも、システム発話を次の話題に切り替えるようにしても良い。例えば、オウム返し応答の連続回数を計数しておき、連続回数が所定回数に達したときには、次のシステム発話を次の話題に切り替えるようにしても良い。この場合において、次の話題の前にオウム返し応答を付加してシステム発話とするようにしても良い。 In the second embodiment, the system utterance is switched to the next topic when the parrot cannot be returned. However, the system utterance may be switched to the next topic even when the parrot can be returned. . For example, the number of consecutive parrot return responses may be counted, and when the number of consecutive times reaches a predetermined number, the next system utterance may be switched to the next topic. In this case, a parrot return response may be added before the next topic to make a system utterance.
第3の実施形態では、換言先の候補が1つの場合を示したが、同一の換言元に対して複数の換言先の候補を用意しておくようにしても良い。この場合において、換言が最も古く行われた換言先の候補を適用するようにすれば良い。 In the third embodiment, the case where there is one paraphrase destination candidate is shown, but a plurality of paraphrase destination candidates may be prepared for the same paraphrase source. In this case, the oldest paraphrase destination candidate may be applied.
第4の実施形態では、フレーム付加条件が成立したときには常にフレームを付加するものを示したが、付加の連続回数や付加割合などに応じて、フレーム付加条件が成立してもフレームを付加するか否かを決定するようにしても良い。例えば、フレームの付加が2回連続した次のシステム発話ではフレームを付加しないようにする。 In the fourth embodiment, the frame is always added when the frame addition condition is satisfied. However, whether the frame is added even if the frame addition condition is satisfied according to the number of consecutive additions or the addition ratio. It may be determined whether or not. For example, the frame is not added in the next system utterance in which the addition of the frame is continued twice.
第5の実施形態では、対象箇所の要素語候補が、直前のシステム発話に含まれている場合に、候補から除外するものを示したが、直近過去の数回のシステム発話に含まれている場合に、候補から除外するようにしても良い。 In the fifth embodiment, when the element word candidate at the target location is included in the previous system utterance, it is excluded from the candidates, but is included in the most recent system utterances of the last few times. In this case, it may be excluded from the candidates.
10、10A、10B、10C、10D…対話システム、11…解析部、12、12D…対象箇所認定部、13…抽出部、14、14C…変形部、15、15B、15C、15D…オウム返し応答生成部、20…次話題選択部、21…話題データベース、30…換言部、40…フレーム付加部、50…システム発話確認部、51…システム発話履歴データベース。
DESCRIPTION OF
Claims (10)
人間の発話を解析する解析部と、
上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定する対象箇所認定部と、
上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する抽出部と
を有することを特徴とする対話システム。 In a dialogue system that interacts with humans by transferring natural language sentence data to and from devices that interface with humans,
An analysis unit that analyzes human speech,
Using the above analysis results, the target location authorizing unit for authorizing the target location for extracting the elements for the system to utter from human speech,
An interactive system comprising: an extraction unit that extracts an element from a human utterance so that the system utterance has an appropriate length based on the target portion.
上記抽出部の抽出結果に応じて定めるシステム応答に相槌フレームを付加して最終的なシステム応答とすることを特徴とする請求項1〜6のいずれかに記載の対話システム。 When the element word extracted by the extraction unit or a word that triggers a conflict is included in a human utterance, the phrase addition unit further generates a frame of a match corresponding to the phrase,
The dialogue system according to any one of claims 1 to 6, wherein a final system response is obtained by adding a compatibility frame to a system response determined according to an extraction result of the extraction unit.
上記対象箇所認定部は、対象箇所を認定する際に、上記システム発話確認部に問い合わせ、直前数回のシステム発話に含まれている語と一致する場合には対象箇所としないこととすることを特徴とする請求項1〜7のいずれかに記載の対話システム。 The system further includes a system utterance confirmation unit that confirms whether or not the word of the target part that the target part authorization unit is trying to recognize matches the word included in the system utterances of the previous few times.
The target part certifying part makes an inquiry to the system utterance confirmation part when certifying the target part, and if it matches the word included in the system utterance several times before, it shall not be considered as the target part. 8. The interactive system according to claim 1, wherein
上記対話システムは、解析部、対象箇所認定部及び抽出部を備え、
上記解析部が、人間の発話を解析し、
上記対象箇所認定部が、上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定し、
上記抽出部が、上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する
ことを特徴とする対話方法。 In a dialogue method in which a device that interacts with humans and a dialogue system exchange natural language sentence data and interact with humans,
The dialogue system includes an analysis unit, a target location recognition unit, and an extraction unit.
The analysis unit analyzes human speech,
The target location recognition unit uses the analysis result to identify the target location for extracting the elements for the system to utter from human utterances,
A dialogue method, wherein the extraction unit extracts elements from human utterances so that a system utterance has an appropriate length based on the target portion.
人間の発話を解析する解析部と、
上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定する対象箇所認定部と、
上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する抽出部と
して機能させることを特徴とする対話プログラム。 A computer that builds a dialogue system that interacts with humans by sending and receiving natural language sentence data to and from devices that interface with humans.
An analysis unit that analyzes human speech,
Using the above analysis results, the target location authorizing unit for authorizing the target location for extracting the elements for the system to utter from human speech,
An interactive program that functions as an extraction unit that extracts elements from a human utterance so that a system utterance has an appropriate length based on the target portion.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008034743A JP2009193448A (en) | 2008-02-15 | 2008-02-15 | Dialog system, method, and program |
US12/273,556 US20090210411A1 (en) | 2008-02-15 | 2008-11-19 | Information Retrieving System |
CNA2008101763599A CN101510197A (en) | 2008-02-15 | 2008-11-20 | Information retrieving system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008034743A JP2009193448A (en) | 2008-02-15 | 2008-02-15 | Dialog system, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009193448A true JP2009193448A (en) | 2009-08-27 |
Family
ID=41002599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008034743A Pending JP2009193448A (en) | 2008-02-15 | 2008-02-15 | Dialog system, method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2009193448A (en) |
CN (1) | CN101510197A (en) |
Cited By (142)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014048443A (en) * | 2012-08-31 | 2014-03-17 | Nippon Telegr & Teleph Corp <Ntt> | Voice synthesis system, voice synthesis method, and voice synthesis program |
JP2014222514A (en) * | 2010-01-18 | 2014-11-27 | アップル インコーポレイテッド | Intelligent automated assistant |
JP2014229180A (en) * | 2013-05-24 | 2014-12-08 | 学校法人東京電機大学 | Apparatus, method and program for support of introspection, and device, method and program for interaction |
JP2015173857A (en) * | 2014-03-17 | 2015-10-05 | 株式会社東芝 | Electronic apparatus and information processing method |
JP2016024384A (en) * | 2014-07-23 | 2016-02-08 | トヨタ自動車株式会社 | Response production system, response production method, and program |
JP2016045655A (en) * | 2014-08-21 | 2016-04-04 | トヨタ自動車株式会社 | Response generation method, response generation apparatus, and response generation program |
JP2016080980A (en) * | 2014-10-21 | 2016-05-16 | トヨタ自動車株式会社 | Response generation device, response generation method, and response generation program |
JP2016080981A (en) * | 2014-10-21 | 2016-05-16 | トヨタ自動車株式会社 | Response generation device, response generation method, and response generation program |
JP2016090891A (en) * | 2014-11-07 | 2016-05-23 | トヨタ自動車株式会社 | Response generation apparatus, response generation method, and response generation program |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP2017117090A (en) * | 2015-12-22 | 2017-06-29 | 株式会社アイ・ビジネスセンター | Dialogue system and program |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
JP2018160248A (en) * | 2018-05-01 | 2018-10-11 | トヨタ自動車株式会社 | Response generation method, response generation apparatus, and response generation program |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US10108612B2 (en) | 2008-07-31 | 2018-10-23 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
EP3489950A1 (en) | 2017-11-28 | 2019-05-29 | Toyota Jidosha Kabushiki Kaisha | Response sentence generation apparatus, method and program, and voice interaction system |
EP3489951A1 (en) | 2017-11-28 | 2019-05-29 | Toyota Jidosha Kabushiki Kaisha | Voice dialogue apparatus, voice dialogue method, and program |
US10311871B2 (en) | 2015-03-08 | 2019-06-04 | Apple Inc. | Competing devices responding to voice triggers |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10332518B2 (en) | 2017-05-09 | 2019-06-25 | Apple Inc. | User interface for correcting recognition errors |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
JP2019128822A (en) * | 2018-01-25 | 2019-08-01 | 日本電信電話株式会社 | Device, method and program for extracting japanese noun phrase |
US10381016B2 (en) | 2008-01-03 | 2019-08-13 | Apple Inc. | Methods and apparatus for altering audio output signals |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10403283B1 (en) | 2018-06-01 | 2019-09-03 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10431204B2 (en) | 2014-09-11 | 2019-10-01 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10438595B2 (en) | 2014-09-30 | 2019-10-08 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10453443B2 (en) | 2014-09-30 | 2019-10-22 | Apple Inc. | Providing an indication of the suitability of speech recognition |
JP2019185230A (en) * | 2018-04-04 | 2019-10-24 | 学校法人明治大学 | Conversation processing device and conversation processing system and conversation processing method and program |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10497365B2 (en) | 2014-05-30 | 2019-12-03 | Apple Inc. | Multi-command single utterance input method |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10529332B2 (en) | 2015-03-08 | 2020-01-07 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10643611B2 (en) | 2008-10-02 | 2020-05-05 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10684703B2 (en) | 2018-06-01 | 2020-06-16 | Apple Inc. | Attention aware virtual assistant dismissal |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10699717B2 (en) | 2014-05-30 | 2020-06-30 | Apple Inc. | Intelligent assistant for home automation |
US10714117B2 (en) | 2013-02-07 | 2020-07-14 | Apple Inc. | Voice trigger for a digital assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10748546B2 (en) | 2017-05-16 | 2020-08-18 | Apple Inc. | Digital assistant services based on device capabilities |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10789945B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Low-latency intelligent automated assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11010127B2 (en) | 2015-06-29 | 2021-05-18 | Apple Inc. | Virtual assistant for media playback |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11023513B2 (en) | 2007-12-20 | 2021-06-01 | Apple Inc. | Method and apparatus for searching using an active ontology |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US11069336B2 (en) | 2012-03-02 | 2021-07-20 | Apple Inc. | Systems and methods for name pronunciation |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US11127397B2 (en) | 2015-05-27 | 2021-09-21 | Apple Inc. | Device voice control |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US11217251B2 (en) | 2019-05-06 | 2022-01-04 | Apple Inc. | Spoken notifications |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US11231904B2 (en) | 2015-03-06 | 2022-01-25 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US11237797B2 (en) | 2019-05-31 | 2022-02-01 | Apple Inc. | User activity shortcut suggestions |
US11269678B2 (en) | 2012-05-15 | 2022-03-08 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11314370B2 (en) | 2013-12-06 | 2022-04-26 | Apple Inc. | Method for extracting salient dialog usage from live data |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11350253B2 (en) | 2011-06-03 | 2022-05-31 | Apple Inc. | Active transport based notifications |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11468282B2 (en) | 2015-05-15 | 2022-10-11 | Apple Inc. | Virtual assistant in a communication session |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11495218B2 (en) | 2018-06-01 | 2022-11-08 | Apple Inc. | Virtual assistant operation in multi-device environments |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
JP7441583B2 (en) | 2019-08-01 | 2024-03-01 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Conversation flow adaptation methods, systems, and programs in cognitive dialogue |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9471872B2 (en) * | 2012-06-29 | 2016-10-18 | International Business Machines Corporation | Extension to the expert conversation builder |
CN104050295B (en) * | 2014-07-01 | 2018-01-02 | 彩带网络科技(北京)有限公司 | A kind of exchange method and system |
US9836529B2 (en) * | 2014-09-22 | 2017-12-05 | Oracle International Corporation | Semantic text search |
CN104391904B (en) * | 2014-11-14 | 2018-10-12 | 北京中海纪元数字技术发展股份有限公司 | User terminal data quick input method towards household survey and system |
CN108885872A (en) * | 2016-04-11 | 2018-11-23 | 三菱电机株式会社 | Response generating means, dialogue control system and response generation method |
CN107562770A (en) * | 2016-07-01 | 2018-01-09 | 松下知识产权经营株式会社 | Information processing method and recording medium |
CN106446106B (en) * | 2016-09-14 | 2019-03-22 | 深圳市贝克数据有限公司 | Target user's intelligent retrieval matching process |
JP2018054850A (en) * | 2016-09-28 | 2018-04-05 | 株式会社東芝 | Information processing system, information processor, information processing method, and program |
CN106503156B (en) * | 2016-10-24 | 2019-09-03 | 北京百度网讯科技有限公司 | Man-machine interaction method and device based on artificial intelligence |
JP6684233B2 (en) * | 2017-01-12 | 2020-04-22 | 株式会社日立製作所 | Test input information retrieval device and method |
CN108153915B (en) * | 2018-01-29 | 2020-06-23 | 成都嗨学洛子教育科技有限公司 | Internet-based educational information rapid acquisition method |
CN109063215B (en) * | 2018-10-16 | 2020-10-30 | 成都四方伟业软件股份有限公司 | Data retrieval method and device |
CN113544726A (en) * | 2019-03-11 | 2021-10-22 | 株式会社博报堂Dy控股集团 | Mediation device, system, and computer program |
CN111741104B (en) * | 2020-06-18 | 2021-10-08 | 腾讯科技(深圳)有限公司 | Method for determining response message, method for configuring response message, device, equipment and storage medium |
-
2008
- 2008-02-15 JP JP2008034743A patent/JP2009193448A/en active Pending
- 2008-11-20 CN CNA2008101763599A patent/CN101510197A/en active Pending
Cited By (194)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US11928604B2 (en) | 2005-09-08 | 2024-03-12 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US11023513B2 (en) | 2007-12-20 | 2021-06-01 | Apple Inc. | Method and apparatus for searching using an active ontology |
US10381016B2 (en) | 2008-01-03 | 2019-08-13 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
US10108612B2 (en) | 2008-07-31 | 2018-10-23 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US11348582B2 (en) | 2008-10-02 | 2022-05-31 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10643611B2 (en) | 2008-10-02 | 2020-05-05 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US10741185B2 (en) | 2010-01-18 | 2020-08-11 | Apple Inc. | Intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
JP2014222514A (en) * | 2010-01-18 | 2014-11-27 | アップル インコーポレイテッド | Intelligent automated assistant |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US10692504B2 (en) | 2010-02-25 | 2020-06-23 | Apple Inc. | User profiling for voice input processing |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US10417405B2 (en) | 2011-03-21 | 2019-09-17 | Apple Inc. | Device access using voice authentication |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US11350253B2 (en) | 2011-06-03 | 2022-05-31 | Apple Inc. | Active transport based notifications |
US11069336B2 (en) | 2012-03-02 | 2021-07-20 | Apple Inc. | Systems and methods for name pronunciation |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US11269678B2 (en) | 2012-05-15 | 2022-03-08 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
JP2014048443A (en) * | 2012-08-31 | 2014-03-17 | Nippon Telegr & Teleph Corp <Ntt> | Voice synthesis system, voice synthesis method, and voice synthesis program |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US10714117B2 (en) | 2013-02-07 | 2020-07-14 | Apple Inc. | Voice trigger for a digital assistant |
US10978090B2 (en) | 2013-02-07 | 2021-04-13 | Apple Inc. | Voice trigger for a digital assistant |
JP2014229180A (en) * | 2013-05-24 | 2014-12-08 | 学校法人東京電機大学 | Apparatus, method and program for support of introspection, and device, method and program for interaction |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US10657961B2 (en) | 2013-06-08 | 2020-05-19 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US11048473B2 (en) | 2013-06-09 | 2021-06-29 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10769385B2 (en) | 2013-06-09 | 2020-09-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US11314370B2 (en) | 2013-12-06 | 2022-04-26 | Apple Inc. | Method for extracting salient dialog usage from live data |
JP2015173857A (en) * | 2014-03-17 | 2015-10-05 | 株式会社東芝 | Electronic apparatus and information processing method |
US10417344B2 (en) | 2014-05-30 | 2019-09-17 | Apple Inc. | Exemplar-based natural language processing |
US10497365B2 (en) | 2014-05-30 | 2019-12-03 | Apple Inc. | Multi-command single utterance input method |
US10714095B2 (en) | 2014-05-30 | 2020-07-14 | Apple Inc. | Intelligent assistant for home automation |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
US10699717B2 (en) | 2014-05-30 | 2020-06-30 | Apple Inc. | Intelligent assistant for home automation |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10657966B2 (en) | 2014-05-30 | 2020-05-19 | Apple Inc. | Better resolution when referencing to concepts |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10878809B2 (en) | 2014-05-30 | 2020-12-29 | Apple Inc. | Multi-command single utterance input method |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP2016024384A (en) * | 2014-07-23 | 2016-02-08 | トヨタ自動車株式会社 | Response production system, response production method, and program |
JP2016045655A (en) * | 2014-08-21 | 2016-04-04 | トヨタ自動車株式会社 | Response generation method, response generation apparatus, and response generation program |
US9653078B2 (en) | 2014-08-21 | 2017-05-16 | Toyota Jidosha Kabushiki Kaisha | Response generation method, response generation apparatus, and response generation program |
US10431204B2 (en) | 2014-09-11 | 2019-10-01 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10390213B2 (en) | 2014-09-30 | 2019-08-20 | Apple Inc. | Social reminders |
US10438595B2 (en) | 2014-09-30 | 2019-10-08 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10453443B2 (en) | 2014-09-30 | 2019-10-22 | Apple Inc. | Providing an indication of the suitability of speech recognition |
JP2016080981A (en) * | 2014-10-21 | 2016-05-16 | トヨタ自動車株式会社 | Response generation device, response generation method, and response generation program |
JP2016080980A (en) * | 2014-10-21 | 2016-05-16 | トヨタ自動車株式会社 | Response generation device, response generation method, and response generation program |
JP2016090891A (en) * | 2014-11-07 | 2016-05-23 | トヨタ自動車株式会社 | Response generation apparatus, response generation method, and response generation program |
US11231904B2 (en) | 2015-03-06 | 2022-01-25 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10930282B2 (en) | 2015-03-08 | 2021-02-23 | Apple Inc. | Competing devices responding to voice triggers |
US10529332B2 (en) | 2015-03-08 | 2020-01-07 | Apple Inc. | Virtual assistant activation |
US10311871B2 (en) | 2015-03-08 | 2019-06-04 | Apple Inc. | Competing devices responding to voice triggers |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US11468282B2 (en) | 2015-05-15 | 2022-10-11 | Apple Inc. | Virtual assistant in a communication session |
US11127397B2 (en) | 2015-05-27 | 2021-09-21 | Apple Inc. | Device voice control |
US10681212B2 (en) | 2015-06-05 | 2020-06-09 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US11010127B2 (en) | 2015-06-29 | 2021-05-18 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10354652B2 (en) | 2015-12-02 | 2019-07-16 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
JP2017117090A (en) * | 2015-12-22 | 2017-06-29 | 株式会社アイ・ビジネスセンター | Dialogue system and program |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10942703B2 (en) | 2015-12-23 | 2021-03-09 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US11069347B2 (en) | 2016-06-08 | 2021-07-20 | Apple Inc. | Intelligent automated assistant for media exploration |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10942702B2 (en) | 2016-06-11 | 2021-03-09 | Apple Inc. | Intelligent device arbitration and control |
US10580409B2 (en) | 2016-06-11 | 2020-03-03 | Apple Inc. | Application integration with a digital assistant |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US11656884B2 (en) | 2017-01-09 | 2023-05-23 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10741181B2 (en) | 2017-05-09 | 2020-08-11 | Apple Inc. | User interface for correcting recognition errors |
US10332518B2 (en) | 2017-05-09 | 2019-06-25 | Apple Inc. | User interface for correcting recognition errors |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10847142B2 (en) | 2017-05-11 | 2020-11-24 | Apple Inc. | Maintaining privacy of personal information |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10789945B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Low-latency intelligent automated assistant |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10748546B2 (en) | 2017-05-16 | 2020-08-18 | Apple Inc. | Digital assistant services based on device capabilities |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US10909171B2 (en) | 2017-05-16 | 2021-02-02 | Apple Inc. | Intelligent automated assistant for media exploration |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
EP3489950A1 (en) | 2017-11-28 | 2019-05-29 | Toyota Jidosha Kabushiki Kaisha | Response sentence generation apparatus, method and program, and voice interaction system |
US10861458B2 (en) | 2017-11-28 | 2020-12-08 | Toyota Jidosha Kabushiki Kaisha | Response sentence generation apparatus, method and program, and voice interaction system |
US10825455B2 (en) | 2017-11-28 | 2020-11-03 | Toyota Jidosha Kabushiki Kaisha | Voice dialogue apparatus, voice dialogue method, and non-transitory computer readable media |
JP2019101065A (en) * | 2017-11-28 | 2019-06-24 | トヨタ自動車株式会社 | Voice interactive device, voice interactive method and program |
EP3489951A1 (en) | 2017-11-28 | 2019-05-29 | Toyota Jidosha Kabushiki Kaisha | Voice dialogue apparatus, voice dialogue method, and program |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
JP2019128822A (en) * | 2018-01-25 | 2019-08-01 | 日本電信電話株式会社 | Device, method and program for extracting japanese noun phrase |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
JP2019185230A (en) * | 2018-04-04 | 2019-10-24 | 学校法人明治大学 | Conversation processing device and conversation processing system and conversation processing method and program |
JP7252690B2 (en) | 2018-04-04 | 2023-04-05 | 節夫 鶴田 | Conversation processing device, conversation processing system, conversation processing method and program |
JP2018160248A (en) * | 2018-05-01 | 2018-10-11 | トヨタ自動車株式会社 | Response generation method, response generation apparatus, and response generation program |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US11009970B2 (en) | 2018-06-01 | 2021-05-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11495218B2 (en) | 2018-06-01 | 2022-11-08 | Apple Inc. | Virtual assistant operation in multi-device environments |
US10984798B2 (en) | 2018-06-01 | 2021-04-20 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10720160B2 (en) | 2018-06-01 | 2020-07-21 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10403283B1 (en) | 2018-06-01 | 2019-09-03 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10684703B2 (en) | 2018-06-01 | 2020-06-16 | Apple Inc. | Attention aware virtual assistant dismissal |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US10944859B2 (en) | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
US10504518B1 (en) | 2018-06-03 | 2019-12-10 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11217251B2 (en) | 2019-05-06 | 2022-01-04 | Apple Inc. | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11360739B2 (en) | 2019-05-31 | 2022-06-14 | Apple Inc. | User activity shortcut suggestions |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11237797B2 (en) | 2019-05-31 | 2022-02-01 | Apple Inc. | User activity shortcut suggestions |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
JP7441583B2 (en) | 2019-08-01 | 2024-03-01 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Conversation flow adaptation methods, systems, and programs in cognitive dialogue |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
Also Published As
Publication number | Publication date |
---|---|
CN101510197A (en) | 2009-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009193448A (en) | Dialog system, method, and program | |
US8117023B2 (en) | Language understanding apparatus, language understanding method, and computer program | |
US6785651B1 (en) | Method and apparatus for performing plan-based dialog | |
WO2018034118A1 (en) | Dialog system and computer program therefor | |
CA2437620C (en) | Hierarchichal language models | |
KR101762866B1 (en) | Statistical translation apparatus by separating syntactic translation model from lexical translation model and statistical translation method | |
JP4439431B2 (en) | Communication support device, communication support method, and communication support program | |
WO2016067418A1 (en) | Conversation control device and conversation control method | |
JP2000353161A (en) | Method and device for controlling style in generation of natural language | |
JP2003505778A (en) | Phrase-based dialogue modeling with specific use in creating recognition grammars for voice control user interfaces | |
JP2009533728A (en) | Machine translation method and system | |
JP6225012B2 (en) | Utterance sentence generation apparatus, method and program thereof | |
JP2007206888A (en) | Apparatus, method and program for generating answer | |
JP5073024B2 (en) | Spoken dialogue device | |
JP2001344237A (en) | Natural language processor through encoding, and its method | |
KR20170025424A (en) | Paraphrase sentence generation method for a korean language sentence | |
JP3441400B2 (en) | Language conversion rule creation device and program recording medium | |
Chowdhary | Natural language processing | |
KR950013128B1 (en) | Apparatus and method of machine translation | |
CN114492382A (en) | Character extraction method, text reading method, dialog text generation method, device, equipment and storage medium | |
Milhorat et al. | What if everyone could do it? a framework for easier spoken dialog system design | |
JP6843689B2 (en) | Devices, programs and methods for generating contextual dialogue scenarios | |
Raymond et al. | The luna corpus: an annotation scheme for a multi-domain multi-lingual dialogue corpus | |
CN112560497B (en) | Semantic understanding method and device, electronic equipment and storage medium | |
US8635071B2 (en) | Apparatus, medium, and method for generating record sentence for corpus and apparatus, medium, and method for building corpus using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100223 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100426 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101026 |