JP2009193448A - Dialog system, method, and program - Google Patents

Dialog system, method, and program Download PDF

Info

Publication number
JP2009193448A
JP2009193448A JP2008034743A JP2008034743A JP2009193448A JP 2009193448 A JP2009193448 A JP 2009193448A JP 2008034743 A JP2008034743 A JP 2008034743A JP 2008034743 A JP2008034743 A JP 2008034743A JP 2009193448 A JP2009193448 A JP 2009193448A
Authority
JP
Japan
Prior art keywords
unit
utterance
extraction
dialogue
target location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008034743A
Other languages
Japanese (ja)
Inventor
Tokuji Ikeno
篤司 池野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2008034743A priority Critical patent/JP2009193448A/en
Priority to US12/273,556 priority patent/US20090210411A1/en
Priority to CNA2008101763599A priority patent/CN101510197A/en
Publication of JP2009193448A publication Critical patent/JP2009193448A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a dialog system capable of executing a natural dialog (response) which can sufficiently perform rendition of a sense of closeness to human beings. <P>SOLUTION: The dialog system for giving and receiving data of natural language sentences between human beings and a device performing interface to talk with the human beings includes: an analysis part for analyzing utterances of human beings; a target part approval part for approving a target part so as to extract from human utterances elements for the system to utter by using a result of analysis; and an extraction part for extracting elements from the human utterances so that system utterances become appropriately long on the basis of the approved target part. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は対話システム、方法及びプログラムに関し、例えば、対話型の情報検索装置に適用し得るものである。   The present invention relates to an interactive system, method, and program, and can be applied to, for example, an interactive information search apparatus.

従来、人間の発話を解析して述語及びそれに対応する格要素を識別(抽出)して、それらを用いて応答する装置として、特許文献1に記載の応答生成装置がある。この従来装置では、ユーザの発話「…リビングのサイドボードとかを全部作ったの。」に対して、システム(装置)の発話「サイドボードを作ったの?」という応答を実現する。特許文献1に記載の装置では、システムの発話候補は複数用意されるため、ランダムに選択するか、あるいは、(発話候補の生成方法によって分類されたグループに対して)優先度を自由に設定して選択することができる。
特開2007−206888号公報
2. Description of the Related Art Conventionally, there is a response generation device described in Patent Document 1 as a device that analyzes a human utterance, identifies (extracts) a predicate and a case element corresponding to the predicate, and responds using them. This conventional device realizes a response of the system (device) utterance “Did you make a sideboard?” To the user's utterance “… I made all the sideboards in the living room”. In the apparatus described in Patent Document 1, since a plurality of utterance candidates for the system are prepared, the utterance candidates can be selected at random, or the priority can be freely set (for the group classified by the utterance candidate generation method). Can be selected.
JP 2007-206888 A

ところで、対話型の情報検索装置として、特許出願人は、ラダリング型検索装置を研究、開発している。すなわち、装置がユーザとの対話の中で、徐々に掘り下げた質問を繰り返すことにより、ユーザのニーズや価値観を引き出し、引き出した情報とマッチするサービスやコンテンツなどを探し出す装置を研究、開発している。ユーザのニーズや価値観を適切に引き出すためには、自然な対話で寄り添い感(親しみ)をユーザに抱かせることが求められる。   By the way, as an interactive information search device, the patent applicant has been researching and developing a laddering type search device. In other words, the device researches and develops a device that draws out the needs and values of the user and searches for services and contents that match the extracted information by repeating questions that are gradually delved into the dialogue with the user. Yes. In order to appropriately draw out the user's needs and values, it is required that the user have a close feeling (familiarity) with natural dialogue.

しかしながら、上述した従来装置は、述語及びそれに対応する格要素を識別(抽出)してそれらを用いて応答する方法であり、応答の生成方法が限定的であって、寄り添い感を効果的に演出することができない。   However, the above-described conventional apparatus is a method of identifying (extracting) predicates and corresponding case elements and responding using them, and the method of generating responses is limited, effectively producing a close feeling. Can not do it.

また、従来装置では、述語や格要素は中心語だけを残し、修飾語句は応答には使われていない。述語に組み合わせる格要素は1候補には1つしか使われていない。そのため、対話の自然さを十分に保証することはできていない。   In the conventional apparatus, the predicate and case element leave only the central word, and the modifier is not used for the response. Only one case element can be combined with a predicate. For this reason, the naturalness of dialogue cannot be sufficiently guaranteed.

さらに、ラダリング型検索装置では、ユーザからの情報入手を目的とした発話(ユーザへの質問の類)をいくつか用意し、システムが主導して話を転じることが必要となるが、従来装置では、システムからの発話は「ユーザからの発話を受けた応答」あるいは「単純な相槌」であり、どのようにシステムが主導して話を転じるかを開示も示唆も行っていない。   Furthermore, in the ladder type search device, it is necessary to prepare several utterances (a kind of questions to the user) for the purpose of obtaining information from the user, and the system must take the initiative to turn the story. The utterance from the system is “response received from the user” or “simple interaction”, and does not disclose or suggest how the system leads the conversation.

さらにまた、従来装置では、ユーザの使った語彙のみしか利用できず、応答が単調になってしまう。   Furthermore, in the conventional apparatus, only the vocabulary used by the user can be used, and the response becomes monotonous.

また、従来装置では、述語も格要素も存在しなかったときには、単独で単純な相槌(「へえ」や「そうなんだ」)が出現するだけであり、寄り添い感の演出としては強いものではない。   In addition, in the conventional apparatus, when neither a predicate nor a case element exists, a simple conflict ("hee" or "yes") appears only, and it is not strong as an effect of closeness.

そのため、人間に対する寄り添い感を十分に演出できる、自然な対話(応答)を実現できる対話システム、方法及びプログラムが望まれている。   Therefore, there is a demand for a dialogue system, method, and program that can realize a natural dialogue (response) that can sufficiently produce a sense of closeness to humans.

第1の本発明は、人間とのインターフェースを行う装置との間で自然言語文のデータを授受して人間と対話する対話システムにおいて、人間の発話を解析する解析部と、上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定する対象箇所認定部と、上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する抽出部とを有することを特徴とする。   The first aspect of the present invention uses an analysis unit for analyzing a human utterance and a result of the analysis in a dialog system in which a natural language sentence data is exchanged with a device that interfaces with a human to interact with the human. Then, from the human utterance so that the system utterance becomes an appropriate length based on the target location, and the target location recognition unit for identifying the target location for extracting the elements for the system to utter from the human utterance And an extraction unit for extracting elements.

第2の本発明は、人間とのインターフェースを行う装置と対話システムとが自然言語文のデータを授受して人間と対話する対話方法において、上記対話システムは、解析部、対象箇所認定部及び抽出部を備え、上記解析部が、人間の発話を解析し、上記対象箇所認定部が、上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定し、上記抽出部が、上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出することを特徴とする。   According to a second aspect of the present invention, there is provided a dialogue method in which a device for interfacing with a human being and a dialogue system exchange natural language sentence data and interact with a human, wherein the dialogue system includes an analysis unit, a target location recognition unit, and an extraction unit. The analysis unit analyzes a human utterance, the target location recognition unit uses the analysis result, and the target location for extracting elements for the system to utter from the human utterance. The extraction unit extracts the elements from the human utterance so that the system utterance becomes an appropriate length based on the target portion.

第3の本発明の対話プログラムは、人間とのインターフェースを行う装置との間で自然言語文のデータを授受して人間と対話する対話システムを構築するコンピュータを、人間の発話を解析する解析部と、上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定する対象箇所認定部と、上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する抽出部として機能させることを特徴とする。   According to a third aspect of the present invention, there is provided a computer program for constructing a dialog system for interacting with humans by transferring natural language sentence data to and from a device that interfaces with humans, and an analysis unit for analyzing human speech. And using the above analysis results, the system utterance has an appropriate length based on the target location recognition unit for identifying the target location for extracting the elements for the system to utter from the human utterance and the target location. It is made to function as an extraction part which extracts an element from human speech so that it may become.

本発明によれば、人間発話における表現などに応じて、オウム返しで利用する箇所の選定やオウム返しでの長さ(語数)などを変更するようにしたので、人間に対する寄り添い感を十分に演出できる、自然な対話(応答)を実現できる対話システム、方法及びプログラムを提供できる。   According to the present invention, the selection of the location to be used for parrot return and the length (number of words) for the parrot return are changed according to the expression in human speech, etc., so that a sense of closeness to humans can be sufficiently produced. It is possible to provide a dialogue system, method and program capable of realizing a natural dialogue (response).

(A)第1の実施形態
以下、本発明に係る対話システム、方法及びプログラムの第1の実施形態を、図面を参照しながら詳述する。
(A) First Embodiment Hereinafter, a first embodiment of an interactive system, method and program according to the present invention will be described in detail with reference to the drawings.

(A−1)第1の実施形態の構成
図1は、第1の実施形態に係る対話システム10の主たる構成を示す機能ブロック図である。図1は、ユーザ発話を入力とし、システム発話を生成する構成部分を示している。
(A-1) Configuration of the First Embodiment FIG. 1 is a functional block diagram showing the main configuration of the dialogue system 10 according to the first embodiment. FIG. 1 shows a component that generates a system utterance using a user utterance as an input.

対話システム10は、例えば、ラダリング型検索装置等のより大きな装置の一部として構築されたものであっても良い。また、対話システム10は、PC(パソコン)やサーバ等の汎用的な情報処理装置に対話プログラム(固定データ等を含む)をインストールすることにより構築されたものであっても良い。いずれにせよ、機能的には、図1の構成で表すことができる。対話プログラムのインストールは、通信網を介したダウンロードによる方法に限らず、コンピュータが読取可能な記録媒体を介する方法であっても良い。例えば、転職先を検索して提供する機能を有するラダリング型検索装置の一部として利用される場合であれば、転職先提供用のサイトを提供するWebサーバ上に、対話システム10が搭載されることとなる。   The dialogue system 10 may be constructed as a part of a larger device such as a laddering search device. Further, the dialogue system 10 may be constructed by installing a dialogue program (including fixed data) in a general-purpose information processing apparatus such as a PC (personal computer) or a server. In any case, functionally, it can be represented by the configuration of FIG. The installation of the interactive program is not limited to the method by downloading via a communication network, but may be a method via a computer-readable recording medium. For example, when used as a part of a ladder type search device having a function of searching and providing a job change destination, the dialogue system 10 is mounted on a Web server that provides a site for job change destination provision. It will be.

図1において、第1の実施形態の対話システム10は、解析部11、対象箇所認定部12、抽出部13及び変形部14を有する。対象箇所認定部12、抽出部13及び変形部14は、オウム返し応答生成部15を構成している。   In FIG. 1, the dialogue system 10 according to the first embodiment includes an analysis unit 11, a target location recognition unit 12, an extraction unit 13, and a deformation unit 14. The target location recognition unit 12, the extraction unit 13, and the deformation unit 14 constitute a parrot return response generation unit 15.

対話システム10には、自然言語文でなるユーザ発話が入力される。例えば、ユーザがユーザ端末であるパソコン上に表示されたWebページ上における、発話文入力用のフィールドに入力した自然言語文(テキスト)が対話システム10に入力される。また例えば、当該対話システム10の搭載装置がキーボードなどの入力装置を備えてユーザ発話を取り込むようにしても良い。さらに例えば、ユーザ端末のマイクロフォン若しくは当該対話システム10の搭載装置のマイクロフォンが捕捉した音声(音声信号)を認識処理してユーザ発話を取り込むようにしても良い。   The dialogue system 10 receives user utterances composed of natural language sentences. For example, a natural language sentence (text) entered in a field for speech sentence input on a Web page displayed on a personal computer as a user terminal by the user is input to the dialogue system 10. Further, for example, the apparatus on which the dialogue system 10 is mounted may be provided with an input device such as a keyboard to capture user utterances. Further, for example, the user's utterance may be captured by recognizing a voice (voice signal) captured by the microphone of the user terminal or the microphone of the apparatus on which the interactive system 10 is mounted.

解析部11は、ユーザ発話に対し、形態素解析や構文解析を行い、単語(形態素)に分け、文の構造を明らかにするものである。形態素解析や構文解析には、既存の解析方法を適用することができる。   The analysis unit 11 performs morphological analysis and syntax analysis on the user utterance, divides it into words (morphemes), and clarifies the sentence structure. Existing analysis methods can be applied to morphological analysis and syntax analysis.

対象箇所認定部12は、ユーザ発話の中で、オウム返しをするのに適当だと判断できる箇所を認定するものである。後述する動作説明で判断基準や判断方法を説明するが、判断基準のいくつかを挙げると、以下の通りである。ユーザ発話における末尾近くの「述語+その目的語若しくは主語」を対象箇所(の候補)とする。ユーザ発話における末尾近くの「名詞+その修飾語」を対象箇所(の候補)とする。ユーザ発話における「無理」、「困る」、「したい」、「できない」などの意思・主観表現、若しくは、それに類した表現を含む数語を対象箇所(の候補)とする。意思・主観表現そのものではなく、「困る」、「したい」の内容の方を記載した箇所を対象箇所(の候補)とする。対象箇所認定部12は、対象箇所(の候補)が複数ある場合には、予め定められているルールに従い、1個の対象箇所に絞り込むことを行う。具体的な方法は、動作の項で明らかにする。   The target part recognition unit 12 recognizes a part of the user utterance that can be determined to be suitable for returning a parrot. The determination criteria and determination method will be described in the operation description to be described later. Some of the determination criteria are as follows. The “predicate + its object or subject” near the end in the user's utterance is set as the target location (candidate). A “noun + its modifier” near the end in the user utterance is set as a candidate (candidate). Several words including intention / subjective expressions such as “unreasonable”, “problem”, “want”, “cannot” in the user's utterance, or similar expressions are set as candidates (candidates). Instead of the intention / subjective expression itself, the part that describes the content of “worried” or “want” is the target part (candidate). When there are a plurality of target locations (candidates), the target location recognition unit 12 narrows down to one target location according to a predetermined rule. The specific method will be clarified in the operation section.

抽出部13は、対象箇所認定部12が認定したユーザ発話における対象箇所及びその近傍から、オウム返しで自然な長さになる部分(構文木でのサブツリー)を抽出(選択)するものである。動作の項で後述するように、表現の種類によって定まっている標準長さ(例えば、3語)から大幅に外れないような語数(4語や2語)ならば許容する。なお、標準長さではなく上限の語数を設定し、オウム返しでの自然な長さを担保するようにしても良い(短い場合に無理に増やすことを実行しない)。抽出部13は、抽出した部分(構文木でのサブツリー)が長い方で許容できない長さである場合には、短縮化も行う。短縮化では、所定のルールに従って、目的語や主語を落としたり、修飾語を落としたりする。   The extraction unit 13 extracts (selects) a portion (subtree in the syntax tree) that has a natural length by returning a parrot from the target location in the user utterance certified by the target location certification unit 12 and its vicinity. As will be described later in the operation section, any number of words (4 words or 2 words) that does not deviate significantly from the standard length (for example, 3 words) determined by the type of expression is allowed. It should be noted that an upper limit number of words may be set instead of the standard length so as to ensure a natural length in the parrot return (do not forcibly increase when short). When the extracted part (subtree in the syntax tree) has an unacceptable length, the extraction unit 13 also shortens the extracted part. In shortening, an object or subject is dropped or a modifier is dropped according to a predetermined rule.

変形部14は、抽出部13が得たオウム返し用部分が、所定ルールに該当する場合には、表現を変形(又は整形)するものである。例えば、時制を変換したり、敬語表現に変換したりする。また、名詞(句)が抽出された場合であれば、「ですね?」や「ですね。」を付加したりする。   The transformation unit 14 transforms (or shapes) the expression when the parrot return portion obtained by the extraction unit 13 corresponds to a predetermined rule. For example, convert tense or honorific expression. If nouns (phrases) are extracted, “Is it?” Or “Is it?” Is added.

変形部14の処理を得たオウム返し用部分(自然言語文)がシステム発話となる。システム発話は、例えば、ユーザ端末であるパソコン上に表示されたWebページ上に盛り込まれて表示される。また例えば、当該対話システム10の搭載装置が表示装置を備えてシステム発話を表示するようにしても良い。さらに例えば、テキストデータでなるシステム発話に対し、音声合成を施し、ユーザ端末のスピーカ若しくは当該対話システム10の搭載装置のスピーカからシステム発話の音声(音声信号)を発声させるようにしても良い。   The parrot return part (natural language sentence) obtained by the processing of the deforming unit 14 becomes the system utterance. For example, the system utterance is included and displayed on a Web page displayed on a personal computer which is a user terminal. Further, for example, the device on which the dialogue system 10 is mounted may include a display device to display a system utterance. Furthermore, for example, voice synthesis may be performed on a system utterance made up of text data, and a voice (voice signal) of the system utterance may be uttered from the speaker of the user terminal or the speaker of the apparatus equipped with the dialogue system 10.

なお、解析部11、対象箇所認定部12、抽出部13及び変形部14は、例えば、専用の制御デバイス、あるいは、プログラムを実行するプロセッサ(CPU)と、そのプロセッサで実行するプログラムとデータを記憶するRAM(Random Access Memory)、ROM、HDDなどの記憶デバイスを含むハードウエア資源で実現される。   The analysis unit 11, the target location recognition unit 12, the extraction unit 13, and the transformation unit 14 store, for example, a dedicated control device or a processor (CPU) that executes a program, and a program and data that is executed by the processor. It is realized by hardware resources including storage devices such as RAM (Random Access Memory), ROM, and HDD.

また、上記では、機能別に説明したが、実現するハードウエアの物理構成が各部分毎に明確に分離され、独立に用意されている必要はない。例えば、対象箇所認定部12のプログラムを格納するHDDは、解析部11の解析用辞書データを格納するHDDと共通のものであっても良く、さらには他の機能を実現する装置の一部を利用しても良い。また、当該対話システム10を構成する一部は、ネットワークで接続された他の場所に配置されていても良い。   In the above description, each function is described. However, the physical configuration of the hardware to be realized is clearly separated for each part and does not need to be prepared independently. For example, the HDD that stores the program of the target location recognition unit 12 may be the same as the HDD that stores the analysis dictionary data of the analysis unit 11, and further, a part of a device that realizes other functions may be used. May be used. Further, a part of the dialogue system 10 may be arranged in another place connected by a network.

(A−2)第1の実施形態の動作
次に、以上の各部を有する第1の実施形態に係る対話システム10の動作(第1の実施形態に係る対話方法)を、図面を参照しながら説明する。図2は、第1の実施形態に係る対話システム10の動作を示すフローチャートである。
(A-2) Operation of the First Embodiment Next, the operation of the dialogue system 10 according to the first embodiment having the above-described units (the dialogue method according to the first embodiment) will be described with reference to the drawings. explain. FIG. 2 is a flowchart showing the operation of the interactive system 10 according to the first embodiment.

第1の実施形態に係る対話システム10は、ユーザ発話が入力されると、図2に示す処理を開始し、解析部11による形態素解析・構文解析(S100)、対象箇所認定部12による対象箇所認定(S101)、抽出部13による抽出(S102)、変形部14による変形(整形)(S103)を順に実行し、システム発話を形成する。以下では、各ステップS100、S101、S102、S103の処理を詳述する。   The dialogue system 10 according to the first embodiment starts the processing shown in FIG. 2 when a user utterance is input, and performs morphological analysis / syntactic analysis (S100) by the analysis unit 11 and target location by the target location recognition unit 12. Authorization (S101), extraction by the extraction unit 13 (S102), and transformation (shaping) by the transformation unit 14 (S103) are sequentially executed to form a system utterance. Below, the processing of each step S100, S101, S102, S103 will be described in detail.

解析部11は、公知の解析方法によって形態素解析及び構文解析を行う(S100)。図3は、ユーザ発話が「人と接しながら自分が人間として成長できる仕事がしたい」に対する形態素解析結果を示しており、図4は、その形態素解析結果に対する構文解析結果(構文木)を示している。   The analysis unit 11 performs morphological analysis and syntax analysis by a known analysis method (S100). FIG. 3 shows a morphological analysis result for a user utterance “I want to do a job that allows me to grow as a human while touching a person”, and FIG. 4 shows a parsing result (syntax tree) for the morphological analysis result. Yes.

対象箇所認定部12は、内蔵する図5に示す認定用特殊表現リストを利用しながら、オウム返しの対象箇所を認定する(S101)。   The target location authorization unit 12 authorizes the target location for the parrot return while using the authorization special expression list shown in FIG. 5 (S101).

認定用特殊表現リストは、図5に示すように、グループ名称、具体的な特殊表現、抽出中心を規定している。   As shown in FIG. 5, the special expression list for authorization defines a group name, a specific special expression, and an extraction center.

第1行L11は、ユーザ発話に、「たい」、「希望する」、…などの特殊表現(リストには現在形、原形などで記述しているが、ユーザ発話に、他の形式で含まれている場合も該当する;他の行も同様)が含まれている場合は、「意思表現」のグループに属し、その「たい」、「希望する」などを述部とする主部の中核名詞を抽出の中心に据えることを表している。図4の解析結果例は、「たい」を含むので、この場合に該当し、主部の中核名詞である「仕事」を抽出の中心とすることになる。   The first line L11 is a special expression such as “I want”, “I want”,... In the user utterance (the list is described in the present form, the original form, etc., but is included in the user utterance in other forms. Is included; the same applies to other lines), it belongs to the group of “intention expressions” and is the main noun of the main part whose predicate is “I want” or “I want” Represents the center of extraction. Since the example of the analysis result in FIG. 4 includes “tai”, this corresponds to this case, and “work”, which is the main noun of the main part, is set as the center of extraction.

第2行L12は、ユーザ発話に、「困る」、「無理」、「できる」…などの特殊表現が含まれている場合は、「主観表現」のグループに属し、その「困る」、「無理」、「できる」などの直前の係り要素における中核名詞を抽出の中心に据えることを表している。図4の解析結果例は、「できる」を含むので、この場合に該当し、直前の係り要素における中核名詞である「成長」を抽出の中心とすることになる。また、ユーザ発話が「…残業が少ないところでないと困ります」であれば、「ところ」を抽出の中心とすることになる。   The second row L12 belongs to the “subjective expression” group when the user utterance includes special expressions such as “problematic”, “impossible”, “can do”, and so on. This indicates that the core noun in the immediately preceding dependency element such as “” or “can” is placed at the center of extraction. The example of the analysis result in FIG. 4 includes “can”, and thus corresponds to this case, and “growth” that is the core noun in the immediately preceding dependency element is the center of extraction. Also, if the user utterance is “... I am in trouble if there is little overtime”, “Place” will be the center of extraction.

第3行L13は、ユーザ発話に、「気づく」、「経験する」…などの特殊表現が含まれている場合は、「活動表現」のグループに属し、その「気づく」、「経験する」等の特殊表現(中核用言)そのものを抽出の中心に据えることを表している。例えば、ユーザ発話が「…活かせる仕事だって気づいたんです」であれば、「気づく」を抽出の中心とすることになる。   The third row L13 belongs to the group of “activity expression” when a special expression such as “notice”, “experience”, etc. is included in the user utterance, and “notice”, “experience”, etc. This means that the special expression (core vocabulary) itself is placed at the center of extraction. For example, if the user's utterance is “… I noticed that it is a work that can be utilized,” “notice” will be the center of extraction.

第4行L14は、ユーザ発話に、「ある」、「ない」…などの特殊表現が含まれている場合は、「有無表現」のグループに属し、その「ある」、「ない」等の特殊表現を述部とする主部の中核名詞を抽出の中心に据えることを表している。例えば、ユーザ発話が「…伸びているところの方が社内の勢いがありそうだから」であれば、「勢い」を抽出の中心とすることになる。   The fourth row L14 belongs to the “presence / absence expression” group when the user utterance includes special expressions such as “Yes”, “No”, etc., and the special utterances such as “Yes”, “No”, etc. This means that the main core nouns whose expressions are predicates are placed at the center of extraction. For example, if the user's utterance is “... the place where it is growing seems to have momentum in the company”, “momentum” will be the center of extraction.

対象箇所認定部12は、図5の認定用特殊表現リスト中の「具体的な特殊表現」に記載されている表現が、上述した解析結果に存在するか否かを確認する。存在する場合には、対象箇所認定部12は、特殊表現リスト中の該当行の「抽出中心」にあたる解析結果(ユーザ発話)の箇所を対象箇所と認定する。認定された対象箇所が複数個存在する場合には、構文解析結果において、主文の述部に最も近い方を選択する。すなわち、出現した文字列としての距離ではなく、構文解析結果における距離に鑑みて選択する。図4の構文解析結果では、特殊表現リストとの照合では、特殊表現「たい」に係る対象箇所「仕事」と、特殊表現「できる」に係る対象箇所「成長」とがあるが、主文の述部「したい」との距離が短い対象箇所は、図4から明らかなように、「仕事」であるので、対象箇所「仕事」を抽出の中心に据える。   The target location authorizing unit 12 confirms whether or not the expression described in the “specific special expression” in the authorization special expression list in FIG. 5 exists in the analysis result described above. If it exists, the target location recognition unit 12 recognizes the location of the analysis result (user utterance) corresponding to the “extraction center” of the corresponding line in the special expression list as the target location. If there are a plurality of recognized target parts, the one closest to the predicate of the main sentence is selected in the syntax analysis result. In other words, the selection is made in consideration of the distance in the syntax analysis result, not the distance as the appearing character string. In the parsing result of FIG. 4, in the collation with the special expression list, there are the target part “work” related to the special expression “I want” and the target part “growth” related to the special expression “capable”. As is clear from FIG. 4, the target part having a short distance to the part “I want to do” is “work”, and therefore, the target part “work” is placed at the center of extraction.

抽出部13は、内蔵する図6に示す抽出用特殊表現リストを利用しながら、オウム返しで利用するユーザ発話部分を抽出する(S102)。抽出部13は、基本的には、対象箇所認定部12が認定した、対象箇所の抽出中心の語(群)をルートとするサブツリー(構文解析の結果できるツリー状の一群)を取り出すことで、オウム返しで利用するユーザ発話部分を抽出する。抽出部13は、取り出したユーザ発話部分が、抽出用特殊表現リストにおける後述する語数目安に基づいて定まる上限語数以内に収まっているか否かを判別し、収まっている場合には、取り出したユーザ発話部分をそのまま抽出結果とし、収まっていない場合には、抽出用特殊表現リストにおける後述する抽出(要素選択)ルールに従って、取り出したユーザ発話部分から一部の表現を削減して上限語数以下にし、削減後のユーザ発話部分を抽出結果とする。   The extraction unit 13 extracts a user utterance part to be used for parrot return while using the extraction special expression list shown in FIG. 6 (S102). The extraction unit 13 basically takes out a subtree (a group of trees that can be parsed as a result of the syntax analysis) rooted by the word (group) of the extraction center of the target location, which is recognized by the target location recognition unit 12. Extract user utterances used for parrot return. The extraction unit 13 determines whether or not the extracted user utterance part is within the upper limit number of words determined based on a word number guide to be described later in the extraction special expression list. If the part is extracted as it is and it does not fit, the expression is reduced from the extracted user utterance part according to the extraction (element selection) rule to be described later in the extraction special expression list to reduce it to the maximum number of words or less. The subsequent user utterance part is taken as the extraction result.

抽出用特殊表現リストは、図6に示すように、グループ名称、語数目安、抽出ルールを規定している。   As shown in FIG. 6, the special expression list for extraction defines group names, word count guidelines, and extraction rules.

第1行L21は、「意思表現」グループに属している所定箇所の語数目安が5であって、この語数目安に基づいて定まる上限個数より、取り出したユーザ発話部分(サブツリー)の語数が多い場合には、以下のようにして語数削減を行うことを記述している。削減は、第1に、抽出中心(図5参照)に対する修飾要素のうち、(係りの)遠い方から削除する、第2に、遠さが同じ場合には、主格、目的格などの格要素以外のものを削除する。第3に、格要素の観点も同じ場合には、出現文字列上での遠い方を削除する、という方法を適用する。ここでの削除は、単語若しくはサブツリーの枝を最小単位として行い、上限個数以内に収まるまで、第1〜第3のルールに従う削減を繰り返す。例えば、上限個数を語数目安+1語とすると、「意思表現」グループについての上限語数は6語となる。   In the first row L21, the number of words in a predetermined part belonging to the “intention expression” group is 5, and the number of extracted user utterance parts (subtrees) is larger than the upper limit number determined based on this word number guide Describes how to reduce the number of words as follows. The first reduction is to delete the modification elements for the center of extraction (see FIG. 5) from the (distant) far side. Second, if the distances are the same, the case elements such as the main case and the target case Remove anything other than. Third, when the case elements have the same viewpoint, the method of deleting the far side on the appearance character string is applied. The deletion here is performed by using a word or a sub-tree branch as a minimum unit, and repeating the reduction according to the first to third rules until it falls within the upper limit number. For example, if the upper limit number is the word count guideline + 1 word, the upper limit word count for the “intention expression” group is 6.

図4の構文解析結果に対し、上述したように、「仕事」が抽出中心であってルートとなるので、オウム返し用のユーザ発話部分(サブツリー)の取り出しでは、「自分が人間として成長できる仕事」(7語)が取り出される。上限個数の6個を越えているので、一部の削除を行う。ここで、「自分が」と「人間として」は「仕事」に対する係りの遠さは同レベルだが、格要素以外を削除という第2のルールにより、ガ格(主格)の「自分が」を残し、「人間として」を削除する。これにより、語数は5となって上限個数(6)以内となるので、この削除を行った段階を抽出結果とする。すなわち、「自分が成長できる仕事」が抽出結果となる。この抽出結果は、ユーザ発話の連続した一部分ではなく、2箇所の部分を繋げたものとなっている。   In the parsing result of FIG. 4, as described above, “work” is the extraction center and becomes the root. Therefore, when extracting the user utterance part (subtree) for parrot return, “work that can grow as a human being” "(7 words) is taken out. Since the upper limit of 6 has been exceeded, some deletions are made. Here, “I am” and “As a human being” have the same level of reliance on “work”, but the second rule of deleting all but the case element leaves the “I” of the case , Delete "as a human". As a result, the number of words becomes 5 and is within the upper limit number (6), and the stage where this deletion is performed is taken as the extraction result. In other words, “work that I can grow” is the extraction result. This extraction result is not a continuous part of the user's utterance but a connection between two parts.

以上では、語数目安からのずれを許容できないのが語数が多い場合だけとしたが、語数目安から少ない場合には、追加させるようにしても良い(図6のいずれの行について同様である)。追加ルールは、削除の際のルールと対称的なものとすれば良い。例えば、第1に、抽出中心(図5参照)に対する修飾要素のうち、(係りの)近い方を追加する、第2に、近さが同じ場合には、主格、目的格などの格要素を優先させて追加する、第3に、格要素の観点も同じ場合には、出現文字列上での近い方を追加する、という方法を適用する。   In the above description, the deviation from the word count guideline is not allowed only when the number of words is large, but when the word count guideline is small, it may be added (the same applies to any row in FIG. 6). The added rule may be symmetric with the rule for deletion. For example, firstly, add the closest one of the modification elements for the extraction center (see FIG. 5). Second, if the proximity is the same, add case elements such as the main case and the purpose case. Third, when the case elements have the same viewpoint, the method of adding the closest one on the appearance character string is applied.

抽出用特殊表現リストの第2行L22は、「主観表現」グループに属している所定箇所の語数目安が2であって、この語数目安に基づいて定まる上限個数より、取り出したユーザ発話部分(サブツリー)の語数が多い場合には、抽出中心(図5参照)に対する修飾要素のうち、(係りの)遠い方から削除することを記述している。但し、以下の二つを例外とする。修飾要素に用言がある場合には、例外的に、その主格と目的格に相当する要素は削除しない。削除した結果、中核名詞だけになってしまう場合には、削除せずに、語数オーバーのまま抽出結果とする。   The second row L22 of the special expression list for extraction has a word number guideline of a predetermined location belonging to the “subjective expression” group, and the extracted user utterance portion (subtree) is extracted from the upper limit number determined based on this word number guideline. ) Is deleted from the farther (relative) of the modifiers for the extraction center (see FIG. 5). However, there are two exceptions. In cases where there is a precaution in the modifier, the elements corresponding to the principal and purpose are not deleted. As a result of deletion, if it becomes only the core noun, it is not deleted, but the extraction result is left as it is.

ユーザ発話が「…残業が少ないところでないと困ります」であれば、上述したように、「ところ」が抽出中心となり、「残業が少ないところ」(4語)がオウム返し用のユーザ発話部分(サブツリー)として、まず、取り出される。サブツリーの語数は、上限個数を超えているので、「残業が」が遠いので削除をしたいところだが、「残業が」に対して「少ない」という用言があるので、「残業が」は削除しない。語数に収めるためには、「残業が少ない」全部を削除するしかないが、そうすると中核名詞「ところ」だけになってしまうので、語数オーバーを認めて、「残業が少ないところ」を最終的な抽出結果とする。   If the user's utterance is “... I am in trouble if there is not too much overtime,” as described above, “Place” will be the center of extraction, and “Location with less overtime” (4 words) will be the user utterance part for returning parrots (4 words) First, it is extracted as a subtree. Since the number of words in the sub-tree exceeds the upper limit, “Overtime” is far away, so I want to delete it, but there is a saying that “Overtime” is “less”, so “Overtime” is not deleted. . In order to fit in the number of words, all you have to do is delete all `` less overtime '', but then it will only be the core noun `` Place '', so accept the word number over and finally extract `` Place with less overtime '' As a result.

抽出用特殊表現リストの第3行L23は、「活動表現」グループに属している所定箇所の語数目安が1であって、抽出中心(図5参照)と認定された中核用言のみを抽出結果とすることを記述している。   The third row L23 of the special expression list for extraction is the result of extracting only the core words that are recognized as the extraction center (see FIG. 5) and the word count guideline of the predetermined part belonging to the “activity expression” group is 1. Is described.

例えば、ユーザ発話が「…活かせる仕事だって気づいたんです」であって「気づく」が抽出中心となった場合、「気づく」を特に分割できないので、この中核用言のみを抽出結果とし、削減を実行しない。   For example, if the user ’s utterance is “… I noticed that it was a work that can be utilized,” and “Awareness” was the extraction center, “Awareness” cannot be divided in particular. Do not execute.

抽出用特殊表現リストの第4行L23は、「有無表現」グループに属している所定箇所の語数目安が2であって、この語数目安に基づいて定まる上限個数より、取り出したユーザ発話部分(サブツリー)の語数が多い場合には、抽出中心(図5参照)に対する修飾要素のうち、(係りの)遠い方から削除することを記述している。   The fourth row L23 of the special expression list for extraction has a word number guideline of a predetermined location belonging to the “presence / absence expression” group, and the extracted user utterance portion (subtree) is larger than the upper limit number determined based on this word number guideline. ) Is deleted from the farther (relative) of the modifiers for the extraction center (see FIG. 5).

例えば、ユーザ発話が「…伸びているところの方が社内の勢いがありそうだから」であれって「勢い」が抽出中心であれば、「社内の勢い」(3語)がオウム返し用のユーザ発話部分(サブツリー)として取り出される。「社内の勢い」(3語)は上限個数(3語)以内であるので、「社内の勢い」がそのまま抽出結果となる。なお、構文木は記載していないが、「伸びているところの方が」は「ありそう・・・」に直接係っているので、抽出中心「勢い」から見た場合には抽出の対象外になっている。   For example, if the user's utterance is “... the place where the growth is likely to have internal momentum” and “momentum” is the center of extraction, “internal momentum” (3 words) is for returning parrots. It is extracted as a user utterance part (subtree). Since “in-house momentum” (3 words) is within the upper limit number (3 words), “in-house momentum” becomes the extraction result as it is. Note that the syntax tree is not listed, but “the one that is growing” is directly related to “probably ...”, so when viewed from the extraction center “momentum”, the target of extraction It is outside.

変形部14は、以下のような内部記録している変形ルールなどに従って、抽出部13による抽出結果の文字列を変形(整形)する(S103)。例えば、敬語への変換用の対応表を用意しておいて、見出しがマッチしたときに変形(変換)する。例としては、「気づく」を「気づかれる」(尊敬語)に変換したり、「自分」を「ご自分」(丁寧語)に変換するような対応表を用意しておいて適用したりする。ほかに例えば、抽出結果が名詞(句)で終了している場合であれば、「ですね?」や「ですね。」を付加する。最後に、一般的な形態素生成(形態素解析と逆のプロセス)を実施して、日本語として活用などがおかしくないような形にして出力する。   The transformation unit 14 transforms (shapes) the character string extracted by the extraction unit 13 in accordance with the following internally recorded transformation rules (S103). For example, a correspondence table for conversion to honorific is prepared and transformed (converted) when a heading matches. For example, convert “Awareness” to “Awareness” (respected word), or prepare a correspondence table that converts “You” to “You” (a polite language) and apply it. . In addition, for example, if the extraction result ends with a noun (phrase), “Is it?” Or “Is it?” Is added. Finally, general morpheme generation (process opposite to morpheme analysis) is performed and output in a form that is not amusing as Japanese.

なお、対象箇所認定部12及び抽出部13の処理が終了したときに、抽出できない場合には、オウム返し応答のシステム発話をしないことになる。   In addition, when the process of the object location recognition part 12 and the extraction part 13 is complete | finished, when it cannot extract, the system utterance of a parrot return response will not be performed.

(A−3)第1の実施形態の効果
第1の実施形態によれば、認定用特殊表現リストを用意しておき、ユーザ発話中の意思・主観表現を探し、意思・主観表現若しくはその周辺の要素を優先的に応答(システム発話)に利用するようにしたので、ユーザに対する寄り添い感を効果的に演出することができる。
(A-3) Effects of the First Embodiment According to the first embodiment, a special expression list for authorization is prepared, the intention / subjective expression in the user's utterance is searched, and the intention / subjective expression or its periphery Since this element is preferentially used for a response (system utterance), it is possible to effectively produce a sense of closeness to the user.

また、第1の実施形態によれば、従来装置とは異なり、単に述語と格要素の中心語を抜き出すだけでなく、優先的に利用する箇所を判断し、どの語若しくはその周辺を応答に利用するかを決めた上で、事前に設定した目安の長さに合うように、要素を削ったり(付け加えたり)するようにしたので、システム応答の長さが自然の長さになって、対話の自然さを保証することができる。   In addition, according to the first embodiment, unlike the conventional apparatus, not only the predicate and the central word of the case element are extracted, but also the preferential word is used and the word or its periphery is used for the response. After deciding whether to do so, the elements were trimmed (added) to match the length of the guideline set in advance, so the length of the system response became a natural length and dialogue Can guarantee the naturalness.

さらに、第1の実施形態によれば、変形部14によって、ユーザ発話から取り出した部分に対して、変形(言い換え処理)を適用して、最終的なオウム返しのシステム発話とするようにしたので、応答が単調になったり不自然になったりすることを防止することができる。   Furthermore, according to the first embodiment, the transformation unit 14 applies transformation (paraphrase processing) to the part extracted from the user utterance so as to obtain the final parrot return system utterance. , It is possible to prevent the response from becoming monotonous or unnatural.

以上のように、寄り添い感を効果的に演出すると共に、対話の自然さを保証した結果、対話がはずみ、ユーザから情報を収集し易くなる。   As described above, as a result of effectively producing a close-in feeling and assuring the naturalness of the dialogue, the dialogue is lost and it is easy to collect information from the user.

(B)第2の実施形態
次に、本発明に係る対話システム、方法及びプログラムの第2の実施形態を、図面を参照しながら詳述する。
(B) Second Embodiment Next, a second embodiment of the interactive system, method and program according to the present invention will be described in detail with reference to the drawings.

図7は、第2の実施形態に係る対話システム10Aの主たる構成を示す機能ブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一符号を付して示している。   FIG. 7 is a functional block diagram showing the main configuration of the interactive system 10A according to the second embodiment, in which the same and corresponding parts as those in FIG. 1 according to the first embodiment are denoted by the same reference numerals. Yes.

第2の実施形態に係る対話システム10Aは、第1の実施形態の対話システム10の構成に加え、次話題選択部20及び話題データベース21を有する。   The dialogue system 10A according to the second embodiment includes a next topic selection unit 20 and a topic database 21 in addition to the configuration of the dialogue system 10 according to the first embodiment.

話題データベース(話題DB)21には、対話シナリオ情報やシステム発話等が格納されている。例えば、転職先を紹介するような検索装置に対話システム10Aが組み込まれている場合であれば、勤務希望地、希望年収、勤務時間(許容できる残業時間を含む)、勤務曜日など、多項目についてのシステム発話を、しかも、各項目について階層的に記憶していると共に(例えば、勤務希望地を問うシステム発話に対し、ユーザ発話で関東地方を希望すれば、より小さいエリアで希望を引き出すシステム発話に移行する)、ある項目内でのシステム発話の移行方法(対話シナリオ)と、ある項目について情報の収集が終了すると、どの項目のシステム発話に移行するかの移行方法(対話シナリオ)などを記憶している。   The topic database (topic DB) 21 stores dialog scenario information, system utterances, and the like. For example, if the dialogue system 10A is incorporated in a search device for introducing a job change destination, there are many items such as desired work location, desired annual income, working hours (including acceptable overtime hours), working days, etc. The system utterances are stored in a hierarchical manner for each item (for example, system utterances that ask the desired work location, and if the user utters the Kanto region, system utterances that draw out hope in a smaller area) The system utterance transition method within a certain item (dialogue scenario), and when the collection of information about a certain item is completed, the transition method (dialogue scenario) of which item the system utterance will be transferred to is memorized. is doing.

第2の実施形態では、対象箇所認定部12は対象箇所の認定をできない場合にはその旨を次話題選択部20に通知し、また、抽出部13も抽出をできない場合にはその旨を次話題選択部20に通知するようになされている。次話題選択部20は、対象箇所認定や抽出が成功しなかった場合には、話題データベース21の格納内容に従い、システム発話(次の話題)を取り出して出力する。   In the second embodiment, if the target location recognition unit 12 cannot recognize the target location, the target location determination unit 12 notifies the next topic selection unit 20 of the fact. The topic selection unit 20 is notified. The next topic selection unit 20 extracts and outputs a system utterance (next topic) according to the stored contents of the topic database 21 when the target location recognition or extraction is not successful.

第2の実施形態によれば、第1の実施形態と同様な効果を奏することができ、さらに、システムの主導によって話題を転じることができるという効果をも奏する。言い換えると、オウム返し応答だけでは、他の話題に移行しない恐れがあるが、これを回避することができる。   According to the second embodiment, the same effect as that of the first embodiment can be obtained, and further, the effect that the topic can be changed by the initiative of the system is also achieved. In other words, there is a possibility that it will not shift to another topic only with a parrot return response, but this can be avoided.

(C)第3の実施形態
次に、本発明に係る対話システム、方法及びプログラムの第3の実施形態を、図面を参照しながら詳述する。
(C) Third Embodiment Next, a third embodiment of the interactive system, method and program according to the present invention will be described in detail with reference to the drawings.

図8は、第3の実施形態に係る対話システム10Bの主たる構成を示す機能ブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一符号を付して示している。   FIG. 8 is a functional block diagram showing the main configuration of the dialogue system 10B according to the third embodiment. The same reference numerals are given to the same and corresponding parts as those in FIG. 1 according to the first embodiment. Yes.

第3の実施形態に係る対話システム10Bは、第1の実施形態の対話システム10の構成に加え、換言部30をオウム返し応答生成部15B内に有する。   The dialogue system 10B according to the third embodiment includes a paraphrase unit 30 in the parrot return response generation unit 15B in addition to the configuration of the dialogue system 10 of the first embodiment.

換言部30は、同義語句辞書を内蔵しており、抽出されたユーザ発話部分の全て又は一部の語句が別の表現に入れ替え可能であれば入れ替え、抽出されたユーザ発話部分を、内容が同一の他の表現に置き換えるものである。同義語句辞書は、例えば、ある語句とその言い換え語句をペアにしたデータベースである。例えば、「うまく回る」を見出しとして「スムースに進む」を入れ替え語句として獲得できるようなデータベースである。このデータベースを引くことにより、「仕事はうまく回っている」というフレーズがユーザ発話から抽出された場合に、これを言い換えて「仕事はスムースに進んでいる」にすることができる。   The paraphrasing unit 30 has a built-in synonym phrase dictionary and replaces all or part of the extracted user utterance part if it can be replaced with another expression, and the extracted user utterance part has the same content. It replaces with other expressions. The synonym phrase dictionary is, for example, a database in which a certain phrase and its paraphrase are paired. For example, it is a database that can acquire “smooth turn” as a headline and “go smoothly” as a replacement word. By pulling this database, when the phrase “work is turning well” is extracted from the user utterance, it can be rephrased as “work goes smoothly”.

変形部14は、換言部30が動作しなかった場合には、抽出部13による抽出結果に対して変形処理を実行し、換言部30が動作した場合には、換言部30から出力された、抽出結果の換言文字列に対して変形処理を実行する。   When the paraphrase unit 30 does not operate, the transformation unit 14 performs a transformation process on the extraction result by the extraction unit 13. When the paraphrase unit 30 operates, the transformation unit 30 outputs the paraphrase unit 30. The transformation process is executed on the paraphrase character string as the extraction result.

第3の実施形態によれば、第1の実施形態と同様な効果を奏することができ、さらに、ユーザが使った表現を言い換えてシステム発話を形成することもでき、オウム返し応答の単調さを防止することができる。   According to the third embodiment, the same effects as those of the first embodiment can be obtained, and further, the expression used by the user can be rephrased to form a system utterance, and the monotonousness of the parrot return response can be reduced. Can be prevented.

(D)第4の実施形態
次に、本発明に係る対話システム、方法及びプログラムの第4の実施形態を、図面を参照しながら詳述する。
(D) Fourth Embodiment Next, a fourth embodiment of the interactive system, method and program according to the present invention will be described in detail with reference to the drawings.

図9は、第4の実施形態に係る対話システム10Cの主たる構成を示す機能ブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一符号を付して示している。   FIG. 9 is a functional block diagram showing the main configuration of the interactive system 10C according to the fourth embodiment. The same reference numerals are given to the same and corresponding parts as those in FIG. 1 according to the first embodiment. Yes.

第4の実施形態に係る対話システム10Cは、第1の実施形態の対話システム10の構成に加え、フレーム付加部40をオウム返し応答生成部15C内に有する。   The dialogue system 10C according to the fourth embodiment includes a frame addition unit 40 in the parrot return response generation unit 15C in addition to the configuration of the dialogue system 10 of the first embodiment.

フレーム付加部40は、付加用フレーム(相槌)を取り出すためのデータベースを内蔵しており、抽出部13の抽出結果の内容(あるいは元々のユーザ発話内容)に応じて、「そうですか」、「つらいですね」、「大変でしたね」、「よかったですね」などの付加用フレーズのうちから適切なものを選択する。例えば、「そうですか」は感情を考慮することなく付加する汎用的なフレームとして利用する。例えば、「できない」、「〜られない」などの見出し語と、「つらいですね」といったフレームをペアにしたデータベースを持っておき、抽出部13が抽出した結果の中にそのデータベースの見出し語があれば、それとペアになっているフレームを選択して変形部14Cに送る。また例えば、図5の認定用特殊表現リストにおけるグループにサブグループを設け(主観表現であれば、「できる」が該当する肯定主観表現や、「困る」、「無理」が該当する否定主観表現)、サブグループ名を、付加用フレーム(相槌)を取り出すためのデータベースの見出し側に利用するようにしても良い。   The frame addition unit 40 has a built-in database for taking out additional frames (considerations), and according to the contents of the extraction result of the extraction unit 13 (or the original user utterance content), Choose the appropriate phrase from the additional phrases such as “It ’s hard”, “It was hard”, “It was good”. For example, “Is that so?” Is used as a general-purpose frame that is added without considering emotions. For example, a database in which a headword such as “cannot be” or “cannot be” and a frame such as “is hard” is stored, and the headword of the database is included in the result extracted by the extraction unit 13. If there is, the frame paired with it is selected and sent to the deformation unit 14C. Further, for example, a subgroup is provided in the group in the special expression list for authorization shown in FIG. 5 (in the case of subjective expression, a positive subjective expression corresponding to “Yes”, or a negative subjective expression corresponding to “Uncomfortable” or “Unreasonable”) The subgroup name may be used on the heading side of the database for extracting the additional frame (consideration).

フレーム付加部40における付加用フレーム(相槌)を取り出すためのデータベースには、付加対象のオウム返し応答の前に付加するか、付加対象のオウム返し応答の末尾に付加するかを規定する付加位置情報をも格納しておき、フレーム付加部40は、選択フレームと付加位置情報とを変形部14Cに送る。例えば、「そうですか」はオウム返し応答の前に付加するように規定しておき、「つらいですね」はオウム返し応答の末尾に付加するように規定しておく。   In the database for extracting the addition frame (consideration) in the frame addition unit 40, additional position information that defines whether to add before the addition target parrot return response or at the end of the addition target parrot return response The frame adding unit 40 sends the selected frame and the additional position information to the deforming unit 14C. For example, it is specified that “is it?” Is added before the parrot return response, and “is hard” is added at the end of the parrot return response.

変形部13Cは、変形処理後のオウム返し応答の前あるいは末尾に、フレーズ付加部40から送られてきたフレーム(相槌)を加えて、システム発話として出力する。   The deforming unit 13C adds the frame (consideration) sent from the phrase adding unit 40 to the front or end of the parrot return response after the deformation process, and outputs it as a system utterance.

第4の実施形態によれば、第1の実施形態と同様な効果を奏することができ、さらに、複数種類の中から選択したフレーム(相槌)を、オウム返し応答に盛り込むようにしたので、寄り添い感をより強く発揮させることができる。   According to the fourth embodiment, the same effects as those of the first embodiment can be obtained, and furthermore, the frame (contrast) selected from a plurality of types is included in the parrot return response. A feeling can be exhibited more strongly.

(E)第5の実施形態
次に、本発明に係る対話システム、方法及びプログラムの第5の実施形態を、図面を参照しながら詳述する。
(E) Fifth Embodiment Next, a fifth embodiment of the interactive system, method and program according to the present invention will be described in detail with reference to the drawings.

図10は、第5の実施形態に係る対話システム10Dの主たる構成を示す機能ブロック図であり、第1の実施形態に係る図1との同一、対応部分には同一符号を付して示している。   FIG. 10 is a functional block diagram showing the main configuration of the interactive system 10D according to the fifth embodiment. The same reference numerals are given to the same and corresponding parts as those in FIG. 1 according to the first embodiment. Yes.

第5の実施形態に係る対話システム10Dは、第1の実施形態の対話システム10の構成に加え、システム発話確認部50をオウム返し応答生成部15D内に有する。また、第5の実施形態に係る対話システム10Dは、システム発話履歴データベース(システム発話履歴DB)51も構成要素となっている。   The dialogue system 10D according to the fifth embodiment includes a system utterance confirmation unit 50 in the parrot return response generation unit 15D in addition to the configuration of the dialogue system 10 of the first embodiment. Further, in the dialogue system 10D according to the fifth embodiment, a system utterance history database (system utterance history DB) 51 is also a constituent element.

システム発話履歴データベース51は、少なくとも直前のシステム発話を格納しているものである。例えば、対話(システム発話及びユーザ発話)履歴を格納しているデータベースを、第5の実施形態のシステム発話履歴データベース51として流用することができる。   The system utterance history database 51 stores at least the immediately preceding system utterance. For example, a database storing dialogue (system utterances and user utterances) history can be used as the system utterance history database 51 of the fifth embodiment.

システム発話確認部50には、対象箇所認定部12Dから、対象箇所として認定しようとした要素語(図5の抽出中心参照)の情報が与えられる。システム発話確認部50は、対象箇所として認定しようとした要素語が、システム発話履歴データベース51に存在する直前のシステム発話に含まれている語と一致するか否かを確認する。直前のシステム発話に、対象箇所として認定しようとした要素語が含まれていた場合には、システム発話確認部50は、対象箇所認定部12Dに通知し、対象箇所の認定候補から除外させる。   The system utterance confirmation unit 50 is provided with information on the element word (see the extraction center in FIG. 5) that is to be recognized as the target location from the target location recognition unit 12D. The system utterance confirmation unit 50 confirms whether or not the element word to be recognized as the target location matches the word included in the system utterance immediately before existing in the system utterance history database 51. When the immediately preceding system utterance includes an element word to be recognized as a target location, the system utterance confirmation unit 50 notifies the target location determination unit 12D and excludes it from the target location authorization candidates.

例えば、対象箇所として認定しようとした要素語の候補が1個の場合に、対象箇所の認定候補から除外されたときには、今回のユーザ発話に対して、オウム返し応答をしないことになる。また例えば、対象箇所として認定しようとした要素語の候補が複数の場合に、一部が対象箇所の認定候補から除外されたときには、残った認定候補の中から1つを選択することになる。   For example, if there is one element word candidate to be recognized as the target location and it is excluded from the candidate candidates for the target location, a parrot return response will not be made for the current user utterance. In addition, for example, when there are a plurality of candidate element words to be recognized as target locations, when some are excluded from the candidate candidates for the target location, one of the remaining recognition candidates is selected.

第5の実施形態によれば、第1の実施形態と同様な効果を奏することができ、さらに、オウム返し応答の候補を過去のシステム発話と比較するようにしたので、オウム返し応答によって同一内容のシステム発話が重複することを防止でき、自然な対話を実現させることができる。   According to the fifth embodiment, the same effects as those of the first embodiment can be obtained, and furthermore, the parrot return response candidates are compared with the past system utterances. It is possible to prevent the system utterances from overlapping, and to realize a natural dialogue.

(F)他の実施形態
上記実施形態の説明においても、種々変形実施形態に言及したが、さらに、以下に例示するような変形実施形態を挙げることができる。
(F) Other Embodiments In the description of the above-described embodiment, various modified embodiments have been referred to. However, modified embodiments as exemplified below can be cited.

上記各実施形態の技術的特徴は、組み合わせて適用可能であれば、組み合わせて適用するようにしても良い。   The technical features of the above embodiments may be applied in combination if applicable in combination.

第1の実施形態では、図5に示すような具体的な特殊表現を含む認定用特殊表現リストを利用しながら、オウム返しの対象箇所を認定するものを示したが、これに加え、属性や属性値などを利用して、オウム返しの対象箇所を認定するようにしても良い。例えば、時間属性や地域属性に属する表現を利用して、オウム返しの対象箇所を認定するようにしても良い。ユーザ発話が、「残業は2時間以内でお願いします」でも「30分以内の残業が良いです」でも、「2時間以内」や「30分以内」がオウム返しの対象箇所の認定候補になるように、時間属性で、対象箇所を認定するようにしても良い。属性値についても、図5のような抽出中心や、図6の語数目安や抽出ルールを定めておくことになる。   In the first embodiment, while the special expression list for authorization including the specific special expressions as shown in FIG. 5 is used, the object portion for recognizing the parrot is shown. You may make it authorize the target part of a parrot return using attribute values. For example, a parrot return target location may be recognized using expressions belonging to the time attribute or the regional attribute. Regardless of whether the user's utterance is "Please do overtime within 2 hours" or "Overtime within 30 minutes is good", "Within 2 hours" or "Within 30 minutes" is a candidate for the parrot return target candidate As described above, the target portion may be authorized by the time attribute. As for the attribute value, the extraction center as shown in FIG. 5, the word number standard and the extraction rule as shown in FIG. 6 are determined.

第2の実施形態では、オウム返しし得ない場合に、システム発話を次の話題に切り替えるものを示したが、オウム返しし得る場合にも、システム発話を次の話題に切り替えるようにしても良い。例えば、オウム返し応答の連続回数を計数しておき、連続回数が所定回数に達したときには、次のシステム発話を次の話題に切り替えるようにしても良い。この場合において、次の話題の前にオウム返し応答を付加してシステム発話とするようにしても良い。   In the second embodiment, the system utterance is switched to the next topic when the parrot cannot be returned. However, the system utterance may be switched to the next topic even when the parrot can be returned. . For example, the number of consecutive parrot return responses may be counted, and when the number of consecutive times reaches a predetermined number, the next system utterance may be switched to the next topic. In this case, a parrot return response may be added before the next topic to make a system utterance.

第3の実施形態では、換言先の候補が1つの場合を示したが、同一の換言元に対して複数の換言先の候補を用意しておくようにしても良い。この場合において、換言が最も古く行われた換言先の候補を適用するようにすれば良い。   In the third embodiment, the case where there is one paraphrase destination candidate is shown, but a plurality of paraphrase destination candidates may be prepared for the same paraphrase source. In this case, the oldest paraphrase destination candidate may be applied.

第4の実施形態では、フレーム付加条件が成立したときには常にフレームを付加するものを示したが、付加の連続回数や付加割合などに応じて、フレーム付加条件が成立してもフレームを付加するか否かを決定するようにしても良い。例えば、フレームの付加が2回連続した次のシステム発話ではフレームを付加しないようにする。   In the fourth embodiment, the frame is always added when the frame addition condition is satisfied. However, whether the frame is added even if the frame addition condition is satisfied according to the number of consecutive additions or the addition ratio. It may be determined whether or not. For example, the frame is not added in the next system utterance in which the addition of the frame is continued twice.

第5の実施形態では、対象箇所の要素語候補が、直前のシステム発話に含まれている場合に、候補から除外するものを示したが、直近過去の数回のシステム発話に含まれている場合に、候補から除外するようにしても良い。   In the fifth embodiment, when the element word candidate at the target location is included in the previous system utterance, it is excluded from the candidates, but is included in the most recent system utterances of the last few times. In this case, it may be excluded from the candidates.

第1の実施形態に係る対話システムの主たる構成を示す機能ブロック図である。It is a functional block diagram which shows the main structures of the dialogue system which concerns on 1st Embodiment. 第1の実施形態に係る対話システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the dialogue system which concerns on 1st Embodiment. ユーザ発話「人と接しながら自分が人間として成長できる仕事がしたい」に対する形態素解析結果を示す説明図である。It is explanatory drawing which shows the morphological analysis result with respect to user utterance "I want to do the job which can grow up as a person while contacting a person." ユーザ発話「人と接しながら自分が人間として成長できる仕事がしたい」に対する構文解析結果(構文木)を示す説明図である。It is explanatory drawing which shows the syntax analysis result (syntax tree) with respect to user utterance "I want to do the job which can grow up as a person while contacting a person." 第1の実施形態における対象箇所認定部が内蔵する認定用特殊表現リストを示す説明図である。It is explanatory drawing which shows the special expression list for authorization which the object location certification | authentication part in 1st Embodiment incorporates. 第1の実施形態における抽出部が内蔵する抽出用特殊表現リストを示す説明図である。It is explanatory drawing which shows the special expression list for extraction which the extraction part in 1st Embodiment incorporates. 第2の実施形態に係る対話システムの主たる構成を示す機能ブロック図である。It is a functional block diagram which shows the main structures of the dialogue system which concerns on 2nd Embodiment. 第3の実施形態に係る対話システムの主たる構成を示す機能ブロック図である。It is a functional block diagram which shows the main structures of the dialogue system which concerns on 3rd Embodiment. 第4の実施形態に係る対話システムの主たる構成を示す機能ブロック図である。It is a functional block diagram which shows the main structures of the dialogue system which concerns on 4th Embodiment. 第5の実施形態に係る対話システムの主たる構成を示す機能ブロック図である。It is a functional block diagram which shows the main structures of the dialogue system which concerns on 5th Embodiment.

符号の説明Explanation of symbols

10、10A、10B、10C、10D…対話システム、11…解析部、12、12D…対象箇所認定部、13…抽出部、14、14C…変形部、15、15B、15C、15D…オウム返し応答生成部、20…次話題選択部、21…話題データベース、30…換言部、40…フレーム付加部、50…システム発話確認部、51…システム発話履歴データベース。   DESCRIPTION OF SYMBOLS 10, 10A, 10B, 10C, 10D ... Dialog system, 11 ... Analysis part, 12, 12D ... Target location recognition part, 13 ... Extraction part, 14, 14C ... Deformation part, 15, 15B, 15C, 15D ... Parrot return response Generation unit, 20: Next topic selection unit, 21 ... Topic database, 30 ... Paraphrase unit, 40 ... Frame addition unit, 50 ... System utterance confirmation unit, 51 ... System utterance history database.

Claims (10)

人間とのインターフェースを行う装置との間で自然言語文のデータを授受して人間と対話する対話システムにおいて、
人間の発話を解析する解析部と、
上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定する対象箇所認定部と、
上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する抽出部と
を有することを特徴とする対話システム。
In a dialogue system that interacts with humans by transferring natural language sentence data to and from devices that interface with humans,
An analysis unit that analyzes human speech,
Using the above analysis results, the target location authorizing unit for authorizing the target location for extracting the elements for the system to utter from human speech,
An interactive system comprising: an extraction unit that extracts an element from a human utterance so that the system utterance has an appropriate length based on the target portion.
抽出された人間発話要素を、システム発話として自然な形に変形する変形部をさらに備えることを特徴とする請求項1に記載の対話システム。   The dialogue system according to claim 1, further comprising a deforming unit that transforms the extracted human speech element into a natural form as a system speech. 上記対象箇所認定部は、人間発話中に用いられた特定表現の種類に応じて、認定する対象箇所が異なることを特徴とする請求項1又は2に記載の対話システム。   The dialogue system according to claim 1 or 2, wherein the target part recognition unit is different in the target part to be authenticated according to the type of specific expression used during human speech. 上記抽出部は、人間発話中に用いられた特定表現の種類に応じて、抽出方法が異なっていることを特徴とする請求項1〜3のいずれかに記載の対話システム。   The dialogue system according to any one of claims 1 to 3, wherein the extraction unit has a different extraction method according to the type of specific expression used during human speech. 上記対象箇所認定部が対象箇所認定に成功しなかった場合、又は、上記抽出部が抽出に成功しなかった場合に、話題データベースから、次の話題に係るシステム発話を取り出して出力させる次話題選択部をさらに備えることを特徴とする請求項1〜4のいずれかに記載の対話システム。   Next topic selection that causes the system utterance of the next topic to be extracted from the topic database and output when the target location recognition unit does not succeed in target location recognition or when the extraction unit does not succeed in extraction The interactive system according to claim 1, further comprising a unit. 上記抽出部で抽出された要素語を別の表現に変換する換言部をさらに備えることを特徴とする請求項1〜5のいずれかに記載の対話システム。   The dialogue system according to claim 1, further comprising a paraphrase unit that converts the element word extracted by the extraction unit into another expression. 上記抽出部で抽出された要素語、若しくは、人間発話に相槌のトリガーとなる語が含まれた場合に、それに見合う相槌のフレームを生成するフレーズ付加部をさらに備え、
上記抽出部の抽出結果に応じて定めるシステム応答に相槌フレームを付加して最終的なシステム応答とすることを特徴とする請求項1〜6のいずれかに記載の対話システム。
When the element word extracted by the extraction unit or a word that triggers a conflict is included in a human utterance, the phrase addition unit further generates a frame of a match corresponding to the phrase,
The dialogue system according to any one of claims 1 to 6, wherein a final system response is obtained by adding a compatibility frame to a system response determined according to an extraction result of the extraction unit.
上記対象箇所認定部が認定しようとした対象箇所の語が、直前数回のシステム発話に含まれている語と一致するか否かを確認するシステム発話確認部をさらに備え、
上記対象箇所認定部は、対象箇所を認定する際に、上記システム発話確認部に問い合わせ、直前数回のシステム発話に含まれている語と一致する場合には対象箇所としないこととすることを特徴とする請求項1〜7のいずれかに記載の対話システム。
The system further includes a system utterance confirmation unit that confirms whether or not the word of the target part that the target part authorization unit is trying to recognize matches the word included in the system utterances of the previous few times.
The target part certifying part makes an inquiry to the system utterance confirmation part when certifying the target part, and if it matches the word included in the system utterance several times before, it shall not be considered as the target part. 8. The interactive system according to claim 1, wherein
人間とのインターフェースを行う装置と対話システムとが自然言語文のデータを授受して人間と対話する対話方法において、
上記対話システムは、解析部、対象箇所認定部及び抽出部を備え、
上記解析部が、人間の発話を解析し、
上記対象箇所認定部が、上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定し、
上記抽出部が、上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する
ことを特徴とする対話方法。
In a dialogue method in which a device that interacts with humans and a dialogue system exchange natural language sentence data and interact with humans,
The dialogue system includes an analysis unit, a target location recognition unit, and an extraction unit.
The analysis unit analyzes human speech,
The target location recognition unit uses the analysis result to identify the target location for extracting the elements for the system to utter from human utterances,
A dialogue method, wherein the extraction unit extracts elements from human utterances so that a system utterance has an appropriate length based on the target portion.
人間とのインターフェースを行う装置との間で自然言語文のデータを授受して人間と対話する対話システムを構築するコンピュータを、
人間の発話を解析する解析部と、
上記解析結果を利用し、システムが発話をするための要素を、人間発話から抽出するための対象箇所を認定する対象箇所認定部と、
上記対象箇所に基づき、システム発話が適当な長さになるように人間発話から要素を抽出する抽出部と
して機能させることを特徴とする対話プログラム。
A computer that builds a dialogue system that interacts with humans by sending and receiving natural language sentence data to and from devices that interface with humans.
An analysis unit that analyzes human speech,
Using the above analysis results, the target location authorizing unit for authorizing the target location for extracting the elements for the system to utter from human speech,
An interactive program that functions as an extraction unit that extracts elements from a human utterance so that a system utterance has an appropriate length based on the target portion.
JP2008034743A 2008-02-15 2008-02-15 Dialog system, method, and program Pending JP2009193448A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008034743A JP2009193448A (en) 2008-02-15 2008-02-15 Dialog system, method, and program
US12/273,556 US20090210411A1 (en) 2008-02-15 2008-11-19 Information Retrieving System
CNA2008101763599A CN101510197A (en) 2008-02-15 2008-11-20 Information retrieving system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008034743A JP2009193448A (en) 2008-02-15 2008-02-15 Dialog system, method, and program

Publications (1)

Publication Number Publication Date
JP2009193448A true JP2009193448A (en) 2009-08-27

Family

ID=41002599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008034743A Pending JP2009193448A (en) 2008-02-15 2008-02-15 Dialog system, method, and program

Country Status (2)

Country Link
JP (1) JP2009193448A (en)
CN (1) CN101510197A (en)

Cited By (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048443A (en) * 2012-08-31 2014-03-17 Nippon Telegr & Teleph Corp <Ntt> Voice synthesis system, voice synthesis method, and voice synthesis program
JP2014222514A (en) * 2010-01-18 2014-11-27 アップル インコーポレイテッド Intelligent automated assistant
JP2014229180A (en) * 2013-05-24 2014-12-08 学校法人東京電機大学 Apparatus, method and program for support of introspection, and device, method and program for interaction
JP2015173857A (en) * 2014-03-17 2015-10-05 株式会社東芝 Electronic apparatus and information processing method
JP2016024384A (en) * 2014-07-23 2016-02-08 トヨタ自動車株式会社 Response production system, response production method, and program
JP2016045655A (en) * 2014-08-21 2016-04-04 トヨタ自動車株式会社 Response generation method, response generation apparatus, and response generation program
JP2016080980A (en) * 2014-10-21 2016-05-16 トヨタ自動車株式会社 Response generation device, response generation method, and response generation program
JP2016080981A (en) * 2014-10-21 2016-05-16 トヨタ自動車株式会社 Response generation device, response generation method, and response generation program
JP2016090891A (en) * 2014-11-07 2016-05-23 トヨタ自動車株式会社 Response generation apparatus, response generation method, and response generation program
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
JP2017117090A (en) * 2015-12-22 2017-06-29 株式会社アイ・ビジネスセンター Dialogue system and program
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10083690B2 (en) 2014-05-30 2018-09-25 Apple Inc. Better resolution when referencing to concepts
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
JP2018160248A (en) * 2018-05-01 2018-10-11 トヨタ自動車株式会社 Response generation method, response generation apparatus, and response generation program
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
EP3489950A1 (en) 2017-11-28 2019-05-29 Toyota Jidosha Kabushiki Kaisha Response sentence generation apparatus, method and program, and voice interaction system
EP3489951A1 (en) 2017-11-28 2019-05-29 Toyota Jidosha Kabushiki Kaisha Voice dialogue apparatus, voice dialogue method, and program
US10311871B2 (en) 2015-03-08 2019-06-04 Apple Inc. Competing devices responding to voice triggers
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10332518B2 (en) 2017-05-09 2019-06-25 Apple Inc. User interface for correcting recognition errors
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
JP2019128822A (en) * 2018-01-25 2019-08-01 日本電信電話株式会社 Device, method and program for extracting japanese noun phrase
US10381016B2 (en) 2008-01-03 2019-08-13 Apple Inc. Methods and apparatus for altering audio output signals
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10403283B1 (en) 2018-06-01 2019-09-03 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10431204B2 (en) 2014-09-11 2019-10-01 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10438595B2 (en) 2014-09-30 2019-10-08 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10453443B2 (en) 2014-09-30 2019-10-22 Apple Inc. Providing an indication of the suitability of speech recognition
JP2019185230A (en) * 2018-04-04 2019-10-24 学校法人明治大学 Conversation processing device and conversation processing system and conversation processing method and program
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10497365B2 (en) 2014-05-30 2019-12-03 Apple Inc. Multi-command single utterance input method
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10529332B2 (en) 2015-03-08 2020-01-07 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10643611B2 (en) 2008-10-02 2020-05-05 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10684703B2 (en) 2018-06-01 2020-06-16 Apple Inc. Attention aware virtual assistant dismissal
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10699717B2 (en) 2014-05-30 2020-06-30 Apple Inc. Intelligent assistant for home automation
US10714117B2 (en) 2013-02-07 2020-07-14 Apple Inc. Voice trigger for a digital assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10748546B2 (en) 2017-05-16 2020-08-18 Apple Inc. Digital assistant services based on device capabilities
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10789945B2 (en) 2017-05-12 2020-09-29 Apple Inc. Low-latency intelligent automated assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11010127B2 (en) 2015-06-29 2021-05-18 Apple Inc. Virtual assistant for media playback
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11023513B2 (en) 2007-12-20 2021-06-01 Apple Inc. Method and apparatus for searching using an active ontology
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US11069336B2 (en) 2012-03-02 2021-07-20 Apple Inc. Systems and methods for name pronunciation
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US11127397B2 (en) 2015-05-27 2021-09-21 Apple Inc. Device voice control
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US11217251B2 (en) 2019-05-06 2022-01-04 Apple Inc. Spoken notifications
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US11231904B2 (en) 2015-03-06 2022-01-25 Apple Inc. Reducing response latency of intelligent automated assistants
US11237797B2 (en) 2019-05-31 2022-02-01 Apple Inc. User activity shortcut suggestions
US11269678B2 (en) 2012-05-15 2022-03-08 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11314370B2 (en) 2013-12-06 2022-04-26 Apple Inc. Method for extracting salient dialog usage from live data
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11350253B2 (en) 2011-06-03 2022-05-31 Apple Inc. Active transport based notifications
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11468282B2 (en) 2015-05-15 2022-10-11 Apple Inc. Virtual assistant in a communication session
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11495218B2 (en) 2018-06-01 2022-11-08 Apple Inc. Virtual assistant operation in multi-device environments
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
JP7441583B2 (en) 2019-08-01 2024-03-01 インターナショナル・ビジネス・マシーンズ・コーポレーション Conversation flow adaptation methods, systems, and programs in cognitive dialogue

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9471872B2 (en) * 2012-06-29 2016-10-18 International Business Machines Corporation Extension to the expert conversation builder
CN104050295B (en) * 2014-07-01 2018-01-02 彩带网络科技(北京)有限公司 A kind of exchange method and system
US9836529B2 (en) * 2014-09-22 2017-12-05 Oracle International Corporation Semantic text search
CN104391904B (en) * 2014-11-14 2018-10-12 北京中海纪元数字技术发展股份有限公司 User terminal data quick input method towards household survey and system
CN108885872A (en) * 2016-04-11 2018-11-23 三菱电机株式会社 Response generating means, dialogue control system and response generation method
CN107562770A (en) * 2016-07-01 2018-01-09 松下知识产权经营株式会社 Information processing method and recording medium
CN106446106B (en) * 2016-09-14 2019-03-22 深圳市贝克数据有限公司 Target user's intelligent retrieval matching process
JP2018054850A (en) * 2016-09-28 2018-04-05 株式会社東芝 Information processing system, information processor, information processing method, and program
CN106503156B (en) * 2016-10-24 2019-09-03 北京百度网讯科技有限公司 Man-machine interaction method and device based on artificial intelligence
JP6684233B2 (en) * 2017-01-12 2020-04-22 株式会社日立製作所 Test input information retrieval device and method
CN108153915B (en) * 2018-01-29 2020-06-23 成都嗨学洛子教育科技有限公司 Internet-based educational information rapid acquisition method
CN109063215B (en) * 2018-10-16 2020-10-30 成都四方伟业软件股份有限公司 Data retrieval method and device
CN113544726A (en) * 2019-03-11 2021-10-22 株式会社博报堂Dy控股集团 Mediation device, system, and computer program
CN111741104B (en) * 2020-06-18 2021-10-08 腾讯科技(深圳)有限公司 Method for determining response message, method for configuring response message, device, equipment and storage medium

Cited By (194)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US11928604B2 (en) 2005-09-08 2024-03-12 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US11023513B2 (en) 2007-12-20 2021-06-01 Apple Inc. Method and apparatus for searching using an active ontology
US10381016B2 (en) 2008-01-03 2019-08-13 Apple Inc. Methods and apparatus for altering audio output signals
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
US11348582B2 (en) 2008-10-02 2022-05-31 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10643611B2 (en) 2008-10-02 2020-05-05 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10741185B2 (en) 2010-01-18 2020-08-11 Apple Inc. Intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
JP2014222514A (en) * 2010-01-18 2014-11-27 アップル インコーポレイテッド Intelligent automated assistant
US9548050B2 (en) 2010-01-18 2017-01-17 Apple Inc. Intelligent automated assistant
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US10692504B2 (en) 2010-02-25 2020-06-23 Apple Inc. User profiling for voice input processing
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10417405B2 (en) 2011-03-21 2019-09-17 Apple Inc. Device access using voice authentication
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US11350253B2 (en) 2011-06-03 2022-05-31 Apple Inc. Active transport based notifications
US11069336B2 (en) 2012-03-02 2021-07-20 Apple Inc. Systems and methods for name pronunciation
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US11269678B2 (en) 2012-05-15 2022-03-08 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
JP2014048443A (en) * 2012-08-31 2014-03-17 Nippon Telegr & Teleph Corp <Ntt> Voice synthesis system, voice synthesis method, and voice synthesis program
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10714117B2 (en) 2013-02-07 2020-07-14 Apple Inc. Voice trigger for a digital assistant
US10978090B2 (en) 2013-02-07 2021-04-13 Apple Inc. Voice trigger for a digital assistant
JP2014229180A (en) * 2013-05-24 2014-12-08 学校法人東京電機大学 Apparatus, method and program for support of introspection, and device, method and program for interaction
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US10657961B2 (en) 2013-06-08 2020-05-19 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US11048473B2 (en) 2013-06-09 2021-06-29 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10769385B2 (en) 2013-06-09 2020-09-08 Apple Inc. System and method for inferring user intent from speech inputs
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US11314370B2 (en) 2013-12-06 2022-04-26 Apple Inc. Method for extracting salient dialog usage from live data
JP2015173857A (en) * 2014-03-17 2015-10-05 株式会社東芝 Electronic apparatus and information processing method
US10417344B2 (en) 2014-05-30 2019-09-17 Apple Inc. Exemplar-based natural language processing
US10497365B2 (en) 2014-05-30 2019-12-03 Apple Inc. Multi-command single utterance input method
US10714095B2 (en) 2014-05-30 2020-07-14 Apple Inc. Intelligent assistant for home automation
US10083690B2 (en) 2014-05-30 2018-09-25 Apple Inc. Better resolution when referencing to concepts
US11257504B2 (en) 2014-05-30 2022-02-22 Apple Inc. Intelligent assistant for home automation
US10699717B2 (en) 2014-05-30 2020-06-30 Apple Inc. Intelligent assistant for home automation
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US10657966B2 (en) 2014-05-30 2020-05-19 Apple Inc. Better resolution when referencing to concepts
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10878809B2 (en) 2014-05-30 2020-12-29 Apple Inc. Multi-command single utterance input method
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
JP2016024384A (en) * 2014-07-23 2016-02-08 トヨタ自動車株式会社 Response production system, response production method, and program
JP2016045655A (en) * 2014-08-21 2016-04-04 トヨタ自動車株式会社 Response generation method, response generation apparatus, and response generation program
US9653078B2 (en) 2014-08-21 2017-05-16 Toyota Jidosha Kabushiki Kaisha Response generation method, response generation apparatus, and response generation program
US10431204B2 (en) 2014-09-11 2019-10-01 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10390213B2 (en) 2014-09-30 2019-08-20 Apple Inc. Social reminders
US10438595B2 (en) 2014-09-30 2019-10-08 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10453443B2 (en) 2014-09-30 2019-10-22 Apple Inc. Providing an indication of the suitability of speech recognition
JP2016080981A (en) * 2014-10-21 2016-05-16 トヨタ自動車株式会社 Response generation device, response generation method, and response generation program
JP2016080980A (en) * 2014-10-21 2016-05-16 トヨタ自動車株式会社 Response generation device, response generation method, and response generation program
JP2016090891A (en) * 2014-11-07 2016-05-23 トヨタ自動車株式会社 Response generation apparatus, response generation method, and response generation program
US11231904B2 (en) 2015-03-06 2022-01-25 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10930282B2 (en) 2015-03-08 2021-02-23 Apple Inc. Competing devices responding to voice triggers
US10529332B2 (en) 2015-03-08 2020-01-07 Apple Inc. Virtual assistant activation
US10311871B2 (en) 2015-03-08 2019-06-04 Apple Inc. Competing devices responding to voice triggers
US11087759B2 (en) 2015-03-08 2021-08-10 Apple Inc. Virtual assistant activation
US11468282B2 (en) 2015-05-15 2022-10-11 Apple Inc. Virtual assistant in a communication session
US11127397B2 (en) 2015-05-27 2021-09-21 Apple Inc. Device voice control
US10681212B2 (en) 2015-06-05 2020-06-09 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US11010127B2 (en) 2015-06-29 2021-05-18 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10354652B2 (en) 2015-12-02 2019-07-16 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
JP2017117090A (en) * 2015-12-22 2017-06-29 株式会社アイ・ビジネスセンター Dialogue system and program
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10942703B2 (en) 2015-12-23 2021-03-09 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10942702B2 (en) 2016-06-11 2021-03-09 Apple Inc. Intelligent device arbitration and control
US10580409B2 (en) 2016-06-11 2020-03-03 Apple Inc. Application integration with a digital assistant
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US11656884B2 (en) 2017-01-09 2023-05-23 Apple Inc. Application integration with a digital assistant
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10741181B2 (en) 2017-05-09 2020-08-11 Apple Inc. User interface for correcting recognition errors
US10332518B2 (en) 2017-05-09 2019-06-25 Apple Inc. User interface for correcting recognition errors
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10847142B2 (en) 2017-05-11 2020-11-24 Apple Inc. Maintaining privacy of personal information
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10789945B2 (en) 2017-05-12 2020-09-29 Apple Inc. Low-latency intelligent automated assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10748546B2 (en) 2017-05-16 2020-08-18 Apple Inc. Digital assistant services based on device capabilities
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US10909171B2 (en) 2017-05-16 2021-02-02 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
EP3489950A1 (en) 2017-11-28 2019-05-29 Toyota Jidosha Kabushiki Kaisha Response sentence generation apparatus, method and program, and voice interaction system
US10861458B2 (en) 2017-11-28 2020-12-08 Toyota Jidosha Kabushiki Kaisha Response sentence generation apparatus, method and program, and voice interaction system
US10825455B2 (en) 2017-11-28 2020-11-03 Toyota Jidosha Kabushiki Kaisha Voice dialogue apparatus, voice dialogue method, and non-transitory computer readable media
JP2019101065A (en) * 2017-11-28 2019-06-24 トヨタ自動車株式会社 Voice interactive device, voice interactive method and program
EP3489951A1 (en) 2017-11-28 2019-05-29 Toyota Jidosha Kabushiki Kaisha Voice dialogue apparatus, voice dialogue method, and program
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
JP2019128822A (en) * 2018-01-25 2019-08-01 日本電信電話株式会社 Device, method and program for extracting japanese noun phrase
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
JP2019185230A (en) * 2018-04-04 2019-10-24 学校法人明治大学 Conversation processing device and conversation processing system and conversation processing method and program
JP7252690B2 (en) 2018-04-04 2023-04-05 節夫 鶴田 Conversation processing device, conversation processing system, conversation processing method and program
JP2018160248A (en) * 2018-05-01 2018-10-11 トヨタ自動車株式会社 Response generation method, response generation apparatus, and response generation program
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11009970B2 (en) 2018-06-01 2021-05-18 Apple Inc. Attention aware virtual assistant dismissal
US11495218B2 (en) 2018-06-01 2022-11-08 Apple Inc. Virtual assistant operation in multi-device environments
US10984798B2 (en) 2018-06-01 2021-04-20 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10720160B2 (en) 2018-06-01 2020-07-21 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10403283B1 (en) 2018-06-01 2019-09-03 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10684703B2 (en) 2018-06-01 2020-06-16 Apple Inc. Attention aware virtual assistant dismissal
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
US10504518B1 (en) 2018-06-03 2019-12-10 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11217251B2 (en) 2019-05-06 2022-01-04 Apple Inc. Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360739B2 (en) 2019-05-31 2022-06-14 Apple Inc. User activity shortcut suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11237797B2 (en) 2019-05-31 2022-02-01 Apple Inc. User activity shortcut suggestions
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
JP7441583B2 (en) 2019-08-01 2024-03-01 インターナショナル・ビジネス・マシーンズ・コーポレーション Conversation flow adaptation methods, systems, and programs in cognitive dialogue
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators

Also Published As

Publication number Publication date
CN101510197A (en) 2009-08-19

Similar Documents

Publication Publication Date Title
JP2009193448A (en) Dialog system, method, and program
US8117023B2 (en) Language understanding apparatus, language understanding method, and computer program
US6785651B1 (en) Method and apparatus for performing plan-based dialog
WO2018034118A1 (en) Dialog system and computer program therefor
CA2437620C (en) Hierarchichal language models
KR101762866B1 (en) Statistical translation apparatus by separating syntactic translation model from lexical translation model and statistical translation method
JP4439431B2 (en) Communication support device, communication support method, and communication support program
WO2016067418A1 (en) Conversation control device and conversation control method
JP2000353161A (en) Method and device for controlling style in generation of natural language
JP2003505778A (en) Phrase-based dialogue modeling with specific use in creating recognition grammars for voice control user interfaces
JP2009533728A (en) Machine translation method and system
JP6225012B2 (en) Utterance sentence generation apparatus, method and program thereof
JP2007206888A (en) Apparatus, method and program for generating answer
JP5073024B2 (en) Spoken dialogue device
JP2001344237A (en) Natural language processor through encoding, and its method
KR20170025424A (en) Paraphrase sentence generation method for a korean language sentence
JP3441400B2 (en) Language conversion rule creation device and program recording medium
Chowdhary Natural language processing
KR950013128B1 (en) Apparatus and method of machine translation
CN114492382A (en) Character extraction method, text reading method, dialog text generation method, device, equipment and storage medium
Milhorat et al. What if everyone could do it? a framework for easier spoken dialog system design
JP6843689B2 (en) Devices, programs and methods for generating contextual dialogue scenarios
Raymond et al. The luna corpus: an annotation scheme for a multi-domain multi-lingual dialogue corpus
CN112560497B (en) Semantic understanding method and device, electronic equipment and storage medium
US8635071B2 (en) Apparatus, medium, and method for generating record sentence for corpus and apparatus, medium, and method for building corpus using the same

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101026