JP2016156845A - Interaction support program, server and method for supporting user operation with user interaction system - Google Patents

Interaction support program, server and method for supporting user operation with user interaction system Download PDF

Info

Publication number
JP2016156845A
JP2016156845A JP2015032398A JP2015032398A JP2016156845A JP 2016156845 A JP2016156845 A JP 2016156845A JP 2015032398 A JP2015032398 A JP 2015032398A JP 2015032398 A JP2015032398 A JP 2015032398A JP 2016156845 A JP2016156845 A JP 2016156845A
Authority
JP
Japan
Prior art keywords
clause
action
user
support
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015032398A
Other languages
Japanese (ja)
Other versions
JP6570169B2 (en
Inventor
亮翼 住友
Ryosuke Sumitomo
亮翼 住友
加藤 恒夫
Tsuneo Kato
恒夫 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015032398A priority Critical patent/JP6570169B2/en
Publication of JP2016156845A publication Critical patent/JP2016156845A/en
Application granted granted Critical
Publication of JP6570169B2 publication Critical patent/JP6570169B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program or the like for supporting a user operation that a user may adopt without sense of incompatibility in accordance with utterance contents from the user when utilizing a user interaction system.SOLUTION: A computer is functioned as: a support table in which an action pattern formed from a phrase of a part of speech and an action clause, and an identifier of an application that should be started based on the action clause are correspondingly registered beforehand; a fact pair table in which a pair (fact pair) of a situation clause and an action clause to be coupled by a causal word is registered; fact pair selection means for detecting a situation clause registered in the fact pair table from user intention text and using the fact pair table to detect an action clause corresponding to the situation clause; application start means which uses the support table to start an application based on an identifier corresponding to the detected action clause; and support text generation means by which support text including the detected action clause is generated and explicitly indicated to the user.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザ対話システムの技術に関する。   The present invention relates to a technology of a user interaction system.

人間に対して自然な対話を実現したユーザ対話システムが、特にスマートフォンやタブレット端末を用いて一般的に普及しつつある。従来、ユーザからの発話内容や、センサによって取得された状況情報に応じて、ユーザの作業を支援する技術がある(例えば特許文献1参照)。作業中のユーザが置かれた状況を把握し、これに適合する情報を対話形式で案内することによって、ユーザが真に欲する情報を提供することができる。尚、この技術によれば、状況情報に対するその支援情報を予め用意しておく必要がある。   A user dialogue system that realizes natural dialogue with humans is becoming more popular, especially using smartphones and tablet terminals. 2. Description of the Related Art Conventionally, there is a technology that supports user's work according to utterance content from a user or situation information acquired by a sensor (for example, see Patent Document 1). Information that the user really wants can be provided by grasping the situation where the user who is working is placed and guiding the information conforming to the situation in an interactive manner. According to this technique, it is necessary to prepare the support information for the situation information in advance.

特開平10−143187号公報JP-A-10-143187 特開2004−212802号公報JP 2004-212802 A 特開2009−198614号公報JP 2009-198614 A

乾孝司,乾健太郎,松本裕治、「接続標識「ため」に基づく文書集合からの因果関係知識の自動獲得」、情報処理学会論文誌,Vol.45,No.3,pp.919-933 (2004)、[online]、[平成27年2月19日検索]、インターネット<URL: http://ci.nii.ac.jp/naid/110002712142>Inui Takashi, Inui Kentaro, Matsumoto Yuji, "Automatic Acquisition of Causal Knowledge from Document Sets Based on Connection Signs", IPSJ Journal, Vol. 45, No. 3, pp. 919-933 (2004 ), [Online], [Search February 19, 2015], Internet <URL: http://ci.nii.ac.jp/naid/110002712142> 鳥澤健太郎、「「常識的」推論規則のコーパスからの自動抽出」、言語処理学会第9回年次大会,pp.318-321(2003)、[online]、[平成27年2月19日検索]、インターネット<URL:http://www.anlp.jp/proceedings/annual_meeting/2003/pdf_dir/B4-9.pdf>Kentaro Torizawa, “Automatic Extraction of“ Common-sense ”Inference Rules from Corpus”, 9th Annual Conference of the Language Processing Society, pp.318-321 (2003), [online], [February 19, 2015 search ] Internet <URL: http://www.anlp.jp/proceedings/annual_meeting/2003/pdf_dir/B4-9.pdf> 「対話システムにおけるユーザの発話意図推定」、火の国シンポジウム2007, A-3-2, 2007.、[online]、[平成27年2月19日検索]、インターネット<URL:http://www.pluto.ai.kyutech.ac.jp/plt/endo-lab/publication.html>"Inference of user's utterance intention in dialogue system", Fire Country Symposium 2007, A-3-2, 2007., [online], [Search February 19, 2015], Internet <URL: http: // www .pluto.ai.kyutech.ac.jp / plt / endo-lab / publication.html> “A case study of comparison of several methods for corpus-based speech intention identification”、Proceedings of the 10th Conference of the Pacific Association for Computational Linguistics (PACLING2007), pp. 255-262, 2007.、[online]、[平成27年2月19日検索]、インターネット<URL:http://www.pluto.ai.kyutech.ac.jp/plt/shimada-lab/oldtopics.html>“A case study of comparison of several methods for corpus-based speech intention identification”, Proceedings of the 10th Conference of the Pacific Association for Computational Linguistics (PACLING2007), pp. 255-262, 2007., [online], [2015 Search February 19, 2011], Internet <URL: http://www.pluto.ai.kyutech.ac.jp/plt/shimada-lab/oldtopics.html>

ユーザ対話システムは、ユーザの発話に対して対話的に返答する。例えばユーザが「風邪をひいた」と発話した場合、その返答内容は、例えば「大丈夫?」「もう寝たら?」「学校行く時間だけど、休んだら?」のようなものとなる。   The user interaction system responds interactively to user utterances. For example, when the user utters “I caught a cold”, the response contents are, for example, “Are you okay?” “Would you like to go to sleep?” “Time to go to school, but when are you resting?”

しかしながら、ユーザは、ユーザ対話システムからのその返答内容に同意した場合に、別途、アプリケーションや検索ページを起動し、改めてその行き先や連絡先を検索しようとする場合がある。ユーザ対話システムが、対話内容から推定したアプリケーションや検索ページを自動的に起動することもできるが、ユーザに対してあまりに唐突的な印象を与え、その表示に戸惑うこともある。一方で、例えば端末が自動的にアプリケーションや検索ページを起動したとしても、検索キー自体は結局、ユーザ自身が入力する必要がある。   However, when the user agrees with the contents of the response from the user interaction system, the user may separately start an application or a search page and try to search for the destination or contact address again. Although the user interaction system can automatically start an application or a search page estimated from the content of the interaction, the user interaction system gives a sudden impression to the user and may be confused with the display. On the other hand, for example, even if the terminal automatically starts an application or a search page, the search key itself needs to be input by the user after all.

そこで、本発明は、ユーザ対話システムを利用する際に、ユーザからの発話内容に応じて違和感の無い自然なユーザ操作で支援することができる対話支援プログラム、サーバ及び方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a dialogue support program, a server, and a method that can be supported by a natural user operation with no sense of incongruity according to the utterance content from the user when using a user dialogue system. To do.

本発明によれば、ユーザ対話システムによって判定されたユーザ意図テキストに対して、ユーザ操作を支援するようにコンピュータを機能させる対話支援プログラムであって、
品詞句及び行為節からなる行為パターンと、当該行為節に基づいて起動すべきアプリケーションの識別子とを対応付けて予め登録した支援テーブルと、
因果語によって結びつけられる状況節と行為節との組(事実対)を登録した事実対テーブルと、
ユーザ意図テキストの中から、事実対テーブルに登録された状況節を検出し、事実対テーブルを用いて当該状況節に対応する行為節を検出する事実対選択手段と、
支援テーブルを用いて、検出された当該行為節に対応する識別子に基づくアプリケーションを起動するアプリケーション起動手段と、
検出された行為節を含む支援テキストを生成し、ユーザに明示する支援テキスト生成手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, there is provided a dialogue support program for causing a computer to function to support a user operation with respect to a user intention text determined by a user dialogue system,
A support table pre-registered in association with an action pattern composed of a part of speech and an action clause and an identifier of an application to be activated based on the action clause;
A fact-to-table that registers pairs of factual clauses and action clauses (facts vs.) linked by causal words;
A fact pair selection means for detecting a situation clause registered in the fact pair table from the user intention text and detecting an action clause corresponding to the situation clause using the fact pair table;
Using the support table, application launching means for launching an application based on the identifier corresponding to the detected action clause;
It is characterized by generating a support text including the detected action clause and causing the computer to function as support text generation means that is clearly indicated to the user.

本発明の対話支援プログラムにおける他の実施形態によれば、
アプリケーション起動手段は、ブラウザに基づく検索用ページを起動するものであり、検出された行為節に接続する品詞句に対応する単語を、検索キーとして入力する
ようにコンピュータを更に機能させることも好ましい。
According to another embodiment of the dialogue support program of the present invention,
The application activation means activates a search page based on the browser, and it is preferable that the computer further function to input a word corresponding to the part of speech phrase connected to the detected action clause as a search key.

本発明の対話支援プログラムにおける他の実施形態によれば、
事実対テーブルは、教師用の多数のテキストコーパスから生成されたものであり、
予め設定された因果語リストを用いて、テキストコーパスから因果語を抽出し、当該因果語を前後に挟む「状況節」「行為節」を抽出し、支援テーブルに登録された行為節に一致する状況節を、事実対テーブルに登録する事実対抽出手段と
してコンピュータを更に機能させることも好ましい。
According to another embodiment of the dialogue support program of the present invention,
The fact vs. table is generated from a number of text corpora for teachers,
Using a preset causal word list, extract causal words from the text corpus, extract "situation clauses" and "action clauses" sandwiching the causal words before and after, and match the action clauses registered in the support table It is also preferable to further cause the computer to function as a fact pair extracting means for registering the situation clause in the fact pair table.

本発明の対話支援プログラムにおける他の実施形態によれば、
事実対抽出手段は、予め設定された状況節用言リストに登録された状況節のみを、事実対テーブルに登録する
ようにコンピュータを更に機能させることも好ましい。
According to another embodiment of the dialogue support program of the present invention,
It is preferable that the fact pair extraction means further causes the computer to function so as to register only the situation clauses registered in the preset situation clause word list in the fact pair table.

本発明の対話支援プログラムにおける他の実施形態によれば、
状況節は、状況を表す用言を持つ述語項構造であり、
行為節は、行為を表す用言を持つ述語項構造であって、否定の意味を持つ助詞又は助動詞を含まないものである
ようにコンピュータを更に機能させることも好ましい。
According to another embodiment of the dialogue support program of the present invention,
A situation clause is a predicate term structure with a predicate representing the situation,
It is also preferable that the computer further functions so that the action clause is a predicate term structure having a predicate representing an action and does not include a particle or an auxiliary verb having a negative meaning.

本発明によれば、ユーザ対話システムを搭載すると共に、端末から受信した発話テキストからユーザ対話システムによって判定されたユーザ意図テキストに対して、端末におけるユーザ操作を支援する対話支援サーバであって、
品詞句及び行為節からなる行為パターンと、当該行為節に基づいて起動すべきアプリケーションの識別子とを対応付けて予め登録した支援テーブルと、
因果語によって結びつけられる状況節と行為節との組(事実対)を登録した事実対テーブルと、
ユーザ意図テキストの中から、事実対テーブルに登録された状況節を検出し、事実対テーブルを用いて当該状況節に対応する行為節を検出する事実対選択手段と、
支援テーブルを用いて、検出された当該行為節に対応する識別子に基づくアプリケーションを起動すべき制御情報を、端末へ送信するアプリケーション起動手段と、
検出された行為節を含む支援テキストを生成し、該支援テキストを端末へ送信する支援テキスト生成手段と
を有することを特徴とする。
According to the present invention, there is provided a dialogue support server that supports a user operation on a terminal with respect to a user intention text that is mounted by a user dialogue system and is determined by a user dialogue system from an utterance text received from a terminal.
A support table pre-registered in association with an action pattern composed of a part of speech and an action clause and an identifier of an application to be activated based on the action clause;
A fact-to-table that registers pairs of factual clauses and action clauses (facts vs.) linked by causal words;
A fact pair selection means for detecting a situation clause registered in the fact pair table from the user intention text and detecting an action clause corresponding to the situation clause using the fact pair table;
Application starting means for transmitting control information for starting an application based on an identifier corresponding to the detected action clause to the terminal using the support table;
Support text generation means for generating support text including the detected action clause and transmitting the support text to the terminal is provided.

本発明によれば、ユーザ対話システムを搭載すると共に、端末から受信した発話テキストからユーザ対話システムによって判定されたユーザ意図テキストに対して、端末におけるユーザ操作を支援する装置の対話支援方法であって、
装置は、
品詞句及び行為節からなる行為パターンと、当該行為節に基づいて起動すべきアプリケーションの識別子とを対応付けて予め登録した支援テーブルと、
因果語によって結びつけられる状況節と行為節との組(事実対)を登録した事実対テーブルと
を有し、
装置は、
ユーザ意図テキストの中から、事実対テーブルに登録された状況節を検出し、事実対テーブルを用いて当該状況節に対応する行為節を検出する第1のステップと、
支援テーブルを用いて、検出された当該行為節に対応する識別子に基づくアプリケーションを起動すべき制御情報を、端末へ送信する第2のステップと、
検出された行為節を含む支援テキストを生成し、該支援テキストを端末へ送信する第3のステップと
を有することを特徴とする。
According to the present invention, there is provided a dialogue support method for a device equipped with a user dialogue system and for assisting a user operation in a terminal for a user intention text determined by a user dialogue system from an utterance text received from a terminal. ,
The device
A support table pre-registered in association with an action pattern composed of a part of speech and an action clause and an identifier of an application to be activated based on the action clause;
A fact-to-table that registers a set of factual clauses and action clauses (fact pairs) linked by causal words;
The device
A first step of detecting a situation clause registered in the fact pair table from the user intention text, and detecting an action clause corresponding to the situation clause using the fact pair table;
A second step of transmitting, to the terminal, control information for starting an application based on an identifier corresponding to the detected action clause using the support table;
And generating a support text including the detected action clause and transmitting the support text to the terminal.

本発明の対話支援プログラム、サーバ及び方法によれば、ユーザ対話システムを利用する際に、ユーザからの発話内容に応じて違和感の無い自然なユーザ操作で支援することができる。   According to the dialogue support program, the server, and the method of the present invention, when using the user dialogue system, it is possible to support the user with a natural user operation with no sense of incongruity according to the utterance content from the user.

本発明における対話支援プログラムの機能構成図である。It is a function block diagram of the dialog assistance program in this invention. 図1の各機能構成部にける具体的な処理の流れを表す説明図である。It is explanatory drawing showing the flow of the specific process in each function structure part of FIG. 本発明における事実対テーブルの抽出を表す説明図である。It is explanatory drawing showing extraction of the fact pair table in this invention. 端末に表示されたユーザインタフェースの画面である。It is the screen of the user interface displayed on the terminal.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明における対話支援プログラムの機能構成図である。   FIG. 1 is a functional configuration diagram of a dialogue support program according to the present invention.

図1によれば、ユーザとの間で対話プロセスを進行させるユーザ対話システム10は、端末2と通信するサーバ側にインストールされて実行されている。ユーザは、スマートフォンやタブレットのような端末2を用いて、ネットワークを介して当該サーバへアクセスする。勿論、ユーザ対話システム10が、端末自体のような単体装置内にのみにインストールされたものであってもよい。   According to FIG. 1, a user dialogue system 10 that advances a dialogue process with a user is installed and executed on the server side that communicates with the terminal 2. The user accesses the server via the network using the terminal 2 such as a smartphone or a tablet. Of course, the user interaction system 10 may be installed only in a single device such as the terminal itself.

ユーザ対話システム10に対するユーザインタフェースとしての端末2は、ユーザに対する入力デバイス及び出力デバイスを有する。ユーザの発話によってマイクで取得された音声信号は、音声認識によってテキストに変換され、そのテキストがユーザ対話システム10へ送信される。また、ユーザ対話システム10から出力された回答テキストは、音声合成によって音声信号に変換され、その音声信号がスピーカから発声される。また、端末2は、タッチパネルディスプレイを搭載し、ユーザ対話システム10に対する自然な対話を実現することができる。   The terminal 2 as a user interface for the user interaction system 10 has an input device and an output device for the user. The voice signal acquired by the microphone by the user's utterance is converted into text by voice recognition, and the text is transmitted to the user interaction system 10. The answer text output from the user interaction system 10 is converted into a voice signal by voice synthesis, and the voice signal is uttered from a speaker. Further, the terminal 2 is equipped with a touch panel display and can realize a natural dialogue with the user dialogue system 10.

対話支援プログラム(サーバ)1は、ユーザ対話システム10を搭載し、端末2から受信した発話テキストからユーザ対話システムによって判定された「ユーザ意図テキスト」を入力する。そのユーザ意図テキストに応じて、端末2に対するユーザ操作を支援するようにコンピュータを機能させる。   The dialogue support program (server) 1 includes the user dialogue system 10 and inputs “user intention text” determined by the user dialogue system from the utterance text received from the terminal 2. In response to the user intention text, the computer is caused to function so as to support user operations on the terminal 2.

ユーザ対話システム10は、既存のものであって一般に、言語解析部と、意図判定部と、対話制御部と、応答生成部とを有する。
言語解析部は、ユーザ発話テキストから、形態素解析及構文解析を実行する。
意図判定部は、構文解析されたユーザ発話テキストから、そのユーザの意図を推定する(例えば非特許文献3及び4参照)。意図判定部は、予め、各意図カテゴリに対応するコーパステキストから生成された教師用特徴ベクトルをテンプレート群として用意している。そして、意図判定部は、推定処理は、テキストから、類義語や数値表現を抽象化した内容語集合から、特徴ベクトルを作成する。作成した特徴ベクトルと教師用特徴ベクトルとを比較し、最も類似度の高いテンプレートが属する意図カテゴリを、意図推定結果として出力する。
対話制御部は、ユーザの意図に応じて、例えば予め用意した対話シナリオに従って、ユーザに回答すべきテキストを出力する。ユーザとの間で対話プロセスを進めることによって、対話を進行させる(例えば特許文献2及び3参照)。また、できる限り自然な対話を進めるために、遷移確率に基づいて次の対話プロセスを選択するものもある。
応答生成部は、対話制御部における対話プロセルに応じた回答テキストを生成し、ユーザへ明示する。
The user dialogue system 10 is an existing one and generally includes a language analysis unit, an intention determination unit, a dialogue control unit, and a response generation unit.
The language analysis unit executes morphological analysis and syntax analysis from the user utterance text.
The intention determination unit estimates the intention of the user from the parsed user utterance text (see, for example, Non-Patent Documents 3 and 4). The intention determination unit prepares a teacher feature vector generated from a corpus text corresponding to each intention category in advance as a template group. Then, the intention determination unit creates a feature vector from the set of content words obtained by abstracting synonyms and numerical expressions from the text. The created feature vector is compared with the teacher feature vector, and the intention category to which the template having the highest similarity belongs is output as the intention estimation result.
The dialogue control unit outputs text to be answered to the user in accordance with the user's intention, for example, according to a dialogue scenario prepared in advance. The dialog is advanced by proceeding with the dialog process with the user (see, for example, Patent Documents 2 and 3). Others select the next dialog process based on the transition probability in order to proceed with a natural dialog as much as possible.
The response generation unit generates an answer text corresponding to the dialog process in the dialog control unit and clearly indicates it to the user.

図1によれば、対話支援プログラム1は、支援テーブル11と、事実対テーブル12と、事実対選択部13と、アプリケーション起動部14と、支援テキスト生成部15とを有する。対話支援プログラム1を、装置に搭載されたコンピュータによって実行させることによって、サーバ及び単体装置として機能する。また、これら機能構成部の処理の流れは、対話支援方法としても理解できる。   According to FIG. 1, the dialogue support program 1 includes a support table 11, a fact pair table 12, a fact pair selection unit 13, an application activation unit 14, and a support text generation unit 15. The dialogue support program 1 functions as a server and a single device by being executed by a computer mounted on the device. Further, the flow of processing of these functional components can be understood as a dialogue support method.

図2は、図1の各機能構成部にける具体的な処理の流れを表す説明図である。   FIG. 2 is an explanatory diagram showing a specific processing flow in each functional component of FIG.

[支援テーブル11]
支援テーブル11は、品詞句及び行為節からなる「行為パターン」と、当該行為節に基づいて起動すべきアプリケーションの識別子「アプリケーション識別子」とを対応付けて予め登録したものである。
図2によれば、支援テーブル11は、例えば以下のように登録されている。
[行為パターン] [アプリケーション識別子]
(<品詞><行為節>)
<名詞句>へ行く 地図検索アプリケーション識別子
<名詞句>を飲む 商品検索アプリケーション識別子
<名詞句>へ連絡する 電話アプリケーション識別子
<名詞句>を贈る 商品検索アプリケーション識別子
<名詞句>を買う 商品検索アプリケーション識別子
支援テーブル11は、ユーザ対話システムの運用管理者によって予め登録されるものである。
[Support Table 11]
The support table 11 is registered in advance in association with an “action pattern” composed of a part of speech and an action clause and an identifier “application identifier” of an application to be activated based on the action clause.
According to FIG. 2, the support table 11 is registered as follows, for example.
[Action pattern] [Application identifier]
(<Part of speech><Actionclause>)
Go to <Noun Phrase> Map Search Application Identifier <Noun Phrase> Drink Product Search Application Identifier Contact <Noun Phrase> Telephone Application Identifier Send <Noun Phrase> Product Search Application Identifier Buy <Noun Phrase> Product Search Application Identifier The support table 11 is registered in advance by an operation manager of the user interaction system.

地図検索アプリケーションとしては、ブラウザに基づく地図検索ページであって、例えば店種別のような名詞句を検索キーとして入力し、ユーザの現在位置付近におけるそれらの位置を表示するものである。
商品検索アプリケーションとしては、ブラウザに基づく検索ページであって、例えば商品名のような名詞句を検索キーとして入力し、その商品の販売ページを表示するものである。
電話アプリケーションとしては、携帯電話用に予め搭載されたものであって、例えば電話番号を入力し、携帯電話網へ発呼するものである。
The map search application is a map search page based on a browser, in which, for example, a noun phrase such as a store type is input as a search key, and its position in the vicinity of the current position of the user is displayed.
The product search application is a search page based on a browser, in which a noun phrase such as a product name is input as a search key, and a sales page of the product is displayed.
The telephone application is preinstalled for a mobile phone, and for example, inputs a telephone number and places a call to the mobile phone network.

[事実対テーブル12]
事実対テーブル12は、因果語(接続語)によって結びつけられる状況節と行為節との組(事実対)を登録したものである。
「状況節」は、状況を表す用言を持つ述語項構造である(尚、意味属性が事柄である名詞も含む)。
「行為節」は、行為を表す用言を持つ述語項構造であって、否定の意味を持つ助詞又は助動詞を含まないものである。
図2によれば、事実対テーブル12は、例えば以下のように登録されている。
[状況節] [行為節]
<風邪>である <病院>へ行く
<頭>が痛む <頭痛薬>を飲む
<仕事>に遅れる <会社>に電話する
<暑い> <アイス>を買う
<寒い> <喫茶店>へ行く
<記念日>である <プレゼント>を贈る
事実対テーブル12は、ユーザ対話システムの運用管理者によって登録されるものであってもよいし、後述する図3のようにテキストコーパスから抽出されるものであってもよい。
[Fact vs. table 12]
The fact pair table 12 is a table in which sets of situation clauses and action clauses (fact pairs) linked by causal words (connecting words) are registered.
The “situation clause” is a predicate term structure having a predicate representing a situation (including a noun whose semantic attribute is a matter).
The “action clause” is a predicate term structure having a predicate representing an action, and does not include a particle or an auxiliary verb having a negative meaning.
According to FIG. 2, the fact pair table 12 is registered as follows, for example.
[Situation section] [Action section]
<Cold> Go to <Hospital><Head> hurts <Headaches> Drink <Head><Call><Company><Hot> Buy <Ice><Cold> Go to <Coffee><Memorial The fact vs. table 12 may be registered by the operation manager of the user interaction system or extracted from the text corpus as shown in FIG. 3 to be described later. May be.

[事実対選択部13]
事実対選択部13は、ユーザ対話システムの意図判定部から出力される「ユーザ意図テキスト」を入力する。そして、事実対選択部13は、ユーザ意図テキストの中から、事実対テーブルに登録された「状況節」を検出し、事実対テーブルを用いて当該状況節に対応する「行為節」を検出する。
[Fact versus selector 13]
The fact pair selection unit 13 inputs “user intention text” output from the intention determination unit of the user interaction system. Then, the fact pair selection unit 13 detects the “situation clause” registered in the fact pair table from the user intention text, and detects the “action clause” corresponding to the situation clause using the fact pair table. .

図2によれば、ユーザは、「風邪みたい」と発話したとする。この発話内容は、ユーザ対話システム10に入力され、意図判定部からユーザ意図テキスト「風邪である」が出力されている。このユーザ意図テキストは、事実対選択部13に入力される。事実対選択部13は、事実対テーブル12を参照し、以下の事実対を選択する。
[状況節] [行為節]
<風邪>である <病院>へ行く
選択された事実対は、アプリケーション起動部14へ出力される。
According to FIG. 2, it is assumed that the user utters “It looks like a cold”. This utterance content is input to the user interaction system 10, and the user intention text “I am cold” is output from the intention determination unit. This user intention text is input to the fact pair selection unit 13. The fact pair selection unit 13 refers to the fact pair table 12 and selects the following fact pair.
[Situation section] [Action section]
<Cold> Go to <Hospital> The selected fact pair is output to the application activation unit 14.

[アプリケーション起動部14]
アプリケーション起動部14は、支援テーブル11を用いて、検出された当該行為節に対応するアプリケーション識別子を検索する。図2によれば、以下のアプリケーション識別子が検索される。
[行為パターン] [アプリケーション識別子]
<名詞句>へ行く 地図検索アプリケーション識別子
また、行為節と接続する名詞句としては、<病院>が対応する。
そして、アプリケーション起動部14は、その識別子に基づくアプリケーションを起動すべき制御情報を、端末2へ送信する。
[Application startup unit 14]
The application activation unit 14 uses the support table 11 to search for an application identifier corresponding to the detected action clause. According to FIG. 2, the following application identifiers are searched:
[Action pattern] [Application identifier]
Go to <noun phrase> Map search application identifier <hospital> corresponds to the noun phrase connected to the action clause.
Then, the application activation unit 14 transmits control information to activate the application based on the identifier to the terminal 2.

アプリケーションを起動すべき制御情報としては、例えば以下のものを含む。
(1)アプリケーション識別子 ->「地図検索アプリケーション識別子」
(2)検索キー ->「病院」
これに対し、端末2は、地図検索アプリケーションを起動すると共に、「病院」を検索キーとして入力し、例えばユーザの現在位置周辺における病院の位置を表示する。
Examples of control information for starting an application include the following.
(1) Application identifier-> “Map search application identifier”
(2) Search key->"Hospital"
On the other hand, the terminal 2 activates the map search application and inputs “hospital” as a search key to display, for example, the position of the hospital around the current position of the user.

[支援テキスト生成部15]
支援テキスト生成部15は、検出された行為節を含む支援テキストを生成し、その支援テキストを端末2へ送信する。図2によれば、以下のような支援テキストが生成される。
<病院>へ行く ->「病院へ行ったらどうですか?」
ここでは、行為パターン<名詞句+行為節>を、口語調にしたものである。この支援テキストは、ユーザに明示される。これによって、ユーザは、地図検索アプリケーションが自動的に起動されても、病院へ行くことを勧めらえていることを認識し、違和感の無く受け入れることができる。
[Support Text Generation Unit 15]
The support text generation unit 15 generates support text including the detected action clause, and transmits the support text to the terminal 2. According to FIG. 2, the following support text is generated.
Go to <Hospital>->"How about going to the hospital?"
Here, the action pattern <noun phrase + action clause> is colloquially. This support text is clearly indicated to the user. Thereby, even if the map search application is automatically started, the user can recognize that he / she is recommended to go to the hospital and can accept it without feeling uncomfortable.

図3は、本発明における事実対テーブルの抽出を表す説明図である。   FIG. 3 is an explanatory diagram showing extraction of the fact pair table in the present invention.

図3によれば、事実対テーブルが、教師用の多数のテキストコーパスから生成されている。テキストコーパスは、事実対を抽出するための教師用のテキスト群である。テキストコーパスは、大規模テキストデータを、形態素解析及び構文解析によって、各文の形態素列の係り受け関係を蓄積したものであってもよい。   According to FIG. 3, a fact-to-table is generated from a number of text corpora for teachers. The text corpus is a text group for teachers to extract fact pairs. The text corpus may be a large-scale text data obtained by accumulating dependency relationships of morpheme strings of each sentence by morphological analysis and syntax analysis.

[事実対抽出部16]
事実対抽出部16は、テキストコーパスから、予め設定された「因果語」を抽出する。因果語は、因果語リストに予め登録されたものである。因果語としては、例えば「〜ので〜」「〜から〜」がある。そして、当該因果語を前後に挟む「状況節」「行為節」を抽出し、支援テーブル11に登録された行為節に一致する状況節を、事実対テーブル12に登録する。
[Fact vs. extraction unit 16]
The fact pair extraction unit 16 extracts “causal words” set in advance from the text corpus. The causal word is registered in advance in the causal word list. As causal words, there are, for example, “~ so ~” and “~~~”. Then, “situation clause” and “action clause” sandwiching the causal word are extracted, and a situation clause that matches the action clause registered in the support table 11 is registered in the fact pair table 12.

因果語を接続する状況節と行為節との抽出は、具体的には既存技術を用いることができる(例えば非特許文献1及び2参照)。非特許文献1に記載の技術によれば、日本語テキストを対象として、「ため」という単語を手掛かり語とした因果関係を抽出する。また、非特許文献2に記載の技術によれば、並列句が1つの文に存在し、並列句中の動詞が共通の目的語を持つ場合に因果関係が成立しやすいと仮定して、統計的に因果関係を抽出する。   For the extraction of the situation clause and the action clause connecting causal words, specifically, an existing technique can be used (see, for example, Non-Patent Documents 1 and 2). According to the technique described in Non-Patent Document 1, a causal relationship is extracted for Japanese text with the word “for” as a clue word. Further, according to the technique described in Non-Patent Document 2, it is assumed that a causal relationship is easily established when a parallel phrase exists in one sentence and verbs in the parallel phrase have a common object. Causal relations are extracted.

また、事実対抽出部16は、予め設定された「状況節用言リスト」に登録された「状況節」のみを、事実対テーブルに登録することも好ましい。事実対として登録すべき状況節のみを、予め特定しておくことができる。   It is also preferable that the fact pair extraction unit 16 registers only “situation clauses” registered in the preset “situation clause list” in the fact pair table. Only situation clauses to be registered as fact pairs can be specified in advance.

尚、支援テーブル11に登録された行為節に対して、事実対の出現頻度が最も高い状況節のみを抽出するものであってもよい。ここでの出現頻度は、自立語に注目したTF−IDF(Term Frequency - Inverse Document Frequency:単語の出現頻度−逆出現頻度)値であってもよい。TF−IDFとは、文章中に出現した単語がどのくらい特徴的であるかを識別するための指標をいう。TF(term frequency)は、その文章の中でその単語が出現した回数を表し、IDF(inverse document frequency)は、コーパス全体の中でその文章を含む文章数の自然対数を表す。そして、TF値×IDF値が、その文章中におけるその単語のTF−IDF値となる。高いTF−IDF値を持つ単語ほど、話題性が高い(重要)であると認識される。   Note that, for the action clauses registered in the support table 11, only the situation clauses with the highest occurrence frequency of fact pairs may be extracted. The appearance frequency here may be a TF-IDF (Term Frequency-Inverse Document Frequency) value focusing on independent words. TF-IDF refers to an index for identifying how characteristic a word that appears in a sentence is. TF (term frequency) represents the number of times the word appears in the sentence, and IDF (inverse document frequency) represents the natural logarithm of the number of sentences including the sentence in the entire corpus. Then, TF value × IDF value becomes the TF-IDF value of the word in the sentence. A word having a higher TF-IDF value is recognized as having a higher topicality (important).

図4は、端末に表示されたユーザインタフェースの画面である。   FIG. 4 is a user interface screen displayed on the terminal.

図4によれば、端末2のタッチパネルディスプレイが表示されている。そのディスプレイには、「キャラクタ・エージェント」が表示されており、ユーザとエージェントとの間で音声による対話を進めるものであってもよい。勿論、本発明は、音声対話に限定されるものではなく、テキスト対話であってもよい。   According to FIG. 4, the touch panel display of the terminal 2 is displayed. “Character Agent” is displayed on the display, and a voice dialogue between the user and the agent may be advanced. Of course, the present invention is not limited to a voice dialogue, but may be a text dialogue.

また、図4によれば、ユーザが「風邪みたい」と発話したとき、エージェントが、支援テキストとして「病院へ行ったらどうですか?」と回答すると共に、地図検索アプリケーションが起動し、検索キーに「病院」が入力されている。ユーザは、エージェントが病院へ行くことを勧めていることを知ると共に、ユーザの現在位置周辺の病院の位置を視認することができる。即ち、ユーザは、アプリケーションが自動的に起動しても、支援テキストを見る又は聞くことによって、不可解な印象を持つこともない。   Also, according to FIG. 4, when the user utters “It looks like a cold”, the agent replies “How about going to the hospital?” As the support text, and the map search application is activated, and the search key is set to “Hospital”. "Is entered. The user can know that the agent recommends going to the hospital, and can visually recognize the position of the hospital around the current position of the user. That is, even if the application is automatically activated, the user does not have a mysterious impression by seeing or listening to the support text.

以上、詳細に説明したように、本発明の対話支援プログラム、サーバ及び方法によれば、ユーザ対話システムを利用する際に、ユーザからの発話内容に応じて違和感の無い自然なユーザ操作で支援することができる。   As described above in detail, according to the dialogue support program, server, and method of the present invention, when a user dialogue system is used, the user is supported by natural user operation without a sense of incongruity according to the utterance content from the user. be able to.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1 対話支援プログラム
10 ユーザ対話システム
11 支援テーブル
12 事実対テーブル
13 事実対選択部
14 アプリケーション起動部
15 支援テキスト生成部
16 事実対抽出部
2 端末
DESCRIPTION OF SYMBOLS 1 Dialog support program 10 User dialog system 11 Support table 12 Fact pair table 13 Fact pair selection part 14 Application starting part 15 Support text generation part 16 Fact pair extraction part 2 Terminal

Claims (7)

ユーザ対話システムによって判定されたユーザ意図テキストに対して、ユーザ操作を支援するようにコンピュータを機能させる対話支援プログラムであって、
品詞句及び行為節からなる行為パターンと、当該行為節に基づいて起動すべきアプリケーションの識別子とを対応付けて予め登録した支援テーブルと、
因果語によって結びつけられる状況節と行為節との組(事実対)を登録した事実対テーブルと、
前記ユーザ意図テキストの中から、前記事実対テーブルに登録された状況節を検出し、前記事実対テーブルを用いて当該状況節に対応する行為節を検出する事実対選択手段と、
前記支援テーブルを用いて、検出された当該行為節に対応する識別子に基づくアプリケーションを起動するアプリケーション起動手段と、
検出された前記状況節及び前記行為節を含む一連の支援テキストを生成し、ユーザに明示する支援テキスト生成手段と
してコンピュータを機能させることを特徴とする対話支援プログラム。
A dialogue support program for causing a computer to function to support a user operation with respect to a user intention text determined by a user dialogue system,
A support table pre-registered in association with an action pattern composed of a part of speech and an action clause and an identifier of an application to be activated based on the action clause;
A fact-to-table that registers pairs of factual clauses and action clauses (facts vs.) linked by causal words;
Fact pair selection means for detecting a situation clause registered in the fact pair table from the user intention text and detecting an action clause corresponding to the situation clause using the fact pair table;
Using the support table, application launching means for launching an application based on an identifier corresponding to the detected action clause;
A dialogue support program characterized by causing a computer to function as support text generation means for generating a series of support text including the detected situation clauses and the action clauses and indicating them to a user.
前記アプリケーション起動手段は、ブラウザに基づく検索用ページを起動するものであり、検出された前記行為節に接続する品詞句に対応する単語を、検索キーとして入力する
ようにコンピュータを更に機能させることを特徴とする請求項1に記載の対話支援プログラム。
The application activation means activates a search page based on a browser, and further causes the computer to function as a search key for inputting a word corresponding to a part of speech phrase connected to the detected act clause. The dialogue support program according to claim 1, wherein:
前記事実対テーブルは、教師用の多数のテキストコーパスから生成されたものであり、
予め設定された因果語リストを用いて、前記テキストコーパスから因果語を抽出し、当該因果語を前後に挟む「状況節」「行為節」を抽出し、前記支援テーブルに登録された前記行為節に一致する状況節を、前記事実対テーブルに登録する事実対抽出手段と
してコンピュータを更に機能させることを特徴とする請求項1又は2に記載の対話支援プログラム。
The fact pair table is generated from a number of text corpora for teachers,
Using a preset causal word list, a causal word is extracted from the text corpus, a “situation clause” and an “action clause” sandwiching the causal word are extracted, and the action clause registered in the support table is extracted. 3. The dialogue support program according to claim 1, further causing the computer to function as fact pair extraction means for registering a situation clause that matches the fact clause in the fact pair table.
前記事実対抽出手段は、予め設定された状況節用言リストに登録された状況節のみを、前記事実対テーブルに登録する
ようにコンピュータを更に機能させることを特徴とする請求項3に記載の対話支援プログラム。
4. The dialogue according to claim 3, wherein the fact pair extraction unit further causes the computer to function so as to register only the situation clauses registered in the preset list of situation clauses in the fact pair table. Support program.
前記状況節は、状況を表す用言を持つ述語項構造であり、
前記行為節は、行為を表す用言を持つ述語項構造であって、否定の意味を持つ助詞又は助動詞を含まないものである
ようにコンピュータを更に機能させることを特徴とする請求項1から4のいずれか1項に記載の対話支援プログラム。
The situation clause is a predicate term structure with a predicate representing the situation;
5. The act clause is a predicate term structure having a predicate representing an act, and further causes the computer to function so as not to include a particle or an auxiliary verb having a negative meaning. The dialogue support program according to any one of the above.
ユーザ対話システムを搭載すると共に、端末から受信した発話テキストから前記ユーザ対話システムによって判定されたユーザ意図テキストに対して、前記端末におけるユーザ操作を支援する対話支援サーバであって、
品詞句及び行為節からなる行為パターンと、当該行為節に基づいて起動すべきアプリケーションの識別子とを対応付けて予め登録した支援テーブルと、
因果語によって結びつけられる状況節と行為節との組(事実対)を登録した事実対テーブルと、
前記ユーザ意図テキストの中から、前記事実対テーブルに登録された状況節を検出し、前記事実対テーブルを用いて当該状況節に対応する行為節を検出する事実対選択手段と、
前記支援テーブルを用いて、検出された当該行為節に対応する識別子に基づくアプリケーションを起動すべき制御情報を、前記端末へ送信するアプリケーション起動手段と、
検出された前記状況節及び前記行為節を含む一連の支援テキストを生成し、該支援テキストを前記端末へ送信する支援テキスト生成手段と
を有することを特徴とする対話支援サーバ。
A dialogue support server that is equipped with a user dialogue system and supports user operation on the terminal for user intention text determined by the user dialogue system from utterance text received from the terminal,
A support table pre-registered in association with an action pattern composed of a part of speech and an action clause and an identifier of an application to be activated based on the action clause;
A fact-to-table that registers pairs of factual clauses and action clauses (facts vs.) linked by causal words;
Fact pair selection means for detecting a situation clause registered in the fact pair table from the user intention text and detecting an action clause corresponding to the situation clause using the fact pair table;
Using the support table, application activation means for transmitting, to the terminal, control information to activate an application based on an identifier corresponding to the detected action clause;
A dialogue support server, comprising: support text generation means for generating a series of support text including the detected situation clause and the action clause and transmitting the support text to the terminal.
ユーザ対話システムを搭載すると共に、端末から受信した発話テキストから前記ユーザ対話システムによって判定されたユーザ意図テキストに対して、前記端末におけるユーザ操作を支援する装置の対話支援方法であって、
前記装置は、
品詞句及び行為節からなる行為パターンと、当該行為節に基づいて起動すべきアプリケーションの識別子とを対応付けて予め登録した支援テーブルと、
因果語によって結びつけられる状況節と行為節との組(事実対)を登録した事実対テーブルと
を有し、
前記装置は、
前記ユーザ意図テキストの中から、前記事実対テーブルに登録された状況節を検出し、前記事実対テーブルを用いて当該状況節に対応する行為節を検出する第1のステップと、
前記支援テーブルを用いて、検出された当該行為節に対応する識別子に基づくアプリケーションを起動すべき制御情報を、前記端末へ送信する第2のステップと、
検出された前記状況節及び前記行為節を含む一連の支援テキストを生成し、該支援テキストを前記端末へ送信する第3のステップと
を有することを特徴とする装置の対話支援方法。
A dialogue support method for a device, which is equipped with a user dialogue system and supports user operation on the terminal with respect to a user intention text determined by the user dialogue system from utterance text received from a terminal,
The device is
A support table pre-registered in association with an action pattern composed of a part of speech and an action clause and an identifier of an application to be activated based on the action clause;
A fact-to-table that registers a set of factual clauses and action clauses (fact pairs) linked by causal words;
The device is
Detecting a situation clause registered in the fact pair table from the user intention text, and detecting an action clause corresponding to the situation clause using the fact pair table;
A second step of transmitting, to the terminal, control information for starting an application based on an identifier corresponding to the detected action clause, using the support table;
And a third step of generating a series of support text including the detected situation clause and the action clause and transmitting the support text to the terminal.
JP2015032398A 2015-02-23 2015-02-23 Dialog support program, server and method for supporting user operation together with user dialog system Active JP6570169B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015032398A JP6570169B2 (en) 2015-02-23 2015-02-23 Dialog support program, server and method for supporting user operation together with user dialog system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015032398A JP6570169B2 (en) 2015-02-23 2015-02-23 Dialog support program, server and method for supporting user operation together with user dialog system

Publications (2)

Publication Number Publication Date
JP2016156845A true JP2016156845A (en) 2016-09-01
JP6570169B2 JP6570169B2 (en) 2019-09-04

Family

ID=56825853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015032398A Active JP6570169B2 (en) 2015-02-23 2015-02-23 Dialog support program, server and method for supporting user operation together with user dialog system

Country Status (1)

Country Link
JP (1) JP6570169B2 (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055633A (en) * 2016-09-30 2018-04-05 シャープ株式会社 Conversation system, terminal device, and program
JP2018185561A (en) * 2017-04-24 2018-11-22 株式会社日立製作所 Dialogue support system, dialogue support method, and dialogue support program
JP2019049970A (en) * 2017-09-08 2019-03-28 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Candidate response information generating method and apparatus
JP2019191903A (en) * 2018-04-25 2019-10-31 株式会社サテライトオフィス Bot system and program for bot system
JP2019537768A (en) * 2016-09-16 2019-12-26 オラクル・インターナショナル・コーポレイション Natural language interactive messaging system hosted by internet cloud with entity-based communication
JP2020013521A (en) * 2018-07-20 2020-01-23 カーベーセー グループ エンフェーKBC Groep NV Improved request handling
KR102108272B1 (en) * 2019-05-28 2020-05-08 한화시스템(주) System and method for generating automatically software development report documennt based on operator behavior
JP2021092617A (en) * 2019-12-09 2021-06-17 Kddi株式会社 Device, program and method for estimating response sentence to user's speech sentence
JP2021182440A (en) * 2017-01-09 2021-11-25 アップル インコーポレイテッドApple Inc. Application integration with digital assistant
JP2022061083A (en) * 2020-10-06 2022-04-18 楽天グループ株式会社 Search auxiliary system, information providing server, information providing method, and program
US11750962B2 (en) 2020-07-21 2023-09-05 Apple Inc. User identification using headphones
US11749275B2 (en) 2016-06-11 2023-09-05 Apple Inc. Application integration with a digital assistant
US11790914B2 (en) 2019-06-01 2023-10-17 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11809886B2 (en) 2015-11-06 2023-11-07 Apple Inc. Intelligent automated assistant in a messaging environment
US11837237B2 (en) 2017-05-12 2023-12-05 Apple Inc. User-specific acoustic models
US11838734B2 (en) 2020-07-20 2023-12-05 Apple Inc. Multi-device audio adjustment coordination
US11838579B2 (en) 2014-06-30 2023-12-05 Apple Inc. Intelligent automated assistant for TV user interactions
US11862151B2 (en) 2017-05-12 2024-01-02 Apple Inc. Low-latency intelligent automated assistant
US11862186B2 (en) 2013-02-07 2024-01-02 Apple Inc. Voice trigger for a digital assistant
JP7426919B2 (en) 2020-10-30 2024-02-02 Kddi株式会社 Program, device and method for estimating causal terms from images
US11893992B2 (en) 2018-09-28 2024-02-06 Apple Inc. Multi-modal inputs for voice commands
US11907436B2 (en) 2018-05-07 2024-02-20 Apple Inc. Raise to speak
US11914848B2 (en) 2020-05-11 2024-02-27 Apple Inc. Providing relevant data items based on context
US11954405B2 (en) 2015-09-08 2024-04-09 Apple Inc. Zero latency digital assistant
US11972490B2 (en) 2018-07-20 2024-04-30 Kbc Groep Nv Determining a category of a request by word vector representation of a natural language text string with a similarity value
US11979836B2 (en) 2007-04-03 2024-05-07 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US12001933B2 (en) 2015-05-15 2024-06-04 Apple Inc. Virtual assistant in a communication session
US12026197B2 (en) 2017-06-01 2024-07-02 Apple Inc. Intelligent automated assistant for media exploration

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020090A (en) * 1998-06-30 2000-01-21 Denso Corp Request estimation apparatus
JP2001117584A (en) * 1999-10-22 2001-04-27 Alpine Electronics Inc Voice processor
JP2013205524A (en) * 2012-03-27 2013-10-07 Yahoo Japan Corp Response generation apparatus, response generation system, response generation method and response generation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020090A (en) * 1998-06-30 2000-01-21 Denso Corp Request estimation apparatus
JP2001117584A (en) * 1999-10-22 2001-04-27 Alpine Electronics Inc Voice processor
JP2013205524A (en) * 2012-03-27 2013-10-07 Yahoo Japan Corp Response generation apparatus, response generation system, response generation method and response generation program

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11979836B2 (en) 2007-04-03 2024-05-07 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US12009007B2 (en) 2013-02-07 2024-06-11 Apple Inc. Voice trigger for a digital assistant
US11862186B2 (en) 2013-02-07 2024-01-02 Apple Inc. Voice trigger for a digital assistant
US11838579B2 (en) 2014-06-30 2023-12-05 Apple Inc. Intelligent automated assistant for TV user interactions
US12001933B2 (en) 2015-05-15 2024-06-04 Apple Inc. Virtual assistant in a communication session
US11954405B2 (en) 2015-09-08 2024-04-09 Apple Inc. Zero latency digital assistant
US11809886B2 (en) 2015-11-06 2023-11-07 Apple Inc. Intelligent automated assistant in a messaging environment
US11749275B2 (en) 2016-06-11 2023-09-05 Apple Inc. Application integration with a digital assistant
JP2019537768A (en) * 2016-09-16 2019-12-26 オラクル・インターナショナル・コーポレイション Natural language interactive messaging system hosted by internet cloud with entity-based communication
JP7441650B2 (en) 2016-09-16 2024-03-01 オラクル・インターナショナル・コーポレイション Internet cloud-hosted natural language interactive messaging system with entity-based communication
JP2018055633A (en) * 2016-09-30 2018-04-05 シャープ株式会社 Conversation system, terminal device, and program
JP2021182440A (en) * 2017-01-09 2021-11-25 アップル インコーポレイテッドApple Inc. Application integration with digital assistant
JP7235814B2 (en) 2017-01-09 2023-03-08 アップル インコーポレイテッド Application integration with digital assistants
US11656884B2 (en) 2017-01-09 2023-05-23 Apple Inc. Application integration with a digital assistant
JP2018185561A (en) * 2017-04-24 2018-11-22 株式会社日立製作所 Dialogue support system, dialogue support method, and dialogue support program
US11837237B2 (en) 2017-05-12 2023-12-05 Apple Inc. User-specific acoustic models
US11862151B2 (en) 2017-05-12 2024-01-02 Apple Inc. Low-latency intelligent automated assistant
US12026197B2 (en) 2017-06-01 2024-07-02 Apple Inc. Intelligent automated assistant for media exploration
JP2019049970A (en) * 2017-09-08 2019-03-28 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Candidate response information generating method and apparatus
US10958598B2 (en) 2017-09-08 2021-03-23 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for generating candidate reply message
JP7128463B2 (en) 2018-04-25 2022-08-31 株式会社サテライトオフィス bot system, program for bot system
JP2019191903A (en) * 2018-04-25 2019-10-31 株式会社サテライトオフィス Bot system and program for bot system
US11907436B2 (en) 2018-05-07 2024-02-20 Apple Inc. Raise to speak
JP2020013521A (en) * 2018-07-20 2020-01-23 カーベーセー グループ エンフェーKBC Groep NV Improved request handling
JP7206072B2 (en) 2018-07-20 2023-01-17 カーベーセー グループ エンフェー Improved request handling
US11972490B2 (en) 2018-07-20 2024-04-30 Kbc Groep Nv Determining a category of a request by word vector representation of a natural language text string with a similarity value
US11893992B2 (en) 2018-09-28 2024-02-06 Apple Inc. Multi-modal inputs for voice commands
KR102108272B1 (en) * 2019-05-28 2020-05-08 한화시스템(주) System and method for generating automatically software development report documennt based on operator behavior
US11790914B2 (en) 2019-06-01 2023-10-17 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
JP2021092617A (en) * 2019-12-09 2021-06-17 Kddi株式会社 Device, program and method for estimating response sentence to user's speech sentence
JP7224278B2 (en) 2019-12-09 2023-02-17 Kddi株式会社 Apparatus, program and method for estimating response sentence to user's utterance sentence
US11914848B2 (en) 2020-05-11 2024-02-27 Apple Inc. Providing relevant data items based on context
US11838734B2 (en) 2020-07-20 2023-12-05 Apple Inc. Multi-device audio adjustment coordination
US11750962B2 (en) 2020-07-21 2023-09-05 Apple Inc. User identification using headphones
JP2022061083A (en) * 2020-10-06 2022-04-18 楽天グループ株式会社 Search auxiliary system, information providing server, information providing method, and program
JP7200189B2 (en) 2020-10-06 2023-01-06 楽天グループ株式会社 Search assistance system, information providing server, information providing method, and program
JP7426919B2 (en) 2020-10-30 2024-02-02 Kddi株式会社 Program, device and method for estimating causal terms from images

Also Published As

Publication number Publication date
JP6570169B2 (en) 2019-09-04

Similar Documents

Publication Publication Date Title
JP6570169B2 (en) Dialog support program, server and method for supporting user operation together with user dialog system
AU2018412575B2 (en) Facilitating end-to-end communications with automated assistants in multiple languages
CN110770694B (en) Obtaining response information from multiple corpora
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
US20130246392A1 (en) Conversational System and Method of Searching for Information
US10915697B1 (en) Computer-implemented presentation of synonyms based on syntactic dependency
JP2019003319A (en) Interactive business support system and interactive business support program
JP2018195330A (en) Speech sentence generation device, and a method and program thereof
US10380125B2 (en) Information processing apparatus and information processing method
KR101677859B1 (en) Method for generating system response using knowledgy base and apparatus for performing the method
JP6994289B2 (en) Programs, devices and methods for creating dialogue scenarios according to character attributes
JP5867410B2 (en) Dialog text analysis apparatus, method and program
JP2009042968A (en) Information selection system, information selection method, and program for information selection
JP2013190985A (en) Knowledge response system, method and computer program
JP7126865B2 (en) Interactive business support system
Zhao et al. Mining user intents to compose services for end-users
JP4153843B2 (en) Natural sentence search device, natural sentence search method, natural sentence search program, and natural sentence search program storage medium
JP6843689B2 (en) Devices, programs and methods for generating contextual dialogue scenarios
JP2010257085A (en) Retrieval device, retrieval method, and retrieval program
US11971915B2 (en) Language processor, language processing method and language processing program
Xu et al. Yochina: Mobile multimedia and multimodal crosslingual dialogue system
JP2009129405A (en) Feeling estimation device, case feeling information generation device, and feeling estimation program
Su et al. A spoken dialogue system with situation and emotion detection based on anthropomorphic learning for warming healthcare d
Lin et al. Designing multilingual interactive agents using small dialogue corpora
TW202006563A (en) Dialogic type search display method performing an interactive search and obtain a corresponding search result by means of natural speech or natural sentence expression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190805

R150 Certificate of patent or registration of utility model

Ref document number: 6570169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150