JP2020024522A - Information providing apparatus, information providing method and program - Google Patents

Information providing apparatus, information providing method and program Download PDF

Info

Publication number
JP2020024522A
JP2020024522A JP2018147977A JP2018147977A JP2020024522A JP 2020024522 A JP2020024522 A JP 2020024522A JP 2018147977 A JP2018147977 A JP 2018147977A JP 2018147977 A JP2018147977 A JP 2018147977A JP 2020024522 A JP2020024522 A JP 2020024522A
Authority
JP
Japan
Prior art keywords
dialogue
user
words
filler
virtual personality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018147977A
Other languages
Japanese (ja)
Other versions
JP6551852B1 (en
Inventor
田中 秀樹
Hideki Tanaka
秀樹 田中
善視 冨永
Yoshimi Tominaga
善視 冨永
諒太 坂本
Ryota Sakamoto
諒太 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elvez Inc
Original Assignee
Elvez Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elvez Inc filed Critical Elvez Inc
Priority to JP2018147977A priority Critical patent/JP6551852B1/en
Application granted granted Critical
Publication of JP6551852B1 publication Critical patent/JP6551852B1/en
Publication of JP2020024522A publication Critical patent/JP2020024522A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To improve continuity of dialogue in a system that provides information in a dialogue form.SOLUTION: An information providing apparatus provides information in a conversation form between a virtual personality and a user by allowing the user to select his or her own words. The information providing apparatus includes: a conversation control unit that reads a scenario from a storage device storing the scenario in the conversation form including words of the virtual personality and the words of the user, outputs option of the words of the virtual personality and the words of the user, and accepts the selection of the words from the user; and an insertion control unit inserting a filler which is an expression filling a space between opinions or expression expressing gratitude between the selected words of the user and the words of the virtual personality, on the basis of histories of the virtual personality expressed according to the scenario and the words of the user. The insertion control unit adjusts probability of inserting the filler or the expression expressing gratitude to increase as the number of opinions from when the filler or the expression expressing gratitude was previously inserted increases.SELECTED DRAWING: Figure 2

Description

本発明は、情報提供装置、情報提供方法およびプログラムに関する。   The present invention relates to an information providing device, an information providing method, and a program.

従来、ユーザとの間で情報提供や雑談等の対話を行う様々なチャットボットやソフトウェアエージェントが提案されている。   2. Description of the Related Art Conventionally, various chatbots and software agents for providing information, chatting, and the like with users have been proposed.

また、音声合成において自然な発話を実現することを目的として、会話中の冗長的表現を表す冗長表現言語等を音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入して音声出力するという技術が提案されている(例えば、特許文献1)。具体的には、確率を用いた挿入ルールに基づいて、冗長表現言語を挿入することが記載されている。また、冗長表現言語として、「えー」等のフィラー、「〜ですね」等の語尾冗長語、「まあ」等の間投詞、「(無音)」の言いよどみ、同語辞書データや類語辞書データを利用した同語や類語等が辞書に登録されている旨の記載がある。   Also, in order to realize natural utterance in speech synthesis, a technology that inserts a redundant expression language or the like representing redundant expressions in a conversation into text of spoken words included in text data to be synthesized and outputs the speech. Has been proposed (for example, Patent Document 1). Specifically, it describes that a redundant expression language is inserted based on an insertion rule using probabilities. In addition, as a redundant expression language, fillers such as "er", redundant endings such as "-isu", interjections such as "mah", stagnation of "(silence)", and synonym dictionary data and synonym dictionary data are used. There is a description that the same word or synonym is registered in the dictionary.

特開2014−48443号公報JP 2014-48443 A

従来、テキストで対話を行うチャットボットやソフトウェアエージェントにおいては、話し言葉とは異なり喋り方によるニュアンスが表現できず、フィラーのような表現を積極的に取り入れる例はなかった。   Conventionally, chatbots and software agents that interact with text cannot express nuances due to the way of speaking, unlike spoken language, and there has been no example of actively incorporating filler-like expressions.

一方、本出願の発明者は、チャットボットやソフトウェアエージェントをユーザに利用してもらうために、フィラーのような冗長表現が必ずしも無駄なものではないことを見出した。本発明は、ユーザに対話形式で情報を提供するシステムにおいて、対話の継続性を向上させることを目的とする。   On the other hand, the inventor of the present application has found that redundant expressions such as fillers are not always useless in order for users to use chatbots and software agents. An object of the present invention is to improve the continuity of a dialog in a system for providing information to a user in the form of a dialog.

情報提供装置は、ユーザに自身の台詞を選択させることにより、仮想的な人格とユーザとの会話形式で情報を提供する。また、情報提供装置は、仮想的な人格の台詞及びユーザの台詞を含む会話形式のシナリオを記憶する記憶装置からシナリオを読み出し、仮想的な人格の台詞及びユーザの台詞の選択肢を出力すると共に、ユーザから台詞の選択を受け付ける会話制御部と、シナリオに従って発言した仮想的な人格及びユーザの台詞の履歴に基づいて、選択されたユーザの台詞と、仮想的な人格の台詞との間に、発言の間を埋める言葉であるフィラー又は感謝の気持ちを表す言葉を挿入する挿入制御部とを備え、挿入制御部は、フィラー又は感謝の気持ちを表す言葉を挿入する確率が、フィラー又は感謝の気持ちを表す言葉を以前に挿入したときからの発言数が増加するほど上昇するように調整する。   The information providing apparatus provides information in a form of conversation between the virtual personality and the user by allowing the user to select his or her own dialogue. Further, the information providing apparatus reads a scenario from a storage device that stores a conversational scenario including a virtual personality dialogue and a user's dialogue, and outputs a virtual personality dialogue and a user's dialogue option, A conversation control unit that accepts selection of a dialogue from the user, and a speech between the selected user's dialogue and the virtual personality's dialogue based on the virtual personality spoken according to the scenario and the history of the user's dialogue. And an insertion control unit that inserts a filler or a word of gratitude, which is a word that fills the space between the words. Adjust so as to increase as the number of utterances from when the words to be expressed are inserted before is increased.

このようにすれば、フィラーや感謝の言葉を予め定められたシナリオにおいて好ましい位置に挿入することができ、対話の継続性を向上させることができる。また、フィラーや感謝の言葉の挿入を確率的に決定することで、同一のシナリオに変化を与えることができる。   By doing so, fillers and words of thanks can be inserted at preferred positions in a predetermined scenario, and continuity of the dialogue can be improved. In addition, the same scenario can be changed by stochastically determining the insertion of fillers and words of appreciation.

また、挿入制御部は、台詞の履歴に含まれる単語に対応付けて定められた所定の特徴ベクトルを用いて、台詞の文章に関連する感情の種別を分析し、当該感情の種別に予め対応付けられて記憶装置に記憶されているフィラー又は感謝の気持ちを表す言葉を挿入するようにしてもよい。このようにすれば、文脈上違和感のないフィラー又は感謝の気持ちを表す言葉を選択することができる。   Further, the insertion control unit analyzes the type of emotion related to the sentence of the dialog using a predetermined feature vector determined in association with the word included in the history of the dialog, and associates the type of the emotion with the type of the emotion in advance. A filler or a word expressing gratitude stored in the storage device may be inserted. In this way, it is possible to select a filler that does not cause any discomfort in the context or a word that expresses gratitude.

また、台詞の履歴に基づいて、フィラー又は感謝の気持ちを表す言葉の挿入の有無と、履歴における一連の発言数との関係を統計的に分析し、会話における一連の発言数が伸びるように、フィラー又は感謝の気持ちを表す言葉を挿入する確率を調整する学習処理部をさらに備えるようにしてもよい。対話数が増加するような言葉やタイミングを優先的に選択することで、より違和感が少ない態様で言葉の挿入を実現できると共に、対話数をさらに伸ばすことができる。   Also, based on the history of dialogue, statistically analyze the relationship between the presence or absence of filler or words expressing appreciation and the number of series of statements in the history, so that the number of series of speech in conversation increases, A learning processing unit that adjusts the probability of inserting a filler or a word expressing appreciation may be further provided. By preferentially selecting words and timings that increase the number of dialogues, it is possible to insert words in a mode with less discomfort and further increase the number of dialogues.

なお、課題を解決するための手段に記載の内容は、本発明の課題や技術的思想を逸脱しない範囲で可能な限り組み合わせることができる。また、課題を解決するための手段の内容は、コンピュータ等の装置若しくは複数の装置を含むシステム、コンピュータが実行する方法、又はコンピュータに実行させるプログラムとして提供することができる。なお、プログラムを保持する記録媒体を提供するようにしてもよい。   The contents described in the means for solving the problems can be combined as much as possible without departing from the problems and technical ideas of the present invention. Further, the contents of the means for solving the problems can be provided as an apparatus such as a computer or a system including a plurality of apparatuses, a method executed by a computer, or a program executed by a computer. In addition, you may make it provide the recording medium which holds a program.

ユーザに対話形式で情報を提供するシステムにおいて、対話の継続性を向上させることができる。   In a system that provides information to a user in an interactive manner, the continuity of the dialog can be improved.

システム全体の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of an entire system. ユーザ装置及び対話型情報提供装置の構成の一例を示すブロック図である。It is a block diagram showing an example of composition of a user device and an interactive information providing device. ユーザ装置に表示される画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image displayed on the user device. 対話型情報提供装置に記憶されているシナリオの一例を視覚的に表した図である。FIG. 4 is a diagram visually illustrating an example of a scenario stored in the interactive information providing apparatus. シナリオのせりふ間にフィラーを挿入した場合の出力の一例を示す図である。It is a figure showing an example of an output at the time of inserting a filler between dialogues of a scenario. 会話提供処理の一例を示す処理フロー図である。It is a processing flow figure showing an example of conversation offer processing. 会話提供処理の一例を示す処理フロー図である。It is a processing flow figure showing an example of conversation offer processing. 記憶装置に記憶されるフィラー又は感謝の言葉の一例を示す図である。FIG. 4 is a diagram illustrating an example of filler or words of appreciation stored in a storage device. 変形例に係る会話提供処理の一例を示す処理フロー図である。It is a processing flow figure showing an example of conversation offer processing concerning a modification. 変形例において表示される画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of an image displayed in a modified example. 変形例に係る会話提供処理の一例を示す処理フロー図である。It is a processing flow figure showing an example of conversation offer processing concerning a modification. 変形例において表示される画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of an image displayed in a modified example.

以下、図面を参照して本発明を実施するための形態について説明する。   Hereinafter, embodiments for implementing the present invention will be described with reference to the drawings.

<システム構成>
図1は、実施形態に係るシステム全体の一例を示す図である。本システムは、コンピュータによって発言が出力され、ユーザと会話を行う仮想的な人格であるソフトウェアエージェントを提供する。また、会話の内容は予め作成されたシナリオを表す情報に基づいて進行する。
<System configuration>
FIG. 1 is a diagram illustrating an example of the entire system according to the embodiment. This system provides a software agent which is a virtual personality whose speech is output by a computer and has a conversation with a user. Further, the content of the conversation proceeds based on information representing a scenario created in advance.

本システムは、ユーザ装置1と、対話型情報提供装置2とを含み、これらがネットワーク3を解して接続されている。ネットワーク3は、インターネット等の通信網であり、ネ
ットワーク3に接続されたコンピュータは様々なプロトコルに基づいて相互に通信できるものとする。ユーザ装置1は、スマートフォンやタブレット、PC(Personal Computer
)等のコンピュータであり、本実施形態に係るプログラム(ソフトウェア、又はアプリケーションとも呼ぶ)を実行することにより、本実施形態に係る会話提供システムのユーザインターフェースとして機能する。なお、ユーザ装置1は、ネットワーク3に複数接続されていてもよい。対話型情報提供装置2は、一般的なコンピュータであり、本実施形態に係るプログラムを実行することにより、仮想的な人格の発言をユーザ装置1へネットワーク3を介して出力すると共に、ユーザ装置1からユーザの応答を取得する処理を繰り返す。なお、ユーザの発言は、対話型情報提供装置2が出力する選択肢の中からユーザが選択することにより、ユーザ装置1に入力され、ネットワーク3を介して対話型情報提供装置2へ送信される。
The system includes a user device 1 and an interactive information providing device 2, which are connected via a network 3. The network 3 is a communication network such as the Internet, and computers connected to the network 3 can communicate with each other based on various protocols. The user device 1 includes a smartphone, a tablet, and a PC (Personal Computer).
), And functions as a user interface of the conversation providing system according to the present embodiment by executing a program (also referred to as software or an application) according to the present embodiment. Note that a plurality of user devices 1 may be connected to the network 3. The interactive information providing device 2 is a general computer, and outputs a statement of a virtual personality to the user device 1 via the network 3 by executing the program according to the present embodiment. The process of acquiring the user's response from is repeated. The user's remark is input to the user device 1 when the user selects one of the options output by the interactive information providing device 2, and transmitted to the interactive information providing device 2 via the network 3.

<装置構成>
図2は、ユーザ装置1及び対話型情報提供装置2の構成の一例を示すブロック図である。
<Apparatus configuration>
FIG. 2 is a block diagram illustrating an example of a configuration of the user device 1 and the interactive information providing device 2.

ユーザ装置1は、スマートフォンやタブレット等の一般的なコンピュータであり、入出力インターフェース(I/F)11と、記憶装置12と、通信インターフェース(I/F)13と、プロセッサ14と、バス15とを備えている。入出力I/F11は、例えばタッチパネル等のユーザインターフェースである。入出力I/F11は、ユーザに対し仮想的人格の発言を表示したり、ユーザの応答の選択肢を表示させたりすると共に、ユーザの操作に基づいてユーザの応答の選択を受け付ける。記憶装置12は、RAM(Random Access Memory)やROM(Read Only Memory)等の主記憶装置及びHDD(Hard-disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等の補助記憶装置(二次記憶装置)である。主記憶装置は、プロセッサが読み出したプログラムや受信する台詞のデータを一時的に記憶したり、プロセッサの作業領域を確保したりする。補助記憶装置は、プロセッサが実行するプログラムを記憶したりする。通信I/F13は、例えば携帯電話の基地局や無線LAN(Local Area Network)のアクセスポイントと通信を行うネットワークモジュールであり、所定のプロトコルに基づき通信を行う。プロセッサ14は、CPU(Central Processing Unit)等の演算処理装置であり、プログラムを実行することにより本
実施の形態に係る各処理を行う。図2の例では、プロセッサ14内に機能ブロックを示している。具体的には、プロセッサ14は、入出力制御部141として機能する。入出力制御部141は、仮想的な人格の発言を入出力I/F11に表示させると共に、入出力I/F11を介してユーザの応答の入力を受け付ける。以上のような構成要素が、バス15を介して接続されている。
The user device 1 is a general computer such as a smartphone or a tablet, and includes an input / output interface (I / F) 11, a storage device 12, a communication interface (I / F) 13, a processor 14, a bus 15, It has. The input / output I / F 11 is a user interface such as a touch panel. The input / output I / F 11 displays a statement of a virtual personality to the user, displays options of the user's response, and receives a selection of the user's response based on the operation of the user. The storage device 12 includes a main storage device such as a random access memory (RAM) and a read only memory (ROM) and an auxiliary storage device (secondary storage) such as a hard disk drive (HDD), a solid state drive (SSD), and a flash memory. Device). The main storage device temporarily stores a program read by the processor and data of speech to be received, and secures a work area for the processor. The auxiliary storage device stores a program executed by the processor. The communication I / F 13 is a network module that communicates with, for example, a base station of a mobile phone or an access point of a wireless LAN (Local Area Network), and performs communication based on a predetermined protocol. The processor 14 is an arithmetic processing device such as a CPU (Central Processing Unit), and performs each process according to the present embodiment by executing a program. In the example of FIG. 2, functional blocks are shown in the processor 14. Specifically, the processor 14 functions as the input / output control unit 141. The input / output control unit 141 displays a virtual personality statement on the input / output I / F 11 and receives an input of a user response via the input / output I / F 11. The above components are connected via a bus 15.

また、対話型情報提供装置2は、サーバ等の一般的なコンピュータであり、入出力I/F21と、記憶装置22と、通信I/F23と、プロセッサ24と、バス25とを備えている。入出力I/F21は、例えばキーボードやマウス、ディスプレイ等のユーザインターフェースである。記憶装置22は、RAMやROM等の主記憶装置及びHDDやSSD、フラッシュメモリ等の補助記憶装置である。主記憶装置は、プロセッサが読み出したプログラムや補助記憶装置に格納されているシナリオのデータを一時的に記憶したり、プロセッサの作業領域を確保したりする。補助記憶装置は、プロセッサが実行するプログラムを記憶したりする。通信I/F23は、例えば有線のネットワークカード等であり、所定のプロトコルに基づき通信を行う。プロセッサ24は、CPU等の演算処理装置であり、プログラムを実行することにより本実施の形態に係る各処理を行う。図2に示すように、プロセッサ24は、会話制御部241、挿入制御部242、学習処理部243として機能する。会話制御部241は、予め用意されたシナリオを用いてユーザに対する仮想的な人格の発言と、発言に対するユーザの応答の選択肢とを出力する。挿入制御部242は、所定の規則に従い、フィラーや感謝の気持ちを表す言葉を挿入するか判断する。学習処理部
は、統計処理に基づいて、フィラーや感謝の気持ちを表す言葉を挿入することで、ユーザとの対話数が伸びたか判断し、挿入制御部242がフィラーや感謝の気持ちを表す言葉を挿入する確率を調整する。以上のような構成要素が、バス15を介して接続されている。
The interactive information providing apparatus 2 is a general computer such as a server, and includes an input / output I / F 21, a storage device 22, a communication I / F 23, a processor 24, and a bus 25. The input / output I / F 21 is a user interface such as a keyboard, a mouse, and a display. The storage device 22 is a main storage device such as a RAM and a ROM, and an auxiliary storage device such as an HDD, an SSD, and a flash memory. The main storage device temporarily stores programs read by the processor and data of scenarios stored in the auxiliary storage device, and secures a work area for the processor. The auxiliary storage device stores a program executed by the processor. The communication I / F 23 is, for example, a wired network card, and performs communication based on a predetermined protocol. The processor 24 is an arithmetic processing device such as a CPU, and performs each process according to the present embodiment by executing a program. As illustrated in FIG. 2, the processor 24 functions as a conversation control unit 241, an insertion control unit 242, and a learning processing unit 243. The conversation control unit 241 outputs a virtual personality remark to the user and a choice of the user's response to the remark using a scenario prepared in advance. The insertion control unit 242 determines according to a predetermined rule whether to insert a filler or a word expressing gratitude. The learning processing unit determines whether the number of dialogues with the user has increased by inserting fillers and words expressing appreciation based on the statistical processing, and the insertion control unit 242 converts the words expressing fillers and appreciation into words. Adjust the probability of insertion. The above components are connected via a bus 15.

<ユーザインターフェース>
図3は、ユーザ装置1の入出力I/F11に表示される画像の一例を示す図である。図3の例では、タッチパネルである入出力I/F11に、エージェントを表す画像111と、ユーザを表す画像112と、エージェントの発言を表す吹出し113と、ユーザの応答の選択肢114とが表示されている。ユーザは、例えばこのような選択肢の中から自身の発言をタップして選択することにより、エージェントとの対話を行うことができる。なお、選択肢の数は1以上であり、4つには限られない。
<User interface>
FIG. 3 is a diagram illustrating an example of an image displayed on the input / output I / F 11 of the user device 1. In the example of FIG. 3, an image 111 representing an agent, an image 112 representing a user, a balloon 113 representing a statement from an agent, and an option 114 of a user response are displayed on an input / output I / F 11 serving as a touch panel. I have. The user can interact with the agent, for example, by tapping and selecting his / her remark from among such options. The number of options is one or more, and is not limited to four.

<シナリオ>
図4は、対話型情報提供装置2の記憶装置22に予め記憶されているシナリオの一例を視覚的に表した図である。本実施形態では、長方形で表されるエージェントのせりふ又は電話の発呼のようなソフトウェアによる処理と、角丸長方形で表されるユーザのせりふの選択肢とが矢印により順序付けされて配置されている。エージェントのせりふは、基本的に直列に接続されており、矢印で接続された順に、図3に示した吹出し113に出力される。ユーザのせりふの選択肢は、図3に示した選択肢114に表示される。このとき、並列に配置された選択肢は並行して出力され、ユーザが選択したせりふに応じてシナリオが分岐し、後続のせりふが表示されるようになる。その他、ユーザ装置が備える機能を利用して、図4に示した電話の発呼処理や、ウェブサイトの表示(図示せず)等が行えるようにしてもよい。
<Scenario>
FIG. 4 is a diagram visually illustrating an example of a scenario stored in the storage device 22 of the interactive information providing apparatus 2 in advance. In the present embodiment, processing by software such as an agent dialogue or a telephone call represented by a rectangle and options of a user's dialogue represented by a rounded rectangle are arranged in order by arrows. The dialogs of the agents are basically connected in series, and are output to the balloon 113 shown in FIG. 3 in the order of connection by arrows. The user's dialogue options are displayed as options 114 shown in FIG. At this time, the options arranged in parallel are output in parallel, the scenario branches according to the dialogue selected by the user, and the subsequent dialogue is displayed. In addition, the function of the user device may be used to perform the telephone call processing shown in FIG. 4, display of a website (not shown), and the like.

<フィラー及び感謝の言葉の挿入>
図5は、シナリオのせりふ間にフィラーを挿入した場合の出力の一例を示す図である。本実施形態に係る対話型情報提供装置2の挿入制御部242は、予め用意されたシナリオの中に、「えー」、「えーと」、「うんうん」、「ほうほう」、「なるほど」等の会話の間を埋める言葉であるフィラーや、「ありがとう」等の感謝の気持ちを表す言葉を挿入する。具体的には、エージェントは相手のせりふの後に、所定の確率に基づいてこれらの言葉を挿入するようにしてもよい。
<Inserting filler and words of thanks>
FIG. 5 is a diagram illustrating an example of an output when a filler is inserted between dialogue lines of a scenario. The insertion control unit 242 of the interactive information providing apparatus 2 according to the present embodiment includes “er”, “er”, “un-un”, “hoho”, Insert filler words to fill in the conversation, or words of appreciation such as "thank you". Specifically, the agent may insert these words based on a predetermined probability after the partner's dialogue.

また、挿入される言葉は、喜怒哀楽といった感情の種別と予め対応付けて記憶させておくようにしてもよい。そして、相手のせりふに含まれる単語について、感情の種別を要素とする特徴ベクトルを用いて対話の流れにおける感情を分析し、感情の種別に応じて挿入すべき言葉が選択される。また、上述の確率は、前回フィラー等を挿入してからの対話数(ユーザおよびエージェントが発言したせりふの数)が増加するほど上昇するようにしてもよい。   Further, the inserted word may be stored in advance in association with a type of emotion such as emotion, anger and sorrow. Then, with respect to the words included in the dialogue of the partner, the emotions in the flow of the dialog are analyzed using the feature vector having the emotion type as an element, and words to be inserted are selected according to the emotion type. In addition, the above-described probability may be increased as the number of conversations (the number of dialogues spoken by the user and the agent) since the previous insertion of the filler or the like increases.

図4に示したシナリオによれば、ユーザのせりふの選択肢「何ができるの?」の後に、エージェントのせりふ「ご注文の商品を・・・」が接続されているが、図5の画面においては上述した条件に基づいてフィラー「えーと・・・」が挿入されている。   According to the scenario shown in FIG. 4, after the user's dialogue option “what can be done?”, The agent's dialogue “order your product ...” is connected. Are filled with the filler "Um ..." based on the above conditions.

また、対話型情報提供装置2の会話制御部241は、ユーザとエージェントとの対話のログを記憶装置22に蓄積し、学習処理部243は、フィラーや感謝の言葉を挿入することで対話数が伸びたか否かを機械学習する。そして、学習処理部243は、挿入することで対話数が伸びたと判断された言葉や、挿入することで対話数が伸びたと判断されたタイミング(あるシナリオにおけるせりふの間)において、これらの言葉が挿入される確率が上昇するようにフィードバックする。なお、対話数が伸びたか否かは、挿入されたせりふの数以上に、予め用意されたシナリオをユーザがより先まで進行させたか否かに基づいて
判断する。
The conversation control unit 241 of the interactive information providing apparatus 2 accumulates a log of the conversation between the user and the agent in the storage device 22, and the learning processing unit 243 inserts fillers or words of thanks to reduce the number of conversations. Machine learning whether or not it has grown. Then, the learning processing unit 243 determines whether or not the words are determined to have increased the number of conversations by inserting them, or at the time when the number of dialogues is determined to be increased by insertion (during a dialogue in a scenario). Feedback is provided to increase the probability of insertion. Whether or not the number of conversations has increased is determined based on whether or not the user has advanced the prepared scenario beyond the number of the inserted dialogues.

<会話提供処理>
図6は、本システムにおいて実行される会話提供処理の一例を示す処理フロー図である。まず、対話型情報提供装置2の会話制御部241は、図4に示したようなシナリオを読み出す(図6:S1)。本ステップでは、シナリオに定義された順序に基づいて、エージェントのせりふ若しくはユーザのせりふの選択肢、又はその他の処理を行う指示が読み出される。図4の例では、「スタート」から矢印で接続されたエージェントのせりふ「お買い物ですか?」が読み出される。
<Conversation providing processing>
FIG. 6 is a processing flowchart showing an example of the conversation providing processing executed in the present system. First, the conversation control unit 241 of the interactive information providing apparatus 2 reads a scenario as shown in FIG. 4 (FIG. 6: S1). In this step, based on the order defined in the scenario, an option of an agent's dialog or a user's dialog or an instruction to perform other processing is read. In the example of FIG. 4, the dialogue “Shopping?” Of the agent connected by the arrow is read from “Start”.

そして、会話制御部241は、読み出したせりふ等がエージェントのせりふであるか判断する(図6:S2)。エージェントのせりふである場合(S2:YES)、会話制御部241は、読み出したエージェントのせりふを、入出力I/F11を介して出力する(図6:S3)。例えば、図3に示すように、エージェントのせりふ「お買い物ですか?」が出力される。そして、接続子「A」を介して図7の処理へ遷移する。   Then, the conversation control unit 241 determines whether the read dialogue or the like is an agent's dialogue (FIG. 6: S2). If it is an agent dialog (S2: YES), the conversation control unit 241 outputs the read agent dialog via the input / output I / F 11 (FIG. 6: S3). For example, as shown in FIG. 3, an agent's dialogue “Is shopping?” Is output. Then, the processing makes a transition to the processing in FIG. 7 via the connector “A”.

一方、読み出したせりふ等がエージェントのせりふでない場合(S2:NO)、会話制御部241は、読み出したせりふ等がユーザのせりふの選択肢であるか判断する(図6:S4)。ユーザのせりふの選択肢でない場合(S4:NO)、会話制御部241は、シナリオに沿った処理を行う(図6:S5)。本ステップでは、例えば所定の電話番号への発呼や、所定のURI(Uniform Resource Identifier)のウェブサイトの表示等の処理が
実行される。そして、接続子「A」を介して図7の処理へ遷移する。
On the other hand, when the read dialogue or the like is not the dialog of the agent (S2: NO), the conversation control unit 241 determines whether the read dialogue or the like is an option of the user's dialogue (FIG. 6: S4). If it is not the user's dialogue option (S4: NO), the conversation control unit 241 performs processing according to the scenario (FIG. 6: S5). In this step, for example, processing such as calling a predetermined telephone number and displaying a website of a predetermined URI (Uniform Resource Identifier) is performed. Then, the processing makes a transition to the processing in FIG. 7 via the connector “A”.

一方、読み出したせりふ等がユーザのせりふの選択肢である場合(S2:YES)、会話制御部241は、ユーザのせりふの選択肢を表示する(図6:S6)。例えば図4に示したシナリオの場合、エージェントのせりふ「お買い物ですか?」の次の段階においては、ユーザのせりふの選択肢「商品を見たい」、「何ができるの?」、「お店に電話したい」等が読み出され、本ステップにおいて図3の選択肢118のように出力される。   On the other hand, when the read dialogue or the like is a user's dialogue option (S2: YES), the conversation control unit 241 displays the user's dialogue option (FIG. 6: S6). For example, in the case of the scenario shown in FIG. 4, in the next stage of the agent's dialogue “Is shopping?”, The user's dialogue options “I want to see products”, “What can I do?”, “Shop” And the like are read out, and are output as option 118 in FIG. 3 in this step.

その後、会話制御部241は、入出力I/F21を介してユーザの選択を受け付ける(図6:S7)。本ステップでは、例えばユーザがタッチパネルをタップした位置に応じて、せりふの選択肢のいずれかが選択される。そして、接続子「B」を介して図7の処理に遷移する。   Thereafter, the conversation control unit 241 accepts the user's selection via the input / output I / F 21 (FIG. 6: S7). In this step, one of the dialogue options is selected, for example, according to the position where the user taps the touch panel. Then, the processing makes a transition to the processing in FIG. 7 via the connector “B”.

図7は、本システムにおいて実行される会話提供処理の一例を示す処理フロー図である。S7の後、対話型情報提供装置2の挿入制御部242は、フィラー又は感謝の言葉を挿入するか判断する(図7:S8)。本ステップでは、所定の確率に基づいてフィラー又は感謝の言葉を挿入すると判断する。シナリオに従って発言したエージェント又はユーザの台詞の履歴を記憶装置22に記憶させておき、確率は、前回の挿入から対話数が増加するに従い上昇するようにしてもよい。   FIG. 7 is a process flowchart illustrating an example of the conversation providing process executed in the present system. After S7, the insertion control unit 242 of the interactive information providing apparatus 2 determines whether to insert a filler or a word of thanks (FIG. 7: S8). In this step, it is determined that a filler or a word of thanks is to be inserted based on a predetermined probability. The history of the dialogue of the agent or the user who has spoken according to the scenario may be stored in the storage device 22, and the probability may increase as the number of conversations increases from the previous insertion.

また、履歴に基づいて挿入する言葉を選択するようにしてもよい。例えば形態素解析により、発言した文に含まれる単語に分解し、感情の種別を要素とする特徴ベクトルを用いて分析する。挿入制御部242は、例えばWord2VecやDoc2Vec等を利用し、エージェント又はユーザの台詞の履歴に含まれる単語に基づいて感情分析を行うようにしてもよい。そして、感情の種別である「喜」、「怒」、「哀」、「楽」の占める割合を求める。また、感情の各種別の占める割合に基づいて、挿入する言葉の各々が選択される確率をさらに調整する。   Further, a word to be inserted may be selected based on the history. For example, it is broken down into words included in the uttered sentence by morphological analysis, and analyzed using a feature vector having an emotion type as an element. The insertion control unit 242 may perform sentiment analysis based on words included in the dialog history of the agent or the user using, for example, Word2Vec or Doc2Vec. Then, the percentages of the emotion types “happy”, “angry”, “sad”, and “easy” are obtained. In addition, the probability that each of the words to be inserted is selected is further adjusted based on the proportion of each emotion.

図8は、記憶装置22に記憶されるフィラー又は感謝の言葉の一例を示す図である。例
えば、感情の種別に予め対応付けられて記憶装置22に記憶されている言葉を挿入する。図8のテーブルは、感情の種別、およびフィラー又は感謝の言葉の属性を有する。感情の種別のフィールドには、「喜」、「怒」、「哀」、「楽」が登録されている。また、フィラー又は感謝の言葉のフィールドには、「えーと」、「うんうん」、「ほうほう」、「ありがとう」等の言葉が登録されている。そして、上述した感情分析の結果、会話の履歴に応じた感情に対応するフィラー又は感謝の言葉が選択される確率を上昇させる。なお、図8のようなテーブルは、エージェントの性格に応じて複数用意しておくようにしてもよい。
FIG. 8 is a diagram illustrating an example of fillers or words of appreciation stored in the storage device 22. For example, a word that is stored in the storage device 22 in association with the type of emotion in advance is inserted. The table of FIG. 8 has the type of emotion and the attributes of filler or words of appreciation. In the field of emotion type, “happy”, “angry”, “sad”, and “easy” are registered. In the field of the filler or the words of appreciation, words such as "um", "un-un", "hoho", and "thank you" are registered. Then, as a result of the emotion analysis described above, the probability that the filler or the words of appreciation corresponding to the emotion according to the conversation history are increased. A plurality of tables as shown in FIG. 8 may be prepared according to the characteristics of the agent.

また、学習処理部243は、エージェント又はユーザの台詞の履歴に基づいて、挿入することで対話数が伸びたと判断された言葉や、挿入することで対話数が伸びたと判断されたタイミングにおいて、フィラー又は感謝の言葉が挿入される確率を上昇させるようにさらに調整するようにしてもよい。学習処理は、例えば履歴から求められる、ある言葉を挿入した場合とそうでない場合とにおける条件付き確率に基づき、期待される対話数の差が大きいほど、その言葉が選択される確率を上昇させるようにしてもよい。また、あるタイミングでフィラー又は感謝の言葉を挿入した場合とそうでない場合とにおける条件付き確率に基づき、期待される対話数の差が大きいほど、そのタイミングで言葉が挿入される確率を上昇させるようにしてもよい。また、言葉の選択とタイミングの選択との組み合わせについて、履歴から期待される対話数が伸びるほど当該組合せが選択される確率を上昇させるようにしてもよい。   Further, based on the history of the dialogue of the agent or the user, the learning processing unit 243 sets the filler at the time when it is determined that the number of conversations has been increased by the insertion or when the number of conversations has been determined to be increased by the insertion. Alternatively, further adjustment may be made so as to increase the probability of inserting a word of thanks. The learning process is based on, for example, conditional probabilities obtained from a history when a word is inserted and when the word is not inserted, and the probability that the word is selected is increased as the difference between the number of expected conversations is larger. It may be. Also, based on the conditional probabilities of inserting fillers or words of appreciation at a certain timing and not, based on the conditional probability, the larger the difference between the expected number of dialogues, the higher the probability that words are inserted at that timing. It may be. In addition, as for the combination of the selection of the word and the selection of the timing, the probability that the combination is selected may be increased as the number of conversations expected from the history increases.

また、フィラー又は感謝の言葉を挿入すると判断された場合(S8:YES)、挿入制御部242は、選択されたせりふを出力する(図7:S9)。本ステップでは、例えば図5に示したように、シナリオにはなかったフィラー又は感謝の言葉が出力される。   When it is determined that a filler or a word of thanks is to be inserted (S8: YES), the insertion control unit 242 outputs the selected dialog (FIG. 7: S9). In this step, for example, as shown in FIG. 5, fillers or words of thanks that are not included in the scenario are output.

一方、フィラー又は感謝の言葉を挿入しないと判断された場合(S8:NO)、又は図6のS3の後、会話制御部241は、S1で読み出したシナリオが終了したか判断する(図7:S10)。本ステップでは、例えば図5に示したようなシナリオにおいて、矢印で接続されたせりふ等の終端に到達した場合に、シナリオが終了したと判断する。   On the other hand, when it is determined that the filler or the words of thanks are not to be inserted (S8: NO), or after S3 in FIG. 6, the conversation control unit 241 determines whether the scenario read in S1 is completed (FIG. 7: S10). In this step, for example, in the scenario as shown in FIG. 5, when the end of the dialogue or the like connected by the arrow is reached, it is determined that the scenario has ended.

シナリオが終了した場合(S10:YES)、会話制御部241は会話提供処理を終了する。一方、シナリオが終了していない場合(S10:NO)、又はS9の後、接続子「C」を介して図6のS1に戻る。   When the scenario ends (S10: YES), the conversation control unit 241 ends the conversation providing process. On the other hand, when the scenario is not completed (S10: NO), or after S9, the process returns to S1 of FIG. 6 via the connector “C”.

<効果>
特にチャット形式のソフトウェアエージェントにおいては、フィラーは冗長で無駄なものと考えられがちである。しかしながら、発明者らは、チャット形式のエージェントに関する実証実験を経て、フィラー又は感謝の気持ちを表す言葉を挿入することで、同一のシナリオでもユーザとの対話数が増加することを見出した。対話数が増加するということは、本ソフトウェアの利用時間(アクティブ率)が増大するということであり、ユーザの満足度、ひいては幸福感が高まるものと考えられる。
<Effect>
Especially in chat-type software agents, fillers are often considered redundant and useless. However, the present inventors have found that, through a demonstration experiment on a chat-type agent, the number of conversations with the user increases even in the same scenario by inserting fillers or words expressing gratitude. An increase in the number of conversations means an increase in the use time (active rate) of the software, which is considered to increase the user's satisfaction and, in turn, happiness.

上述した実施形態によれば、フィラーや感謝の言葉を予め定められたシナリオにおいて好ましい位置に挿入することができ、対話の継続性を向上させることができる。また、フィラーや感謝の言葉の挿入を確率的に決定することで、同一のシナリオに変化を与えることができる。また、会話の履歴に対して学習処理を行い、対話数が増加するような言葉やタイミングを選択させることで、より違和感が少ない言葉の挿入を実現できると共に、対話数をさらに伸ばすことができる。   According to the above-described embodiment, fillers and words of appreciation can be inserted at preferred positions in a predetermined scenario, and continuity of dialogue can be improved. In addition, the same scenario can be changed by stochastically determining the insertion of fillers and words of appreciation. Also, by performing learning processing on the conversation history and selecting words and timings that increase the number of conversations, it is possible to insert words with less discomfort, and further increase the number of conversations.

<変形例>
エージェントの数が複数の場合も、同様にフィラー又は感謝の気持ちを表す言葉を挿入することができる。本変形例では、シナリオに従ったせりふを発言するエージェントと、フィラー又は感謝の言葉を発言するエージェントとに役割を分けて説明する。
<Modification>
If the number of agents is more than one, fillers or words of appreciation can be similarly inserted. In the present modified example, the role is divided into an agent that speaks a dialogue according to a scenario and an agent that speaks a filler or words of appreciation.

図9は、変形例に係る会話提供処理の一例を示す処理フロー図である。本変形例は、基本的に図6の処理と同様であり、対応するステップには同一の符号を付している。以下、図6との相違点を中心に説明する。   FIG. 9 is a process flowchart illustrating an example of a conversation providing process according to a modification. This modification is basically the same as the processing in FIG. 6, and corresponding steps are denoted by the same reference numerals. Hereinafter, the description will focus on the differences from FIG.

図9の変形例においては、S2において一方のエージェント(エージェント1)のせりふであるか判断し、S3においてエージェント1のせりふを出力する。   In the modification of FIG. 9, it is determined in S2 whether it is the dialog of one of the agents (agent 1), and in S3, the dialog of agent 1 is output.

図10は、変形例において表示される画像の一例を示す図である。図10の画像には、図3にも示した第1のエージェント111(エージェント1)に加え、第2のエージェント115(エージェント2)が表示されている。   FIG. 10 is a diagram illustrating an example of an image displayed in the modification. In the image of FIG. 10, a second agent 115 (agent 2) is displayed in addition to the first agent 111 (agent 1) also shown in FIG.

また、S3の後は、接続子「B」を介して図11のS8に遷移する。図11は、変形例に係る会話提供処理の一例を示す処理フロー図である。すなわち、S8においては、ユーザの発言の後だけでなく、エージェント1の発言の後にも、他方のエージェント(エージェント2)が、フィラー又は感謝の言葉を発言するか判断する。そして、フィラー又は感謝の言葉を挿入すると判断された場合(S8:YES)、S9においては、エージェント2が選択されたせりふを出力する。   After S3, the process transits to S8 in FIG. 11 via the connector "B". FIG. 11 is a process flowchart illustrating an example of a conversation providing process according to a modification. That is, in S8, it is determined whether or not the other agent (agent 2) speaks a filler or a word of appreciation not only after the speech of the user but also after the speech of the agent 1. When it is determined that the filler or the words of thanks are to be inserted (S8: YES), in S9, the agent 2 outputs the selected dialogue.

図12は、変形例において表示される画像の一例を示す図である。図12の例では、エージェント2の発言を表す吹出し116が表示されている。また、図12においては、エージェント1の発言の後に、エージェント2のせりふ「ほうほう」が挿入されている。このように、エージェント2は、エージェント1のせりふの後、又はユーザのせりふの後に、フィラー又は感謝の言葉を発言する。なお、言葉を挿入する確率は、上述の実施形態と同様に決定することができる。   FIG. 12 is a diagram illustrating an example of an image displayed in the modification. In the example of FIG. 12, a balloon 116 representing the statement of the agent 2 is displayed. Also, in FIG. 12, after the speech of the agent 1, the dialogue "Hohou" of the agent 2 is inserted. In this way, the agent 2 speaks a filler or a word of thanks after the dialog of the agent 1 or after the dialog of the user. Note that the probability of inserting a word can be determined in the same manner as in the above-described embodiment.

このようにすれば、三者の会話においてもユーザとの対話数を伸ばすことができる。   By doing so, the number of conversations with the user can be increased even in a conversation between the three parties.

また、上述の変形例では、シナリオに従ったせりふを発言するエージェントと、フィラー又は感謝の言葉を発言するエージェントとに役割を分けたが、このような例には限定されない。予め2人のエージェントにせりふが割り当てられたシナリオを用いるようにしてもよい。この場合は、例えば、一方のエージェントは、他方のエージェント及びユーザに対しフィラー又は感謝の言葉を発する。また、他方のエージェントは、一方のエージェント及びユーザに対してフィラー又は感謝の言葉を発する。このとき、言葉を挿入する確率は、上述の実施形態と同様に決定することができる。   Further, in the above-described modified example, the role is divided into an agent that speaks a dialogue according to a scenario and an agent that speaks a filler or a word of thanks, but the present invention is not limited to such an example. A scenario in which dialogue is assigned to two agents in advance may be used. In this case, for example, one agent issues a filler or thanks to the other agent and the user. Also, the other agent utters a filler or thanks to the one agent and the user. At this time, the probability of inserting a word can be determined in the same manner as in the above embodiment.

<その他>
上述した実施形態の構成は例示であり、本発明の課題や技術的思想を逸脱しない範囲で可能な限り組み合わせたり、変更することができる。
<Others>
The configuration of the above-described embodiment is an exemplification, and can be combined or changed as much as possible without departing from the problem and the technical idea of the present invention.

本発明は上述の処理を実行するコンピュータプログラムを含む。さらに、当該プログラムを記録した、コンピュータ読み取り可能な記録媒体も、本発明の範疇に属する。当該プログラムが記録された記録媒体については、コンピュータに、この記録媒体のプログラムを読み込ませて実行させることにより、上述の処理が可能となる。   The present invention includes a computer program that executes the above-described processing. Furthermore, a computer-readable recording medium on which the program is recorded also belongs to the category of the present invention. For the recording medium on which the program is recorded, the above-described processing can be performed by causing a computer to read and execute the program on the recording medium.

ここで、コンピュータ読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータから読
み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータから取り外し可能なものとしては、フレキシブルディスク、光磁気ディスク、光ディスク、磁気テープ、メモリカード等がある。また、コンピュータに固定された記録媒体としては、ハードディスクドライブやROM等がある。
Here, the computer-readable recording medium refers to a recording medium in which information such as data and programs is accumulated by electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer. Among such recording media, those removable from a computer include a flexible disk, a magneto-optical disk, an optical disk, a magnetic tape, a memory card, and the like. Further, examples of the recording medium fixed to the computer include a hard disk drive and a ROM.

1 :ユーザ装置
11 :入出力I/F
12 :記憶装置
13 :通信I/F
14 :プロセッサ
141 :入出力制御部
2 :対話型情報提供装置
21 :入出力I/F
22 :記憶装置
23 :通信I/F
24 :プロセッサ
241 :会話制御部
242 :挿入制御部
243 :学習処理部
3 :ネットワーク
1: User device 11: Input / output I / F
12: Storage device 13: Communication I / F
14: Processor 141: Input / output control unit 2: Interactive information providing device 21: Input / output I / F
22: Storage device 23: Communication I / F
24: Processor 241: Conversation control unit 242: Insertion control unit 243: Learning processing unit 3: Network

Claims (5)

ユーザに自身の台詞を選択させることにより、仮想的な人格と前記ユーザとの会話形式で情報を提供する情報提供装置であって、
前記仮想的な人格の台詞及び前記ユーザの台詞を含む会話形式のシナリオを記憶する記憶装置からシナリオを読み出し、前記仮想的な人格の台詞及び前記ユーザの台詞の選択肢を出力すると共に、前記ユーザから台詞の選択を受け付ける会話制御部と、
前記シナリオに従って発言した前記仮想的な人格及び前記ユーザの台詞の履歴に基づいて、選択された前記ユーザの台詞と、前記仮想的な人格の台詞との間に、発言の間を埋める言葉であるフィラー又は感謝の気持ちを表す言葉を挿入する挿入制御部と、
を備え、
前記挿入制御部は、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率が、前記フィラー又は感謝の気持ちを表す言葉を以前に挿入したときからの発言数が増加するほど上昇するように調整する
情報提供装置。
An information providing device that provides a virtual personality and information in a conversation format with the user by allowing the user to select his or her dialogue,
A scenario is read from a storage device that stores a conversational scenario including the virtual personality dialogue and the user's dialogue, and the virtual personality dialogue and the user's dialogue options are output. A conversation control unit for receiving a selection of dialogue,
Based on the virtual personality and the history of the user's dialogue that are said in accordance with the scenario, a word that fills the space between the selected user's dialogue and the virtual personality's dialogue. An insertion control unit for inserting a filler or words expressing gratitude,
With
The insertion control unit adjusts the probability of inserting the filler or the word expressing gratitude to increase as the number of remarks from when the filler or the word expressing gratitude was previously inserted increases. Information providing device.
前記挿入制御部は、前記台詞の履歴に含まれる単語に対応付けて定められた所定の特徴ベクトルを用いて、前記台詞の文章に関連する感情の種別を分析し、当該感情の種別に予め対応付けられて前記記憶装置に記憶されている前記フィラー又は感謝の気持ちを表す言葉を挿入する
請求項1に記載の情報提供装置。
The insertion control unit analyzes a type of an emotion related to a sentence of the dialog using a predetermined feature vector determined in association with a word included in the history of the dialog, and corresponds to the type of the emotion in advance. The information providing apparatus according to claim 1, wherein the filler or a word expressing appreciation is attached and stored in the storage device.
前記台詞の履歴に基づいて、前記フィラー又は感謝の気持ちを表す言葉の挿入の有無と、前記履歴における一連の発言数との関係を統計的に分析し、会話における一連の発言数が伸びるように、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率を調整する学習処理部をさらに備える
請求項1又は2に記載の情報提供装置。
Based on the history of the dialogue, statistically analyze the relationship between the presence or absence of the filler or words expressing appreciation and the number of series of statements in the history, so that the number of series of speech in conversation increases The information providing apparatus according to claim 1, further comprising a learning processing unit configured to adjust a probability of inserting the filler or a word expressing appreciation.
ユーザに自身の台詞を選択させることにより、仮想的な人格と前記ユーザとの会話形式で情報をコンピュータが提供する情報提供方法であって、
前記仮想的な人格の台詞及び前記ユーザの台詞を含む会話形式のシナリオを記憶する記憶装置からシナリオを読み出し、前記仮想的な人格の台詞及び前記ユーザの台詞の選択肢を出力すると共に、前記ユーザから台詞の選択を受け付け、
前記シナリオに従って発言した前記仮想的な人格及び前記ユーザの台詞の履歴に基づいて、選択された前記ユーザの台詞と、前記仮想的な人格の台詞との間に、発言の間を埋める言葉であるフィラー又は感謝の気持ちを表す言葉を挿入し、
前記フィラー又は感謝の気持ちを表す言葉の挿入は、前記フィラー又は感謝の気持ちを表す言葉を以前に挿入したときからの発言数が増加するほど、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率が上昇するように調整する
情報提供方法。
An information providing method in which a computer provides information in a form of conversation between a virtual personality and the user by allowing the user to select his or her dialogue,
A scenario is read from a storage device that stores a conversational scenario including the virtual personality dialogue and the user's dialogue, and the virtual personality dialogue and the user's dialogue options are output. Accepts dialogue selection,
Based on the virtual personality and the history of the user's dialogue that are said in accordance with the scenario, a word that fills the space between the selected user's dialogue and the virtual personality's dialogue. Insert filler or words of gratitude,
The insertion of the filler or words of appreciation is the probability of inserting the filler or words of appreciation as the number of remarks from when the filler or appreciation words were previously inserted increases. Information providing method to adjust to increase.
ユーザに自身の台詞を選択させることにより、仮想的な人格と前記ユーザとの会話形式で情報を提供するコンピュータに、
前記仮想的な人格の台詞及び前記ユーザの台詞を含む会話形式のシナリオを記憶する記憶装置からシナリオを読み出し、前記仮想的な人格の台詞及び前記ユーザの台詞の選択肢を出力すると共に、前記ユーザから台詞の選択を受け付け、
前記シナリオに従って発言した前記仮想的な人格及び前記ユーザの台詞の履歴に基づいて、選択された前記ユーザの台詞と、前記仮想的な人格の台詞との間に、発言の間を埋める言葉であるフィラー又は感謝の気持ちを表す言葉を挿入し、
前記フィラー又は感謝の気持ちを表す言葉の挿入は、前記フィラー又は感謝の気持ちを
表す言葉を以前に挿入したときからの発言数が増加するほど、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率が上昇するように調整する
処理を実行させるプログラム。
By allowing the user to select his or her dialogue, a computer that provides information in the form of a conversation with the virtual personality and the user,
A scenario is read from a storage device that stores a conversational scenario including the virtual personality dialogue and the user's dialogue, and the virtual personality dialogue and the user's dialogue options are output. Accepts dialogue selection,
Based on the virtual personality and the history of the user's dialogue that are said in accordance with the scenario, a word that fills the space between the selected user's dialogue and the virtual personality's dialogue. Insert filler or words of gratitude,
The insertion of the filler or words of gratitude is the probability that the filler or words of gratitude will be inserted as the number of remarks from the previous insertion of the words of filler or gratitude increases. The program that executes the process of adjusting so that it rises.
JP2018147977A 2018-08-06 2018-08-06 Information providing apparatus, information providing method, and program Expired - Fee Related JP6551852B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018147977A JP6551852B1 (en) 2018-08-06 2018-08-06 Information providing apparatus, information providing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018147977A JP6551852B1 (en) 2018-08-06 2018-08-06 Information providing apparatus, information providing method, and program

Publications (2)

Publication Number Publication Date
JP6551852B1 JP6551852B1 (en) 2019-07-31
JP2020024522A true JP2020024522A (en) 2020-02-13

Family

ID=67473372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018147977A Expired - Fee Related JP6551852B1 (en) 2018-08-06 2018-08-06 Information providing apparatus, information providing method, and program

Country Status (1)

Country Link
JP (1) JP6551852B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08211986A (en) * 1995-02-08 1996-08-20 Sharp Corp Interactive equipment with agreeing response
JP2003202895A (en) * 2002-01-10 2003-07-18 Sony Corp Interaction device and interaction control method, storage medium, and computer program
JP2012141997A (en) * 2012-02-13 2012-07-26 Mieko Tsuyusaki Net system
WO2017130497A1 (en) * 2016-01-28 2017-08-03 ソニー株式会社 Communication system and communication control method
JP2018109663A (en) * 2016-12-28 2018-07-12 シャープ株式会社 Speech processing unit, dialog system, terminal device, program, and speech processing method
JP2018116427A (en) * 2017-01-17 2018-07-26 国立大学法人大阪大学 Electronic order-taking system and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08211986A (en) * 1995-02-08 1996-08-20 Sharp Corp Interactive equipment with agreeing response
JP2003202895A (en) * 2002-01-10 2003-07-18 Sony Corp Interaction device and interaction control method, storage medium, and computer program
JP2012141997A (en) * 2012-02-13 2012-07-26 Mieko Tsuyusaki Net system
WO2017130497A1 (en) * 2016-01-28 2017-08-03 ソニー株式会社 Communication system and communication control method
JP2018109663A (en) * 2016-12-28 2018-07-12 シャープ株式会社 Speech processing unit, dialog system, terminal device, program, and speech processing method
JP2018116427A (en) * 2017-01-17 2018-07-26 国立大学法人大阪大学 Electronic order-taking system and program

Also Published As

Publication number Publication date
JP6551852B1 (en) 2019-07-31

Similar Documents

Publication Publication Date Title
KR102178738B1 (en) Automated assistant calls from appropriate agents
US10242667B2 (en) Natural language generation in a spoken dialogue system
US9135231B1 (en) Training punctuation models
KR102342172B1 (en) Tailoring creator-provided content-based interactive conversational applications
CN111033464A (en) Generating chat robots from web API specifications
US11144713B2 (en) Communication device generating a response message simulating a response by a target user
KR102429407B1 (en) User-configured and customized interactive dialog application
US11538476B2 (en) Terminal device, server and controlling method thereof
JP7488382B2 (en) Context Denormalization for Automatic Speech Recognition
US20060229872A1 (en) Methods and apparatus for conveying synthetic speech style from a text-to-speech system
US11488603B2 (en) Method and apparatus for processing speech
KR20190074508A (en) Method for crowdsourcing data of chat model for chatbot
CN111739509A (en) Electronic book audio generation method, electronic device and storage medium
JP6449368B2 (en) Conversation providing apparatus, conversation providing method, and program
CN111556999A (en) Method, computer device and computer readable storage medium for providing natural language dialogue by providing substantive answers in real time
JP2022025665A (en) Summary sentence generation device, summary sentence generation method, and program
CN114783405B (en) Speech synthesis method, device, electronic equipment and storage medium
JP6551852B1 (en) Information providing apparatus, information providing method, and program
US11790302B2 (en) System and method for calculating a score for a chain of interactions in a call center
CN113421549A (en) Speech synthesis method, speech synthesis device, computer equipment and storage medium
JP2021125164A (en) Information processing apparatus, chat bot assisting program, and chat bot assisting method
US12022026B2 (en) System and method for serving multiple customers by a live agent
US20240169974A1 (en) Real-time system for spoken natural stylistic conversations with large language models
JP7462995B1 (en) Information processing system, information processing method, and program
JP2019028604A (en) Interactive device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181228

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181228

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190621

R150 Certificate of patent or registration of utility model

Ref document number: 6551852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees