JP6551852B1 - Information providing apparatus, information providing method, and program - Google Patents

Information providing apparatus, information providing method, and program Download PDF

Info

Publication number
JP6551852B1
JP6551852B1 JP2018147977A JP2018147977A JP6551852B1 JP 6551852 B1 JP6551852 B1 JP 6551852B1 JP 2018147977 A JP2018147977 A JP 2018147977A JP 2018147977 A JP2018147977 A JP 2018147977A JP 6551852 B1 JP6551852 B1 JP 6551852B1
Authority
JP
Japan
Prior art keywords
user
dialogue
filler
gratitude
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018147977A
Other languages
Japanese (ja)
Other versions
JP2020024522A (en
Inventor
田中 秀樹
秀樹 田中
善視 冨永
善視 冨永
諒太 坂本
諒太 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ELVEZ, INC.
Original Assignee
ELVEZ, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ELVEZ, INC. filed Critical ELVEZ, INC.
Priority to JP2018147977A priority Critical patent/JP6551852B1/en
Application granted granted Critical
Publication of JP6551852B1 publication Critical patent/JP6551852B1/en
Publication of JP2020024522A publication Critical patent/JP2020024522A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】対話形式で情報を提供するシステムにおいて対話の継続性を向上させる。【解決手段】情報提供装置は、ユーザに自身の台詞を選択させることにより、仮想的な人格とユーザとの会話形式で情報を提供する。情報提供装置は、仮想的な人格の台詞及びユーザの台詞を含む会話形式のシナリオを記憶する記憶装置からシナリオを読み出し、仮想的な人格の台詞及びユーザの台詞の選択肢を出力すると共に、ユーザから台詞の選択を受け付ける会話制御部と、シナリオに従って発言した仮想的な人格及びユーザの台詞の履歴に基づいて、選択されたユーザの台詞と、仮想的な人格の台詞との間に、発言の間を埋める言葉であるフィラー又は感謝の気持ちを表す言葉を挿入する挿入制御部とを備え、挿入制御部は、フィラー又は感謝の気持ちを表す言葉を挿入する確率が、フィラー又は感謝の気持ちを表す言葉を以前に挿入したときからの発言数が増加するほど上昇するように調整する。【選択図】図2An object of the present invention is to improve the continuity of a dialog in a system that provides information in a dialog format. An information providing apparatus provides information in a conversational form between a virtual personality and a user by allowing the user to select his / her own dialogue. The information providing device reads a scenario from a storage device that stores a conversational scenario including a virtual personality dialogue and a user dialogue, outputs a virtual personality dialogue and a user dialogue option, and from the user Between the speech control unit that accepts the selection of dialogue, the virtual personality spoken according to the scenario, and the dialogue of the user's dialogue, between the dialogue of the selected user and the speech of the virtual personality An insertion control unit that inserts a filler or a word that expresses gratitude, and the insertion control unit has a probability of inserting a filler or a word that expresses gratitude, and the word that expresses the filler or gratitude It is adjusted so that it rises as the number of utterances from the previous insertion increases. [Selection] Figure 2

Description

本発明は、情報提供装置、情報提供方法およびプログラムに関する。   The present invention relates to an information providing apparatus, an information providing method, and a program.

従来、ユーザとの間で情報提供や雑談等の対話を行う様々なチャットボットやソフトウェアエージェントが提案されている。   Conventionally, various chatbots and software agents have been proposed which perform information provision, conversations and the like with users.

また、音声合成において自然な発話を実現することを目的として、会話中の冗長的表現を表す冗長表現言語等を音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入して音声出力するという技術が提案されている(例えば、特許文献1)。具体的には、確率を用いた挿入ルールに基づいて、冗長表現言語を挿入することが記載されている。また、冗長表現言語として、「えー」等のフィラー、「〜ですね」等の語尾冗長語、「まあ」等の間投詞、「(無音)」の言いよどみ、同語辞書データや類語辞書データを利用した同語や類語等が辞書に登録されている旨の記載がある。   Also, for the purpose of realizing natural speech in speech synthesis, a technology of inserting a redundant expression language or the like representing a redundant expression in speech into the text of a spoken word included in the text data of the speech synthesis target and outputting the speech Have been proposed (e.g., Patent Document 1). Specifically, it is described that a redundant expression language is inserted based on an insertion rule using probability. In addition, as redundant expression languages, fillers such as “e”, ending redundant words such as “~ is”, interjections such as “ma”, sloppy “(silence)”, synonym dictionary data and synonym dictionary data are used. There is a statement that same words and synonyms are registered in the dictionary.

特開2014−48443号公報JP 2014-48443 A

従来、テキストで対話を行うチャットボットやソフトウェアエージェントにおいては、話し言葉とは異なり喋り方によるニュアンスが表現できず、フィラーのような表現を積極的に取り入れる例はなかった。   Conventionally, chatbots and software agents that interact with text can not express nuances depending on how they are spoken, unlike spoken language, and there has been no example that actively incorporates expressions such as fillers.

一方、本出願の発明者は、チャットボットやソフトウェアエージェントをユーザに利用してもらうために、フィラーのような冗長表現が必ずしも無駄なものではないことを見出した。本発明は、ユーザに対話形式で情報を提供するシステムにおいて、対話の継続性を向上させることを目的とする。   On the other hand, the inventor of the present application has found that redundant expressions such as fillers are not necessarily useless in order to make users use chat bots and software agents. An object of the present invention is to improve the continuity of interaction in a system for providing information to a user interactively.

情報提供装置は、ユーザに自身の台詞を選択させることにより、仮想的な人格とユーザとの会話形式で情報を提供する。また、情報提供装置は、仮想的な人格の台詞及びユーザの台詞を含む会話形式のシナリオを記憶する記憶装置からシナリオを読み出し、仮想的な人格の台詞及びユーザの台詞の選択肢を出力すると共に、ユーザから台詞の選択を受け付ける会話制御部と、シナリオに従って発言した仮想的な人格及びユーザの台詞の履歴に基づいて、選択されたユーザの台詞と、仮想的な人格の台詞との間に、発言の間を埋める言葉であるフィラー又は感謝の気持ちを表す言葉を挿入する挿入制御部とを備え、挿入制御部は、フィラー又は感謝の気持ちを表す言葉を挿入する確率が、フィラー又は感謝の気持ちを表す言葉を以前に挿入したときからの発言数が増加するほど上昇するように調整する。   The information providing apparatus provides information in a form of conversation between the virtual personality and the user by allowing the user to select his / her own dialogue. In addition, the information providing apparatus reads a scenario from a storage device storing a dialog type scenario including a dialogue of a virtual personality and a dialogue of the user, and outputs a dialogue of the virtual personality and a choice of the dialogue of the user. A speech control unit that accepts selection of a line from the user, and a speech between the user's speech and the virtual personality, the speech of the selected user based on the history of the virtual personality and the speech of the user who spoke according to the scenario And the insertion control unit for inserting a filler representing a feeling of gratitude or a filler representing a gap between words, and the insertion control unit has a probability of inserting the filler or a feeling of gratitude representing the filler or the feeling of gratitude Adjust so that the number of utterances from the previous insertion of the word to represent increases.

このようにすれば、フィラーや感謝の言葉を予め定められたシナリオにおいて好ましい位置に挿入することができ、対話の継続性を向上させることができる。また、フィラーや感謝の言葉の挿入を確率的に決定することで、同一のシナリオに変化を与えることができる。   In this way, fillers and words of thanks can be inserted at preferred positions in a predetermined scenario, and the continuity of the dialogue can be improved. In addition, it is possible to change the same scenario by probabilistically determining the insertion of fillers and words of thanks.

また、挿入制御部は、台詞の履歴に含まれる単語に対応付けて定められた所定の特徴ベクトルを用いて、台詞の文章に関連する感情の種別を分析し、当該感情の種別に予め対応付けられて記憶装置に記憶されているフィラー又は感謝の気持ちを表す言葉を挿入するようにしてもよい。このようにすれば、文脈上違和感のないフィラー又は感謝の気持ちを表す言葉を選択することができる。   Further, the insertion control unit analyzes the type of emotion related to the sentence of the speech using a predetermined feature vector determined in association with the word included in the history of the speech, and associates the type of emotion in advance with the type of the emotion. It is also possible to insert a filler or words of appreciation that are stored in the storage device. In this way, it is possible to select a filler or a word expressing gratitude in the context.

また、台詞の履歴に基づいて、フィラー又は感謝の気持ちを表す言葉の挿入の有無と、履歴における一連の発言数との関係を統計的に分析し、会話における一連の発言数が伸びるように、フィラー又は感謝の気持ちを表す言葉を挿入する確率を調整する学習処理部をさらに備えるようにしてもよい。対話数が増加するような言葉やタイミングを優先的に選択することで、より違和感が少ない態様で言葉の挿入を実現できると共に、対話数をさらに伸ばすことができる。   Also, based on the history of the dialogue, the relationship between the presence or absence of a filler or a word expressing gratitude, and the number of series of utterances in the history are statistically analyzed to increase the number of series of utterances in the conversation, The information processing apparatus may further include a learning processing unit that adjusts the probability of inserting a filler or a word expressing gratitude. By preferentially selecting words and timings that increase the number of dialogues, it is possible to realize the insertion of words in a manner that makes the sense of incongruity less, and to further increase the number of dialogues.

なお、課題を解決するための手段に記載の内容は、本発明の課題や技術的思想を逸脱しない範囲で可能な限り組み合わせることができる。また、課題を解決するための手段の内容は、コンピュータ等の装置若しくは複数の装置を含むシステム、コンピュータが実行する方法、又はコンピュータに実行させるプログラムとして提供することができる。なお、プログラムを保持する記録媒体を提供するようにしてもよい。   The contents described in the means for solving the problems can be combined as much as possible without departing from the problems and technical ideas of the present invention. The contents of the means for solving the problems can be provided as a device such as a computer or a system including a plurality of devices, a method executed by the computer, or a program executed by the computer. Note that a recording medium for holding the program may be provided.

ユーザに対話形式で情報を提供するシステムにおいて、対話の継続性を向上させることができる。   In a system that provides information to the user interactively, the continuity of the dialogue can be improved.

システム全体の構成の一例を示す図である。It is a figure which shows an example of a structure of the whole system. ユーザ装置及び対話型情報提供装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a user apparatus and an interactive information provision apparatus. ユーザ装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a user apparatus. 対話型情報提供装置に記憶されているシナリオの一例を視覚的に表した図である。It is the figure which represented visually an example of the scenario memorize | stored in the interactive information provision apparatus. シナリオのせりふ間にフィラーを挿入した場合の出力の一例を示す図である。It is a figure which shows an example of the output at the time of inserting a filler in the interface of a scenario. 会話提供処理の一例を示す処理フロー図である。It is a processing flow figure showing an example of conversation offer processing. 会話提供処理の一例を示す処理フロー図である。It is a processing flow figure showing an example of conversation offer processing. 記憶装置に記憶されるフィラー又は感謝の言葉の一例を示す図である。It is a figure which shows an example of the filler or the word of thanks memorize | stored in a memory | storage device. 変形例に係る会話提供処理の一例を示す処理フロー図である。It is a processing flow figure showing an example of conversation offer processing concerning a modification. 変形例において表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed in a modification. 変形例に係る会話提供処理の一例を示す処理フロー図である。It is a processing flow figure showing an example of conversation offer processing concerning a modification. 変形例において表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed in a modification.

以下、図面を参照して本発明を実施するための形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<システム構成>
図1は、実施形態に係るシステム全体の一例を示す図である。本システムは、コンピュータによって発言が出力され、ユーザと会話を行う仮想的な人格であるソフトウェアエージェントを提供する。また、会話の内容は予め作成されたシナリオを表す情報に基づいて進行する。
<System configuration>
FIG. 1 is a diagram illustrating an example of the entire system according to the embodiment. This system provides a software agent, which is a virtual personality in which a speech is output by a computer and has a conversation with a user. The content of the conversation proceeds based on information representing a scenario created in advance.

本システムは、ユーザ装置1と、対話型情報提供装置2とを含み、これらがネットワーク3を解して接続されている。ネットワーク3は、インターネット等の通信網であり、ネ
ットワーク3に接続されたコンピュータは様々なプロトコルに基づいて相互に通信できるものとする。ユーザ装置1は、スマートフォンやタブレット、PC(Personal Computer
)等のコンピュータであり、本実施形態に係るプログラム(ソフトウェア、又はアプリケーションとも呼ぶ)を実行することにより、本実施形態に係る会話提供システムのユーザインターフェースとして機能する。なお、ユーザ装置1は、ネットワーク3に複数接続されていてもよい。対話型情報提供装置2は、一般的なコンピュータであり、本実施形態に係るプログラムを実行することにより、仮想的な人格の発言をユーザ装置1へネットワーク3を介して出力すると共に、ユーザ装置1からユーザの応答を取得する処理を繰り返す。なお、ユーザの発言は、対話型情報提供装置2が出力する選択肢の中からユーザが選択することにより、ユーザ装置1に入力され、ネットワーク3を介して対話型情報提供装置2へ送信される。
This system includes a user device 1 and an interactive information providing device 2, which are connected via a network 3. The network 3 is a communication network such as the Internet, and computers connected to the network 3 can communicate with each other based on various protocols. The user device 1 is a smartphone, tablet, PC (Personal Computer
And the like, and functions as a user interface of the conversation providing system according to the present embodiment by executing a program (also referred to as software or application) according to the present embodiment. Note that a plurality of user devices 1 may be connected to the network 3. The interactive information providing device 2 is a general computer, and outputs a statement of a virtual personality to the user device 1 through the network 3 by executing the program according to the present embodiment. The process of obtaining the user response from is repeated. The user's speech is input to the user device 1 as the user selects from the options output from the interactive information providing device 2, and is transmitted to the interactive information providing device 2 via the network 3.

<装置構成>
図2は、ユーザ装置1及び対話型情報提供装置2の構成の一例を示すブロック図である。
<Device configuration>
FIG. 2 is a block diagram illustrating an example of the configuration of the user device 1 and the interactive information providing device 2.

ユーザ装置1は、スマートフォンやタブレット等の一般的なコンピュータであり、入出力インターフェース(I/F)11と、記憶装置12と、通信インターフェース(I/F)13と、プロセッサ14と、バス15とを備えている。入出力I/F11は、例えばタッチパネル等のユーザインターフェースである。入出力I/F11は、ユーザに対し仮想的人格の発言を表示したり、ユーザの応答の選択肢を表示させたりすると共に、ユーザの操作に基づいてユーザの応答の選択を受け付ける。記憶装置12は、RAM(Random Access Memory)やROM(Read Only Memory)等の主記憶装置及びHDD(Hard-disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等の補助記憶装置(二次記憶装置)である。主記憶装置は、プロセッサが読み出したプログラムや受信する台詞のデータを一時的に記憶したり、プロセッサの作業領域を確保したりする。補助記憶装置は、プロセッサが実行するプログラムを記憶したりする。通信I/F13は、例えば携帯電話の基地局や無線LAN(Local Area Network)のアクセスポイントと通信を行うネットワークモジュールであり、所定のプロトコルに基づき通信を行う。プロセッサ14は、CPU(Central Processing Unit)等の演算処理装置であり、プログラムを実行することにより本
実施の形態に係る各処理を行う。図2の例では、プロセッサ14内に機能ブロックを示している。具体的には、プロセッサ14は、入出力制御部141として機能する。入出力制御部141は、仮想的な人格の発言を入出力I/F11に表示させると共に、入出力I/F11を介してユーザの応答の入力を受け付ける。以上のような構成要素が、バス15を介して接続されている。
The user device 1 is a general computer such as a smartphone or a tablet, and has an input / output interface (I / F) 11, a storage device 12, a communication interface (I / F) 13, a processor 14, and a bus 15. It has. The input / output I / F 11 is a user interface such as a touch panel. The input / output I / F 11 displays an utterance of a virtual personality to the user, displays an option of the user's response, and receives a selection of the user's response based on the user's operation. The storage device 12 is a main storage device such as a random access memory (RAM) or a read only memory (ROM), and an auxiliary storage device (a secondary storage device such as a hard disk drive (HDD), a solid state drive (SSD)) or a flash memory. Device). The main storage device temporarily stores programs read by the processor and data of received speech, and secures a work area of the processor. The auxiliary storage device stores a program executed by the processor. The communication I / F 13 is a network module that performs communication with, for example, a mobile phone base station or a wireless LAN (Local Area Network) access point, and performs communication based on a predetermined protocol. The processor 14 is an arithmetic processing unit such as a CPU (Central Processing Unit), and performs each process according to the present embodiment by executing a program. In the example of FIG. 2, functional blocks are shown in the processor 14. Specifically, the processor 14 functions as the input / output control unit 141. The input / output control unit 141 displays an utterance of a virtual personality on the input / output I / F 11 and accepts a user response input via the input / output I / F 11. The components as described above are connected via the bus 15.

また、対話型情報提供装置2は、サーバ等の一般的なコンピュータであり、入出力I/F21と、記憶装置22と、通信I/F23と、プロセッサ24と、バス25とを備えている。入出力I/F21は、例えばキーボードやマウス、ディスプレイ等のユーザインターフェースである。記憶装置22は、RAMやROM等の主記憶装置及びHDDやSSD、フラッシュメモリ等の補助記憶装置である。主記憶装置は、プロセッサが読み出したプログラムや補助記憶装置に格納されているシナリオのデータを一時的に記憶したり、プロセッサの作業領域を確保したりする。補助記憶装置は、プロセッサが実行するプログラムを記憶したりする。通信I/F23は、例えば有線のネットワークカード等であり、所定のプロトコルに基づき通信を行う。プロセッサ24は、CPU等の演算処理装置であり、プログラムを実行することにより本実施の形態に係る各処理を行う。図2に示すように、プロセッサ24は、会話制御部241、挿入制御部242、学習処理部243として機能する。会話制御部241は、予め用意されたシナリオを用いてユーザに対する仮想的な人格の発言と、発言に対するユーザの応答の選択肢とを出力する。挿入制御部242は、所定の規則に従い、フィラーや感謝の気持ちを表す言葉を挿入するか判断する。学習処理部
は、統計処理に基づいて、フィラーや感謝の気持ちを表す言葉を挿入することで、ユーザとの対話数が伸びたか判断し、挿入制御部242がフィラーや感謝の気持ちを表す言葉を挿入する確率を調整する。以上のような構成要素が、バス15を介して接続されている。
The interactive information providing apparatus 2 is a general computer such as a server, and includes an input / output I / F 21, a storage device 22, a communication I / F 23, a processor 24, and a bus 25. The input / output I / F 21 is a user interface such as a keyboard, a mouse, or a display. The storage device 22 is a main storage device such as a RAM or a ROM, and an auxiliary storage device such as an HDD, an SSD, or a flash memory. The main storage device temporarily stores programs read by the processor and scenario data stored in the auxiliary storage device, and secures a work area for the processor. The auxiliary storage device stores a program executed by the processor. The communication I / F 23 is a wired network card, for example, and performs communication based on a predetermined protocol. The processor 24 is an arithmetic processing unit such as a CPU, and performs each process according to the present embodiment by executing a program. As illustrated in FIG. 2, the processor 24 functions as a conversation control unit 241, an insertion control unit 242, and a learning processing unit 243. The conversation control unit 241 outputs an utterance of a virtual personality for the user and an option of the user's response to the utterance using a scenario prepared in advance. The insertion control unit 242 determines whether to insert a filler or a word expressing gratitude in accordance with a predetermined rule. The learning processing unit determines whether the number of dialogues with the user has increased by inserting a filler or a word expressing gratitude based on statistical processing, and the insertion control unit 242 generates a word expressing a filler or gratitude Adjust the probability of insertion. The components as described above are connected via the bus 15.

<ユーザインターフェース>
図3は、ユーザ装置1の入出力I/F11に表示される画像の一例を示す図である。図3の例では、タッチパネルである入出力I/F11に、エージェントを表す画像111と、ユーザを表す画像112と、エージェントの発言を表す吹出し113と、ユーザの応答の選択肢114とが表示されている。ユーザは、例えばこのような選択肢の中から自身の発言をタップして選択することにより、エージェントとの対話を行うことができる。なお、選択肢の数は1以上であり、4つには限られない。
<User interface>
FIG. 3 is a diagram illustrating an example of an image displayed on the input / output I / F 11 of the user device 1. In the example of FIG. 3, an image 111 representing an agent, an image 112 representing a user, a balloon 113 representing an agent's utterance, and a user's response option 114 are displayed on the input / output I / F 11 which is a touch panel. Yes. The user can interact with the agent, for example, by tapping his / her speech from such options. The number of options is one or more, and is not limited to four.

<シナリオ>
図4は、対話型情報提供装置2の記憶装置22に予め記憶されているシナリオの一例を視覚的に表した図である。本実施形態では、長方形で表されるエージェントのせりふ又は電話の発呼のようなソフトウェアによる処理と、角丸長方形で表されるユーザのせりふの選択肢とが矢印により順序付けされて配置されている。エージェントのせりふは、基本的に直列に接続されており、矢印で接続された順に、図3に示した吹出し113に出力される。ユーザのせりふの選択肢は、図3に示した選択肢114に表示される。このとき、並列に配置された選択肢は並行して出力され、ユーザが選択したせりふに応じてシナリオが分岐し、後続のせりふが表示されるようになる。その他、ユーザ装置が備える機能を利用して、図4に示した電話の発呼処理や、ウェブサイトの表示(図示せず)等が行えるようにしてもよい。
<Scenario>
FIG. 4 is a diagram visually illustrating an example of a scenario stored in advance in the storage device 22 of the interactive information providing apparatus 2. In the present embodiment, processing by software such as agent dialogues or telephone calls represented by rectangles and options of user dialogues represented by rounded rectangles are arranged in order by arrows. The agent dialogues are basically connected in series, and are output to the outlet 113 shown in FIG. The user's choices are displayed in the choice 114 shown in FIG. At this time, the options arranged in parallel are output in parallel, the scenario branches according to the line selected by the user, and the subsequent lines are displayed. In addition, it may be possible to perform the telephone call processing shown in FIG. 4, display of a website (not shown), and the like by using a function provided in the user apparatus.

<フィラー及び感謝の言葉の挿入>
図5は、シナリオのせりふ間にフィラーを挿入した場合の出力の一例を示す図である。本実施形態に係る対話型情報提供装置2の挿入制御部242は、予め用意されたシナリオの中に、「えー」、「えーと」、「うんうん」、「ほうほう」、「なるほど」等の会話の間を埋める言葉であるフィラーや、「ありがとう」等の感謝の気持ちを表す言葉を挿入する。具体的には、エージェントは相手のせりふの後に、所定の確率に基づいてこれらの言葉を挿入するようにしてもよい。
<Inserting fillers and words of thanks>
FIG. 5 is a diagram illustrating an example of an output when a filler is inserted between a scenario dialogue. The insertion control unit 242 of the interactive information providing apparatus 2 according to the present embodiment has, among the prepared scenarios, “Eh”, “Eh”, “Uneun”, “Hou”, “I see”, etc. Insert words that express gratitude, such as fillers that fill the conversation and “thank you”. Specifically, the agent may insert these words based on a predetermined probability after the opponent's dialogue.

また、挿入される言葉は、喜怒哀楽といった感情の種別と予め対応付けて記憶させておくようにしてもよい。そして、相手のせりふに含まれる単語について、感情の種別を要素とする特徴ベクトルを用いて対話の流れにおける感情を分析し、感情の種別に応じて挿入すべき言葉が選択される。また、上述の確率は、前回フィラー等を挿入してからの対話数(ユーザおよびエージェントが発言したせりふの数)が増加するほど上昇するようにしてもよい。   The inserted words may be stored in advance in association with emotion types such as emotions. Then, for the words included in the other party's speech, the emotion in the flow of the dialogue is analyzed using the feature vector having the emotion type as an element, and the word to be inserted is selected according to the emotion type. In addition, the above-described probability may be increased as the number of conversations (the number of dialogues made by the user and the agent) after the previous filler or the like is inserted increases.

図4に示したシナリオによれば、ユーザのせりふの選択肢「何ができるの?」の後に、エージェントのせりふ「ご注文の商品を・・・」が接続されているが、図5の画面においては上述した条件に基づいてフィラー「えーと・・・」が挿入されている。   According to the scenario shown in FIG. 4, after the user's choice "What can you do?", The agent's statement "order item ..." is connected. Is inserted with the filler "Huh ..." based on the conditions described above.

また、対話型情報提供装置2の会話制御部241は、ユーザとエージェントとの対話のログを記憶装置22に蓄積し、学習処理部243は、フィラーや感謝の言葉を挿入することで対話数が伸びたか否かを機械学習する。そして、学習処理部243は、挿入することで対話数が伸びたと判断された言葉や、挿入することで対話数が伸びたと判断されたタイミング(あるシナリオにおけるせりふの間)において、これらの言葉が挿入される確率が上昇するようにフィードバックする。なお、対話数が伸びたか否かは、挿入されたせりふの数以上に、予め用意されたシナリオをユーザがより先まで進行させたか否かに基づいて
判断する。
In addition, the conversation control unit 241 of the interactive information providing device 2 stores the log of the interaction between the user and the agent in the storage device 22, and the learning processing unit 243 inserts the filler and the words of thanks by the number of interactions. Machine learning whether or not it has been extended. Then, in the learning processing unit 243, these words are inserted in the words judged that the number of dialogues has been increased by inserting, and in the timings when it is judged that the number of dialogues has increased by inserting (during an interview in a scenario). Feedback is given to increase the probability of insertion. Whether or not the number of conversations has increased is determined based on whether or not the user has advanced the scenario prepared in advance, more than the number of inserted dialogues.

<会話提供処理>
図6は、本システムにおいて実行される会話提供処理の一例を示す処理フロー図である。まず、対話型情報提供装置2の会話制御部241は、図4に示したようなシナリオを読み出す(図6:S1)。本ステップでは、シナリオに定義された順序に基づいて、エージェントのせりふ若しくはユーザのせりふの選択肢、又はその他の処理を行う指示が読み出される。図4の例では、「スタート」から矢印で接続されたエージェントのせりふ「お買い物ですか?」が読み出される。
<Conversation processing>
FIG. 6 is a process flow diagram showing an example of the conversation providing process executed in the present system. First, the conversation control unit 241 of the interactive information providing apparatus 2 reads out a scenario as shown in FIG. 4 (FIG. 6: S1). In this step, based on the order defined in the scenario, an agent dialogue or a user dialogue option, or an instruction to perform other processing is read. In the example of FIG. 4, the agent's dialogue “Is shopping?” Connected by an arrow is read from “Start”.

そして、会話制御部241は、読み出したせりふ等がエージェントのせりふであるか判断する(図6:S2)。エージェントのせりふである場合(S2:YES)、会話制御部241は、読み出したエージェントのせりふを、入出力I/F11を介して出力する(図6:S3)。例えば、図3に示すように、エージェントのせりふ「お買い物ですか?」が出力される。そして、接続子「A」を介して図7の処理へ遷移する。   Then, the conversation control unit 241 determines whether the read-out line is the agent's line (FIG. 6: S2). If it is an agent line (S2: YES), the conversation control unit 241 outputs the read agent line via the input / output I / F 11 (FIG. 6: S3). For example, as shown in FIG. 3, the agent's statement "Do you shop?" Is output. Then, the process transitions to the process of FIG. 7 through the connector “A”.

一方、読み出したせりふ等がエージェントのせりふでない場合(S2:NO)、会話制御部241は、読み出したせりふ等がユーザのせりふの選択肢であるか判断する(図6:S4)。ユーザのせりふの選択肢でない場合(S4:NO)、会話制御部241は、シナリオに沿った処理を行う(図6:S5)。本ステップでは、例えば所定の電話番号への発呼や、所定のURI(Uniform Resource Identifier)のウェブサイトの表示等の処理が
実行される。そして、接続子「A」を介して図7の処理へ遷移する。
On the other hand, if the read-out text is not the agent's text (S2: NO), the conversation control unit 241 determines whether the read-out text is an option of the user's text (FIG. 6: S4). If it is not a user's choice of dialogue (S4: NO), the conversation control unit 241 performs processing according to the scenario (FIG. 6: S5). In this step, processing such as calling a predetermined telephone number and displaying a website of a predetermined URI (Uniform Resource Identifier) is executed. And it changes to the process of FIG. 7 via connector "A".

一方、読み出したせりふ等がユーザのせりふの選択肢である場合(S2:YES)、会話制御部241は、ユーザのせりふの選択肢を表示する(図6:S6)。例えば図4に示したシナリオの場合、エージェントのせりふ「お買い物ですか?」の次の段階においては、ユーザのせりふの選択肢「商品を見たい」、「何ができるの?」、「お店に電話したい」等が読み出され、本ステップにおいて図3の選択肢118のように出力される。   On the other hand, if the read-out dialogue is an option of the user's dialogue (S2: YES), the conversation control unit 241 displays the option of the user's dialogue (FIG. 6: S6). For example, in the scenario shown in FIG. 4, at the next stage of the agent's statement "Shopping?", The user's option "I want to see the product", "What can I do?" "I want to call" is read out, and is output as shown in option 118 of FIG. 3 in this step.

その後、会話制御部241は、入出力I/F21を介してユーザの選択を受け付ける(図6:S7)。本ステップでは、例えばユーザがタッチパネルをタップした位置に応じて、せりふの選択肢のいずれかが選択される。そして、接続子「B」を介して図7の処理に遷移する。   Thereafter, the conversation control unit 241 receives the selection of the user via the input / output I / F 21 (FIG. 6: S7). In this step, for example, one of the choices of dialogue is selected according to the position where the user taps the touch panel. Then, the process transitions to the process of FIG. 7 via the connector “B”.

図7は、本システムにおいて実行される会話提供処理の一例を示す処理フロー図である。S7の後、対話型情報提供装置2の挿入制御部242は、フィラー又は感謝の言葉を挿入するか判断する(図7:S8)。本ステップでは、所定の確率に基づいてフィラー又は感謝の言葉を挿入すると判断する。シナリオに従って発言したエージェント又はユーザの台詞の履歴を記憶装置22に記憶させておき、確率は、前回の挿入から対話数が増加するに従い上昇するようにしてもよい。   FIG. 7 is a process flow diagram showing an example of a conversation providing process performed in the present system. After S7, the insertion control unit 242 of the interactive information providing apparatus 2 determines whether to insert a filler or a word of thanks (FIG. 7: S8). In this step, it is determined to insert a filler or a word of thanks based on a predetermined probability. The history of the speech of the agent or user who spoke according to the scenario may be stored in the storage device 22, and the probability may increase as the number of interactions increases from the previous insertion.

また、履歴に基づいて挿入する言葉を選択するようにしてもよい。例えば形態素解析により、発言した文に含まれる単語に分解し、感情の種別を要素とする特徴ベクトルを用いて分析する。挿入制御部242は、例えばWord2VecやDoc2Vec等を利用し、エージェント又はユーザの台詞の履歴に含まれる単語に基づいて感情分析を行うようにしてもよい。そして、感情の種別である「喜」、「怒」、「哀」、「楽」の占める割合を求める。また、感情の各種別の占める割合に基づいて、挿入する言葉の各々が選択される確率をさらに調整する。   Also, words to be inserted may be selected based on the history. For example, by morphological analysis, it is decomposed into words included in the sentence that has been spoken and analyzed using feature vectors whose elements are emotion types. For example, the insertion control unit 242 may use Word2Vec, Doc2Vec, or the like to perform emotion analysis based on words included in the history of the dialogue of the agent or user. Then, the ratio of the emotion types “joy”, “anger”, “sorrow”, and “easy” is obtained. Also, based on the proportions of emotions, the probability of selecting each of the words to be inserted is further adjusted.

図8は、記憶装置22に記憶されるフィラー又は感謝の言葉の一例を示す図である。例
えば、感情の種別に予め対応付けられて記憶装置22に記憶されている言葉を挿入する。図8のテーブルは、感情の種別、およびフィラー又は感謝の言葉の属性を有する。感情の種別のフィールドには、「喜」、「怒」、「哀」、「楽」が登録されている。また、フィラー又は感謝の言葉のフィールドには、「えーと」、「うんうん」、「ほうほう」、「ありがとう」等の言葉が登録されている。そして、上述した感情分析の結果、会話の履歴に応じた感情に対応するフィラー又は感謝の言葉が選択される確率を上昇させる。なお、図8のようなテーブルは、エージェントの性格に応じて複数用意しておくようにしてもよい。
FIG. 8 is a diagram illustrating an example of fillers or words of thanks stored in the storage device 22. For example, words stored in the storage device 22 in advance associated with the emotion type are inserted. The table of FIG. 8 has the attributes of emotions and attributes of filler or thanks words. In the emotion type field, “joy”, “anger”, “sorrow”, and “easy” are registered. Also, in the field of the filler or the word of thanks, words such as "uh", "un-un", "love", "thank you" are registered. As a result of the emotion analysis described above, the probability that a filler or a word of thanks corresponding to the emotion corresponding to the conversation history is selected is increased. A plurality of tables as shown in FIG. 8 may be prepared depending on the nature of the agent.

また、学習処理部243は、エージェント又はユーザの台詞の履歴に基づいて、挿入することで対話数が伸びたと判断された言葉や、挿入することで対話数が伸びたと判断されたタイミングにおいて、フィラー又は感謝の言葉が挿入される確率を上昇させるようにさらに調整するようにしてもよい。学習処理は、例えば履歴から求められる、ある言葉を挿入した場合とそうでない場合とにおける条件付き確率に基づき、期待される対話数の差が大きいほど、その言葉が選択される確率を上昇させるようにしてもよい。また、あるタイミングでフィラー又は感謝の言葉を挿入した場合とそうでない場合とにおける条件付き確率に基づき、期待される対話数の差が大きいほど、そのタイミングで言葉が挿入される確率を上昇させるようにしてもよい。また、言葉の選択とタイミングの選択との組み合わせについて、履歴から期待される対話数が伸びるほど当該組合せが選択される確率を上昇させるようにしてもよい。   In addition, the learning processing unit 243 determines whether the number of dialogues has increased by inserting based on the history of speech of the agent or the user, or at the timing when it is determined that the number of dialogues has increased by inserting. Alternatively, it may be further adjusted to increase the probability that a word of thanks is inserted. The learning process increases the probability that the word is selected, for example, as the difference between the expected number of dialogues is larger, based on the conditional probability in the case where a certain word is inserted and the case where it is not obtained. It may be. Also, based on the conditional probability in the case where the filler or the word of thanks is inserted at a certain timing and the case where it is not so, the larger the difference between the expected number of dialogues, the higher the probability that the word is inserted at that timing. It may be. Further, regarding the combination of the word selection and the timing selection, the probability that the combination is selected may be increased as the number of conversations expected from the history increases.

また、フィラー又は感謝の言葉を挿入すると判断された場合(S8:YES)、挿入制御部242は、選択されたせりふを出力する(図7:S9)。本ステップでは、例えば図5に示したように、シナリオにはなかったフィラー又は感謝の言葉が出力される。   If it is determined that a filler or a word of thanks is to be inserted (S8: YES), the insertion control unit 242 outputs the selected dialogue (FIG. 7: S9). In this step, for example, as shown in FIG. 5, fillers or words of appreciation that were not in the scenario are output.

一方、フィラー又は感謝の言葉を挿入しないと判断された場合(S8:NO)、又は図6のS3の後、会話制御部241は、S1で読み出したシナリオが終了したか判断する(図7:S10)。本ステップでは、例えば図5に示したようなシナリオにおいて、矢印で接続されたせりふ等の終端に到達した場合に、シナリオが終了したと判断する。   On the other hand, when it is determined that the filler or the word of thanks is not inserted (S8: NO), or after S3 in FIG. 6, the conversation control unit 241 determines whether the scenario read in S1 is ended (FIG. 7: S10). In this step, for example, in the scenario as shown in FIG. 5, it is determined that the scenario has been completed when the end of a line or the like connected by an arrow is reached.

シナリオが終了した場合(S10:YES)、会話制御部241は会話提供処理を終了する。一方、シナリオが終了していない場合(S10:NO)、又はS9の後、接続子「C」を介して図6のS1に戻る。   When the scenario ends (S10: YES), the conversation control unit 241 ends the conversation providing process. On the other hand, if the scenario has not ended (S10: NO), or after S9, the process returns to S1 in FIG. 6 via the connector “C”.

<効果>
特にチャット形式のソフトウェアエージェントにおいては、フィラーは冗長で無駄なものと考えられがちである。しかしながら、発明者らは、チャット形式のエージェントに関する実証実験を経て、フィラー又は感謝の気持ちを表す言葉を挿入することで、同一のシナリオでもユーザとの対話数が増加することを見出した。対話数が増加するということは、本ソフトウェアの利用時間(アクティブ率)が増大するということであり、ユーザの満足度、ひいては幸福感が高まるものと考えられる。
<Effect>
Especially in chat-type software agents, fillers tend to be considered redundant and useless. However, the inventors found that after inserting a filler or a word of gratitude, the number of interactions with the user is increased even in the same scenario through an experiment on chat-type agents. An increase in the number of dialogues means an increase in usage time (active rate) of the software, which is considered to increase user satisfaction and happiness.

上述した実施形態によれば、フィラーや感謝の言葉を予め定められたシナリオにおいて好ましい位置に挿入することができ、対話の継続性を向上させることができる。また、フィラーや感謝の言葉の挿入を確率的に決定することで、同一のシナリオに変化を与えることができる。また、会話の履歴に対して学習処理を行い、対話数が増加するような言葉やタイミングを選択させることで、より違和感が少ない言葉の挿入を実現できると共に、対話数をさらに伸ばすことができる。   According to the above-described embodiment, fillers and words of gratitude can be inserted at preferred positions in a predetermined scenario, and the continuity of the dialogue can be improved. In addition, it is possible to change the same scenario by probabilistically determining the insertion of fillers and words of thanks. Also, by performing learning processing on the history of conversation and selecting words and timings that increase the number of conversations, it is possible to realize the insertion of words with less discomfort, and further extend the number of conversations.

<変形例>
エージェントの数が複数の場合も、同様にフィラー又は感謝の気持ちを表す言葉を挿入することができる。本変形例では、シナリオに従ったせりふを発言するエージェントと、フィラー又は感謝の言葉を発言するエージェントとに役割を分けて説明する。
<Modification>
When there are a plurality of agents, a filler or words expressing gratitude can be inserted in the same manner. In this modification, the role is divided into an agent that speaks a dialog according to a scenario and an agent who speaks a filler or a word of thanks.

図9は、変形例に係る会話提供処理の一例を示す処理フロー図である。本変形例は、基本的に図6の処理と同様であり、対応するステップには同一の符号を付している。以下、図6との相違点を中心に説明する。   FIG. 9 is a process flow diagram showing an example of a conversation providing process according to a modification. This modification is basically the same as the process of FIG. 6, and corresponding steps are denoted by the same reference numerals. Hereinafter, differences from FIG. 6 will be mainly described.

図9の変形例においては、S2において一方のエージェント(エージェント1)のせりふであるか判断し、S3においてエージェント1のせりふを出力する。   In the modified example of FIG. 9, it is determined whether or not it is a line of one agent (agent 1) in S2, and the line of agent 1 is output in S3.

図10は、変形例において表示される画像の一例を示す図である。図10の画像には、図3にも示した第1のエージェント111(エージェント1)に加え、第2のエージェント115(エージェント2)が表示されている。   FIG. 10 is a view showing an example of an image displayed in the modification. In the image of FIG. 10, in addition to the first agent 111 (agent 1) also shown in FIG. 3, the second agent 115 (agent 2) is displayed.

また、S3の後は、接続子「B」を介して図11のS8に遷移する。図11は、変形例に係る会話提供処理の一例を示す処理フロー図である。すなわち、S8においては、ユーザの発言の後だけでなく、エージェント1の発言の後にも、他方のエージェント(エージェント2)が、フィラー又は感謝の言葉を発言するか判断する。そして、フィラー又は感謝の言葉を挿入すると判断された場合(S8:YES)、S9においては、エージェント2が選択されたせりふを出力する。   Further, after S3, the process transits to S8 of FIG. 11 via the connector "B". FIG. 11 is a process flow diagram showing an example of a conversation providing process according to a modification. That is, in S8, it is determined whether the other agent (agent 2) speaks the filler or thank-you not only after the user speaks but also after the agent 1 speaks. If it is determined to insert a filler or a word of thanks (S8: YES), the agent 2 outputs the selected dialogue in S9.

図12は、変形例において表示される画像の一例を示す図である。図12の例では、エージェント2の発言を表す吹出し116が表示されている。また、図12においては、エージェント1の発言の後に、エージェント2のせりふ「ほうほう」が挿入されている。このように、エージェント2は、エージェント1のせりふの後、又はユーザのせりふの後に、フィラー又は感謝の言葉を発言する。なお、言葉を挿入する確率は、上述の実施形態と同様に決定することができる。   FIG. 12 is a view showing an example of an image displayed in the modification. In the example of FIG. 12, a balloon 116 representing the message of the agent 2 is displayed. Also, in FIG. 12, after the agent 1's remarks, the agent 2's dialogue “How” is inserted. Thus, the agent 2 speaks a filler or a word of thanks after the agent 1 or after the user. The probability of inserting a word can be determined in the same manner as in the above-described embodiment.

このようにすれば、三者の会話においてもユーザとの対話数を伸ばすことができる。   In this way, the number of dialogues with the user can be extended even in three-way conversations.

また、上述の変形例では、シナリオに従ったせりふを発言するエージェントと、フィラー又は感謝の言葉を発言するエージェントとに役割を分けたが、このような例には限定されない。予め2人のエージェントにせりふが割り当てられたシナリオを用いるようにしてもよい。この場合は、例えば、一方のエージェントは、他方のエージェント及びユーザに対しフィラー又は感謝の言葉を発する。また、他方のエージェントは、一方のエージェント及びユーザに対してフィラー又は感謝の言葉を発する。このとき、言葉を挿入する確率は、上述の実施形態と同様に決定することができる。   Also, in the above-described variation, although the roles are divided into an agent who speaks a dialogue according to a scenario and an agent who speaks a filler or a word of thanks, the present invention is not limited to such an example. A scenario in which dialogues are assigned to two agents in advance may be used. In this case, for example, one agent may say a word of filler or gratitude to the other agent and the user. Also, the other agent speaks a filler or thankful to one agent and the user. At this time, the probability of inserting a word can be determined as in the above embodiment.

<その他>
上述した実施形態の構成は例示であり、本発明の課題や技術的思想を逸脱しない範囲で可能な限り組み合わせたり、変更することができる。
<Others>
The configuration of the above-described embodiment is an exemplification, and can be combined or changed as much as possible without departing from the subject and technical idea of the present invention.

本発明は上述の処理を実行するコンピュータプログラムを含む。さらに、当該プログラムを記録した、コンピュータ読み取り可能な記録媒体も、本発明の範疇に属する。当該プログラムが記録された記録媒体については、コンピュータに、この記録媒体のプログラムを読み込ませて実行させることにより、上述の処理が可能となる。   The present invention includes a computer program that performs the above-described processing. Furthermore, a computer-readable recording medium on which the program is recorded also belongs to the category of the present invention. With respect to the recording medium on which the program is recorded, the above-described processing can be performed by causing the computer to read and execute the program on the recording medium.

ここで、コンピュータ読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータから読
み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータから取り外し可能なものとしては、フレキシブルディスク、光磁気ディスク、光ディスク、磁気テープ、メモリカード等がある。また、コンピュータに固定された記録媒体としては、ハードディスクドライブやROM等がある。
Here, the computer-readable recording medium refers to a recording medium in which information such as data and programs is accumulated by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer. Examples of such a recording medium that can be removed from the computer include a flexible disk, a magneto-optical disk, an optical disk, a magnetic tape, and a memory card. In addition, examples of the recording medium fixed to the computer include a hard disk drive and a ROM.

1 :ユーザ装置
11 :入出力I/F
12 :記憶装置
13 :通信I/F
14 :プロセッサ
141 :入出力制御部
2 :対話型情報提供装置
21 :入出力I/F
22 :記憶装置
23 :通信I/F
24 :プロセッサ
241 :会話制御部
242 :挿入制御部
243 :学習処理部
3 :ネットワーク
1: User device 11: Input / output I / F
12: Storage device 13: Communication I / F
14: Processor 141: Input / output control unit 2: Interactive information providing device 21: Input / output I / F
22: Storage device 23: Communication I / F
24: Processor 241: Conversation control unit 242: Insertion control unit 243: Learning processing unit 3: Network

Claims (4)

ユーザに自身の台詞を選択させることにより、仮想的な人格と前記ユーザとの会話形式で情報を提供する情報提供装置であって、
前記仮想的な人格の台詞及び前記ユーザの台詞を含む会話形式のシナリオを記憶する記憶装置からシナリオを読み出し、前記仮想的な人格の台詞及び前記ユーザの台詞の選択肢を出力すると共に、前記ユーザから台詞の選択を受け付ける会話制御部と、
前記シナリオに従って発言した前記仮想的な人格及び前記ユーザの台詞の履歴に基づいて、選択された前記ユーザの台詞と、前記仮想的な人格の台詞との間に、発言の間を埋める言葉であるフィラー又は感謝の気持ちを表す言葉を挿入する挿入制御部と、
前記台詞の履歴に基づいて、前記フィラー又は感謝の気持ちを表す言葉の挿入の有無と、前記履歴における一連の発言数との関係を統計的に分析し、会話における一連の発言数が伸びるように、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率を調整する学習処理部と、
を備え、
前記挿入制御部は、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率が、前記フィラー又は感謝の気持ちを表す言葉を以前に挿入したときからの発言数が増加するほど上昇するように調整する
情報提供装置。
An information providing apparatus that provides information in a conversational form with a virtual personality and the user by allowing the user to select his / her dialogue,
The scenario is read out from the storage device storing the dialogue type scenario including the dialogue of the virtual personality and the dialogue of the user, and the dialogue of the virtual personality and the option of the dialogue of the user are output, and A conversation control unit that accepts dialogue selection;
It is a word which fills a gap between remarks between the words of the selected user and the lines of the virtual personality based on the virtual personality uttered according to the scenario and the history of the user's words An insertion control unit for inserting a filler or words expressing gratitude,
Based on the history of the line, the relationship between the presence or absence of the filler or the word expressing the feeling of gratitude, and the number of the series of utterances in the history is statistically analyzed to increase the number of utterances in the conversation , A learning processing unit that adjusts the probability of inserting the filler or words expressing gratitude,
Equipped with
The insertion control unit adjusts the probability that the filler or a word expressing gratitude is increased as the number of utterances from when the filler or a word expressing gratitude is inserted increases. Information providing device.
前記挿入制御部は、前記台詞の履歴に含まれる単語に対応付けて定められた所定の特徴ベクトルを用いて、前記台詞の文章に関連する感情の種別を分析し、当該感情の種別に予め対応付けられて前記記憶装置に記憶されている前記フィラー又は感謝の気持ちを表す言葉を挿入する
請求項1に記載の情報提供装置。
The insertion control unit analyzes the type of emotion related to the sentence of the speech using a predetermined feature vector determined in association with the word included in the history of the speech, and corresponds in advance to the type of the emotion The information providing device according to claim 1, wherein a word indicating the feeling of gratitude or the filler that is attached and stored in the storage device is inserted.
ユーザに自身の台詞を選択させることにより、仮想的な人格と前記ユーザとの会話形式で情報をコンピュータが提供する情報提供方法であって、
前記仮想的な人格の台詞及び前記ユーザの台詞を含む会話形式のシナリオを記憶する記憶装置からシナリオを読み出し、前記仮想的な人格の台詞及び前記ユーザの台詞の選択肢を出力すると共に、前記ユーザから台詞の選択を受け付け、
前記シナリオに従って発言した前記仮想的な人格及び前記ユーザの台詞の履歴に基づい
て、選択された前記ユーザの台詞と、前記仮想的な人格の台詞との間に、発言の間を埋める言葉であるフィラー又は感謝の気持ちを表す言葉を挿入し、
前記台詞の履歴に基づいて、前記フィラー又は感謝の気持ちを表す言葉の挿入の有無と、前記履歴における一連の発言数との関係を統計的に分析し、会話における一連の発言数が伸びるように、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率を調整し、
前記フィラー又は感謝の気持ちを表す言葉の挿入は、前記フィラー又は感謝の気持ちを表す言葉を以前に挿入したときからの発言数が増加するほど、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率が上昇するように調整する
情報提供方法。
An information providing method in which a computer provides information in a conversational form with a virtual personality and the user by allowing the user to select his own line,
The scenario is read out from the storage device storing the dialogue type scenario including the dialogue of the virtual personality and the dialogue of the user, and the dialogue of the virtual personality and the option of the dialogue of the user are output, and Accept selection of dialogue,
It is a word which fills a gap between remarks between the words of the selected user and the lines of the virtual personality based on the virtual personality uttered according to the scenario and the history of the user's words Insert filler or gratitude words,
Based on the history of the line, the relationship between the presence or absence of the filler or the word expressing the feeling of gratitude, and the number of the series of utterances in the history is statistically analyzed to increase the number of utterances in the conversation , Adjust the probability of inserting the filler or words expressing gratitude,
As for the insertion of the filler or the word expressing gratitude, the probability of inserting the filler or the word expressing gratitude is increased as the number of utterances from the previous insertion of the filler or gratitude is increased. Information provision method to adjust so that
ユーザに自身の台詞を選択させることにより、仮想的な人格と前記ユーザとの会話形式で情報を提供するコンピュータに、
前記仮想的な人格の台詞及び前記ユーザの台詞を含む会話形式のシナリオを記憶する記憶装置からシナリオを読み出し、前記仮想的な人格の台詞及び前記ユーザの台詞の選択肢を出力すると共に、前記ユーザから台詞の選択を受け付け、
前記シナリオに従って発言した前記仮想的な人格及び前記ユーザの台詞の履歴に基づいて、選択された前記ユーザの台詞と、前記仮想的な人格の台詞との間に、発言の間を埋める言葉であるフィラー又は感謝の気持ちを表す言葉を挿入し、
前記台詞の履歴に基づいて、前記フィラー又は感謝の気持ちを表す言葉の挿入の有無と、前記履歴における一連の発言数との関係を統計的に分析し、会話における一連の発言数が伸びるように、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率を調整し、
前記フィラー又は感謝の気持ちを表す言葉の挿入は、前記フィラー又は感謝の気持ちを表す言葉を以前に挿入したときからの発言数が増加するほど、前記フィラー又は感謝の気持ちを表す言葉を挿入する確率が上昇するように調整する
処理を実行させるプログラム。
By allowing the user to select his own line, a computer that provides information in a conversational form with the virtual personality and the user,
The scenario is read out from the storage device storing the dialogue type scenario including the dialogue of the virtual personality and the dialogue of the user, and the dialogue of the virtual personality and the option of the dialogue of the user are output, and Accept selection of dialogue,
It is a word which fills a gap between remarks between the words of the selected user and the lines of the virtual personality based on the virtual personality uttered according to the scenario and the history of the user's words Insert filler or gratitude words,
Based on the history of the line, the relationship between the presence or absence of the filler or the word expressing the feeling of gratitude, and the number of the series of utterances in the history is statistically analyzed to increase the number of utterances in the conversation , Adjust the probability of inserting the filler or words expressing gratitude,
As for the insertion of the filler or the word expressing gratitude, the probability of inserting the filler or the word expressing gratitude is increased as the number of utterances from the previous insertion of the filler or gratitude is increased. A program that executes a process to adjust so as to rise.
JP2018147977A 2018-08-06 2018-08-06 Information providing apparatus, information providing method, and program Expired - Fee Related JP6551852B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018147977A JP6551852B1 (en) 2018-08-06 2018-08-06 Information providing apparatus, information providing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018147977A JP6551852B1 (en) 2018-08-06 2018-08-06 Information providing apparatus, information providing method, and program

Publications (2)

Publication Number Publication Date
JP6551852B1 true JP6551852B1 (en) 2019-07-31
JP2020024522A JP2020024522A (en) 2020-02-13

Family

ID=67473372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018147977A Expired - Fee Related JP6551852B1 (en) 2018-08-06 2018-08-06 Information providing apparatus, information providing method, and program

Country Status (1)

Country Link
JP (1) JP6551852B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117573859A (en) * 2024-01-15 2024-02-20 杭州数令集科技有限公司 Data processing method, system and equipment for automatically advancing scenario and dialogue

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3199972B2 (en) * 1995-02-08 2001-08-20 シャープ株式会社 Dialogue device with response
JP2003202895A (en) * 2002-01-10 2003-07-18 Sony Corp Interaction device and interaction control method, storage medium, and computer program
JP2012141997A (en) * 2012-02-13 2012-07-26 Mieko Tsuyusaki Net system
JP6859959B2 (en) * 2016-01-28 2021-04-14 ソニー株式会社 Communication system and communication control method, as well as programs
JP2018109663A (en) * 2016-12-28 2018-07-12 シャープ株式会社 Speech processing unit, dialog system, terminal device, program, and speech processing method
JP2018116427A (en) * 2017-01-17 2018-07-26 国立大学法人大阪大学 Electronic order-taking system and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117573859A (en) * 2024-01-15 2024-02-20 杭州数令集科技有限公司 Data processing method, system and equipment for automatically advancing scenario and dialogue

Also Published As

Publication number Publication date
JP2020024522A (en) 2020-02-13

Similar Documents

Publication Publication Date Title
JP7362827B2 (en) Automated assistant call for appropriate agent
KR102418511B1 (en) Creating and sending call requests to use third-party agents
KR102439740B1 (en) Tailoring an interactive dialog application based on creator provided content
US20220215181A1 (en) Transitioning between prior dialog contexts with automated assistants
US7778397B2 (en) Dynamic video generation in interactive voice response systems
ZA200403493B (en) Semantic object synchronous understanding for highly interactive interface
KR102429407B1 (en) User-configured and customized interactive dialog application
US11144713B2 (en) Communication device generating a response message simulating a response by a target user
CN106782494A (en) Phonetic synthesis processing method and processing device
KR20240046508A (en) Decision and visual display of voice menu for calls
KR20210046755A (en) Context denormalization for automatic speech recognition
CN113053388A (en) Voice interaction method, device, equipment and storage medium
WO2018079294A1 (en) Information processing device and information processing method
KR20190074508A (en) Method for crowdsourcing data of chat model for chatbot
JP6449368B2 (en) Conversation providing apparatus, conversation providing method, and program
JP6551852B1 (en) Information providing apparatus, information providing method, and program
CN113421549A (en) Speech synthesis method, speech synthesis device, computer equipment and storage medium
JP2022025665A (en) Summary sentence generation device, summary sentence generation method, and program
CN111966803B (en) Dialogue simulation method and device, storage medium and electronic equipment
JP2017182395A (en) Voice translating device, voice translating method, and voice translating program
JP2021125164A (en) Information processing apparatus, chat bot assisting program, and chat bot assisting method
JP7462995B1 (en) Information processing system, information processing method, and program
US20240169974A1 (en) Real-time system for spoken natural stylistic conversations with large language models
US20220351727A1 (en) Conversaton method, conversation system, conversation apparatus, and program
WO2024112393A1 (en) Real-time system for spoken natural stylistic conversations with large language models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181228

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181228

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190621

R150 Certificate of patent or registration of utility model

Ref document number: 6551852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees