JP2018116427A - Electronic order-taking system and program - Google Patents
Electronic order-taking system and program Download PDFInfo
- Publication number
- JP2018116427A JP2018116427A JP2017006128A JP2017006128A JP2018116427A JP 2018116427 A JP2018116427 A JP 2018116427A JP 2017006128 A JP2017006128 A JP 2017006128A JP 2017006128 A JP2017006128 A JP 2017006128A JP 2018116427 A JP2018116427 A JP 2018116427A
- Authority
- JP
- Japan
- Prior art keywords
- agent
- user
- scenario
- display unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 18
- 239000003795 chemical substances by application Substances 0.000 description 264
- 238000000034 method Methods 0.000 description 13
- 239000012752 auxiliary agent Substances 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 239000000945 filler Substances 0.000 description 2
- 230000006996 mental state Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- -1 for example Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002889 sympathetic effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
この発明は、電子御用聞きシステムおよびプログラムに関し、特にたとえば、タッチディスプレイを通して対話する、電子御用聞きシステムおよびプログラムに関する。 The present invention relates to an electronic listening system and program, and more particularly to an electronic listening system and program that interacts through, for example, a touch display.
たとえば特許文献1のような電子商取引型御用聞き支援装置が知られている。特許文献1のシステムでは、管理端末、ユーザ端末およびクライアント端末を備え、ユーザ端末上に、管理端末が準備した各クライアントに設定されたクライアントアバタを御用聞きアバタとして表示させる。ユーザは、売り手であるクライアントアバタが提示する広告情報に基づいて商品の購入をユーザ端末上で指示することができる。
For example, an electronic commerce type listening support device as disclosed in
特許文献1のシステムでは、条件が成立していなければ御用聞き情報の送信を受けられないので、ユーザは必要なときに任意の売り手(クライアント)を呼び出して注文したりすることはできず、たとえば高齢者や生活弱者にとって使い勝手がやや悪い。
In the system of
それゆえに、この発明の主たる目的は、新規な、電子御用聞きシステムおよびプログラムを提供することである。 Therefore, a main object of the present invention is to provide a novel electronic listening system and program.
この発明の他の目的は、使い勝手のよい、電子御用聞きシステムおよびプログラムを提供することである。 Another object of the present invention is to provide a user-friendly electronic listening system and program.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、ユーザ端末を用いる電子御用聞きシステムであって、ユーザ端末の画面に少なくとも2体のエージェントを示す少なくとも2つのエージェント記号を一覧表示させるエージェント一覧表示部、エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する選択判別部、ユーザが選択したエージェント記号に応じたエージェントを、ユーザを表すアバタと向き合った状態で表示させるエージェント表示部、エージェントを所定のシナリオに沿って発話させる発話部、およびエージェントの発話に応じて、所定のシナリオに沿った選択肢を表示させる選択肢表示部を備える、電子御用聞きシステムである。 The first invention is an electronic listening system using a user terminal, which includes an agent list display unit that displays a list of at least two agent symbols indicating at least two agents on the screen of the user terminal, and an agent list display unit. A selection discriminating unit for discriminating that the user has selected the agent symbol, an agent display unit for displaying the agent corresponding to the agent symbol selected by the user in a state facing the avatar representing the user, and setting the agent in a predetermined scenario. The electronic listening system includes an utterance unit that utters along an option, and an option display unit that displays options according to a predetermined scenario according to the utterance of an agent.
第1の発明では、電子御用聞きシステム(10:実施例において対応する部分を例示する参照符号。以下、同様。)は、ユーザ端末(14)を用いる。エージェント一覧表示部(S3)は、ユーザ端末の画面(30)に少なくとも2体のエージェントを示す少なくとも2つのエージェント記号(エージェントの小さい画像、名称、愛称など)を一覧表示させる。選択判別部(S5)は、エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する。選択判別部が、エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別すると、エージェント表示部(S5)が、ユーザが選択したエージェント記号に応じたエージェントを、ユーザを表すアバタと向き合った状態で表示させる。発話部(S7‐S9)がそのエージェントを所定のシナリオに沿って発話させ、選択肢表示部(S11)がエージェントの発話に応じて、所定のシナリオに沿った選択肢を表示させる。したがって、ユーザは選択肢のどれかを適宜選択して、エージェントと対話することができる。 In the first invention, the electronic listening system (10: reference numerals exemplifying corresponding parts in the embodiment, hereinafter the same) uses the user terminal (14). The agent list display unit (S3) displays a list of at least two agent symbols (small images of agents, names, nicknames, etc.) indicating at least two agents on the screen (30) of the user terminal. The selection determining unit (S5) determines that the user has selected any agent symbol from the agent list display unit. When the selection determining unit determines that the user has selected any agent symbol from the agent list display unit, the agent display unit (S5) displays an agent corresponding to the agent symbol selected by the user as an avatar representing the user. Display in a face-to-face state. The utterance unit (S7-S9) causes the agent to utter along a predetermined scenario, and the option display unit (S11) displays options according to the predetermined scenario according to the utterance of the agent. Therefore, the user can select any of the options as appropriate and interact with the agent.
第1の発明によれば、ユーザが対話したいエージェントを任意に選択することができるので、ユーザにとって使い勝手のよい。 According to the first invention, since the user can arbitrarily select an agent that the user wants to interact with, it is convenient for the user.
第2の発明は、第1の発明に従属し、ユーザ端末の画面はエージェント記号を表示するエージェント表示部よびエージェントを表示する作動部を含み、選択判別部は、エージェント表示部からどれかのエージェント記号が作動部へドラッグされたかどうか判断する、電子御用聞きシステムである。 A second invention is dependent on the first invention, and the screen of the user terminal includes an agent display unit that displays an agent symbol and an operation unit that displays an agent. An electronic listening system that determines whether a symbol has been dragged to an actuator.
第2の発明では、ユーザ端末の画面(30)はエージェント記号を表示するエージェント表示部(32)およびエージェントを表示する作動部(34)を含む。選択判別部(S5)は、エージェント表示部からどれかのエージェント記号が作動部へドラッグされたかどうか判断する。 In the second invention, the screen (30) of the user terminal includes an agent display unit (32) for displaying an agent symbol and an operation unit (34) for displaying the agent. The selection determining unit (S5) determines whether any agent symbol has been dragged from the agent display unit to the operating unit.
第2の発明によれば、エージェント表示部から作動部へエージェント記号をドラッグすることによってエージェントの選択が可能なので、ユーザにエージェント選択をしてもらい易い。 According to the second aspect, since the agent can be selected by dragging the agent symbol from the agent display unit to the operating unit, it is easy for the user to select the agent.
第3の発明は、第2の発明に従属し、エージェント表示部から別のエージェント記号が作動部にドラッグされてエージェントが別のエージェントに変更されたことを判断するエージェント変更判断部、およびエージェント変更判断がエージェントの変更を判断したとき、別のエージェントに発話させるようにシナリオを変更するシナリオ変更部をさらに備える、電子御用聞きシステムである。 The third invention is dependent on the second invention, and an agent change determining unit that determines that another agent symbol is dragged from the agent display unit to the operating unit and the agent is changed to another agent, and the agent change The electronic hearing system further includes a scenario changing unit that changes a scenario so that another agent speaks when the determination is made to change the agent.
第3の発明では、エージェント変更判断部(S62)は、エージェント表示部(32)から別のエージェント記号が作動部(34)にドラッグされかどうかによって別のエージェントに変更されかどうかを判断する。エージェント変更判断部がエージェントの変更を判断したとき、シナリオ変更部(S63)は、別のエージェントに発話させるようにシナリオを変更する。 In the third invention, the agent change determination unit (S62) determines whether or not another agent symbol is changed from the agent display unit (32) to another agent depending on whether or not another agent symbol is dragged to the operation unit (34). When the agent change determination unit determines the agent change, the scenario change unit (S63) changes the scenario so that another agent speaks.
第3の発明によれば、ユーザが任意にエージェントを変更することができるので、一層使い勝手がよい。 According to the third aspect, since the user can arbitrarily change the agent, the usability is further improved.
第4の発明は、第1ないし第3の発明のいずれかに従属し、エージェントと一緒に追加エージェントを表示させる追加エージェント表示部をさらに備える、電子御用聞きシステムである。 A fourth invention is an electronic listening system according to any one of the first to third inventions, further comprising an additional agent display unit for displaying an additional agent together with the agent.
第4の発明では、追加エージェント表示部(S22、S34、S44、S54)は、エージェントと一緒に追加エージェントを表示させる。 In the fourth invention, the additional agent display unit (S22, S34, S44, S54) displays the additional agent together with the agent.
第4の発明によれば、エージェントと追加エージェントとを協働させることができる。 According to the fourth aspect, the agent and the additional agent can cooperate with each other.
第5の発明は、ユーザ端末を用いる電子御用聞きシステム(10)のコンピュータ(20、26)によって実行される電子御用聞きプログラムであって、コンピュータをユーザ端末の画面(30)に少なくとも2体のエージェントを示す少なくとも2つのエージェント記号を一覧表示させるエージェント一覧表示部(S3)、エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する選択判別部(S5)、ユーザが選択したエージェント記号に応じたエージェントを、ユーザを表すアバタと向き合った状態で表示させるエージェント表示部(S5)、エージェントを所定のシナリオに沿って発話させる発話部(S7‐S9)、およびエージェントの発話に応じて、所定のシナリオに沿った選択肢を表示させる選択肢表示部(S11)として機能させる、電子御用聞きプログラムである。 A fifth invention is an electronic listening program executed by a computer (20, 26) of an electronic listening system (10) using a user terminal, wherein the computer is provided on at least two screens (30) of the user terminal. An agent list display unit (S3) that displays a list of at least two agent symbols indicating agents, a selection determination unit (S5) that determines that the user has selected any agent symbol from the agent list display unit, and a user selected An agent display unit (S5) for displaying an agent corresponding to the agent symbol in a state facing the avatar representing the user, an utterance unit (S7-S9) for causing the agent to utter along a predetermined scenario, and depending on the utterance of the agent To display options according to a given scenario択肢 display unit to function as a (S11), an electronic order taker cyber program.
第5の発明によっても、第1の発明と同様の効果が期待できる。 According to the fifth invention, the same effect as that of the first invention can be expected.
この発明によれば、ユーザが対話したいエージェントを任意に選択することができるので、ユーザにとって使い勝手のよい電子御用聞きシステムが得られる。 According to this invention, since the user can arbitrarily select an agent that the user wants to interact with, an electronic listening system that is convenient for the user can be obtained.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例の電子御用聞きシステム(以下、単に「システム」ということがある。)10は、ネットワーク16を介して繋がるマッチングサイト12および1以上のユーザ端末14を含む。ユーザ端末14はたとえばタブレット端末のような、タッチスクリーンディスプレイ端末であり、ユーザは、基本的にはタッチ操作で対話することができる。ただし、ユーザがそのタッチスクリーン上のどの場所にタッチしたかは、よく知られているように、タッチ位置を示すタッチ座標に基づいて判断する。
With reference to FIG. 1, an electronic listening system (hereinafter simply referred to as “system”) 10 of this embodiment includes a
このシステム10にはさらに、ネットワーク16を介して、1以上の業者端末18が接続されることもある。業者端末18としては任意のコンピュータを利用可能であり、スマートフォンなどの携帯端末も利用可能である。ただし、業者としては、物販業者や役務提供業者など任意の業者が考えられる。
The
マッチングサイト12は、基本的には、ユーザ端末14のユーザとの対話を繰り返しながら、ユーザの要望に応え、さらに必要な場合ユーザ端末14のユーザと業者端末18の業者とのマッチングを図るものである。
The matching
マッチングサイト12は、ユーザ端末14のネットワーク16への窓口となるチャットサーバ20を含む。チャットサーバ20は、チャットの仕組みを構築するためのサーバであり、すべてのユーザ端末14からのアクセスを受け付ける。ユーザ端末14からの発話がその都度ダイアログキュー22に一旦記憶される。ただし、チャットデータベース24にはすべてのチャットのログが記憶される。
The
チャットサーバ20と協働してユーザ端末14等と対話を行うダイアログサーバ26が設けられる。ダイアログサーバ26は主として発話文などをチャットサーバ20に指示する。そのために、シナリオデータベース28がこのダイアログサーバ26に付属して設けられる。シナリオは別のシステムで作ってこのシナリオデータベース28に予め設定している。
A
ダイアログサーバ26は、ダイアログキュー22からユーザの発話データ(選択肢ボタンの内容)を取得し、それに応じたシナリオをシナリオデータベース28から取り出して、チャットサーバ20に送る。そのとき、ダイアログサーバ26は、チャットサーバ20に、発言の内容(文言)、発話の番号、エージェント(後述)の番号、エージェントの動作、さらには後述の選択肢ボタンの内容とその番号を送信する。
The
マッチングサイト12は、後に説明するようにしてチャットサーバ20およびダイアログサーバ26の協働によってユーザ端末14(のユーザ)と対話しながら、ユーザが望む商品やサービスを提供する業者をユーザに紹介するマッチング機能を果たす。
As will be described later, the matching
図2はユーザ端末14の画面30の、マッチングサイト12へのログイン直後の初期画面の一例を示す図解図である。画面30の構成は、高齢者が片手でタブレットを持ちながら操作できるよう、縦向きのレイアウトとした。
FIG. 2 is an illustrative view showing an example of an initial screen of the
ユーザ端末14の画面30は、上部のエージェント表示部32およびその下方の作動部34を含む。エージェント表示部32は、ユーザと対話可能な2以上のエージェント、この実施例では4体のエージェントA、B、CおよびDを一覧表示する。実施例では、エージェントAは「三河屋」という屋号を持つよろず屋を表すエージェントであり、エージェントBは、ユーザの住む市区町村の役場の職員さんを表すエージェントであり、エージェントCは、この御用聞きシステム10の運営主体であるたとえば「道の駅」の店員さんを表すエージェントであり、エージェントDは、たとえばタクシーの運転手さんを表すエージェントである。これらのエージェントは支援内容と一対一で対応している。
The
ただし、ここでのエージェントA‐Dと具体的な職種は単なる一例であり、さらにはA‐Dの記号は、後にフローチャートとともに説明するときのエージェントの記号と無関係であることを予め指摘しておく。さらに、エージェントの数も2以上であればよい。 However, it should be pointed out in advance that the agent AD and the specific job type here are merely examples, and that the symbol AD is irrelevant to the agent symbol that will be described later together with the flowchart. . Furthermore, the number of agents may be two or more.
作動部34には画面手前にユーザのエージェントとなるアバタ36を配置し、そのアバタ36が向く方向に、ドラッグ領域38が形成される。このドラッグ領域38は、ユーザがそのとき話したい、頼みたいと思うエージェントA‐Dのいずれかをドラッグしてくるための領域として設定されていて、もしユーザがいずれかのエージェントをドラッグ領域38にドラッグしたとすると、ユーザ端末14の画面30は図3に示すように変化する。
An
ここでユーザのアバタ36は画面上では後ろ向きに表示するようにしている。それによって、このアバタ36が自分のエージェントであることをユーザが容易に確信することができる。つまり、アバタ36を後ろ向きに表示することによって、図3に示すように拡大表示されたエージェントと向き合っているという意識を強くユーザが認識することができる。
Here, the user's
図3では、一例として、店員さんであるエージェントCがドラッグ領域38にドラッグされたときの画面が示され、この画面では、店員さんのエージェントCがドラッグ領域38を挟んだエージェント36の対面に拡大して表示される。つまり、ユーザに呼び出されたエージェントは、作動部34の画面内で、ユーザアバタ36と向かい合うように、拡大表示される。他方で、エージェント表示部32にあったエージェントCの画像は消去され、エージェントCが作動部34に呼び出されたことがわかる。同時に、そのエージェントCからの吹き出し40が表示され、その中にユーザに対する問いかけなどの発話文が表示される。例では、ユーザに「どんな御用ですか?」と発話することを示している。
In FIG. 3, as an example, a screen when the agent C who is a clerk is dragged to the
これに対して、ユーザアバタ36の下方に、複数の(図3の実施例では2つの)選択肢ボタン42aおよび42bが表示される。この例では、ボタン42aは「お買い物を頼みたい」というユーザの要求を示し、ボタン42bは「お話がしたい」という要求を示している。したがって、ユーザは、どれかのボタンをタッチすることで、そのときユーザが望んでいる事項を店員さん、すなわち、エージェントCに伝えることができる。ただし、選択肢ボタン42の数は、最大4つと決めている。多すぎると選択に迷いが生じ、少なすぎると選択肢がないという状態を生じることになるからである。
In contrast, a plurality of (two in the embodiment of FIG. 3)
このように、エージェント一覧から、話しかけたいエージェントを画面中央にドロップすると、そのエージェントが現れ、対応する対話シナリオが開始されるが、対話したいエージェントは、他のエージェントとの対話の途中であっても、任意のタイミングで切り替えることができる。そのとき、当然、発話のためのシナリオセットも切り替えられる。ただし、ユーザがエージェントを交代させても、交代前と同じシナリオセットで発話(対話)を継続させるようにしてもよい。 In this way, when you drop the agent you want to talk to from the agent list in the center of the screen, that agent appears and the corresponding conversation scenario starts. However, the agent you want to interact with may be in the middle of a conversation with another agent. , Can be switched at any timing. At that time, naturally, the scenario set for the utterance is also switched. However, even if the user changes the agent, the utterance (dialogue) may be continued in the same scenario set as before the change.
ただし、この実施例とは異なり、エージェント表示部32に表示されたエージェントA‐Dの内の所望のエージェントにタッチするだけでエージェントを選択できるようにすることも考えられる。しかしながら、その方法では誤タッチによる誤選択の可能性が高くなる。これに対して、実施例のように所望のエージェント画像をドラッグ領域38にドラッグすることによってエージェントを選択する方法では、エージェント画像にタッチオンし、タッチオンのままドラッグし、さらに領域38でタッチオフするという段階的な動作が要求されるので、誤選択の可能性を可及的減じることができるだけでなく、ユーザに対して自己の選択を十分意識してもらうことができる。たとえば、間違った選択を途中の段階で止めることができる。
However, unlike this embodiment, it may be possible to select an agent by simply touching a desired agent among the agents AD displayed on the
なお、図3に示す画面30における吹き出し40の中の文言や、選択肢ボタン42a、42bの内容は、すべて、図1に示すダイアログサーバ26がシナリオデータベース28から読み出して、チャットサーバ20からユーザ端末14に送信した結果として表示されるのである。
3 is read from the
このため、マッチングサイト12のシナリオデータベース28は、エージェントA‐Dの各々のためのシナリオセット(一連のシナリオ)を予め記憶し、さらには各選択肢ボタン42に対応したシナリオをそれらの中に含んでいる。したがって、エージェント36すなわち、ユーザがどのような選択肢ボタンを選択しても、マッチングサイト12からは的確な応答が行われるのである。
For this reason, the
御用聞きエージェントの対話は、支援を依頼する窓口としてのタスク対話と、コミュニケーション相手として高齢者等ユーザを楽しませる非タスク対話の2つに大きく分けられる。そして、これらを適切に使い分けるために、まずユーザの要望を確認する必要がある。また、潜在的なサービス利用を促進するために、非タスク対話から、タスク対話へ自然に誘導するようなシナリオも有用であると考えられる。 Interview agent dialogues can be broadly divided into two types: task dialogues as a window for requesting support and non-task dialogues that entertain users such as elderly people as communication partners. And in order to use these appropriately, it is necessary to confirm a user's request first. Also, in order to promote the use of potential services, scenarios that naturally lead to non-task dialogues to task dialogues are also considered useful.
そこで、実施例では、図1のシナリオデータベース28に記憶する対話シナリオを「開始シナリオ」、「タスクシナリオ」、「非タスクシナリオ」および「誘導シナリオ」の4つに分類し、目的に応じて使い分けを行うこととした。
Therefore, in the embodiment, the dialogue scenarios stored in the
開始シナリオは、対話の開始時に実行するシナリオで、簡単な挨拶と用件の確認を行い、分岐するシナリオを決定する。たとえば「買い物をお願いしたい」、「お話がしたい」という選択肢ボタンを提示し、その選択肢に応じて、支援を依頼するタスクシナリオか、雑談を行う非タスクシナリオまたは誘導シナリオに分岐する。 The start scenario is a scenario that is executed at the start of a conversation. A simple greeting and confirmation of a message are performed, and a scenario to be branched is determined. For example, option buttons “I want to ask for shopping” and “I want to talk” are presented, and the task branches to a task scenario for requesting support, a non-task scenario or a guidance scenario for chatting, depending on the option.
タスクシナリオは、支援依頼を行うためのシナリオで、依頼に必要な最低限の用件を確認し、支援者に通知を行う。たとえば、買い物の支援であれば、「食料品」、「日用品」、「医療品」、「それ以外」という選択肢ボタンを提示し、選択された内容に応じて対応可能な支援者に通知を行う。 The task scenario is a scenario for requesting support, confirming the minimum requirements necessary for the request, and notifying the supporter. For example, in the case of shopping support, option buttons such as “groceries”, “daily necessities”, “medical supplies”, and “others” are presented, and a supporter who can respond according to the selected content is notified. .
実施例の御用聞きシステム10が想定する地域包括ケアシステムおいては、支援者はユーザと同じ地域に住む有志であり、必ずしもユーザの要望に応えられるとは限らない。そのため、御用聞きエージェントとの対話では担当者の割り当てや優先度の決定に必要な情報を聞き出すことにとどめ、依頼の詳細や対応の可否は支援者が改めてユーザに確認し決定する。たとえば、支援者(業者)から直接ユーザに電話するなどして、ユーザが欲する支援を確定する。
In the regional comprehensive care system assumed by the listening
非タスクシナリオは、ユーザと御用聞きエージェントの間に信頼関係を築くためのシナリオで、支援サービスとは関係のない雑談を行う。たとえば、ユーザの体調を心配するような対話や、御用聞きエージェントの愚痴をユーザが聞いてあげるなど、御用聞きエージェントの人となりが伝わるような対話を行う。 The non-task scenario is a scenario for establishing a trust relationship between the user and the interview agent, and performs a chat that is not related to the support service. For example, the dialogue that conveys the person of the listening agent is conducted, for example, the dialogue that worries about the physical condition of the user, or the user asks the complaint of the listening agent.
誘導シナリオは、支援サービスの利用を奨めるためのシナリオで、雑談を通してユーザの困りごとを聞き出し、必要であれば支援サービスの利用を案内する。たとえば、「お買い物で困っていることありますか?」という質問を行い、ユーザが困っているようであれば「代わりに買ってきてもらうこともできますよ」という応答を返す。もし、その場でユーザが支援サービスの利用を望むのであれば、タスクシナリオに移行して支援者に通知を行う。 The guidance scenario is a scenario for encouraging the use of the support service. The user's trouble is heard through chat, and if necessary, the use of the support service is guided. For example, a question “Do you have a problem with shopping?” Is returned, and if the user is in trouble, a response “You can buy it instead” is returned. If the user desires to use the support service on the spot, the task scenario is transferred to notify the supporter.
実施例のシステムが採用する選択肢ボタン42を利用する選択式対話では、ユーザは提示された選択肢の中から自分の考えに近いものを選択することになる。そのため、選択肢の提示方法やエージェントの発話を適切に設計することで、ユーザの発話を誘導することが可能であると考える。ユーザの発話を誘導するための具体的な方法を以下に提案する。
In the selection-type dialogue using the
一方が自己に関する深い情報を打ち明けることで、他方も同程度に深い情報を開示することが知られている(自己開示の返報性)。プライバシに関わる話をすることはユーザにとって抵抗感があるが、御用聞きエージェントが自身の悩みを先に話題にすることで、ユーザの困りごとを抵抗なくの聞き出せると考える。 It is known that one side can disclose deep information about the self and the other side can disclose the same level of deep information (returnability of self-disclosure). Talking about privacy has a sense of resistance for the user, but it is thought that the listening agent can talk about the user's troubles without resistance by talking about his concerns first.
同義の選択肢を複数提示することで、シナリオの展開が単一であっても、ユーザ自身で意思決定した感覚を与えられると考える。たとえば、支援者からの連絡する旨の了承を得たい場合は、「あとでお電話するけどいいですか?」という発話に対して「ありがとう」と「よろしくね」という発話を提示する。 By presenting a plurality of synonymous choices, even if there is only one scenario development, it is possible to give the user a sense of decision making. For example, if you want to get an approval from the supporter, please say “Thank you” and “Let me know” for the utterance “Can I call you later?”
曖昧な選択肢提示された発話の中でユーザの考えに一致するものがなければ、ユーザは選択をためらう。そこで、一度選択を回避できる機会を設けることで、提示された選択肢の範囲で返答を再考する余裕を与えることができると考える。たとえば、買い物で困っているかどうか問いたい場合に、「困っている」、「困っていない」に加え「うーん…」のようなどちらも選ばない発話を併せて提示する。どちらも選ばない発話が選択された場合は、「実は困っている」、「困ってはいないかな」のような発話を提示し、再度質問を行う。 If none of the utterances presented with ambiguous choices matches the user's idea, the user hesitates to make a choice. Therefore, by providing an opportunity to avoid the selection once, it is possible to give a margin for reconsidering the response within the range of the presented options. For example, when you want to ask if you are having trouble with shopping, you can also present utterances that do not select either “I'm in trouble” or “I'm not in trouble”, such as “Hmm…”. If an utterance that does not select either is selected, an utterance such as “I am really in trouble” or “I am not in trouble” is presented and a question is asked again.
シナリオに関して、さらに、対話感を増す次のような工夫が考えられてもよい。 Regarding the scenario, the following devices that further increase the feeling of dialogue may be considered.
ユーザと御用聞きエージェントの関係を深めるためには、実際にエージェントと対話しているような印象を与えることが重要であると考える。そのための方法を以下に提案する。 In order to deepen the relationship between the user and the listening agent, it is important to give the impression that the user is actually interacting with the agent. A method for this is proposed below.
エージェントがユーザの名前を呼ぶことでユーザ自身に話しかけられている印象を与えることができると考える。ユーザは自身の名前を利用開始時に登録し、エージェントはその名前を発話に埋め込んでユーザに呼びかける。 I think that an agent can give an impression of speaking to the user himself by calling the user's name. The user registers his name at the start of use, and the agent embeds the name in the utterance and calls the user.
感情を表現する相手への好意や自身の感情を表現し合うことで、ユーザと御用聞きエージェントの親近感を深めることができると考える。たとえば、「xxxさんは元気そうだから」や「xxxさんとお話しできて嬉しい」のようなユーザに対する印象をエージェントが発話する。また、ユーザの選択肢として「私も嬉しい」のような発話を提示することで、曖昧に感じている感情を明確に意識させることができると考える。 I think that it is possible to deepen the familiarity between the user and the agent who listens by expressing favors to the other person expressing emotions and expressing their own feelings. For example, an agent utters an impression on a user such as “Because xxx looks fine” or “I am happy to talk with xxx”. Also, by presenting utterances such as “I am happy” as a user's choice, I think that it is possible to clearly make people feel ambiguous feelings.
心的状態を表現する「あのー」や「えーと」のようなフィラーは、発話のために言葉を選んだり、思いをめぐらせたりしているなどの心的状態を表し、話し相手に後続の発話を予測させる。エージェントの発話にフィラーを付与することで、エージェントがユーザに配慮しながら対話しているという印象を与えることができると考える。 Fillers such as “Ano” and “Ut” that express the mental state indicate a mental state such as choosing a word for utterance or thinking about it. Let it be predicted. By adding a filler to the utterance of the agent, we can give the impression that the agent is interacting with the user in mind.
エージェントが言葉に詰まったり、言い間違えたりすることで、ユーザがエージェントに対して親しみや共感を抱くと考える。たとえば、電話をかける旨を伝える際、「電話… お電話しますね」のように、言葉を選んで言いなおす。 It is thought that the user feels friendly and sympathetic to the agent when the agent is clogged up in words or mistaken. For example, when telling that you want to make a call, choose a word and say it again, such as "Telephone ... I'll call you."
ここで、図4を参照して、システム10すなわちマッチングサイト12における動作を説明する。ただし、マッチングサイト12においては、既に説明したように、チャットサーバ22およびダイアログサーバ26が協働してユーザ(ユーザ端末14)との対話を進行する。
Here, with reference to FIG. 4, the operation in the
最初のステップS1は、ユーザ端末14からチャットサーバ20へのアクセス(ログイン)があったときに開始される。ユーザ認証はよく知られているように、ログインパスワードなどをユーザ端末から入力することで実行される。ただし、ユーザ認証を通過しなければ、次のステップS3には進めない。
The first step S1 is started when there is an access (login) from the
ユーザ認証を通過したステップS3では、チャットサーバ20は、複数のエージェントを一覧できるエージェント一覧をユーザ端末14のエージェント表示部32(図2)に表示させる。このとき、チャットデータベース24には、エージェントの名前やエージェントのシナリオIDが、エージェント毎に記憶される。ステップS3は、ユーザ端末の画面に少なくとも2体のエージェントを示すエージェントを一覧表示するエージェント一覧表示部として機能する。このエージェント一覧表示部は、実施例では各エージェント画像を表示するが、たとえば名称や愛称のような文字だけで表示することも可能であろう。このようなエージェント画像や名称、愛称などは、それぞれのエージェントを個別に識別することができる、エージェント記号ということができる。
In step S3 after passing the user authentication, the
なお、このときユーザアバタ36も作動部34に表示されるが、その画像データは、ユーザ認証後、チャットサーバ20に予め登録しているユーザのアバタをチャットサーバ20からユーザ端末14に送信することによって表示させる。しかしながら、ログインの都度チャットサーバ20からユーザ端末14へ画像を送信するのは無駄なので、1度受信した画像をユーザ端末14内のメモリ(図示せず)に記憶しておき、ログインの成功と共にそれを作動部34に表示するようにしてもよい。
At this time, the
次のステップS5において、先に説明したような方法で、エージェント表示部32からどれか1体のエージェントを選択して、ドラッグ領域38(図2)にドラッグしたかどうか、つまり、ユーザ端末14上でエージェントが選択されたかどうか判断する。ユーザ端末14が選択したエージェントを示す信号がユーザ端末1からチャットサーバ20に入力されるので、チャットサーバ20はユーザ端末14においてどのエージェントが選択されたのかを知ることができる。ステップS5は、エージェント一覧表示部に表示されたエージェントのどれかをユーザが選択したことを判別する選択判別部として機能する。
In the next step S5, whether any one agent has been selected from the
チャットサーバ20はユーザ端末14で選択したエージェントがどれかを、ダイアログキュー22に書き込むことによって、ユーザがどのエージェントを選択したかをダイアログサーバ26に伝え、当該エージェントのためのシナリオの起動を要請する。
The
ダイアログサーバ26は、ステップS7で、該当のシナリオIDのシナリオセットをシナリオデータベース28から読み出してダイアログキュー22に最初の発話文を送信する。このとき、先に説明したように、必要に応じて、ダイアログサーバ26は、チャットチャットサーバ20に、発言の内容(文言)、発話の番号、エージェントの番号、さらには選択肢ボタンの内容とその番号などを送信する。
In step S <b> 7, the
ステップS5で“YES”が判断されたとき、たとえば図3に示すように、ユーザによって選択されたエージェントが、ユーザを表すアバタ36と向かい合うように表示される。したがって、ステップS5はまたエージェント表示部として機能する。
When “YES” is determined in the step S5, for example, as shown in FIG. 3, the agent selected by the user is displayed so as to face the
その後、ステップS9以降において、作動部34(図2)に呼び出されたエージェントがそのシナリオに沿った会話を出力するとともに、必要なとき、ステップS11において、たとえば図3に示したような選択肢ボタン42を表示する。会話を出力する際には、図3に示すような吹き出し40の中に文言を表示するだけでなく、文章データを使用して、ユーザ端末14のスピーカ(図示せず)から音声として出力する。それによって、ユーザはエージェントの発話の内容を一層確実には把握できるようになる。ここで、ステップS9などが、拡大表示されたエージェントを、所定のシナリオに従って発話させる発話部として機能する。さらに、ステップS11は、ユーザアバタ36が選択すべき選択肢ボタン42を表示するので、選択肢表示部として機能する。
Thereafter, in step S9 and subsequent steps, the agent called by the operating unit 34 (FIG. 2) outputs a conversation according to the scenario. When necessary, in step S11, for example, an
ステップS13でどれかの選択肢ボタンが選択されると、その情報がチャットサーバ20に送信され、チャットサーバ20はダイアログキュー22にその情報を書き込む。ただし、ステップS13では、先に説明したように、ユーザ端末14のタッチスクリーンでのタッチ座標が該当の選択肢ボタンの表示範囲内にあるかどうかを判断する。
When any option button is selected in step S13, the information is transmitted to the
ステップS13でユーザがどれかの選択肢ボタンを選択すると、応じて、ダイアログサーバ26は、シナリオデータベース28からユーザがそのとき選んだ選択肢ボタンの内容に従ったシナリオを取り出し、ダイアログキュー22に書き込む。したがって、チャットサーバ20はそのシナリオに基づいて、エージェントに発話させる(ステップS15)。
When the user selects any option button in step S13, the
ただし、ステップS13でどれかの選択肢ボタンを選択したとき、その選択肢ボタンが選択されたことを示すように選択肢ボタンの表示(の態様)を変更するだけでなく、選択肢ボタン中の文言に従ってユーザ端末14のスピーカから音声として出力する。ユーザが選択した選択肢ボタンがどれかをユーザが容易に理解できるようになる。 However, when any option button is selected in step S13, not only the display of the option button is changed to indicate that the option button has been selected, but also the user terminal according to the wording in the option button. The sound is output from 14 speakers. The user can easily understand which option button the user has selected.
続くステップS17で、シナリオセットが終了したかどうかダイアログキュー22を見て、チャットサーバ20が判断する。“NO”なら、先のステップS11に戻り、ステップS11以降を繰り返す。“YES”ならそのまま終了する。
In subsequent step S17, the
なお、先のステップS13で“NO”を判断したとき、チャットサーバ20は、ステップS19において、エージェントが同じ文章の発話を繰り返しているかどうか判断する。たとえば、3回以上同じ発話をエージェントが出力したとき、このステップS19で“YES”を判断し、その場合には処理を終了する。“NO”なら、ステップS13に戻る。
When “NO” is determined in the previous step S13, the
なお、ステップS13などにおける選択肢ボタン42の選択が、何かを業者に注文することを示す選択肢であるときには、たとえば図1に示す業者端末18に対してマッチングサイト12から指示を出し、業者端末18がたとえば図5に示すような注文書50をユーザ端末14に送信するようにしてもよい。この注文書は一例として、弁当を注文するための注文書であるが、たとえばユーザIDを記入するID記入欄52や注文数を記入する注文数記入欄54などを設けている。ただし、ID記入欄52は、は業者端末18からユーザ端末14に送信するときに記入済みの状態であってもよい。また、このID記入欄52には、ユーザIDだけでなく、ユーザの氏名を併記するようにしてもよい。そうすれば、ユーザが自分のための注文書であることを容易に確認することができる。
When the selection of the
図4を参照して上で図1実施例の代表的な動作を説明したが、以下には、様々な動作例をユーザ端末14の画面遷移とともに説明する。
The typical operation of the embodiment of FIG. 1 has been described above with reference to FIG. 4, but various operation examples will be described below together with the screen transition of the
図6に示す動作例では、ユーザ端末14の画面30の作動部34に、ユーザが選択した主たるエージェントAとは別の追加的なまたは補助的なエージェントBが登場する。
In the operation example illustrated in FIG. 6, an additional or auxiliary agent B different from the main agent A selected by the user appears in the
ステップS20で、図4のステップS3、S5のようにしてエージェントAを選択すると、ステップS21では、チャットサーバ20およびダイアログサーバ26が、そのエージェントAからエージェントAのためのシナリオAAのデータから会話を出力させる。その後、ステップS22で、作動部34に、ユーザの選択に拠らず、チャットサーバ20およびダイアログサーバ26がエージェントBを登場させる。つまり、図7(A)に示すように作動部34にエージェントAがユーザアバタ36と一緒に表示されている状態で、図7(B)に示すように、エージェントBが、エージェントAの近くに、エージェントAよりは小さい大きさで、表示される。このとき、チャットサーバ20およびダイアログサーバ26は、ユーザはエージェントAと対話中であったので、エージェントBが、エージェントAのためのシナリオAAのデータから会話を出力するようにさせる。ステップS22は、主エージェントと一緒に追加的または補助的エージェントを表示させるための追加エージェント表示部として機能する。
When agent A is selected in step S20 as in steps S3 and S5 of FIG. 4, in step S21,
図6のように、エージェントAの他にエージェントBを同じ作動部34に表示し、同じシナリオセットに基づいて発話するようにすると、たとえばエージェントAとエージェントBが直接会話することができる。2体のエージェントが直接会話することによって、その会話を通してユーザに特定の商品やサービスの利点などを間接的に認識させたり、ユーザを2人がかりで説得したりするなどができる。さらに2体のエージェントが協働してユーザの相談にのるような場面を演出することができる。
As shown in FIG. 6, in addition to agent A, agent B is displayed on the
図7のように別のエージェントを補助的に作動部34に登場させる方法の他の例が、図8に示される。図8のステップS30、S31は、図6のステップS20、S21と同じである。
FIG. 8 shows another example of a method for causing another agent to appear on the operating
次のステップS32では、エージェントAがシナリオAAのデータに基づいて、図3に示すような選択肢ボタン42を表示する。その選択肢ボタンのなかに、エージェントBを登場させる選択肢ボタンがありかつユーザがその選択肢ボタンを選択したかどうか、ステップS33で判断する。このステップS33での判断は、たとえば図4のステップS13と同様の判断である。
In the next step S32, the agent A displays a
ステップS33で“YES”を判断すると、チャットサーバ20およびダイアログサーバ26は、ステップS34において、先の図7(B)に示すように、ユーザ端末14の作動部34に、エージェントAに加えて、ユーザが登場を容認したエージェントBが表示させる。そして、そのエージェントBは、エージェントAのためのシナリオAAのデータに従って、続きの会話を出力する。この場合も、先の図6の実施例と同様に、エージェントAのためのシナリオAAに設定されたデータに従ってエージェントBが発話するので、エージェントBがエージェントAの発話を補強したり、エージェントAを援護したりすることができる。ここでは、ステップS34が、主エージェントと一緒に追加的または補助的エージェントを表示させるための追加エージェント表示部として機能する。
If “YES” is determined in step S33, the
図6‐図8の動作例は、作動部34に少なくとも2体のエージェントを同時に表示させることによって、それらエージェントのコラボレーション(協働、協調)を期待することができる。
In the operation examples of FIGS. 6 to 8, at least two agents are displayed on the
これに対して、図9‐図11に示す動作例では、作動部34に少なくとも2体のエージェントを同時に表示させるが、その後補助的に表示したエージェントを作動部34から退場させる。それによって、最終的には主たるエージェントとユーザの対話を継続させて、結論を導くようにする。
On the other hand, in the operation example shown in FIGS. 9 to 11, at least two agents are simultaneously displayed on the
図9のステップS40‐S43は、図6のステップS20‐S23と同じであり、ステップS43の時点で、図7(A)、図7(B)と同じように、図10(A)、図10(B)に示すように、作動部34には主たるエージェントAに加えて、追加エージェントBが登場している。ここでは、ステップS43が、主エージェントと一緒に追加的または補助的エージェントを表示させるための追加エージェント表示部として機能する。
Steps S40 to S43 in FIG. 9 are the same as steps S20 to S23 in FIG. 6, and at the time of step S43, as in FIGS. 7A and 7B, FIG. 10A and FIG. As shown in FIG. 10 (B), in addition to the main agent A, an additional agent B appears in the operating
その後、図8のステップS32、S33に類似して、次のステップS44では、エージェントAがシナリオAAのデータに基づいて、選択肢ボタン42(図3)を表示する。その選択肢ボタンのなかに、エージェントBを退場させる選択肢ボタンがありかつユーザがその選択肢ボタンを選択したかどうか、ステップS45で判断する。このステップS45での判断は、たとえば図4のステップS13と同様の判断である。 Thereafter, similar to steps S32 and S33 of FIG. 8, in the next step S44, the agent A displays the option button 42 (FIG. 3) based on the data of the scenario AA. It is determined in step S45 whether or not there is an option button for leaving Agent B and the user has selected the option button. The determination in step S45 is, for example, the same determination as in step S13 of FIG.
ステップS45で“YES”を判断したとき、ステップS46において、チャットサーバ20およびダイアログサーバ26は、ユーザ端末14の画面30の作動部34からエージェントBを退場(消去)させる。その状態が図11に示される。つまり、図10(B)ではエージェントBが表示されていたのに対して、図11ではエージェントBが退場させられている。したがって、ステップS46が、追加的または補助的エージェントを退場させるための追加エージェント退場部として機能する。
When “YES” is determined in step S45, in step S46, the
その後、ステップS47以降では、エージェントAがシナリオAAに基づいてユーザとの対話を継続する。ステップS45で“NO”が判断されたときにも、同様に、ステップS48で、エージェントAがシナリオAAに基づいてユーザとの対話を継続する。 Thereafter, in step S47 and thereafter, agent A continues the dialog with the user based on scenario AA. Similarly, when “NO” is determined in the step S45, the agent A continues the dialogue with the user based on the scenario AA in a step S48.
この動作例では、エージェントBが途中エージェントAと一緒に登場し、その後はエージェントAだけが残ることになる。 In this operation example, agent B appears along with agent A on the way, and only agent A remains thereafter.
これに対して、図12に示す動作例では、途中からエージェントAに代わってエージェントBが主たるエージェントの役目を果たす動作例である。 On the other hand, the operation example shown in FIG. 12 is an operation example in which agent B serves as the main agent in place of agent A in the middle.
つまり、図12のステップS50‐S53は、図9のステップS40‐S43と同様であり、その結果、ステップS53の段階では、図10(B)に示すように、作動部34にはエージェントAとエージェントBが同時に表示されている。ここでは、ステップS53が、主エージェントと一緒に追加的または補助的エージェントを表示させるための追加エージェント表示部として機能する。 That is, Steps S50 to S53 in FIG. 12 are the same as Steps S40 to S43 in FIG. 9. As a result, in the stage of Step S53, as shown in FIG. Agent B is displayed at the same time. Here, step S53 functions as an additional agent display unit for displaying an additional or auxiliary agent together with the main agent.
その後、エージェントBによって、エージェントAを退場させる選択肢ボタンを表示させ(ステップS54)、ユーザがその選択肢ボタンを選択したかどうか判断する(ステップS55)。そのステップS55で“YES”が判断されると、図9のステップS46とは逆に、ステップS56でエージェントAが退場(非表示と)される。 Thereafter, the agent B displays an option button for leaving the agent A (step S54), and determines whether the user has selected the option button (step S55). If “YES” is determined in the step S55, the agent A is left (not displayed) in a step S56, contrary to the step S46 of FIG.
ステップS57では、チャットサーバ20およびダイアログサーバ26は、図11において、作動部34のエージェントAが表示されていた位置に、エージェントBを表示させる。つまり、主エージェントをAからBに変更する。したがって、その後のステップS58以降では、エージェントBがエージェントAのためのシナリオAAに沿って発話(対話)を継続する。したがって、ステップS58が、主エージェントを交代させるためのエージェント交代部として機能する。
In step S57, the
ただし、ステップS55で“NO”が判断されたときには、ステップS59で、エージェントAがシナリオAAに基づいてユーザとの対話を継続することになる。 However, if “NO” is determined in the step S55, the agent A continues the dialog with the user based on the scenario AA in a step S59.
図13および図14に示す動作例は、ユーザの意思でエージェントを変更するときの動作例である。 The operation examples shown in FIGS. 13 and 14 are operation examples when the agent is changed at the user's will.
図13のステップS60およびS61は、たとえば図6のステップS20およびS21と同じである。つまり、ユーザ端末14の作動部34には、たとえば図14(A)に示すように、エージェントAが登場し、エージェントAとユーザ(ユーザアバタ36)とが対話している。
Steps S60 and S61 in FIG. 13 are the same as steps S20 and S21 in FIG. 6, for example. That is, for example, as shown in FIG. 14A, the agent A appears in the
そして、ステップS62で、チャットサーバ20およびダイアログサーバ26は、ユーザ端末14上において、ユーザがエージェント表示部32(図3)に表示されている別のエージェント、たとえばエージェントBをドラッグ領域38にドロップさせたかどうか判断する。つまり、ユーザが意思を持って、エージェントの変更を指示したかどうか判断する。
In step S62, the
ステップS62で“YES”なら、図14(B)に示すようにエージェントBだけが作動部34に表示される。つまり、エージェントがAからBへ変更される。したがって、ステップS63以降においては、エージェントBがエージェントBのためのシナリオBBに従って会話を出力する。
If “YES” in the step S62, only the agent B is displayed on the
詳しくいうと、ステップS62においては、チャットサーバ20は、ユーザの一連のタッチ操作から作動部34に表示されるエージェントが変更されたことを検出することができる。このようなエージェントの変更がチャットサーバ20によってイアログキュー22に書き込まれると、ステップS63において、ダイアログサーバ26は変更後のエージェントBのためのシナリオセットBBをシナリオデータベース28から読み出して、デイアログキュー22に書き込む。つまり、ステップS62におけるチッャトサーバ20が、エージェント変更判断部として機能し、ステップS63におけるダイアログサーバ26が、そのようなエージェント変更に対応してシナリオを変更するシナリオ変更部として機能する。
Specifically, in step S62, the
ステップS62で“NO”なら、エージェントの交代はなく、ステップS64以降において、エージェントAがエージェントAのためのシナリオAAに従って会話を継続する。 If “NO” in the step S62, the agent is not changed, and the agent A continues the conversation according to the scenario AA for the agent A in the step S64 and thereafter.
その動作例によれば、任意のタイミングで、ユーザの意思によって、対話するエージェントを変更できる。しかも、変更後のエージェントはそのエージェントのためのシナリオで対話するので、先のエージェントとは異なる問題解決の方法が期待できる。 According to the operation example, the agent to interact with can be changed at an arbitrary timing according to the intention of the user. Moreover, since the changed agent interacts with the scenario for that agent, a problem solving method different from the previous agent can be expected.
発明者等の実験では、このようなユーザの任意変更の可能性は被験者にとって好評であり、特に「話したい相手を自分で選べるのがよかった」という評価があった。 In the experiment by the inventors, the possibility of such arbitrary change of the user was well received by the test subject, and in particular, there was an evaluation that “It was good to be able to choose the person whom he / she wants to talk to”.
図4などのフローチャートは、基本的には、チヤットサーバ20および/またはダイアログサーバ26のメモリ(図示せず)にプログラムとして予め設定されるものであり、これらのメモリがプログラムの記憶媒体の一例である。
4 and the like are basically preset as programs in a memory (not shown) of the
ただし、チャットサーバ20およびダイアログサーバ26は、上述のように機能別に作業を分担する。すなわち、チャットサーバ20がユーザ(ユーザ端末14)とのチャットを管理、制御するのに対して、ダイアログサーバ26はそのチャットの内容を管理、制御する機能を有する。このような機能分担によって、各サーバ20および26の最適制御を可能にしている。しかしながら、1つのサーバで2つのサーバ20および26の機能を統合して管理、制御することも勿論可能である。つまり、サーバ20および26は統合する1つのサーバで構成されてもよい。
However, the
10 …電子御用聞きシステム
12 …マッチングサイト
14 …ユーザ端末
16 …ネットワーク
18 …業者端末
20 …チャットサーバ
26 …ダイアログサーバ
DESCRIPTION OF
Claims (5)
前記ユーザ端末の画面にそれぞれが個別にエージェントを示す少なくとも2つのエージェント記号を一覧表示させるエージェント一覧表示部、
前記エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する選択判別部、
ユーザが選択したエージェント記号に応じたエージェントを、前記ユーザを表すアバタと向き合った状態で表示させるエージェント表示部、
前記エージェントを所定のシナリオに沿って発話させる発話部、および
前記エージェントの発話に応じて、前記所定のシナリオに沿った選択肢を表示させる選択肢表示部を備える、電子御用聞きシステム。 An electronic listening system using a user terminal,
An agent list display unit for displaying a list of at least two agent symbols each individually indicating an agent on the screen of the user terminal;
A selection determining unit for determining that the user has selected any agent symbol from the agent list display unit;
An agent display unit for displaying an agent corresponding to the agent symbol selected by the user in a state facing the avatar representing the user;
An electronic listening system comprising: an utterance unit that utters the agent according to a predetermined scenario; and an option display unit that displays an option according to the predetermined scenario according to the utterance of the agent.
前記選択判別部は、前記エージェント表示部からどれかのエージェント記号が前記作動部へドラッグされたかどうか判断する、請求項1記載の電子御用聞きシステム。 The screen of the user terminal includes an agent display unit that displays the agent symbol and an operation unit that displays the agent,
The electronic listening system according to claim 1, wherein the selection determination unit determines whether any agent symbol is dragged from the agent display unit to the operation unit.
前記エージェント変更判断部がエージェントの変更を判断したとき、前記別のエージェントに発話させるようにシナリオを変更するシナリオ変更部をさらに備える、請求項2記載の電子御用聞きシステム。 An agent change determination unit that determines that another agent symbol is dragged from the agent display unit to the operation unit and the agent is changed to another agent, and when the agent change determination unit determines an agent change, The electronic listening system according to claim 2, further comprising a scenario changing unit that changes a scenario so that the other agent speaks.
前記ユーザ端末の画面にそれぞれが個別にエージェントを示す少なくとも2つのエージェント記号を一覧表示させるエージェント一覧表示部、
前記エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する選択判別部、
ユーザが選択したエージェント記号に応じたエージェントを、前記ユーザを表すアバタと向き合った状態で表示させるエージェント表示部、
前記エージェントを所定のシナリオに沿って発話させる発話部、および
前記エージェントの発話に応じて、前記所定のシナリオに沿った選択肢を表示させる選択肢表示部
として機能させる、電子御用聞きプログラム。 An electronic listening program executed by a computer of an electronic listening system using a user terminal, wherein the computer displays a list of at least two agent symbols each indicating an agent individually on the screen of the user terminal Part,
A selection determining unit for determining that the user has selected any agent symbol from the agent list display unit;
An agent display unit for displaying an agent corresponding to the agent symbol selected by the user in a state facing the avatar representing the user;
An electronic listening program that functions as an utterance unit that utters the agent according to a predetermined scenario, and an option display unit that displays an option according to the predetermined scenario according to the utterance of the agent.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017006128A JP2018116427A (en) | 2017-01-17 | 2017-01-17 | Electronic order-taking system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017006128A JP2018116427A (en) | 2017-01-17 | 2017-01-17 | Electronic order-taking system and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018116427A true JP2018116427A (en) | 2018-07-26 |
Family
ID=62985615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017006128A Pending JP2018116427A (en) | 2017-01-17 | 2017-01-17 | Electronic order-taking system and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018116427A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020024522A (en) * | 2018-08-06 | 2020-02-13 | 株式会社エルブズ | Information providing apparatus, information providing method and program |
JP2020154940A (en) * | 2019-03-22 | 2020-09-24 | 富士ゼロックス株式会社 | Message providing device, program and display control method |
WO2022137960A1 (en) * | 2020-12-24 | 2022-06-30 | 京セラ株式会社 | Program and conversation system |
WO2024101052A1 (en) * | 2022-11-09 | 2024-05-16 | 株式会社Nttドコモ | Virtual space control device |
-
2017
- 2017-01-17 JP JP2017006128A patent/JP2018116427A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020024522A (en) * | 2018-08-06 | 2020-02-13 | 株式会社エルブズ | Information providing apparatus, information providing method and program |
JP2020154940A (en) * | 2019-03-22 | 2020-09-24 | 富士ゼロックス株式会社 | Message providing device, program and display control method |
JP7275717B2 (en) | 2019-03-22 | 2023-05-18 | 富士フイルムビジネスイノベーション株式会社 | Message providing device, program, and display control method |
WO2022137960A1 (en) * | 2020-12-24 | 2022-06-30 | 京セラ株式会社 | Program and conversation system |
WO2024101052A1 (en) * | 2022-11-09 | 2024-05-16 | 株式会社Nttドコモ | Virtual space control device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12126739B2 (en) | Bot permissions | |
KR102197448B1 (en) | Bot interaction | |
US11178078B2 (en) | Method and apparatus to increase personalization and enhance chat experiences on the Internet | |
KR101872759B1 (en) | System, method, and program that allow audio chatting | |
US20160320966A1 (en) | User terminal device and control method thereof | |
JP2018116427A (en) | Electronic order-taking system and program | |
JPH11184786A (en) | Chat system and chat server and client and recording medium | |
JP7170413B2 (en) | Received message display method, message application program, and mobile terminal | |
JP2018032378A (en) | Program, information processing device, and information processing system | |
KR101813900B1 (en) | Audio chat management device and method | |
JP7167582B2 (en) | Information processing system, method and program | |
KR20130025277A (en) | Method and server for providing message service | |
US7970909B1 (en) | Method and system for associating concurrent telephone and data network sessions | |
KR101891155B1 (en) | Composed notice function apparatas and method of using for chatting application in a portable terminal | |
KR101335143B1 (en) | Providing method and using method of service for giving a present of mobile gift certificate using a instant messaging service | |
JP2024034388A (en) | Chatbot control system, chatbot control method, and program | |
JP7190747B2 (en) | Query system, query device and query program | |
KR20220027607A (en) | Kiosk device for seniors and method for controling the same | |
WO2017006413A1 (en) | Language learning support system, language learning support method, and program | |
KR101340200B1 (en) | Apparatus and method for providing information using a tablet monitor | |
JP7205962B1 (en) | System for automatic dialogue | |
KR100601868B1 (en) | Menu Providing System, Method for Menu Navigation and Mobile Communication Terminal therefor | |
JP6664537B1 (en) | Reservation system, reservation method and reservation program | |
JP2024101561A (en) | Query response system, query response device, query response method and query response program, and program generation system and program | |
US11853933B1 (en) | Systems and methods for an interactive customer interface utilizing customer device context |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170526 |