JP2018116427A - Electronic order-taking system and program - Google Patents

Electronic order-taking system and program Download PDF

Info

Publication number
JP2018116427A
JP2018116427A JP2017006128A JP2017006128A JP2018116427A JP 2018116427 A JP2018116427 A JP 2018116427A JP 2017006128 A JP2017006128 A JP 2017006128A JP 2017006128 A JP2017006128 A JP 2017006128A JP 2018116427 A JP2018116427 A JP 2018116427A
Authority
JP
Japan
Prior art keywords
agent
user
scenario
display unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017006128A
Other languages
Japanese (ja)
Inventor
浩平 小川
Kohei Ogawa
浩平 小川
石黒 浩
Hiroshi Ishiguro
浩 石黒
実紀 油谷
Sanenori Yuya
実紀 油谷
田中 秀樹
Hideki Tanaka
秀樹 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elvez Inc
Osaka University NUC
TIS Inc
Original Assignee
Elvez Inc
Osaka University NUC
TIS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elvez Inc, Osaka University NUC, TIS Inc filed Critical Elvez Inc
Priority to JP2017006128A priority Critical patent/JP2018116427A/en
Publication of JP2018116427A publication Critical patent/JP2018116427A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user-friendly electronic order-taking system.SOLUTION: In an electronic order-taking system, when a user terminal logs on a matching site via a network (16), multiple agent images are displayed as a list on an agent displaying unit 32 of a screen 30 of the user terminal. When a user drags any of the agent images to a drag region 38 of an actuating unit 34, a selected agent is enlarged in size, and is displayed so as to face an avatar 36 that is the agent of the user. The agent is caused to utter in accordance with a scenario, and selection choice buttons 42a and 42b in accordance with such an utterance are displayed in accordance with the scenario. The user touches any of the selection choice buttons to keep having a conversation with the agent. The user can freely select the agent from the agent displaying unit.SELECTED DRAWING: Figure 3

Description

この発明は、電子御用聞きシステムおよびプログラムに関し、特にたとえば、タッチディスプレイを通して対話する、電子御用聞きシステムおよびプログラムに関する。   The present invention relates to an electronic listening system and program, and more particularly to an electronic listening system and program that interacts through, for example, a touch display.

たとえば特許文献1のような電子商取引型御用聞き支援装置が知られている。特許文献1のシステムでは、管理端末、ユーザ端末およびクライアント端末を備え、ユーザ端末上に、管理端末が準備した各クライアントに設定されたクライアントアバタを御用聞きアバタとして表示させる。ユーザは、売り手であるクライアントアバタが提示する広告情報に基づいて商品の購入をユーザ端末上で指示することができる。   For example, an electronic commerce type listening support device as disclosed in Patent Document 1 is known. The system of Patent Literature 1 includes a management terminal, a user terminal, and a client terminal, and displays a client avatar set for each client prepared by the management terminal as a listening avatar on the user terminal. The user can instruct purchase of a product on the user terminal based on advertisement information presented by a client avatar who is a seller.

特開2011‐215704号公報[G06Q 30/00, G06F 13/00]JP 2011-215704 A [G06Q 30/00, G06F 13/00]

特許文献1のシステムでは、条件が成立していなければ御用聞き情報の送信を受けられないので、ユーザは必要なときに任意の売り手(クライアント)を呼び出して注文したりすることはできず、たとえば高齢者や生活弱者にとって使い勝手がやや悪い。   In the system of Patent Document 1, since the request information cannot be transmitted unless the conditions are satisfied, the user cannot call any seller (client) and place an order when necessary. For example, Usability is slightly worse for the elderly and those who are weak.

それゆえに、この発明の主たる目的は、新規な、電子御用聞きシステムおよびプログラムを提供することである。   Therefore, a main object of the present invention is to provide a novel electronic listening system and program.

この発明の他の目的は、使い勝手のよい、電子御用聞きシステムおよびプログラムを提供することである。   Another object of the present invention is to provide a user-friendly electronic listening system and program.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、ユーザ端末を用いる電子御用聞きシステムであって、ユーザ端末の画面に少なくとも2体のエージェントを示す少なくとも2つのエージェント記号を一覧表示させるエージェント一覧表示部、エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する選択判別部、ユーザが選択したエージェント記号に応じたエージェントを、ユーザを表すアバタと向き合った状態で表示させるエージェント表示部、エージェントを所定のシナリオに沿って発話させる発話部、およびエージェントの発話に応じて、所定のシナリオに沿った選択肢を表示させる選択肢表示部を備える、電子御用聞きシステムである。   The first invention is an electronic listening system using a user terminal, which includes an agent list display unit that displays a list of at least two agent symbols indicating at least two agents on the screen of the user terminal, and an agent list display unit. A selection discriminating unit for discriminating that the user has selected the agent symbol, an agent display unit for displaying the agent corresponding to the agent symbol selected by the user in a state facing the avatar representing the user, and setting the agent in a predetermined scenario. The electronic listening system includes an utterance unit that utters along an option, and an option display unit that displays options according to a predetermined scenario according to the utterance of an agent.

第1の発明では、電子御用聞きシステム(10:実施例において対応する部分を例示する参照符号。以下、同様。)は、ユーザ端末(14)を用いる。エージェント一覧表示部(S3)は、ユーザ端末の画面(30)に少なくとも2体のエージェントを示す少なくとも2つのエージェント記号(エージェントの小さい画像、名称、愛称など)を一覧表示させる。選択判別部(S5)は、エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する。選択判別部が、エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別すると、エージェント表示部(S5)が、ユーザが選択したエージェント記号に応じたエージェントを、ユーザを表すアバタと向き合った状態で表示させる。発話部(S7‐S9)がそのエージェントを所定のシナリオに沿って発話させ、選択肢表示部(S11)がエージェントの発話に応じて、所定のシナリオに沿った選択肢を表示させる。したがって、ユーザは選択肢のどれかを適宜選択して、エージェントと対話することができる。   In the first invention, the electronic listening system (10: reference numerals exemplifying corresponding parts in the embodiment, hereinafter the same) uses the user terminal (14). The agent list display unit (S3) displays a list of at least two agent symbols (small images of agents, names, nicknames, etc.) indicating at least two agents on the screen (30) of the user terminal. The selection determining unit (S5) determines that the user has selected any agent symbol from the agent list display unit. When the selection determining unit determines that the user has selected any agent symbol from the agent list display unit, the agent display unit (S5) displays an agent corresponding to the agent symbol selected by the user as an avatar representing the user. Display in a face-to-face state. The utterance unit (S7-S9) causes the agent to utter along a predetermined scenario, and the option display unit (S11) displays options according to the predetermined scenario according to the utterance of the agent. Therefore, the user can select any of the options as appropriate and interact with the agent.

第1の発明によれば、ユーザが対話したいエージェントを任意に選択することができるので、ユーザにとって使い勝手のよい。   According to the first invention, since the user can arbitrarily select an agent that the user wants to interact with, it is convenient for the user.

第2の発明は、第1の発明に従属し、ユーザ端末の画面はエージェント記号を表示するエージェント表示部よびエージェントを表示する作動部を含み、選択判別部は、エージェント表示部からどれかのエージェント記号が作動部へドラッグされたかどうか判断する、電子御用聞きシステムである。   A second invention is dependent on the first invention, and the screen of the user terminal includes an agent display unit that displays an agent symbol and an operation unit that displays an agent. An electronic listening system that determines whether a symbol has been dragged to an actuator.

第2の発明では、ユーザ端末の画面(30)はエージェント記号を表示するエージェント表示部(32)およびエージェントを表示する作動部(34)を含む。選択判別部(S5)は、エージェント表示部からどれかのエージェント記号が作動部へドラッグされたかどうか判断する。   In the second invention, the screen (30) of the user terminal includes an agent display unit (32) for displaying an agent symbol and an operation unit (34) for displaying the agent. The selection determining unit (S5) determines whether any agent symbol has been dragged from the agent display unit to the operating unit.

第2の発明によれば、エージェント表示部から作動部へエージェント記号をドラッグすることによってエージェントの選択が可能なので、ユーザにエージェント選択をしてもらい易い。   According to the second aspect, since the agent can be selected by dragging the agent symbol from the agent display unit to the operating unit, it is easy for the user to select the agent.

第3の発明は、第2の発明に従属し、エージェント表示部から別のエージェント記号が作動部にドラッグされてエージェントが別のエージェントに変更されたことを判断するエージェント変更判断部、およびエージェント変更判断がエージェントの変更を判断したとき、別のエージェントに発話させるようにシナリオを変更するシナリオ変更部をさらに備える、電子御用聞きシステムである。   The third invention is dependent on the second invention, and an agent change determining unit that determines that another agent symbol is dragged from the agent display unit to the operating unit and the agent is changed to another agent, and the agent change The electronic hearing system further includes a scenario changing unit that changes a scenario so that another agent speaks when the determination is made to change the agent.

第3の発明では、エージェント変更判断部(S62)は、エージェント表示部(32)から別のエージェント記号が作動部(34)にドラッグされかどうかによって別のエージェントに変更されかどうかを判断する。エージェント変更判断部がエージェントの変更を判断したとき、シナリオ変更部(S63)は、別のエージェントに発話させるようにシナリオを変更する。   In the third invention, the agent change determination unit (S62) determines whether or not another agent symbol is changed from the agent display unit (32) to another agent depending on whether or not another agent symbol is dragged to the operation unit (34). When the agent change determination unit determines the agent change, the scenario change unit (S63) changes the scenario so that another agent speaks.

第3の発明によれば、ユーザが任意にエージェントを変更することができるので、一層使い勝手がよい。   According to the third aspect, since the user can arbitrarily change the agent, the usability is further improved.

第4の発明は、第1ないし第3の発明のいずれかに従属し、エージェントと一緒に追加エージェントを表示させる追加エージェント表示部をさらに備える、電子御用聞きシステムである。   A fourth invention is an electronic listening system according to any one of the first to third inventions, further comprising an additional agent display unit for displaying an additional agent together with the agent.

第4の発明では、追加エージェント表示部(S22、S34、S44、S54)は、エージェントと一緒に追加エージェントを表示させる。   In the fourth invention, the additional agent display unit (S22, S34, S44, S54) displays the additional agent together with the agent.

第4の発明によれば、エージェントと追加エージェントとを協働させることができる。   According to the fourth aspect, the agent and the additional agent can cooperate with each other.

第5の発明は、ユーザ端末を用いる電子御用聞きシステム(10)のコンピュータ(20、26)によって実行される電子御用聞きプログラムであって、コンピュータをユーザ端末の画面(30)に少なくとも2体のエージェントを示す少なくとも2つのエージェント記号を一覧表示させるエージェント一覧表示部(S3)、エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する選択判別部(S5)、ユーザが選択したエージェント記号に応じたエージェントを、ユーザを表すアバタと向き合った状態で表示させるエージェント表示部(S5)、エージェントを所定のシナリオに沿って発話させる発話部(S7‐S9)、およびエージェントの発話に応じて、所定のシナリオに沿った選択肢を表示させる選択肢表示部(S11)として機能させる、電子御用聞きプログラムである。   A fifth invention is an electronic listening program executed by a computer (20, 26) of an electronic listening system (10) using a user terminal, wherein the computer is provided on at least two screens (30) of the user terminal. An agent list display unit (S3) that displays a list of at least two agent symbols indicating agents, a selection determination unit (S5) that determines that the user has selected any agent symbol from the agent list display unit, and a user selected An agent display unit (S5) for displaying an agent corresponding to the agent symbol in a state facing the avatar representing the user, an utterance unit (S7-S9) for causing the agent to utter along a predetermined scenario, and depending on the utterance of the agent To display options according to a given scenario択肢 display unit to function as a (S11), an electronic order taker cyber program.

第5の発明によっても、第1の発明と同様の効果が期待できる。   According to the fifth invention, the same effect as that of the first invention can be expected.

この発明によれば、ユーザが対話したいエージェントを任意に選択することができるので、ユーザにとって使い勝手のよい電子御用聞きシステムが得られる。   According to this invention, since the user can arbitrarily select an agent that the user wants to interact with, an electronic listening system that is convenient for the user can be obtained.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例の電子御用聞きシステムの概要を示す概略図である。FIG. 1 is a schematic diagram showing an outline of an electronic listening system according to an embodiment of the present invention. 図2は図1実施例におけるユーザ端末の初期画面の一例を示す図解図である。FIG. 2 is an illustrative view showing one example of an initial screen of the user terminal in FIG. 1 embodiment. 図3は図1実施例におけるユーザ端末の後続画面の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a subsequent screen of the user terminal in FIG. 1 embodiment. 図4は図1実施例の動作の一例を示すフロー図である。FIG. 4 is a flowchart showing an example of the operation of the embodiment in FIG. 図5は図4実施例において使用する可能性がある注文書の一例を示す図解図である。FIG. 5 is an illustrative view showing one example of an order form that may be used in the embodiment of FIG. 図6は図1実施例の動作の他の例を示すフロー図である。FIG. 6 is a flowchart showing another example of the operation of FIG. 1 embodiment. 図7は図6に示す動作に従ったユーザ端末の画面遷移の一例を示す図解図である。FIG. 7 is an illustrative view showing one example of screen transition of the user terminal according to the operation shown in FIG. 図8は図1実施例の動作の他の例を示すフロー図である。FIG. 8 is a flowchart showing another example of the operation of the FIG. 1 embodiment. 図9は図1実施例の動作の他の例を示すフロー図である。FIG. 9 is a flowchart showing another example of the operation of the FIG. 1 embodiment. 図10は図9に示す動作に従ったユーザ端末の画面遷移の一例を示す図解図である。FIG. 10 is an illustrative view showing one example of screen transition of the user terminal according to the operation shown in FIG. 図11は図9に示す動作に従ったユーザ端末の画面遷移の一例を示す図解図であり、図10に後続する画面の一例を示す。FIG. 11 is an illustrative view showing one example of a screen transition of the user terminal according to the operation shown in FIG. 9, and shows an example of a screen subsequent to FIG. 図12は図1実施例の動作のその他の例を示すフロー図である。FIG. 12 is a flowchart showing another example of the operation of the FIG. 1 embodiment. 図13は図1実施例の動作の他の例を示すフロー図である。FIG. 13 is a flowchart showing another example of the operation of the FIG. 1 embodiment. 図14は図13に示す動作に従ったユーザ端末の画面遷移の一例を示す図解図である。FIG. 14 is an illustrative view showing one example of screen transition of the user terminal according to the operation shown in FIG.

図1を参照して、この実施例の電子御用聞きシステム(以下、単に「システム」ということがある。)10は、ネットワーク16を介して繋がるマッチングサイト12および1以上のユーザ端末14を含む。ユーザ端末14はたとえばタブレット端末のような、タッチスクリーンディスプレイ端末であり、ユーザは、基本的にはタッチ操作で対話することができる。ただし、ユーザがそのタッチスクリーン上のどの場所にタッチしたかは、よく知られているように、タッチ位置を示すタッチ座標に基づいて判断する。   With reference to FIG. 1, an electronic listening system (hereinafter simply referred to as “system”) 10 of this embodiment includes a matching site 12 and one or more user terminals 14 connected via a network 16. The user terminal 14 is a touch screen display terminal such as a tablet terminal, and the user can basically interact by a touch operation. However, as is well known, the location on the touch screen that the user touches is determined based on the touch coordinates indicating the touch position.

このシステム10にはさらに、ネットワーク16を介して、1以上の業者端末18が接続されることもある。業者端末18としては任意のコンピュータを利用可能であり、スマートフォンなどの携帯端末も利用可能である。ただし、業者としては、物販業者や役務提供業者など任意の業者が考えられる。   The system 10 may further be connected with one or more vendor terminals 18 via the network 16. Arbitrary computers can be used as the trader terminal 18, and a mobile terminal such as a smartphone can also be used. However, any traders such as merchandise dealers and service providers can be considered as traders.

マッチングサイト12は、基本的には、ユーザ端末14のユーザとの対話を繰り返しながら、ユーザの要望に応え、さらに必要な場合ユーザ端末14のユーザと業者端末18の業者とのマッチングを図るものである。   The matching site 12 basically responds to the user's request while repeating the dialogue with the user of the user terminal 14, and further matches the user of the user terminal 14 and the supplier of the supplier terminal 18 when necessary. is there.

マッチングサイト12は、ユーザ端末14のネットワーク16への窓口となるチャットサーバ20を含む。チャットサーバ20は、チャットの仕組みを構築するためのサーバであり、すべてのユーザ端末14からのアクセスを受け付ける。ユーザ端末14からの発話がその都度ダイアログキュー22に一旦記憶される。ただし、チャットデータベース24にはすべてのチャットのログが記憶される。   The matching site 12 includes a chat server 20 that serves as a window to the network 16 of the user terminal 14. The chat server 20 is a server for constructing a chat mechanism, and accepts access from all user terminals 14. The utterance from the user terminal 14 is temporarily stored in the dialog queue 22 each time. However, all chat logs are stored in the chat database 24.

チャットサーバ20と協働してユーザ端末14等と対話を行うダイアログサーバ26が設けられる。ダイアログサーバ26は主として発話文などをチャットサーバ20に指示する。そのために、シナリオデータベース28がこのダイアログサーバ26に付属して設けられる。シナリオは別のシステムで作ってこのシナリオデータベース28に予め設定している。   A dialog server 26 that interacts with the user terminal 14 and the like in cooperation with the chat server 20 is provided. The dialog server 26 mainly instructs the chat server 20 for an utterance sentence and the like. For this purpose, a scenario database 28 is provided with the dialog server 26. The scenario is created by another system and set in advance in this scenario database 28.

ダイアログサーバ26は、ダイアログキュー22からユーザの発話データ(選択肢ボタンの内容)を取得し、それに応じたシナリオをシナリオデータベース28から取り出して、チャットサーバ20に送る。そのとき、ダイアログサーバ26は、チャットサーバ20に、発言の内容(文言)、発話の番号、エージェント(後述)の番号、エージェントの動作、さらには後述の選択肢ボタンの内容とその番号を送信する。   The dialog server 26 acquires user utterance data (contents of option buttons) from the dialog queue 22, retrieves a scenario corresponding to the data from the scenario database 28, and sends the scenario to the chat server 20. At that time, the dialog server 26 transmits to the chat server 20 the content of the utterance (sentence), the number of the utterance, the number of the agent (described later), the action of the agent, and the content and the number of the option button described later.

マッチングサイト12は、後に説明するようにしてチャットサーバ20およびダイアログサーバ26の協働によってユーザ端末14(のユーザ)と対話しながら、ユーザが望む商品やサービスを提供する業者をユーザに紹介するマッチング機能を果たす。   As will be described later, the matching site 12 interacts with the user terminal 14 (the user) through cooperation of the chat server 20 and the dialog server 26, and introduces a supplier that provides a product or service desired by the user to the user. Fulfills the function.

図2はユーザ端末14の画面30の、マッチングサイト12へのログイン直後の初期画面の一例を示す図解図である。画面30の構成は、高齢者が片手でタブレットを持ちながら操作できるよう、縦向きのレイアウトとした。   FIG. 2 is an illustrative view showing an example of an initial screen of the screen 30 of the user terminal 14 immediately after logging in to the matching site 12. The configuration of the screen 30 is a vertically oriented layout so that an elderly person can operate while holding a tablet with one hand.

ユーザ端末14の画面30は、上部のエージェント表示部32およびその下方の作動部34を含む。エージェント表示部32は、ユーザと対話可能な2以上のエージェント、この実施例では4体のエージェントA、B、CおよびDを一覧表示する。実施例では、エージェントAは「三河屋」という屋号を持つよろず屋を表すエージェントであり、エージェントBは、ユーザの住む市区町村の役場の職員さんを表すエージェントであり、エージェントCは、この御用聞きシステム10の運営主体であるたとえば「道の駅」の店員さんを表すエージェントであり、エージェントDは、たとえばタクシーの運転手さんを表すエージェントである。これらのエージェントは支援内容と一対一で対応している。   The screen 30 of the user terminal 14 includes an upper agent display unit 32 and an operation unit 34 below it. The agent display unit 32 displays a list of two or more agents that can interact with the user, in this embodiment, four agents A, B, C, and D. In the embodiment, Agent A is an agent representing a Yorozuya with the name “Mikawaya”, Agent B is an agent representing a staff member of a municipal office where the user lives, and Agent C is an agent for this interview. For example, it is an agent representing a salesclerk of “Michi no Eki” who is an operating entity of the system 10, and an agent D is an agent representing a taxi driver, for example. These agents have a one-to-one correspondence with the support content.

ただし、ここでのエージェントA‐Dと具体的な職種は単なる一例であり、さらにはA‐Dの記号は、後にフローチャートとともに説明するときのエージェントの記号と無関係であることを予め指摘しておく。さらに、エージェントの数も2以上であればよい。   However, it should be pointed out in advance that the agent AD and the specific job type here are merely examples, and that the symbol AD is irrelevant to the agent symbol that will be described later together with the flowchart. . Furthermore, the number of agents may be two or more.

作動部34には画面手前にユーザのエージェントとなるアバタ36を配置し、そのアバタ36が向く方向に、ドラッグ領域38が形成される。このドラッグ領域38は、ユーザがそのとき話したい、頼みたいと思うエージェントA‐Dのいずれかをドラッグしてくるための領域として設定されていて、もしユーザがいずれかのエージェントをドラッグ領域38にドラッグしたとすると、ユーザ端末14の画面30は図3に示すように変化する。   An avatar 36 serving as a user agent is disposed in front of the screen in the operation unit 34, and a drag region 38 is formed in a direction in which the avatar 36 faces. The drag area 38 is set as an area for dragging any of the agents AD that the user wants to talk about and wants to ask. If the user drags one of the agents to the drag area 38 If it is dragged, the screen 30 of the user terminal 14 changes as shown in FIG.

ここでユーザのアバタ36は画面上では後ろ向きに表示するようにしている。それによって、このアバタ36が自分のエージェントであることをユーザが容易に確信することができる。つまり、アバタ36を後ろ向きに表示することによって、図3に示すように拡大表示されたエージェントと向き合っているという意識を強くユーザが認識することができる。   Here, the user's avatar 36 is displayed backward on the screen. Thereby, the user can easily be sure that the avatar 36 is his / her agent. That is, by displaying the avatar 36 backward, the user can strongly recognize that he is facing the agent displayed in an enlarged manner as shown in FIG.

図3では、一例として、店員さんであるエージェントCがドラッグ領域38にドラッグされたときの画面が示され、この画面では、店員さんのエージェントCがドラッグ領域38を挟んだエージェント36の対面に拡大して表示される。つまり、ユーザに呼び出されたエージェントは、作動部34の画面内で、ユーザアバタ36と向かい合うように、拡大表示される。他方で、エージェント表示部32にあったエージェントCの画像は消去され、エージェントCが作動部34に呼び出されたことがわかる。同時に、そのエージェントCからの吹き出し40が表示され、その中にユーザに対する問いかけなどの発話文が表示される。例では、ユーザに「どんな御用ですか?」と発話することを示している。   In FIG. 3, as an example, a screen when the agent C who is a clerk is dragged to the drag region 38 is shown. In this screen, the agent C of the clerk is enlarged to face the agent 36 across the drag region 38. Is displayed. That is, the agent called by the user is enlarged and displayed so as to face the user avatar 36 in the screen of the operation unit 34. On the other hand, the image of agent C in the agent display unit 32 is deleted, and it can be seen that the agent C is called by the operating unit 34. At the same time, a balloon 40 from the agent C is displayed, and an utterance sentence such as a question to the user is displayed therein. In the example, it is shown that the user speaks “What is your business?”

これに対して、ユーザアバタ36の下方に、複数の(図3の実施例では2つの)選択肢ボタン42aおよび42bが表示される。この例では、ボタン42aは「お買い物を頼みたい」というユーザの要求を示し、ボタン42bは「お話がしたい」という要求を示している。したがって、ユーザは、どれかのボタンをタッチすることで、そのときユーザが望んでいる事項を店員さん、すなわち、エージェントCに伝えることができる。ただし、選択肢ボタン42の数は、最大4つと決めている。多すぎると選択に迷いが生じ、少なすぎると選択肢がないという状態を生じることになるからである。   In contrast, a plurality of (two in the embodiment of FIG. 3) option buttons 42a and 42b are displayed below the user avatar 36. In this example, the button 42a indicates a user's request “I want to ask for shopping”, and the button 42b indicates a request “I want to talk”. Therefore, by touching any button, the user can inform the store clerk, that is, the agent C, of the item desired by the user at that time. However, the number of option buttons 42 is determined to be a maximum of four. This is because when the amount is too large, the selection becomes unclear, and when the amount is too small, there is no choice.

このように、エージェント一覧から、話しかけたいエージェントを画面中央にドロップすると、そのエージェントが現れ、対応する対話シナリオが開始されるが、対話したいエージェントは、他のエージェントとの対話の途中であっても、任意のタイミングで切り替えることができる。そのとき、当然、発話のためのシナリオセットも切り替えられる。ただし、ユーザがエージェントを交代させても、交代前と同じシナリオセットで発話(対話)を継続させるようにしてもよい。   In this way, when you drop the agent you want to talk to from the agent list in the center of the screen, that agent appears and the corresponding conversation scenario starts. However, the agent you want to interact with may be in the middle of a conversation with another agent. , Can be switched at any timing. At that time, naturally, the scenario set for the utterance is also switched. However, even if the user changes the agent, the utterance (dialogue) may be continued in the same scenario set as before the change.

ただし、この実施例とは異なり、エージェント表示部32に表示されたエージェントA‐Dの内の所望のエージェントにタッチするだけでエージェントを選択できるようにすることも考えられる。しかしながら、その方法では誤タッチによる誤選択の可能性が高くなる。これに対して、実施例のように所望のエージェント画像をドラッグ領域38にドラッグすることによってエージェントを選択する方法では、エージェント画像にタッチオンし、タッチオンのままドラッグし、さらに領域38でタッチオフするという段階的な動作が要求されるので、誤選択の可能性を可及的減じることができるだけでなく、ユーザに対して自己の選択を十分意識してもらうことができる。たとえば、間違った選択を途中の段階で止めることができる。   However, unlike this embodiment, it may be possible to select an agent by simply touching a desired agent among the agents AD displayed on the agent display unit 32. However, this method increases the possibility of erroneous selection due to erroneous touch. In contrast, in the method of selecting an agent by dragging a desired agent image to the drag region 38 as in the embodiment, the agent image is touched on, dragged while being touched on, and then touched off in the region 38. Therefore, not only can the possibility of erroneous selection be reduced as much as possible, but also the user can be fully aware of his / her selection. For example, the wrong selection can be stopped at an intermediate stage.

なお、図3に示す画面30における吹き出し40の中の文言や、選択肢ボタン42a、42bの内容は、すべて、図1に示すダイアログサーバ26がシナリオデータベース28から読み出して、チャットサーバ20からユーザ端末14に送信した結果として表示されるのである。   3 is read from the scenario database 28 by the dialog server 26 shown in FIG. 1 and the user terminal 14 is read from the chat server 20 by the dialog server 26 shown in FIG. It is displayed as a result of sending to.

このため、マッチングサイト12のシナリオデータベース28は、エージェントA‐Dの各々のためのシナリオセット(一連のシナリオ)を予め記憶し、さらには各選択肢ボタン42に対応したシナリオをそれらの中に含んでいる。したがって、エージェント36すなわち、ユーザがどのような選択肢ボタンを選択しても、マッチングサイト12からは的確な応答が行われるのである。   For this reason, the scenario database 28 of the matching site 12 stores in advance a scenario set (a series of scenarios) for each of the agents AD, and further includes a scenario corresponding to each option button 42 therein. Yes. Therefore, the agent 36, that is, the user selects any option button, an appropriate response is made from the matching site 12.

御用聞きエージェントの対話は、支援を依頼する窓口としてのタスク対話と、コミュニケーション相手として高齢者等ユーザを楽しませる非タスク対話の2つに大きく分けられる。そして、これらを適切に使い分けるために、まずユーザの要望を確認する必要がある。また、潜在的なサービス利用を促進するために、非タスク対話から、タスク対話へ自然に誘導するようなシナリオも有用であると考えられる。   Interview agent dialogues can be broadly divided into two types: task dialogues as a window for requesting support and non-task dialogues that entertain users such as elderly people as communication partners. And in order to use these appropriately, it is necessary to confirm a user's request first. Also, in order to promote the use of potential services, scenarios that naturally lead to non-task dialogues to task dialogues are also considered useful.

そこで、実施例では、図1のシナリオデータベース28に記憶する対話シナリオを「開始シナリオ」、「タスクシナリオ」、「非タスクシナリオ」および「誘導シナリオ」の4つに分類し、目的に応じて使い分けを行うこととした。   Therefore, in the embodiment, the dialogue scenarios stored in the scenario database 28 in FIG. 1 are classified into four categories, “start scenario”, “task scenario”, “non-task scenario”, and “guide scenario”, and are used properly according to the purpose. It was decided to do.

開始シナリオは、対話の開始時に実行するシナリオで、簡単な挨拶と用件の確認を行い、分岐するシナリオを決定する。たとえば「買い物をお願いしたい」、「お話がしたい」という選択肢ボタンを提示し、その選択肢に応じて、支援を依頼するタスクシナリオか、雑談を行う非タスクシナリオまたは誘導シナリオに分岐する。   The start scenario is a scenario that is executed at the start of a conversation. A simple greeting and confirmation of a message are performed, and a scenario to be branched is determined. For example, option buttons “I want to ask for shopping” and “I want to talk” are presented, and the task branches to a task scenario for requesting support, a non-task scenario or a guidance scenario for chatting, depending on the option.

タスクシナリオは、支援依頼を行うためのシナリオで、依頼に必要な最低限の用件を確認し、支援者に通知を行う。たとえば、買い物の支援であれば、「食料品」、「日用品」、「医療品」、「それ以外」という選択肢ボタンを提示し、選択された内容に応じて対応可能な支援者に通知を行う。   The task scenario is a scenario for requesting support, confirming the minimum requirements necessary for the request, and notifying the supporter. For example, in the case of shopping support, option buttons such as “groceries”, “daily necessities”, “medical supplies”, and “others” are presented, and a supporter who can respond according to the selected content is notified. .

実施例の御用聞きシステム10が想定する地域包括ケアシステムおいては、支援者はユーザと同じ地域に住む有志であり、必ずしもユーザの要望に応えられるとは限らない。そのため、御用聞きエージェントとの対話では担当者の割り当てや優先度の決定に必要な情報を聞き出すことにとどめ、依頼の詳細や対応の可否は支援者が改めてユーザに確認し決定する。たとえば、支援者(業者)から直接ユーザに電話するなどして、ユーザが欲する支援を確定する。   In the regional comprehensive care system assumed by the listening system 10 of the embodiment, the supporter is a volunteer who lives in the same area as the user, and does not always meet the user's request. For this reason, in the dialogue with the listening agent, only the information necessary for assigning the person in charge and determining the priority is heard, and the details of the request and the availability of the response are confirmed again by the supporter and determined by the user. For example, the support desired by the user is determined by calling the user directly from the supporter (trader).

非タスクシナリオは、ユーザと御用聞きエージェントの間に信頼関係を築くためのシナリオで、支援サービスとは関係のない雑談を行う。たとえば、ユーザの体調を心配するような対話や、御用聞きエージェントの愚痴をユーザが聞いてあげるなど、御用聞きエージェントの人となりが伝わるような対話を行う。   The non-task scenario is a scenario for establishing a trust relationship between the user and the interview agent, and performs a chat that is not related to the support service. For example, the dialogue that conveys the person of the listening agent is conducted, for example, the dialogue that worries about the physical condition of the user, or the user asks the complaint of the listening agent.

誘導シナリオは、支援サービスの利用を奨めるためのシナリオで、雑談を通してユーザの困りごとを聞き出し、必要であれば支援サービスの利用を案内する。たとえば、「お買い物で困っていることありますか?」という質問を行い、ユーザが困っているようであれば「代わりに買ってきてもらうこともできますよ」という応答を返す。もし、その場でユーザが支援サービスの利用を望むのであれば、タスクシナリオに移行して支援者に通知を行う。   The guidance scenario is a scenario for encouraging the use of the support service. The user's trouble is heard through chat, and if necessary, the use of the support service is guided. For example, a question “Do you have a problem with shopping?” Is returned, and if the user is in trouble, a response “You can buy it instead” is returned. If the user desires to use the support service on the spot, the task scenario is transferred to notify the supporter.

実施例のシステムが採用する選択肢ボタン42を利用する選択式対話では、ユーザは提示された選択肢の中から自分の考えに近いものを選択することになる。そのため、選択肢の提示方法やエージェントの発話を適切に設計することで、ユーザの発話を誘導することが可能であると考える。ユーザの発話を誘導するための具体的な方法を以下に提案する。   In the selection-type dialogue using the option button 42 adopted by the system of the embodiment, the user selects one close to his / her idea from the presented options. Therefore, it is considered that the user's utterance can be induced by appropriately designing the option presentation method and the agent's utterance. A specific method for guiding the user's utterance is proposed below.

一方が自己に関する深い情報を打ち明けることで、他方も同程度に深い情報を開示することが知られている(自己開示の返報性)。プライバシに関わる話をすることはユーザにとって抵抗感があるが、御用聞きエージェントが自身の悩みを先に話題にすることで、ユーザの困りごとを抵抗なくの聞き出せると考える。   It is known that one side can disclose deep information about the self and the other side can disclose the same level of deep information (returnability of self-disclosure). Talking about privacy has a sense of resistance for the user, but it is thought that the listening agent can talk about the user's troubles without resistance by talking about his concerns first.

同義の選択肢を複数提示することで、シナリオの展開が単一であっても、ユーザ自身で意思決定した感覚を与えられると考える。たとえば、支援者からの連絡する旨の了承を得たい場合は、「あとでお電話するけどいいですか?」という発話に対して「ありがとう」と「よろしくね」という発話を提示する。   By presenting a plurality of synonymous choices, even if there is only one scenario development, it is possible to give the user a sense of decision making. For example, if you want to get an approval from the supporter, please say “Thank you” and “Let me know” for the utterance “Can I call you later?”

曖昧な選択肢提示された発話の中でユーザの考えに一致するものがなければ、ユーザは選択をためらう。そこで、一度選択を回避できる機会を設けることで、提示された選択肢の範囲で返答を再考する余裕を与えることができると考える。たとえば、買い物で困っているかどうか問いたい場合に、「困っている」、「困っていない」に加え「うーん…」のようなどちらも選ばない発話を併せて提示する。どちらも選ばない発話が選択された場合は、「実は困っている」、「困ってはいないかな」のような発話を提示し、再度質問を行う。   If none of the utterances presented with ambiguous choices matches the user's idea, the user hesitates to make a choice. Therefore, by providing an opportunity to avoid the selection once, it is possible to give a margin for reconsidering the response within the range of the presented options. For example, when you want to ask if you are having trouble with shopping, you can also present utterances that do not select either “I'm in trouble” or “I'm not in trouble”, such as “Hmm…”. If an utterance that does not select either is selected, an utterance such as “I am really in trouble” or “I am not in trouble” is presented and a question is asked again.

シナリオに関して、さらに、対話感を増す次のような工夫が考えられてもよい。   Regarding the scenario, the following devices that further increase the feeling of dialogue may be considered.

ユーザと御用聞きエージェントの関係を深めるためには、実際にエージェントと対話しているような印象を与えることが重要であると考える。そのための方法を以下に提案する。   In order to deepen the relationship between the user and the listening agent, it is important to give the impression that the user is actually interacting with the agent. A method for this is proposed below.

エージェントがユーザの名前を呼ぶことでユーザ自身に話しかけられている印象を与えることができると考える。ユーザは自身の名前を利用開始時に登録し、エージェントはその名前を発話に埋め込んでユーザに呼びかける。   I think that an agent can give an impression of speaking to the user himself by calling the user's name. The user registers his name at the start of use, and the agent embeds the name in the utterance and calls the user.

感情を表現する相手への好意や自身の感情を表現し合うことで、ユーザと御用聞きエージェントの親近感を深めることができると考える。たとえば、「xxxさんは元気そうだから」や「xxxさんとお話しできて嬉しい」のようなユーザに対する印象をエージェントが発話する。また、ユーザの選択肢として「私も嬉しい」のような発話を提示することで、曖昧に感じている感情を明確に意識させることができると考える。   I think that it is possible to deepen the familiarity between the user and the agent who listens by expressing favors to the other person expressing emotions and expressing their own feelings. For example, an agent utters an impression on a user such as “Because xxx looks fine” or “I am happy to talk with xxx”. Also, by presenting utterances such as “I am happy” as a user's choice, I think that it is possible to clearly make people feel ambiguous feelings.

心的状態を表現する「あのー」や「えーと」のようなフィラーは、発話のために言葉を選んだり、思いをめぐらせたりしているなどの心的状態を表し、話し相手に後続の発話を予測させる。エージェントの発話にフィラーを付与することで、エージェントがユーザに配慮しながら対話しているという印象を与えることができると考える。   Fillers such as “Ano” and “Ut” that express the mental state indicate a mental state such as choosing a word for utterance or thinking about it. Let it be predicted. By adding a filler to the utterance of the agent, we can give the impression that the agent is interacting with the user in mind.

エージェントが言葉に詰まったり、言い間違えたりすることで、ユーザがエージェントに対して親しみや共感を抱くと考える。たとえば、電話をかける旨を伝える際、「電話… お電話しますね」のように、言葉を選んで言いなおす。   It is thought that the user feels friendly and sympathetic to the agent when the agent is clogged up in words or mistaken. For example, when telling that you want to make a call, choose a word and say it again, such as "Telephone ... I'll call you."

ここで、図4を参照して、システム10すなわちマッチングサイト12における動作を説明する。ただし、マッチングサイト12においては、既に説明したように、チャットサーバ22およびダイアログサーバ26が協働してユーザ(ユーザ端末14)との対話を進行する。   Here, with reference to FIG. 4, the operation in the system 10, that is, the matching site 12, will be described. However, in the matching site 12, as already described, the chat server 22 and the dialog server 26 cooperate to advance a dialog with the user (user terminal 14).

最初のステップS1は、ユーザ端末14からチャットサーバ20へのアクセス(ログイン)があったときに開始される。ユーザ認証はよく知られているように、ログインパスワードなどをユーザ端末から入力することで実行される。ただし、ユーザ認証を通過しなければ、次のステップS3には進めない。   The first step S1 is started when there is an access (login) from the user terminal 14 to the chat server 20. As is well known, user authentication is executed by inputting a login password or the like from a user terminal. However, if the user authentication is not passed, the process cannot proceed to the next step S3.

ユーザ認証を通過したステップS3では、チャットサーバ20は、複数のエージェントを一覧できるエージェント一覧をユーザ端末14のエージェント表示部32(図2)に表示させる。このとき、チャットデータベース24には、エージェントの名前やエージェントのシナリオIDが、エージェント毎に記憶される。ステップS3は、ユーザ端末の画面に少なくとも2体のエージェントを示すエージェントを一覧表示するエージェント一覧表示部として機能する。このエージェント一覧表示部は、実施例では各エージェント画像を表示するが、たとえば名称や愛称のような文字だけで表示することも可能であろう。このようなエージェント画像や名称、愛称などは、それぞれのエージェントを個別に識別することができる、エージェント記号ということができる。   In step S3 after passing the user authentication, the chat server 20 displays an agent list capable of listing a plurality of agents on the agent display unit 32 (FIG. 2) of the user terminal 14. At this time, the name of the agent and the scenario ID of the agent are stored in the chat database 24 for each agent. Step S3 functions as an agent list display unit that displays a list of agents indicating at least two agents on the screen of the user terminal. The agent list display unit displays each agent image in the embodiment, but it may be possible to display only the characters such as names and nicknames. Such agent images, names, nicknames, and the like can be referred to as agent symbols that can identify each agent individually.

なお、このときユーザアバタ36も作動部34に表示されるが、その画像データは、ユーザ認証後、チャットサーバ20に予め登録しているユーザのアバタをチャットサーバ20からユーザ端末14に送信することによって表示させる。しかしながら、ログインの都度チャットサーバ20からユーザ端末14へ画像を送信するのは無駄なので、1度受信した画像をユーザ端末14内のメモリ(図示せず)に記憶しておき、ログインの成功と共にそれを作動部34に表示するようにしてもよい。   At this time, the user avatar 36 is also displayed on the operating unit 34, but the image data is transmitted from the chat server 20 to the user terminal 14 from the chat server 20 after the user authentication. To display. However, since it is useless to send an image from the chat server 20 to the user terminal 14 every time the user logs in, the image received once is stored in a memory (not shown) in the user terminal 14 and is displayed along with the successful login. May be displayed on the operating unit 34.

次のステップS5において、先に説明したような方法で、エージェント表示部32からどれか1体のエージェントを選択して、ドラッグ領域38(図2)にドラッグしたかどうか、つまり、ユーザ端末14上でエージェントが選択されたかどうか判断する。ユーザ端末14が選択したエージェントを示す信号がユーザ端末1からチャットサーバ20に入力されるので、チャットサーバ20はユーザ端末14においてどのエージェントが選択されたのかを知ることができる。ステップS5は、エージェント一覧表示部に表示されたエージェントのどれかをユーザが選択したことを判別する選択判別部として機能する。   In the next step S5, whether any one agent has been selected from the agent display unit 32 and dragged to the drag area 38 (FIG. 2) by the method described above, that is, on the user terminal 14. To determine whether an agent is selected. Since the signal indicating the agent selected by the user terminal 14 is input from the user terminal 1 to the chat server 20, the chat server 20 can know which agent has been selected on the user terminal 14. Step S5 functions as a selection determination unit that determines that the user has selected any of the agents displayed on the agent list display unit.

チャットサーバ20はユーザ端末14で選択したエージェントがどれかを、ダイアログキュー22に書き込むことによって、ユーザがどのエージェントを選択したかをダイアログサーバ26に伝え、当該エージェントのためのシナリオの起動を要請する。   The chat server 20 writes to the dialog queue 22 which agent has been selected by the user terminal 14, thereby informing the dialog server 26 which agent has been selected by the user, and requests to start a scenario for the agent. .

ダイアログサーバ26は、ステップS7で、該当のシナリオIDのシナリオセットをシナリオデータベース28から読み出してダイアログキュー22に最初の発話文を送信する。このとき、先に説明したように、必要に応じて、ダイアログサーバ26は、チャットチャットサーバ20に、発言の内容(文言)、発話の番号、エージェントの番号、さらには選択肢ボタンの内容とその番号などを送信する。   In step S <b> 7, the dialog server 26 reads the scenario set of the corresponding scenario ID from the scenario database 28 and transmits the first utterance sentence to the dialog queue 22. At this time, as described above, the dialog server 26 sends chat contents (words), utterance numbers, agent numbers, and selection button contents and numbers to the chat chat server 20 as necessary. Send etc.

ステップS5で“YES”が判断されたとき、たとえば図3に示すように、ユーザによって選択されたエージェントが、ユーザを表すアバタ36と向かい合うように表示される。したがって、ステップS5はまたエージェント表示部として機能する。   When “YES” is determined in the step S5, for example, as shown in FIG. 3, the agent selected by the user is displayed so as to face the avatar 36 representing the user. Therefore, step S5 also functions as an agent display unit.

その後、ステップS9以降において、作動部34(図2)に呼び出されたエージェントがそのシナリオに沿った会話を出力するとともに、必要なとき、ステップS11において、たとえば図3に示したような選択肢ボタン42を表示する。会話を出力する際には、図3に示すような吹き出し40の中に文言を表示するだけでなく、文章データを使用して、ユーザ端末14のスピーカ(図示せず)から音声として出力する。それによって、ユーザはエージェントの発話の内容を一層確実には把握できるようになる。ここで、ステップS9などが、拡大表示されたエージェントを、所定のシナリオに従って発話させる発話部として機能する。さらに、ステップS11は、ユーザアバタ36が選択すべき選択肢ボタン42を表示するので、選択肢表示部として機能する。   Thereafter, in step S9 and subsequent steps, the agent called by the operating unit 34 (FIG. 2) outputs a conversation according to the scenario. When necessary, in step S11, for example, an option button 42 as shown in FIG. Is displayed. When the conversation is output, not only the wording is displayed in the balloon 40 as shown in FIG. 3, but also the text data is used to output as a voice from the speaker (not shown) of the user terminal 14. Thereby, the user can grasp the contents of the utterance of the agent more surely. Here, step S9 and the like function as an utterance unit that utters the enlarged agent according to a predetermined scenario. Furthermore, since step S11 displays the option button 42 which the user avatar 36 should select, it functions as an option display part.

ステップS13でどれかの選択肢ボタンが選択されると、その情報がチャットサーバ20に送信され、チャットサーバ20はダイアログキュー22にその情報を書き込む。ただし、ステップS13では、先に説明したように、ユーザ端末14のタッチスクリーンでのタッチ座標が該当の選択肢ボタンの表示範囲内にあるかどうかを判断する。   When any option button is selected in step S13, the information is transmitted to the chat server 20, and the chat server 20 writes the information in the dialog queue 22. However, in step S13, as described above, it is determined whether or not the touch coordinates on the touch screen of the user terminal 14 are within the display range of the corresponding option button.

ステップS13でユーザがどれかの選択肢ボタンを選択すると、応じて、ダイアログサーバ26は、シナリオデータベース28からユーザがそのとき選んだ選択肢ボタンの内容に従ったシナリオを取り出し、ダイアログキュー22に書き込む。したがって、チャットサーバ20はそのシナリオに基づいて、エージェントに発話させる(ステップS15)。   When the user selects any option button in step S13, the dialog server 26 extracts a scenario according to the content of the option button selected by the user from the scenario database 28 and writes it in the dialog queue 22. Therefore, the chat server 20 causes the agent to speak based on the scenario (step S15).

ただし、ステップS13でどれかの選択肢ボタンを選択したとき、その選択肢ボタンが選択されたことを示すように選択肢ボタンの表示(の態様)を変更するだけでなく、選択肢ボタン中の文言に従ってユーザ端末14のスピーカから音声として出力する。ユーザが選択した選択肢ボタンがどれかをユーザが容易に理解できるようになる。   However, when any option button is selected in step S13, not only the display of the option button is changed to indicate that the option button has been selected, but also the user terminal according to the wording in the option button. The sound is output from 14 speakers. The user can easily understand which option button the user has selected.

続くステップS17で、シナリオセットが終了したかどうかダイアログキュー22を見て、チャットサーバ20が判断する。“NO”なら、先のステップS11に戻り、ステップS11以降を繰り返す。“YES”ならそのまま終了する。   In subsequent step S17, the chat server 20 determines whether or not the scenario set has been completed by looking at the dialog queue 22. If "NO", the process returns to the previous step S11, and the steps after step S11 are repeated. If “YES”, the process ends.

なお、先のステップS13で“NO”を判断したとき、チャットサーバ20は、ステップS19において、エージェントが同じ文章の発話を繰り返しているかどうか判断する。たとえば、3回以上同じ発話をエージェントが出力したとき、このステップS19で“YES”を判断し、その場合には処理を終了する。“NO”なら、ステップS13に戻る。   When “NO” is determined in the previous step S13, the chat server 20 determines whether or not the agent repeats the utterance of the same sentence in step S19. For example, when the agent outputs the same utterance three times or more, “YES” is determined in this step S19, and in this case, the process is terminated. If “NO”, the process returns to step S13.

なお、ステップS13などにおける選択肢ボタン42の選択が、何かを業者に注文することを示す選択肢であるときには、たとえば図1に示す業者端末18に対してマッチングサイト12から指示を出し、業者端末18がたとえば図5に示すような注文書50をユーザ端末14に送信するようにしてもよい。この注文書は一例として、弁当を注文するための注文書であるが、たとえばユーザIDを記入するID記入欄52や注文数を記入する注文数記入欄54などを設けている。ただし、ID記入欄52は、は業者端末18からユーザ端末14に送信するときに記入済みの状態であってもよい。また、このID記入欄52には、ユーザIDだけでなく、ユーザの氏名を併記するようにしてもよい。そうすれば、ユーザが自分のための注文書であることを容易に確認することができる。   When the selection of the option button 42 in step S13 or the like is an option indicating that something is ordered from the supplier, for example, an instruction is issued from the matching site 12 to the supplier terminal 18 shown in FIG. However, for example, an order form 50 as shown in FIG. 5 may be transmitted to the user terminal 14. As an example, this order form is an order form for ordering a lunch box, and, for example, an ID entry field 52 for entering a user ID and an order number entry field 54 for entering the number of orders are provided. However, the ID entry field 52 may be in an already filled state when transmitted from the trader terminal 18 to the user terminal 14. Further, in this ID entry field 52, not only the user ID but also the user's name may be written. Then, it can be easily confirmed that the user is the order form for himself.

図4を参照して上で図1実施例の代表的な動作を説明したが、以下には、様々な動作例をユーザ端末14の画面遷移とともに説明する。   The typical operation of the embodiment of FIG. 1 has been described above with reference to FIG. 4, but various operation examples will be described below together with the screen transition of the user terminal 14.

図6に示す動作例では、ユーザ端末14の画面30の作動部34に、ユーザが選択した主たるエージェントAとは別の追加的なまたは補助的なエージェントBが登場する。   In the operation example illustrated in FIG. 6, an additional or auxiliary agent B different from the main agent A selected by the user appears in the operation unit 34 of the screen 30 of the user terminal 14.

ステップS20で、図4のステップS3、S5のようにしてエージェントAを選択すると、ステップS21では、チャットサーバ20およびダイアログサーバ26が、そのエージェントAからエージェントAのためのシナリオAAのデータから会話を出力させる。その後、ステップS22で、作動部34に、ユーザの選択に拠らず、チャットサーバ20およびダイアログサーバ26がエージェントBを登場させる。つまり、図7(A)に示すように作動部34にエージェントAがユーザアバタ36と一緒に表示されている状態で、図7(B)に示すように、エージェントBが、エージェントAの近くに、エージェントAよりは小さい大きさで、表示される。このとき、チャットサーバ20およびダイアログサーバ26は、ユーザはエージェントAと対話中であったので、エージェントBが、エージェントAのためのシナリオAAのデータから会話を出力するようにさせる。ステップS22は、主エージェントと一緒に追加的または補助的エージェントを表示させるための追加エージェント表示部として機能する。   When agent A is selected in step S20 as in steps S3 and S5 of FIG. 4, in step S21, chat server 20 and dialog server 26 have a conversation from the data of scenario AA for agent A to agent A. Output. Thereafter, in step S22, the chat server 20 and the dialog server 26 cause the agent B to appear in the operating unit 34 regardless of the user's selection. That is, in the state where the agent A is displayed together with the user avatar 36 on the operation unit 34 as shown in FIG. 7A, the agent B is close to the agent A as shown in FIG. , The size is smaller than that of Agent A. At this time, the chat server 20 and the dialog server 26 cause the agent B to output a conversation from the data of the scenario AA for the agent A because the user is interacting with the agent A. Step S22 functions as an additional agent display unit for displaying an additional or auxiliary agent together with the main agent.

図6のように、エージェントAの他にエージェントBを同じ作動部34に表示し、同じシナリオセットに基づいて発話するようにすると、たとえばエージェントAとエージェントBが直接会話することができる。2体のエージェントが直接会話することによって、その会話を通してユーザに特定の商品やサービスの利点などを間接的に認識させたり、ユーザを2人がかりで説得したりするなどができる。さらに2体のエージェントが協働してユーザの相談にのるような場面を演出することができる。   As shown in FIG. 6, in addition to agent A, agent B is displayed on the same operation unit 34, and speaking is performed based on the same scenario set, for example, agent A and agent B can talk directly. By having two agents talk directly, the user can indirectly recognize the advantages of a specific product or service through the conversation, or persuade the user by two people. Furthermore, it is possible to produce a scene in which two agents collaborate to consult the user.

図7のように別のエージェントを補助的に作動部34に登場させる方法の他の例が、図8に示される。図8のステップS30、S31は、図6のステップS20、S21と同じである。   FIG. 8 shows another example of a method for causing another agent to appear on the operating unit 34 as shown in FIG. Steps S30 and S31 in FIG. 8 are the same as steps S20 and S21 in FIG.

次のステップS32では、エージェントAがシナリオAAのデータに基づいて、図3に示すような選択肢ボタン42を表示する。その選択肢ボタンのなかに、エージェントBを登場させる選択肢ボタンがありかつユーザがその選択肢ボタンを選択したかどうか、ステップS33で判断する。このステップS33での判断は、たとえば図4のステップS13と同様の判断である。   In the next step S32, the agent A displays a selection button 42 as shown in FIG. 3 based on the data of the scenario AA. In step S33, it is determined whether there is an option button for causing agent B to appear in the option buttons and whether the user has selected the option button. The determination in step S33 is, for example, the same determination as in step S13 in FIG.

ステップS33で“YES”を判断すると、チャットサーバ20およびダイアログサーバ26は、ステップS34において、先の図7(B)に示すように、ユーザ端末14の作動部34に、エージェントAに加えて、ユーザが登場を容認したエージェントBが表示させる。そして、そのエージェントBは、エージェントAのためのシナリオAAのデータに従って、続きの会話を出力する。この場合も、先の図6の実施例と同様に、エージェントAのためのシナリオAAに設定されたデータに従ってエージェントBが発話するので、エージェントBがエージェントAの発話を補強したり、エージェントAを援護したりすることができる。ここでは、ステップS34が、主エージェントと一緒に追加的または補助的エージェントを表示させるための追加エージェント表示部として機能する。   If “YES” is determined in step S33, the chat server 20 and the dialog server 26 add the agent A to the operating unit 34 of the user terminal 14 in step S34, as shown in FIG. The agent B that the user has accepted is displayed. Then, the agent B outputs a subsequent conversation according to the data of the scenario AA for the agent A. Also in this case, since the agent B speaks according to the data set in the scenario AA for the agent A as in the previous embodiment of FIG. 6, the agent B reinforces the utterance of the agent A, You can help. Here, step S34 functions as an additional agent display unit for displaying an additional or auxiliary agent together with the main agent.

図6‐図8の動作例は、作動部34に少なくとも2体のエージェントを同時に表示させることによって、それらエージェントのコラボレーション(協働、協調)を期待することができる。   In the operation examples of FIGS. 6 to 8, at least two agents are displayed on the operation unit 34 at the same time, so that collaboration (cooperation) of these agents can be expected.

これに対して、図9‐図11に示す動作例では、作動部34に少なくとも2体のエージェントを同時に表示させるが、その後補助的に表示したエージェントを作動部34から退場させる。それによって、最終的には主たるエージェントとユーザの対話を継続させて、結論を導くようにする。   On the other hand, in the operation example shown in FIGS. 9 to 11, at least two agents are simultaneously displayed on the actuating unit 34, but then the auxiliary displayed agents are exited from the actuating unit 34. As a result, the dialogue between the main agent and the user is continued and a conclusion is drawn.

図9のステップS40‐S43は、図6のステップS20‐S23と同じであり、ステップS43の時点で、図7(A)、図7(B)と同じように、図10(A)、図10(B)に示すように、作動部34には主たるエージェントAに加えて、追加エージェントBが登場している。ここでは、ステップS43が、主エージェントと一緒に追加的または補助的エージェントを表示させるための追加エージェント表示部として機能する。   Steps S40 to S43 in FIG. 9 are the same as steps S20 to S23 in FIG. 6, and at the time of step S43, as in FIGS. 7A and 7B, FIG. 10A and FIG. As shown in FIG. 10 (B), in addition to the main agent A, an additional agent B appears in the operating unit 34. Here, step S43 functions as an additional agent display unit for displaying an additional or auxiliary agent together with the main agent.

その後、図8のステップS32、S33に類似して、次のステップS44では、エージェントAがシナリオAAのデータに基づいて、選択肢ボタン42(図3)を表示する。その選択肢ボタンのなかに、エージェントBを退場させる選択肢ボタンがありかつユーザがその選択肢ボタンを選択したかどうか、ステップS45で判断する。このステップS45での判断は、たとえば図4のステップS13と同様の判断である。   Thereafter, similar to steps S32 and S33 of FIG. 8, in the next step S44, the agent A displays the option button 42 (FIG. 3) based on the data of the scenario AA. It is determined in step S45 whether or not there is an option button for leaving Agent B and the user has selected the option button. The determination in step S45 is, for example, the same determination as in step S13 of FIG.

ステップS45で“YES”を判断したとき、ステップS46において、チャットサーバ20およびダイアログサーバ26は、ユーザ端末14の画面30の作動部34からエージェントBを退場(消去)させる。その状態が図11に示される。つまり、図10(B)ではエージェントBが表示されていたのに対して、図11ではエージェントBが退場させられている。したがって、ステップS46が、追加的または補助的エージェントを退場させるための追加エージェント退場部として機能する。   When “YES” is determined in step S45, in step S46, the chat server 20 and the dialog server 26 leave (erase) Agent B from the operating unit 34 of the screen 30 of the user terminal 14. The state is shown in FIG. That is, agent B is displayed in FIG. 11B, whereas agent B is displayed in FIG. Therefore, step S46 functions as an additional agent leaving section for leaving additional or auxiliary agents.

その後、ステップS47以降では、エージェントAがシナリオAAに基づいてユーザとの対話を継続する。ステップS45で“NO”が判断されたときにも、同様に、ステップS48で、エージェントAがシナリオAAに基づいてユーザとの対話を継続する。   Thereafter, in step S47 and thereafter, agent A continues the dialog with the user based on scenario AA. Similarly, when “NO” is determined in the step S45, the agent A continues the dialogue with the user based on the scenario AA in a step S48.

この動作例では、エージェントBが途中エージェントAと一緒に登場し、その後はエージェントAだけが残ることになる。   In this operation example, agent B appears along with agent A on the way, and only agent A remains thereafter.

これに対して、図12に示す動作例では、途中からエージェントAに代わってエージェントBが主たるエージェントの役目を果たす動作例である。   On the other hand, the operation example shown in FIG. 12 is an operation example in which agent B serves as the main agent in place of agent A in the middle.

つまり、図12のステップS50‐S53は、図9のステップS40‐S43と同様であり、その結果、ステップS53の段階では、図10(B)に示すように、作動部34にはエージェントAとエージェントBが同時に表示されている。ここでは、ステップS53が、主エージェントと一緒に追加的または補助的エージェントを表示させるための追加エージェント表示部として機能する。   That is, Steps S50 to S53 in FIG. 12 are the same as Steps S40 to S43 in FIG. 9. As a result, in the stage of Step S53, as shown in FIG. Agent B is displayed at the same time. Here, step S53 functions as an additional agent display unit for displaying an additional or auxiliary agent together with the main agent.

その後、エージェントBによって、エージェントAを退場させる選択肢ボタンを表示させ(ステップS54)、ユーザがその選択肢ボタンを選択したかどうか判断する(ステップS55)。そのステップS55で“YES”が判断されると、図9のステップS46とは逆に、ステップS56でエージェントAが退場(非表示と)される。   Thereafter, the agent B displays an option button for leaving the agent A (step S54), and determines whether the user has selected the option button (step S55). If “YES” is determined in the step S55, the agent A is left (not displayed) in a step S56, contrary to the step S46 of FIG.

ステップS57では、チャットサーバ20およびダイアログサーバ26は、図11において、作動部34のエージェントAが表示されていた位置に、エージェントBを表示させる。つまり、主エージェントをAからBに変更する。したがって、その後のステップS58以降では、エージェントBがエージェントAのためのシナリオAAに沿って発話(対話)を継続する。したがって、ステップS58が、主エージェントを交代させるためのエージェント交代部として機能する。   In step S57, the chat server 20 and the dialog server 26 display the agent B at the position where the agent A of the operating unit 34 was displayed in FIG. That is, the main agent is changed from A to B. Accordingly, in the subsequent step S58, the agent B continues the utterance (conversation) along the scenario AA for the agent A. Therefore, step S58 functions as an agent changing unit for changing the main agent.

ただし、ステップS55で“NO”が判断されたときには、ステップS59で、エージェントAがシナリオAAに基づいてユーザとの対話を継続することになる。   However, if “NO” is determined in the step S55, the agent A continues the dialog with the user based on the scenario AA in a step S59.

図13および図14に示す動作例は、ユーザの意思でエージェントを変更するときの動作例である。   The operation examples shown in FIGS. 13 and 14 are operation examples when the agent is changed at the user's will.

図13のステップS60およびS61は、たとえば図6のステップS20およびS21と同じである。つまり、ユーザ端末14の作動部34には、たとえば図14(A)に示すように、エージェントAが登場し、エージェントAとユーザ(ユーザアバタ36)とが対話している。   Steps S60 and S61 in FIG. 13 are the same as steps S20 and S21 in FIG. 6, for example. That is, for example, as shown in FIG. 14A, the agent A appears in the operation unit 34 of the user terminal 14, and the agent A and the user (user avatar 36) interact with each other.

そして、ステップS62で、チャットサーバ20およびダイアログサーバ26は、ユーザ端末14上において、ユーザがエージェント表示部32(図3)に表示されている別のエージェント、たとえばエージェントBをドラッグ領域38にドロップさせたかどうか判断する。つまり、ユーザが意思を持って、エージェントの変更を指示したかどうか判断する。   In step S62, the chat server 20 and the dialog server 26 cause the user to drop another agent, for example, agent B, displayed on the agent display unit 32 (FIG. 3) onto the drag area 38 on the user terminal 14. Judge whether or not. That is, it is determined whether the user has instructed to change the agent.

ステップS62で“YES”なら、図14(B)に示すようにエージェントBだけが作動部34に表示される。つまり、エージェントがAからBへ変更される。したがって、ステップS63以降においては、エージェントBがエージェントBのためのシナリオBBに従って会話を出力する。   If “YES” in the step S62, only the agent B is displayed on the operation unit 34 as shown in FIG. That is, the agent is changed from A to B. Therefore, after step S63, agent B outputs a conversation according to scenario BB for agent B.

詳しくいうと、ステップS62においては、チャットサーバ20は、ユーザの一連のタッチ操作から作動部34に表示されるエージェントが変更されたことを検出することができる。このようなエージェントの変更がチャットサーバ20によってイアログキュー22に書き込まれると、ステップS63において、ダイアログサーバ26は変更後のエージェントBのためのシナリオセットBBをシナリオデータベース28から読み出して、デイアログキュー22に書き込む。つまり、ステップS62におけるチッャトサーバ20が、エージェント変更判断部として機能し、ステップS63におけるダイアログサーバ26が、そのようなエージェント変更に対応してシナリオを変更するシナリオ変更部として機能する。   Specifically, in step S62, the chat server 20 can detect that the agent displayed on the operating unit 34 has been changed from a series of user touch operations. When such a change of the agent is written to the dialog queue 22 by the chat server 20, the dialog server 26 reads the scenario set BB for the changed agent B from the scenario database 28 in step S63, and the dialog queue 22 Write to. That is, the chat server 20 in step S62 functions as an agent change determination unit, and the dialog server 26 in step S63 functions as a scenario change unit that changes a scenario in response to such an agent change.

ステップS62で“NO”なら、エージェントの交代はなく、ステップS64以降において、エージェントAがエージェントAのためのシナリオAAに従って会話を継続する。   If “NO” in the step S62, the agent is not changed, and the agent A continues the conversation according to the scenario AA for the agent A in the step S64 and thereafter.

その動作例によれば、任意のタイミングで、ユーザの意思によって、対話するエージェントを変更できる。しかも、変更後のエージェントはそのエージェントのためのシナリオで対話するので、先のエージェントとは異なる問題解決の方法が期待できる。   According to the operation example, the agent to interact with can be changed at an arbitrary timing according to the intention of the user. Moreover, since the changed agent interacts with the scenario for that agent, a problem solving method different from the previous agent can be expected.

発明者等の実験では、このようなユーザの任意変更の可能性は被験者にとって好評であり、特に「話したい相手を自分で選べるのがよかった」という評価があった。   In the experiment by the inventors, the possibility of such arbitrary change of the user was well received by the test subject, and in particular, there was an evaluation that “It was good to be able to choose the person whom he / she wants to talk to”.

図4などのフローチャートは、基本的には、チヤットサーバ20および/またはダイアログサーバ26のメモリ(図示せず)にプログラムとして予め設定されるものであり、これらのメモリがプログラムの記憶媒体の一例である。   4 and the like are basically preset as programs in a memory (not shown) of the chat server 20 and / or the dialog server 26, and these memories are an example of a program storage medium. is there.

ただし、チャットサーバ20およびダイアログサーバ26は、上述のように機能別に作業を分担する。すなわち、チャットサーバ20がユーザ(ユーザ端末14)とのチャットを管理、制御するのに対して、ダイアログサーバ26はそのチャットの内容を管理、制御する機能を有する。このような機能分担によって、各サーバ20および26の最適制御を可能にしている。しかしながら、1つのサーバで2つのサーバ20および26の機能を統合して管理、制御することも勿論可能である。つまり、サーバ20および26は統合する1つのサーバで構成されてもよい。   However, the chat server 20 and the dialog server 26 share work by function as described above. That is, the chat server 20 manages and controls the chat with the user (user terminal 14), whereas the dialog server 26 has a function of managing and controlling the contents of the chat. Such function sharing enables optimal control of the servers 20 and 26. However, it is of course possible to manage and control the functions of the two servers 20 and 26 in a single server. That is, the servers 20 and 26 may be configured as a single server to be integrated.

10 …電子御用聞きシステム
12 …マッチングサイト
14 …ユーザ端末
16 …ネットワーク
18 …業者端末
20 …チャットサーバ
26 …ダイアログサーバ
DESCRIPTION OF SYMBOLS 10 ... Electronic listening system 12 ... Matching site 14 ... User terminal 16 ... Network 18 ... Contractor terminal 20 ... Chat server 26 ... Dialog server

Claims (5)

ユーザ端末を用いる電子御用聞きシステムであって、
前記ユーザ端末の画面にそれぞれが個別にエージェントを示す少なくとも2つのエージェント記号を一覧表示させるエージェント一覧表示部、
前記エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する選択判別部、
ユーザが選択したエージェント記号に応じたエージェントを、前記ユーザを表すアバタと向き合った状態で表示させるエージェント表示部、
前記エージェントを所定のシナリオに沿って発話させる発話部、および
前記エージェントの発話に応じて、前記所定のシナリオに沿った選択肢を表示させる選択肢表示部を備える、電子御用聞きシステム。
An electronic listening system using a user terminal,
An agent list display unit for displaying a list of at least two agent symbols each individually indicating an agent on the screen of the user terminal;
A selection determining unit for determining that the user has selected any agent symbol from the agent list display unit;
An agent display unit for displaying an agent corresponding to the agent symbol selected by the user in a state facing the avatar representing the user;
An electronic listening system comprising: an utterance unit that utters the agent according to a predetermined scenario; and an option display unit that displays an option according to the predetermined scenario according to the utterance of the agent.
前記ユーザ端末の画面は前記エージェント記号を表示するエージェント表示部および前記エージェントを表示する作動部を含み、
前記選択判別部は、前記エージェント表示部からどれかのエージェント記号が前記作動部へドラッグされたかどうか判断する、請求項1記載の電子御用聞きシステム。
The screen of the user terminal includes an agent display unit that displays the agent symbol and an operation unit that displays the agent,
The electronic listening system according to claim 1, wherein the selection determination unit determines whether any agent symbol is dragged from the agent display unit to the operation unit.
前記エージェント表示部から別のエージェント記号が前記作動部にドラッグされてエージェントが別のエージェントに変更されたことを判断するエージェント変更判断部、および
前記エージェント変更判断部がエージェントの変更を判断したとき、前記別のエージェントに発話させるようにシナリオを変更するシナリオ変更部をさらに備える、請求項2記載の電子御用聞きシステム。
An agent change determination unit that determines that another agent symbol is dragged from the agent display unit to the operation unit and the agent is changed to another agent, and when the agent change determination unit determines an agent change, The electronic listening system according to claim 2, further comprising a scenario changing unit that changes a scenario so that the other agent speaks.
前記エージェントと一緒に追加エージェントを表示させる追加エージェント表示部をさらに備える、請求項1ないし3のいずれかに記載の電子御用聞きシステム。   The electronic listening system according to claim 1, further comprising an additional agent display unit that displays an additional agent together with the agent. ユーザ端末を用いる電子御用聞きシステムのコンピュータによって実行される電子御用聞きプログラムであって、前記コンピュータを
前記ユーザ端末の画面にそれぞれが個別にエージェントを示す少なくとも2つのエージェント記号を一覧表示させるエージェント一覧表示部、
前記エージェント一覧表示部からどれかのエージェント記号をユーザが選択したことを判別する選択判別部、
ユーザが選択したエージェント記号に応じたエージェントを、前記ユーザを表すアバタと向き合った状態で表示させるエージェント表示部、
前記エージェントを所定のシナリオに沿って発話させる発話部、および
前記エージェントの発話に応じて、前記所定のシナリオに沿った選択肢を表示させる選択肢表示部
として機能させる、電子御用聞きプログラム。
An electronic listening program executed by a computer of an electronic listening system using a user terminal, wherein the computer displays a list of at least two agent symbols each indicating an agent individually on the screen of the user terminal Part,
A selection determining unit for determining that the user has selected any agent symbol from the agent list display unit;
An agent display unit for displaying an agent corresponding to the agent symbol selected by the user in a state facing the avatar representing the user;
An electronic listening program that functions as an utterance unit that utters the agent according to a predetermined scenario, and an option display unit that displays an option according to the predetermined scenario according to the utterance of the agent.
JP2017006128A 2017-01-17 2017-01-17 Electronic order-taking system and program Pending JP2018116427A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017006128A JP2018116427A (en) 2017-01-17 2017-01-17 Electronic order-taking system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017006128A JP2018116427A (en) 2017-01-17 2017-01-17 Electronic order-taking system and program

Publications (1)

Publication Number Publication Date
JP2018116427A true JP2018116427A (en) 2018-07-26

Family

ID=62985615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017006128A Pending JP2018116427A (en) 2017-01-17 2017-01-17 Electronic order-taking system and program

Country Status (1)

Country Link
JP (1) JP2018116427A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020024522A (en) * 2018-08-06 2020-02-13 株式会社エルブズ Information providing apparatus, information providing method and program
JP2020154940A (en) * 2019-03-22 2020-09-24 富士ゼロックス株式会社 Message providing device, program and display control method
WO2022137960A1 (en) * 2020-12-24 2022-06-30 京セラ株式会社 Program and conversation system
WO2024101052A1 (en) * 2022-11-09 2024-05-16 株式会社Nttドコモ Virtual space control device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020024522A (en) * 2018-08-06 2020-02-13 株式会社エルブズ Information providing apparatus, information providing method and program
JP2020154940A (en) * 2019-03-22 2020-09-24 富士ゼロックス株式会社 Message providing device, program and display control method
JP7275717B2 (en) 2019-03-22 2023-05-18 富士フイルムビジネスイノベーション株式会社 Message providing device, program, and display control method
WO2022137960A1 (en) * 2020-12-24 2022-06-30 京セラ株式会社 Program and conversation system
WO2024101052A1 (en) * 2022-11-09 2024-05-16 株式会社Nttドコモ Virtual space control device

Similar Documents

Publication Publication Date Title
US12126739B2 (en) Bot permissions
KR102197448B1 (en) Bot interaction
US11178078B2 (en) Method and apparatus to increase personalization and enhance chat experiences on the Internet
KR101872759B1 (en) System, method, and program that allow audio chatting
US20160320966A1 (en) User terminal device and control method thereof
JP2018116427A (en) Electronic order-taking system and program
JPH11184786A (en) Chat system and chat server and client and recording medium
JP7170413B2 (en) Received message display method, message application program, and mobile terminal
JP2018032378A (en) Program, information processing device, and information processing system
KR101813900B1 (en) Audio chat management device and method
JP7167582B2 (en) Information processing system, method and program
KR20130025277A (en) Method and server for providing message service
US7970909B1 (en) Method and system for associating concurrent telephone and data network sessions
KR101891155B1 (en) Composed notice function apparatas and method of using for chatting application in a portable terminal
KR101335143B1 (en) Providing method and using method of service for giving a present of mobile gift certificate using a instant messaging service
JP2024034388A (en) Chatbot control system, chatbot control method, and program
JP7190747B2 (en) Query system, query device and query program
KR20220027607A (en) Kiosk device for seniors and method for controling the same
WO2017006413A1 (en) Language learning support system, language learning support method, and program
KR101340200B1 (en) Apparatus and method for providing information using a tablet monitor
JP7205962B1 (en) System for automatic dialogue
KR100601868B1 (en) Menu Providing System, Method for Menu Navigation and Mobile Communication Terminal therefor
JP6664537B1 (en) Reservation system, reservation method and reservation program
JP2024101561A (en) Query response system, query response device, query response method and query response program, and program generation system and program
US11853933B1 (en) Systems and methods for an interactive customer interface utilizing customer device context

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170526