JP2020166359A - Program and information processing device - Google Patents

Program and information processing device Download PDF

Info

Publication number
JP2020166359A
JP2020166359A JP2019064045A JP2019064045A JP2020166359A JP 2020166359 A JP2020166359 A JP 2020166359A JP 2019064045 A JP2019064045 A JP 2019064045A JP 2019064045 A JP2019064045 A JP 2019064045A JP 2020166359 A JP2020166359 A JP 2020166359A
Authority
JP
Japan
Prior art keywords
user
terminal
information
dialogue
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019064045A
Other languages
Japanese (ja)
Other versions
JP7307576B2 (en
Inventor
秀樹 木通
Hideki Kidooshi
秀樹 木通
香苗 沢村
Kanae Sawamura
香苗 沢村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2019064045A priority Critical patent/JP7307576B2/en
Publication of JP2020166359A publication Critical patent/JP2020166359A/en
Application granted granted Critical
Publication of JP7307576B2 publication Critical patent/JP7307576B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a program and information processing device capable of relieving loneliness or anxiety of a user.SOLUTION: A computer is configured to: collect user-specific information based on what a user has said; make utterance based on the collected user-specific information via an avatar set for the user; and output an execution result of the utterance based on the user-specific information made via the avatar representing the user.SELECTED DRAWING: Figure 1

Description

本開示は、プログラム及び情報処理装置に関する。 The present disclosure relates to programs and information processing devices.

近年、一人暮らしをする高齢者及び単身で施設に入居する高齢者が増加しており、このような高齢者は日常生活において会話の機会が少なく孤立感を感じる人もいる。そこで、例えば特許文献1では、ユーザが発した音声を取得した場合に、予め記憶してある音声を出力することにより、擬似的な会話を行うことができるぬいぐるみが提案されている。特許文献1に開示された技術では、ユーザがぬいぐるみを抱きながらぬいぐるみと擬似的な会話を行うことにより、ユーザに癒しを与えることができ、孤立感を和らげることができる。 In recent years, the number of elderly people who live alone and those who move into facilities by themselves is increasing, and such elderly people have few opportunities to talk in their daily lives and feel isolated. Therefore, for example, Patent Document 1 proposes a stuffed animal that can have a pseudo conversation by outputting a voice stored in advance when a voice emitted by a user is acquired. In the technique disclosed in Patent Document 1, the user can give healing to the user and alleviate the feeling of isolation by having a pseudo conversation with the stuffed animal while holding the stuffed animal.

特開2018−117821号公報JP-A-2018-117821

高齢者に限らず一人暮らしをする人は、例えば自宅に一人で居る場合に会話する相手がいないので、孤独感又は不安を感じるときもある。また、例えば家族又は同居人と暮らす人であっても、自室に一人で居る場合には孤独感又は不安を感じるときもある。しかし、特許文献1に開示された技術は高齢者を対象としており、孤独感又は不安を感じる全ての人に癒しを与えることは難しい。 People who live alone, not limited to the elderly, may feel lonely or anxious because they have no one to talk to when they are alone at home, for example. Also, for example, even a person who lives with a family member or a roommate may feel lonely or anxious when he / she is alone in his / her room. However, the technique disclosed in Patent Document 1 is intended for the elderly, and it is difficult to provide healing to all those who feel lonely or anxious.

本開示は、斯かる事情に鑑みてなされたものであり、その目的とするところは、ユーザの孤独感又は不安を和らげることが可能なプログラム等を提供することにある。 The present disclosure has been made in view of such circumstances, and an object of the present disclosure is to provide a program or the like capable of alleviating a user's feeling of loneliness or anxiety.

本開示に係るプログラムは、ユーザの言動に基づいてユーザ固有の情報を収集し、収集した前記ユーザ固有の情報に基づく言動を、前記ユーザに対応して設定されたアバターを介して実行し、前記ユーザ固有の情報に基づく言動をアバターが実行した結果を出力する処理をコンピュータに実行させる。 The program according to the present disclosure collects user-specific information based on the user's words and actions, executes the collected words and actions based on the user-specific information via an avatar set corresponding to the user, and describes the above. Have the computer execute the process of outputting the result of the avatar executing the words and actions based on the user-specific information.

本開示では、ユーザに対応するアバターが、ユーザの言動から収集したユーザ固有の情報に基づく言動を行う。よって、例えばユーザは、自身のアバターとの間で会話を行うことができ、ユーザの孤独感又は不安等を和らげることができる。またユーザは、自身のアバターが自身固有の情報に基づいて実行した言動の結果を知ることができるので、アバターが行った言動、即ちユーザ自身が行っていない言動を擬似的に体験することができる。よって、ユーザは、アバターを介した擬似的な体験や自身による擬似的な体験を通して、新たな気づきを得て、精神的により豊かな生活を送ることができるようになったり、現実の接点の拡大によって実際の行動変化を引き起こしたりすることにより、社会とのつながりを感じることができ、ユーザの孤独感又は不安等を和らげることができる。 In the present disclosure, the avatar corresponding to the user performs the behavior based on the user-specific information collected from the behavior of the user. Therefore, for example, the user can have a conversation with his / her own avatar, and can alleviate the user's feeling of loneliness or anxiety. In addition, since the user can know the result of the words and actions performed by his / her avatar based on his / her own information, he / she can experience the words and actions performed by the avatar, that is, the words and actions not performed by the user himself / herself. .. Therefore, users will be able to gain new awareness and lead a mentally richer life through simulated experiences through avatars and simulated experiences by themselves, and will be able to expand the points of contact with reality. By causing actual behavioral changes, it is possible to feel a connection with society and alleviate the feeling of loneliness or anxiety of the user.

情報処理システムの構成例を示す模式図である。It is a schematic diagram which shows the configuration example of an information processing system. 自端末の構成例を示すブロック図である。It is a block diagram which shows the configuration example of own terminal. 自端末に記憶されるDBの構成例を示す模式図である。It is a schematic diagram which shows the structural example of the DB stored in the own terminal. 自端末に記憶されるDBの構成例を示す模式図である。It is a schematic diagram which shows the structural example of the DB stored in the own terminal. 自端末によるユーザ固有情報の収集処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the collection process of the user-specific information by a local terminal. 画面例を示す模式図である。It is a schematic diagram which shows the screen example. 自端末及び他端末による言動処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the word-action processing by own terminal and other terminal. 自端末及び他端末による言動処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the word-action processing by own terminal and other terminal. 自端末及び他端末による言動処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the word-action processing by own terminal and other terminal. 自端末及び他端末による言動処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the word-action processing by own terminal and other terminal. 画面例を示す模式図である。It is a schematic diagram which shows the screen example. 自端末による言動処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the word-action processing by own terminal. 自端末による言動履歴の再生処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the reproduction processing of the word and action history by own terminal. 画面例を示す模式図である。It is a schematic diagram which shows the screen example. 実施形態2の情報処理システムの構成例を示す模式図である。It is a schematic diagram which shows the structural example of the information processing system of Embodiment 2. 自端末によるユーザ固有情報の収集処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the collection process of the user-specific information by a local terminal. 実施形態3の自端末の構成例を示すブロック図である。It is a block diagram which shows the configuration example of the own terminal of Embodiment 3. 実施形態3の自端末及び他端末による言動処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the word-action processing by own terminal and other terminal of Embodiment 3. サーバの構成例を示すブロック図である。It is a block diagram which shows the configuration example of a server. サーバによる言動処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the word-action processing by a server.

以下に、本開示のプログラム及び情報処理装置について、その実施形態を示す図面に基づいて詳述する。 Hereinafter, the program and the information processing apparatus of the present disclosure will be described in detail with reference to the drawings showing the embodiments thereof.

(実施形態1)
図1は情報処理システムの構成例を示す模式図である。本実施形態の情報処理システムは、多数のユーザが自身の端末を用いて他のユーザの端末との間でやり取りを行うシステムである。本実施形態の情報処理システムでは、各ユーザの端末に各ユーザに対応するアバターが設定してあり、各ユーザは、端末を介して他のユーザとやり取りを行うだけでなく、他のユーザのアバターともやり取りを行うことができる。よって、各ユーザの端末に設定されている各ユーザのアバターは、端末を介して他のユーザとやり取りを行うだけでなく、他のユーザのアバターともやり取りを行うことができる。なお、やり取りとは例えば対話処理に係る情報の送受信、インターネット等のネットワークN上で公開されている情報の収集等である。本実施形態の情報処理システムは多数のユーザ端末10,20を含み、ユーザ端末10,20はネットワークNを介して相互に情報の送受信を行う。以下では、1人のユーザを自身とし、他のユーザを他者とし、自身のユーザ端末を自端末10とし、他者のユーザ端末を他端末20として説明する。自端末10及び他端末20は同様のユーザ端末を用いることができ、例えばスマートフォン、タブレット端末、パーソナルコンピュータ、携帯ゲーム機等を用いることができる。また、自端末10及び他端末20は情報処理システムに用いられる専用端末で構成されてもよい。本実施形態の情報処理システムにおいて、ユーザ端末10,20のそれぞれは、各端末10,20のユーザにおけるユーザ固有の情報(ユーザ固有情報)を収集する処理、ネットワークN経由で他のユーザ端末10,20又は他の装置との間で情報を送受信する処理等、種々の情報処理及び通信処理を行う。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration example of an information processing system. The information processing system of the present embodiment is a system in which a large number of users communicate with other users' terminals using their own terminals. In the information processing system of the present embodiment, an avatar corresponding to each user is set in the terminal of each user, and each user not only communicates with another user via the terminal but also an avatar of another user. You can also interact with. Therefore, each user's avatar set in each user's terminal can not only communicate with other users via the terminal, but also communicate with other users' avatars. The exchange includes, for example, transmission / reception of information related to dialogue processing, collection of information published on a network N such as the Internet, and the like. The information processing system of the present embodiment includes a large number of user terminals 10 and 20, and the user terminals 10 and 20 mutually transmit and receive information via the network N. In the following, one user will be referred to as oneself, another user will be referred to as another person, one's own user terminal will be referred to as own terminal 10, and the other's user terminal will be referred to as another terminal 20. Similar user terminals can be used for the own terminal 10 and the other terminal 20, and for example, a smartphone, a tablet terminal, a personal computer, a portable game machine, or the like can be used. Further, the own terminal 10 and the other terminal 20 may be configured by a dedicated terminal used in the information processing system. In the information processing system of the present embodiment, each of the user terminals 10 and 20 is a process of collecting user-specific information (user-specific information) of each user of the terminals 10 and 20, and another user terminal 10 via network N. Performs various information processing and communication processing such as processing for transmitting and receiving information to and from 20 or other devices.

図2は自端末10の構成例を示すブロック図である。自端末10は、制御部11、記憶部12、処理部13、通信部14、入力部15、表示部16、スピーカ17、マイク18、読み取り部19等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理、制御処理等を自端末10に実行させる。 FIG. 2 is a block diagram showing a configuration example of the own terminal 10. The own terminal 10 includes a control unit 11, a storage unit 12, a processing unit 13, a communication unit 14, an input unit 15, a display unit 16, a speaker 17, a microphone 18, a reading unit 19, and the like, and each of these units is via a bus. They are interconnected. The control unit 11 includes one or a plurality of processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), and a GPU (Graphics Processing Unit). By appropriately executing the control program 12P stored in the storage unit 12, the control unit 11 causes the own terminal 10 to execute various information processing, control processing, and the like to be performed by the information processing apparatus of the present disclosure.

記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。更に記憶部12は、後述する固有情報DB(データベース)12a、宛先情報DB12b及び言動履歴DB12cを記憶する。固有情報DB12a、宛先情報DB12b及び言動履歴DB12cは、自端末10に接続された外部記憶装置に記憶されてもよく、自端末10が通信可能な外部記憶装置に記憶されてもよい。更に記憶部12は、自端末10のユーザに対応付けて設定されたアバターに関する情報を記憶する。アバターに関する情報は、アバターを表示するための画像データ、アバターに発話させる際の音声データ、アバターの表示画像に動きを付加するためのモーションデータ等を含む。 The storage unit 12 includes a RAM (Random Access Memory), a flash memory, a hard disk, an SSD (Solid State Drive), and the like. The storage unit 12 stores in advance various data and the like necessary for executing the control program 12P and the control program 12P executed by the control unit 11. Further, the storage unit 12 temporarily stores data or the like generated when the control unit 11 executes the control program 12P. Further, the storage unit 12 stores the unique information DB (database) 12a, the destination information DB 12b, and the behavior history DB 12c, which will be described later. The unique information DB 12a, the destination information DB 12b, and the behavior history DB 12c may be stored in an external storage device connected to the own terminal 10, or may be stored in an external storage device capable of communicating with the own terminal 10. Further, the storage unit 12 stores information about the avatar set in association with the user of the own terminal 10. The information about the avatar includes image data for displaying the avatar, voice data for making the avatar speak, motion data for adding motion to the displayed image of the avatar, and the like.

処理部13は、対話処理部13a、固有情報収集部13b、言動実行部13c、履歴出力部13d等を含む。処理部13の各部は、例えば記憶部12に記憶してある制御プログラム12Pを制御部11が実行することによって実現されてもよいし、これらの一部を専用のハードウェア回路で実現してもよい。対話処理部13aは、自端末10のユーザとの対話を行う。例えば対話処理部13aは、マイク18を介した音声入力又は入力部15を介した入力(例えばテキスト入力)によってユーザからの対話情報を取得し、取得した対話情報に対する返答情報をスピーカ17を介した音声出力又は表示部16に表示することによってユーザに返答し、自端末10のユーザとの対話を行うように構成されている。なお、対話処理部13aは、ユーザからの対話情報に対して行うべき返答情報を予めテンプレートとして複数記憶しておき、ユーザからの対話情報に応じた返答情報をテンプレートから選択して出力することにより対話を行ってもよい。また対話処理部13aは、ユーザからの対話情報に応じた返答情報を、後述する固有情報DB12aに蓄積されたユーザ固有情報に基づいて生成して出力することにより対話を行ってもよい。更に、対話処理部13aは、挨拶メッセージ及び質問メッセージ等の対話情報をスピーカ17を介した音声出力又は表示部16に表示することによってユーザに話しかけ、マイク18を介した音声入力又は入力部15を介した入力によってユーザからの返答情報を取得することにより、自端末10のユーザとの対話を行う。この場合、対話処理部13aは、挨拶メッセージ及び質問メッセージ等の対話情報を予めテンプレートとして複数記憶しておき、任意のテンプレートを選択して出力することにより、ユーザに話しかけてもよい。 The processing unit 13 includes an interactive processing unit 13a, a unique information collection unit 13b, a word / action execution unit 13c, a history output unit 13d, and the like. Each unit of the processing unit 13 may be realized, for example, by the control unit 11 executing the control program 12P stored in the storage unit 12, or a part of these may be realized by a dedicated hardware circuit. Good. The dialogue processing unit 13a has a dialogue with the user of the own terminal 10. For example, the dialogue processing unit 13a acquires dialogue information from the user by voice input via the microphone 18 or input via the input unit 15 (for example, text input), and the response information to the acquired dialogue information is transmitted via the speaker 17. It is configured to respond to the user by outputting voice or displaying it on the display unit 16 and to have a dialogue with the user of the own terminal 10. The dialogue processing unit 13a stores a plurality of response information to be performed for the dialogue information from the user as a template in advance, and selects and outputs the response information according to the dialogue information from the user from the template. You may have a dialogue. Further, the dialogue processing unit 13a may perform a dialogue by generating and outputting response information corresponding to the dialogue information from the user based on the user-specific information stored in the unique information DB 12a described later. Further, the dialogue processing unit 13a speaks to the user by displaying dialogue information such as a greeting message and a question message on the voice output or the display unit 16 via the speaker 17, and the voice input or the input unit 15 via the microphone 18 is input. By acquiring the response information from the user by inputting through, the dialogue with the user of the own terminal 10 is performed. In this case, the dialogue processing unit 13a may store a plurality of dialogue information such as greeting messages and question messages as templates in advance, select an arbitrary template, and output it to talk to the user.

対話処理部13aは、他端末20のユーザ又は他端末20のユーザのアバター(他端末20のアバター)との対話も行う。例えば対話処理部13aは、他端末20から送信された、他端末20のユーザ又は他端末20のアバターからの対話情報を取得し、取得した対話情報に対する返答情報を他端末20へ返信することによって他端末20のユーザ又はアバターに返答し、他端末20のユーザ又はアバターとの対話を行う。この場合にも、対話処理部13aは、他端末20のユーザ又はアバターからの対話情報に応じた返答情報をテンプレートから選択して出力することにより対話を行ってもよいし、後述する固有情報DB12aに蓄積されたユーザ固有情報に基づいて返答情報を生成して出力することにより対話を行ってもよい。また、対話処理部13aは、挨拶メッセージ及び質問メッセージ等の対話情報を他端末20のユーザ又はアバター宛に送信することによって他端末20のユーザ又はアバターに話しかけ、他端末20のユーザ又は他端末20のアバターからの返答情報を取得することにより、他端末20のユーザ又はアバターとの対話を行う。この場合にも、対話処理部13aは、予め記憶してある対話情報を選択して他端末20のユーザ又はアバター宛に送信することにより、他端末20のユーザ又はアバターに話しかけてもよい。 The dialogue processing unit 13a also performs a dialogue with the user of the other terminal 20 or the avatar of the user of the other terminal 20 (the avatar of the other terminal 20). For example, the dialogue processing unit 13a acquires the dialogue information from the user of the other terminal 20 or the avatar of the other terminal 20 transmitted from the other terminal 20, and returns the response information to the acquired dialogue information to the other terminal 20. It responds to the user or avatar of the other terminal 20 and has a dialogue with the user or avatar of the other terminal 20. In this case as well, the dialogue processing unit 13a may perform the dialogue by selecting and outputting the response information corresponding to the dialogue information from the user or the avatar of the other terminal 20 from the template, or the unique information DB 12a described later. The dialogue may be performed by generating and outputting the response information based on the user-specific information accumulated in the template. Further, the dialogue processing unit 13a speaks to the user or avatar of the other terminal 20 by transmitting dialogue information such as a greeting message and a question message to the user or avatar of the other terminal 20, and the user or the other terminal 20 of the other terminal 20. By acquiring the response information from the avatar of the other terminal 20, a dialogue with the user of the other terminal 20 or the avatar is performed. In this case as well, the dialogue processing unit 13a may talk to the user or avatar of the other terminal 20 by selecting the dialogue information stored in advance and transmitting it to the user or avatar of the other terminal 20.

固有情報収集部(収集部)13bは、自端末10のユーザの言動に基づいて、自端末10のユーザのユーザ固有情報を収集する。例えば固有情報収集部13bは、対話処理部13aが自端末10のユーザとの間で行った対話内容からユーザ固有情報を収集する。また、固有情報収集部13bは、例えば対話処理部13aによって、ユーザ固有情報に関する質問を自端末10のユーザに行い、質問に対する回答を取得した場合に、取得した回答内容からユーザ固有情報を収集してもよい。更に、固有情報収集部13bは、自端末10にインストールされている各種のアプリケーションプログラムによって実行可能な処理に係る情報からユーザ固有情報を収集してもよい。例えば、固有情報収集部13bは、自端末10が他端末20との間で送受信した電子メール、LINE(登録商標)メッセージ及びLINEスタンプ、SNS(Social Network Service)に対して自端末10のユーザが投稿したメッセージ及び閲覧したメッセージ、ネットワークNを介して提供される各種サービスによって送受信されるデータ等からユーザ固有情報を収集してもよい。また固有情報収集部13bは、自端末10のユーザが行った行動に基づいてユーザ固有情報を収集してもよい。例えば、自端末10のユーザがLINEメッセージを受信したときに所定のLINEスタンプ又はLINEメッセージを返信する場合、固有情報収集部13bは、LINEメッセージの受信に対して所定のLINEスタンプ又はLINEメッセージを返信することをユーザ固有情報として取得する。ユーザ固有情報は例えば、ユーザの属性、行動履歴、趣味、好み、行動傾向、思考傾向等を含む。 The unique information collecting unit (collecting unit) 13b collects user-specific information of the user of the own terminal 10 based on the words and actions of the user of the own terminal 10. For example, the unique information collecting unit 13b collects user-specific information from the contents of the dialogue conducted by the dialogue processing unit 13a with the user of the own terminal 10. Further, the unique information collecting unit 13b asks the user of the own terminal 10 a question about the user-specific information by, for example, the dialogue processing unit 13a, and when the answer to the question is obtained, collects the user-specific information from the acquired answer contents. You may. Further, the unique information collecting unit 13b may collect user-specific information from information related to processing that can be executed by various application programs installed in the own terminal 10. For example, the unique information collecting unit 13b allows the user of the own terminal 10 to send and receive e-mails, LINE (registered trademark) messages and LINE stamps, and SNS (Social Network Service) sent and received by the own terminal 10 to and from the other terminal 20. User-specific information may be collected from posted messages, viewed messages, data transmitted and received by various services provided via the network N, and the like. Further, the unique information collecting unit 13b may collect user-specific information based on the actions taken by the user of the own terminal 10. For example, when the user of the own terminal 10 returns a predetermined LINE stamp or LINE message when receiving the LINE message, the unique information collecting unit 13b returns the predetermined LINE stamp or LINE message in response to the reception of the LINE message. Acquire what to do as user-specific information. User-specific information includes, for example, user attributes, behavior history, hobbies, preferences, behavioral tendencies, thinking tendencies, and the like.

言動実行部(実行部)13cは、例えば自端末10のユーザからの指示又は行動傾向に従って、他端末20のユーザ又は他端末20のアバターとの間で対話を行い、また、ネットワークN上で公開されている各種の情報を収集する。具体的には、言動実行部13cは、他端末20を介して他のユーザとの間で情報の送受信を行い、他端末20を介して他端末20に設定してあるアバター(他端末20の言動実行部23c)との間で情報の送受信を行うことにより、他端末20のユーザ又はアバターとの対話を行う。なお、言動実行部13cは、対話処理部13aを用いて、他端末20のユーザ又はアバターとの対話を行う。また、言動実行部13cは、ネットワークN経由で各種の情報を検索して必要な情報を取得する。なお、屋外又は室内でカメラで撮影された撮影画像がネットワークN上で公開されており、このような撮影画像をネットワークN経由で取得することにより、言動実行部13cは擬似的に撮影場所に外出できる。よって、言動実行部13cは、自端末10のアバターを介して擬似的な外出処理を実行できる。 The word / action execution unit (execution unit) 13c has a dialogue with the user of the other terminal 20 or the avatar of the other terminal 20 according to an instruction or an action tendency from the user of the own terminal 10, for example, and is open to the public on the network N. Collect various kinds of information. Specifically, the word / action execution unit 13c transmits / receives information to / from another user via the other terminal 20, and the avatar set in the other terminal 20 via the other terminal 20 (of the other terminal 20). By transmitting and receiving information with the word-and-action execution unit 23c), a dialogue with a user or an avatar of another terminal 20 is performed. The word / action execution unit 13c uses the dialogue processing unit 13a to perform a dialogue with a user or an avatar of another terminal 20. In addition, the word / action execution unit 13c searches for various information via the network N and acquires necessary information. In addition, the photographed image taken by the camera outdoors or indoors is published on the network N, and by acquiring such a photographed image via the network N, the behavior execution unit 13c goes out to the shooting place in a pseudo manner. it can. Therefore, the word / action execution unit 13c can execute a pseudo outing process via the avatar of the own terminal 10.

履歴出力部(出力部)13dは、言動実行部13cが実行した言動の結果に係る履歴情報を、例えば表示部16又はスピーカ17にて出力する。例えば、履歴出力部13dは、他端末20を介して他のユーザ又は他のユーザのアバターとの間で送受信した情報(対話情報)、ネットワークN経由で収集した各種の情報を出力する。なお、履歴出力部13dは、出力すべき情報に画像データ又はテキストデータ等が含まれる場合、画像データ又はテキストデータに基づく画面を表示部16に表示し、音声データ又はテキストデータが含まれる場合、スピーカ17にて音声出力する。 The history output unit (output unit) 13d outputs the history information related to the result of the words and actions executed by the words and actions execution unit 13c, for example, on the display unit 16 or the speaker 17. For example, the history output unit 13d outputs information (dialogue information) transmitted / received to / from another user or another user's avatar via the other terminal 20, and various information collected via the network N. The history output unit 13d displays a screen based on the image data or text data on the display unit 16 when the information to be output includes image data or text data, and when the information includes voice data or text data, the history output unit 13d displays the screen based on the image data or text data. Audio is output from the speaker 17.

通信部14は、有線通信又は無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。入力部15は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部16は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部15及び表示部16は一体として構成されたタッチパネルであってもよい。 The communication unit 14 is an interface for connecting to the network N by wired communication or wireless communication, and transmits / receives information to / from an external device via the network N. The input unit 15 receives an operation input by the user and sends a control signal corresponding to the operation content to the control unit 11. The display unit 16 is a liquid crystal display, an organic EL display, or the like, and displays various information according to instructions from the control unit 11. The input unit 15 and the display unit 16 may be a touch panel integrally configured.

スピーカ17は、増幅器等を有する音声出力装置であり、制御部11からの指示に従った音声データを増幅器にて増幅した後、音声出力する。マイク18は、増幅器及びA/D(アナログ/デジタル)変換器等を有する音声入力装置であり、周囲の音声を収集してアナログの音声データを取得し、取得した音声データを増幅器にて増幅し、A/D変換器にてデジタルの音声データに変換して音声データを取得する。マイク18は、制御部11からの指示に従って集音を行い、取得した音声データを逐次制御部11へ送出する。スピーカ17及びマイク18は、自端末10に内蔵されていてもよいし、ケーブル等を介して自端末10に外付けされていてもよいし、一体として構成されたヘッドセットであってもよい。 The speaker 17 is an audio output device having an amplifier or the like, and after amplifying audio data according to an instruction from the control unit 11 by the amplifier, the speaker 17 outputs audio. The microphone 18 is an audio input device having an amplifier, an A / D (analog / digital) converter, and the like, collects ambient audio, acquires analog audio data, and amplifies the acquired audio data with an amplifier. , Convert to digital audio data with an A / D converter to acquire audio data. The microphone 18 collects sound according to an instruction from the control unit 11, and sequentially sends the acquired voice data to the control unit 11. The speaker 17 and the microphone 18 may be built in the own terminal 10, may be externally attached to the own terminal 10 via a cable or the like, or may be an integrated headset.

読み取り部19は、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM又はUSB(Universal Serial Bus)メモリを含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が読み取り部19を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が通信部14を介して外部装置からダウンロードして記憶部12に記憶してもよい。更に、制御プログラム12P及び各種のデータを半導体メモリ1bに記憶しておき、制御部11が半導体メモリ1bから読み出して記憶部12に記憶してもよい。 The reading unit 19 reads information stored in a portable storage medium 1a including a CD (Compact Disc) -ROM, a DVD (Digital Versatile Disc) -ROM, or a USB (Universal Serial Bus) memory. The control program 12P and various data stored in the storage unit 12 may be read by the control unit 11 from the portable storage medium 1a via the reading unit 19 and stored in the storage unit 12. Further, the control program 12P and various data stored in the storage unit 12 may be downloaded by the control unit 11 from an external device via the communication unit 14 and stored in the storage unit 12. Further, the control program 12P and various data may be stored in the semiconductor memory 1b, and the control unit 11 may read the data from the semiconductor memory 1b and store the data in the storage unit 12.

図3及び図4は自端末10に記憶されるDB12a〜12cの構成例を示す模式図である。図3は固有情報DB12aを、図4Aは宛先情報DB12bを、図4Bは言動履歴DB12cをそれぞれ示す。固有情報DB12aは、自端末10のユーザに関するユーザ固有情報を記憶する。ユーザ固有情報は、固有情報収集部13bが自端末10のユーザから収集して固有情報DB12aに記憶される。図3に示す固有情報DB12aは、情報ID列、情報内容列、固有情報列等を含む。情報ID列は、ユーザ固有情報のそれぞれに予め割り当てられた識別情報を記憶する。情報内容列は、ユーザ固有情報の内容、種別を示す情報を記憶する。なお、それぞれの情報IDに対応するユーザ固有情報の内容が明らかであれば、固有情報DB12aに情報内容列を設けなくてもよい。固有情報列は、固有情報収集部13bが収集したユーザ固有情報を記憶する。固有情報DB12aに記憶される情報ID及び情報内容は予め記憶されており、固有情報は、固有情報収集部13bが各種のユーザ固有情報を取得した場合に、制御部11によって記憶又は更新される。 3 and 4 are schematic views showing a configuration example of DB 12a to 12c stored in the own terminal 10. FIG. 3 shows the unique information DB 12a, FIG. 4A shows the destination information DB 12b, and FIG. 4B shows the behavior history DB 12c. The unique information DB 12a stores user-specific information about the user of the own terminal 10. The user-specific information is collected by the unique information collecting unit 13b from the user of the own terminal 10 and stored in the unique information DB 12a. The unique information DB 12a shown in FIG. 3 includes an information ID string, an information content string, a unique information string, and the like. The information ID column stores identification information assigned in advance to each of the user-specific information. The information content column stores information indicating the content and type of user-specific information. If the content of the user-specific information corresponding to each information ID is clear, it is not necessary to provide the information content string in the unique information DB 12a. The unique information string stores user-specific information collected by the unique information collecting unit 13b. The information ID and information content stored in the unique information DB 12a are stored in advance, and the unique information is stored or updated by the control unit 11 when the unique information collecting unit 13b acquires various user-specific information.

図3に示す固有情報DB12aでは、ユーザ固有情報として、氏名,年齢,性別等を含む属性、住所,勤務先会社名,通学先学校名,家族構成,家族の情報等を含む個人情報、性格,趣味,好きなこと,好きなもの,好きな食べ物,好きな飲み物,好きな果物,嫌いなこと,嫌いなもの,嫌いな食べ物,嫌いな飲み物,嫌いな果物等を含む嗜好に関する情報、嬉しかったこと,怒ったこと,気になっているもの,気になっている場所等を含む感情に関する情報等が登録される。固有情報DB12aの登録内容はこれらに限定されず、ユーザに関する種々の情報を登録することができるように構成されている。例えば、年収,通勤経路,会社での役職,同僚の情報及び上司の情報等を含む勤務先の情報、ペットに関する情報、行った場所を含む行動履歴及び行動傾向,購買した商品を含む購買履歴及び購買傾向,人柄及び考え方等のユーザの内面に関する情報等も固有情報DB12aに登録されてもよい。また、固有情報DB12aは、登録するユーザ固有情報の種類等に応じて複数のDBに分けて構成してもよい。 In the unique information DB 12a shown in FIG. 3, as user-specific information, personal information including name, age, gender, etc., address, work company name, school name, family structure, family information, etc., personal information, personality, Information about tastes including hobbies, favorite things, favorite things, favorite foods, favorite drinks, favorite fruits, dislikes, dislikes, dislike foods, dislike drinks, dislike fruits, etc., I was happy. Information about emotions, including things, things that are angry, things that are of concern, places of concern, etc. are registered. The registered contents of the unique information DB 12a are not limited to these, and are configured so that various information about the user can be registered. For example, annual income, commuting route, job title at the company, work information including colleague information and boss information, information about pets, behavior history and behavior tendency including the place of visit, purchase history including purchased products and Information about the user's inner side such as purchasing tendency, personality, and way of thinking may also be registered in the unique information DB 12a. Further, the unique information DB 12a may be divided into a plurality of DBs according to the type of user-specific information to be registered and the like.

宛先情報DB12bは、自端末10がネットワークN経由で情報の送受信を行う際に用いる他端末20の宛先情報を記憶するアドレス帳である。図4Aに示す宛先情報DB12bは、端末ID列、所有者名列、宛先情報列等を含む。端末ID列は、各他端末20に予め割り当てられた識別情報を記憶し、所有者名列は、端末IDに対応付けて各他端末20のユーザ(他者)の氏名を記憶する。宛先情報列は、端末IDに対応付けて各他端末20に割り当てられた宛先情報を記憶する。宛先情報は、例えば各他端末20に割り当てられた電話番号、メールアドレス、IP(Internet Protocol Address )アドレス、LINE−ID等を用いることができる。宛先情報DB12bに記憶される端末IDは、制御部11が新たな他端末20の情報を入力部15又は通信部14を介して取得した場合に、制御部11によって発行されて記憶される。宛先情報DB12bに記憶される端末ID以外の各情報は、制御部11が入力部15又は通信部14を介して追加又は変更の指示を取得する都度、制御部11によって追加又は変更される。宛先情報DB12bの記憶内容は図4Aに示す例に限定されず、他端末20に関する各種の情報を記憶することができる。 The destination information DB 12b is an address book that stores the destination information of another terminal 20 used when the own terminal 10 transmits / receives information via the network N. The destination information DB 12b shown in FIG. 4A includes a terminal ID string, an owner name string, a destination information string, and the like. The terminal ID column stores the identification information assigned in advance to each other terminal 20, and the owner name column stores the name of the user (other person) of each other terminal 20 in association with the terminal ID. The destination information string stores the destination information assigned to each other terminal 20 in association with the terminal ID. As the destination information, for example, a telephone number, an e-mail address, an IP (Internet Protocol Address) address, a LINE-ID, or the like assigned to each other terminal 20 can be used. The terminal ID stored in the destination information DB 12b is issued and stored by the control unit 11 when the control unit 11 acquires new information of the other terminal 20 via the input unit 15 or the communication unit 14. Each information other than the terminal ID stored in the destination information DB 12b is added or changed by the control unit 11 each time the control unit 11 acquires an addition or change instruction via the input unit 15 or the communication unit 14. The stored contents of the destination information DB 12b are not limited to the example shown in FIG. 4A, and various information related to the other terminal 20 can be stored.

言動履歴DB12cは、言動実行部13cが実行した言動の結果に係る履歴情報を記憶する。図4Bに示す言動履歴DB12cは、言動ID列、言動内容列、相手情報列、場所情報列、言動データ列等を含む。言動ID列は、言動実行部13cが実行した言動(言動処理)のそれぞれに予め割り当てられた識別情報を記憶し、言動内容列は言動IDに対応付けて、言動実行部13cが実行した言動(言動処理)の内容を示す情報を記憶する。なお、言動の内容は、他のユーザ又は他のユーザのアバターとの間で行った対話、ネットワークN経由で擬似的に行った外出等を含む。相手情報列は、言動IDに対応付けて、言動実行部13cが実行した言動における相手の情報を記憶する。言動における相手は、言動実行部13cが実行した対話の相手、言動実行部13cが実行した外出の同伴者等であり、相手の他端末20の端末ID、所有者名又は宛先情報が相手情報列に記憶される。場所情報列は、言動IDに対応付けて、言動実行部13cが実行した言動における場所の情報を記憶する。言動における場所は、例えば言動実行部13cが擬似的に行った外出先の場所であり、ネットワークN経由で取得した撮影画像の撮影場所の情報が場所情報列に記憶される。言動データ列は、言動IDに対応付けて、言動実行部13cが実行した言動における言動データを記憶する。言動データは例えば、他のユーザ又は他のユーザのアバターとの間で行った対話に関する対話データ(音声データ又はテキストデータ)、ネットワークN経由で取得した撮影画像(画像データ)等である。なお、言動データは、言動履歴DB12cに記憶される構成に限らず、記憶部12の所定領域又は自端末10に接続された外部記憶装置に記憶してもよい。この場合、言動データ列には、言動データ(対話データ又は撮影画像等)を読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶してもよい。言動履歴DB12cの記憶内容は図4Bに示す例に限定されず、言動履歴に関する各種の情報を記憶することができる。 The word / action history DB 12c stores history information related to the result of the word / action executed by the word / action execution unit 13c. The word / action history DB 12c shown in FIG. 4B includes a word / action ID string, a word / action content string, a partner information string, a place information string, a word / action data string, and the like. The word / action ID string stores identification information assigned in advance to each word / action (word / action processing) executed by the word / action execution unit 13c, and the word / action content string is associated with the word / action ID to perform the word / action (word / action execution unit 13c). Stores information indicating the content of (word and action processing). The contents of words and actions include dialogues with other users or avatars of other users, and going out simulated via network N. The other party information string stores the information of the other party in the words and actions executed by the words and actions execution unit 13c in association with the words and actions ID. The other party in the words and actions is the other party of the dialogue executed by the words and actions execution unit 13c, the companion who goes out executed by the words and actions execution unit 13c, and the terminal ID, owner name, or destination information of the other terminal 20 of the other party is the other party information string. Is remembered in. The place information string stores information on the place in the word / action executed by the word / action execution unit 13c in association with the word / action ID. The place in the words and actions is, for example, a place where the words and actions execution unit 13c has performed in a simulated manner, and information on the shooting place of the photographed image acquired via the network N is stored in the place information string. The word / action data string stores the word / action data in the word / action executed by the word / action execution unit 13c in association with the word / action ID. The behavioral data is, for example, dialogue data (voice data or text data) related to a dialogue performed with another user or an avatar of another user, a photographed image (image data) acquired via the network N, or the like. The word / action data is not limited to the configuration stored in the word / action history DB 12c, and may be stored in a predetermined area of the storage unit 12 or an external storage device connected to the own terminal 10. In this case, information for reading out the behavioral data (dialogue data, captured image, etc.) (for example, a file name indicating a storage location of the data) may be stored in the behavioral data string. The stored content of the behavior history DB 12c is not limited to the example shown in FIG. 4B, and various information related to the behavior history can be stored.

他端末20は、自端末10の上述した構成と同様の構成を有しており、自端末10が有する各構成部11〜19は、他端末20において各構成部21〜29として説明を省略する。 The other terminal 20 has the same configuration as the above-described configuration of the own terminal 10, and each of the constituent units 11 to 19 of the own terminal 10 will be described as the respective constituent units 21 to 29 in the other terminal 20. ..

以下に、それぞれのユーザ端末10,20が行う処理について説明する。なお、自端末10及び他端末20はそれぞれ同様の処理を行うので、以下では代表して自端末10が行う処理を例に説明する。図5は、自端末10によるユーザ固有情報の収集処理の手順例を示すフローチャート、図6は画面例を示す模式図である。以下の処理は、自端末10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。自端末10の制御部11は、適宜のタイミングで固有情報収集部13bによって自端末10のユーザに関するユーザ固有情報を収集する。適宜のタイミングとは例えば、1週間に1回、1ヶ月に1回等の定期的なタイミングであってもよいし、固有情報DB12aにある程度のユーザ固有情報が蓄積されるまで連続したタイミングであってもよい。 The processes performed by the respective user terminals 10 and 20 will be described below. Since the own terminal 10 and the other terminal 20 perform the same processing, the processing performed by the own terminal 10 will be described below as an example. FIG. 5 is a flowchart showing an example of a procedure for collecting and processing user-specific information by the own terminal 10, and FIG. 6 is a schematic diagram showing a screen example. The following processing is executed by the control unit 11 according to the control program 12P stored in the storage unit 12 of the own terminal 10. The control unit 11 of the own terminal 10 collects user-specific information about the user of the own terminal 10 by the unique information collecting unit 13b at an appropriate timing. The appropriate timing may be, for example, a regular timing such as once a week or once a month, or a continuous timing until a certain amount of user-specific information is accumulated in the unique information DB 12a. You may.

例えば固有情報収集部13bは、対話処理部13aによって自端末10のユーザとの対話を行い、自端末10のユーザと対話すべき対話メッセージ(対話情報)を生成する(S11)。ここでの対話メッセージは、「こんにちは。元気?」のような挨拶メッセージであってもよいし、ユーザからの対話メッセージに対する応答メッセージであってもよい。また、固有情報収集部13bは、ユーザ固有情報を収集できるような質問メッセージを対話メッセージとして生成してもよい。固有情報収集部13bは、生成した対話メッセージをスピーカ17又は表示部16にて出力する(S12)。固有情報収集部13bは、対話メッセージが音声データを含む場合、スピーカ17から音声出力し、対話メッセージが画像データ又はテキストデータ等の表示用データを含む場合、表示部16に表示する。このとき固有情報収集部13b(又は対話処理部13a)は、例えば記憶部12に記憶してあるアバターに係る画像データに基づいて、図6に示すように、自端末10のユーザのアバターの画像を表示部16に表示してもよい。また固有情報収集部13b(又は対話処理部13a)は、記憶部12に記憶してあるアバターに係る音声データに基づく音声にて対話メッセージをスピーカ17から音声出力してもよい。この場合、ユーザは、図6に示す画面に表示されたアバターと対面して対話しているように感じることができる。なお、アバターの表示画像は、自端末10のユーザの実写画像、人間に似たキャラクタの画像、動物等の画像、動物等のキャラクタの画像等を用いることができる。 For example, the unique information collecting unit 13b has a dialogue with the user of the own terminal 10 by the dialogue processing unit 13a, and generates a dialogue message (dialogue information) to be talked with the user of the own terminal 10 (S11). Here the dialogue message, "Hello. Genki?" May be a greeting message such as, may be a response message to the dialogue message from the user. In addition, the unique information collection unit 13b may generate a question message as an interactive message so that user-specific information can be collected. The unique information collecting unit 13b outputs the generated dialogue message to the speaker 17 or the display unit 16 (S12). The unique information collecting unit 13b outputs voice from the speaker 17 when the dialogue message includes voice data, and displays the dialogue message on the display unit 16 when the dialogue message includes display data such as image data or text data. At this time, the unique information collecting unit 13b (or the dialogue processing unit 13a) has, for example, based on the image data of the avatar stored in the storage unit 12, as shown in FIG. 6, the image of the avatar of the user of the own terminal 10. May be displayed on the display unit 16. Further, the unique information collecting unit 13b (or the dialogue processing unit 13a) may output a dialogue message from the speaker 17 by voice based on the voice data related to the avatar stored in the storage unit 12. In this case, the user can feel as if he / she is interacting face-to-face with the avatar displayed on the screen shown in FIG. As the display image of the avatar, a live-action image of the user of the own terminal 10, an image of a character similar to a human being, an image of an animal or the like, an image of a character such as an animal, or the like can be used.

固有情報収集部13bは、出力した対話メッセージに対してユーザが回答した情報をマイク18又は入力部15にて取得する(S13)。なお、固有情報収集部13bは、ユーザが発話によって回答した場合、回答情報をマイク18を介した音声入力にて取得し、ユーザが入力部15を介して回答した場合、回答情報を入力部15を介して取得する。そして固有情報収集部13bは、取得した回答情報からユーザ固有情報を抽出する(S14)。例えば、固有情報収集部13bが「お名前を教えてください」と質問メッセージ(対話メッセージ)を音声出力し、ユーザが「○○○○です」と発話した場合、固有情報収集部13bは、ユーザの回答情報「○○○○です」から、ユーザの氏名(ユーザ固有情報)「○○○○」を抽出する。また対話処理部13aとの対話でユーザが「今日、お父さんと喧嘩したよ」と発話した場合、固有情報収集部13bは、ユーザの発話内容から、最近の出来事に関する情報(ユーザ固有情報)として「今日お父さんと喧嘩した」を抽出する。また、例えばユーザが「今日は○○の映画を観たよ」と発話した場合、固有情報収集部13bは、ユーザの発話内容から、ユーザが最近観た映画の情報(ユーザ固有情報)として「○○」を抽出する。 The unique information collecting unit 13b acquires the information answered by the user in response to the output dialogue message by the microphone 18 or the input unit 15 (S13). The unique information collecting unit 13b acquires the answer information by voice input via the microphone 18 when the user answers by utterance, and when the user answers via the input unit 15, the answer information is input to the input unit 15. Get through. Then, the unique information collecting unit 13b extracts the user-specific information from the acquired response information (S14). For example, when the unique information collecting unit 13b outputs a question message (dialogue message) by voice saying "Please tell me your name" and the user utters "It is ○○○○", the unique information collecting unit 13b is the user. The user's name (user-specific information) "○○○○" is extracted from the answer information "○○○○". In addition, when the user utters "I had a quarrel with my father today" in the dialogue with the dialogue processing unit 13a, the unique information collecting unit 13b uses the content of the user's utterance as information on recent events (user-specific information). I quarreled with my dad today. " Further, for example, when the user utters "I watched a movie of XX today", the unique information collecting unit 13b uses the content of the user's utterance as information on the movie that the user has recently watched (user-specific information). ○ ”is extracted.

固有情報収集部13bは、取得したユーザ固有情報を、情報ID及び情報内容に対応付けて固有情報DB12aに記憶する(S15)。例えば、固有情報DB12aに登録すべきユーザ固有情報に対応する質問メッセージが記憶部12に予め記憶してあり、固有情報収集部13bは、各質問メッセージについて自端末10のユーザに質問を行うことにより、固有情報DB12aに登録すべきユーザ固有情報を収集できる。また、対話処理部13aが自端末10のユーザと対話を行う都度、固有情報収集部13bは、ユーザによる対話内容からユーザ固有情報を収集でき、固有情報DB12aに蓄積できる。 The unique information collecting unit 13b stores the acquired user-specific information in the unique information DB 12a in association with the information ID and the information content (S15). For example, a question message corresponding to the user-specific information to be registered in the unique information DB 12a is stored in the storage unit 12 in advance, and the unique information collecting unit 13b asks the user of the own terminal 10 a question about each question message. , Unique information User-specific information to be registered in the DB 12a can be collected. Further, each time the dialogue processing unit 13a interacts with the user of the own terminal 10, the unique information collecting unit 13b can collect user-specific information from the contents of the dialogue by the user and store the user-specific information in the unique information DB 12a.

上述した処理により、ユーザとの対話内容からユーザ固有情報が逐次抽出されて登録されるので、ユーザが意識することなくユーザ固有情報の蓄積が可能である。なお、固有情報DB12aに記憶されるユーザ固有情報は、既に固有情報DB12aに記憶してある場合、上書きして記憶してもよいし、取得日時と共に時系列データとして記憶(蓄積)してもよい。このようにユーザに関する各種の情報(ユーザ固有情報)を蓄積することにより、自端末10に設定されたアバター(ユーザのアバター)に、ユーザ固有情報に基づく言動を行わせることができる。即ち、自端末10のユーザが行う可能性の高い言動を自端末10のアバターに行わせることができる。なお、ユーザ固有情報を収集する際に、ユーザの心拍数、脳波、筋電図等を計測し、ユーザの心身の状態がリラックスして冷静であるか否かを判断し、冷静である時に収集したユーザ固有情報のみを固有情報DB12aに蓄積するようにしてもよい。この場合、心身の状態が冷静でない興奮状態の時に収集されたユーザ固有情報を破棄することにより、ユーザの普段の状態で収集されたユーザ固有情報のみを蓄積できる。 Since the user-specific information is sequentially extracted and registered from the contents of the dialogue with the user by the above-described processing, the user-specific information can be accumulated without the user being aware of it. If the user-specific information stored in the unique information DB 12a is already stored in the unique information DB 12a, it may be overwritten and stored, or it may be stored (stored) as time-series data together with the acquisition date and time. .. By accumulating various information (user-specific information) about the user in this way, the avatar (user's avatar) set in the own terminal 10 can be made to perform words and actions based on the user-specific information. That is, it is possible to make the avatar of the own terminal 10 perform words and actions that are likely to be performed by the user of the own terminal 10. When collecting user-specific information, the user's heart rate, electroencephalogram, electromyogram, etc. are measured to determine whether the user's mental and physical condition is relaxed and calm, and collected when the user is calm. Only the user-specific information obtained may be stored in the unique information DB 12a. In this case, by discarding the user-specific information collected when the mental and physical state is not calm and excited, only the user-specific information collected in the normal state of the user can be accumulated.

図7及び図8は、自端末10及び他端末20による言動処理の手順例を示すフローチャートである。以下の処理は、端末10,20の記憶部12,22に記憶してある制御プログラム12P,22Pに従って制御部11,21によって実行される。図7及び図8では左側に自端末10が行う処理を、右側に他端末20が行う処理をそれぞれ示す。図7及び図8に示す処理は、自端末10の制御部11が、言動実行部13cによって、自端末10に設定してあるアバターに、固有情報DB12aに記憶してあるユーザ固有情報に基づく言動処理(対話処理)を行わせ、他端末20のユーザ又はアバターとの間で対話を行う際の処理である。 7 and 8 are flowcharts showing an example of a procedure for word-and-action processing by the own terminal 10 and the other terminal 20. The following processing is executed by the control units 11 and 21 according to the control programs 12P and 22P stored in the storage units 12 and 22 of the terminals 10 and 20. In FIGS. 7 and 8, the processing performed by the own terminal 10 is shown on the left side, and the processing performed by the other terminal 20 is shown on the right side. The processing shown in FIGS. 7 and 8 is performed by the control unit 11 of the own terminal 10 based on the user-specific information stored in the unique information DB 12a in the avatar set in the own terminal 10 by the word / action execution unit 13c. This is a process for performing a process (dialogue process) and performing a dialogue with a user or an avatar of another terminal 20.

具体的には、言動実行部13cは、マイク18又は入力部15を介して、他端末20のいずれかのユーザ又は他端末20に設定してあるアバターとの対話の実行要求を受け付けたか否かを判断する(S21)。例えば自端末10のユーザは、対話したい相手の情報(他端末20のユーザ又はアバターを示す情報、他端末20の宛先情報等)と、対話したい内容とをマイク18又は入力部15を介して入力し、対話相手との対話を行うように自端末10のアバターに指示する。具体的には、自端末10のユーザは、「○○さんに△△について確認してきて。」と発話した場合、言動実行部13cは、対話相手として「○○さん」と、対話内容として「△△について」とを抽出し、対話相手との対話を行う指示として受け付ける。なお、対話したい相手が他端末20のアバターである場合、言動実行部13cは、対話相手として「○○さんのアバター」を抽出する。また言動実行部13cは、固有情報DB12aに記憶されたユーザ固有情報に基づいて、自端末10のユーザが対話したい相手及び対話内容を抽出し、抽出できた場合、対話相手との対話を行う指示(対話の実行要求)として受け付ける。 Specifically, whether or not the word / action execution unit 13c has received a request for executing a dialogue with any user of the other terminal 20 or an avatar set in the other terminal 20 via the microphone 18 or the input unit 15. Is determined (S21). For example, the user of the own terminal 10 inputs the information of the other party to interact with (information indicating the user or avatar of the other terminal 20, destination information of the other terminal 20, etc.) and the content to be interacted with via the microphone 18 or the input unit 15. Then, instruct the avatar of the own terminal 10 to have a dialogue with the dialogue partner. Specifically, when the user of the own terminal 10 utters "Please confirm △△ with Mr. XX.", The word / action execution unit 13c announces "Mr. XX" as the dialogue partner and "Mr. XX" as the dialogue content. "About △△" is extracted and accepted as an instruction to have a dialogue with the dialogue partner. When the other party to interact with is the avatar of the other terminal 20, the word / action execution unit 13c extracts "Mr. XX's avatar" as the dialogue partner. Further, the word / action execution unit 13c extracts the other party and the dialogue content that the user of the own terminal 10 wants to have a dialogue with based on the user-specific information stored in the unique information DB 12a, and if the extraction can be performed, an instruction to perform a dialogue with the dialogue partner. Accept as (dialogue execution request).

対話要求を受け付けていないと判断した場合(S21:NO)、言動実行部13cは、対話要求を受け付けるまで待機する。対話要求を受け付けたと判断した場合(S21:YES)、言動実行部13cは、要求された対話相手の宛先情報を宛先情報DB12bから読み出す(S22)。ステップS22において言動実行部13cは、要求された対話相手の情報(例えば氏名、他端末20の所有者名)に対応付けて宛先情報DB12bに記憶してある宛先情報を読み出す。そして言動実行部13cは、読み出した宛先情報に基づいて、要求された対話相手の他端末20に対して対話の実行を要求する(S23)。ステップS23において言動実行部13cは、要求された対話相手が他端末20のユーザであるか、他端末20に設定されたアバターであるかに応じて、他端末20のユーザ又はアバターに対する対話の実行を要求する。また言動実行部13cは、例えばチャットアプリ又はメッセージアプリ等を用いて他端末20との対話(メッセージの送受信)を行う。チャットアプリ又はメッセージアプリは予め記憶部12に記憶してある。 When it is determined that the dialogue request is not accepted (S21: NO), the word / action execution unit 13c waits until the dialogue request is accepted. When it is determined that the dialogue request has been accepted (S21: YES), the word / action execution unit 13c reads the requested destination information of the dialogue partner from the destination information DB 12b (S22). In step S22, the word / action execution unit 13c reads out the destination information stored in the destination information DB 12b in association with the requested information of the dialogue partner (for example, the name and the owner name of the other terminal 20). Then, the word / action execution unit 13c requests the other terminal 20 of the requested dialogue partner to execute the dialogue based on the read destination information (S23). In step S23, the word / action execution unit 13c executes a dialogue with the user or avatar of the other terminal 20 depending on whether the requested dialogue partner is the user of the other terminal 20 or the avatar set in the other terminal 20. To request. Further, the word / action execution unit 13c performs a dialogue (transmission / reception of a message) with another terminal 20 by using, for example, a chat application or a message application. The chat application or the message application is stored in the storage unit 12 in advance.

他端末20の制御部21(言動実行部23c)は、自端末10から対話の実行を要求された場合、要求された対話相手(他端末20のユーザ又はアバター)が対話可能であるか否かを判断する(S24)。ステップS24において言動実行部23cは、要求された対話相手が他端末20のユーザである場合、例えばスピーカ27又は表示部26を介して、対話要求を受け付けたことを通知(出力)し、マイク28又は入力部25を介して、要求された対話の実行が可能であるか否かを受け付ける。例えば言動実行部23cは、表示部26に「○○さんから対話要求がきています」等のメッセージと、対話の実行開始を指示するためのOKボタンと、対話の実行を拒否するためのキャンセルボタンとを表示する。そして言動実行部23cは、入力部25を介してOKボタン又はキャンセルボタンのいずれかに対する操作を受け付け、受け付けた操作に応じて、要求された対話の実行が可能であるか否かを判断する。また言動実行部23cは、スピーカ27にて「○○さんから対話要求がきています。どうしますか」等のメッセージを音声出力し、マイク28を介した音声入力にてユーザからの返答を受け付け、受け付けた返答に応じて、要求された対話の実行が可能であるか否かを判断する。また、要求された対話相手が他端末20のアバターである場合、言動実行部23cは、例えば自端末10以外の端末(他の他端末20)との間で対話中であるか否かに応じて、要求された対話の実行が可能であるか否かを判断する。例えば言動実行部23cは、自端末10以外の端末との間で対話中である場合、要求された対話の実行が可能でないと判断し、自端末10以外の端末との間で対話中でない場合、要求された対話の実行が可能であると判断する。 When the control unit 21 (word / action execution unit 23c) of the other terminal 20 is requested to execute the dialogue from the own terminal 10, whether or not the requested dialogue partner (user or avatar of the other terminal 20) can interact with the other terminal 20. Is determined (S24). In step S24, when the requested dialogue partner is a user of another terminal 20, the speech / action execution unit 23c notifies (outputs) that the dialogue request has been accepted, for example, via the speaker 27 or the display unit 26, and the microphone 28. Alternatively, it accepts whether or not the requested dialogue can be executed via the input unit 25. For example, the word / action execution unit 23c has a message such as "A dialogue request has come from Mr. XX" on the display unit 26, an OK button for instructing the start of the dialogue execution, and a cancel button for refusing the execution of the dialogue. And are displayed. Then, the word / action execution unit 23c accepts an operation for either the OK button or the cancel button via the input unit 25, and determines whether or not the requested dialogue can be executed according to the accepted operation. In addition, the word / action execution unit 23c outputs a message such as "A dialogue request has been received from Mr. XX. What should I do?" On the speaker 27, and receives a response from the user by voice input via the microphone 28. Depending on the response received, it is determined whether the requested dialogue can be performed. Further, when the requested dialogue partner is an avatar of another terminal 20, the word / action execution unit 23c depends on whether or not it is in a dialogue with a terminal other than the own terminal 10 (another other terminal 20), for example. To determine if the requested dialogue can be performed. For example, when the word / action execution unit 23c is in a dialogue with a terminal other than the own terminal 10, it determines that the requested dialogue cannot be executed, and is not in a dialogue with a terminal other than the own terminal 10. , Judge that the requested dialogue can be performed.

要求された対話相手が対話可能でないと判断した場合(S24:NO)、言動実行部23cは、対話可能でないこと(対話不可)を自端末10に通知する(S25)。対話不可の通知を受けた自端末10の言動実行部13cは、所定時間待機し(S26)、ステップS23の処理に戻り、再度、ステップS22で読み出した宛先情報に基づいて、対話相手の他端末20に対して対話の実行を要求する(S23)。 When it is determined that the requested dialogue partner is not capable of dialogue (S24: NO), the word / action execution unit 23c notifies the own terminal 10 that the requested dialogue partner is not capable of dialogue (dialogue is not possible) (S25). Upon receiving the notification that dialogue is not possible, the word / action execution unit 13c of the own terminal 10 waits for a predetermined time (S26), returns to the process of step S23, and again, based on the destination information read in step S22, the other terminal of the dialogue partner. Request 20 to execute a dialogue (S23).

他端末20の言動実行部23cは、自端末10から要求された対話が可能であると判断した場合(S24:YES)、対話可能である旨を自端末10に通知する(S27)。他端末20から対話可能を通知された場合、自端末10の言動実行部13cは、マイク18又は入力部15を介して要求された対話内容、又はユーザ固有情報から抽出した対話内容に基づいて対話情報を生成する(S28)。ステップS28において言動実行部13cは、対話内容として抽出した情報に基づいて対話情報を生成し、例えば「△△についてはどうなっていますか」のような対話メッセージを生成する。なお、言動実行部13cは、対話処理部13aによって、対話相手(他端末20のユーザ又はアバター)への対話メッセージを生成してもよい。そして言動実行部13cは、生成した対話情報を対話相手の他端末20に送信する(S29)。 When it is determined that the dialogue requested by the own terminal 10 is possible (S24: YES), the word / action execution unit 23c of the other terminal 20 notifies the own terminal 10 that the dialogue is possible (S27). When the other terminal 20 notifies that dialogue is possible, the word / action execution unit 13c of the own terminal 10 interacts based on the dialogue content requested via the microphone 18 or the input unit 15 or the dialogue content extracted from the user-specific information. Generate information (S28). In step S28, the word / action execution unit 13c generates dialogue information based on the information extracted as the dialogue content, and generates a dialogue message such as "What about △△?". The word / action execution unit 13c may generate a dialogue message to the dialogue partner (user or avatar of another terminal 20) by the dialogue processing unit 13a. Then, the word / action execution unit 13c transmits the generated dialogue information to the other terminal 20 of the dialogue partner (S29).

他端末20の言動実行部23cは、自端末10から対話情報を受信した場合、要求されていた対話相手が他端末20のユーザであるか否かを判断する(S30)。対話相手が他端末20のユーザであると判断した場合(S30:YES)、言動実行部23cは、受信した対話情報を出力する(S31)。ステップS31において言動実行部23cは、受信した対話情報(対話メッセージ)をスピーカ27又は表示部26にて出力する。言動実行部23cは、出力した対話情報に対する、他端末20のユーザからの返答情報(返答メッセージ)をマイク28又は入力部25を介して受け付け(S32)、受け付けた返答情報を自端末10に送信する(S33)。 When the dialogue information is received from the own terminal 10, the word / action execution unit 23c of the other terminal 20 determines whether or not the requested dialogue partner is a user of the other terminal 20 (S30). When it is determined that the dialogue partner is a user of the other terminal 20 (S30: YES), the word / action execution unit 23c outputs the received dialogue information (S31). In step S31, the word / action execution unit 23c outputs the received dialogue information (dialogue message) to the speaker 27 or the display unit 26. The word / action execution unit 23c receives the response information (response message) from the user of the other terminal 20 to the output dialogue information via the microphone 28 or the input unit 25 (S32), and transmits the accepted response information to the own terminal 10. (S33).

対話相手が他端末20のユーザでないと判断した場合(S30:NO)、即ち、対話相手が他端末20のアバターである場合、他端末20の言動実行部23cは、固有情報DB22aに記憶してあるユーザ固有情報に基づいて、自端末10から受信した対話情報に対する返答情報(返答メッセージ)を生成する(S34)。ステップS34において言動実行部23cは、自端末10から受信した対話情報が「△△についてはどうなっていますか」である場合、固有情報DB22aの記憶内容から「△△」に関する情報を検索し、検索結果を用いて、「□□となっています」のような返答メッセージを生成する。言動実行部23cは、生成した返答情報を自端末10に送信する(S33)。 When it is determined that the dialogue partner is not a user of the other terminal 20 (S30: NO), that is, when the dialogue partner is an avatar of the other terminal 20, the word / action execution unit 23c of the other terminal 20 stores it in the unique information DB 22a. Based on a certain user-specific information, response information (response message) for the dialogue information received from the own terminal 10 is generated (S34). In step S34, when the dialogue information received from the own terminal 10 is "What about △△", the word / action execution unit 23c searches the stored contents of the unique information DB 22a for information related to "△△". Use the search results to generate a response message such as "□□". The word / action execution unit 23c transmits the generated response information to the own terminal 10 (S33).

自端末10の言動実行部13cは、他端末20から受信した返答情報を履歴情報として言動履歴DB12cに記憶する(S35)。なお、言動実行部13cは、ステップS29で対話情報を他端末20に送信した場合にも、送信した対話情報を履歴情報として言動履歴DB12cに記憶する。これにより、他端末20との間で送受信されたメッセージ(対話内容)を言動履歴DB12cに蓄積できる。言動実行部13cは、他端末20との対話が終了したか否かを判断しており(S36)、終了していないと判断した場合(S36:NO)、ステップS28の処理に戻り、他端末20に送信すべき対話情報を更に生成する(S28)。自端末10及び他端末20の言動実行部13c,23cは、ステップS28〜S35の処理を繰り返すことによって対話を行い、対話の結果(送受信された対話情報)が言動履歴DB12cに蓄積される。自端末10の言動実行部13cは、他端末20との対話が終了したと判断した場合(S36:YES)、他端末20との対話を終了する。 The word / action execution unit 13c of the own terminal 10 stores the response information received from the other terminal 20 in the word / action history DB 12c as history information (S35). The word / action execution unit 13c also stores the transmitted dialogue information as history information in the word / action history DB 12c even when the dialogue information is transmitted to the other terminal 20 in step S29. As a result, the message (dialogue content) transmitted / received to / from the other terminal 20 can be stored in the behavior history DB 12c. The word / action execution unit 13c determines whether or not the dialogue with the other terminal 20 has ended (S36), and if it determines that the dialogue has not ended (S36: NO), returns to the process of step S28 and returns to the process of the other terminal 20. Further generation of dialogue information to be transmitted to 20 (S28). The words and actions execution units 13c and 23c of the own terminal 10 and the other terminal 20 engage in dialogue by repeating the processes of steps S28 to S35, and the result of the dialogue (dialogue information transmitted and received) is accumulated in the words and actions history DB 12c. When the word / action execution unit 13c of the own terminal 10 determines that the dialogue with the other terminal 20 has ended (S36: YES), the dialogue with the other terminal 20 ends.

上述した処理により、自端末10のユーザは、自端末10に設定してある自身のアバターによって、他端末20のユーザ又はアバターと対話することができる。よって、自端末10のユーザが直接他端末20のユーザと対話し辛い場合に、自身のアバターを介して他端末20のユーザと対話することができる。例えば自端末10のユーザが他端末20のユーザと喧嘩した場合に、自端末10のユーザは自身のアバターによって他端末20のユーザに謝罪して仲直りすることもできる。また、自端末10のユーザと他端末20のユーザとが対話する時間を確保できない場合であっても、例えばアバター同士で対話を行うことにより、対話時間を確保することができる。なお、言動実行部13c,23cは、各端末10,20のアバターに、固有情報DB12a,22aに記憶してあるユーザ固有情報に基づく言動処理(対話処理)を行わせるので、各端末10,20のユーザが行う可能性の高い対話処理を実現できる。 By the above-mentioned processing, the user of the own terminal 10 can interact with the user or the avatar of the other terminal 20 by the own avatar set in the own terminal 10. Therefore, when it is difficult for the user of the own terminal 10 to directly interact with the user of the other terminal 20, he / she can interact with the user of the other terminal 20 via his / her own avatar. For example, when the user of the own terminal 10 quarrels with the user of the other terminal 20, the user of the own terminal 10 can apologize to the user of the other terminal 20 and make up with his / her own avatar. Further, even when the time for the user of the own terminal 10 and the user of the other terminal 20 to interact cannot be secured, the dialogue time can be secured by, for example, having a dialogue between the avatars. Since the word / action execution units 13c and 23c cause the avatars of the terminals 10 and 20 to perform word / action processing (dialogue processing) based on the user-specific information stored in the unique information DBs 12a and 22a, the words / actions execution units 13c and 23c perform the word / action processing (dialogue processing) on the terminals 10 and 20. It is possible to realize the interactive processing that is likely to be performed by the user.

他端末20のユーザは例えば医師、看護師、作業療法士、栄養士等の専門家であってもよく、この場合、自端末10のユーザは、自身のアバターによって体調、病気、栄養管理等について専門家に相談することができる。また、他端末20のアバターは、これらの専門家のアバター(専門家アバター)であってもよい。例えば自端末10の言動実行部13cは、マイク18又は入力部15を介して自端末10のユーザから、所定の専門家又は専門家のアバターに対する相談(対話)の実行要求を受け付ける。そして、言動実行部13cは、受け付けた専門家又は専門家のアバターとの対話を、固有情報DB12aに蓄積したユーザ固有情報に基づいて行うことにより、専門家又は専門家のアバターに相談することができる。このように専門家又は専門家のアバターに相談した内容(対話内容)も対話履歴として言動履歴DB12cに記憶される。そして、自端末10のユーザからの要求に応じて、履歴出力部13dが対話履歴に係る対話内容を出力することにより、自端末10のユーザは相談結果を知ることができる。このような構成とした場合、自端末10のユーザが自身では聞き辛い内容の相談であっても、自身の代わりにアバターが専門家に相談して専門家からの回答を取得するので、自端末10のユーザは気軽に相談できる。また、専門家のアバターに相談する場合、忙しい専門家の代わりに専門家のアバターによって相談内容に対する回答が得られる。 The user of the other terminal 20 may be an expert such as a doctor, a nurse, an occupational therapist, or a dietitian. In this case, the user of the own terminal 10 specializes in physical condition, illness, nutritional management, etc. by his / her avatar. You can talk to your house. Further, the avatar of the other terminal 20 may be an avatar of these experts (expert avatar). For example, the word / action execution unit 13c of the own terminal 10 receives a consultation (dialogue) execution request for a predetermined expert or an expert's avatar from the user of the own terminal 10 via the microphone 18 or the input unit 15. Then, the word / action execution unit 13c may consult with the expert or the expert's avatar by conducting a dialogue with the received expert or the expert's avatar based on the user-specific information accumulated in the unique information DB 12a. it can. In this way, the content (dialogue content) consulted with the expert or the expert's avatar is also stored in the behavior history DB 12c as the dialogue history. Then, in response to the request from the user of the own terminal 10, the history output unit 13d outputs the dialogue content related to the dialogue history, so that the user of the own terminal 10 can know the consultation result. With such a configuration, even if the user of the own terminal 10 consults with a content that is difficult to hear by himself / herself, the avatar consults with an expert instead of himself / herself and obtains an answer from the expert. Ten users can feel free to consult. Also, when consulting with an expert avatar, the expert avatar will answer the consultation instead of the busy expert.

図9及び図10は、自端末10及び他端末20による言動処理の手順例を示すフローチャート、図11は画面例を示す模式図である。図9及び図10では左側に自端末10が行う処理を、右側に他端末20が行う処理をそれぞれ示す。図9及び図10に示す処理は、自端末10のユーザが、自端末10を用いて他端末20のユーザ又はアバターとの間で対話を行う際の処理である。図9及び図10に示す処理において、図7及び図8に示す処理と同様の処理については詳細な説明を省略する。 9 and 10 are flowcharts showing a procedure example of speech / action processing by the own terminal 10 and another terminal 20, and FIG. 11 is a schematic diagram showing a screen example. In FIGS. 9 and 10, the processing performed by the own terminal 10 is shown on the left side, and the processing performed by the other terminal 20 is shown on the right side. The processes shown in FIGS. 9 and 10 are processes when the user of the own terminal 10 has a dialogue with the user or the avatar of the other terminal 20 using the own terminal 10. In the processes shown in FIGS. 9 and 10, detailed description of the same processes as those shown in FIGS. 7 and 8 will be omitted.

自端末10の言動実行部13cは、マイク18又は入力部15を介して、他端末20のいずれかのユーザ又はアバターとの対話の実行要求を受け付けたか否かを判断する(S41)。例えば自端末10のユーザは、対話したい相手の情報(他端末20のユーザ又はアバターを示す情報、他端末20の宛先情報等)をマイク18又は入力部15を介して入力し、自身による対話相手との対話の実行を指示する。具体的には、自端末10のユーザは、「○○さんと話したい」と発話した場合、言動実行部13cは、対話相手として「○○さん」を抽出し、対話相手との対話の実行指示として受け付ける。なお、対話したい相手が他端末20のアバターである場合、言動実行部13cは、対話相手として「○○さんのアバター」を抽出する。 The word / action execution unit 13c of the own terminal 10 determines whether or not the execution request of the dialogue with any user or avatar of the other terminal 20 has been received via the microphone 18 or the input unit 15 (S41). For example, the user of the own terminal 10 inputs information of the other party to talk to (information indicating the user or avatar of the other terminal 20, destination information of the other terminal 20, etc.) through the microphone 18 or the input unit 15, and the user of the own terminal 10 talks with the other party. Instruct to perform a dialogue with. Specifically, when the user of the own terminal 10 utters "I want to talk to Mr. XX", the word / action execution unit 13c extracts "Mr. XX" as the dialogue partner and executes the dialogue with the dialogue partner. Accept as an instruction. When the other party to interact with is the avatar of the other terminal 20, the word / action execution unit 13c extracts "Mr. XX's avatar" as the dialogue partner.

対話要求を受け付けていないと判断した場合(S41:NO)、言動実行部13cは対話要求を受け付けるまで待機する。対話要求を受け付けたと判断した場合(S41:YES)、言動実行部13cは、要求された対話相手の宛先情報を宛先情報DB12bから読み出す(S42)。そして言動実行部13cは、読み出した宛先情報に基づいて、要求された対話相手の他端末20に対して対話の実行を要求する(S43)。なお、言動実行部13cは、要求された対話相手が他端末20のユーザであるかアバターであるかに応じて、他端末20のユーザ又はアバターに対する対話の実行を要求する。 When it is determined that the dialogue request is not accepted (S41: NO), the word / action execution unit 13c waits until the dialogue request is accepted. When it is determined that the dialogue request has been accepted (S41: YES), the word / action execution unit 13c reads the requested destination information of the dialogue partner from the destination information DB 12b (S42). Then, the word / action execution unit 13c requests the other terminal 20 of the requested dialogue partner to execute the dialogue based on the read destination information (S43). The word / action execution unit 13c requests execution of a dialogue with the user or avatar of the other terminal 20 depending on whether the requested dialogue partner is a user or an avatar of the other terminal 20.

他端末20の言動実行部23cは、自端末10から対話の実行を要求された場合、要求された対話相手(他端末20のユーザ又はアバター)が対話可能であるか否かを判断する(S44)。要求された対話相手が対話可能でないと判断した場合(S44:NO)、言動実行部23cは、対話可能でないこと(対話不可)を自端末10に通知する(S45)。他端末20から対話不可を通知された場合、自端末10の言動実行部13cは、他端末20のユーザ又はアバターが対話不可であることを示すメッセージを表示部16に表示するか、又はスピーカ17から音声出力することにより、自端末10のユーザに通知し(S46)、処理を終了する。 When the own terminal 10 requests the execution of a dialogue, the word / action execution unit 23c of the other terminal 20 determines whether or not the requested dialogue partner (user or avatar of the other terminal 20) can interact (S44). ). When it is determined that the requested dialogue partner is not capable of dialogue (S44: NO), the word / action execution unit 23c notifies the own terminal 10 that the requested dialogue partner is not capable of dialogue (cannot be dialogue) (S45). When the other terminal 20 notifies that the dialogue is not possible, the word / action execution unit 13c of the own terminal 10 displays a message indicating that the user or the avatar of the other terminal 20 cannot interact with the display unit 16 or the speaker 17 By outputting voice from, the user of the own terminal 10 is notified (S46), and the process is terminated.

他端末20の言動実行部23cは、自端末10から要求された対話が可能であると判断した場合(S44:YES)、対話可能である旨を自端末10が通知する(S47)。他端末20から対話可能を通知された場合、自端末10の言動実行部13cは、他端末20のユーザ又はアバターが対話可能であることを示すメッセージを表示部16に表示するか、又はスピーカ17から音声出力することにより、自端末10のユーザに通知する(S48)。なお、ユーザ端末10,20がカメラを有し、カメラにて撮影したユーザの撮影画像をユーザ端末10,20間で送受信するテレビ電話を行えるように構成されている場合、自端末10の言動実行部13cは、図11Aに示すような画面を表示部16に表示し、他端末20のユーザとのテレビ電話を開始してもよい。なお、図11Aは他端末20のユーザの撮影画像を表示した例を示しており、自端末10のユーザは、図11Aに示すような画面を介して他端末20のユーザと対話することができる。また、対話相手が他端末20のアバターである場合、他端末20の言動実行部23cは、他端末20に設定してあるアバターの画像を自端末10へ送信し、自端末10の言動実行部13cは、図11Bに示すような画面を表示部16に表示する。図11Bは他端末20のアバターの画像を表示した例を示しており、自端末10のユーザは、図11Bに示すような画面を介して他端末20のアバターと対話することができる。 When the word / action execution unit 23c of the other terminal 20 determines that the dialogue requested by the own terminal 10 is possible (S44: YES), the own terminal 10 notifies that the dialogue is possible (S47). When the other terminal 20 notifies that dialogue is possible, the word / action execution unit 13c of the own terminal 10 displays a message indicating that the user or avatar of the other terminal 20 is capable of dialogue on the display unit 16 or the speaker 17 Notifies the user of the own terminal 10 by outputting voice from (S48). When the user terminals 10 and 20 have a camera and are configured to be able to make a videophone call to send and receive a photographed image of the user taken by the camera between the user terminals 10 and 20, the behavior of the own terminal 10 is executed. The unit 13c may display a screen as shown in FIG. 11A on the display unit 16 and start a videophone call with a user of another terminal 20. Note that FIG. 11A shows an example in which a photographed image of a user of another terminal 20 is displayed, and the user of the own terminal 10 can interact with the user of the other terminal 20 via a screen as shown in FIG. 11A. .. When the dialogue partner is an avatar of another terminal 20, the word / action execution unit 23c of the other terminal 20 transmits an image of the avatar set in the other terminal 20 to the own terminal 10 and the word / action execution unit of the own terminal 10. The 13c displays a screen as shown in FIG. 11B on the display unit 16. FIG. 11B shows an example in which an image of the avatar of the other terminal 20 is displayed, and the user of the own terminal 10 can interact with the avatar of the other terminal 20 via the screen as shown in FIG. 11B.

言動実行部13cは、マイク18又は入力部15を介して自端末10のユーザから対話相手への対話情報を受け付け(S49)、受け付けた対話情報を対話相手の他端末20に送信する(S50)。他端末20の言動実行部23cは、自端末10から対話情報を受信した場合、要求されていた対話相手が他端末20のユーザであるか否かを判断する(S51)。対話相手が他端末20のユーザであると判断した場合(S51:YES)、言動実行部23cは、受信した対話情報(対話メッセージ)をスピーカ27又は表示部26にて出力する(S52)。そして言動実行部23cは、出力した対話情報に対する、他端末20のユーザからの返答情報(返答メッセージ)をマイク28又は入力部25を介して受け付け(S53)、受け付けた返答情報を自端末10に送信する(S54)。 The speech / action execution unit 13c receives dialogue information from the user of the own terminal 10 to the dialogue partner via the microphone 18 or the input unit 15 (S49), and transmits the received dialogue information to the other terminal 20 of the dialogue partner (S50). .. When the dialogue information is received from the own terminal 10, the word / action execution unit 23c of the other terminal 20 determines whether or not the requested dialogue partner is a user of the other terminal 20 (S51). When it is determined that the dialogue partner is a user of the other terminal 20 (S51: YES), the word / action execution unit 23c outputs the received dialogue information (dialogue message) to the speaker 27 or the display unit 26 (S52). Then, the word / action execution unit 23c receives the response information (response message) from the user of the other terminal 20 to the output dialogue information via the microphone 28 or the input unit 25 (S53), and receives the received response information to the own terminal 10. Transmit (S54).

対話相手が他端末20のユーザでないと判断した場合(S51:NO)、即ち、対話相手が他端末20のアバターである場合、他端末20の言動実行部23cは、固有情報DB22aに記憶してあるユーザ固有情報に基づいて、自端末10から受信した対話情報に対する返答情報(返答メッセージ)を生成する(S55)。そして言動実行部23cは、生成した返答情報を自端末10に送信する(S54)。自端末10の言動実行部13cは、他端末20から受信した返答情報(返答メッセージ)をスピーカ17又は表示部16にて出力し(S56)、更に履歴情報として言動履歴DB12cに記憶する(S57)。なお、言動実行部13cは、ステップS50で対話情報を他端末20に送信した場合にも、送信した対話情報を履歴情報として言動履歴DB12cに記憶しておく。これにより、他端末20との間で送受信されたメッセージ(対話内容)を言動履歴DB12cに蓄積できる。 When it is determined that the dialogue partner is not a user of the other terminal 20 (S51: NO), that is, when the dialogue partner is an avatar of the other terminal 20, the word / action execution unit 23c of the other terminal 20 stores it in the unique information DB 22a. Based on a certain user-specific information, response information (response message) for the dialogue information received from the own terminal 10 is generated (S55). Then, the word / action execution unit 23c transmits the generated response information to the own terminal 10 (S54). The word / action execution unit 13c of the own terminal 10 outputs the reply information (reply message) received from the other terminal 20 to the speaker 17 or the display unit 16 (S56), and further stores it in the word / action history DB 12c as history information (S57). .. The word / action execution unit 13c also stores the transmitted dialogue information as history information in the word / action history DB 12c even when the dialogue information is transmitted to the other terminal 20 in step S50. As a result, the message (dialogue content) transmitted / received to / from the other terminal 20 can be stored in the behavior history DB 12c.

自端末10の言動実行部13cは、他端末20との対話が終了したか否かを判断しており(S58)、終了していないと判断した場合(S58:NO)、ステップS49の処理に戻り、他端末20に送信すべき対話情報を、マイク18又は入力部15を介して自端末10のユーザから受け付ける(S49)。自端末10及び他端末20の言動実行部13c,23cは、ステップS49〜S57の処理を繰り返すことによって対話を行い、対話の結果(送受信された対話情報)が言動履歴DB12cに蓄積される。自端末10の言動実行部13cは、他端末20との対話が終了したと判断した場合(S58:YES)、他端末20との対話を終了する。 The word / action execution unit 13c of the own terminal 10 determines whether or not the dialogue with the other terminal 20 has ended (S58), and if it determines that the dialogue has not ended (S58: NO), the process of step S49 is performed. Returning, the dialogue information to be transmitted to the other terminal 20 is received from the user of the own terminal 10 via the microphone 18 or the input unit 15 (S49). The words and actions execution units 13c and 23c of the own terminal 10 and the other terminal 20 engage in dialogue by repeating the processes of steps S49 to S57, and the result of the dialogue (dialogue information transmitted and received) is accumulated in the words and actions history DB 12c. When the word / action execution unit 13c of the own terminal 10 determines that the dialogue with the other terminal 20 has ended (S58: YES), the dialogue with the other terminal 20 ends.

上述した処理により、自端末10のユーザは、自端末10を用いて他端末20のユーザ又はアバターと対話することができる。よって、自端末10のユーザは端末10,20を介して他端末20のユーザと対話することができ、互いの撮影画像を送受信した場合にはテレビ電話が可能となる。また自端末10のユーザが直接他端末20のユーザと対話し辛い場合又は他端末20のユーザが忙しい場合に、他端末20のアバターと対話することにより、他端末20のユーザとの対話を擬似的に実現することができる。なお、他端末20のユーザは例えば医師、看護師、作業療法士、栄養士等の専門家であってもよく、この場合、自端末10のユーザは、体調、病気、栄養管理等について専門家に相談することができる。また、他端末20のアバターは、これらの専門家のアバター(専門家アバター)であってもよい。この場合、自端末10のユーザは、忙しい専門家の代わりに専門家のアバターによって相談内容に対する回答が得られるので、気軽に相談できる。 By the process described above, the user of the own terminal 10 can interact with the user or the avatar of the other terminal 20 by using the own terminal 10. Therefore, the user of the own terminal 10 can interact with the user of the other terminal 20 via the terminals 10 and 20, and when the captured images are transmitted and received from each other, the videophone can be made. Further, when the user of the own terminal 10 has difficulty in directly interacting with the user of the other terminal 20, or when the user of the other terminal 20 is busy, the dialogue with the user of the other terminal 20 is simulated by interacting with the avatar of the other terminal 20. Can be realized. The user of the other terminal 20 may be an expert such as a doctor, a nurse, an occupational therapist, or a dietitian. In this case, the user of the own terminal 10 becomes an expert on physical condition, illness, nutritional management, and the like. You can consult. Further, the avatar of the other terminal 20 may be an avatar of these experts (expert avatar). In this case, the user of the own terminal 10 can feel free to consult because the answer to the consultation content can be obtained by the expert's avatar instead of the busy expert.

図12は、自端末10による言動処理の手順例を示すフローチャートである。図12に示す処理は、自端末10の制御部11が、言動実行部13cによって自端末10のアバターに、固有情報DB12aに記憶してあるユーザ固有情報に基づいて擬似的な外出行為を行わせる処理である。言動実行部13cは、固有情報DB12aに蓄積してある情報に基づいて、自端末10のユーザが行きたいと思っている場所があるか否かを判断する(S61)。また言動実行部13cは、マイク18又は入力部15を介して自端末10のユーザから行きたい場所の情報を受け付けたか否かに応じて、自端末10のユーザが行きたいと思っている場所があるか否かを判断してもよい。 FIG. 12 is a flowchart showing an example of a procedure for word-and-action processing by the own terminal 10. In the process shown in FIG. 12, the control unit 11 of the own terminal 10 causes the avatar of the own terminal 10 to perform a pseudo outing action based on the user-specific information stored in the unique information DB 12a by the word / action execution unit 13c. It is a process. The word / action execution unit 13c determines whether or not there is a place where the user of the own terminal 10 wants to go, based on the information stored in the unique information DB 12a (S61). Further, the word / action execution unit 13c may determine the place where the user of the own terminal 10 wants to go, depending on whether or not the information of the place where the user of the own terminal 10 wants to go is received through the microphone 18 or the input unit 15. You may decide whether or not there is.

自端末10のユーザが行きたい場所があると判断した場合(S61:YES)、言動実行部13cは、ネットワークN上で公開されている各種の情報から、行きたい場所に関する情報を検索する(S62)。そして言動実行部13cは、検索結果から、自端末10のユーザが行きたい場所においてカメラで撮影されてネットワークN上で公開されている撮影画像をネットワークN経由で収集する(S63)。例えばユーザが富士山に登りたいと思っている場合、言動実行部13cは、富士山の近傍に設置されているカメラによって撮影された富士山の撮影画像、富士山の登山客が撮影した画像等を収集する。これにより、言動実行部13cは、自端末10のアバターを介して、自端末10のユーザが行きたい場所に行って撮影画像を取得する外出行為を擬似的に実行することができる。言動実行部13cは、収集した撮影画像を履歴情報として言動履歴DB12cに記憶する(S64)。なお、収集する情報は、撮影画像に限定されず、当該場所に関する情報であればどのような情報でもよい。また言動実行部13cは、収集した複数の情報を、例えばユーザ固有情報に基づいてユーザの好みに適した情報に編集した後に言動履歴DB12cに記憶してもよい。 When the user of the own terminal 10 determines that there is a place he / she wants to go to (S61: YES), the word / action execution unit 13c searches for information about the place he / she wants to go from various information published on the network N (S62). ). Then, the word / action execution unit 13c collects the captured images taken by the camera at the place where the user of the own terminal 10 wants to go and published on the network N from the search results via the network N (S63). For example, when the user wants to climb Mt. Fuji, the behavior execution unit 13c collects images of Mt. Fuji taken by a camera installed near Mt. Fuji, images taken by climbers of Mt. Fuji, and the like. As a result, the word / action execution unit 13c can perform a pseudo-going-out act of going to a place where the user of the own terminal 10 wants to go and acquiring a photographed image via the avatar of the own terminal 10. The behavior execution unit 13c stores the collected captured image as history information in the behavior history DB 12c (S64). The information to be collected is not limited to the captured image, and may be any information as long as it is information about the location. Further, the word / action execution unit 13c may store the collected information in the word / action history DB 12c after editing the collected information into information suitable for the user's preference based on, for example, user-specific information.

自端末10のユーザが行きたい場所がないと判断した場合(S61:NO)、言動実行部13cは、固有情報DB12aに蓄積してある情報に基づいて、自端末10のユーザがやりたいと思っていることがあるか否かを判断する(S65)。自端末10のユーザがやりたいことがあると判断した場合(S65:YES)、言動実行部13cは、ネットワークN上で公開されている各種の情報から、やりたいことに関する情報を検索する(S66)。そして言動実行部13cは、検索結果から、自端末10のユーザがやりたいことに関してネットワークN上で公開されている撮影画像をネットワークN経由で収集する(S67)。例えばユーザがスカイダイビングをしたいと思っている場合、言動実行部13cは、スカイダイビングをしている人を撮影した画像、スカイダイビング中に撮影された画像等を収集する。これにより、言動実行部13cは、自端末10のアバターを介して、自端末10のユーザがやりたいことを擬似的に実行することができる。言動実行部13cは、収集した撮影画像を履歴情報として言動履歴DB12cに記憶する(S68)。なお、収集する情報は、撮影画像に限定されず、当該やりたいことに関する情報であればどのような情報でもよい。また言動実行部13cは、収集した複数の情報を、例えばユーザ固有情報に基づいてユーザの好みに適した情報に編集した後に言動履歴DB12cに記憶してもよい。 When it is determined that there is no place where the user of the own terminal 10 wants to go (S61: NO), the word / action execution unit 13c wants to do it based on the information stored in the unique information DB 12a. It is determined whether or not there is a case (S65). When the user of the own terminal 10 determines that there is something he / she wants to do (S65: YES), the word / action execution unit 13c searches various information published on the network N for information about what he / she wants to do (S66). Then, the word / action execution unit 13c collects captured images published on the network N regarding what the user of the own terminal 10 wants to do from the search results via the network N (S67). For example, when the user wants to skydive, the behavior execution unit 13c collects an image of a person doing skydiving, an image taken during skydiving, and the like. As a result, the word / action execution unit 13c can pseudo-execute what the user of the own terminal 10 wants to do through the avatar of the own terminal 10. The behavior execution unit 13c stores the collected captured image as history information in the behavior history DB 12c (S68). The information to be collected is not limited to the captured image, and may be any information as long as it is information about the desired thing to be done. Further, the word / action execution unit 13c may store the collected information in the word / action history DB 12c after editing the collected information into information suitable for the user's preference based on, for example, user-specific information.

ユーザがやりたいことがないと判断した場合(S65:NO)、言動実行部13cは、ステップS61の処理に戻り、行きたい場所又はやりたいことがあると判断する都度、上述した処理によって各種の情報を収集し、擬似的な行為の履歴情報を言動履歴DB12cに蓄積できる。上述した処理により、自端末10は、固有情報DB12aに蓄積されたユーザ固有の情報に基づいて、ユーザが行きたい場所又はやりたいことを適宜抽出し、ユーザに代わって行動し、行動した結果得られた情報を履歴情報として蓄積できる。よって、自端末10のユーザは、行きたい場所に行く時間又はやりたいことをやる時間がない場合であっても、自端末10のアバターによって、行きたい場所に擬似的に行き、また、やりたいことを擬似的に行うことができる。なお、言動実行部13cは、自端末10のアバターを介して、固有情報DB12aに記憶してあるユーザ固有情報に基づく言動処理(行動、外出)を行うので、自端末10のユーザが行う可能性の高い行動を実現できる。 When the user determines that there is nothing he / she wants to do (S65: NO), the word / action execution unit 13c returns to the process of step S61, and each time he / she determines that he / she wants to go or has something he / she wants to do, he / she outputs various information by the above-mentioned process. It can be collected and the history information of the pseudo action can be stored in the behavior history DB 12c. By the above-described processing, the own terminal 10 appropriately extracts the place or what the user wants to go to based on the user-specific information stored in the unique information DB 12a, acts on behalf of the user, and obtains the result of the action. Information can be accumulated as history information. Therefore, even if the user of the own terminal 10 does not have time to go to the place he / she wants to go or do what he / she wants to do, he / she can use the avatar of the own terminal 10 to pseudo-go to the place he / she wants to go and do what he / she wants to do. It can be done in a pseudo manner. Since the word / action execution unit 13c performs word / action processing (action, going out) based on the user-specific information stored in the unique information DB 12a via the avatar of the own terminal 10, the user of the own terminal 10 may perform the word / action processing. Can achieve high behavior.

図13は、自端末10による言動履歴の再生処理の手順例を示すフローチャート、図14は画面例を示す模式図である。図7〜図10に示す対話処理及び図12に示す行動処理によって言動履歴DB12cに言動履歴(履歴情報)を蓄積した自端末10において、制御部11は、履歴出力部13dによって、蓄積した履歴情報を表示部16又はスピーカ17にて再生する。具体的には、履歴出力部13dは、マイク18又は入力部15を介して、言動履歴DB12cに蓄積した言動履歴(履歴情報)に対する再生要求を受け付けたか否かを判断する(S71)。自端末10のユーザは、いずれかの言動履歴を再生させたい場合、マイク18又は入力部15を介して言動履歴の再生要求を入力する。 FIG. 13 is a flowchart showing an example of a procedure for reproducing the behavior history by the own terminal 10, and FIG. 14 is a schematic diagram showing a screen example. In the own terminal 10 in which the behavior history (history information) is accumulated in the behavior history DB 12c by the dialogue processing shown in FIGS. 7 to 10 and the action processing shown in FIG. Is reproduced on the display unit 16 or the speaker 17. Specifically, the history output unit 13d determines whether or not a reproduction request for the word / action history (history information) accumulated in the word / action history DB 12c has been received via the microphone 18 or the input unit 15 (S71). When the user of the own terminal 10 wants to reproduce any of the behavior history, he / she inputs a reproduction request of the behavior history via the microphone 18 or the input unit 15.

履歴出力部13dは、言動履歴に対する再生要求を受け付けていないと判断した場合(S71:NO)、再生要求を受け付けるまで待機する。履歴出力部13dは、再生要求を受け付けたと判断した場合(S71:YES)、言動履歴DB12cに蓄積した言動履歴(履歴情報)に基づいて、図14に示すように、それぞれの言動履歴に関する情報を表示する履歴画面を生成する(S72)。履歴出力部13dは、生成した履歴画面を表示部16に表示する(S73)。図14に示す履歴画面は、左上に自端末10のアバターの画像を表示し、自端末10のアバターが今日行った活動(言動)について、言動履歴DB12cに蓄積した言動履歴のそれぞれに基づいて、履歴情報のサムネイル画像及び言動内容を示す情報を表示する。履歴情報のサムネイル画像は、履歴情報に含まれる言動データが画像データである場合、この画像データに基づいて生成される。なお、履歴情報に含まれる言動データが画像データでない場合、例えば言動データが音声データのみである場合、サムネイル画像の代わりに「音声のみ」のメッセージを表示してもよい。履歴画面に表示される言動内容を示す情報は、履歴情報に含まれる言動内容、相手情報、場所情報等に基づいて生成される。また履歴画面は、自端末10のアバターが過去に行った活動(言動)における言動履歴(履歴情報)を表示させるための「過去の活動履歴」ボタンを表示している。よって、履歴画面において「過去の活動履歴」ボタンが入力部15を介して操作された場合、履歴出力部13dは、言動履歴DB12cに蓄積した過去の言動履歴に関する情報を履歴画面に表示する。 When the history output unit 13d determines that the reproduction request for the behavior history is not accepted (S71: NO), the history output unit 13d waits until the reproduction request is accepted. When the history output unit 13d determines that the reproduction request has been accepted (S71: YES), the history output unit 13d outputs information related to each behavior history as shown in FIG. 14 based on the behavior history (history information) accumulated in the behavior history DB 12c. Generate a history screen to be displayed (S72). The history output unit 13d displays the generated history screen on the display unit 16 (S73). The history screen shown in FIG. 14 displays an image of the avatar of the own terminal 10 on the upper left, and the activity (words and actions) performed by the avatar of the own terminal 10 today is based on each of the words and actions history accumulated in the words and actions history DB 12c. A thumbnail image of history information and information indicating the content of words and actions are displayed. When the behavior data included in the history information is image data, the thumbnail image of the history information is generated based on this image data. If the word / action data included in the history information is not image data, for example, if the word / action data is only voice data, a “voice only” message may be displayed instead of the thumbnail image. The information indicating the behavioral content displayed on the history screen is generated based on the behavioral content, partner information, location information, etc. included in the history information. Further, the history screen displays a "past activity history" button for displaying the word / action history (history information) in the activity (word / action) performed by the avatar of the own terminal 10 in the past. Therefore, when the "past activity history" button is operated via the input unit 15 on the history screen, the history output unit 13d displays the information on the past behavior history accumulated in the behavior history DB 12c on the history screen.

履歴画面は、言動履歴のいずれかを再生対象に選択できるように構成されており、選択された言動履歴の再生を要求するための再生ボタンと、再生処理を終了するためのキャンセルボタンとを表示している。履歴出力部13dは、履歴画面において入力部15を介して、いずれかの言動履歴が選択されて再生ボタンが操作されたか否かに応じて、選択された履歴情報に対する再生要求(出力要求)を受け付けたか否かを判断する(S74)。再生要求を受け付けていないと判断した場合(S74:NO)、履歴出力部13dは、再生要求を受け付けるまで待機する。再生要求を受け付けたと判断した場合(S74:YES)、履歴出力部13dは、選択された履歴情報を言動履歴DB12cから読み出し(S75)、読み出した履歴情報を表示部16又はスピーカ17にて出力する(S76)。例えば対話処理の履歴情報に音声データの対話データ(対話音声)が含まれる場合、音声データがスピーカ17から出力され、テキストデータの対話データが含まれる場合、テキストデータが表示部16に表示される。これにより、自端末10のアバターが他端末20のユーザ又はアバターとの間で擬似的に行った対話処理を再現することができる。また、例えば外出処理の履歴情報に画像データ(撮影画像)が含まれる場合、画像データが表示部16に表示され、自端末10のアバターが擬似的に行った外出処理を再現することができる。 The history screen is configured so that any one of the behavior history can be selected as a playback target, and a play button for requesting playback of the selected behavior history and a cancel button for ending the playback process are displayed. are doing. The history output unit 13d makes a reproduction request (output request) for the selected history information according to whether or not any of the words and actions history is selected and the play button is operated via the input unit 15 on the history screen. It is determined whether or not it has been accepted (S74). When it is determined that the reproduction request is not accepted (S74: NO), the history output unit 13d waits until the reproduction request is accepted. When it is determined that the reproduction request has been accepted (S74: YES), the history output unit 13d reads the selected history information from the behavior history DB 12c (S75), and outputs the read history information on the display unit 16 or the speaker 17. (S76). For example, when the history information of the dialogue processing includes the dialogue data (dialogue voice) of the voice data, the voice data is output from the speaker 17, and when the dialogue data of the text data is included, the text data is displayed on the display unit 16. .. As a result, it is possible to reproduce the interactive processing performed by the avatar of the own terminal 10 with the user or the avatar of the other terminal 20 in a pseudo manner. Further, for example, when the history information of the outing process includes image data (captured image), the image data is displayed on the display unit 16, and the outing process simulated by the avatar of the own terminal 10 can be reproduced.

上述した処理により、本実施形態では、自端末10のユーザに代わって自端末10のアバターが、他端末20のユーザ又はアバターと対話を実行することができる。また、自端末10のユーザが行きたい場所に擬似的に出かけ、また、自端末10のユーザがやりたいことを擬似的に実行し、実行した結果を示す履歴情報を自端末10のユーザに提供することができる。よって、自端末10のユーザは、自端末10のアバターから提供された履歴情報を再生することによって、アバターが他端末20のユーザ又はアバターと対話した内容を確認することができる。また、自端末10のユーザは、自端末10のアバターから提供された履歴情報を再生することによって、アバターが擬似的に行った行動を辿ることができる。よって、自端末10のユーザは、アバターから提供された履歴情報に基づいて、実際に行ってみたい場所又はやってみたいことを選択することができ、実際の行動に移すことができる。 By the above-described processing, in the present embodiment, the avatar of the own terminal 10 can perform a dialogue with the user of the other terminal 20 or the avatar on behalf of the user of the own terminal 10. In addition, the user of the own terminal 10 pseudo-goes to the place he / she wants to go, and the user of the own terminal 10 pseudo-executes what he / she wants to do, and provides the user of the own terminal 10 with history information indicating the execution result. be able to. Therefore, the user of the own terminal 10 can confirm the content of the avatar interacting with the user of the other terminal 20 or the avatar by playing back the history information provided by the avatar of the own terminal 10. In addition, the user of the own terminal 10 can trace the behavior simulated by the avatar by playing back the history information provided by the avatar of the own terminal 10. Therefore, the user of the own terminal 10 can select the place he / she wants to actually go to or what he / she wants to do based on the history information provided by the avatar, and can move to the actual action.

本実施形態では、ユーザ端末10,20の対話処理部13a,23aは、ユーザ端末10,20のユーザと対話することができ、ユーザは、自身のユーザ端末10,20(ユーザ端末10,20のアバター)と対話することによって孤独感及び不安を和らげることができる。また、ユーザ端末10,20の固有情報収集部13b,23bは、ユーザ端末10,20のユーザとの対話内容等から各ユーザのユーザ固有情報を収集する。よって、ユーザの属性、行動履歴、趣味、好み、思考傾向等の固有情報を蓄積することができる。そして、このような固有情報に基づく言動をユーザのアバターに行わせることにより、ユーザが言動する代わりにユーザと同じような言動をアバターに行わせることができる。従って、ユーザの代わりにユーザのアバターが他のユーザと対話することができる。また、ユーザが行きたい場所にアバターが代わりに出かけることができ、ユーザがやりたいことをアバターが代わりに実現することができる。ユーザの代わりにアバターが行った言動について履歴情報を蓄積しておき、蓄積した履歴情報を再生させることにより、ユーザは、アバターによる言動を擬似的に体験することができる。このようなアバターを介した擬似的な体験や自身による擬似的な体験を通して、ユーザは新たな気づきを得て、精神的により豊かな生活を送ることができるようになったり、現実世界での接点の拡大によって実際の行動変化を引き起こしたりすることが期待できる。 In the present embodiment, the dialogue processing units 13a and 23a of the user terminals 10 and 20 can interact with the user of the user terminals 10 and 20, and the user can interact with the user of the user terminals 10 and 20 (user terminals 10 and 20). You can relieve loneliness and anxiety by interacting with (avatar). Further, the unique information collecting units 13b and 23b of the user terminals 10 and 20 collect user-specific information of each user from the contents of dialogue with the users of the user terminals 10 and 20. Therefore, it is possible to accumulate unique information such as user attributes, behavior history, hobbies, preferences, and thinking tendencies. Then, by causing the user's avatar to perform words and actions based on such unique information, the avatar can be made to perform words and actions similar to those of the user instead of the user's words and actions. Therefore, the user's avatar can interact with other users on behalf of the user. Also, the avatar can go where the user wants to go instead, and the avatar can do what the user wants to do instead. By accumulating history information about the words and actions performed by the avatar on behalf of the user and reproducing the accumulated history information, the user can experience the words and actions by the avatar in a simulated manner. Through such simulated experiences through avatars and simulated experiences by oneself, users can gain new awareness and lead a mentally richer life, and contact points in the real world. It can be expected that the expansion of will cause actual behavioral changes.

また本実施形態において、言動実行部13cは、数年後又は数十年後等の将来に生じる可能性のあるイベントに関して、例えば専門家(専門家の端末)に問合せを行い、専門家の意見又はアドバイス(イベントに係る情報)を取得する処理を行ってもよい。このとき言動実行部13cは、自端末10のアバターを介して問合せを行ってもよい。例えば、自端末10のユーザの年齢、既往歴、医療機関への通院歴等から将来発症する可能性のある病気に関する情報を医師(又は医師のアバター)に問合せ、医師(又は医師のアバター)から病気に関する情報又はアドバイスを取得して履歴情報として言動履歴DB12cに蓄積してもよい。また、自端末10のユーザの年齢から、将来到来する入学試験、就職試験等に関する情報を所定端末(例えば専門家の端末)に問合せ、又はネットワークN上で公開されている情報を検索することにより、これらの情報を取得して履歴情報として言動履歴DB12cに蓄積してもよい。更に、自端末10のユーザの子供の年齢等から、将来到来する子供の七五三、入園、卒園、入学、卒業等のイベントに関する情報を所定端末(例えば専門家の端末)に問合せ、又はネットワークN上で公開されている情報を検索することにより、これらの情報を取得して履歴情報として言動履歴DB12cに蓄積してもよい。このような構成とした場合、自端末10のユーザ自身が、専門家への問合せ、情報の検索等を行うことなく、アバターが収集した履歴情報を閲覧することにより、各種の情報を得ることができる。 Further, in the present embodiment, the word / action execution unit 13c makes an inquiry to, for example, an expert (expert terminal) regarding an event that may occur in the future, such as several years or several decades later, and the opinion of the expert. Alternatively, a process for acquiring advice (information related to the event) may be performed. At this time, the word / action execution unit 13c may make an inquiry via the avatar of the own terminal 10. For example, the doctor (or doctor's avatar) asks the doctor (or doctor's avatar) for information on diseases that may develop in the future based on the age, history, hospital visit history, etc. of the user of the own terminal 10. Information or advice regarding the disease may be acquired and stored in the behavior history DB 12c as history information. In addition, by inquiring about information on entrance examinations, employment examinations, etc. that will come in the future from the age of the user of the own terminal 10 to a predetermined terminal (for example, an expert terminal), or by searching for information published on the network N. , These information may be acquired and stored in the behavior history DB 12c as history information. Furthermore, from the age of the child of the user of the own terminal 10, inquire information about events such as 753, admission, graduation, admission, graduation, etc. of the child coming in the future to a predetermined terminal (for example, a specialist terminal), or network N. By searching the information published above, these information may be acquired and stored in the behavior history DB 12c as history information. With such a configuration, the user of the own terminal 10 can obtain various information by browsing the history information collected by the avatar without making an inquiry to an expert or searching for information. it can.

また、自端末10のユーザの代わりに自端末10のアバターがユーザ固有情報に基づいて他のユーザ(他端末20のユーザ)と対話した場合に、他のユーザとフィーリングが合うか否かを自端末10のアバターによって判断することできる。よって、自端末10のアバターによってフィーリングが合うと判断された他のユーザを自端末10のユーザに推薦することにより、自端末10のユーザは、フィーリングが合う可能性が高い他のユーザを把握できる。また、自端末10のユーザがやろうとして忘れていることを、自端末10のユーザの代わりに自端末10のアバターがユーザ固有情報に基づいて行うこともできる。例えば自端末10のユーザが買い物しようとして忘れている物を、自端末10のアバターがユーザ固有情報に基づいて注文処理することもできる。具体的には、自端末10の言動実行部13cは、ユーザ固有の情報に基づいて、ユーザが購買しようとしていた商品を特定し、特定した商品の注文情報を所定端末(商品の販売サイトの端末)へ出力する処理を実行してもよい。また、自端末10のアバターは、ユーザ固有情報に基づいて自端末10のユーザが購買すべき商品を検索した場合に、この商品に関する情報をスピーカ17又は表示部16にて出力し、自端末10のユーザに提案してもよい。この場合、自端末10の言動実行部13cは、ユーザ固有の情報に基づいて、ユーザが購買しようとしていた商品を抽出し、抽出した商品に関する情報を、例えばスピーカ17又は表示部16を介して自端末10のアバターによって自端末10のユーザに提案する。その後、自端末10の言動実行部13cは、例えばマイク18又は入力部15を介してユーザから購買許可の指示を受け付けた場合に、この商品の注文情報を所定端末(商品の販売サイトの端末)へ出力することにより注文処理を行うことができる。更に、自端末10の言動実行部13cは、ユーザ固有情報に基づいて自端末10のユーザが気に入る可能性の高い商品を検索した場合に、自端末10のアバターを介してこの商品を自端末10のユーザに勧めることもできる。 Also, when the avatar of the own terminal 10 interacts with another user (the user of the other terminal 20) based on the user-specific information instead of the user of the own terminal 10, whether or not the feeling matches with the other user is determined. It can be determined by the avatar of the own terminal 10. Therefore, by recommending to the user of the own terminal 10 another user whose feeling is judged to be suitable by the avatar of the own terminal 10, the user of the own terminal 10 can select another user who has a high possibility of matching the feeling. I can grasp it. It is also possible for the avatar of the own terminal 10 to do what the user of the own terminal 10 has forgotten to do based on the user-specific information instead of the user of the own terminal 10. For example, an avatar of the own terminal 10 can process an order based on user-specific information for an item that the user of the own terminal 10 has forgotten to shop. Specifically, the word / action execution unit 13c of the own terminal 10 identifies the product that the user was trying to purchase based on the user-specific information, and sets the order information of the specified product to a predetermined terminal (terminal of the product sales site). ) May be executed. Further, when the user of the own terminal 10 searches for a product to be purchased based on the user-specific information, the avatar of the own terminal 10 outputs information about this product to the speaker 17 or the display unit 16 and outputs the information about the product to the own terminal 10. You may propose to the user of. In this case, the word / action execution unit 13c of the own terminal 10 extracts the product that the user was trying to purchase based on the user-specific information, and obtains the information about the extracted product via, for example, the speaker 17 or the display unit 16. The avatar of the terminal 10 proposes to the user of the own terminal 10. After that, when the word / action execution unit 13c of the own terminal 10 receives a purchase permission instruction from the user via, for example, the microphone 18 or the input unit 15, the order information of this product is set to a predetermined terminal (terminal of the product sales site). Order processing can be performed by outputting to. Further, when the word / action execution unit 13c of the own terminal 10 searches for a product that the user of the own terminal 10 is likely to like based on the user-specific information, the word / action execution unit 13c of the own terminal 10 uses the avatar of the own terminal 10 to search for the product. It can also be recommended to users of.

本実施形態では、固有情報DB12aに蓄積されたユーザ固有情報に基づいて、自端末10のユーザが行う可能性の高い言動を再現できる。よって、例えば自端末10のユーザ本人が病気等で対話できなくなった場合であっても、ユーザ固有情報に基づく言動に従って、ユーザ本人が何を言いたいのか何をしたいのか等を予測できる。 In the present embodiment, it is possible to reproduce the words and actions that the user of the own terminal 10 is likely to perform based on the user-specific information stored in the unique information DB 12a. Therefore, for example, even when the user of the own terminal 10 cannot interact due to illness or the like, it is possible to predict what the user wants to say or what he / she wants to do according to the words and actions based on the user-specific information.

(実施形態2)
ユーザ固有情報を登録する際に、ユーザの生体情報に基づくユーザの状態を考慮する情報処理システムについて説明する。本実施形態の情報処理システムは、実施形態1の情報処理システムと同様のユーザ端末10,20によって実現されるので、同様の構成については説明を省略する。なお、本実施形態の情報処理システムは、ユーザ端末10,20の各ユーザの生体情報を計測する生体情報計測器30を更に含む。
(Embodiment 2)
An information processing system that considers the user's state based on the user's biometric information when registering user-specific information will be described. Since the information processing system of the present embodiment is realized by the same user terminals 10 and 20 as the information processing system of the first embodiment, the description of the same configuration will be omitted. The information processing system of the present embodiment further includes a biometric information measuring instrument 30 that measures biometric information of each user of the user terminals 10 and 20.

図15は実施形態2の情報処理システムの構成例を示す模式図である。図15は自端末10及び自端末10のユーザの生体情報を計測する生体情報計測器30のみを示すが、本実施形態の情報処理システムは、それぞれの他端末20のユーザの生体情報を計測する生体情報計測器を含む。本実施形態のユーザ端末10,20において通信部14,24は、ネットワークNに接続するためのインタフェースだけでなく、有線通信又は無線通信によって、それぞれ対応する生体情報計測器30と通信するためのインタフェースを含み、生体情報計測器30との間で情報の送受信を行う。生体情報計測器30は、例えばスマートウォッチのような腕時計型のウェアラブルデバイスであり、ユーザの心拍数、脈拍数、血圧等の生体情報を計測する。生体情報計測器30は、計測した生体情報を逐次ユーザ端末10,20へ送信し、ユーザ端末10,20の通信部14,24は、それぞれ通信可能な生体情報計測器30から送信されてくる生体情報を順次取得する。 FIG. 15 is a schematic diagram showing a configuration example of the information processing system of the second embodiment. FIG. 15 shows only the biometric information measuring device 30 that measures the biometric information of the own terminal 10 and the user of the own terminal 10, but the information processing system of the present embodiment measures the biometric information of the user of each of the other terminals 20. Includes biometric measuring instruments. In the user terminals 10 and 20 of the present embodiment, the communication units 14 and 24 are not only an interface for connecting to the network N but also an interface for communicating with the corresponding biometric information measuring instrument 30 by wired communication or wireless communication. Information is transmitted and received to and from the biometric information measuring instrument 30. The biological information measuring instrument 30 is a wristwatch-type wearable device such as a smart watch, and measures biological information such as a user's heart rate, pulse rate, and blood pressure. The biometric information measuring instrument 30 sequentially transmits the measured biometric information to the user terminals 10 and 20, and the communication units 14 and 24 of the user terminals 10 and 20 each transmit the biometric information transmitted from the communicable biometric information measuring instrument 30. Get information in sequence.

本実施形態の情報処理システムにおいても、ユーザ端末10,20のそれぞれは、各端末のユーザにおけるユーザ固有情報を収集する処理を行う。なお、本実施形態のユーザ端末10,20は、ユーザ固有情報を収集して固有情報DB12aに記憶(登録)する際に、それぞれのユーザの生体情報に基づくユーザの状態を考慮する。図16は、自端末10によるユーザ固有情報の収集処理の手順例を示すフローチャートである。なお、図16は自端末10が行う処理を示すが、他端末20も同様の処理を行う。 Also in the information processing system of the present embodiment, each of the user terminals 10 and 20 performs a process of collecting user-specific information of the user of each terminal. The user terminals 10 and 20 of the present embodiment consider the state of the user based on the biometric information of each user when collecting (registering) the user-specific information in the unique information DB 12a. FIG. 16 is a flowchart showing an example of a procedure for collecting and processing user-specific information by the own terminal 10. Note that FIG. 16 shows the processing performed by the own terminal 10, but the other terminal 20 also performs the same processing.

自端末10の固有情報収集部13bは、対話処理部13aによって自端末10のユーザとの対話を行う。具体的には、固有情報収集部13bは、対話処理部13aによってユーザとの対話内容を示す対話情報(対話メッセージ)を生成し、スピーカ17又は表示部16にて出力する(S81)。対話情報は、予め記憶部12に記憶された対話メッセージであってもよく、マイク18又は入力部15を介して取得したユーザからの対話内容に応じた返答メッセージであってもよい。固有情報収集部13bは、出力した対話情報に対してユーザが返答した返答情報(返答メッセージ)をマイク18又は入力部15にて取得する(S82)。 The unique information collecting unit 13b of the own terminal 10 has a dialogue with the user of the own terminal 10 by the dialogue processing unit 13a. Specifically, the unique information collecting unit 13b generates dialogue information (dialogue message) indicating the content of the dialogue with the user by the dialogue processing unit 13a, and outputs it to the speaker 17 or the display unit 16 (S81). The dialogue information may be a dialogue message stored in the storage unit 12 in advance, or may be a response message according to the dialogue content from the user acquired via the microphone 18 or the input unit 15. The unique information collecting unit 13b acquires the response information (response message) that the user replied to the output dialogue information with the microphone 18 or the input unit 15 (S82).

自端末10の制御部11は、固有情報収集部13bによってユーザと対話しつつ、生体情報計測器30から送信されたユーザの生体情報を取得する(S83)。制御部11は、生体情報計測器30から取得した生体情報に基づいて、ユーザの心理状態を検出する(S84)。例えば制御部11は、生体情報計測器30で計測された心拍数及び脈拍数から、ユーザの自律神経の状態を検出する。一般的に知られているように、自律神経には、活動時に活発になる交感神経と、夜間又は安静時に活発になる副交感神経とがあり、交感神経と副交感神経とのバランスに応じてユーザがリラックス状態であるか緊張・不安状態であるかを検出する。 The control unit 11 of the own terminal 10 acquires the user's biometric information transmitted from the biometric information measuring instrument 30 while interacting with the user by the unique information collecting unit 13b (S83). The control unit 11 detects the psychological state of the user based on the biometric information acquired from the biometric information measuring instrument 30 (S84). For example, the control unit 11 detects the state of the user's autonomic nerve from the heart rate and pulse rate measured by the biological information measuring device 30. As is generally known, autonomic nerves include sympathetic nerves that become active during activity and parasympathetic nerves that become active at night or at rest, and the user can adjust the balance between the sympathetic nerve and the parasympathetic nerve. Detects whether you are in a relaxed state or a tense / anxious state.

具体的には、制御部11は、ユーザの心拍数及び脈拍数の計測結果(正確には心電波形及び脈波)に対してスペクトル解析を行い、低周波帯域成分(LF;Low Frequency)と高周波帯域成分(HF;High Frequency)とを抽出して、両者の比率を示すLF/HF値を算出する。低周波帯域成分には主に交感神経成分が含まれ、高周波帯域成分には主に副交感神経成分が含まれ、制御部11は、LF/HF値を算出することで交感神経及び副交感神経のバランスを取得することができる。制御部11は、算出したLF/HF値に基づいてユーザの心理状態を判断する。例えば制御部11は、LF/HF値が所定値以上であれば、ユーザは緊張・不安状態であると判断し、LF/HF値が所定値未満であれば、ユーザはリラックス状態であると判断してもよい。なお、制御部11は、LF/HF値以外の数値を算出し、算出結果に基づいてユーザの状態を検出してもよい。 Specifically, the control unit 11 performs spectral analysis on the measurement results (to be exact, electrocardiographic waveform and pulse wave) of the user's heart rate and pulse rate, and obtains a low frequency band component (LF; Low Frequency). The high frequency band component (HF; High Frequency) is extracted, and the LF / HF value indicating the ratio between the two is calculated. The low-frequency band component mainly contains a sympathetic nerve component, the high-frequency band component mainly contains a parasympathetic nerve component, and the control unit 11 calculates the LF / HF value to balance the sympathetic nerve and the parasympathetic nerve. Can be obtained. The control unit 11 determines the psychological state of the user based on the calculated LF / HF value. For example, the control unit 11 determines that the user is in a tense / anxious state if the LF / HF value is equal to or higher than a predetermined value, and determines that the user is in a relaxed state if the LF / HF value is less than the predetermined value. You may. The control unit 11 may calculate a numerical value other than the LF / HF value and detect the user's state based on the calculation result.

制御部11は、検出したユーザの心理状態がリラックス状態であるか否かを判断し(S85)、リラックス状態であると判断した場合(S85:YES)、固有情報収集部13bにより、ステップS82で取得した返答情報からユーザ固有情報を抽出する(S86)。そして、固有情報収集部13bは、抽出したユーザ固有情報を、情報ID及び情報内容に対応付けて固有情報DB12aに記憶する(S87)。これにより、ユーザがリラックス状態であるときにユーザとの対話内容から抽出されたユーザ固有情報が固有情報DB12aに登録される。一方、検出したユーザの状態が緊張・不安状態であると判断した場合(S85:NO)、制御部11は、ステップS86〜S87をスキップする。これにより、ユーザが緊張・不安状態であるときにユーザとの対話内容から抽出されるユーザ固有情報は固有情報DB12aに登録されない。よって、リラックス状態でない(緊張・不安状態である)ユーザが発した対話内容は、ユーザの本意ではない可能性があるので、このような対話内容から抽出されるユーザ固有情報を登録しないことにより、ユーザ本来の状態でのユーザ固有情報のみを登録することができる。 The control unit 11 determines whether or not the detected user's psychological state is in the relaxed state (S85), and if it is determined to be in the relaxed state (S85: YES), the unique information collecting unit 13b determines in step S82. User-specific information is extracted from the acquired response information (S86). Then, the unique information collecting unit 13b stores the extracted user-specific information in the unique information DB 12a in association with the information ID and the information content (S87). As a result, the user-specific information extracted from the content of the dialogue with the user when the user is in the relaxed state is registered in the unique information DB 12a. On the other hand, when it is determined that the detected user's state is a tense / anxious state (S85: NO), the control unit 11 skips steps S86 to S87. As a result, the user-specific information extracted from the content of the dialogue with the user when the user is in a tense / anxious state is not registered in the unique information DB 12a. Therefore, the dialogue content issued by the user who is not in the relaxed state (tension / anxiety state) may not be the user's intention. Only user-specific information in the user's original state can be registered.

制御部11は、固有情報収集部13b(対話処理部13a)がユーザとの対話を終了したか否かを判断しており(S88)、終了していないと判断した場合(S88:NO)、ステップS81の処理に戻る。そして固有情報収集部13bは、ユーザと次に対話すべき対話情報(対話メッセージ)を生成し、スピーカ17又は表示部16にて出力し(S81)、ステップS82〜S87の処理を繰り返す。制御部11は、固有情報収集部13b(対話処理部13a)がユーザとの対話を終了したと判断した場合(S88:YES)、処理を終了する。上述した処理により、ユーザがリラックス状態である場合に、ユーザとの対話内容からユーザ固有情報が逐次抽出されて登録されるので、ユーザが意識することなく、本来のユーザにおけるユーザ固有情報の蓄積が可能である。なお、ユーザが緊張・不安状態である場合には、ユーザ固有情報の蓄積は行われないが、ユーザとの対話は行われるので、ユーザは自身の状態にかかわらず、自端末10と対話することができる。 When the control unit 11 determines whether or not the unique information collection unit 13b (dialogue processing unit 13a) has terminated the dialogue with the user (S88) and has determined that the dialogue has not been terminated (S88: NO), The process returns to the process of step S81. Then, the unique information collecting unit 13b generates dialogue information (dialogue message) to be next interacted with the user, outputs it to the speaker 17 or the display unit 16 (S81), and repeats the processes of steps S82 to S87. When the control unit 11 determines that the unique information collection unit 13b (dialogue processing unit 13a) has finished the dialogue with the user (S88: YES), the control unit 11 ends the process. By the above-mentioned processing, when the user is in a relaxed state, the user-specific information is sequentially extracted and registered from the contents of the dialogue with the user, so that the user-specific information in the original user can be accumulated without the user being aware of it. It is possible. When the user is in a tense / anxious state, the user-specific information is not accumulated, but the user interacts with the user. Therefore, the user interacts with the own terminal 10 regardless of his / her own state. Can be done.

本実施形態の情報処理システムにおいて、ユーザ端末10,20は、図7〜図8に示す処理と同様の処理を行う。これにより、本実施形態においても、自端末10に設定されたアバター(ユーザのアバター)に、固有情報DB12aに蓄積されたユーザ固有情報に基づいて、他端末20のユーザ又はアバターとの対話を行わせることができる。また本実施形態のユーザ端末10,20は、図9〜図10に示す処理と同様の処理を行う。これにより、本実施形態においても、自端末10のユーザは、自端末10を用いて、他端末20のユーザ又はアバターと対話を行うことができる。また本実施形態のユーザ端末10,20は、図12に示す処理と同様の処理を行う。これにより、本実施形態においても、自端末10に設定されたアバター(ユーザのアバター)に、固有情報DB12aに蓄積されたユーザ固有情報に基づいて、擬似的な外出行為(行動)を行わせることができる。更に本実施形態のユーザ端末10,20は、図13に示す処理と同様の処理を行う。これにより、自端末10のアバターが行った他端末20のユーザ又はアバターとの対話履歴、自端末10のアバターが行った擬似的な外出行為に係る外出履歴等を自端末10で再現できる。よって、自端末10のユーザは、自端末10のアバターが行った他端末20のユーザ又はアバターとの対話、自身が行きたかった場所への外出、自身がやりたかったことの体験等を擬似的に行うことができる。 In the information processing system of the present embodiment, the user terminals 10 and 20 perform the same processing as the processing shown in FIGS. 7 to 8. As a result, also in this embodiment, the avatar (user's avatar) set in the own terminal 10 has a dialogue with the user or avatar of the other terminal 20 based on the user-specific information stored in the unique information DB 12a. Can be made. Further, the user terminals 10 and 20 of the present embodiment perform the same processing as the processing shown in FIGS. 9 to 10. Thereby, also in this embodiment, the user of the own terminal 10 can have a dialogue with the user or the avatar of the other terminal 20 by using the own terminal 10. Further, the user terminals 10 and 20 of the present embodiment perform the same processing as the processing shown in FIG. As a result, also in the present embodiment, the avatar (user's avatar) set in the own terminal 10 is made to perform a pseudo outing act (action) based on the user-specific information stored in the unique information DB 12a. Can be done. Further, the user terminals 10 and 20 of the present embodiment perform the same processing as the processing shown in FIG. As a result, the history of dialogue with the user or avatar of the other terminal 20 performed by the avatar of the own terminal 10, the history of going out related to the pseudo outing act performed by the avatar of the own terminal 10, and the like can be reproduced on the own terminal 10. Therefore, the user of the own terminal 10 simulates the dialogue with the user or the avatar of the other terminal 20 performed by the avatar of the own terminal 10, going out to the place where he / she wanted to go, the experience of what he / she wanted to do, and the like. Can be done.

本実施形態においても、実施形態1と同様の効果が得られる。また本実施形態では、ユーザ固有情報を登録する際に、ユーザの心拍数、脈拍数等を計測し、ユーザの心身の状態がリラックスして冷静であるか否かを判断し、冷静である時に収集したユーザ固有情報のみを固有情報DB12aに蓄積できる。この場合、心身の状態が冷静でない興奮状態の時に収集されたユーザ固有情報を登録しない(破棄する)ことにより、ユーザの普段の状態で収集されたユーザ固有情報のみを蓄積できる。 Also in this embodiment, the same effect as that of the first embodiment can be obtained. Further, in the present embodiment, when registering user-specific information, the user's heart rate, pulse rate, etc. are measured to determine whether or not the user's mental and physical condition is relaxed and calm, and when the user is calm. Only the collected user-specific information can be stored in the unique information DB 12a. In this case, by not registering (discarding) the user-specific information collected when the mental and physical state is not calm and excited, only the user-specific information collected in the user's normal state can be accumulated.

(実施形態3)
それぞれのユーザ端末10,20が、それぞれのユーザの言動に基づいて構築されたユーザモデルを用いて言動処理を実行する情報処理システムについて説明する。本実施形態の情報処理システムは、実施形態1の情報処理システムと同様のユーザ端末10,20によって実現される。図17は実施形態3の自端末10の構成例を示すブロック図である。本実施形態の自端末10は、実施形態1の自端末10と同様の構成を有するので、同様の構成については説明を省略する。なお、本実施形態の自端末10では、記憶部12に固有情報DB12aの代わりにユーザモデル12Mを記憶しており、処理部13は固有情報収集部13bを有しない。
(Embodiment 3)
An information processing system in which each of the user terminals 10 and 20 executes a word / action process using a user model constructed based on the word / action of each user will be described. The information processing system of the present embodiment is realized by the same user terminals 10 and 20 as the information processing system of the first embodiment. FIG. 17 is a block diagram showing a configuration example of the own terminal 10 of the third embodiment. Since the local terminal 10 of the present embodiment has the same configuration as the local terminal 10 of the first embodiment, the description of the same configuration will be omitted. In the own terminal 10 of the present embodiment, the user model 12M is stored in the storage unit 12 instead of the unique information DB 12a, and the processing unit 13 does not have the unique information collecting unit 13b.

ユーザモデル12Mは、例えば深層学習アルゴリズムを用いて学習させたディープラーニングモデルであり、例えばRNN(Recurrent Neural Network)を用いたSeq2Seq(Sequence to Sequence)モデルにて構築されている。ユーザモデル12M(第1ユーザモデル)は、自端末10のユーザ(第1ユーザ)に対して提示された提示データと、この提示データに対してユーザが行った回答データとを含む教師データを用いて、提示データが入力された場合に、入力された提示データに対応する回答データを出力するように学習された学習済みモデルである。なお、提示データは例えば自端末10のユーザに対する対話情報であり、回答データはこの対話情報に対応してユーザが返答した返答情報である。提示データは例えばスピーカ17又は表示部16を介してユーザに提示した対話情報を含み、回答データはこの対話情報に対してユーザがマイク18又は入力部15を介して入力した返答情報を含む。また提示データは自端末10のユーザが電子メール、LINEメッセージ、LINEスタンプ、SNS等を介して他端末20から受信した対話情報を含んでもよく、回答データはこの対話情報に対してユーザが他端末20へ返信した返答情報を含んでもよい。また提示データは例えば自端末10のユーザに対して行われたアクションに関する情報を含み、回答データは、このアクションに対してユーザが行った行動に関する情報を含んでもよい。例えば、自端末10のユーザがLINEメッセージを受信した場合に、所定のLINEスタンプを返信するものとする。この場合、LINEメッセージの受信を提示データとし、所定のLINEスタンプの返信を回答データとすることができる。学習済みモデルは、入力値に対して所定の演算を行い、演算結果を出力するものであり、この演算を規定する関数の係数や閾値等のデータが、ユーザモデル12Mとして記憶部12に記憶される。 The user model 12M is, for example, a deep learning model trained by using a deep learning algorithm, and is constructed by, for example, a Seq2Seq (Sequence to Sequence) model using an RNN (Recurrent Neural Network). The user model 12M (first user model) uses teacher data including presentation data presented to the user (first user) of the own terminal 10 and response data given by the user to the presentation data. This is a trained model trained to output the answer data corresponding to the input presentation data when the presentation data is input. The presented data is, for example, dialogue information for the user of the own terminal 10, and the response data is the response information that the user replied in response to the dialogue information. The presented data includes, for example, dialogue information presented to the user via the speaker 17 or the display unit 16, and the response data includes the response information input by the user to the dialogue information via the microphone 18 or the input unit 15. Further, the presented data may include dialogue information received from the other terminal 20 by the user of the own terminal 10 via an e-mail, a LINE message, a LINE stamp, an SNS, etc. The reply information replied to 20 may be included. Further, the presented data may include, for example, information on an action performed on the user of the own terminal 10, and the response data may include information on an action performed by the user on this action. For example, when the user of the own terminal 10 receives the LINE message, it is assumed that a predetermined LINE stamp is returned. In this case, the reception of the LINE message can be used as the presentation data, and the reply of the predetermined LINE stamp can be used as the reply data. The trained model performs a predetermined operation on the input value and outputs the operation result, and data such as coefficients and thresholds of the function that defines this operation is stored in the storage unit 12 as the user model 12M. To.

ユーザモデル12Mは、自端末10において学習が行われてもよく、他の学習装置において学習された後に自端末10の記憶部12に記憶されてもよい。ユーザモデル12Mは、教師データに含まれる提示データを入力した場合に、教師データに含まれる回答データが出力されるように学習する。なお、学習処理において、ユーザモデル12Mは、入力データに対して行う所定の演算を規定する関数の係数や閾値等のデータを最適化する。これにより、入力された対話情報(提示データ)に基づいて、自端末10のユーザが行う可能性の高い回答データ(返答情報)を出力するように学習されたユーザモデル12Mが得られる。 The user model 12M may be trained in the own terminal 10 or may be stored in the storage unit 12 of the own terminal 10 after being learned in another learning device. The user model 12M learns so that when the presentation data included in the teacher data is input, the answer data included in the teacher data is output. In the learning process, the user model 12M optimizes data such as coefficients and thresholds of functions that define predetermined operations performed on input data. As a result, the user model 12M learned to output the response data (response information) that is likely to be performed by the user of the own terminal 10 is obtained based on the input dialogue information (presentation data).

本実施形態の対話処理部13aは、ユーザモデル12Mを用いて、自端末10のユーザとの対話、及び、他端末20のユーザ又はアバターとの対話を行う。具体的には、対話処理部13aは、自端末10のアバター(ユーザモデル12M)に対する対話情報(提示データ)を取得した場合、取得した対話情報をユーザモデル12Mに入力し、ユーザモデル12Mから出力される、前記対話情報に対する返答情報(回答データ)を取得する。なお、対話情報は、自端末10のユーザとの対話においては、例えばマイク18又は入力部15を介して自端末10のユーザから取得し、他端末20のユーザ又はアバターとの対話においては、通信部14を介して他端末20(他端末20のユーザ又はアバター)から取得する。 The dialogue processing unit 13a of the present embodiment uses the user model 12M to perform a dialogue with the user of the own terminal 10 and a dialogue with the user or the avatar of the other terminal 20. Specifically, when the dialogue processing unit 13a acquires the dialogue information (presentation data) for the avatar (user model 12M) of the own terminal 10, the acquired dialogue information is input to the user model 12M and output from the user model 12M. The response information (response data) to the dialogue information to be performed is acquired. The dialogue information is acquired from the user of the own terminal 10 via, for example, the microphone 18 or the input unit 15 in the dialogue with the user of the own terminal 10, and is communicated in the dialogue with the user or the avatar of the other terminal 20. Obtained from another terminal 20 (user or avatar of another terminal 20) via unit 14.

対話処理部13aは、ユーザモデル12Mを用いて対話情報に対する返答情報を特定することにより、自端末10のユーザが返答する可能性の高い返答情報(回答データ)を特定できる。そして、対話処理部13aは、自端末10のユーザと対話する場合、特定した返答情報をスピーカ17又は表示部16にて出力することによって自端末10のユーザに返答する。また対話処理部13aは、他端末20のユーザ又はアバターと対話する場合、特定した返答情報を通信部14から他端末20へ返信することによって他端末20のユーザ又はアバターに返答する。このように、本実施形態の対話処理部13aは、自端末10のアバターに対する対話情報を取得した場合に、対話情報に対する返答情報をユーザモデル12Mを用いて特定することにより、自端末10のユーザが行う可能性の高い返答を行うことができる。なお、ユーザモデル12Mは、Seq2Seqモデルを用いて構築される構成に限定されない。 By specifying the response information for the dialogue information using the user model 12M, the dialogue processing unit 13a can identify the response information (response data) that the user of the own terminal 10 is likely to respond to. Then, when the dialogue processing unit 13a interacts with the user of the own terminal 10, the dialogue processing unit 13a responds to the user of the own terminal 10 by outputting the specified reply information on the speaker 17 or the display unit 16. Further, when the dialogue processing unit 13a interacts with the user or avatar of the other terminal 20, the dialogue processing unit 13a replies to the user or avatar of the other terminal 20 by returning the specified reply information from the communication unit 14 to the other terminal 20. As described above, when the dialogue processing unit 13a of the present embodiment acquires the dialogue information for the avatar of the own terminal 10, the response information for the dialogue information is specified by using the user model 12M, so that the user of the own terminal 10 Can make a reply that is likely to be made by. The user model 12M is not limited to the configuration constructed by using the Seq2Seq model.

本実施形態においても、他端末20は自端末10と同様の構成を有する。よって、他端末20において、他端末20のユーザ(第2ユーザ)に対して提示された提示データと、この提示データに対して他端末20のユーザが行った回答データとを含む教師データを用いて、提示データが入力された場合に、入力された提示データに対応する回答データを出力するように学習された学習済みモデルであるユーザモデル22M(第2ユーザモデル)が、記憶部22に記憶されている。 Also in this embodiment, the other terminal 20 has the same configuration as the own terminal 10. Therefore, in the other terminal 20, the teacher data including the presentation data presented to the user (second user) of the other terminal 20 and the response data given by the user of the other terminal 20 to the presentation data is used. The user model 22M (second user model), which is a trained model trained to output the answer data corresponding to the input presentation data when the presentation data is input, is stored in the storage unit 22. Has been done.

図18は、実施形態3の自端末10及び他端末20による言動処理の手順例を示すフローチャートである。図18に示す処理は、図7及び図8に示す処理においてステップS27の前にステップS91を追加し、ステップS28の前にステップS92を追加したものである。図18では、図7に示したステップS21〜S26の図示を省略しており、図7及び図8と同様のステップについては説明を省略する。なお、各ユーザ端末10,20は、それぞれのユーザに基づく教師データを用いて学習されたユーザモデル12M,22Mを記憶部12,22に記憶しているものとする。 FIG. 18 is a flowchart showing an example of a procedure for word-and-action processing by the own terminal 10 and the other terminal 20 of the third embodiment. The process shown in FIG. 18 is a process in which step S91 is added before step S27 and step S92 is added before step S28 in the processes shown in FIGS. 7 and 8. In FIG. 18, illustrations of steps S21 to S26 shown in FIG. 7 are omitted, and description of the same steps as in FIGS. 7 and 8 will be omitted. It is assumed that the user terminals 10 and 20 store the user models 12M and 22M learned by using the teacher data based on the respective users in the storage units 12 and 22.

本実施形態では、ステップS21において自端末10の言動実行部13cは、マイク18又は入力部15を介して自端末10のユーザから、自端末10のアバター(ユーザモデル12M)による対話の実行命令(実行要求)を受け付ける。ここでの対話実行命令は、いずれかの他端末20のユーザ又はアバターとの対話の実行命令である。また、本実施形態において、他端末20の言動実行部(設定部)23cは、自端末10から要求された対話が可能であると判断した場合(S24:YES)、自端末10とのコネクションを設定する(S91)。これにより、他端末20の言動実行部23cは、対話を要求してきた自端末10のユーザ又はアバター(ユーザモデル12M)と、他端末20のユーザ又はアバター(ユーザモデル22M)とのコネクションを設定する。そして、他端末20の言動実行部23cは、対話を要求された他端末20のユーザ又はアバターが対話可能である旨を自端末10に通知する(S27)。一方、自端末10の言動実行部(設定部)13cは、他端末20から対話可能を通知された後、他端末20とのコネクションを設定する(S92)。これにより、自端末10の言動実行部13cは、対話を要求した自端末10のユーザ又はアバター(ユーザモデル12M)と、他端末20のユーザ又はアバター(ユーザモデル22M)とのコネクションを設定する。そして、自端末10の言動実行部13cは、マイク18又は入力部15を介して要求された対話内容に基づいて対話情報を生成する(S28)。なお、言動実行部13c(対話処理部13a)は、例えば「話したいことは何ですか」のようなメッセージを提示データとしてユーザモデル12Mに入力し、ユーザモデル12Mから出力される返答情報(回答データ)を、他端末20のユーザ又はアバターへ送信すべき対話情報としてもよい。 In the present embodiment, in step S21, the word / action execution unit 13c of the own terminal 10 receives a dialogue execution command (user model 12M) from the user of the own terminal 10 via the microphone 18 or the input unit 15 (user model 12M). Execution request) is accepted. The dialogue execution command here is a dialogue execution command with the user or avatar of any other terminal 20. Further, in the present embodiment, when the word / action execution unit (setting unit) 23c of the other terminal 20 determines that the dialogue requested by the own terminal 10 is possible (S24: YES), the connection with the own terminal 10 is established. Set (S91). As a result, the word / action execution unit 23c of the other terminal 20 sets a connection between the user or avatar (user model 12M) of the own terminal 10 that has requested the dialogue and the user or avatar (user model 22M) of the other terminal 20. .. Then, the word / action execution unit 23c of the other terminal 20 notifies the own terminal 10 that the user or avatar of the other terminal 20 requested to have a dialogue can have a dialogue (S27). On the other hand, the word / action execution unit (setting unit) 13c of the own terminal 10 sets a connection with the other terminal 20 after being notified by the other terminal 20 that dialogue is possible (S92). As a result, the word / action execution unit 13c of the own terminal 10 sets a connection between the user or avatar of the own terminal 10 (user model 12M) who requested the dialogue and the user or avatar of the other terminal 20 (user model 22M). Then, the word / action execution unit 13c of the own terminal 10 generates dialogue information based on the dialogue content requested via the microphone 18 or the input unit 15 (S28). The word / action execution unit 13c (dialogue processing unit 13a) inputs a message such as "what do you want to talk about" into the user model 12M as presentation data, and the response information (answer) output from the user model 12M. The data) may be used as dialogue information to be transmitted to the user or avatar of the other terminal 20.

その後、自端末10及び他端末20の言動実行部13c,23cは、ステップS29以降の処理を行う。なお、他端末20の言動実行部23cは、自端末10から送信された対話情報(自端末10から提示された提示データ)を取得する取得部として動作し、自端末10の言動実行部13cは、他端末20から送信された対話情報(他端末20から提示された提示データ)を取得する取得部として動作する。また、本実施形態では、ステップS34において他端末20の言動実行部23c(対話処理部23a)は、ユーザモデル22Mを用いて、自端末10から受信した対話情報に対応する返答情報(返答メッセージ)を生成する。具体的には、対話処理部23aは、自端末10から受信した対話情報を、他端末20のアバターに対する提示データとしてユーザモデル22Mに入力し、ユーザモデル22Mから出力される返答情報(回答データ)を取得し、取得した返答情報を、自端末10へ返信する返答情報とする。またステップS28において自端末10の言動実行部13c(対話処理部13a)は、ユーザモデル12Mを用いて、他端末20から受信した対話情報(返答情報)に対応する返答情報を生成する。ここでも、自端末10の対話処理部13aは、他端末20から受信した対話情報を、自端末10のアバターに対する提示データとして自端末10のユーザモデル12Mに入力し、ユーザモデル12Mから出力される返答情報を取得し、取得した返答情報を、他端末20へ返信する返答情報とする。 After that, the words and actions execution units 13c and 23c of the own terminal 10 and the other terminal 20 perform the processing after step S29. The word / action execution unit 23c of the other terminal 20 operates as an acquisition unit for acquiring dialogue information (presentation data presented from the own terminal 10) transmitted from the own terminal 10, and the word / action execution unit 13c of the own terminal 10 operates. , Operates as an acquisition unit that acquires dialogue information (presentation data presented by the other terminal 20) transmitted from the other terminal 20. Further, in the present embodiment, in step S34, the word / action execution unit 23c (dialogue processing unit 23a) of the other terminal 20 uses the user model 22M to provide response information (response message) corresponding to the dialogue information received from the own terminal 10. To generate. Specifically, the dialogue processing unit 23a inputs the dialogue information received from the own terminal 10 into the user model 22M as presentation data for the avatar of the other terminal 20, and the response information (answer data) output from the user model 22M. Is acquired, and the acquired response information is used as the response information to be returned to the own terminal 10. Further, in step S28, the word / action execution unit 13c (dialogue processing unit 13a) of the own terminal 10 uses the user model 12M to generate response information corresponding to the dialogue information (response information) received from the other terminal 20. Here, too, the dialogue processing unit 13a of the own terminal 10 inputs the dialogue information received from the other terminal 20 into the user model 12M of the own terminal 10 as presentation data for the avatar of the own terminal 10, and outputs the dialogue information from the user model 12M. The response information is acquired, and the acquired response information is used as the response information to be returned to the other terminal 20.

上述した処理により、本実施形態においても、自端末10のユーザは、自端末10に設定してある自身のアバターによって、他端末20のユーザ又はアバターと対話することができる。また、本実施形態では、それぞれのユーザ端末10,20毎に学習されたユーザモデル12M,22Mを用いて、自端末10のアバターが他端末20のユーザ又はアバターとの間でやり取りする対話情報及び返答情報、或いは、他端末20のアバターが自端末10のアバターとの間でやり取りする対話情報及び返答情報が生成される。よって、各ユーザ端末10,20のユーザが行う可能性が高い対話を、各ユーザ端末10,20のアバターによって再現できる。 By the above-described processing, also in the present embodiment, the user of the own terminal 10 can interact with the user or the avatar of the other terminal 20 by the own avatar set in the own terminal 10. Further, in the present embodiment, using the user models 12M and 22M learned for each of the user terminals 10 and 20, the dialogue information and the dialogue information that the avatar of the own terminal 10 exchanges with the user or the avatar of the other terminal 20 Response information, or dialogue information and response information that the avatar of the other terminal 20 exchanges with the avatar of the own terminal 10 is generated. Therefore, the dialogue that is likely to be performed by the users of the user terminals 10 and 20 can be reproduced by the avatars of the user terminals 10 and 20.

本実施形態のユーザ端末10,20は、図9及び図10に示す言動処理と同様の処理を行う。なお、本実施形態では、ステップS47において他端末20の言動実行部23cは、自端末10から要求された対話が可能であると判断した場合(S44:YES)、自端末10とのコネクションを設定し、その後、対話を要求された他端末20のユーザ又はアバターが対話可能である旨を自端末10に通知する。またステップS48において自端末10の言動実行部13cは、他端末20から対話可能を通知された後、他端末20とのコネクションを設定し、その後、他端末20への対話情報を受け付ける。また本実施形態では、ステップS55において他端末20の言動実行部23c(対話処理部23a)は、ユーザモデル22Mを用いて、自端末10から受信した対話情報に対応する返答情報(返答メッセージ)を生成する。具体的には、対話処理部23aは、自端末10から受信した対話情報を、他端末20のアバターに対する提示データとしてユーザモデル22Mに入力し、ユーザモデル22Mから出力される返答情報(回答データ)を取得し、取得した返答情報を、自端末10へ返信する返答情報とする。このような処理により、本実施形態においても、自端末10のユーザは、他端末20のユーザ又はアバターと対話することができる。本実施形態では、それぞれの他端末20毎に学習されたユーザモデル22Mを用いて、他端末20のアバターが自端末10のユーザとの間でやり取りする対話情報及び返答情報が生成される。よって、他端末20のユーザが行う可能性が高い対話を、他端末20のアバターにおいて再現でき、自端末10のユーザは、他端末20のアバターを介して他端末20のユーザとの対話を擬似的に行うことができる。 The user terminals 10 and 20 of the present embodiment perform the same processing as the behavior processing shown in FIGS. 9 and 10. In the present embodiment, when the word / action execution unit 23c of the other terminal 20 determines in step S47 that the dialogue requested by the own terminal 10 is possible (S44: YES), the connection with the own terminal 10 is set. After that, the user or avatar of the other terminal 20 requested to have a dialogue is notified to the own terminal 10 that the dialogue is possible. Further, in step S48, the word / action execution unit 13c of the own terminal 10 sets a connection with the other terminal 20 after being notified by the other terminal 20 that dialogue is possible, and then receives dialogue information to the other terminal 20. Further, in the present embodiment, in step S55, the word / action execution unit 23c (dialogue processing unit 23a) of the other terminal 20 uses the user model 22M to provide response information (response message) corresponding to the dialogue information received from the own terminal 10. Generate. Specifically, the dialogue processing unit 23a inputs the dialogue information received from the own terminal 10 into the user model 22M as presentation data for the avatar of the other terminal 20, and the response information (answer data) output from the user model 22M. Is acquired, and the acquired response information is used as the response information to be returned to the own terminal 10. By such processing, even in this embodiment, the user of the own terminal 10 can interact with the user of the other terminal 20 or the avatar. In the present embodiment, the user model 22M learned for each of the other terminals 20 is used to generate dialogue information and response information that the avatar of the other terminal 20 exchanges with the user of the own terminal 10. Therefore, the dialogue that is likely to be performed by the user of the other terminal 20 can be reproduced on the avatar of the other terminal 20, and the user of the own terminal 10 simulates the dialogue with the user of the other terminal 20 via the avatar of the other terminal 20. Can be done

本実施形態のユーザ端末10,20は、図12に示す言動処理と同様の処理を行う。なお、本実施形態では、自端末10の制御部11は、言動実行部13cによって自端末10のアバターを介して、ユーザモデル12Mに基づいて擬似的な外出行為を実行する。具体的には、ステップS61において自端末10の言動実行部13cは、ユーザモデル22Mを用いて、自端末10のユーザが行きたいと思っている場所があるか否かを判断する。例えば言動実行部13cは、「行きたい場所」を提示データとしてユーザモデル12Mに入力し、ユーザモデル12Mから出力される「行きたい場所」に関する情報(回答データ)を取得する。なお、言動実行部13cは、ユーザモデル12Mから「行きたい場所」に関する情報が出力されたか否かに応じて、自端末10のユーザが行きたいと思っている場所があるか否かを判断する。また、ステップS65において自端末10の言動実行部13cは、ユーザモデル22Mを用いて、自端末10のユーザがやりたいと思っていることがあるか否かを判断する。例えば言動実行部13cは、「やりたいこと」を提示データとしてユーザモデル12Mに入力し、ユーザモデル12Mから出力される「やりたいこと」に関する情報(回答データ)を取得する。なお、言動実行部13cは、ユーザモデル12Mから「やりたいこと」に関する情報が出力されたか否かに応じて、自端末10のユーザがやりたいと思っていることがあるか否かを判断する。上述した処理により、本実施形態の自端末10は、ユーザモデル12Mを用いて、自端末10のユーザが行きたい場所又はやりたいことを抽出し、ユーザに代わって行動し、行動した結果得られた情報を履歴情報として蓄積できる。 The user terminals 10 and 20 of the present embodiment perform the same processing as the behavior processing shown in FIG. In the present embodiment, the control unit 11 of the own terminal 10 executes a pseudo outing act based on the user model 12M by the word / action execution unit 13c via the avatar of the own terminal 10. Specifically, in step S61, the word / action execution unit 13c of the own terminal 10 uses the user model 22M to determine whether or not there is a place where the user of the own terminal 10 wants to go. For example, the word / action execution unit 13c inputs the “desired place” as presentation data into the user model 12M, and acquires the information (answer data) regarding the “desired place” output from the user model 12M. The word / action execution unit 13c determines whether or not there is a place where the user of the own terminal 10 wants to go, depending on whether or not the information about the "place to go" is output from the user model 12M. .. Further, in step S65, the word / action execution unit 13c of the own terminal 10 uses the user model 22M to determine whether or not the user of the own terminal 10 has something he / she wants to do. For example, the word / action execution unit 13c inputs "what you want to do" into the user model 12M as presentation data, and acquires information (answer data) about "what you want to do" output from the user model 12M. The word / action execution unit 13c determines whether or not the user of the own terminal 10 has something he / she wants to do, depending on whether or not the information about “what he / she wants to do” is output from the user model 12M. By the above-described processing, the own terminal 10 of the present embodiment uses the user model 12M to extract the place or what the user of the own terminal 10 wants to go to, and acts on behalf of the user, and is obtained as a result of the action. Information can be stored as history information.

本実施形態のユーザ端末10,20は、図13に示す言動履歴の再生処理と同様の処理を行う。これにより、ユーザ端末10,20は、図14に示すような履歴画面を表示し、履歴画面を介して、それぞれのユーザ端末10,20の言動実行部13c,23cが行った対話処理及び外出処理の再生指示を受け付ける。よって、自端末10のユーザに代わって自端末10のアバターが他端末20のユーザ又はアバターとの間で行った対話処理を再現することができ、自端末10のユーザは他端末20のユーザ又はアバターとの対話を擬似的に体験することができる。また、自端末10のアバターが擬似的に行った外出処理を再現することができ、自端末10のユーザは、アバターが実行した行動を辿ることができる。 The user terminals 10 and 20 of the present embodiment perform the same processing as the reproduction processing of the behavior history shown in FIG. As a result, the user terminals 10 and 20 display a history screen as shown in FIG. 14, and the dialogue processing and the outing processing performed by the word / action execution units 13c and 23c of the user terminals 10 and 20 via the history screen. Accepts playback instructions. Therefore, it is possible to reproduce the dialogue processing performed by the avatar of the own terminal 10 with the user or the avatar of the other terminal 20 on behalf of the user of the own terminal 10, and the user of the own terminal 10 is the user of the other terminal 20 or You can experience the interaction with the avatar in a simulated manner. In addition, it is possible to reproduce the outing process simulated by the avatar of the own terminal 10, and the user of the own terminal 10 can trace the action executed by the avatar.

本実施形態においても、実施形態1と同様の効果が得られる。また本実施形態では、それぞれのユーザ端末10,20毎に学習したユーザモデル12M,22Mに基づいて、それぞれのユーザが行う可能性の高い対話内容及び行動内容を特定できる。よって、それぞれのユーザが行う可能性の高い対話内容の対話及び行動内容の行動を実現することにより、それぞれのユーザのアバターによって擬似的な対話及び行動を実現できる。 Also in this embodiment, the same effect as that of the first embodiment can be obtained. Further, in the present embodiment, it is possible to specify the dialogue content and the action content that each user is likely to perform based on the user models 12M and 22M learned for each of the user terminals 10 and 20. Therefore, by realizing the dialogue of the dialogue content and the action of the action content that are likely to be performed by each user, it is possible to realize the pseudo dialogue and action by the avatar of each user.

本実施形態において、自端末10が自端末10のユーザのユーザモデル12Mを記憶し、他端末20が他端末20のユーザのユーザモデル22Mを記憶し、それぞれの端末10,20の言動実行部13c,23cが、それぞれのユーザモデル12M,22Mに基づく言動処理を、それぞれの端末10,20のアバターを介して行う構成に限定されない。例えば、自端末10が、他端末20から他端末20のユーザのユーザモデル22Mを取得することにより、自端末10のユーザモデル12Mだけでなく、他端末20のユーザモデル22Mを記憶してもよい。このような構成によれば、自端末10が、自端末10のユーザモデル12Mに基づく言動処理を自端末10のアバターを介して行うと共に、他端末20のユーザモデル22Mに基づく言動処理を他端末20のアバターを介して行うことができる。よって、自端末10において、自端末10のアバターと他端末20のアバターとの間の対話処理を実行することができる。なお、この場合、自端末10のアバターと他端末20のアバターとの間で実行された対話処理の履歴情報を他端末20へ送信することにより、他端末20のユーザが後日対話内容を確認できる。また逆に、他端末20が、自端末10から自端末10のユーザモデル12Mを取得し、他端末20において、自端末10のアバターと他端末20のアバターとの間の対話処理を実行する構成としてもよい。 In the present embodiment, the own terminal 10 stores the user model 12M of the user of the own terminal 10, the other terminal 20 stores the user model 22M of the user of the other terminal 20, and the word / action execution unit 13c of each of the terminals 10 and 20. , 23c is not limited to the configuration in which the word / action processing based on the respective user models 12M and 22M is performed via the avatars of the respective terminals 10 and 20. For example, the own terminal 10 may store not only the user model 12M of the own terminal 10 but also the user model 22M of the other terminal 20 by acquiring the user model 22M of the user of the other terminal 20 from the other terminal 20. .. According to such a configuration, the own terminal 10 performs the word / action processing based on the user model 12M of the own terminal 10 via the avatar of the own terminal 10, and performs the word / action processing based on the user model 22M of the other terminal 20. It can be done via 20 avatars. Therefore, in the own terminal 10, the dialogue process between the avatar of the own terminal 10 and the avatar of the other terminal 20 can be executed. In this case, the user of the other terminal 20 can confirm the dialogue content at a later date by transmitting the history information of the dialogue processing executed between the avatar of the own terminal 10 and the avatar of the other terminal 20 to the other terminal 20. .. On the contrary, the other terminal 20 acquires the user model 12M of the own terminal 10 from the own terminal 10, and executes the dialogue processing between the avatar of the own terminal 10 and the avatar of the other terminal 20 on the other terminal 20. May be.

本実施形態において、ユーザモデル12M,22Mは、ユーザ端末10,20の各ユーザに対して提示された提示データと、この提示データに対してユーザが行った回答データ及び実行したアプリケーションプログラムの実行データとを含む教師データを用いて学習された学習済みモデルであってもよい。この場合、ユーザモデルは、提示データが入力された場合に、入力された提示データに対応する回答データ及びアプリケーションプログラムの実行データを出力する。ここでの提示データは、例えば自端末10のユーザが自端末10を用いて行った行動に関する行動情報とし、回答データはこの行動情報に対応してユーザが行った処理(行動)に関する処理情報とし、実行データはこの行動情報に対応してユーザが実行(起動)したアプリケーションプログラムの情報とすることができる。 In the present embodiment, the user models 12M and 22M include presentation data presented to each user of the user terminals 10 and 20, response data given by the user to the presentation data, and execution data of the executed application program. It may be a trained model trained using teacher data including and. In this case, when the presentation data is input, the user model outputs the response data corresponding to the input presentation data and the execution data of the application program. The presented data here is, for example, action information related to an action performed by the user of the own terminal 10 using the own terminal 10, and the response data is process information related to the process (action) performed by the user in response to this action information. , Execution data can be information on the application program executed (started) by the user in response to this action information.

例えば、自端末10のユーザが、電子メール、LINEメッセージ、SNS等を介して会議のスケジュールに関する情報を取得した場合に、その後、自端末10を用いて会議室の使用を予約するための予約アプリ(アプリケーションプログラム)を実行して会議室の予約を行ったとする。この場合、会議のスケジュールに関する情報を取得したことを示す行動情報を提示データとし、予約アプリを用いて会議室の予約を行うことを示す処理情報を回答データとし、会議室の使用を予約するための予約アプリを実行データとすることができる。また、自端末10のユーザが、ネットワークN上の旅行の予約サイトを介して旅行の予約を行った場合に、その後、自端末10を用いてレストランの予約サイトを介したレストランの予約、又はオプショナルツアーの予約サイトを介したオプショナルツアーの申込を行ったとする。この場合、旅行の予約サイトを介して旅行の予約を行ったことを示す行動情報を提示データとし、予約サイトを介したレストランの予約又はオプショナルツアーの申込を行うことを示す処理情報を回答データとし、レストランの予約サイト又はオプショナルツアーの予約サイトにアクセスするためのブラウザを実行データとすることができる。このような提示データ、回答データ及び実行データを含む教師データを用いてユーザモデル12Mを学習させることにより、ユーザがある行動を行った後に行う可能性の高い次の行動(処理)を予測するユーザモデル12Mを生成できる。 For example, when a user of the own terminal 10 acquires information on a conference schedule via e-mail, a LINE message, an SNS, or the like, a reservation application for reserving the use of the conference room using the own terminal 10 thereafter. (Application program) is executed to reserve a conference room. In this case, the action information indicating that the information on the conference schedule has been acquired is used as the presentation data, and the processing information indicating that the conference room is reserved using the reservation application is used as the response data to reserve the use of the conference room. The reservation application of can be used as execution data. Further, when the user of the own terminal 10 makes a travel reservation through the travel reservation site on the network N, then the restaurant reservation or the optional through the restaurant reservation site is made using the own terminal 10. Suppose you have applied for an optional tour through the tour reservation site. In this case, the action information indicating that the travel reservation has been made through the travel reservation site is used as the presentation data, and the processing information indicating that the restaurant is reserved or the optional tour is applied for through the reservation site is used as the response data. , The browser for accessing the restaurant reservation site or the optional tour reservation site can be used as the execution data. By training the user model 12M using teacher data including such presentation data, response data, and execution data, a user who predicts the next action (process) that is likely to be performed after the user has performed a certain action. Model 12M can be generated.

上述したように、過去に自端末10のユーザが自端末10を用いて行った行動に関する情報を提示データとし、この行動に対して、自端末10のユーザが更に行った行動(処理)に関する情報を回答データとし、ユーザが実行したアプリケーションプログラムの情報を実行データとする教師データを用いてユーザモデル12Mを学習させる。ユーザモデル12Mは、教師データに含まれる提示データを入力した場合に、教師データに含まれる回答データ及び実行データが出力されるように学習する。これにより、入力された行動情報(提示データ)に基づいて、自端末10のユーザが行う可能性の高い処理情報(回答データ)及びアプリケーションプログラムの情報(実行データ)を出力するように学習されたユーザモデル12Mが得られる。このようなユーザモデル12Mを用いることにより、自端末10の言動実行部13cは、自端末10のユーザがある行動を行った場合に、次に行う可能性の高い行動(処理)を予測して、対応するアプリケーションプログラムを実行することにより、自端末10のユーザの操作負担を軽減できる。言動実行部13cは、ユーザモデル12Mに基づいて実行したアプリケーションプログラムの実行結果を言動履歴DBに蓄積しておき、自端末10のユーザからの要求に応じて、蓄積した実行結果をスピーカ17又は表示部16を介して再現することができる。これにより、自端末10のユーザは、自端末10のアバター(言動実行部13c)がユーザモデル12Mに基づいて行った行動(処理)を後で確認することができる。 As described above, information on actions performed by the user of the own terminal 10 in the past using the own terminal 10 is used as presentation data, and information on actions (processes) further performed by the user of the own terminal 10 in response to this action. Is used as the answer data, and the user model 12M is trained using the teacher data using the information of the application program executed by the user as the execution data. The user model 12M learns so that when the presentation data included in the teacher data is input, the answer data and the execution data included in the teacher data are output. As a result, it was learned to output processing information (answer data) and application program information (execution data) that are likely to be performed by the user of the own terminal 10 based on the input action information (presentation data). A user model 12M is obtained. By using such a user model 12M, the word / action execution unit 13c of the own terminal 10 predicts an action (process) that is likely to be performed next when the user of the own terminal 10 performs a certain action. By executing the corresponding application program, the operational burden on the user of the own terminal 10 can be reduced. The word / action execution unit 13c stores the execution result of the application program executed based on the user model 12M in the word / action history DB, and displays the accumulated execution result on the speaker 17 or in response to a request from the user of the own terminal 10. It can be reproduced via the part 16. As a result, the user of the own terminal 10 can later confirm the action (process) performed by the avatar (word / action execution unit 13c) of the own terminal 10 based on the user model 12M.

(実施形態4)
それぞれのユーザ端末10,20のユーザ毎に学習したユーザモデルをサーバに記憶し、サーバにおいて、それぞれのユーザモデルに基づく言動処理が実行される情報処理システムについて説明する。本実施形態の情報処理システムは、実施形態3の情報処理システムにおけるユーザ端末10,20のほかにサーバ40を備える。図19はサーバ40の構成例を示すブロック図である。サーバ40は、制御部41、記憶部42、処理部43、通信部44、入力部45、表示部46、読み取り部47等を含み、これらの各部はバスを介して相互に接続されている。サーバ40が有する各構成部41〜47は、自端末10における各構成部11〜16,19と同様の構成であるので詳細については説明を省略する。
(Embodiment 4)
An information processing system in which a user model learned for each user of each of the user terminals 10 and 20 is stored in a server and word-action processing based on each user model is executed in the server will be described. The information processing system of the present embodiment includes a server 40 in addition to the user terminals 10 and 20 in the information processing system of the third embodiment. FIG. 19 is a block diagram showing a configuration example of the server 40. The server 40 includes a control unit 41, a storage unit 42, a processing unit 43, a communication unit 44, an input unit 45, a display unit 46, a reading unit 47, and the like, and each of these units is connected to each other via a bus. Since each of the constituent units 41 to 47 of the server 40 has the same configuration as the respective constituent units 11 to 16 and 19 of the own terminal 10, the details thereof will be omitted.

サーバ40の記憶部42は、ユーザ端末10,20のそれぞれに対応して設けられた複数のユーザモデル42M(図19では3つの第1ユーザモデル42M1、第2ユーザモデル42M2、第3ユーザモデル42M3)と、言動履歴DB42aとを記憶する。言動履歴DB42aは、例えばユーザ端末10,20のそれぞれに対応して設けられてもよく、この場合、図4Bに示す構成と同様の構成を有する。また言動履歴DB42aは、図4Bに示す構成に、更にユーザID列を有する構成でもよく、この場合、ユーザ端末10,20のそれぞれに割り当てられたユーザIDに対応付けて、それぞれのユーザに対応する履歴情報が蓄積される。 The storage unit 42 of the server 40 has a plurality of user models 42M (three first user models 42M1, second user model 42M2, and third user model 42M3 in FIG. 19) provided corresponding to the user terminals 10 and 20 respectively. ) And the behavior history DB42a are stored. The behavior history DB 42a may be provided corresponding to each of the user terminals 10 and 20, for example, and in this case, has the same configuration as that shown in FIG. 4B. Further, the behavior history DB 42a may have a configuration having a user ID string in addition to the configuration shown in FIG. 4B. In this case, the behavior history DB 42a corresponds to each user in association with the user ID assigned to each of the user terminals 10 and 20. History information is accumulated.

また、サーバ40の処理部43は対話処理部43a及び言動実行部43bを有する。対話処理部43a及び言動実行部43bは、実施形態3の自端末10における対話処理部13a及び言動実行部13cと同様の処理を行う。なお、サーバ40の言動実行部43bは、対話処理部43aを用いて、複数のユーザモデル42Mに基づいて複数のアバター(複数のユーザ端末10,20のアバター)間での対話を行う。図20は、サーバ40による言動処理の手順例を示すフローチャートである。以下の処理はサーバ40の記憶部42に記憶してある制御プログラム42Pに従って制御部41によって実行される。 Further, the processing unit 43 of the server 40 has an dialogue processing unit 43a and a word / action execution unit 43b. The dialogue processing unit 43a and the word / action execution unit 43b perform the same processing as the dialogue processing unit 13a and the word / action execution unit 13c in the own terminal 10 of the third embodiment. The word / action execution unit 43b of the server 40 uses the dialogue processing unit 43a to perform a dialogue between a plurality of avatars (avatars of the plurality of user terminals 10 and 20) based on the plurality of user models 42M. FIG. 20 is a flowchart showing an example of a procedure for processing words and actions by the server 40. The following processing is executed by the control unit 41 according to the control program 42P stored in the storage unit 42 of the server 40.

サーバ40の言動実行部43bは、それぞれのユーザモデル42Mに基づいて、それぞれ対応するユーザのアバターが、他のアバターとの対話を要求しているか否かを判断する(S101)。例えば言動実行部43bは、それぞれのユーザモデル42Mに対して、「対話したい相手がいますか」のようなメッセージを提示データとして入力し、ユーザモデル42Mから、対話したい相手に関する情報(回答データ)が出力されるか否かに応じて、あるアバターが他のアバターとの対話を要求しているか否かを判断する。例えばユーザモデル42Mから、「対話したい相手がいます」、「○○さんと対話したいです」のような回答データが出力された場合、言動実行部43bは、このユーザモデル42Mに対応するアバターからの他のアバターとの対話要求を受け付ける。 The word / action execution unit 43b of the server 40 determines whether or not the avatar of each corresponding user requests a dialogue with another avatar based on each user model 42M (S101). For example, the word / action execution unit 43b inputs a message such as "Is there a person you want to talk to?" As presentation data for each user model 42M, and the user model 42M provides information (answer data) about the person you want to talk to. Whether or not one avatar requests a dialogue with another avatar is determined depending on whether or not it is output. For example, when answer data such as "I have a partner I want to talk to" or "I want to talk to Mr. XX" is output from the user model 42M, the word / action execution unit 43b is from the avatar corresponding to this user model 42M. Accepts dialogue requests with other avatars.

言動実行部43bは、対話要求を受け付けていないと判断した場合(S101:NO)、対話要求を受け付けるまで待機する。言動実行部43bは、対話要求を受け付けたと判断した場合(S101:YES)、対話要求してきたユーザモデル42M(第1対話相手)を特定し(S102)、第1対話相手が対話したい第2対話相手を特定する(S103)。ここでは、言動実行部43bは、対話したい相手に関する回答データを出力したユーザモデル42Mを第1対話相手に特定し、第1対話相手のユーザモデル42Mから出力された回答データによって指定された対話相手を第2対話相手に特定する。 When the word / action execution unit 43b determines that the dialogue request is not accepted (S101: NO), it waits until the dialogue request is accepted. When the word / action execution unit 43b determines that the dialogue request has been accepted (S101: YES), the word / action execution unit 43b identifies the user model 42M (first dialogue partner) who has requested the dialogue (S102), and the first dialogue partner wants to have a dialogue with the second dialogue. Identify the other party (S103). Here, the word / action execution unit 43b specifies the user model 42M that outputs the response data regarding the partner to be interacted with as the first dialogue partner, and the dialogue partner designated by the response data output from the user model 42M of the first dialogue partner. Is specified as the second dialogue partner.

次に言動実行部43bは、特定した第1対話相手から第2対話相手への対話情報を生成する(S104)。言動実行部43bは、例えば「話したいことは何ですか」のようなメッセージを提示データとして、第1対話相手のユーザモデル42Mに入力し、ユーザモデル12Mから出力される返答情報(回答データ)に基づいて、第1対話相手からの対話情報を生成する。言動実行部43bは、生成した対話情報に対する第2対話相手からの返答情報を生成する(S105)。ここでは、言動実行部43bは、生成した第1対話相手からの対話情報を提示データとして、第2対話相手のユーザモデル42Mに入力し、ユーザモデル42Mから出力される返答情報(回答データ)に基づいて、第2対話相手から第1対話相手への返答情報を生成する。言動実行部43bは、ステップS104及びS105で生成した第1対話相手から第2対話相手への対話情報と、第2対話相手から第1対話相手への返答情報とを、第1対話相手と第2対話相手との間の対話処理における履歴情報として、例えば第1対話相手及び第2対話相手のユーザ(ユーザID)に対応付けて言動履歴DB42aに記憶する(S106)。 Next, the word / action execution unit 43b generates dialogue information from the specified first dialogue partner to the second dialogue partner (S104). The word / action execution unit 43b inputs a message such as "what do you want to talk about" as presentation data into the user model 42M of the first dialogue partner, and the response information (answer data) output from the user model 12M. Based on, the dialogue information from the first dialogue partner is generated. The word / action execution unit 43b generates response information from the second dialogue partner to the generated dialogue information (S105). Here, the word / action execution unit 43b inputs the generated dialogue information from the first dialogue partner as presentation data into the user model 42M of the second dialogue partner, and uses the response information (answer data) output from the user model 42M. Based on this, the response information from the second dialogue partner to the first dialogue partner is generated. The word-and-action execution unit 43b uses the first dialogue partner and the first dialogue partner to provide the dialogue information from the first dialogue partner to the second dialogue partner and the response information from the second dialogue partner to the first dialogue partner generated in steps S104 and S105. 2. As history information in the dialogue processing with the dialogue partner, for example, it is stored in the behavior history DB 42a in association with the user (user ID) of the first dialogue partner and the second dialogue partner (S106).

言動実行部43bは、第1対話相手と第2対話相手との間の対話が終了したか否かを判断しており(S107)、終了していないと判断した場合(S107:NO)、ステップS104の処理に戻り、ステップS105で生成した第2対話相手からの対話情報(返答情報)に対する第1対話相手からの返答情報を生成する(S104)。ここでは、言動実行部43bは、第2対話相手からの対話情報(返答情報)を提示データとして、第1対話相手のユーザモデル42Mに入力し、ユーザモデル42Mから出力される返答情報(回答データ)に基づいて、第1対話相手から第2対話相手への返答情報を生成する。言動実行部43bは、第1対話相手と第2対話相手との間の対話が終了するまでステップS104〜S106の処理を繰り返す。即ち、第1対話相手のユーザモデル42Mから出力された対話情報を第2対話相手のユーザモデル42Mに入力し、第2対話相手のユーザモデル42Mから出力された対話情報を第1対話相手のユーザモデル42Mに入力する。これにより、第1対話相手のユーザモデル42Mと、第2対話相手のユーザモデル42Mとの間における対話を行うことができ、また対話の結果を言動履歴DB42aに蓄積することができる。 The word / action execution unit 43b determines whether or not the dialogue between the first dialogue partner and the second dialogue partner has ended (S107), and if it determines that the dialogue has not ended (S107: NO), the step. Returning to the process of S104, the response information from the first dialogue partner to the dialogue information (response information) from the second dialogue partner generated in step S105 is generated (S104). Here, the word / action execution unit 43b inputs the dialogue information (response information) from the second dialogue partner into the user model 42M of the first dialogue partner as presentation data, and the response information (response data) output from the user model 42M. ), The response information from the first dialogue partner to the second dialogue partner is generated. The word / action execution unit 43b repeats the processes of steps S104 to S106 until the dialogue between the first dialogue partner and the second dialogue partner is completed. That is, the dialogue information output from the user model 42M of the first dialogue partner is input to the user model 42M of the second dialogue partner, and the dialogue information output from the user model 42M of the second dialogue partner is input to the user of the first dialogue partner. Input to model 42M. As a result, the user model 42M of the first dialogue partner and the user model 42M of the second dialogue partner can have a dialogue, and the result of the dialogue can be stored in the behavior history DB 42a.

言動実行部43bは、第1対話相手と第2対話相手との間の対話が終了したと判断した場合(S107:YES)、上述した処理を終了する。なお、言動実行部43bは、第1対話相手のユーザモデル42M又は第2対話相手のユーザモデル42Mから出力される回答データ(返答情報)に基づいて対話の終了を判定するが、例えば所定回数の対話の往復が行われた場合に対話を終了してもよい。 When it is determined that the dialogue between the first dialogue partner and the second dialogue partner has been completed (S107: YES), the word / action execution unit 43b ends the above-described processing. The word / action execution unit 43b determines the end of the dialogue based on the response data (response information) output from the user model 42M of the first dialogue partner or the user model 42M of the second dialogue partner. The dialogue may be terminated when a round trip of the dialogue is made.

本実施形態において、サーバ40の言動実行部43bは、実施形態3の自端末10の言動実行部13cと同様に、それぞれのユーザモデル42Mに基づいて、図12に示す言動処理と同様の処理を行うことができる。即ち、言動実行部43bは、それぞれのユーザモデル42Mに対応するユーザが行きたい場所又はやりたいことを特定し、それぞれのアバターに擬似的な外出行為を行わせることができる。具体的には、ステップS61においてサーバ40の言動実行部43bは、それぞれのユーザモデル42Mを用いて、それぞれのユーザが行きたいと思っている場所があるか否かを判断する。例えば言動実行部43bは、「行きたい場所」を提示データとしてユーザモデル42Mに入力し、ユーザモデル42Mから出力される「行きたい場所」に関する情報(回答データ)を取得することにより、このユーザモデル42Mに対応するユーザが行きたいと思っている場所を取得する。また、ステップS65においてサーバ40の言動実行部43bは、それぞれのユーザモデル42Mを用いて、それぞれのユーザがやりたいと思っていることがあるか否かを判断する。例えば言動実行部43bは、「やりたいこと」を提示データとしてユーザモデル42Mに入力し、ユーザモデル42Mから出力される「やりたいこと」に関する情報(回答データ)を取得することにより、このユーザモデル42Mに対応するユーザがやりたいと思っていることを取得する。上述した処理により、サーバ40は、それぞれのユーザモデル42Mに基づいて、それぞれのユーザが行きたい場所又はやりたいことを抽出できる。また、サーバ40の言動実行部43bは、それぞれのユーザが行きたい場所又はやりたいことに関する各種の情報をネットワークN経由で検索して収集する。そして言動実行部43bは、それぞれ収集した情報を、ユーザモデル42Mに対応するそれぞれのユーザ(ユーザID)に対応付けて言動履歴DB42aに記憶する。これにより、それぞれのユーザのアバターが、ユーザに代わって擬似的に行った行動の結果を履歴情報として蓄積できる。 In the present embodiment, the word / action execution unit 43b of the server 40 performs the same processing as the word / action processing shown in FIG. 12 based on the respective user models 42M, similarly to the word / action execution unit 13c of the own terminal 10 of the third embodiment. It can be carried out. That is, the word / action execution unit 43b can specify the place where the user corresponding to each user model 42M wants to go or what he / she wants to do, and make each avatar perform a pseudo outing action. Specifically, in step S61, the word / action execution unit 43b of the server 40 uses each user model 42M to determine whether or not there is a place where each user wants to go. For example, the word / action execution unit 43b inputs the “desired place” as presentation data into the user model 42M, and acquires the information (answer data) regarding the “desired place” output from the user model 42M, thereby this user model. Acquire the place where the user corresponding to 42M wants to go. Further, in step S65, the word / action execution unit 43b of the server 40 uses each user model 42M to determine whether or not each user has something he / she wants to do. For example, the word / action execution unit 43b inputs "what he wants to do" into the user model 42M as presentation data, and acquires information (answer data) about "what he wants to do" output from the user model 42M to the user model 42M. Get what the corresponding user wants to do. By the above-mentioned processing, the server 40 can extract the place or what each user wants to do based on each user model 42M. Further, the word / action execution unit 43b of the server 40 searches and collects various information about the place or what each user wants to go to via the network N. Then, the word / action execution unit 43b stores the collected information in the word / action history DB 42a in association with each user (user ID) corresponding to the user model 42M. As a result, the avatar of each user can accumulate the result of the pseudo action performed on behalf of the user as history information.

上述した構成により、本実施形態では、サーバ40がそれぞれのユーザ端末10,20におけるアバター間の対話処理を行い、また、それぞれのアバターによる各種の行動を行い、行った結果を履歴情報として蓄積する。そしてサーバ40は、それぞれのユーザ端末10,20からの要求に応じて、それぞれのユーザに対応付けて蓄積した履歴情報をユーザ端末10,20へ提供する。よって、ユーザ端末10,20の各ユーザは、サーバ40において自身のアバターが行った対話処理及び各種の行動を把握できる。従って、本実施形態においても、それぞれのユーザ端末10,20のユーザは、自身に代わって自身のアバターが他のアバターとの間で行った対話を擬似的に体験することができ、また、自身のアバターが擬似的に行った外出処理を辿ることができる。 According to the above-described configuration, in the present embodiment, the server 40 performs interactive processing between avatars on the respective user terminals 10 and 20, performs various actions by each avatar, and accumulates the results of the actions as history information. .. Then, the server 40 provides the user terminals 10 and 20 with the history information accumulated in association with each user in response to the request from the user terminals 10 and 20. Therefore, each user of the user terminals 10 and 20 can grasp the dialogue processing and various actions performed by his / her avatar on the server 40. Therefore, also in the present embodiment, the users of the respective user terminals 10 and 20 can experience the dialogue that their avatar has performed with other avatars on their behalf, and also themselves. You can follow the outing process that the avatar of.

本実施形態において、サーバ40の記憶部42に、各ユーザのユーザモデル42Mを記憶する代わりに、実施形態1における各ユーザの固有情報DB12aを記憶しておき、各ユーザの固有情報DB12aに基づく言動処理を行う構成としてもよい。 In the present embodiment, instead of storing the user model 42M of each user in the storage unit 42 of the server 40, the unique information DB 12a of each user in the first embodiment is stored, and the words and actions based on the unique information DB 12a of each user are stored. It may be configured to perform processing.

上述した実施形態1−2では、自端末10のユーザ又はアバターと、他端末20のユーザ又はアバターとが対話する際に、自端末10と他端末20との間で対話情報の送受信が行われるが、このような構成に限定されない。例えば、自端末10と他端末20との通信を中継するサーバを備え、サーバを介して自端末10と他端末20との間で対話情報の送受信が行われてもよい。 In the above-described embodiment 1-2, when the user or avatar of the own terminal 10 and the user or avatar of the other terminal 20 interact with each other, the dialogue information is transmitted and received between the own terminal 10 and the other terminal 20. However, it is not limited to such a configuration. For example, a server that relays communication between the own terminal 10 and the other terminal 20 may be provided, and dialogue information may be transmitted / received between the own terminal 10 and the other terminal 20 via the server.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

10,20 ユーザ端末(情報処理装置)
11,21 制御部
12,22 記憶部
13,23 処理部
15,25 入力部
16,26 表示部
17,27 スピーカ
18,28 マイク
40 サーバ
41 制御部
42 記憶部
43 処理部
12a,22a 固有情報DB
12c,22c 言動履歴DB
13a,23a 対話処理部
13b,23b 固有情報収集部
13c,23c 言動実行部
13d,23d 履歴出力部
12M,42M ユーザモデル
42a 言動履歴DB
43a 対話処理部
43b 言動実行部
10,20 User terminal (information processing device)
11,21 Control unit 12,22 Storage unit 13,23 Processing unit 15,25 Input unit 16,26 Display unit 17,27 Speaker 18,28 Microphone 40 Server 41 Control unit 42 Storage unit 43 Processing unit 12a, 22a Unique information DB
12c, 22c Word and action history DB
13a, 23a Dialogue processing unit 13b, 23b Unique information collection unit 13c, 23c Word / action execution unit 13d, 23d History output unit 12M, 42M User model 42a Word / behavior history DB
43a Dialogue processing unit 43b Word / action execution unit

Claims (12)

ユーザの言動に基づいてユーザ固有の情報を収集し、
収集した前記ユーザ固有の情報に基づく言動を、前記ユーザに対応して設定されたアバターを介して実行し、
前記ユーザ固有の情報に基づく言動を前記アバターが実行した結果を出力する
処理をコンピュータに実行させるプログラム。
Collects user-specific information based on what the user says and does,
The words and actions based on the collected user-specific information are executed via the avatar set corresponding to the user.
A program that causes a computer to execute a process that outputs the result of the avatar executing words and actions based on the user-specific information.
前記ユーザに対応するアバターを介して実行した、前記ユーザ固有の情報に基づく言動の実行結果を記憶部に記憶し、
前記ユーザの要求に応じて、記憶した前記言動の実行結果を出力する
処理を前記コンピュータに実行させる請求項1に記載のプログラム。
The execution result of the words and actions based on the user-specific information executed via the avatar corresponding to the user is stored in the storage unit.
The program according to claim 1, wherein the computer executes a process of outputting a stored execution result of the words and actions in response to a request from the user.
他のユーザに対応して設定された他のアバターに係る画像を表示部に表示し、
前記他のアバターとの対話内容を受け付け、
受け付けた前記対話内容を前記他のアバターに係る端末へ出力し、
前記他のアバターに係る端末から前記他のアバターからの対話内容を取得し、
取得した前記他のアバターからの対話内容を出力する
処理を前記コンピュータに実行させる請求項1又は2に記載のプログラム。
Images related to other avatars set for other users are displayed on the display.
Accepting the content of dialogue with the other avatars,
The received dialogue content is output to the terminal related to the other avatar, and
Obtain the dialogue content from the other avatar from the terminal related to the other avatar, and
The program according to claim 1 or 2, wherein the computer executes a process of outputting the acquired dialogue content from the other avatar.
他のユーザ又は他のユーザに対応する他のアバターとの対話の実行要求を受け付け、
実行要求を受け付けた前記他のユーザ又は前記他のアバターとの対話を、前記ユーザ固有の情報に基づいて、前記ユーザに対応するアバターを介して実行し、
実行結果を出力する
処理を前記コンピュータに実行させる請求項1から3までのいずれかひとつに記載のプログラム。
Accepts requests to execute dialogues with other users or other avatars corresponding to other users,
A dialogue with the other user or the other avatar that has received the execution request is executed via the avatar corresponding to the user based on the user-specific information.
The program according to any one of claims 1 to 3, which causes the computer to execute a process of outputting an execution result.
所定の専門家又は所定の専門家に対応する専門家アバターとの対話の実行要求を受け付け、
実行要求を受け付けた前記所定の専門家又は前記専門家アバターとの対話を、前記ユーザ固有の情報に基づいて、前記ユーザに対応するアバターを介して実行し、
実行結果を出力する
処理を前記コンピュータに実行させる請求項1から4までのいずれかひとつに記載のプログラム。
Accepting requests to perform dialogues with a given expert or an expert avatar corresponding to a given expert,
A dialogue with the predetermined expert or the expert avatar that has received the execution request is executed via the avatar corresponding to the user based on the user-specific information.
The program according to any one of claims 1 to 4, which causes the computer to execute a process of outputting an execution result.
将来に生じる可能性のあるイベントに係る情報の取得を、前記ユーザ固有の情報に基づいて、前記ユーザに対応するアバターを介して実行し、
前記ユーザに対応するアバターを介して取得した前記イベントに係る情報を出力する
処理を前記コンピュータに実行させる請求項1から5までのいずれかひとつに記載のプログラム。
Acquisition of information related to an event that may occur in the future is executed via the avatar corresponding to the user based on the user-specific information.
The program according to any one of claims 1 to 5, which causes the computer to execute a process of outputting information related to the event acquired via an avatar corresponding to the user.
前記ユーザの生体情報を取得し、
取得した前記生体情報に基づいて判定される前記ユーザの心理状態がリラックス状態である場合に、前記ユーザ固有の情報を収集する
処理を前記コンピュータに実行させる請求項1から6までのいずれかひとつに記載のプログラム。
Acquire the biometric information of the user and
One of claims 1 to 6 for causing the computer to execute a process of collecting the user-specific information when the user's psychological state determined based on the acquired biometric information is in a relaxed state. The program described.
前記ユーザの発話内容に基づいて前記ユーザ固有の情報を収集する
請求項1から7までのいずれかひとつに記載のプログラム。
The program according to any one of claims 1 to 7, which collects user-specific information based on the utterance content of the user.
収集した前記ユーザ固有の情報に基づいて、商品の注文情報を所定端末へ出力する処理を、前記ユーザに対応するアバターを介して実行する
処理を前記コンピュータに実行させる請求項1から8までのいずれかひとつに記載のプログラム。
Any of claims 1 to 8 for causing the computer to execute a process of outputting product order information to a predetermined terminal based on the collected user-specific information via an avatar corresponding to the user. The program described in one.
収集した前記ユーザ固有の情報に基づいて、購買すべき商品の抽出を、前記ユーザに対応するアバターを介して実行し、
前記ユーザに対応するアバターを介して抽出した商品に関する情報を出力し、
前記商品に対する購買許可を受け付けた後に、前記商品の注文情報を所定端末へ出力する処理を、前記ユーザに対応するアバターを介して実行する
処理を前記コンピュータに実行させる請求項1から9までのいずれかひとつに記載のプログラム。
Based on the collected user-specific information, the product to be purchased is extracted via the avatar corresponding to the user.
Information about the product extracted via the avatar corresponding to the user is output.
Any of claims 1 to 9 for causing the computer to execute a process of outputting order information of the product to a predetermined terminal after receiving a purchase permission for the product via an avatar corresponding to the user. The program described in one.
前記ユーザ固有の情報に基づいて実行された言動の実行結果に係る情報を表示部に表示し、
表示した情報に基づいて、いずれかの実行結果に対する出力要求を受け付け、
受け付けた実行結果を出力する
処理を前記コンピュータに実行させる請求項1から10までのいずれかひとつに記載のプログラム。
Information related to the execution result of words and actions executed based on the user-specific information is displayed on the display unit.
Based on the displayed information, accept the output request for one of the execution results,
The program according to any one of claims 1 to 10, which causes the computer to execute a process of outputting the received execution result.
請求項1から11までのいずれかひとつに記載のプログラムを実行する情報処理装置。 An information processing device that executes the program according to any one of claims 1 to 11.
JP2019064045A 2019-03-28 2019-03-28 Program and information processing device Active JP7307576B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019064045A JP7307576B2 (en) 2019-03-28 2019-03-28 Program and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019064045A JP7307576B2 (en) 2019-03-28 2019-03-28 Program and information processing device

Publications (2)

Publication Number Publication Date
JP2020166359A true JP2020166359A (en) 2020-10-08
JP7307576B2 JP7307576B2 (en) 2023-07-12

Family

ID=72714436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019064045A Active JP7307576B2 (en) 2019-03-28 2019-03-28 Program and information processing device

Country Status (1)

Country Link
JP (1) JP7307576B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023082970A (en) * 2021-12-03 2023-06-15 株式会社ビデオリサーチ expert answer system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131997A (en) * 2001-10-22 2003-05-09 Sony Corp Terminal device, communication method and communication program
JP2017224190A (en) * 2016-06-16 2017-12-21 株式会社オルツ Artificial intelligence system for supporting communication
WO2018127811A1 (en) * 2017-01-06 2018-07-12 Platform Orthopedic Solutions Inc. System, platform and method for personalized shopping using an automated shopping assistant
WO2018142686A1 (en) * 2017-01-31 2018-08-09 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131997A (en) * 2001-10-22 2003-05-09 Sony Corp Terminal device, communication method and communication program
JP2017224190A (en) * 2016-06-16 2017-12-21 株式会社オルツ Artificial intelligence system for supporting communication
WO2018127811A1 (en) * 2017-01-06 2018-07-12 Platform Orthopedic Solutions Inc. System, platform and method for personalized shopping using an automated shopping assistant
WO2018142686A1 (en) * 2017-01-31 2018-08-09 ソニー株式会社 Information processing device, information processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023082970A (en) * 2021-12-03 2023-06-15 株式会社ビデオリサーチ expert answer system

Also Published As

Publication number Publication date
JP7307576B2 (en) 2023-07-12

Similar Documents

Publication Publication Date Title
US11327556B2 (en) Information processing system, client terminal, information processing method, and recording medium
US12050574B2 (en) Artificial intelligence platform with improved conversational ability and personality development
US20220284896A1 (en) Electronic personal interactive device
US9691018B2 (en) Interface apparatus and method for providing interaction of a user with network entities
US10146882B1 (en) Systems and methods for online matching using non-self-identified data
IL229370A (en) Interface apparatus and method for providing interaction of a user with network entities
Obiorah et al. Designing AACs for people with aphasia dining in restaurants
CN105893771A (en) Information service method and device and device used for information services
KR20210001621A (en) Method and system for providing information on an instant messaging application
JP7307576B2 (en) Program and information processing device
JP7418975B2 (en) information processing equipment
JP7290977B2 (en) Program and information processing device
US20230099519A1 (en) Systems and methods for managing stress experienced by users during events
JP2019087155A (en) Supporting device, system, and program
JP7360855B2 (en) Information processing method, program and information processing device
JP2017168054A (en) Information processing device and information processing method
JP6758351B2 (en) Image management system and image management method
JP2005044120A (en) Information storage apparatus, information retrieval apparatus, information storage method, information retrieval method, information storage system, information retrieval system, client apparatus and server apparatus
CN108701330A (en) Information cuing method, information alert program and information presentation device
JP2022127234A (en) Information processing method, information processing system, and program
WO2023149562A1 (en) Operation system and operation method for virtual space or online meeting system
JP7142403B1 (en) Speech processing program, speech processing system and conversational robot
JP2024060283A (en) Communication system and program for supporting sufferers of developmental disorders
JP2009211189A (en) Flow experience support method, flow experience support device, flow experience support server, flow experience support system, and program
JP2017168053A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230630

R150 Certificate of patent or registration of utility model

Ref document number: 7307576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150