JP7360855B2 - Information processing method, program and information processing device - Google Patents

Information processing method, program and information processing device Download PDF

Info

Publication number
JP7360855B2
JP7360855B2 JP2019162215A JP2019162215A JP7360855B2 JP 7360855 B2 JP7360855 B2 JP 7360855B2 JP 2019162215 A JP2019162215 A JP 2019162215A JP 2019162215 A JP2019162215 A JP 2019162215A JP 7360855 B2 JP7360855 B2 JP 7360855B2
Authority
JP
Japan
Prior art keywords
user
information
model
learning model
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019162215A
Other languages
Japanese (ja)
Other versions
JP2021039677A (en
Inventor
秀樹 木通
香苗 沢村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2019162215A priority Critical patent/JP7360855B2/en
Publication of JP2021039677A publication Critical patent/JP2021039677A/en
Application granted granted Critical
Publication of JP7360855B2 publication Critical patent/JP7360855B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、情報処理方法、プログラム及び情報処理装置に関する。 The present disclosure relates to an information processing method, a program, and an information processing device.

近年、一人暮らしをする高齢者及び単身で施設に入居する高齢者が増加しており、このような高齢者は日常生活において会話の機会が少なく孤立感を感じる人もいる。そこで、例えば特許文献1では、ユーザが発した音声を取得した場合に、予め記憶してある音声を出力することにより、擬似的な会話を行うことができるぬいぐるみが提案されている。特許文献1に開示された技術では、ユーザがぬいぐるみを抱きながらぬいぐるみと擬似的な会話を行うことにより、ユーザに癒しを与えることができ、孤立感を和らげることができる。 In recent years, the number of elderly people living alone and living alone in facilities has been increasing, and some of these elderly people feel isolated because they have few opportunities for conversation in their daily lives. Therefore, for example, Patent Document 1 proposes a stuffed toy that can have a simulated conversation by outputting a pre-stored voice when the voice uttered by the user is acquired. In the technology disclosed in Patent Document 1, the user can have a simulated conversation with the stuffed animal while hugging the stuffed animal, which can provide comfort to the user and alleviate the feeling of isolation.

特開2018-117821号公報Japanese Patent Application Publication No. 2018-117821

高齢者に限らず一人暮らしをする人は、例えば自宅に一人で居る場合に会話する相手がいないので、孤独感又は不安を感じるときもある。また、例えば家族又は同居人と暮らす人であっても、自室に一人で居る場合には孤独感又は不安を感じるときもある。しかし、特許文献1に開示された技術は高齢者を対象としており、孤独感又は不安を感じる全ての人に癒しを与えることは難しい。 People who live alone, not just the elderly, sometimes feel lonely or anxious because they have no one to talk to when they are alone at home, for example. Furthermore, even if a person lives with family or cohabitants, they may feel lonely or anxious if they are alone in their room. However, the technique disclosed in Patent Document 1 is targeted at elderly people, and it is difficult to provide comfort to all people who feel lonely or anxious.

本開示は、斯かる事情に鑑みてなされたものであり、その目的とするところは、ユーザの孤独感又は不安を和らげることが可能な情報処理方法等を提供することにある。 The present disclosure has been made in view of such circumstances, and its purpose is to provide an information processing method and the like that can alleviate a user's sense of loneliness or anxiety.

本開示に係る情報処理方法は、第1ユーザの対話履歴情報に基づいて学習された第1の学習モデルを記憶部に記憶し、前記第1の学習モデルのデプロイが可能な情報処理装置に対する指定を受け付け、指定された前記情報処理装置に対して前記第1の学習モデルをデプロイし、前記第1の学習モデルをデプロイされた前記情報処理装置は、デプロイされた前記第1の学習モデルに基づいて動作し、前記第1ユーザとは異なる第2ユーザの対話履歴情報に基づいて学習された第2の学習モデルが前記情報処理装置に対してデプロイされた場合、前記情報処理装置による前記第1の学習モデルに基づく動作が禁止される。 An information processing method according to the present disclosure stores a first learning model learned based on interaction history information of a first user in a storage unit, and specifies an information processing device capable of deploying the first learning model. and deploys the first learning model to the specified information processing device, and the information processing device to which the first learning model is deployed is configured to perform operations based on the deployed first learning model. If a second learning model learned based on interaction history information of a second user different from the first user is deployed to the information processing device, the first learning model by the information processing device Operations based on the learning model are prohibited .

本開示では、第1ユーザの対話履歴情報に基づいて学習された第1の学習モデルが、指定された情報処理装置に対してデプロイされる。これにより、情報処理装置は、第1の学習モデルに基づく処理の実行が可能となる。例えば情報処理装置は、第1の学習モデルに基づいて、情報処理装置のユーザとの間で対話を行うことができる。具体的には、情報処理装置のユーザからの対話情報を第1の学習モデルに入力し、第1の学習モデルからの出力情報に基づいて応答情報を生成して情報処理装置のユーザに出力する。よって、情報処理装置のユーザは、情報処理装置との間で対話を行うことができ、ユーザの孤独感又は不安等を和らげることができる。また、第1の学習モデルが、第1ユーザとは異なるユーザの情報処理装置にデプロイされた場合、デプロイされた情報処理装置において、この情報処理装置のユーザ(第1ユーザとは異なるユーザ)との間で対話を行うことができる。なお、第1ユーザとは異なるユーザの情報処理装置で行われた対話の結果を第1ユーザにフィードバックした場合、第1ユーザは自身が行っていない対話を擬似的に体験することができる。よって、ユーザは、自身の学習モデルを介した擬似的な体験を通して、新たな気づきを得て精神的により豊かな生活を送ることができるようになったり、現実の接点の拡大によって実際の行動変化を引き起こしたりすることにより、社会とのつながりを感じることができ、ユーザの孤独感又は不安等を和らげることができる。 In the present disclosure, a first learning model learned based on interaction history information of a first user is deployed to a designated information processing device. This enables the information processing device to execute processing based on the first learning model. For example, the information processing device can interact with the user of the information processing device based on the first learning model. Specifically, interaction information from a user of the information processing device is input into a first learning model, response information is generated based on output information from the first learning model, and response information is output to the user of the information processing device. . Therefore, the user of the information processing device can interact with the information processing device, and the user's feelings of loneliness or anxiety can be alleviated. Furthermore, if the first learning model is deployed to an information processing device of a user different from the first user, the user of this information processing device (a user different from the first user) in the deployed information processing device You can have a dialogue between them. Note that when the results of a dialogue performed on an information processing device of a user different from the first user are fed back to the first user, the first user can experience a simulated dialogue that the first user did not perform. Therefore, through simulated experiences through their own learning models, users will be able to gain new awareness and lead a mentally richer life, and will be able to make changes in their behavior by expanding their contact with reality. By causing the user to feel connected to society, it is possible to alleviate the user's feelings of loneliness or anxiety.

情報処理システムの構成例を示す模式図である。1 is a schematic diagram showing a configuration example of an information processing system. ユーザ端末の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of a user terminal. ユーザモデルの変形例を示すブロック図である。FIG. 7 is a block diagram showing a modification of the user model. ユーザ端末に記憶されるDBの構成例を示す模式図である。FIG. 2 is a schematic diagram showing a configuration example of a DB stored in a user terminal. ユーザ端末による対話処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of an interaction processing procedure by a user terminal. ユーザ端末における画面例を示す模式図である。It is a schematic diagram which shows the example of a screen in a user terminal. ユーザ端末による行動処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the action processing procedure by a user terminal. ユーザ端末による対話処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of an interaction processing procedure by a user terminal. ユーザ端末による対話処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of an interaction processing procedure by a user terminal. ユーザ端末における画面例を示す模式図である。It is a schematic diagram which shows the example of a screen in a user terminal. ユーザ端末による対話処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of an interaction processing procedure by a user terminal. ユーザ端末による行動処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the action processing procedure by a user terminal. ユーザ端末による行動処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the action processing procedure by a user terminal. 履歴情報の再生処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of a history information reproduction processing procedure. ユーザ端末における画面例を示す模式図である。It is a schematic diagram which shows the example of a screen in a user terminal. 実施形態2の情報処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an information processing system according to a second embodiment. モデル情報DBの構成例を示す模式図である。FIG. 2 is a schematic diagram showing a configuration example of a model information DB. 貸出モデルの貸出処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the lending process procedure of a lending model. ユーザ端末における画面例を示す模式図である。It is a schematic diagram which shows the example of a screen in a user terminal. 実施形態3の情報処理システムの構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of an information processing system according to a third embodiment. 貸出端末の構成例を示すブロック図である。It is a block diagram showing an example of a composition of a rental terminal. 端末管理サーバの構成例を示す模式図である。FIG. 2 is a schematic diagram showing a configuration example of a terminal management server. 端末管理サーバに記憶されるDBの構成例を示す模式図である。FIG. 2 is a schematic diagram showing a configuration example of a DB stored in a terminal management server. 貸出端末の貸出に対する予約処理手順の一例を示すフローチャートである。12 is a flowchart illustrating an example of a reservation processing procedure for renting out a rental terminal. ユーザ端末における画面例を示す模式図である。It is a schematic diagram which shows the example of a screen in a user terminal. 貸出端末の貸出処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the lending process procedure of a lending terminal. 貸出端末の貸出処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the lending process procedure of a lending terminal. ユーザ端末及び貸出端末の構成の変形例を示す模式図である。It is a schematic diagram which shows the modification of the structure of a user terminal and a rental terminal.

以下に、本開示の情報処理方法、情報処理装置、プログラム及び情報処理システムについて、その実施形態を示す図面に基づいて詳述する。 Below, an information processing method, an information processing device, a program, and an information processing system of the present disclosure will be described in detail based on drawings showing embodiments thereof.

(実施形態1)
図1は情報処理システムの構成例を示す模式図である。本実施形態の情報処理システムは、多数のユーザがそれぞれ所有する多数のユーザ端末10(情報処理装置)を含み、ユーザ端末10のそれぞれは、インターネット等のネットワークNを介して相互に情報の送受信を行う。例えば第1ユーザは自身の自宅に第1ユーザ端末10を所有しており、第2ユーザは自身の自宅に第2ユーザ端末10を所有しているが、第1ユーザ端末10及び第2ユーザ端末10の設置場所は自宅に限定されない。なお、第1ユーザ端末10及び第2ユーザ端末10は同様の構成を有しており、まとめてユーザ端末10として説明する。ユーザ端末10は、例えば情報処理システムに用いられる専用端末であり、例えばパーソナルコンピュータを用いて構成されている。なお、ユーザ端末10の外観は様々な形状に形成することができ、例えば図1に示す第1ユーザのユーザ端末10のような筐型、図1に示す第2ユーザのユーザ端末10のようなロボット型等に形成されていてもよい。
(Embodiment 1)
FIG. 1 is a schematic diagram showing an example of the configuration of an information processing system. The information processing system of this embodiment includes a large number of user terminals 10 (information processing devices) owned by a large number of users, and each of the user terminals 10 mutually sends and receives information via a network N such as the Internet. conduct. For example, the first user owns the first user terminal 10 at his home, and the second user owns the second user terminal 10 at his home, but the first user terminal 10 and the second user terminal The installation location of 10 is not limited to the home. Note that the first user terminal 10 and the second user terminal 10 have similar configurations, and will be collectively described as the user terminal 10. The user terminal 10 is, for example, a dedicated terminal used in an information processing system, and is configured using, for example, a personal computer. Note that the external appearance of the user terminal 10 can be formed into various shapes, such as a housing type like the first user's user terminal 10 shown in FIG. 1, or a housing type like the second user's user terminal 10 shown in FIG. It may be formed into a robot type or the like.

図1に示す第1ユーザのユーザ端末10は、例えば四角柱状の筐体10bの一面(図1では上面)に、ミラー10aが枢軸(図示せず)により回動可能に取り付けられて構成されている。枢軸は筐体10bの上面の一辺に沿う軸であり、ミラー10aは、筐体10bの上面を覆う位置(閉位置)と、筐体10bの上面から立ち上がった位置(開位置)との間で回動可能に支持されている。図1ではミラー10aが開位置にある状態のユーザ端末10を示す。ミラー10aは閉位置にある場合に外面(上面)が反射面となるように取り付けられており、ミラー10aには表示部16が内蔵されている。このような構成のユーザ端末10では、ミラー10aによる反射面と、表示部16による表示面とが切り替えられるように構成されており、例えば表示部16が動作していないときは、ミラー10aの反射面が鏡として使用できる。また、図1に示す第1ユーザのユーザ端末10は、例えばミラー10aの所定箇所にカメラ19が設けられており、筐体10bの適宜箇所にスピーカ17及びマイク18が設けられている。図1に示す例では、ミラー10aが開位置にある場合にミラー10aの上端部の位置にカメラ19が設けてあり、筐体10bの上面にスピーカ17及びマイク18が設けてあるが、これらの配置位置はこの例に限定されない。例えばカメラ19は、ミラー10aが開位置にある場合に、ミラー10aの前方向に居るユーザを撮影できる位置に設けてあればよく、スピーカ17は、ユーザ端末10の近傍のユーザに出力音声が届く位置に設けてあればよく、マイク18は、ユーザ端末10の近傍のユーザが発する音声を集音できる位置に設けてあればよい。更に、図1に示す第1ユーザのユーザ端末10は、筐体10bの下面(底面)に複数のタイヤ20aが設けられており、移動機構20(図2参照)によってタイヤ20aを回転させることにより自動走行できるように構成されている。 The first user's user terminal 10 shown in FIG. 1 is configured such that a mirror 10a is rotatably attached to one surface (the top surface in FIG. 1) of a rectangular prism-shaped housing 10b, for example, by a pivot (not shown). There is. The pivot axis is an axis along one side of the top surface of the casing 10b, and the mirror 10a is moved between a position covering the top surface of the casing 10b (closed position) and a position rising from the top surface of the casing 10b (open position). Rotatably supported. FIG. 1 shows the user terminal 10 with the mirror 10a in the open position. The mirror 10a is attached so that its outer surface (upper surface) becomes a reflective surface when it is in the closed position, and a display section 16 is built into the mirror 10a. The user terminal 10 having such a configuration is configured so that the reflection surface of the mirror 10a and the display surface of the display section 16 can be switched. For example, when the display section 16 is not operating, the reflection surface of the mirror 10a is switched. The surface can be used as a mirror. Further, in the user terminal 10 of the first user shown in FIG. 1, for example, a camera 19 is provided at a predetermined location on the mirror 10a, and a speaker 17 and a microphone 18 are provided at appropriate locations on the housing 10b. In the example shown in FIG. 1, a camera 19 is provided at the top end of the mirror 10a when the mirror 10a is in the open position, and a speaker 17 and a microphone 18 are provided on the top surface of the housing 10b. The arrangement position is not limited to this example. For example, the camera 19 only needs to be installed at a position where it can photograph the user who is in front of the mirror 10a when the mirror 10a is in the open position, and the speaker 17 can send output audio to users near the user terminal 10. The microphone 18 may be provided at a position where it can collect sounds emitted by users near the user terminal 10. Furthermore, the first user's user terminal 10 shown in FIG. It is configured to run automatically.

図1に示す第2ユーザのユーザ端末10は、例えば円柱状の胴体部10dの上に頭部10cが連結されて構成されている。また、図1に示す第2ユーザのユーザ端末10は、例えば頭部10cの適宜箇所にカメラ19、表示部16、スピーカ17が設けられており、胴体部10dの適宜箇所にマイク18が設けられている。図1に示す例では、頭部10cの中央に表示部16が設けてあり、表示部16の上部及び下部にそれぞれカメラ19及びスピーカ17が設けてあり、胴体部10dの上方位置にマイク18が設けてあるが、これらの配置位置はこの例に限定されない。例えば表示部16及びカメラ19は、ユーザ端末10の同一面(例えば正面側の面)に設けられ、表示部16は、ユーザ端末10の正面に居るユーザが視認できる位置に設けてあればよく、カメラ19は、ユーザを撮影できる位置に設けてあればよい。またスピーカ17は、ユーザ端末10の近傍のユーザに出力音声が届く位置に設けてあればよく、マイク18は、ユーザ端末10の近傍のユーザが発する音声を集音できる位置に設けてあればよい。更に、図1に示す第2ユーザのユーザ端末10は、胴体部10dの下面(底面)に複数のタイヤ20aが設けられており、移動機構20(図2参照)によってタイヤ20aを回転させることにより自動走行できるように構成されている。なお、図1に示す第2ユーザのユーザ端末10は、頭部10cが胴体部10dに対して鉛直方向を軸として回転するように、また、頭部10cが水平面に対して適宜角度揺動するように首振り機構を有していてもよい。 The second user's user terminal 10 shown in FIG. 1 is configured such that a head 10c is connected to a cylindrical body portion 10d, for example. Further, the second user's user terminal 10 shown in FIG. 1 is provided with a camera 19, a display unit 16, and a speaker 17 at appropriate locations on the head 10c, and a microphone 18 is provided at an appropriate location on the body portion 10d. ing. In the example shown in FIG. 1, a display section 16 is provided at the center of the head 10c, a camera 19 and a speaker 17 are provided at the top and bottom of the display section 16, respectively, and a microphone 18 is provided at a position above the body section 10d. However, their arrangement positions are not limited to this example. For example, the display section 16 and the camera 19 may be provided on the same surface (for example, the front surface) of the user terminal 10, and the display section 16 may be provided at a position where the user who is in front of the user terminal 10 can see it. The camera 19 only needs to be provided at a position where it can photograph the user. Further, the speaker 17 may be provided at a position where output audio can reach users near the user terminal 10, and the microphone 18 may be provided at a location where it can collect sounds emitted by users near the user terminal 10. . Furthermore, the second user's user terminal 10 shown in FIG. 1 is provided with a plurality of tires 20a on the lower surface (bottom surface) of the body portion 10d, and by rotating the tires 20a by the moving mechanism 20 (see FIG. 2), the second user's user terminal 10 shown in FIG. It is configured to run automatically. Note that the second user's user terminal 10 shown in FIG. 1 is configured such that the head 10c rotates about the vertical direction with respect to the body portion 10d, and the head 10c swings at an appropriate angle with respect to the horizontal plane. It may have a swinging mechanism like this.

本実施形態では、ユーザ端末10を、図1に示すような外観の専用端末として説明するが、ユーザ端末10は、表示部16、スピーカ17、マイク18及びカメラ19を有する端末であれば専用端末でなくてもよい。例えばユーザ端末10は移動機構20を備えていなくてもよく、例えばスマートフォン又はタブレット端末等を用いてユーザ端末10を構成することもできる。本実施形態の情報処理システムにおいて、各ユーザ端末10は、各ユーザの言動(対話履歴情報及び行動履歴情報)に基づいて各ユーザの固有の情報が蓄積されたユーザモデルを構築しており、それぞれのユーザモデルに基づく各種の処理を実行する。なお、各ユーザ端末10には各ユーザに対応するアバターが設定してあり、各ユーザ端末10は、自端末のユーザモデルに基づく処理を実行する際に、必要に応じてアバターを用いる。 In this embodiment, the user terminal 10 will be described as a dedicated terminal having an appearance as shown in FIG. It doesn't have to be. For example, the user terminal 10 does not need to be provided with the movement mechanism 20, and the user terminal 10 can also be configured using, for example, a smartphone or a tablet terminal. In the information processing system of this embodiment, each user terminal 10 constructs a user model in which unique information of each user is accumulated based on each user's words and actions (dialogue history information and action history information), and each Executes various processes based on the user model. Note that an avatar corresponding to each user is set in each user terminal 10, and each user terminal 10 uses the avatar as necessary when executing processing based on its own user model.

図2はユーザ端末10の構成例を示すブロック図である。ユーザ端末10は、制御部11、記憶部12、処理部13、通信部14、入力部15、表示部16、スピーカ17、マイク18、カメラ19、移動機構20、センサ部21、読み取り部22等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、ユーザ端末10が行うべき種々の情報処理、制御処理等を実行する。 FIG. 2 is a block diagram showing an example of the configuration of the user terminal 10. As shown in FIG. The user terminal 10 includes a control section 11, a storage section 12, a processing section 13, a communication section 14, an input section 15, a display section 16, a speaker 17, a microphone 18, a camera 19, a movement mechanism 20, a sensor section 21, a reading section 22, etc. These parts are interconnected via a bus. The control unit 11 includes one or more processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), or a GPU (Graphics Processing Unit). The control unit 11 executes various information processing, control processing, etc. that should be performed by the user terminal 10 by appropriately executing the control program 12P stored in the storage unit 12.

記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。また記憶部12は、ユーザ端末10のユーザの対話履歴及び行動履歴に基づいて収集されたユーザ固有の情報が蓄積されたユーザモデル12Mを記憶する。更に記憶部12は、後述する宛先情報DB(データベース)12a、対話履歴DB12b及び行動履歴DB12cを記憶する。宛先情報DB12a、対話履歴DB12b及び行動履歴DB12cは、ユーザ端末10に接続された外部記憶装置に記憶されてもよく、ユーザ端末10が通信可能な外部記憶装置に記憶されてもよい。更に記憶部12は、ユーザ端末10のユーザに対応付けて設定されたアバターに関する情報(アバター情報)を記憶する。アバターに関する情報は、アバターを表示するための画像データ、アバターに発話させる際の音声データ、アバターの表示画像に動きを付加するためのモーションデータ等を含む。 The storage unit 12 includes a RAM (Random Access Memory), a flash memory, a hard disk, an SSD (Solid State Drive), and the like. The storage unit 12 stores in advance a control program 12P executed by the control unit 11 and various data necessary for executing the control program 12P. The storage unit 12 also temporarily stores data and the like generated when the control unit 11 executes the control program 12P. The storage unit 12 also stores a user model 12M in which user-specific information collected based on the interaction history and action history of the user of the user terminal 10 is accumulated. Furthermore, the storage unit 12 stores a destination information DB (database) 12a, a dialogue history DB 12b, and an action history DB 12c, which will be described later. The destination information DB 12a, the dialogue history DB 12b, and the action history DB 12c may be stored in an external storage device connected to the user terminal 10, or an external storage device with which the user terminal 10 can communicate. Furthermore, the storage unit 12 stores information regarding an avatar (avatar information) that is set in association with the user of the user terminal 10. The information regarding the avatar includes image data for displaying the avatar, audio data for making the avatar speak, motion data for adding movement to the displayed image of the avatar, and the like.

ユーザモデル12Mは、例えば深層学習アルゴリズムを用いて学習されたディープラーニングモデルであり、例えばRNN(Recurrent Neural Network)を用いたSeq2Seq(Sequence to Sequence)モデル、CNN(Convolution Neural Network)モデルで構成されている。なお、ユーザモデル12Mは、これらのモデルを用いて構築される構成に限定されず、各種のDNN(Deep Neural Network )モデルを用いて構成できる。ユーザモデル12Mは、ユーザ端末10のユーザの対話履歴及び行動履歴に基づいて学習された学習済みモデルである。具体的には、ユーザモデル12Mは、ユーザに対して提示した対話情報と、提示した対話情報に対してユーザが返答した返答情報とを含む対話履歴情報を教師データに用いて、対話情報が入力された場合に、入力された対話情報に対応する返答情報を出力するように学習されている。このような教師データは、例えばスピーカ17又は表示部16を介してユーザに対して所定の対話情報を提示した場合に、提示した対話情報に対してユーザが返答した返答情報をマイク18又は入力部15を介して取得することにより得られる。このように得られた教師データを用いてユーザモデル12Mを学習させることにより、ユーザに関する情報、ユーザが返答する可能性の高い対話情報等を出力できるユーザモデル12Mを生成できる。具体的には、例えば「お名前は?」の対話情報を提示したときに、ユーザが「○○○○です」の返答情報を返した場合、ユーザの返答情報からユーザの名前は「○○○○」であるとの教師データが得られ、このような教師データを用いることにより、ユーザモデル12Mに、ユーザの氏名(ユーザ固有情報)が「○○○○」であることを学習させることができる。また、「何かあったの?」の対話情報を提示したときに、ユーザが「今日、お父さんと喧嘩したよ」の返答情報を返した場合、ユーザの返答情報から、ユーザの最近の出来事として「今日お父さんと喧嘩した」との教師データが得られ、このような教師データを用いることにより、ユーザモデル12Mに、ユーザの最近の出来事の情報(ユーザ固有情報)を学習させることができる。更に、「今日どこ行ったの?」の対話情報を提示したときに、ユーザが「○○の映画を観たよ」の返答情報を返した場合、ユーザの返答情報から、ユーザが最近観た映画が「○○」であるとの教師データが得られ、このような教師データを用いることにより、ユーザモデル12Mに、ユーザが最近観た映画の情報(ユーザ固有情報)を学習させることができる。また例えば「おはよう」の対話情報を提示したときに、ユーザが「おはようございます」の返答情報を返した場合、ユーザの返答情報からユーザは「おはよう」の対話情報に対して「おはようございます」と返答するとの教師データが得られ、このような教師データを用いることにより、ユーザモデル12Mに、ユーザの朝の挨拶は「おはようございます」であることを学習させることができる。 The user model 12M is, for example, a deep learning model learned using a deep learning algorithm, and is composed of, for example, a Seq2Seq (Sequence to Sequence) model using an RNN (Recurrent Neural Network) or a CNN (Convolution Neural Network) model. There is. Note that the user model 12M is not limited to a configuration constructed using these models, but can be constructed using various DNN (Deep Neural Network) models. The user model 12M is a trained model that is trained based on the interaction history and behavior history of the user of the user terminal 10. Specifically, the user model 12M uses dialogue history information that includes dialogue information presented to the user and reply information from the user to the presented dialogue information as teacher data, and inputs the dialogue information. It has been trained to output response information corresponding to the input dialogue information when the input dialogue information is input. Such training data includes, for example, when predetermined dialogue information is presented to the user via the speaker 17 or the display unit 16, response information of the user's response to the presented dialogue information is transmitted to the microphone 18 or the input unit. 15. By training the user model 12M using the teacher data obtained in this way, it is possible to generate a user model 12M that can output information about the user, dialogue information to which the user is likely to respond, and the like. Specifically, for example, when the dialog information "What's your name?" is presented and the user returns the response information "It's ○○○○", the user's name is "○○" based on the user's response information. By using such training data, the user model 12M can learn that the user's name (user-specific information) is "○○○○". Can be done. In addition, if the user returns the response information "I had a fight with my father today" when the dialogue information "Did something happen?" is presented, the user's recent events are determined based on the user's response information. Teacher data such as "I had a fight with my father today" is obtained, and by using such teacher data, the user model 12M can learn information about the user's recent events (user-specific information). Furthermore, when the dialog information of "Where did you go today?" is presented, and the user returns the response information of "I saw a movie about ○○," based on the user's response information, the movie that the user has watched recently is displayed. By using such training data, it is possible to make the user model 12M learn information (user-specific information) about movies that the user has watched recently. Also, for example, if the user returns the response information "Good morning" when the dialogue information "Good morning" is presented, based on the user's response information, the user responds with "Good morning" in response to the dialogue information "Good morning". By using such training data, it is possible to make the user model 12M learn that the user's morning greeting is "Good morning."

また、ユーザ端末10にインストールされている各種のアプリケーションプログラムによって実行される処理に係る情報から対話履歴情報を収集してもよい。例えばユーザ(ユーザ端末10)が電子メール、LINE(登録商標)メッセージ、LINEスタンプ、SNS(Social Network Service)等を介して他のユーザ(他のユーザ端末10)からの対話情報を受信したときに、この対話情報に対してユーザ(ユーザ端末10)が他のユーザ(他のユーザ端末10)へ返答情報を返信した場合、この対話情報及び返答情報を含む対話履歴情報を教師データに用いてもよい。また、ユーザ(ユーザ端末10)がSNSを介してメッセージを閲覧したときに、閲覧したメッセージに対してメッセージを投稿(返信)した場合、閲覧したメッセージ及び投稿したメッセージを含む対話履歴情報を教師データに用いてもよい。このようにネットワークNを介して提供される各種サービスによって送受信されるデータ等から対話履歴情報を収集して教師データに用いてもよい。 Further, interaction history information may be collected from information related to processing executed by various application programs installed on the user terminal 10. For example, when a user (user terminal 10) receives interaction information from another user (other user terminal 10) via email, LINE (registered trademark) message, LINE stamp, SNS (Social Network Service), etc. , when a user (user terminal 10) returns response information to another user (other user terminal 10) in response to this dialog information, even if this dialog information and dialog history information including the response information are used as teacher data. good. In addition, when a user (user terminal 10) views a message via SNS and posts (reply) a message to the viewed message, interaction history information including the viewed message and the posted message is stored in the teacher data. May be used for. In this way, dialogue history information may be collected from data sent and received by various services provided via the network N and used as teacher data.

また、ユーザモデル12Mは、ユーザに対して行われたアクションに関する情報(行動情報)と、このアクションに対してユーザが行った行動情報(反応情報)とを含む行動履歴情報を教師データに用いて、行動情報が入力された場合に、入力された行動情報に対応する反応情報を出力するように学習されている。このような教師データは、例えば、ユーザがLINEメッセージを受信したときに所定のLINEスタンプ又はLINEメッセージを返信した場合、LINEメッセージの受信を行動情報とし、所定のLINEスタンプ又はLINEメッセージの返信を反応情報とすることにより得られる。また例えば、ユーザが電子メール、LINEメッセージ、SNS等を介して会議のスケジュールに関する情報を受信したときに、その後、ユーザ端末10を用いて会議室の使用を予約するための予約アプリ(アプリケーションプログラム)を実行して会議室の予約を行ったとする。この場合、会議のスケジュールに関する情報の受信を行動情報とし、予約アプリを用いた会議室の予約を反応情報とすることによって教師データを取得してもよい。また、ユーザが電子メール、LINEメッセージ、SNS等を介して食事のお誘いに関するメッセージを受信したときに、その後、ユーザ端末10を用いてレストランの予約サイトを介したレストランの予約を行ったとする。この場合、食事のお誘いに関するメッセージの受信を行動情報とし、レストランの予約サイトにアクセスするためのブラウザの起動を反応情報とすることによって教師データを取得してもよい。また、ユーザがネットワークN上の旅行の予約サイトを介して旅行の予約を行ったときに、その後、ユーザ端末10を用いてレストランの予約サイトを介したレストランの予約、又はオプショナルツアーの予約サイトを介したオプショナルツアーの申込を行ったとする。この場合、旅行の予約サイトを介した旅行の予約を行動情報とし、レストランの予約サイト又はオプショナルツアーの予約サイトにアクセスするためのブラウザの起動を反応情報とすることによって教師データを取得してもよい。更に、ユーザが例えば書籍販売サイトから書籍に関する広告情報を受信したときに、その後、ユーザ端末10を用いて書籍販売サイトを介して書籍の購買注文を行ったとする。この場合、書籍の広告情報の受信を行動情報とし、書籍販売サイトにアクセスするためのブラウザの起動を反応情報とすることによって教師データを取得してもよい。 In addition, the user model 12M uses behavior history information including information regarding actions performed on the user (behavior information) and behavior information performed by the user in response to this action (reaction information) as the teacher data. , has been trained to output reaction information corresponding to the input behavioral information when behavioral information is input. Such training data can be, for example, if a user replies with a predetermined LINE stamp or LINE message when receiving a LINE message, the reception of the LINE message is treated as behavior information, and the predetermined LINE stamp or reply to the LINE message is treated as a reaction. It can be obtained by converting it into information. For example, when a user receives information regarding a conference schedule via e-mail, LINE message, SNS, etc., a reservation application (application program) is then used to reserve the use of a conference room using the user terminal 10. Suppose you execute the following to reserve a conference room. In this case, teacher data may be acquired by using reception of information regarding a conference schedule as behavior information and reservation of a conference room using a reservation app as reaction information. Further, suppose that the user receives a message regarding a meal invitation via e-mail, LINE message, SNS, etc., and then uses the user terminal 10 to make a restaurant reservation through a restaurant reservation site. In this case, the teacher data may be acquired by using the reception of a message regarding a meal invitation as behavior information and the activation of a browser to access a restaurant reservation site as reaction information. Furthermore, when a user makes a travel reservation through a travel reservation site on network N, he or she then uses the user terminal 10 to make a restaurant reservation through a restaurant reservation site or an optional tour reservation site. Assume that you have applied for an optional tour through . In this case, training data may be obtained by using the travel reservation through a travel reservation site as behavioral information and the activation of a browser to access a restaurant reservation site or an optional tour reservation site as reaction information. good. Furthermore, suppose that, for example, when the user receives advertisement information regarding a book from a book sales site, the user then uses the user terminal 10 to place a purchase order for the book via the book sales site. In this case, teacher data may be acquired by using reception of book advertisement information as behavior information and activation of a browser for accessing a book sales site as reaction information.

また、例えばユーザが草花を見たときに写真を撮った場合、草花を見る行動を行動情報とし、写真の撮影を反応情報とすることによって教師データを取得してもよい。また、例えばユーザが自動車の運転を開始する際にユーザ端末10を用いて音楽の再生を行った場合、自動車の運転を行動情報とし、音楽の再生を反応情報とすることによって教師データを取得してもよい。また、例えばユーザがジョギングを開始する際にユーザ端末10を用いて音楽の再生を行った場合、ジョギングを行動情報とし、音楽の再生を反応情報とすることによって教師データを取得してもよい。更に、例えばユーザがジョギングを行い、その後、ユーザ端末10を用いて健康管理アプリを起動して走行時間又は走行距離の入力を行った場合、ジョギングを行動情報とし、健康管理アプリの起動を反応情報とすることによって教師データを取得してもよい。また、例えばユーザが東京駅又は空港等の所定場所に到着した場合に、ユーザ端末10を用いて交通機関の経路検索アプリを起動して目的地までの経路検索を行った場合、所定場所への到着を行動情報とし、経路検索アプリの起動を反応情報とすることによって教師データを取得してもよい。 Further, for example, if the user takes a photo when looking at a flower, the teacher data may be acquired by using the action of looking at the flower as action information and taking the photo as reaction information. Further, for example, if the user uses the user terminal 10 to play music when starting to drive a car, teacher data can be acquired by using the driving of the car as action information and the playback of music as reaction information. You can. Further, for example, if the user uses the user terminal 10 to play music when starting jogging, teacher data may be acquired by using jogging as action information and music playback as reaction information. Further, for example, if the user jogs and then uses the user terminal 10 to launch a health management app and input the running time or distance, jogging is treated as action information, and activation of the health management app is treated as reaction information. The teacher data may be obtained by doing the following. For example, when a user arrives at a predetermined location such as Tokyo Station or an airport, and uses the user terminal 10 to launch a transportation route search app to search for a route to the destination, it is possible to search for a route to the destination. Teacher data may be acquired by using arrival as action information and starting a route search application as reaction information.

上述したような教師データは、例えばユーザが何らかの行動を行っている際に、ユーザ端末10のカメラ19、マイク18及びセンサ部21を用いてユーザの撮影画像、音声データ及び動作情報を取得し、取得した撮影画像、音声データ及び動作情報に基づいてユーザの行動に係る行動情報及び反応情報を取得することにより得られる。例えば、ユーザが草花の写真を撮っている状況の撮影画像を取得した場合、撮影画像から、ユーザが草花を見たときに写真を撮ることを示す教師データ(草花を見る行動を行動情報とし、写真の撮影を反応情報とする教師データ)を取得できる。また、ユーザが音楽を聴きながら自動車の運転を行っている状況の撮影画像及び音声データを取得した場合、撮影画像及び音声データから、ユーザが自動車を運転するときに音楽を再生することを示す教師データ(自動車の運転を行動情報とし、音楽の再生を反応情報とする教師データ)を取得できる。更に、ユーザが音楽を聴きながらジョギングをしている状況の撮影画像、音声データ及び動作情報を取得した場合、撮影画像、音声データ及び動作情報から、ユーザがジョギングするときに音楽を再生することを示す教師データ(ジョギングを行動情報とし、音楽の再生を反応情報とする教師データ)を取得できる。 The above-mentioned training data is obtained by acquiring captured images, audio data, and motion information of the user using the camera 19, microphone 18, and sensor section 21 of the user terminal 10 when the user is performing some action, for example. It is obtained by acquiring behavior information and reaction information related to the user's behavior based on the acquired captured image, audio data, and behavior information. For example, if a captured image of a user taking a photo of a flower is obtained, teacher data indicating that the user takes a photo when seeing a flower is obtained from the captured image (the behavior of looking at a flower is used as behavior information, (teaching data whose response information is photo taking) can be obtained. In addition, if captured images and audio data of a user driving a car while listening to music are obtained, a teacher indicating that music should be played when the user drives a car based on the captured images and audio data. It is possible to obtain data (teacher data that uses car driving as behavioral information and music playback as reaction information). Furthermore, if captured images, audio data, and motion information of a user jogging while listening to music are obtained, it is possible to decide to play music while the user jogs based on the captured images, audio data, and motion information. It is possible to obtain teacher data (teacher data that uses jogging as behavior information and music playback as reaction information).

上述したような教師データを用いてユーザモデル12Mを学習させることにより、ユーザに対して何らかのアクションが行われた場合にユーザが反応する可能性の高い反応情報(行動情報)又はユーザが返答する可能性の高い対話情報等を出力できるユーザモデル12Mを生成できる。また、ユーザがある行動を行った場合に次に行う可能性の高い行動内容又は対話内容を出力できるユーザモデル12Mを生成できる。ユーザモデル12Mは、上述したようにユーザの対話履歴情報及び行動履歴情報に基づいてユーザに関する各種の情報を収集(学習)し、ユーザの個人情報、趣味、好み、行動履歴、行動傾向、思考傾向等、ユーザに関する様々な情報を蓄積する。なお、学習済みモデルは、入力値に対して所定の演算を行い、演算結果を出力するものであり、この演算を規定する関数の係数や閾値等のデータが、ユーザモデル12Mとして記憶部12に記憶される。 By training the user model 12M using the above-mentioned training data, reaction information (behavior information) that is likely to cause a user to react when some action is performed on the user, or the possibility for the user to respond. It is possible to generate a user model 12M that can output highly interactive dialogue information and the like. Furthermore, it is possible to generate a user model 12M that can output the content of the action or dialogue content that is highly likely to be performed next when the user performs a certain action. As described above, the user model 12M collects (learns) various information about the user based on the user's interaction history information and behavior history information, and collects (learns) various information about the user based on the user's personal information, hobbies, preferences, behavior history, behavioral tendencies, and thinking tendencies. etc., accumulates various information regarding users. Note that the trained model performs a predetermined calculation on the input value and outputs the calculation result, and data such as coefficients and threshold values of the function that defines this calculation are stored in the storage unit 12 as the user model 12M. be remembered.

ユーザモデル12Mは、各ユーザのユーザ端末10において学習が行われてもよく、他の学習装置において学習された後に各ユーザのユーザ端末10の記憶部12に記憶されてもよい。ユーザモデル12Mは、教師データに含まれる対話情報が入力された場合に、教師データに含まれる返答情報が出力されるように学習する。またユーザモデル12Mは、教師データに含まれる行動情報が入力された場合に、教師データに含まれる反応情報が出力されるように学習する。なお、学習処理において、ユーザモデル12Mは、入力データに対して行う所定の演算を規定する関数の係数や閾値等のデータを最適化する。これにより、入力された対話情報又は行動情報に基づいて、ユーザ端末10のユーザが行う可能性の高い返答情報又は反応情報を出力するように学習されたユーザモデル12Mを生成できる。本実施形態のユーザ端末10は、上述したように自端末のユーザの対話履歴及び行動履歴に基づいて構築されたユーザモデル12Mに基づく処理を行うことにより、ユーザが行う可能性の高い対話及び行動をユーザに代わって実現するように構成されている。 The user model 12M may be trained in the user terminal 10 of each user, or may be stored in the storage unit 12 of the user terminal 10 of each user after being learned in another learning device. The user model 12M learns so that when dialogue information included in the teacher data is input, response information included in the teacher data is output. Furthermore, the user model 12M learns so that when behavior information included in the teacher data is input, reaction information included in the teacher data is output. Note that in the learning process, the user model 12M optimizes data such as coefficients and threshold values of functions that define predetermined operations to be performed on input data. As a result, it is possible to generate a user model 12M that is trained to output response information or reaction information that the user of the user terminal 10 is likely to make based on the input interaction information or behavior information. As described above, the user terminal 10 of the present embodiment performs processing based on the user model 12M constructed based on the interaction history and action history of the user of the own terminal, thereby determining the interactions and actions that the user is likely to perform. is configured to accomplish this on behalf of the user.

図3は、ユーザモデル12Mの変形例を示すブロック図である。ユーザモデル12Mは、例えば図3に示すように複数種類の学習モデルを用いて構成されていてもよい。図3に示すユーザモデル12Mは、対話用ユーザモデル12M1及び行動用ユーザモデル12M2を有し、行動用ユーザモデル12M2は更に画像判別モデル12M3、音声判別モデル12M4及びセンサ出力判別モデル12M5を有する。対話用ユーザモデル12M1は、例えばSeq2Seqモデルで構成されており、ユーザ端末10のマイク18又は入力部15を介して取得されたユーザからの対話情報が入力された場合に、この対話情報に対応する返答情報を出力する。また、行動用ユーザモデル12M2の画像判別モデル12M3は、例えばCNNモデルで構成されており、ユーザ端末10のカメラ19で撮影したユーザの撮影画像が入力された場合に、この撮影画像に対応する対話情報又は行動情報を出力する。ここでは、画像判別モデル12M3は、撮影されたユーザの行動内容に対応してユーザ端末10が行うべき対話情報又は行動情報を出力する。また、行動用ユーザモデル12M2の音声判別モデル12M4は、例えばRNNモデル又はDNNモデルで構成されており、ユーザ端末10のマイク18で集音したユーザの音声データが入力された場合に、この音声データに対応する対話情報又は行動情報を出力する。ここでは、音声判別モデル12M4は、集音されたユーザの発話内容に対応してユーザ端末10が行うべき対話情報又は行動情報を出力する。更に、行動用ユーザモデル12M2のセンサ出力判別モデル12M5は、例えばRNNモデルで構成されており、ユーザ端末10のセンサ部21が検知したユーザの動作に係る動作情報(センサからの出力信号)が入力された場合に、このセンサからの出力信号に対応する対話情報又は行動情報を出力する。ここでは、センサ出力判別モデル12M5は、検知されたユーザの動作内容に対応してユーザ端末10が行うべき対話情報又は行動情報を出力する。上述した構成のユーザモデル12Mを用いることにより、ユーザからの対話情報又はユーザの行動情報に対応してユーザ端末10が行うべき対話情報又は行動情報を決定できる。 FIG. 3 is a block diagram showing a modification of the user model 12M. The user model 12M may be configured using multiple types of learning models, as shown in FIG. 3, for example. The user model 12M shown in FIG. 3 includes a dialog user model 12M1 and a behavior user model 12M2, and the behavior user model 12M2 further includes an image discrimination model 12M3, a voice discrimination model 12M4, and a sensor output discrimination model 12M5. The dialog user model 12M1 is configured, for example, by a Seq2Seq model, and when dialog information from the user acquired via the microphone 18 or input unit 15 of the user terminal 10 is input, the dialog user model 12M1 corresponds to the dialog information. Output reply information. The image discrimination model 12M3 of the behavioral user model 12M2 is configured, for example, by a CNN model, and when a captured image of the user captured by the camera 19 of the user terminal 10 is input, a dialogue corresponding to this captured image is generated. Output information or behavior information. Here, the image discrimination model 12M3 outputs dialogue information or behavior information that the user terminal 10 should perform in response to the photographed user's behavior. The voice discrimination model 12M4 of the behavior user model 12M2 is configured, for example, by an RNN model or a DNN model, and when the user's voice data collected by the microphone 18 of the user terminal 10 is input, this voice discrimination model 12M4 Outputs dialogue information or behavior information corresponding to. Here, the voice discrimination model 12M4 outputs dialogue information or action information that the user terminal 10 should perform in response to the collected user's utterance content. Furthermore, the sensor output discrimination model 12M5 of the behavior user model 12M2 is configured, for example, by an RNN model, and receives the motion information (output signal from the sensor) related to the user's motion detected by the sensor unit 21 of the user terminal 10. When the sensor is activated, dialogue information or behavior information corresponding to the output signal from this sensor is output. Here, the sensor output discrimination model 12M5 outputs interaction information or action information that the user terminal 10 should perform in response to the detected user's action. By using the user model 12M having the above-described configuration, it is possible to determine the dialog information or behavior information that the user terminal 10 should perform in response to the dialog information from the user or the user's behavior information.

処理部13は、対話処理部13a及び行動処理部13b等を含む。処理部13の各部は、例えば記憶部12に記憶してある制御プログラム12Pを制御部11が実行することによって実現されてもよいし、これらの一部を専用のハードウェア回路で実現してもよい。対話処理部13aは、例えばユーザ端末10のユーザからの指示又はユーザモデル12Mに基づいて対話処理を行う。対話処理部13aは、例えばユーザ端末10のユーザとの対話を行い、この場合、マイク18を介した音声入力又は入力部15を介した入力(例えばテキスト入力)によってユーザからの対話情報(発話情報)を取得し、取得した対話情報に対する対話情報(返答情報)を生成し、生成した返答情報をスピーカ17を介した音声出力又は表示部16に表示することによってユーザに応答する。これにより、対話処理部13aはユーザ端末10のユーザとの対話を行うことができる。なお、対話処理部13aはユーザからの発話情報に対する返答情報を生成する際にユーザモデル12Mを用いることにより、ユーザが返答する可能性の高い対話(返答)を実現できる。具体的には、対話処理部13aは、ユーザからの発話情報を取得した場合に、取得した発話情報をユーザモデル12Mに入力し、ユーザモデル12Mから出力される、前記発話情報に対する返答情報を取得し、取得した返答情報を出力する。 The processing unit 13 includes a dialogue processing unit 13a, a behavior processing unit 13b, and the like. Each part of the processing unit 13 may be realized, for example, by the control unit 11 executing the control program 12P stored in the storage unit 12, or some of these may be realized by a dedicated hardware circuit. good. The dialogue processing unit 13a performs dialogue processing based on, for example, instructions from the user of the user terminal 10 or the user model 12M. The dialogue processing unit 13a performs a dialogue with the user of the user terminal 10, for example, and in this case, receives dialogue information (utterance information) from the user by voice input through the microphone 18 or input (for example, text input) through the input unit 15. ), generates dialogue information (response information) for the acquired dialogue information, and responds to the user by outputting the generated reply information as audio through the speaker 17 or displaying it on the display unit 16. Thereby, the interaction processing unit 13a can interact with the user of the user terminal 10. Note that by using the user model 12M when generating response information to utterance information from the user, the dialog processing unit 13a can realize a dialog (reply) in which the user is likely to respond. Specifically, when acquiring utterance information from the user, the dialogue processing unit 13a inputs the acquired utterance information to the user model 12M, and acquires response information to the utterance information output from the user model 12M. and output the obtained response information.

なお、対話処理部13aは、ユーザからの発話情報に対して行うべき返答情報を予めテンプレートとして複数記憶しておき、ユーザからの発話情報に応じた返答情報をテンプレートから選択して出力することによりユーザとの対話を行ってもよい。また対話処理部13aは、挨拶メッセージ及び質問メッセージ等の対話情報(発話情報)を予め記憶しておき、発話情報をスピーカ17を介した音声出力又は表示部16に表示することによってユーザに話しかけ、マイク18を介した音声入力又は入力部15を介した入力によってユーザからの返答情報を取得することによりユーザとの対話を行ってもよい。この場合、対話処理部13aは、挨拶メッセージ及び質問メッセージ等の対話情報を予めテンプレートとして複数記憶しておき、任意のテンプレートを選択して出力することにより、ユーザに話しかけてもよい。 Note that the dialogue processing unit 13a stores in advance a plurality of templates of response information to be made to utterance information from the user, and selects and outputs response information corresponding to the utterance information from the user from the template. A dialogue with the user may also take place. The dialogue processing unit 13a also stores dialogue information (utterance information) such as greeting messages and question messages in advance, and talks to the user by outputting the utterance information through the speaker 17 or displaying it on the display unit 16, A dialogue with the user may be performed by obtaining response information from the user through voice input via the microphone 18 or input via the input unit 15 . In this case, the dialogue processing unit 13a may talk to the user by previously storing a plurality of dialogue information such as greeting messages and question messages as templates, and selecting and outputting an arbitrary template.

なお、本実施形態では、第1ユーザのユーザモデル12M(第1ユーザモデル12M、第1の学習モデル)が、第2ユーザの第2ユーザ端末10に送信されて第2ユーザ端末10にデプロイされることにより、第2ユーザ端末10が第1ユーザモデル12Mに基づく処理を実行できるように構成されている。即ち、第2ユーザ端末10が第1ユーザモデル12Mに基づく処理を行うことにより、第2ユーザ端末10において、第1ユーザが行う可能性の高い対話を実現できる。この場合、第2ユーザは、第2ユーザ端末10を介して擬似的な第1ユーザ(第1ユーザモデル12M)との対話を行うことができる。なお、第1ユーザモデル12Mが第2ユーザ端末10にデプロイされた場合、第2ユーザ端末10の制御部11は、第1ユーザモデル12Mに基づく処理を終了するまで(第1ユーザモデル12Mがアンデプロイされるまで)、第2ユーザ端末10のハードウェア各部を、第1ユーザモデル12Mに基づく処理によって占有されるように構成されている。即ち、複数のユーザモデル12Mが同時に1つのユーザ端末10にデプロイすることはできない。具体的には、第2ユーザ端末10において、第1ユーザモデル12Mがデプロイされた場合、第2ユーザの第2ユーザモデル12M(第2の学習モデル)に基づく処理の実行(動作)が禁止される。なお、第2ユーザ端末10において、第1ユーザモデル12Mがアンデプロイされた場合、制御部11は、第2ユーザモデル12Mに基づく処理の実行を再開する。第2ユーザモデル12Mに基づく処理の禁止は、例えば第2ユーザモデル12Mを記憶部12の所定の退避領域に移動させることによって行われてもよく、この場合、処理の再開は、第2ユーザモデル12Mを記憶部12の所定領域に戻すことによって行うことができる。また、第2ユーザモデル12Mへのアクセスを禁止することによって、第2ユーザモデル12Mに基づく処理を禁止してもよく、この場合、第2ユーザモデル12Mへのアクセスを許可することによって、第2ユーザモデル12Mに基づく処理が再開される。更に本実施形態では、第1ユーザの第1ユーザモデル12Mと、第2ユーザの第2ユーザモデル12Mとの間の対話も実現できる。この場合、例えば第1ユーザ端末10の対話処理部13aは、第2ユーザ端末10から対話情報(発話情報)を受信し、受信した発話情報に対する返答情報を第1ユーザモデル12Mに基づいて特定し、特定した返答情報を第2ユーザ端末10へ送信する。一方、第2ユーザ端末10の対話処理部13aは、第2ユーザ端末10から対話情報(発話情報)を受信し、受信した発話情報に対する返答情報を第2ユーザモデル12Mに基づいて特定し、特定した返答情報を第1ユーザ端末10へ送信する。これにより、第1ユーザ端末10は第1ユーザモデル12Mに基づく対話を行い、第2ユーザ端末10は第2ユーザモデル12Mに基づく対話を行うことにより、第1ユーザと第2ユーザとの擬似的な対話を実現できる。 Note that in the present embodiment, the user model 12M of the first user (first user model 12M, first learning model) is transmitted to the second user terminal 10 of the second user and deployed on the second user terminal 10. By doing so, the second user terminal 10 is configured to be able to execute processing based on the first user model 12M. That is, by the second user terminal 10 performing processing based on the first user model 12M, it is possible to realize an interaction that is highly likely to be performed by the first user at the second user terminal 10. In this case, the second user can interact with the pseudo first user (first user model 12M) via the second user terminal 10. Note that when the first user model 12M is deployed to the second user terminal 10, the control unit 11 of the second user terminal 10 controls the control unit 11 until the process based on the first user model 12M is completed (until the first user model 12M is uninstalled). (until the first user model 12M is deployed), each hardware part of the second user terminal 10 is configured to be occupied by processing based on the first user model 12M. That is, multiple user models 12M cannot be deployed to one user terminal 10 at the same time. Specifically, in the second user terminal 10, when the first user model 12M is deployed, the second user is prohibited from executing (operating) a process based on the second user model 12M (second learning model). Ru. Note that in the second user terminal 10, when the first user model 12M is undeployed, the control unit 11 resumes execution of the process based on the second user model 12M. Prohibition of processing based on the second user model 12M may be performed, for example, by moving the second user model 12M to a predetermined evacuation area of the storage unit 12. In this case, restarting the processing may be performed using the second user model 12M. This can be done by returning 12M to a predetermined area of the storage unit 12. Further, by prohibiting access to the second user model 12M, processing based on the second user model 12M may be prohibited; in this case, by allowing access to the second user model 12M, processing based on the second user model 12M may be prohibited. Processing based on the user model 12M is restarted. Furthermore, in this embodiment, interaction between the first user model 12M of the first user and the second user model 12M of the second user can also be realized. In this case, for example, the dialog processing unit 13a of the first user terminal 10 receives dialog information (utterance information) from the second user terminal 10, and specifies response information to the received speech information based on the first user model 12M. , transmits the specified reply information to the second user terminal 10. On the other hand, the dialog processing unit 13a of the second user terminal 10 receives dialog information (utterance information) from the second user terminal 10, specifies response information to the received speech information based on the second user model 12M, and specifies The received response information is transmitted to the first user terminal 10. Thereby, the first user terminal 10 performs a dialogue based on the first user model 12M, and the second user terminal 10 performs a dialogue based on the second user model 12M, thereby creating a pseudo-interaction between the first user and the second user. It is possible to have a dialogue.

行動処理部13bは、例えばユーザ端末10のユーザからの指示又はユーザモデル12Mに基づいて行動処理を行う。行動処理部13bは、例えばカメラ19及びマイク18を用いて映像及び音声の取得(撮影)を行い、スピーカ17及び表示部16を用いて音声及び映像の出力を行い、移動機構20を用いて任意の場所への移動を行う。行動処理部13bは、ユーザからの指示又はユーザモデル12Mに基づいて、ユーザ端末10の設置場所において撮影するか否か、音声及び映像を出力するか否か、移動するか否かを判断する。例えば行動処理部13bは、ユーザ端末10のユーザが、ユーザ端末10の設置場所において撮影したいと思っているか否かを判断し、撮影したいと思っていると判断した場合、ユーザ端末10の設置場所において撮影すると判断する。また行動処理部13bは、ユーザ端末10のユーザが、ユーザ端末10の設置場所において音声及び映像を出力したいと思っているか否かを判断し、出力したいと思っていると判断した場合、ユーザ端末10の設置場所において音声及び映像を出力すると判断する。更に行動処理部13bは、ユーザ端末10のユーザが、ユーザ端末10の設置場所において移動したいと思っているか否かを判断し、移動したいと思っていると判断した場合、ユーザ端末10の設置場所において移動すると判断する。そして行動処理部13bは、撮影すると判断した場合、カメラ19及びマイク18を用いて撮影を行い、音声及び映像を出力すると判断した場合、スピーカ17及び表示部16を用いて出力を行い、移動すると判断した場合、移動機構20を用いて移動を行う。 The behavior processing unit 13b performs behavior processing based on, for example, instructions from the user of the user terminal 10 or the user model 12M. The behavior processing unit 13b acquires (photographs) video and audio using, for example, the camera 19 and the microphone 18, outputs the audio and video using the speaker 17 and the display unit 16, and uses the moving mechanism 20 to perform arbitrary recording. Move to the location. The behavior processing unit 13b determines whether to shoot at the installation location of the user terminal 10, whether to output audio and video, and whether to move based on instructions from the user or the user model 12M. For example, the behavior processing unit 13b determines whether the user of the user terminal 10 wants to take a picture at the installation location of the user terminal 10, and when determining that the user wants to take a picture, the behavior processing unit 13b determines whether the user of the user terminal 10 wants to take a picture at the installation location of the user terminal 10. It is determined that the photograph will be taken at . The behavior processing unit 13b also determines whether the user of the user terminal 10 wants to output audio and video at the installation location of the user terminal 10, and if it determines that the user wants to output audio and video, the user terminal It is determined that audio and video are to be output at the installation location No. 10. Further, the behavior processing unit 13b determines whether the user of the user terminal 10 wants to move at the installation location of the user terminal 10, and if it is determined that the user wants to move, the behavior processing unit 13b determines whether the user of the user terminal 10 wants to move at the installation location of the user terminal 10. It is determined that the object will move at . When the behavior processing unit 13b determines to take a picture, it uses the camera 19 and the microphone 18 to take the picture, and when it determines to output audio and video, it outputs it using the speaker 17 and the display unit 16, and when the action processing unit 13b moves. If it is determined, the movement is performed using the movement mechanism 20.

また行動処理部13bは、例えばユーザ端末10のユーザが対話したい他のユーザがいるか否か、ユーザ端末10の設置場所から離れてユーザ端末10のユーザが行きたい場所があるか否か、やりたいと思っていることがあるか否か等を特定する。なお、ユーザモデル12Mはユーザの趣味、好み、行動履歴、行動傾向等を蓄積しているので、行動処理部13bは、ユーザモデル12Mに基づいて、ユーザが対話したい他のユーザ、行きたい場所、やりたいこと等を特定できる。具体的には、行動処理部13bは、例えば「対話したい人は?」のメッセージをユーザモデル12Mに入力することにより、ユーザモデル12Mから出力される、対話したい相手に関する情報を取得できる。また行動処理部13bは、例えば「行きたい場所は?」のメッセージをユーザモデル12Mに入力することにより、ユーザモデル12Mから出力される、行きたい場所に関する情報を取得できる。更に行動処理部13bは、例えば「やりたいことは?」のメッセージをユーザモデル12Mに入力することにより、ユーザモデル12Mから出力される、やりたいことに関する情報を取得できる。行動処理部13bは、対話したい相手、行きたい場所、やりたいこと等を特定した場合、特定結果に対応する他のユーザ端末10(第2ユーザ端末10という)を外出先に特定する。例えば行動処理部13bは、対話したい相手を特定した場合、対話したい相手のユーザ端末10(第2ユーザ端末10)を外出先に特定し、行きたい場所を特定した場合、行きたい場所に対応するユーザ端末10(例えば行きたい場所に設置してある第2ユーザ端末10)を外出先に特定し、やりたいことを特定した場合、やりたいことに対応するユーザ端末10(例えばやりたいことができる場所に設置してある第2ユーザ端末10)を外出先に特定する。そして行動処理部13bは、外出先に特定した第2ユーザ端末10に、自身のユーザ端末10(第1ユーザ端末10)の第1ユーザモデル12Mを送信する。 The behavior processing unit 13b also determines, for example, whether there are other users with whom the user of the user terminal 10 wants to interact, whether there is a place the user of the user terminal 10 would like to go to away from the installation location of the user terminal 10; Identify whether or not you have something on your mind. In addition, since the user model 12M has accumulated the user's hobbies, preferences, behavior history, behavior trends, etc., the behavior processing unit 13b can determine other users with whom the user wants to interact, places the user wants to go, etc. based on the user model 12M. You can specify what you want to do. Specifically, the behavior processing unit 13b can obtain information regarding the person with whom the user wants to interact, which is output from the user model 12M, by inputting a message such as "Who do you want to interact with?" to the user model 12M. In addition, the behavior processing unit 13b can obtain information regarding the place the user wants to go, which is output from the user model 12M, by inputting a message such as "Where do you want to go?" to the user model 12M. Further, the behavior processing unit 13b can obtain information regarding what the user wants to do, which is output from the user model 12M, by inputting a message such as "What do you want to do?" to the user model 12M. When the behavior processing unit 13b specifies the person with whom the user wants to interact, the place they want to go, the things they want to do, etc., the behavior processing unit 13b specifies another user terminal 10 (referred to as a second user terminal 10) corresponding to the identification result on the go. For example, when the behavior processing unit 13b specifies the person with whom one wishes to interact, the behavior processing unit 13b specifies the user terminal 10 (second user terminal 10) of the other party with whom one wants to interact outside the home, and when the behavior processing unit 13b specifies the place one wants to go to, the behavior processing unit 13b specifies the user terminal 10 (second user terminal 10) of the other party one wants to interact with, and when the behavior processing unit 13b specifies the place one wants to go, the action processing unit 13b determines the user terminal 10 (second user terminal 10) of the other party one wants to have a conversation with. When you specify the user terminal 10 (for example, the second user terminal 10 installed at a place you want to go) outside the home and specify what you want to do, the user terminal 10 corresponding to what you want to do (for example, installed at a place where you can do what you want to do) The second user terminal 10) that has been installed is specified at a location outside the home. The behavior processing unit 13b then transmits the first user model 12M of its own user terminal 10 (first user terminal 10) to the second user terminal 10 specified outside the home.

なお、第2ユーザ端末10は、第1ユーザ端末10から第1ユーザモデル12Mを受信した場合、受信した第1ユーザモデル12Mを記憶部12に記憶し、第1ユーザモデル12Mに基づく処理を行えるようにデプロイする。これにより、第2ユーザ端末10は第1ユーザモデル12Mに基づく処理を実行することができ、第2ユーザ端末10の対話処理部13aが第1ユーザモデル12Mに基づく対話処理を行うことにより、第2ユーザ端末10において第1ユーザが行う可能性の高い対話を実行することができ、第2ユーザ端末10の行動処理部13bが第1ユーザモデル12Mに基づく行動処理を行うことにより、第2ユーザ端末10において第1ユーザが行う可能性の高い行動を実行することができる。上述した処理により、第1ユーザモデル12M(擬似的な第1ユーザ)は、第2ユーザの自宅(第2ユーザ端末10)に擬似的に遊びに行って、第2ユーザ端末10の対話処理部13aによって第2ユーザと対話することができる。また、第1ユーザモデル12M(擬似的な第1ユーザ)は、任意の場所(デプロイされる第2ユーザ端末10)に擬似的に外出し、第2ユーザ端末10の行動処理部13bによってカメラ19及びマイク18を用いた撮影、スピーカ17及び表示部16を用いた音声及び映像の出力、移動機構20を用いた移動等の行動を行うことができる。 Note that when the second user terminal 10 receives the first user model 12M from the first user terminal 10, it can store the received first user model 12M in the storage unit 12 and perform processing based on the first user model 12M. Deploy it like this. Thereby, the second user terminal 10 can execute the process based on the first user model 12M, and the interaction processing section 13a of the second user terminal 10 performs the interaction process based on the first user model 12M. The second user terminal 10 can execute a dialogue that is likely to be performed by the first user, and the behavior processing unit 13b of the second user terminal 10 performs behavior processing based on the first user model 12M. It is possible to perform an action that is highly likely to be performed by the first user on the terminal 10. Through the above-described process, the first user model 12M (pseudo first user) goes to the second user's home (second user terminal 10) to play in a pseudo manner, and interacts with the interaction processing unit of the second user terminal 10. 13a allows interaction with the second user. In addition, the first user model 12M (pseudo first user) goes out to an arbitrary place (second user terminal 10 to be deployed), and uses the behavior processing unit 13b of the second user terminal 10 to display the camera 19. It is also possible to perform actions such as photographing using the microphone 18, outputting audio and video using the speaker 17 and display unit 16, and moving using the moving mechanism 20.

通信部14は、有線通信又は無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。入力部15は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部16は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部15及び表示部16は一体として構成されたタッチパネルであってもよい。 The communication unit 14 is an interface for connecting to the network N by wired communication or wireless communication, and transmits and receives information to and from an external device via the network N. The input unit 15 receives an operation input by the user and sends a control signal corresponding to the operation content to the control unit 11. The display unit 16 is a liquid crystal display, an organic EL display, or the like, and displays various information according to instructions from the control unit 11. The input section 15 and the display section 16 may be a touch panel configured as one unit.

スピーカ17は、増幅器等を有する音声出力装置であり、制御部11からの指示に従った音声データを増幅器にて増幅した後、音声出力する。マイク18は、増幅器及びA/D(アナログ/デジタル)変換器等を有する音声入力装置であり、周囲の音声を収集してアナログの音声データを取得し、取得した音声データを増幅器にて増幅し、A/D変換器にてデジタルの音声データに変換して音声データを取得する。マイク18は、制御部11からの指示に従って集音を行い、取得した音声データを逐次制御部11へ送出する。スピーカ17及びマイク18は、ユーザ端末10に内蔵されていてもよいし、ケーブル等を介してユーザ端末10に外付けされていてもよいし、ユーザ端末10と無線通信するように構成されていてもよい。スピーカ17及びマイク18は一体として構成されたヘッドセットであってもよい。 The speaker 17 is an audio output device having an amplifier and the like, and outputs audio after amplifying audio data according to instructions from the control unit 11 using the amplifier. The microphone 18 is an audio input device having an amplifier, an A/D (analog/digital) converter, etc., and collects surrounding sounds to obtain analog audio data, and amplifies the acquired audio data with the amplifier. , the audio data is converted into digital audio data using an A/D converter, and the audio data is obtained. The microphone 18 collects sound according to instructions from the control unit 11 and sequentially sends the acquired audio data to the control unit 11. The speaker 17 and the microphone 18 may be built into the user terminal 10, or may be externally attached to the user terminal 10 via a cable or the like, or may be configured to wirelessly communicate with the user terminal 10. Good too. The speaker 17 and the microphone 18 may be a headset configured as one unit.

カメラ19は、レンズ及び撮像素子等を有する撮像部であり、レンズを介して入射した光を撮像素子にて光電変換して画像データを取得する。カメラ19は、制御部11からの指示に従って撮影を行い、取得した画像データ(撮影画像)を逐次制御部11へ送出する。カメラ19は、ユーザ端末10に内蔵されていてもよいし、ケーブル等を介してユーザ端末10に外付けされていてもよい。 The camera 19 is an imaging unit having a lens, an image sensor, etc., and acquires image data by photoelectrically converting light incident through the lens using the image sensor. The camera 19 performs photography according to instructions from the control unit 11 and sequentially sends the acquired image data (photographed images) to the control unit 11. The camera 19 may be built into the user terminal 10 or may be externally attached to the user terminal 10 via a cable or the like.

移動機構20は、複数のタイヤ20a及び各タイヤ20aを回転させるためのモータ(図示せず)等を含む。移動機構20は、制御部11からの指示に従ったモータ駆動量で各モータを駆動させることにより各タイヤ20aを回転させ、ユーザ端末10を所定方向に移動又は方向転換させる。移動機構20は、タイヤ20aを用いる二輪走行方式、四輪走行方式、六輪走行方式の移動機構に限定されず、キャタピラ走行方式の移動機構であってもよく、二足歩行方式又は四足歩行方式等の歩行型の移動機構であってもよく、蛇型無足歩行方式又はミミズ型無足歩行方式等の無足歩行型の移動機構であってもよい。また移動機構20は、床面上又は地面上を移動する構成に限定されず、室内又は屋外を飛行する飛行機構を備えていてもよい。 The moving mechanism 20 includes a plurality of tires 20a, a motor (not shown) for rotating each tire 20a, and the like. The moving mechanism 20 rotates each tire 20a by driving each motor with a motor drive amount according to an instruction from the control unit 11, and moves or changes the direction of the user terminal 10 in a predetermined direction. The moving mechanism 20 is not limited to a two-wheel running type, a four-wheel running type, or a six-wheel running type moving mechanism using tires 20a, and may be a caterpillar type moving mechanism, and may be a bipedal walking type or a quadrupedal walking type. It may be a walking-type movement mechanism such as the above, or it may be a walking-type movement mechanism such as a snake-type walking type or an earthworm type walking-type movement mechanism. Furthermore, the moving mechanism 20 is not limited to a structure that moves on a floor surface or the ground, and may include a flight mechanism that flies indoors or outdoors.

センサ部21は、GPS(Global Positioning System )センサ、加速度センサ、地磁気センサ等の各種のセンサを含み、ユーザ端末10の位置及び動きを検出する。センサ部21は、ユーザ端末10の位置及び動きを検出することにより、ユーザ端末10を携帯しているユーザの位置及び動きを検出できる。センサ部21は、ユーザ端末10に内蔵されていてもよいし、ユーザ端末10と無線通信できるように構成されていてもよい。センサ部21がユーザ端末10と無線通信できるように構成されている場合、ユーザはセンサ部21のみを携帯すればよく、センサ部21は、検出したユーザの位置及び動きをユーザ端末10へ送信する。 The sensor unit 21 includes various sensors such as a GPS (Global Positioning System) sensor, an acceleration sensor, and a geomagnetic sensor, and detects the position and movement of the user terminal 10. The sensor unit 21 can detect the position and movement of the user carrying the user terminal 10 by detecting the position and movement of the user terminal 10. The sensor unit 21 may be built into the user terminal 10 or may be configured to be able to communicate wirelessly with the user terminal 10. When the sensor unit 21 is configured to be able to wirelessly communicate with the user terminal 10, the user only needs to carry the sensor unit 21, and the sensor unit 21 transmits the detected position and movement of the user to the user terminal 10. .

読み取り部22は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM又はUSB(Universal Serial Bus)メモリを含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が読み取り部22を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が通信部14を介して外部装置からダウンロードして記憶部12に記憶してもよい。更に、制御プログラム12P及び各種のデータを半導体メモリ1bに記憶しておき、制御部11が半導体メモリ1bから読み出して記憶部12に記憶してもよい。 The reading unit 22 reads information stored in a portable storage medium 1a including a CD (Compact Disc)-ROM, a DVD (Digital Versatile Disc)-ROM, or a USB (Universal Serial Bus) memory. The control program 12P and various data stored in the storage unit 12 may be read by the control unit 11 from the portable storage medium 1a via the reading unit 22 and stored in the storage unit 12. Further, the control program 12P and various data stored in the storage unit 12 may be downloaded by the control unit 11 from an external device via the communication unit 14 and stored in the storage unit 12. Furthermore, the control program 12P and various data may be stored in the semiconductor memory 1b, and the control unit 11 may read them from the semiconductor memory 1b and store them in the storage unit 12.

図4はユーザ端末10に記憶されるDB12a~12cの構成例を示す模式図である。図4Aは宛先情報DB12aを、図4Bは対話履歴DB12bを、図4Cは行動履歴DB12cをそれぞれ示す。宛先情報DB12aは、ユーザ端末10がネットワークN経由で情報の送受信を行う際に用いる他のユーザ端末10の宛先情報を記憶するアドレス帳である。図4Aに示す宛先情報DB12aは、端末ID列、所有者名列、宛先情報列等を含む。端末ID列は、他のユーザ端末10のそれぞれに予め割り当てられた識別情報を記憶し、所有者名列は、端末IDに対応付けて他のユーザ端末10のユーザの氏名を記憶する。宛先情報列は、端末IDに対応付けて他のユーザ端末10に割り当てられた宛先情報を記憶する。宛先情報は、例えば他のユーザ端末10に割り当てられた電話番号、メールアドレス、IP(Internet Protocol Address )アドレス、LINE-ID等を用いることができる。宛先情報DB12aに記憶される端末IDは、制御部11が新たな他のユーザ端末10の情報を入力部15又は通信部14を介して取得した場合に、制御部11によって発行されて記憶される。宛先情報DB12aに記憶される端末ID以外の各情報は、制御部11が入力部15又は通信部14を介して追加又は変更の指示を取得する都度、制御部11によって追加又は変更される。宛先情報DB12aの記憶内容は図4Aに示す例に限定されず、他のユーザ端末10に関する各種の情報を記憶することができる。 FIG. 4 is a schematic diagram showing a configuration example of the DBs 12a to 12c stored in the user terminal 10. FIG. 4A shows the destination information DB 12a, FIG. 4B shows the dialogue history DB 12b, and FIG. 4C shows the action history DB 12c. The destination information DB 12a is an address book that stores destination information of other user terminals 10 used when the user terminal 10 transmits and receives information via the network N. The destination information DB 12a shown in FIG. 4A includes a terminal ID column, an owner name column, a destination information column, and the like. The terminal ID column stores identification information assigned in advance to each of the other user terminals 10, and the owner name column stores the names of the users of the other user terminals 10 in association with the terminal IDs. The destination information string stores destination information assigned to other user terminals 10 in association with terminal IDs. As the destination information, for example, a telephone number, email address, IP (Internet Protocol Address) address, LINE-ID, etc. assigned to another user terminal 10 can be used. The terminal ID stored in the destination information DB 12a is issued and stored by the control unit 11 when the control unit 11 acquires new information about another user terminal 10 via the input unit 15 or the communication unit 14. . Each piece of information other than the terminal ID stored in the destination information DB 12a is added or changed by the control unit 11 each time the control unit 11 obtains an addition or change instruction via the input unit 15 or the communication unit 14. The storage contents of the destination information DB 12a are not limited to the example shown in FIG. 4A, and various information regarding other user terminals 10 can be stored.

対話履歴DB12bは、ユーザ端末10において対話処理部13aがユーザモデル12Mに基づいて実行した対話の履歴情報を記憶する。具体的には、第1ユーザ端末10の対話履歴DB12bは、第1ユーザ端末10の対話処理部13aが第1ユーザモデル12Mに基づいて実行した第1ユーザとの対話の履歴情報を記憶する。また、第1ユーザ端末10に第2ユーザモデル12Mがデプロイされた場合、第1ユーザ端末10の対話処理部13aは第2ユーザモデル12Mに基づく対話が可能となる。よって、対話履歴DB12bは、第1ユーザ端末10が第2ユーザモデル12Mに基づいて実行した第1ユーザとの対話の履歴情報を記憶する。またユーザモデル12M(第1ユーザモデル12M)が他のユーザ端末10(第2ユーザ端末10)にデプロイされた場合に、第2ユーザ端末10の対話処理部13aが第1ユーザモデル12Mに基づく対話が可能となる。よって、対話履歴DB12bは、第2ユーザ端末10の対話処理部13aが第1ユーザモデル12Mに基づいて実行した第2ユーザとの対話の履歴情報を記憶する。なお、第2ユーザ端末10において実行された対話の履歴情報は、第2ユーザ端末10から第1ユーザ端末10へ送信され、第1ユーザ端末10の対話履歴DB12bに記憶される。 The dialogue history DB 12b stores history information of dialogues executed by the dialogue processing unit 13a in the user terminal 10 based on the user model 12M. Specifically, the dialogue history DB 12b of the first user terminal 10 stores history information of the dialogue with the first user that the dialogue processing unit 13a of the first user terminal 10 has executed based on the first user model 12M. Furthermore, when the second user model 12M is deployed to the first user terminal 10, the interaction processing unit 13a of the first user terminal 10 becomes capable of interaction based on the second user model 12M. Therefore, the dialogue history DB 12b stores history information of the dialogue with the first user that the first user terminal 10 has executed based on the second user model 12M. Further, when the user model 12M (first user model 12M) is deployed to another user terminal 10 (second user terminal 10), the interaction processing unit 13a of the second user terminal 10 becomes possible. Therefore, the dialogue history DB 12b stores history information of the dialogue with the second user that the dialogue processing unit 13a of the second user terminal 10 has executed based on the first user model 12M. Note that history information of the dialogue executed at the second user terminal 10 is transmitted from the second user terminal 10 to the first user terminal 10 and stored in the dialogue history DB 12b of the first user terminal 10.

図4Bに示す対話履歴DB12bは、対話ID列、相手情報列、対話情報列等を含む。対話ID列は、第1ユーザ端末10又は第1ユーザモデル12Mがデプロイされた第2ユーザ端末10の対話処理部13aが実行した対話処理のそれぞれに割り当てられた識別情報を記憶する。相手情報列は、対話IDに対応付けて、対話処理における対話相手の情報を記憶する。対話相手は、例えば第1ユーザ端末10の対話処理部13aが第1ユーザ端末10を介して実行した対話の相手(例えば第1ユーザ)、第2ユーザ端末10の対話処理部13aが第2ユーザ端末10を介して実行した対話の相手(例えば第2ユーザ)等を含み、対話相手の情報は、例えば対話相手の氏名、対話相手のユーザ端末10の端末ID又は宛先情報等を用いることができる。対話情報列は、対話IDに対応付けて、対話処理中に取得した各種のデータ(対話データ)を記憶する。対話データは、例えば第1ユーザ端末10又は第1ユーザモデル12Mがデプロイされた第2ユーザ端末10の対話処理部13aが対話処理を実行中に第1ユーザ端末10又は第2ユーザ端末10のカメラ19及びマイク18を用いて取得した映像及び音声のデータ、入力部15及び表示部16を用いて取得又は表示したテキストデータ等を含む。なお、対話データは、対話履歴DB12bに記憶される構成に限定されず、記憶部12の所定領域又はユーザ端末10に接続された外部記憶装置に記憶してもよい。この場合、対話情報列には、対話データを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶してもよい。対話履歴DB12bの記憶内容は図4Bに示す例に限定されず、第1ユーザ端末10又は第1ユーザモデル12Mがデプロイされた第2ユーザ端末10の対話処理部13aが実行した対話処理に関する各種の情報を記憶することができる。 The dialogue history DB 12b shown in FIG. 4B includes a dialogue ID string, a partner information string, a dialogue information string, and the like. The dialogue ID column stores identification information assigned to each dialogue process executed by the dialogue processing unit 13a of the first user terminal 10 or the second user terminal 10 to which the first user model 12M is deployed. The partner information string stores information about the dialogue partner in the dialogue process in association with the dialogue ID. The dialogue partner is, for example, the partner (for example, the first user) with whom the dialogue processing unit 13a of the first user terminal 10 performs the dialogue via the first user terminal 10, and the dialogue processing unit 13a of the second user terminal 10 is the second user. The information includes the person with whom the conversation is performed via the terminal 10 (e.g., the second user), and the information on the person with whom the conversation occurs may include, for example, the name of the person with whom the conversation occurs, the terminal ID of the user terminal 10 of the person with whom the conversation occurs, or destination information. . The dialogue information string stores various data (dialogue data) acquired during dialogue processing in association with the dialogue ID. For example, the dialogue data is generated by the camera of the first user terminal 10 or the second user terminal 10 while the dialogue processing unit 13a of the first user terminal 10 or the second user terminal 10 on which the first user model 12M is deployed executes dialogue processing. 19 and microphone 18, text data obtained or displayed using input section 15 and display section 16, etc. Note that the dialogue data is not limited to the configuration stored in the dialogue history DB 12b, and may be stored in a predetermined area of the storage unit 12 or an external storage device connected to the user terminal 10. In this case, the dialog information string may store information for reading the dialog data (for example, a file name indicating the storage location of the data). The storage contents of the dialogue history DB 12b are not limited to the example shown in FIG. 4B, but include various kinds of dialogue processing related to the dialogue processing executed by the dialogue processing unit 13a of the second user terminal 10 to which the first user terminal 10 or the first user model 12M is deployed. Able to memorize information.

行動履歴DB12cは、ユーザ端末10において行動処理部13bがユーザモデル12Mに基づいて実行した行動の履歴情報を記憶する。具体的には、第1ユーザ端末10の行動履歴DB12cは、第1ユーザ端末10の行動処理部13bが第1ユーザモデル12Mに基づいて実行したカメラ19及びマイク18を用いた撮影、スピーカ17及び表示部16を用いた音声及び映像の出力、移動機構20を用いた移動等の行動の履歴情報を記憶する。また行動履歴DB12cは、ユーザモデル12M(第1ユーザモデル12M)が他のユーザ端末10(第2ユーザ端末10)にデプロイされた場合に、第2ユーザ端末10の行動処理部13bが第1ユーザモデル12Mに基づいて実行した行動の履歴情報を記憶する。具体的には、第2ユーザ端末10の行動処理部13bが第1ユーザモデル12Mに基づいて実行したカメラ19及びマイク18を用いた撮影、スピーカ17及び表示部16を用いた音声及び映像の出力、移動機構20を用いた移動等の行動の履歴情報を記憶する。なお、第2ユーザ端末10において実行された行動の履歴情報は、第2ユーザ端末10から第1ユーザ端末10へ送信され、第1ユーザ端末10の行動履歴DB12cに記憶される。 The action history DB 12c stores history information of actions performed by the action processing unit 13b in the user terminal 10 based on the user model 12M. Specifically, the behavior history DB 12c of the first user terminal 10 includes information such as photography using the camera 19 and microphone 18, photography performed by the behavior processing unit 13b of the first user terminal 10 based on the first user model 12M, History information of actions such as audio and video output using the display unit 16 and movement using the moving mechanism 20 is stored. In addition, the behavior history DB 12c records that when the user model 12M (first user model 12M) is deployed to another user terminal 10 (second user terminal 10), the behavior processing unit 13b of the second user terminal 10 Stores history information of actions executed based on the model 12M. Specifically, the behavior processing unit 13b of the second user terminal 10 performs photography using the camera 19 and microphone 18 based on the first user model 12M, and outputs audio and video using the speaker 17 and display unit 16. , stores history information of actions such as movement using the movement mechanism 20. Note that history information of actions performed at the second user terminal 10 is transmitted from the second user terminal 10 to the first user terminal 10 and stored in the action history DB 12c of the first user terminal 10.

図4Cに示す行動履歴DB12cは、行動ID列、場所情報列、行動情報列等を含む。行動ID列は、第1ユーザ端末10又は第1ユーザモデル12Mがデプロイされた第2ユーザ端末10の行動処理部13bが実行した行動処理のそれぞれに割り当てられた識別情報を記憶する。場所情報列は、行動IDに対応付けて、行動処理における外出先の場所の情報を記憶する。外出先は、第1ユーザ端末10の行動処理部13bが第1ユーザからの指示又は第1ユーザモデル12Mに基づいて決定した第2ユーザ端末10であり、第1ユーザモデル12Mがデプロイされた第2ユーザ端末10を含む。外出先の場所の情報は、例えば外出先に決定された第2ユーザ端末10の端末ID、宛先情報又は設置場所の情報、第2ユーザ端末10の所有者(第2ユーザ)の氏名等を用いることができる。行動情報列は、行動IDに対応付けて、行動処理中に取得した各種のデータ(行動データ)を記憶する。行動データは、例えば第1ユーザ端末10又は第1ユーザモデル12Mがデプロイされた第2ユーザ端末10の行動処理部13bが行動処理を実行中に第1ユーザ端末10又は第2ユーザ端末10のカメラ19及びマイク18を用いて取得した映像及び音声のデータ、入力部15及び表示部16を用いて取得及び表示したテキストデータ等を含む。なお、行動データは、行動履歴DB12cに記憶される構成に限定されず、記憶部12の所定領域又はユーザ端末10に接続された外部記憶装置に記憶してもよい。この場合、行動情報列には、行動データを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶してもよい。行動履歴DB12cの記憶内容は図4Cに示す例に限定されず、第1ユーザ端末10又は第1ユーザモデル12Mがデプロイされた第2ユーザ端末10の行動処理部13bが実行した行動処理に関する各種の情報を記憶することができる。例えば、行動処理部13bが実行した行動(外出)に同伴者がいた場合、同伴者の情報を行動履歴DB12cに記憶してもよい。 The action history DB 12c shown in FIG. 4C includes an action ID string, a location information string, an action information string, and the like. The behavior ID column stores identification information assigned to each behavior process executed by the behavior processing unit 13b of the first user terminal 10 or the second user terminal 10 to which the first user model 12M is deployed. The location information column stores information about the location of the outing in the behavior process in association with the behavior ID. The destination is the second user terminal 10 determined by the behavior processing unit 13b of the first user terminal 10 based on the instruction from the first user or the first user model 12M, and 2 user terminals 10. For example, the terminal ID, destination information, or installation location information of the second user terminal 10 determined to be out of the home, the name of the owner (second user) of the second user terminal 10, etc. are used as the information on the location outside the home. be able to. The behavior information string stores various data (behavior data) acquired during behavior processing in association with the behavior ID. For example, the behavior data is generated by the camera of the first user terminal 10 or the second user terminal 10 while the behavior processing unit 13b of the first user terminal 10 or the second user terminal 10 to which the first user model 12M is deployed executes behavior processing. 19 and microphone 18, text data obtained and displayed using the input section 15 and display section 16, etc. Note that the behavior data is not limited to the configuration stored in the behavior history DB 12c, and may be stored in a predetermined area of the storage unit 12 or an external storage device connected to the user terminal 10. In this case, the behavior information string may store information for reading the behavior data (for example, a file name indicating the storage location of the data). The memory contents of the behavior history DB 12c are not limited to the example shown in FIG. 4C, and include various types of behavior processing related to the behavior processing executed by the behavior processing unit 13b of the second user terminal 10 to which the first user terminal 10 or the first user model 12M is deployed. Able to memorize information. For example, if there is a companion in the action (going out) performed by the action processing unit 13b, information on the companion may be stored in the action history DB 12c.

以下に、それぞれのユーザ端末10が行う処理について説明する。以下の処理は、それぞれのユーザ端末10において、記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。なお、本実施形態では、以下の処理を制御部11が制御プログラム12Pを実行することにより実現するが、一部の処理を専用のハードウェア回路で実現してもよい。図5は、ユーザ端末10による対話処理手順の一例を示すフローチャート、図6は、ユーザ端末10における画面例を示す模式図である。 The processing performed by each user terminal 10 will be described below. The following processing is executed by the control unit 11 in each user terminal 10 according to the control program 12P stored in the storage unit 12. In this embodiment, the following processing is realized by the control unit 11 executing the control program 12P, but some of the processing may be realized by a dedicated hardware circuit. FIG. 5 is a flowchart showing an example of a dialog processing procedure by the user terminal 10, and FIG. 6 is a schematic diagram showing an example of a screen on the user terminal 10.

ユーザ端末10の制御部11は、マイク18又は入力部15を介して、自端末のユーザからのメッセージ(対話情報)を受け付けたか否かを判断する(S11)。ユーザ端末10のユーザは、自身のユーザ端末10(自身のユーザモデル12M)と対話したい場合、話しかけるメッセージを、マイク18を介した音声入力又は入力部15を介したテキスト入力等によって入力する。ユーザ端末10の制御部11は、ユーザからのメッセージを受け付けたと判断した場合(S11:YES)、受け付けたメッセージに対する返答メッセージを対話処理部13aによって生成する(S12)。制御部11(対話処理部13a)は、例えば受け付けたメッセージをユーザモデル12Mに入力し、ユーザモデル12Mからの出力情報に基づいて返答メッセージを生成する。なお、ユーザモデル12Mは、メッセージが入力された場合に、入力されたメッセージに対する返答メッセージを出力するように学習されており、制御部11は、ユーザモデル12Mから出力されたメッセージをそのまま返答メッセージとしてもよい。また、例えば所定のメッセージに対して行うべき返答メッセージをテンプレートとして記憶している場合、制御部11(対話処理部13a)は、受け付けたメッセージに対する返答メッセージをテンプレートから選択してもよい。 The control unit 11 of the user terminal 10 determines whether a message (dialogue information) from the user of the own terminal has been received via the microphone 18 or the input unit 15 (S11). When the user of the user terminal 10 wishes to interact with his/her own user terminal 10 (his or her user model 12M), the user inputs a message to be spoken to by voice input via the microphone 18 or text input via the input unit 15. When the control unit 11 of the user terminal 10 determines that a message from the user has been accepted (S11: YES), the interaction processing unit 13a generates a reply message to the accepted message (S12). The control unit 11 (dialogue processing unit 13a), for example, inputs the received message into the user model 12M, and generates a reply message based on output information from the user model 12M. Note that the user model 12M is trained to output a reply message to the input message when a message is input, and the control unit 11 directly outputs the message output from the user model 12M as a reply message. Good too. For example, if a reply message to be sent to a predetermined message is stored as a template, the control unit 11 (dialogue processing unit 13a) may select a reply message to the received message from the template.

制御部11は、生成した返答メッセージをスピーカ17又は表示部16を介して出力する(S13)。具体的には、制御部11は、返答メッセージをスピーカ17を介して音声出力するか、表示部16に表示することによってユーザに応答する。これにより、ユーザ端末10は、受け付けたユーザからのメッセージに対して返答メッセージを返すことができ、ユーザとの間で対話を行うことができる。なお、制御部11は、返答メッセージを出力する際に、図6A及びBに示すように、記憶部12に記憶してあるアバターに係る画像データに基づいて、ユーザ端末10のユーザが設定したアバターの画像を表示部16に表示し、記憶部12に記憶してあるアバターに係る音声データに基づく音声にて返答メッセージをスピーカ17から音声出力してもよい。この場合、ユーザは、図6A及びBに示す画面に表示されたアバターと対面して対話しているように感じることができる。またこのとき、記憶部12に記憶してあるアバターのモーションデータに基づいて、表示部16に表示されたアバターに動きを付加することもでき、この場合、ユーザはアバターとの対話をより楽しむことができる。なお、アバターの表示画像は、ユーザ端末10のユーザの実写画像、人間に似たキャラクタの画像、動物等の画像、動物等のキャラクタの画像等を用いることができる。 The control unit 11 outputs the generated response message via the speaker 17 or the display unit 16 (S13). Specifically, the control unit 11 responds to the user by outputting a response message audibly through the speaker 17 or displaying it on the display unit 16. Thereby, the user terminal 10 can return a reply message to the received message from the user, and can have a dialogue with the user. Note that when outputting the reply message, the control unit 11 selects the avatar set by the user of the user terminal 10 based on the image data related to the avatar stored in the storage unit 12, as shown in FIGS. 6A and 6B. The image may be displayed on the display unit 16, and a response message may be outputted from the speaker 17 using audio based on the audio data related to the avatar stored in the storage unit 12. In this case, the user can feel as if he or she is interacting face-to-face with the avatar displayed on the screen shown in FIGS. 6A and 6B. At this time, it is also possible to add movement to the avatar displayed on the display section 16 based on the motion data of the avatar stored in the storage section 12. In this case, the user can enjoy interacting with the avatar even more. I can do it. Note that, as the display image of the avatar, a real image of the user of the user terminal 10, an image of a character resembling a human, an image of an animal, etc., an image of a character such as an animal, etc. can be used.

ユーザからのメッセージを受け付けていないと判断した場合(S11:NO)、制御部11は、ユーザ端末10のユーザとの対話を開始すべきタイミングであるか否かを判断する(S14)。例えばユーザから対話開始のタイミングとして任意の日時がタイマ設定されていた場合、制御部11は、タイマ設定された日時が到来したか否かに応じて、対話開始のタイミングであるか否かを判断する。また例えば制御部11は、「話したいことはありますか」のようなメッセージをユーザモデル12Mに入力し、ユーザモデル12Mからの出力情報に基づいて、対話開始のタイミングであるか否かを判断してもよい。この場合、例えばユーザとの対話を開始したい旨のメッセージがユーザモデル12Mから出力された場合、制御部11は、対話開始のタイミングであると判断してもよい。更に、制御部11は、例えばカメラ19によってユーザ端末10の周囲を撮影し、撮影画像に基づいてユーザ端末10の周囲にユーザが居るか否かを判断し、居る場合に、対話開始のタイミングであると判断してもよい。 If it is determined that no message has been received from the user (S11: NO), the control unit 11 determines whether it is time to start a dialogue with the user of the user terminal 10 (S14). For example, if the user has set a timer to an arbitrary date and time as the timing to start dialogue, the control unit 11 determines whether it is the timing to start dialogue depending on whether the timer set date and time has arrived. do. For example, the control unit 11 inputs a message such as "Do you want to talk?" to the user model 12M, and determines whether it is time to start a dialogue based on the output information from the user model 12M. It's okay. In this case, for example, when the user model 12M outputs a message indicating that it wants to start a dialogue with the user, the control unit 11 may determine that it is time to start the dialogue. Furthermore, the control unit 11 photographs the surroundings of the user terminal 10 using, for example, the camera 19, determines whether or not there is a user around the user terminal 10 based on the photographed image, and if there is a user, at the timing of starting the dialogue. It may be determined that there is.

対話開始のタイミングであると判断した場合(S14:YES)、制御部11は、ユーザ端末10のユーザと対話すべき対話メッセージを生成する(S15)。制御部11(対話処理部13a)は、例えば「話したいことはありますか」のようなメッセージをユーザモデル12Mに入力したときに、ユーザモデル12Mからユーザとの対話におけるメッセージが出力された場合、出力されたメッセージを対話メッセージとしてもよい。また、「こんにちは。元気?」のような挨拶メッセージ、「お名前は?」及び「何かあったの?」のようなユーザの情報(個人情報、固有の情報)を収集できるような質問メッセージ等をテンプレートとして記憶している場合、制御部11(対話処理部13a)は、現時点での日時又は過去のユーザとの対話内容等を考慮したメッセージをテンプレートから選択してもよい。制御部11は、生成した対話メッセージをスピーカ17又は表示部16を介して出力する(S16)。ここでも制御部11は、対話メッセージをスピーカ17を介して音声出力するか、表示部16に表示することによってユーザに話しかける。これにより、ユーザ端末10は、適宜のタイミングでユーザに話しかけることができ、ユーザとの対話を開始できる。ユーザとの対話を開始すべきタイミングでないと判断した場合(S14:NO)、制御部11は、ステップS15~S16の処理をスキップする。 If it is determined that it is time to start a dialogue (S14: YES), the control unit 11 generates a dialogue message to be dialogued with the user of the user terminal 10 (S15). For example, when the control unit 11 (dialogue processing unit 13a) inputs a message such as “Is there anything you would like to talk about” to the user model 12M and outputs a message regarding the dialogue with the user, the control unit 11 (dialogue processing unit 13a) The output message may be an interactive message. Also, greeting messages such as "Hello. How are you?" and question messages that can collect user information (personal information, unique information) such as "What's your name?" and "Did something happen?" etc. are stored as a template, the control unit 11 (dialogue processing unit 13a) may select a message from the template that takes into account the current date and time, the content of past interactions with the user, etc. The control unit 11 outputs the generated dialog message via the speaker 17 or the display unit 16 (S16). Here too, the control unit 11 talks to the user by outputting a dialogue message via the speaker 17 or displaying it on the display unit 16. Thereby, the user terminal 10 can talk to the user at an appropriate timing and can start a dialogue with the user. If it is determined that it is not the timing to start a dialogue with the user (S14: NO), the control unit 11 skips the processing of steps S15 to S16.

ステップS13又はステップS16の処理後、制御部11は、ユーザ端末10のユーザとの対話を終了するか否かを判断する(S17)。例えば制御部11は、ユーザから「またね」、「バイバイ」等のような対話を終了する際のメッセージをマイク18又は入力部15を介して受け付けた場合、対話を終了すると判断する。対話を終了しないと判断した場合(S17:NO)、制御部11は、ステップS11の処理に戻り、ステップS11~S16の処理を繰り返す。これにより、制御部11(対話処理部13a)は、ユーザからの対話メッセージに対する応答メッセージを返すことができ、またユーザに話しかけるべき対話メッセージを出力することができ、ユーザとの対話を実現できる。なお、上述した処理により対話処理部13aがユーザモデル12Mに基づいてユーザと対話することによって、ユーザへの対話メッセージ及びユーザからの返答メッセージに基づいてユーザモデル12Mがユーザに関することを学習し、ユーザに関する情報(ユーザ固有の情報)がユーザモデル12Mに蓄積される。よって、ユーザが意識することなく、ユーザに関する情報が収集されてユーザモデル12Mに蓄積される。このようにユーザに関する各種の情報が蓄積されたユーザモデル12Mに基づいて対話処理及び行動処理を行うことにより、ユーザが行う可能性の高い対話及び行動を実現できる。 After the processing in step S13 or step S16, the control unit 11 determines whether to end the interaction with the user of the user terminal 10 (S17). For example, when the control unit 11 receives a message from the user via the microphone 18 or the input unit 15 to end the dialogue, such as "See you soon" or "Bye-bye", the control unit 11 determines to end the dialogue. If it is determined that the dialogue is not to be ended (S17: NO), the control unit 11 returns to the process of step S11 and repeats the processes of steps S11 to S16. Thereby, the control unit 11 (dialogue processing unit 13a) can return a response message to a dialogue message from the user, output a dialogue message to be spoken to the user, and realize dialogue with the user. In addition, as the interaction processing unit 13a interacts with the user based on the user model 12M through the process described above, the user model 12M learns things about the user based on the interaction message to the user and the response message from the user, and information (user-specific information) is stored in the user model 12M. Therefore, information regarding the user is collected and stored in the user model 12M without the user being aware of it. By performing dialogue processing and behavior processing based on the user model 12M in which various types of information regarding the user are accumulated, it is possible to realize dialogues and actions that are highly likely to be performed by the user.

対話を終了すると判断した場合(S17:YES)、制御部11は、ユーザとの間で行われた対話の履歴情報を対話履歴DB12bに記憶し(S18)、処理を終了する。なお、対話処理部13aがユーザとの対話を行っている場合、例えば行動処理部13bがカメラ19及びマイク18を用いてユーザの映像及び音声のデータを取得(撮影)する。そして、行動処理部13bが取得したユーザの映像及び音声のデータと、対話処理部13aがスピーカ17及び表示部16を用いて出力したアバターの画像及び音声のデータとを対話情報として対話履歴DB12bに記憶する。これにより、対話処理部13aがユーザとの間で行った対話の履歴情報が対話履歴DB12bに記憶される。上述した処理により、ユーザは、自身のユーザ端末10を介して、自身のアバターと対話することができ、孤独感及び不安を和らげることができる。また、自身のアバターはユーザモデル12Mに基づく対話及び行動を行うので、ユーザと似た対話及び行動を実現でき、ユーザは快適な対話を楽しむことができる。 If it is determined that the dialogue is to be ended (S17: YES), the control unit 11 stores history information of dialogues conducted with the user in the dialogue history DB 12b (S18), and ends the process. Note that when the dialogue processing unit 13a is having a dialogue with the user, the behavior processing unit 13b uses the camera 19 and the microphone 18 to acquire (photograph) the user's video and audio data, for example. Then, the user's video and audio data acquired by the behavior processing unit 13b and the avatar image and audio data output by the interaction processing unit 13a using the speaker 17 and display unit 16 are stored as interaction information in the interaction history DB 12b. Remember. Thereby, history information of the dialogue that the dialogue processing unit 13a has had with the user is stored in the dialogue history DB 12b. Through the above-described processing, the user can interact with his or her own avatar via the user's user terminal 10, thereby alleviating feelings of loneliness and anxiety. Further, since the user's own avatar performs dialogue and actions based on the user model 12M, dialogue and actions similar to those of the user can be realized, and the user can enjoy comfortable dialogue.

上述した処理において、対話処理部13aは、ユーザとの対話を行う際に、対話メッセージ及び返答メッセージを生成するだけでなく、ユーザの撮影画像に基づいてユーザの感情を分析してもよい。この場合、対話処理部13aは、撮影画像中のユーザの表情及び姿勢等に基づいて、ユーザの感情が、例えば喜び、怒り、悲しみ、驚き、嫌悪、リラックス等のいずれである可能性が高いかを分析する。そして、対話処理部13aは、分析したユーザの感情とユーザからの対話メッセージとをユーザモデル12Mに入力し、ユーザモデル12Mからの出力情報に基づいて返答メッセージ(対話情報)を特定する。またこのとき、ユーザモデル12Mは、返答メッセージに加えて、ユーザの感情に対してユーザモデル12M(アバター)が抱くべき感情を特定してもよい。この場合、ユーザモデル12Mは、対話履歴情報及び感情と、これらに応じた対話情報及び行動情報(感情)とを含む教師データを用いて学習している。これにより、ユーザモデル12Mは、対話情報(ユーザからの対話メッセージ)と感情(ユーザの感情)とが入力された場合に、出力すべき対話情報(返答メッセージ)及び感情(ユーザの感情に対して反応する感情)を出力できる。なお、例えば対話相手の感情に応じて自身(ユーザ)が感じる可能性の高い感情をテンプレートとして記憶しておき、対話処理部13aが、分析したユーザの感情に対してユーザモデル12M(アバター)が抱く可能性の高い感情をテンプレートから特定してもよい。ユーザモデル12M(アバター)が抱くべき感情を特定した場合、対話処理部13a又は行動処理部13bは、特定した感情(行動情報)を出力する。例えば対話処理部13aは、表示部16に表示するアバターに、特定した感情に対応する表情又は動きを付加することにより、アバターの感情を表現してもよい。また例えば、行動処理部13bは、図6Cに示すように、特定した感情に対応する目の画像を表示部16に表示することによりアバターの感情を表現してもよい。なお、図6Cに示す例では上側の目は喜びの感情を、下側の目は悲しみの感情をそれぞれ表現している。また行動処理部13bは、特定した感情に応じた動きを移動機構20を用いて行うことにより、ユーザ端末10の動きによってアバターの感情を表現してもよい。例えば、特定した感情が喜びである場合、行動処理部13bは、移動機構20を用いてユーザ端末10を回転又は移動させることによりユーザ端末10にダンスさせて喜びの感情を表現してもよい。また、ユーザ端末10が手又は足の部分を有する場合、行動処理部13bは、特定した感情に対応する身振り及び手振りをユーザ端末10に実行させることによりアバターの感情を表現してもよい。このような構成とした場合、ユーザ端末10は、ユーザとの間でメッセージのやりとりを行えるだけでなく、感情のやりとりも行うことができ、ユーザはアバターとの間でより現実的な対話を行うことができる。 In the above-described process, the dialogue processing unit 13a not only generates a dialogue message and a reply message when having a dialogue with the user, but also may analyze the user's emotions based on the captured image of the user. In this case, the dialogue processing unit 13a determines whether the user's emotion is likely to be, for example, joy, anger, sadness, surprise, disgust, relaxation, etc., based on the user's facial expression and posture in the captured image. Analyze. Then, the dialogue processing unit 13a inputs the analyzed user's emotion and the dialogue message from the user into the user model 12M, and specifies a reply message (dialogue information) based on the output information from the user model 12M. Also, at this time, the user model 12M may specify, in addition to the reply message, the emotion that the user model 12M (avatar) should have in response to the user's emotion. In this case, the user model 12M is learning using teacher data including dialogue history information and emotions, and dialogue information and behavior information (emotions) corresponding to these. As a result, when dialogue information (dialogue message from the user) and emotion (user's emotion) are input, the user model 12M can output dialogue information (response message) and emotion (response to user's emotion). (reacting emotions) can be output. Note that, for example, emotions that the user (user) is likely to feel depending on the emotions of the conversation partner are stored as templates, and the conversation processing unit 13a creates a user model 12M (avatar) based on the user's analyzed emotions. Emotions that are likely to be felt may be identified from the template. When the emotion that the user model 12M (avatar) should have is specified, the dialogue processing section 13a or the behavior processing section 13b outputs the specified emotion (behavior information). For example, the dialogue processing unit 13a may express the emotion of the avatar by adding a facial expression or movement corresponding to the specified emotion to the avatar displayed on the display unit 16. For example, the behavior processing unit 13b may express the emotion of the avatar by displaying an image of eyes corresponding to the specified emotion on the display unit 16, as shown in FIG. 6C. In the example shown in FIG. 6C, the upper eye expresses the emotion of joy, and the lower eye expresses the emotion of sadness. Furthermore, the behavior processing unit 13b may express the emotion of the avatar through the movement of the user terminal 10 by using the movement mechanism 20 to perform a movement according to the specified emotion. For example, when the identified emotion is joy, the behavior processing unit 13b may express the emotion of joy by rotating or moving the user terminal 10 using the moving mechanism 20 to cause the user terminal 10 to dance. Furthermore, when the user terminal 10 has a hand or foot portion, the behavior processing unit 13b may express the emotion of the avatar by causing the user terminal 10 to perform gestures and hand gestures corresponding to the specified emotion. With such a configuration, the user terminal 10 can not only exchange messages with the user, but also exchange emotions, and the user can have a more realistic interaction with the avatar. be able to.

上述した処理を行うユーザ端末10において、ユーザモデル12Mがユーザに関する情報を学習する際に、ユーザの心拍数、脳波、筋電図等を計測し、ユーザの心身の状態がリラックスして冷静であるか否かを判断し、冷静である時に行われた対話内容から収集されたユーザに関する情報のみを蓄積するようにしてもよい。この場合、心身の状態が冷静でない興奮状態の時に行われた対話内容から収集されたユーザに関する情報を破棄することにより、ユーザの普段の状態で収集されたユーザに関する情報のみを蓄積(学習)できる。 In the user terminal 10 that performs the above-described processing, when the user model 12M learns information about the user, it measures the user's heart rate, brain waves, electromyogram, etc., and checks that the user's mental and physical state is relaxed and calm. It is also possible to determine whether or not the user is in a calm state, and to accumulate only information about the user collected from the contents of the dialogue that took place when the user was calm. In this case, by discarding the information about the user that was collected from the content of the dialogue that took place when the user's physical and mental state was not calm and excited, it is possible to accumulate (learn) only the information about the user that was collected during the user's usual state. .

図7は、ユーザ端末10による行動処理手順の一例を示すフローチャートである。ユーザ端末10の制御部11は、ユーザ端末10の設置場所の近傍で移動するか否かを判断する(S21)。例えば制御部11は、ユーザからの指示又はユーザモデル12Mに基づいて、自端末のユーザが行きたい場所(移動したい場所)があるか否かを判断し、行きたい場所がある場合に移動すると判断する。例えばユーザが、ユーザ端末10の設置場所で飼っているペットを定期的に撮影する処理を設定している場合、又はこのような行動傾向を有する場合、制御部11は、所定のタイミングでペットの近傍に移動して撮影する行動処理を行うことを判断する。この場合、制御部11は、所定のタイミングでペットの近傍に移動すると判断する。また例えば制御部11は、「行きたい所はある?」のようなメッセージをユーザモデル12Mに入力し、ユーザモデル12Mからの出力情報に基づいて、行きたい場所があるか否かを判断し、行きたい場所がある場合に移動すると判断してもよい。更に例えばユーザ端末10のユーザの移動に追随して移動するように設定されている場合、制御部11は、ユーザの移動に従って移動すると判断してもよい。移動すると判断した場合(S21:YES)、制御部11(行動処理部13b)は、移動機構20を用いて行きたい場所まで移動する(S22)。例えばペットを撮影する行動を行う場合、行動処理部13bは、移動機構20を用いてペットを撮影できる位置までユーザ端末10を移動させる。具体的には、行動処理部13bは、ペットの近くまでの移動を示す移動情報(行動情報)に応じた移動処理命令を含む処理命令を移動機構20(ハードウェア)に対して出力し、移動機構20による移動処理を実行させる。なお、このとき、行動処理部13bは、カメラ19を用いてユーザ端末10の周囲を撮影し、撮影画像に基づいてペットの位置を確認しながらペットの近傍までユーザ端末10を移動させる。また、ユーザの移動に追随する場合、行動処理部13bは、カメラ19を用いてユーザを撮影し、撮影画像に基づいてユーザの位置を確認しながらユーザから所定距離を維持しつつユーザ端末10を移動させる。移動しないと判断した場合(S21:NO)、制御部11はステップS22の処理をスキップする。 FIG. 7 is a flowchart illustrating an example of a behavior processing procedure by the user terminal 10. The control unit 11 of the user terminal 10 determines whether the user terminal 10 is to be moved near the installation location (S21). For example, the control unit 11 determines whether or not there is a place that the user of the own terminal wants to go to (a place to which he or she wants to move) based on an instruction from the user or the user model 12M, and if there is a place that the user wants to go to, the control unit 11 determines to move. do. For example, if the user has set up a process to periodically photograph a pet kept at the location where the user terminal 10 is installed, or if the user has such a behavioral tendency, the control unit 11 can take pictures of the pet at a predetermined timing. It is determined that the action process of moving to the vicinity and photographing is to be performed. In this case, the control unit 11 determines to move near the pet at a predetermined timing. For example, the control unit 11 inputs a message such as "Is there a place you want to go?" to the user model 12M, and determines whether there is a place you want to go based on the output information from the user model 12M. You may decide to move if there is a place you want to go. Further, for example, if the user terminal 10 is set to move following the user's movement, the control unit 11 may determine that the user terminal 10 moves according to the user's movement. If it is determined to move (S21: YES), the control unit 11 (behavior processing unit 13b) uses the movement mechanism 20 to move to the desired location (S22). For example, when performing the action of photographing a pet, the behavior processing unit 13b uses the moving mechanism 20 to move the user terminal 10 to a position where the pet can be photographed. Specifically, the behavior processing unit 13b outputs a processing command including a movement processing command according to movement information (behavior information) indicating movement to the vicinity of the pet to the movement mechanism 20 (hardware), and The movement process by the mechanism 20 is executed. Note that at this time, the behavior processing unit 13b photographs the surroundings of the user terminal 10 using the camera 19, and moves the user terminal 10 to the vicinity of the pet while confirming the position of the pet based on the photographed image. In addition, when following the user's movement, the behavior processing unit 13b photographs the user using the camera 19, and while confirming the user's position based on the photographed image, the behavior processing unit 13b moves the user terminal 10 while maintaining a predetermined distance from the user. move it. If it is determined not to move (S21: NO), the control unit 11 skips the process of step S22.

制御部11は、ユーザ端末10の設置場所又は移動後の場所で撮影及び/又は録音するか否かを判断する(S23)。例えば制御部11は、ユーザからの指示又はユーザモデル12Mに基づいて、自端末のユーザが撮影及び/又は録音したいと思っているか否かを判断し、撮影及び/又は録音したいと思っている場合に撮影及び/又は録音すると判断する。例えば制御部11は、ペットを撮影する行動処理を行うことを判断し、ペットの近傍まで移動した場合、ペットを撮影及び録音すると判断する。また例えば制御部11は、「撮影したいものはある?」のようなメッセージをユーザモデル12Mに入力し、ユーザモデル12Mからの出力情報に基づいて、撮影したいものがあるか否かを判断し、撮影したいものがある場合に撮影すると判断してもよい。撮影及び/又は録音すると判断した場合(S23:YES)、制御部11(行動処理部13b)は、カメラ19及びマイク18を用いて撮影及び録音を行う(S24)。例えばペットを撮影する行動を行う場合、行動処理部13bは、カメラ19及びマイク18を用いてペットの撮影画像(映像)及び音声を取得する。具体的には、行動処理部13bは、ペットの撮影及び録音を示す行動情報に応じた処理命令をカメラ19及びマイク18(ハードウェア)に対して出力し、カメラ19及びマイク18による撮影及び録音処理を実行させる。なお、このとき、行動処理部13bは、カメラ19で逐次取得する撮影画像に基づいてペットの位置を追跡しながらペットの映像及び音声を取得する。撮影及び録音しないと判断した場合(S23:NO)、制御部11はステップS24の処理をスキップする。 The control unit 11 determines whether to perform photographing and/or recording at the installation location of the user terminal 10 or at the location after movement (S23). For example, the control unit 11 determines whether or not the user of the own terminal wants to shoot and/or record based on an instruction from the user or the user model 12M, and when the user of the own terminal wants to shoot and/or record. It is determined that the video will be photographed and/or recorded. For example, the control unit 11 determines to perform the action process of photographing the pet, and when the pet moves close to the pet, determines to photograph and record the pet. For example, the control unit 11 inputs a message such as "Is there something you want to photograph?" to the user model 12M, and determines whether there is something you want to photograph based on the output information from the user model 12M. You may decide to take a picture if there is something you want to take a picture of. When it is determined that photography and/or audio recording is to be performed (S23: YES), the control unit 11 (behavior processing unit 13b) performs photography and audio recording using the camera 19 and microphone 18 (S24). For example, when performing the action of photographing a pet, the behavior processing unit 13b uses the camera 19 and the microphone 18 to acquire a photographed image (video) and audio of the pet. Specifically, the behavior processing unit 13b outputs a processing command to the camera 19 and the microphone 18 (hardware) according to the behavior information indicating photographing and recording of the pet, and causes the camera 19 and the microphone 18 to photograph and record the pet. Execute the process. Note that at this time, the behavior processing unit 13b acquires video and audio of the pet while tracking the pet's position based on the captured images sequentially acquired by the camera 19. If it is determined that photographing and recording are not to be performed (S23: NO), the control unit 11 skips the process of step S24.

制御部11は、ユーザ端末10の設置場所又は移動後の場所で音声及び/又は映像を出力するか否かを判断する(S25)。例えば制御部11は、ユーザからの指示又はユーザモデル12Mに基づいて、自端末のユーザが音声及び/又は映像を出力したいと思っているか否かを判断し、音声及び/又は映像を出力したいと思っている場合に音声及び/又は映像を出力すると判断する。例えばユーザが部屋(ユーザ端末10の設置場所)にいる場合に、ユーザに話しかける処理が設定されている場合、又はこのような行動傾向(習慣)を有する場合、制御部11は、ユーザが部屋にいる場合、音声及び/又は映像を出力する(話しかける)と判断する。また例えば制御部11は、「出力したい音声又は映像はある?」「話したいことはある?」のようなメッセージをユーザモデル12Mに入力し、ユーザモデル12Mからの出力情報に基づいて、出力したい音声又は映像があるか否かを判断し、出力したい音声又は映像がある場合に音声及び/又は映像を出力すると判断してもよい。音声及び/又は映像を出力すると判断した場合(S25:YES)、制御部11(行動処理部13b)は、スピーカ17及び表示部16を用いて音声及び/又は映像を出力する(S26)。例えば部屋にいるユーザに話しかける場合、行動処理部13bは、表示部16にアバターの画像を表示しつつスピーカ17から「こんにちは。今は暇?」等のメッセージを音声出力し、ユーザ端末10の近傍にいるユーザに話しかける。具体的には、行動処理部13bは、音声の出力を示す行動情報に応じた処理命令をスピーカ17(ハードウェア)に対して出力し、スピーカ17による音声出力処理を実行させる。音声及び映像を出力しないと判断した場合(S25:NO)、制御部11はステップS26の処理をスキップする。 The control unit 11 determines whether to output audio and/or video at the installation location of the user terminal 10 or at the location after movement (S25). For example, the control unit 11 determines whether the user of the own terminal wants to output audio and/or video based on an instruction from the user or the user model 12M, and outputs the audio and/or video. It is determined that audio and/or video will be output when the user wants to output the audio and/or video. For example, when the user is in the room (the installation location of the user terminal 10), if a process for talking to the user is set, or if the user has such behavioral tendencies (habits), the control unit 11 If so, it is determined to output audio and/or video (talk). For example, the control unit 11 inputs messages such as "Is there any audio or video you want to output?" or "Is there anything you want to talk about?" to the user model 12M, and outputs the messages based on the output information from the user model 12M. It may be determined whether or not there is audio or video, and if there is audio or video that is desired to be output, it may be determined that the audio and/or video is to be output. If it is determined that audio and/or video should be output (S25: YES), the control unit 11 (behavior processing unit 13b) outputs the audio and/or video using the speaker 17 and display unit 16 (S26). For example, when talking to a user in a room, the behavior processing unit 13b displays an avatar image on the display unit 16 and outputs a message such as "Hello. Are you free now?" from the speaker 17, and Talk to the user in . Specifically, the behavior processing unit 13b outputs a processing command according to the behavior information indicating the output of audio to the speaker 17 (hardware), and causes the speaker 17 to perform audio output processing. If it is determined that audio and video are not to be output (S25: NO), the control unit 11 skips the process of step S26.

制御部11は、ユーザからの指示又はユーザモデル12Mに基づく行動を終了するか否かを判断する(S27)。例えば制御部11は、ペットを撮影する行動処理を行うことを判断し、ペットの撮影及び録音を完了した場合、行動を終了すると判断する。行動を終了しないと判断した場合(S27:NO)、制御部11は、ステップS21の処理に戻り、ステップS21~S26の処理を繰り返す。これにより、制御部11(行動処理部13b)は、ユーザからの指示又はユーザモデル12Mに基づいて、自端末のユーザが行う可能性の高い行動を行うことができる。 The control unit 11 determines whether to end the action based on the instruction from the user or the user model 12M (S27). For example, the control unit 11 determines to perform an action process of photographing a pet, and when photographing and recording of the pet are completed, determines to end the action. If it is determined that the action is not to be completed (S27: NO), the control unit 11 returns to the process of step S21 and repeats the processes of steps S21 to S26. Thereby, the control unit 11 (behavior processing unit 13b) can perform an action that is highly likely to be performed by the user of the own terminal, based on instructions from the user or the user model 12M.

行動を終了すると判断した場合(S27:YES)、制御部11は、ユーザ端末10が行った行動の履歴情報を行動履歴DB12cに記憶し(S28)、処理を終了する。なお、行動処理部13bは、移動機構20による移動、スピーカ17及び表示部16による音声及び映像の出力を行っている場合に、カメラ19及びマイク18を用いてユーザ端末10の周囲の映像及び音声を取得(撮影)しており、このような映像及び音声のデータを含め、カメラ19及びマイク18で取得した映像及び音声のデータを行動情報として行動履歴DB12cに記憶する。これにより、行動処理部13bが行った行動の履歴情報が行動履歴DB12cに記憶される。 If it is determined that the action is to be ended (S27: YES), the control unit 11 stores history information of the action performed by the user terminal 10 in the action history DB 12c (S28), and ends the process. Note that when the movement mechanism 20 is moving and the speaker 17 and the display unit 16 are outputting audio and video, the behavior processing unit 13b uses the camera 19 and the microphone 18 to monitor the video and audio around the user terminal 10. The video and audio data, including such video and audio data, acquired by the camera 19 and the microphone 18 are stored as behavior information in the behavior history DB 12c. Thereby, history information of actions performed by the action processing unit 13b is stored in the action history DB 12c.

上述した処理において、行動処理部13bがユーザからの指示又はユーザモデル12Mに基づいて実行した行動についても、ユーザモデル12Mはユーザの行動履歴及び行動傾向としてユーザに関することを学習することができる。よって、ユーザが意識することなく、ユーザの行動履歴及び行動傾向が逐次収集されてユーザモデル12Mに蓄積される。 In the above-described process, the user model 12M can also learn things about the user as the user's behavior history and behavior tendency regarding the behavior that the behavior processing unit 13b executes based on instructions from the user or the user model 12M. Therefore, the user's behavior history and behavior trends are collected one after another and stored in the user model 12M without the user being aware of it.

図8及び図9は、ユーザ端末10による対話処理手順の一例を示すフローチャート、図10は、ユーザ端末10における画面例を示す模式図である。図8及び図9に示す処理は、第1ユーザの第1ユーザモデル12M(第1ユーザのアバター)が、第2ユーザ又は第2ユーザの第2ユーザモデル12M(第2ユーザのアバター)と対話を行う際の処理である。図8及び図9では左側に第1ユーザ端末10が行う処理を、右側に第2ユーザ端末10が行う処理をそれぞれ示す。 8 and 9 are flowcharts showing an example of a dialog processing procedure by the user terminal 10, and FIG. 10 is a schematic diagram showing an example of a screen on the user terminal 10. 8 and 9, the first user model 12M of the first user (avatar of the first user) interacts with the second user or the second user model 12M of the second user (avatar of the second user). This is the process when performing. In FIGS. 8 and 9, the left side shows the process performed by the first user terminal 10, and the right side shows the process performed by the second user terminal 10.

第1ユーザ端末10の制御部11(行動処理部13b)は、対話したい第2ユーザがいるか否かを判断する(S31)。例えば制御部11は、第1ユーザからの指示又は第1ユーザモデル12Mに基づいて、第1ユーザが対話したい第2ユーザがいるか否かを判断する。例えば第1ユーザが第1ユーザ端末10(第1ユーザモデル12M)との対話中に「○○さんは元気かな?」と発話していた場合、制御部11は、第1ユーザは○○さん(第2ユーザ)と対話したいと判断する。また例えば制御部11は、「誰かと対話したい?」のようなメッセージを第1ユーザモデル12Mに入力し、第1ユーザモデル12Mからの出力情報に基づいて、第1ユーザが対話したい第2ユーザがいるか否かを判断し、対話したい第2ユーザがいる場合、第2ユーザを特定する。このように第1ユーザモデル12Mに基づいて、対話したい第2ユーザを特定することにより、第1ユーザが対話したい可能性の高い第2ユーザを特定できる。対話したい第2ユーザがいないと判断した場合(S31:NO)、制御部11は待機する。 The control unit 11 (behavior processing unit 13b) of the first user terminal 10 determines whether there is a second user with whom the user wants to interact (S31). For example, the control unit 11 determines whether there is a second user with whom the first user wants to interact, based on an instruction from the first user or the first user model 12M. For example, if the first user utters "How is Mr. ___?" while interacting with the first user terminal 10 (first user model 12M), the control unit 11 determines that the first user is Mr. (the second user). For example, the control unit 11 inputs a message such as "Do you want to interact with someone?" to the first user model 12M, and based on the output information from the first user model 12M, the control unit 11 inputs a message such as "Do you want to interact with someone?" If there is a second user with whom the user wants to interact, the second user is identified. In this way, by specifying the second user with whom the first user wants to interact based on the first user model 12M, it is possible to specify the second user with whom the first user is likely to want to interact. If it is determined that there is no second user with whom the user wants to interact (S31: NO), the control unit 11 waits.

対話したい第2ユーザがいると判断した場合(S31:YES)、制御部11は、第2ユーザの宛先情報を宛先情報DB12aから読み出す(S32)。例えば制御部11は、第2ユーザの情報(例えば氏名、第2ユーザ端末10の所有者名)に対応付けて宛先情報DB12aに記憶してある宛先情報を読み出す。そして制御部11は、読み出した宛先情報に基づいて、第2ユーザの第2ユーザ端末10に対して対話の実行を要求する(S33)。なお、制御部11は、第2ユーザ端末10に対して、第2ユーザとの対話の実行を要求する要求信号を送信する。 If it is determined that there is a second user with whom the user wants to interact (S31: YES), the control unit 11 reads the second user's destination information from the destination information DB 12a (S32). For example, the control unit 11 reads destination information stored in the destination information DB 12a in association with the second user's information (for example, name, name of the owner of the second user terminal 10). Then, the control unit 11 requests the second user terminal 10 of the second user to perform a dialogue based on the read destination information (S33). Note that the control unit 11 transmits a request signal to the second user terminal 10 to request execution of a dialogue with the second user.

第2ユーザ端末10の制御部11は、第1ユーザ端末10から対話の要求信号を受信した場合、例えばスピーカ17又は表示部16を介して、第1ユーザから対話要求を受け付けたことを出力する(S34)。例えば制御部11は、スピーカ17から「○○さんから対話要求がきています。どうしますか」等のメッセージを音声出力し、第1ユーザから対話要求があることを第2ユーザに通知する。また制御部11は、表示部16に「○○さんから対話要求がきています」等のメッセージと、対話の実行開始を指示するためのOKボタンと、対話の実行を拒否するためのキャンセルボタンとを表示し、第1ユーザから対話要求があることを第2ユーザに通知する。 When the control unit 11 of the second user terminal 10 receives the interaction request signal from the first user terminal 10, it outputs, for example, via the speaker 17 or the display unit 16, that the interaction request has been received from the first user. (S34). For example, the control unit 11 outputs a message from the speaker 17 such as "Mr. ○○ has requested a dialogue. What should you do?" to notify the second user that the first user has requested a dialogue. The control unit 11 also displays a message on the display unit 16 such as "Mr. ○○ has requested a dialogue", an OK button for instructing to start dialogue, and a cancel button for refusing execution of the dialogue. is displayed to notify the second user that there is a dialogue request from the first user.

第2ユーザ端末10の制御部11は、第2ユーザが第1ユーザのアバター(第1ユーザ端末10の第1ユーザモデル12M)との対話を実行できるか否かを判断する(S35)。例えば第2ユーザ端末10の制御部11は、マイク18を介した音声入力によって第2ユーザから対話の可否を示す返答を受け付け、受け付けた返答に応じて、第2ユーザが対話可能であるか否か(第2ユーザによって対話が許可されたか否かを)を判断する。また制御部11は、表示部16に表示したOKボタン又はキャンセルボタンに対する操作を入力部15にて受け付け、受け付けた操作に応じて、第2ユーザが対話可能であるか否かを判断してもよい。第2ユーザが対話可能でないと判断した場合(S35:NO)、第2ユーザ端末10の制御部11は、第2ユーザの代わりに第2ユーザのアバター(第2ユーザモデル12M)が、第1ユーザのアバター(以下、第1アバターという)との対話を実行することを決定し、第2ユーザのアバター(以下、第2アバターという)が対話可能であることを第1ユーザ端末10に通知する(S36)。そして第2ユーザ端末10の制御部11(対話処理部13a)は、第2ユーザモデル12Mに基づいて第1アバターとの対話を開始する(S37)。具体的には、第2ユーザ端末10の制御部11は第2ユーザの代わりに、第2ユーザモデル12Mに基づいて対話メッセージを生成し、生成した対話メッセージを第1ユーザ端末10へ送信する(S38)。 The control unit 11 of the second user terminal 10 determines whether the second user can interact with the first user's avatar (the first user model 12M of the first user terminal 10) (S35). For example, the control unit 11 of the second user terminal 10 receives a response from the second user indicating whether dialogue is possible through voice input via the microphone 18, and determines whether the second user is capable of dialogue based on the received response. (whether or not interaction is permitted by the second user). The control unit 11 may also accept an operation on the OK button or the cancel button displayed on the display unit 16 through the input unit 15, and determine whether or not the second user can interact based on the accepted operation. good. If it is determined that the second user is not able to interact (S35: NO), the control unit 11 of the second user terminal 10 causes the second user's avatar (second user model 12M) to interact with the first user instead of the second user. Decide to perform an interaction with the user's avatar (hereinafter referred to as the first avatar), and notify the first user terminal 10 that the second user's avatar (hereinafter referred to as the second avatar) can interact. (S36). Then, the control unit 11 (dialogue processing unit 13a) of the second user terminal 10 starts a dialogue with the first avatar based on the second user model 12M (S37). Specifically, the control unit 11 of the second user terminal 10 generates an interaction message on behalf of the second user based on the second user model 12M, and transmits the generated interaction message to the first user terminal 10 ( S38).

一方、第1ユーザ端末10の制御部11(対話処理部13a)は、第2ユーザ端末10から第2アバターが対話可能であることを通知された場合、第1ユーザモデル12Mに基づいて第2アバターとの対話を開始する(S39)。ここでは、第1ユーザ端末10の制御部11は第1ユーザの代わりに、第1ユーザモデル12Mに基づいて対話メッセージを生成し、生成した対話メッセージを第2ユーザ端末10へ送信する(S40)。これにより、第1ユーザ端末10(第1ユーザモデル12M)と第2ユーザ端末10(第2ユーザモデル12M)との間でメッセージの送受信が行われる。なお、メッセージの送受信は、例えばチャットアプリ又はメッセージアプリ等を用いることができ、チャットアプリ又はメッセージアプリは、例えばそれぞれのユーザ端末10の記憶部12に予め記憶してある。 On the other hand, when the control unit 11 (dialogue processing unit 13a) of the first user terminal 10 is notified from the second user terminal 10 that the second avatar can interact, the control unit 11 (dialogue processing unit 13a) generates a second A dialogue with the avatar is started (S39). Here, the control unit 11 of the first user terminal 10 generates an interaction message based on the first user model 12M instead of the first user, and transmits the generated interaction message to the second user terminal 10 (S40). . As a result, messages are exchanged between the first user terminal 10 (first user model 12M) and the second user terminal 10 (second user model 12M). Note that messages can be sent and received using, for example, a chat app or a message app, and the chat app or message app is stored in advance in the storage unit 12 of each user terminal 10, for example.

第1ユーザ端末10の制御部11は、例えば第2ユーザ端末10から受信した対話メッセージを第1ユーザモデル12Mに入力し、第1ユーザモデル12Mからの出力情報に基づいて返答メッセージを生成して第2ユーザ端末10へ送信する。同様に第2ユーザ端末10の制御部11は、例えば第1ユーザ端末10から受信した対話メッセージを第2ユーザモデル12Mに入力し、第2ユーザモデル12Mからの出力情報に基づいて返答メッセージを生成して第1ユーザ端末10へ送信する。なお、第1ユーザ端末10及び第2ユーザ端末10の制御部11は、例えば所定のメッセージに対して予め用意してある返答メッセージのテンプレートから、受信した対話メッセージに対する返答メッセージを選択してもよい。 The control unit 11 of the first user terminal 10 inputs the dialog message received from the second user terminal 10 into the first user model 12M, and generates a reply message based on the output information from the first user model 12M. It is transmitted to the second user terminal 10. Similarly, the control unit 11 of the second user terminal 10 inputs the dialog message received from the first user terminal 10 into the second user model 12M, and generates a reply message based on the output information from the second user model 12M. and transmits it to the first user terminal 10. Note that the control unit 11 of the first user terminal 10 and the second user terminal 10 may select a response message to the received interactive message from a response message template prepared in advance for a predetermined message, for example. .

第1ユーザ端末10の制御部11は、第2ユーザ端末10(第2アバター)との対話を終了するか否かを判断する(S41)。例えば制御部11は、第2ユーザ端末10から対話を終了する際のメッセージを受信した場合、対話を終了すると判断する。制御部11は、対話を終了しないと判断した場合(S41:NO)、ステップS40の処理を繰り返し、これにより、第1ユーザ端末10は、第2ユーザ端末10へ対話メッセージ又は返答メッセージを送信し、第2ユーザ端末10から返答メッセージ又は対話メッセージを受信し、第2ユーザ端末10(第2アバター)との対話を実現する。同様に、第2ユーザ端末10の制御部11は、第1ユーザ端末10(第1アバター)との対話を終了するか否かを判断し(S43)、対話を終了しないと判断した場合(S43:NO)、ステップS38の処理を繰り返し、これにより、第2ユーザ端末10は、第1ユーザ端末10へ対話メッセージ又は返答メッセージを送信し、第1ユーザ端末10から返答メッセージ又は対話メッセージを受信し、第1ユーザ端末10(第1アバター)との対話を実現できる。 The control unit 11 of the first user terminal 10 determines whether to end the interaction with the second user terminal 10 (second avatar) (S41). For example, when the control unit 11 receives a message to end the dialogue from the second user terminal 10, it determines to end the dialogue. If the control unit 11 determines not to end the dialogue (S41: NO), it repeats the process of step S40, whereby the first user terminal 10 transmits the dialogue message or reply message to the second user terminal 10. , receives a reply message or a dialogue message from the second user terminal 10, and realizes a dialogue with the second user terminal 10 (second avatar). Similarly, the control unit 11 of the second user terminal 10 determines whether or not to end the interaction with the first user terminal 10 (first avatar) (S43), and if it is determined not to end the interaction (S43). : NO), the process of step S38 is repeated, whereby the second user terminal 10 transmits the dialogue message or reply message to the first user terminal 10, and receives the reply message or dialogue message from the first user terminal 10. , interaction with the first user terminal 10 (first avatar) can be realized.

第1ユーザ端末10の制御部11は、第2アバターとの対話を終了すると判断した場合(S41:YES)、第2アバターとの間で行われた対話の履歴情報を対話履歴DB12bに記憶し(S42)、処理を終了する。同様に、第2ユーザ端末10の制御部11は、第1アバターとの対話を終了すると判断した場合(S43:YES)、第1アバターとの間で行われた対話の履歴情報を対話履歴DB12bに記憶し(S44)、処理を終了する。なお、第1アバターと第2アバターとの間で対話が行われている場合、例えばそれぞれのユーザ端末10からそれぞれのアバターの画像(映像)及び音声のデータが送受信されるように構成することができ、この場合、第1ユーザ端末10及び第2ユーザ端末10の間で送受信された各アバターの映像及び音声のデータを対話情報として対話履歴DB12bに記憶する。これにより、第1アバターと第2アバターとの間で行われた対話の履歴情報が、それぞれのユーザ端末10の対話履歴DB12bに記憶される。 When the control unit 11 of the first user terminal 10 determines to end the interaction with the second avatar (S41: YES), the control unit 11 stores the history information of the interaction with the second avatar in the interaction history DB 12b. (S42), the process ends. Similarly, when the control unit 11 of the second user terminal 10 determines to end the interaction with the first avatar (S43: YES), the control unit 11 stores the history information of the interaction with the first avatar in the interaction history DB 12b. (S44), and the process ends. Note that when a conversation is taking place between the first avatar and the second avatar, the configuration may be such that, for example, image (video) and audio data of each avatar is transmitted and received from each user terminal 10. In this case, the video and audio data of each avatar transmitted and received between the first user terminal 10 and the second user terminal 10 are stored as dialogue information in the dialogue history DB 12b. Thereby, history information of the dialogue performed between the first avatar and the second avatar is stored in the dialogue history DB 12b of each user terminal 10.

上述した処理において、第1ユーザ端末10の制御部11が第1ユーザモデル12Mに基づいて第2ユーザとの対話メッセージを生成し、第2ユーザ端末10の制御部11が第2ユーザモデル12Mに基づいて第1ユーザとの対話メッセージを生成する。これにより、第1ユーザ端末10は、第1ユーザの代わりに第1ユーザが行う可能性の高い対話を実現でき、第2ユーザ端末10は、第2ユーザの代わりに第2ユーザが行う可能性の高い対話を実現できる。よって、第1ユーザ及び第2ユーザが対話できない状況であっても、第1アバターと第2アバターとが対話することによって、第1ユーザと第2ユーザとが擬似的に対話を行うことができる。 In the process described above, the control unit 11 of the first user terminal 10 generates an interaction message with the second user based on the first user model 12M, and the control unit 11 of the second user terminal 10 generates an interaction message with the second user model 12M. An interaction message with the first user is generated based on the message. As a result, the first user terminal 10 can realize a dialogue that is likely to be performed by the first user instead of the first user, and the second user terminal 10 can realize a dialogue that is likely to be performed by the second user instead of the second user. It is possible to achieve a high level of dialogue. Therefore, even in a situation where the first user and the second user cannot interact, the first user and the second user can interact in a pseudo manner by interacting with the first avatar and the second avatar. .

ステップS35で第2ユーザが対話可能であると判断した場合(S35:YES)、第2ユーザ端末10の制御部11は、第2ユーザが対話可能であることを第1ユーザ端末10に通知する(S45)。第1ユーザ端末10の制御部11は、第2ユーザ端末10から第2ユーザが対話可能であることを通知された場合、第1ユーザモデル12Mを第2ユーザ端末10へ送信する(S46)。なお、第1ユーザ端末10の制御部11は、第2ユーザ端末10において第1ユーザモデル12Mに基づく処理を行えるように、第2ユーザ端末10に対して第1ユーザモデル12Mをデプロイするように指示する。 If it is determined in step S35 that the second user can interact (S35: YES), the control unit 11 of the second user terminal 10 notifies the first user terminal 10 that the second user can interact. (S45). When the control unit 11 of the first user terminal 10 is notified from the second user terminal 10 that the second user can interact, it transmits the first user model 12M to the second user terminal 10 (S46). Note that the control unit 11 of the first user terminal 10 deploys the first user model 12M to the second user terminal 10 so that the second user terminal 10 can perform processing based on the first user model 12M. Instruct.

第2ユーザ端末10の制御部11は、第1ユーザ端末10から第1ユーザモデル12Mを受信した場合、第1ユーザモデル12Mを記憶部12に記憶し、第1ユーザモデル12Mに基づく処理を行えるようにデプロイする。そして第2ユーザ端末10の制御部11は、第1ユーザモデル12Mに基づく処理を開始する(S47)。具体的には、第2ユーザ端末10の制御部11は、マイク18又は入力部15を介して、第2ユーザからのメッセージを受け付けたか否かを判断する(S48)。第1アバターとの対話を承諾した第2ユーザは、第2ユーザ端末10を介して第1ユーザモデル12M(第1アバター)に話しかけるメッセージを、マイク18を介した音声入力又は入力部15を介したテキスト入力等によって入力する。第2ユーザ端末10の制御部11は、第2ユーザからのメッセージを受け付けていないと判断した場合(S48:NO)、第1ユーザモデル12Mに基づいて、第2ユーザと対話すべき対話メッセージを生成し(S49)、生成した対話メッセージをスピーカ17又は表示部16を介して出力する(S50)。例えば制御部11は、「こんにちは」のような対話メッセージを生成し、生成した対話メッセージをスピーカ17から音声出力するか、表示部16に表示することによって第2ユーザに話かける。これにより、第2ユーザ端末10を介して、第1ユーザモデル12M(第1アバター)が第2ユーザとの対話を開始する。なお、制御部11は、対話メッセージを出力する際に、図10に示すように、第1ユーザモデル12Mに対応する第1アバターの画像を表示部16に表示し、第1アバターの音声にて返答メッセージをスピーカ17から音声出力してもよい。 When the control unit 11 of the second user terminal 10 receives the first user model 12M from the first user terminal 10, it can store the first user model 12M in the storage unit 12 and perform processing based on the first user model 12M. Deploy it like this. Then, the control unit 11 of the second user terminal 10 starts processing based on the first user model 12M (S47). Specifically, the control unit 11 of the second user terminal 10 determines whether a message from the second user has been received via the microphone 18 or the input unit 15 (S48). The second user who has consented to dialogue with the first avatar sends a message to the first user model 12M (first avatar) via the second user terminal 10 via voice input via the microphone 18 or via the input unit 15. Input by text input etc. When the control unit 11 of the second user terminal 10 determines that the message from the second user has not been accepted (S48: NO), the control unit 11 generates an interaction message to be communicated with the second user based on the first user model 12M. The dialog message is generated (S49), and the generated dialog message is output via the speaker 17 or the display unit 16 (S50). For example, the control unit 11 generates an interactive message such as “Hello” and speaks to the second user by outputting the generated interactive message from the speaker 17 or displaying it on the display unit 16. Thereby, the first user model 12M (first avatar) starts a dialogue with the second user via the second user terminal 10. Note that when outputting the dialog message, the control unit 11 displays the image of the first avatar corresponding to the first user model 12M on the display unit 16, as shown in FIG. The response message may be output as a voice from the speaker 17.

第2ユーザからのメッセージを受け付けたと判断した場合(S48:YES)、第2ユーザ端末10の制御部11は、受け付けたメッセージに対する返答メッセージを第1ユーザモデル12Mに基づいて生成する(S51)。制御部11は、例えば受け付けたメッセージを第1ユーザモデル12Mに入力し、第1ユーザモデル12Mからの出力情報に基づいて返答メッセージを生成する。制御部11は、生成した返答メッセージをスピーカ17又は表示部16を介して出力する(S52)。これにより、第2ユーザ端末10は、受け付けた第2ユーザからのメッセージに対して返答メッセージを返すことができ、第2ユーザとの間で対話を行うことができる。ここでも制御部11は、第1アバターの画像を表示部16に表示し、第1アバターの音声にて返答メッセージをスピーカ17から音声出力してもよい。 If it is determined that the message from the second user has been accepted (S48: YES), the control unit 11 of the second user terminal 10 generates a reply message to the accepted message based on the first user model 12M (S51). For example, the control unit 11 inputs the received message to the first user model 12M, and generates a reply message based on output information from the first user model 12M. The control unit 11 outputs the generated reply message via the speaker 17 or the display unit 16 (S52). Thereby, the second user terminal 10 can return a reply message to the received message from the second user, and can have a dialogue with the second user. Here too, the control unit 11 may display the image of the first avatar on the display unit 16 and output a response message from the speaker 17 using the voice of the first avatar.

ステップS50又はステップS52の処理後、第2ユーザ端末10の制御部11は、第1アバター(第1ユーザモデル12M)と第2ユーザとの対話を終了するか否かを判断する(S53)。対話を終了しないと判断した場合(S53:NO)、制御部11は、ステップS48の処理に戻り、ステップS48~S52の処理を繰り返す。これにより、第2ユーザ端末10は、第2ユーザからの対話メッセージに対する応答メッセージを返すことができ、また第2ユーザに話しかけるべき対話メッセージを出力することができ、第1ユーザモデル12Mに基づいて第2ユーザとの対話を実現できる。 After the processing in step S50 or step S52, the control unit 11 of the second user terminal 10 determines whether to end the interaction between the first avatar (first user model 12M) and the second user (S53). If it is determined that the dialogue is not to be ended (S53: NO), the control unit 11 returns to the process of step S48 and repeats the processes of steps S48 to S52. Thereby, the second user terminal 10 can return a response message to the dialogue message from the second user, and can output a dialogue message to be spoken to the second user, based on the first user model 12M. Dialogue with the second user can be realized.

対話を終了すると判断した場合(S53:YES)、第2ユーザ端末10の制御部11は、第1アバターと第2ユーザとの間で行われた対話の対話情報を第1ユーザ端末10へ送信する(S54)。なお、第2ユーザ端末10の対話処理部13aが第1ユーザモデル12Mに基づいて第2ユーザと対話を行っている場合、制御部11(行動処理部13b)はカメラ19及びマイク18を用いて第2ユーザを撮影しており、取得した第2ユーザの映像及び音声のデータと、スピーカ17及び表示部16を用いて出力した第1アバターの画像及び音声のデータとを対話情報として第1ユーザ端末10へ送信する。また第2ユーザ端末10の制御部11は、送信した対話情報を対話の履歴情報として対話履歴DB12bに記憶し(S55)、処理を終了する。一方、第1ユーザ端末10の制御部11は、第2ユーザ端末10から対話情報を受信した場合、受信した対話情報を、第1アバターが第2ユーザとの間で行った対話の履歴情報として対話履歴DB12bに記憶し(S56)、処理を終了する。 If it is determined that the dialogue should end (S53: YES), the control unit 11 of the second user terminal 10 transmits dialogue information of the dialogue conducted between the first avatar and the second user to the first user terminal 10. (S54). Note that when the interaction processing unit 13a of the second user terminal 10 is interacting with the second user based on the first user model 12M, the control unit 11 (behavior processing unit 13b) uses the camera 19 and the microphone 18. The second user is photographed, and the acquired video and audio data of the second user and the image and audio data of the first avatar output using the speaker 17 and the display unit 16 are used as interaction information by the first user. Send to terminal 10. Further, the control unit 11 of the second user terminal 10 stores the transmitted dialogue information as dialogue history information in the dialogue history DB 12b (S55), and ends the process. On the other hand, when the control unit 11 of the first user terminal 10 receives dialogue information from the second user terminal 10, the control unit 11 of the first user terminal 10 uses the received dialogue information as history information of the dialogue that the first avatar has had with the second user. It is stored in the dialogue history DB 12b (S56), and the process ends.

上述した処理により、第2ユーザ端末10の対話処理部13aは、第2ユーザへ出力する対話メッセージを第1ユーザモデル12Mに基づいて生成するので、第1ユーザが発言する可能性の高い対話メッセージを第2ユーザに発することができる。よって、第2ユーザは、第1アバターと対話することによって、第1ユーザと擬似的な対話を行うことができる。また上述した処理により、第1アバターが、第1ユーザの代わりに、第2ユーザ又は第2アバターとの対話を行うことができ、対話結果を示す履歴情報(対話情報)が第1ユーザ端末10の対話履歴DB12bに記憶される。よって、第1ユーザは、対話の履歴情報を後日確認することにより、自身の代理の第1アバターが第2ユーザ又は第2アバターとの間で行った対話の内容を確認できる。よって、第1ユーザが第2ユーザと対話する時間がない場合、又は第2ユーザと直接対話し辛い場合に、自身の第1アバターに第2ユーザとの対話を行わせることができ、第1ユーザは、対話の結果を知ることができる。また、第2ユーザも、第1アバターと対話する時間がない場合、又は第1アバターと直接対話したくない場合には、自身の第2アバターに第1アバターとの対話を行わせることができる。 Through the above-described process, the dialogue processing unit 13a of the second user terminal 10 generates a dialogue message to be output to the second user based on the first user model 12M, so that the dialogue processing unit 13a of the second user terminal 10 generates a dialogue message that is likely to be spoken by the first user. can be issued to the second user. Therefore, the second user can have a pseudo-dialogue with the first user by interacting with the first avatar. Furthermore, through the above-described process, the first avatar can interact with the second user or the second avatar instead of the first user, and the history information (dialogue information) indicating the interaction result is transmitted to the first user terminal 10. is stored in the dialogue history DB 12b. Therefore, the first user can confirm the content of the conversation that the first avatar acting as his/her representative has had with the second user or the second avatar by checking the history information of the conversation later. Therefore, when the first user does not have time to interact with the second user or when it is difficult to interact directly with the second user, the first user can have his or her first avatar interact with the second user, and the first user can The user can know the outcome of the interaction. Furthermore, if the second user does not have time to interact with the first avatar or does not want to interact directly with the first avatar, the second user can have his or her second avatar interact with the first avatar. .

図11は、ユーザ端末10による対話処理手順の一例を示すフローチャートである。図11に示す処理は、第1ユーザが、第1ユーザ端末10を介して第2ユーザモデル12M(第2ユーザのアバター)と対話を行う際の処理である。図11では左側に第1ユーザ端末10が行う処理を、右側に第2ユーザ端末10が行う処理をそれぞれ示す。第1ユーザ端末10の制御部11は、第1ユーザからの指示に基づいて、第1ユーザが第2アバターと対話するか否かを判断する(S61)。即ち、制御部11は、第1ユーザが第2アバターを第1ユーザ端末10に招待したいか否かを判断する。第2アバターは、第1ユーザ以外のユーザ(第2ユーザ)のアバター(第2ユーザモデル12M)である。第1ユーザは、例えば第1ユーザ端末10の入力部15を介して「○○さんのアバターとおしゃべりしたい」と音声入力し、この場合、制御部11は、第1ユーザは○○さんのアバター(第2アバター)と対話すると判断する。第1ユーザが第2アバターと対話しないと判断した場合(S61:NO)、制御部11は待機する。第1ユーザが第2アバターと対話すると判断した場合(S61:YES)、制御部11は、第2ユーザの宛先情報を宛先情報DB12aから読み出す(S62)。そして制御部11は、読み出した宛先情報に基づいて、第2ユーザの第2ユーザ端末10に対して、第2アバターとの対話の実行を要求する要求信号を送信する(S63)。即ち、制御部11は、第2ユーザ端末10に対して、第2アバターを第1ユーザ端末10に招待する招待情報を送信する。 FIG. 11 is a flowchart illustrating an example of an interaction processing procedure by the user terminal 10. The process shown in FIG. 11 is a process when the first user interacts with the second user model 12M (the second user's avatar) via the first user terminal 10. In FIG. 11, the left side shows the process performed by the first user terminal 10, and the right side shows the process performed by the second user terminal 10. The control unit 11 of the first user terminal 10 determines whether the first user interacts with the second avatar based on an instruction from the first user (S61). That is, the control unit 11 determines whether the first user wants to invite the second avatar to the first user terminal 10. The second avatar is an avatar (second user model 12M) of a user other than the first user (second user). For example, the first user inputs voice input such as "I want to chat with Mr. ○○'s avatar" through the input unit 15 of the first user terminal 10, and in this case, the control unit 11 determines that the first user is Mr. ○○'s avatar. (second avatar). If it is determined that the first user does not interact with the second avatar (S61: NO), the control unit 11 waits. If it is determined that the first user will interact with the second avatar (S61: YES), the control unit 11 reads the second user's destination information from the destination information DB 12a (S62). Based on the read destination information, the control unit 11 transmits a request signal requesting the second user terminal 10 of the second user to perform a dialogue with the second avatar (S63). That is, the control unit 11 transmits invitation information for inviting the second avatar to the first user terminal 10 to the second user terminal 10.

第2ユーザ端末10の制御部11は、第1ユーザ端末10から第2アバターとの対話の要求信号を受信した場合、第2ユーザモデル12Mを第1ユーザ端末10へ送信する(S64)。第1ユーザ端末10の制御部11は、第2ユーザ端末10から第2ユーザモデル12Mを受信した場合、第2ユーザモデル12Mを記憶部12に記憶し、第2ユーザモデル12Mに基づく処理を行えるようにデプロイする。そして第1ユーザ端末10の制御部11は、第2ユーザモデル12Mに基づく処理を開始する(S65)。これにより、第1ユーザ端末10の制御部11は、図9に示す対話処理において第2ユーザ端末10が行っていたステップS48~S53の処理と同様の処理を行い(S66~S71)、第1ユーザと第2ユーザモデル12M(第2アバター)との対話を実現する。具体的には、第1ユーザ端末10の制御部11は、第1ユーザからのメッセージを受け付けたか否かを判断し(S66)、受け付けていないと判断した場合(S66:NO)、第2ユーザモデル12Mに基づいて第1ユーザと対話すべき対話メッセージを生成し(S67)、生成した対話メッセージを出力する(S68)。また第1ユーザからのメッセージを受け付けたと判断した場合(S66:YES)、第1ユーザ端末10の制御部11は、受け付けたメッセージに対する返答メッセージを第2ユーザモデル12Mに基づいて生成し(S69)、生成した返答メッセージを出力する(S70)。これにより、第1ユーザ端末10は、第1ユーザに対話メッセージを発することができ、第1ユーザからの対話メッセージに対する応答メッセージを返すことができ、第2ユーザモデル12M(第2アバター)と第1ユーザとの間の対話を行うことができる。 When the control unit 11 of the second user terminal 10 receives the request signal for interaction with the second avatar from the first user terminal 10, it transmits the second user model 12M to the first user terminal 10 (S64). When the control unit 11 of the first user terminal 10 receives the second user model 12M from the second user terminal 10, it can store the second user model 12M in the storage unit 12 and perform processing based on the second user model 12M. Deploy it like this. Then, the control unit 11 of the first user terminal 10 starts processing based on the second user model 12M (S65). As a result, the control unit 11 of the first user terminal 10 performs the same processing as the processing of steps S48 to S53 performed by the second user terminal 10 in the dialog processing shown in FIG. 9 (S66 to S71), and A dialogue between the user and the second user model 12M (second avatar) is realized. Specifically, the control unit 11 of the first user terminal 10 determines whether or not a message from the first user has been received (S66), and if it is determined that the message has not been received (S66: NO), the control unit 11 of the first user terminal 10 An interaction message to be interacted with the first user is generated based on the model 12M (S67), and the generated interaction message is output (S68). Further, if it is determined that the message from the first user has been accepted (S66: YES), the control unit 11 of the first user terminal 10 generates a reply message to the received message based on the second user model 12M (S69). , and output the generated reply message (S70). Thereby, the first user terminal 10 can issue an interactive message to the first user, can return a response message to the interactive message from the first user, and can interact with the second user model 12M (second avatar). 1 user can interact with each other.

ステップS68又はステップS70の処理後、第1ユーザ端末10の制御部11は、第1ユーザと第2アバターとの対話を終了するか否かを判断し(S71)、終了しないと判断した場合(S71:NO)、ステップS66の処理に戻り、ステップS66~S71の処理を繰り返す。これにより、第1ユーザ端末10は、第1ユーザからの対話メッセージに対する応答メッセージを返すことができ、また第1ユーザに話しかけるべき対話メッセージを出力することができ、第2ユーザモデル12Mに基づいて第1ユーザとの対話を実現できる。 After the processing in step S68 or step S70, the control unit 11 of the first user terminal 10 determines whether or not to end the interaction between the first user and the second avatar (S71), and if it is determined not to end ( S71: NO), the process returns to step S66, and the processes of steps S66 to S71 are repeated. As a result, the first user terminal 10 can return a response message to the dialog message from the first user, can output a dialog message to be spoken to the first user, and based on the second user model 12M. Dialogue with the first user can be realized.

対話を終了すると判断した場合(S71:YES)、第1ユーザ端末10の制御部11は、第1ユーザと第2アバターとの間で行われた対話の対話情報を第2ユーザ端末10へ送信する(S72)。なお、対話情報は、第1ユーザを撮影した映像及び音声のデータと、第2アバターの画像及び音声のデータとを含む。また第1ユーザ端末10の制御部11は、送信した対話情報を対話の履歴情報として対話履歴DB12bに記憶し(S73)、処理を終了する。一方、第2ユーザ端末10の制御部11は、第1ユーザ端末10から対話情報を受信した場合、受信した対話情報を、第2アバターが第1ユーザとの間で行った対話の履歴情報として対話履歴DB12bに記憶し(S74)、処理を終了する。 If it is determined that the dialogue should end (S71: YES), the control unit 11 of the first user terminal 10 transmits dialogue information of the dialogue conducted between the first user and the second avatar to the second user terminal 10. (S72). Note that the dialogue information includes video and audio data captured by the first user, and image and audio data of the second avatar. Further, the control unit 11 of the first user terminal 10 stores the transmitted dialogue information as dialogue history information in the dialogue history DB 12b (S73), and ends the process. On the other hand, when the control unit 11 of the second user terminal 10 receives the dialogue information from the first user terminal 10, the control unit 11 of the second user terminal 10 uses the received dialogue information as history information of the dialogue that the second avatar has had with the first user. It is stored in the dialogue history DB 12b (S74), and the process ends.

上述した処理により、第1ユーザが第2アバターと対話したい場合、第2アバター(第2ユーザモデル12M)を第2ユーザ端末10から第1ユーザ端末10にダウンロードすることにより、第1ユーザ端末10において第2アバターとの対話を実現できる。第1ユーザ端末10は、第2ユーザモデル12Mに基づく対話を行うので、第1ユーザは、第2アバターと対話することによって、第2ユーザと擬似的な対話を行うことができる。上述した処理により、第2アバターが第2ユーザの代わりに、第1ユーザとの対話を行うので、第2ユーザが多忙で対話する時間を確保できない場合であっても、第1ユーザは、第2ユーザが発する可能性の高い対話メッセージを受け取ることができ、また時間を気にすることなく第2アバターとの対話を楽しむことができる。 Through the process described above, when the first user wants to interact with the second avatar, the first user terminal 10 downloads the second avatar (second user model 12M) from the second user terminal 10 to the first user terminal 10. It is possible to realize a dialogue with the second avatar. Since the first user terminal 10 performs dialogue based on the second user model 12M, the first user can perform a pseudo dialogue with the second user by interacting with the second avatar. Through the process described above, the second avatar interacts with the first user instead of the second user, so even if the second user is busy and cannot find time to interact, the first user can interact with the first user instead of the second user. The user can receive dialogue messages that are likely to be sent by the second user, and can enjoy dialogue with the second avatar without worrying about time.

図12及び図13は、ユーザ端末10による行動処理手順の一例を示すフローチャートである。図12及び図13に示す処理は、第1アバター(第1ユーザモデル12M)が、第1ユーザが行きたい場所(第2ユーザ端末10の設置場所)に擬似的に外出する際の処理である。図12及び図13では左側に第1ユーザ端末10が行う処理を、右側に第2ユーザ端末10が行う処理をそれぞれ示す。第1ユーザ端末10の制御部11は、第1ユーザからの指示又は第1ユーザモデル12Mに基づいて、第1ユーザ端末10の設置場所から離れた場所で第1ユーザが行きたい場所があるか否かを判断する(S81)。例えば第1ユーザが第1ユーザ端末10(第1ユーザモデル12M)との対話中に「△△に行ってみたいな」と発話していた場合、制御部11は、第1ユーザは△△に行きたいと判断する。また例えば制御部11は、「行きたい所はある?」のようなメッセージを第1ユーザモデル12Mに入力し、第1ユーザモデル12Mからの出力情報に基づいて、第1ユーザが行きたい場所があるか否かを判断してもよい。このように第1ユーザモデル12Mに基づいて、第1ユーザが行きたい場所を特定することにより、第1ユーザが行きたい可能性の高い場所を特定できる。第1ユーザが行きたい場所がないと判断した場合(S81:NO)、制御部11は待機する。 12 and 13 are flowcharts illustrating an example of a behavior processing procedure by the user terminal 10. FIG. The process shown in FIGS. 12 and 13 is a process when the first avatar (first user model 12M) goes out to a place where the first user wants to go (installation location of the second user terminal 10). . In FIGS. 12 and 13, the left side shows the process performed by the first user terminal 10, and the right side shows the process performed by the second user terminal 10. The control unit 11 of the first user terminal 10 determines whether there is a place that the first user wants to go to that is away from the installation location of the first user terminal 10, based on an instruction from the first user or the first user model 12M. It is determined whether or not (S81). For example, if the first user says "I want to go to △△" during the interaction with the first user terminal 10 (first user model 12M), the control unit 11 controls the first user to go to △△. Decide that you want to go. For example, the control unit 11 inputs a message such as "Is there a place you want to go?" into the first user model 12M, and determines the place the first user wants to go based on the output information from the first user model 12M. You may decide whether or not it exists. In this way, by specifying a place that the first user wants to go to based on the first user model 12M, it is possible to specify a place that the first user is likely to want to go to. If it is determined that there is no place that the first user wants to go to (S81: NO), the control unit 11 waits.

第1ユーザが行きたい場所があると判断した場合(S81:YES)、第1ユーザ端末10の制御部11は、第1ユーザが行きたい場所に設置してある第2ユーザ端末10を特定する(S82)。なお、本実施形態の制御部11は、第1ユーザが行きたい場所として、宛先情報DB12aに登録してある各ユーザ端末10のいずれかを特定し、特定したユーザ端末10(第2ユーザ端末10)の宛先情報を宛先情報DB12aから読み出す(S83)。そして制御部11は、読み出した宛先情報に基づいて、第2ユーザ端末10に対して貸出を要求する要求信号を送信する(S84)。第2ユーザ端末10の制御部11は、第1ユーザ端末10から貸出の要求信号を受信した場合、第2ユーザ端末10の貸出が可能であるか否かを判断する(S85)。例えば第2ユーザ端末10が既に他のユーザ(ユーザモデル12M)に貸し出されている場合、具体的には、他のユーザのユーザモデル12Mが第2ユーザ端末10にデプロイされている場合、第2ユーザ端末10の制御部11は、貸出できないと判断する。また、第2ユーザが第2ユーザ端末10を用いて第2ユーザモデル12Mと対話中である場合、貸出できないと判断してもよい。更に、第2ユーザ端末10のユーザによって第2ユーザ端末10の貸出禁止が設定されている場合、第2ユーザ端末10の制御部11は、貸出できないと判断してもよい。なお、第2ユーザ端末10のユーザによって第2ユーザ端末10の貸出許可が設定されている場合、第2ユーザ端末10の制御部11は、貸出できると判断してもよい。第2ユーザ端末10の制御部11は、貸出可能でないと判断した場合(S85:NO)、貸出可能でないこと(貸出不可)を第1ユーザ端末10に通知する(S86)。第1ユーザ端末10の制御部11は、第2ユーザ端末10から貸出不可を受信した場合(S87)、何も行わずに処理を終了する。なお、第1ユーザ端末10の制御部11は、ステップS81の処理に戻り、第1ユーザが行きたいほかの場所があるか否かを判断し、ほかの場所がある場合にステップS82~S84の処理を繰り返してもよい。 If it is determined that there is a place that the first user wants to go to (S81: YES), the control unit 11 of the first user terminal 10 specifies the second user terminal 10 installed at the place that the first user wants to go to. (S82). Note that the control unit 11 of the present embodiment specifies one of the user terminals 10 registered in the destination information DB 12a as a place that the first user wants to go to, and selects the specified user terminal 10 (second user terminal 10). ) is read out from the destination information DB 12a (S83). Then, the control unit 11 transmits a request signal requesting lending to the second user terminal 10 based on the read destination information (S84). When the control unit 11 of the second user terminal 10 receives the rental request signal from the first user terminal 10, it determines whether the second user terminal 10 can be rented (S85). For example, if the second user terminal 10 has already been lent to another user (user model 12M), specifically, if the other user's user model 12M has been deployed to the second user terminal 10, the second user The control unit 11 of the user terminal 10 determines that the rental is not possible. Furthermore, if the second user is interacting with the second user model 12M using the second user terminal 10, it may be determined that the rental is not possible. Furthermore, if the user of the second user terminal 10 has set prohibition of lending the second user terminal 10, the control unit 11 of the second user terminal 10 may determine that lending is not possible. Note that if the user of the second user terminal 10 has set lending permission for the second user terminal 10, the control unit 11 of the second user terminal 10 may determine that lending is possible. When the control unit 11 of the second user terminal 10 determines that the rental is not possible (S85: NO), the control unit 11 of the second user terminal 10 notifies the first user terminal 10 that the rental is not possible (rental is not possible) (S86). When the control unit 11 of the first user terminal 10 receives the notification that lending is not possible from the second user terminal 10 (S87), the control unit 11 of the first user terminal 10 ends the process without performing anything. Note that the control unit 11 of the first user terminal 10 returns to the process of step S81, and determines whether there is another place that the first user wants to go to. The process may be repeated.

第2ユーザ端末10の制御部11は、貸出可能であると判断した場合(S85:YES)、貸出可能であることを第1ユーザ端末10に通知する(S88)。第1ユーザ端末10の制御部11は、第2ユーザ端末10から貸出可能であることを通知された場合、第1ユーザモデル12Mを第2ユーザ端末10へ送信する(S89)。第2ユーザ端末10の制御部11は、第1ユーザ端末10から第1ユーザモデル12Mを受信した場合、第1ユーザモデル12Mを記憶部12に記憶し、第1ユーザモデル12Mに基づく処理を行えるようにデプロイする。そして第2ユーザ端末10の制御部11は、第1ユーザモデル12Mに基づく処理を開始する(S90)。ここでは、第2ユーザ端末10の制御部11は、図7に示す行動処理と同様の処理を行い(S91~S97)、第2ユーザ端末10が第1ユーザモデル12Mに基づく行動処理を行うことにより、第1ユーザモデル12M(第1アバター)は、第2ユーザ端末10を用いて各種の行動を行うことができる。 When the control unit 11 of the second user terminal 10 determines that the item can be rented (S85: YES), it notifies the first user terminal 10 that the item can be rented (S88). When the control unit 11 of the first user terminal 10 is notified from the second user terminal 10 that the model can be lent, it transmits the first user model 12M to the second user terminal 10 (S89). When the control unit 11 of the second user terminal 10 receives the first user model 12M from the first user terminal 10, it can store the first user model 12M in the storage unit 12 and perform processing based on the first user model 12M. Deploy it like this. Then, the control unit 11 of the second user terminal 10 starts processing based on the first user model 12M (S90). Here, the control unit 11 of the second user terminal 10 performs processing similar to the behavioral processing shown in FIG. 7 (S91 to S97), and the second user terminal 10 performs behavioral processing based on the first user model 12M. Accordingly, the first user model 12M (first avatar) can perform various actions using the second user terminal 10.

具体的には、第2ユーザ端末10の制御部11は、第1ユーザモデル12Mに基づいて、第2ユーザ端末10の設置場所の近傍で、第1ユーザ(第1アバター)が行きたい場所があるか否かを判断し、行きたい場所があるか否かに応じて移動するか否かを判断する(S91)。第2ユーザ端末10の制御部11(行動処理部13b)は、移動すると判断した場合(S91:YES)、移動機構20を用いて行きたい場所まで移動し(S92)、移動しないと判断した場合(S91:NO)、ステップS92の処理をスキップする。次に第2ユーザ端末10の制御部11は、第1ユーザモデル12Mに基づいて、第1ユーザが撮影又は録音したいか否かを判断し、撮影又は録音したいか否かに応じて撮影及び/又は録音するか否かを判断する(S93)。撮影及び/又は録音すると判断した場合(S93:YES)、第2ユーザ端末10の制御部11は、カメラ19及びマイク18を用いて第2ユーザ端末10の周囲の撮影及び録音を行う(S94)。なお、第2ユーザ端末10の行動処理部13bは、第1ユーザモデル12Mに基づいて第1ユーザが撮影したい可能性の高い被写体を特定し、特定した被写体の撮影及び録音を行う。撮影及び録音しないと判断した場合(S93:NO)、制御部11はステップS94の処理をスキップする。 Specifically, the control unit 11 of the second user terminal 10 determines where the first user (first avatar) wants to go near the installation location of the second user terminal 10 based on the first user model 12M. It is determined whether there is a place to go, and it is determined whether or not to move depending on whether there is a place to go (S91). If the control unit 11 (behavior processing unit 13b) of the second user terminal 10 determines to move (S91: YES), it moves to the desired location using the moving mechanism 20 (S92), and if it determines not to move, the control unit 11 (behavior processing unit 13b) (S91: NO), the process of step S92 is skipped. Next, the control unit 11 of the second user terminal 10 determines whether or not the first user wants to take a picture or record a video based on the first user model 12M, and depending on whether or not the first user wants to take a picture or record a picture or record a video. Alternatively, it is determined whether or not to record (S93). If it is determined to photograph and/or record (S93: YES), the control unit 11 of the second user terminal 10 photographs and records the surroundings of the second user terminal 10 using the camera 19 and microphone 18 (S94). . Note that the behavior processing unit 13b of the second user terminal 10 identifies a subject that the first user is likely to want to photograph based on the first user model 12M, and performs photographing and audio recording of the identified subject. If it is determined that photographing and recording are not to be performed (S93: NO), the control unit 11 skips the process of step S94.

次に第2ユーザ端末10の制御部11は、第1ユーザモデル12Mに基づいて、第1ユーザが音声又は映像を出力したいか否かを判断し、音声又は映像を出力したいか否かに応じて音声及び/又は映像を出力するか否かを判断する(S95)。第2ユーザ端末10の制御部11は、音声及び/又は映像を出力すると判断した場合(S95:YES)、スピーカ17又は表示部16を用いて音声及び/又は映像を出力し(S96)、音声及び映像を出力しないと判断した場合(S95:NO)、ステップS26の処理をスキップする。第2ユーザ端末10の制御部11は、第1ユーザモデル12Mに基づく行動を終了するか否かを判断する(S97)。なお、第1ユーザモデル12Mに基づいて第1ユーザが行動(擬似的な外出)を終了したい可能性が高いと判断される場合、行動を終了すると判断してもよい。また例えば第2ユーザ端末10に貸出可能な時間が設定されており、貸出可能な時間が経過した場合に行動を終了すると判断してもよい。 Next, the control unit 11 of the second user terminal 10 determines whether the first user wants to output audio or video based on the first user model 12M, and determines whether the first user wants to output audio or video. It is determined whether or not to output audio and/or video (S95). When the control unit 11 of the second user terminal 10 determines to output audio and/or video (S95: YES), it outputs the audio and/or video using the speaker 17 or the display unit 16 (S96), and outputs the audio and/or video using the speaker 17 or display unit 16 (S96). If it is determined that the video is not to be output (S95: NO), the process of step S26 is skipped. The control unit 11 of the second user terminal 10 determines whether to end the action based on the first user model 12M (S97). Note that if it is determined based on the first user model 12M that there is a high possibility that the first user wants to end the action (pseudo going out), it may be determined that the action is ended. Further, for example, a loanable time may be set on the second user terminal 10, and it may be determined that the activity is ended when the loanable time has elapsed.

行動を終了しないと判断した場合(S97:NO)、第2ユーザ端末10の制御部11は、ステップS91の処理に戻り、ステップS91~S96の処理を繰り返す。これにより、第2ユーザ端末10は、第1ユーザモデル12Mに基づいて第1ユーザが行う可能性の高い行動を行うことができる。行動を終了すると判断した場合(S97:YES)、第2ユーザ端末10の制御部11は、第2ユーザ端末10が第1ユーザモデル12Mに基づいて行った行動の履歴情報を第1ユーザ端末10へ送信する(S98)。なお、第2ユーザ端末10は、移動機構20による移動、スピーカ17及び表示部16による音声及び映像の出力等の行動を行っている場合にもカメラ19及びマイク18を用いて第2ユーザ端末10の周囲の映像及び音声を取得(撮影)しており、このような映像及び音声のデータを行動情報として第1ユーザ端末10へ送信する。第1ユーザ端末10の制御部11は、第2ユーザ端末10から行動の履歴情報(行動情報)を受信した場合、行動履歴DB12cに記憶し(S99)、処理を終了する。これにより、第2ユーザ端末10において第1ユーザモデル12Mに基づいて行われた行動の履歴情報が第1ユーザ端末10の行動履歴DB12cに記憶される。 If it is determined that the action is not to be completed (S97: NO), the control unit 11 of the second user terminal 10 returns to the process of step S91 and repeats the processes of steps S91 to S96. Thereby, the second user terminal 10 can perform actions that are highly likely to be performed by the first user based on the first user model 12M. When it is determined that the action is to be ended (S97: YES), the control unit 11 of the second user terminal 10 transfers the history information of the action performed by the second user terminal 10 based on the first user model 12M to the first user terminal 10. (S98). Note that the second user terminal 10 uses the camera 19 and the microphone 18 even when performing actions such as moving by the moving mechanism 20 and outputting audio and video by the speaker 17 and the display unit 16. The user acquires (photographs) video and audio of the surrounding area, and transmits such video and audio data to the first user terminal 10 as behavior information. When the control unit 11 of the first user terminal 10 receives behavior history information (behavior information) from the second user terminal 10, it stores it in the behavior history DB 12c (S99) and ends the process. Thereby, history information of actions performed at the second user terminal 10 based on the first user model 12M is stored in the action history DB 12c of the first user terminal 10.

上述した処理により、第1ユーザモデル12Mが送信された第2ユーザ端末10において、第2ユーザモデル12Mに基づく行動処理が行われることにより、第1ユーザが行う可能性の高い行動を第2ユーザ端末10において実行することができる。よって、第1アバターは、第1ユーザが行きたい場所に擬似的に出かけ、出かけた先で第2ユーザ端末10を用いて、第1ユーザが行う可能性の高い行動を行うことができる。上述した処理により、第1ユーザが実際に外出する代わりに、第1アバターが擬似的に外出し、外出先で撮影した映像及び音声が履歴情報として行動履歴DB12cに蓄積される。この履歴情報を第1ユーザが後日確認することにより、第1アバターが第2ユーザ端末10において行った行動を辿ることができ、第1ユーザは自身が体験したように感じることができる。よって、第1ユーザが多忙で外出する時間を確保できない場合であっても、第1ユーザが行う可能性の高い行動を第1アバターが行うことにより、第1ユーザは様々な行動を擬似的に体験できる。 Through the above-described process, behavior processing based on the second user model 12M is performed in the second user terminal 10 to which the first user model 12M has been transmitted, so that the second user performs an action that is likely to be performed by the first user. It can be executed on the terminal 10. Therefore, the first avatar can go to a place where the first user wants to go in a pseudo manner, and use the second user terminal 10 at the place to perform actions that are likely to be performed by the first user. Through the process described above, instead of the first user actually going out, the first avatar goes out in a pseudo manner, and the video and audio captured at the outside are stored in the action history DB 12c as history information. By checking this history information at a later date, the first user can trace the actions that the first avatar performed on the second user terminal 10, and the first user can feel as if he or she had experienced it himself. Therefore, even if the first user is busy and cannot find time to go out, the first user can simulate various actions by having the first avatar perform actions that the first user is likely to perform. You can experience it.

上述した処理において、第2ユーザ端末10の制御部11は、第1ユーザモデル12Mに基づく行動を終了した後、例えば所定位置に戻ってくる(移動する)ように構成されていてもよい。この場合、第2ユーザ端末10が第1ユーザモデル12Mに貸し出された場合であっても、貸出後に所定位置に戻ることができるので、第2ユーザ端末10の所有者である第2ユーザが例えば第2ユーザ端末10を回収するような手間が増えない。 In the above-described process, the control unit 11 of the second user terminal 10 may be configured to return (move) to a predetermined position, for example, after completing the action based on the first user model 12M. In this case, even if the second user terminal 10 is lent to the first user model 12M, it can be returned to the predetermined position after being lent, so that the second user who is the owner of the second user terminal 10 can, for example, No additional effort is required to collect the second user terminal 10.

図14は、履歴情報の再生処理手順の一例を示すフローチャート、図15は、ユーザ端末10における画面例を示す模式図である。図14に示す処理は、図5,図8~図9,図11に示す対話処理によって対話履歴DB12bに対話情報(対話の履歴情報)が蓄積され、図7,図12~図13に示す行動処理によって行動履歴DB12cに行動情報(行動の履歴情報)が蓄積されたユーザ端末10において、履歴情報が再生される際の処理である。ユーザ端末10の制御部11は、対話履歴DB12b又は行動履歴DB12cに蓄積されたいずれかの履歴情報の再生要求を受け付けたか否かを判断する(S101)。ユーザ端末10のユーザは、対話又は行動の履歴情報を再生したい場合、例えばマイク18又は入力部15を介して履歴情報の再生要求を入力する。履歴情報の再生要求を受け付けていないと判断した場合(S101:NO)、制御部11は再生要求を受け付けるまで待機する。 FIG. 14 is a flowchart showing an example of a history information reproduction processing procedure, and FIG. 15 is a schematic diagram showing an example of a screen on the user terminal 10. In the process shown in FIG. 14, dialogue information (dialogue history information) is accumulated in the dialogue history DB 12b by the dialogue processing shown in FIGS. 5, 8 to 9, and 11, and the actions shown in FIGS. This process is performed when history information is reproduced in the user terminal 10 where behavior information (behavior history information) has been accumulated in the behavior history DB 12c through the process. The control unit 11 of the user terminal 10 determines whether a request to reproduce any of the history information stored in the dialogue history DB 12b or the action history DB 12c has been received (S101). When the user of the user terminal 10 wishes to reproduce history information of conversations or actions, the user inputs a reproduction request for history information via the microphone 18 or the input unit 15, for example. If it is determined that the history information reproduction request has not been received (S101: NO), the control unit 11 waits until the reproduction request is received.

履歴情報の再生要求を受け付けたと判断した場合(S101:YES)、制御部11は、対話履歴DB12bに蓄積された対話の履歴情報と、行動履歴DB12cに蓄積された行動の履歴情報とに基づいて、図15に示すようにそれぞれの履歴情報に関する情報を表示する履歴画面を生成し(S102)、表示部16に表示する(S103)。図15に示す履歴画面は、自身のアバターが行った活動(対話及び行動)について、サムネイル画像及び活動内容を示す情報を表示する。具体的には、自身のユーザ端末10(第1ユーザ端末10)で第1ユーザモデル12Mに基づいて行われた対話及び行動と、他のユーザ端末10(第2ユーザ端末10)で第1ユーザモデル12Mに基づいて行われた対話及び行動とについて、サムネイル画像及び活動内容を示す情報が表示される。なお、サムネイル画像は、対話情報又は行動情報に含まれる画像(映像)から生成することができ、活動内容の情報は、対話については対話相手の情報及び対話した時刻を含み、行動については外出先の場所の情報及び外出した時刻を含む。また履歴画面は、自身のアバターが過去に行った活動(対話及び行動)におけるサムネイル画像及び活動内容を示す情報を表示させるための「過去の履歴」ボタンを表示している。よって、履歴画面において「過去の履歴」ボタンが入力部15を介して操作された場合、制御部11は、対話履歴DB12b及び行動履歴DB12cに蓄積してある過去の履歴情報に関する情報を履歴画面に表示するように構成してある。 If it is determined that the request to reproduce history information has been received (S101: YES), the control unit 11 performs a reproduction request based on the dialogue history information stored in the dialogue history DB 12b and the action history information stored in the action history DB 12c. , as shown in FIG. 15, generates a history screen that displays information regarding each piece of history information (S102), and displays it on the display unit 16 (S103). The history screen shown in FIG. 15 displays thumbnail images and information indicating activity details regarding activities (dialogues and actions) performed by one's own avatar. Specifically, the interactions and actions performed based on the first user model 12M at the own user terminal 10 (first user terminal 10), and the interactions and actions performed by the first user at another user terminal 10 (second user terminal 10) Thumbnail images and information indicating activity details are displayed for conversations and actions performed based on the model 12M. Note that thumbnail images can be generated from images (videos) included in dialogue information or behavior information, and information on activity content includes information on the conversation partner and the time of conversation, and information on activities outside the home. Includes location information and time of departure. Further, the history screen displays a "past history" button for displaying thumbnail images and information indicating the activity contents of activities (dialogues and actions) performed by the user's avatar in the past. Therefore, when the "past history" button is operated via the input unit 15 on the history screen, the control unit 11 displays information regarding past history information accumulated in the dialogue history DB 12b and action history DB 12c on the history screen. It is configured to display.

履歴画面は、表示された履歴情報のいずれかを再生対象に選択できるように構成されており、選択された履歴情報の再生を指示するための再生ボタンと、再生処理を終了するためのキャンセルボタンとを表示している。制御部11は、履歴画面において入力部15を介していずれかの履歴情報が選択されて再生ボタンが操作されたか否かに応じて、選択された履歴情報に対する再生指示を受け付けたか否かを判断する(S104)。再生指示を受け付けていないと判断した場合(S104:NO)、制御部11は、履歴画面の表示を継続し、再生指示を受け付けるまで待機する。再生指示を受け付けたと判断した場合(S104:YES)、制御部11は、選択された履歴情報を対話履歴DB12b又は行動履歴DB12cから読み出し(S105)、読み出した履歴情報を表示部16及びスピーカ17にて出力する(S106)。制御部11は、例えば履歴情報に画像データ(映像データ)が含まれる場合、画像データを表示部16に表示し、履歴情報に音声データが含まれる場合、音声データをスピーカ17から音声出力する。また履歴情報にテキストデータが含まれる場合、制御部11は、テキストデータを表示部16に表示する。これにより、ユーザ端末10に設定した自身のアバターが、自身の端末(第1ユーザ端末10)又は他の端末(第2ユーザ端末10)で行った対話処理及び擬似的な外出処理を再現することができる。なお、ユーザ端末10がプロジェクタを備える場合、又はプロジェクタが接続されている場合、制御部11は、履歴情報をプロジェクタによって出力してもよい。 The history screen is configured so that any of the displayed history information can be selected for playback, and includes a play button to instruct playback of the selected history information and a cancel button to end the playback process. is displayed. The control unit 11 determines whether or not a playback instruction for the selected history information has been received, depending on whether any history information has been selected via the input unit 15 on the history screen and the playback button has been operated. (S104). If it is determined that the playback instruction has not been received (S104: NO), the control unit 11 continues displaying the history screen and waits until the playback instruction is received. If it is determined that the playback instruction has been received (S104: YES), the control unit 11 reads the selected history information from the dialogue history DB 12b or the action history DB 12c (S105), and displays the read history information on the display unit 16 and the speaker 17. and outputs it (S106). For example, if the history information includes image data (video data), the control unit 11 displays the image data on the display unit 16, and if the history information includes audio data, the control unit 11 outputs the audio data from the speaker 17. Further, if the history information includes text data, the control unit 11 displays the text data on the display unit 16. As a result, the own avatar set on the user terminal 10 can reproduce the interaction process and the pseudo going out process performed on the own terminal (first user terminal 10) or another terminal (second user terminal 10). Can be done. Note that if the user terminal 10 includes a projector or is connected to a projector, the control unit 11 may output the history information using the projector.

上述した処理により、本実施形態では、ユーザ端末10のユーザ(自身)に代わってユーザが設定したアバターが、他のユーザ又は他のアバターと対話することができ、また、擬似的な外出を行うことができる。よって、ユーザ端末10のユーザ(自身)は、蓄積された対話及び行動の履歴情報を再生することにより、アバターが行った対話の内容及び擬似的な外出先の映像及び音声を確認することができ、アバターが行った対話及び行動を辿ることができる。またユーザは、アバターが実行した対話及び行動を参考にして、実際の行動に移すことができ、現実世界での行動範囲の拡大が期待できる。 Through the above-described processing, in this embodiment, the avatar set by the user on behalf of the user (himself) of the user terminal 10 can interact with other users or other avatars, and can also perform a pseudo going out. be able to. Therefore, the user (himself) of the user terminal 10 can check the content of the dialogue performed by the avatar and the simulated video and audio of the user outside by playing back the accumulated dialogue and action history information. , the interactions and actions performed by the avatar can be traced. Furthermore, the user can refer to the dialogues and actions performed by the avatar and take actual actions, which can be expected to expand the range of actions in the real world.

(実施形態2)
図16は、実施形態2の情報処理システムの構成例を示すブロック図である。本実施形態の情報処理システムは、貸出用の学習モデルである貸出可能なユーザモデル(以下では貸出モデルという)が予め用意されており、各ユーザは、自身のユーザ端末10に貸出モデルをダウンロードすることにより、貸出モデルに基づく対話及び行動を自身のユーザ端末10で実現することができるシステムである。本実施形態の情報処理システムは、多数のユーザ端末10と、貸出モデルを管理するモデル管理サーバ40とを含み、ユーザ端末10及びモデル管理サーバ40のそれぞれは、ネットワークNを介して相互に情報の送受信を行う。なお、図16では1つのユーザ端末10のみを示しており、ユーザ端末10は実施形態1と同様の構成を有し、同様の処理を行う。
(Embodiment 2)
FIG. 16 is a block diagram illustrating a configuration example of an information processing system according to the second embodiment. In the information processing system of this embodiment, a lending-capable user model (hereinafter referred to as lending model), which is a learning model for lending, is prepared in advance, and each user downloads the lending model to his or her own user terminal 10. This is a system that enables dialogue and actions based on the lending model to be realized on the user's own user terminal 10. The information processing system of this embodiment includes a large number of user terminals 10 and a model management server 40 that manages rental models. Send and receive. Note that FIG. 16 shows only one user terminal 10, and the user terminal 10 has the same configuration as in the first embodiment and performs the same processing.

モデル管理サーバ40は、パーソナルコンピュータ又はサーバコンピュータ等を用いて構成される。モデル管理サーバ40は、制御部41、記憶部42、通信部43、入力部44、表示部45、読み取り部46等を含み、これらの各部はバスを介して相互に接続されている。制御部41、記憶部42、通信部43、入力部44、表示部45、読み取り部46の各部は、実施形態1で説明したユーザ端末10の制御部11、記憶部12、通信部14、入力部15、表示部16、読み取り部22の各部と同様の構成を有するので、構成についての説明は省略する。なお、モデル管理サーバ40の記憶部42は、制御プログラム42Pのほかに、複数の貸出モデル42M1~42M3と、後述するモデル情報DB42aとを記憶する。図16に示す例では3つの貸出モデル42M1,42M2,42M3が記憶してあるが、記憶部42には予め用意された多数の貸出モデルが記憶されている。以下では、第1貸出モデル42M1~第3貸出モデル42M3…をまとめて貸出モデル42Mとして説明する。貸出モデル42M及びモデル情報DB42aは、モデル管理サーバ40に接続された外部記憶装置に記憶されてもよく、モデル管理サーバ40が通信可能な外部記憶装置に記憶されてもよい。 The model management server 40 is configured using a personal computer, a server computer, or the like. The model management server 40 includes a control section 41, a storage section 42, a communication section 43, an input section 44, a display section 45, a reading section 46, etc., and these sections are interconnected via a bus. The control unit 41, storage unit 42, communication unit 43, input unit 44, display unit 45, and reading unit 46 are the control unit 11, storage unit 12, communication unit 14, and input unit of the user terminal 10 described in the first embodiment. Since the configuration is similar to that of the unit 15, display unit 16, and reading unit 22, the description of the configuration will be omitted. Note that the storage unit 42 of the model management server 40 stores, in addition to the control program 42P, a plurality of rental models 42M1 to 42M3 and a model information DB 42a to be described later. In the example shown in FIG. 16, three rental models 42M1, 42M2, and 42M3 are stored, but the storage unit 42 stores a large number of rental models prepared in advance. In the following, the first lending model 42M1 to the third lending model 42M3... will be collectively referred to as the lending model 42M. The rental model 42M and model information DB 42a may be stored in an external storage device connected to the model management server 40, or may be stored in an external storage device with which the model management server 40 can communicate.

貸出モデル42Mは、実施形態1で説明したユーザモデル12Mと同様の構成を有し、同様の学習処理によって各ユーザの対話履歴及び行動履歴に基づいて各ユーザの固有情報が収集(学習)された学習済みモデルである。貸出モデル42Mは、例えばスポーツ選手、芸能人、医師、看護師、栄養士、スポーツトレーナー、教師、料理の先生、弁護士、税理士等、様々な分野のユーザの固有情報を学習させたユーザモデルである。貸出モデル42Mは、例えば各ユーザが自身のユーザ端末10において学習させたユーザモデル12Mをモデル管理サーバ40へ送信して記憶部42に記憶させたものである。なお、貸出モデル42Mの学習は、モデル管理サーバ40において行われてもよく、他の学習装置で行われてもよい。 The lending model 42M has the same configuration as the user model 12M described in Embodiment 1, and the unique information of each user is collected (learned) based on the interaction history and action history of each user through the same learning process. It is a trained model. The rental model 42M is a user model that has learned unique information of users in various fields, such as athletes, celebrities, doctors, nurses, nutritionists, sports trainers, teachers, cooking teachers, lawyers, tax accountants, and the like. The rental model 42M is, for example, a user model 12M trained by each user on his or her own user terminal 10, transmitted to the model management server 40, and stored in the storage unit 42. Note that learning of the lending model 42M may be performed in the model management server 40, or may be performed in another learning device.

図17はモデル情報DB42aの構成例を示す模式図である。モデル情報DB42aは、モデル管理サーバ40の記憶部42に登録された貸出モデル42Mに関する情報を記憶する。図17に示すモデル情報DB42aは、貸出モデルID列、氏名列、プロフィール列、料金列、貸出可能数列、貸出状況列等を含む。貸出モデルID列は、記憶部42に記憶された貸出モデル42Mのそれぞれに割り当てられた識別情報を記憶する。氏名列は、貸出モデルIDに対応付けて、貸出モデル42Mに対応するユーザの氏名を記憶し、プロフィール列は、貸出モデル42Mに対応するユーザのプロフィールを記憶する。料金列は、貸出モデルIDに対応付けて、貸出モデル42Mを貸し出す際の料金(使用料)の情報を記憶する。料金の情報は例えば1時間単位等のような所定時間単位の料金、貸出モデル42Mに対して行いたい質問の個数(対話の実行回数)に応じた料金等を示す。貸出可能数列は、貸出モデルIDに対応付けて、例えば同時に貸出できる数(貸出先のユーザ数)を記憶する。なお、貸出料金は、貸出モデル42Mに設定された貸出可能数(同時にデプロイ可能なユーザ端末10の装置数)に応じた料金としてもよく、例えば貸出可能数が少ないほど高い料金が設定されてもよい。貸出状況列は、貸出モデル42Mの貸出状況を示す情報を記憶する。貸出状況を示す情報は、例えば貸出が行われた日時、貸出が予約された日時等の情報を記憶する。 FIG. 17 is a schematic diagram showing a configuration example of the model information DB 42a. The model information DB 42a stores information regarding the rental model 42M registered in the storage unit 42 of the model management server 40. The model information DB 42a shown in FIG. 17 includes a rental model ID column, a name column, a profile column, a fee column, a loanable number column, a rental status column, and the like. The rental model ID column stores identification information assigned to each of the rental models 42M stored in the storage unit 42. The name column stores the name of the user corresponding to the rental model 42M in association with the rental model ID, and the profile column stores the profile of the user corresponding to the rental model 42M. The fee column stores information on fees (usage fees) when renting out the rental model 42M in association with the rental model ID. The fee information indicates, for example, a fee per predetermined time unit such as an hourly unit, a fee depending on the number of questions (number of times dialogue is performed) desired to be asked to the rental model 42M, and the like. The lentable number sequence stores, for example, the number of lentable items at the same time (the number of lending users) in association with the lent model ID. Note that the rental fee may be a fee that corresponds to the number of loanable devices (the number of user terminals 10 that can be deployed at the same time) set in the rental model 42M, and for example, a higher fee may be set as the number of loanable devices is smaller. good. The lending status column stores information indicating the lending status of the lending model 42M. The information indicating the rental status includes, for example, the date and time when the rental was performed, the date and time when the rental was reserved, and the like.

モデル情報DB42aに記憶される貸出モデルIDは、新たな貸出モデル42Mが記憶部42に記憶される際に、制御部41によって発行されて記憶される。モデル情報DB42aに記憶される氏名及びプロフィールは、例えば新たな貸出モデル42Mが記憶部42に記憶される際に、制御部41が通信部43を介して取得して記憶される。モデル情報DB42aに記憶される料金及び貸出可能数は、例えば貸出モデル42Mに対応するユーザによって設定され、制御部41が通信部43を介して取得して記憶又は変更される。モデル情報DB42aに記憶される貸出状況は、貸出モデル42Mがユーザ端末10に貸し出された際又は貸出が予約された際に、制御部41が貸し出した日時又は予約された日時を記憶する。モデル情報DB42aの記憶内容は図17に示す例に限定されず、貸出モデル42Mに関する各種の情報を記憶することができる。 The rental model ID stored in the model information DB 42a is issued and stored by the control unit 41 when a new rental model 42M is stored in the storage unit 42. The name and profile stored in the model information DB 42a are acquired by the control unit 41 via the communication unit 43 and stored, for example, when a new rental model 42M is stored in the storage unit 42. The fee and the number of rental models stored in the model information DB 42a are set by, for example, a user corresponding to the rental model 42M, and are acquired by the control unit 41 via the communication unit 43 and stored or changed. The rental status stored in the model information DB 42a stores the date and time when the rental model 42M was rented or reserved by the control unit 41 when the rental model 42M was rented to the user terminal 10 or when the rental was reserved. The storage contents of the model information DB 42a are not limited to the example shown in FIG. 17, and various information regarding the rental model 42M can be stored.

以下に、ユーザ端末10がモデル管理サーバ40から貸出モデル42Mをダウンロードし、貸出モデル42Mに基づく対話及び行動をユーザ端末10で実行する処理について説明する。図18は、貸出モデル42Mの貸出処理手順の一例を示すフローチャート、図19は、ユーザ端末10における画面例を示す模式図である。図18では左側にユーザ端末10が行う処理を、右側にモデル管理サーバ40が行う処理をそれぞれ示す。 Below, a process in which the user terminal 10 downloads the lending model 42M from the model management server 40 and executes dialogue and actions based on the lending model 42M on the user terminal 10 will be described. FIG. 18 is a flowchart showing an example of a lending process procedure of the lending model 42M, and FIG. 19 is a schematic diagram showing an example of a screen on the user terminal 10. In FIG. 18, the left side shows the processing performed by the user terminal 10, and the right side shows the processing performed by the model management server 40.

ユーザ端末10の制御部11は、マイク18又は入力部15を介して自端末のユーザから、貸出モデル42Mの貸出要求を受け付けたか否かを判断する(S111)。ユーザは、モデル管理サーバ40が管理している貸出可能な貸出モデル42Mを借りたい場合、例えば貸出モデル42Mを借りたい旨のメッセージをマイク18を介して音声入力する。また、ユーザ端末10の表示部16に、貸出モデル42Mの貸出を要求するための貸出ボタンが表示されている場合、ユーザは、入力部15を介して貸出ボタンを操作する。ユーザ端末10の制御部11は、貸出モデル42Mの貸出要求を受け付けていないと判断した場合(S111:NO)、待機する。貸出モデル42Mの貸出要求を受け付けたと判断した場合(S111:YES)、制御部11は、モデル管理サーバ40に、貸出モデル42Mのリストを要求する(S112)。なお、モデル管理サーバ40の宛先情報は例えば記憶部12に記憶してある。 The control unit 11 of the user terminal 10 determines whether a request for lending the lending model 42M has been received from the user of the own terminal via the microphone 18 or the input unit 15 (S111). When a user wants to borrow a loanable model 42M managed by the model management server 40, the user inputs a message via the microphone 18, for example, to the effect that the user wants to borrow the loanable model 42M. Further, if a lending button for requesting lending of the lending model 42M is displayed on the display unit 16 of the user terminal 10, the user operates the lending button via the input unit 15. When the control unit 11 of the user terminal 10 determines that the lending request for the lending model 42M has not been received (S111: NO), it waits. If it is determined that the request for lending the lending model 42M has been accepted (S111: YES), the control unit 11 requests the model management server 40 for a list of the lending models 42M (S112). Note that the destination information of the model management server 40 is stored in the storage unit 12, for example.

モデル管理サーバ40の制御部41は、いずれかのユーザ端末10から貸出モデル42Mのリストを要求された場合、モデル情報DB42aの記憶内容に基づいて、貸出可能な貸出モデル42Mのリストを生成してユーザ端末10へ送信する(S113)。ユーザ端末10の制御部11は、モデル管理サーバ40から受信した貸出モデル42Mのリストに基づいて、図19に示すようなリストを表示部16に表示する(S114)。図19に示すリストは、貸出モデル42Mに対応するユーザを専門分野毎に分類し、専門分野毎に、各ユーザの氏名、プロフィール、貸出料金等を表示する。図19に示すリストでは、貸出モデル42Mのユーザとしてスポーツ分野(スポーツ選手)、芸能分野(芸能人)、医療分野(医師)のユーザの固有情報を学習させた貸出モデル42Mのリストが表示されている。リストにおいて各貸出モデル42Mの情報は選択可能に表示されており、ユーザ端末10のユーザは入力部15を介して、借りたい貸出モデル42Mを選択して決定ボタンを操作する。ユーザ端末10の制御部11は、任意の貸出モデル42Mが選択されて決定ボタンが操作されることにより、選択された貸出モデル42Mの貸出指示を受け付ける。よって、制御部11は、貸出モデル42Mの貸出指示を受け付けたか否かを判断しており(S115)、受け付けていないと判断した場合(S115:NO)、貸出モデル42Mのリストの表示を継続する(S114)。 When a list of rental models 42M is requested from any user terminal 10, the control unit 41 of the model management server 40 generates a list of rental models 42M that can be rented based on the stored contents of the model information DB 42a. It is transmitted to the user terminal 10 (S113). The control unit 11 of the user terminal 10 displays a list as shown in FIG. 19 on the display unit 16 based on the list of rental models 42M received from the model management server 40 (S114). The list shown in FIG. 19 classifies users corresponding to the rental model 42M by specialty field, and displays each user's name, profile, rental fee, etc. for each specialty field. In the list shown in FIG. 19, a list of rental models 42M that has learned specific information of users in the sports field (athletes), entertainment field (celebrities), and medical fields (doctors) is displayed as users of the rental models 42M. . Information on each rental model 42M is displayed in a selectable manner in the list, and the user of the user terminal 10 selects the rental model 42M he or she wishes to rent via the input unit 15 and operates the enter button. The control unit 11 of the user terminal 10 receives an instruction to rent out the selected rental model 42M when an arbitrary rental model 42M is selected and the determination button is operated. Therefore, the control unit 11 determines whether or not the rental instruction for the rental model 42M has been accepted (S115), and if it is determined that the instruction has not been accepted (S115: NO), it continues to display the list of the rental models 42M. (S114).

貸出モデル42Mの貸出指示を受け付けたと判断した場合(S115:YES)、制御部11は、選択された貸出モデル42Mの貸出をモデル管理サーバ40に要求する(S116)。なお、制御部11は、例えば貸出モデル42Mのリストを介して、ユーザが希望する貸出時間を受け付け、貸出時間を含み、貸出モデル42Mの貸出を要求する要求信号をモデル管理サーバ40へ送信する。モデル管理サーバ40の制御部41(デプロイ部)は、いずれかのユーザ端末10から貸出モデル42Mの貸出を要求された場合、要求された貸出モデル42Mを記憶部42から読み出してユーザ端末10へ送信(デプロイ)する(S117)。なお、モデル管理サーバ40の制御部41は、貸出を要求された貸出モデル42Mについて、貸出状況及び貸出可能数を確認し、貸し出し可能である場合に、貸出モデル42Mをユーザ端末10へ送信する。 If it is determined that the lending instruction for the lending model 42M has been received (S115: YES), the control unit 11 requests the model management server 40 to lend the selected lending model 42M (S116). Note that the control unit 11 receives the rental time desired by the user, for example via the list of rental models 42M, and transmits to the model management server 40 a request signal that includes the rental time and requests rental of the rental model 42M. When a request for lending a lending model 42M is received from any user terminal 10, the control unit 41 (deployment unit) of the model management server 40 reads the requested lending model 42M from the storage unit 42 and transmits it to the user terminal 10. (Deploy) (S117). The control unit 41 of the model management server 40 checks the rental status and the number of rental models 42M requested to be rented, and transmits the rental model 42M to the user terminal 10 if the rental model 42M is available for rental.

ユーザ端末10の制御部11は、モデル管理サーバ40から送信された貸出モデル42Mを受信し、受信した貸出モデル42Mを記憶部12に記憶し、貸出モデル42Mに基づく処理を行えるようにデプロイする。なお、制御部11は、貸出モデル42Mがデプロイされた場合、ユーザ端末10のハードウェア各部を、貸出モデル42Mに基づく処理によって占有されるように構成されている。これにより、例えばユーザ端末10のユーザモデル12Mに基づく処理と、貸出モデル42Mに基づく処理とが混在する状況を回避する。そして制御部11は、貸出モデル42Mに基づく処理を開始する(S118)。これにより、ユーザ端末10の制御部11は、図9に示す対話処理において第2ユーザ端末10が行っていたステップS48~S53の処理と同様の処理を行い(S119~S124)、貸出モデル42Mに基づいて、ユーザ端末10のユーザと、貸出モデル42Mのアバターとの対話を実現する。具体的には、ユーザ端末10の制御部11は、ユーザ端末10のユーザからのメッセージを受け付けたか否かを判断し(S119)、受け付けていないと判断した場合(S119:NO)、貸出モデル42Mに基づいてユーザと対話すべき対話メッセージを生成し(S120)、生成した対話メッセージを出力する(S121)。またユーザからのメッセージを受け付けたと判断した場合(S119:YES)、制御部11は、受け付けたメッセージに対する返答メッセージを貸出モデル42Mに基づいて生成(特定)し(S122)、生成した返答メッセージを出力する(S123)。これにより、ユーザ端末10は、貸出モデル42Mに基づく貸出モデル42Mのアバターと、ユーザ端末10のユーザとの間の対話を行うことができる。 The control unit 11 of the user terminal 10 receives the rental model 42M transmitted from the model management server 40, stores the received rental model 42M in the storage unit 12, and deploys it so that processing based on the rental model 42M can be performed. Note that the control unit 11 is configured so that when the lending model 42M is deployed, each hardware part of the user terminal 10 is occupied by processing based on the lending model 42M. This avoids a situation in which, for example, processing based on the user model 12M of the user terminal 10 and processing based on the lending model 42M coexist. The control unit 11 then starts processing based on the lending model 42M (S118). As a result, the control unit 11 of the user terminal 10 performs the same processing as the processing of steps S48 to S53 performed by the second user terminal 10 in the dialog processing shown in FIG. 9 (S119 to S124), and changes the rental model 42M to Based on this, interaction between the user of the user terminal 10 and the avatar of the rental model 42M is realized. Specifically, the control unit 11 of the user terminal 10 determines whether or not a message from the user of the user terminal 10 has been received (S119), and if it is determined that the message has not been received (S119: NO), the rental model 42M An interactive message to be interacted with the user is generated based on (S120), and the generated interactive message is output (S121). If it is determined that a message from the user has been accepted (S119: YES), the control unit 11 generates (specifies) a reply message to the received message based on the lending model 42M (S122), and outputs the generated reply message. (S123). Thereby, the user terminal 10 can perform a dialogue between the avatar of the lending model 42M based on the lending model 42M and the user of the user terminal 10.

ステップS121又はステップS123の処理後、ユーザ端末10の制御部11は、貸出モデル42Mのアバターとユーザとの対話を終了するか否かを判断し(S124)、終了しないと判断した場合(S124:NO)、ステップS119の処理に戻り、ステップS119~S124の処理を繰り返す。対話を終了すると判断した場合(S124:YES)、制御部11は、ユーザ端末10のユーザと貸出モデル42Mに基づくアバターとの間で行われた対話の対話情報を対話の履歴情報として記憶部12の対話履歴DB12bに記憶し(S125)、処理を終了する。なお、ステップS124において、制御部11は、ユーザ端末10が貸出モデル42Mの貸出をモデル管理サーバ40に要求する際に指定した貸出時間が経過した場合に貸出モデル42Mに基づく対話を終了すると判断してもよい。また、貸出モデル42Mが、指定された貸出時間が経過した場合に使用禁止となるように構成されていてもよい。この場合、貸出時間が経過すれば貸出モデル42Mの使用ができなくなる。なお、例えばモデル管理サーバ40の制御部41は、貸出モデル42Mをユーザ端末10へ送信した場合、又はユーザ端末10が貸出モデル42Mの使用を終了した場合、貸出モデル42Mの貸出料金(使用料金)の課金処理を行ってもよい。例えば、モデル管理サーバ40の制御部41は、貸出モデル42Mに設定されていた貸出料金の支払いを要求する要求情報をユーザ端末10へ送信し、ユーザ端末10の制御部11は、要求情報に従って貸出料金の支払処理を行ってもよい。 After the processing in step S121 or step S123, the control unit 11 of the user terminal 10 determines whether or not to end the interaction between the avatar of the rental model 42M and the user (S124), and if it is determined not to end (S124: NO), the process returns to step S119, and the processes of steps S119 to S124 are repeated. If it is determined that the dialogue is to be ended (S124: YES), the control unit 11 stores the dialogue information of the dialogue between the user of the user terminal 10 and the avatar based on the lending model 42M in the storage unit 12 as dialogue history information. is stored in the dialogue history DB 12b (S125), and the process ends. Note that in step S124, the control unit 11 determines that the dialogue based on the lending model 42M will end when the lending time specified when the user terminal 10 requests the model management server 40 to lend the lending model 42M has elapsed. You can. Furthermore, the rental model 42M may be configured to be prohibited from being used when a specified rental time has elapsed. In this case, once the rental time has elapsed, the rental model 42M can no longer be used. Note that, for example, when the control unit 41 of the model management server 40 transmits the rental model 42M to the user terminal 10, or when the user terminal 10 finishes using the rental model 42M, the control unit 41 of the model management server 40 charges the rental fee (usage fee) of the rental model 42M. You may also perform billing processing. For example, the control unit 41 of the model management server 40 transmits request information requesting payment of the rental fee set for the rental model 42M to the user terminal 10, and the control unit 11 of the user terminal 10 transmits the request information requesting payment of the rental fee set for the rental model 42M. Fee payment processing may also be performed.

上述した処理により、ユーザは、モデル管理サーバ40を介して貸出可能な貸出モデル42Mを借り受け、自身のユーザ端末10において貸出モデル42Mに基づく処理を実行することにより、貸出モデル42Mのアバターと対話することができ、貸出モデル42Mのユーザと疑似的な対話を実現できる。貸出モデル42Mを用いて、貸出モデル42Mのユーザの代わりに、ユーザ端末10のユーザとの対話を行うので、多忙な有名人又は専門家の代わりに、貸出モデル42Mのアバターがユーザ端末10のユーザからの質問に回答し、アドバイス等を行うことができる。具体的には、例えばユーザ端末10に料理の先生のアバター(貸出モデル42M)を借り受け、ユーザ端末10のユーザが、料理の先生のアバターと対話しながら料理することにより、料理の先生のアバターからアドバイスを受けつつ料理することができる。また、ユーザ端末10のユーザが有名人又は専門家と直接対話し辛い内容であっても、有名人又は専門家のアバターと対話することにより、気軽に相談できるようになる。 Through the above-described process, the user borrows the lending model 42M that can be lent via the model management server 40, and interacts with the avatar of the lending model 42M by executing processing based on the lending model 42M on his or her user terminal 10. It is possible to realize a pseudo dialogue with the user of the lending model 42M. Since the lending model 42M is used to interact with the user of the user terminal 10 instead of the user of the lending model 42M, the avatar of the lending model 42M can be used to interact with the user of the user terminal 10 instead of a busy celebrity or expert. can answer questions and provide advice. Specifically, for example, by borrowing a cooking teacher's avatar (rental model 42M) from the user terminal 10 and cooking while interacting with the cooking teacher's avatar, the user of the user terminal 10 can learn from the cooking teacher's avatar. You can cook while receiving advice. In addition, even if the user of the user terminal 10 has difficulty communicating directly with a celebrity or expert, he or she can easily consult with the celebrity or expert by interacting with the avatar of the celebrity or expert.

本実施形態においても、実施形態1と同様の効果が得られる。また本実施形態では、有名人又は専門家の固有情報を学習させた貸出モデル42Mの貸出が可能であり、各ユーザは、貸出モデル42Mを自身のユーザ端末10にダウンロードして実行させることにより、有名人又は専門家のそれぞれが行う可能性の高い対話を自身のユーザ端末10で実現することができる。よって、ユーザは、専門家等の意見を聞きたい場合に、専門家の貸出モデル42Mを借り受けて自身のユーザ端末10で貸出モデル42Mに基づく対話処理を実行させることにより、専門家のアバターと対話することができ、専門家との疑似的な対話を実現できる。この場合、専門家自身が対応できるユーザの数には限度があるが、貸出モデル42Mを貸し出すことにより、専門家が疑似的に各ユーザの質問等に回答できるので、多数のユーザの悩みを解消できることが期待される。また例えば好きな芸人がいる場合に、劇場に行けない状況であっても、ユーザが、この芸人の貸出モデル42Mを借り受けて自身のユーザ端末10で貸出モデル42Mに基づく処理を実行させることにより、好きな芸人のアバターと対話することができ、芸人との疑似的な対話を実現できる。なお、ユーザ端末10は、貸し出された貸出モデル42Mに基づく対話処理だけでなく行動処理を実行してもよく、この場合、貸出モデル42Mのユーザが行う可能性の高い行動をユーザ端末10において実現できる。よって、ユーザ端末10のユーザは、貸出モデル42Mのユーザとの擬似的な行動を、ユーザ端末10が実現する貸出モデル42Mのアバターを介して実現できる。 In this embodiment as well, the same effects as in Embodiment 1 can be obtained. In addition, in this embodiment, it is possible to lend out the lending model 42M that has learned the unique information of a celebrity or an expert, and each user can download the lending model 42M to his or her own user terminal 10 and execute it. Alternatively, conversations that each expert is likely to have can be realized on their own user terminals 10. Therefore, when a user wants to hear the opinion of an expert, etc., he or she can interact with the expert's avatar by borrowing the expert's lending model 42M and having his or her user terminal 10 execute a dialog process based on the lending model 42M. It is possible to have a simulated dialogue with an expert. In this case, there is a limit to the number of users that the experts themselves can respond to, but by lending out the rental model 42M, the experts can answer the questions of each user in a pseudo manner, solving the problems of many users. It is hoped that this will be possible. For example, if there is a favorite comedian, even if the user cannot go to the theater, the user can borrow the rental model 42M of this comedian and execute the process based on the rental model 42M on his/her own user terminal 10. You can interact with the avatar of your favorite entertainer, allowing you to create a simulated dialogue with the entertainer. Note that the user terminal 10 may execute not only dialogue processing based on the lent lending model 42M but also action processing, and in this case, the user terminal 10 realizes actions that are likely to be performed by the user of the lending model 42M. can. Therefore, the user of the user terminal 10 can realize a simulated behavior with the user of the lending model 42M via the avatar of the lending model 42M realized by the user terminal 10.

本実施形態において、貸出モデル42Mは、貸出先のユーザ端末10において、貸出先のユーザ端末10のユーザとの間で行った対話処理及び行動処理の内容に基づいて再学習するように構成されていてもよい。これにより、貸出先のユーザ端末10で行った対話処理及び行動処理の履歴に基づいて、貸出モデル42Mのユーザに関する情報を更に収集(学習)することができ、貸出モデル42Mに蓄積できる。なお、貸出先のユーザ端末10で再学習された貸出モデル42Mは、モデル管理サーバ40に返送され、モデル管理サーバ40の記憶部42に記憶してある貸出モデル42M(再学習前の貸出モデル42M)とは別に記憶してもよく、上書き保存してもよい。これにより、再学習された貸出モデル42Mを貸し出し対象のモデルとすることができる。なお、貸出モデル42Mは、貸出先のユーザ端末10での対話処理及び行動処理の履歴に基づく再学習を行うか否かを選択できるように構成されていてもよい。 In the present embodiment, the lending model 42M is configured to relearn based on the content of the interaction process and behavior processing performed with the user of the lending destination user terminal 10 at the lending destination user terminal 10. You can. Thereby, information regarding the user of the lending model 42M can be further collected (learned) based on the history of interaction processing and behavior processing performed at the lending destination user terminal 10, and can be stored in the lending model 42M. Note that the lending model 42M relearned at the lending destination user terminal 10 is sent back to the model management server 40, and the lending model 42M stored in the storage unit 42 of the model management server 40 (the lending model 42M before relearning) is sent back to the model management server 40. ) may be stored separately or may be overwritten and saved. Thereby, the re-learned lending model 42M can be used as a model to be lent. Note that the lending model 42M may be configured to be able to select whether or not to perform relearning based on the history of interaction processing and behavior processing at the lending destination user terminal 10.

(実施形態3)
図20は、実施形態3の情報処理システムの構成例を示すブロック図である。本実施形態の情報処理システムは、貸出用の情報処理装置である貸出可能な端末(以下では貸出端末という)が予め用意されており、各ユーザのユーザモデル12Mを貸出端末にダウンロードすることにより、貸出端末において各ユーザのユーザモデル12Mに基づく対話及び行動を実現することができるシステムである。本実施形態の情報処理システムは、例えば観光地に分散配置された複数の貸出端末50と、貸出端末50を管理する端末管理サーバ70とを含み、貸出端末50及び端末管理サーバ70のそれぞれは、ネットワークNを介して相互に情報の送受信を行う。なお、図20では観光地A,Bにそれぞれ3つの貸出端末50が配置されている例を示しているが、各観光地に4つ以上の貸出端末50が配置されていてもよい。
(Embodiment 3)
FIG. 20 is a block diagram illustrating a configuration example of an information processing system according to the third embodiment. In the information processing system of this embodiment, a rentable terminal (hereinafter referred to as a rental terminal), which is an information processing device for rental, is prepared in advance, and by downloading the user model 12M of each user to the rental terminal, This is a system that can realize dialogue and behavior based on the user model 12M of each user at the rental terminal. The information processing system of this embodiment includes, for example, a plurality of rental terminals 50 distributed in tourist spots and a terminal management server 70 that manages the rental terminals 50. Each of the rental terminals 50 and the terminal management server 70 has the following functions: They mutually send and receive information via network N. Note that although FIG. 20 shows an example in which three rental terminals 50 are arranged at tourist spots A and B, four or more rental terminals 50 may be arranged at each tourist spot.

図21は、貸出端末50の構成例を示すブロック図である。貸出端末50は、実施形態1のユーザ端末10と同様の構成を有しており、制御部51、記憶部52、処理部53、通信部54、入力部55、表示部56、スピーカ57、マイク58、カメラ59、移動機構60、センサ部61等を含む。上述した各部51~61は、実施形態1のユーザ端末10の各部11~21と同様の構成を有するので、構成についての説明は省略する。なお、貸出端末50の記憶部52は、制御プログラム52Pのみを記憶している。また、貸出端末50は、実施形態1のユーザ端末10と同様に読み取り部を有する構成でもよい。本実施形態の貸出端末50は、図20中の観光地A,Bにおける左側の貸出端末50のように、実施形態1のユーザ端末10と同様の構成を有する端末であってもよい。また、図20中の観光地A,Bにおける中央の貸出端末50のように移動機構を備えない端末であってもよく、右側の貸出端末50のように移動機構として飛行機構を備える端末であってもよい。なお、各貸出端末50において、それぞれの外形に応じて適切な位置に表示部56、スピーカ57、マイク58、カメラ59が設けられている。 FIG. 21 is a block diagram showing a configuration example of the rental terminal 50. The rental terminal 50 has the same configuration as the user terminal 10 of Embodiment 1, and includes a control section 51, a storage section 52, a processing section 53, a communication section 54, an input section 55, a display section 56, a speaker 57, and a microphone. 58, a camera 59, a moving mechanism 60, a sensor section 61, and the like. Each of the units 51 to 61 described above has the same configuration as each of the units 11 to 21 of the user terminal 10 of the first embodiment, so a description of the configuration will be omitted. Note that the storage unit 52 of the rental terminal 50 stores only the control program 52P. Furthermore, the lending terminal 50 may have a reading section similar to the user terminal 10 of the first embodiment. The rental terminal 50 of this embodiment may be a terminal having the same configuration as the user terminal 10 of Embodiment 1, like the rental terminal 50 on the left side at sightseeing spots A and B in FIG. Furthermore, it may be a terminal that does not have a movement mechanism, such as the central rental terminal 50 at tourist spots A and B in FIG. 20, or it may be a terminal that has a flight mechanism as a movement mechanism, such as the rental terminal 50 on the right side. You can. In addition, in each rental terminal 50, a display section 56, a speaker 57, a microphone 58, and a camera 59 are provided at appropriate positions according to the respective external shapes.

図22は、端末管理サーバ70の構成例を示す模式図である。端末管理サーバ70は、パーソナルコンピュータ又はサーバコンピュータ等を用いて構成され、制御部71、記憶部72、通信部73、入力部74、表示部75、読み取り部76等を含む。上述した各部71~76は、実施形態2のモデル管理サーバ40の各部41~46と同様の構成を有するので、構成についての説明は省略する。なお、端末管理サーバ70の記憶部72は、制御プログラム72Pのほかに、後述する端末情報DB72a及び貸出状況DB72bを記憶している。 FIG. 22 is a schematic diagram showing a configuration example of the terminal management server 70. The terminal management server 70 is configured using a personal computer, a server computer, or the like, and includes a control section 71, a storage section 72, a communication section 73, an input section 74, a display section 75, a reading section 76, and the like. Each of the units 71 to 76 described above has the same configuration as each of the units 41 to 46 of the model management server 40 of the second embodiment, so a description of the configuration will be omitted. Note that the storage unit 72 of the terminal management server 70 stores a terminal information DB 72a and a lending status DB 72b, which will be described later, in addition to the control program 72P.

図23は、端末管理サーバ70に記憶されるDB72a~72bの構成例を示す模式図である。図23Aは端末情報DB72aを、図23Bは貸出状況DB72bをそれぞれ示す。端末情報DB72aは、貸出可能に観光地等に配置された貸出端末に関する情報を記憶する。図23に示す端末情報DB72aは、貸出端末ID列、設置場所列、リソース列、料金列等を含む。貸出端末ID列は、貸出端末50のそれぞれに割り当てられた識別情報を記憶する。設置場所列は、貸出端末IDに対応付けて、貸出端末50の設置場所に関する情報を記憶する。設置場所の情報は、例えば住所、地名、ランドマーク名、緯度及び経度等を用いることができる。リソース列は、貸出端末IDに対応付けて、貸出端末50が有する機能、ハードウェア資源等に関する情報を記憶する。例えば、貸出端末50が有するマイク58及びカメラ59の性能を示す情報、及び移動機構60によって移動できる距離、時間、移動方法等がリソース列に記憶される。具体的には、マイク58の集音方向(指向性)、カメラ59が全方位カメラであるか否か、カメラ59のレンズの種類、移動機構60が飛行可能であるか否か等の情報が記憶される。料金列は、貸出端末IDに対応付けて、貸出端末50を借りる際の料金(貸出料金)の情報を記憶する。料金の情報は例えば1時間単位等のような所定時間単位の料金、貸出端末50においてデプロイされるユーザモデル12Mに基づく処理の実行回数(処理回数)に応じた料金等を示す。なお、貸出端末50に対する貸出料金は、例えば貸出端末50が有する機能の品質に応じて設定されてもよい。 FIG. 23 is a schematic diagram showing a configuration example of DBs 72a to 72b stored in the terminal management server 70. FIG. 23A shows the terminal information DB 72a, and FIG. 23B shows the lending status DB 72b. The terminal information DB 72a stores information regarding rental terminals arranged at tourist spots and the like so that they can be rented. The terminal information DB 72a shown in FIG. 23 includes a rental terminal ID column, an installation location column, a resource column, a fee column, and the like. The lending terminal ID column stores identification information assigned to each of the lending terminals 50. The installation location column stores information regarding the installation location of the rental terminal 50 in association with the rental terminal ID. For example, an address, place name, landmark name, latitude and longitude, etc. can be used as the installation location information. The resource column stores information regarding the functions, hardware resources, etc. of the rental terminal 50 in association with the rental terminal ID. For example, information indicating the performance of the microphone 58 and camera 59 that the rental terminal 50 has, and the distance, time, movement method, etc. that can be moved by the movement mechanism 60 are stored in the resource column. Specifically, information such as the sound collection direction (directivity) of the microphone 58, whether the camera 59 is an omnidirectional camera, the type of lens of the camera 59, and whether the moving mechanism 60 is capable of flight is provided. be remembered. The fee column stores information on fees for renting the rental terminal 50 (rental fee) in association with the rental terminal ID. The fee information indicates, for example, a fee per predetermined time unit such as an hourly unit, a fee depending on the number of executions (number of times of processing) of processing based on the user model 12M deployed in the rental terminal 50, and the like. Note that the rental fee for the rental terminal 50 may be set depending on, for example, the quality of the functions that the rental terminal 50 has.

端末情報DB72aに記憶される貸出端末IDは、新たな貸出端末50の情報が記憶部72に記憶される際に、制御部71によって発行されて記憶される。端末情報DB72aに記憶される設置場所及びリソースの情報は、例えば新たな貸出端末50が登録される際、又は登録内容が変更される際に、制御部71が通信部73を介して取得して記憶される。端末情報DB72aに記憶される料金は、例えば貸出端末50の所有者によって設定され、制御部71が通信部73を介して取得して記憶又は変更される。端末情報DB72aの記憶内容は図23Aに示す例に限定されず、貸出端末50に関する各種の情報を記憶することができる。 The rental terminal ID stored in the terminal information DB 72a is issued and stored by the control unit 71 when information about a new rental terminal 50 is stored in the storage unit 72. The information on the installation location and resources stored in the terminal information DB 72a is acquired by the control unit 71 via the communication unit 73, for example, when a new rental terminal 50 is registered or when the registered contents are changed. be remembered. The fee stored in the terminal information DB 72a is set, for example, by the owner of the rental terminal 50, and is acquired by the control unit 71 via the communication unit 73 and stored or changed. The storage contents of the terminal information DB 72a are not limited to the example shown in FIG. 23A, and various information regarding the rental terminal 50 can be stored.

貸出状況DB72bは、端末情報DB72aに登録された貸出端末50の貸出状況を記憶する。図23Bに示す貸出状況DB72bは、貸出端末ID列、予約情報列、予約可能時間帯列等を含む。貸出端末ID列は、貸出端末50の識別情報を記憶する。予約情報列は、貸出端末IDに対応付けて、貸出端末50に対して予約された貸出状況(予約状況)を示す情報を記憶する。具体的には、予約情報列は予約時間帯列及び予約者情報列を含み、予約時間帯列は、貸出端末50の使用が予約された日時の情報を記憶し、予約者情報列は、貸出端末50の使用を予約したユーザ(予約者)の情報を記憶する。予約者の情報は例えば予約者の氏名等の情報、予約者のユーザ端末10を特定するための情報等を用いることができる。予約可能時間帯列は、貸出端末IDに対応付けて、貸出端末50に設定された貸出可能な時間帯を記憶する。 The rental status DB 72b stores the rental status of the rental terminal 50 registered in the terminal information DB 72a. The rental status DB 72b shown in FIG. 23B includes a rental terminal ID column, a reservation information column, a reservation available time slot column, and the like. The rental terminal ID column stores identification information of the rental terminal 50. The reservation information column stores information indicating the rental status (reservation status) reserved for the rental terminal 50 in association with the rental terminal ID. Specifically, the reservation information column includes a reservation time slot column and a reservation person information column, the reservation time column stores information on the date and time when the use of the rental terminal 50 is reserved, and the reservation person information column stores information on the date and time when the use of the rental terminal 50 is reserved. Information about a user (reservator) who has reserved the use of the terminal 50 is stored. As the reservation person information, for example, information such as the reservation person's name, information for specifying the reservation person's user terminal 10, etc. can be used. The reservation available time slot column stores the available rental time slots set in the rental terminal 50 in association with the rental terminal ID.

貸出状況DB72bに記憶される貸出端末IDは、例えば端末情報DB72aに新たな貸出端末50の情報が登録された場合に、端末情報DB72aに記憶された貸出端末IDが制御部71によって記憶される。貸出状況DB72bに記憶される予約情報は、制御部71がユーザ端末10から貸出端末50の貸出の予約又は予約の変更を受け付け、予約又は予約の変更が成立した場合に、制御部71によって記憶又は更新される。貸出状況DB72bに記憶される予約可能時間帯は、例えば貸出端末50の所有者(ユーザ)によって設定され、制御部71が通信部73を介して取得して記憶又は変更される。貸出状況DB72bの記憶内容は図23Bに示す例に限定されず、貸出端末50に対する予約状況に関する各種の情報を記憶することができる。 As the rental terminal ID stored in the rental status DB 72b, for example, when information about a new rental terminal 50 is registered in the terminal information DB 72a, the rental terminal ID stored in the terminal information DB 72a is stored by the control unit 71. The reservation information stored in the rental status DB 72b is stored or stored by the control unit 71 when the control unit 71 receives a reservation for renting the rental terminal 50 or a change in the reservation from the user terminal 10, and the reservation or change in reservation is established. Updated. The available reservation time slots stored in the rental status DB 72b are set, for example, by the owner (user) of the rental terminal 50, and are acquired by the control unit 71 via the communication unit 73 and stored or changed. The storage contents of the rental status DB 72b are not limited to the example shown in FIG. 23B, and various information regarding the reservation status of the rental terminal 50 can be stored.

以下に、ユーザ端末10のユーザが貸出端末50の貸出を予約し、予約した貸出端末50に自身のユーザモデル12Mをダウンロードし、自身のユーザモデル12Mに基づく対話及び行動を貸出端末50で実行する処理について説明する。図24は、貸出端末50の貸出に対する予約処理手順の一例を示すフローチャート、図25は、ユーザ端末10における画面例を示す模式図である。図24では左側にユーザ端末10が行う処理を、右側に端末管理サーバ70が行う処理をそれぞれ示す。 Below, the user of the user terminal 10 makes a reservation for lending the rental terminal 50, downloads his own user model 12M to the reserved rental terminal 50, and executes dialogue and actions based on his own user model 12M on the rental terminal 50. The process will be explained. FIG. 24 is a flowchart showing an example of a reservation processing procedure for lending the lending terminal 50, and FIG. 25 is a schematic diagram showing an example of a screen on the user terminal 10. In FIG. 24, the left side shows the processing performed by the user terminal 10, and the right side shows the processing performed by the terminal management server 70.

ユーザ端末10の制御部11は、ユーザモデル12Mに基づいて、ユーザ端末10の設置場所から離れた場所でユーザが行きたい場所があるか否かを判断する(S131)。ユーザモデル12Mに基づいてユーザが行きたい場所を特定することにより、ユーザが行きたい可能性の高い場所を特定できる。ユーザが行きたい場所がないと判断した場合(S131:NO)、制御部11は待機する。ユーザが行きたい場所があると判断した場合(S131:YES)、制御部11は、端末管理サーバ70に、貸出端末50のリストを要求する(S132)。なお、端末管理サーバ70の宛先情報は例えば記憶部12に記憶してある。 The control unit 11 of the user terminal 10 determines, based on the user model 12M, whether there is a place that the user wants to go to that is away from the installation location of the user terminal 10 (S131). By specifying a place that the user wants to go to based on the user model 12M, it is possible to specify a place that the user is likely to want to go to. If it is determined that there is no place that the user wants to go to (S131: NO), the control unit 11 waits. If it is determined that there is a place that the user wants to go to (S131: YES), the control unit 11 requests the terminal management server 70 for a list of rental terminals 50 (S132). Note that the destination information of the terminal management server 70 is stored in the storage unit 12, for example.

端末管理サーバ70の制御部71は、いずれかのユーザ端末10から貸出端末50のリストを要求された場合、端末情報DB72aの記憶内容に基づいて、貸出可能な貸出端末50のリストを生成してユーザ端末10へ送信する(S133)。ユーザ端末10の制御部11は、端末管理サーバ70から受信した貸出端末50のリストに基づいて、図25に示すようなリストを表示部16に表示する(S134)。図25に示すリストは、貸出端末50の設置場所毎(例えば観光地毎)に各貸出端末50の設置場所、端末リソース、貸出料金等を表示する。なお、各貸出端末50に端末名が付加されている場合には、リストに各貸出端末50の端末名を表示してもよい。また、貸出端末50のリストは、貸出端末50の貸出を予約したい予約時間帯を入力する入力欄を有する。制御部11は、ユーザモデル12Mに基づいて予約時間帯を決定し、入力欄に対して予約時間帯を入力する。例えば、制御部11は、「いつ行く?」のメッセージをユーザモデル12Mに入力し、ユーザモデル12Mからの出力情報に基づいて、予約時間帯を決定することができる。なお、制御部11は、入力欄に対する予約時間帯の入力を入力部15を介してユーザから受け付けてもよく、この場合、受け付けた予約時間帯を入力欄に入力する。また、リストにおいて各貸出端末50の情報は選択可能に表示されており、制御部11は、ユーザモデル12Mに基づいて特定した、ユーザが行きたい場所に対応する貸出端末50を選択する。なお、貸出端末50の選択も入力部15を介してユーザから受け付けてもよく、この場合、制御部11は、入力部15を介して受け付けた貸出端末50を選択する。ユーザ端末10の制御部11は、貸出端末50を選択し、予約時間帯を決定した場合、貸出端末50の貸出指示を行うか否かを判断する(S135)。なお、貸出端末50の選択及び予約時間帯の入力をユーザ端末10のユーザが行う場合、ユーザは、リストに表示された各貸出端末50の設置場所及びリソース等を確認し、入力部15を介して借りたい貸出端末50を選択して予約時間帯を入力して決定ボタンを操作する。この場合、制御部11は、入力部15を介して貸出端末50の貸出指示を受け付ける。制御部11は、貸出端末50の貸出指示を行わないと判断した場合(S135:NO)、即ち、貸出端末50の選択及び予約時間帯の決定が完了していない場合、貸出端末50のリストの表示を継続する(S134)。貸出端末50の貸出指示を行うと判断した場合(S135:YES)、制御部11は、選択した貸出端末50の貸出の予約を端末管理サーバ70に申し込む(S136)。なお、制御部11は、貸出端末50のリストを介して選択した貸出端末50の情報と、指定した予約時間帯の情報とを含み、貸出端末50の貸出を予約する予約申込信号を端末管理サーバ70へ送信する。 When a list of rental terminals 50 is requested from any user terminal 10, the control unit 71 of the terminal management server 70 generates a list of rental terminals 50 that can be rented based on the stored contents of the terminal information DB 72a. It is transmitted to the user terminal 10 (S133). The control unit 11 of the user terminal 10 displays a list as shown in FIG. 25 on the display unit 16 based on the list of rental terminals 50 received from the terminal management server 70 (S134). The list shown in FIG. 25 displays the installation location, terminal resources, rental fee, etc. of each rental terminal 50 for each installation location (for example, each tourist spot). Note that if a terminal name is added to each rental terminal 50, the terminal name of each rental terminal 50 may be displayed in the list. The list of rental terminals 50 also has an input field for inputting a reservation time slot in which the rental terminal 50 is to be reserved. The control unit 11 determines the reservation time slot based on the user model 12M, and inputs the reservation time slot into the input field. For example, the control unit 11 can input the message "When are you going?" to the user model 12M, and determine the reservation time slot based on the output information from the user model 12M. Note that the control unit 11 may receive an input of the reservation time slot into the input field from the user via the input unit 15, and in this case, inputs the received reservation time slot into the input field. Further, information on each rental terminal 50 is displayed in a selectable manner in the list, and the control unit 11 selects the rental terminal 50 corresponding to the place the user wants to go, which is specified based on the user model 12M. Note that the selection of the rental terminal 50 may also be accepted from the user via the input unit 15, and in this case, the control unit 11 selects the rental terminal 50 accepted via the input unit 15. When the control unit 11 of the user terminal 10 selects the rental terminal 50 and determines the reservation time slot, it determines whether to issue an instruction to rent the rental terminal 50 (S135). Note that when the user of the user terminal 10 selects the rental terminal 50 and inputs the reservation time slot, the user confirms the installation location and resources of each rental terminal 50 displayed in the list, and then selects the rental terminal 50 and inputs the reservation time slot. Select the rental terminal 50 you wish to rent, input the reservation time slot, and press the OK button. In this case, the control unit 11 receives an instruction to rent out the rental terminal 50 via the input unit 15 . If the control unit 11 determines not to instruct the rental terminal 50 (S135: NO), that is, if the selection of the rental terminal 50 and the determination of the reservation time slot have not been completed, the control unit 11 updates the list of the rental terminals 50. The display continues (S134). If it is determined that the lending terminal 50 is to be instructed (S135: YES), the control unit 11 requests the terminal management server 70 to reserve the selected lending terminal 50 (S136). Note that the control unit 11 sends a reservation application signal for reserving the rental of the rental terminal 50 to the terminal management server, including information on the rental terminal 50 selected through the list of rental terminals 50 and information on the specified reservation time slot. Send to 70.

端末管理サーバ70の制御部71は、いずれかのユーザ端末10からいずれかの貸出端末50に対する貸出予約の申込を受け付けた場合、予約申込された貸出端末50に対して、予約申込された予約時間帯での予約を行う(S137)。具体的には、制御部71は、予約申込された貸出端末50の貸出端末IDに対応付けて、予約申込された予約時間帯と、予約申込してきたユーザ(予約者)の情報(予約者情報)とを予約情報として貸出状況DB72bに記憶して予約処理を行う。なお、制御部71は、予約申込された予約時間帯での貸出が可能であるか否かを判断し、可能である場合に予約処理を行う。具体的には、制御部71は、予約申込された予約時間帯が、予約申込された貸出端末50の予約可能時間帯内であるか否かを判断し、更に、予約申込された予約時間帯に他のユーザの予約があるか否かを判断する。そして制御部71は、予約時間帯が予約可能時間帯内であり、予約時間帯に他のユーザの予約がない場合に、予約時間帯での予約が可能であると判断する。なお、予約時間帯での貸出が可能でないと判断した場合、即ち、予約時間帯が予約可能時間帯内でない場合、又は予約時間帯に対して既に他のユーザの予約がある場合、制御部71は、予約時間帯での予約(貸出)ができない旨をユーザ端末10に通知してもよい。この場合、予約できない旨を通知されたユーザは、予約時間帯を変更して再度予約申込を行うことができる。制御部71は、予約が完了した後、予約した貸出端末50の情報及び予約時間帯を含む予約情報をユーザ端末10に送信し(S138)、予約が完了したことをユーザ端末10に通知する。なお、制御部71は、予約処理の際に、予約した貸出端末50を貸し出す際に貸出端末50がユーザ端末10を認証するためのパスワード等の認証情報を生成しており、認証情報も予約情報に含めてユーザ端末10へ送信する。更に制御部71は、予約者情報、予約時間帯及び認証情報を含む予約情報を貸出端末50に送信しておく。 When the control unit 71 of the terminal management server 70 receives an application for a rental reservation for any rental terminal 50 from any user terminal 10, the control unit 71 transmits the reservation time for the rental terminal 50 for which the reservation was applied. A band reservation is made (S137). Specifically, the control unit 71 associates the rental terminal ID of the rental terminal 50 for which the reservation was applied, with the reservation time slot for which the reservation was applied and information on the user (reserver) who applied for the reservation (reserver information). ) as reservation information in the rental status DB 72b and performs reservation processing. Note that the control unit 71 determines whether lending is possible during the reserved time slot for which the reservation was applied, and if it is possible, performs the reservation process. Specifically, the control unit 71 determines whether the reserved time slot for which the reservation was applied is within the reservable time slot of the rental terminal 50 for which the reservation was applied, and further determines whether the reserved time slot for which the reservation was applied is within the reservable time slot Determine whether there is a reservation by another user. Then, the control unit 71 determines that the reservation in the reservation time slot is possible if the reservation time slot is within the reservation possible time slot and there is no other user's reservation in the reservation time slot. Note that if it is determined that lending during the reserved time slot is not possible, that is, if the reserved time slot is not within the available reservation time slot, or if another user has already made a reservation for the reserved time slot, the control unit 71 may notify the user terminal 10 that the reservation (rental) cannot be made during the reserved time slot. In this case, the user who has been notified that the reservation cannot be made can change the reservation time slot and apply for the reservation again. After the reservation is completed, the control unit 71 transmits reservation information including information on the reserved rental terminal 50 and the reservation time period to the user terminal 10 (S138), and notifies the user terminal 10 that the reservation is completed. Note that during the reservation process, the control unit 71 generates authentication information such as a password for the rental terminal 50 to authenticate the user terminal 10 when renting out the reserved rental terminal 50, and the authentication information also includes the reservation information. and transmits it to the user terminal 10. Furthermore, the control unit 71 transmits reservation information including reservation person information, reservation time slot, and authentication information to the rental terminal 50.

ユーザ端末10の制御部11は、端末管理サーバ70から、予約した貸出端末50の情報、予約時間帯及び認証情報を含む予約情報を受信し、受信した予約情報を記憶部12に記憶し(S139)、予約処理を終了する。上述した処理により、ユーザ端末10のユーザは、端末管理サーバ70を介して貸出可能な貸出端末50に対する貸出予約を行うことができる。 The control unit 11 of the user terminal 10 receives reservation information including information on the reserved rental terminal 50, reservation time slot, and authentication information from the terminal management server 70, and stores the received reservation information in the storage unit 12 (S139). ), the reservation process ends. Through the above-described process, the user of the user terminal 10 can make a rental reservation for the rental terminal 50 that can be rented out via the terminal management server 70.

図26及び図27は、貸出端末50の貸出処理手順の一例を示すフローチャートである。図26及び図27では左側にユーザ端末10が行う処理を、右側に貸出端末50が行う処理をそれぞれ示す。ユーザ端末10の制御部11は、貸出端末50の貸出を予約した予約時間が到来したか否かを判断し(S151)、到来していないと判断する場合(S151:NO)、待機する。予約時間が到来したと判断した場合(S151:YES)、制御部11は、端末管理サーバ70から受信した予約情報に基づいて、予約した貸出端末50に貸出を申し込む(S152)。制御部11は、予約情報に含まれる貸出端末50の情報(例えば宛先情報)に基づいて、予約情報に含まれる認証情報を含む貸出申込情報を貸出端末50に送信する。貸出端末50の制御部51は、ユーザ端末10から貸出申込情報を受信した場合、貸出申込情報に含まれる認証情報に基づいてユーザ端末10を認証する。具体的には、制御部51は、貸出申込情報に含まれる認証情報が、端末管理サーバ70から受信した予約情報に含まれる認証情報に一致するか否かを判断し、一致する場合、貸出申込情報を送信してきたユーザ端末10は正当な端末であると認証し、一致しない場合は認証しない。 26 and 27 are flowcharts illustrating an example of the lending processing procedure of the lending terminal 50. In FIGS. 26 and 27, the left side shows the process performed by the user terminal 10, and the right side shows the process performed by the lending terminal 50. The control unit 11 of the user terminal 10 determines whether the reserved time for renting the rental terminal 50 has arrived (S151), and if it is determined that the reserved time has not arrived (S151: NO), it waits. If it is determined that the reserved time has arrived (S151: YES), the control unit 11 applies for rental to the reserved rental terminal 50 based on the reservation information received from the terminal management server 70 (S152). The control unit 11 transmits rental application information including authentication information included in the reservation information to the rental terminal 50 based on information (for example, destination information) of the rental terminal 50 included in the reservation information. When the control unit 51 of the lending terminal 50 receives the lending application information from the user terminal 10, it authenticates the user terminal 10 based on the authentication information included in the lending application information. Specifically, the control unit 51 determines whether the authentication information included in the rental application information matches the authentication information included in the reservation information received from the terminal management server 70, and if they match, the rental application is The user terminal 10 that sent the information is authenticated as a valid terminal, and if the information does not match, the authentication is not performed.

制御部51は、貸出申込情報を送信してきたユーザ端末10を認証できたか否かを判断しており(S153)、認証できなかった場合(S153:NO)、貸出端末50を貸出できないことをユーザ端末10へ送信する(S154)。ユーザ端末10の制御部11は、貸出申込した貸出端末50から貸出できないことを受信した場合(S155)、処理を終了する。貸出端末50の制御部51は、ユーザ端末10を認証できたと判断した場合(S153:YES)、貸出端末50を貸出できることをユーザ端末10へ送信する(S156)。ユーザ端末10の制御部11は、貸出申込した貸出端末50から貸出できることを受信した場合、自身のユーザモデル12Mを記憶部12から読み出して貸出端末50へ送信する(S157)。なお、制御部11は、端末管理サーバ70から受信した予約情報に含まれる貸出端末50の情報に基づいて、ユーザモデル12Mを貸出端末50へ送信する。 The control unit 51 determines whether or not the user terminal 10 that sent the rental application information has been authenticated (S153), and if it has not been authenticated (S153: NO), the control unit 51 informs the user that the rental terminal 50 cannot be rented. It is transmitted to the terminal 10 (S154). When the control unit 11 of the user terminal 10 receives a notification from the rental terminal 50 that has applied for rental that the rental is not possible (S155), the control unit 11 ends the process. When the control unit 51 of the rental terminal 50 determines that the user terminal 10 has been authenticated (S153: YES), it transmits to the user terminal 10 that the rental terminal 50 can be rented (S156). When the control unit 11 of the user terminal 10 receives from the rental terminal 50 that has applied for rental that it can be rented, it reads its own user model 12M from the storage unit 12 and transmits it to the rental terminal 50 (S157). Note that the control unit 11 transmits the user model 12M to the rental terminal 50 based on the information on the rental terminal 50 included in the reservation information received from the terminal management server 70.

貸出端末50の制御部51は、ユーザ端末10からユーザモデル12Mを受信した場合、ユーザモデル12Mを記憶部52に記憶し、ユーザモデル12Mに基づく処理を行えるようにデプロイする。そして制御部51は、ユーザモデル12Mに基づく処理を開始する(S158)。これにより、貸出端末50の制御部51は、図7に示す行動処理と同様の処理を行い(S159~S165)、貸出端末50がユーザモデル12Mに基づく処理を行うことにより、ユーザモデル12M(ユーザのアバター)は、貸出端末50を用いて各種の行動を行うことができる。 When the control unit 51 of the lending terminal 50 receives the user model 12M from the user terminal 10, it stores the user model 12M in the storage unit 52 and deploys it so that processing based on the user model 12M can be performed. The control unit 51 then starts processing based on the user model 12M (S158). As a result, the control unit 51 of the lending terminal 50 performs processing similar to the behavior processing shown in FIG. 7 (S159 to S165), and the lending terminal 50 performs processing based on the user model 12M. avatar) can perform various actions using the rental terminal 50.

具体的には、貸出端末50の制御部51は、ユーザ端末10から受信したユーザモデル12Mに基づいて、貸出端末50の設置場所の近傍で、ユーザ端末10のユーザが行きたい場所があるか否かを判断し、行きたい場所があるか否に応じて移動するか否かを判断する(S159)。なお、ここでの移動は、地表上での移動だけでなく飛行による移動も含まれる。貸出端末50の制御部51(行動処理部53b)は、移動すると判断した場合(S159:YES)、移動機構60を用いて行きたい場所まで移動し(S160)、移動しないと判断した場合(S159:NO)、ステップS160の処理をスキップする。次に制御部51は、ユーザモデル12Mに基づいて、ユーザが撮影又は録音したいか否かを判断し、撮影又は録音したいか否かに応じて撮影及び/又は録音するか否かを判断する(S161)。撮影及び/又は録音すると判断した場合(S161:YES)、制御部51は、カメラ59及びマイク58を用いて貸出端末50の周囲の撮影及び録音を行う(S162)。なお、貸出端末50の行動処理部53bは、ユーザモデル12Mに基づいてユーザが撮影したい可能性の高い被写体を特定し、特定した被写体の撮影及び録音を行う。撮影及び録音しないと判断した場合(S161:NO)、制御部51はステップS162の処理をスキップする。 Specifically, the control unit 51 of the rental terminal 50 determines whether there is a place that the user of the user terminal 10 wants to go to near the installation location of the rental terminal 50, based on the user model 12M received from the user terminal 10. The user then determines whether or not to move depending on whether there is a place he or she wants to go to (S159). Note that movement here includes not only movement on the ground but also movement by flight. If the control unit 51 (behavior processing unit 53b) of the rental terminal 50 determines to move (S159: YES), it moves to the desired location using the movement mechanism 60 (S160), and if it determines not to move (S159). :NO), the process of step S160 is skipped. Next, the control unit 51 determines whether the user wants to take a picture or record based on the user model 12M, and determines whether to take a picture and/or record depending on whether the user wants to take a picture or record ( S161). If it is determined that photographing and/or recording is to be performed (S161: YES), the control unit 51 performs photographing and recording of the surroundings of the rental terminal 50 using the camera 59 and the microphone 58 (S162). Note that the behavior processing unit 53b of the rental terminal 50 identifies a subject that the user is likely to want to photograph based on the user model 12M, and performs photographing and recording of the identified subject. If it is determined that photographing and recording are not to be performed (S161: NO), the control unit 51 skips the process of step S162.

次に制御部51は、ユーザモデル12Mに基づいて、ユーザが音声又は映像を出力したいか否かを判断し、音声又は映像を出力したいか否かに応じて音声及び/又は映像を出力するか否かを判断する(S163)。制御部51は、音声及び/又は映像を出力すると判断した場合(S163:YES)、スピーカ57又は表示部56を用いて音声及び/又は映像を出力し(S164)、音声及び映像を出力しないと判断した場合(S163:NO)、ステップS164の処理をスキップする。制御部51は、ユーザモデル12Mに基づく行動を終了するか否かを判断する(S165)。なお、制御部51は、ユーザモデル12Mに基づいてユーザが行動(疑似的な外出)を終了したい可能性が高いと判断される場合、行動を終了すると判断してもよい。また制御部51は、端末管理サーバ70から受信した予約情報に含まれる予約時間が満了した場合に行動を終了すると判断してもよい。更に、貸出端末50が、予約時間を満了した場合に所定のスタンバイ位置に戻って動作を終了するように構成されていてもよい。この場合、予約時間が満了すれば貸出端末50の使用ができなくなる。なお、例えば端末管理サーバ70の制御部71は、貸出端末50の予約を行った場合、又はユーザ端末10のユーザモデル12Mが貸出端末50にデプロイされた場合に、貸出端末50の貸出料金(使用料金)の課金処理を行ってもよい。例えば、端末管理サーバ70の制御部71は、貸出端末50に設定されていた貸出料金の支払いを要求する要求情報をユーザ端末10へ送信し、ユーザ端末10の制御部11は、要求情報に従って貸出料金の支払処理を行ってもよい。 Next, the control unit 51 determines whether the user wants to output audio or video based on the user model 12M, and outputs audio and/or video depending on whether the user wants to output audio or video. It is determined whether or not (S163). When the control unit 51 determines that audio and/or video should be output (S163: YES), it outputs the audio and/or video using the speaker 57 or the display unit 56 (S164), and determines that the audio and/or video should not be output. If it is determined (S163: NO), the process of step S164 is skipped. The control unit 51 determines whether to end the behavior based on the user model 12M (S165). Note that the control unit 51 may determine to end the action when it is determined based on the user model 12M that there is a high possibility that the user wants to end the action (pseudo going out). Further, the control unit 51 may determine that the action is to be ended when the reservation time included in the reservation information received from the terminal management server 70 has expired. Furthermore, the rental terminal 50 may be configured to return to a predetermined standby position and end its operation when the reserved time has expired. In this case, once the reserved time has expired, the rental terminal 50 cannot be used. Note that, for example, when the rental terminal 50 is reserved, or when the user model 12M of the user terminal 10 is deployed to the rental terminal 50, the control unit 71 of the terminal management server 70 charges the rental fee (usage) of the rental terminal 50. Charge processing may also be performed. For example, the control unit 71 of the terminal management server 70 transmits request information requesting payment of the rental fee set in the rental terminal 50 to the user terminal 10, and the control unit 11 of the user terminal 10 sends the rental fee according to the request information. Fee payment processing may also be performed.

行動を終了しないと判断した場合(S165:NO)、制御部51は、ステップS159の処理に戻り、ステップS159~S164の処理を繰り返す。これにより、貸出端末50は、ユーザモデル12Mに基づいてユーザ端末10のユーザが行う可能性の高い行動を行うことができる。即ち、貸出端末50は、デプロイされるユーザモデル12Mに基づく処理を実行するので、ユーザモデル12M毎に異なる行動を行い、ユーザモデル12Mのユーザの趣味、好み、行動傾向等に応じた行動を実現することができる。行動を終了すると判断した場合(S165:YES)、貸出端末50の制御部51は、貸出端末50がユーザモデル12Mに基づいて行った行動の履歴情報をユーザ端末10へ送信する(S166)。なお、貸出端末50は、移動機構60による移動、スピーカ57及び表示部56による音声及び映像の出力等の行動を行っている場合にもカメラ59及びマイク58を用いて貸出端末50の周囲の映像及び音声を取得(撮影)しており、このような映像及び音声のデータを行動情報としてユーザ端末10へ送信する。 If it is determined that the action is not to be completed (S165: NO), the control unit 51 returns to the process of step S159 and repeats the processes of steps S159 to S164. Thereby, the lending terminal 50 can perform actions that are highly likely to be performed by the user of the user terminal 10 based on the user model 12M. That is, since the rental terminal 50 executes processing based on the deployed user model 12M, it performs different actions for each user model 12M, and realizes actions according to the hobbies, preferences, behavioral tendencies, etc. of the user of the user model 12M. can do. When it is determined that the action is to be ended (S165: YES), the control unit 51 of the lending terminal 50 transmits history information of the action performed by the lending terminal 50 based on the user model 12M to the user terminal 10 (S166). Note that the rental terminal 50 uses the camera 59 and the microphone 58 to display images of the surroundings of the rental terminal 50 even when the rental terminal 50 is performing actions such as moving using the moving mechanism 60 and outputting audio and video using the speaker 57 and the display unit 56. and audio are acquired (photographed), and such video and audio data is transmitted to the user terminal 10 as behavior information.

ユーザ端末10の制御部11は、貸出端末50から送信された行動の履歴情報(行動情報、処理結果)を受信し、受信した履歴情報を行動履歴DB12cに記憶し(S167)、処理を終了する。これにより、貸出端末50においてユーザモデル12Mに基づいて行われた行動の履歴情報(処理結果)がユーザ端末10の行動履歴DB12cに記憶される。 The control unit 11 of the user terminal 10 receives the behavior history information (behavior information, processing result) transmitted from the rental terminal 50, stores the received history information in the behavior history DB 12c (S167), and ends the process. . As a result, history information (processing results) of actions performed on the lending terminal 50 based on the user model 12M is stored in the action history DB 12c of the user terminal 10.

上述した処理により、ユーザ端末10からユーザモデル12Mが送信された貸出端末50において、ユーザモデル12Mに基づく行動処理が行われることにより、ユーザが行う可能性の高い行動を貸出端末50において実行することができる。これにより、ユーザが実際に外出する代わりに、ユーザのアバターが疑似的に外出し、外出先で撮影した映像及び音声が履歴情報として行動履歴DB12cに蓄積される。この履歴情報(処理結果)をユーザが後日確認することにより、アバターが貸出端末50において行った行動を辿ることができ、ユーザはアバターの体験を自身の体験のように感じることができ、様々な行動を疑似的に体験できる。 Through the above-described process, the behavior processing based on the user model 12M is performed at the rental terminal 50 to which the user model 12M has been transmitted from the user terminal 10, so that the behavior that the user is likely to perform is executed at the rental terminal 50. I can do it. As a result, instead of the user actually going out, the user's avatar goes out in a pseudo manner, and the video and audio captured while out are stored in the action history DB 12c as history information. By checking this history information (processing results) at a later date, the user can trace the actions taken by the avatar on the rental terminal 50, allowing the user to feel the avatar's experience as if it were his or her own experience, and various You can experience the action in a simulated way.

本実施形態においても、実施形態1と同様の効果が得られる。また本実施形態では、観光地等に配置された貸出端末50の貸出が可能であり、各ユーザのユーザモデル12Mが貸出端末50にダウンロードされ、貸出端末50でユーザモデル12Mに基づく処理(対話及び行動)が行われることにより、各ユーザが行う可能性の高い行動を貸出端末50で実現することができる。これにより、ユーザ自身が観光地等に出向くことなく、ユーザモデル12Mに基づいて貸出端末50が取得した映像及び音声等を得ることができ、ユーザは擬似的に観光地に行くことができる。また、各ユーザのユーザモデル12Mをダウンロードする貸出端末50は、ユーザモデル12Mに基づいて決定されるので、ユーザ自身は何も行うことなく、自身が行きたい場所の情報(撮影された映像及び音声等)を収集することができる。なお、ユーザモデル12Mがダウンロードされた貸出端末50は、ユーザモデル12Mに基づく行動処理だけでなく対話処理を実行してもよい。この場合、貸出端末50は、観光地等において、ユーザモデル12Mのユーザが行う可能性の高い対話を現地で実現でき、貸出端末50においてユーザのアバターが現地の人との対話を行うことにより、ユーザは擬似的に現地の人と対話することができる。 In this embodiment as well, the same effects as in Embodiment 1 can be obtained. Further, in this embodiment, it is possible to rent out the rental terminal 50 placed at a tourist spot, etc., and the user model 12M of each user is downloaded to the rental terminal 50, and the rental terminal 50 performs processing (dialogue and By performing the action), the lending terminal 50 can realize an action that each user is likely to perform. Thereby, the user can obtain the video, audio, etc. acquired by the rental terminal 50 based on the user model 12M without going to the tourist spot etc., and the user can go to the tourist spot in a pseudo manner. In addition, since the rental terminal 50 from which each user's user model 12M is downloaded is determined based on the user model 12M, the user does not need to do anything to download information about the place he/she wants to go (video and audio). etc.) can be collected. Note that the lending terminal 50 to which the user model 12M has been downloaded may perform not only behavioral processing but also interaction processing based on the user model 12M. In this case, the rental terminal 50 can realize the dialogue that the user of the user model 12M is likely to have at the tourist spot, etc., and the user's avatar can have a dialogue with the local person at the rental terminal 50. Users can interact with local people in a simulated manner.

本実施形態では、例えば絶景を見ることができる場所に貸出端末50を設置(固定)しておいた場合、各ユーザが自身のユーザモデル12Mを貸出端末50にダウンロード(デプロイ)することにより、貸出端末50を介して絶景を撮影することができる。よって、各ユーザは、ユーザモデル12Mに基づく処理を行う貸出端末50を介して、擬似的に外出及び旅行することができる。 In this embodiment, for example, if the rental terminal 50 is installed (fixed) in a place where you can see a spectacular view, each user can download (deploy) his or her own user model 12M to the rental terminal 50, A spectacular view can be photographed via the terminal 50. Therefore, each user can go out and travel in a pseudo manner via the rental terminal 50 that performs processing based on the user model 12M.

本実施形態では、所定範囲内に存在するユーザ端末10及び貸出端末50(即ち、近い位置にある端末10,50)間において、それぞれの端末10,50に異なるユーザモデル12Mがデプロイされることにより、ユーザモデル12Mのユーザの代わりにアバター間で対話を行うことができる。よって、例えば複数人で会議を行う際に欠席者がいる場合、欠席者の代わりに欠席者のユーザモデル12Mを会議室内の端末(貸出端末50又はユーザ端末10)にダウンロードすることにより、欠席者の代わりに欠席者のアバターが会議に参加できる。例えば5人で会議を行う際に2人の欠席者がいる場合、2人の欠席者のユーザモデル12M(例えば第1ユーザモデル12M及び第2ユーザモデル12M)を、会議室内に設置された端末(第1情報処理装置及び第2情報処理装置)にダウンロード(デプロイ)する。そして、第1情報処理装置が第1ユーザモデル12Mに基づく処理を行い、第2情報処理装置が第2ユーザモデル12Mに基づく処理を行うことにより、欠席者の代わりに欠席者のアバターが会議に参加し、3人の参加者(ユーザ)と、2人の欠席者のアバターとの間で対話を行うことができる。よって、会議の出席者全員の時間調整が難しい場合であっても、欠席者のアバターが会議に出席することにより、会議を円滑に進めることが可能となる。また、このように行われた会議の履歴情報(撮影画像及び集音した音声データ)は、欠席者のユーザ端末10へ送信されるので、欠席者は履歴情報を確認することにより会議内容を把握でき、擬似的に会議に参加できる。 In this embodiment, between the user terminal 10 and the rental terminal 50 (i.e., the terminals 10, 50 located in close positions) that exist within a predetermined range, different user models 12M are deployed to the respective terminals 10, 50. , the avatars can interact on behalf of the user of the user model 12M. Therefore, for example, when a meeting is held with multiple people and there is an absentee, the absentee's user model 12M can be downloaded to the terminal (rental terminal 50 or user terminal 10) in the conference room in place of the absentee. The avatar of the absent person can join the meeting instead. For example, if there are two absentees in a conference with five people, the user models 12M of the two absentees (for example, the first user model 12M and the second user model 12M) are connected to terminals installed in the conference room. (the first information processing device and the second information processing device). Then, the first information processing device performs processing based on the first user model 12M, and the second information processing device performs processing based on the second user model 12M, so that the avatar of the absentee attends the meeting in place of the absentee. Participants can interact with the three participants (users) and the two absentee avatars. Therefore, even if it is difficult to coordinate the time of all the participants in the meeting, the meeting can proceed smoothly by having the avatars of the absent persons attend the meeting. In addition, historical information (captured images and collected audio data) of meetings held in this way is sent to the user terminals 10 of absentees, so absentees can understand the content of the conference by checking the historical information. You can participate in a virtual meeting.

上述した各実施形態では、各ユーザの固有情報がユーザモデル12Mに蓄積されるので、ユーザモデル12Mに基づいてユーザが行う可能性の高い対話及び行動を再現できる。よって、例えばユーザ本人が病気等で対話できなくなった場合であっても、ユーザモデル12Mに基づく処理によって、ユーザ本人が何を言いたいのか、何をしたいのか等を予測できる。 In each of the embodiments described above, since the unique information of each user is stored in the user model 12M, it is possible to reproduce interactions and actions that are likely to be performed by the user based on the user model 12M. Therefore, even if the user himself/herself is unable to interact due to illness or the like, for example, what the user himself/herself wants to say or do can be predicted by processing based on the user model 12M.

上述した各実施形態では、ユーザ端末10、ユーザモデル12Mがデプロイされた第2ユーザ端末10及び貸出端末50は、ユーザモデル12Mに基づく処理を行うので、ユーザモデル12Mのユーザが行う可能性の高い対話及び行動を実現する。この構成に加えて、ユーザモデル12Mのユーザが行う可能性の低い対話及び行動を特定し、所定の確率でこのような対話及び行動を実行し、履歴情報をユーザに提供してもよい。また、ユーザ端末10又は貸出端末50が、自端末の設置場所で流行っているもの又は流行っていることを特定し、流行っているもの又は流行っていることをユーザモデル12Mに基づいて実行し、履歴情報をユーザに提供してもよい。このような構成とした場合、ユーザが普段しないような対話相手との対話及び行動を擬似的に体験することができ、ユーザの新たな発見が期待できる。 In each of the embodiments described above, the user terminal 10, the second user terminal 10 to which the user model 12M has been deployed, and the lending terminal 50 perform processing based on the user model 12M, so it is highly likely that the user of the user model 12M will perform the processing. Enabling dialogue and action. In addition to this configuration, interactions and actions that are unlikely to be performed by the user of the user model 12M may be identified, such interactions and actions may be performed with a predetermined probability, and historical information may be provided to the user. In addition, the user terminal 10 or the rental terminal 50 identifies what is popular or popular at the installation location of its own terminal, executes what is popular or what is trending based on the user model 12M, and Information may be provided to the user. With such a configuration, the user can experience a simulated conversation and behavior with a conversation partner that he or she would not normally do, and new discoveries can be expected from the user.

上述した各実施形態において、ユーザ端末10及び貸出端末50は、例えば表示部16,56の配置位置(配置高さ)を変更できるように構成されていてもよい。図28は、ユーザ端末10及び貸出端末50の構成の変形例を示す模式図である。図28Aに示す例は、図1に示したユーザ端末10の変形例を示しており、図28Aの左側に示すように、ユーザ端末10は、胴体部10dに対する頭部10cの上下方向の位置を調整できる高さ調整機構10eを有してもよい。また、図28Aの右側に示すように、ユーザ端末10は、頭部10c及び胴体部10dの上下方向の位置を調整できる高さ調整機構10eを有してもよい。更に、図28Bに示すように、ユーザ端末10及び貸出端末50は、床面又は地面に接する移動機構20,60に対する表示部16,56の上下方向の位置を調整できるように構成されていてもよい。このような構成のユーザ端末10及び貸出端末50では、自身のユーザモデル12M又はデプロイされたユーザモデル12Mに基づく処理を行う際に、ユーザの身体的特徴(特に身長)に応じて、表示部16,56の上下方向の位置を変更することができる。これにより、ユーザモデル12Mのユーザの身長に合わせた高さに表示部16,56を配置することができ、表示部16,56に表示されるアバターを、よりユーザに近い存在として対話することができる。なお、各ユーザの身体的特徴に関する情報も各ユーザのユーザモデル12Mが学習している。 In each of the embodiments described above, the user terminal 10 and the rental terminal 50 may be configured such that, for example, the arrangement positions (arrangement heights) of the display sections 16 and 56 can be changed. FIG. 28 is a schematic diagram showing a modified example of the configuration of the user terminal 10 and the rental terminal 50. The example shown in FIG. 28A shows a modification of the user terminal 10 shown in FIG. 1, and as shown on the left side of FIG. It may have an adjustable height adjustment mechanism 10e. Further, as shown on the right side of FIG. 28A, the user terminal 10 may include a height adjustment mechanism 10e that can adjust the vertical positions of the head 10c and the body 10d. Furthermore, as shown in FIG. 28B, the user terminal 10 and the rental terminal 50 may be configured to be able to adjust the vertical position of the display units 16, 56 with respect to the moving mechanisms 20, 60 that are in contact with the floor or the ground. good. In the user terminal 10 and rental terminal 50 having such configurations, when performing processing based on the own user model 12M or the deployed user model 12M, the display unit 16 is , 56 can be changed in the vertical direction. As a result, the display units 16 and 56 can be placed at a height that matches the height of the user of the user model 12M, and the avatars displayed on the display units 16 and 56 can be interacted with as being closer to the user. can. Note that the user model 12M of each user also learns information regarding the physical characteristics of each user.

また、表示部16,56の配置高さを変更できる構成のほかに、例えば図1に示した第2ユーザのユーザ端末10における胴体部10dの横幅を変更できるように構成されていてもよい。例えば、胴体部10dを複数の横幅に切り替えられるような構造に構成し、ユーザモデル12Mのユーザの体格に合わせた横幅に切り替えることにより、表示部16,56に表示されるアバターに対応するユーザをよりイメージできるユーザ端末10を実現できる。また、例えば女性タイプ、男性タイプ、落語家タイプ、やせ型、ぽっちゃり型等のタイプに応じた胴体部10dの横幅を予め設定しておき、ユーザモデル12Mのユーザのタイプに合わせた横幅に切り替えるように構成されていてもよい。また、ユーザ端末10の外面の色を変更できるように構成されていてもよい。例えば、ユーザ端末10の外面又は胴体部10dの外面に液晶ディスプレイを設けることにより、ユーザモデル12Mのユーザの好み又はイメージに合わせた色合いの外面にすることができる。この場合にも、表示されるアバターに対応するユーザをよりイメージできるユーザ端末10を実現できる。 Furthermore, in addition to the configuration in which the heights of the display units 16 and 56 can be changed, the width of the body part 10d in the second user's user terminal 10 shown in FIG. 1 may be changed, for example. For example, by configuring the torso portion 10d to have a structure that allows switching between a plurality of widths, and switching the width to match the physique of the user of the user model 12M, the user corresponding to the avatar displayed on the display units 16, 56 can be A user terminal 10 that can be imagined more easily can be realized. Further, the width of the torso portion 10d can be set in advance according to the type of user, such as a female type, a male type, a rakugo performer type, a thin type, a chubby type, etc., and the width can be changed to match the user type of the user model 12M. It may be configured as follows. Furthermore, the user terminal 10 may be configured to be able to change the color of its outer surface. For example, by providing a liquid crystal display on the outer surface of the user terminal 10 or the outer surface of the body portion 10d, the outer surface can be colored in a color that matches the user's preference or image of the user model 12M. In this case as well, it is possible to realize the user terminal 10 that allows the user to better imagine the user corresponding to the displayed avatar.

上述した各実施形態において、あるユーザモデル12M(貸出モデル42Mを含む)があるユーザ端末10(貸出端末50を含む)にデプロイされた場合に、ユーザ端末10の表示部16に、デプロイされたユーザモデル12Mのユーザに関する情報(例えばユーザの氏名、ニックネーム等)を表示するように構成されていてもよい。例えば第1ユーザのユーザモデル12Mが第2ユーザのユーザ端末10にデプロイされている場合に、第2ユーザのユーザ端末10の表示部16に第1ユーザの情報が表示されてもよい。このような構成とすることにより、ユーザ端末10を介してアバターと対話しているユーザが、ユーザ端末10の表示部16に表示されているアバターが誰のアバターであるかを容易に把握できる。よって、アバターと対話するユーザは、アバターに対してより親近感を抱くことが期待できる。また、例えば複数の欠席者がいる会議において、各欠席者の代わりに出席したアバターが誰のアバターであるかを容易に把握できるので、会議を円滑に行うことができる。 In each of the embodiments described above, when a certain user model 12M (including the lending model 42M) is deployed to a certain user terminal 10 (including the lending terminal 50), the deployed user is displayed on the display unit 16 of the user terminal 10. It may be configured to display information regarding the user of the model 12M (for example, the user's name, nickname, etc.). For example, when the first user's user model 12M is deployed on the second user's user terminal 10, the first user's information may be displayed on the display unit 16 of the second user's user terminal 10. With such a configuration, a user who is interacting with an avatar via the user terminal 10 can easily understand whose avatar is displayed on the display unit 16 of the user terminal 10. Therefore, the user who interacts with the avatar can be expected to feel closer to the avatar. Further, for example, in a meeting where there are a plurality of absentees, it is possible to easily know whose avatar is the one who attended in place of each absentee, so that the meeting can be held smoothly.

上述した各実施形態では、各ユーザの固有情報はユーザモデル12Mに蓄積される構成であるが、例えばテーブル又はDBに蓄積される構成としてもよい。この場合、例えばユーザ端末10の制御部11は、対話処理部13aがユーザと対話した内容からユーザ固有の情報を抽出し、テーブル又はDBに記憶する。このような構成においても、上述した各実施形態と同様の処理が可能であり、同様の効果が得られる。 In each of the embodiments described above, the unique information of each user is stored in the user model 12M, but it may also be stored in a table or DB, for example. In this case, for example, the control unit 11 of the user terminal 10 extracts user-specific information from the content of the interaction with the user by the interaction processing unit 13a, and stores it in a table or DB. Even in such a configuration, the same processing as in each of the embodiments described above is possible, and the same effects can be obtained.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed herein are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the claims rather than the above-mentioned meaning, and is intended to include meanings equivalent to the claims and all changes within the scope.

10 ユーザ端末(コンピュータ)
11 制御部
12 記憶部
13 処理部
15 入力部
16 表示部
17 スピーカ
18 マイク
19 カメラ
20 移動機構
40 モデル管理サーバ
50 貸出端末
70 端末管理サーバ
12M ユーザモデル
42M 貸出モデル
13a,53a 対話処理部
13b,53b 行動処理部
10 User terminal (computer)
11 Control unit 12 Storage unit 13 Processing unit 15 Input unit 16 Display unit 17 Speaker 18 Microphone 19 Camera 20 Movement mechanism 40 Model management server 50 Rental terminal 70 Terminal management server 12M User model 42M Rental model 13a, 53a Dialogue processing unit 13b, 53b behavior processing unit

Claims (12)

第1ユーザの対話履歴情報に基づいて学習された第1の学習モデルを記憶部に記憶し、
前記第1の学習モデルのデプロイが可能な情報処理装置に対する指定を受け付け、
指定された前記情報処理装置に対して前記第1の学習モデルをデプロイし、
前記第1の学習モデルをデプロイされた前記情報処理装置は、デプロイされた前記第1の学習モデルに基づいて動作し、
前記第1ユーザとは異なる第2ユーザの対話履歴情報に基づいて学習された第2の学習モデルが前記情報処理装置に対してデプロイされた場合、前記情報処理装置による前記第1の学習モデルに基づく動作が禁止される
報処理方法。
storing a first learning model learned based on interaction history information of the first user in a storage unit;
accepting a designation for an information processing device capable of deploying the first learning model;
deploying the first learning model to the specified information processing device;
The information processing device to which the first learning model is deployed operates based on the deployed first learning model,
When a second learning model learned based on interaction history information of a second user different from the first user is deployed to the information processing device, the first learning model by the information processing device Actions based on this are prohibited.
Information processing method.
前記情報処理装置にデプロイされた前記第2の学習モデルをアンデプロイした場合、前記情報処理装置は前記第1の学習モデルに基づく動作を再開する
請求項に記載の情報処理方法。
The information processing method according to claim 1 , wherein when the second learning model deployed to the information processing device is undeployed, the information processing device resumes operation based on the first learning model.
前記第1ユーザの情報処理装置に対して、前記第1ユーザとは異なる第2ユーザの対話履歴情報に基づいて学習された第2の学習モデルをデプロイする
請求項1又は2に記載の情報処理方法。
The information processing according to claim 1 or 2 , wherein a second learning model learned based on interaction history information of a second user different from the first user is deployed to the information processing device of the first user. Method.
前記第1ユーザとは異なる複数のユーザのそれぞれの対話履歴情報に基づいて学習された複数の貸出用の学習モデルのいずれかに対する選択を受け付け、
受け付けた前記貸出用の学習モデルを前記第1ユーザの情報処理装置にデプロイする
請求項1からまでのいずれかひとつに記載の情報処理方法。
accepting a selection for one of a plurality of learning models for lending learned based on interaction history information of each of a plurality of users different from the first user;
The information processing method according to any one of claims 1 to 3 , wherein the received learning model for lending is deployed to the first user's information processing device.
第1ユーザの対話履歴情報に基づいて学習された第1の学習モデルを記憶部に記憶し、
前記第1の学習モデルのデプロイが可能な情報処理装置に対する指定を受け付け、
指定された前記情報処理装置に対して前記第1の学習モデルをデプロイし、
前記第1の学習モデルをデプロイされた前記情報処理装置は、デプロイされた前記第1の学習モデルに基づいて動作し、
前記学習モデルは、対話履歴情報及び感情と、前記対話履歴情報及び感情に応じた対話情報及び行動情報とを含む教師データを用いて、前記対話履歴情報及び感情が入力された場合に、前記対話履歴情報及び感情に応じた対話情報及び行動情報を出力するように学習されており、
前記第1ユーザの情報処理装置を通じて前記第1ユーザからの対話情報を受け付けさせ、
撮像部から取得された前記第1ユーザの画像に基づいて前記第1ユーザの感情を前記第1ユーザの情報処理装置を通じて分析させ、
前記第1ユーザとは異なるユーザの学習モデルに、受け付けた前記第1ユーザからの対話情報及び分析された前記第1ユーザの感情を入力することで、前記異なるユーザの学習モデルから出力される対話情報又は行動情報を前記第1ユーザの情報処理装置を通じて出力させる
報処理方法。
storing a first learning model learned based on interaction history information of the first user in a storage unit;
accepting a designation for an information processing device capable of deploying the first learning model;
deploying the first learning model to the specified information processing device;
The information processing device to which the first learning model is deployed operates based on the deployed first learning model,
The learning model uses teacher data including dialogue history information and emotions, and dialogue information and behavior information corresponding to the dialogue history information and emotions, and when the dialogue history information and emotions are input, the learning model It has been trained to output dialogue information and behavior information according to history information and emotions,
receiving interaction information from the first user through the first user's information processing device;
analyzing the emotions of the first user through the first user's information processing device based on the image of the first user acquired from the imaging unit;
By inputting the received dialogue information from the first user and the analyzed emotions of the first user into a learning model of a user different from the first user, a dialogue output from the learning model of the different user. outputting information or behavior information through the first user's information processing device;
Information processing method.
第1ユーザの対話履歴情報に基づいて学習された第1の学習モデルを記憶部に記憶し、
前記第1の学習モデルのデプロイが可能な情報処理装置に対する指定を受け付け、
指定された前記情報処理装置に対して前記第1の学習モデルをデプロイし、
前記第1の学習モデルをデプロイされた前記情報処理装置は、デプロイされた前記第1の学習モデルに基づいて動作し、
前記第1ユーザとは異なる複数のユーザのそれぞれの対話履歴情報に基づいて学習された複数の貸出用の学習モデルのいずれかに対する選択を受け付け、
受け付けた前記貸出用の学習モデルを前記第1ユーザの情報処理装置にデプロイし、
前記貸出用の学習モデルを前記情報処理装置にデプロイする時間、又は、デプロイされた前記貸出用の学習モデルに基づく処理を前記情報処理装置が実行する回数に応じて、前記貸出用の学習モデルの貸出料金を課金する
報処理方法。
storing a first learning model learned based on interaction history information of the first user in a storage unit;
accepting a designation for an information processing device capable of deploying the first learning model;
deploying the first learning model to the specified information processing device;
The information processing device to which the first learning model is deployed operates based on the deployed first learning model,
accepting a selection for one of a plurality of learning models for lending learned based on interaction history information of each of a plurality of users different from the first user;
deploying the received learning model for lending to the first user's information processing device;
The learning model for lending is adjusted according to the time for deploying the learning model for lending to the information processing device, or the number of times the information processing device executes processing based on the deployed learning model for lending. Charge rental fee
Information processing method.
第1ユーザの対話履歴情報に基づいて学習された第1の学習モデルを記憶部に記憶し、
前記第1の学習モデルのデプロイが可能な情報処理装置に対する指定を受け付け、
指定された前記情報処理装置に対して前記第1の学習モデルをデプロイし、
前記第1の学習モデルをデプロイされた前記情報処理装置は、デプロイされた前記第1
の学習モデルに基づいて動作し、
前記第1ユーザとは異なる複数のユーザのそれぞれの対話履歴情報に基づいて学習された複数の貸出用の学習モデルのいずれかに対する選択を受け付け、
受け付けた前記貸出用の学習モデルを前記第1ユーザの情報処理装置にデプロイし、
前記貸出用の学習モデルのそれぞれに対して、同時にデプロイ可能な装置数が設定してあり、
前記貸出用の学習モデルのそれぞれに設定された同時にデプロイ可能な装置数に応じた貸出料金を課金する
報処理方法。
storing a first learning model learned based on interaction history information of the first user in a storage unit;
accepting a designation for an information processing device capable of deploying the first learning model;
deploying the first learning model to the specified information processing device;
The information processing device to which the first learning model is deployed is configured to
It operates based on the learning model of
accepting a selection for one of a plurality of learning models for lending learned based on interaction history information of each of a plurality of users different from the first user;
deploying the received learning model for lending to the first user's information processing device;
For each of the learning models for lending, the number of devices that can be simultaneously deployed is set,
A rental fee is charged according to the number of devices that can be simultaneously deployed, which is set for each of the learning models for rental.
Information processing method.
第1ユーザの対話履歴情報に基づいて学習された第1の学習モデルを記憶部に記憶し、
前記第1の学習モデルのデプロイが可能な情報処理装置に対する指定を受け付け、
指定された前記情報処理装置に対して前記第1の学習モデルをデプロイし、
前記第1の学習モデルをデプロイされた前記情報処理装置は、デプロイされた前記第1の学習モデルに基づいて動作し、
前記第1の学習モデルをデプロイされた前記情報処理装置が、前記第1の学習モデルに基づいて、分散配置された複数の貸出用の情報処理装置のいずれかを選択し、
選択した前記貸出用の情報処理装置に対して前記第1の学習モデルをデプロイし、
前記貸出用の情報処理装置に、前記第1の学習モデルに基づいて実行した処理結果を、前記第1ユーザの情報処理装置へ出力させる
報処理方法。
storing a first learning model learned based on interaction history information of the first user in a storage unit;
accepting a designation for an information processing device capable of deploying the first learning model;
deploying the first learning model to the specified information processing device;
The information processing device to which the first learning model is deployed operates based on the deployed first learning model,
The information processing device to which the first learning model is deployed selects one of a plurality of distributed information processing devices for lending based on the first learning model,
deploying the first learning model to the selected rental information processing device;
causing the lending information processing device to output processing results executed based on the first learning model to the first user's information processing device;
Information processing method.
第1ユーザの対話履歴情報に基づいて学習された第1の学習モデルを記憶部に記憶し、
前記第1の学習モデルのデプロイが可能な情報処理装置に対する指定を受け付け、
指定された前記情報処理装置に対して前記第1の学習モデルをデプロイし、
前記第1の学習モデルをデプロイされた前記情報処理装置は、デプロイされた前記第1の学習モデルに基づいて動作し、
前記情報処理装置は、表示部と、前記表示部の配置高さを変更する高さ調整機構とを備え、
前記情報処理装置にデプロイした学習モデルに対応するユーザの身体的特徴に基づいて、前記情報処理装置を通じて前記高さ調整機構により前記表示部の配置高さを変更させる
報処理方法。
storing a first learning model learned based on interaction history information of the first user in a storage unit;
accepting a designation for an information processing device capable of deploying the first learning model;
deploying the first learning model to the specified information processing device;
The information processing device to which the first learning model is deployed operates based on the deployed first learning model,
The information processing device includes a display section and a height adjustment mechanism that changes the arrangement height of the display section,
Changing the height adjustment mechanism of the display unit through the information processing device based on the physical characteristics of the user corresponding to the learning model deployed to the information processing device.
Information processing method.
数のユーザのそれぞれの対話履歴情報に基づいて学習された複数の学習モデルのいずれかに対する選択を受け付け、
選択された前記学習モデルを受信し、
受信した前記学習モデルを記憶部に記憶し、
記憶した前記学習モデルに基づいて動作し、
前記学習モデルに対して設定してある同時に貸出可能な装置数に応じた貸出料金を課金する
処理をコンピュータに実行させるプログラム。
Accepts selection of one of a plurality of learning models learned based on interaction history information of each of a plurality of users,
receiving the selected learning model;
storing the received learning model in a storage unit;
operates based on the stored learning model ;
A program that causes a computer to execute a process of charging a rental fee according to the number of devices that can be rented out at the same time, which is set for the learning model .
請求項1に記載のプログラムの実行が可能な情報処理装置。 An information processing device capable of executing the program according to claim 10 . 複数のユーザのそれぞれの対話履歴情報に基づいて学習された複数の学習モデルを記憶する記憶部と、
情報処理装置から前記複数の学習モデルのいずれかを要求された場合に、要求された前記学習モデルを前記情報処理装置にデプロイするデプロイ部と
を備え
前記複数の学習モデルのそれぞれに対して、同時にデプロイ可能な装置数が設定してあり、
前記情報処理装置にデプロイした前記学習モデルに設定された同時にデプロイ可能な装置数に応じた貸出料金を課金する課金部
を更に備える情報処理装置。
a storage unit that stores a plurality of learning models learned based on interaction history information of each of the plurality of users;
a deployment unit that deploys the requested learning model to the information processing device when one of the plurality of learning models is requested from the information processing device ;
The number of devices that can be simultaneously deployed is set for each of the plurality of learning models,
a charging unit that charges a rental fee according to the number of devices that can be simultaneously deployed, which is set in the learning model deployed to the information processing device;
An information processing device further comprising :
JP2019162215A 2019-09-05 2019-09-05 Information processing method, program and information processing device Active JP7360855B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019162215A JP7360855B2 (en) 2019-09-05 2019-09-05 Information processing method, program and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019162215A JP7360855B2 (en) 2019-09-05 2019-09-05 Information processing method, program and information processing device

Publications (2)

Publication Number Publication Date
JP2021039677A JP2021039677A (en) 2021-03-11
JP7360855B2 true JP7360855B2 (en) 2023-10-13

Family

ID=74848765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019162215A Active JP7360855B2 (en) 2019-09-05 2019-09-05 Information processing method, program and information processing device

Country Status (1)

Country Link
JP (1) JP7360855B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024069975A1 (en) * 2022-09-30 2024-04-04 日本電信電話株式会社 Learning device, estimation device, learning method, estimation method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222688A (en) 1999-02-01 2000-08-11 Equos Research Co Ltd Agent device
JP2003323389A (en) 2002-05-02 2003-11-14 Tsubasa System Co Ltd Communication agent system
JP2017058406A (en) 2015-09-14 2017-03-23 Shannon Lab株式会社 Computer system and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222688A (en) 1999-02-01 2000-08-11 Equos Research Co Ltd Agent device
JP2003323389A (en) 2002-05-02 2003-11-14 Tsubasa System Co Ltd Communication agent system
JP2017058406A (en) 2015-09-14 2017-03-23 Shannon Lab株式会社 Computer system and program

Also Published As

Publication number Publication date
JP2021039677A (en) 2021-03-11

Similar Documents

Publication Publication Date Title
JP6984004B2 (en) Continuous selection of scenarios based on identification tags that describe the user's contextual environment for the user's artificial intelligence model to run through an autonomous personal companion.
US20240054118A1 (en) Artificial intelligence platform with improved conversational ability and personality development
US10021454B2 (en) Method and apparatus for providing personalized content
JP7254772B2 (en) Methods and devices for robot interaction
JP6086601B2 (en) Immersive storytelling environment
US10391636B2 (en) Apparatus and methods for providing a persistent companion device
US10354256B1 (en) Avatar based customer service interface with human support agent
JP2019521449A (en) Persistent Companion Device Configuration and Deployment Platform
WO2016011159A1 (en) Apparatus and methods for providing a persistent companion device
KR102592310B1 (en) System and method for providing virtual reality service based on artificial intelligence
US20190248019A1 (en) System and method for dynamic robot profile configurations based on user interactions
US11331807B2 (en) System and method for dynamic program configuration
JP2022542708A (en) Systems and methods for recommending users based on shared digital experiences
JP7360855B2 (en) Information processing method, program and information processing device
Lombard et al. Telepresence and sexuality: a review and a call to scholars
JP6715524B2 (en) Information processing apparatus, method, and program for generating composite image for user
JP7418975B2 (en) information processing equipment
JP2005064837A (en) Relay system by robot, relay program by robot and method therefore
Rome Narrative virtual reality filmmaking: A communication conundrum
JP2022018875A (en) Computer program, information processing method, and information processing device
JP6758351B2 (en) Image management system and image management method
KR101912554B1 (en) Fairy tale creation and sharing system
JP7290977B2 (en) Program and information processing device
JP7307576B2 (en) Program and information processing device
CN112262024B (en) System and method for dynamic robot configuration for enhanced digital experience

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R150 Certificate of patent or registration of utility model

Ref document number: 7360855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150