JP2022176415A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2022176415A
JP2022176415A JP2019202887A JP2019202887A JP2022176415A JP 2022176415 A JP2022176415 A JP 2022176415A JP 2019202887 A JP2019202887 A JP 2019202887A JP 2019202887 A JP2019202887 A JP 2019202887A JP 2022176415 A JP2022176415 A JP 2022176415A
Authority
JP
Japan
Prior art keywords
user
message
information processing
client device
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019202887A
Other languages
Japanese (ja)
Inventor
貴司 丸山
Takashi Maruyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP2019202887A priority Critical patent/JP2022176415A/en
Priority to PCT/JP2020/040558 priority patent/WO2021090750A1/en
Publication of JP2022176415A publication Critical patent/JP2022176415A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Abstract

To facilitate a conversation among a plurality of users.SOLUTION: In an information processing system 1, a host device 30 which acquires a first face image and a first voice of a first user, acquires a second face image and a second voice of a second user, generates a first prediction face image of the first user U1 on the basis of the first face image and generates a second prediction face image of the second user U2 on the basis of the second face image, comprises: means which presents the first prediction face image to the second user via a second client device; means which presents the second prediction face image to the first user via a first client device; means which generates a message that urges at least one of the first user and the second user to utter; means which presents the message to at least one of the first user and the second user; means which presents the second voice according to the message to the first user via the first client device; and means which presents the first voice according to the message to the second user via the second client device.SELECTED DRAWING: Figure 5

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and program.

近年、ユーザ間の会話を促進する技術に注目が集まっている。
例えば、特許文献1は、事実情報(嗜好情報、類似度、及び、アクション履歴)に基づいて会話を促進させる技術を開示している。
In recent years, attention has been focused on techniques for promoting conversations between users.
For example, Patent Literature 1 discloses a technique for promoting conversation based on factual information (preference information, similarity, and action history).

再表2012-017786号公報Re-table 2012-017786

実際の会話は、会話の各参加者の会話中の反応(例えば、会話相手の表情及び会話相手が発した言葉の意味)の組合せに応じて、インタラクティブに展開される。 The actual conversation develops interactively according to the combination of reactions during the conversation of each participant in the conversation (for example, the expression of the conversation partner and the meaning of the words uttered by the conversation partner).

しかし、特許文献1の技術では、会話の前の時点で確定している事実情報のみを参照するので、会話中の反応の組合せに応じた会話の展開に影響を与えるものではない。したがって、複数のユーザの会話の促進には寄与しない。 However, the technique of Patent Document 1 refers only to factual information that has been established before the conversation, so it does not affect the development of the conversation according to the combination of reactions during the conversation. Therefore, it does not contribute to promotion of conversation among multiple users.

本発明の目的は、複数のユーザの会話を促進することである。 It is an object of the present invention to facilitate multi-user conversations.

本発明の一態様は、
複数のユーザの会話を支援する情報処理装置であって、
第1ユーザの第1顔画像を取得する手段を備え、
前記第1ユーザの第1音声を取得する手段を備え、
第2ユーザの第2顔画像を取得する手段を備え、
前記第2ユーザの第2音声を取得する手段を備え、
前記第1顔画像に基づいて、前記第1ユーザの年齢から加齢又は減齢した第1指定年齢における前記第1ユーザの第1予測顔画像を生成する手段を備え、
前記第2顔画像に基づいて、前記第2ユーザの年齢から加齢又は減齢した第2指定年齢における前記第2ユーザの第2予測顔画像を生成する手段を備え、
前記第1予測顔画像を、第2クライアント装置を介して前記第2ユーザに提示する手段を備え、
前記第2予測顔画像を、第1クライアント装置を介して前記第1ユーザに提示する手段を備え、
前記第1ユーザ及び前記第2ユーザの少なくとも1人に対して発話を促すメッセージを生成する手段を備え、
前記第1ユーザ及び前記第2ユーザの少なくとも1人に対して前記メッセージを提示する手段を備え、
前記メッセージに応じた第2音声を、前記第1クライアント装置を介して前記第1ユーザに提示する手段を備え、
前記メッセージに応じた第1音声を、前記第2クライアント装置を介して前記第2ユーザに提示する手段を備える、
情報処理装置である。
One aspect of the present invention is
An information processing device that supports conversation of a plurality of users,
comprising means for acquiring a first face image of the first user;
comprising means for acquiring a first voice of the first user;
comprising means for acquiring a second face image of the second user;
comprising means for acquiring a second voice of the second user;
means for generating a first predicted face image of the first user at a first designated age that is older or younger than the age of the first user, based on the first face image;
means for generating a second predicted face image of the second user at a second specified age that is older or younger than the age of the second user, based on the second face image;
means for presenting the first predicted face image to the second user via a second client device;
means for presenting the second predicted face image to the first user via the first client device;
means for generating a message prompting at least one of the first user and the second user to speak;
means for presenting the message to at least one of the first user and the second user;
means for presenting a second voice corresponding to the message to the first user via the first client device;
means for presenting a first voice corresponding to the message to the second user via the second client device;
It is an information processing device.

本発明によれば、複数のユーザの会話を促進することができる。 ADVANTAGE OF THE INVENTION According to this invention, a conversation of several users can be promoted.

本実施形態の情報処理システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing system according to an embodiment; FIG. 図1の第1クライアント装置の機能ブロック図である。2 is a functional block diagram of the first client device of FIG. 1; FIG. 図2の第2クライアント装置の機能ブロック図である。3 is a functional block diagram of a second client device of FIG. 2; FIG. 図1のホスト装置の機能ブロック図である。2 is a functional block diagram of the host device of FIG. 1; FIG. 図1の情報処理システムの形態の一例を示す図である。2 is a diagram showing an example of the form of the information processing system of FIG. 1; FIG. 本実施形態の概要の説明図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory diagram of the outline of this embodiment; 本実施形態の情報処理のシーケンス図である。4 is a sequence diagram of information processing according to the embodiment; FIG. 図7の情報処理において表示される画面例を示す図である。8 is a diagram showing an example of a screen displayed in the information processing of FIG. 7; FIG. 図7の情報処理において表示される画面例を示す図である。8 is a diagram showing an example of a screen displayed in the information processing of FIG. 7; FIG. 図7の情報処理において表示される画面例を示す図である。8 is a diagram showing an example of a screen displayed in the information processing of FIG. 7; FIG. 図7の情報処理において表示される画面例を示す図である。8 is a diagram showing an example of a screen displayed in the information processing of FIG. 7; FIG. 図7の情報処理において表示される画面例を示す図である。8 is a diagram showing an example of a screen displayed in the information processing of FIG. 7; FIG.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 An embodiment of the present invention will be described in detail below with reference to the drawings. In the drawings for describing the embodiments, in principle, the same constituent elements are denoted by the same reference numerals, and repeated description thereof will be omitted.

(1)情報処理システムの構成
情報処理システムの構成を説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a block diagram showing the configuration of the information processing system of this embodiment.

図1に示すように、情報処理システム1は、第1クライアント装置10と、第2クライアント装置20と、ホスト装置30とを備える。
ホスト装置30は、第1クライアント装置10及び第2クライアント装置20に通信可能に接続される。
As shown in FIG. 1 , the information processing system 1 includes a first client device 10 , a second client device 20 and a host device 30 .
The host device 30 is communicably connected to the first client device 10 and the second client device 20 .

第1クライアント装置10は、ホスト装置30にリクエストを送信するコンピュータ(「情報処理装置」の一例)である。第1クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The first client device 10 is a computer (an example of an “information processing device”) that transmits a request to the host device 30 . The first client device 10 is, for example, a smart phone, a tablet terminal, or a personal computer.

ホスト装置30は、第1クライアント装置10から送信されたリクエストに応じたレスポンスを第1クライアント装置10に提供するコンピュータ(「情報処理装置」の一例)である。ホスト装置30は、例えば、ウェブホスト装置である。 The host device 30 is a computer (an example of an “information processing device”) that provides the first client device 10 with a response in response to a request sent from the first client device 10 . The host device 30 is, for example, a web host device.

(1-1)第1クライアント装置の構成
第1クライアント装置10の構成を説明する。図2は、図1の第1クライアント装置の機能ブロック図である。
(1-1) Configuration of First Client Device The configuration of the first client device 10 will be described. FIG. 2 is a functional block diagram of the first client device of FIG.

図2に示すように、第1クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、ディスプレイ16と、マイクロフォン17と、スピーカ18と、を備える。 As shown in FIG. 2, the first client device 10 includes a storage device 11, a processor 12, an input/output interface 13, a communication interface 14, a camera 15, a display 16, a microphone 17, a speaker 18, Prepare.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 Storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of ROM (Read Only Memory), RAM (Random Access Memory), and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
Programs include, for example, the following programs.
・OS (Operating System) program ・Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、第1クライアント装置10の機能を実現するように構成される。プロセッサ12は、例えば、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又は、これらの組み合わせである。 The processor 12 is configured to implement the functions of the first client device 10 by running programs stored in the storage device 11 . The processor 12 is, for example, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof.

入出力インタフェース13は、第1クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、第1クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、ハードキー、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。また、入力デバイスは、カメラ15及びディスプレイ16を含む。
出力デバイスは、ディスプレイ16及びスピーカ18を含む。
The input/output interface 13 is configured to acquire user instructions from an input device connected to the first client device 10 and to output information to an output device connected to the first client device 10 .
Input devices are, for example, hard keys, keyboards, pointing devices, touch panels, or combinations thereof. Input devices also include camera 15 and display 16 .
Output devices include display 16 and speakers 18 .

通信インタフェース14は、第1クライアント装置10とホスト装置30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the first client device 10 and the host device 30 .

カメラ15は、画像を取得するように構成される。 Camera 15 is configured to acquire images.

ディスプレイ16は、プロセッサ12によって生成された画像を表示するように構成される。 Display 16 is configured to display images generated by processor 12 .

マイクロフォン17は、音声を取得するように構成される。 Microphone 17 is configured to pick up sound.

スピーカ18は、プロセッサ12によって生成された音声を出力するように構成される。 Speaker 18 is configured to output audio generated by processor 12 .

(1-2)第2クライアント装置の構成
第2クライアント装置20の構成を説明する。図3は、図2の第2クライアント装置の機能ブロック図である。
(1-2) Configuration of Second Client Device The configuration of the second client device 20 will be described. 3 is a functional block diagram of the second client device of FIG. 2. FIG.

図3に示すように、第2クライアント装置20は、記憶装置21と、プロセッサ22と、入出力インタフェース23と、通信インタフェース24と、カメラ25と、ディスプレイ26と、マイクロフォン27と、スピーカ28と、を備える。 As shown in FIG. 3, the second client device 20 includes a storage device 21, a processor 22, an input/output interface 23, a communication interface 24, a camera 25, a display 26, a microphone 27, a speaker 28, Prepare.

記憶装置21は、プログラム及びデータを記憶するように構成される。記憶装置21は、例えば、ROM、RAM、及び、ストレージの組合せである。 Storage device 21 is configured to store programs and data. The storage device 21 is, for example, a combination of ROM, RAM and storage.

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
Programs include, for example, the following programs.
- OS program - Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)

プロセッサ22は、記憶装置21に記憶されたプログラムを起動することによって、第2クライアント装置20の機能を実現するように構成される。プロセッサ22は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。 The processor 22 is configured to implement the functions of the second client device 20 by running programs stored in the storage device 21 . Processor 22 is, for example, a CPU, ASIC, FPGA, or a combination thereof.

入出力インタフェース23は、第2クライアント装置20に接続される入力デバイスからユーザの指示を取得し、かつ、第2クライアント装置20に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、ハードキー、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。また、入力デバイスは、カメラ25及びマイクロフォン27を含む。
出力デバイスは、ディスプレイ26及びスピーカ28を含む。
The input/output interface 23 is configured to acquire user instructions from an input device connected to the second client device 20 and to output information to an output device connected to the second client device 20 .
Input devices are, for example, hard keys, keyboards, pointing devices, touch panels, or combinations thereof. Input devices also include a camera 25 and a microphone 27 .
Output devices include display 26 and speakers 28 .

通信インタフェース24は、第2クライアント装置20とホスト装置30との間の通信を制御するように構成される。 Communication interface 24 is configured to control communication between second client device 20 and host device 30 .

カメラ25は、画像を取得するように構成される。 Camera 25 is configured to acquire images.

ディスプレイ26は、プロセッサ22によって生成された画像を表示するように構成される。 Display 26 is configured to display images generated by processor 22 .

マイクロフォン27は、音声を取得するように構成される。 A microphone 27 is configured to pick up sound.

スピーカ28は、プロセッサ22によって生成された音声を出力するように構成される。 Speaker 28 is configured to output audio generated by processor 22 .

(1-3)ホスト装置の構成
ホスト装置30の構成を説明する。図4は、図1のホスト装置の機能ブロック図である。
(1-3) Configuration of Host Device The configuration of the host device 30 will be described. FIG. 4 is a functional block diagram of the host device of FIG. 1;

図4に示すように、ホスト装置30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 4, the host device 30 includes a storage device 31, a processor 32, an input/output interface 33, and a communication interface .

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 Storage device 31 is configured to store programs and data. Storage device 31 is, for example, a combination of ROM, RAM, and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
Programs include, for example, the following programs.
・OS program ・Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Databases referenced in information processing ・Execution results of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、ホスト装置30の機能を実現するように構成される。プロセッサ32は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。 The processor 32 is configured to implement the functions of the host device 30 by activating programs stored in the storage device 31 . Processor 32 is, for example, a CPU, ASIC, FPGA, or a combination thereof.

入出力インタフェース33は、ホスト装置30に接続される入力デバイスからユーザの指示を取得し、かつ、ホスト装置30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。また、出力デバイスは、プリンタを含む。
The input/output interface 33 is configured to acquire user instructions from an input device connected to the host device 30 and to output information to an output device connected to the host device 30 .
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display. Output devices also include printers.

通信インタフェース34は、ホスト装置30と、第1クライアント装置10及び第2クライアント装置20との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the host device 30 and the first client device 10 and the second client device 20 .

(1-4)情報処理システムの形態
本実施形態の情報処理システム1の形態の一例を説明する。図5は、図1の情報処理システムの形態の一例を示す図である。
(1-4) Form of Information Processing System An example of the form of the information processing system 1 of the present embodiment will be described. FIG. 5 is a diagram showing an example of the form of the information processing system of FIG.

図5に示すように、情報処理システム1は、第1空間SP1~第3空間SP3を含む。第3空間SPは、第1空間SP1と第2空間SP2との間に配置される。 As shown in FIG. 5, the information processing system 1 includes a first space SP1 to a third space SP3. The third space SP is arranged between the first space SP1 and the second space SP2.

第1空間SP1は、第1ユーザU1が入室する空間である。第1ユーザU1は、入口ENT1から第1空間SP1に入室可能である。第1空間SP1には、カメラ15と、ディスプレイ16と、マイクロフォン17と、スピーカ18と、が配置される。第1空間SP1と第3空間SPとの境界には、遮蔽部(例えば、壁)W1が配置される。ディスプレイ16は、X-方向を向くように、遮蔽部W1上に配置される。第1ユーザU1は、X+方向に視線を向けることにより、ディスプレイ16に表示された画像を視認することができる。 The first space SP1 is a space into which the first user U1 enters. The first user U1 can enter the first space SP1 through the entrance ENT1. A camera 15, a display 16, a microphone 17, and a speaker 18 are arranged in the first space SP1. A shielding portion (for example, a wall) W1 is arranged at the boundary between the first space SP1 and the third space SP. A display 16 is placed on the shield W1 so as to face the X-direction. The first user U1 can visually recognize the image displayed on the display 16 by directing the line of sight in the X+ direction.

第2空間SP2は、第2ユーザU2が入室する空間である。第2ユーザU2は、入口ENT2から第2空間SP2に入室可能である。第2空間SP2には、カメラ25と、ディスプレイ26と、マイクロフォン27と、スピーカ28と、が配置される。第2空間SP2と第3空間SPとの境界には、遮蔽部W2が配置される。ディスプレイ26は、X+方向を向くように、遮蔽部W2上に配置される。第2ユーザU2は、X-方向に視線を向けることにより、ディスプレイ26に表示された画像を視認することができる。 The second space SP2 is a space into which the second user U2 enters. The second user U2 can enter the second space SP2 through the entrance ENT2. A camera 25, a display 26, a microphone 27, and a speaker 28 are arranged in the second space SP2. A shield W2 is arranged at the boundary between the second space SP2 and the third space SP. The display 26 is arranged on the shield W2 so as to face the X+ direction. The second user U2 can visually recognize the image displayed on the display 26 by directing the line of sight in the X-direction.

つまり、遮蔽部W1は、第1空間SP1と第2空間SP2とを視覚的に隔離するように構成される。したがって、第1ユーザU1及び第2ユーザU2は、互いに、相手の声及び表情を直接認知できない。 That is, the shield W1 is configured to visually isolate the first space SP1 and the second space SP2. Therefore, the first user U1 and the second user U2 cannot directly recognize each other's voice and expression.

第3空間SPには、ホスト装置30が配置される。 A host device 30 is arranged in the third space SP.

(2)実施形態の概要
本実施形態の概要について説明する。図6は、本実施形態の概要の説明図である。
(2) Outline of Embodiment An outline of the present embodiment will be described. FIG. 6 is an explanatory diagram of the outline of this embodiment.

図1のホスト装置30は、複数のユーザの会話を支援する情報処理装置である。 The host device 30 in FIG. 1 is an information processing device that supports conversations of a plurality of users.

図6に示すように、ホスト装置30は、以下の手段を備える。
・第1ユーザの第1顔画像(複数の静止画又は動画像)を取得する手段
・第1ユーザの第1音声を取得する手段
・第2ユーザの第2顔画像(複数の静止画又は動画像)を取得する手段
・第2ユーザの第2音声を取得する手段
・第1顔画像に基づいて、第1ユーザの年齢から加齢又は減齢した第1指定年齢における第1ユーザの第1予測顔画像を生成する手段
・第2顔画像に基づいて、第2ユーザの年齢から加齢又は減齢した第2指定年齢における第2ユーザの第2予測顔画像を生成する手段
・第1予測顔画像を、第2クライアント装置20を介して第2ユーザに提示する手段
・第2予測顔画像を、第1クライアント装置10を介して第1ユーザに提示する手段
・第1ユーザ及び第2ユーザの少なくとも1人に対して発話を促すメッセージを生成する手段
・第1ユーザ及び前記第2ユーザの少なくとも1人に対してメッセージを提示する手段
・メッセージに応じた第2音声を、第1クライアント装置10を介して第1ユーザに提示する手段、
・メッセージに応じた第1音声を、第2クライアント装置20を介して第2ユーザに提示する手段
As shown in FIG. 6, the host device 30 has the following means.
-Means for acquiring the first facial image (a plurality of still images or moving images) of the first user -Means for acquiring the first voice of the first user -Second facial image of the second user (a plurality of still images or moving images) Means for acquiring the second voice of the second user Based on the first face image, the first voice of the first user at the first designated age that has aged or decreased from the age of the first user Means for generating a predicted face image Means for generating a second predicted face image of the second user at a second designated age that is older or younger than the age of the second user, based on the second face image First prediction Means for presenting the face image to the second user via the second client device 20 Means for presenting the second predicted face image to the first user via the first client device 10 First user and second user Means for generating a message prompting at least one person to speak Means for presenting a message to at least one of the first user and the second user A second voice corresponding to the message is generated by the first client device means for presenting to the first user via 10;
- Means for presenting the first voice corresponding to the message to the second user via the second client device 20

(3)情報処理
本実施形態の情報処理を説明する。図7は、本実施形態の情報処理のシーケンス図である。図8は、図7の情報処理において表示される画面例を示す図である。図9は、図7の情報処理において表示される画面例を示す図である。図10は、図7の情報処理において表示される画面例を示す図である。図11は、図7の情報処理において表示される画面例を示す図である。図12は、図7の情報処理において表示される画面例を示す図である。
(3) Information processing Information processing according to this embodiment will be described. FIG. 7 is a sequence diagram of information processing according to this embodiment. 8 is a diagram showing an example of a screen displayed in the information processing of FIG. 7. FIG. 9 is a diagram showing an example of a screen displayed in the information processing of FIG. 7. FIG. FIG. 10 is a diagram showing a screen example displayed in the information processing of FIG. FIG. 11 is a diagram showing a screen example displayed in the information processing of FIG. FIG. 12 is a diagram showing a screen example displayed in the information processing of FIG.

図7に示すように、第1クライアント装置10は、ユーザ情報の受付(S110)を実行する。
具体的には、プロセッサ12は、画面P10(図8)をディスプレイ16に表示する。
As shown in FIG. 7, the first client device 10 receives user information (S110).
Specifically, processor 12 displays screen P10 ( FIG. 8 ) on display 16 .

画面P10は、フィールドオブジェクトF10a~F10eと、操作オブジェクトB10と、を含む。 The screen P10 includes field objects F10a to F10e and an operation object B10.

フィールドオブジェクトF10aは、第1ユーザの名前に関するユーザ入力を受け付けるオブジェクトである。 The field object F10a is an object that receives user input regarding the name of the first user.

フィールドオブジェクトF10bは、第1ユーザと第2ユーザとの間の関係に関するユーザ入力を受け付けるオブジェクトである。関係は、例えば、以下の少なくとも1つを含む。
・家族(一例として、親子、夫婦、兄弟、及び、親族の少なくとも1つ)
・交際関係(つまり、カップル)
・友人
・職場の同僚
The field object F10b is an object that receives user input regarding the relationship between the first user and the second user. Relationships include, for example, at least one of the following:
・Family (for example, at least one of parent and child, husband and wife, siblings, and relatives)
Relationships (i.e. couples)
・Friends ・Colleagues at work

フィールドオブジェクトF10cは、第1ユーザと第2ユーザとの関係の継続期間(以下「関係期間」という)に関するユーザ入力を受け付けるオブジェクトである。関係期間は、例えば、以下の何れかである。
・5年未満
・5年以上
The field object F10c is an object that receives user input regarding the duration of the relationship between the first user and the second user (hereinafter referred to as "relationship period"). The relationship period is, for example, any of the following.
・Less than 5 years ・More than 5 years

フィールドオブジェクトF10dは、第1ユーザの性別に関するユーザ入力を受け付けるオブジェクトである。 The field object F10d is an object that receives user input regarding the gender of the first user.

フィールドオブジェクトF10eは、第1ユーザの生年月日に関するユーザ入力を受け付けるオブジェクトである。 The field object F10e is an object that receives user input regarding the date of birth of the first user.

操作オブジェクトB10は、フィールドオブジェクトF10a~F10eに対するユーザ入力を確定させるためのユーザ指示を受け付けるオブジェクトである。 The operation object B10 is an object that receives a user instruction for confirming user input to the field objects F10a to F10e.

第1ユーザがフィールドオブジェクトF10a~F10eにユーザ入力を与え、且つ、操作オブジェクトB10を操作すると、カメラ15は、第1ユーザの顔の画像(以下「第1ユーザ画像」という)を取得する。
プロセッサ12は、フィールドオブジェクトF10a~F10eに入力された情報及び第1ユーザ画像の組合せ(以下「第1ユーザ情報」という)をホスト装置30に送信する。
When the first user gives user inputs to the field objects F10a to F10e and operates the operation object B10, the camera 15 acquires an image of the first user's face (hereinafter referred to as "first user image").
The processor 12 transmits to the host device 30 a combination of the information input to the field objects F10a to F10e and the first user image (hereinafter referred to as “first user information”).

第2クライアント装置20は、ユーザ情報の受付(S120)を実行する。
具体的には、プロセッサ22は、画面P20(図8)をディスプレイ26に表示する。
The second client device 20 receives user information (S120).
Specifically, the processor 22 displays the screen P20 (FIG. 8) on the display 26. FIG.

画面P20は、フィールドオブジェクトF20a~F20eと、操作オブジェクトB20と、を含む。
フィールドオブジェクトF20aは、第2ユーザの名前に関するユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF20bは、第1ユーザと第2ユーザとの間の関係に関するユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF20cは、第1ユーザと第2ユーザとの関係期間に関するユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF20dは、第2ユーザの性別に関するユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF20eは、第2ユーザの生年月日に関するユーザ入力を受け付けるオブジェクトである。
操作オブジェクトB20は、フィールドオブジェクトF20a~F20eに対するユーザ入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P20 includes field objects F20a to F20e and an operation object B20.
The field object F20a is an object that receives user input regarding the name of the second user.
The field object F20b is an object that receives user input regarding the relationship between the first user and the second user.
The field object F20c is an object that receives user input regarding the relationship period between the first user and the second user.
The field object F20d is an object that receives user input regarding the gender of the second user.
The field object F20e is an object that receives user input regarding the date of birth of the second user.
The operation object B20 is an object that receives a user instruction for confirming user input to the field objects F20a to F20e.

第2ユーザがフィールドオブジェクトF20a~F20eにユーザ入力を与え、且つ、操作オブジェクトB20を操作すると、カメラ25は、第2ユーザの顔の画像(以下「第2ユーザ画像」という)を取得する。
プロセッサ22は、フィールドオブジェクトF20a~F20eに入力された情報及び第2ユーザ画像の組合せ(以下「第2ユーザ情報」という)をホスト装置30に送信する。
When the second user gives user inputs to the field objects F20a to F20e and operates the operation object B20, the camera 25 acquires an image of the second user's face (hereinafter referred to as a "second user image").
The processor 22 transmits to the host device 30 a combination of the information input to the field objects F20a to F20e and the second user image (hereinafter referred to as “second user information”).

ステップS110及びS120の後、ホスト装置30は、ユーザ情報の転送(S130)を実行する。
具体的には、プロセッサ32は、第1クライアント装置10から第1ユーザ情報を取得する。
プロセッサ32は、第2クライアント装置20から第2ユーザ情報を取得する。
プロセッサ32は、第1ユーザ情報に含まれる生年月日に基づいて、第1ユーザの現在の年齢(以下「第1現在年齢」という)の値を計算する。
プロセッサ32は、第2ユーザ情報に含まれる生年月日に基づいて、第2ユーザの現在の年齢(以下「第2現在年齢」という)の値を計算する。
プロセッサ32は、第1ユーザ情報を第2クライアント装置20に送信する。
プロセッサ32は、第2ユーザ情報を第1クライアント装置10に送信する。
After steps S110 and S120, the host device 30 transfers user information (S130).
Specifically, the processor 32 acquires first user information from the first client device 10 .
The processor 32 acquires second user information from the second client device 20 .
Processor 32 calculates the value of the current age of the first user (hereinafter referred to as "first current age") based on the date of birth included in the first user information.
Processor 32 calculates the value of the second user's current age (hereinafter referred to as "second current age") based on the date of birth included in the second user information.
Processor 32 transmits the first user information to second client device 20 .
Processor 32 transmits the second user information to first client device 10 .

ステップS131の後、第1クライアント装置10は、指定年齢の受付(S111)を実行する。
具体的には、プロセッサ12は、画面P11(図9)をディスプレイ16に表示する。
After step S131, the first client device 10 executes reception of the specified age (S111).
Specifically, processor 12 displays screen P11 ( FIG. 9 ) on display 16 .

画面P11は、表示オブジェクトA11と、画像オブジェクトIMG11と、フィールドオブジェクトF11a~F11bと、操作オブジェクトB11と、を含む。
表示オブジェクトA11には、第1ユーザに対して会話を促すメッセージ(例えば、「相手の年齢を選んで下さい。」というメッセージ)が表示される。このメッセージは、予め定められたメッセージである。
画像オブジェクトIMG11は、ホスト装置30から送信された第2ユーザ情報に含まれる第2ユーザ画像である。
フィールドオブジェクトF11aは、第1ユーザの架空の年齢(以下「第1指定年齢」という)を指定するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF11aの初期値は、第1現在年齢の値である。
フィールドオブジェクトF11bは、第2ユーザの架空の年齢(以下「第2指定年齢」という)を指定するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF11bの初期値は、第2現在の年齢の値である。
操作オブジェクトB11aは、フィールドオブジェクトF11a~F11bのユーザ入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P11 includes a display object A11, an image object IMG11, field objects F11a to F11b, and an operation object B11.
The display object A11 displays a message prompting the first user to have a conversation (for example, a message "Please select the age of the other party."). This message is a predetermined message.
Image object IMG11 is the second user image included in the second user information transmitted from host device 30 .
The field object F11a is an object that receives user input for designating the fictitious age of the first user (hereinafter referred to as "first specified age"). The initial value of the field object F11a is the value of the first current age.
The field object F11b is an object that accepts user input for specifying the fictitious age of the second user (hereinafter referred to as "second specified age"). The initial value of the field object F11b is the second current age value.
The operation object B11a is an object that receives a user instruction for confirming user input of the field objects F11a to F11b.

第1ユーザがフィールドオブジェクトF11bに任意の値を入力し、且つ、操作オブジェクトB11aを操作すると、プロセッサ12は、フィールドオブジェクトF11bに与えられた値をホスト装置30に送信する。 When the first user inputs an arbitrary value to the field object F11b and operates the operation object B11a, the processor 12 transmits the value given to the field object F11b to the host device 30. FIG.

ステップS131の後、第2クライアント装置20は、指定年齢の受付(S121)を実行する。
具体的には、プロセッサ22は、画面P21(図9)をディスプレイ26に表示する。
After step S131, the second client device 20 executes acceptance of the specified age (S121).
Specifically, processor 22 displays screen P21 ( FIG. 9 ) on display 26 .

画面P21は、表示オブジェクトA21と、画像オブジェクトIMG21と、フィールドオブジェクトF21a~F21bと、操作オブジェクトB21a~B21bと、を含む。
表示オブジェクトA21には、第2ユーザに対して会話を促すメッセージ(例えば、「相手の年齢を選んで下さい。」というメッセージ)が表示される。このメッセージは、予め定められたメッセージである。
画像オブジェクトIMG21は、ホスト装置30から送信された第1ユーザ情報に含まれる第1ユーザ画像である。
フィールドオブジェクトF21aは、第1指定年齢を指定するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF21aの初期値は、第1現在年齢の値である。フィールドオブジェクトF21aの値は、フィールドオブジェクトF11aの値と同期している。
フィールドオブジェクトF21bは、第2指定年齢を指定するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF21bの初期値は、フィールドオブジェクトF20e(図8)に入力された生年月日から計算される値(つまり、第1ユーザの現在の年齢)である。フィールドオブジェクトF21bの値は、フィールドオブジェクトF11bの値と同期している。
操作オブジェクトB21aは、フィールドオブジェクトF21a~F21bのユーザ入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB21bは、会話を終了するためのユーザ指示を受け付けるオブジェクトである。
The screen P21 includes a display object A21, an image object IMG21, field objects F21a-F21b, and operation objects B21a-B21b.
The display object A21 displays a message prompting the second user to have a conversation (for example, a message "Please select the age of the other party."). This message is a predetermined message.
Image object IMG21 is the first user image included in the first user information transmitted from host device 30 .
The field object F21a is an object that receives user input for designating the first designated age. The initial value of the field object F21a is the value of the first current age. The value of field object F21a is synchronized with the value of field object F11a.
The field object F21b is an object that receives user input for specifying the second specified age. The initial value of the field object F21b is a value (that is, the current age of the first user) calculated from the date of birth entered in the field object F20e (FIG. 8). The value of field object F21b is synchronized with the value of field object F11b.
The operation object B21a is an object that receives a user instruction for confirming user input of the field objects F21a to F21b.
The operation object B21b is an object that receives a user instruction to end the conversation.

第2ユーザがフィールドオブジェクトF21bに任意の値(例えば、第1ユーザの架空の年齢の値)を入力し、且つ、操作オブジェクトB21aを操作すると、プロセッサ12は、フィールドオブジェクトF21bに与えられた値(つまり、第1ユーザの架空の年齢(以下「第1指定年齢」という)の値)をホスト装置30に送信する。 When the second user inputs an arbitrary value (for example, the fictitious age value of the first user) into the field object F21b and operates the operation object B21a, the processor 12 outputs the value given to the field object F21b ( That is, the fictitious age of the first user (hereinafter referred to as “first specified age”) is transmitted to the host device 30 .

ステップS111及びS121の後、ホスト装置30は、モーフィング(S131)を実行する。
具体的には、記憶装置31には、変換モデルが記憶されている。変換モデルには、人物の現在の年齢及び人物の架空の年齢の組合せと、人物の顔画像を変換するための変換フィルタとの相関関係が規定されている。
プロセッサ32は、第1クライアント装置10から、フィールドオブジェクトF11bに与えられた第2指定年齢の値を取得する。
プロセッサ32は、第2クライアント装置20から、フィールドオブジェクトF21aに与えられた第1指定年齢の値を取得する。
プロセッサ32は、ステップS130で得られた第1現在年齢の値、及び、ステップS111で得られた第1指定年齢の値を変換モデルに与えることにより、第1現在年齢及び第1指定年齢の組合せに対応する変換フィルタを選択する。
プロセッサ32は、選択された変換フィルタを第1ユーザ画像に適用することにより、第1指定年齢に対応する第1ユーザの顔の画像(以下「第1予測顔画像」という)を生成する。
プロセッサ32は、ステップS130で得られた第2現在年齢の値、及び、ステップS121で得られた第2指定年齢の値を変換モデルに与えることにより、第2現在年齢及び第2指定年齢の組合せに対応する変換フィルタを選択する。
プロセッサ32は、選択された変換フィルタを第2ユーザ画像に適用することにより、第2指定年齢に対応する第2ユーザの顔の画像(以下「第2予測顔画像」という)を生成する。
After steps S111 and S121, the host device 30 executes morphing (S131).
Specifically, a conversion model is stored in the storage device 31 . The transformation model defines a correlation between a combination of a person's current age and a person's fictitious age, and a transformation filter for transforming the person's facial image.
The processor 32 obtains from the first client device 10 the value of the second specified age given to the field object F11b.
The processor 32 obtains from the second client device 20 the value of the first specified age given to the field object F21a.
The processor 32 provides the value of the first current age obtained in step S130 and the value of the first specified age obtained in step S111 to the conversion model to obtain the combination of the first current age and the first specified age. Select a conversion filter that corresponds to .
The processor 32 applies the selected transform filter to the first user image to generate an image of the face of the first user corresponding to the first specified age (hereinafter referred to as "first predicted face image").
The processor 32 provides the value of the second current age obtained in step S130 and the value of the second specified age obtained in step S121 to the conversion model, thereby obtaining a combination of the second current age and the second specified age. Select a conversion filter that corresponds to .
The processor 32 applies the selected conversion filter to the second user image to generate a face image of the second user corresponding to the second specified age (hereinafter referred to as a "second predicted face image").

ステップS131の後、ホスト装置30は、メッセージの送信(S132)を実行する。 After step S131, the host device 30 executes message transmission (S132).

具体的には、プロセッサ32は、第1メッセージデータを第1クライアント装置10に送信する。第1メッセージデータは、以下の情報を含む。
・第2予測顔画像
・所定の初期メッセージ
Specifically, the processor 32 transmits the first message data to the first client device 10 . The first message data includes the following information.
・Second predicted face image ・Predetermined initial message

プロセッサ32は、第2メッセージデータを第2クライアント装置20に送信する。第2メッセージデータは、以下の情報を含む。
・第1予測顔画像
・所定の初期メッセージ
Processor 32 transmits the second message data to second client device 20 . The second message data includes the following information.
・First predicted face image ・Predetermined initial message

ステップS132の後、第1クライアント装置10は、会話情報の受付(S112)を実行する。 After step S132, the first client device 10 executes reception of conversation information (S112).

具体的には、プロセッサ12は、画面P12a(図10)をディスプレイ16に表示する。画面P12aは、第1メッセージデータに対応する。 Specifically, the processor 12 displays a screen P12a (FIG. 10) on the display 16. FIG. Screen P12a corresponds to the first message data.

画面P12aは、表示オブジェクトA12aと、画像オブジェクトIMG12と、フィールドオブジェクトF11a~F11bと、操作オブジェクトB11と、を含む。
表示オブジェクトA12aには、第1メッセージデータに含まれる初期メッセージが表示される。
画像オブジェクトIMG12は、第1メッセージデータに含まれる第2予測顔画像である。
The screen P12a includes a display object A12a, an image object IMG12, field objects F11a to F11b, and an operation object B11.
The initial message included in the first message data is displayed in the display object A12a.
Image object IMG12 is the second predicted face image included in the first message data.

第1ユーザが、表示オブジェクトA12aに表示されたメッセージ及び画像オブジェクトIMG12(つまり、第2指定年齢に対応する第2ユーザの顔の画像)を見ながら、且つ、スピーカ18から出力される第2ユーザの音声を聴きながら、第2ユーザに対して発話すると、マイクロフォン17は、第1ユーザの音声(以下「第1発話音声」という)を取得する。
カメラ15は、会話中の第1ユーザの顔画像(以下「第1顔画像」という)を取得する。
プロセッサ12は、会話情報をホスト装置30に送信する。会話情報は、以下の情報を含む。
・カメラ15によって取得された第1顔画像
・マイクロフォン17によって取得された第1発話音声
While the first user sees the message displayed on the display object A12a and the image object IMG12 (that is, the image of the face of the second user corresponding to the second designated age), the second user output from the speaker 18 while listening to the voice of the second user, the microphone 17 acquires the first user's voice (hereinafter referred to as "first uttered voice").
The camera 15 acquires a facial image of the first user during conversation (hereinafter referred to as "first facial image").
Processor 12 transmits conversation information to host device 30 . Conversation information includes the following information.
・First face image acquired by camera 15 ・First utterance voice acquired by microphone 17

ステップS132の後、第2クライアント装置20は、会話情報の受付(S122)を実行する。 After step S132, the second client device 20 executes reception of conversation information (S122).

具体的には、プロセッサ22は、画面P22a(図10)をディスプレイ26に表示する。画面P22aは、第2メッセージデータに対応する。 Specifically, the processor 22 displays a screen P22a (FIG. 10) on the display 26. FIG. Screen P22a corresponds to the second message data.

画面P22aは、表示オブジェクトA22aと、画像オブジェクトIMG22と、フィールドオブジェクトF21a~F21bと、操作オブジェクトB21a~B21bと、を含む。
表示オブジェクトA22aには、第2メッセージデータに含まれる初期メッセージが表示される。
画像オブジェクトIMG22は、第2メッセージデータに含まれる第1予測顔画像である。
The screen P22a includes a display object A22a, an image object IMG22, field objects F21a-F21b, and operation objects B21a-B21b.
The initial message included in the second message data is displayed in the display object A22a.
Image object IMG22 is the first predicted face image included in the second message data.

第2ユーザが、表示オブジェクトA22aに表示されたメッセージ及び画像オブジェクトIMG22(つまり、第1指定年齢に対応する第1ユーザの顔の画像)を見ながら、且つ、スピーカ28から出力される第1ユーザの音声を聴きながら、第1ユーザに対して発話すると、マイクロフォン27は、第2ユーザの音声(以下「第2発話音声」という)を取得する。
カメラ25は、会話中の第2ユーザの顔画像(以下「第2顔画像」という)を取得する。
プロセッサ22は、会話情報をホスト装置30に送信する。会話情報は、以下の情報を含む。
・カメラ25によって取得された第2顔画像
・マイクロフォン27によって取得された第2発話音声
While the second user sees the message displayed on the display object A22a and the image object IMG22 (that is, the image of the face of the first user corresponding to the first designated age), the first user output from the speaker 28 while listening to the voice of the first user, the microphone 27 acquires the second user's voice (hereinafter referred to as "second uttered voice").
The camera 25 acquires a facial image of the second user during conversation (hereinafter referred to as "second facial image").
Processor 22 transmits conversation information to host device 30 . Conversation information includes the following information.
・Second face image acquired by camera 25 ・Second speech voice acquired by microphone 27

ステップS112及びS122の後、ホスト装置30は、感情解析(S133)を実行する。 After steps S112 and S122, the host device 30 performs emotion analysis (S133).

ステップS133の第1例では、記憶装置31には、人物の表情と人物の感情との相関関係が規定された感情解析モデルが記憶されている。
プロセッサ32は、ステップS112で送信された第1発話音声を感情解析モデルに入力することにより、第1ユーザの感情を特定する。
プロセッサ32は、ステップS122で送信された第2発話音声を感情解析モデルに入力することにより、第2ユーザの感情を特定する。
In the first example of step S133, the storage device 31 stores an emotion analysis model that defines the correlation between the person's facial expression and the person's emotion.
The processor 32 identifies the emotion of the first user by inputting the first uttered voice transmitted in step S112 into the emotion analysis model.
The processor 32 identifies the emotion of the second user by inputting the second utterance voice transmitted in step S122 to the emotion analysis model.

ステップS133の第2例では、記憶装置31には、人物の発話音声と人物の感情との相関関係が規定された感情解析モデルが記憶されている。
プロセッサ32は、ステップS112で送信された第1発話音声を感情解析モデルに入力することにより、第1ユーザの感情を特定する。
プロセッサ32は、ステップS122で送信された第2発話音声を感情解析モデルに入力することにより、第2ユーザの感情を特定する。
In the second example of step S133, the storage device 31 stores an emotion analysis model that defines the correlation between the person's uttered voice and the person's emotion.
The processor 32 identifies the emotion of the first user by inputting the first uttered voice transmitted in step S112 into the emotion analysis model.
The processor 32 identifies the emotion of the second user by inputting the second utterance voice transmitted in step S122 to the emotion analysis model.

ステップS133の後、ホスト装置30は、メッセージの生成(S134)を実行する。
具体的には、記憶装置31には、メッセージ生成モデルが記憶されている。メッセージ生成モデルには、人物の感情と、次の会話を促すためのメッセージと、の相関関係が規定されている。
After step S133, the host device 30 generates a message (S134).
Specifically, the storage device 31 stores a message generation model. The message generation model defines the correlation between a person's emotion and a message for prompting the next conversation.

ステップS133の第1例では、プロセッサ32は、ステップS133で得られた第1ユーザの感情をメッセージ生成モデルに入力することにより、第1ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第1メッセージデータを第1クライアント装置10に送信する。
プロセッサ32は、ステップS133で得られた第2ユーザの感情をメッセージ生成モデルに入力することにより、第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第2メッセージデータを第2クライアント装置20に送信する。
In the first example of step S133, the processor 32 generates a message to be presented to the first user by inputting the emotion of the first user obtained in step S133 into the message generation model, and presents the message to the first user. and transmitting the first message data containing the first message data to the first client device 10 .
The processor 32 generates a message to be presented to the second user by inputting the emotion of the second user obtained in step S133 into the message generation model, and transmits the second message data including the message to the second user. Send to the client device 20 .

ステップS133の第2例では、プロセッサ32は、ステップS133で得られた第1ユーザの感情及び第2ユーザの感情をメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。 In a second example of step S133, the processor 32 inputs the emotion of the first user and the emotion of the second user obtained in step S133 into the message generation model to present the first user and the second user. A message is generated and message data including the message is transmitted to the first client device 10 and the second client device 20 .

ステップS134の後、第1クライアント装置10は、会話情報の受付(S112)を再び実行する。
具体的には、プロセッサ12は、画面P12b(図11)をディスプレイ16に表示する。画面P12bは、ステップS132でホスト装置30から送信されたメッセージデータに対応する。
After step S134, the first client device 10 executes conversation information reception (S112) again.
Specifically, the processor 12 displays a screen P12b (FIG. 11) on the display 16. FIG. Screen P12b corresponds to the message data transmitted from host device 30 in step S132.

画面P12bは、表示オブジェクトA12bと、画像オブジェクトIMG12と、フィールドオブジェクトF11a~F11bと、操作オブジェクトB11と、を含む。
表示オブジェクトA12bには、ステップS133でホスト装置30から送信されたメッセージが表示される。
The screen P12b includes a display object A12b, an image object IMG12, field objects F11a-F11b, and an operation object B11.
The display object A12b displays the message sent from the host device 30 in step S133.

第1ユーザが、表示オブジェクトA12bに表示されたメッセージ及び画像オブジェクトIMG12(つまり、第2指定年齢に対応する第2ユーザの顔の画像)を見ながら、且つ、スピーカ18から出力される第2ユーザの音声を聴きながら、第2ユーザに対して発話すると、マイクロフォン17は、第1発話音声を取得する。
プロセッサ12は、会話情報をホスト装置30に送信する。会話情報は、以下の情報を含む。
・カメラ15によって取得された第1顔画像
・マイクロフォン17によって取得された第1発話音声
While the first user sees the message displayed on the display object A12b and the image object IMG12 (that is, the image of the face of the second user corresponding to the second specified age), the second user output from the speaker 18 When speaking to the second user while listening to the voice of , the microphone 17 acquires the first uttered voice.
Processor 12 transmits conversation information to host device 30 . Conversation information includes the following information.
・First face image acquired by camera 15 ・First utterance voice acquired by microphone 17

ステップS134の後、第2クライアント装置20は、会話情報の受付(S122)を再び実行する。
具体的には、プロセッサ22は、画面P22b(図11)をディスプレイ26に表示する。画面P22bは、ステップS134でホスト装置30から送信されたメッセージデータに対応する。
After step S134, the second client device 20 executes conversation information reception (S122) again.
Specifically, the processor 22 displays the screen P22b (FIG. 11) on the display 26. FIG. Screen P22b corresponds to the message data transmitted from host device 30 in step S134.

画面P22bは、表示オブジェクトA22bと、画像オブジェクトIMG22と、フィールドオブジェクトF21a~F21bと、操作オブジェクトB21a~B21bと、を含む。
表示オブジェクトA22bには、第2メッセージデータに含まれるメッセージが表示される。
The screen P22b includes a display object A22b, an image object IMG22, field objects F21a-F21b, and operation objects B21a-B21b.
A message included in the second message data is displayed in the display object A22b.

第2ユーザが、表示オブジェクトA22bに表示されたメッセージ及び画像オブジェクトIMG22(つまり、第1指定年齢に対応する第1ユーザの顔の画像)を見ながら、且つ、スピーカ28から出力される第1ユーザの音声を聴きながら、第1ユーザに対して発話すると、マイクロフォン27は、第2発話音声を取得する。
プロセッサ22は、会話情報をホスト装置30に送信する。会話情報は、以下の情報を含む。
・カメラ25によって取得された第2顔画像
・マイクロフォン27によって取得された第2発話音声
While the second user sees the message displayed on the display object A22b and the image object IMG22 (that is, the image of the face of the first user corresponding to the first specified age), the first user output from the speaker 28 When speaking to the first user while listening to the voice of , the microphone 27 acquires the second uttered voice.
Processor 22 transmits conversation information to host device 30 . Conversation information includes the following information.
・Second face image acquired by camera 25 ・Second speech voice acquired by microphone 27

会話の終了条件を満たすと、第1クライアント装置10は、記念画像の取得(S113)を実行する。
具体的には、会話の終了条件を満たすと、プロセッサ12は、画面P13(図12)をディスプレイに表示する。
会話の終了条件は、例えば、以下の少なくとも1つである。
・会話の開始(例えば、ステップS111及びS121の終了)から所定時間(例えば、10分)が経過したこと
・所定回数のメッセージが提示された(つまり、ステップ134が実行された)こと
・第1ユーザ又は第2ユーザから会話を終了するためのユーザ指示(例えば、音声指示、及び、画面に表示されたオブジェクトに対する操作の少なくとも1つ)が与えられたこと
When the conversation end condition is satisfied, the first client device 10 acquires a commemorative image (S113).
Specifically, when the end condition of the conversation is satisfied, the processor 12 displays the screen P13 (FIG. 12) on the display.
Conversation termination conditions are, for example, at least one of the following.
- A predetermined time (eg, 10 minutes) has passed since the start of the conversation (eg, the end of steps S111 and S121) - A message has been presented a predetermined number of times (that is, step 134 has been executed) - First A user instruction (for example, at least one of a voice instruction and an operation on an object displayed on the screen) to end the conversation is given by the user or the second user

画面P13は、画像オブジェクトIMG13と、操作オブジェクトB13と、を含む
画像オブジェクトIMG13は、ステップS113の実行時点においてカメラ25によって取得されたプレビュー画像である。
操作オブジェクトB13は、画像オブジェクトIMG13に対応するプレビュー画像を第2ユーザの記念画像(以下「第2記念画像」という)として取得するためのユーザ指示を受け付けるオブジェクトである。
Screen P13 includes an image object IMG13 and an operation object B13. Image object IMG13 is a preview image acquired by camera 25 at the time of execution of step S113.
The operation object B13 is an object that receives a user instruction to acquire a preview image corresponding to the image object IMG13 as a commemorative image of the second user (hereinafter referred to as "second commemorative image").

第1ユーザが操作オブジェクトB13を操作すると、プロセッサ12は、ホスト装置30に対して、第2記念画像を送信し、且つ、第2クライアント装置20に対して、ステップS113の終了通知を送信する。 When the first user operates the operation object B13, the processor 12 transmits the second commemorative image to the host device 30 and transmits the end notification of step S113 to the second client device 20. FIG.

ステップS113の後、第2クライアント装置20は、記念画像の取得(S123)を実行する。
具体的には、第1ユーザが操作オブジェクトB13を操作すると、プロセッサ12は、画面P23(図12)をディスプレイに表示する。
After step S113, the second client device 20 acquires a commemorative image (S123).
Specifically, when the first user operates the operation object B13, the processor 12 displays the screen P23 (FIG. 12) on the display.

画面P23は、画像オブジェクトIMG23と、操作オブジェクトB23と、を含む
画像オブジェクトIMG23は、ステップS123の実行時点においてカメラ15によって取得されたプレビュー画像である。
操作オブジェクトB23は、画像オブジェクトIMG23に対応するプレビュー画像を第1ユーザの記念画像(以下「第1記念画像」という)として取得するためのユーザ指示を受け付けるオブジェクトである。
Screen P23 includes an image object IMG23 and an operation object B23. Image object IMG23 is a preview image acquired by camera 15 at the time of execution of step S123.
The operation object B23 is an object that receives a user instruction to acquire a preview image corresponding to the image object IMG23 as a commemorative image of the first user (hereinafter referred to as "first commemorative image").

第2ユーザが操作オブジェクトB23を操作すると、プロセッサ22は、ホスト装置30に対して、第1記念画像と、ステップS123の終了通知を送信する。 When the second user operates the operation object B23, the processor 22 transmits the first commemorative image and the end notification of step S123 to the host device 30. FIG.

ステップS123の後、ホスト装置30は、ログデータの保存(S135)を実行する。
具体的には、プロセッサ32は、記憶装置31に、以下の情報を関連付けて記憶する。
・ステップS110で第1クライアント装置10から送信された第1ユーザ情報
・ステップS120で第2クライアント装置20から送信された第2ユーザ情報
・ステップS113で第1クライアント装置10から送信された出力リクエストデータに含まれる第1予測顔画像及び第1音声
・ステップS123で第2クライアント装置20から送信された出力リクエストデータに含まれる第2予測顔画像及び第2音声
・ステップS111及びS121の実行からステップS113及びS123の少なくとも1つの実行までの時間(つまり、会話の経過時間)
・ステップS113で第1クライアント装置10から送信された第2記念画像
・ステップS123で第2クライアント装置20から送信された第1記念画像
After step S123, the host device 30 saves the log data (S135).
Specifically, the processor 32 associates and stores the following information in the storage device 31 .
- The first user information transmitted from the first client device 10 in step S110 - The second user information transmitted from the second client device 20 in step S120 - The output request data transmitted from the first client device 10 in step S113 The first predicted face image and the first voice included in the second predicted face image and the second voice included in the output request data transmitted from the second client device 20 in step S123 From execution of steps S111 and S121 to step S113 and at least one execution time of S123 (that is, the elapsed time of the conversation)
- The second commemorative image transmitted from the first client device 10 in step S113 - The first commemorative image transmitted from the second client device 20 in step S123

プロセッサ32は、第1記念画像及び第2記念画像を合成することにより、集合記念画像を生成する。
プロセッサ32は、第1クライアント装置10及び第2クライアント装置20に第1記念画像と、第2記念画像と、集合記念画像と、を送信する。
The processor 32 generates a group commemorative image by synthesizing the first commemorative image and the second commemorative image.
The processor 32 transmits the first commemorative image, the second commemorative image, and the group commemorative image to the first client device 10 and the second client device 20 .

ステップS135の後、第1クライアント装置10は、出力リクエスト(S114)を実行する。
具体的には、プロセッサ12は、画面P14(図12)をディスプレイ16に表示する。
After step S135, the first client device 10 executes the output request (S114).
Specifically, processor 12 displays screen P14 ( FIG. 12 ) on display 16 .

画面P14は、画像オブジェクトIMG14と、操作オブジェクトB14a~B14bと、を含む。
画像オブジェクトIMG14は、集合記念画像である。
操作オブジェクトB14aは、集合記念画像をネットワークサービス上で共有するためのユーザ指示を受け付けるオブジェクトである。ネットワークサービスは、例えば、ソーシャルネットワークサービス、チャットサービス、及び、画像共有サービスの少なくとも1つである。
操作オブジェクトB14bは、集合記念画像を印刷するためのユーザ指示を受け付けるオブジェクトである。
The screen P14 includes an image object IMG14 and operation objects B14a to B14b.
The image object IMG14 is a group commemorative image.
The operation object B14a is an object that receives a user's instruction to share the group commemorative image on the network service. Network services are, for example, at least one of social network services, chat services, and image sharing services.
The operation object B14b is an object that receives a user's instruction to print a commemorative image of the gathering.

第1ユーザが、操作オブジェクトB14aを操作すると、プロセッサ12は、集合記念画像を共有するためのユーザ指示をホスト装置に送信する。 When the first user operates the operation object B14a, the processor 12 transmits a user instruction for sharing the commemorative image of the gathering to the host device.

ステップS135の後、第2クライアント装置20は、出力リクエスト(S124)を実行する。
具体的には、第2ユーザが操作オブジェクトB21b(図10~図11)を操作すると、プロセッサ22は、画面P24(図12)をディスプレイに表示する。
After step S135, the second client device 20 executes the output request (S124).
Specifically, when the second user operates the operation object B21b (FIGS. 10 and 11), the processor 22 displays the screen P24 (FIG. 12) on the display.

画面P24は、画像オブジェクトIMG24と、操作オブジェクトB24a~B24bと、を含む。
画像オブジェクトIMG24は、集合記念画像である。
操作オブジェクトB24aは、集合記念画像をネットワークサービス上で共有するためのユーザ指示を受け付けるオブジェクトである。ネットワークサービスは、例えば、ソーシャルネットワークサービス、チャットサービス、及び、画像共有サービスの少なくとも1つである。
操作オブジェクトB24bは、集合記念画像を印刷するためのユーザ指示を受け付けるオブジェクトである。
The screen P24 includes an image object IMG24 and operation objects B24a to B24b.
The image object IMG24 is a group commemorative image.
The operation object B24a is an object that receives a user's instruction to share the group commemorative image on the network service. Network services are, for example, at least one of social network services, chat services, and image sharing services.
The operation object B24b is an object that receives a user's instruction to print a commemorative image of the gathering.

第2ユーザが、操作オブジェクトB24bを操作すると、プロセッサ22は、集合記念画像を印刷するためのユーザ指示をホスト装置30に送信する。 When the second user operates the operation object B24b, the processor 22 transmits to the host device 30 a user instruction for printing a commemorative image of the gathering.

ステップS135の後、ホスト装置30は、記念画像の出力(S136)を実行する。
具体的には、プロセッサ32は、ステップS113で第1クライアント装置10から送信されたユーザ指示に応じて、集合記念画像を、ネットワークサービスを提供するウェブサーバに送信する。これにより、ネットワークサービスを介して集合記念画像が第1ユーザ以外のユーザ(例えば、第2ユーザ及び第三者の少なくとも1人)に共有される。
プロセッサ32は、ステップS123で第2クライアント装置20から送信されたユーザ指示に応じて、集合記念画像をプリンタに送信する。これにより、プリンタを介して集合記念画像が印刷される。
After step S135, the host device 30 outputs a commemorative image (S136).
Specifically, the processor 32 transmits the gathering commemorative image to the web server that provides the network service in accordance with the user instruction transmitted from the first client device 10 in step S113. As a result, the group commemorative image is shared with users other than the first user (for example, at least one of the second user and the third party) via the network service.
The processor 32 transmits the gathering commemorative image to the printer in accordance with the user instruction transmitted from the second client device 20 in step S123. As a result, the gathering commemorative image is printed via the printer.

本実施形態によれば、各ユーザに対して、会話中に、会話相手の予測顔画像及び会話を促進するためのメッセージを提示する。これにより、会話中の情報に応じた会話を促進することができる。 According to this embodiment, each user is presented with a predicted face image of a conversation partner and a message for promoting the conversation during conversation. As a result, it is possible to promote a conversation according to the information in the conversation.

(4)変形例
本実施形態の変形例を説明する。
(4) Modification A modification of the present embodiment will be described.

(4-1)変形例1
変形例1を説明する。変形例1は、第1音声の文脈及び第2音声の文脈の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-1) Modification 1
Modification 1 will be described. Modification 1 is an example of presenting a message according to at least one of the context of the first voice and the context of the second voice to at least one of the first user and the second user.

変形例1のホスト装置30は、ステップS134(図7)において、第1音声及び第2音声の文脈の少なくとも1つに応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、音声の文脈と、次の会話を促すためのメッセージと、の相関関係が規定されている。
In step S134 (FIG. 7), the host device 30 of Modification 1 generates a message according to at least one of the contexts of the first voice and the second voice.
Specifically, the message generation model defines the correlation between the context of the speech and the message for prompting the next conversation.

変形例1の第1例のプロセッサ32は、ステップS133で得られた第1音声をメッセージ生成モデルに入力することにより、第1ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第1メッセージデータを第1クライアント装置10に送信する。
プロセッサ32は、ステップS133で得られた第2音声をメッセージ生成モデルに入力することにより、第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第2メッセージデータを第2クライアント装置20に送信する。
The processor 32 of the first example of the modified example 1 generates a message to be presented to the first user by inputting the first voice obtained in step S133 to the message generation model, and generates a first speech including the message. 1 message data is sent to the first client device 10;
The processor 32 generates a message to be presented to the second user by inputting the second voice obtained in step S133 to the message generation model, and transmits second message data including the message to the second client device. 20.

変形例1の第2例のプロセッサ32は、ステップS133で得られた第1音声及び第2音声の組合せをメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。 The processor 32 of the second example of the modified example 1 inputs the combination of the first voice and the second voice obtained in step S133 to the message generation model to present the message to the first user and the second user. and send message data including the message to the first client device 10 and the second client device 20 .

変形例1によれば、第1ユーザ及び第2ユーザの少なくとも1人が発話した音声の文脈に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。 According to Modification 1, a message prompting conversation is presented according to the context of the voice uttered by at least one of the first user and the second user. Thereby, the conversation between the first user and the second user can be facilitated.

(4-2)変形例2
変形例2を説明する。変形例2は、第1ユーザの環境及び第2ユーザの環境の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-2) Modification 2
Modification 2 will be described. Modification 2 is an example in which at least one of the first user and the second user is presented with a message according to at least one of the environment of the first user and the environment of the second user.

変形例2のホスト装置30は、ステップS134(図7)において、第1ユーザの環境に関する情報(以下「第1環境情報」という)及び第2ユーザの環境に関する情報(以下「第2環境情報」という)の少なくとも1つに応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、環境と、次の会話を促すためのメッセージと、の相関関係が規定されている。
情報処理システム1は、環境情報を取得するセンサを備える。環境情報は、以下の少なくとも1つを含む。
・第1空間SP1の温度に関する温度情報
・第2空間SP2の温度に関する温度情報
・第1空間SP1の湿度に関する湿度情報
・第2空間SP2の温度に関する湿度情報
In step S134 (FIG. 7), the host device 30 of Modification 2 collects information about the first user's environment (hereinafter referred to as "first environment information") and information about the second user's environment (hereinafter referred to as "second environment information"). ) to generate a message according to at least one of
Specifically, the message generation model prescribes the correlation between the environment and the message for prompting the next conversation.
The information processing system 1 includes sensors that acquire environmental information. Environmental information includes at least one of the following:
・Temperature information about the temperature of the first space SP1 ・Temperature information about the temperature of the second space SP2 ・Humidity information about the humidity of the first space SP1 ・Humidity information about the temperature of the second space SP2

変形例2の第1例のプロセッサ32は、センサによって得られた第1環境情報をメッセージ生成モデルに入力することにより、第1ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第1メッセージデータを第1クライアント装置10に送信する。
プロセッサ32は、センサによって得られた第2環境情報をメッセージ生成モデルに入力することにより、第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第2メッセージデータを第2クライアント装置20に送信する。
The processor 32 of the first example of the modified example 2 generates a message to be presented to the first user by inputting the first environmental information obtained by the sensor into the message generation model, and generates the first environment information including the message. 1 message data is sent to the first client device 10;
The processor 32 generates a message to be presented to the second user by inputting the second environmental information obtained by the sensor into the message generation model, and transmits second message data including the message to the second client device. 20.

変形例2の第2例のプロセッサ32は、センサによって得られた第1環境情報及び第2環境情報の組合せをメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。 The processor 32 of the second example of the modified example 2 inputs the combination of the first environmental information and the second environmental information obtained by the sensor into the message generation model to generate messages to be presented to the first user and the second user. and send message data including the message to the first client device 10 and the second client device 20 .

変形例2の第3例の情報処理システム1では、第1空間SP1及び第2空間SP2の少なくとも1つは屋外である。
環境情報は、以下の少なくとも1つを含む。
・第1空間SP1の温度に関する温度情報
・第2空間SP2の温度に関する温度情報
In the information processing system 1 of the third example of modification 2, at least one of the first space SP1 and the second space SP2 is outdoors.
Environmental information includes at least one of the following:
・Temperature information about the temperature of the first space SP1 ・Temperature information about the temperature of the second space SP2

ホスト装置30は、センサに代えて、センサ以外のデバイス(例えば、環境情報を提供するサーバ)から第1環境情報及び第2環境情報の少なくとも1つを取得しても良い。 The host device 30 may acquire at least one of the first environmental information and the second environmental information from a device other than the sensor (for example, a server that provides environmental information) instead of the sensor.

変形例2によれば、第1ユーザ及び第2ユーザの少なくとも1人の環境に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。 According to Modification 2, a message prompting conversation is presented according to the environment of at least one of the first user and the second user. Thereby, the conversation between the first user and the second user can be facilitated.

(4-3)変形例3
変形例3を説明する。変形例3は、第1ユーザの属性及び第2ユーザの属性の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-3) Modification 3
Modification 3 will be described. Modification 3 is an example of presenting a message according to at least one of the attributes of the first user and the attributes of the second user to at least one of the first user and the second user.

変形例3のホスト装置30は、ステップS134(図7)において、第1ユーザの属性に関する情報(以下「第1属性情報」という)及び第2ユーザの属性に関する情報(以下「第2属性情報」という)の少なくとも1つに応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、属性と、次の会話を促すためのメッセージと、の相関関係が規定されている。属性は、以下の少なくとも1つを含む。
・第1ユーザの現在年齢
・第2ユーザの現在年齢
・第1ユーザの性別
・第2ユーザの性別
In step S134 (FIG. 7), the host device 30 of Modification 3 sends information about the attribute of the first user (hereinafter referred to as "first attribute information") and information about the attribute of the second user (hereinafter referred to as "second attribute information"). ) to generate a message according to at least one of
Specifically, the message generation model defines the correlation between attributes and messages for prompting the next conversation. Attributes include at least one of the following:
- Current age of the first user - Current age of the second user - Gender of the first user - Gender of the second user

変形例3の第1例のプロセッサ32は、ステップS110で第1クライアント装置10から送信された第1ユーザ情報に含まれる第1ユーザの属性をメッセージ生成モデルに入力することにより、第1ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第1メッセージデータを第1クライアント装置10に送信する。
プロセッサ32は、ステップS120で第2クライアント装置20から送信された第2ユーザ情報に含まれる第2ユーザの属性をメッセージ生成モデルに入力することにより、第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第2メッセージデータを第2クライアント装置20に送信する。
The processor 32 of the first example of the modification 3 inputs the attribute of the first user included in the first user information transmitted from the first client device 10 in step S110 to the message generation model, thereby A message to be presented is generated, and first message data including the message is sent to the first client device 10 .
The processor 32 generates a message to be presented to the second user by inputting the attributes of the second user included in the second user information transmitted from the second client device 20 in step S120 into the message generation model, Then, it transmits second message data including the message to the second client device 20 .

変形例3の第2例のプロセッサ32は、ステップS110で第1クライアント装置10から送信された第1ユーザ情報に含まれる第1ユーザの属性、及び、ステップS120で第2クライアント装置20から送信された第2ユーザ情報に含まれる第2ユーザの属性の組合せをメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。 The processor 32 of the second example of the modified example 3 acquires the attribute of the first user included in the first user information transmitted from the first client device 10 in step S110, and the attribute of the first user transmitted from the second client device 20 in step S120. By inputting a combination of attributes of the second user included in the second user information into the message generation model, a message to be presented to the first user and the second user is generated, and message data including the message is generated It transmits to the first client device 10 and the second client device 20 .

変形例3によれば、第1ユーザ及び第2ユーザの少なくとも1人の属性に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。 According to Modification 3, a message prompting conversation is presented according to the attribute of at least one of the first user and the second user. Thereby, the conversation between the first user and the second user can be facilitated.

(4-4)変形例4
変形例4を説明する。変形例4は、第1ユーザ及び第2ユーザの関係に応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-4) Modification 4
Modification 4 will be described. Modification 4 is an example in which a message corresponding to the relationship between the first user and the second user is presented to at least one of the first user and the second user.

変形例4のホスト装置30は、ステップS134(図7)において、第1ユーザ及び第2ユーザの関係に応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、複数のユーザの関係と、次の会話を促すためのメッセージと、の相関関係が規定されている。
プロセッサ32は、ステップS110で第1クライアント装置10から送信された第1ユーザ情報及びステップS120で第2クライアント装置20から送信された第2ユーザ情報の少なくとも1つに含まれる関係をメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
In step S134 (FIG. 7), the host device 30 of Modification 4 generates a message according to the relationship between the first user and the second user.
Specifically, the message generation model defines the correlation between the relationships of multiple users and messages for prompting the next conversation.
The processor 32 converts the relationship included in at least one of the first user information transmitted from the first client device 10 in step S110 and the second user information transmitted from the second client device 20 in step S120 into the message generation model. By inputting, a message to be presented to the first user and the second user is generated, and message data including the message is transmitted to the first client device 10 and the second client device 20 .

変形例4によれば、第1ユーザ及び第2ユーザの関係に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。 According to Modification 4, a message prompting conversation is presented according to the relationship between the first user and the second user. Thereby, the conversation between the first user and the second user can be facilitated.

(4-5)変形例5
変形例5を説明する。変形例5は、第1指定年齢及び第2指定年齢の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-5) Modification 5
Modification 5 will be described. Modification 5 is an example of presenting a message according to at least one of the first specified age and the second specified age to at least one of the first user and the second user.

変形例5のホスト装置30は、ステップS134(図7)において、第1指定年齢及び第2指定年齢の少なくとも1つに応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、年齢と、次の会話を促すためのメッセージと、の相関関係が規定されている。
In step S134 (FIG. 7), the host device 30 of Modification 5 generates a message according to at least one of the first specified age and the second specified age.
Specifically, the message generation model defines a correlation between age and a message for prompting the next conversation.

変形例5の第1例のプロセッサ32は、ステップS111で第1クライアント装置10から送信された第1指定年齢の値、及び、ステップS121で第2クライアント装置20から送信された第2指定年齢の値の大小関係を判定する。
プロセッサ32は、当該大小関係をメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
The processor 32 of the first example of modification 5 calculates the value of the first designated age transmitted from the first client device 10 in step S111 and the value of the second designated age transmitted from the second client device 20 in step S121. Determine the magnitude relationship of values.
The processor 32 generates a message to be presented to the first user and the second user by inputting the magnitude relation into the message generation model, and transmits message data including the message to the first client device 10 and the second client device 10 . Send to the client device 20 .

変形例5の第2例のプロセッサ32は、ステップS111で第1クライアント装置10から送信された第1指定年齢の値、及び、ステップS121で第2クライアント装置20から送信された第2指定年齢の値の差(以下「指定年齢差」という)を計算する。
プロセッサ32は、当該指定年齢差をメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
The processor 32 of the second example of the modified example 5 stores the value of the first designated age transmitted from the first client device 10 in step S111 and the value of the second designated age transmitted from the second client device 20 in step S121. Calculate the difference in values (hereinafter referred to as the "specified age difference").
The processor 32 generates a message to be presented to the first user and the second user by inputting the specified age difference into the message generation model, and transmits message data including the message to the first client device 10 and the second user. 2 to the client device 20;

変形例5によれば、第1ユーザ及び第2ユーザの少なくとも1人の指定年齢に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。 According to Modification 5, a message prompting conversation is presented according to the specified age of at least one of the first user and the second user. Thereby, the conversation between the first user and the second user can be facilitated.

(4-6)変形例6
変形例6を説明する。変形例6は、第1ユーザ及び第2ユーザのリプレイ動画を再生する例である。
(4-6) Modification 6
Modification 6 will be described. Modification 6 is an example of reproducing the replay videos of the first user and the second user.

変形例6のプロセッサ12又は22は、ユーザの指示に応じて、リプレイ動画の再生を要求するためのリプレイリクエストデータをホスト装置30に送信する。 The processor 12 or 22 of Modification 6 transmits replay request data for requesting reproduction of the replay video to the host device 30 according to the user's instruction.

プロセッサ32は、第1クライアント装置10又は第2クライアント装置20から送信されたリプレイリクエストデータに応じて、記憶装置31に記憶された以下の情報を合成することにより、リプレイ動画を生成する。
・第1顔画像
・第1予測顔画像
・第1音声
・第2顔画像
・第2予測顔画像
・第2音声
The processor 32 generates a replay video by synthesizing the following information stored in the storage device 31 according to the replay request data transmitted from the first client device 10 or the second client device 20.
・First face image ・First predicted face image ・First voice ・Second face image ・Second predicted face image ・Second voice

プロセッサ32は、リプレイ動画を第1クライアント装置10又は第2クライアント装置20に送信する。 Processor 32 transmits the replay video to first client device 10 or second client device 20 .

プロセッサ12又は22は、第1クライアント装置10又は第2クライアント装置20から送信されたリプレイ動画を再生する。これにより、ディスプレイ16又は26には、リプレイ動画の画像が表示される。スピーカ18又は28からは、リプレイ動画の音声が出力される。 The processor 12 or 22 reproduces the replay video transmitted from the first client device 10 or the second client device 20. FIG. As a result, the display 16 or 26 displays the image of the replay moving image. The sound of the replay video is output from the speaker 18 or 28 .

変形例6によれば、第1ユーザ及び第2ユーザの会話の記録であるリプレイ動画が提供される。これにより、ユーザに対して、会話のモチベーションを与えることができる。 According to Modified Example 6, a replay video that is a recording of conversations between the first user and the second user is provided. This makes it possible to give the user motivation for conversation.

なお、変形例6では、プロセッサ12又は22は、リプレイ動画のファイルをホスト装置30に保存しても良い。
ホスト装置30がウェブサーバである場合、ホスト装置30は、リプレイ動画のファイルにURL(Uniform Resource Locator)を割り当てる。
ホスト装置30は、第1ユーザ、第2ユーザ、並びに、第1ユーザ及び第2ユーザとは異なる第3ユーザ(つまり、第三者)の閲覧リクエストに応じて、閲覧リクエストを行ったユーザが使用するクライアント装置を介して、リプレイ動画を提示する。閲覧リクエストは、例えば、リプレイ動画のファイルが保存されたウェブサーバのアドレス(一例として、URL(Uniform Resource Locator))に対するアクセスである。
これにより、第1ユーザ~第3ユーザの少なくとも1人に対して、会話の終了後にリプレイ動画を提供することができる。
Note that in Modification 6, the processor 12 or 22 may store the file of the replay movie in the host device 30 .
If the host device 30 is a web server, the host device 30 assigns a URL (Uniform Resource Locator) to the replay movie file.
The host device 30 is used by the user who made the browsing request in response to the browsing request of the first user, the second user, and a third user (that is, a third party) different from the first user and the second user. A replay video is presented via a client device that The viewing request is, for example, an access to an address (for example, a URL (Uniform Resource Locator)) of a web server in which a replay movie file is stored.
Thereby, at least one of the first user to the third user can be provided with a replay video after the end of the conversation.

(5)本実施形態の小括
本実施形態について小括する。
(5) Summary of this embodiment This embodiment will be summarized.

本実施形態の第1態様は、
複数のユーザの会話を支援する情報処理装置(例えば、ホスト装置30)であって、
第1ユーザの第1顔画像を取得する手段(ステップS130の処理を実行するプロセッサ32)を備え、
第1ユーザの第1音声を取得する手段(ステップS133の処理を実行するプロセッサ32)を備え、
第2ユーザの第2顔画像を取得する手段(ステップS130の処理を実行するプロセッサ32)を備え、
第2ユーザの第2音声を取得する手段(ステップS133の処理を実行するプロセッサ32)を備え、
第1顔画像に基づいて、第1ユーザの年齢から加齢又は減齢した第1指定年齢における第1ユーザの第1予測顔画像を生成する手段(ステップS131の処理を実行するプロセッサ32)を備え、
第2顔画像に基づいて、第2ユーザの年齢から加齢又は減齢した第2指定年齢における第2ユーザの第2予測顔画像を生成する手段(ステップS131の処理を実行するプロセッサ32)を備え、
第1予測顔画像を、第2クライアント装置20を介して第2ユーザに提示する手段(ステップS132の処理を実行するプロセッサ32)を備え、
第2予測顔画像を、第1クライアント装置10を介して第1ユーザに提示する手段(ステップS132の処理を実行するプロセッサ32)を備え、
第1ユーザ及び第2ユーザの少なくとも1人に対して発話を促すメッセージを生成する手段(ステップS132の処理を実行するプロセッサ32)を備え、
第1ユーザ及び第2ユーザの少なくとも1人に対してメッセージを提示する手段(ステップS132の処理を実行するプロセッサ32)を備え、
メッセージに応じた第2音声を、第1クライアント装置10を介して第1ユーザに提示する手段(ステップS133の処理を実行するプロセッサ32)を備え、
メッセージに応じた第1音声を、第2クライアント装置20を介して第2ユーザに提示する手段(ステップS133の処理を実行するプロセッサ32)を備える、
情報処理装置である。
The first aspect of this embodiment is
An information processing device (for example, a host device 30) that supports conversations of a plurality of users,
Means for acquiring the first face image of the first user (processor 32 for executing the process of step S130),
Means for acquiring the first voice of the first user (processor 32 for executing the process of step S133),
Means for acquiring the second face image of the second user (processor 32 for executing the process of step S130),
A means for acquiring the second voice of the second user (processor 32 for executing the process of step S133),
Means (processor 32 for executing the process of step S131) for generating, based on the first facial image, a first predicted facial image of the first user at a first specified age that is older or younger than the age of the first user prepared,
means for generating a second predicted face image of the second user at a second designated age that is older or younger than the age of the second user (processor 32 that executes the process of step S131) based on the second face image; prepared,
means for presenting the first predicted face image to the second user via the second client device 20 (processor 32 for executing the process of step S132);
means for presenting the second predicted face image to the first user via the first client device 10 (processor 32 for executing the process of step S132);
Means for generating a message prompting at least one of the first user and the second user to speak (processor 32 for executing the process of step S132);
Means for presenting a message to at least one of the first user and the second user (processor 32 for executing the process of step S132);
means for presenting a second voice corresponding to the message to the first user via the first client device 10 (processor 32 for executing the process of step S133);
means for presenting the first voice corresponding to the message to the second user via the second client device 20 (processor 32 for executing the process of step S133);
It is an information processing device.

第1態様によれば、第1ユーザの第1指定年齢に応じた第1予測画像を第2ユーザに提示し、第2ユーザの第2指定年齢に応じた第2予測画像を第1ユーザに提示し、且つ、第1ユーザ及び第2ユーザの少なくとも1人に発話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話を促進することができる。 According to the first aspect, the first predicted image corresponding to the first specified age of the first user is presented to the second user, and the second predicted image corresponding to the second specified age of the second user is presented to the first user. and a message prompting at least one of the first user and the second user to speak. Thereby, the conversation between the first user and the second user can be promoted.

本実施形態の第2態様は、
第1顔画像に基づいて、第1ユーザの感情を解析する手段(ステップS133の処理を実行するプロセッサ32)を備え、
第2顔画像に基づいて、第2ユーザの感情を解析する手段(ステップS133の処理を実行するプロセッサ32)を備え、
メッセージを生成する手段は、第1ユーザの感情及び第2ユーザの感情の少なくとも1つに応じたメッセージを生成する、
情報処理装置である。
A second aspect of the present embodiment is
Based on the first facial image, means for analyzing the emotion of the first user (processor 32 for executing the process of step S133),
Based on the second face image, means for analyzing the emotion of the second user (processor 32 for executing the process of step S133),
the means for generating a message generates a message according to at least one of the emotion of the first user and the emotion of the second user;
It is an information processing device.

第2態様によれば、第1ユーザの感情及び第2ユーザの感情の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the second aspect, at least one of the first user and the second user is presented with a message according to at least one of the first user's emotion and the second user's emotion. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第3態様は、
第1音声に基づいて、第1ユーザの感情を解析する手段(ステップS133の処理を実行するプロセッサ32)を備え、
第2音声に基づいて、第2ユーザの感情を解析する手段(ステップS133の処理を実行するプロセッサ32)を備え、
メッセージを生成する手段は、第1ユーザの感情及び第2ユーザの感情の少なくとも1つに応じたメッセージを生成する、
情報処理装置である。
The third aspect of this embodiment is
Based on the first voice, means for analyzing the emotion of the first user (processor 32 for executing the process of step S133);
Based on the second voice, means for analyzing the emotion of the second user (processor 32 for executing the process of step S133);
the means for generating a message generates a message according to at least one of the emotion of the first user and the emotion of the second user;
It is an information processing device.

第3態様によれば、第1ユーザの感情及び第2ユーザの感情の少なくとも1つに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the third aspect, the message is presented according to at least one of the emotions of the first user and the emotions of the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第4態様は、
第1音声に基づいて、第1音声の文脈を解析する手段(例えば、変形例1のプロセッサ32)を備え、
第2音声に基づいて、第2音声の文脈を解析する手段(例えば、変形例1のプロセッサ32)を備え、
メッセージを生成する手段は、第1音声の文脈及び第2音声の文脈の少なくとも1つに応じたメッセージを生成する、
情報処理装置である。
The fourth aspect of this embodiment is
Based on the first speech, means for analyzing the context of the first speech (for example, the processor 32 of Variation 1);
Based on the second speech, means for analyzing the context of the second speech (for example, the processor 32 of the first variant);
the means for generating a message generates a message responsive to at least one of the context of the first audio and the context of the second audio;
It is an information processing device.

第4態様によれば、第1ユーザ及び第2ユーザの少なくとも1人が発話した音声の文脈に応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the fourth aspect, the message is presented according to the context of the voice uttered by at least one of the first user and the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第5態様は、
第1ユーザの環境に関する第1環境情報を取得する手段を備え、
第2ユーザの環境に関する第2環境情報を取得する手段を備え、
メッセージを生成する手段は、第1環境情報及び第2環境情報の少なくとも1つに応じたメッセージを生成する、
情報処理装置である。
The fifth aspect of this embodiment is
means for obtaining first environmental information about the first user's environment;
means for obtaining second environmental information about the second user's environment;
the means for generating a message generates a message according to at least one of the first environmental information and the second environmental information;
It is an information processing device.

第5態様によれば、第1ユーザ及び第2ユーザの少なくとも1人の環境に応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the fifth aspect, the message is presented according to the environment of at least one of the first user and the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第6態様は、
第1環境情報及び第2環境情報は、温度情報、湿度情報、及び、紫外線情報の少なくとも1つを含む、
情報処理装置である。
A sixth aspect of the present embodiment is
the first environmental information and the second environmental information include at least one of temperature information, humidity information, and ultraviolet information;
It is an information processing device.

第6態様によれば、第1ユーザの環境における温度、湿度、及び、紫外線、並びに、第2ユーザの環境における温度、湿度、及び、紫外線の少なくとも1つに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the sixth aspect, a message is presented according to at least one of the temperature, humidity, and ultraviolet rays in the first user's environment and the temperature, humidity, and ultraviolet rays in the second user's environment. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第7態様は、
メッセージを生成する手段は、第1ユーザの属性及び第2ユーザの属性の組合せに応じたメッセージを生成する、
情報処理装置である。
The seventh aspect of this embodiment is
means for generating a message generates a message according to a combination of attributes of the first user and attributes of the second user;
It is an information processing device.

第7態様によれば、第1ユーザの属性及び第2ユーザの属性の組合せに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the seventh aspect, a message is presented according to the combination of the attributes of the first user and the attributes of the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第8態様は、
属性は、ユーザの年齢及び性別の少なくとも1つを含む、
情報処理装置である。
The eighth aspect of the present embodiment is
the attributes include at least one of age and gender of the user;
It is an information processing device.

第7態様によれば、第1ユーザの年齢及び性別の少なくとも1つと、第2ユーザの年齢及び性別の少なくとも1つと、の組合せに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the seventh aspect, a message is presented according to a combination of at least one of the first user's age and sex and at least one of the second user's age and sex. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第9態様は、
メッセージを生成する手段は、第1ユーザと第2ユーザとの関係に応じたメッセージを生成する、
情報処理装置である。
A ninth aspect of the present embodiment is
the means for generating a message generates a message according to the relationship between the first user and the second user;
It is an information processing device.

第9態様によれば、第1ユーザ及び第2ユーザの関係に応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the ninth aspect, a message is presented according to the relationship between the first user and the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第10態様は、
メッセージを生成する手段は、第1指定年齢及び第2指定年齢の組合せに応じたメッセージを生成する、
情報処理装置である。
A tenth aspect of the present embodiment is
The means for generating a message generates a message according to a combination of the first designated age and the second designated age;
It is an information processing device.

第10態様によれば、第1ユーザの第1指定年齢及び第2ユーザの第2指定年齢の組合せに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the tenth aspect, a message is presented according to the combination of the first specified age of the first user and the second specified age of the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第11態様は、
メッセージを生成する手段は、第1指定年齢及び第2指定年齢の大小関係及び指定年齢差の少なくとも1つに応じたメッセージを提示する、
情報処理装置である。
The eleventh aspect of this embodiment is
The means for generating the message presents a message according to at least one of the magnitude relationship between the first specified age and the second specified age and the specified age difference.
It is an information processing device.

第11態様によれば、第1ユーザの第1指定年齢及び第2ユーザの第2指定年齢の大小関係及び指定年齢差の少なくとも1つに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the eleventh aspect, a message is presented according to at least one of the size relationship between the first specified age of the first user and the second specified age of the second user and the specified age difference. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第12態様は、
第2ユーザに対する第1ユーザの視線と、第1ユーザに対する第2ユーザの視線と、を遮る位置に配置された遮蔽部W1を備える、
情報処理装置である。
The twelfth aspect of this embodiment is
A shielding part W1 arranged at a position that blocks the first user's line of sight to the second user and the second user's line of sight to the first user,
It is an information processing device.

第12態様によれば、遮蔽部W1が第1ユーザ及び第2ユーザが互いの表情を直接認知できない環境を構築する。第1ユーザ及び第2ユーザは、それぞれ、第2予測画像及び第1予測画像を見ながら会話するように誘導される。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the twelfth aspect, the shield W1 constructs an environment in which the first user and the second user cannot directly perceive each other's facial expressions. The first user and the second user are guided to have a conversation while viewing the second predicted image and the first predicted image, respectively. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第13態様は、
第1顔画像、第2顔画像、第1予測顔画像、第2予測顔画像、第1音声、及び、第2音声の組合せを含むログデータと、会話の経過時間と、を関連付けて記憶する手段(例えば、ステップS135を実行するプロセッサ32)を備え、
経過時間に関連付けられたログデータを用いてリプレイ動画を生成する手段(例えば、変形例6のプロセッサ32)を備え、
第1ユーザ、第2ユーザ、並びに、第1ユーザ及び第2ユーザ以外の第3ユーザの少なくとも1人に提示する手段(例えば、変形例6のプロセッサ32)を備える、
情報処理装置である。
The thirteenth aspect of this embodiment is
Log data including a combination of a first facial image, a second facial image, a first predicted facial image, a second predicted facial image, a first voice, and a second voice are stored in association with the elapsed time of the conversation. means (e.g., processor 32 for performing step S135);
Means for generating a replay video using log data associated with elapsed time (for example, processor 32 of modification 6);
means for presenting to at least one of the first user, the second user, and a third user other than the first user and the second user (e.g., the processor 32 of Variation 6);
It is an information processing device.

第13態様によれば、リプレイ動画が提供される。これにより、第1ユーザ~第3ユーザの少なくとも1人は、会話の終了後に、会話の様子を閲覧することができる。 According to the thirteenth aspect, a replay movie is provided. This allows at least one of the first to third users to view the state of the conversation after the conversation ends.

本実施形態の第14態様は、
会話の終了後に、第1ユーザの第1記念画像と、第2ユーザの第2記念画像と、を取得する手段(例えば、ステップS135を実行するプロセッサ32)を備える、
情報処理装置である。
The fourteenth aspect of this embodiment is
means for acquiring a first commemorative image of the first user and a second commemorative image of the second user after the end of the conversation (e.g., the processor 32 executing step S135);
It is an information processing device.

第14態様によれば、第1ユーザの第1記念画像及び第2ユーザの第2記念画像の組合せを取得する。これにより、会話の記念画像を保存することができる。 According to the fourteenth aspect, a combination of the first commemorative image of the first user and the second commemorative image of the second user is obtained. As a result, a commemorative image of the conversation can be saved.

本実施形態の第15態様は、
第1予測顔画像及び第2予測画像を、第1クライアント装置10及び第2クライアント装置20を介して第1ユーザ及び第2ユーザに提示する手段(例えば、ステップS130を実行するプロセッサ32)を備える、
情報処理装置である。
The fifteenth aspect of this embodiment is
means for presenting the first predicted face image and the second predicted image to the first user and the second user via the first client device 10 and the second client device 20 (eg, the processor 32 executing step S130); ,
It is an information processing device.

第15態様によれば、第1予測画像及び第2予測画像の組合せを、第1ユーザ及び第2ユーザに提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the fifteenth aspect, the combination of the first predicted image and the second predicted image is presented to the first user and the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.

本実施形態の第16態様は、
コンピュータ(例えば、プロセッサ12、22、及び、32の少なくとも1つ)を、上記の各手段として機能させるためのプログラムである。
The sixteenth aspect of this embodiment is
A program for causing a computer (for example, at least one of processors 12, 22, and 32) to function as each of the means described above.

(6)その他の変形例
その他の変形例を説明する。
(6) Other Modifications Other modifications will be described.

記憶装置11は、ネットワークNWを介して、第1クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、ホスト装置30と接続されてもよい。 The storage device 11 may be connected to the first client device 10 via the network NW. The storage device 31 may be connected to the host device 30 via the network NW.

上記の情報処理のホスト装置30の各ステップは、第1クライアント装置10及び第2クライアント装置20でも実行可能である。この場合、第1クライアント装置10及び第2クライアント装置20は、ホスト装置30にリクエストを送信することなく、スタンドアロンで動作する情報処理装置として機能する。 Each step of the host device 30 for the above information processing can also be executed by the first client device 10 and the second client device 20 . In this case, the first client device 10 and the second client device 20 function as standalone information processing devices without sending requests to the host device 30 .

ホスト装置30は、サーバ(例えば、ウェブサーバ)であっても良い。この場合、第1クライアント装置10及び第2クライアント装置20は、例えば、インターネットを介してサーバに接続される。 The host device 30 may be a server (eg, web server). In this case, the first client device 10 and the second client device 20 are connected to the server via the Internet, for example.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Also, the above embodiments can be modified and modified in various ways without departing from the gist of the present invention. Also, the above embodiments and modifications can be combined.

1 :情報処理システム
10 :第1クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
16 :ディスプレイ
17 :マイクロフォン
18 :スピーカ
20 :第2クライアント装置
21 :記憶装置
22 :プロセッサ
23 :入出力インタフェース
24 :通信インタフェース
25 :カメラ
26 :ディスプレイ
27 :マイクロフォン
28 :スピーカ
30 :ホスト装置
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1: information processing system 10 : first client device 11 : storage device 12 : processor 13 : input/output interface 14 : communication interface 15 : camera 16 : display 17 : microphone 18 : speaker 20 : second client device 21 : storage device 22 : Processor 23 : Input/output interface 24 : Communication interface 25 : Camera 26 : Display 27 : Microphone 28 : Speaker 30 : Host device 31 : Storage device 32 : Processor 33 : Input/output interface 34 : Communication interface

Claims (16)

複数のユーザの会話を支援する情報処理装置であって、
第1ユーザの第1顔画像を取得する手段を備え、
前記第1ユーザの第1音声を取得する手段を備え、
第2ユーザの第2顔画像を取得する手段を備え、
前記第2ユーザの第2音声を取得する手段を備え、
前記第1顔画像に基づいて、前記第1ユーザの年齢から加齢又は減齢した第1指定年齢における前記第1ユーザの第1予測顔画像を生成する手段を備え、
前記第2顔画像に基づいて、前記第2ユーザの年齢から加齢又は減齢した第2指定年齢における前記第2ユーザの第2予測顔画像を生成する手段を備え、
前記第1予測顔画像を、第2クライアント装置を介して前記第2ユーザに提示する手段を備え、
前記第2予測顔画像を、第1クライアント装置を介して前記第1ユーザに提示する手段を備え、
前記第1ユーザ及び前記第2ユーザの少なくとも1人に対して発話を促すメッセージを生成する手段を備え、
前記第1ユーザ及び前記第2ユーザの少なくとも1人に対して前記メッセージを提示する手段を備え、
前記メッセージに応じた第2音声を、前記第1クライアント装置を介して前記第1ユーザに提示する手段を備え、
前記メッセージに応じた第1音声を、前記第2クライアント装置を介して前記第2ユーザに提示する手段を備える、
情報処理装置。
An information processing device that supports conversation of a plurality of users,
comprising means for acquiring a first face image of the first user;
comprising means for acquiring a first voice of the first user;
comprising means for acquiring a second face image of the second user;
comprising means for acquiring a second voice of the second user;
means for generating a first predicted face image of the first user at a first designated age that is older or younger than the age of the first user, based on the first face image;
means for generating a second predicted face image of the second user at a second specified age that is older or younger than the age of the second user, based on the second face image;
means for presenting the first predicted face image to the second user via a second client device;
means for presenting the second predicted face image to the first user via the first client device;
means for generating a message prompting at least one of the first user and the second user to speak;
means for presenting the message to at least one of the first user and the second user;
means for presenting a second voice corresponding to the message to the first user via the first client device;
means for presenting a first voice corresponding to the message to the second user via the second client device;
Information processing equipment.
前記第1顔画像に基づいて、前記第1ユーザの感情を解析する手段を備え、
前記第2顔画像に基づいて、前記第2ユーザの感情を解析する手段を備え、
前記メッセージを生成する手段は、前記第1ユーザの感情及び前記第2ユーザの感情の少なくとも1つに応じたメッセージを生成する、
請求項1に記載の情報処理装置。
comprising means for analyzing the emotion of the first user based on the first facial image;
comprising means for analyzing the emotion of the second user based on the second face image;
the means for generating the message generates a message according to at least one of the emotion of the first user and the emotion of the second user;
The information processing device according to claim 1 .
前記第1音声に基づいて、前記第1ユーザの感情を解析する手段を備え、
前記第2音声に基づいて、前記第2ユーザの感情を解析する手段を備え、
前記メッセージを生成する手段は、前記第1ユーザの感情及び前記第2ユーザの感情の少なくとも1つに応じたメッセージを生成する、
請求項1又は2に記載の情報処理装置。
comprising means for analyzing the emotion of the first user based on the first voice;
comprising means for analyzing the emotion of the second user based on the second voice;
the means for generating the message generates a message according to at least one of the emotion of the first user and the emotion of the second user;
The information processing apparatus according to claim 1 or 2.
前記第1音声に基づいて、前記第1音声の文脈を解析する手段を備え、
前記第2音声に基づいて、前記第2音声の文脈を解析する手段を備え、
前記メッセージを生成する手段は、前記第1音声の文脈及び前記第2音声の文脈の少なくとも1つに応じたメッセージを生成する、
請求項1~3の何れかに記載の情報処理装置。
means for analyzing the context of the first speech based on the first speech;
means for analyzing the context of the second speech based on the second speech;
the means for generating a message generates a message according to at least one of the context of the first sound and the context of the second sound;
The information processing apparatus according to any one of claims 1 to 3.
前記第1ユーザの環境に関する第1環境情報を取得する手段を備え、
前記第2ユーザの環境に関する第2環境情報を取得する手段を備え、
前記メッセージを生成する手段は、前記第1環境情報及び前記第2環境情報の少なくとも1つに応じたメッセージを生成する、
請求項1~4の何れかに記載の情報処理装置。
comprising means for obtaining first environmental information relating to the first user's environment;
comprising means for acquiring second environmental information relating to the second user's environment;
the means for generating the message generates a message according to at least one of the first environmental information and the second environmental information;
The information processing apparatus according to any one of claims 1 to 4.
前記第1環境情報及び前記第2環境情報は、温度情報、湿度情報、及び、紫外線情報の少なくとも1つを含む、
請求項5に記載の情報処理装置。
wherein the first environmental information and the second environmental information include at least one of temperature information, humidity information, and ultraviolet information;
The information processing device according to claim 5 .
前記メッセージを生成する手段は、前記第1ユーザの属性及び前記第2ユーザの属性の組合せに応じたメッセージを生成する、
請求項1~6の何れかに記載の情報処理装置。
The means for generating the message generates a message according to a combination of attributes of the first user and attributes of the second user.
The information processing apparatus according to any one of claims 1 to 6.
前記属性は、ユーザの年齢及び性別の少なくとも1つを含む、
請求項1~7の何れかに記載の情報処理装置。
the attributes include at least one of age and gender of the user;
The information processing apparatus according to any one of claims 1 to 7.
前記メッセージを生成する手段は、前記第1ユーザと前記第2ユーザとの関係に応じたメッセージを生成する、
請求項1~8の何れかに記載の情報処理装置。
the means for generating the message generates a message according to the relationship between the first user and the second user;
The information processing apparatus according to any one of claims 1 to 8.
前記メッセージを生成する手段は、前記第1指定年齢及び前記第2指定年齢の組合せに応じたメッセージを生成する、
請求項1~9の何れかに記載の情報処理装置。
The means for generating the message generates a message according to the combination of the first specified age and the second specified age.
The information processing apparatus according to any one of claims 1 to 9.
前記メッセージを生成する手段は、前記第1指定年齢及び前記第2指定年齢の大小関係及び指定年齢差の少なくとも1つに応じたメッセージを提示する、
請求項10に記載の情報処理装置。
The means for generating the message presents a message according to at least one of the magnitude relationship between the first specified age and the second specified age and the specified age difference.
The information processing apparatus according to claim 10.
前記第2ユーザに対する前記第1ユーザの視線と、前記第1ユーザに対する前記第2ユーザの視線と、を遮る位置に配置された遮蔽部を備える、
請求項1~11の何れかに記載の情報処理装置。
A shielding unit arranged at a position that blocks the line of sight of the first user with respect to the second user and the line of sight of the second user with respect to the first user,
The information processing apparatus according to any one of claims 1 to 11.
前記第1顔画像、前記第2顔画像、前記第1予測顔画像、前記第2予測顔画像、前記第1音声、及び、前記第2音声の組合せを含むログデータと、会話の経過時間と、を関連付けて記憶する手段を備え、
前記経過時間に関連付けられたログデータを用いてリプレイ動画を生成する手段を備え、
前記第1ユーザ、前記第2ユーザ、並びに、前記第1ユーザ及び前記第2ユーザ以外の第3ユーザの少なくとも1人に提示する手段を備える、
請求項1~12の何れかに記載の情報処理装置。
Log data including a combination of the first face image, the second face image, the first predicted face image, the second predicted face image, the first voice, and the second voice, and the elapsed time of the conversation , and means for storing in association with
comprising means for generating a replay video using log data associated with the elapsed time;
Means for presenting to at least one of the first user, the second user, and a third user other than the first user and the second user;
The information processing apparatus according to any one of claims 1 to 12.
前記会話の終了後に、前記第1ユーザの第1記念画像と、前記第2ユーザの第2記念画像と、を取得する手段を備える、
請求項1~13の何れかに記載の情報処理装置。
After the end of the conversation, means for acquiring a first commemorative image of the first user and a second commemorative image of the second user,
The information processing apparatus according to any one of claims 1 to 13.
前記第1予測顔画像及び第2予測画像を、前記第1クライアント装置及び前記第2クライアント装置を介して前記第1ユーザ及び前記第2ユーザに提示する手段を備える、
請求項1~14の何れかに記載の情報処理装置。
means for presenting the first predicted face image and the second predicted image to the first user and the second user via the first client device and the second client device;
The information processing apparatus according to any one of claims 1 to 14.
コンピュータを、請求項1~15の何れかに記載の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means according to any one of claims 1 to 15.
JP2019202887A 2019-11-08 2019-11-08 Information processing device and program Pending JP2022176415A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019202887A JP2022176415A (en) 2019-11-08 2019-11-08 Information processing device and program
PCT/JP2020/040558 WO2021090750A1 (en) 2019-11-08 2020-10-29 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019202887A JP2022176415A (en) 2019-11-08 2019-11-08 Information processing device and program

Publications (1)

Publication Number Publication Date
JP2022176415A true JP2022176415A (en) 2022-11-29

Family

ID=75849686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019202887A Pending JP2022176415A (en) 2019-11-08 2019-11-08 Information processing device and program

Country Status (2)

Country Link
JP (1) JP2022176415A (en)
WO (1) WO2021090750A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115410262B (en) * 2022-10-09 2023-06-23 上海本趣网络科技有限公司 Face image information prediction system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JPH09135427A (en) * 1995-11-10 1997-05-20 Sharp Corp Television camera equipment
JP2009044299A (en) * 2007-08-07 2009-02-26 Nippon Telegr & Teleph Corp <Ntt> Automatic calling system, automatic call control method, terminal, terminal control method, service controller, and service control method
CN104103242B (en) * 2008-11-28 2016-09-14 株式会社半导体能源研究所 Display device and comprise the electronic device of display device
JP2010224802A (en) * 2009-03-23 2010-10-07 Hironobu Otoi Virtual face image creation device and virtual face image creation method
WO2014103645A1 (en) * 2012-12-28 2014-07-03 株式会社ユニバーサルエンターテインメント Conversation topic provision system, conversation control terminal device, and maintenance device
JP5907469B2 (en) * 2015-10-16 2016-04-26 洋彰 宮崎 Artificial intelligence device that autonomously expands knowledge by language input
WO2018074516A1 (en) * 2016-10-21 2018-04-26 株式会社Myth Information processing system

Also Published As

Publication number Publication date
WO2021090750A1 (en) 2021-05-14

Similar Documents

Publication Publication Date Title
JP6866860B2 (en) Electronic conferencing system
US11061700B2 (en) Virtual assistants using state-based artificial intelligence
JP2021044814A (en) Electronic conference system
US11024286B2 (en) Spoken dialog system, spoken dialog device, user terminal, and spoken dialog method, retrieving past dialog for new participant
JP6889281B2 (en) Analyzing electronic conversations for presentations in alternative interfaces
US20200410732A1 (en) Method and apparatus for generating information
KR102428368B1 (en) Initializing a conversation with an automated agent via selectable graphical element
WO2020181783A1 (en) Method and device for sending information
US11935530B2 (en) Multimodal responses
CN112364144A (en) Interaction method, device, equipment and computer readable medium
WO2021090750A1 (en) Information processing device, information processing method, and program
CN106682976A (en) Method and apparatus for auctioning objects
CN114064943A (en) Conference management method, conference management device, storage medium and electronic equipment
KR102157790B1 (en) Method, system, and computer program for operating live quiz show platform including characters
JP6949931B2 (en) Methods and devices for generating information
KR20230141410A (en) Telemedicine service providing device that provides medical assistance service using artificial neural network
US20180176631A1 (en) Methods and systems for providing an interactive second screen experience
US11164576B2 (en) Multimodal responses
US20210050118A1 (en) Systems And Methods For Facilitating Expert Communications
CN113767379B (en) Rendering content using content agents and/or stored content parameters
US20200110515A1 (en) Dynamic list composition based on modality of multimodal client device
CN110989910A (en) Interaction method, system, device, electronic equipment and storage medium
US20240103893A1 (en) Generating content endorsements using machine learning nominator(s)
CN116245974A (en) Voice-based drawing method, device, equipment and storage medium
CN113868399A (en) Server over-selling implementation method and device, storage medium and electronic equipment