JP2022176415A - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP2022176415A JP2022176415A JP2019202887A JP2019202887A JP2022176415A JP 2022176415 A JP2022176415 A JP 2022176415A JP 2019202887 A JP2019202887 A JP 2019202887A JP 2019202887 A JP2019202887 A JP 2019202887A JP 2022176415 A JP2022176415 A JP 2022176415A
- Authority
- JP
- Japan
- Prior art keywords
- user
- message
- information processing
- client device
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and program.
近年、ユーザ間の会話を促進する技術に注目が集まっている。
例えば、特許文献1は、事実情報(嗜好情報、類似度、及び、アクション履歴)に基づいて会話を促進させる技術を開示している。
In recent years, attention has been focused on techniques for promoting conversations between users.
For example,
実際の会話は、会話の各参加者の会話中の反応(例えば、会話相手の表情及び会話相手が発した言葉の意味)の組合せに応じて、インタラクティブに展開される。 The actual conversation develops interactively according to the combination of reactions during the conversation of each participant in the conversation (for example, the expression of the conversation partner and the meaning of the words uttered by the conversation partner).
しかし、特許文献1の技術では、会話の前の時点で確定している事実情報のみを参照するので、会話中の反応の組合せに応じた会話の展開に影響を与えるものではない。したがって、複数のユーザの会話の促進には寄与しない。
However, the technique of
本発明の目的は、複数のユーザの会話を促進することである。 It is an object of the present invention to facilitate multi-user conversations.
本発明の一態様は、
複数のユーザの会話を支援する情報処理装置であって、
第1ユーザの第1顔画像を取得する手段を備え、
前記第1ユーザの第1音声を取得する手段を備え、
第2ユーザの第2顔画像を取得する手段を備え、
前記第2ユーザの第2音声を取得する手段を備え、
前記第1顔画像に基づいて、前記第1ユーザの年齢から加齢又は減齢した第1指定年齢における前記第1ユーザの第1予測顔画像を生成する手段を備え、
前記第2顔画像に基づいて、前記第2ユーザの年齢から加齢又は減齢した第2指定年齢における前記第2ユーザの第2予測顔画像を生成する手段を備え、
前記第1予測顔画像を、第2クライアント装置を介して前記第2ユーザに提示する手段を備え、
前記第2予測顔画像を、第1クライアント装置を介して前記第1ユーザに提示する手段を備え、
前記第1ユーザ及び前記第2ユーザの少なくとも1人に対して発話を促すメッセージを生成する手段を備え、
前記第1ユーザ及び前記第2ユーザの少なくとも1人に対して前記メッセージを提示する手段を備え、
前記メッセージに応じた第2音声を、前記第1クライアント装置を介して前記第1ユーザに提示する手段を備え、
前記メッセージに応じた第1音声を、前記第2クライアント装置を介して前記第2ユーザに提示する手段を備える、
情報処理装置である。
One aspect of the present invention is
An information processing device that supports conversation of a plurality of users,
comprising means for acquiring a first face image of the first user;
comprising means for acquiring a first voice of the first user;
comprising means for acquiring a second face image of the second user;
comprising means for acquiring a second voice of the second user;
means for generating a first predicted face image of the first user at a first designated age that is older or younger than the age of the first user, based on the first face image;
means for generating a second predicted face image of the second user at a second specified age that is older or younger than the age of the second user, based on the second face image;
means for presenting the first predicted face image to the second user via a second client device;
means for presenting the second predicted face image to the first user via the first client device;
means for generating a message prompting at least one of the first user and the second user to speak;
means for presenting the message to at least one of the first user and the second user;
means for presenting a second voice corresponding to the message to the first user via the first client device;
means for presenting a first voice corresponding to the message to the second user via the second client device;
It is an information processing device.
本発明によれば、複数のユーザの会話を促進することができる。 ADVANTAGE OF THE INVENTION According to this invention, a conversation of several users can be promoted.
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 An embodiment of the present invention will be described in detail below with reference to the drawings. In the drawings for describing the embodiments, in principle, the same constituent elements are denoted by the same reference numerals, and repeated description thereof will be omitted.
(1)情報処理システムの構成
情報処理システムの構成を説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a block diagram showing the configuration of the information processing system of this embodiment.
図1に示すように、情報処理システム1は、第1クライアント装置10と、第2クライアント装置20と、ホスト装置30とを備える。
ホスト装置30は、第1クライアント装置10及び第2クライアント装置20に通信可能に接続される。
As shown in FIG. 1 , the
The
第1クライアント装置10は、ホスト装置30にリクエストを送信するコンピュータ(「情報処理装置」の一例)である。第1クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
The
ホスト装置30は、第1クライアント装置10から送信されたリクエストに応じたレスポンスを第1クライアント装置10に提供するコンピュータ(「情報処理装置」の一例)である。ホスト装置30は、例えば、ウェブホスト装置である。
The
(1-1)第1クライアント装置の構成
第1クライアント装置10の構成を説明する。図2は、図1の第1クライアント装置の機能ブロック図である。
(1-1) Configuration of First Client Device The configuration of the
図2に示すように、第1クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、ディスプレイ16と、マイクロフォン17と、スピーカ18と、を備える。
As shown in FIG. 2, the
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
Programs include, for example, the following programs.
・OS (Operating System) program ・Application (for example, web browser) program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、第1クライアント装置10の機能を実現するように構成される。プロセッサ12は、例えば、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又は、これらの組み合わせである。
The
入出力インタフェース13は、第1クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、第1クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、ハードキー、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。また、入力デバイスは、カメラ15及びディスプレイ16を含む。
出力デバイスは、ディスプレイ16及びスピーカ18を含む。
The input/output interface 13 is configured to acquire user instructions from an input device connected to the
Input devices are, for example, hard keys, keyboards, pointing devices, touch panels, or combinations thereof. Input devices also include
Output devices include
通信インタフェース14は、第1クライアント装置10とホスト装置30との間の通信を制御するように構成される。
The communication interface 14 is configured to control communication between the
カメラ15は、画像を取得するように構成される。 Camera 15 is configured to acquire images.
ディスプレイ16は、プロセッサ12によって生成された画像を表示するように構成される。
マイクロフォン17は、音声を取得するように構成される。 Microphone 17 is configured to pick up sound.
スピーカ18は、プロセッサ12によって生成された音声を出力するように構成される。
Speaker 18 is configured to output audio generated by
(1-2)第2クライアント装置の構成
第2クライアント装置20の構成を説明する。図3は、図2の第2クライアント装置の機能ブロック図である。
(1-2) Configuration of Second Client Device The configuration of the
図3に示すように、第2クライアント装置20は、記憶装置21と、プロセッサ22と、入出力インタフェース23と、通信インタフェース24と、カメラ25と、ディスプレイ26と、マイクロフォン27と、スピーカ28と、を備える。
As shown in FIG. 3, the
記憶装置21は、プログラム及びデータを記憶するように構成される。記憶装置21は、例えば、ROM、RAM、及び、ストレージの組合せである。 Storage device 21 is configured to store programs and data. The storage device 21 is, for example, a combination of ROM, RAM and storage.
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
Programs include, for example, the following programs.
- OS program - Application (for example, web browser) program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)
プロセッサ22は、記憶装置21に記憶されたプログラムを起動することによって、第2クライアント装置20の機能を実現するように構成される。プロセッサ22は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。
The
入出力インタフェース23は、第2クライアント装置20に接続される入力デバイスからユーザの指示を取得し、かつ、第2クライアント装置20に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、ハードキー、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。また、入力デバイスは、カメラ25及びマイクロフォン27を含む。
出力デバイスは、ディスプレイ26及びスピーカ28を含む。
The input/
Input devices are, for example, hard keys, keyboards, pointing devices, touch panels, or combinations thereof. Input devices also include a
Output devices include
通信インタフェース24は、第2クライアント装置20とホスト装置30との間の通信を制御するように構成される。
Communication interface 24 is configured to control communication between
カメラ25は、画像を取得するように構成される。
ディスプレイ26は、プロセッサ22によって生成された画像を表示するように構成される。
マイクロフォン27は、音声を取得するように構成される。 A microphone 27 is configured to pick up sound.
スピーカ28は、プロセッサ22によって生成された音声を出力するように構成される。
(1-3)ホスト装置の構成
ホスト装置30の構成を説明する。図4は、図1のホスト装置の機能ブロック図である。
(1-3) Configuration of Host Device The configuration of the
図4に示すように、ホスト装置30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
As shown in FIG. 4, the
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
Programs include, for example, the following programs.
・OS program ・Application program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Databases referenced in information processing ・Execution results of information processing
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、ホスト装置30の機能を実現するように構成される。プロセッサ32は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。
The
入出力インタフェース33は、ホスト装置30に接続される入力デバイスからユーザの指示を取得し、かつ、ホスト装置30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。また、出力デバイスは、プリンタを含む。
The input/output interface 33 is configured to acquire user instructions from an input device connected to the
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display. Output devices also include printers.
通信インタフェース34は、ホスト装置30と、第1クライアント装置10及び第2クライアント装置20との間の通信を制御するように構成される。
The communication interface 34 is configured to control communication between the
(1-4)情報処理システムの形態
本実施形態の情報処理システム1の形態の一例を説明する。図5は、図1の情報処理システムの形態の一例を示す図である。
(1-4) Form of Information Processing System An example of the form of the
図5に示すように、情報処理システム1は、第1空間SP1~第3空間SP3を含む。第3空間SPは、第1空間SP1と第2空間SP2との間に配置される。
As shown in FIG. 5, the
第1空間SP1は、第1ユーザU1が入室する空間である。第1ユーザU1は、入口ENT1から第1空間SP1に入室可能である。第1空間SP1には、カメラ15と、ディスプレイ16と、マイクロフォン17と、スピーカ18と、が配置される。第1空間SP1と第3空間SPとの境界には、遮蔽部(例えば、壁)W1が配置される。ディスプレイ16は、X-方向を向くように、遮蔽部W1上に配置される。第1ユーザU1は、X+方向に視線を向けることにより、ディスプレイ16に表示された画像を視認することができる。
The first space SP1 is a space into which the first user U1 enters. The first user U1 can enter the first space SP1 through the entrance ENT1. A
第2空間SP2は、第2ユーザU2が入室する空間である。第2ユーザU2は、入口ENT2から第2空間SP2に入室可能である。第2空間SP2には、カメラ25と、ディスプレイ26と、マイクロフォン27と、スピーカ28と、が配置される。第2空間SP2と第3空間SPとの境界には、遮蔽部W2が配置される。ディスプレイ26は、X+方向を向くように、遮蔽部W2上に配置される。第2ユーザU2は、X-方向に視線を向けることにより、ディスプレイ26に表示された画像を視認することができる。
The second space SP2 is a space into which the second user U2 enters. The second user U2 can enter the second space SP2 through the entrance ENT2. A
つまり、遮蔽部W1は、第1空間SP1と第2空間SP2とを視覚的に隔離するように構成される。したがって、第1ユーザU1及び第2ユーザU2は、互いに、相手の声及び表情を直接認知できない。 That is, the shield W1 is configured to visually isolate the first space SP1 and the second space SP2. Therefore, the first user U1 and the second user U2 cannot directly recognize each other's voice and expression.
第3空間SPには、ホスト装置30が配置される。
A
(2)実施形態の概要
本実施形態の概要について説明する。図6は、本実施形態の概要の説明図である。
(2) Outline of Embodiment An outline of the present embodiment will be described. FIG. 6 is an explanatory diagram of the outline of this embodiment.
図1のホスト装置30は、複数のユーザの会話を支援する情報処理装置である。
The
図6に示すように、ホスト装置30は、以下の手段を備える。
・第1ユーザの第1顔画像(複数の静止画又は動画像)を取得する手段
・第1ユーザの第1音声を取得する手段
・第2ユーザの第2顔画像(複数の静止画又は動画像)を取得する手段
・第2ユーザの第2音声を取得する手段
・第1顔画像に基づいて、第1ユーザの年齢から加齢又は減齢した第1指定年齢における第1ユーザの第1予測顔画像を生成する手段
・第2顔画像に基づいて、第2ユーザの年齢から加齢又は減齢した第2指定年齢における第2ユーザの第2予測顔画像を生成する手段
・第1予測顔画像を、第2クライアント装置20を介して第2ユーザに提示する手段
・第2予測顔画像を、第1クライアント装置10を介して第1ユーザに提示する手段
・第1ユーザ及び第2ユーザの少なくとも1人に対して発話を促すメッセージを生成する手段
・第1ユーザ及び前記第2ユーザの少なくとも1人に対してメッセージを提示する手段
・メッセージに応じた第2音声を、第1クライアント装置10を介して第1ユーザに提示する手段、
・メッセージに応じた第1音声を、第2クライアント装置20を介して第2ユーザに提示する手段
As shown in FIG. 6, the
-Means for acquiring the first facial image (a plurality of still images or moving images) of the first user -Means for acquiring the first voice of the first user -Second facial image of the second user (a plurality of still images or moving images) Means for acquiring the second voice of the second user Based on the first face image, the first voice of the first user at the first designated age that has aged or decreased from the age of the first user Means for generating a predicted face image Means for generating a second predicted face image of the second user at a second designated age that is older or younger than the age of the second user, based on the second face image First prediction Means for presenting the face image to the second user via the
- Means for presenting the first voice corresponding to the message to the second user via the
(3)情報処理
本実施形態の情報処理を説明する。図7は、本実施形態の情報処理のシーケンス図である。図8は、図7の情報処理において表示される画面例を示す図である。図9は、図7の情報処理において表示される画面例を示す図である。図10は、図7の情報処理において表示される画面例を示す図である。図11は、図7の情報処理において表示される画面例を示す図である。図12は、図7の情報処理において表示される画面例を示す図である。
(3) Information processing Information processing according to this embodiment will be described. FIG. 7 is a sequence diagram of information processing according to this embodiment. 8 is a diagram showing an example of a screen displayed in the information processing of FIG. 7. FIG. 9 is a diagram showing an example of a screen displayed in the information processing of FIG. 7. FIG. FIG. 10 is a diagram showing a screen example displayed in the information processing of FIG. FIG. 11 is a diagram showing a screen example displayed in the information processing of FIG. FIG. 12 is a diagram showing a screen example displayed in the information processing of FIG.
図7に示すように、第1クライアント装置10は、ユーザ情報の受付(S110)を実行する。
具体的には、プロセッサ12は、画面P10(図8)をディスプレイ16に表示する。
As shown in FIG. 7, the
Specifically,
画面P10は、フィールドオブジェクトF10a~F10eと、操作オブジェクトB10と、を含む。 The screen P10 includes field objects F10a to F10e and an operation object B10.
フィールドオブジェクトF10aは、第1ユーザの名前に関するユーザ入力を受け付けるオブジェクトである。 The field object F10a is an object that receives user input regarding the name of the first user.
フィールドオブジェクトF10bは、第1ユーザと第2ユーザとの間の関係に関するユーザ入力を受け付けるオブジェクトである。関係は、例えば、以下の少なくとも1つを含む。
・家族(一例として、親子、夫婦、兄弟、及び、親族の少なくとも1つ)
・交際関係(つまり、カップル)
・友人
・職場の同僚
The field object F10b is an object that receives user input regarding the relationship between the first user and the second user. Relationships include, for example, at least one of the following:
・Family (for example, at least one of parent and child, husband and wife, siblings, and relatives)
Relationships (i.e. couples)
・Friends ・Colleagues at work
フィールドオブジェクトF10cは、第1ユーザと第2ユーザとの関係の継続期間(以下「関係期間」という)に関するユーザ入力を受け付けるオブジェクトである。関係期間は、例えば、以下の何れかである。
・5年未満
・5年以上
The field object F10c is an object that receives user input regarding the duration of the relationship between the first user and the second user (hereinafter referred to as "relationship period"). The relationship period is, for example, any of the following.
・Less than 5 years ・More than 5 years
フィールドオブジェクトF10dは、第1ユーザの性別に関するユーザ入力を受け付けるオブジェクトである。 The field object F10d is an object that receives user input regarding the gender of the first user.
フィールドオブジェクトF10eは、第1ユーザの生年月日に関するユーザ入力を受け付けるオブジェクトである。 The field object F10e is an object that receives user input regarding the date of birth of the first user.
操作オブジェクトB10は、フィールドオブジェクトF10a~F10eに対するユーザ入力を確定させるためのユーザ指示を受け付けるオブジェクトである。 The operation object B10 is an object that receives a user instruction for confirming user input to the field objects F10a to F10e.
第1ユーザがフィールドオブジェクトF10a~F10eにユーザ入力を与え、且つ、操作オブジェクトB10を操作すると、カメラ15は、第1ユーザの顔の画像(以下「第1ユーザ画像」という)を取得する。
プロセッサ12は、フィールドオブジェクトF10a~F10eに入力された情報及び第1ユーザ画像の組合せ(以下「第1ユーザ情報」という)をホスト装置30に送信する。
When the first user gives user inputs to the field objects F10a to F10e and operates the operation object B10, the
The
第2クライアント装置20は、ユーザ情報の受付(S120)を実行する。
具体的には、プロセッサ22は、画面P20(図8)をディスプレイ26に表示する。
The
Specifically, the
画面P20は、フィールドオブジェクトF20a~F20eと、操作オブジェクトB20と、を含む。
フィールドオブジェクトF20aは、第2ユーザの名前に関するユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF20bは、第1ユーザと第2ユーザとの間の関係に関するユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF20cは、第1ユーザと第2ユーザとの関係期間に関するユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF20dは、第2ユーザの性別に関するユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF20eは、第2ユーザの生年月日に関するユーザ入力を受け付けるオブジェクトである。
操作オブジェクトB20は、フィールドオブジェクトF20a~F20eに対するユーザ入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P20 includes field objects F20a to F20e and an operation object B20.
The field object F20a is an object that receives user input regarding the name of the second user.
The field object F20b is an object that receives user input regarding the relationship between the first user and the second user.
The field object F20c is an object that receives user input regarding the relationship period between the first user and the second user.
The field object F20d is an object that receives user input regarding the gender of the second user.
The field object F20e is an object that receives user input regarding the date of birth of the second user.
The operation object B20 is an object that receives a user instruction for confirming user input to the field objects F20a to F20e.
第2ユーザがフィールドオブジェクトF20a~F20eにユーザ入力を与え、且つ、操作オブジェクトB20を操作すると、カメラ25は、第2ユーザの顔の画像(以下「第2ユーザ画像」という)を取得する。
プロセッサ22は、フィールドオブジェクトF20a~F20eに入力された情報及び第2ユーザ画像の組合せ(以下「第2ユーザ情報」という)をホスト装置30に送信する。
When the second user gives user inputs to the field objects F20a to F20e and operates the operation object B20, the
The
ステップS110及びS120の後、ホスト装置30は、ユーザ情報の転送(S130)を実行する。
具体的には、プロセッサ32は、第1クライアント装置10から第1ユーザ情報を取得する。
プロセッサ32は、第2クライアント装置20から第2ユーザ情報を取得する。
プロセッサ32は、第1ユーザ情報に含まれる生年月日に基づいて、第1ユーザの現在の年齢(以下「第1現在年齢」という)の値を計算する。
プロセッサ32は、第2ユーザ情報に含まれる生年月日に基づいて、第2ユーザの現在の年齢(以下「第2現在年齢」という)の値を計算する。
プロセッサ32は、第1ユーザ情報を第2クライアント装置20に送信する。
プロセッサ32は、第2ユーザ情報を第1クライアント装置10に送信する。
After steps S110 and S120, the
Specifically, the
The
ステップS131の後、第1クライアント装置10は、指定年齢の受付(S111)を実行する。
具体的には、プロセッサ12は、画面P11(図9)をディスプレイ16に表示する。
After step S131, the
Specifically,
画面P11は、表示オブジェクトA11と、画像オブジェクトIMG11と、フィールドオブジェクトF11a~F11bと、操作オブジェクトB11と、を含む。
表示オブジェクトA11には、第1ユーザに対して会話を促すメッセージ(例えば、「相手の年齢を選んで下さい。」というメッセージ)が表示される。このメッセージは、予め定められたメッセージである。
画像オブジェクトIMG11は、ホスト装置30から送信された第2ユーザ情報に含まれる第2ユーザ画像である。
フィールドオブジェクトF11aは、第1ユーザの架空の年齢(以下「第1指定年齢」という)を指定するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF11aの初期値は、第1現在年齢の値である。
フィールドオブジェクトF11bは、第2ユーザの架空の年齢(以下「第2指定年齢」という)を指定するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF11bの初期値は、第2現在の年齢の値である。
操作オブジェクトB11aは、フィールドオブジェクトF11a~F11bのユーザ入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P11 includes a display object A11, an image object IMG11, field objects F11a to F11b, and an operation object B11.
The display object A11 displays a message prompting the first user to have a conversation (for example, a message "Please select the age of the other party."). This message is a predetermined message.
Image object IMG11 is the second user image included in the second user information transmitted from
The field object F11a is an object that receives user input for designating the fictitious age of the first user (hereinafter referred to as "first specified age"). The initial value of the field object F11a is the value of the first current age.
The field object F11b is an object that accepts user input for specifying the fictitious age of the second user (hereinafter referred to as "second specified age"). The initial value of the field object F11b is the second current age value.
The operation object B11a is an object that receives a user instruction for confirming user input of the field objects F11a to F11b.
第1ユーザがフィールドオブジェクトF11bに任意の値を入力し、且つ、操作オブジェクトB11aを操作すると、プロセッサ12は、フィールドオブジェクトF11bに与えられた値をホスト装置30に送信する。
When the first user inputs an arbitrary value to the field object F11b and operates the operation object B11a, the
ステップS131の後、第2クライアント装置20は、指定年齢の受付(S121)を実行する。
具体的には、プロセッサ22は、画面P21(図9)をディスプレイ26に表示する。
After step S131, the
Specifically,
画面P21は、表示オブジェクトA21と、画像オブジェクトIMG21と、フィールドオブジェクトF21a~F21bと、操作オブジェクトB21a~B21bと、を含む。
表示オブジェクトA21には、第2ユーザに対して会話を促すメッセージ(例えば、「相手の年齢を選んで下さい。」というメッセージ)が表示される。このメッセージは、予め定められたメッセージである。
画像オブジェクトIMG21は、ホスト装置30から送信された第1ユーザ情報に含まれる第1ユーザ画像である。
フィールドオブジェクトF21aは、第1指定年齢を指定するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF21aの初期値は、第1現在年齢の値である。フィールドオブジェクトF21aの値は、フィールドオブジェクトF11aの値と同期している。
フィールドオブジェクトF21bは、第2指定年齢を指定するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF21bの初期値は、フィールドオブジェクトF20e(図8)に入力された生年月日から計算される値(つまり、第1ユーザの現在の年齢)である。フィールドオブジェクトF21bの値は、フィールドオブジェクトF11bの値と同期している。
操作オブジェクトB21aは、フィールドオブジェクトF21a~F21bのユーザ入力を確定させるためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB21bは、会話を終了するためのユーザ指示を受け付けるオブジェクトである。
The screen P21 includes a display object A21, an image object IMG21, field objects F21a-F21b, and operation objects B21a-B21b.
The display object A21 displays a message prompting the second user to have a conversation (for example, a message "Please select the age of the other party."). This message is a predetermined message.
Image object IMG21 is the first user image included in the first user information transmitted from
The field object F21a is an object that receives user input for designating the first designated age. The initial value of the field object F21a is the value of the first current age. The value of field object F21a is synchronized with the value of field object F11a.
The field object F21b is an object that receives user input for specifying the second specified age. The initial value of the field object F21b is a value (that is, the current age of the first user) calculated from the date of birth entered in the field object F20e (FIG. 8). The value of field object F21b is synchronized with the value of field object F11b.
The operation object B21a is an object that receives a user instruction for confirming user input of the field objects F21a to F21b.
The operation object B21b is an object that receives a user instruction to end the conversation.
第2ユーザがフィールドオブジェクトF21bに任意の値(例えば、第1ユーザの架空の年齢の値)を入力し、且つ、操作オブジェクトB21aを操作すると、プロセッサ12は、フィールドオブジェクトF21bに与えられた値(つまり、第1ユーザの架空の年齢(以下「第1指定年齢」という)の値)をホスト装置30に送信する。
When the second user inputs an arbitrary value (for example, the fictitious age value of the first user) into the field object F21b and operates the operation object B21a, the
ステップS111及びS121の後、ホスト装置30は、モーフィング(S131)を実行する。
具体的には、記憶装置31には、変換モデルが記憶されている。変換モデルには、人物の現在の年齢及び人物の架空の年齢の組合せと、人物の顔画像を変換するための変換フィルタとの相関関係が規定されている。
プロセッサ32は、第1クライアント装置10から、フィールドオブジェクトF11bに与えられた第2指定年齢の値を取得する。
プロセッサ32は、第2クライアント装置20から、フィールドオブジェクトF21aに与えられた第1指定年齢の値を取得する。
プロセッサ32は、ステップS130で得られた第1現在年齢の値、及び、ステップS111で得られた第1指定年齢の値を変換モデルに与えることにより、第1現在年齢及び第1指定年齢の組合せに対応する変換フィルタを選択する。
プロセッサ32は、選択された変換フィルタを第1ユーザ画像に適用することにより、第1指定年齢に対応する第1ユーザの顔の画像(以下「第1予測顔画像」という)を生成する。
プロセッサ32は、ステップS130で得られた第2現在年齢の値、及び、ステップS121で得られた第2指定年齢の値を変換モデルに与えることにより、第2現在年齢及び第2指定年齢の組合せに対応する変換フィルタを選択する。
プロセッサ32は、選択された変換フィルタを第2ユーザ画像に適用することにより、第2指定年齢に対応する第2ユーザの顔の画像(以下「第2予測顔画像」という)を生成する。
After steps S111 and S121, the
Specifically, a conversion model is stored in the
The
The
The
The
The
The
ステップS131の後、ホスト装置30は、メッセージの送信(S132)を実行する。
After step S131, the
具体的には、プロセッサ32は、第1メッセージデータを第1クライアント装置10に送信する。第1メッセージデータは、以下の情報を含む。
・第2予測顔画像
・所定の初期メッセージ
Specifically, the
・Second predicted face image ・Predetermined initial message
プロセッサ32は、第2メッセージデータを第2クライアント装置20に送信する。第2メッセージデータは、以下の情報を含む。
・第1予測顔画像
・所定の初期メッセージ
・First predicted face image ・Predetermined initial message
ステップS132の後、第1クライアント装置10は、会話情報の受付(S112)を実行する。
After step S132, the
具体的には、プロセッサ12は、画面P12a(図10)をディスプレイ16に表示する。画面P12aは、第1メッセージデータに対応する。
Specifically, the
画面P12aは、表示オブジェクトA12aと、画像オブジェクトIMG12と、フィールドオブジェクトF11a~F11bと、操作オブジェクトB11と、を含む。
表示オブジェクトA12aには、第1メッセージデータに含まれる初期メッセージが表示される。
画像オブジェクトIMG12は、第1メッセージデータに含まれる第2予測顔画像である。
The screen P12a includes a display object A12a, an image object IMG12, field objects F11a to F11b, and an operation object B11.
The initial message included in the first message data is displayed in the display object A12a.
Image object IMG12 is the second predicted face image included in the first message data.
第1ユーザが、表示オブジェクトA12aに表示されたメッセージ及び画像オブジェクトIMG12(つまり、第2指定年齢に対応する第2ユーザの顔の画像)を見ながら、且つ、スピーカ18から出力される第2ユーザの音声を聴きながら、第2ユーザに対して発話すると、マイクロフォン17は、第1ユーザの音声(以下「第1発話音声」という)を取得する。
カメラ15は、会話中の第1ユーザの顔画像(以下「第1顔画像」という)を取得する。
プロセッサ12は、会話情報をホスト装置30に送信する。会話情報は、以下の情報を含む。
・カメラ15によって取得された第1顔画像
・マイクロフォン17によって取得された第1発話音声
While the first user sees the message displayed on the display object A12a and the image object IMG12 (that is, the image of the face of the second user corresponding to the second designated age), the second user output from the
The
・First face image acquired by
ステップS132の後、第2クライアント装置20は、会話情報の受付(S122)を実行する。
After step S132, the
具体的には、プロセッサ22は、画面P22a(図10)をディスプレイ26に表示する。画面P22aは、第2メッセージデータに対応する。
Specifically, the
画面P22aは、表示オブジェクトA22aと、画像オブジェクトIMG22と、フィールドオブジェクトF21a~F21bと、操作オブジェクトB21a~B21bと、を含む。
表示オブジェクトA22aには、第2メッセージデータに含まれる初期メッセージが表示される。
画像オブジェクトIMG22は、第2メッセージデータに含まれる第1予測顔画像である。
The screen P22a includes a display object A22a, an image object IMG22, field objects F21a-F21b, and operation objects B21a-B21b.
The initial message included in the second message data is displayed in the display object A22a.
Image object IMG22 is the first predicted face image included in the second message data.
第2ユーザが、表示オブジェクトA22aに表示されたメッセージ及び画像オブジェクトIMG22(つまり、第1指定年齢に対応する第1ユーザの顔の画像)を見ながら、且つ、スピーカ28から出力される第1ユーザの音声を聴きながら、第1ユーザに対して発話すると、マイクロフォン27は、第2ユーザの音声(以下「第2発話音声」という)を取得する。
カメラ25は、会話中の第2ユーザの顔画像(以下「第2顔画像」という)を取得する。
プロセッサ22は、会話情報をホスト装置30に送信する。会話情報は、以下の情報を含む。
・カメラ25によって取得された第2顔画像
・マイクロフォン27によって取得された第2発話音声
While the second user sees the message displayed on the display object A22a and the image object IMG22 (that is, the image of the face of the first user corresponding to the first designated age), the first user output from the
The
・Second face image acquired by
ステップS112及びS122の後、ホスト装置30は、感情解析(S133)を実行する。
After steps S112 and S122, the
ステップS133の第1例では、記憶装置31には、人物の表情と人物の感情との相関関係が規定された感情解析モデルが記憶されている。
プロセッサ32は、ステップS112で送信された第1発話音声を感情解析モデルに入力することにより、第1ユーザの感情を特定する。
プロセッサ32は、ステップS122で送信された第2発話音声を感情解析モデルに入力することにより、第2ユーザの感情を特定する。
In the first example of step S133, the
The
The
ステップS133の第2例では、記憶装置31には、人物の発話音声と人物の感情との相関関係が規定された感情解析モデルが記憶されている。
プロセッサ32は、ステップS112で送信された第1発話音声を感情解析モデルに入力することにより、第1ユーザの感情を特定する。
プロセッサ32は、ステップS122で送信された第2発話音声を感情解析モデルに入力することにより、第2ユーザの感情を特定する。
In the second example of step S133, the
The
The
ステップS133の後、ホスト装置30は、メッセージの生成(S134)を実行する。
具体的には、記憶装置31には、メッセージ生成モデルが記憶されている。メッセージ生成モデルには、人物の感情と、次の会話を促すためのメッセージと、の相関関係が規定されている。
After step S133, the
Specifically, the
ステップS133の第1例では、プロセッサ32は、ステップS133で得られた第1ユーザの感情をメッセージ生成モデルに入力することにより、第1ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第1メッセージデータを第1クライアント装置10に送信する。
プロセッサ32は、ステップS133で得られた第2ユーザの感情をメッセージ生成モデルに入力することにより、第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第2メッセージデータを第2クライアント装置20に送信する。
In the first example of step S133, the
The
ステップS133の第2例では、プロセッサ32は、ステップS133で得られた第1ユーザの感情及び第2ユーザの感情をメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
In a second example of step S133, the
ステップS134の後、第1クライアント装置10は、会話情報の受付(S112)を再び実行する。
具体的には、プロセッサ12は、画面P12b(図11)をディスプレイ16に表示する。画面P12bは、ステップS132でホスト装置30から送信されたメッセージデータに対応する。
After step S134, the
Specifically, the
画面P12bは、表示オブジェクトA12bと、画像オブジェクトIMG12と、フィールドオブジェクトF11a~F11bと、操作オブジェクトB11と、を含む。
表示オブジェクトA12bには、ステップS133でホスト装置30から送信されたメッセージが表示される。
The screen P12b includes a display object A12b, an image object IMG12, field objects F11a-F11b, and an operation object B11.
The display object A12b displays the message sent from the
第1ユーザが、表示オブジェクトA12bに表示されたメッセージ及び画像オブジェクトIMG12(つまり、第2指定年齢に対応する第2ユーザの顔の画像)を見ながら、且つ、スピーカ18から出力される第2ユーザの音声を聴きながら、第2ユーザに対して発話すると、マイクロフォン17は、第1発話音声を取得する。
プロセッサ12は、会話情報をホスト装置30に送信する。会話情報は、以下の情報を含む。
・カメラ15によって取得された第1顔画像
・マイクロフォン17によって取得された第1発話音声
While the first user sees the message displayed on the display object A12b and the image object IMG12 (that is, the image of the face of the second user corresponding to the second specified age), the second user output from the
・First face image acquired by
ステップS134の後、第2クライアント装置20は、会話情報の受付(S122)を再び実行する。
具体的には、プロセッサ22は、画面P22b(図11)をディスプレイ26に表示する。画面P22bは、ステップS134でホスト装置30から送信されたメッセージデータに対応する。
After step S134, the
Specifically, the
画面P22bは、表示オブジェクトA22bと、画像オブジェクトIMG22と、フィールドオブジェクトF21a~F21bと、操作オブジェクトB21a~B21bと、を含む。
表示オブジェクトA22bには、第2メッセージデータに含まれるメッセージが表示される。
The screen P22b includes a display object A22b, an image object IMG22, field objects F21a-F21b, and operation objects B21a-B21b.
A message included in the second message data is displayed in the display object A22b.
第2ユーザが、表示オブジェクトA22bに表示されたメッセージ及び画像オブジェクトIMG22(つまり、第1指定年齢に対応する第1ユーザの顔の画像)を見ながら、且つ、スピーカ28から出力される第1ユーザの音声を聴きながら、第1ユーザに対して発話すると、マイクロフォン27は、第2発話音声を取得する。
プロセッサ22は、会話情報をホスト装置30に送信する。会話情報は、以下の情報を含む。
・カメラ25によって取得された第2顔画像
・マイクロフォン27によって取得された第2発話音声
While the second user sees the message displayed on the display object A22b and the image object IMG22 (that is, the image of the face of the first user corresponding to the first specified age), the first user output from the
・Second face image acquired by
会話の終了条件を満たすと、第1クライアント装置10は、記念画像の取得(S113)を実行する。
具体的には、会話の終了条件を満たすと、プロセッサ12は、画面P13(図12)をディスプレイに表示する。
会話の終了条件は、例えば、以下の少なくとも1つである。
・会話の開始(例えば、ステップS111及びS121の終了)から所定時間(例えば、10分)が経過したこと
・所定回数のメッセージが提示された(つまり、ステップ134が実行された)こと
・第1ユーザ又は第2ユーザから会話を終了するためのユーザ指示(例えば、音声指示、及び、画面に表示されたオブジェクトに対する操作の少なくとも1つ)が与えられたこと
When the conversation end condition is satisfied, the
Specifically, when the end condition of the conversation is satisfied, the
Conversation termination conditions are, for example, at least one of the following.
- A predetermined time (eg, 10 minutes) has passed since the start of the conversation (eg, the end of steps S111 and S121) - A message has been presented a predetermined number of times (that is, step 134 has been executed) - First A user instruction (for example, at least one of a voice instruction and an operation on an object displayed on the screen) to end the conversation is given by the user or the second user
画面P13は、画像オブジェクトIMG13と、操作オブジェクトB13と、を含む
画像オブジェクトIMG13は、ステップS113の実行時点においてカメラ25によって取得されたプレビュー画像である。
操作オブジェクトB13は、画像オブジェクトIMG13に対応するプレビュー画像を第2ユーザの記念画像(以下「第2記念画像」という)として取得するためのユーザ指示を受け付けるオブジェクトである。
Screen P13 includes an image object IMG13 and an operation object B13. Image object IMG13 is a preview image acquired by
The operation object B13 is an object that receives a user instruction to acquire a preview image corresponding to the image object IMG13 as a commemorative image of the second user (hereinafter referred to as "second commemorative image").
第1ユーザが操作オブジェクトB13を操作すると、プロセッサ12は、ホスト装置30に対して、第2記念画像を送信し、且つ、第2クライアント装置20に対して、ステップS113の終了通知を送信する。
When the first user operates the operation object B13, the
ステップS113の後、第2クライアント装置20は、記念画像の取得(S123)を実行する。
具体的には、第1ユーザが操作オブジェクトB13を操作すると、プロセッサ12は、画面P23(図12)をディスプレイに表示する。
After step S113, the
Specifically, when the first user operates the operation object B13, the
画面P23は、画像オブジェクトIMG23と、操作オブジェクトB23と、を含む
画像オブジェクトIMG23は、ステップS123の実行時点においてカメラ15によって取得されたプレビュー画像である。
操作オブジェクトB23は、画像オブジェクトIMG23に対応するプレビュー画像を第1ユーザの記念画像(以下「第1記念画像」という)として取得するためのユーザ指示を受け付けるオブジェクトである。
Screen P23 includes an image object IMG23 and an operation object B23. Image object IMG23 is a preview image acquired by
The operation object B23 is an object that receives a user instruction to acquire a preview image corresponding to the image object IMG23 as a commemorative image of the first user (hereinafter referred to as "first commemorative image").
第2ユーザが操作オブジェクトB23を操作すると、プロセッサ22は、ホスト装置30に対して、第1記念画像と、ステップS123の終了通知を送信する。
When the second user operates the operation object B23, the
ステップS123の後、ホスト装置30は、ログデータの保存(S135)を実行する。
具体的には、プロセッサ32は、記憶装置31に、以下の情報を関連付けて記憶する。
・ステップS110で第1クライアント装置10から送信された第1ユーザ情報
・ステップS120で第2クライアント装置20から送信された第2ユーザ情報
・ステップS113で第1クライアント装置10から送信された出力リクエストデータに含まれる第1予測顔画像及び第1音声
・ステップS123で第2クライアント装置20から送信された出力リクエストデータに含まれる第2予測顔画像及び第2音声
・ステップS111及びS121の実行からステップS113及びS123の少なくとも1つの実行までの時間(つまり、会話の経過時間)
・ステップS113で第1クライアント装置10から送信された第2記念画像
・ステップS123で第2クライアント装置20から送信された第1記念画像
After step S123, the
Specifically, the
- The first user information transmitted from the
- The second commemorative image transmitted from the
プロセッサ32は、第1記念画像及び第2記念画像を合成することにより、集合記念画像を生成する。
プロセッサ32は、第1クライアント装置10及び第2クライアント装置20に第1記念画像と、第2記念画像と、集合記念画像と、を送信する。
The
The
ステップS135の後、第1クライアント装置10は、出力リクエスト(S114)を実行する。
具体的には、プロセッサ12は、画面P14(図12)をディスプレイ16に表示する。
After step S135, the
Specifically,
画面P14は、画像オブジェクトIMG14と、操作オブジェクトB14a~B14bと、を含む。
画像オブジェクトIMG14は、集合記念画像である。
操作オブジェクトB14aは、集合記念画像をネットワークサービス上で共有するためのユーザ指示を受け付けるオブジェクトである。ネットワークサービスは、例えば、ソーシャルネットワークサービス、チャットサービス、及び、画像共有サービスの少なくとも1つである。
操作オブジェクトB14bは、集合記念画像を印刷するためのユーザ指示を受け付けるオブジェクトである。
The screen P14 includes an image object IMG14 and operation objects B14a to B14b.
The image object IMG14 is a group commemorative image.
The operation object B14a is an object that receives a user's instruction to share the group commemorative image on the network service. Network services are, for example, at least one of social network services, chat services, and image sharing services.
The operation object B14b is an object that receives a user's instruction to print a commemorative image of the gathering.
第1ユーザが、操作オブジェクトB14aを操作すると、プロセッサ12は、集合記念画像を共有するためのユーザ指示をホスト装置に送信する。
When the first user operates the operation object B14a, the
ステップS135の後、第2クライアント装置20は、出力リクエスト(S124)を実行する。
具体的には、第2ユーザが操作オブジェクトB21b(図10~図11)を操作すると、プロセッサ22は、画面P24(図12)をディスプレイに表示する。
After step S135, the
Specifically, when the second user operates the operation object B21b (FIGS. 10 and 11), the
画面P24は、画像オブジェクトIMG24と、操作オブジェクトB24a~B24bと、を含む。
画像オブジェクトIMG24は、集合記念画像である。
操作オブジェクトB24aは、集合記念画像をネットワークサービス上で共有するためのユーザ指示を受け付けるオブジェクトである。ネットワークサービスは、例えば、ソーシャルネットワークサービス、チャットサービス、及び、画像共有サービスの少なくとも1つである。
操作オブジェクトB24bは、集合記念画像を印刷するためのユーザ指示を受け付けるオブジェクトである。
The screen P24 includes an image object IMG24 and operation objects B24a to B24b.
The image object IMG24 is a group commemorative image.
The operation object B24a is an object that receives a user's instruction to share the group commemorative image on the network service. Network services are, for example, at least one of social network services, chat services, and image sharing services.
The operation object B24b is an object that receives a user's instruction to print a commemorative image of the gathering.
第2ユーザが、操作オブジェクトB24bを操作すると、プロセッサ22は、集合記念画像を印刷するためのユーザ指示をホスト装置30に送信する。
When the second user operates the operation object B24b, the
ステップS135の後、ホスト装置30は、記念画像の出力(S136)を実行する。
具体的には、プロセッサ32は、ステップS113で第1クライアント装置10から送信されたユーザ指示に応じて、集合記念画像を、ネットワークサービスを提供するウェブサーバに送信する。これにより、ネットワークサービスを介して集合記念画像が第1ユーザ以外のユーザ(例えば、第2ユーザ及び第三者の少なくとも1人)に共有される。
プロセッサ32は、ステップS123で第2クライアント装置20から送信されたユーザ指示に応じて、集合記念画像をプリンタに送信する。これにより、プリンタを介して集合記念画像が印刷される。
After step S135, the
Specifically, the
The
本実施形態によれば、各ユーザに対して、会話中に、会話相手の予測顔画像及び会話を促進するためのメッセージを提示する。これにより、会話中の情報に応じた会話を促進することができる。 According to this embodiment, each user is presented with a predicted face image of a conversation partner and a message for promoting the conversation during conversation. As a result, it is possible to promote a conversation according to the information in the conversation.
(4)変形例
本実施形態の変形例を説明する。
(4) Modification A modification of the present embodiment will be described.
(4-1)変形例1
変形例1を説明する。変形例1は、第1音声の文脈及び第2音声の文脈の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-1)
変形例1のホスト装置30は、ステップS134(図7)において、第1音声及び第2音声の文脈の少なくとも1つに応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、音声の文脈と、次の会話を促すためのメッセージと、の相関関係が規定されている。
In step S134 (FIG. 7), the
Specifically, the message generation model defines the correlation between the context of the speech and the message for prompting the next conversation.
変形例1の第1例のプロセッサ32は、ステップS133で得られた第1音声をメッセージ生成モデルに入力することにより、第1ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第1メッセージデータを第1クライアント装置10に送信する。
プロセッサ32は、ステップS133で得られた第2音声をメッセージ生成モデルに入力することにより、第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第2メッセージデータを第2クライアント装置20に送信する。
The
The
変形例1の第2例のプロセッサ32は、ステップS133で得られた第1音声及び第2音声の組合せをメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
The
変形例1によれば、第1ユーザ及び第2ユーザの少なくとも1人が発話した音声の文脈に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。
According to
(4-2)変形例2
変形例2を説明する。変形例2は、第1ユーザの環境及び第2ユーザの環境の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-2) Modification 2
Modification 2 will be described. Modification 2 is an example in which at least one of the first user and the second user is presented with a message according to at least one of the environment of the first user and the environment of the second user.
変形例2のホスト装置30は、ステップS134(図7)において、第1ユーザの環境に関する情報(以下「第1環境情報」という)及び第2ユーザの環境に関する情報(以下「第2環境情報」という)の少なくとも1つに応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、環境と、次の会話を促すためのメッセージと、の相関関係が規定されている。
情報処理システム1は、環境情報を取得するセンサを備える。環境情報は、以下の少なくとも1つを含む。
・第1空間SP1の温度に関する温度情報
・第2空間SP2の温度に関する温度情報
・第1空間SP1の湿度に関する湿度情報
・第2空間SP2の温度に関する湿度情報
In step S134 (FIG. 7), the
Specifically, the message generation model prescribes the correlation between the environment and the message for prompting the next conversation.
The
・Temperature information about the temperature of the first space SP1 ・Temperature information about the temperature of the second space SP2 ・Humidity information about the humidity of the first space SP1 ・Humidity information about the temperature of the second space SP2
変形例2の第1例のプロセッサ32は、センサによって得られた第1環境情報をメッセージ生成モデルに入力することにより、第1ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第1メッセージデータを第1クライアント装置10に送信する。
プロセッサ32は、センサによって得られた第2環境情報をメッセージ生成モデルに入力することにより、第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第2メッセージデータを第2クライアント装置20に送信する。
The
The
変形例2の第2例のプロセッサ32は、センサによって得られた第1環境情報及び第2環境情報の組合せをメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
The
変形例2の第3例の情報処理システム1では、第1空間SP1及び第2空間SP2の少なくとも1つは屋外である。
環境情報は、以下の少なくとも1つを含む。
・第1空間SP1の温度に関する温度情報
・第2空間SP2の温度に関する温度情報
In the
Environmental information includes at least one of the following:
・Temperature information about the temperature of the first space SP1 ・Temperature information about the temperature of the second space SP2
ホスト装置30は、センサに代えて、センサ以外のデバイス(例えば、環境情報を提供するサーバ)から第1環境情報及び第2環境情報の少なくとも1つを取得しても良い。
The
変形例2によれば、第1ユーザ及び第2ユーザの少なくとも1人の環境に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。 According to Modification 2, a message prompting conversation is presented according to the environment of at least one of the first user and the second user. Thereby, the conversation between the first user and the second user can be facilitated.
(4-3)変形例3
変形例3を説明する。変形例3は、第1ユーザの属性及び第2ユーザの属性の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-3) Modification 3
Modification 3 will be described. Modification 3 is an example of presenting a message according to at least one of the attributes of the first user and the attributes of the second user to at least one of the first user and the second user.
変形例3のホスト装置30は、ステップS134(図7)において、第1ユーザの属性に関する情報(以下「第1属性情報」という)及び第2ユーザの属性に関する情報(以下「第2属性情報」という)の少なくとも1つに応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、属性と、次の会話を促すためのメッセージと、の相関関係が規定されている。属性は、以下の少なくとも1つを含む。
・第1ユーザの現在年齢
・第2ユーザの現在年齢
・第1ユーザの性別
・第2ユーザの性別
In step S134 (FIG. 7), the
Specifically, the message generation model defines the correlation between attributes and messages for prompting the next conversation. Attributes include at least one of the following:
- Current age of the first user - Current age of the second user - Gender of the first user - Gender of the second user
変形例3の第1例のプロセッサ32は、ステップS110で第1クライアント装置10から送信された第1ユーザ情報に含まれる第1ユーザの属性をメッセージ生成モデルに入力することにより、第1ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第1メッセージデータを第1クライアント装置10に送信する。
プロセッサ32は、ステップS120で第2クライアント装置20から送信された第2ユーザ情報に含まれる第2ユーザの属性をメッセージ生成モデルに入力することにより、第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含む第2メッセージデータを第2クライアント装置20に送信する。
The
The
変形例3の第2例のプロセッサ32は、ステップS110で第1クライアント装置10から送信された第1ユーザ情報に含まれる第1ユーザの属性、及び、ステップS120で第2クライアント装置20から送信された第2ユーザ情報に含まれる第2ユーザの属性の組合せをメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
The
変形例3によれば、第1ユーザ及び第2ユーザの少なくとも1人の属性に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。 According to Modification 3, a message prompting conversation is presented according to the attribute of at least one of the first user and the second user. Thereby, the conversation between the first user and the second user can be facilitated.
(4-4)変形例4
変形例4を説明する。変形例4は、第1ユーザ及び第2ユーザの関係に応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-4) Modification 4
Modification 4 will be described. Modification 4 is an example in which a message corresponding to the relationship between the first user and the second user is presented to at least one of the first user and the second user.
変形例4のホスト装置30は、ステップS134(図7)において、第1ユーザ及び第2ユーザの関係に応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、複数のユーザの関係と、次の会話を促すためのメッセージと、の相関関係が規定されている。
プロセッサ32は、ステップS110で第1クライアント装置10から送信された第1ユーザ情報及びステップS120で第2クライアント装置20から送信された第2ユーザ情報の少なくとも1つに含まれる関係をメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
In step S134 (FIG. 7), the
Specifically, the message generation model defines the correlation between the relationships of multiple users and messages for prompting the next conversation.
The
変形例4によれば、第1ユーザ及び第2ユーザの関係に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。 According to Modification 4, a message prompting conversation is presented according to the relationship between the first user and the second user. Thereby, the conversation between the first user and the second user can be facilitated.
(4-5)変形例5
変形例5を説明する。変形例5は、第1指定年齢及び第2指定年齢の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する例である。
(4-5) Modification 5
Modification 5 will be described. Modification 5 is an example of presenting a message according to at least one of the first specified age and the second specified age to at least one of the first user and the second user.
変形例5のホスト装置30は、ステップS134(図7)において、第1指定年齢及び第2指定年齢の少なくとも1つに応じたメッセージを生成する。
具体的には、メッセージ生成モデルには、年齢と、次の会話を促すためのメッセージと、の相関関係が規定されている。
In step S134 (FIG. 7), the
Specifically, the message generation model defines a correlation between age and a message for prompting the next conversation.
変形例5の第1例のプロセッサ32は、ステップS111で第1クライアント装置10から送信された第1指定年齢の値、及び、ステップS121で第2クライアント装置20から送信された第2指定年齢の値の大小関係を判定する。
プロセッサ32は、当該大小関係をメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
The
The
変形例5の第2例のプロセッサ32は、ステップS111で第1クライアント装置10から送信された第1指定年齢の値、及び、ステップS121で第2クライアント装置20から送信された第2指定年齢の値の差(以下「指定年齢差」という)を計算する。
プロセッサ32は、当該指定年齢差をメッセージ生成モデルに入力することにより、第1ユーザ及び第2ユーザに提示すべきメッセージを生成し、且つ、当該メッセージを含むメッセージデータを第1クライアント装置10及び第2クライアント装置20に送信する。
The
The
変形例5によれば、第1ユーザ及び第2ユーザの少なくとも1人の指定年齢に応じて、会話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進させることができる。 According to Modification 5, a message prompting conversation is presented according to the specified age of at least one of the first user and the second user. Thereby, the conversation between the first user and the second user can be facilitated.
(4-6)変形例6
変形例6を説明する。変形例6は、第1ユーザ及び第2ユーザのリプレイ動画を再生する例である。
(4-6) Modification 6
Modification 6 will be described. Modification 6 is an example of reproducing the replay videos of the first user and the second user.
変形例6のプロセッサ12又は22は、ユーザの指示に応じて、リプレイ動画の再生を要求するためのリプレイリクエストデータをホスト装置30に送信する。
The
プロセッサ32は、第1クライアント装置10又は第2クライアント装置20から送信されたリプレイリクエストデータに応じて、記憶装置31に記憶された以下の情報を合成することにより、リプレイ動画を生成する。
・第1顔画像
・第1予測顔画像
・第1音声
・第2顔画像
・第2予測顔画像
・第2音声
The
・First face image ・First predicted face image ・First voice ・Second face image ・Second predicted face image ・Second voice
プロセッサ32は、リプレイ動画を第1クライアント装置10又は第2クライアント装置20に送信する。
プロセッサ12又は22は、第1クライアント装置10又は第2クライアント装置20から送信されたリプレイ動画を再生する。これにより、ディスプレイ16又は26には、リプレイ動画の画像が表示される。スピーカ18又は28からは、リプレイ動画の音声が出力される。
The
変形例6によれば、第1ユーザ及び第2ユーザの会話の記録であるリプレイ動画が提供される。これにより、ユーザに対して、会話のモチベーションを与えることができる。 According to Modified Example 6, a replay video that is a recording of conversations between the first user and the second user is provided. This makes it possible to give the user motivation for conversation.
なお、変形例6では、プロセッサ12又は22は、リプレイ動画のファイルをホスト装置30に保存しても良い。
ホスト装置30がウェブサーバである場合、ホスト装置30は、リプレイ動画のファイルにURL(Uniform Resource Locator)を割り当てる。
ホスト装置30は、第1ユーザ、第2ユーザ、並びに、第1ユーザ及び第2ユーザとは異なる第3ユーザ(つまり、第三者)の閲覧リクエストに応じて、閲覧リクエストを行ったユーザが使用するクライアント装置を介して、リプレイ動画を提示する。閲覧リクエストは、例えば、リプレイ動画のファイルが保存されたウェブサーバのアドレス(一例として、URL(Uniform Resource Locator))に対するアクセスである。
これにより、第1ユーザ~第3ユーザの少なくとも1人に対して、会話の終了後にリプレイ動画を提供することができる。
Note that in Modification 6, the
If the
The
Thereby, at least one of the first user to the third user can be provided with a replay video after the end of the conversation.
(5)本実施形態の小括
本実施形態について小括する。
(5) Summary of this embodiment This embodiment will be summarized.
本実施形態の第1態様は、
複数のユーザの会話を支援する情報処理装置(例えば、ホスト装置30)であって、
第1ユーザの第1顔画像を取得する手段(ステップS130の処理を実行するプロセッサ32)を備え、
第1ユーザの第1音声を取得する手段(ステップS133の処理を実行するプロセッサ32)を備え、
第2ユーザの第2顔画像を取得する手段(ステップS130の処理を実行するプロセッサ32)を備え、
第2ユーザの第2音声を取得する手段(ステップS133の処理を実行するプロセッサ32)を備え、
第1顔画像に基づいて、第1ユーザの年齢から加齢又は減齢した第1指定年齢における第1ユーザの第1予測顔画像を生成する手段(ステップS131の処理を実行するプロセッサ32)を備え、
第2顔画像に基づいて、第2ユーザの年齢から加齢又は減齢した第2指定年齢における第2ユーザの第2予測顔画像を生成する手段(ステップS131の処理を実行するプロセッサ32)を備え、
第1予測顔画像を、第2クライアント装置20を介して第2ユーザに提示する手段(ステップS132の処理を実行するプロセッサ32)を備え、
第2予測顔画像を、第1クライアント装置10を介して第1ユーザに提示する手段(ステップS132の処理を実行するプロセッサ32)を備え、
第1ユーザ及び第2ユーザの少なくとも1人に対して発話を促すメッセージを生成する手段(ステップS132の処理を実行するプロセッサ32)を備え、
第1ユーザ及び第2ユーザの少なくとも1人に対してメッセージを提示する手段(ステップS132の処理を実行するプロセッサ32)を備え、
メッセージに応じた第2音声を、第1クライアント装置10を介して第1ユーザに提示する手段(ステップS133の処理を実行するプロセッサ32)を備え、
メッセージに応じた第1音声を、第2クライアント装置20を介して第2ユーザに提示する手段(ステップS133の処理を実行するプロセッサ32)を備える、
情報処理装置である。
The first aspect of this embodiment is
An information processing device (for example, a host device 30) that supports conversations of a plurality of users,
Means for acquiring the first face image of the first user (
Means for acquiring the first voice of the first user (
Means for acquiring the second face image of the second user (
A means for acquiring the second voice of the second user (
Means (
means for generating a second predicted face image of the second user at a second designated age that is older or younger than the age of the second user (
means for presenting the first predicted face image to the second user via the second client device 20 (
means for presenting the second predicted face image to the first user via the first client device 10 (
Means for generating a message prompting at least one of the first user and the second user to speak (
Means for presenting a message to at least one of the first user and the second user (
means for presenting a second voice corresponding to the message to the first user via the first client device 10 (
means for presenting the first voice corresponding to the message to the second user via the second client device 20 (
It is an information processing device.
第1態様によれば、第1ユーザの第1指定年齢に応じた第1予測画像を第2ユーザに提示し、第2ユーザの第2指定年齢に応じた第2予測画像を第1ユーザに提示し、且つ、第1ユーザ及び第2ユーザの少なくとも1人に発話を促すメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話を促進することができる。 According to the first aspect, the first predicted image corresponding to the first specified age of the first user is presented to the second user, and the second predicted image corresponding to the second specified age of the second user is presented to the first user. and a message prompting at least one of the first user and the second user to speak. Thereby, the conversation between the first user and the second user can be promoted.
本実施形態の第2態様は、
第1顔画像に基づいて、第1ユーザの感情を解析する手段(ステップS133の処理を実行するプロセッサ32)を備え、
第2顔画像に基づいて、第2ユーザの感情を解析する手段(ステップS133の処理を実行するプロセッサ32)を備え、
メッセージを生成する手段は、第1ユーザの感情及び第2ユーザの感情の少なくとも1つに応じたメッセージを生成する、
情報処理装置である。
A second aspect of the present embodiment is
Based on the first facial image, means for analyzing the emotion of the first user (
Based on the second face image, means for analyzing the emotion of the second user (
the means for generating a message generates a message according to at least one of the emotion of the first user and the emotion of the second user;
It is an information processing device.
第2態様によれば、第1ユーザの感情及び第2ユーザの感情の少なくとも1つに応じたメッセージを第1ユーザ及び第2ユーザの少なくとも1人に提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the second aspect, at least one of the first user and the second user is presented with a message according to at least one of the first user's emotion and the second user's emotion. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第3態様は、
第1音声に基づいて、第1ユーザの感情を解析する手段(ステップS133の処理を実行するプロセッサ32)を備え、
第2音声に基づいて、第2ユーザの感情を解析する手段(ステップS133の処理を実行するプロセッサ32)を備え、
メッセージを生成する手段は、第1ユーザの感情及び第2ユーザの感情の少なくとも1つに応じたメッセージを生成する、
情報処理装置である。
The third aspect of this embodiment is
Based on the first voice, means for analyzing the emotion of the first user (
Based on the second voice, means for analyzing the emotion of the second user (
the means for generating a message generates a message according to at least one of the emotion of the first user and the emotion of the second user;
It is an information processing device.
第3態様によれば、第1ユーザの感情及び第2ユーザの感情の少なくとも1つに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the third aspect, the message is presented according to at least one of the emotions of the first user and the emotions of the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第4態様は、
第1音声に基づいて、第1音声の文脈を解析する手段(例えば、変形例1のプロセッサ32)を備え、
第2音声に基づいて、第2音声の文脈を解析する手段(例えば、変形例1のプロセッサ32)を備え、
メッセージを生成する手段は、第1音声の文脈及び第2音声の文脈の少なくとも1つに応じたメッセージを生成する、
情報処理装置である。
The fourth aspect of this embodiment is
Based on the first speech, means for analyzing the context of the first speech (for example, the
Based on the second speech, means for analyzing the context of the second speech (for example, the
the means for generating a message generates a message responsive to at least one of the context of the first audio and the context of the second audio;
It is an information processing device.
第4態様によれば、第1ユーザ及び第2ユーザの少なくとも1人が発話した音声の文脈に応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the fourth aspect, the message is presented according to the context of the voice uttered by at least one of the first user and the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第5態様は、
第1ユーザの環境に関する第1環境情報を取得する手段を備え、
第2ユーザの環境に関する第2環境情報を取得する手段を備え、
メッセージを生成する手段は、第1環境情報及び第2環境情報の少なくとも1つに応じたメッセージを生成する、
情報処理装置である。
The fifth aspect of this embodiment is
means for obtaining first environmental information about the first user's environment;
means for obtaining second environmental information about the second user's environment;
the means for generating a message generates a message according to at least one of the first environmental information and the second environmental information;
It is an information processing device.
第5態様によれば、第1ユーザ及び第2ユーザの少なくとも1人の環境に応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the fifth aspect, the message is presented according to the environment of at least one of the first user and the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第6態様は、
第1環境情報及び第2環境情報は、温度情報、湿度情報、及び、紫外線情報の少なくとも1つを含む、
情報処理装置である。
A sixth aspect of the present embodiment is
the first environmental information and the second environmental information include at least one of temperature information, humidity information, and ultraviolet information;
It is an information processing device.
第6態様によれば、第1ユーザの環境における温度、湿度、及び、紫外線、並びに、第2ユーザの環境における温度、湿度、及び、紫外線の少なくとも1つに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the sixth aspect, a message is presented according to at least one of the temperature, humidity, and ultraviolet rays in the first user's environment and the temperature, humidity, and ultraviolet rays in the second user's environment. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第7態様は、
メッセージを生成する手段は、第1ユーザの属性及び第2ユーザの属性の組合せに応じたメッセージを生成する、
情報処理装置である。
The seventh aspect of this embodiment is
means for generating a message generates a message according to a combination of attributes of the first user and attributes of the second user;
It is an information processing device.
第7態様によれば、第1ユーザの属性及び第2ユーザの属性の組合せに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the seventh aspect, a message is presented according to the combination of the attributes of the first user and the attributes of the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第8態様は、
属性は、ユーザの年齢及び性別の少なくとも1つを含む、
情報処理装置である。
The eighth aspect of the present embodiment is
the attributes include at least one of age and gender of the user;
It is an information processing device.
第7態様によれば、第1ユーザの年齢及び性別の少なくとも1つと、第2ユーザの年齢及び性別の少なくとも1つと、の組合せに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the seventh aspect, a message is presented according to a combination of at least one of the first user's age and sex and at least one of the second user's age and sex. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第9態様は、
メッセージを生成する手段は、第1ユーザと第2ユーザとの関係に応じたメッセージを生成する、
情報処理装置である。
A ninth aspect of the present embodiment is
the means for generating a message generates a message according to the relationship between the first user and the second user;
It is an information processing device.
第9態様によれば、第1ユーザ及び第2ユーザの関係に応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the ninth aspect, a message is presented according to the relationship between the first user and the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第10態様は、
メッセージを生成する手段は、第1指定年齢及び第2指定年齢の組合せに応じたメッセージを生成する、
情報処理装置である。
A tenth aspect of the present embodiment is
The means for generating a message generates a message according to a combination of the first designated age and the second designated age;
It is an information processing device.
第10態様によれば、第1ユーザの第1指定年齢及び第2ユーザの第2指定年齢の組合せに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the tenth aspect, a message is presented according to the combination of the first specified age of the first user and the second specified age of the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第11態様は、
メッセージを生成する手段は、第1指定年齢及び第2指定年齢の大小関係及び指定年齢差の少なくとも1つに応じたメッセージを提示する、
情報処理装置である。
The eleventh aspect of this embodiment is
The means for generating the message presents a message according to at least one of the magnitude relationship between the first specified age and the second specified age and the specified age difference.
It is an information processing device.
第11態様によれば、第1ユーザの第1指定年齢及び第2ユーザの第2指定年齢の大小関係及び指定年齢差の少なくとも1つに応じたメッセージを提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the eleventh aspect, a message is presented according to at least one of the size relationship between the first specified age of the first user and the second specified age of the second user and the specified age difference. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第12態様は、
第2ユーザに対する第1ユーザの視線と、第1ユーザに対する第2ユーザの視線と、を遮る位置に配置された遮蔽部W1を備える、
情報処理装置である。
The twelfth aspect of this embodiment is
A shielding part W1 arranged at a position that blocks the first user's line of sight to the second user and the second user's line of sight to the first user,
It is an information processing device.
第12態様によれば、遮蔽部W1が第1ユーザ及び第2ユーザが互いの表情を直接認知できない環境を構築する。第1ユーザ及び第2ユーザは、それぞれ、第2予測画像及び第1予測画像を見ながら会話するように誘導される。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the twelfth aspect, the shield W1 constructs an environment in which the first user and the second user cannot directly perceive each other's facial expressions. The first user and the second user are guided to have a conversation while viewing the second predicted image and the first predicted image, respectively. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第13態様は、
第1顔画像、第2顔画像、第1予測顔画像、第2予測顔画像、第1音声、及び、第2音声の組合せを含むログデータと、会話の経過時間と、を関連付けて記憶する手段(例えば、ステップS135を実行するプロセッサ32)を備え、
経過時間に関連付けられたログデータを用いてリプレイ動画を生成する手段(例えば、変形例6のプロセッサ32)を備え、
第1ユーザ、第2ユーザ、並びに、第1ユーザ及び第2ユーザ以外の第3ユーザの少なくとも1人に提示する手段(例えば、変形例6のプロセッサ32)を備える、
情報処理装置である。
The thirteenth aspect of this embodiment is
Log data including a combination of a first facial image, a second facial image, a first predicted facial image, a second predicted facial image, a first voice, and a second voice are stored in association with the elapsed time of the conversation. means (e.g.,
Means for generating a replay video using log data associated with elapsed time (for example,
means for presenting to at least one of the first user, the second user, and a third user other than the first user and the second user (e.g., the
It is an information processing device.
第13態様によれば、リプレイ動画が提供される。これにより、第1ユーザ~第3ユーザの少なくとも1人は、会話の終了後に、会話の様子を閲覧することができる。 According to the thirteenth aspect, a replay movie is provided. This allows at least one of the first to third users to view the state of the conversation after the conversation ends.
本実施形態の第14態様は、
会話の終了後に、第1ユーザの第1記念画像と、第2ユーザの第2記念画像と、を取得する手段(例えば、ステップS135を実行するプロセッサ32)を備える、
情報処理装置である。
The fourteenth aspect of this embodiment is
means for acquiring a first commemorative image of the first user and a second commemorative image of the second user after the end of the conversation (e.g., the
It is an information processing device.
第14態様によれば、第1ユーザの第1記念画像及び第2ユーザの第2記念画像の組合せを取得する。これにより、会話の記念画像を保存することができる。 According to the fourteenth aspect, a combination of the first commemorative image of the first user and the second commemorative image of the second user is obtained. As a result, a commemorative image of the conversation can be saved.
本実施形態の第15態様は、
第1予測顔画像及び第2予測画像を、第1クライアント装置10及び第2クライアント装置20を介して第1ユーザ及び第2ユーザに提示する手段(例えば、ステップS130を実行するプロセッサ32)を備える、
情報処理装置である。
The fifteenth aspect of this embodiment is
means for presenting the first predicted face image and the second predicted image to the first user and the second user via the
It is an information processing device.
第15態様によれば、第1予測画像及び第2予測画像の組合せを、第1ユーザ及び第2ユーザに提示する。これにより、第1ユーザ及び第2ユーザの会話をより促進することができる。 According to the fifteenth aspect, the combination of the first predicted image and the second predicted image is presented to the first user and the second user. Thereby, conversation of a 1st user and a 2nd user can be promoted more.
本実施形態の第16態様は、
コンピュータ(例えば、プロセッサ12、22、及び、32の少なくとも1つ)を、上記の各手段として機能させるためのプログラムである。
The sixteenth aspect of this embodiment is
A program for causing a computer (for example, at least one of
(6)その他の変形例
その他の変形例を説明する。
(6) Other Modifications Other modifications will be described.
記憶装置11は、ネットワークNWを介して、第1クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、ホスト装置30と接続されてもよい。
The
上記の情報処理のホスト装置30の各ステップは、第1クライアント装置10及び第2クライアント装置20でも実行可能である。この場合、第1クライアント装置10及び第2クライアント装置20は、ホスト装置30にリクエストを送信することなく、スタンドアロンで動作する情報処理装置として機能する。
Each step of the
ホスト装置30は、サーバ(例えば、ウェブサーバ)であっても良い。この場合、第1クライアント装置10及び第2クライアント装置20は、例えば、インターネットを介してサーバに接続される。
The
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Also, the above embodiments can be modified and modified in various ways without departing from the gist of the present invention. Also, the above embodiments and modifications can be combined.
1 :情報処理システム
10 :第1クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
16 :ディスプレイ
17 :マイクロフォン
18 :スピーカ
20 :第2クライアント装置
21 :記憶装置
22 :プロセッサ
23 :入出力インタフェース
24 :通信インタフェース
25 :カメラ
26 :ディスプレイ
27 :マイクロフォン
28 :スピーカ
30 :ホスト装置
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1: information processing system 10 : first client device 11 : storage device 12 : processor 13 : input/output interface 14 : communication interface 15 : camera 16 : display 17 : microphone 18 : speaker 20 : second client device 21 : storage device 22 : Processor 23 : Input/output interface 24 : Communication interface 25 : Camera 26 : Display 27 : Microphone 28 : Speaker 30 : Host device 31 : Storage device 32 : Processor 33 : Input/output interface 34 : Communication interface
Claims (16)
第1ユーザの第1顔画像を取得する手段を備え、
前記第1ユーザの第1音声を取得する手段を備え、
第2ユーザの第2顔画像を取得する手段を備え、
前記第2ユーザの第2音声を取得する手段を備え、
前記第1顔画像に基づいて、前記第1ユーザの年齢から加齢又は減齢した第1指定年齢における前記第1ユーザの第1予測顔画像を生成する手段を備え、
前記第2顔画像に基づいて、前記第2ユーザの年齢から加齢又は減齢した第2指定年齢における前記第2ユーザの第2予測顔画像を生成する手段を備え、
前記第1予測顔画像を、第2クライアント装置を介して前記第2ユーザに提示する手段を備え、
前記第2予測顔画像を、第1クライアント装置を介して前記第1ユーザに提示する手段を備え、
前記第1ユーザ及び前記第2ユーザの少なくとも1人に対して発話を促すメッセージを生成する手段を備え、
前記第1ユーザ及び前記第2ユーザの少なくとも1人に対して前記メッセージを提示する手段を備え、
前記メッセージに応じた第2音声を、前記第1クライアント装置を介して前記第1ユーザに提示する手段を備え、
前記メッセージに応じた第1音声を、前記第2クライアント装置を介して前記第2ユーザに提示する手段を備える、
情報処理装置。 An information processing device that supports conversation of a plurality of users,
comprising means for acquiring a first face image of the first user;
comprising means for acquiring a first voice of the first user;
comprising means for acquiring a second face image of the second user;
comprising means for acquiring a second voice of the second user;
means for generating a first predicted face image of the first user at a first designated age that is older or younger than the age of the first user, based on the first face image;
means for generating a second predicted face image of the second user at a second specified age that is older or younger than the age of the second user, based on the second face image;
means for presenting the first predicted face image to the second user via a second client device;
means for presenting the second predicted face image to the first user via the first client device;
means for generating a message prompting at least one of the first user and the second user to speak;
means for presenting the message to at least one of the first user and the second user;
means for presenting a second voice corresponding to the message to the first user via the first client device;
means for presenting a first voice corresponding to the message to the second user via the second client device;
Information processing equipment.
前記第2顔画像に基づいて、前記第2ユーザの感情を解析する手段を備え、
前記メッセージを生成する手段は、前記第1ユーザの感情及び前記第2ユーザの感情の少なくとも1つに応じたメッセージを生成する、
請求項1に記載の情報処理装置。 comprising means for analyzing the emotion of the first user based on the first facial image;
comprising means for analyzing the emotion of the second user based on the second face image;
the means for generating the message generates a message according to at least one of the emotion of the first user and the emotion of the second user;
The information processing device according to claim 1 .
前記第2音声に基づいて、前記第2ユーザの感情を解析する手段を備え、
前記メッセージを生成する手段は、前記第1ユーザの感情及び前記第2ユーザの感情の少なくとも1つに応じたメッセージを生成する、
請求項1又は2に記載の情報処理装置。 comprising means for analyzing the emotion of the first user based on the first voice;
comprising means for analyzing the emotion of the second user based on the second voice;
the means for generating the message generates a message according to at least one of the emotion of the first user and the emotion of the second user;
The information processing apparatus according to claim 1 or 2.
前記第2音声に基づいて、前記第2音声の文脈を解析する手段を備え、
前記メッセージを生成する手段は、前記第1音声の文脈及び前記第2音声の文脈の少なくとも1つに応じたメッセージを生成する、
請求項1~3の何れかに記載の情報処理装置。 means for analyzing the context of the first speech based on the first speech;
means for analyzing the context of the second speech based on the second speech;
the means for generating a message generates a message according to at least one of the context of the first sound and the context of the second sound;
The information processing apparatus according to any one of claims 1 to 3.
前記第2ユーザの環境に関する第2環境情報を取得する手段を備え、
前記メッセージを生成する手段は、前記第1環境情報及び前記第2環境情報の少なくとも1つに応じたメッセージを生成する、
請求項1~4の何れかに記載の情報処理装置。 comprising means for obtaining first environmental information relating to the first user's environment;
comprising means for acquiring second environmental information relating to the second user's environment;
the means for generating the message generates a message according to at least one of the first environmental information and the second environmental information;
The information processing apparatus according to any one of claims 1 to 4.
請求項5に記載の情報処理装置。 wherein the first environmental information and the second environmental information include at least one of temperature information, humidity information, and ultraviolet information;
The information processing device according to claim 5 .
請求項1~6の何れかに記載の情報処理装置。 The means for generating the message generates a message according to a combination of attributes of the first user and attributes of the second user.
The information processing apparatus according to any one of claims 1 to 6.
請求項1~7の何れかに記載の情報処理装置。 the attributes include at least one of age and gender of the user;
The information processing apparatus according to any one of claims 1 to 7.
請求項1~8の何れかに記載の情報処理装置。 the means for generating the message generates a message according to the relationship between the first user and the second user;
The information processing apparatus according to any one of claims 1 to 8.
請求項1~9の何れかに記載の情報処理装置。 The means for generating the message generates a message according to the combination of the first specified age and the second specified age.
The information processing apparatus according to any one of claims 1 to 9.
請求項10に記載の情報処理装置。 The means for generating the message presents a message according to at least one of the magnitude relationship between the first specified age and the second specified age and the specified age difference.
The information processing apparatus according to claim 10.
請求項1~11の何れかに記載の情報処理装置。 A shielding unit arranged at a position that blocks the line of sight of the first user with respect to the second user and the line of sight of the second user with respect to the first user,
The information processing apparatus according to any one of claims 1 to 11.
前記経過時間に関連付けられたログデータを用いてリプレイ動画を生成する手段を備え、
前記第1ユーザ、前記第2ユーザ、並びに、前記第1ユーザ及び前記第2ユーザ以外の第3ユーザの少なくとも1人に提示する手段を備える、
請求項1~12の何れかに記載の情報処理装置。 Log data including a combination of the first face image, the second face image, the first predicted face image, the second predicted face image, the first voice, and the second voice, and the elapsed time of the conversation , and means for storing in association with
comprising means for generating a replay video using log data associated with the elapsed time;
Means for presenting to at least one of the first user, the second user, and a third user other than the first user and the second user;
The information processing apparatus according to any one of claims 1 to 12.
請求項1~13の何れかに記載の情報処理装置。 After the end of the conversation, means for acquiring a first commemorative image of the first user and a second commemorative image of the second user,
The information processing apparatus according to any one of claims 1 to 13.
請求項1~14の何れかに記載の情報処理装置。 means for presenting the first predicted face image and the second predicted image to the first user and the second user via the first client device and the second client device;
The information processing apparatus according to any one of claims 1 to 14.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019202887A JP2022176415A (en) | 2019-11-08 | 2019-11-08 | Information processing device and program |
PCT/JP2020/040558 WO2021090750A1 (en) | 2019-11-08 | 2020-10-29 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019202887A JP2022176415A (en) | 2019-11-08 | 2019-11-08 | Information processing device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022176415A true JP2022176415A (en) | 2022-11-29 |
Family
ID=75849686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019202887A Pending JP2022176415A (en) | 2019-11-08 | 2019-11-08 | Information processing device and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022176415A (en) |
WO (1) | WO2021090750A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115410262B (en) * | 2022-10-09 | 2023-06-23 | 上海本趣网络科技有限公司 | Face image information prediction system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5347306A (en) * | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JPH09135427A (en) * | 1995-11-10 | 1997-05-20 | Sharp Corp | Television camera equipment |
JP2009044299A (en) * | 2007-08-07 | 2009-02-26 | Nippon Telegr & Teleph Corp <Ntt> | Automatic calling system, automatic call control method, terminal, terminal control method, service controller, and service control method |
CN104103242B (en) * | 2008-11-28 | 2016-09-14 | 株式会社半导体能源研究所 | Display device and comprise the electronic device of display device |
JP2010224802A (en) * | 2009-03-23 | 2010-10-07 | Hironobu Otoi | Virtual face image creation device and virtual face image creation method |
WO2014103645A1 (en) * | 2012-12-28 | 2014-07-03 | 株式会社ユニバーサルエンターテインメント | Conversation topic provision system, conversation control terminal device, and maintenance device |
JP5907469B2 (en) * | 2015-10-16 | 2016-04-26 | 洋彰 宮崎 | Artificial intelligence device that autonomously expands knowledge by language input |
WO2018074516A1 (en) * | 2016-10-21 | 2018-04-26 | 株式会社Myth | Information processing system |
-
2019
- 2019-11-08 JP JP2019202887A patent/JP2022176415A/en active Pending
-
2020
- 2020-10-29 WO PCT/JP2020/040558 patent/WO2021090750A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021090750A1 (en) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6866860B2 (en) | Electronic conferencing system | |
US11061700B2 (en) | Virtual assistants using state-based artificial intelligence | |
JP2021044814A (en) | Electronic conference system | |
US11024286B2 (en) | Spoken dialog system, spoken dialog device, user terminal, and spoken dialog method, retrieving past dialog for new participant | |
JP6889281B2 (en) | Analyzing electronic conversations for presentations in alternative interfaces | |
US20200410732A1 (en) | Method and apparatus for generating information | |
KR102428368B1 (en) | Initializing a conversation with an automated agent via selectable graphical element | |
WO2020181783A1 (en) | Method and device for sending information | |
US11935530B2 (en) | Multimodal responses | |
CN112364144A (en) | Interaction method, device, equipment and computer readable medium | |
WO2021090750A1 (en) | Information processing device, information processing method, and program | |
CN106682976A (en) | Method and apparatus for auctioning objects | |
CN114064943A (en) | Conference management method, conference management device, storage medium and electronic equipment | |
KR102157790B1 (en) | Method, system, and computer program for operating live quiz show platform including characters | |
JP6949931B2 (en) | Methods and devices for generating information | |
KR20230141410A (en) | Telemedicine service providing device that provides medical assistance service using artificial neural network | |
US20180176631A1 (en) | Methods and systems for providing an interactive second screen experience | |
US11164576B2 (en) | Multimodal responses | |
US20210050118A1 (en) | Systems And Methods For Facilitating Expert Communications | |
CN113767379B (en) | Rendering content using content agents and/or stored content parameters | |
US20200110515A1 (en) | Dynamic list composition based on modality of multimodal client device | |
CN110989910A (en) | Interaction method, system, device, electronic equipment and storage medium | |
US20240103893A1 (en) | Generating content endorsements using machine learning nominator(s) | |
CN116245974A (en) | Voice-based drawing method, device, equipment and storage medium | |
CN113868399A (en) | Server over-selling implementation method and device, storage medium and electronic equipment |