JP2024028023A - Facial expression processing device, facial expression processing method, and facial expression processing program - Google Patents
Facial expression processing device, facial expression processing method, and facial expression processing program Download PDFInfo
- Publication number
- JP2024028023A JP2024028023A JP2022131325A JP2022131325A JP2024028023A JP 2024028023 A JP2024028023 A JP 2024028023A JP 2022131325 A JP2022131325 A JP 2022131325A JP 2022131325 A JP2022131325 A JP 2022131325A JP 2024028023 A JP2024028023 A JP 2024028023A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- facial expression
- information
- emotional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 213
- 238000012545 processing Methods 0.000 title claims abstract description 95
- 238000003672 processing method Methods 0.000 title claims abstract description 12
- 230000002996 emotional effect Effects 0.000 claims abstract description 135
- 230000008451 emotion Effects 0.000 claims abstract description 89
- 230000014509 gene expression Effects 0.000 claims abstract description 50
- 238000003384 imaging method Methods 0.000 claims description 49
- 238000000034 method Methods 0.000 claims description 37
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 abstract description 13
- 230000010365 information processing Effects 0.000 description 78
- 238000013473 artificial intelligence Methods 0.000 description 24
- 230000001815 facial effect Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Abstract
【課題】画像におけるユーザの表情を適切に加工する表情加工プログラム、表情加工装置および表情加工方法を提供する。【解決手段】本開示の表情加工プログラムは、ユーザから感情情報の入力を受け付ける感情入力ステップと、前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理ステップと、を含む表情加工方法をコンピュータに実行させる。【選択図】図3The present invention provides an expression processing program, an expression processing device, and an expression processing method for appropriately processing a user's expression in an image. The facial expression processing program of the present disclosure includes an emotion input step of receiving emotional information input from a user, a first image including the user's face, and the emotional information, and a facial expression processing program based on the emotional information. A computer is caused to execute an expression processing method including an image processing step of generating a second image from the first image by processing the facial expression of the user in the first image. [Selection diagram] Figure 3
Description
本開示は、表情加工装置、表情加工方法および表情加工プログラムに関する。 The present disclosure relates to an expression processing device, an expression processing method, and an expression processing program.
コンピュータに内蔵されたカメラや、コンピュータに外付けされたウェブカメラを用いてオンライン会議を行う場合、対面の会議と比較して非言語情報の伝達量が少なくなるため、細かな表情の変化を相手に伝えることは難しい。これは、ストリーミング配信でも同様である。そのため、オンライン会議やストリーミング配信では、自分が意図していないような内容で相手に伝わってしまうことが起こりえる。 When conducting an online meeting using a computer's built-in camera or an external webcam, the amount of nonverbal information conveyed is smaller than in a face-to-face meeting, so small changes in facial expressions are difficult to communicate. It's difficult to tell. The same applies to streaming distribution. Therefore, in online meetings and streaming distribution, it is possible for the other party to receive information that you did not intend.
また、近年、アバターを用いたオンライン会議やストリーミング配信も行われている。上記と同様に、アバターを用いた映像では、非言語情報の伝達量が少なくなるため、細かな表情の変化を相手に伝えることは難しい。 In addition, in recent years, online conferences and streaming distribution using avatars have also been conducted. Similarly to the above, in videos using avatars, the amount of nonverbal information transmitted is small, so it is difficult to convey minute changes in facial expressions to the other person.
また、撮像画像中のユーザの感情状態を向上させることを目的とした情報処理装置が知られている。この情報処理装置では、例えば、撮像画像に含まれるユーザの笑顔レベルを測定し、一つ高い笑顔レベルに撮像画像を加工して出力する。 Furthermore, an information processing device is known that aims to improve the emotional state of a user in a captured image. In this information processing device, for example, a user's smile level included in a captured image is measured, and the captured image is processed to have a smile level one level higher and output.
上記の情報処理装置は、笑顔という表情に特化し、撮像画像中のユーザの感情状態を向上させることを目的としている。しかし、上記の情報処理装置は、コミュニケーションの向上について十分に着目した装置ではないため、笑顔以外の表情を取り扱うことは考えられていない。 The above-mentioned information processing device specializes in facial expressions such as smiling faces, and aims to improve the emotional state of the user in the captured image. However, since the above-mentioned information processing apparatus is not a device that has sufficiently focused on improving communication, it has not been considered to handle facial expressions other than smiling faces.
そこで、本開示は、画像におけるユーザの表情を適切に加工する表情加工プログラム、表情加工装置および表情加工方法を提供する。 Therefore, the present disclosure provides a facial expression processing program, a facial expression processing device, and a facial expression processing method that appropriately process a user's facial expression in an image.
本開示の第1の側面の表情加工プログラムは、ユーザから感情情報の入力を受け付ける感情入力ステップと、前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理ステップと、を含む表情加工方法をコンピュータに実行させる。これにより、例えば、ユーザは、自分の足りない感情表現スキルをこのプログラムにより補うことができ、自分が意図しない内容で相手に伝わるのを防ぐことができる。 The facial expression processing program according to the first aspect of the present disclosure includes an emotion input step of receiving emotional information from a user, a first image including the user's face, and the emotional information, and a facial expression processing program based on the emotional information. A computer is caused to execute an expression processing method including an image processing step of generating a second image from the first image by processing the facial expression of the user in the first image. As a result, for example, the user can use this program to compensate for his or her own lacking emotional expression skills, and can prevent the user from conveying content that is not intended by the user to the other party.
また、この第1の側面において、前記第2画像に基づいて、ネットワーク上の仮想空間で前記ユーザの分身として表示するキャラクターであるアバターを生成するアバター生成ステップをさらに備えてもよい。これにより、例えば、表情が豊かに表現されたアバターを通じてコミュニケーションをとることで、ユーザは、オンライン会議において、齟齬なく意思の疎通を図ることができる。 The first aspect may further include an avatar generation step of generating an avatar, which is a character to be displayed as an alter ego of the user in a virtual space on a network, based on the second image. As a result, for example, by communicating through avatars with rich facial expressions, users can communicate their intentions without discrepancies in online meetings.
また、この第1の側面において、前記アバターの表情は、前記第2画像における前記ユーザの顔の表情と対応するように生成されてもよい。これにより、例えば、表情が豊かに表現されたアバターを通じてコミュニケーションをとることで、ユーザは、オンライン会議において、齟齬なく意思の疎通を図ることができる。 Further, in this first aspect, the facial expression of the avatar may be generated to correspond to the facial expression of the user in the second image. As a result, for example, by communicating through avatars with rich facial expressions, users can communicate their intentions without discrepancies in online meetings.
また、この第1の側面において、前記画像処理ステップは、前記第1画像中の前記ユーザの顔の表情を、前記感情情報に対応する表情に加工してもよい。これにより、例えば、例えば、ユーザは、自分の足りない感情表現スキルをこのプログラムにより補うことができ、自分が意図しない内容で相手に伝わるのを防ぐことができる。 Further, in this first aspect, the image processing step may process the facial expression of the user in the first image into an expression corresponding to the emotional information. As a result, for example, the user can use this program to compensate for his or her own lacking emotional expression skills, and can prevent the user from conveying content that is not intended by the user to the other party.
また、この第1の側面において、前記画像処理ステップは、人間の顔の表情を含む教師画像を取得して、前記第1画像と前記教師画像とを比較することで、前記第1画像中の前記ユーザの顔の表情を加工してもよい。これにより、例えば、感情表現に足りないユーザの顔の動きを分析することができる。 Further, in this first aspect, the image processing step acquires a teacher image including a human facial expression, and compares the first image and the teacher image to obtain a The facial expression of the user may be processed. This makes it possible, for example, to analyze the user's facial movements that are insufficient to express emotions.
また、この第1の側面において、前記画像処理ステップは、前記第1画像から前記ユーザの感情を分析し、前記分析の結果と、前記感情情報と、前記比較の結果とに基づいて、前記第1画像中の前記ユーザの顔の表情を加工してもよい。この比較結果から、画像を加工することで、ユーザは、正しく感情を伝えることができる。 Moreover, in this first aspect, the image processing step analyzes the user's emotion from the first image, and based on the result of the analysis, the emotion information, and the result of the comparison, The facial expression of the user in one image may be processed. Based on this comparison result, by processing the image, the user can convey emotions correctly.
また、この第1の側面において、前記第1画像は、撮像装置によって撮像された画像であってもよい。これにより、例えば、正確な視線の検知や感情の分析が可能となる。 Moreover, in this first aspect, the first image may be an image captured by an imaging device. This makes it possible, for example, to accurately detect line of sight and analyze emotions.
また、この第1の側面において、前記撮像装置は、RGB撮像装置またはRGBIR撮像装置であってもよい。これにより、例えば、正確な視線の検知や感情の分析が可能となる。 Further, in this first aspect, the imaging device may be an RGB imaging device or an RGBIR imaging device. This makes it possible, for example, to accurately detect line of sight and analyze emotions.
また、この第1の側面において、前記ユーザから場面情報の入力を受け付ける場面入力ステップをさらに備え、前記画像処理ステップは、前記第1画像と、前記感情情報と、前記場面情報とを受け付け、前記感情情報と、前記場面情報とに基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から前記第2画像を生成してもよい。これにより、例えば、場面の雰囲気に合わせてユーザの顔の表情を加工した画像を出力することができる。そのため、ユーザは、自分が表現したい感情をより正確に、かつ相手に伝わるように表現することができ、コミュニケーションをより向上させることができる。 Further, in this first aspect, the step further includes a scene input step of receiving scene information input from the user, and the image processing step receives the first image, the emotional information, and the scene information, and the image processing step receives the first image, the emotional information, and the scene information, and The second image may be generated from the first image by processing the facial expression of the user in the first image based on emotional information and the scene information. Thereby, for example, it is possible to output an image in which the user's facial expression has been processed to match the atmosphere of the scene. Therefore, the user can express the emotions he/she wants to express more accurately and in a way that can be conveyed to the other party, and communication can be further improved.
また、この第1の側面において、前記ユーザから前記第2画像に関するフィードバックの入力を受け付けるフィードバック入力ステップをさらに備え、前記フィードバックに基づいて前記画像処理ステップが学習を行ってもよい。これにより、例えば、ユーザによるフィードバックの入力により、アバターやユーザの顔の表情を加工して得られた画像について、最適な表現となるように再度加工を行うことで、ユーザは、自分が表現したい感情をより正確に、かつ相手に伝わるように表現することができ、コミュニケーションをより向上させることができる。 Further, in this first aspect, the image processing method may further include a feedback input step of receiving feedback input regarding the second image from the user, and the image processing step may perform learning based on the feedback. This allows, for example, an image obtained by processing an avatar or user's facial expression based on feedback input by the user to be reprocessed to achieve the optimal expression, allowing the user to express the image they want to express. Emotions can be expressed more accurately and conveyed to the other person, and communication can be further improved.
また、この第1の側面において、前記第2画像は、オンライン会議における出力画像として出力されてもよい。これにより、例えば、画面越しでも豊かな表情を感じられるため、ユーザは、相手側ユーザに対してスムーズに発言の交代を促し、コミュニケーションを円滑に進めることができる。 Further, in this first aspect, the second image may be output as an output image in an online conference. As a result, for example, rich facial expressions can be felt even through the screen, so the user can smoothly encourage the other user to change the conversation, and communication can proceed smoothly.
また、この第1の側面において、前記第2画像は、前記ユーザの表示装置または相手側ユーザの表示装置に出力されてもよい。これにより、例えば、画面越しでも豊かな表情を感じられるため、ユーザは、相手側ユーザに対してスムーズに発言の交代を促し、コミュニケーションを円滑に進めることができる。 Further, in this first aspect, the second image may be output to the user's display device or the other party's display device. As a result, for example, rich facial expressions can be felt even through the screen, so that the user can smoothly encourage the other user to take turns in speaking and facilitate communication.
また、この第1の側面において、前記アバターは、オンライン会議における出力画像として出力されてもよい。これにより、例えば、ユーザは、感情が伝わるアバターを通じて、相手側ユーザに話しかけることで、相手側ユーザが自分のことを知らない場合でも、親近感を持ってもらうことができる。 Further, in this first aspect, the avatar may be output as an output image in an online conference. As a result, for example, by talking to the other user through an avatar that conveys emotions, the user can create a sense of intimacy with the other user even if the other user does not know the other user.
また、この第1の側面において、前記アバターは、前記ユーザの表示装置または相手側ユーザの表示装置に出力されてもよい。これにより、例えば、ユーザは、感情が伝わるアバターを通じて、相手側ユーザに話しかけることで、相手側ユーザが自分のことを知らない場合でも、親近感を持ってもらうことができる。 Moreover, in this first aspect, the avatar may be output to the display device of the user or the display device of the other user. As a result, for example, by talking to the other user through an avatar that conveys emotions, the user can create a sense of intimacy with the other user even if the other user does not know the other user.
また、この第1の側面において、相手側ユーザの感情情報を取得する感情情報取得ステップをさらに備え、前記画像処理ステップは、前記第1画像と、前記感情情報と、前記相手側ユーザの感情情報とを受け付け、前記感情情報と、前記相手側ユーザの感情情報とに基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から前記第2画像を生成してもよい。これにより、例えば、ユーザは、相手側ユーザの感情に応じて、自分が表現したい感情をより正確に、かつ相手に伝わるように表現することができ、コミュニケーションをより向上させることができる。 In addition, in this first aspect, the image processing step further includes an emotional information acquisition step of acquiring emotional information of the other user, and the image processing step includes the first image, the emotional information, and the emotional information of the other user. and generates the second image from the first image by processing the facial expression of the user in the first image based on the emotional information and the emotional information of the other user. You can. Thereby, for example, the user can express the emotion he/she wants to express more accurately and in a way that is conveyed to the other party according to the emotion of the other user, and communication can be further improved.
また、この第1の側面において、前記感情情報取得ステップは、前記相手側ユーザの顔を含む第3画像を前記相手側ユーザから受信し、前記第3画像に基づいて前記相手側ユーザの感情情報を取得してもよい。これにより、例えば、ユーザは、相手側ユーザの感情に応じて、自分が表現したい感情をより正確に、かつ相手に伝わるように表現することができ、コミュニケーションをより向上させることができる。 Further, in this first aspect, the emotional information obtaining step includes receiving a third image including the face of the other user from the other user, and based on the third image, emotional information of the other user. may be obtained. Thereby, for example, the user can express the emotion he/she wants to express more accurately and in a way that is conveyed to the other party according to the emotion of the other user, and communication can be further improved.
また、この第1の側面において、前記感情情報取得ステップは、前記第3画像から前記相手側ユーザの感情を分析することで、前記相手側ユーザの感情情報を取得してもよい。これにより、例えば、ユーザは、相手側ユーザの感情に応じて、自分が表現したい感情をより正確に、かつ相手に伝わるように表現することができ、コミュニケーションをより向上させることができる。 Moreover, in this first aspect, the emotional information acquisition step may acquire the emotional information of the other user by analyzing the emotions of the other user from the third image. Thereby, for example, the user can express the emotion he/she wants to express more accurately and in a way that is conveyed to the other party according to the emotion of the other user, and communication can be further improved.
また、この第1の側面において、前記第3画像は、撮像装置によって撮像された画像であってもよい。これにより、例えば、正確な視線の検知や感情の分析が可能となる。 Moreover, in this first aspect, the third image may be an image captured by an imaging device. This makes it possible, for example, to accurately detect line of sight and analyze emotions.
本開示の第2の側面の表情加工装置は、ユーザから感情情報の入力を受け付ける感情入力部と、前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理部とを備える。これにより、例えば、ユーザは、自分の足りない感情表現スキルをこの装置により補うことができ、自分が意図しない内容で相手に伝わるのを防ぐことができる。 A facial expression processing device according to a second aspect of the present disclosure includes an emotion input unit that receives input of emotional information from a user, a first image including the user's face, and the emotional information, and receives an input of emotional information from a user based on the emotional information. and an image processing unit that generates a second image from the first image by processing the facial expression of the user in the first image. As a result, for example, the user can use this device to compensate for his or her own lacking emotional expression skills, and can prevent the user from conveying content that is not intended by the user to the other party.
本開示の第3の側面の表情加工方法は、ユーザから感情情報の入力を受け付ける感情入力ステップと、前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理ステップとを含む。これにより、例えば、ユーザは、自分の足りない感情表現スキルをこの方法により補うことができ、自分が意図しない内容で相手に伝わるのを防ぐことができる。 A facial expression processing method according to a third aspect of the present disclosure includes an emotion input step of receiving an input of emotional information from a user, receiving a first image including the user's face, and the emotional information, and processing based on the emotional information. and an image processing step of generating a second image from the first image by processing facial expressions of the user in the first image. As a result, for example, the user can use this method to compensate for his or her lacking emotional expression skills, and can prevent the user from conveying content that is not intended by the user to the other party.
以下、本開示の実施形態を、図面を参照して説明する。 Embodiments of the present disclosure will be described below with reference to the drawings.
(第1実施形態)
図1は、第1実施形態における表情加工プログラムを用いて、オンライン会議を行う際のシステム構成図の例である。
(First embodiment)
FIG. 1 is an example of a system configuration diagram when holding an online conference using the facial expression processing program according to the first embodiment.
図1は、オンライン会議に参加するユーザが使用する情報処理装置1と、この情報処理装置1の撮像装置2とを示している。オンライン会議に参加するユーザは、例えば、表情加工プログラムを情報処理装置1にインストールして実行することができる。情報処理装置1の例は、PC(Personal Computer)などのコンピュータ装置である。撮像装置2の例は、赤色光(R)、緑色光(G)および青色光(B)用の画素を含むRGB撮像装置や、赤色光(R)、緑色光(G)、青色光(B)および赤外光(IR)用の画素を含むRGBIR撮像装置である。撮像装置2は、例えばカメラやイメージセンサである。撮像装置2は、情報処理装置1に接続された外付けの装置であってもよく、または情報処理装置1と一体となった内蔵の装置でもよい。
FIG. 1 shows an
図1はさらに、上記のオンライン会議に参加する相手側ユーザが使用する情報処理装置1’と、この情報処理装置1’の撮像装置2’とを示している。図1では、説明を分かりやすくするため、相手側ユーザの情報処理装置を「情報処理装置1’」と表記し、相手側ユーザの撮像装置を「撮像装置2’」と表記している。情報処理装置1’および撮像装置2’の詳細は、情報処理装置1および撮像装置2と同様である。なお、上記のオンライン会議は、3人以上のユーザが3台以上の情報処理装置を使用して行われてもよい。
FIG. 1 further shows an information processing device 1' used by a user on the other side participating in the online conference, and an imaging device 2' of this information processing device 1'. In FIG. 1, in order to make the explanation easier to understand, the information processing device of the other user is expressed as "information processing device 1'", and the imaging device of the other user is expressed as "imaging device 2'". The details of the information processing device 1' and the imaging device 2' are the same as the
以下、図1に示す情報処理装置1および撮像装置2のさらなる詳細を説明するが、以下の説明は、情報処理装置1’および撮像装置2’にも適用可能である。
Further details of the
表情加工プログラムは、画像中のユーザの顔の表情を加工するためのコンピュータプログラムである。表情加工プログラムは、撮像装置2からユーザの顔を含む画像を受け付け、かつ、ユーザからの入力による感情情報を受け付ける。また、表情加工プログラムは、感情情報に基づいて画像中におけるユーザの顔の表情を加工する。撮像装置2によって撮像された画像は、本開示の第1画像の例である。また、ユーザの顔の表情を加工して得られた画像は、本開示の第2画像の例である。表情の加工の詳細については後述する。また、表情加工プログラムは、オンライン会議を行うユーザ全員が使用する必要はなく、自分の表情を加工したいユーザのみが使用してもよい。例えば、表情加工プログラムは、情報処理装置1と情報処理装置1’の各々にインストールされていてもよいし、情報処理装置1のみにインストールされていてもよい。
The facial expression processing program is a computer program for processing the facial expression of a user in an image. The facial expression processing program receives an image including the user's face from the
表情加工プログラムにより作成された画像は、例えば、オンライン会議用のプログラムにおいて、入力画像として使用することができる。オンライン会議用のプログラムは、撮像装置2によって撮像された画像を入力画像として受け付ける代わりに、表情加工プログラムにより生成した画像を入力画像として受け付けることができる。この場合、表情加工プログラムにより生成した画像を各ユーザに出力することで、オンライン会議における表情の加工を実現することができる。また、表情加工プログラムは、オンライン会議用のプログラムの機能の一部として実装されてもよい。例えば、オンライン会議用のプログラムにおいて、ユーザの顔の表情を加工して得られた画像を生成し、各ユーザに出力することが考えられる。
The image created by the facial expression processing program can be used as an input image in, for example, an online conference program. Instead of accepting an image captured by the
このオンライン会議では、情報処理装置1は、顔の表情を加工した画像を、ネットワーク100を介して情報処理装置1’に送信する。ネットワーク100は、有線ネットワークおよび無線ネットワークのいずれで構成されていてもよく、表情加工プログラムを使用する目的に応じて、様々なネットワーク100が構築される。
In this online conference, the
図2は、第1実施形態における表情加工プログラムを用いて、ストリーミング配信を行う際のシステム構成図の例である。図2のシステムについては、図1のシステムとの相違点を中心に説明する。 FIG. 2 is an example of a system configuration diagram when performing streaming distribution using the facial expression processing program in the first embodiment. The system shown in FIG. 2 will be explained focusing on the differences from the system shown in FIG. 1.
配信者であるユーザは、例えば、表情加工プログラムを情報処理装置1にインストールして実行することができる。図1は、配信者が使用する1台の情報処理装置1と、この情報処理装置1の撮像装置2とを示している。このストリーミング配信では、配信者は顔の表情を加工した画像を、ネットワーク100を介してストリーミング配信サーバ300に送信する。ストリーミング配信サーバ300は、複数の情報処理装置1’を含む情報処理装置群500にこの画像をストリーミング配信することができる。情報処理装置群500の各情報処理装置1’は、視聴者であるユーザにより使用される。
A user who is a distributor can, for example, install and execute a facial expression processing program on the
表情加工プログラムにより作成された画像は、例えば、ストリーミング配信用のプログラムにおいて、入力画像として使用することができる。表情加工プログラムとストリーミング配信用のプログラムとの関係は、上述の表情加工プログラムとオンライン会議用のプログラムとの関係と同様である。 An image created by the facial expression processing program can be used as an input image in a streaming distribution program, for example. The relationship between the facial expression processing program and the program for streaming distribution is the same as the relationship between the facial expression processing program and the online conference program described above.
第1実施形態におけるシステム構成は、図1または図2に記載した構成に限定されず、表情加工プログラムを使用する目的に応じて様々なシステム構成とすることができる。例えば、通信は1対1に限られず、1対N(Nは1以上の整数)の情報処理装置1で行うことができる。以下、説明を分かりやすくするため、1対1で通信を行う場合の例について説明するが、以下の説明は、1対Nで通信を行う場合にも適用可能である。 The system configuration in the first embodiment is not limited to the configuration shown in FIG. 1 or 2, and can be configured in various ways depending on the purpose of using the facial expression processing program. For example, communication is not limited to one-to-one communication, but can be performed by one-to-N information processing apparatuses 1 (N is an integer of 1 or more). Hereinafter, in order to make the explanation easier to understand, an example in which one-to-one communication is performed will be described, but the following explanation is also applicable to a case in which one-to-N communication is performed.
図3は、第1実施形態における表情加工プログラムをインストールした情報処理装置1のシステムブロック図である。
FIG. 3 is a system block diagram of the
図3は、オンライン会議に参加するユーザが使用する情報処理装置1と、この情報処理装置1の撮像装置2、入力装置3、および表示装置4とを示している。図3はさらに、このオンライン会議に参加する相手側ユーザが使用する情報処理装置1’と、この情報処理装置1’の撮像装置2’、入力装置3’、および表示装置4’とを示している。図3では、説明を分かりやすくするため、相手側ユーザの情報処理装置、撮像装置、入力装置、表示装置をそれぞれ「情報処理装置1’」「撮像装置2’」「入力装置3’」「表示装置4’」と表記している。
FIG. 3 shows an
本実施形態では、情報処理装置1内の画像処理部8は、撮像装置2により撮像されたユーザの顔を含む画像を、ユーザにより入力装置3および感情入力部5を介して入力された感情情報に基づいて加工する。画像処理部8はユーザの顔の表情を加工して得られた画像を、表示装置4や表示装置4’に出力することができる。また、画像処理部8は、アバター生成器11により、この画像からアバターを生成し、表示装置4や表示装置4’に出力することもできる。アバターとは、ネットワーク上の仮想空間でユーザの分身として表示するキャラクターのことである。また、これらの各機能は、表情加工プログラムによって実現することができる。以下、各機能ブロックについて説明する。
In the present embodiment, the
入力装置3は、例えばマウスである。入力装置3は、マウスのほか、キーボードやマイクなども含む。また、入力装置3は、情報処理装置1に接続された外付けの装置であってもよく、または情報処理装置1と一体となった内蔵の装置でもよい。
The
表示装置4は、例えばディスプレイである。ユーザは、表情加工プログラムにより生成したユーザの顔の表情を加工した画像、またはアバターを表示装置4または4’に出力して表示することができる。例えば、オンライン会議やストリーミング配信を介して、ユーザは、この画像やアバターを表示装置4または4’に出力して表示することが考えられる。表示装置4は、情報処理装置1に接続された外付けの装置であってもよく、または情報処理装置1と一体となった内蔵の装置でもよい。
The
感情入力部5は、例えばプルダウンメニューで表されるユーザインタフェース(不図示)を提供する。感情入力部5は、ユーザから、例えば入力装置3を用いて感情情報の入力を受け付ける。感情情報は例えば、「うれしい」や「悲しい」といった感情に関する情報であり、複数のカテゴリから選択することができる。また、感情入力部5への入力は、プルダウンメニューによる選択に限定されず、マウスによるアイコンの選択、キーボードによる文字入力、マイクによる音声の入力など、様々な入力方法を採用することができる。
The
記憶部6は、感情情報の手本となる人間の顔の表情を含む画像を教師画像7として記憶する。記憶部6は、例えばハードディスクなどの補助記憶装置上に構築される。記憶部6は、情報処理装置1の内部の装置だけでなく、外付けのハードディスクやクラウドサーバといった、外部の装置上に構築されていてもよい。教師画像7は、撮像装置2やデジタルカメラによって撮像された人間の顔の表情を含む画像の他、人間の顔の表情を含むイラストデータまたは3Dデータなど様々なデータを採用することができる。
The
画像処理部8は、AI(Artificial Intelligence)9と、加工器10と、アバター生成器11とを備える。画像処理部8は、ユーザの顔を含む画像と、感情情報とを入力として受け付け、感情情報に基づいて、この画像から、ユーザの顔の表情を加工した画像を生成する。加工した画像は、表示装置4または4’に出力することができる。また、ユーザの顔の表情を加工した画像から、アバターを生成することができ、表示装置4または4’に出力することができる。
The
AI9は、ユーザの顔を含む画像と、感情情報とを入力として受け付ける。また、AI9は、これらの入力に基づいて、感情表現に足りない顔の動きを分析した結果を出力する。AI9は、例えば、畳み込みニュ―ラルネットワーク(CNN)といったアルゴリズムを利用して、ユーザの顔を含む画像と、感情情報と、感情表現に足りない顔の動きとの関係について、教師画像7を用いて学習することが考えられる。AI9の処理の一例として、AI9は、受け付けた画像に対して畳み込み演算を実施することにより、画像に含まれるユーザの顔の特徴を抽出する。AI9は、抽出した特徴に基づいて、ユーザの顔の表情および目線を検知し、感情を分析する。ここで分析される感情は、何らかの形で数値化したものでもよく、または、「無表情」といった定性的に表現したものでもよい。AI9は、感情情報と、感情を分析した画像と、教師画像7を比較し、感情表現に足りない顔の動きを分析する。例えば、AI9は、口元の表情について、感情を分析した画像と、感情情報と対応する教師画像7とを比較して、それぞれの特徴を比較することで、感情表現に足りない顔の動きを数値化してもよい。また、AI9は、感情表現に足りない顔の動きを確認するために、教師画像7を複数用いて比較してもよい。
The
AI9は、感情の分析のために、顔の向きや手振り身振りを検知することを含めてもよい。また、AI9は、受け付けた画像から目線を分析することを含めてもよい。目線を分析する場合、AI9は、受け付けた画像から、顔と目線の向きを確認する。
AI9 may include detecting facial orientation and hand gestures for emotional analysis. Furthermore, AI9 may include analyzing the line of sight from the received image. When analyzing the line of sight, the
加工器10は、感情を分析した画像と、感情情報と、比較の結果とに基づいて、感情表現が正確に伝わるように、ユーザの顔における表情を加工する。例えば、ユーザが感情情報として、「楽しい」と入力した場合、加工器10は、「楽しい」という感情表現が正確に伝わるように、表情を加工する。これにより、「楽しい」という感情表現が補完されるように、表情を加工することが可能となる。また、表情の加工は既存のアルゴリズムなどを利用することができる。また、加工器10は、AI9が確認した顔と目線の向きに基づいて、目線を加工することを含めてもよい。例えば、加工器10は、目線が正面を向くように合成することや、適切な頻度または時間で相手側ユーザと目線を合わせるように加工することが考えられる。適切な頻度または時間とは、例えば、目が合う長さを2~3秒に設定する、1分間あたりの目線の合う長さは20~30秒以内にする、または話し出すタイミングと話し終わるタイミングでアイコンタクトを取るなどの加工が考えられる。
The
アバター生成器11は、加工器10により表情を加工した画像から、ユーザのアバターを生成する。アバターの生成には、既存のアルゴリズムなどを利用することができる。アバターの表情は、ユーザの顔を加工した画像と対応する表情となるように生成される。生成するアバターは、2次元または3次元キャラクターいずれであってもよい。また、アバターを生成するかどうかは、ユーザが選択することができる。例えば、ボタンアイコンで表されるユーザインタフェース(不図示)によって、ユーザが表情を加工した画像またはアバターのいずれを出力するか切換えできるようにすることが考えられる。
The
図4は、第1実施形態における表情加工プログラムのフローチャートを示す。ここでは、ユーザの顔を含む画像および感情情報に基づいて、アバターを表示装置4’に出力するフローを説明する。 FIG. 4 shows a flowchart of the facial expression processing program in the first embodiment. Here, a flow for outputting an avatar to the display device 4' based on an image including the user's face and emotional information will be described.
ステップS11では、ユーザが、感情入力部5に入力装置3を用いて感情情報を入力する。
In step S11, the user inputs emotional information to the
ステップS12では、画像処理部8におけるAI9が、撮像装置2からユーザの顔を含む画像を受け付ける。ステップS13では、AI9が、ステップS12で受け付けた画像から、顔の表情および目線を検知する。ステップS14では、AI9が、顔の表情および目線を検知した画像から、感情を分析する。
In step S12, the
ステップS15では、AI9が、感情を分析した画像と、感情情報と、記憶部6に記憶される教師画像7とを比較し、感情表現に足りない顔の動きを分析する。ステップS16では、加工器10が、比較の結果から感情情報に対応するようにユーザの顔を含む画像を加工する。ステップS17では、アバター生成器11が、表情を加工した画像に基づいてユーザのアバターを生成する。ステップS18では、アバター生成器11が、生成したアバターの画像を表示装置4’に出力する。
In step S15, the
このフローチャートでは、ステップS12からS14までのフローは、ステップS11のフローの後に行われる記載となっているが、ステップS11のフローの前に行われてもよい。つまり、感情情報の入力の後に感情の分析を行う方法としてもよく、また感情の分析を先に完了させた後、ユーザから感情情報の入力を受け付ける方法としてもよい。 In this flowchart, steps S12 to S14 are described as being performed after the flow of step S11, but they may be performed before the flow of step S11. In other words, a method may be adopted in which emotion analysis is performed after the input of emotional information, or a method may be adopted in which emotion analysis is completed first and then input of emotional information is received from the user.
次に、図5~図8を参照して、ユーザが、感情入力部5に「楽しい」という感情情報を入力した場合における入出力画像の例を説明する。
Next, with reference to FIGS. 5 to 8, examples of input and output images when the user inputs emotional information such as "fun" into the
図5は、撮像装置2によって撮像したユーザの顔を含む画像を表示装置4’に表示した例である。また、図6は、第1実施形態におけるユーザの表情を加工した画像を表示装置4’に表示した例である。図5の画像は、「無表情」であるユーザ20の例を表している。この例では、AI9は、図5のユーザの顔を含む画像から、顔の表情および目線を検知し、ユーザの感情について、「無表情」であると分析する。またAI9は、「無表情」と分析された画像と、「楽しい」という感情情報と、手本となる教師画像とを比較し、感情表現に足りない顔の動きを分析する。図5では、感情表現に足りない顔の動きは、口元であると確認され、加工器10は、図6で示すとおり、口元について、「楽しい」という感情表現になるようにユーザの顔の表情を加工する。加工器10は、表示装置4’に「無表情」であるユーザ20を表示する代わりに、「楽しい」という感情情報に対応するユーザ21を含む画像を出力する。
FIG. 5 is an example in which an image including the user's face captured by the
次にアバター生成器11が、表情を加工したアバターを出力する例を示す。図7は、「無表情」のユーザに対応するアバターを表示装置4’に表示した例である。表情加工プログラムによるユーザの表情の加工を行わずに、「無表情」であるユーザ20に対してアバターを生成すると、図7のように表される。図7では、「無表情」であるユーザ20に対応する表情として、「無表情」という顔の表情に対応するアバター22が出力される。一方で、図8は、第1実施形態におけるアバターを表示装置4’に表示した例である。アバター生成器11は、図6のように、「楽しい」という感情情報に対応するユーザ21を含む画像の入力を受け付ける。アバター生成器11は、図8に示すように「楽しい」という顔の表情に対応するアバター23を生成する。そして、アバター生成器11は、表示装置4’に、生成したアバターを含む画像を出力する。この例では、犬の2次元キャラクターをアバターとして生成する例を示すが、2次元キャラクターに限定されず、3次元キャラクターなど、様々なアバターを生成することができる。
Next, an example will be shown in which the
なお、表情加工プログラムは、情報処理装置1にインストールして実行する代わりに、外部のサーバ(不図示)によって実行してもよい。例えば、外部のサーバは、ブラウザを介して入力装置3および撮像装置2の入力を受け付けた後、ユーザの表情を加工した画像やアバターを生成し、ユーザの表示装置4’に表示してもよい。
Note that the facial expression processing program may be executed by an external server (not shown) instead of being installed and executed in the
本実施形態によれば、例えば、ユーザは、自分の足りない感情表現スキルを表情加工プログラムにより補うことができ、自分が意図しない内容で相手に伝わるのを防ぐことができる。また、本実施形態によれば、画面越しでも豊かな表情を感じられるため、ユーザは、オンライン会議などにおいて、相手側ユーザに対してスムーズに発言の交代を促し、コミュニケーションを円滑に進めることができる。 According to the present embodiment, for example, the user can compensate for his or her lacking emotional expression skills with the facial expression processing program, and can prevent the user from conveying content that is not intended by the user to the other party. Furthermore, according to the present embodiment, rich facial expressions can be felt even through the screen, so the user can smoothly encourage the other party to change the conversation in an online meeting, etc., thereby facilitating smooth communication. .
また、表情が豊かに表現されたアバターを通じてコミュニケーションをとることで、ユーザは、オンライン会議において、齟齬なく意思の疎通を図ることができる。また、ユーザは、感情が伝わるアバターを通じて、相手側ユーザに話しかけることで、相手側ユーザが自分のことを知らない場合でも、親近感を持ってもらうことができる。 In addition, by communicating through avatars with rich facial expressions, users can communicate their intentions seamlessly in online meetings. Furthermore, by talking to the other user through an avatar that conveys emotions, the user can create a sense of intimacy with the other user even if the other user does not know the user.
また、本実施形態によれば、ストリーミング配信において、配信者であるユーザは、感情をより鮮明に視聴者に届けることができる。 Further, according to the present embodiment, in streaming distribution, the user who is the distributor can more clearly convey emotions to the viewers.
また、AI9を用いることで、ユーザの顔を含む画像と、教師画像7とを比較し、ユーザが感情表現に足りない顔の動きを分析することができる。この比較結果から、加工器10により表情を含む画像を加工することで、ユーザは、正しく感情を伝えることができる。
Furthermore, by using the
また、RGB撮像装置を用いることで、白黒撮像装置とは異なり、正確な視線の検知や感情の分析が可能となる。RGBIR撮像装置を用いることで、RGB情報に加えて、深度情報が得られるため、表情の細かな変化を捉えることができる。また、被写体の色合いや照度にかかわらず、視線を検知や感情を分析することが可能となる。また、近赤外画像では、瞳孔を追跡することができるため、安定した目線の検出が可能となる。 Furthermore, by using an RGB imaging device, it is possible to accurately detect line of sight and analyze emotions, unlike a monochrome imaging device. By using an RGBIR imaging device, depth information can be obtained in addition to RGB information, so minute changes in facial expressions can be captured. Additionally, it is possible to detect the subject's line of sight and analyze their emotions, regardless of the subject's color or illuminance. Furthermore, in a near-infrared image, the pupil can be tracked, making it possible to stably detect the line of sight.
(第2実施形態)
図9は、第2実施形態における表情加工プログラムをインストールした情報処理装置1のシステムブロック図である。
(Second embodiment)
FIG. 9 is a system block diagram of the
第2実施形態では、情報処理装置1は、第1実施形態における構成に加え、場面入力部12を備える。場面入力部12は、例えばプルダウンメニューで表されるユーザインタフェース(不図示)を提供する。場面入力部12は、ユーザから、例えば入力装置3を用いて場面情報の入力を受け付ける。場面情報は例えば、「ディスカッション」、「プレゼンテーション」または「チャット」といった、場面の雰囲気を表す情報であり、複数のカテゴリから選択することができる。また、場面入力部12は、プルダウンメニューによる選択に限定されず、マウスによるアイコンの選択、キーボードによる文字入力、マイクによる音声の入力またはセンサーによる入力など、様々な入力方法を採用することができる。このように、場面入力部12への入力は、マウス以外の入力装置3(例えば、キーボードやマイク)を用いて行われてもよい。
In the second embodiment, the
本実施形態における画像処理部8は、ユーザの顔を含む画像と、ユーザからの感情情報と、場面情報とを受け付け、感情情報と、場面情報とに基づいて、この画像から、ユーザの顔の表情を加工した画像を生成する。
The
図10は、第2実施形態における表情加工プログラムのフローチャートを示す。ここでは、ユーザの顔を含む画像と、感情情報と、場面情報とに基づいて、ユーザの顔の表情を加工した画像を生成し、アバターとして表示装置4’に出力するフローを説明する。また、ステップS21およびS23~25については、説明を省略する。 FIG. 10 shows a flowchart of the facial expression processing program in the second embodiment. Here, a flow will be described in which an image in which the user's facial expression is processed is generated based on an image including the user's face, emotional information, and scene information, and is output as an avatar to the display device 4'. Furthermore, descriptions of steps S21 and S23 to S25 will be omitted.
ステップS22では、ユーザが場面入力部12に入力装置3を用いて場面情報を入力する。ステップS26では、AI9が、感情を分析した画像と、感情情報と、場面情報と、記憶部6に記憶される教師画像7を比較し、感情表現に足りない顔の動きを分析する。ステップS27では、加工器10が、比較の結果から感情情報に対応するようにユーザの顔を含む画像を加工する。ステップS28では、アバター生成器11が表情を加工した画像に基づいてユーザのアバターを生成する。アバターの表情は、ユーザの顔を加工した画像と対応する表情となるように生成される。ステップS29では、アバター生成器11が、生成したアバターの画像を表示装置4’に出力する。
In step S22, the user inputs scene information into the scene input section 12 using the
このフローチャートでは、ステップS23からS25までのフローは、ステップS21およびS22のフローの後に行われる記載となっているが、ステップS21およびS22のフローの前に行われてもよい。つまり、感情情報および場面情報の入力の後に感情の分析を行う方法としてもよく、また感情の分析を先に完了させた後、ユーザから感情情報および場面情報の入力を受け付ける方法としてもよい。 In this flowchart, steps S23 to S25 are described as being performed after steps S21 and S22, but may be performed before steps S21 and S22. That is, a method may be adopted in which emotion analysis is performed after the input of emotional information and scene information, or a method may be adopted in which emotion analysis is completed first and then input of emotional information and scene information is received from the user.
次に、ユーザが、感情入力部5に「楽しい」という感情情報を入力し、場面入力部12に、「チャット」という場面情報を入力した場合における出力画像の例を説明する。ユーザの顔を含む画像ついては、実施形態1と同様に図5を用いて説明する。図11は第2実施形態におけるユーザの表情を加工した画像を表示装置4’に表示した例である。この例では、場面情報である「チャット」という砕けたコミュニケーションであることを考慮して、楽しいという感情表現について、さらに強調を加えている。第1実施形態とは異なり、AI9によって、感情表現に足りない顔の動きは、口元に加え、目元であると分析される。加工器10は、図11で示すとおり、口元および目元について、「楽しい」という感情表現になるように加工する。表示装置4’には、「無表情」であるユーザ20を表示する代わりに、「楽しい」表情が強調されたユーザ24を含む画像を出力する。
Next, an example of an output image when the user inputs emotional information such as "fun" into the
アバターとして出力する場合、アバター生成器11は、ユーザの表情を加工した画像からアバターを生成し、表示装置4’に出力することができる。図12は、第2実施形態におけるアバターを表示装置4’に表示した例である。図11におけるユーザの顔の表情と対応するように「楽しい」表情が強調されたアバター25を含む画像が出力される。
When outputting as an avatar, the
本実施形態によれば、情報処理装置1は、ユーザによる感情情報だけではなく、場面情報を考慮することにより、場面の雰囲気に合わせてユーザの顔の表情を加工した画像を出力することができる。そのため、ユーザは、自分が表現したい感情をより正確に、かつ相手に伝わるように表現することができ、コミュニケーションをより向上させることができる。
According to the present embodiment, the
(第3実施形態)
図13は、第3実施形態における表情加工プログラムをインストールした情報処理装置1のシステムブロック図である。
(Third embodiment)
FIG. 13 is a system block diagram of the
第3実施形態では、情報処理装置1は、第1実施形態における構成に加え、フィードバック入力部13を備える。フィードバック入力部13は、例えばプルダウンメニューで表されるユーザインタフェース(不図示)を提供する。フィードバック入力部13は、加工器10が生成したユーザの顔の表情を加工して得られた画像、またはアバター生成器11が生成したアバターの表現が最適かどうかについて、ユーザからフィードバックの入力を受け付ける。フィードバックは例えば、「良」または「否」といった、ユーザの顔の表情を加工して得られた画像に関する良否を表す情報であり、ユーザは、フィードバックについて、複数のカテゴリから選択することができる。また、フィードバック入力部13は、プルダウンメニューによる選択に限定されず、マウスによるアイコンの選択、キーボードによる文字入力またはマイクによる音声の入力など、様々な入力方法を採用することができる。このように、フィードバック入力部13への入力は、マウス以外の入力装置(例えば、キーボードやマイク)を用いて行われてもよい。
In the third embodiment, the
本実施形態では、加工器10が生成したユーザの顔の表情を加工して得られた画像またはアバター生成器11が生成したアバターの表現が最適かどうかについて、ユーザがフィードバックを与える。これにより、画像処理部8が、ユーザの表情の加工の再生成またはアバターの再生成を行うことができる。また、AI9がフィードバックに基づいて追加学習を行うことができる。
In this embodiment, the user gives feedback as to whether the image obtained by processing the user's facial expression generated by the
図14は、第3実施形態における表情加工プログラムのフローチャートを示す。このフローチャートでは、アバター生成器11が生成したアバターに対して、フィードバックを与える例を示す。
FIG. 14 shows a flowchart of the facial expression processing program in the third embodiment. This flowchart shows an example in which feedback is given to the avatar generated by the
S31からS38においては、図4と同様なフローにより、アバター出力を実施する。ステップS39において、ユーザは、表示装置4’に表示されたアバターの表現が最適かどうかについて、フィードバック入力部13にフィードバックを入力する。
In S31 to S38, avatar output is performed according to a flow similar to that in FIG. In step S39, the user inputs feedback into the
ステップS39において、ユーザが、アバターの表現が最適でないというフィードバックを入力した場合、再度ステップS36からS38のフローを繰り返し、アバターの再生成および再出力を行う。ここで、ステップS36において、加工器10が、表情の加工を行う際は、別の教師画像7を参照して表情の加工などを行うことが考えられる。
In step S39, if the user inputs feedback that the expression of the avatar is not optimal, the flow from steps S36 to S38 is repeated again to regenerate and reoutput the avatar. Here, in step S36, when processing the facial expression, the
また、ステップS39において、ユーザが、アバターの表現が最適であるというフィードバックを入力した場合、ステップS40において、ステップS38で作成されたアバターの出力を継続する。ステップS41において、AI9が、ステップS39でユーザから得られたフィードバックに基づいて追加学習を行う。AI9が、フィードバックに基づいた追加学習を行うことで、表情の加工の精度を向上させることができる。
Further, in step S39, if the user inputs feedback indicating that the expression of the avatar is optimal, in step S40, the output of the avatar created in step S38 is continued. In step S41, the
また、本フローチャートでは、ユーザは、アバターの表現が最適かどうかについて、フィードバックを入力する例を説明したが、アバターを出力しない場合は、ユーザの顔の表情を加工して得られた画像についてフィードバックを入力する。 In addition, in this flowchart, an example was explained in which the user inputs feedback regarding whether the expression of the avatar is optimal, but if the avatar is not output, feedback is provided regarding the image obtained by processing the user's facial expression. Enter.
また、アバターやユーザの顔の表情を加工して得られた画像は表示装置4’に出力する前に、ユーザが表情を確認するため、表示装置4に出力することとしてもよい。この場合、表示装置4に出力されたアバターなどに基づいてフィードバックを入力する。
Further, the image obtained by processing the facial expression of the avatar or the user may be output to the
本実施形態によれば、情報処理装置1は、ユーザによる感情情報に加え、フィードバックの入力を受け付ける。アバターやユーザの顔の表情を加工して得られた画像について、最適な表現となるように再度加工を行うことで、ユーザは、自分が表現したい感情をより正確に、かつ相手に伝わるように表現することができ、コミュニケーションをより向上させることができる。
According to this embodiment, the
(第4実施形態)
図15は、第4実施形態における表情加工プログラムをインストールした情報処理装置1のシステムブロック図である。
(Fourth embodiment)
FIG. 15 is a system block diagram of the
第4実施形態では、情報処理装置1は、第1実施形態における構成に加え、感情情報取得部14を備える。感情情報取得部14は、オンライン会議などにおける相手側ユーザの顔を含む画像に基づいて、相手側ユーザの感情情報を取得する。相手側ユーザの顔を含む画像は、本開示の第3画像の例である。以下、説明を分かりやすくするため、表情の加工を行うユーザを「ユーザA」とし、相手側ユーザを「ユーザB」として説明する。ユーザBの顔を含む画像は、例えば、撮像装置2’によって撮像された画像を、情報処理装置1がオンライン会議などで受信した後、情報処理装置1の感情情報取得部14で受け付けることが考えられる。
In the fourth embodiment, the
本実施形態における情報処理装置1の画像処理部8は、撮像装置2により撮像されたユーザAの顔を含む画像と、ユーザAの感情情報と、ユーザBの感情情報とを受け付け、ユーザAの顔の表情を加工した画像を生成する。
The
図16は、第4実施形態における表情加工プログラムのフローチャートを示す。ここでは、ユーザAの顔を含む画像と、ユーザAの感情情報と、ユーザBの感情情報とに基づいて、ユーザAのアバターをユーザBの表示装置4’に出力するフローを説明する。また、ステップS51およびS55~S57については説明を省略する。 FIG. 16 shows a flowchart of the facial expression processing program in the fourth embodiment. Here, a flow will be described in which an avatar of user A is output to the display device 4' of user B based on an image including the face of user A, emotional information of user A, and emotional information of user B. Furthermore, descriptions of steps S51 and S55 to S57 will be omitted.
ステップS52では、情報処理装置1の感情情報取得部14は、ユーザBの画像を受け付ける。ステップS53では、この感情情報取得部14が、受け付けた画像から、ユーザBの顔の表情および目線を検知する。ステップS54では、この感情情報取得部14が、表情および目線を検知した結果から、ユーザBの感情を分析する。この感情情報取得部14は、例えば、AI9と同様な手法により感情を分析することが考えられる。この感情情報取得部14は、畳み込みニューラルネットワークを利用し、受け付けた画像に対して畳み込み演算を実施することにより、画像における特徴を抽出する。この感情情報取得部14は、抽出した特徴に基づいて、ユーザBの顔の表情および目線を検知し、感情を分析する。ここで分析されるユーザBの感情は、感情を何らかの形で数値化したものでもよく、または、「無表情」といった定性的に表現したものでもよい。このように、ステップS52~S54を通じて、この感情情報取得部14は、ユーザBの感情情報を取得する。
In step S52, the emotional
ステップS58では、情報処理装置1のAI9が、ユーザAの感情を分析した画像と、ユーザAの感情情報と、ユーザBの感情情報と、情報処理装置1の記憶部6に保存される教師画像7を比較し、ユーザAの感情表現に足りない顔の動きを分析する。ステップS59では、情報処理装置1の加工器10が、比較の結果から、感情情報に対応するようにユーザAの顔を含む画像を加工する。ステップS60では、情報処理装置1のアバター生成器11が表情を加工した画像に基づいてユーザAのアバターを生成する。アバターの表情は、ユーザAの顔を加工した画像と対応する表情となるように生成される。ステップS61では、生成したアバターの画像を表示装置4’に出力する。
In step S58, the
本実施形態によれば、情報処理装置1は、ユーザAによる感情情報に加え、ユーザBの感情情報も反映してユーザの表情の加工を行う。そのため、ユーザAは、ユーザBの感情に応じて、自分が表現したい感情をより正確に、かつ相手に伝わるように表現することができ、コミュニケーションをより向上させることができる。
According to this embodiment, the
その他、表情加工プログラムの応用例として、以下の内容が考えられる。例えば、表情加工プログラムをコールセンターのクレーム対応に応用することが考えられる。オペレータは、アバターを通じて感情を伝えることで、顧客から必要以上に攻撃的な発言を防ぐことができる。 Other possible applications of the facial expression processing program include the following. For example, it is possible to apply facial expression processing programs to handling complaints at call centers. By conveying emotions through avatars, operators can prevent customers from making unnecessary offensive comments.
別の例として、表情加工プログラムを無人店舗の防犯として応用することが考えられる。人間に近い表情を持つアバターが店舗を見守ることで、万引きや異常行動の抑制につなげることができる。 Another example would be to apply the facial expression processing program to crime prevention in unmanned stores. By having avatars with facial expressions similar to those of humans watching over stores, it is possible to curb shoplifting and abnormal behavior.
別の例として、表情加工プログラムを無人店舗におけるデジタルサイネージを活用したリモート対応に応用することが考えられる。アバターを通じて店員の表情を豊かに表現し、リモートからデジタルサイネージに映し出すことで、アバターが対面と同等の接客を行うことができる。 Another example would be to apply the facial expression processing program to remote support using digital signage in unmanned stores. By expressing the store clerk's facial expressions richly through the avatar and displaying it remotely on digital signage, the avatar can provide the same level of customer service as in-person customer service.
(第5実施形態)
図17に、第5実施形態における情報処理装置1のハードウェア構成の一例を示す。第5実施形態の情報処理装置1は、第1実施形態の情報処理装置1の一例に相当する。
(Fifth embodiment)
FIG. 17 shows an example of the hardware configuration of the
本実施形態に係る情報処理装置1は、コンピュータ装置200により構成される。コンピュータ装置200は、CPU(Central Processing Unit)201、主記憶装置202、補助記憶装置203、通信インタフェース204および入出力インタフェース205を備え、これらはバス206により相互に接続されている。
The
CPU201は、主記憶装置202上で、情報処理装置1の上述の各機能構成を実現するコンピュータプログラムを実行する。CPU201が、コンピュータプログラムを実行することにより、図3の感情入力部5および画像処理部8の機能が実現される。このコンピュータプログラムは、例えば表情加工プログラム、オンライン会議用のプログラムまたはストリーミング配信用のプログラムである。
The
主記憶装置202は、本実施形態の処理を実現するプログラム、およびプログラムの実行に必要なデータ、およびプログラムの実行により生成されたデータなどを記憶する。プログラムは、主記憶装置202上で展開され、実行される。主記憶装置202は、例えば、RAM(Random Access Memory)であるが、これに限られない。
The
補助記憶装置203は、上記プログラムおよびプログラムの実行に必要なデータ、およびプログラムの実行により生成されたデータなどを記憶する。これらのプログラムやデータは、本実施形態の処理の際に主記憶装置202に読み出される。補助記憶装置203は、例えば、ハードディスク、光ディスク、フラッシュメモリ、および磁気テープであるが、これに限られない。図3の記憶部6は、補助記憶装置203上に構築されてもよい。
The
通信インタフェース204は、オンライン会議などにおいて、外部コンピュータ装置と、有線または無線で通信を行うための回路である。
The
入出力インタフェース205は、撮像装置2、入力装置3の例であるマウスのほか、キーボードおよびマイクなどの入力装置などの入力装置や、表示装置4などの出力装置と接続するための回路である。
The input/
バス206は、CPU201、主記憶装置202、補助記憶装置203、通信インタフェース204および入出力インタフェース205を相互に接続するための回路である。
なお、上述のプログラムは、コンピュータ装置200に予めインストールされていてもよいし、CD-ROMなどの記憶媒体に記憶されていてもよい。また、当該プログラムは、インターネット上にアップロードされていてもよい。
Note that the above-mentioned program may be installed in advance on the
なお、コンピュータ装置200は、CPU201、主記憶装置202、補助記憶装置203、通信インタフェース204および入出力インタフェース205をそれぞれ1つまたは複数備えてもよい。
Note that the
また、情報処理装置1は、単一のコンピュータ装置200により構成されてもよいし、相互に接続された複数のコンピュータ装置200からなるシステムとして構成されてもよい。
Further, the
本構成によれば、第1実施形態における表情加工プログラムの機能をソフトウェアにより実現することが可能となる。また、図16では、図3における情報処理装置1のハードウェア構成の一例を示したが、その他の実施形態においても同様の構成により、表情加工プログラムの機能をソフトウェアにより実現することが可能である。
According to this configuration, the functions of the facial expression processing program in the first embodiment can be realized by software. Further, although FIG. 16 shows an example of the hardware configuration of the
以上、本開示の実施形態について説明したが、これらの実施形態は、本開示の要旨を逸脱しない範囲内で、種々の変更を加えて実施してもよい。例えば、2つ以上の実施形態を組み合わせて実施してもよい。 Although the embodiments of the present disclosure have been described above, these embodiments may be implemented with various changes within the scope of the gist of the present disclosure. For example, two or more embodiments may be combined and implemented.
なお、本開示は、以下のような構成を取ることもできる。 Note that the present disclosure can also have the following configuration.
(1)
ユーザから感情情報の入力を受け付ける感情入力ステップと、
前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理ステップと、
を含む表情加工方法をコンピュータに実行させる表情加工プログラム。
(1)
an emotion input step of accepting emotional information input from the user;
A first image including the user's face and the emotional information are received, and the facial expression of the user in the first image is processed based on the emotional information, thereby converting the first image into a second image. an image processing step for generating
A facial expression processing program that causes a computer to execute facial expression processing methods including
(2)
前記第2画像に基づいて、ネットワーク上の仮想空間で前記ユーザの分身として表示するキャラクターであるアバターを生成するアバター生成ステップをさらに備える、(1)に記載の表情加工プログラム。
(2)
The facial expression processing program according to (1), further comprising an avatar generation step of generating an avatar, which is a character to be displayed as an alter ego of the user in a virtual space on a network, based on the second image.
(3)
前記アバターの表情は、前記第2画像における前記ユーザの顔の表情と対応するように生成される、(2)に記載の表情加工プログラム。
(3)
The facial expression processing program according to (2), wherein the facial expression of the avatar is generated to correspond to the facial expression of the user in the second image.
(4)
前記画像処理ステップは、前記第1画像中の前記ユーザの顔の表情を、前記感情情報に対応する表情に加工する、(1)に記載の表情加工プログラム。
(4)
The facial expression processing program according to (1), wherein the image processing step processes the facial expression of the user in the first image into an expression corresponding to the emotional information.
(5)
前記画像処理ステップは、人間の顔の表情を含む教師画像を取得して、前記第1画像と前記教師画像とを比較することで、前記第1画像中の前記ユーザの顔の表情を加工する、(1)に記載の表情加工プログラム。
(5)
The image processing step processes the user's facial expression in the first image by acquiring a teacher image including a human facial expression and comparing the first image and the teacher image. , the facial expression processing program described in (1).
(6)
前記画像処理ステップは、前記第1画像から前記ユーザの感情を分析し、前記分析の結果と、前記感情情報と、前記比較の結果とに基づいて、前記第1画像中の前記ユーザの顔の表情を加工する、(5)に記載の表情加工プログラム。
(6)
The image processing step analyzes the user's emotion from the first image, and analyzes the user's face in the first image based on the analysis result, the emotion information, and the comparison result. The facial expression processing program described in (5) that processes facial expressions.
(7)
前記第1画像は、撮像装置によって撮像された画像である、(1)に記載の表情加工プログラム。
(7)
The facial expression processing program according to (1), wherein the first image is an image captured by an imaging device.
(8)
前記撮像装置は、RGB撮像装置またはRGBIR撮像装置である、(7)に記載の表情加工プログラム。
(8)
The facial expression processing program according to (7), wherein the imaging device is an RGB imaging device or an RGBIR imaging device.
(9)
前記ユーザから場面情報の入力を受け付ける場面入力ステップをさらに備え、
前記画像処理ステップは、前記第1画像と、前記感情情報と、前記場面情報とを受け付け、前記感情情報と、前記場面情報とに基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から前記第2画像を生成する、(1)に記載の表情加工プログラム。
(9)
further comprising a scene input step of receiving scene information input from the user,
The image processing step receives the first image, the emotional information, and the scene information, and processes the facial expression of the user in the first image based on the emotional information and the scene information. The facial expression processing program according to (1), wherein the second image is generated from the first image by doing so.
(10)
前記ユーザから前記第2画像に関するフィードバックの入力を受け付けるフィードバック入力ステップをさらに備え、
前記フィードバックに基づいて前記画像処理ステップが学習を行う、(1)に記載の表情加工プログラム。
(10)
further comprising a feedback input step of receiving feedback input regarding the second image from the user;
The facial expression processing program according to (1), wherein the image processing step performs learning based on the feedback.
(11)
前記第2画像は、オンライン会議における出力画像として出力される、(1)に記載の表情加工プログラム。
(11)
The facial expression processing program according to (1), wherein the second image is output as an output image in an online conference.
(12)
前記第2画像は、前記ユーザの表示装置または相手側ユーザの表示装置に出力される、(1)に記載の表情加工プログラム。
(12)
The facial expression processing program according to (1), wherein the second image is output to the user's display device or the other user's display device.
(13)
前記アバターは、オンライン会議における出力画像として出力される、(2)に記載の表情加工プログラム。
(13)
The facial expression processing program according to (2), wherein the avatar is output as an output image in an online conference.
(14)
前記アバターは、前記ユーザの表示装置または相手側ユーザの表示装置に出力される、(2)に記載の表情加工プログラム。
(14)
The facial expression processing program according to (2), wherein the avatar is output to the user's display device or the other user's display device.
(15)
相手側ユーザの感情情報を取得する感情情報取得ステップをさらに備え、
前記画像処理ステップは、前記第1画像と、前記感情情報と、前記相手側ユーザの感情情報とを受け付け、前記感情情報と、前記相手側ユーザの感情情報とに基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から前記第2画像を生成する、(1)に記載の表情加工プログラム。
(15)
Further comprising an emotional information acquisition step of acquiring emotional information of the other user,
The image processing step receives the first image, the emotional information, and the emotional information of the other user, and processes the image in the first image based on the emotional information and the emotional information of the other user. The facial expression processing program according to (1), wherein the second image is generated from the first image by processing the facial expression of the user.
(16)
前記感情情報取得ステップは、前記相手側ユーザの顔を含む第3画像を前記相手側ユーザから受信し、前記第3画像に基づいて前記相手側ユーザの感情情報を取得する、(15)に記載の表情加工プログラム。
(16)
The emotional information acquisition step is described in (15), wherein a third image including the face of the other user is received from the other user, and emotional information of the other user is obtained based on the third image. Facial expression processing program.
(17)
前記感情情報取得ステップは、前記第3画像から前記相手側ユーザの感情を分析することで、前記相手側ユーザの感情情報を取得する、(16)に記載の表情加工プログラム。
(17)
The facial expression processing program according to (16), wherein the emotion information acquisition step acquires the emotion information of the other party user by analyzing the emotion of the other party user from the third image.
(18)
前記第3画像は、撮像装置によって撮像された画像である、(16)に記載の表情加工プログラム。
(18)
The facial expression processing program according to (16), wherein the third image is an image captured by an imaging device.
(19)
ユーザから感情情報の入力を受け付ける感情入力部と、
前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理部と、
を備える表情加工装置。
(19)
an emotion input section that accepts input of emotional information from a user;
A first image including the user's face and the emotional information are received, and the facial expression of the user in the first image is processed based on the emotional information, thereby converting the first image into a second image. an image processing unit that generates
An expression processing device equipped with.
(20)
ユーザから感情情報の入力を受け付ける感情入力ステップと、
前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理ステップと、
を含む表情加工方法。
(20)
an emotion input step of accepting emotional information input from the user;
A first image including the user's face and the emotional information are received, and the facial expression of the user in the first image is processed based on the emotional information, thereby converting the first image into a second image. an image processing step for generating
Facial expression processing methods including.
1:情報処理装置、2:撮像装置、3:入力装置、4、表示装置、5:感情入力部、
1’:相手側ユーザの情報処理装置、2’:相手側ユーザの撮像装置、
3’:相手側ユーザの入力装置、4’、相手側ユーザの表示装置、
6:記憶部、7:教師画像、8:画像処理部、9:AI、10:加工器、
11:アバター生成器、12:場面入力部、13:フィードバック入力部、
14:感情情報取得部、20:「無表情」であるユーザ、
21:「楽しい」という感情情報に対応するユーザ、
22:「無表情」という顔の表情に対応するアバター、
23:「楽しい」という顔の表情に対応するアバター、
24:「楽しい」表情が強調されたユーザ、
25:「楽しい」表情が強調されたアバター、100:ネットワーク、
200:コンピュータ装置、201:CPU、202:主記憶装置、
203:補助記憶装置、204:通信インタフェース、
205:入出力インタフェース、206:バス、
300:ストリーミング配信サーバ、500:情報処理装置群
1: Information processing device, 2: Imaging device, 3: Input device, 4, Display device, 5: Emotion input unit,
1': information processing device of the other user, 2': imaging device of the other user,
3': input device of the other user; 4', display device of the other user;
6: Storage unit, 7: Teacher image, 8: Image processing unit, 9: AI, 10: Processing device,
11: Avatar generator, 12: Scene input unit, 13: Feedback input unit,
14: Emotional information acquisition unit, 20: User who is "expressionless",
21: User corresponding to the emotional information “fun”,
22: Avatar that corresponds to the facial expression “no expression”,
23: Avatar corresponding to the facial expression of “fun”,
24: User whose “happy” expression was emphasized,
25: Avatar with emphasized “fun” expression, 100: Network,
200: Computer device, 201: CPU, 202: Main storage device,
203: Auxiliary storage device, 204: Communication interface,
205: input/output interface, 206: bus,
300: Streaming distribution server, 500: Information processing device group
Claims (20)
前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理ステップと、
を含む表情加工方法をコンピュータに実行させる表情加工プログラム。 an emotion input step of accepting emotional information input from the user;
A first image including the user's face and the emotional information are received, and the facial expression of the user in the first image is processed based on the emotional information, thereby converting the first image into a second image. an image processing step for generating
A facial expression processing program that causes a computer to execute facial expression processing methods including
前記第1画像は、撮像装置によって撮像された画像である、請求項1に記載の表情加工プログラム。 Emotion input step, image processing step The facial expression processing program according to claim 1, wherein the first image is an image captured by an imaging device.
前記画像処理ステップは、前記第1画像と、前記感情情報と、前記場面情報とを受け付け、前記感情情報と、前記場面情報とに基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から前記第2画像を生成する、請求項1に記載の表情加工プログラム。 further comprising a scene input step of receiving scene information input from the user,
The image processing step receives the first image, the emotional information, and the scene information, and processes the facial expression of the user in the first image based on the emotional information and the scene information. The facial expression processing program according to claim 1, wherein the second image is generated from the first image by doing so.
前記フィードバックに基づいて前記画像処理ステップが学習を行う、請求項1に記載の表情加工プログラム。 further comprising a feedback input step of receiving feedback input regarding the second image from the user;
The facial expression processing program according to claim 1, wherein the image processing step performs learning based on the feedback.
前記画像処理ステップは、前記第1画像と、前記感情情報と、前記相手側ユーザの感情情報とを受け付け、前記感情情報と、前記相手側ユーザの感情情報とに基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から前記第2画像を生成する、請求項1に記載の表情加工プログラム。 Further comprising an emotional information acquisition step of acquiring emotional information of the other user,
The image processing step receives the first image, the emotional information, and the emotional information of the other user, and processes the image in the first image based on the emotional information and the emotional information of the other user. The facial expression processing program according to claim 1, wherein the second image is generated from the first image by processing the facial expression of the user.
前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理部と、
を備える表情加工装置。 an emotion input section that accepts input of emotional information from a user;
A first image including the user's face and the emotional information are received, and the facial expression of the user in the first image is processed based on the emotional information, thereby converting the first image into a second image. an image processing unit that generates
An expression processing device equipped with.
前記ユーザの顔を含む第1画像と、前記感情情報とを受け付け、前記感情情報に基づいて前記第1画像中の前記ユーザの顔の表情を加工することで、前記第1画像から第2画像を生成する画像処理ステップと、
を含む表情加工方法。 an emotion input step of accepting emotional information input from the user;
A first image including the user's face and the emotional information are received, and the facial expression of the user in the first image is processed based on the emotional information, thereby converting the first image into a second image. an image processing step for generating
Facial expression processing methods including.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022131325A JP2024028023A (en) | 2022-08-19 | 2022-08-19 | Facial expression processing device, facial expression processing method, and facial expression processing program |
PCT/JP2023/025179 WO2024038699A1 (en) | 2022-08-19 | 2023-07-06 | Expression processing device, expression processing method, and expression processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022131325A JP2024028023A (en) | 2022-08-19 | 2022-08-19 | Facial expression processing device, facial expression processing method, and facial expression processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024028023A true JP2024028023A (en) | 2024-03-01 |
Family
ID=89941427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022131325A Pending JP2024028023A (en) | 2022-08-19 | 2022-08-19 | Facial expression processing device, facial expression processing method, and facial expression processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024028023A (en) |
WO (1) | WO2024038699A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4854424B2 (en) * | 2006-08-02 | 2012-01-18 | 株式会社コナミデジタルエンタテインメント | Chat system, communication apparatus, control method thereof, and program |
JP7140138B2 (en) * | 2017-10-27 | 2022-09-21 | ソニーグループ株式会社 | Information processing device, information processing method, program, and information processing system |
JP7073116B2 (en) * | 2018-01-22 | 2022-05-23 | システムインテリジェント株式会社 | Office virtual reality system and office virtual reality program |
KR20220039702A (en) * | 2019-06-06 | 2022-03-29 | 아티, 인코포레이티드 | Multimodal model for dynamically responsive virtual characters |
-
2022
- 2022-08-19 JP JP2022131325A patent/JP2024028023A/en active Pending
-
2023
- 2023-07-06 WO PCT/JP2023/025179 patent/WO2024038699A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024038699A1 (en) | 2024-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Celiktutan et al. | Multimodal human-human-robot interactions (mhhri) dataset for studying personality and engagement | |
US10609332B1 (en) | Video conferencing supporting a composite video stream | |
WO2020204000A1 (en) | Communication assistance system, communication assistance method, communication assistance program, and image control program | |
JP6200483B2 (en) | Image processing system, image processing method, and image processing program | |
CN110418095B (en) | Virtual scene processing method and device, electronic equipment and storage medium | |
WO2013027893A1 (en) | Apparatus and method for emotional content services on telecommunication devices, apparatus and method for emotion recognition therefor, and apparatus and method for generating and matching the emotional content using same | |
US11017575B2 (en) | Method and system for generating data to provide an animated visual representation | |
KR101895846B1 (en) | Facilitating television based interaction with social networking tools | |
JP2009077380A (en) | Method, system and program for modifying image | |
JP2010206307A (en) | Information processor, information processing method, information processing program, and network conference system | |
CN110413108B (en) | Virtual picture processing method, device and system, electronic equipment and storage medium | |
WO2021042513A1 (en) | Method and apparatus for adding expression in video chat, computer device and storage medium | |
US20160180572A1 (en) | Image creation apparatus, image creation method, and computer-readable storage medium | |
US11076091B1 (en) | Image capturing assistant | |
WO2021227916A1 (en) | Facial image generation method and apparatus, electronic device, and readable storage medium | |
CN105960801A (en) | Enhancing video conferences | |
US20220291752A1 (en) | Distributed Application Platform Projected on a Secondary Display for Entertainment, Gaming and Learning with Intelligent Gesture Interactions and Complex Input Composition for Control | |
WO2024038699A1 (en) | Expression processing device, expression processing method, and expression processing program | |
JP7206741B2 (en) | HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM | |
US20220182557A1 (en) | Systems and methods for displaying users participating in a communication session | |
CN115086594A (en) | Virtual conference processing method, device, equipment and storage medium | |
CN111461005B (en) | Gesture recognition method and device, computer equipment and storage medium | |
KR20170127354A (en) | Apparatus and method for providing video conversation using face conversion based on facial motion capture | |
JP2022083831A (en) | Video communication device and video display method | |
JP7231301B2 (en) | Online meeting support system and online meeting support program |