JP2023082808A - 生成システム、及び、生成方法 - Google Patents
生成システム、及び、生成方法 Download PDFInfo
- Publication number
- JP2023082808A JP2023082808A JP2021196757A JP2021196757A JP2023082808A JP 2023082808 A JP2023082808 A JP 2023082808A JP 2021196757 A JP2021196757 A JP 2021196757A JP 2021196757 A JP2021196757 A JP 2021196757A JP 2023082808 A JP2023082808 A JP 2023082808A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- image
- face image
- facial
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 66
- 230000008451 emotion Effects 0.000 claims abstract description 150
- 230000001815 facial effect Effects 0.000 claims abstract description 61
- 238000012545 processing Methods 0.000 claims abstract description 61
- 230000008859 change Effects 0.000 claims abstract description 60
- 230000008569 process Effects 0.000 claims description 38
- 230000008921 facial expression Effects 0.000 claims description 33
- 230000002123 temporal effect Effects 0.000 claims description 26
- 210000004709 eyebrow Anatomy 0.000 claims description 12
- 125000004122 cyclic group Chemical group 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 abstract description 13
- 238000004891 communication Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 27
- 230000002996 emotional effect Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 230000003993 interaction Effects 0.000 description 6
- 238000011160 research Methods 0.000 description 6
- 238000012552 review Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 2
- 230000037007 arousal Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004660 morphological change Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザが表したい感情の変化を表情の変化として表す顔画像を生成する生成システムを提供する。【解決手段】生成システム100は、ユーザ操作を受け付ける入力部と、入力部で受け付けたユーザ操作に基づいてコンテンツ生成処理を実行するプロセッサ11,51と、を備え、プロセッサは、コンテンツ生成処理において、入力部から、感情モデルにおける感情を示す値の時間的変化を入力するユーザ操作を示す第1の操作信号の入力を受け付け、第1の操作信号が示す感情を示す値の時間的変化に応じて、表情が時間的に変化する顔画像を生成する、よう構成されている。【選択図】図1
Description
特許法第30条第2項適用申請有り 公開の事実1:令和3(2021)年8月16日に研究報告ヒューマンコンピュータインタラクション(HCI)(第194回ヒューマンコンピュータインタラクション研究発表会予稿集)(情報処理学会、2021-HCI-194巻、16号、1-7ページ)に「ラッセルの円環モデル上に描画された自由曲線に対応する顔アイコンの推薦手法の調査と提案」を掲載 公開の事実2:令和3(2021)年8月24日に第194回ヒューマンコンピュータインタラクション研究発表会(情報処理学会)(2日目(8月24日)、セッション5(14:15-15:30))にて「(16)ラッセルの円環モデル上に描画された自由曲線に対応する顔アイコンの推薦 手法の調査と提案」を発表 公開の事実3:令和3(2021)年8月16日に研究報告ヒューマンコンピュータインタラクション(HCI)(第194回ヒューマンコンピュータインタラクション研究発表会予稿集)(情報処理学会、2021-HCI-194巻、17号、1-7ページ)に「Face AVAS:時系列を伴う感情の表現が可能な顔アイコン作成システムの提案」を掲載 公開の事実4:令和3(2021)年8月24日に第194回ヒューマンコンピュータインタラクション研究発表会(情報処理学会)(2日目(8月24日)、セッション5(14:15-15:30))にて「(17)Face AVAS:時系列を伴う感情の表現が可能な顔アイコン作成システムの提案」を発表
本開示は、生成システム、及び、生成方法に関する。
例えば特許第6664757号公報(特許文献1)などに、人の感情を表示上で表す手法として顔アイコンが用いられる例が示されている。顔アイコンは、簡略的に表した顔画像を指す。
しかしながら、特許文献1に示されているような変化しない画像である顔アイコンは、時として感情の解釈を誤らせる可能性がある。このような誤解は、円滑なオンラインコミュニケーションを妨げる要因となり得る。円滑なコミュニケーションのためには、ユーザが表したい感情に応じて、顔アイコンが変化するほうが好ましい。したがって、ユーザが表したい感情の変化を、顔画像の表情の変化として表せるようにすることが望まれる。
ある実施の形態に従うと、生成システムは、ユーザ操作を受け付ける入力部と、入力部で受け付けたユーザ操作に基づいてコンテンツ生成処理を実行するプロセッサと、を備え、プロセッサは、コンテンツ生成処理において、入力部から、感情モデルにおける感情を示す値の時間的変化を入力するユーザ操作を示す第1の操作信号の入力を受け付け、第1の操作信号が示す感情を示す値の時間的変化に応じて、表情が時間的に変化する顔画像を生成する、よう構成されている。
ある実施の形態に従うと、生成方法は顔画像動画の生成方法であって、感情モデルにおける感情を示す値の時間的変化の入力を受け付け、感情を示す値の時間的変化に応じて、表情が時間的に変化する顔画像を生成する、ことを備える。この方法によって、表情が時間的に変化する顔画像が生成される。
更なる詳細は、後述の実施形態として説明される。
<1.生成システム、及び、生成方法の概要>
(1)実施の形態に係る生成システムは、ユーザ操作を受け付ける入力部と、入力部で受け付けたユーザ操作に基づいてコンテンツ生成処理を実行するプロセッサと、を備え、プロセッサは、コンテンツ生成処理において、入力部から、感情モデルにおける感情を示す値の時間的変化を入力するユーザ操作を示す第1の操作信号の入力を受け付け、第1の操作信号が示す感情を示す値の時間的変化に応じて、表情が時間的に変化する顔画像を生成する、よう構成されている。
顔画像は、表情で感情を表現できる顔の画像であればよく、人や動物の顔、それらを模した顔の画像や写真などを指す。表情が時間的に変化する顔画像が生成されることによって、ユーザが表したい感情の変化が顔画像における表情の変化として表されるようになる。このため、ユーザの感情が解釈されやすくなる。その結果、オンラインコミュニケーションなど、顔画像を用いたコミュニケーションが円滑になるよう効果的に支援される。
(2)好ましくは、感情モデルは、座標系で表されるモデルである。座標系は、例えば、2次元座標系である。これにより、感情を座標値によって容易に表すことができる。
(3)好ましくは、感情モデルは、ラッセルの円環モデルである。ラッセルの円環モデルを用いることによって、「悲しい」から「嬉しい」までの感情の変化と、「覚醒」から「非覚醒」までの変化との組み合せによって感情を表すことが可能になる。
(4)好ましくは、感情を示す値の時間的変化を入力することは、複数の時点の座標値を入力することを含む。これにより、感情の変化が座標値で表される。
(5)好ましくは、感情を示す値の時間的変化を入力することは、座標系において描かれた線を入力することを含む。連続的な感情の変化を容易に入力することができる。
(6)好ましくは、表情が時間的に変化する顔画像は、顔画像の少なくとも一部の形態が、感情を示す値に応じて変化することを含む。これにより、感情の変化が表情の時間的な変化によって表されるようになる。
(7)好ましくは、顔画像の少なくとも一部は、口と眉との少なくとも一方を含む。例えば、ラッセルの円環モデルにおいて、快感、不快は口の変化で表され、覚醒度は眉の形状の変化で表される。そのため、口と眉との少なくとも一方の形状の変化によって、感情が的確に表現される。
(8)好ましくは、表情が時間的に変化する顔画像は、顔画像の表示位置が感情の示す値に応じて変化することを含む。これにより、感情の変化が表情の時間的な変化によって表されるようになる。
(9)好ましくは、プロセッサは、前記表情が時間的に変化する顔画像の少なくとも一部の顔画像を置き換えるための候補画像を提示する、よう構成されている。これにより、ユーザの示したい感情をより的確に表現する顔画像を生成することができる。
(10)好ましくは、候補画像を提示することは、第1の操作信号が示す値の時間的変化に基づいて、記憶されている画像の中から、候補画像を選択することを含む。これにより、ユーザの感情に近い顔画像が候補画像とされる可能性が高くなる。
(11)好ましくは、プロセッサは、入力部から、表情が時間的に変化する顔画像のいずれかを指定するユーザ操作を示す第2の操作信号の入力を受け付け、第2の操作信号によって指定される顔画像にコンテンツを対応付ける、よう構成されている。コンテンツは、表情が時間的に変化する顔画像とともに再生可能なものであればよく、例えば、テキスト、画像、音声、それらの組み合わせ、などである。これにより、ユーザの示したい感情を表情が時間的に変化する顔画像に加えてコンテンツによって表現することが可能になる。そのため、対象物のレビューのような感情の変化を的確に表現することが可能になる。
(12)好ましくは、プロセッサは、第1の操作信号の示す感情を示す値の時間的変化と、生成した表情が時間的に変化する顔画像とを、対応付けてメモリに格納する、よう構成されている。これにより、例えば、後述する検索などに用いることができる。
(13)好ましくは、プロセッサは、入力された感情を示す値の時間的変化に基づいて、メモリから表情が時間的に変化する顔画像を検索する、よう構成されている。これにより、感情の変化の傾向を用いて、表情が時間的に変化する顔画像を検索することができる。
(14)実施の形態に係る生成方法は顔画像動画の生成方法であって、感情モデルにおける感情を示す値の時間的変化の入力を受け付け、感情を示す値の時間的変化に応じて、表情が時間的に変化する顔画像を生成する、ことを備える。この方法によって、表情が時間的に変化する顔画像が生成される。そのような顔画像を用いることによって、ユーザが表したい感情の変化が顔画像における表情の変化として表されるようになる。このため、ユーザの感情が解釈されやすくなる。その結果、オンラインコミュニケーションなど、顔画像を用いたコミュニケーションが円滑になるよう効果的に支援される。
<2.生成システム、及び、生成方法の例>
図1は、本実施の形態に係る生成システム100の概要、及び、生成システム100に含まれる各装置の構成の具体例を表した概略図である。生成システム100は、表情が時間的に変化する顔画像の動画を生成する。顔画像は、表情で感情を表現できる顔の画像であればよく、人や動物の顔、それらを模した顔の画像や写真などを指す。図1を参照して、生成システム100は、一例として、バックエンドとして機能するサーバ1と、フロントエンドとして機能する端末装置5と、を有する。
端末装置5は、例えばタブレットやパーソナルコンピュータなどであって、ユーザインタフェースとして用いられる。図1を参照して、端末装置5は、プロセッサ51と、メモリ52と、を有する一般的なコンピュータなどで構成される。プロセッサ51は、例えば、CPU(Central Processing Unit)である。
メモリ52は、一次記憶装置であってもよいし、二次記憶装置であってもよい。メモリ52は、プロセッサ51によって実行されるコンピュータプログラム521を記憶している。プロセッサ51は、メモリ52に記憶されているコンピュータプログラム521を実行することで、コンテンツ生成処理510を実行する。プロセッサ51によって実行されるコンテンツ生成処理510は、生成システム100での、表情が時間的に変化する顔画像の動画を生成する処理の少なくとも一部を含む。
端末装置5は、通信装置53を含む。通信装置53は、一例として、通信モジュールである。通信装置53は、インターネットなどの通信網3を介してサーバ1と通信する。通信装置53は、プロセッサ51の制御信号に従って指示された情報をサーバ1に送信する。また、通信装置53は、サーバ1から受信した電気信号をプロセッサ51に入力する。
端末装置5は、ユーザに画像を表示する表示部、及び、ユーザ操作を受け付ける入力部の一例であるタッチパネル54を有する。タッチパネル54は、プロセッサ51の制御信号に従って、指示された情報に基づく表示を行う。また、タッチパネル54は、ユーザ操作を受け付け、ユーザ操作を示す操作信号をプロセッサ51に入力する。
プロセッサ51の実行するコンテンツ生成処理510は、画像生成処理511を含む。画像生成処理511は、タッチパネル54から入力された操作信号を用いて顔画像を生成することを含む。プロセッサ51は感情モデル512を記憶しており、画像生成処理511において感情モデル512を用いる。感情モデルは、座標系で表されるモデルである。座標系は、例えば、2次元座標系である。これにより、感情を座標値によって容易に表すことができる。
プロセッサ51は、生成した顔画像を通信装置53に渡してサーバ1に送信させる。これにより、サーバ1において顔画像を用いてコンテンツ生成処理を行うことができる。
プロセッサ51はコンピュータプログラム521を実行することによって、表示処理513を実行する。表示処理513は、サーバ1から受信したアクセス情報に従って他の装置にアクセスし、取得したデータに基づく表示をタッチパネル54に行わせることを含む。これにより、後述する、サーバ1によって生成された動画をタッチパネル54に表示させることができる。
図1を参照して、サーバ1は、プロセッサ11とメモリ12とを有するコンピュータで構成される。プロセッサ11は、例えば、CPUである。メモリ12は、フラッシュメモリ、EEPROM、ROM、RAMなどを含む。または、メモリ12は、一次記憶装置であってもよいし、二次記憶装置であってもよい。
メモリ12は、プロセッサ11で実行されるコンピュータプログラム121を記憶している。プロセッサ11は、コンピュータプログラム121を実行することによってコンテンツ生成処理110を実行する。プロセッサ11によって実行されるコンテンツ生成処理110は、生成システム100での、表情が時間的に変化する顔画像の動画を生成する処理の少なくとも一部を含む。
メモリ12は、コンテンツ生成処理110によって生成した動画を記憶する領域である、動画記憶部122を有する。また、メモリ12は、推薦用データを記憶するための記憶領域である、推薦用データ記憶部123を有する。推薦用データについては後述する。
サーバ1は、通信装置13を含む。通信装置13は、一例として、通信モジュールである。通信装置13は、通信網3を介して端末装置5と通信する。通信装置13は、プロセッサ11の制御信号に従って指示された情報を端末装置5に送信する。また、サーバ1は、通信装置53から受信した電気信号をプロセッサ11に入力する。
プロセッサ11の実行するコンテンツ生成処理110は、動画生成処理111を含む。動画生成処理111は、端末装置5から送信された複数の顔画像を用いて、表情が時間的に変化する顔画像の動画を生成することを含む。
好ましくは、動画生成処理111は置き換え処理112を含む。置き換え処理112は、端末装置5から送信された複数の顔画像に基づいて生成される動画の少なくとも一部の顔画像を、異なる画像に置き換えることを含む。
プロセッサ11はコンピュータプログラム121を実行することによって、格納処理113を実行する。格納処理113は、動画生成処理111によって生成した動画をメモリ12に記憶させ、格納することを含む。また、格納処理113は、通信装置13に、格納したメモリ12へのアクセス情報を端末装置5に送信させることを含む。
好ましくは、プロセッサ11の実行するコンテンツ生成処理110は、付加処理114を含む。付加処理114は、動画生成処理111によって生成した動画の少なくとも一部に他のコンテンツを付加することを含む。他のコンテンツは、例えば、テキストである。テキストが付加された動画はメモリ12に記憶されてもよい。
好ましくは、プロセッサ11はコンピュータプログラム121を実行することによって、検索処理115を実行する。検索処理115は、端末装置5からの信号に従って、対応する動画をメモリ12から検索することを含む。
サーバ1のプロセッサ11が実行するコンテンツ生成処理110の少なくとも一部が、端末装置5のプロセッサ51によって行われてもよい。すなわち、動画生成処理111や、そのうちの置き換え処理112や、付加処理114のうちの少なくとも1つが、端末装置5のプロセッサ51によって行われてもよい。この場合、生成されたコンテンツが端末装置5からサーバ1に渡され、サーバ1によって格納処理113が行われてメモリ12に格納されもよい。コンテンツ生成処理110及びコンテンツ生成処理510は、生成システム100でのコンテンツの生成方法の一例に過ぎない。
図2は、生成システム100での、コンテンツの生成方法の流れの一例を表した図である。図2を参照して、生成システム100は、初めに、端末装置5によって、感情の変化を示すユーザ操作を受け付ける(ステップS1)。感情の変化は、感情モデルにおける感情を示す値の時間的変化によって表される。感情モデルとしては、一例として、ラッセルの円環モデルが挙げられる。
図3は、ステップS1で感情の変化を示すユーザ操作を受け付けるために端末装置5に表示される画面の一例として入力画面41の概要を表した図である。図3を参照して、入力画面41は、座標系60を含む。座標系60は、ラッセルの円環モデルに従って設定されている。具体的には、座標系60は、「悲しい」から「嬉しい」までの変化を表す第1の軸61と、「覚醒」から「非覚醒」までの変化を表す第2の軸62とで規定されている。一例とし、第1の軸61を横軸、第2の軸62を縦軸とする。ラッセルの円環モデルを用いることによって、「悲しい」から「嬉しい」までの感情の変化と、「覚醒」から「非覚醒」までの変化との組み合せによって感情を表すことが可能になる。
座標系60上の各位置は、第1の軸61と第2の軸62とで規定される座標値によって表現される。座標系60上の感情に対応した位置を指定することによって、感情を座標値で表すことができる。すなわち、感情を表す値は、一例として座標系60における座標値である。
入力画面41は、座標系60に対するユーザのタッチ操作を受け付けることによって、感情を示す値の入力を受け付ける。感情の時間的な変化を入力することは、複数の時点の座標値を入力することに相当する。複数の時点の座標値を入力することは、離散的な時点における座標値の入力であってもよい。これにより、感情の変化が座標値で表される。
複数の時点の座標値を入力することは、一例として、座標系において描かれた線である感情曲線66を入力することであってよい。これにより、連続的な感情の変化を容易に入力することができる。
感情曲線66は、座標系60に対するタッチ位置65の、タッチ状態を維持したままの移動軌跡によって入力される。図3の例は、タッチ位置65が、点P1を開始点とし、タッチ状態を維持したまま点P2,P3,P4…を経て点PNまで移動し、点PNでタッチ状態が解除されたことを示している。
プロセッサ51は、タッチパネル54から、感情曲線66を表す操作信号(第1の操作信号)の入力を受け付ける。第1の操作信号は、タッチ位置65がタッチ状態を維持して移動するに伴って、タッチ状態が解消されるまで連続的にプロセッサ51に入力される。プロセッサ51は、第1の操作信号が入力されることによって画像生成処理511を実行する(ステップS3)。プロセッサ51は、連続的な第1の操作信号の入力が終了するまで、画像生成処理511を繰り返し実行する。
図4は、端末装置5のプロセッサ51が実行する画像生成処理511、及び、サーバ1のプロセッサ11の実行する動画生成処理111を説明するための図である。
画像生成処理511において、プロセッサ51は、第1の操作信号の示す座標値に応じた顔画像を生成する。すなわち、感情曲線66に含まれる複数の点P1,P2,P3,P4…PNそれぞれを示す第1の操作信号が入力されるごとに、対応する、複数の顔画像71,72,73を生成する。これにより、タッチ位置65の移動軌跡に応じて、リアルタイムに顔画像群70が生成される。
生成する顔画像71,72,73は、少なくとも一部の形態が、感情を示す値に応じた形態のものである。これにより、感情を示す値の変化によって顔画像の少なくとも一部の形態が変化する。形態の変化は、形状、模様、色彩、大きさ、及び、それらの組み合わせのうちの少なくとも1つの変化、又は、顔の向きに伴う形態の変化、を含む。その結果、感情の変化が表情の時間的な変化によって的確に表されるようになる。
少なくとも一部は、口と眉との少なくとも一方を含み、例えば、口と眉との両方である。例えば、ラッセルの円環モデルにおいて、快感、不快は口の変化で表され、覚醒度は眉の形状の変化で表される。そのため、口と眉との少なくとも一方の形状の変化によって、感情が的確に表現される。
一例として、口の形状及び眉の形状が、感情を示す値(座標値)に応じて予め設定されている。この場合、プロセッサ51は画像生成処理511において、入力された値に応じた口の形状及び眉の形状とした顔画像を、入力された値ごとに生成する。他の例として、プロセッサ51は、感情を示す値(座標値)を変数として口の形状及び眉の形状を算出する関数を予め記憶しておき、入力された値を関数に代入することで入力された値ごとに口の形状及び眉の形状を算出して顔画像を生成してもよい。
図2を参照して、端末装置5において顔画像が生成されると、第1の操作信号に示される座標値とともに生成された顔画像が端末装置5からサーバ1に渡される(ステップS5)。端末装置5からサーバ1への送信は、顔画像が生成される都度行われてもよいし、短い時間間隔で行われてもよいし、所定数顔画像が生成される都度行われてもよいし、タッチ位置65のタッチ状態が解消されたタイミングに応じて行われてもよい。
サーバ1では、動画生成処理111が実行される(ステップS7)。動画生成処理111は、端末装置5から顔画像が送信される都度行われてもよいし、タッチ状態が解消された後に行われてもよい。
図4を参照して、動画生成処理111においては、一例として、端末装置5において生成された複数の顔画像71,72,73に基づく画像が生成される。動画生成処理111における動画の生成方法は特定の方法に限定されない、複数画像を用いた、一般的な動画の生成方法であってよい。例えば、特定の動画生成処理111においては、複数の顔画像71,72,73の間が補完されてもよいし、補完がされなくてもよい。これにより、時間tに沿って、表情が感情を示す値に応じて時間的に変化する顔画像である顔画像動画80が生成される。
顔画像動画80が生成されることによって、ユーザが表したい感情の変化が顔画像における表情の変化として表されるようになる。このため、ユーザの感情が解釈されやすくなる。その結果、オンラインコミュニケーションなど、顔画像を用いたコミュニケーションが円滑になるよう効果的に支援される。
なお、表情が時間的に変化する顔画像は、顔画像の表示位置が感情の示す値に応じて変化するものであってもよい。顔画像の表示位置が感情の示す値に応じて変化することは、変化の速度が感情の示す値に応じて変化するものであってもよい。また、表情が時間的に変化する顔画像は、顔画像の少なくとも一部の形態と表示位置との両方が感情の示す値に応じて変化するものであってもよい。これにより、感情の変化が顔画像において表情の時間的な変化によって表されるようになる。
図5は、端末装置5のプロセッサ51が実行する画像生成処理511、及び、サーバ1のプロセッサ11の実行する動画生成処理111の他の例を説明するための図である。図5を参照して、他の例として画像生成処理511において、プロセッサ51は、感情曲線66に含まれる複数の点P1,P2,P3,P4…PNそれぞれに対応する複数の顔画像76,77,78を含む顔画像群75を生成する。生成する顔画像76,77,78は、顔画像の表示位置が、感情を示す値に応じた形態のものである。一例として、顔画像の表示位置が、感情を示す値(座標値)に応じて予め設定されている。この場合、プロセッサ51は画像生成処理511において、入力された値に応じた表示位置とした顔画像を、入力された値ごとに生成する。
サーバ1のプロセッサ11は、動画生成処理111において、一例として、顔画像群75に含まれる複数の顔画像76,77,78の間を補完してもよい。この場合、プロセッサ11は、複数の顔画像76,77,78の間の表示位置となる顔画像を補完する。これにより、時間tに沿って、表情が感情を示す値に応じて顔画像の表示位置が時間的に変化する顔画像動画87が生成される。
図2を参照して、生成システム100では、サーバ1において顔画像動画が生成されると、生成された顔画像動画がメモリ12の動画記憶部122に格納され(ステップS9)、メモリ12へのアクセス情報がサーバ1から端末装置5に渡される(ステップS10)。端末装置5は、アクセス情報に従ってメモリ12にアクセスして動画データを取得することにより、タッチパネル54に動画を表示させることができる(ステップS13)。
ステップS9でサーバ1のプロセッサ11は、第1の操作信号の示す感情を示す値の時間的変化と、生成した表情が時間的に変化する顔画像動画とを対応付けて動画記憶部122に格納する。図6は、サーバ1での格納処理113を説明するための図である。図6の例では、生成された顔画像動画32A~32Dそれぞれが、端末装置5から送信された第1の操作信号に示される座標値の変化、つまり、感情曲線であって、それぞれの動画を生成する際に用いた感情曲線31A~31Dと対応付けて動画記憶部122に記憶されている。このように顔画像動画が感情曲線と対応付けてメモリ12に格納されることによって、例えば、後述する検索処理115に用いることができる。
好ましくは、表情が時間的に変化する顔画像動画を生成する処理は、少なくとも一部の顔画像を置き換えることを含む。すなわち、サーバ1のプロセッサ11は、顔表情が時間的に変化する顔画像の動画の少なくとも一部に対して置き換え処理112を実行する。少なくとも一部は、例えば、端末装置5が受け付けたユーザ操作に従う顔画像である。
図7は、置き換え処理112を説明するための図である。一例として、顔画像動画80が生成された後、端末装置5のプロセッサ51は、置き換える対象とする顔画像を指定する操作として、感情曲線66上の点Qを指定するユーザ操作を受け付ける。このユーザ操作を受けて、端末装置5からサーバ1に対して、置き換え処理112を要求する信号が渡される。これにより、プロセッサ11は置き換え処理112を実行し、顔画像動画80のうちの点Qに対応した顔画像を他の顔画像に置き換える。
他の例として、点Qは、予め規定された点であってもよい。予め規定された点は、例えば、感情曲線の終点の点PNや、始点のP1や、中間点などであってよい。
好ましくは、プロセッサ11は、置き換え処理112において、顔画像動画80に含まれる顔画像を置き換えるための候補画像82,83,…を端末装置5に渡し、提示させる。これにより、ユーザは、提示された候補画像からの指定した点Qの顔画像を置き換える他の顔画像を選択することができ、操作が容易になる。プロセッサ11は、顔画像動画80のうちの点Qに対応した顔画像を選択された顔画像を置き換えることで、ユーザの示したい感情をより的確に表現する顔画像動画を生成することができる。
置き換え処理112は、推薦用データ記憶部123を参照して候補画像82,83,…を決定することを含む。図8は、推薦用データ記憶部123に記憶されている推薦用データを用いた、候補画像の推薦方法の一例を説明するための図である。
推薦用データは、感情曲線ごとに対応する1又は複数の顔画像を示したデータである。推薦用データは、一例として、先に行った置き換え処理112によって、置き換えられた顔画像を、感情曲線に対応付けたデータである。
図8を参照して、例えば、推薦用データ30Aは、感情曲線31Aと、以前の置き換え処理112によって置き換えられた顔画像31A1との対応を表したデータである。推薦用データ30B,30C,…30Nは、それぞれ、感情曲線31B,31C,…31Nと、以前の置き換え処理112によって置き換えられた顔画像31B1,31C1,…31N1との対応を表したデータである。
プロセッサ11は、置き換え処理112において、顔画像動画80の生成を指示する端末装置5に対するユーザ操作によって表された感情を表す値の時間的変化に基づいて、記憶されている顔画像の中から推薦する候補画像を選択する。詳しくは、プロセッサ11は、推薦用データに含まれる感情曲線31A,31B,31C,…31Nそれぞれの感情曲線66との類似度を算出し、類似度に基づいた演算で得られる感情曲線31A,31B,31C,…31Nのうちのいずれかの感情曲線に対応付けられた顔画像を推薦する候補画像とする。一例として、感情曲線31A,31B,31C,…31Nの中の感情曲線66との類似度が一定以上高いもののうちの、対応付けられた顔画像が多いものから順に推薦用データを用いて候補画像としてもよい。
図8の例において、感情曲線31A,31B,31C,…31Nの順で、感情曲線66に対する類似度が最も高い、つまり、感情曲線31Aが感情曲線66と形状が類似しているものとする。図8の例では、感情曲線31A,31B,31C,…31Nそれぞれに対して顔画像が1つずつ対応付けられている。そのため、プロセッサ11は、一例として、推薦用データ30Aにおいて感情曲線31Aに対応付けられている顔画像31A1を推薦順位の第1と決定する。
他の例として、図7に示された、感情曲線66のうちの始点P1から点Qまでの部分曲線66Aを用いて候補画像を選択してもよい。推薦用データは、図13に表されたように、顔画像は、さらに、感情曲線のうちの置き換えに用いた点にも対応付けられていてもよい。この場合、プロセッサ11は、感情曲線66の部分曲線と感情曲線31A,31B,31C,…31Nのうちの置き換えに用いた点までの部分曲線との類似度に基づいて推薦順位を決定してもよい。
プロセッサ11は、一例として、推薦用データ記憶部123から複数の推薦用データ30A,30B,30C,……30Nを読み出し、それぞれの推薦用データにおいて感情曲線に対応付けられた顔画像31A1,31B1,31C1,…31N1を、決定された推薦順に従って、候補画像として端末装置5に提示させる。これにより、感情曲線66に近い感情の変化を示す顔画像動画での置き換え処理112によって用いられた顔画像から順に候補画像とされるようになる。そのため、ユーザの感情に近い顔画像が候補画像とされる可能性が高くなる。
感情を表す値の時間的変化に基づいて、記憶されている顔画像の中から候補画像を選択する方法の他の例として、図14に表されたように、推薦用データ記憶部123に、座標値ごとに候補画像が記憶されていてもよい。図14は、推薦用データ記憶部123における候補画像の記憶方法の一例を表した図である。図14の例では、座標系60上に推薦用顔画像の候補画像が記憶されている。
この場合、プロセッサ11は、置き換え処理112において、対応付けられた座標値と点Qとの間の距離に基づいて、推薦する候補画像を選択してもよい。一例として、プロセッサは、対応付けられた座標値と点Qとの間の距離が近い順に、候補画像を推薦する。
座標値ごとに候補画像は、一例として、予め用意されている複数の顔画像であって、複数のユーザが主観に基づいて、それぞれ座標系60における座標値を与えた顔画像を用いて得られるものであってもよい。その場合、一例として、点Qの座標値に最も近い座標値を有する顔画像や、所定範囲内にある顔画像を候補画像と決定してもよい。
置き換え処理112は、他の例として、顔画像動画80のうちの点Qに対応した顔画像を、ユーザ操作に従って変形することであってもよい。図9は、置き換え処理112の他の例を説明するための図である。図9を参照して、プロセッサ11は、顔画像動画80のうちの点Qに対応した顔画像81に対して、変形を指示するユーザ操作を端末装置5から受け付けて、ユーザ操作に従って顔画像81を変形する。
図9を参照して、変形は、一例として、顔画像81のサイズを変化させるものであってもよい。図9の例では、プロセッサ11が顔画像81を拡大して顔画像84を生成し、顔画像動画80のうちの顔画像81を置き換える例を表している。
変形は、他の例として、顔画像81にマスク画像を加えるものであってもよい。マスク画像は予め記憶されていてもよいし、プロセッサ11が他の装置にアクセスして取得してもよい。図9の例では、プロセッサ11が顔画像81に対してユーザ操作によって指定されたマスク画像85を加えた顔画像86を生成し、顔画像動画80のうちの顔画像81を置き換える例を表している。
生成システム100では、生成された顔画像動画が感情曲線と対応付けてメモリ12に記憶される。そのため、好ましくは、生成システム100は、記憶された顔画像動画を活用する処理を行う。
顔画像動画を活用する処理は、一例として、ユーザから感情曲線の入力を受け付けて、入力された感情曲線に基づいてメモリ12から顔画像動画を検索することを含む。入力された感情曲線に基づいてメモリ12から顔画像動画を検索することは、入力された感情曲線に類似する感情曲線によって生成された顔画像動画を検索することであってもよいし、入力された感情曲線に対して特定の関係にある感情曲線によって生成された顔画像動画を検索することであってもよい。特定の関係は、例えば、曲線の変化が逆の関係や、所定範囲のみ類似して他の範囲が異なっている関係、などであってよい。
図10は、生成システム100での、顔画像動画の検索方法の流れの一例を表した図である。図10を参照して、生成システム100は、初めに、端末装置5によって、検索用の感情の変化を示すユーザ操作を受け付ける(ステップS15)。図11は、ステップS15で検索用の感情の変化を示すユーザ操作を受け付けるために端末装置5に表示される画面の一例として検索画面45の概要を表した図である。図11を参照して、検索画面45は座標系60を含み、座標系60に対するユーザのタッチ操作を受け付けることによって、感情を示す値の入力を受け付ける。検索用の感情の変化は、一例として、タッチ位置65の移動軌跡で表される検索曲線67によって入力される。
検索画面45は、対応する顔画像動画の検索を指示するためのボタン46を含む。図10を参照して、検索画面45のボタン46がタッチされることで、入力された検索曲線67が端末装置5からサーバ1に渡される(ステップS17)。サーバ1では、検索処理115が実行されて、対応する顔画像動画が検索される(ステップS19)。
動画記憶部122には、図6に示されたように、生成された顔画像動画と生成に用いた感情曲線とが対応付けて記憶されている。検索処理115においてプロセッサ11は、一例として、入力された検索曲線67に類似した感情曲線と対応付けて記憶されている顔画像動画を検索する。これにより、感情を表す値の変化の傾向が類似している顔画像動画が検索されることになる。
サーバ1において顔画像動画が検索されると、記憶されているメモリ12へのアクセス情報がサーバ1から端末装置5に渡される(ステップS21)。端末装置5は、アクセス情報に従ってメモリ12にアクセスして動画データを取得することにより、タッチパネル54に動画を表示させることができる(ステップS23)。
このような検索が行われることによって、ユーザは、端末装置5に感情の変化の傾向を検索曲線として入力することによって対応する顔画像動画を得ることができる。そのため、容易に顔画像動画を検索することができる。
顔画像動画を活用する処理は、他の例として、生成された顔画像動画のうちの少なくとも一部の顔画像に対してコンテンツを付加することを含んでもよい。コンテンツは、顔画像動画とともに再生可能なものであればよく、例えば、テキスト、画像、音声、それらの組み合わせ、などであってよい。一例として、端末装置5に対して入力されたテキストが付加されるものとする。
図12は、顔画像動画80に付加するコンテンツを設定するために端末装置5に表示される画面の一例として設定画面21の概要を表した図である。一例として、設定画面21は、対象の顔画像動画80のうちのテキストを付加する顔画像91,92,93の指定を受け付ける。顔画像91,92,93の指定は、例えば、顔画像動画80に対するタッチ操作であってもよい。なお、顔画像91,92,93は、プロセッサ11によって自動的に設定されるものであってもよいし、自動的に設定されたものの変更を受け付けるようにしてもよい。
設定画面21は、顔画像91,92,93それぞれに対してテキストの入力を受け付ける。図12を参照して、設定画面21は、顔画像91,92,93それぞれに付加するテキストの入力欄22,23,24を含む。
顔画像動画80へのテキストの付加は、例えば、対象物についてのレビューの作成などが想定される。詳しくは、顔画像動画80は感情曲線66に示されたように、時間経過に伴ってネガティブな感情からポジティブな感情への変化に応じて表示が変化するものである。そのような感情の変化が生じた対象物についてレビューを作成する際に、生成システム100を用いて顔画像動画80を生成し、生成した顔画像動画80に感情の変化を表すテキストを付加することが想定される。
図12の例では、顔画像91,92,93は、それぞれ、ネガティブな感情、中間の感情、ポジティブな感情に相当している。この場合、図12の例では、入力欄22,23,24において、それぞれ、対象物(例えば商品)について、ネガティブな感想、中間の感想、ポジティブな感想を表すテキストが入力されている。
設定画面21は、顔画像91,92,93の設定、及び、テキストの付加を指示するためのボタン25を含む。ボタン25がタッチされることで、顔画像91,92,93を指定するユーザ操作を示す操作信号(第2の操作信号)、及び、入力欄22,23,24に入力されたテキストが、端末装置5からサーバ1に渡される。サーバ1では、付加処理114が実行されて、顔画像動画80の顔画像91,92,93それぞれに、入力されたテキストが付加される。
顔画像動画80にテキストなどのコンテンツを付加させることによって、ユーザの示したい感情を顔画像動画に加えてコンテンツによって表現することが可能になる。そのため、対象物のレビューのような感情の変化を的確に表現することが可能になる。
顔画像動画80に付加されたテキストは、図6に表されたように、動画記憶部122に顔画像動画と対応付けて記憶されてもよい。図6の例では、顔画像動画32Aに付加されたテキストであるコンテンツ33A,33B,33Cが、顔画像動画32Aに対応付けて記憶されている。これにより、対象物に対するレビューを顔画像動画で生成し、メモリ12に記憶させることができる。
テキストなどのコンテンツが付加された顔画像動画もメモリ12に記憶されることによって、図10,図11で表された検索処理115の対象とすることができる。これにより、例えばレビューを作成する際に、対象物に対する感情の変化を検索曲線67として入力することによって、同様の感情の変化に基づいて生成された、コンテンツが付加された顔画像動画が容易に得られる。
<3.付記>
本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
1 :サーバ
3 :通信網
5 :端末装置
11 :プロセッサ
12 :メモリ
13 :通信装置
21 :設定画面
22 :入力欄
23 :入力欄
24 :入力欄
25 :ボタン
30A :推薦用データ
30B :推薦用データ
30C :推薦用データ
30N :推薦用データ
31A :感情曲線
31B :感情曲線
31C :感情曲線
31N :感情曲線
31A1:顔画像
31B1:顔画像
31C1:顔画像
31N1:顔画像
32A :顔画像動画
32B :顔画像動画
32C :顔画像動画
32D :顔画像動画
33A :コンテンツ
33B :コンテンツ
33C :コンテンツ
41 :入力画面
45 :検索画面
46 :ボタン
51 :プロセッサ
52 :メモリ
53 :通信装置
54 :タッチパネル
60 :座標系
61 :第1の軸
62 :第2の軸
65 :タッチ位置
66 :感情曲線
66A :部分曲線
67 :検索曲線
70 :顔画像群
71 :顔画像
72 :顔画像
73 :顔画像
75 :顔画像群
76 :顔画像
77 :顔画像
78 :顔画像
80 :顔画像動画
81 :顔画像
82 :候補画像
83 :候補画像
84 :顔画像
85 :マスク画像
86 :顔画像
87 :顔画像動画
91 :顔画像
92 :顔画像
93 :顔画像
100 :生成システム
110 :コンテンツ生成処理
111 :動画生成処理
112 :置き換え処理
113 :格納処理
114 :付加処理
115 :検索処理
121 :コンピュータプログラム
122 :動画記憶部
123 :推薦用データ記憶部
510 :コンテンツ生成処理
511 :画像生成処理
512 :感情モデル
513 :表示処理
521 :コンピュータプログラム
3 :通信網
5 :端末装置
11 :プロセッサ
12 :メモリ
13 :通信装置
21 :設定画面
22 :入力欄
23 :入力欄
24 :入力欄
25 :ボタン
30A :推薦用データ
30B :推薦用データ
30C :推薦用データ
30N :推薦用データ
31A :感情曲線
31B :感情曲線
31C :感情曲線
31N :感情曲線
31A1:顔画像
31B1:顔画像
31C1:顔画像
31N1:顔画像
32A :顔画像動画
32B :顔画像動画
32C :顔画像動画
32D :顔画像動画
33A :コンテンツ
33B :コンテンツ
33C :コンテンツ
41 :入力画面
45 :検索画面
46 :ボタン
51 :プロセッサ
52 :メモリ
53 :通信装置
54 :タッチパネル
60 :座標系
61 :第1の軸
62 :第2の軸
65 :タッチ位置
66 :感情曲線
66A :部分曲線
67 :検索曲線
70 :顔画像群
71 :顔画像
72 :顔画像
73 :顔画像
75 :顔画像群
76 :顔画像
77 :顔画像
78 :顔画像
80 :顔画像動画
81 :顔画像
82 :候補画像
83 :候補画像
84 :顔画像
85 :マスク画像
86 :顔画像
87 :顔画像動画
91 :顔画像
92 :顔画像
93 :顔画像
100 :生成システム
110 :コンテンツ生成処理
111 :動画生成処理
112 :置き換え処理
113 :格納処理
114 :付加処理
115 :検索処理
121 :コンピュータプログラム
122 :動画記憶部
123 :推薦用データ記憶部
510 :コンテンツ生成処理
511 :画像生成処理
512 :感情モデル
513 :表示処理
521 :コンピュータプログラム
Claims (14)
- ユーザ操作を受け付ける入力部と、
前記入力部で受け付けた前記ユーザ操作に基づいてコンテンツ生成処理を実行するプロセッサと、を備え、
前記プロセッサは、前記コンテンツ生成処理において、
前記入力部から、感情モデルにおける感情を示す値の時間的変化を入力する前記ユーザ操作を示す第1の操作信号の入力を受け付け、
前記第1の操作信号が示す前記感情を示す値の時間的変化に応じて、表情が時間的に変化する顔画像を生成する、よう構成されている
生成システム。 - 前記感情モデルは、座標系であらわされるモデルである
請求項1に記載の生成システム。 - 感情モデルは、ラッセルの円環モデルである
請求項2に記載の生成システム。 - 前記感情を示す値の時間的変化を入力することは、複数の時点の座標値を入力することを含む
請求項1~3のいずれか一項に記載の生成システム。 - 前記感情を示す値の時間的変化を入力することは、座標系において描かれた線を入力することを含む
請求項4に記載の生成システム。 - 前記表情が時間的に変化する顔画像は、前記顔画像の少なくとも一部の形態が、前記感情を示す値に応じて変化することを含む
請求項1~5のいずれか一項に記載の生成システム。 - 前記顔画像の少なくとも一部は、口と眉との少なくとも一方を含む
請求項6に記載の生成システム。 - 前記表情が時間的に変化する顔画像は、前記顔画像の表示位置が前記感情の示す値に応じて変化することを含む
請求項1~7のいずれか一項に記載の生成システム。 - 前記プロセッサは、前記表情が時間的に変化する顔画像の少なくとも一部の顔画像を置き換えるための候補画像を提示する、よう構成されている
請求項1~8のいずれか一項に記載の生成システム。 - 前記候補画像を提示することは、前記第1の操作信号が示す前記値の時間的変化に基づいて、記憶されている画像の中から、前記候補画像を選択することを含む
請求項9に記載の生成システム。 - 前記プロセッサは、前記入力部から、前記表情が時間的に変化する顔画像のいずれかを指定する前記ユーザ操作を示す第2の操作信号の入力を受け付け、前記第2の操作信号によって指定される前記顔画像にコンテンツを対応付ける、よう構成されている
請求項1~10のいずれか一項に記載の生成システム。 - 前記プロセッサは、前記第1の操作信号の示す前記感情を示す値の時間的変化と、生成した前記表情が時間的に変化する顔画像とを、対応付けてメモリに格納する、よう構成されている
請求項1~11のいずれか一項に記載の生成システム。 - 前記プロセッサは、入力された前記感情を示す値の時間的変化に基づいて、前記メモリから前記表情が時間的に変化する顔画像を検索する、よう構成されている
請求項12に記載の生成システム。 - 顔画像動画の生成方法であって、
感情モデルにおける感情を示す値の時間的変化の入力を受け付け、
前記感情を示す値の時間的変化に応じて、表情が時間的に変化する顔画像を生成する、ことを備える
生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021196757A JP2023082808A (ja) | 2021-12-03 | 2021-12-03 | 生成システム、及び、生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021196757A JP2023082808A (ja) | 2021-12-03 | 2021-12-03 | 生成システム、及び、生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023082808A true JP2023082808A (ja) | 2023-06-15 |
Family
ID=86728732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021196757A Pending JP2023082808A (ja) | 2021-12-03 | 2021-12-03 | 生成システム、及び、生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023082808A (ja) |
-
2021
- 2021-12-03 JP JP2021196757A patent/JP2023082808A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107294838B (zh) | 社交应用的动画生成方法、装置、系统以及终端 | |
US11861061B2 (en) | Virtual sharing of physical notebook | |
US20190004639A1 (en) | Providing living avatars within virtual meetings | |
JP5898378B2 (ja) | 情報処理装置およびアプリケーション実行方法 | |
CN110364148A (zh) | 自然助理交互 | |
KR101306221B1 (ko) | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 | |
JP2010509697A5 (ja) | ||
JP2018014094A (ja) | 仮想ロボットのインタラクション方法、システム及びロボット | |
US10755487B1 (en) | Techniques for using perception profiles with augmented reality systems | |
JP2024029036A (ja) | コンピュータプログラム、サーバ装置及び方法 | |
JP2016518647A (ja) | 体験コンテンツデータセットに関するキャンペーン最適化 | |
US11430186B2 (en) | Visually representing relationships in an extended reality environment | |
JP2015064715A (ja) | 入力支援装置、入力支援方法及び入力支援プログラム | |
KR101694303B1 (ko) | 편집형 영상 객체 생성 장치 및 방법 | |
CN109977390A (zh) | 一种生成文本的方法及装置 | |
JP2023082808A (ja) | 生成システム、及び、生成方法 | |
KR101809601B1 (ko) | 애니메이션 제작 장치 및 방법 | |
JP2015228071A (ja) | データ出力装置、データ出力方法及び3次元物体製造システム | |
US20170316004A1 (en) | Online engine for 3d components | |
JP2017045374A (ja) | 情報処理装置及びプログラム | |
TW200915136A (en) | Cursor-positioning method for handheld camera | |
JP2018055270A (ja) | プレゼンテーション資料生成装置、プレゼンテーション資料生成システム、コンピュータプログラム及びプレゼンテーション資料生成方法 | |
JP2020184259A (ja) | ソフトウェア解析支援システムおよびそのコンピュータプログラム | |
JP2015035189A (ja) | 自系図作成装置、自系図作成サーバ、及びプログラム | |
JP7493196B1 (ja) | 人工知能を活用した比較動画生成システム、動画生成プログラム、及び、動画生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20211217 |