JP2019024748A - 画像生成装置及びプログラム - Google Patents
画像生成装置及びプログラム Download PDFInfo
- Publication number
- JP2019024748A JP2019024748A JP2017145801A JP2017145801A JP2019024748A JP 2019024748 A JP2019024748 A JP 2019024748A JP 2017145801 A JP2017145801 A JP 2017145801A JP 2017145801 A JP2017145801 A JP 2017145801A JP 2019024748 A JP2019024748 A JP 2019024748A
- Authority
- JP
- Japan
- Prior art keywords
- character
- parameter
- image
- performer
- target character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 179
- 230000033001 locomotion Effects 0.000 claims abstract description 92
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 238000000034 method Methods 0.000 claims description 162
- 230000008569 process Effects 0.000 claims description 151
- 230000008451 emotion Effects 0.000 claims description 150
- 230000009471 action Effects 0.000 claims description 94
- 238000012937 correction Methods 0.000 claims description 71
- 230000008921 facial expression Effects 0.000 claims description 25
- 238000011156 evaluation Methods 0.000 claims description 22
- 230000000007 visual effect Effects 0.000 claims description 18
- 230000002996 emotional effect Effects 0.000 abstract description 4
- 238000009826 distribution Methods 0.000 description 34
- 230000014509 gene expression Effects 0.000 description 33
- 238000007726 management method Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 17
- 230000000694 effects Effects 0.000 description 17
- 238000012790 confirmation Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 12
- 241000282326 Felis catus Species 0.000 description 8
- 238000013500 data storage Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000002156 mixing Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000036571 hydration Effects 0.000 description 1
- 238000006703 hydration reaction Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
(1)本発明の画像生成装置は、
実空間に存在する演者の動作を、オブジェクト空間に存在する対象キャラクタの動作に反映させ、前記オブジェクト空間で動作する前記対象キャラクタの画像を生成する画像生成装置であって、
複数のキャラクタのそれぞれに対応付けられたキャラクタ属性と、前記演者が提示し得る複数の単語のそれぞれに対応付けられて規定された感情属性と、前記演者の採り得る複数の状態のそれぞれに対応付けられて規定された感情属性と、前記対象キャラクタの動作を制御する複数の操作コマンドと、を記憶したデータベースを管理する管理手段と、
前記複数のキャラクタの中から前記対象キャラクタを選定して前記オブジェクト空間へ設定する設定手段と、
前記演者の提示した単語を含む演者データの入力を受け付ける入力受付手段と、
前記演者が提示した単語を前記演者データから抽出する単語抽出処理手段と、
抽出した前記単語の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第1のパラメータを生成する第1のパラメータ生成処理手段と、
入力した前記演者データの少なくとも一部と状態判定用の基準データとに基づき前記演者の状態を判定する判定手段と、
判定した前記状態の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第2のパラメータを生成する第2のパラメータ生成処理手段と、
前記複数の操作コマンドの中から、前記対象キャラクタの動作の制御に用いるべき1又
は複数の操作コマンドを、前記第1のパラメータと、前記第2のパラメータと、選定した前記対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する操作コマンド選定手段と、
前記オブジェクト空間に設定された前記対象キャラクタの動作を、選定された前記操作コマンドに基づき制御する動作制御手段と、
前記オブジェクト空間内で動作する前記対象キャラクタの画像を生成する画像生成手段と、
生成された前記対象キャラクタの画像を出力する画像出力手段と、
を備える。
めのコマンドが含まれてもよい。発語コマンドには、対象キャラクタの発現の語尾の変換、方言への変換などをするためのコマンドが含まれてもよい。
前記操作コマンド選定手段は、
前記操作コマンドの選定を行う前に、前記対象キャラクタのキャラクタ属性に応じて前記第1のパラメータ及び前記第2のパラメータの少なくとも一方を補正する処理を実行してもよい。
前記操作コマンド選定手段は、
補正後の前記第1のパラメータ及び前記第2のパラメータの組み合わせが所与の条件を満たす場合には、補正後の前記第1のパラメータ及び前記第2のパラメータに基づき前記操作コマンドの選定を行い、前記所与の条件を満たさない場合には、補正前の前記第1のパラメータ及び前記第2のパラメータに基づき前記操作コマンドの選定を行ってもよい。
前記キャラクタ属性には、感情属性が含まれ、
前記画像生成装置は、
前記対象キャラクタのキャラクタ属性に対応する感情属性を前記データベースに基づき特定し、当該感情属性に応じた第3のパラメータを生成する第3のパラメータ生成処理手段を更に備え、
前記操作コマンド選定手段は、
前記第1のパラメータ、前記第2のパラメータ、及び前記第3のパラメータの組み合わせと、当該組み合わせに係る前記選定基準とに基づき前記操作コマンドの選定を行ってもよい。
リエーションを容易に増やすことが可能である。
前記複数の操作コマンドには、
1又は複数の特定のキャラクタ属性に対応付けられた1又は複数の特定の操作コマンドが含まれ、
前記操作コマンド選定手段が実行する処理には、
前記複数の操作コマンドの中から前記選定される操作コマンドの候補を設定する候補設定処理が含まれ、
前記候補設定処理においては、前記対象キャラクタのキャラクタ属性が前記特定のキャラクタ属性である場合に、前記特定の操作コマンドを前記候補に追加する処理又は前記候補から除外する処理を実行してもよい。
出力された前記対象キャラクタの画像について視聴者が行った評価のデータを収集する収集処理を実行する収集手段を更に備え、
前記操作コマンド選定手段は、
複数の前記画像に適用された複数の前記操作コマンドと、複数の前記画像に係る複数の前記評価のデータとに基づき、複数の前記操作コマンドを重み付けする処理を実行し、新たな前記画像を生成する際における前記操作コマンドの選定を、前記複数の操作コマンドの重みに基づいて行ってもよい。
れた場合に人気のある動作を発現させたりすることも可能である。なお、操作コマンド選定手段の上記動作が画像の出力中に逐次に行われれば、人気の動作がリアルタイムで反映されることになるので、その場合には、ライブ配信における視聴者の参加意識を高め、視聴者数の向上を図ることができる。
前記複数の操作コマンドの重みに基づき前記選定基準の更新をする更新処理を、所与の条件が満たされる度に実行するフィードバック手段を更に備えてもよい。
前記複数の操作コマンドには、
前記対象キャラクタの表情を制御する操作コマンドと、
前記対象キャラクタの所作を制御する操作コマンドと、
前記対象キャラクタに視覚効果を付与する操作コマンドと、
前記対象キャラクタの発語を制御する操作コマンドと、
の少なくとも1つが含まれてもよい。
前記画像出力手段は、
前記演者の演技中に逐次に生成される前記対象キャラクタの画像を前記画像の視聴者へ前記演技中に逐次に出力してもよい。
前記第1のパラメータ、前記第2のパラメータ、及び前記キャラクタ属性のバランスを示すイメージを、前記演者へ演技中に逐次に出力するモニタ手段を更に備えてもよい。
前記画像出力手段は、
前記対象キャラクタの画像の生成から前記オブジェクト空間の視聴者へ前記画像が出力されるまでの間に遅延時間を設ける遅延出力処理を実行し、当該遅延時間内に前記演者又は補助者から操作入力を受付けた場合に、前記視聴者に出力される前記画像を調整する処理を実行してもよい。
前記操作コマンド選定手段は、
前記第1のパラメータ、前記第2のパラメータ及び前記キャラクタ属性の組み合わせに所定時間にわたり変化が生じなかった場合には、前記選定基準にかかわらず所与の操作コマンドを選定してもよい。
実空間に存在する演者の動作を、オブジェクト空間に存在する対象キャラクタの動作に反映させ、前記オブジェクト空間で動作する前記対象キャラクタの画像を生成する画像生成装置としてコンピュータを機能させるプログラムであって、
複数のキャラクタのそれぞれに対応付けられたキャラクタ属性と、前記演者が提示し得る複数の単語のそれぞれに対応付けられて規定された感情属性と、前記演者の採り得る複数の状態のそれぞれに対応付けられて規定された感情属性と、前記対象キャラクタの動作を制御する複数の操作コマンドと、を記憶したデータベースを管理する管理手段と、
前記複数のキャラクタの中から前記対象キャラクタを選定して前記オブジェクト空間へ設定する設定手段と、
前記演者の提示した単語を含む演者データの入力を受け付ける入力受付手段と、
前記演者が提示した単語を前記演者データから抽出する単語抽出処理手段と、
抽出した前記単語の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第1のパラメータを生成する第1のパラメータ生成処理手段と、
入力した前記演者データの少なくとも一部と状態判定用の基準データとに基づき前記演者の状態を判定する判定手段と、
判定した前記状態の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第2のパラメータを生成する第2のパラメータ生成処理手段と、
前記複数の操作コマンドの中から、前記対象キャラクタの動作の制御に用いるべき1又
は複数の操作コマンドを、前記第1のパラメータと、前記第2のパラメータと、選定した前記対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する操作コマンド選定手段と、
前記オブジェクト空間に設定された前記対象キャラクタの動作を、選定された前記操作コマンドに基づき制御する動作制御手段と、
前記オブジェクト空間内で動作する前記対象キャラクタの画像を生成する画像生成手段と、
生成された前記対象キャラクタの画像を出力する画像出力手段と、
してコンピュータを機能させる。
図1は、コンテンツ配信システムを説明するための図の一例である。図1に示すとおりコンテンツ配信システムには、実空間に存在する演者(例えば声優)のパフォーマンス(例えばフリートークライブ)に応じてコンテンツ(例えばキャラクタの動画像を含む画像コンテンツ)を生成する画像生成システム20と、画像生成システム20が生成するコンテンツを、インターネット(WAN)、LANなどのネットワークを介してユーザ(以下「視聴者」という。)の端末装置10A、10B、…へ配信するサーバ装置11とが含まれる。
図2は、画像生成システム20を説明するための図の一例である。図2に示すとおり画像生成システム20には、実空間に存在する演者5から演者データを取得する演者データ取得部250と、当該演者5の動作を、オブジェクト空間に存在する対象キャラクタ(図3の符号8A)の動作に反映させ、オブジェクト空間で動作する対象キャラクタ8Aの動画像を含む画像コンテンツ(図3)を生成する画像生成装置20Cと、画像コンテンツ(図3)の生成中に確認用情報(図4)を表示するモニタ表示部290とが備えられる。
図1のサーバ装置11は、例えば、API(アプリケーションプログラミングインタフェース)や所定のプラットフォーム等を利用して、端末装置10A、10Bから視聴者情報146を収集したり、画像生成システム20へ各種のデータを提供したりする情報処理装置である。サーバ装置11は、画像生成システム20が生成した画像コンテンツを配信するためのデータ(ストリーミングデータ)を端末装置10A、10B、…へ提供する。また、サーバ装置11は、記憶領域(後述する記憶部140)を有し、端末装置10などと連動して、当該記録領域を用いて各視聴者の課金情報、行動履歴の情報(以下、「行動履歴情報」という。)などの各情報の管理を実行することもできる。ただし、サーバ装置11は、当該記憶領域に代えてネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよい。また、サーバ装置11は、1つの(装置、プロセッサ)で構成されていてもよいし、複数の(装置、プロセッサ)で構成されていてもよい。また、本実施形態では、オブジェクト空間内の対象キャラクタ8Aの動作制御を行う主体が画像生成システム20であるとして説明するが、画像生成システム20の一部の機能はサーバ装置11の側に搭載されてもよい。
図5は、サーバ装置11の構成を示す機能ブロック図の一例である。なお、サーバ装置11は図5の構成要素(各部)の一部を省略した構成としてもよい。
用ASICなどのハードウェアや、プログラムなどによって構成される。
(1)性別、年代、居住地域などの視聴者の属性情報、
(2)好きなキャラクタなどの視聴者の嗜好情報、
(3)スマートフォンやIDタグなどの視聴者が保有する端末装置の情報(例えば、視聴者の個人を特定する情報などの視聴時の位置座標(視聴地域)を示す情報、
(4)所定のゲームにおけるプレー状況やその履歴(課金履歴も含む。)に関する情報(ゲームプレー情報)、
(5)対象キャラクタや当該対象キャラクタがパフォーマンスしている画像コンテンツに関連する所定の通販サイトや実売店舗(イベント会場内も含む)による課金情報やその課金履歴情報、
などの各情報が視聴者ID毎に格納されていてもよい。
金制御、当該アカウントの視聴者による課金要素に係る課金履歴の登録、及び、ゲーム履歴の登録などを実行する。特に、視聴者管理部103は、検出視聴者情報としては、画像生成システム20が生成した各情報を視聴者情報アカウントと紐付けて記憶及び管理を行う。
図6は、画像生成システム20の構成を示す機能ブロック図の一例である。図6において点線枠で囲った部分が画像生成装置20Cである。ただし、画像生成装置20C以外の要素の一部又は全部は、画像生成装置20Cの側に搭載されてもよいし、画像生成装置20Cの一部の要素は、画像生成装置20Cと別装置で構成されてもよい。
るプログラム(データ)に基づいて本実施形態の種々の処理を行う。
。2次元空間とは、例えば2次元座標(X,Y)においてオブジェクトが配置される空間であり、3次元空間とは、例えば3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。
シェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。そして、描画部220は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。
[4.1]概要
次に、本実施形態の手法(画像コンテンツの生成処理)の概要について説明する。
次に、データベース275(図6)に格納されたキャラクタテーブル(図7)、単語テーブル(図8)、状態テーブル(図9)、及びコマンドテーブル(図10)を、順に説明する。これらのテーブルは、画像コンテンツの生成処理を実行する際に利用される。
図7に示すとおり、キャラクタテーブルには、複数のキャラクタのキャラクタ名と、キャラクタ名のそれぞれに対応付けられたキャラクタ属性と、当該キャラクタ属性に対応付けられて規定されたポジティブレベルを数値化したポジティブ点数とが、キャラクタIDごとに予め書き込まれている。
には、ポジティブ点数「15」が対応付けられている。
図8に示すとおり、単語テーブルには、演者5が発語し得る複数の単語と、単語のそれぞれに対応付けられて規定された感情属性と、当該感情属性に対応付けられて規定されたポジティブ点数とが、単語IDごとに予め書き込まれている。
ポジティブ点数「15」が対応付けられており、単語ID「W030」の「おなかすいた」には、相対的に低いポジティブ点数「−5」が対応付けられている。
図9に示すとおり、状態テーブルには、演者5の採り得る複数の状態(以下、演者5の状態として動作のうち特に「所作」に着目する。)と、複数の状態(所作)のそれぞれに対応付けられて規定された感情属性と、当該感情属性に対応付けられて規定されたポジティブ点数とが、状態IDごとに予め書き込まれている。
図10に示すとおり、コマンドテーブルには、対象キャラクタ8Aの動作を制御する複
数の操作コマンドが、コマンドIDごとに予め書き込まれている。ただし、図10ではコマンドIDの代わりに符号a1、a2、…、b1、b2、…、c1、c2、…、d1、d2、…によって操作コマンドを区別している。ここでは、操作コマンドには、表情コマンドa1,a2,…と、所作コマンドb1,b2,…と、視覚効果コマンドc1,c2,…と、発語コマンドd1,d2,…の4種類が含まれるものとする。また、本実施形態では、トークライブ中の区間ごとに、表情コマンドa1,a2,…の何れか1つと、ジェスチャーコマンドb1,b2,…の何れか1つと、視覚効果コマンドc1,c2,…の何れか1つと、発語コマンドd1,d2,…の何れか1つとが選定され、選定された4つの操作コマンドの組み合わせに応じて、区間における対象キャラクタ8Aの動作が制御されるものとする。以下、表情コマンド、所作コマンド、視覚効果コマンド、発語コマンドの具体例を順に説明する。
例えば、表情コマンドには、対象キャラクタ8Aの表情を笑った表情にするコマンドa1、対象キャラクタ8Aの表情をはにかんだ表情にするコマンドa2、対象キャラクタ8Aの表情を無表情にするコマンドa3、対象キャラクタ8Aの表情を怒った表情にするコマンドa4と、対象キャラクタ8Aの表情を驚いた表情にするコマンドa5、…などが含まれる。
例えば、所作コマンドには、対象キャラクタ8Aにジャンプジェスチャーをさせるコマンドb1、対象キャラクタ8Aに片手上げジェスチャーをさせるコマンドb2、対象キャラクタ8Aを静止状態にするコマンドb3、対象キャラクタ8Aに手で顔を覆うジェスチャーをさせるコマンドb4、対象キャラクタ8Aにバンザイジェスチャーをさせるコマンドb5、…などが含まれる。
例えば、視覚効果コマンドには、オブジェクト空間にスターマーク(スターオブジェクト)を発生させるコマンドc1、オブジェクト空間にハートマーク(ハートオブジェクト)を発生させるコマンドc2、オブジェクト空間にいずれのオブジェクトをも発生させないコマンドc3、…などが含まれる。
例えば、発語コマンドには、対象キャラクタ8Aの発語する言葉の語尾や表現を特定地方の方言に変換するコマンド、対象キャラクタ8aの発語する言葉の語尾を特定の語尾に変換するコマンド、対象キャラクタ8aの発語する言葉の語尾や表現を女性言葉の語尾に変換するコマンド、対象キャラクタ8aの発語する言葉の語尾や表現を男性言葉の語尾に変換するコマンド、…などが含まれる。
次に、図6の画像生成装置20Cのうち特に画像コンテンツの生成処理に関連する要素について詳しく説明する。画像コンテンツの生成処理に関連する要素は、例えば、データベース管理部241、演者データ入力受付部242、単語抽出処理部243、第1のパラメータ生成処理部244、状態判定部245、第2のパラメータ生成処理部246、操作コマンド選定部247、動作制御部248、画像生成部249、画像出力部2491、及びキャラクタ設定部210Aである。
データベース管理部241は、複数のキャラクタのそれぞれに対応付けられたキャラクタ属性(図7のキャラクタテーブル)と、演者5が発語し得る複数の単語のそれぞれに対
応付けられて規定された感情属性(図8の単語テーブル)と、演者5の採り得る複数の状態(所作)のそれぞれに対応付けられて規定された感情属性(図9の状態テーブル)と、対象キャラクタ8Aの動作を制御する複数の操作コマンド(図10のコマンドテーブル)と、を記憶したデータベース275を管理する。
キャラクタ設定部210Aは、演者5又は補助者の指示に基づいて、複数のキャラクタの中から対象キャラクタを選定してオブジェクト空間へ設定する。例えば、キャラクタ設定部210Aは、トークライブの開始に先立ち、入力部260を介して演者5又は不図示の補助者から、キャラクタを指定する操作入力を受付け、当該操作入力に基づき演者5又は補助者の指定したキャラクタを特定すると、特定したキャラクタを対象キャラクタ8Aとしてオブジェクト空間へ設定する。
演者データ入力受付部242は、トークライブ中に、演者5の発語した単語を含む演者データ(音声データ及び画像データ)の入力を受け付ける。例えば、演者データ入力受付部242は、トークライブ中に演者データ取得部250が所定周期でサンプリングする演者データ(音声データ及び画像データ)を、当該サンプリング周期と同じ周期で受付け、当該演者データ(音声データ及び画像データ)をバッファ272に一時的に蓄積する。本実施形態では、バッファ272に蓄積された区間の演者データ(音声データ及び画像データ)に基づき、画像コンテンツの該当区間のフレームデータ(音声データ及び画像データ)が生成される。
単語抽出処理部243は、入力された演者データに含まれる音声に対するテキスト変換処理に基づき、音声をテキストに変換し、演者5が発語した単語を当該テキストから抽出する。
のほか、「てにをは」を示すテキストなども含まれる。そして、単語抽出処理部243は、テキストデータから予め単語テーブルに登録された単語(例えば、名詞や動詞)を抽出する。
第1のパラメータ生成処理部244は、単語抽出処理部243が抽出した単語の感情属性をデータベース275の単語テーブル(図8)に基づき特定し、当該感情属性に応じた第1のパラメータを生成する。
状態判定部245は、入力した演者データの少なくとも一部と状態判定用の基準データとに基づき演者5の状態(所作)を判定する。
5の所作が反映された特徴パターン(時系列パターン)を抽出する処理を実行する。
第2のパラメータ生成処理部246は、判定した状態(所作)の感情属性をデータベース275の状態テーブル(図9)に基づき特定し、当該感情属性に応じた第2のパラメータを生成する。
操作コマンド選定部247は、複数の操作コマンドの中から、対象キャラクタ8Aの動作の制御に用いるべき1又は複数の操作コマンドを、第1のパラメータと、第2のパラメータと、選定した対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する。
動作制御部248は、オブジェクト空間に設定された対象キャラクタ8A(図3)の動作を、選定された操作コマンドに基づき制御する。例えば、操作コマンド選定部247の
選定した操作コマンドが、「ウィンク」という表情コマンドと、「上手振りジェスチャー」という所作コマンドと、「ハートマーク」という視覚効果コマンドと、「「にゃ」付加」という発語コマンドとの組み合わせであった場合、動作制御部248は、これらの操作コマンドに基づき、対象キャラクタ8Aにウィンクさせ、上手振りジェスチャーをさせ、ハートマークを発生させ、かつ、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する制御を実行する。
画像生成部249は、オブジェクト空間内で動作する対象キャラクタ8Aの画像データ(図3)を生成する。
画像出力部240は、生成された対象キャラクタ8Aの画像データ(図3)を出力する。
[4.4.1]概要
以下、操作コマンドを選定する第1の選定処理について説明する。
操作コマンド選定部247は、
操作コマンドの選定を行う前に、対象キャラクタ8Aのキャラクタ属性に応じて第1のパラメータ及び第2のパラメータの少なくとも一方を補正する処理を実行する。
及び第2のパラメータから操作コマンドを選定するアルゴリズムが既存である場合に、これを有効活用することができる。
補正後の第1のパラメータ及び第2のパラメータの組み合わせ(総合値)が所与の条件を満たす場合には、補正後の第1のパラメータ及び第2のパラメータに基づき操作コマンドの選定を行い、所与の条件を満たさない場合には、補正前の第1のパラメータ及び第2のパラメータに基づき操作コマンドの選定を行う。
第1の選定処理を実現するために、データベース275には補正テーブル(図11)が予め格納される。補正テーブルは、図11に示すとおり、複数の補正係数を予め格納したテーブルである。複数の補正係数は、対象キャラクタ8Aのキャラクタ属性毎、かつ、演者5の状態(所作)に係る感情属性毎に、格納されている。なお、ここでは演者5の状態(所作)に係る感情属性を「喜」「怒」「哀」「楽」「驚」で表した。
本実施形態の画像生成装置20Cにおいて、
操作コマンド選定部247は、
操作コマンドの選定を行う前に、対象キャラクタ8Aのキャラクタ属性と、演者5の行った所作(状態判定部245によって判定された所作)に対応する感情属性とに応じて、補正テーブル(図11)を参照し、当該キャラクタ属性及び感情属性の組み合わせに対応
する補正係数を特定する。そして、操作コマンド選定部247は、特定した補正係数を、第1のパラメータ及び第2のパラメータの総合値(ここでは第1のパラメータ及び第2のパラメータの和とする。)に乗算することにより、当該総合値を補正する処理を実行する。
係数「2」が乗算されることにより、補正後の総合値は「−20」となる。
また、操作コマンド選定部247は、
補正後の総合値が所与の条件を満たすか否かを判定し、所与の条件を満たす場合には、補正後の総合値に基づき操作コマンドの選定を行い、さもなくば補正前の総合値に基づき操作コマンドの選定を行う。
操作コマンド選定部247は、操作コマンドの選定に、図14の対応テーブルを用いる。図14の対応テーブルは、データベース275に予め格納されている。図14に示すとおり、対応テーブルは、総合値の属する範囲B1、B2、…、B6と、範囲毎に対応付けられた操作コマンドとの対応関係を示すテーブルである。
なお、処理部200のモニタ部は、補正後の総合値が図13の所定範囲B2〜B5から外れる場合には「キャラクタ属性の効果が発現中」というテキストイメージをモニタ表示
部290へ表示させ、外れない場合には「キャラクタ属性の効果が発現中」というテキストイメージをモニタ表示部290に表示しない、という制御処理を実行する。つまり、第1の選定処理では、当該テキストイメージ(図4の上部)がモニタ表示部290に表示される。
次に、操作コマンドを選定する第2の選定処理について説明する。
第2の選定処理を実現するために、データベース275に格納されたキャラクタテーブル(図7)のキャラクタ属性には、感情属性が含まれる。
操作コマンド選定部247は、第1のパラメータ、第2のパラメータ、及び第3のパラメータの総合値と、選定基準としての範囲と、に基づき操作コマンドの選定を行う。
次に、操作コマンドを選定する第3の選定処理について説明する。
A3、…の境界(分離面)を規定するデータ(選定基準)は、データベース275に予め格納されている。
次に、対象キャラクタらしさの強調処理について説明する。
前述した複数の操作コマンドには、
1又は複数の特定のキャラクタ属性に対応付けられた1又は複数の特定の操作コマンドが含まれ、
操作コマンド選定部247が実行する処理には、
複数の操作コマンドの中から選定される操作コマンドの候補を設定する候補設定処理が含まれ、
候補設定処理においては、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性である場合に、特定の操作コマンドを候補に追加する処理又は候補から除外する処理を実行してもよい。
に説明する。なお、ここでは、図14の対応テーブルを例に挙げて説明するが、図16の対応テーブルについても同様に調整することが可能である。
例えば、操作コマンド選定部247は、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「ネコキャラクタ」であるか否かを判定し、当該特定のキャラクタ属性「ネコキャラクタ」である場合には、図14の対応テーブルの範囲B1〜B6の少なくとも1つに対応する発語コマンド(発語コマンドd1,d3〜d6の何れかが)を、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する特定の発語コマンドd2に置換する処理を実行する。よって、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「ネコキャラクタ」である場合には、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する特定の発語コマンドd2が選定され易くなる。
例えば、操作コマンド選定部247は、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「落ち着いた中年男性キャラクタ」であるか否かを判定し、当該特定のキャラクタ属性「落ち着いた中年男性キャラクタ」である場合には、図14の対応テーブルから、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する特定の発語コマンドd2を少なくとも1つ除外する処理を実行する。この場合、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「中年男性キャラクタ」である場合には、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する特定の発語コマンドd2が選定され難くなる。
例えば、操作コマンド選定部247は、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「陽気なギャルキャラクタ」であるか否かを判定し、当該特定のキャラクタ属性「陽気なギャルキャラクタ」である場合には、図14の対応テーブルに、所作の振幅を増幅させる振幅増減コマンドe1を追加する処理を実行する。例えば、操作コマンド選定部247は、図14の対応テーブルの範囲B1〜B6の少なくとも1つに当該振幅増減コマンドe1を追加で対応付ける処理を実行する。よって、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「陽気なギャルキャラクタ」である場合には、対象キャラクタ8Aの所作の振幅が増幅され易くなる(オーバーアクション化し易くなる)。
また、上記操作コマンド選定部247は、図14の対応テーブルの一部の操作コマンドを置換する処理と、図14の対応テーブルの一部の操作コマンドを除外する処理と、対応テーブルに操作コマンドを追加する処理とのうち少なくとも2つの処理を組み合わせて実行してもよい(対応テーブルの編集処理)。従って、対象キャラクタ8Aが特定のキャラクタ属性を有する場合には、当該特定のキャラクタ属性に対応する特定のコマンドが選定され易くなる方向に図14の対応テーブルが編集されるので、対象キャラクタ8Aのキャラクタらしさを、より強くアピールすることができる。
次に、操作コマンドの選定処理に抽選要素を付加した例について説明する。
更に、操作コマンド選定部247は、上記抽選処理の前に選択確率の調整を行ってもよい。
は、あくまでも相対的な値として規定されるものなので、操作コマンド選定部247は、ある候補の選択確率を向上させる代わりに、他の候補の選択確率を低下させることにより同様の効果を得てもよい。
次に、対象キャラクタ8Bの動作に視聴者の人気(評価の高さ)を反映させる人気反映処理について説明する。
出力された対象キャラクタ8Aの画像コンテンツ(図3)について視聴者が行った評価のデータを収集する収集処理を実行する収集部(収集手段の一例)を更に備え、
操作コマンド選定部247は、
画像コンテンツを構成する複数の音声付き画像データ(図3)に適用された複数の操作コマンドと、複数の音声付き画像データ(図3)に係る複数の評価のデータとに基づき、複数の操作コマンドを重み付けする処理を実行し、新たな音声付き画像データ(図3)を生成する際における操作コマンドの選定を、複数の操作コマンドの重みに基づいて行う。
ここで、「評価のデータ」には、対象キャラクタに向けた視聴者からのプレゼント(被服、装身具、身支度用の資金、投げ銭、お捻りなど)の数及び価値、視聴者が行った投票による対象キャラクタの得票数、対象キャラクタの画像を含む画像コンテンツの視聴率などのデータが含まれる。
サーバ装置11の視聴者管理部103は、画像コンテンツの配信中に、通信制御部101及びネットワークを介して視聴者の端末装置10A、10B、…の各々と通信を行い、視聴者から対象キャラクタ8Aに向けたプレゼント又は投票(以下、「プレゼント等」という。)の要求を受付ける。
例えば、サーバ装置11の視聴者管理部103は、視聴者情報146を更新する度に、更新に係る評価のデータ(最新区間に対応付けられたプレゼントの数及び価値、最新区間に対応付けられた得票数、最新区間に対応付けられた視聴率)を画像生成装置20Cへ送信する。
そして、操作コマンド選定部247は、コンテンツデータ記憶部274を参照し、配信済みの複数区間(図3)の各々に適用された操作コマンドを特定する。
は、図13の範囲B1〜B6の何れかに対応しているので、ここでは、操作コマンドの組み合わせを、図13の範囲B1〜B6の別によって表す。
操作コマンド選定部247は、図17のグラフに基づき、相対的に大きな重みを有する範囲(図17では範囲B1)のサイズが拡大され、相対的に小さな重みを有する範囲(図17では範囲B3)のサイズが縮小される方向に、範囲B1〜B6の境界(選定基準)を更新する。
本実施形態の画像生成装置20Cにおいて、処理部200は、
複数の操作コマンドの重みに基づき選定基準の更新をする更新処理を、所与の条件が満たされる度に実行するフィードバック部(フィードバック手段の一例)を更に備えてもよい。
上述したとおり、本実施形態の画像生成装置20Cにおいて、
操作コマンドの選択肢となる複数の操作コマンドには、
対象キャラクタ8Aの表情を制御する操作コマンド(表情コマンド)と、
対象キャラクタ8Aの所作を制御する操作コマンド(所作コマンド)と、
対象キャラクタ8Aに視覚効果を付与する操作コマンド(視覚効果コマンド)と、
対象キャラクタ8Aの発語を制御する操作コマンド(発語コマンド)と、
の少なくとも1つが含まれる。
上述したとおり、本実施形態の画像生成装置20Cにおいて、
画像出力部240は、演者5の演技中(トークライブ中)に逐次に生成される対象キャラクタ8Aの画像データ(図3)を画像データ(図3)の視聴者へ演技中(トークライブ中)に逐次に出力する。
本実施形態の画像生成装置20Cの処理部200は、
第1のパラメータ、第2のパラメータ、及びキャラクタ属性のバランスを示すイメージを演者5へ演技中(トークライブ中)に逐次に出力する制御処理を実行するモニタ部(モニタ手段の一例)を備える。
次に、自主規制処理について説明する。
画像出力部240は、
対象キャラクタ8Aの音声付き画像データ(図3)の生成からオブジェクト空間の視聴者へ画像コンテンツの音声付き画像データ(図3)が出力(配信)されるまでの間に遅延時間を設ける遅延出力処理を実行し、当該遅延時間内に演者5又は補助者から操作入力を受付けた場合に、視聴者に出力される画像(図3)を調整する処理を実行してもよい。この場合、演者5又は補助者が不適切と判断した動作を、視聴者へ出力される前に阻止するという自主規制が可能である。
装置11へ音声付き画像データ(画像コンテンツのフレームデータ)が送信される速度(フレームレート)とを維持しつつ、バッファ272へ音声付き画像データ(画像コンテンツのフレームデータ)が蓄積されるタイミングと、当該音声付き画像データ(画像コンテンツのフレームデータ)がサーバ装置11へ送信されるまでの間に、例えば複数区間分の遅延時間(例えば5分の遅延時間)を設ける。つまり、バッファ272には、当該遅延時間に相当する最新区間の音声付画像データが蓄積される。
また、操作コマンド選定部247は、第1のパラメータ、第2のパラメータ及びキャラクタ属性(又は第3のパラメータ)の組み合わせを、トークライブ中に監視し、当該組み合わせに所定時間(例えば1分)にわたり変化が生じなかった場合には、上述した選定基準にかかわらず、所与の操作コマンドを選定してもよい。所与の操作コマンドは、例えば、「左手で左太腿の外側を軽く叩き、右手で右太腿の外側を軽く叩く」、などの自然な動きを対象キャラクタ8Aにさせるための操作コマンドである。
図20は、画像生成装置20Cによる処理のフローチャートの一例である。図20のフローチャートは、トークライブの開始前にスタートし、トークライブの終了後に終了するものとする。なお、画像生成装置20Cの内部における機能分担については説明済みであるので、ここでは処理の主体が画像生成装置20Cであるとして説明する。また、ここでは、操作コマンドの選定が第2の選定処理又は第3の選定処理によって実行される場合を想定する。
[5.1]キャラクタ属性に応じた増幅処理について
上記実施形態又は変形例では、第1のパラメータ、第2のパラメータ、及びキャラクタ属性(又はキャラクタ属性によって決まる第3のパラメータ若しくは補正係数)に応じて操作コマンドを選定する例を説明したが、第1のパラメータ、第2のパラメータに応じて操作コマンドを選定してから、キャラクタ属性(又はキャラクタ属性によって決まる第3のパラメータ若しくは補正係数)に応じて、選定された操作コマンドの下で行われる対象キャラクタの動作の振幅(発語の振幅、表情の振幅、所作の振幅、視覚効果の振幅など)を調節してもよい。この調整を実現するためには操作コマンド選定部247が他の操作コマンドと併せて振幅増減コマンドを選定すればよい。
ャラクタ属性が「ギャルキャラクタ」である場合の高さを「清楚キャラクタ」である場合の高さよりも大きめに調節してもよい。
上記実施形態のシステムは、ネットワークを用いて画像コンテンツ(音声付き動画像コンテンツ)をリアルタイム配信したが、テレビ放送によって視聴者へ提供するシステムや、イベント会場に来場した観客に対して大型スクリーンで視聴者へ提供するシステムに変形することも可能である。
上記の実施形態においては、画像コンテンツを端末装置から出力させることで視聴者に当該コンテンツを視聴させているが、端末装置は、HMD(装着型画像表示装置)であってもよい。バーチャル空間内においてあたかも各視聴者の周囲に存在するかのごとく認知させるVR体験(仮想現実体験)対象キャラクタのトークパフォーマンスを3Dによって視聴させるようにしてもよい。この場合には、例えば、視聴者毎に、HMDユニット及び制御ユニットを有する端末装置を提供し、各端末装置は、制御ユニットから出力された各種のデータに基づいて、画像及び音をHMDに提供する。
本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。
12 :大型表示装置
100 :サーバ処理部
101 :通信制御部
103 :視聴者管理部
120 :入力部
130 :表示部
140 :記憶部
142 :主記憶部
146 :視聴者情報
180 :情報記憶媒体
196 :通信部
200 :処理部
210 :オブジェクト空間設定部
211 :タッチ検出処理部
215 :移動処理部
216 :仮想カメラ制御部
219 :コンテンツ管理部
220 :描画部
230 :音処理部
250 :演者データ取得部
250A :集音マイク
250B :撮像カメラ
260 :入力部
262 :検出部
270 :記憶部
271 :主記憶部
272 :バッファ
274 :コンテンツデータ記憶部
280 :情報記憶媒体
290 :モニタ表示部
292 :音出力部
296 :通信部
241 :データベース管理部
242 :演者データ入力受付部
243 :単語抽出処理部
244 :第1のパラメータ生成処理部
245 :状態判定部
246 :第2のパラメータ生成処理部
247 :操作コマンド選定部
248 :動作制御部
249 :画像生成部
240 :画像出力部
210A :キャラクタ設定部
Claims (13)
- 実空間に存在する演者の動作を、オブジェクト空間に存在する対象キャラクタの動作に反映させ、前記オブジェクト空間で動作する前記対象キャラクタの画像を生成する画像生成装置であって、
複数のキャラクタのそれぞれに対応付けられたキャラクタ属性と、前記演者が提示し得る複数の単語のそれぞれに対応付けられて規定された感情属性と、前記演者の採り得る複数の状態のそれぞれに対応付けられて規定された感情属性と、前記対象キャラクタの動作を制御する複数の操作コマンドと、を記憶したデータベースを管理する管理手段と、
前記複数のキャラクタの中から前記対象キャラクタを選定して前記オブジェクト空間へ設定する設定手段と、
前記演者の提示した単語を含む演者データの入力を受け付ける入力受付手段と、
前記演者が提示した単語を前記演者データから抽出する単語抽出処理手段と、
抽出した前記単語の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第1のパラメータを生成する第1のパラメータ生成処理手段と、
入力した前記演者データの少なくとも一部と状態判定用の基準データとに基づき前記演者の状態を判定する判定手段と、
判定した前記状態の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第2のパラメータを生成する第2のパラメータ生成処理手段と、
前記複数の操作コマンドの中から、前記対象キャラクタの動作の制御に用いるべき1又は複数の操作コマンドを、前記第1のパラメータと、前記第2のパラメータと、選定した前記対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する操作コマンド選定手段と、
前記オブジェクト空間に設定された前記対象キャラクタの動作を、選定された前記操作コマンドに基づき制御する動作制御手段と、
前記オブジェクト空間内で動作する前記対象キャラクタの画像を生成する画像生成手段と、
生成された前記対象キャラクタの画像を出力する画像出力手段と、
を備えることを特徴とする画像生成装置。 - 請求項1に記載の画像生成装置において、
前記操作コマンド選定手段は、
前記操作コマンドの選定を行う前に、前記対象キャラクタのキャラクタ属性に応じて前記第1のパラメータ及び前記第2のパラメータの少なくとも一方を補正する処理を実行する、
ことを特徴とする画像生成装置。 - 請求項2に記載の画像生成装置において、
前記操作コマンド選定手段は、
補正後の前記第1のパラメータ及び前記第2のパラメータの組み合わせが所与の条件を満たす場合には、補正後の前記第1のパラメータ及び前記第2のパラメータに基づき前記操作コマンドの選定を行い、前記所与の条件を満たさない場合には、補正前の前記第1のパラメータ及び前記第2のパラメータに基づき前記操作コマンドの選定を行う、
ことを特徴とする画像生成装置。 - 請求項1又は2に記載の画像生成装置において、
前記キャラクタ属性には、感情属性が含まれ、
前記画像生成装置は、
前記対象キャラクタのキャラクタ属性に対応する感情属性を前記データベースに基づき特定し、当該感情属性に応じた第3のパラメータを生成する第3のパラメータ生成処理手
段を更に備え、
前記操作コマンド選定手段は、
前記第1のパラメータ、前記第2のパラメータ、及び前記第3のパラメータの組み合わせと、当該組み合わせに係る前記選定基準とに基づき前記操作コマンドの選定を行う、
ことを特徴とする画像生成装置。 - 請求項1〜4の何れか一項に記載の画像生成装置において、
前記複数の操作コマンドには、
1又は複数の特定のキャラクタ属性に対応付けられた1又は複数の特定の操作コマンドが含まれ、
前記操作コマンド選定手段が実行する処理には、
前記複数の操作コマンドの中から前記選定される操作コマンドの候補を設定する候補設定処理が含まれ、
前記候補設定処理においては、前記対象キャラクタのキャラクタ属性が前記特定のキャラクタ属性である場合に、前記特定の操作コマンドを前記候補に追加する処理又は前記候補から除外する処理を実行する、
ことを特徴とする画像生成装置。 - 請求項1〜5の何れか一項に記載の画像生成装置において、
出力された前記対象キャラクタの画像について視聴者が行った評価のデータを収集する収集処理を実行する収集手段を更に備え、
前記操作コマンド選定手段は、
複数の前記画像に適用された複数の前記操作コマンドと、複数の前記画像に係る複数の前記評価のデータとに基づき、複数の前記操作コマンドを重み付けする処理を実行し、新たな前記画像を生成する際における前記操作コマンドの選定を、前記複数の操作コマンドの重みに基づいて行う、
ことを特徴とする画像生成装置。 - 請求項6に記載の画像生成装置において、
前記複数の操作コマンドの重みに基づき前記選定基準の更新をする更新処理を、所与の条件が満たされる度に実行するフィードバック手段を更に備える、
ことを特徴とする画像生成装置。 - 請求項1〜7の何れか一項に記載の画像生成装置において、
前記複数の操作コマンドには、
前記対象キャラクタの表情を制御する操作コマンドと、
前記対象キャラクタの所作を制御する操作コマンドと、
前記対象キャラクタに視覚効果を付与する操作コマンドと、
前記対象キャラクタの発語を制御する操作コマンドと、
の少なくとも1つが含まれる、
ことを特徴とする画像生成装置。 - 請求項1〜8の何れか一項に記載の画像生成装置において、
前記画像出力手段は、
前記演者の演技中に逐次に生成される前記対象キャラクタの画像を前記画像の視聴者へ前記演技中に逐次に出力する、
ことを特徴とする画像生成装置。 - 請求項1〜9の何れか一項に記載の画像生成装置において、
前記第1のパラメータ、前記第2のパラメータ、及び前記キャラクタ属性のバランスを
示すイメージを、前記演者へ演技中に逐次に出力するモニタ手段を更に備える、
ことを特徴とする画像生成装置。 - 請求項1〜10の何れか一項に記載の画像生成装置において、
前記画像出力手段は、
前記対象キャラクタの画像の生成から前記オブジェクト空間の視聴者へ前記画像が出力されるまでの間に遅延時間を設ける遅延出力処理を実行し、当該遅延時間内に前記演者又は補助者から操作入力を受付けた場合に、前記視聴者に出力される前記画像を調整する処理を実行する、
ことを特徴とする画像生成装置。 - 請求項1〜11の何れか一項に記載の画像生成装置において、
前記操作コマンド選定手段は、
前記第1のパラメータ、前記第2のパラメータ及び前記キャラクタ属性の組み合わせに所定時間にわたり変化が生じなかった場合には、前記選定基準にかかわらず所与の操作コマンドを選定する、
ことを特徴とする画像生成装置。 - 実空間に存在する演者の動作を、オブジェクト空間に存在する対象キャラクタの動作に反映させ、前記オブジェクト空間で動作する前記対象キャラクタの画像を生成する画像生成装置としてコンピュータを機能させるプログラムであって、
複数のキャラクタのそれぞれに対応付けられたキャラクタ属性と、前記演者が提示し得る複数の単語のそれぞれに対応付けられて規定された感情属性と、前記演者の採り得る複数の状態のそれぞれに対応付けられて規定された感情属性と、前記対象キャラクタの動作を制御する複数の操作コマンドと、を記憶したデータベースを管理する管理手段と、
前記複数のキャラクタの中から前記対象キャラクタを選定して前記オブジェクト空間へ設定する設定手段と、
前記演者の提示した単語を含む演者データの入力を受け付ける入力受付手段と、
前記演者が提示した単語を前記演者データから抽出する単語抽出処理手段と、
抽出した前記単語の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第1のパラメータを生成する第1のパラメータ生成処理手段と、
入力した前記演者データの少なくとも一部と状態判定用の基準データとに基づき前記演者の状態を判定する判定手段と、
判定した前記状態の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第2のパラメータを生成する第2のパラメータ生成処理手段と、
前記複数の操作コマンドの中から、前記対象キャラクタの動作の制御に用いるべき1又は複数の操作コマンドを、前記第1のパラメータと、前記第2のパラメータと、選定した前記対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する操作コマンド選定手段と、
前記オブジェクト空間に設定された前記対象キャラクタの動作を、選定された前記操作コマンドに基づき制御する動作制御手段と、
前記オブジェクト空間内で動作する前記対象キャラクタの画像を生成する画像生成手段と、
生成された前記対象キャラクタの画像を出力する画像出力手段と、
してコンピュータを機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017145801A JP6945375B2 (ja) | 2017-07-27 | 2017-07-27 | 画像生成装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017145801A JP6945375B2 (ja) | 2017-07-27 | 2017-07-27 | 画像生成装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019024748A true JP2019024748A (ja) | 2019-02-21 |
JP6945375B2 JP6945375B2 (ja) | 2021-10-06 |
Family
ID=65476833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017145801A Active JP6945375B2 (ja) | 2017-07-27 | 2017-07-27 | 画像生成装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6945375B2 (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6737941B1 (ja) * | 2019-09-30 | 2020-08-12 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP2020162880A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社バンダイナムコエンターテインメント | プログラムおよびコンピュータシステム |
JP2020162979A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社コロプラ | システム |
JP2020167526A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社バンダイナムコエンターテインメント | サーバシステムおよび動画配信システム |
JP2020185476A (ja) * | 2020-08-21 | 2020-11-19 | 株式会社コロプラ | プログラム、方法、およびコンピュータ |
JP2021009648A (ja) * | 2019-07-03 | 2021-01-28 | 株式会社ミクシィ | 情報処理装置、情報処理装置側プログラム及び端末装置側プログラム |
JP2021010756A (ja) * | 2019-04-26 | 2021-02-04 | 株式会社コロプラ | プログラム、方法、および情報端末装置 |
JP2021053455A (ja) * | 2019-09-30 | 2021-04-08 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP2021053365A (ja) * | 2019-09-30 | 2021-04-08 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP2021056818A (ja) * | 2019-09-30 | 2021-04-08 | 株式会社コロプラ | プログラム、方法、および端末装置 |
JP2021053406A (ja) * | 2020-11-27 | 2021-04-08 | 株式会社コロプラ | プログラム、方法、および端末装置 |
CN113413603A (zh) * | 2021-06-22 | 2021-09-21 | 网易(杭州)网络有限公司 | 游戏的信息显示方法及装置、电子设备 |
CN113672194A (zh) * | 2020-03-31 | 2021-11-19 | 北京市商汤科技开发有限公司 | 声学特征样本的获取方法、装置、设备以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003248837A (ja) * | 2001-11-12 | 2003-09-05 | Mega Chips Corp | 画像作成装置、画像作成システム、音声生成装置、音声生成システム、画像作成用サーバ、プログラム、および記録媒体 |
JP2004185437A (ja) * | 2002-12-04 | 2004-07-02 | Nippon Hoso Kyokai <Nhk> | 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法 |
JP2010140278A (ja) * | 2008-12-11 | 2010-06-24 | Nippon Hoso Kyokai <Nhk> | 音声情報可視化装置及び音声情報可視化プログラム |
JP2015184689A (ja) * | 2014-03-20 | 2015-10-22 | 株式会社Mugenup | 動画生成装置及びプログラム |
-
2017
- 2017-07-27 JP JP2017145801A patent/JP6945375B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003248837A (ja) * | 2001-11-12 | 2003-09-05 | Mega Chips Corp | 画像作成装置、画像作成システム、音声生成装置、音声生成システム、画像作成用サーバ、プログラム、および記録媒体 |
JP2004185437A (ja) * | 2002-12-04 | 2004-07-02 | Nippon Hoso Kyokai <Nhk> | 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法 |
JP2010140278A (ja) * | 2008-12-11 | 2010-06-24 | Nippon Hoso Kyokai <Nhk> | 音声情報可視化装置及び音声情報可視化プログラム |
JP2015184689A (ja) * | 2014-03-20 | 2015-10-22 | 株式会社Mugenup | 動画生成装置及びプログラム |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022020640A (ja) * | 2019-03-29 | 2022-02-01 | 株式会社コロプラ | システム |
JP2020162880A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社バンダイナムコエンターテインメント | プログラムおよびコンピュータシステム |
JP2020162979A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社コロプラ | システム |
JP2020167526A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社バンダイナムコエンターテインメント | サーバシステムおよび動画配信システム |
JP7398873B2 (ja) | 2019-03-29 | 2023-12-15 | 株式会社バンダイナムコエンターテインメント | サーバシステムおよび動画配信システム |
JP7344948B2 (ja) | 2019-03-29 | 2023-09-14 | 株式会社コロプラ | システム |
JP7329946B2 (ja) | 2019-03-29 | 2023-08-21 | 株式会社バンダイナムコエンターテインメント | プログラム、コンピュータシステムおよび制御方法 |
JP2021010756A (ja) * | 2019-04-26 | 2021-02-04 | 株式会社コロプラ | プログラム、方法、および情報端末装置 |
JP7332562B2 (ja) | 2019-04-26 | 2023-08-23 | 株式会社コロプラ | プログラム、方法、および情報端末装置 |
JP7356629B2 (ja) | 2019-07-03 | 2023-10-05 | 株式会社Mixi | 情報処理装置、情報処理装置側プログラム及び端末装置側プログラム |
JP2021009648A (ja) * | 2019-07-03 | 2021-01-28 | 株式会社ミクシィ | 情報処理装置、情報処理装置側プログラム及び端末装置側プログラム |
JP2021053455A (ja) * | 2019-09-30 | 2021-04-08 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP7378383B2 (ja) | 2019-09-30 | 2023-11-13 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP7369674B2 (ja) | 2019-09-30 | 2023-10-26 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP2021053365A (ja) * | 2019-09-30 | 2021-04-08 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP6737941B1 (ja) * | 2019-09-30 | 2020-08-12 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP2021053179A (ja) * | 2019-09-30 | 2021-04-08 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP2021056818A (ja) * | 2019-09-30 | 2021-04-08 | 株式会社コロプラ | プログラム、方法、および端末装置 |
CN113672194A (zh) * | 2020-03-31 | 2021-11-19 | 北京市商汤科技开发有限公司 | 声学特征样本的获取方法、装置、设备以及存储介质 |
JP2022530726A (ja) * | 2020-03-31 | 2022-07-01 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | インタラクティブ対象駆動方法、装置、デバイス、及び記録媒体 |
JP7175299B2 (ja) | 2020-08-21 | 2022-11-18 | 株式会社コロプラ | プログラム、方法、およびコンピュータ |
JP2020185476A (ja) * | 2020-08-21 | 2020-11-19 | 株式会社コロプラ | プログラム、方法、およびコンピュータ |
JP7135058B2 (ja) | 2020-11-27 | 2022-09-12 | 株式会社コロプラ | プログラム、方法、および端末装置 |
JP2021053406A (ja) * | 2020-11-27 | 2021-04-08 | 株式会社コロプラ | プログラム、方法、および端末装置 |
CN113413603A (zh) * | 2021-06-22 | 2021-09-21 | 网易(杭州)网络有限公司 | 游戏的信息显示方法及装置、电子设备 |
CN113413603B (zh) * | 2021-06-22 | 2024-03-15 | 网易(杭州)网络有限公司 | 游戏的信息显示方法及装置、电子设备 |
Also Published As
Publication number | Publication date |
---|---|
JP6945375B2 (ja) | 2021-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6945375B2 (ja) | 画像生成装置及びプログラム | |
US10347028B2 (en) | Method for sharing emotions through the creation of three-dimensional avatars and their interaction | |
CN112379812B (zh) | 仿真3d数字人交互方法、装置、电子设备及存储介质 | |
EP3381175B1 (en) | Apparatus and method for operating personal agent | |
CN100468463C (zh) | 用于处理图像的方法、装置 | |
JP5859456B2 (ja) | プレゼンテーション用カメラ・ナビゲーション | |
JP6945312B2 (ja) | 操作制御システム、キャラクタ上映システム及びプログラム | |
US11823316B2 (en) | Photoreal character configurations for spatial computing | |
KR20010020126A (ko) | 선순위 기초 가상 환경 | |
CN102201099A (zh) | 基于运动的交互式购物环境 | |
CN102542488A (zh) | 基于用户表达的营销术语的自动广告生成 | |
US12079947B2 (en) | Virtual reality presentation of clothing fitted on avatars | |
JP2018075260A (ja) | ゲームシステム及びプログラム | |
CN112990043A (zh) | 一种服务交互方法、装置、电子设备及存储介质 | |
JP6241698B1 (ja) | 評価支援システム及び評価支援装置 | |
CN117391122A (zh) | 一种基于元宇宙中建立的3d数字人互助式聊天方法 | |
Mania et al. | Gaze-aware displays and interaction | |
Gilroy et al. | An affective model of user experience for interactive art | |
WO2021191017A1 (en) | 3d modelling and representation of furnished rooms and their manipulation | |
Gross et al. | Gesture Modelling: Using Video to Capture Freehand Modeling Commands | |
JP2021071942A (ja) | 動画処理方法、サーバ装置及びコンピュータプログラム | |
JP7418709B2 (ja) | コンピュータプログラム、方法及びサーバ装置 | |
JP7161802B1 (ja) | 3次元画像管理装置、3次元画像管理方法及び3次元画像管理プログラム | |
KR102538058B1 (ko) | 웹 사이트에 대한 아나운싱 광고 배너 제공 시스템 | |
Wan et al. | Interactive shadow play animation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210203 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6945375 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |