JP2019024748A - 画像生成装置及びプログラム - Google Patents

画像生成装置及びプログラム Download PDF

Info

Publication number
JP2019024748A
JP2019024748A JP2017145801A JP2017145801A JP2019024748A JP 2019024748 A JP2019024748 A JP 2019024748A JP 2017145801 A JP2017145801 A JP 2017145801A JP 2017145801 A JP2017145801 A JP 2017145801A JP 2019024748 A JP2019024748 A JP 2019024748A
Authority
JP
Japan
Prior art keywords
character
parameter
image
performer
target character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017145801A
Other languages
English (en)
Other versions
JP6945375B2 (ja
Inventor
隆司 大舘
Takashi Odate
隆司 大舘
徹太郎 平岡
Tetsutaro Hiraoka
徹太郎 平岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Studios Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2017145801A priority Critical patent/JP6945375B2/ja
Publication of JP2019024748A publication Critical patent/JP2019024748A/ja
Application granted granted Critical
Publication of JP6945375B2 publication Critical patent/JP6945375B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】演者が特別な演技をせずともキャラクタらしさをアピールし、キャラクタに対する好悪の印象を強く視聴者に与えることが可能な画像生成装置を提供する。【解決手段】実在する演者の動作を、仮想空間の対象キャラクタの動作に反映させる画像生成装置であって、演者データに基づき演者が提示した単語を抽出する単語抽出処理手段と、抽出した単語の感情属性に応じた第1のパラメータを生成する第1のパラメータ生成処理手段と、入力した演者データに基づき演者の状態を判定する判定手段と、判定した状態の感情属性を応じた第2のパラメータを生成する第2のパラメータ生成処理手段と、対象キャラクタの動作の制御に用いる操作コマンドを、第1のパラメータと、第2のパラメータと、対象キャラクタのキャラクタ属性に基づき選定する操作コマンド選定手段と、対象キャラクタの動作を、操作コマンドに基づき制御する動作制御手段とを備える。【選択図】図20

Description

本発明は、画像生成装置及びプログラムに関する。
従来、実在しない二次元又は三次元のアイドルキャラクタを仮想空間に配置し、実在のアイドルであるかのごとく当該キャラクタを操作する技術が周知である。これに関連する技術として、特許文献1には、音声を発する人の顔を表示せずに、音声データの入力に合わせて仮想のキャラクタを操作することで、音声を発する人のプライバシーを守りつつ、他人への感情伝達を図る画像生成システム等が開示されている。
特開2003−248837号公報
しかしながら、特許文献1に記載の技術では、基本的に、表示画面に表示されるキャラクタの動作(表情含む)は、音声データに反映された感情に応じて制御されるに過ぎないので、音声を発する人(本人)が積極的に音声によって演技をしない限り、当該キャラクタの動作(特許文献1では表情)のバリエーションを増やすことは難しかった。
本発明は、上記課題を解決するためになされたものであり、その目的は、演者が特別な演技をせずともキャラクタらしさを視聴者へアピールし、当該キャラクタに対する好悪の印象を強く視聴者に与えることが可能な画像生成装置及びプログラムを提供することにある。
上記課題を解決するため、
(1)本発明の画像生成装置は、
実空間に存在する演者の動作を、オブジェクト空間に存在する対象キャラクタの動作に反映させ、前記オブジェクト空間で動作する前記対象キャラクタの画像を生成する画像生成装置であって、
複数のキャラクタのそれぞれに対応付けられたキャラクタ属性と、前記演者が提示し得る複数の単語のそれぞれに対応付けられて規定された感情属性と、前記演者の採り得る複数の状態のそれぞれに対応付けられて規定された感情属性と、前記対象キャラクタの動作を制御する複数の操作コマンドと、を記憶したデータベースを管理する管理手段と、
前記複数のキャラクタの中から前記対象キャラクタを選定して前記オブジェクト空間へ設定する設定手段と、
前記演者の提示した単語を含む演者データの入力を受け付ける入力受付手段と、
前記演者が提示した単語を前記演者データから抽出する単語抽出処理手段と、
抽出した前記単語の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第1のパラメータを生成する第1のパラメータ生成処理手段と、
入力した前記演者データの少なくとも一部と状態判定用の基準データとに基づき前記演者の状態を判定する判定手段と、
判定した前記状態の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第2のパラメータを生成する第2のパラメータ生成処理手段と、
前記複数の操作コマンドの中から、前記対象キャラクタの動作の制御に用いるべき1又
は複数の操作コマンドを、前記第1のパラメータと、前記第2のパラメータと、選定した前記対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する操作コマンド選定手段と、
前記オブジェクト空間に設定された前記対象キャラクタの動作を、選定された前記操作コマンドに基づき制御する動作制御手段と、
前記オブジェクト空間内で動作する前記対象キャラクタの画像を生成する画像生成手段と、
生成された前記対象キャラクタの画像を出力する画像出力手段と、
を備える。
ここで、「演者」には、声優、俳優、アイドル、司会者、講演者(落語家、漫談家などを含む)などが含まれ、一般人が含まれてもよい。
また、「演者の動作」には、演者が言葉を提示する行為、所作(ジェスチャー、ポーズなどを含む)、表情などが含まれてもよく、「キャラクタの動作」には、キャラクタによる発語、所作(ジェスチャー、ポーズなどを含む)、表情などが含まれてもよい。
また、「演者による提示」には、演者が身体の少なくとも一部で表現することや、演者が(言葉や単語を)意図することなどが含まれてもよく、例えば、テキストのタイピング入力、テキストのフリック入力、言葉の音声入力(発語)、口唇形状変化による言葉の入力などが含まれてもよい。よって、「演者による単語の提示」には、演者5の発語による単語の入力、演者5のタイピングによる単語の入力、演者5が唇の形で意図しこれを画像解析で読み取った単語の入力、演者5がジャスチャー(手話など)で意図しこれを画像解析で読み取った単語の入力などが含まれる。
また、「オブジェクト空間」には、キャラクタを含むオブジェクトが配置された2次元又は3次元の仮想空間が含まれてもよい。
また、「キャラクタ属性」には、キャラクタの性別、年齢、性格、出身地などが含まれてもよく、後述する感情属性が含まれてもよい。
また、「演者が提示し得る複数の単語」には、「つまらない」、「お腹すいた」、…「いいね」などの、演者の感情を反映した単語が含まれていてもよい。
また、「感情属性」には、感情の傾向を表すネガティブ(陰気)、ポジティブ(陽気)の別や、「喜」、「怒」、「哀」、「楽」、「驚」などの感情種別などが含まれていてもよい。
また、「演者の状態」には、演者の性別、演者の動作、演者の音声の状態(疲労度など)が含まれてもよい。
また、「操作コマンド」には、発語コマンド、所作コマンド、表情コマンド、視覚効果コマンド、振幅増減コマンドなどが含まれてもよい。表情コマンドには、喜怒哀楽驚などの表情を対象キャラクタにさせるためのコマンドが含まれてもよい。所作コマンドには、ジャンプジェスチャー、バンザイジェスチャー、手で顔を覆うジェスチャー、腕組みジェスチャー、上手振りジェスチャー、下手振りジェスチャー、ガッツポーズ、ファイティングポーズなどを対象キャラクタにさせるためのコマンドが含まれてもよい。視覚効果コマンドには、ハートマーク付加、吹き出し表示、テロップ表示などを対象キャラクタの画像に付加するコマンドが含まれてもよい。振幅増減コマンドには、対象キャラクタの動作(発語、所作、表情、視覚効果など)の振幅(時間変化波形の振幅)を増幅又は抑制するた
めのコマンドが含まれてもよい。発語コマンドには、対象キャラクタの発現の語尾の変換、方言への変換などをするためのコマンドが含まれてもよい。
また、「演者データ」には、演者の画像(動画像含む)、演者の音声などのデータが含まれてもよい。
また、「単語の抽出」には、所与の言語モデルが利用されてもよい。
また、「単語抽出処理」には、言語解析を実行して演者データから単語を認識すると共に、「てにをは」や「疑問形」、「断定」などの言語体系を認識(形態素解析や構文解析)する処理が含まれてもよい。
また、「第1のパラメータ」には、演者の提示した単語に反映された感情のネガティブ度又はポジティブ度を示す数値(点数、ランク、レベル、段階、符号など)が含まれてもよい。
また、「第1のパラメータの生成」は、演者データに含まれる単語のみならず単語の前後に現れた言語体系まで加味して行われてもよい。ここでいう「言語体系」には、単語の後に位置する「てにをは」の種別、語尾が疑問形であるか否か、語尾が断定形であるか否か、などの情報が含まれてもよい。この場合、演者データに含まれる単語が同じ単語であったとしても、当該単語の提示の仕方によって第1のパラメータが異なる数値になることもある。
また、「演者データの少なくとも一部」には、音声の振幅データ、音声の周波数スペクトルデータ、身体データ(身体の画像データなど)、表情データ(顔の画像データなど)などが含まれてもよい。
また、「状態判定用の基準データ」には、所与のテンプレート、所与の音響モデルなどが含まれてもよい。
また、「状態の判定」には、テンプレートマッチングによる判定が含まれてもよい。
また、「第2のパラメータ」には、演者の状態に反映された感情のネガティブ度又はポジティブ度を示す数値(点数、ランク、レベル、段階、符号など)が含まれてもよい。
上記構成によれば、演者の動作が仮に同じであったとしても、選定された対象キャラクタの属性によって対象キャラクタの動作が変化し得るので、対象キャラクタの画像を観覧する視聴者は、演者の提示した単語や演者の状態に現れる感情のみならず、当該対象キャラクタの属性すなわち対象キャラクタらしさを、対象キャラクタの動作を通じて知覚することができる。一方、演者の側には、自分の提示する言葉や自分の状態を意識的して変化させずとも、対象キャラクタのキャラクタ属性を変更するだけで、対象キャラクタの動作の傾向を変化させることができるという利点がある。
例えば、操作コマンド選定手段は、特定のキャラクタ属性を有する対象キャラクタの特定動作を、別の特定動作へ変更することが可能である。具体的には、操作コマンド選定手段は、対象キャラクタのキャラクタ属性が「陽気なギャルキャラクタ」である場合に、喜びの動作(例えばジャンプ)を増幅(オーバーアクション化)させる操作コマンドを選定したり、対象キャラクタの特定のキャラクタ属性が「怒り易い男性キャラクタ」である場合に、驚きの動作(例えば両手を挙げる)を増幅(オーバーアクション化)させる操作コマンドを選定したりすることができる。
したがって、演者が特別な演技をせずとも対象キャラクタのキャラクタらしさを視聴者へアピールすることができるので、当該対象キャラクタに対する好悪の印象を強く視聴者に与えることができる。
(2)本発明の画像生成装置において、
前記操作コマンド選定手段は、
前記操作コマンドの選定を行う前に、前記対象キャラクタのキャラクタ属性に応じて前記第1のパラメータ及び前記第2のパラメータの少なくとも一方を補正する処理を実行してもよい。
上記構成によれば、第1のパラメータ及び第2のパラメータから操作コマンドを選定するための既存の選定基準と同じ選定基準を用いることが可能である。従って、第1のパラメータ及び第2のパラメータから操作コマンドを選定するアルゴリズムが既存である場合に、これを有効活用することができる。
(3)本発明の画像生成装置において、
前記操作コマンド選定手段は、
補正後の前記第1のパラメータ及び前記第2のパラメータの組み合わせが所与の条件を満たす場合には、補正後の前記第1のパラメータ及び前記第2のパラメータに基づき前記操作コマンドの選定を行い、前記所与の条件を満たさない場合には、補正前の前記第1のパラメータ及び前記第2のパラメータに基づき前記操作コマンドの選定を行ってもよい。
上記構成によれば、対象キャラクタの動作にキャラクタ属性が反映されるタイミングを所与の条件の下で制御することができる。例えば、当該組み合わせが特定の組み合わせである場合にキャラクタ属性を反映させ、そうでない場合にキャラクタ属性を反映させないという制御も可能である。したがって、対象キャラクタ8Aの動作に対象キャラクタらしさが発現することへの視聴者の期待を高めることができる。この場合、対象キャラクタの画像を観覧する視聴者は、対象キャラクタらしさを適当なタイミングで効果的に知覚することができる。
(4)本発明の画像生成装置において、
前記キャラクタ属性には、感情属性が含まれ、
前記画像生成装置は、
前記対象キャラクタのキャラクタ属性に対応する感情属性を前記データベースに基づき特定し、当該感情属性に応じた第3のパラメータを生成する第3のパラメータ生成処理手段を更に備え、
前記操作コマンド選定手段は、
前記第1のパラメータ、前記第2のパラメータ、及び前記第3のパラメータの組み合わせと、当該組み合わせに係る前記選定基準とに基づき前記操作コマンドの選定を行ってもよい。
ここで、「第3のパラメータ」には、キャラクタ属性に固有の感情傾向であるネガティブ度又はポジティブ度を示す数値(点数、ランク、レベル、段階、符号など)が含まれてもよい。
上記構成によれば、キャラクタ属性の感情に係る第3のパラメータを、第1のパラメータ及び第2のパラメータと同等に扱うことが可能である。従って、第1のパラメータ及び第2のパラメータから操作コマンドを選定するアルゴリズムが既存である場合に、当該アルゴリズムのパラメータの数(次数)を拡張することで、対象キャラクタの感情表現のバ
リエーションを容易に増やすことが可能である。
(5)本発明の画像生成装置において、
前記複数の操作コマンドには、
1又は複数の特定のキャラクタ属性に対応付けられた1又は複数の特定の操作コマンドが含まれ、
前記操作コマンド選定手段が実行する処理には、
前記複数の操作コマンドの中から前記選定される操作コマンドの候補を設定する候補設定処理が含まれ、
前記候補設定処理においては、前記対象キャラクタのキャラクタ属性が前記特定のキャラクタ属性である場合に、前記特定の操作コマンドを前記候補に追加する処理又は前記候補から除外する処理を実行してもよい。
ここで、「特定のキャラクタ属性」には、例えば特定の動物キャラクタ(ネコキャラクタなど)、特定の人物キャラクタ(神経質な中年男性など)が含まれてもよい。
また、「特定の操作コマンド」には、語尾を「にゃ」に変換するコマンド、「にゃ」という吹き出しを付加するコマンド、語尾を特定地方の方言に変換するコマンドなどが含まれてもよい。
上記構成によれば、特定のキャラクタ属性に適した特定のコマンドが選定されやすくなるので、対象キャラクタのキャラクタらしさを、より強くアピールすることができる。
(6)本発明の画像生成装置において、
出力された前記対象キャラクタの画像について視聴者が行った評価のデータを収集する収集処理を実行する収集手段を更に備え、
前記操作コマンド選定手段は、
複数の前記画像に適用された複数の前記操作コマンドと、複数の前記画像に係る複数の前記評価のデータとに基づき、複数の前記操作コマンドを重み付けする処理を実行し、新たな前記画像を生成する際における前記操作コマンドの選定を、前記複数の操作コマンドの重みに基づいて行ってもよい。
ここで、対象キャラクタの画像に音声が付加されていない場合には、「視聴者」は画像の鑑賞者と言い換えることもできる。
また、「評価のデータ」には、対象キャラクタに向けた視聴者からのプレゼント(被服、装身具、身支度用の資金、投げ銭、お捻りなど)の数及び価値、視聴者が行った投票による対象キャラクタの得票数、対象キャラクタの画像を含む画像コンテンツの視聴率などのデータが含まれてもよい。
また、投票には、画像コンテンツの視聴中に視聴者が自己の端末装置で評価ボタン(所謂いいねボタン)を押下した回数、画像コンテンツの視聴中に視聴者が自己の端末装置から運営者に向けて送信したコメント送信の回数、視聴者が画像コンテンツをSNSで他者に紹介した回数などが含まれてもよい。
また、プレゼント、投票、画像コンテンツの視聴には、画像生成装置の直接的又は間接的な運営者から視聴者に対する課金が伴うこともある。
以上の構成によれば、視聴者の評価のデータを対象キャラクタの動作に反映させることができるので、視聴者の間で人気のある動作が発現され易くしたり、所与の条件が満たさ
れた場合に人気のある動作を発現させたりすることも可能である。なお、操作コマンド選定手段の上記動作が画像の出力中に逐次に行われれば、人気の動作がリアルタイムで反映されることになるので、その場合には、ライブ配信における視聴者の参加意識を高め、視聴者数の向上を図ることができる。
(7)本発明の画像生成装置において、
前記複数の操作コマンドの重みに基づき前記選定基準の更新をする更新処理を、所与の条件が満たされる度に実行するフィードバック手段を更に備えてもよい。
ここで、「所与の条件が満たされる度に」には、「所定時間が経過する度に」、「重みに変化が生じる度に」が含まれてもよい。
上記構成によれば、人気の動作が発現され易くなる方向に選定基準を変化させることができるので、例えば、画像の生成が繰り返される度に対象キャラクタが人気キャラクタに近づくことになる。また、選定基準自体を更新するので、当該選定基準を、様々な対象キャラクタの人気向上を図る万能な選定基準に収束させることも、可能である。
(8)本発明の画像生成装置において、
前記複数の操作コマンドには、
前記対象キャラクタの表情を制御する操作コマンドと、
前記対象キャラクタの所作を制御する操作コマンドと、
前記対象キャラクタに視覚効果を付与する操作コマンドと、
前記対象キャラクタの発語を制御する操作コマンドと、
の少なくとも1つが含まれてもよい。
ここで、「対象キャラクタの表情」には、喜怒哀楽驚の表情が含まれてもよく、口の形状や瞳の形状及び装飾が含まれてもよい。
また、「対象キャラクタの所作」には、例えば、ジャンプジェスチャー、バンザイジェスチャー、手で顔を覆うジェスチャー、腕組みジェスチャー、上手振りジェスチャー、下手振りジェスチャー、ガッツポーズ、ファイティングポーズなどが含まれてもよい。
また、「視覚効果」には、所与のマーク(ハートマーク、スターマーク、怒りマーク、影、方紅、口ひげ、キスマークなど)の発生、吹き出し表示、テロップ表示などが含まれてもよい。
上記構成によれば、対象キャラクタの表情、所作、視覚効果、発語の少なくとも1つに演者の感情を反映させることができるので、演者の感情を効果的に増幅させることができる。
(9)本発明の画像生成装置において、
前記画像出力手段は、
前記演者の演技中に逐次に生成される前記対象キャラクタの画像を前記画像の視聴者へ前記演技中に逐次に出力してもよい。
上記構成によれば、対象キャラクタの画像をライブ配信(生中継)することが可能である。なお、ライブ配信(生中継)には、いわゆるニアライブ配信(遅延配信)も含まれるものとする。
(10)本発明の画像生成装置は、
前記第1のパラメータ、前記第2のパラメータ、及び前記キャラクタ属性のバランスを示すイメージを、前記演者へ演技中に逐次に出力するモニタ手段を更に備えてもよい。
ここで「バランスを示すイメージ」には、レーダーチャートなどのグラフや、テキスト表示(「キャラクタ属性の効果が発現中」など)が含まれてもよい。
上記構成によれば、演者が当該イメージを確認しながら演技し、操作コマンド選定の根拠を視覚的に把握することができるので、対象キャラクタの動作を自分の希望する動作に近づけることが容易になる。
(11)本発明の画像生成装置において、
前記画像出力手段は、
前記対象キャラクタの画像の生成から前記オブジェクト空間の視聴者へ前記画像が出力されるまでの間に遅延時間を設ける遅延出力処理を実行し、当該遅延時間内に前記演者又は補助者から操作入力を受付けた場合に、前記視聴者に出力される前記画像を調整する処理を実行してもよい。
上記構成によれば、ライブ配信ではなく、ニアライブで配信することができるので、ライブ配信に近い形態によって視聴者の参加意識を高めることができるとともに、演者又は補助者が不適切と判断した動作を、視聴者へ出力される前に阻止するという自主規制が可能である。
(12)本発明の画像生成装置において、
前記操作コマンド選定手段は、
前記第1のパラメータ、前記第2のパラメータ及び前記キャラクタ属性の組み合わせに所定時間にわたり変化が生じなかった場合には、前記選定基準にかかわらず所与の操作コマンドを選定してもよい。
上記構成によれば、演者が動作を休止している期間にも対象キャラクタに何らかの動作をさせることが可能である。
(13)本発明のプログラムは、
実空間に存在する演者の動作を、オブジェクト空間に存在する対象キャラクタの動作に反映させ、前記オブジェクト空間で動作する前記対象キャラクタの画像を生成する画像生成装置としてコンピュータを機能させるプログラムであって、
複数のキャラクタのそれぞれに対応付けられたキャラクタ属性と、前記演者が提示し得る複数の単語のそれぞれに対応付けられて規定された感情属性と、前記演者の採り得る複数の状態のそれぞれに対応付けられて規定された感情属性と、前記対象キャラクタの動作を制御する複数の操作コマンドと、を記憶したデータベースを管理する管理手段と、
前記複数のキャラクタの中から前記対象キャラクタを選定して前記オブジェクト空間へ設定する設定手段と、
前記演者の提示した単語を含む演者データの入力を受け付ける入力受付手段と、
前記演者が提示した単語を前記演者データから抽出する単語抽出処理手段と、
抽出した前記単語の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第1のパラメータを生成する第1のパラメータ生成処理手段と、
入力した前記演者データの少なくとも一部と状態判定用の基準データとに基づき前記演者の状態を判定する判定手段と、
判定した前記状態の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第2のパラメータを生成する第2のパラメータ生成処理手段と、
前記複数の操作コマンドの中から、前記対象キャラクタの動作の制御に用いるべき1又
は複数の操作コマンドを、前記第1のパラメータと、前記第2のパラメータと、選定した前記対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する操作コマンド選定手段と、
前記オブジェクト空間に設定された前記対象キャラクタの動作を、選定された前記操作コマンドに基づき制御する動作制御手段と、
前記オブジェクト空間内で動作する前記対象キャラクタの画像を生成する画像生成手段と、
生成された前記対象キャラクタの画像を出力する画像出力手段と、
してコンピュータを機能させる。
上記構成によれば、演者の動作が仮に同じであったとしても、選定された対象キャラクタの属性によって対象キャラクタの動作が変化し得るので、対象キャラクタの画像を観覧する視聴者は、演者の提示した単語や演者の状態に現れる感情のみならず、当該対象キャラクタの属性すなわち対象キャラクタらしさを、対象キャラクタの動作を通じて知覚することができる。一方、演者の側には、自分の提示する言葉や自分の状態を意識的して変化させずとも、対象キャラクタのキャラクタ属性を変更するだけで、対象キャラクタの動作の傾向を変化させることができるという利点がある。
例えば、操作コマンド選定手段は、特定のキャラクタ属性を有する対象キャラクタの特定動作を、別の特定動作へ変更することが可能である。具体的には、操作コマンド選定手段は、対象キャラクタのキャラクタ属性が「陽気なギャルキャラクタ」である場合に、喜びの動作(例えばジャンプ)を増幅(オーバーアクション化)させる操作コマンドを選定したり、対象キャラクタの特定のキャラクタ属性が「怒り易い男性キャラクタ」である場合に、驚きの動作(例えば両手を挙げる)を増幅(オーバーアクション化)させる操作コマンドを選定したりすることができる。
したがって、演者が特別な演技をせずとも対象キャラクタのキャラクタらしさを視聴者へアピールすることができるので、当該対象キャラクタに対する好悪の印象を強く視聴者に与えることができる。
一実施形態のコンテンツ配信システムを説明するための図の一例である。 一実施形態の画像生成システムを説明するための図の一例である。 一実施形態の端末装置に表示されるコンテンツを説明するための図の一例ある。 一実施形態のモニタ表示部に表示される確認用情報を説明するための図である。 一実施形態におけるサーバ装置の構成を示す機能ブロック図の一例である。 一実施形態における画像生成システムの構成を示す機能ブロック図の一例である。 一実施形態におけるデータベースに格納されたキャラクタテーブルを説明する図の一例である。 一実施形態におけるデータベースに格納された単語テーブルを説明する図の一例である。 一実施形態におけるデータベースに格納された状態テーブルを説明する図の一例である。 一実施形態におけるデータベースに格納されたコマンドテーブルを説明する図の一例である。 一実施形態におけるデータベースに格納された補正テーブルの一例である。 第1の選定処理における補正処理を説明する図の一例である。 キャラクタ効果が発現するタイミングを制御する処理を説明する図の一例である。 データベースに格納された対応テーブルを説明する図の一例である。 一実施形態における特徴量空間を説明する図の一例である。 一実施形態におけるデータベースに格納された対応テーブルを説明する図の一例である。 更新前の選定基準(範囲B1〜B6の境界)を説明する図の一例である。 更新後の選定基準(範囲B1〜B6の境界)を説明する図の一例である。 一実施形態におけるレーダーチャートを説明する図の一例である。 一実施形態におけるフローチャートの一例である。
以下、実施形態について説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。本実施形態では、観覧(視聴)の対象となるキャラクタ(以下、「対象キャラクタ」ともいう。)が配置されたオブジェクト空間内の画像をコンテンツとして視聴者へ配信するコンテンツ配信システムについて説明する。
[1]コンテンツ配信システムの概要
図1は、コンテンツ配信システムを説明するための図の一例である。図1に示すとおりコンテンツ配信システムには、実空間に存在する演者(例えば声優)のパフォーマンス(例えばフリートークライブ)に応じてコンテンツ(例えばキャラクタの動画像を含む画像コンテンツ)を生成する画像生成システム20と、画像生成システム20が生成するコンテンツを、インターネット(WAN)、LANなどのネットワークを介してユーザ(以下「視聴者」という。)の端末装置10A、10B、…へ配信するサーバ装置11とが含まれる。
画像生成システム20は、例えば実空間のスタジオに設置され、個々の視聴者が使用する端末装置10A、10B、…の各々は、視聴者が自宅や外出先などで使用する端末である。サーバ装置11は、コンテンツ配信システムの運営者の事業所などに配置される。端末装置10A、10B、…は、タブレット型情報端末装置、パーソナルコンピュータ、スマートフォン、又は、ゲーム機などの情報処理装置によって構成され、ネットワークを介してサーバ装置11に接続可能である。
なお、端末装置10Aとサーバ装置11との通信回線、画像生成システム20とサーバ装置11との通信回線は、それぞれ有線でもよいし無線でもよい。
[1.2]画像生成システムの概要
図2は、画像生成システム20を説明するための図の一例である。図2に示すとおり画像生成システム20には、実空間に存在する演者5から演者データを取得する演者データ取得部250と、当該演者5の動作を、オブジェクト空間に存在する対象キャラクタ(図3の符号8A)の動作に反映させ、オブジェクト空間で動作する対象キャラクタ8Aの動画像を含む画像コンテンツ(図3)を生成する画像生成装置20Cと、画像コンテンツ(図3)の生成中に確認用情報(図4)を表示するモニタ表示部290とが備えられる。
演者データ取得部250は、例えば、集音マイク250A及び撮像カメラ250Bなどを含み、音声データ及び画像データを含む演者データを、演者5から取得する。
画像生成装置20Cは、例えば、タブレット型情報端末装置、パーソナルコンピュータ、スマートフォン、又は、ゲーム機などの情報処理装置によって構成され、インターネット(WAN)、LANなどのネットワークを介してサーバ装置11に接続可能な装置である。また、画像生成装置20Cとサーバ装置11との通信回線は、有線でもよいし無線でもよい。
モニタ表示部290の用途は、演者5による自己の演技確認用であってもよいし、補助者(演者5を演出する者など)による演者5の演技確認用であってもよい。図4に示すとおりモニタ表示部290には各種の確認用情報が表示される。
[1.3]サーバ装置の概要
図1のサーバ装置11は、例えば、API(アプリケーションプログラミングインタフェース)や所定のプラットフォーム等を利用して、端末装置10A、10Bから視聴者情報146を収集したり、画像生成システム20へ各種のデータを提供したりする情報処理装置である。サーバ装置11は、画像生成システム20が生成した画像コンテンツを配信するためのデータ(ストリーミングデータ)を端末装置10A、10B、…へ提供する。また、サーバ装置11は、記憶領域(後述する記憶部140)を有し、端末装置10などと連動して、当該記録領域を用いて各視聴者の課金情報、行動履歴の情報(以下、「行動履歴情報」という。)などの各情報の管理を実行することもできる。ただし、サーバ装置11は、当該記憶領域に代えてネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよい。また、サーバ装置11は、1つの(装置、プロセッサ)で構成されていてもよいし、複数の(装置、プロセッサ)で構成されていてもよい。また、本実施形態では、オブジェクト空間内の対象キャラクタ8Aの動作制御を行う主体が画像生成システム20であるとして説明するが、画像生成システム20の一部の機能はサーバ装置11の側に搭載されてもよい。
[2]サーバ装置の構成
図5は、サーバ装置11の構成を示す機能ブロック図の一例である。なお、サーバ装置11は図5の構成要素(各部)の一部を省略した構成としてもよい。
サーバ装置11は、画像コンテンツの配信に関する処理を実行するサーバ処理部100、管理者やその他の入力に用いるための入力部120、所定の表示を行う表示部130、視聴者情報146などのデータを記憶する記憶部140、所定の情報が記憶された情報記憶媒体180、及び、画像生成システム20やその他と通信を行う通信部196を含む。
入力部120は、コンテンツ配信システムの管理者等が画像コンテンツに関する設定やその他の必要な設定、データの入力に用いるものである。例えば、入力部120は、マウスやキーボード等によって構成される。
表示部130は、システム管理者用の操作画面を表示するものである。例えば、本実施形態の表示部130は、液晶ディスプレイ等によって構成される。
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などによって構成される。
通信部196は、外部(例えば、端末、他のサーバや他のネットワークシステム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信
用ASICなどのハードウェアや、プログラムなどによって構成される。
記憶部140は、サーバ処理部100や通信部196などのワーク領域となるもので、その機能は、RAM(VRAM)などによって構成される。なお、記憶部140に記憶される情報は、データベースで管理してもよい。
記憶部140には、ワーク領域として使用される主記憶部142が含まれる。また、記憶部140には、視聴者に関する視聴者情報146などが記憶される。視聴者情報146には、視聴者毎に視聴者IDに対応付けて、
(1)性別、年代、居住地域などの視聴者の属性情報、
(2)好きなキャラクタなどの視聴者の嗜好情報、
(3)スマートフォンやIDタグなどの視聴者が保有する端末装置の情報(例えば、視聴者の個人を特定する情報などの視聴時の位置座標(視聴地域)を示す情報、
(4)所定のゲームにおけるプレー状況やその履歴(課金履歴も含む。)に関する情報(ゲームプレー情報)、
(5)対象キャラクタや当該対象キャラクタがパフォーマンスしている画像コンテンツに関連する所定の通販サイトや実売店舗(イベント会場内も含む)による課金情報やその課金履歴情報、
などの各情報が視聴者ID毎に格納されていてもよい。
また、課金履歴には、上記のように、ゲームにおける課金履歴、及び、サービスや商品の購入に関する課金を含み、これらの課金が実行された日時を示す課金日時、アイテムの購入やプレゼント(後述)の購入などの課金要素の種別、課金した額を示す課金額などが含まれる。
サーバ処理部100は、記憶部140内の主記憶部142をワーク領域として各種処理を行う。サーバ処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
サーバ処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
例えば、サーバ処理部100(プロセッサ)は、情報記憶媒体180に記憶されているプログラムに基づいて、サーバ装置11全体の制御を行うために、通信制御部101及び視聴者管理部103を少なくとも有している。
通信制御部101は、画像生成システム20とネットワークを介してデータを送受信する処理を行う。すなわち、通信制御部101は、画像生成システム20から画像コンテンツデータを受信したり、端末装置10から送信される視聴者情報146を受信したり、端末装置10へ画像コンテンツを配信したりする。
視聴者管理部103は、各視聴者の登録手続きに係る処理(属性情報や嗜好情報などの登録)及びアカウント(視聴者ID)に紐付けられるデータの記憶管理を行う。具体的には、視聴者管理部103は、各視聴者情報を登録管理するためのアカウントの付与制御、画像コンテンツの配信中に検出された各視聴者の視聴者情報(以下、「検出視聴者情報」ともいい、視聴者が自己の端末装置へ入力した操作コマンドなども含む。)と視聴者に関する属性情報や嗜好情報などの個人情報とを登録管理する登録情報管理、アカウントに紐付けられ課金要素の実行に係る対価の支払い原資として使用される仮想口座の設定と入出
金制御、当該アカウントの視聴者による課金要素に係る課金履歴の登録、及び、ゲーム履歴の登録などを実行する。特に、視聴者管理部103は、検出視聴者情報としては、画像生成システム20が生成した各情報を視聴者情報アカウントと紐付けて記憶及び管理を行う。
また、視聴者管理部103は、図示しないゲームサーバ装置、通販サイトを運営する管理サーバ装置、又は、クレジットカードや銀行の決済サーバ装置などの図示しない他のサーバ装置と連動し、ゲームプレー情報や課金履歴情報などのデータを授受することによって各情報の視聴者情報146への登録を実行してもよい。
[3]画像生成システムの構成
図6は、画像生成システム20の構成を示す機能ブロック図の一例である。図6において点線枠で囲った部分が画像生成装置20Cである。ただし、画像生成装置20C以外の要素の一部又は全部は、画像生成装置20Cの側に搭載されてもよいし、画像生成装置20Cの一部の要素は、画像生成装置20Cと別装置で構成されてもよい。
演者データ取得部250には、集音マイク250A、撮像カメラ250Bが含まれる。ただし、演者データ取得部250には、赤外センサ、サーモグラフィ、又は演者5に固定されたマーカユニットとその検出装置(カメラ)など、演者5の状態を検出するための各種の機能が搭載されてもよい。
入力部260は、演者5又は補助者が操作コマンドを入力するためのものであり、その機能は、タッチパネル、タッチパネル型ディスプレイ、トラックボール、キーボード、マウスなどにより実現できる。入力部260は、例えば、タッチパネルなどのタッチ操作入力を実行するデバイスによって構成されている場合には、画像が表示される画面上における2次元の指示位置座標(x,y)を検出可能な検出部262を備えている。例えば、入力部260は、接触検出領域(タッチパネル)における、2次元の接触位置座標(x,y)を検出可能な検出部262を備えている。なお、操作者用のモニタ表示部(ディスプレイ)290が、液晶ディスプレイと、操作者の接触位置を検出するためのタッチパネルとが積層されたタッチパネル型ディスプレイとなっていてもよい。すなわち、モニタ表示部290が入力部260として機能してもよい。
記憶部270は、処理部200や通信部296などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、記憶部270は、ワーク領域として使用される主記憶部271と、生成中の画像コンテンツのフレームデータ(音声データ及び画像データ)などが一時的に格納されるバッファ272と、画像コンテンツに関連する各種のデータを記憶するコンテンツデータ記憶部274と、画像コンテンツの生成に必要な各種のデータを記憶するデータベース275とを含む。
なお、これらの一部を省略する構成としてもよいし、サーバ装置11の記憶部140がその一部を構成してもよい。
情報記憶媒体280(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。
また、情報記憶媒体280には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。なお、処理部200は、後述するように、情報記憶媒体280に格納され
るプログラム(データ)に基づいて本実施形態の種々の処理を行う。
モニタ表示部290は、画像コンテンツの生成中における確認用情報(図4)や生成中の画像コンテンツ(図3)を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、HMD(ヘッドマウントディスプレイ)、例えばスクリーンとプロジェクターから構成される投影装置などにより実現できる。モニタ表示部290は、上述のように、タッチパネルディスプレイを用いることにより操作者が各種の入力を行う入力部260としても機能する。ここでタッチパネルとして、例えば抵抗膜方式(4線式、5線式)、静電容量方式、電磁誘導方式、超音波表面弾性波方式、赤外線走査方式などのタッチパネルを用いることができる。
音出力部292は、演者5から取得された演者データに含まれる音、又は、生成された画像コンテンツに含まれる音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。なお、演者5の装着するヘッドフォンからは、確認用情報として演者5の音声がリアルタイムで出力されてもよい。
通信部296は、外部(例えばホスト装置や他の端末装置)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
なお、画像生成装置20Cは、サーバ装置11が有する情報記憶媒体や記憶部270に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体280や記憶部270に記憶してもよい。このようにプログラムやデータを受信して画像生成装置20Cを機能させる場合も本発明の範囲内に含めることができる。
処理部200は、記憶部270をワーク領域として各種処理を行う。処理部200の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
特に、本実施形態の処理部200は、オブジェクト空間設定部210と、モニタ表示制御部213と、移動処理部215と、仮想カメラ制御部216と、コンテンツ管理部219と、描画部220と、音処理部230と、データベース管理部241と、キャラクタ設定部210Aと、演者データ入力受付部242と、単語抽出処理部243と、第1のパラメータ生成処理部244と、状態判定部245と、第2のパラメータ生成処理部246と、操作コマンド選定部247と、動作制御部248と、画像生成部249と、画像出力部240と、を含む。また、これらの一部を省略する構成としてもよい。
オブジェクト空間設定部210は、キャラクタオブジェクト(対象キャラクタ)、移動経路、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(スプライト、ビルボード、ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間(すなわち、ゲーム空間)に配置設定する処理を行う。
具体的にはオブジェクト空間設定部210は、オブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y)或いは(X、Y、Z)にその回転角度(X、Y軸回りでの回転角度)或いは(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。
なお、オブジェクト空間とは、いわゆる仮想2次元空間、仮想3次元空間の両方を含む
。2次元空間とは、例えば2次元座標(X,Y)においてオブジェクトが配置される空間であり、3次元空間とは、例えば3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。
そして、オブジェクト空間を2次元空間とした場合には、複数のオブジェクトそれぞれについて設定された優先順位に基づいてオブジェクトを配置する。例えば、奥側にあるように見せたいオブジェクト(スプライト)から順にオブジェクトを配置し、手前側にあるように見せたいオブジェクトを重ねて配置する処理を行うことができる。
また、描画サイズが大きなオブジェクトを画像の下方に配置し、描画サイズが小さなオブジェクトを画像の上方に配置すれば、画面の上方に対応するオブジェクト空間が奥側にあるように見せることができ、画面の下方に対応するオブジェクト空間が手前側にあるように見せることができる。
一方、オブジェクト空間を3次元空間とした場合には、ワールド座標系にオブジェクトを配置する。
モニタ表示制御部213は、生成中の画像コンテンツ(図3)をモニタ表示部290に表示するとともに、演者5や補助者を支援する確認用情報(図4)の表示をモニタ表示部290に行う。
移動処理部215は、オブジェクト空間内におけるオブジェクトの移動演算を行う。すなわち、移動処理部215は、後述する方法で選定された操作コマンド、プログラム(移動アルゴリズム)、各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。
具体的には、本実施形態の移動処理部215は、オブジェクトの移動情報(移動方向、移動量、移動速度、位置、回転角度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム毎に順次求めるシミュレーション処理を行う。ここでフレームとは、オブジェクトの移動処理、動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは、固定としてもよいし、処理負荷に応じて可変としてもよい。
仮想カメラ制御部216は、所与の視点から見える画像であって、奥行きがあるように見える画像を生成する。この場合に、仮想カメラ制御部216が、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。
例えば、仮想カメラによりオブジェクト(例えば、キャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。
この場合には、移動処理部215で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させたりする制御を行ってもよい。また、この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。
なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。
コンテンツ管理部219は、画像コンテンツの生成中に採用された操作コマンドの種別及びタイミングをコンテンツ生成情報としてコンテンツデータ記憶部274に記録する。例えば、コンテンツ管理部219は、画像コンテンツの各区間に適用された操作コマンドを、区間毎にコンテンツデータ記憶部274へ記憶する。
描画部220は、処理部200で行われる種々の処理(画像コンテンツの配信に関する各処理)の結果に基づいて描画処理を行い、これにより画像コンテンツに含まれる画像を生成する。
また、描画部220が生成する画像は、いわゆる2次元画像であってもよいし、いわゆる3次元画像であってもよく、描画部220は、オブジェクト空間における仮想カメラから見える画像を、画像コンテンツに含まれる画像として生成する。
ここで2次元画像を生成する場合には、描画部220は、設定された優先度が低いオブジェクトから順に描画して、オブジェクト同士が重なる場合には、優先度の高いオブジェクトを上書きして描画する。
また、3次元画像を生成する場合には、描画部220は、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。
また、頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。
ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色をバッファ272(フレームバッファ、ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。
これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。
なお、描画部220が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセル
シェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。そして、描画部220は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。
ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を行う。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を記憶部270に記憶する。
テクスチャマッピングでは、記憶部270のテクスチャ記憶部に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部270のテクスチャ記憶部からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出し、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。
なお、本実施形態では、オブジェクトを描画する際に、所与のテクスチャをマッピングする処理を行うようにしてもよい。この場合には、マッピングされるテクスチャの色分布(テクセルパターン)を動的に変化させることができる。
また、この場合において、色分布(ピクセルパターン)が異なるテクスチャを動的に生成してもよいし、複数の色分布が異なるテクスチャを予め用意しておき、使用するテクスチャを動的に切り替えるようにしてもよい。またオブジェクト単位でテクスチャの色分布を変化させてもよい。
隠面消去処理では、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。すなわち、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照するとともに、当該参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。
αブレンディング(α合成)では、描画部220は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。
音処理部230は、処理部200で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などの対象キャラクタがパフォーマンスを実行する際の各種の音を生成し、音出力部292に出力する。
データベース管理部241は、データベース275を管理する。データベース275の管理には、データベース275に格納された、キャラクタテーブル(図7)、単語テーブル(図8)、状態テーブル(図9)、コマンドテーブル(図10)、補正テーブル(図11)、対応テーブル(図14、図16)などの管理が含まれる。
オブジェクト空間設定部210のキャラクタ設定部210Aは、演者5又は補助者の指示に基づいて、複数のキャラクタの中から対象キャラクタを選定してオブジェクト空間へ設定する処理を実行する。
演者データ入力受付部242は、トークライブ中に、演者5の音声を含む演者データの入力を受け付ける。
単語抽出処理部243は、入力された演者データに含まれる音声に対するテキスト変換処理に基づき、音声をテキストに変換し、演者5が発語した単語を当該テキストから抽出する。
第1のパラメータ生成処理部244は、単語抽出処理部243が抽出した単語の感情属性をデータベース275の単語テーブル(図8)に基づき特定し、当該感情属性に応じた第1のパラメータを生成する。
状態判定部245は、入力した演者データの少なくとも一部と状態判定用の基準データとに基づき演者5の状態(ここでは主に所作)を判定する。
第2のパラメータ生成処理部246は、状態判定部245が判定した状態(所作)の感情属性をデータベース275の状態テーブル(図9)に基づき特定し、当該感情属性に応じた第2のパラメータを生成する。
操作コマンド選定部247は、複数の操作コマンドの中から、対象キャラクタ8Aの動作の制御に用いるべき1又は複数の操作コマンドを、第1のパラメータと、第2のパラメータと、選定した対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する。
動作制御部248は、オブジェクト空間に設定された対象キャラクタ8Aの動作を、選定された操作コマンドに基づき制御する。
画像生成部249は、オブジェクト空間内で動作する対象キャラクタ8Aの画像データ(図3)を生成する。
画像出力部240は、生成された対象キャラクタ8Aの画像データを含む画像コンテンツを、サーバ装置11へ出力する。
データベース275は、キャラクタテーブル(図7)、単語テーブル(図8)、状態テーブル(図9)、コマンドテーブル(図10)、補正テーブル(図11)、対応テーブル(図14、図16)などを記憶する。
[4]本実施形態の手法
[4.1]概要
次に、本実施形態の手法(画像コンテンツの生成処理)の概要について説明する。
本実施形態の画像生成装置20Cは、実空間に存在する演者5の動作を、オブジェクト空間に存在する対象キャラクタ8Aの動作に反映させ、オブジェクト空間で動作する対象キャラクタ8Aの画像(図3)のデータ(以下、画像データという。)を生成する。
ここで、「演者5」には、声優、俳優、アイドル、司会者、講演者(落語家、漫談家などを含む)などが含まれ、一般人が含まれる。ただし、ここでは「声優」を想定する。
また、「演者5の動作」には、演者5が言葉を提示する行為、所作、表情などが含まれる。
また、「演者5による提示」には、演者5が身体の少なくとも一部で表現することや、演者5が(言葉や単語を)を意図することなどが含まれてもよく、例えば、テキストのタイピング入力、テキストのフリック入力、言葉の音声入力(発語)、口唇形状変化による言葉の入力などが含まれてもよい。よって、「演者5による単語の提示」には、演者5の発語による単語の入力、演者5のタイピングによる単語の入力、演者5が唇の形で意図しこれを画像解析で読み取った単語の入力、演者5がジャスチャー(手話など)で意図しこれを画像解析で読み取った単語の入力などが含まれる。但し、本実施形態では、「演者5による提示」として、「演者5による発語」が採用された場合を想定する。
また、「対象キャラクタ8Aの動作」には、対象キャラクタ8Aによる発語、所作、表情などが含まれる。ここでは、対象キャラクタ8Aの発語は、基本的に演者5の発語と同じに設定され、対象キャラクタ8Aの発言の語尾が操作コマンドに応じて制御される場合を想定する。また、ここでは、対象キャラクタ8Aの音色(声色、周波数スペクトルともいう。)は、対象キャラクタ8Aのキャラクタ属性に予め対応付けられた声色に設定され、対象キャラクタ8Aの所作及び表情が操作コマンド(後述)に応じて制御されるものとする。ただし、演者5の音声を加工せずにそのまま対象キャラクタ8Aの音声として用いることも当然に可能である。
また、「オブジェクト空間」には、キャラクタを含むオブジェクトが配置された2次元又は3次元の仮想空間が含まれる。図3では、オブジェクト空間として3次元の仮想空間を想定している。
本実施形態の画像生成装置20Cにおいては、演者5の動作が仮に同じであったとしても、選定された対象キャラクタ8Aの属性によって対象キャラクタ8Aの動作が変化し得るので、対象キャラクタ8Aの画像コンテンツ(図3)を観覧する視聴者は、演者5の発語した単語や演者5の状態(所作)に現れる感情のみならず、当該対象キャラクタ8Aの属性すなわち対象キャラクタ8Aらしさを、対象キャラクタ8Aの動作を通じて知覚することができる。一方、演者5の側には、自分の発語する言葉や自分の状態(所作)を意識的して変化させずとも、対象キャラクタ8Aのキャラクタ属性を変更するだけで、対象キャラクタ8Aの動作の傾向を変化させることができるという利点がある。したがって、演者が特別な演技をせずともキャラクタらしさを視聴者へアピールすることができるので、当該キャラクタに対する好悪の印象を強く視聴者に与えることができる。
[4.2]データベースに格納された情報
次に、データベース275(図6)に格納されたキャラクタテーブル(図7)、単語テーブル(図8)、状態テーブル(図9)、及びコマンドテーブル(図10)を、順に説明する。これらのテーブルは、画像コンテンツの生成処理を実行する際に利用される。
[4.2.1]キャラクタテーブル
図7に示すとおり、キャラクタテーブルには、複数のキャラクタのキャラクタ名と、キャラクタ名のそれぞれに対応付けられたキャラクタ属性と、当該キャラクタ属性に対応付けられて規定されたポジティブレベルを数値化したポジティブ点数とが、キャラクタIDごとに予め書き込まれている。
図7の例では、キャラクタID「C001」のキャラクタAには、「陽気な中年男性」というキャラクタ属性が対応付けられており、「陽気な中年男性」というキャラクタ属性
には、ポジティブ点数「15」が対応付けられている。
ここで、キャラクタ属性に対応するポジティブ点数は、当該キャラクタ属性に含まれる感情属性(当該キャラクタ属性の抱き易い感情の傾向)を二極化して数値化したものである。すなわち、個々の感情属性は、当該感情属性の名称から一般的に想起される印象に基づき、予め「ポジティブ」と「ネガティブ」との2つのクラス(2極)に分類されており、「ポジティブ」に属する感情属性には、ポジティブ点数として正の値が割り当てられ、「ネガティブ」に属する感情属性には、ポジティブ点数として負の値が割り当てられる。また、個々の感情属性は、当該感情属性の名称から一般的に想起される感情の激しさに応じてレベル分けされており、レベルの高い感情属性ほどポジティブ点数の絶対値として大きな値が割り当てられる。
よって、例えば、キャラクタID「C007」の「陽気な少女」というキャラクタ属性には、当該キャラクタ属性「陽気な少女」に含まれる感情属性「陽気」に係るポジティブ点数「15」が対応付けられており、キャラクタID「C010」の「やや陽気な中年男性」というキャラクタ属性には、当該キャラクタ属性「やや陽気な中年男性」に含まれる感情属性「やや陽気」に係るポジティブ点数「10」が対応付けられており、キャラクタID「C021」の「陰気な少女」というキャラクタ属性には、当該キャラクタ属性「陰気な少女」に含まれる感情属性「陰気」に係るポジティブ点数「−10」が対応付けられている。
以上のとおり、本実施形態のキャラクタテーブル(図7)では、感情が激しくポジティブな印象のキャラクタほど高いポジティブ点数が対応付けられている。なお、図7では感情属性として「陽気」、「陰気」、「落ち着いた」、「神経質」などの表現を用いたが、「プラス思考」、「積極的」、「消極的」、「マイナス思考」、「喜」、「怒」、「哀」、「楽」、「驚」などの表現を用いてもよい。何れの表現を用いたとしても、当該表現から一般的に想起される印象に基づきポジティブ点数が割り当てられることが望ましい。
[4.2.2]単語テーブル
図8に示すとおり、単語テーブルには、演者5が発語し得る複数の単語と、単語のそれぞれに対応付けられて規定された感情属性と、当該感情属性に対応付けられて規定されたポジティブ点数とが、単語IDごとに予め書き込まれている。
図8の例では、単語ID「W001」の単語「やったね」には、「ポジティブ」という感情属性が対応付けられており、感情属性「ポジティブ」には、ポジティブ点数「15」が対応付けられている。また、単語ID「W030」の単語「お腹すいた」には、「ネガティブ」という感情属性が対応付けられており、感情属性「ネガティブ」には、ポジティブ点数「−10」が対応付けられている。
ここで、感情属性に対応するポジティブ点数は、当該感情属性を二極化して数値化したものである。すなわち、個々の感情属性は、当該感情属性の名称から一般的に想起される印象に基づき、予め「ポジティブ」と「ネガティブ」との2つのクラス(2極)に分類されており、「ポジティブ」に属する感情属性には、ポジティブ点数として正の値が割り当てられ、「ネガティブ」に属する感情属性には、ポジティブ点数として負の値が割り当てられる。また、個々の感情属性は、当該感情属性の名称から一般的に想起される感情の激しさに応じてレベル分けされており、レベルの高い感情属性ほどポジティブ点数の絶対値として大きな値が割り当てられる。なお、図8で割り当てられた数値はあくまでも一例であって、数値の割り当ては適宜に変更が可能である。
よって、例えば、単語ID「W001」の「やったね」という単語には、相対的に高い
ポジティブ点数「15」が対応付けられており、単語ID「W030」の「おなかすいた」には、相対的に低いポジティブ点数「−5」が対応付けられている。
以上のとおり、本実施形態の単語テーブル(図8)では、感情が激しくポジティブな印象の単語ほど高いポジティブ点数が対応付けられている。なお、図8では感情属性として「ポジティブ」、「ややポジティブ」、「フラット」、「ややネガティブ」などの表現を用いたが、「プラス思考」、「積極的」、「消極的」、「マイナス思考」、「喜」、「怒」、「哀」、「楽」、「驚」などの表現を用いてもよい。何れの表現を用いたとしても、当該表現から一般的に想起される印象に基づきポジティブ点数が割り当てられることが望ましい。
[4.2.3]状態テーブル
図9に示すとおり、状態テーブルには、演者5の採り得る複数の状態(以下、演者5の状態として動作のうち特に「所作」に着目する。)と、複数の状態(所作)のそれぞれに対応付けられて規定された感情属性と、当該感情属性に対応付けられて規定されたポジティブ点数とが、状態IDごとに予め書き込まれている。
図9の例では、状態ID「M001」の状態(所作)「ジャンプジェスチャー」には、ジャンプジェスチャーから一般に想起される「楽」という感情属性が対応付けられており、感情属性「楽」には、ポジティブ点数「15」が対応付けられている。また、状態ID「M030」の状態(所作)「バンザイジェスチャー」には、バンザイジェスチャーから一般に想起される「驚」という感情属性が対応付けられており、感情属性「驚」には、ポジティブ点数「−5」が対応付けられている。
ここで、感情属性に対応するポジティブ点数は、当該感情属性(喜怒哀楽驚の別)を二極化して数値化したものである。すなわち、個々の感情属性は、当該感情属性(喜怒哀楽驚の別)から一般的に想起される印象に基づき、予め「ポジティブ」と「ネガティブ」との2つのクラス(2極)に分類されており、「ポジティブ」に属する感情属性「楽」、「喜」などには、ポジティブ点数として正の値が割り当てられ、「ネガティブ」に属する感情属性「驚」には、ポジティブ点数として負の値が割り当てられる。また、個々の感情属性は、当該感情属性(喜怒哀楽驚の別)から一般的に想起される感情の激しさに応じてレベル分けされており、レベルの高い感情属性ほどポジティブ点数の絶対値として大きな値が割り当てられる。なお、図9で割り当てられた数値はあくまでも一例であって、数値の割り当ては適宜に変更が可能である。
よって、ポジティブな感情を表す状態(所作)「ジャンプジェスチャー」には、相対的に高いポジティブ点数「15」が対応付けられており、ネガティブな感情を表す状態(所作)「腕組みジェスチャー」には、相対的に低いポジティブ点数「0.3」が対応付けられている。
以上のとおり、本実施形態の状態テーブル(図9)では、感情が激しくポジティブな印象の所作ほど高いポジティブ点数が対応付けられている。なお、図9では感情属性として「楽」、「喜」、「哀」、「怒」、「驚」などの表現を用いたが、「プラス思考」、「積極的」、「消極的」、「マイナス思考」、「ポジティブ」、「ややポジティブ」、「フラット」、「ややネガティブ」、「ネガティブ」などの表現を用いてもよい。何れの表現を用いたとしても、当該表現から一般的に想起される印象に基づきポジティブ点数が割り当てられることが望ましい。
[4.2.4]コマンドテーブル
図10に示すとおり、コマンドテーブルには、対象キャラクタ8Aの動作を制御する複
数の操作コマンドが、コマンドIDごとに予め書き込まれている。ただし、図10ではコマンドIDの代わりに符号a1、a2、…、b1、b2、…、c1、c2、…、d1、d2、…によって操作コマンドを区別している。ここでは、操作コマンドには、表情コマンドa1,a2,…と、所作コマンドb1,b2,…と、視覚効果コマンドc1,c2,…と、発語コマンドd1,d2,…の4種類が含まれるものとする。また、本実施形態では、トークライブ中の区間ごとに、表情コマンドa1,a2,…の何れか1つと、ジェスチャーコマンドb1,b2,…の何れか1つと、視覚効果コマンドc1,c2,…の何れか1つと、発語コマンドd1,d2,…の何れか1つとが選定され、選定された4つの操作コマンドの組み合わせに応じて、区間における対象キャラクタ8Aの動作が制御されるものとする。以下、表情コマンド、所作コマンド、視覚効果コマンド、発語コマンドの具体例を順に説明する。
[4.2.4.1]表情コマンド
例えば、表情コマンドには、対象キャラクタ8Aの表情を笑った表情にするコマンドa1、対象キャラクタ8Aの表情をはにかんだ表情にするコマンドa2、対象キャラクタ8Aの表情を無表情にするコマンドa3、対象キャラクタ8Aの表情を怒った表情にするコマンドa4と、対象キャラクタ8Aの表情を驚いた表情にするコマンドa5、…などが含まれる。
[4.2.4.2]所作コマンド
例えば、所作コマンドには、対象キャラクタ8Aにジャンプジェスチャーをさせるコマンドb1、対象キャラクタ8Aに片手上げジェスチャーをさせるコマンドb2、対象キャラクタ8Aを静止状態にするコマンドb3、対象キャラクタ8Aに手で顔を覆うジェスチャーをさせるコマンドb4、対象キャラクタ8Aにバンザイジェスチャーをさせるコマンドb5、…などが含まれる。
[4.2.4.3]視覚効果コマンド
例えば、視覚効果コマンドには、オブジェクト空間にスターマーク(スターオブジェクト)を発生させるコマンドc1、オブジェクト空間にハートマーク(ハートオブジェクト)を発生させるコマンドc2、オブジェクト空間にいずれのオブジェクトをも発生させないコマンドc3、…などが含まれる。
[4.2.4.4]発語コマンド
例えば、発語コマンドには、対象キャラクタ8Aの発語する言葉の語尾や表現を特定地方の方言に変換するコマンド、対象キャラクタ8aの発語する言葉の語尾を特定の語尾に変換するコマンド、対象キャラクタ8aの発語する言葉の語尾や表現を女性言葉の語尾に変換するコマンド、対象キャラクタ8aの発語する言葉の語尾や表現を男性言葉の語尾に変換するコマンド、…などが含まれる。
[4.3]画像生成処理に関連する要素
次に、図6の画像生成装置20Cのうち特に画像コンテンツの生成処理に関連する要素について詳しく説明する。画像コンテンツの生成処理に関連する要素は、例えば、データベース管理部241、演者データ入力受付部242、単語抽出処理部243、第1のパラメータ生成処理部244、状態判定部245、第2のパラメータ生成処理部246、操作コマンド選定部247、動作制御部248、画像生成部249、画像出力部2491、及びキャラクタ設定部210Aである。
[4.3.1]データベース管理部
データベース管理部241は、複数のキャラクタのそれぞれに対応付けられたキャラクタ属性(図7のキャラクタテーブル)と、演者5が発語し得る複数の単語のそれぞれに対
応付けられて規定された感情属性(図8の単語テーブル)と、演者5の採り得る複数の状態(所作)のそれぞれに対応付けられて規定された感情属性(図9の状態テーブル)と、対象キャラクタ8Aの動作を制御する複数の操作コマンド(図10のコマンドテーブル)と、を記憶したデータベース275を管理する。
例えば、データベース管理部241は、トークライブ中に必要に応じてキャラクタテーブル(図7)、単語テーブル(図8)、状態テーブル(図9)、コマンドテーブル(図10)を読み出したり、トークライブの開始前後に、コンテンツ配信システムの管理者からの要求に応じて、キャラクタテーブル(図7)、単語テーブル(図8)、状態テーブル(図9)、コマンドテーブル(図10)の内容を更新したりする処理を実行する。
なお、データベース275には、後述する状態判定用の基準データ、後述する対応テーブル(図14)なども予め格納されてり、これらのデータも必要に応じてデータベース管理部241によって読み出されるものとする。
[4.3.2]キャラクタ設定部
キャラクタ設定部210Aは、演者5又は補助者の指示に基づいて、複数のキャラクタの中から対象キャラクタを選定してオブジェクト空間へ設定する。例えば、キャラクタ設定部210Aは、トークライブの開始に先立ち、入力部260を介して演者5又は不図示の補助者から、キャラクタを指定する操作入力を受付け、当該操作入力に基づき演者5又は補助者の指定したキャラクタを特定すると、特定したキャラクタを対象キャラクタ8Aとしてオブジェクト空間へ設定する。
[4.3.3]演者データ入力受付部
演者データ入力受付部242は、トークライブ中に、演者5の発語した単語を含む演者データ(音声データ及び画像データ)の入力を受け付ける。例えば、演者データ入力受付部242は、トークライブ中に演者データ取得部250が所定周期でサンプリングする演者データ(音声データ及び画像データ)を、当該サンプリング周期と同じ周期で受付け、当該演者データ(音声データ及び画像データ)をバッファ272に一時的に蓄積する。本実施形態では、バッファ272に蓄積された区間の演者データ(音声データ及び画像データ)に基づき、画像コンテンツの該当区間のフレームデータ(音声データ及び画像データ)が生成される。
なお、演者データ入力受付部242は、トークライブ中に演者データ取得部250がサンプリングした全区間の演者データを、トークライブの終了後に、画像コンテンツの基となった演技のファイルとして、コンテンツデータ記憶部274に保存してもよい。
[4.3.4]単語抽出処理部
単語抽出処理部243は、入力された演者データに含まれる音声に対するテキスト変換処理に基づき、音声をテキストに変換し、演者5が発語した単語を当該テキストから抽出する。
ここで、「テキストへの変換」には、所与の言語モデルが利用されてもよい。また、「単語抽出処理」には、言語解析を実行してテキストから単語を認識すると共に、「てにをは」や「疑問形」、「断定」などの言語体系を認識(形態素解析や構文解析)する処理が含まれてもよい。
例えば、単語抽出処理部243は、バッファ272に蓄積された区間の演者データに含まれる音声データを参照し、当該音声データにテキスト変換処理を施すことにより、当該音声データをテキストデータに変換する。このテキストデータには、単語を表すテキスト
のほか、「てにをは」を示すテキストなども含まれる。そして、単語抽出処理部243は、テキストデータから予め単語テーブルに登録された単語(例えば、名詞や動詞)を抽出する。
[4.3.5]第1のパラメータ生成処理部
第1のパラメータ生成処理部244は、単語抽出処理部243が抽出した単語の感情属性をデータベース275の単語テーブル(図8)に基づき特定し、当該感情属性に応じた第1のパラメータを生成する。
ここで、「第1のパラメータ」には、演者5の発語した単語に反映された感情のネガティブ度又はポジティブ度を示す数値(点数、ランク、レベル、段階、符号など)が含まれる。
例えば、第1のパラメータ生成処理部244は、単語抽出処理部243が抽出した単語に応じて単語テーブル(図8)を参照し、当該単語に対応付けられたポジティブ点数を、第1のパラメータとして生成する。
また、「第1のパラメータの生成」は、言語体系まで加味して行われてもよい。例えば、第1のパラメータ生成処理部244は、単語抽出処理部243が抽出した1又は複数の単語に応じて単語テーブル(図8)を参照し、当該1又は複数の単語に対応付けられた感情属性を認識すると、これら感情属性のうち最も優勢な(多数派の)感情属性に対応するポジティブ点数を、第1のパラメータとして生成する。このように、単語テーブル(図8)を利用すれば、複雑な演算処理を要しないので、第1のパラメータを高速に生成することができる。
また、例えば、第1のパラメータ生成処理部244は、前述したテキストデータに「泣きたいわ」というテキストが含まれていた場合に、単語「泣く」に対応付けられたポジティブ点数を単語テーブル(図8)に基づき認識すると共に、当該単語「泣く」の前後に現れた言語体系(「てにをは」の種別、「疑問形であるか否か」、「断定形であるか否か」の情報)に応じた補正を当該ポジティブ点数に施すことにより、第1のパラメータを生成してもよい。その場合、前述したテキストデータに同じ単語「泣く」が含まれる場合であっても、発語が「泣く気分」であった場合と「泣きたいね」であった場合とで第1のパラメータが異なる数値になることがある。
[4.3.6]状態判定部
状態判定部245は、入力した演者データの少なくとも一部と状態判定用の基準データとに基づき演者5の状態(所作)を判定する。
ここで、「演者データの少なくとも一部」には、音声の振幅データ、音声の周波数スペクトルデータ、身体データ(身体の画像データなど)、表情データ(顔の画像データなど)などが含まれてもよい。
また、「状態判定用の基準データ」には、所与のテンプレート、所与の音響モデルなどが含まれる。ただし、状態として所作のみを判定する場合には、基準データとしての音響モデルは必須ではない。
例えば、状態判定部245は、以下の処理(i)〜(iii)を実行する。
(i)状態判定部245は、バッファ272に蓄積された区間の演者データに含まれる複数フレーム分の画像データを参照し、当該区間の複数フレーム分の画像データから、演者
5の所作が反映された特徴パターン(時系列パターン)を抽出する処理を実行する。
(ii)状態判定部245は、抽出した特徴パターンと、状態判定用の基準データ(所作毎のテンプレート)との相関を、所作毎に算出する処理を実行する。なお、状態判定用の基準データ(所作毎のテンプレート)は、例えば、データベース275に予め格納されている。
(iii)状態判定部245は、当該相関が最も高かった所作を、演者5の行った所作であると判定する。
[4.3.7]第2のパラメータ生成処理部
第2のパラメータ生成処理部246は、判定した状態(所作)の感情属性をデータベース275の状態テーブル(図9)に基づき特定し、当該感情属性に応じた第2のパラメータを生成する。
ここで、「第2のパラメータ」には、演者5の状態(所作)に反映された感情のネガティブ度又はポジティブ度を示す数値(点数、ランク、レベル、段階、符号など)が含まれる。
例えば、第2のパラメータ生成処理部246は、状態判定部245が判定した所作に応じて状態テーブル(図9)を参照し、当該所作に対応付けられたポジティブ点数を、第2のパラメータとして生成する。このように、状態テーブル(図9)を利用すれば、複雑な演算処理を要しないので、第2のパラメータを高速に生成することができる。
また、例えば、第2のパラメータ生成処理部246は、状態判定部2453が判定した1又は複数の所作に応じて状態テーブル(図9)を参照し、当該1又は複数の所作に対応付けられた感情属性を認識すると、これら感情属性のうち最も優勢な(多数派の)感情属性に対応するポジティブ点数を、第2のパラメータとして生成する。このように、状態テーブル(図9)を利用すれば、複雑な演算処理を要しないので、第2のパラメータを高速に生成することができる。
[4.3.8]操作コマンド選定部
操作コマンド選定部247は、複数の操作コマンドの中から、対象キャラクタ8Aの動作の制御に用いるべき1又は複数の操作コマンドを、第1のパラメータと、第2のパラメータと、選定した対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する。
ここで、操作コマンド選定部247は、対象キャラクタのキャラクタ属性を、第1のパラメータ及び第2のパラメータの少なくとも一方の補正に用いることもできるし(後述する第1の選定処理)、第3のパラメータの生成に用いることもできる(後述する第2の選定処理、第3の選定処理)。
ただし、本実施形態では、第1の選定処理の機能と、第2の選定処理の機能と、第3の選定処理の機能との全部が画像生成装置20Cに搭載されていることは必須ではなく、これら機能の一部を省略することも可能である。第1の選定処理、第2の選定処理、第3の選定処理の詳細は後述する。
[4.3.9]動作制御部
動作制御部248は、オブジェクト空間に設定された対象キャラクタ8A(図3)の動作を、選定された操作コマンドに基づき制御する。例えば、操作コマンド選定部247の
選定した操作コマンドが、「ウィンク」という表情コマンドと、「上手振りジェスチャー」という所作コマンドと、「ハートマーク」という視覚効果コマンドと、「「にゃ」付加」という発語コマンドとの組み合わせであった場合、動作制御部248は、これらの操作コマンドに基づき、対象キャラクタ8Aにウィンクさせ、上手振りジェスチャーをさせ、ハートマークを発生させ、かつ、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する制御を実行する。
[4.3.10]画像生成部
画像生成部249は、オブジェクト空間内で動作する対象キャラクタ8Aの画像データ(図3)を生成する。
例えば、画像生成部249は、バッファ272に蓄積された区間の演者データに基づき、オブジェクト空間内の前述した仮想カメラを視点とした画像データを生成してバッファ272に書き込む処理を、バッファ272に次の区間の演者データが蓄積されるまでの期間内に実行する。また、画像生成部249は、当該区間の画像データを生成して書き込む処理を、トークライブ中に繰り返し実行する。トークライブの開始から終了までの期間(又はこれに対応する期間)にバッファ272に書き込まれた全区間の画像データが画像コンテンツである。
なお、本実施形態では、画像生成部249が生成してバッファ272へ書き込む画像データには、対象キャラクタ8Aの発する音声の音声データが付加されている。対象キャラクタ8aの発する音声は、基本的に、演者5が発する音声と同様であるが、演者5の発する音声に対して、発語コマンドに基づく語尾の変換処理や、対象キャラクタ8aのキャラクタ属性に応じた周波数変換処理(声色の変換処理)などが施されている場合がある。以下、音声データの付加された画像データを「音声付き画像データ」という。
[4.3.11]画像出力部
画像出力部240は、生成された対象キャラクタ8Aの画像データ(図3)を出力する。
例えば、画像出力部240は、バッファ272に逐次に蓄積される各区間の音声付き画像データを、サーバ装置11へ逐次に送信する。サーバ装置11は、画像生成システム20から逐次に受信する音声付き画像データをストリーミングデータとしてネットワークを介して各視聴者の端末装置10A、10B、10C、…へ配信(ライブ配信)する。
なお、画像出力部240は、トークライブ中に生成された全区間の音声付き画像データを、画像コンテンツのファイルとしてコンテンツデータ記憶部274に保存してもよい。このファイルは、画像コンテンツの録画配信などに用いることができる。
[4.4]第1の選定処理
[4.4.1]概要
以下、操作コマンドを選定する第1の選定処理について説明する。
第1の選定処理において、
操作コマンド選定部247は、
操作コマンドの選定を行う前に、対象キャラクタ8Aのキャラクタ属性に応じて第1のパラメータ及び第2のパラメータの少なくとも一方を補正する処理を実行する。
上記構成によれば、第1のパラメータ及び第2のパラメータから操作コマンドを選定するための選定基準と同じ選定基準を用いることが可能である。従って、第1のパラメータ
及び第2のパラメータから操作コマンドを選定するアルゴリズムが既存である場合に、これを有効活用することができる。
また、操作コマンド選定部247は、
補正後の第1のパラメータ及び第2のパラメータの組み合わせ(総合値)が所与の条件を満たす場合には、補正後の第1のパラメータ及び第2のパラメータに基づき操作コマンドの選定を行い、所与の条件を満たさない場合には、補正前の第1のパラメータ及び第2のパラメータに基づき操作コマンドの選定を行う。
上記構成によれば、対象キャラクタ8Aの動作にキャラクタ属性が反映されるタイミングを所与の条件の下で制御することができる。例えば、当該組み合わせが特定の組み合わせである場合にキャラクタ属性を反映させ、そうでない場合にキャラクタ属性を反映させないという制御も可能である。したがって、対象キャラクタ8Aの動作に対象キャラクタ8Aらしさが発現することへの視聴者の期待を高めることができる。この場合、対象キャラクタ8Aの画像コンテンツ(図3)を観覧する視聴者は、対象キャラクタ8Aらしさを適当なタイミングで効果的に知覚することができる。
[4.4.2]補正テーブル
第1の選定処理を実現するために、データベース275には補正テーブル(図11)が予め格納される。補正テーブルは、図11に示すとおり、複数の補正係数を予め格納したテーブルである。複数の補正係数は、対象キャラクタ8Aのキャラクタ属性毎、かつ、演者5の状態(所作)に係る感情属性毎に、格納されている。なお、ここでは演者5の状態(所作)に係る感情属性を「喜」「怒」「哀」「楽」「驚」で表した。
図11の補正テーブルにおいては、対象キャラクタのキャラクタ属性が「神経質な中年男性」であり、かつ、演者5の状態(所作)に係る感情属性が「楽」である場合に、補正係数「2.0」が対応付けられている。
また、図11の補正テーブルにおいては、対象キャラクタのキャラクタ属性が「神経質な中年男性」であり、かつ、演者5の状態(所作)に係る感情属性が「喜」である場合に、補正係数「1.2」が対応付けられている。
また、図11の補正テーブルにおいては、対象キャラクタのキャラクタ属性が「神経質な中年男性」であり、かつ、演者5の状態(所作)に係る感情属性が「哀」である場合に、補正係数「1.2」が対応付けられている。
また、図11の補正テーブルにおいては、対象キャラクタのキャラクタ属性が「神経質な中年男性」であり、かつ、演者5の状態(所作)に係る感情属性が「怒」である場合に、補正係数「0.3」が対応付けられている。
このように、同一のキャラクタ属性であっても、演者5の状態(所作)によって補正係数が変化する。この補正係数は、第1のパラメータ及び第2のパラメータを補正する際に用いられる。
[4.4.3]補正処理
本実施形態の画像生成装置20Cにおいて、
操作コマンド選定部247は、
操作コマンドの選定を行う前に、対象キャラクタ8Aのキャラクタ属性と、演者5の行った所作(状態判定部245によって判定された所作)に対応する感情属性とに応じて、補正テーブル(図11)を参照し、当該キャラクタ属性及び感情属性の組み合わせに対応
する補正係数を特定する。そして、操作コマンド選定部247は、特定した補正係数を、第1のパラメータ及び第2のパラメータの総合値(ここでは第1のパラメータ及び第2のパラメータの和とする。)に乗算することにより、当該総合値を補正する処理を実行する。
図12は、上記の補正テーブル(図11)を用いた補正処理を説明する図である。
図12に示す例では、対象キャラクタ8Aのキャラクタ属性が「神経質な中年男性」であり、演者5の発語した単語が「つまらない」である場合における補正処理を示している。対象キャラクタ8Aのキャラクタ属性が「神経質な中年男性」である場合には、補正テーブル(図11)のうち、「神経質な中年男性」に対応する補正係数「2.0」、「1.2」、「1.2」、「0.3」、「2.0」が用いられる(以下、これらの補正係数を、「神経質な中年男性用の補正係数」という。)。
そして、図12の各段には、演者5の状態(所作)が互いに異なる場合の例を示している。図12の1段目(最上段)の表は、演者5の所作が「片手上げジェスチャー」であった場合の例であり、2段目の表は、演者5の所作が「腕組みジェスチャー」であった場合の例であり、3段目の表は、演者5の所作が「手で顔を覆うジェスチャー」であった場合の例であり、4段目の表は、演者5の所作が「ジャンプジェスチャー」であった場合の例であり、5段目の表は、演者5の所作が「バンザイジェスチャー」であった場合の例である。
1段目に示すとおり、演者5の状態(所作)が「片手上げジェスチャー」であった場合には、神経質な中年男性用の補正係数のうち、片手上げジェスチャーに対応する感情属性「喜」に対応付けられた補正係数「1.2」が適用される。この場合、第1のパラメータは「−5」、第2のパラメータは「10」、補正前の総合値は「5」であるので、補正係数「1.2」が乗算されることにより、補正後の総合値は「6」となる。
2段目に示すとおり、演者5の状態(所作)が「腕組みジェスチャー」であった場合には、神経質な中年男性用の補正係数のうち、腕組みジェスチャーに対応する感情属性「怒」に対応付けられた補正係数「0.3」が適用される。この場合、第1のパラメータは「−5」、第2のパラメータは「−10」、補正前の総合値は「−15」であるので、補正係数「0.3」が乗算されることにより、補正後の総合値は「4.5」となる。
3段目に示すとおり、演者5の状態(所作)が「手で顔を覆うジェスチャー」であった場合には、神経質な中年男性用の補正係数のうち、手で顔を覆うジェスチャーに対応する感情属性「哀」に対応付けられた補正係数「1.2」が適用される。この場合、第1のパラメータは「−5」、第2のパラメータは「1」、補正前の総合値は「−4」であるので、補正係数「1.2」が乗算されることにより、補正後の総合値は「−4.8」となる。
4段目に示すとおり、演者5の状態(所作)が「ジャンプジェスチャー」であった場合には、神経質な中年男性用の補正係数のうち、ジャンプジェスチャーに対応する感情属性「楽」に対応付けられた補正係数「2」が適用される。第1のパラメータは「−5」、第2のパラメータは「15」、補正前の総合値は「10」であるので、補正係数「2」が乗算されることにより、補正後の総合値は「20」となる。
5段目に示すとおり、演者5の状態(所作)が「バンザイジェスチャー」であった場合には、神経質な中年男性用の補正係数のうち、バンザイジェスチャーに対応する感情属性「驚」に対応付けられた補正係数「−5」が適用される。この場合、第1のパラメータは「−5」、第2のパラメータは「−5」、補正前の総合値は「−10」であるので、補正
係数「2」が乗算されることにより、補正後の総合値は「−20」となる。
[4.4.4]判定処理
また、操作コマンド選定部247は、
補正後の総合値が所与の条件を満たすか否かを判定し、所与の条件を満たす場合には、補正後の総合値に基づき操作コマンドの選定を行い、さもなくば補正前の総合値に基づき操作コマンドの選定を行う。
例えば、操作コマンド選定部247は、補正後の総合値が例えば「図13の所定範囲B2〜B5から外れるという条件」を満たすか否かを判定し、当該条件を満たす場合には、補正後の総合値に基づき操作コマンドの選定を行い、さもなくば補正前の総合値に基づき操作コマンドの選定を行う。
図12の例では、演者5が片手上げジェスチャー、腕組みジェスチャー、手で顔を覆うジェスチャーの何れかをした場合(図12の1段目、2段目、3段目)には、補正後の総合値(6,4.5,−4.8)が図13の所定範囲B2〜B5に収まっているので、補正前の総合値(6,4.5,−4.8)に基づき操作コマンドの選定が行われる。この場合は、対象キャラクタ8Aの動作に対象キャラクタ8Aらしさ(キャラクタ効果)が発現することはない。
また、演者5がジャンプジェスチャー又はバンザイジェスチャーをした場合(図6の4段目、5段目)には、補正後の総合値(20,−20)が図13の所定範囲B2〜B5から外れるので、補正後の総合値(20,−20)に基づき操作コマンドの選定が行われる。この場合は、対象キャラクタ8Aの動作に対象キャラクタ8Aらしさ(キャラクタ効果)が発現する。
[4.4.5]操作コマンドの選定
操作コマンド選定部247は、操作コマンドの選定に、図14の対応テーブルを用いる。図14の対応テーブルは、データベース275に予め格納されている。図14に示すとおり、対応テーブルは、総合値の属する範囲B1、B2、…、B6と、範囲毎に対応付けられた操作コマンドとの対応関係を示すテーブルである。
操作コマンド選定部247は、例えば、総合値の値に応じて対応テーブル(図14)を参照し、当該総合値に対応する操作コマンドを、対象キャラクタ8Aの動作制御に用いるべき操作コマンドとして選定する。
第1の選定処理では、上記した判定処理が実行されるので、補正後の総合値が図13の所定範囲B2〜B5に収まっている場合には、対象キャラクタ8Bのキャラクタ属性に応じた補正係数が操作コマンドの選定に寄与せず、補正後の総合値が図13の所定範囲B2〜B5から外れた場合には、対象キャラクタ8Bのキャラクタ属性に応じた補正係数が操作コマンドの選定に寄与する。
つまり、第1の選定処理では、補正後の総合値が図13の所定範囲B2〜B5から外れるとき、すなわちキャラクタ属性の影響が一定以上であるときには、対象キャラクタ8Aの動作に対象キャラクタ8Aらしさが発現し、そうでないときには、対象キャラクタ8Aの動作に対象キャラクタ8らしさが発現しない。
[4.4.6]確認用情報
なお、処理部200のモニタ部は、補正後の総合値が図13の所定範囲B2〜B5から外れる場合には「キャラクタ属性の効果が発現中」というテキストイメージをモニタ表示
部290へ表示させ、外れない場合には「キャラクタ属性の効果が発現中」というテキストイメージをモニタ表示部290に表示しない、という制御処理を実行する。つまり、第1の選定処理では、当該テキストイメージ(図4の上部)がモニタ表示部290に表示される。
上記構成によれば、演者5が当該イメージを確認しながら演技(トークライブ)を行い、操作コマンド選定の根拠を視覚的に把握することができるので、対象キャラクタ8Aの動作を自分の希望する動作に近づけることが容易になる。
[4.5]第2の選定処理
次に、操作コマンドを選定する第2の選定処理について説明する。
第2の選定処理では、操作コマンドの選定前に、キャラクタ属性に基づき第3のパラメータを生成し、第1のパラメータ、第2のパラメータ、及び第3のパラメータの総合値に応じて操作コマンドの選定を実行する。
[4.5.1]第3のパラメータの生成処理
第2の選定処理を実現するために、データベース275に格納されたキャラクタテーブル(図7)のキャラクタ属性には、感情属性が含まれる。
また、画像生成装置20Cの処理部200は、対象キャラクタ8Aのキャラクタ属性に対応する感情属性をデータベース275に基づき特定し、当該感情属性に応じた第3のパラメータを生成する第3のパラメータ生成処理部(第3のパラメータ生成処理手段の一例)を更に備える。
ここで、「第3のパラメータ」には、キャラクタ属性に固有の感情傾向であるネガティブ度又はポジティブ度を示す数値(点数、ランク、レベル、段階、符号など)が含まれる。
例えば、本実施形態では、図7に示すとおり、キャラクタテーブルに予め記憶された各キャラクタ属性には、「陽気」、「やや陽気」、「落ち着いた」、「神経質」、「陰気」の別を示す感情属性が含まれており、個々のキャラクタ属性には、当該キャラクタ属性に含まれる感情属性に応じたポジティブ点数が割り当てられている。
そこで、第3のパラメータ生成処理部は、対象キャラクタ8Aのキャラクタ属性に応じてキャラクタテーブル(図7)を参照し、当該キャラクタ属性に対応付けられたポジティブ点数を認識すると、当該点数を、第3のパラメータとして生成する。このように、キャラクタテーブル(図7)を利用すれば、複雑な演算処理を要しないので、第3のパラメータを高速に生成することができる。
[4.5.2]操作コマンドの選定
操作コマンド選定部247は、第1のパラメータ、第2のパラメータ、及び第3のパラメータの総合値と、選定基準としての範囲と、に基づき操作コマンドの選定を行う。
例えば、操作コマンド選定部247は、以下の処理(i)〜(iv)を実行する。
(i)操作コマンド選定部247は、第1のパラメータ、第2のパラメータ、第3のパラメータの和を第1の総合値として算出すると共に、第1のパラメータ及び第2のパラメータの和を第2の総合値として算出する。
(ii)操作コマンド選定部247は、第1の総合値が例えば「図13の所定範囲B2〜B5から外れるという条件」を満たすか否かを判定する。当該条件を満たす場合には、処理(iii)を実行し、さもなくば処理(iv)を実行する。
(iii)操作コマンド選定部247は、図13の範囲B1、B2、…、B6の中で、第1の総合値の属する範囲(ここではB1又はB6)に応じて対応テーブル(図14)を参照し、当該範囲に対応付けられた操作コマンド(ここでは4種類の操作コマンド)を、対象キャラクタの動作制御に用いるべき操作コマンドとして選定する。なお、図14の対応テーブルは、範囲B1、B2、…、B6と、範囲毎に対応付けられた操作コマンドとの対応関係を示すテーブルであって、例えばデータベース275に予め格納されている。
(iv)操作コマンド選定部247は、図13の範囲B2、B2、…、B5の中で、第2の総合値の属する範囲(ここではB2〜B5)に応じて対応テーブル(図14)を参照し、当該範囲に対応付けられた操作コマンド(ここでは4種類の操作コマン)を、対象キャラクタの動作制御に用いるべき操作コマンドとして選定する。なお、図14の対応テーブルは、範囲B1、B2、…、B6と、範囲毎に対応付けられた操作コマンドとの対応関係を示すテーブルであって、例えばデータベース275に予め格納されている。
なお、操作コマンド選定部247は、選定した操作コマンドの組み合わせを特定するための情報(例えば選定した操作コマンドに対応する範囲Biを特定するための情報)を、当該操作コマンドの適用された区間に対応付けて画像コンテンツと共にコンテンツデータ記憶部274に記憶する。
また、上記説明では、第1の総合値及び第2の総合値に基づき操作コマンドの選定を行ったが、第2の総合値を用いずに操作コマンドの選定を行ってもよい。その場合には、第2の総合値を算出する処理((i)の後段)、第2の総合値に応じて操作コマンドを選定する処理(iv)を省略することができる。この場合、第1の総合値が所定範囲B2〜B5に属するか否かの判定処理(ii)は省略される。
[4.6]第3の選定処理
次に、操作コマンドを選定する第3の選定処理について説明する。
第3の選定処理では、操作コマンドの選定前に、キャラクタ属性に基づき第3のパラメータを生成し、第1のパラメータ、第2のパラメータ、及び第3のパラメータの組み合わせと、当該組み合わせに係る選定基準とに基づき、操作コマンドの設定を行う。ここでは、第2の選定処理との相違点について主に説明し、共通点についての説明を省略する。
操作コマンド選定部247は、第1のパラメータ、第2のパラメータ、及び第3のパラメータをベクトル成分として有する特徴量ベクトル(パラメータの組み合わせの一例)と、当該特徴量ベクトルの存在する特徴量空間内に予め設定された選定基準としての分離面(領域A1、A2、…の境界)と、に基づき操作コマンドの選定を行う。
例えば、操作コマンド選定部247は、以下の処理(i)〜(iii)を実行する。
(i)操作コマンド選定部247は、図15に示すとおり、第1のパラメータ、第2のパラメータ、第3のパラメータを互いに異なる軸で表現した特徴量空間を定義する。この特徴量空間には、互いに異なる複数の領域A1、A2、A3、…が設定されている。図15では、複数の領域A1、A2、…を点在させているが、実際には、特徴量空間内に隙間なく密に配置されているものとする。また、図15では、領域A1、A2、…の輪郭を楕円体で表現したが、実際には他種の超平面であってもよい。また、これら領域A1、A2、
A3、…の境界(分離面)を規定するデータ(選定基準)は、データベース275に予め格納されている。
(ii)操作コマンド選定部247は、第1のパラメータ、第2のパラメータ、第3のパラメータをベクトル成分として有する特徴量ベクトルの先端座標(図15においてXで示した座標)を認識すると、データベース275に予め格納された選定基準(領域Aの境界)に基づき、特徴量空間に規定された複数の領域A1、A2、A3、…のうち、当該座標の属する領域を判定する。以下、特徴量ベクトルの座標(図15においてXで示した座標)が領域A2に属すると仮定する。
(iii)操作コマンド選定部247は、判定した領域(ここでは領域A2)に応じて対応テーブル(図16)を参照し、当該領域(ここでは領域A2)に対応付けられた操作コマンド(ここでは4種類の操作コマンドa2、b2、c2、d2)を、対象キャラクタ8Aの動作制御に用いられる操作コマンドとして選定する。図16に示す対応テーブルは、特徴量空間の各領域A1、A2、…、Anと、領域毎に対応付けられた操作コマンドとの対応関係を示すテーブルであって、例えばデータベース275に予め格納されている。
また、操作コマンド選定部247は、選定した操作コマンドの組み合わせを特定するための情報(例えば選定した操作コマンドに対応する領域Aiを特定するための情報)を、当該操作コマンドの適用された区間に対応付けてコンテンツデータ記憶部274に記憶する。
上記構成によれば、図15に示すとおり、キャラクタ属性の感情に係る第3のパラメータを、第1のパラメータ及び第2のパラメータと同等に扱うことが可能である。従って、第1のパラメータ及び第2のパラメータから操作コマンドを選定するアルゴリズムが既存である場合に、当該アルゴリズムのパラメータの数(次数)を拡張することで上記構成を実現することができる。
[4.7]キャラクタらしさの強調処理
次に、対象キャラクタらしさの強調処理について説明する。
本実施形態の画像生成装置20Cにおいて、
前述した複数の操作コマンドには、
1又は複数の特定のキャラクタ属性に対応付けられた1又は複数の特定の操作コマンドが含まれ、
操作コマンド選定部247が実行する処理には、
複数の操作コマンドの中から選定される操作コマンドの候補を設定する候補設定処理が含まれ、
候補設定処理においては、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性である場合に、特定の操作コマンドを候補に追加する処理又は候補から除外する処理を実行してもよい。
ここで、「特定のキャラクタ属性」には、例えば特定の動物キャラクタ(ネコキャラクタなど)、特定の人物キャラクタ(神経質な中年男性など)が含まれてもよい。
また、「特定の操作コマンド」には、語尾を「にゃ」に変換するコマンド、「にゃ」という吹き出しを付加するコマンド、語尾を特定地方の方言に変換するコマンドなどが含まれてもよい。
以下、対応テーブル(図14)の調整によって候補設定処理を実行する幾つかの例を順
に説明する。なお、ここでは、図14の対応テーブルを例に挙げて説明するが、図16の対応テーブルについても同様に調整することが可能である。
[4.7.1]対応テーブルの一部の操作コマンドを置換する処理
例えば、操作コマンド選定部247は、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「ネコキャラクタ」であるか否かを判定し、当該特定のキャラクタ属性「ネコキャラクタ」である場合には、図14の対応テーブルの範囲B1〜B6の少なくとも1つに対応する発語コマンド(発語コマンドd1,d3〜d6の何れかが)を、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する特定の発語コマンドd2に置換する処理を実行する。よって、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「ネコキャラクタ」である場合には、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する特定の発語コマンドd2が選定され易くなる。
また、例えば、操作コマンド選定部247は、対象キャラクタ8Aのキャラクタ属性が「犬キャラクタ」であるか否かを判定し、「犬キャラクタ」である場合には、図14の対応テーブルの範囲B1〜B6の少なくとも1つに対応する発語コマンド(発語コマンドd1〜d4,d6の何れか)を、対象キャラクタ8Aの発言の語尾に「ワン」を付加する特定の発語コマンドd5に置換する処理を実行する。よって、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「犬キャラクタ」である場合には、対象キャラクタ8Aの発言の語尾に「ワン」を付加する特定の発語コマンドd5が選定され易くなる。
[4.7.2]対応テーブルから一部の操作コマンドを除外する処理
例えば、操作コマンド選定部247は、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「落ち着いた中年男性キャラクタ」であるか否かを判定し、当該特定のキャラクタ属性「落ち着いた中年男性キャラクタ」である場合には、図14の対応テーブルから、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する特定の発語コマンドd2を少なくとも1つ除外する処理を実行する。この場合、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「中年男性キャラクタ」である場合には、対象キャラクタ8Aの発言の語尾に「にゃ」を付加する特定の発語コマンドd2が選定され難くなる。
[4.7.3]対応テーブルへ操作コマンドを追加する処理
例えば、操作コマンド選定部247は、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「陽気なギャルキャラクタ」であるか否かを判定し、当該特定のキャラクタ属性「陽気なギャルキャラクタ」である場合には、図14の対応テーブルに、所作の振幅を増幅させる振幅増減コマンドe1を追加する処理を実行する。例えば、操作コマンド選定部247は、図14の対応テーブルの範囲B1〜B6の少なくとも1つに当該振幅増減コマンドe1を追加で対応付ける処理を実行する。よって、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「陽気なギャルキャラクタ」である場合には、対象キャラクタ8Aの所作の振幅が増幅され易くなる(オーバーアクション化し易くなる)。
[4.7.4]対応テーブルを編集する処理
また、上記操作コマンド選定部247は、図14の対応テーブルの一部の操作コマンドを置換する処理と、図14の対応テーブルの一部の操作コマンドを除外する処理と、対応テーブルに操作コマンドを追加する処理とのうち少なくとも2つの処理を組み合わせて実行してもよい(対応テーブルの編集処理)。従って、対象キャラクタ8Aが特定のキャラクタ属性を有する場合には、当該特定のキャラクタ属性に対応する特定のコマンドが選定され易くなる方向に図14の対応テーブルが編集されるので、対象キャラクタ8Aのキャラクタらしさを、より強くアピールすることができる。
[4.8]抽選処理
次に、操作コマンドの選定処理に抽選要素を付加した例について説明する。
上記説明では、操作コマンド選定部247は、対応テーブルに基づき一義的に操作コマンドを選定したが、対応テーブルに基づく抽選処理によって操作コマンドを選定することも可能である。
ここでは、第2の選定処理を抽選処理に変形する例を説明する。ただし、第1の選定処理又は第3の選定処理を同様に変形することも可能である。
例えば、図14の対応テーブルの各欄には、操作コマンドの候補が複数ずつ対応付けられている。また、各欄における複数の操作コマンドの候補には、それぞれ選択確率が規定されている。
操作コマンドの選定に当たり、操作コマンド選定部247は、例えば、第1のパラメータ、第2のパラメータ、及び第3のパラメータの総合値の属する範囲Biを特定する。
次に、操作コマンド選定部247は、対応テーブル(図14)において、当該範囲Biに対応する表情コマンドの複数の候補と、当該複数の候補に規定された選択確率を特定し、当該選択確率に基づく抽選処理を実行することにより、複数の表情コマンドの候補の中から一の候補を選定する処理を実行する。
また、操作コマンド選定部247は、対応テーブル(図14)において、当該範囲Biに対応する所作コマンドの複数の候補と、当該複数の候補に規定された選択確率とを特定し、当該選択確率に基づく抽選処理を実行することにより、複数の候補の中から一の候補を選定する処理を実行する。
また、操作コマンド選定部247は、対応テーブル(図14)において、当該範囲Biに対応する視覚効果コマンドの複数の候補と、当該複数の候補に規定された選択確率とを特定し、当該選択確率に基づく抽選処理を実行することにより、複数の候補の中から一の候補を選定する処理を実行する。
また、操作コマンド選定部247は、対応テーブル(図14)において、当該範囲Biに対応する発語コマンドの複数の候補と、当該複数の候補に規定された選択確率とを特定し、当該選択確率に基づく抽選処理を実行することにより、複数の候補の中から一の候補を選定する処理を実行する。
[4.8.1]確率調整処理
更に、操作コマンド選定部247は、上記抽選処理の前に選択確率の調整を行ってもよい。
例えば、操作コマンド選定部247は、対象キャラクタ8Aが特定のキャラクタであるか否かを判定し、特定のキャラクタである場合には、図14の対応テーブルにおいて、当該特定のキャラクタに対応する1又は複数の候補の選択確率を向上又は低下させる処理を実行する。
例えば、操作コマンド選定部247は、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「陽気なギャルキャラクタ」であるか否かを判定し、当該特定のキャラクタ属性「陽気なギャルキャラクタ」である場合には、陽気なギャルキャラクタに対応する特定の操作コマンド(バンザイジェスチャーの所作コマンド、ジャンプジェスチャーの所作コマンドなど)の選択確率を向上させる処理を実行する。なお、複数の候補の選択確率
は、あくまでも相対的な値として規定されるものなので、操作コマンド選定部247は、ある候補の選択確率を向上させる代わりに、他の候補の選択確率を低下させることにより同様の効果を得てもよい。
また、例えば、操作コマンド選定部247は、対象キャラクタ8Aのキャラクタ属性が特定のキャラクタ属性「ネコキャラクタ」であるか否かを判定し、当該特定のキャラクタ属性「ネコキャラクタ」である場合には、ネコキャラクタに予め対応付する特定の操作コマンド(対象キャラクタ8Aの発言の語尾に「にゃん」を付加する特定の発語コマンド)の選択確率を向上させる処理を実行する。なお、複数の候補の選択確率は、あくまでも相対的な値として規定されるものなので、操作コマンド選定部247は、ある候補の選択確率を向上させる代わりに、他の候補の選択確率を低下させることにより同様の効果を得てもよい。
[4.9]視聴者の人気反映処理
次に、対象キャラクタ8Bの動作に視聴者の人気(評価の高さ)を反映させる人気反映処理について説明する。
本実施形態の画像生成装置20Cにおいて、処理部200は、
出力された対象キャラクタ8Aの画像コンテンツ(図3)について視聴者が行った評価のデータを収集する収集処理を実行する収集部(収集手段の一例)を更に備え、
操作コマンド選定部247は、
画像コンテンツを構成する複数の音声付き画像データ(図3)に適用された複数の操作コマンドと、複数の音声付き画像データ(図3)に係る複数の評価のデータとに基づき、複数の操作コマンドを重み付けする処理を実行し、新たな音声付き画像データ(図3)を生成する際における操作コマンドの選定を、複数の操作コマンドの重みに基づいて行う。
以上の構成によれば、視聴者の評価のデータを対象キャラクタ8Aの動作に反映させることができるので、視聴者の間で人気のある動作が発現され易くしたり、所与の条件が満たされた場合に人気のある動作を発現させたりすることも可能である。なお、操作コマンド選定部247の上記動作が音声付き画像データ(図3)の出力中に逐次に行われれば、人気の動作がリアルタイムで反映されることになるので、ライブ配信における視聴者の参加意識を高め、視聴者数の向上を図ることができる。
以下、第2の選定処理において人気反映処理を実行する例を説明する。ただし、人気反映処理は、第1の選定処理又は第3の選定処理においても同様に実行することが可能である。
[4.9.1]評価のデータの具体例
ここで、「評価のデータ」には、対象キャラクタに向けた視聴者からのプレゼント(被服、装身具、身支度用の資金、投げ銭、お捻りなど)の数及び価値、視聴者が行った投票による対象キャラクタの得票数、対象キャラクタの画像を含む画像コンテンツの視聴率などのデータが含まれる。
また、投票には、画像コンテンツの視聴中に視聴者が自己の端末装置で評価ボタン(所謂いいねボタン)を押下した回数、画像コンテンツの視聴中に視聴者が自己の端末装置から運営者に向けて送信したコメント送信の回数、視聴者が画像コンテンツをSNSで他者に紹介した回数などが含まれる。
また、プレゼント、投票、画像コンテンツの視聴には、画像生成装置の直接的又は間接的な運営者から視聴者に対する課金が伴うこともある。
[4.9.2]評価のデータの収集に係るサーバ装置の処理
サーバ装置11の視聴者管理部103は、画像コンテンツの配信中に、通信制御部101及びネットワークを介して視聴者の端末装置10A、10B、…の各々と通信を行い、視聴者から対象キャラクタ8Aに向けたプレゼント又は投票(以下、「プレゼント等」という。)の要求を受付ける。
また、視聴者管理部103は、プレゼント等を要求する視聴者に対して必要に応じて課金を行う。課金の処理は、当該視聴者の視聴者IDに対応する仮想口座(前述)から、当該プレゼント等の内容に応じた額の通貨を減額(決済)する処理である。なお、プレゼントの送り主となった視聴者に対しては、画像コンテンツの配信終了後などの適当なタイミングで、サーバ装置11から対象キャラクタ8Aに関連する特別なイベントが提供されるものとする。
また、視聴者管理部103は、画像コンテンツの配信中におけるプレゼント等の履歴(プレゼント等の価値、投票の有無)を視聴者情報146へ記録する。例えば、画像コンテンツの配信中に、あらかじめ決められた動作を対象キャラクタ8Aが行ったタイミングで所定の監視期間(例えば30秒の投げ銭タイム)を設け、その監視期間中に視聴者からのプレゼント等を受付ける。そして、当該受け付けたプレゼント等を、画像コンテンツの該当区間に対応付けて視聴者IDごとに視聴者情報146に記録する。以下、プレゼント等の情報が画像コンテンツの区間ごとに記録される場合を想定する。画像コンテンツの区間は、例えば30秒程度に設定される。
また、視聴者管理部103は、画像コンテンツの配信先となっている端末装置10Aの台数を監視し、画像コンテンツの配信中における視聴率(配信先となっている端末装置10の台数自体でもよい。)を、例えば画像コンテンツの区間ごとに視聴者情報146へ記録する。
以上の結果、視聴者情報146には、画像コンテンツに対する視聴者全体の評価のデータ(区間ごとのプレゼントの数及び価値、区間ごとの得票数、区間ごとの視聴率)が当該画像コンテンツの区間ごとに蓄積されることになる。
[4.9.3]画像生成装置による評価のデータの収集処理
例えば、サーバ装置11の視聴者管理部103は、視聴者情報146を更新する度に、更新に係る評価のデータ(最新区間に対応付けられたプレゼントの数及び価値、最新区間に対応付けられた得票数、最新区間に対応付けられた視聴率)を画像生成装置20Cへ送信する。
一方、画像生成装置20Cの収集部は、サーバ装置11から受信した評価のデータ(最新区間に対応付けられたプレゼントの数及び価値、最新区間に対応付けられた得票数、最新区間に対応付けられた視聴率)を、例えば、データベース275へ逐次に蓄積することにより、配信中の画像コンテンツに対する視聴者全体の評価のデータを収集する。
[4.9.4]画像生成装置による重み付け処理
そして、操作コマンド選定部247は、コンテンツデータ記憶部274を参照し、配信済みの複数区間(図3)の各々に適用された操作コマンドを特定する。
ここで、本実施形態では、前述したとおり画像コンテンツの各区間に複数の操作コマンドが適用され得るので、操作コマンド選定部247は、個々の区間に適用された操作コマンドの組み合わせを特定するものとする。各区間に適用された操作コマンドの組み合わせ
は、図13の範囲B1〜B6の何れかに対応しているので、ここでは、操作コマンドの組み合わせを、図13の範囲B1〜B6の別によって表す。
また、操作コマンド選定部247は、データベース275に格納された複数の区間(図3)に係る評価のデータ(プレゼントの価値及び数、得票数)を特定する。そして、操作コマンド選定部247は、各区間の評価のデータ(プレゼントの価値及び数、得票数)に応じて、各区間に適用された操作コマンドの組み合わせ(図13の範囲B1〜B6)を重み付けする処理を実行する。
例えば、操作コマンド選定部247は、各区間に対応する範囲Biの重みを、当該区間に関連付けられたプレゼントの価値が高いほど大きく設定し、当該区間に関連付けられたプレゼントの数が多いほど大きく設定し、また、当該区間に関連付けられた得票数が多いほど大きく設定する。
図17に示すのは、トークライブの開始から現時点までの期間に生成された区間の操作コマンドに応じて範囲B1〜B6の各々に付与された重みを示すグラフである。図17の例では、範囲B1の重みが最も大きく、範囲B3の重みが最も小さい場合を示している。この場合、範囲B1に対応付する操作コマンドの組み合わせの人気が最も高く、範囲B3に対応する操作コマンドの組み合わせの人気が最も低かったことを示している。
ただし、ここでいう「人気」は、操作コマンドそれ自体の人気ではなく、「如何なる場合に如何なる操作コマンドが選定されたのか」についての人気である。言い換えると、「人気」は、「操作コマンドの選定」が視聴者にとって適切である場合(期待したとおりである場合)に人気が高く、「操作コマンドの選定」が視聴者にとって不適切である場合(期待したとおりでなかった場合)に人気が低くなる。
[4.9.5]人気投票に基づく選定基準の更新処理
操作コマンド選定部247は、図17のグラフに基づき、相対的に大きな重みを有する範囲(図17では範囲B1)のサイズが拡大され、相対的に小さな重みを有する範囲(図17では範囲B3)のサイズが縮小される方向に、範囲B1〜B6の境界(選定基準)を更新する。
例えば、操作コマンド選定部247は、図17→図18に示すとおり、範囲B1〜B6の各々のサイズが範囲B1〜B6の各々の重みに応じたサイズとなるように、範囲B1〜B6の境界(選定基準)を調節する。図17、図18の例では、人気の高かった範囲B1のサイズは拡大され、人気の低かった範囲B3のサイズは縮小される。
以上の更新処理によると、画像コンテンツの開始から現時点までに人気の高かった操作コマンドが選定され易くなり、人気の低かった操作コマンドが選定され難くなる。
[4.9.6]フィードバック処理
本実施形態の画像生成装置20Cにおいて、処理部200は、
複数の操作コマンドの重みに基づき選定基準の更新をする更新処理を、所与の条件が満たされる度に実行するフィードバック部(フィードバック手段の一例)を更に備えてもよい。
例えば、フィードバック部は、所定時間が経過する度に、画像コンテンツの各区間が生成される度に、画像コンテンツの各フレームが生成される度に、又は重みの変化が生じる度に、前述した範囲Bの境界の更新処理を、操作コマンド選定部247に実行させる。
例えば、フィードバック部は、図17→図18に示すとおり人気の高い範囲Bのサイズを拡大し、人気の低い範囲Bのサイズを縮小するという処理を、所定時間が経過する毎に、操作コマンド選定部247に実行させる。
よって、例えば、トークライブの開始当初、対象キャラクタ8Aによる「「お腹すいた」と言いつつジャンプする動作A」の人気が相対的に高かった場合には、Aが発現し易くなり、それに類する「「めんどうくさい」と言いつつジャンプする動作A’」も発現し易くなるが、動作Aと比較して動作A’の人気が著しく低かった場合には、動作A’は発現し難くなる。
上記構成によると、人気の動作が発現し易くなる方向に選定基準(範囲B1〜B6の境界)を逐次に変化させることができるので、視聴者の期待した動作をする人気キャラクタに対象キャラクタ8Aが漸次に近づくことになる。また、上記更新処理は、選定基準自体(範囲B1〜B6の境界)を更新するので、当該選定基準(範囲B1〜B6の境界)を、様々な対象キャラクタ8Aの人気向上を図る万能な選定基準に収束させることも、原理的には可能である。
[4.10]操作コマンドのバリエーション
上述したとおり、本実施形態の画像生成装置20Cにおいて、
操作コマンドの選択肢となる複数の操作コマンドには、
対象キャラクタ8Aの表情を制御する操作コマンド(表情コマンド)と、
対象キャラクタ8Aの所作を制御する操作コマンド(所作コマンド)と、
対象キャラクタ8Aに視覚効果を付与する操作コマンド(視覚効果コマンド)と、
対象キャラクタ8Aの発語を制御する操作コマンド(発語コマンド)と、
の少なくとも1つが含まれる。
上記構成によれば、対象キャラクタ8Aの表情、所作、視覚効果、発語の少なくとも1つに演者5の感情を反映させることができる。
[4.11]リアルタイム配信処理
上述したとおり、本実施形態の画像生成装置20Cにおいて、
画像出力部240は、演者5の演技中(トークライブ中)に逐次に生成される対象キャラクタ8Aの画像データ(図3)を画像データ(図3)の視聴者へ演技中(トークライブ中)に逐次に出力する。
例えば、画像出力部240は、トークライブ中に逐次に生成される各区間の音声付き画像データ(画像コンテンツのフレームデータ)を、サーバ装置11へ逐次に送信し、サーバ装置11は、画像出力部240から受信する各区間の音声付き画像データ(画像コンテンツのフレームデータ)を、逐次にストリーミングデータに変換して視聴者の端末装置10A、10BA、…へ配信する。
上記構成によれば、画像出力部240は、サーバ装置11と協働して、対象キャラクタ8Aの音声付き画像データ(図3)をライブ配信(生中継)することが可能である。
なお、本実施形態では、音声付き画像データ(画像コンテンツのフレームデータ)が生成されるタイミングと、端末装置10A、10B、…から当該音声付き画像データ(画像コンテンツのフレームデータ)が出力されるタイミングとの間にディレイ時間(タイムラグ)が生じるニアライブの場合も、上記の「ライブ配信」に含まれるものとする。
[4.12]確認用情報
本実施形態の画像生成装置20Cの処理部200は、
第1のパラメータ、第2のパラメータ、及びキャラクタ属性のバランスを示すイメージを演者5へ演技中(トークライブ中)に逐次に出力する制御処理を実行するモニタ部(モニタ手段の一例)を備える。
例えば、第2の選定処理又は第3の選定処理が実行される場合において、処理部200のモニタ部は、第1のパラメータ、第2のパラメータ、及び第3のパラメータのバランスを示すレーダーチャートなどのグラフイメージ(図19)を、各区間の音声付き画像データ(画像コンテンツのフレームデータ)が生成される度に生成し、当該グラフイメージを、上述した確認用情報(図4)に含めてモニタ表示部290へ出力する制御処理を実行する。
また、第1の選定処理又は第2の選定処理において、この確認用情報(図4)には、レーダーチャートなどのグラフイメージ(図19)の他に、「キャラクタ属性の効果が発現中」などのテキストイメージや、選定された操作コマンドの種類情報などが含まれてもよい。
例えば、第1の選定処理が実行される場合に、処理部200のモニタ部は、補正後の総合値が「図13の所定範囲B2〜B5」に属するか否かを、各区間の音声付き画像データ(画像コンテンツのフレームデータ)が生成される度に判定し、属しない場合には「キャラクタ属性の効果が発現中」というテキストイメージをモニタ表示部290へ表示させ、属する場合には「キャラクタ属性の効果が発現中」というテキストイメージをモニタ表示部290に表示しない、という制御処理を実行する。
例えば、第2の選定処理が実行される場合に、処理部200のモニタ部は、第1の総合値が「図13の所定範囲B2〜B5」に属するか否かを、各区間の音声付き画像データ(画像コンテンツのフレームデータ)が生成される度に判定し、属しない場合には「キャラクタ属性の効果が発現中」というテキストイメージをモニタ表示部290へ表示させ、属する場合には「キャラクタ属性の効果が発現中」というテキストイメージをモニタ表示部290に表示しない、という制御処理を実行する。
上記構成によれば、モニタ表示部290に表示された当該イメージを確認しながら演者5が演技し(トークライブを行い)、操作コマンド選定の根拠を視覚的に把握することができるので、対象キャラクタ8Aの動作を自分の希望する動作に近づけることが容易になる。
[4.13]自主規制処理
次に、自主規制処理について説明する。
本実施形態の画像生成装置20Cにおいて、
画像出力部240は、
対象キャラクタ8Aの音声付き画像データ(図3)の生成からオブジェクト空間の視聴者へ画像コンテンツの音声付き画像データ(図3)が出力(配信)されるまでの間に遅延時間を設ける遅延出力処理を実行し、当該遅延時間内に演者5又は補助者から操作入力を受付けた場合に、視聴者に出力される画像(図3)を調整する処理を実行してもよい。この場合、演者5又は補助者が不適切と判断した動作を、視聴者へ出力される前に阻止するという自主規制が可能である。
例えば、画像出力部240は、バッファ272へ音声付き画像データ(画像コンテンツのフレームデータ)が蓄積される速度(フレームレート)と、バッファ272からサーバ
装置11へ音声付き画像データ(画像コンテンツのフレームデータ)が送信される速度(フレームレート)とを維持しつつ、バッファ272へ音声付き画像データ(画像コンテンツのフレームデータ)が蓄積されるタイミングと、当該音声付き画像データ(画像コンテンツのフレームデータ)がサーバ装置11へ送信されるまでの間に、例えば複数区間分の遅延時間(例えば5分の遅延時間)を設ける。つまり、バッファ272には、当該遅延時間に相当する最新区間の音声付画像データが蓄積される。
そして、画像出力部240は、当該遅延時間内に入力部260を介して演者5又は補助者から所定の操作入力(規制指示)を受付けたか否かを判定し、受付けた場合には、受付けの時点でバッファ272に蓄積されていた区間の音声付き画像データ(画像コンテンツのフレームデータ)を、別の音声付き画像データ(画像コンテンツのフレームデータ)に差し替える処理を実行する。
ここで、「別の音声付き画像データ」は、例えば、「不適切な表現につき規制中です」などのテキストを含む画像データと、規制音(いわゆるピー音)などのブザーを含む音声データとの組み合わせによって構成される。ただし、音声データについては、差し替える処理をしないこととしてもよいし、別途、音声データについては差し替えの有無を演者5又は補助者が必要に応じて切り替えることとしてもよい。
また、例えば、第2の選定処理において画像生成装置20Cが以下の差し替え処理を実行してもよい。
すなわち、操作コマンド選定部247、動作制御部248、及び画像生成部249は、トークライブ中に、上述した第1の総合値に基づく音声付画像データ(キャラクタ属性を反映した第1の音声付き画像データ)を生成する処理と、第2の総合値に基づく音声付画像データ(キャラクタ属性を反映しない第2の音声付き画像データ)を生成する処理とを並行して実行し、規制指示が入力された場合には、第1の総合値の大小に拘わらず、第2の音声付き画像データを、画像コンテンツの音声付画像データとしてサーバ装置11へ送信してもよい。
[4.14]操作コマンドの自動選定
また、操作コマンド選定部247は、第1のパラメータ、第2のパラメータ及びキャラクタ属性(又は第3のパラメータ)の組み合わせを、トークライブ中に監視し、当該組み合わせに所定時間(例えば1分)にわたり変化が生じなかった場合には、上述した選定基準にかかわらず、所与の操作コマンドを選定してもよい。所与の操作コマンドは、例えば、「左手で左太腿の外側を軽く叩き、右手で右太腿の外側を軽く叩く」、などの自然な動きを対象キャラクタ8Aにさせるための操作コマンドである。
上記構成によれば、演者5がトークライブ中に動作を休止している期間中(例えば、休憩中、水分補給中、用便中など)にも対象キャラクタに何らかの動作をさせることが可能である。
[4.15]フロー
図20は、画像生成装置20Cによる処理のフローチャートの一例である。図20のフローチャートは、トークライブの開始前にスタートし、トークライブの終了後に終了するものとする。なお、画像生成装置20Cの内部における機能分担については説明済みであるので、ここでは処理の主体が画像生成装置20Cであるとして説明する。また、ここでは、操作コマンドの選定が第2の選定処理又は第3の選定処理によって実行される場合を想定する。
先ず、画像生成装置20Cは、演者5又は補助者によるキャラクタ指定の操作入力があったか否かを判定し(S101)、当該操作入力があった場合(S101Y)には、次の処理(S102)へ移行し、さもなくば判定処理(S101)を繰り返す。なお、演者5又は補助者によるキャラクタ指定の操作入力は、入力部260を介して行われる。
次に、画像生成装置20Cは、当該操作入力に基づき演者5又は補助者が指定したキャラクタを特定すると、特定したキャラクタを対象キャラクタ8Aとしてオブジェクト空間へ設定する(S102)。なお、対象キャラクタ8Aの外観(顔、髪型、服装、体型、持ち物など)は、対象キャラクタ8Aに対応付けられたキャラクタ属性に応じて設定される。
次に、画像生成装置20Cは、演者5又は補助者からトークライブの開始指示が入力されたか否かを判定し(S103)、開始指示が入力された場合には(S103Y)、次の処理(S104)へ移行し、さもなくば判定の処理(S103)を繰り返す。なお、演者5又は補助者による開始指示の入力は、入力部260を介して行われる。また、ライブ開始指示が入力されると、画像生成装置20Cは、演者データ取得部250に対して撮影及び集音処理の開始指示を入力する。その後、演者データ取得部250は、撮影及び集音処理を開始する。
次に、画像生成装置20Cは、未処理の区間の演者データがバッファ272に蓄積されたか否かを判定し(S104)、蓄積された場合には(S104Y)、対象キャラクタの画像コンテンツ(具体的には、画像コンテンツを構成する最新区間の音声データ及び画像データ)の生成処理(S105〜S113)へ移行し、未処理の区間の演者データがバッファ272に蓄積されていない場合(S104N)には、終了判定処理(S115)へ移行する。
次に、画像生成装置20Cは、バッファ272に蓄積された未処理の区間の演者データを読み出し、当該演者データに含まれる音声データに対するテキスト変換処理を実行することにより、当該音声データをテキストに変換する(S105)。
次に、画像生成装置20Cは、当該テキストに対する単語抽出処理を実行することにより、テキストに含まれる1又は複数の単語を抽出する(S106)。
次に、画像生成装置20Cは、抽出した1又は複数の単語に応じて単語テーブル(図8)を参照することにより、抽出1又は複数の単語に対応付けられた感情属性及びポジティブ点数を特定し、画像生成装置20Cは、特定した感情属性及びポジティブ点数に基づき、第1のパラメータを生成する(S107)。例えば、画像生成装置20Cは、抽出された単語の個数が「1」である場合には、当該単語のポジティブ点数を第1のパラメータとする。また、例えば、画像生成装置20Cは、抽出された単語の個数が2以上である場合には、それら単語の感情属性の中で最も多数派な感情属性を特定し、当該感情属性に対応付けられたポジティブ点数を、第1のパラメータとする。
次に、画像生成装置20Cは、演者データに含まれる画像データに対してパターン認識処理を施すことにより、演者5の状態(所作)を判定する(S108)。状態(所作)を判定する処理については前述したとおりである。
次に、画像生成装置20Cは、判定した所作に対応付けられた感情属性を状態テーブル(図9)に基づき特定し、当該感情属性に応じた第2のパラメータを生成する(S109)。例えば、画像生成装置20Cは、状態テーブル(図9)において当該感情属性に対応付けられたポジティブ点数を、第2のパラメータとする。
次に、画像生成装置20Cは、対象キャラクタ8Aのキャラクタ属性をキャラクタテーブル(図7)に基づき特定し、当該キャラクタ属性に応じた第3のパラメータを生成する(S110)。例えば、画像生成装置20Cは、キャラクタテーブル(図7)において当該キャラクタ属性に対応付けられたポジティブ点数を、第3のパラエータとする。
次に、画像生成装置20Cは、第1のパラメータ、第2のパラメータ、第3のパラメータに基づき操作コマンドを選定する(S111)。第1のパラメータ、第2のパラメータ、第3のパラメータに基づき操作コマンドを選定する処理については前述したとおりである。
次に、画像生成装置20Cは、オブジェクト空間に設定された対象キャラクタ8Aの動作を、選定した操作コマンドに基づき制御する(S112)。
並行して、画像生成装置20Cは、対象キャラクタ8Aの画像データ及び音声データを含む最新区間のフレームデータを生成してバッファ272へ蓄積し、かつ、バッファ272に蓄積されていた最古区間のフレームデータを、サーバ装置11へ送信する(S113)。
次に、画像生成装置20Cは、トークライブの終了指示が入力されたか否かを判定し(S114)、終了指示が入力された場合には(S114Y)、フローを終了し、さもなくば判定の処理(S104)へ戻り、画像コンテンツ(具体的には、画像コンテンツを構成する最新区間の音声データ及び画像データ)の生成処理(S105〜S113)へ戻る。ただし、画像生成装置20Cは、トークライブの終了指示が入力された時点で未処理の区間の演者データがバッファ272に蓄積されている場合には、フローを終了させる前に、当該演者データを対象としたステップS105〜S113の処理を実行する。
なお、本実施形態では、トークライブを想定したので、画像生成装置20Cが演者データを連続的に受付ける場合を説明したが、演者データを断続的に受付ける場合(演者データ取得部250が断続的に駆動される場合)においては、画像生成装置20Cは、演者データを受け付けている期間には演者5の動作が反映された対象キャラクタの画像(演者反映画像)を生成して出力し、演者データを受付けていない期間には予め決められた動作をする対象キャラクタの画像など(プリセット画像)を生成して出力することとしてもよい。
[5]変形例
[5.1]キャラクタ属性に応じた増幅処理について
上記実施形態又は変形例では、第1のパラメータ、第2のパラメータ、及びキャラクタ属性(又はキャラクタ属性によって決まる第3のパラメータ若しくは補正係数)に応じて操作コマンドを選定する例を説明したが、第1のパラメータ、第2のパラメータに応じて操作コマンドを選定してから、キャラクタ属性(又はキャラクタ属性によって決まる第3のパラメータ若しくは補正係数)に応じて、選定された操作コマンドの下で行われる対象キャラクタの動作の振幅(発語の振幅、表情の振幅、所作の振幅、視覚効果の振幅など)を調節してもよい。この調整を実現するためには操作コマンド選定部247が他の操作コマンドと併せて振幅増減コマンドを選定すればよい。
例えば、選定された操作コマンドが「ジャンプジェスチャー」の所作コマンドである場合に、ジャンプの高さや速度を、キャラクタ属性に応じて調節してもよい。例えば、キャラクタ属性が「少女」である場合の高さを、キャラクタ属性が「中年男性」である場合の高さよりも大きめに調節してもよい(或いは、小さめに調節してもよい。)。或いは、キ
ャラクタ属性が「ギャルキャラクタ」である場合の高さを「清楚キャラクタ」である場合の高さよりも大きめに調節してもよい。
また、選定された操作コマンドが「ハートマーク」の視覚効果コマンドである場合に、ハートマークの数やサイズを、キャラクタ属性に応じて調節してもよい。例えば、キャラクタ属性が「少女」である場合のハートマークの数やサイズを、キャラクタ属性が「中年男性」である場合の数やサイズよりも大きめに調節してもよい(或いは、小さめに調節してもよい)。
[5.2]画像コンテンツの配信態様について
上記実施形態のシステムは、ネットワークを用いて画像コンテンツ(音声付き動画像コンテンツ)をリアルタイム配信したが、テレビ放送によって視聴者へ提供するシステムや、イベント会場に来場した観客に対して大型スクリーンで視聴者へ提供するシステムに変形することも可能である。
[5.3]画像コンテンツの視聴の態様について
上記の実施形態においては、画像コンテンツを端末装置から出力させることで視聴者に当該コンテンツを視聴させているが、端末装置は、HMD(装着型画像表示装置)であってもよい。バーチャル空間内においてあたかも各視聴者の周囲に存在するかのごとく認知させるVR体験(仮想現実体験)対象キャラクタのトークパフォーマンスを3Dによって視聴させるようにしてもよい。この場合には、例えば、視聴者毎に、HMDユニット及び制御ユニットを有する端末装置を提供し、各端末装置は、制御ユニットから出力された各種のデータに基づいて、画像及び音をHMDに提供する。
なお、各端末装置は、同一のイベント会場によって複数の観客に提供されて同時にコンテンツの配信を実行してもよいし、別空間によって異なるタイミングにそれぞれコンテンツの配信を実行してもよい。
[5.4]その他の変形例
本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。
上記のように、本発明の実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。
11 :サーバ装置
12 :大型表示装置
100 :サーバ処理部
101 :通信制御部
103 :視聴者管理部
120 :入力部
130 :表示部
140 :記憶部
142 :主記憶部
146 :視聴者情報
180 :情報記憶媒体
196 :通信部
200 :処理部
210 :オブジェクト空間設定部
211 :タッチ検出処理部
215 :移動処理部
216 :仮想カメラ制御部
219 :コンテンツ管理部
220 :描画部
230 :音処理部
250 :演者データ取得部
250A :集音マイク
250B :撮像カメラ
260 :入力部
262 :検出部
270 :記憶部
271 :主記憶部
272 :バッファ
274 :コンテンツデータ記憶部
280 :情報記憶媒体
290 :モニタ表示部
292 :音出力部
296 :通信部
241 :データベース管理部
242 :演者データ入力受付部
243 :単語抽出処理部
244 :第1のパラメータ生成処理部
245 :状態判定部
246 :第2のパラメータ生成処理部
247 :操作コマンド選定部
248 :動作制御部
249 :画像生成部
240 :画像出力部
210A :キャラクタ設定部

Claims (13)

  1. 実空間に存在する演者の動作を、オブジェクト空間に存在する対象キャラクタの動作に反映させ、前記オブジェクト空間で動作する前記対象キャラクタの画像を生成する画像生成装置であって、
    複数のキャラクタのそれぞれに対応付けられたキャラクタ属性と、前記演者が提示し得る複数の単語のそれぞれに対応付けられて規定された感情属性と、前記演者の採り得る複数の状態のそれぞれに対応付けられて規定された感情属性と、前記対象キャラクタの動作を制御する複数の操作コマンドと、を記憶したデータベースを管理する管理手段と、
    前記複数のキャラクタの中から前記対象キャラクタを選定して前記オブジェクト空間へ設定する設定手段と、
    前記演者の提示した単語を含む演者データの入力を受け付ける入力受付手段と、
    前記演者が提示した単語を前記演者データから抽出する単語抽出処理手段と、
    抽出した前記単語の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第1のパラメータを生成する第1のパラメータ生成処理手段と、
    入力した前記演者データの少なくとも一部と状態判定用の基準データとに基づき前記演者の状態を判定する判定手段と、
    判定した前記状態の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第2のパラメータを生成する第2のパラメータ生成処理手段と、
    前記複数の操作コマンドの中から、前記対象キャラクタの動作の制御に用いるべき1又は複数の操作コマンドを、前記第1のパラメータと、前記第2のパラメータと、選定した前記対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する操作コマンド選定手段と、
    前記オブジェクト空間に設定された前記対象キャラクタの動作を、選定された前記操作コマンドに基づき制御する動作制御手段と、
    前記オブジェクト空間内で動作する前記対象キャラクタの画像を生成する画像生成手段と、
    生成された前記対象キャラクタの画像を出力する画像出力手段と、
    を備えることを特徴とする画像生成装置。
  2. 請求項1に記載の画像生成装置において、
    前記操作コマンド選定手段は、
    前記操作コマンドの選定を行う前に、前記対象キャラクタのキャラクタ属性に応じて前記第1のパラメータ及び前記第2のパラメータの少なくとも一方を補正する処理を実行する、
    ことを特徴とする画像生成装置。
  3. 請求項2に記載の画像生成装置において、
    前記操作コマンド選定手段は、
    補正後の前記第1のパラメータ及び前記第2のパラメータの組み合わせが所与の条件を満たす場合には、補正後の前記第1のパラメータ及び前記第2のパラメータに基づき前記操作コマンドの選定を行い、前記所与の条件を満たさない場合には、補正前の前記第1のパラメータ及び前記第2のパラメータに基づき前記操作コマンドの選定を行う、
    ことを特徴とする画像生成装置。
  4. 請求項1又は2に記載の画像生成装置において、
    前記キャラクタ属性には、感情属性が含まれ、
    前記画像生成装置は、
    前記対象キャラクタのキャラクタ属性に対応する感情属性を前記データベースに基づき特定し、当該感情属性に応じた第3のパラメータを生成する第3のパラメータ生成処理手
    段を更に備え、
    前記操作コマンド選定手段は、
    前記第1のパラメータ、前記第2のパラメータ、及び前記第3のパラメータの組み合わせと、当該組み合わせに係る前記選定基準とに基づき前記操作コマンドの選定を行う、
    ことを特徴とする画像生成装置。
  5. 請求項1〜4の何れか一項に記載の画像生成装置において、
    前記複数の操作コマンドには、
    1又は複数の特定のキャラクタ属性に対応付けられた1又は複数の特定の操作コマンドが含まれ、
    前記操作コマンド選定手段が実行する処理には、
    前記複数の操作コマンドの中から前記選定される操作コマンドの候補を設定する候補設定処理が含まれ、
    前記候補設定処理においては、前記対象キャラクタのキャラクタ属性が前記特定のキャラクタ属性である場合に、前記特定の操作コマンドを前記候補に追加する処理又は前記候補から除外する処理を実行する、
    ことを特徴とする画像生成装置。
  6. 請求項1〜5の何れか一項に記載の画像生成装置において、
    出力された前記対象キャラクタの画像について視聴者が行った評価のデータを収集する収集処理を実行する収集手段を更に備え、
    前記操作コマンド選定手段は、
    複数の前記画像に適用された複数の前記操作コマンドと、複数の前記画像に係る複数の前記評価のデータとに基づき、複数の前記操作コマンドを重み付けする処理を実行し、新たな前記画像を生成する際における前記操作コマンドの選定を、前記複数の操作コマンドの重みに基づいて行う、
    ことを特徴とする画像生成装置。
  7. 請求項6に記載の画像生成装置において、
    前記複数の操作コマンドの重みに基づき前記選定基準の更新をする更新処理を、所与の条件が満たされる度に実行するフィードバック手段を更に備える、
    ことを特徴とする画像生成装置。
  8. 請求項1〜7の何れか一項に記載の画像生成装置において、
    前記複数の操作コマンドには、
    前記対象キャラクタの表情を制御する操作コマンドと、
    前記対象キャラクタの所作を制御する操作コマンドと、
    前記対象キャラクタに視覚効果を付与する操作コマンドと、
    前記対象キャラクタの発語を制御する操作コマンドと、
    の少なくとも1つが含まれる、
    ことを特徴とする画像生成装置。
  9. 請求項1〜8の何れか一項に記載の画像生成装置において、
    前記画像出力手段は、
    前記演者の演技中に逐次に生成される前記対象キャラクタの画像を前記画像の視聴者へ前記演技中に逐次に出力する、
    ことを特徴とする画像生成装置。
  10. 請求項1〜9の何れか一項に記載の画像生成装置において、
    前記第1のパラメータ、前記第2のパラメータ、及び前記キャラクタ属性のバランスを
    示すイメージを、前記演者へ演技中に逐次に出力するモニタ手段を更に備える、
    ことを特徴とする画像生成装置。
  11. 請求項1〜10の何れか一項に記載の画像生成装置において、
    前記画像出力手段は、
    前記対象キャラクタの画像の生成から前記オブジェクト空間の視聴者へ前記画像が出力されるまでの間に遅延時間を設ける遅延出力処理を実行し、当該遅延時間内に前記演者又は補助者から操作入力を受付けた場合に、前記視聴者に出力される前記画像を調整する処理を実行する、
    ことを特徴とする画像生成装置。
  12. 請求項1〜11の何れか一項に記載の画像生成装置において、
    前記操作コマンド選定手段は、
    前記第1のパラメータ、前記第2のパラメータ及び前記キャラクタ属性の組み合わせに所定時間にわたり変化が生じなかった場合には、前記選定基準にかかわらず所与の操作コマンドを選定する、
    ことを特徴とする画像生成装置。
  13. 実空間に存在する演者の動作を、オブジェクト空間に存在する対象キャラクタの動作に反映させ、前記オブジェクト空間で動作する前記対象キャラクタの画像を生成する画像生成装置としてコンピュータを機能させるプログラムであって、
    複数のキャラクタのそれぞれに対応付けられたキャラクタ属性と、前記演者が提示し得る複数の単語のそれぞれに対応付けられて規定された感情属性と、前記演者の採り得る複数の状態のそれぞれに対応付けられて規定された感情属性と、前記対象キャラクタの動作を制御する複数の操作コマンドと、を記憶したデータベースを管理する管理手段と、
    前記複数のキャラクタの中から前記対象キャラクタを選定して前記オブジェクト空間へ設定する設定手段と、
    前記演者の提示した単語を含む演者データの入力を受け付ける入力受付手段と、
    前記演者が提示した単語を前記演者データから抽出する単語抽出処理手段と、
    抽出した前記単語の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第1のパラメータを生成する第1のパラメータ生成処理手段と、
    入力した前記演者データの少なくとも一部と状態判定用の基準データとに基づき前記演者の状態を判定する判定手段と、
    判定した前記状態の感情属性を前記データベースに基づき特定し、当該感情属性に応じた第2のパラメータを生成する第2のパラメータ生成処理手段と、
    前記複数の操作コマンドの中から、前記対象キャラクタの動作の制御に用いるべき1又は複数の操作コマンドを、前記第1のパラメータと、前記第2のパラメータと、選定した前記対象キャラクタのキャラクタ属性と、所与の選定基準とに基づき選定する操作コマンド選定手段と、
    前記オブジェクト空間に設定された前記対象キャラクタの動作を、選定された前記操作コマンドに基づき制御する動作制御手段と、
    前記オブジェクト空間内で動作する前記対象キャラクタの画像を生成する画像生成手段と、
    生成された前記対象キャラクタの画像を出力する画像出力手段と、
    してコンピュータを機能させることを特徴とするプログラム。
JP2017145801A 2017-07-27 2017-07-27 画像生成装置及びプログラム Active JP6945375B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017145801A JP6945375B2 (ja) 2017-07-27 2017-07-27 画像生成装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017145801A JP6945375B2 (ja) 2017-07-27 2017-07-27 画像生成装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019024748A true JP2019024748A (ja) 2019-02-21
JP6945375B2 JP6945375B2 (ja) 2021-10-06

Family

ID=65476833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017145801A Active JP6945375B2 (ja) 2017-07-27 2017-07-27 画像生成装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6945375B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6737941B1 (ja) * 2019-09-30 2020-08-12 株式会社コロプラ プログラム、方法、および視聴端末
JP2020162880A (ja) * 2019-03-29 2020-10-08 株式会社バンダイナムコエンターテインメント プログラムおよびコンピュータシステム
JP2020162979A (ja) * 2019-03-29 2020-10-08 株式会社コロプラ システム
JP2020167526A (ja) * 2019-03-29 2020-10-08 株式会社バンダイナムコエンターテインメント サーバシステムおよび動画配信システム
JP2020185476A (ja) * 2020-08-21 2020-11-19 株式会社コロプラ プログラム、方法、およびコンピュータ
JP2021009648A (ja) * 2019-07-03 2021-01-28 株式会社ミクシィ 情報処理装置、情報処理装置側プログラム及び端末装置側プログラム
JP2021010756A (ja) * 2019-04-26 2021-02-04 株式会社コロプラ プログラム、方法、および情報端末装置
JP2021053455A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および視聴端末
JP2021053365A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および視聴端末
JP2021056818A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および端末装置
JP2021053406A (ja) * 2020-11-27 2021-04-08 株式会社コロプラ プログラム、方法、および端末装置
CN113413603A (zh) * 2021-06-22 2021-09-21 网易(杭州)网络有限公司 游戏的信息显示方法及装置、电子设备
CN113672194A (zh) * 2020-03-31 2021-11-19 北京市商汤科技开发有限公司 声学特征样本的获取方法、装置、设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248837A (ja) * 2001-11-12 2003-09-05 Mega Chips Corp 画像作成装置、画像作成システム、音声生成装置、音声生成システム、画像作成用サーバ、プログラム、および記録媒体
JP2004185437A (ja) * 2002-12-04 2004-07-02 Nippon Hoso Kyokai <Nhk> 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法
JP2010140278A (ja) * 2008-12-11 2010-06-24 Nippon Hoso Kyokai <Nhk> 音声情報可視化装置及び音声情報可視化プログラム
JP2015184689A (ja) * 2014-03-20 2015-10-22 株式会社Mugenup 動画生成装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248837A (ja) * 2001-11-12 2003-09-05 Mega Chips Corp 画像作成装置、画像作成システム、音声生成装置、音声生成システム、画像作成用サーバ、プログラム、および記録媒体
JP2004185437A (ja) * 2002-12-04 2004-07-02 Nippon Hoso Kyokai <Nhk> 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法
JP2010140278A (ja) * 2008-12-11 2010-06-24 Nippon Hoso Kyokai <Nhk> 音声情報可視化装置及び音声情報可視化プログラム
JP2015184689A (ja) * 2014-03-20 2015-10-22 株式会社Mugenup 動画生成装置及びプログラム

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022020640A (ja) * 2019-03-29 2022-02-01 株式会社コロプラ システム
JP2020162880A (ja) * 2019-03-29 2020-10-08 株式会社バンダイナムコエンターテインメント プログラムおよびコンピュータシステム
JP2020162979A (ja) * 2019-03-29 2020-10-08 株式会社コロプラ システム
JP2020167526A (ja) * 2019-03-29 2020-10-08 株式会社バンダイナムコエンターテインメント サーバシステムおよび動画配信システム
JP7398873B2 (ja) 2019-03-29 2023-12-15 株式会社バンダイナムコエンターテインメント サーバシステムおよび動画配信システム
JP7344948B2 (ja) 2019-03-29 2023-09-14 株式会社コロプラ システム
JP7329946B2 (ja) 2019-03-29 2023-08-21 株式会社バンダイナムコエンターテインメント プログラム、コンピュータシステムおよび制御方法
JP2021010756A (ja) * 2019-04-26 2021-02-04 株式会社コロプラ プログラム、方法、および情報端末装置
JP7332562B2 (ja) 2019-04-26 2023-08-23 株式会社コロプラ プログラム、方法、および情報端末装置
JP7356629B2 (ja) 2019-07-03 2023-10-05 株式会社Mixi 情報処理装置、情報処理装置側プログラム及び端末装置側プログラム
JP2021009648A (ja) * 2019-07-03 2021-01-28 株式会社ミクシィ 情報処理装置、情報処理装置側プログラム及び端末装置側プログラム
JP2021053455A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および視聴端末
JP7378383B2 (ja) 2019-09-30 2023-11-13 株式会社コロプラ プログラム、方法、および視聴端末
JP7369674B2 (ja) 2019-09-30 2023-10-26 株式会社コロプラ プログラム、方法、および視聴端末
JP2021053365A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および視聴端末
JP6737941B1 (ja) * 2019-09-30 2020-08-12 株式会社コロプラ プログラム、方法、および視聴端末
JP2021053179A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および視聴端末
JP2021056818A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および端末装置
CN113672194A (zh) * 2020-03-31 2021-11-19 北京市商汤科技开发有限公司 声学特征样本的获取方法、装置、设备以及存储介质
JP2022530726A (ja) * 2020-03-31 2022-07-01 北京市商▲湯▼科技▲開▼▲發▼有限公司 インタラクティブ対象駆動方法、装置、デバイス、及び記録媒体
JP7175299B2 (ja) 2020-08-21 2022-11-18 株式会社コロプラ プログラム、方法、およびコンピュータ
JP2020185476A (ja) * 2020-08-21 2020-11-19 株式会社コロプラ プログラム、方法、およびコンピュータ
JP7135058B2 (ja) 2020-11-27 2022-09-12 株式会社コロプラ プログラム、方法、および端末装置
JP2021053406A (ja) * 2020-11-27 2021-04-08 株式会社コロプラ プログラム、方法、および端末装置
CN113413603A (zh) * 2021-06-22 2021-09-21 网易(杭州)网络有限公司 游戏的信息显示方法及装置、电子设备
CN113413603B (zh) * 2021-06-22 2024-03-15 网易(杭州)网络有限公司 游戏的信息显示方法及装置、电子设备

Also Published As

Publication number Publication date
JP6945375B2 (ja) 2021-10-06

Similar Documents

Publication Publication Date Title
JP6945375B2 (ja) 画像生成装置及びプログラム
US10347028B2 (en) Method for sharing emotions through the creation of three-dimensional avatars and their interaction
CN112379812B (zh) 仿真3d数字人交互方法、装置、电子设备及存储介质
EP3381175B1 (en) Apparatus and method for operating personal agent
CN100468463C (zh) 用于处理图像的方法、装置
JP5859456B2 (ja) プレゼンテーション用カメラ・ナビゲーション
JP6945312B2 (ja) 操作制御システム、キャラクタ上映システム及びプログラム
US11823316B2 (en) Photoreal character configurations for spatial computing
KR20010020126A (ko) 선순위 기초 가상 환경
CN102201099A (zh) 基于运动的交互式购物环境
CN102542488A (zh) 基于用户表达的营销术语的自动广告生成
US12079947B2 (en) Virtual reality presentation of clothing fitted on avatars
JP2018075260A (ja) ゲームシステム及びプログラム
CN112990043A (zh) 一种服务交互方法、装置、电子设备及存储介质
JP6241698B1 (ja) 評価支援システム及び評価支援装置
CN117391122A (zh) 一种基于元宇宙中建立的3d数字人互助式聊天方法
Mania et al. Gaze-aware displays and interaction
Gilroy et al. An affective model of user experience for interactive art
WO2021191017A1 (en) 3d modelling and representation of furnished rooms and their manipulation
Gross et al. Gesture Modelling: Using Video to Capture Freehand Modeling Commands
JP2021071942A (ja) 動画処理方法、サーバ装置及びコンピュータプログラム
JP7418709B2 (ja) コンピュータプログラム、方法及びサーバ装置
JP7161802B1 (ja) 3次元画像管理装置、3次元画像管理方法及び3次元画像管理プログラム
KR102538058B1 (ko) 웹 사이트에 대한 아나운싱 광고 배너 제공 시스템
Wan et al. Interactive shadow play animation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210914

R150 Certificate of patent or registration of utility model

Ref document number: 6945375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250