JP2015069231A - キャラクタ生成装置およびプログラム - Google Patents

キャラクタ生成装置およびプログラム Download PDF

Info

Publication number
JP2015069231A
JP2015069231A JP2013200422A JP2013200422A JP2015069231A JP 2015069231 A JP2015069231 A JP 2015069231A JP 2013200422 A JP2013200422 A JP 2013200422A JP 2013200422 A JP2013200422 A JP 2013200422A JP 2015069231 A JP2015069231 A JP 2015069231A
Authority
JP
Japan
Prior art keywords
character
emotion
information indicating
action
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013200422A
Other languages
English (en)
Other versions
JP6201212B2 (ja
Inventor
伸也 高山
Shinya Takayama
伸也 高山
茂之 酒澤
Shigeyuki Sakasawa
茂之 酒澤
建鋒 徐
Kenho Jo
建鋒 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013200422A priority Critical patent/JP6201212B2/ja
Publication of JP2015069231A publication Critical patent/JP2015069231A/ja
Application granted granted Critical
Publication of JP6201212B2 publication Critical patent/JP6201212B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】利用との任意の入出力結果を、キャラクタの感情生成部にフィードバックし、将来のキャラクタ生成に反映させる。
【解決手段】本発明のキャラクタ生成装置は、感情を表現可能なキャラクタを生成するキャラクタ生成装置であって、入力データに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、動作を示す情報を出力する動作決定部30−2と、入力データの感情分類を示す情報に基づいて、キャラクタの動作を示す情報に感情を示す情報を付与する感情付与部30−3と、動作の表示または感情の表示に対応するフィードバックデータに基づいて、動作を示す情報または感情を示す情報を更新する情報反映部30−6と、を備える。
【選択図】図2

Description

本発明は、感情を表現可能なキャラクタを生成するキャラクタ生成装置およびプログラムに関する。
従来から、マウスクリックやテキストデータなど、任意の入力情報に基づいて、キャラクタの表情を生成する技術が知られている。例えば、特許文献1に開示されている技術では、入力されたテキストデータを解析してセグメント毎に感情情報を付与し、付与された感情に対応するキャラクタを表情付で表示する。すなわち、この技術は、顔画像を構成する複数の顔部品画像を合成して特定の表情を生成する表情生成方法であり、複数の表情と、各表情に対応して顔部品画像毎に設定される所定の判断基準から構成される表情カテゴリ空間とを関連付けて格納し、表情カテゴリ空間での種々の表情に対応する各顔部品画像についての位置情報を格納する。そして、外部から入力される操作データと、表情カテゴリ空間にて設定される各表情とを関連付ける。
また、特許文献2に開示されている技術では、利用者との自然な会話を通じて適切なサービス・情報の取捨選択を支援し、当該利用者にとって有益なサービス・情報の提供を支援する。すなわち、この技術は、キャラクタを介したインタフェースを介して利用者と対話を行うことができる。利用者から入力された対話は、対話認識部で認識され、利用者プロファイル情報として格納される。対話認識結果および利用者プロファイル情報がフィードバックされ、知識ベースを基に、対話文を生成し、利用者に対話を出力する。
特開2002−342769号公報 特開2006−323875号公報
しかしながら、特許文献1に開示されている技術では、感情情報が付与されたキャラクタの表情は生成できるが、キャタクタの仕草までは生成できない。また、特許文献2に開示されている技術では、利用者との対話の認識結果を利用して利用者プロファイル情報を更新し、対話制御部へのフィードバックを行って、将来の対話分選択に反映させているが、生成するキャラクタは感情を持っておらず、キャラクタの感情生成部へのフィードバックについては考慮されていない。
本発明は、このような事情に鑑みてなされたものであり、利用者との任意の入出力結果を、キャラクタの感情生成部にフィードバックし、将来のキャラクタ生成に反映させることができるキャラクタ生成装置およびプログラムを提供することを目的とする。
(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、本発明のキャラクタ生成装置は、感情を表現可能なキャラクタを生成するキャラクタ生成装置であって、入力データに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する動作決定部と、前記入力データの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する感情付与部と、前記動作の表示または前記感情の表示に対応するフィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する情報反映部と、を備えることを特徴とする。
このように、入力データに基づいて、キャラクタの表情または仕草を含む動作を決定し、動作を示す情報を出力し、入力データの感情分類を示す情報に基づいて、キャラクタの動作を示す情報に感情を示す情報を付与し、動作の表示または感情の表示に対応するフィードバックデータに基づいて、動作を示す情報または感情を示す情報を更新するので、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。
(2)また、本発明のキャラクタ生成装置は、前記フィードバックデータを入力するフィードバック入力部を更に備えることを特徴とする。
このように、フィードバックデータを入力するフィードバック入力部を更に備えるので、利用者の反応を将来のキャラクタ生成に反映させることができる。
(3)また、本発明のキャラクタ生成装置は、前記入力データの感情分類の強度を示す情報に基づいて、前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生する際の動作の強弱を制御する強弱制御部を更に備えることを特徴とする。
このように、入力データの感情分類の強度を示す情報に基づいて、感情を示す情報が付与されたキャラクタの動作を示す情報を再生する際の動作の強弱を制御する強弱制御部を更に備えるので、キャラクタの表現力を向上させることが可能となる。
(4)また、本発明のキャラクタ生成装置は、入力された任意のデータの感情分類または前記感情分類の強度を解析する感情解析部を更に備えることを特徴とする。
このように、入力された任意のデータの感情分類または前記感情分類の強度を解析する感情解析部を更に備えるので、メールや人間の行動等、会話では表現できない複雑な感情が連続的に入力された場合でも、感情が付与されたキャラクタを自動的に生成することができる。
(5)また、本発明のキャラクタ生成装置は、任意のデータを入力するデータ入力部を更に備えることを特徴とする。
このように、任意のデータを入力するデータ入力部を更に備えるので、任意のデータを用いてキャラクタを生成することが可能となる。
(6)また、本発明のキャラクタ生成装置は、前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生するキャラクタ再生部を更に備えることを特徴とする。
このように、感情を示す情報が付与されたキャラクタの動作を示す情報を再生するキャラクタ再生部を更に備えるので、利用者に対して生成したキャラクタを視認させることが可能となる。
(7)また、本発明のプログラムは、感情を表現可能なキャラクタを生成するプログラムであって、入力データに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する処理と、前記入力データの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する処理と、前記動作の表示または前記感情の表示に対応するフィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する処理と、の一連の処理を、コンピュータに実行させることを特徴とする。
このように、入力データに基づいて、キャラクタの表情または仕草を含む動作を決定し、動作を示す情報を出力し、入力データの感情分類を示す情報に基づいて、キャラクタの動作を示す情報に感情を示す情報を付与し、動作の表示または感情の表示に対応するフィードバックデータに基づいて、動作を示す情報または感情を示す情報を更新するので、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。
本発明によれば、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。
本実施形態に係るキャラクタ生成装置の概略構成を示す図である。 実施形態に係るキャラクタ生成装置の機能を示すブロック図である。 実施形態に係るキャラクタ生成装置の動作を示すフローチャートである。
本実施形態に係るキャラクタ生成装置は、利用者との任意の入出力結果を、キャラクタの感情生成部にフィードバックし、将来のキャラクタ生成に反映させる。本明細書において、「表情」とは、人物を含む生物または生物を模擬したキャタクタが何か行動を起こしたり感情を表したりする際の顔つきのことを指し、「仕草」とは、体の動作や身のこなしのことを意味する。
本発明の実施形態に係るキャラクタ生成装置は、入力された任意のテキストデータに基づいて、キャラクタの表情または仕草を決定し、入力されたテキストデータにおける感情分類を示す情報に応じて、キャラクタの表情または仕草に感情を付与すると共に、動作決定または感情付与に対するフィードバックデータに基づいて、動作決定または感情付与を更新する。これにより、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。
本明細書では、一例として、テキストを用いたキャラクタ生成装置を示すが、本発明の技術的思想は、テキスト情報に限定されるわけではない。例えば、「音声」を入力情報とし、音声認識により、テキストデータまたはフィードバックデータを取得しても良い。また、「音響」を入力情報とし、平均テンポ、音色、音圧レベル、音圧レベルの変動により、感情分類およびその強度を抽出しても良い。また、「キー操作」を入力情報として、感情分類及びその強度をキー操作により入力するようにしても良い。
また、「タッチ」を入力情報として、感情分類およびその強度をタッチ操作により入力するようにしても良い。また、「画像」を入力情報として、画像における表情認識技術を利用して、感情分類およびその強度を抽出しても良い。この場合、感情認識カメラを用いることも可能である。また、「映像」を入力情報として、「音声」と「画像」における例を併用し、感情分類及びその強度を抽出するようにしても良い。これにより、メールや人間の行動等、会話では表現できない複雑な感情が連続的に入力された場合でも、感情が付与されたキャラクタを自動的に生成することができる。
図1は、本実施形態に係るキャラクタ生成装置の概略構成を示す図である。図1に示すように、キャラクタ生成装置は、ディスプレイ10と、キーボード20と、PC(Personal Computer)30とから構成されている。そして、キーボード20によりPC30にテキストデータ40及びフィードバックデータ50が入力される。なお、図1では、キーボード20が、PC30に接続されているが、本発明の技術的思想は、これに限定されるわけではなく、任意手段によりPCに対してテキストデータが入力されれば十分である。
PC30は、ケーブル30aを介してキャラクタ再生装置としてのディスプレイ10に接続されている。PC30では、入力されるテキストデータ40における感情分類または感情分類の強度を解析すると共に、テキストデータ40に基づいてキャラクタの表情または仕草を決定する。また、解析分類された感情に基づいて決定されたキャラクタの表情または仕草に感情を付与する。
さらに、解析された感情分類の強度に基づいて生成したキャラクタの仕草における強弱を制御する。さらに、PC30は、解析された感情分類に基づいて生成されたキャラクタの表情または仕草、解析された感情分類の強度に基づいて強弱が制御されたキャラクタの表情または仕草の画像を生成して、画像信号を随時ディスプレイ10に発信する。その際、PC30において生成された画像はディスプレイ10にA1として映写される。なお、本発明の実施形態に係るキャラクタ生成装置では、合成されたキャラクタの表情または仕草の画像信号をディスプレイ10に発信しなくても構わない。そして、PC30は、フィードバックデータ50に基づいて動作決定または感情付与を更新する。
図2は、実施形態に係るキャラクタ生成装置の機能を示すブロック図である。PC30の感情解析部30−1は、ユーザの入力操作を受け付けて、入力された任意のデータから各データにおける感情分類または感情分類の強度を解析する。すなわち、感情解析部30−1は、キーボード20により入力されたテキストデータ40を認識して、テキストデータ40における感情分類または感情分類の強度を解析する。また、PC30の動作決定部30−2は、キャラクタの動作を決定する。すなわち、動作決定部30−2は、キーボード20により入力されたテキストデータ40を認識し、テキストデータ40に基づいて、キャラクタの表情または仕草を決定する。
PC30の感情付与部30−3は、キャラクタの表情または仕草に感情を付与する。すなわち、感情付与部30−3は、感情解析部30−1が解析した感情分類に基づいて、中立的な表情または仕草を変換し、キャラクタの表情または仕草に感情を付与する。また、PC30の強弱制御部30−4は、キャラクタの表情または仕草における強弱を制御する。すなわち、強弱制御部30−4は、感情解析部30−1が解析した感情分類の強度に基づいて、感情付与部30−3が感情を付与したキャラクタの表情または仕草における強弱を制御する。
PC30のキャラクタ再生部30−5は、キャラクタの表情または仕草の画像を再生する。すなわち、キャラクタ再生部30−5は、感情付与部30−3が感情を付与したキャラクタの表情または仕草、強弱制御部30−4が強弱を制御したキャラクタの表情または仕草の画像を再生する。
PC30の情報反映部30−6は、フィードバックデータの結果を将来のキャラクタ生成に反映させる。すなわち、情報反映部30−6は、キーボード20により入力されたフィードバックデータ50を認識し、その結果を動作決定部30−2または感情付与部30−3にフィードバックする。
図3は、実施形態に係るキャラクタ生成装置の動作を示すフローチャートである。初めに、PC30に、キーボード20によりテキストデータ40が入力される(ステップS1)。次に、PC30において、入力されるテキストデータ40を認識して、テキストデータ40における感情分類及び強度を解析する(ステップS2)。ここでは、入力されるテキストデータ40が単語の場合を説明するが、本発明の技術的思想は、単語に限定されるわけではなく、句であっても文であっても良い。本実施形態では、感情分類とそれぞれの強度から構成される感情語データベースを使用する。
なお、感情語データベースは、日本語辞書などの大量の単語データベースに存在する全ての単語に対して、人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つがどれくらいの割合で存在するか規定し、それぞれの感情強度を0〜1の範囲で、0.1刻みに10段階で指定して、予め形成されている。また、入力されるテキストデータ40が句または文である場合は、単語の場合と同様に、句または文に全体における感情分類とそれぞれの強度から構成される感情句データベースまたは感情文データベースを使用すれば良い。ここで、「喜び」の強度をS1、「悲しみ」の強度をS2、「怒り」の強度をS3、「嫌悪」の強度をS4、「恐怖」の強度をS5、「罪」の強度をS6、「恥」の強度をS7、「興味」の強度をS8、「驚き」の強度をS9と表す。ただし、Siは、次の数式を満たす。
Figure 2015069231
そして、入力されるテキストデータ40と一致または類似する単語を感情語データベースの中から検索し、その単語における感情分類と強度を抽出する。すなわち、テキストデータ40における感情分類は、次の数式に表わされるように、9次元のベクトルで示される。
Figure 2015069231
また、入力されるテキストデータ40における全体強度Wは、次の数式で表わされる。
Figure 2015069231
例えば、テキストデータ40として、「泣き笑い」を入力すると、抽出される感情分類と強度Wは、次のようになる。
Figure 2015069231
次に、PC30において、入力されるテキストデータ40を認識し、テキストデータ40に基づいて、「目を閉じる」「お辞儀する」「手を挙げる」等のキャラクタの表情または仕草を決定する。(ステップS3)。本実施形態では、無感情の表情または仕草における動きデータと、日本語辞書などの代表的な単語データベースに存在する各単語をパラメータとして算出した各動きデータにおける類似度パラメータのペアで構成される動作データベースを用意する。
なお、ここで言う動きデータは、キャラクタの全ての骨格が任意の時刻において何れの空間位置座標に存在するかが記述されている。テキストデータ40が入力されると、テキストデータ40における類似度パラメータを算出し、動作データベースの中にある全ての動きデータにおける類似度パラメータとのコサイン類似度を求め、最も値の大きい表情または仕草をキャラクタの動作hとして決定すると共に、動作データベースの動作hにおけるキャラクタの動きデータを、本キャラクタ生成装置における動きデータとして生成する。
次に、PC30において、ステップS3で決定されたキャラクタの表情または仕草に感情を付与する。(ステップS4)。
まず、ステップS2で解析された感情に基づいて、ステップS3で決定されたキャラクタの表情に感情を付与する方法について述べる。本実施形態では、ステップS3でキャラクタの表情として決定された動作hを、ステップS2で解析された感情に応じて合成変換することで、キャラクタの表情に感情を付与する。まず、人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つの感情における表情において、無感情の表情からの変化量を、キャラクタの表情における全てのポリゴン(polygon)に対してそれぞれ定義しておく。
ここで、キャラクタの表情の中のあるポリゴンPに対して、「喜び」の基本表情における無感情の表情との座標の差分を(X1,Y1,Z1)、「悲しみ」の基本表情における無感情の表情との座標の差分を(X2,Y2,Z2)、「怒り」の基本表情における無感情の表情との座標の差分を(X3,Y3,Z3)、「嫌悪」の基本表情における無感情の表情との座標の差分を(X4,Y4,Z4)、「恐怖」の基本表情における無感情の表情との座標の差分を(X5,Y5,Z5)、「罪」の基本表情における無感情の表情との座標の差分を(X6,Y6,Z6)、「恥」の基本表情における無感情の表情との座標の差分を(X7,Y7,Z7)、「興味」の基本表情における無感情の表情との座標の差分を(X8,Y8,Z8)、「驚き」の基本表情における無感情の表情との座標の差分を(X9,Y9,Z9)、と表す。
そして、ステップS3でキャラクタの表情として決定された動作hを、ステップS2で解析された感情に応じて合成変換し、キャラクタの表情に感情を付与する。すなわち、動作hのあるフレームにおけるPの座標を(X0,Y0,Z0)とすると、感情が付与されたキャラクタの表情におけるPの座標(XE,YE,ZE)は、次式で表わされる。
Figure 2015069231
同様の操作をキャラクタの表情における全ポリゴンに対して実行し、さらに動作hにおける全フレームに対して実行し、キャラクタの表情に感情を付与する。
次に、ステップS2で解析された感情に基づいて、ステップS3で決定されたキャラクタの仕草に感情を付与する方法について述べる。本実施形態では、予め収録された全ての仕草における無感情の動きデータ及び各感情分類の動きデータを学習させ、無感情の動きデータから各感情分類の動きデータへの変換を予め定義し、ステップS3で決定した動作hにおける無感情の動きデータを、ステップS2で解析された感情に応じて合成変換することで、キャラクタの仕草に感情を付与する。
本明細書では、一例として、主成分分析を用いてキャラクタの仕草に感情を付与するが、本発明の技術的思想は、主成分分析に限定されるわけでなく、非線形状態空間写像や機械学習等、別の方法を用いてキャラクタの仕草に感情を付与しても良い。まず、無感情及び人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つの感情における仕草を予め複数用意し、学習用データベースに登録しておく。登録された全ての仕草における無感情の動きデータ及び各感情分類の動きデータを学習し、線形回帰手法により、無感情の動きデータから各感情分類の動きデータに変換するためのパラメータを算出する。すなわち、収録された仕草m(m=1,2,…)における無感情の動きデータの第j主成分座標の微分値kj(m)を用いて、次の数式により線形回帰演算を行って、変換パラメータaj i、bj iを算出する。
Figure 2015069231
ただし、qj i(m)は仕草mにおける各感情の動きデータの第j主成分座標の微分値を示しており、i=1は感情分類が「喜び」の場合を、i=2は感情分類が「悲しみ」の場合を、i=3は感情分類が「怒り」の場合を、i=4は感情分類が「嫌悪」の場合を、i=5は感情分類が「恐怖」の場合を、i=6は感情分類が「罪」の場合を、i=7は感情分類が「恥」の場合を、i=8は感情分類が「興味」の場合を、i=9は感情分類が「驚き」の場合をそれぞれ表す。次に、テキストデータ40が入力されると、テキストデータ40に基づいて決定した動作hにおける無感情の動きデータを、テキストデータ40から抽出された感情分類に対応する各変換パラメータaj i、bj iを用いて合成変換し、キャラクタの仕草に感情を付与する。すなわち、感情が付与されたキャラクタの動作hにおける動きデータの第j主成分座標の微分値pj(h)は、次の数式で表わされる。
Figure 2015069231
同様の操作をキャラクタの動作hにおける全フレームに対して実行し、キャラクタの仕草に感情を付与する。
次に、PC30において、解析された感情分類の強度に基づいて、付与したキャラクタの表情または仕草における感情の強弱を制御する(ステップS5)。本実施形態では、入力されるテキストデータ40における全体強度Wに応じて、ステップS4で感情を付与したキャラクタの動作hにおける動きデータの第j主成分座標の微分値pjを次の数式のように重み付けし、強弱を制御したキャラクタの新たな動作hにおける動きデータの第j主成分座標の微分値ojを算出する。
Figure 2015069231
同様の操作をキャラクタの動作hにおける全フレームに対して実行し、強弱を制御したキャラクタの新たな表情または仕草を生成する。
次に、PC30において、解析された感情分類に基づいて感情が付与されたキャラクタの表情または仕草、解析された感情分類の強度に基づいて強弱が制御されたキャタクタの表情または仕草の画像を生成する(ステップS6)。ここで、キーボード20により入力されるテキストデータ40が続行するかどうかを判断し(ステップS6−2)、続行する場合は、キャラクタの表情または仕草の画像を生成した後、ステップS2に戻り、次のテキストデータ40に対しての処理を開始する。一方、ステップS6−2において、テキストデータ40が続行しない場合は、ステップS7に遷移する。
最後に、生成されたキャラクタの表情または仕草の画像をディスプレイ10に映写する(ステップS7)。
一方、PC30において、動作決定または感情付与に対するフィードバックデータに基づいて、動作決定または感情付与を更新する(ステップS8)。なお、本発明の技術的思想では、テキストデータを入力した利用者と異なる利用者がフィードバックデータを入力しても良く、その場合、ステップS1からステップS7の処理と、ステップS8の処理は並列に行われる。その際に、ステップS2の動作決定処理とステップS8の情報更新処理、または、ステップS3の感情付与処理とステップS8の情報更新処理が同時に実行された場合は、何れの場合もステップS8の情報更新処理を優先して実行することとする。
まず、動作決定に対するフィードバックデータに基づいて、ステップS3を更新する方法について述べる。本実施形態では、キーボード20により入力されたフィードバックデータ50を認識して、動作決定に対する満足度を取得する。ここでは、入力されるフィードバックデータ50が「返事をしてくれて有り難う」等の任意の句の場合を説明するが、本発明の技術的思想は、句に限定されるわけではなく、文であっても良いし、フィードバックデータ50が動作決定に対するフィードバックデータと限定される環境であれば、単語でも良い。すなわち、対話等、利用者とキャラクタ間の自然なやり取りの中でのフィードバックデータ50の取得が可能である。
ここで、直前に生成したキャラクタの画像における表情または仕草を動作hとする。フィードバックデータ50が入力されると、ステップS3と同様に、フィードバックデータ50における類似度パラメータを算出し、動作hにおける類似度パラメータとのコサイン類似度を求め、その値が閾値θhよりも大きければ、フィードバックデータ50を動作hに対するフィードバックデータと判定する。また、本実施形態では、日本語辞書などの大量の単語データベースから満足度を表す単語を抽出し、「満足」「不満」の2つ分類にして、満足度単語データベースとして用意する。
そして、動作hに対するフィードバックデータと判定されたフィードバックデータ50の中から、満足度単語データベースと一致または類似する単語を検出する。もし、検出された単語が「満足」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、コサイン類似度の値に関わらず、動作hをキャラクタの表情または動作として決定するように、ステップS3を更新する。もし、検出された単語が「不満」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、2番目にコサイン類似度の大きいキャラクタの表情または動作として決定するように、ステップS3を更新する。
次に、感情付与に対するフィードバックデータに基づいて、ステップS4を更新する方法について述べる。本実施形態では、キーボード20により入力されたフィードバックデータ50を認識して、感情付与に対する満足度を取得する。ここでは、入力されるフィードバックデータ50が「もう少し喜んでよ!」等の任意の句の場合を説明するが、本発明の技術的思想は、句に限定されるわけではなく、文であっても良いし、フィードバックデータ50が感情付与に対するフィードバックデータと限定される環境であれば、単語でも良い。フィードバックデータ50が入力されると、ステップS2と同様に、フィードバックデータ50における感情分類と強度S’iを求め、S’iが0でなければ、フィードバックデータ50を感情付与に対するフィードバックデータと判定する。そして、感情付与に対するフィードバックデータと判定されたフィードバックデータ50の中から、満足度単語データベースと一致または類似する単語を検出する。
もし、検出された単語が「満足」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、テキストデータ40における感情強度SiにS’iを加えて、キャラクタの感情を付与するように、ステップS4を更新する。もし、検出された単語が「不満」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、テキストデータ40における感情強度SiにS’iを減じて、キャラクタの感情を付与するように、ステップS4を更新する。なお、両者の場合共、S’i=0となった感情分類においては、テキストデータ40における感情強度Siの値を維持する。
以上説明したように、本実施形態によれば、PC30に入力されるテキストデータ40における感情分類または感情分類の強度を解析すると共に、テキストデータ40に基づいてキャラクタの仕草を決定する。また、解析された感情分類に応じてキャラクタの仕草に感情を付与する。さらに、解析された感情分類の強度に基づいて生成したキャラクタの仕草の強弱を制御する。そして、PC30は、感情が付与されたキャラクタの仕草または強弱が制御されたキャタクタの仕草の画像を生成して、画像信号を随時ディスプレイ10に発信する。その際、PC30において生成された画像はディスプレイ10にA1として映写される。加えて、そして、PC30は、フィードバックデータ50に基づいて動作決定または感情付与を更新する。これにより、本実施形態では、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。さらに、メールやツイッター、人間の行動等、会話では表現できない複雑な感情が連続的に入力された場合でも、感情が付与されたキャラクタを自動的に生成することができる。
10 ディスプレイ
20 キーボード
30 PC
30−1 感情解析部
30−2 動作決定部
30−3 感情付与部
30−4 強弱制御部
30−5 キャラクタ再生部
30−6 情報反映部
30a ケーブル
40 テキストデータ
50 フィードバックデータ

Claims (7)

  1. 感情を表現可能なキャラクタを生成するキャラクタ生成装置であって、
    入力データに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する動作決定部と、
    前記入力データの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する感情付与部と、
    前記動作の表示または前記感情の表示に対応するフィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する情報反映部と、を備えることを特徴とするキャラクタ生成装置。
  2. 前記フィードバックデータを入力するフィードバック入力部を更に備えることを特徴とする請求項1記載のキャラクタ生成装置。
  3. 前記入力データの感情分類の強度を示す情報に基づいて、前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生する際の動作の強弱を制御する強弱制御部を更に備えることを特徴とする請求項1または請求項2記載のキャラクタ生成装置。
  4. 入力された任意のデータの感情分類または前記感情分類の強度を解析する感情解析部を更に備えることを特徴とする請求項1から請求項3のいずれかに記載のキャラクタ生成装置。
  5. 任意のデータを入力するデータ入力部を更に備えることを特徴とする請求項1から請求項4のいずれかに記載のキャラクタ生成装置。
  6. 前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生するキャラクタ再生部を更に備えることを特徴とする請求項1から請求項5のいずれかに記載のキャラクタ生成装置。
  7. 感情を表現可能なキャラクタを生成するプログラムであって、
    入力データに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する処理と、
    前記入力データの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する処理と、
    前記動作の表示または前記感情の表示に対応するフィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する処理と、の一連の処理を、コンピュータに実行させることを特徴とするプログラム。
JP2013200422A 2013-09-26 2013-09-26 キャラクタ生成装置およびプログラム Active JP6201212B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013200422A JP6201212B2 (ja) 2013-09-26 2013-09-26 キャラクタ生成装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013200422A JP6201212B2 (ja) 2013-09-26 2013-09-26 キャラクタ生成装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2015069231A true JP2015069231A (ja) 2015-04-13
JP6201212B2 JP6201212B2 (ja) 2017-09-27

Family

ID=52835882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013200422A Active JP6201212B2 (ja) 2013-09-26 2013-09-26 キャラクタ生成装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6201212B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020047240A (ja) * 2018-09-20 2020-03-26 未來市股▲ふん▼有限公司 インタラクティブ応答方法及びそれを利用するコンピュータ・システム
JPWO2019073559A1 (ja) * 2017-10-11 2020-10-22 サン電子株式会社 情報処理装置
JP2021039595A (ja) * 2019-09-04 2021-03-11 本田技研工業株式会社 データ処理装置及びデータ処理方法
JP6930781B1 (ja) * 2021-04-05 2021-09-01 クリスタルメソッド株式会社 学習方法、及びコンテンツ再生装置
JP2022526511A (ja) * 2019-08-28 2022-05-25 北京市商▲湯▼科技▲開▼▲發▼有限公司 インタラクティブ方法、装置、デバイス、及び記憶媒体
JP2023044240A (ja) * 2021-09-17 2023-03-30 大連理工大学 音声感情予測方法及びシステム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242751A (ja) * 1998-02-24 1999-09-07 Canon Inc アニメーション制御装置及び方法及び文読み上げ装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242751A (ja) * 1998-02-24 1999-09-07 Canon Inc アニメーション制御装置及び方法及び文読み上げ装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019073559A1 (ja) * 2017-10-11 2020-10-22 サン電子株式会社 情報処理装置
JP2020047240A (ja) * 2018-09-20 2020-03-26 未來市股▲ふん▼有限公司 インタラクティブ応答方法及びそれを利用するコンピュータ・システム
JP2022526511A (ja) * 2019-08-28 2022-05-25 北京市商▲湯▼科技▲開▼▲發▼有限公司 インタラクティブ方法、装置、デバイス、及び記憶媒体
JP2021039595A (ja) * 2019-09-04 2021-03-11 本田技研工業株式会社 データ処理装置及びデータ処理方法
JP6930781B1 (ja) * 2021-04-05 2021-09-01 クリスタルメソッド株式会社 学習方法、及びコンテンツ再生装置
JP2022159632A (ja) * 2021-04-05 2022-10-18 クリスタルメソッド株式会社 学習方法、及びコンテンツ再生装置
JP2023044240A (ja) * 2021-09-17 2023-03-30 大連理工大学 音声感情予測方法及びシステム
JP7271827B2 (ja) 2021-09-17 2023-05-12 大連理工大学 音声感情予測方法及びシステム

Also Published As

Publication number Publication date
JP6201212B2 (ja) 2017-09-27

Similar Documents

Publication Publication Date Title
CN110688911B (zh) 视频处理方法、装置、系统、终端设备及存储介质
WO2022048403A1 (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
US20200279553A1 (en) Linguistic style matching agent
JP6201212B2 (ja) キャラクタ生成装置およびプログラム
Chiu et al. How to train your avatar: A data driven approach to gesture generation
CN111368609A (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
KR101604593B1 (ko) 이용자 명령에 기초하여 리프리젠테이션을 수정하기 위한 방법
JP7352115B2 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、非言語情報生成方法、非言語情報生成モデル学習方法及びプログラム
US20100082345A1 (en) Speech and text driven hmm-based body animation synthesis
TW201913300A (zh) 人機互動方法及系統
CN114995657B (zh) 一种智能机器人的多模态融合自然交互方法、系统及介质
US11404063B2 (en) Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs
JP7212284B2 (ja) 非言語情報生成装置、方法、及びプログラム
Fares et al. Zero-shot style transfer for gesture animation driven by text and speech using adversarial disentanglement of multimodal style encoding
Feldman et al. Engagement with artificial intelligence through natural interaction models
JP7140984B2 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JP6222465B2 (ja) アニメーション生成装置、アニメーション生成方法およびプログラム
CN115311731B (zh) 一种手语数字人的表情生成方法和装置
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6562711B2 (ja) ロボット動作生成装置およびプログラム
Lovely et al. Rule-based lip-syncing algorithm for virtual character in voice chatbot
JP2014167737A (ja) 仕草生成装置およびプログラム
JP2015125613A (ja) アニメーション生成装置、データフォーマット、アニメーション生成方法およびプログラム
JP2014085952A (ja) 表情生成装置およびプログラム
CN118170253A (zh) 虚拟角色的控制方法及装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R150 Certificate of patent or registration of utility model

Ref document number: 6201212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150