JP2004185437A - 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法 - Google Patents

身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法 Download PDF

Info

Publication number
JP2004185437A
JP2004185437A JP2002352953A JP2002352953A JP2004185437A JP 2004185437 A JP2004185437 A JP 2004185437A JP 2002352953 A JP2002352953 A JP 2002352953A JP 2002352953 A JP2002352953 A JP 2002352953A JP 2004185437 A JP2004185437 A JP 2004185437A
Authority
JP
Japan
Prior art keywords
chat
character
participant
physical information
emotion expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002352953A
Other languages
English (en)
Inventor
Mamoru Doke
守 道家
Masaki Hayashi
林  正樹
Narichika Hamaguchi
斉周 浜口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2002352953A priority Critical patent/JP2004185437A/ja
Publication of JP2004185437A publication Critical patent/JP2004185437A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】チャット参加者のリアルタイムの感情、本音をチャットに反映させることができる身体情報反映チャット用プログラム、サーバ、クライアントおよび方法を提供する。
【解決手段】ネットワークを介してチャットを行う際に、このチャットに参加しているチャット参加者の身体情報を、当該チャット参加者のキャラクタに反映させてチャットを行う身体情報反映チャット用サーバ3であって、参加者キャラクタ登録設定手段7aと、感情表現パラメータ分析手段7bと、キャラクタ生成手段7dと、動きデータ生成手段7eと、キャラクタ修正手段7fと、送受信部11と、を備えた。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、ネットワークを介してコンピュータ上で会話を行うチャットにおいて、当該チャットに参加しているチャット参加者の感情の状態を反映する身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法に関する。
【0002】
【従来の技術】
従来、ネットワークを介して接続されるコンピュータ同士を利用して、当該コンピュータの利用者(通常、複数のチャット参加者)が任意の話題について、テキストデータの送受信によって会話を行うチャットシステムでは、各チャット参加者は、当該チャット参加者が利用するコンピュータのディスプレイ上に表示された、各チャット参加者が入力したテキストデータを読んで、自分の意見をテキストデータとして入力するテキストデータベースのものがある。
【0003】
また、従来のチャットシステムには、各チャット参加者をコンピュータグラフィックスで仮想的に表現したCGキャラクタまたはチャット参加者自身の写真画像を取り込んで生成したモデル画像をコンピュータ内の仮想空間に存在させ、このCGキャラクタまたはモデル画像に各チャット参加者が入力したテキストデータを音声合成等して喋らせたり、漫画等の表現で多用される「吹き出し」のようにテキストデータを表示したりして、他のチャット参加者とチャットを行うグラフィックスベースのものがある(例えば、特許文献1参照)。
【0004】
ところで、従来のグラフィックベースのチャットシステムでは、チャット参加者の感情を表現する手法として、入力するテキストデータに感情を表す記号的なもの、例えば、!(驚き)、?(疑問)を挿入したり、複数の記号(括弧、点等)を組み合わせた「顔文字(喜んだ顔、悲しい顔等)」による表現を含めたりしていた。或いは、テキストデータの送信とは別個に、コンピュータに付属しているキーボードの特定のキー(スイッチ)を押下することで、特定の感情(怒りや笑い等)を表現し、チャット参加者の感情が表現されていた。
【0005】
【特許文献1】
特開2002−239249号公報(段落番号36−42、第6図)
【0006】
【発明が解決しようとする課題】
しかしながら、従来のグラフィックベースのチャットシステムでは、通常、チャット参加者は遠隔地に居住する、性別さえ定かでない不特定な者同士であって、各チャット参加者の表情や仕草を実際に見ながらテキストデータの送受信をしているわけではなかったので、チャットに参加しているチャット参加者同士が、実際にどう感じているのか、本音なのか、建前なのかを区別することができないという問題がある。例えば、あるチャット参加者が、実際には激怒していたのに、「笑い」に相当するキー(スイッチ)を押下した場合、他のチャット参加者は、当該チャット参加者をCG化したキャラクタをみて、笑っていると判断することしかできず、チャット参加者のリアルタイムの感情(本音)をチャットに反映させることができないという問題がある。
【0007】
そこで、本発明の目的は前記した従来の技術が有する課題を解消し、チャット参加者のリアルタイムの感情、本音をチャットに反映させることができる身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法を提供することにある。
【0008】
【課題を解決するための手段】
本発明は、前記した目的を達成するため、以下に示す構成とした。
請求項1記載の身体情報反映チャット用プログラムは、ネットワークを介してチャットを行う際に、このチャットに参加しているチャット参加者の身体情報を、当該チャット参加者のキャラクタに反映させてチャットを行う装置を、以下に示す手段として機能させることを特徴とする。当該装置を機能させる手段は、前記チャット参加者と前記キャラクタとを関連付ける参加者キャラクタ登録設定手段、前記チャット参加者が入力したテキストデータおよび少なくとも血圧、心拍数、脳波の一つを計測したチャット参加者の身体情報を組み合わせた感情表現パラメータを受信する受信手段、予め設定した感情表現パラメータの基準値と前記受信手段で受信した感情表現パラメータとを比較し、比較した比較結果に基づいて、感情表現パラメータを分析する感情表現パラメータ分析手段、前記テキストデータに基づいて、前記参加者キャラクタ登録設定手段で関連付けられた前記キャラクタが発話する発話データに変換して、当該発話データを発声するキャラクタを生成するキャラクタ生成手段、前記感情表現パラメータ分析手段で分析した分析結果に基づいて、前記キャラクタ生成手段で生成したキャラクタの動きに関する動きデータを生成する動きデータ生成手段、この動きデータ生成手段で生成した動きデータに基づいて、前記キャラクタを修正し、前記チャット参加者の身体情報の変化を当該キャラクタに反映させるキャラクタ修正手段、このキャラクタ修正手段で修正したチャット参加者身体情報反映キャラクタを前記チャット参加者に送信する送信手段、である。
【0009】
かかる構成によれば、まず、参加者キャラクタ登録設定手段で、チャット参加者とキャラクタとが関連付けられる。キャラクタは、例えば、CGキャラクタ等で描画されており、様々の顔面(面長、丸顔、やせ顔等)と、様々の体格(ガッチリ型、太型、やせ型等)との組み合わせにより構成される複数のキャラクタがチャット参加者に提示され、この中からチャット参加者は好みのキャラクタを選択することができる。また、この参加者キャラクタ登録設定手段では、チャット参加者の個人情報等の入力を義務づけることができる。これにより、入力された個人情報を確認する確認手段(認証手段)を講じれば、チャットに参加するチャット参加者の身元の信憑性を高めることができ、例えば、性別年齢等の偽りを防止することができて、より本音の会話(テキストデータの送受信)を実現することができる。
【0010】
続いて、受信手段でテキストデータと感情表現パラメータとが受信される。このテキストデータがチャットの内容(会話の内容)になり、感情表現パラメータによって、キャラクタの表情や動作が決定される。そして、感情表現パラメータ分析手段で、予め設定した感情表現パラメータの基準値と、受信した感情表現パラメータとが比較され、比較された比較結果に基づいて、感情表現パラメータが分析される。感情表現パラメータは、血圧、心拍数、脳波の一つを計測したチャット参加者の身体の状態を示すもので、感情表現パラメータの分析は、例えば、血圧が高く、心拍数が多いときには、チャット参加者は怒っていると推測したり、或いは、脳波の場合、α波がでている場合、チャット参加者は心地よい(喜んでいる)と推測したりすることができる。
【0011】
そしてまた、キャラクタ生成手段で、参加者キャラクタ登録設定手段にて関連付けられている(選択されている)キャラクタが発話する(会話する)発話データがテキストデータに基づいて生成され、この発話データを話す動作をするキャラクタが生成される。なお、このキャラクタ生成手段で生成されるキャラクタは、発話データを喋るだけの動きしかしない。引き続いて、動きデータ生成手段で、感情表現パラメータ分析手段にて分析された分析結果に基づいてキャラクタの動きに関する動きデータが生成され、この動きデータに基づいて、キャラクタ生成手段にて生成されたキャラクタ(キャラクタの表情、動き等)がキャラクタ修正手段で修正され、送信手段で送信される。つまり、動きデータによって、感情表現パラメータに沿ったキャラクタの表情(喜び、怒り、悲しみ、笑い等)が反映されることになる。
【0012】
請求項2記載の身体情報反映チャット用プログラムは、請求項1に記載の身体情報反映チャット用プログラムにおいて、前記チャット参加者の前記身体情報が経過時間の変化に伴って、当該身体情報の各時点の値により前記感情表現パラメータが随時変化した場合、この感情表現パラメータの変化と、前記感情表現パラメータの基準値との比較に基づいて前記チャット利用者の感情を類推する感情類推手段を有することを特徴とする。
【0013】
かかる構成によれば、感情類推手段で、チャット参加者の現時点の感情が類推される。そして、例えば、この類推された結果を記憶しておけば、チャット終了後に、各チャット参加者は、どの時点のどんなテキストデータ(どんな情報)に対して、それぞれのチャット参加者がどのような感情を抱いたかを知ることができ、また、感情の推移によって、チャット参加者の性格等を知ること(想像すること)ができる。
【0014】
請求項3記載の身体情報反映チャット用サーバは、ネットワークを介してチャットを行う際に、このチャットに参加しているチャット参加者の身体情報を、当該チャット参加者のキャラクタに反映させてチャットを行う身体情報反映チャット用サーバであって、前記チャット参加者と前記キャラクタとを関連付ける参加者キャラクタ登録設定手段と、前記チャット参加者が入力したテキストデータおよび少なくとも血圧、心拍数、脳波の一つを計測したチャット参加者の身体情報を組み合わせた感情表現パラメータを受信する受信手段と、予め設定した感情表現パラメータの基準値と前記受信手段で受信した感情表現パラメータとを比較し、比較した比較結果に基づいて、感情表現パラメータを分析する感情表現パラメータ分析手段と、前記テキストデータに基づいて、前記参加者キャラクタ登録設定手段で関連付けられた前記キャラクタが発話する発話データに変換して、当該発話データを発声するキャラクタを生成するキャラクタ生成手段と、前記感情表現パラメータ分析手段で分析した分析結果に基づいて、前記キャラクタ生成手段で生成したキャラクタの動きに関する動きデータを生成する動きデータ生成手段と、この動きデータ生成手段で生成した動きデータに基づいて、前記キャラクタを修正し、前記チャット参加者の身体情報の変化を当該キャラクタに反映させるキャラクタ修正手段と、このキャラクタ修正手段で修正したチャット参加者身体情報反映キャラクタを前記チャット参加者に送信する送信手段と、を備えることを特徴とする。
【0015】
かかる構成によれば、参加者キャラクタ登録設定手段で、チャット参加者とキャラクタとが関連付けられる。続いて、受信手段でテキストデータと感情表現パラメータとが受信される。このテキストデータがチャットの内容(会話の内容)になり、感情表現パラメータによって、キャラクタの表情や動作が決定される。
そして、感情表現パラメータ分析手段で、予め設定した感情表現パラメータの基準値と、受信した感情表現パラメータとが比較され、比較された比較結果に基づいて、感情表現パラメータが分析される。そしてまた、キャラクタ生成手段で、参加者キャラクタ登録設定手段にて関連付けられている(選択されている)キャラクタが発話する(会話する)発話データがテキストデータに基づいて生成され、この発話データを話す動作をするキャラクタが生成される。引き続いて、動きデータ生成手段で、感情表現パラメータ分析手段にて分析された分析結果に基づいてキャラクタの動きに関する動きデータが生成され、この動きデータに基づいて、キャラクタ生成手段にて生成されたキャラクタ(キャラクタの表情、動き等)がキャラクタ修正手段で修正され、送信手段で送信される。
【0016】
請求項4記載の身体情報反映チャット用クライアントは、請求項3に記載の身体情報反映チャット用サーバにネットワークを介してアクセスし、チャットを行う身体情報反映チャット用クライアントであって、脳波計測計、心拍数計測計、血圧計測計の少なくとも一つによって計測される当該クライアントを利用するチャット利用者の身体情報を処理し、この身体情報を組み合わせて当該チャット利用者の感情を示す基準になる感情表現パラメータとする身体情報処理手段と、この身体情報処理手段で処理された感情表現パラメータと、前記チャットの内容であり、前記チャット参加者が入力したテキストデータとを前記身体情報反映チャット用サーバに送信する送信手段と、前記身体情報反映チャット用サーバから送信される当該チャット参加者のキャラクタを表示する表示手段と、を備えることを特徴とする。
【0017】
かかる構成によれば、まず、身体情報処理手段で、チャット利用者の身体情報、つまり、脳波計測計で計測されたチャット利用者の脳波、心拍数計測計で計測されたチャット利用者の心拍数、血圧計で計測されたチャット利用者の血圧に基づいて、感情表現パラメータが生成される。そして、チャット参加者が入力した、チャットの内容であるテキストデータと共に、感情表現パラメータが送信手段で送信される。その後、表示手段でチャット参加者のキャラクタが表示される。
【0018】
請求項5記載の身体情報反映チャット方法は、ネットワークを介してチャットを行う際に、このチャットに参加しているチャット参加者の身体情報を、当該チャット参加者のキャラクタに反映させてチャットを行う身体情報反映チャット方法であって、前記チャット参加者と前記キャラクタとを関連付ける参加者キャラクタ登録設定ステップと、前記チャット参加者が入力したテキストデータおよび少なくとも血圧、心拍数、脳波の一つを計測したチャット参加者の身体情報を組み合わせた感情表現パラメータを受信する受信ステップと、予め設定した感情表現パラメータの基準値と前記受信ステップにて受信した感情表現パラメータとを比較し、比較した比較結果に基づいて、感情表現パラメータを分析する感情表現パラメータ分析ステップと、前記テキストデータに基づいて、前記参加者キャラクタ登録設定手段で関連付けられた前記キャラクタが発話する発話データに変換して、当該発話データを発声するキャラクタを生成するキャラクタ生成ステップと、前記感情表現パラメータ分析ステップにて分析した分析結果に基づいて、前記キャラクタ生成ステップにて生成したキャラクタの動きに関する動きデータを生成する動きデータ生成ステップと、この動きデータ生成ステップにて生成した動きデータに基づいて、前記キャラクタを修正し、前記チャット参加者の身体情報の変化を当該キャラクタに反映させるキャラクタ修正ステップと、このキャラクタ修正ステップにて修正したチャット参加者身体情報反映キャラクタを前記チャット参加者に送信する送信ステップと、を含むことを特徴とする。
【0019】
この方法によれば、参加者キャラクタ登録設定ステップにおいて、チャット参加者とキャラクタとが関連付けられる。続いて、受信ステップにおいて、テキストデータと感情表現パラメータとが受信される。このテキストデータがチャットの内容(会話の内容)になり、感情表現パラメータによって、キャラクタの表情や動作が決定される。そして、感情表現パラメータ分析ステップにおいて、予め設定した感情表現パラメータの基準値と、受信した感情表現パラメータとが比較され、比較された比較結果に基づいて、感情表現パラメータが分析される。そしてまた、キャラクタ生成ステップにおいて、参加者キャラクタ登録設定ステップにて関連付けられている(選択されている)キャラクタが発話する(会話する)発話データがテキストデータに基づいて生成され、この発話データを話す動作をするキャラクタが生成される。引き続いて、動きデータ生成ステップにおいて、感情表現パラメータ分析ステップにて分析された分析結果に基づいてキャラクタの動きに関する動きデータが生成され、この動きデータに基づいて、キャラクタ生成ステップにて生成されたキャラクタ(キャラクタの表情、動き等)がキャラクタ修正ステップにおいて修正され、送信ステップにて送信される。
【0020】
【発明の実施の形態】
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
(身体情報反映チャットシステム)
図1を参照して、身体情報反映チャットシステムの概要、身体情報反映チャット用サーバの構成、身体情報反映チャット用クライアントの構成を説明する。図1に示すように、身体情報反映チャットシステム1は、身体情報反映チャット用サーバ3と、身体情報反映チャット用クライアント5(5a、5b、5c・・・5n)とを備えている。身体情報反映チャットシステム1は、身体情報反映チャット用クライアント5の使用者(利用者)である複数のチャット参加者が身体情報反映用チャット用サーバ3にネットワークを介してアクセスし、チャットを行うものである。この身体情報反映チャットシステム1は、チャット参加者の身体情報(脳波、心拍数、血圧)が身体情報反映チャット用クライアント5の表示画面(表示出力手段)に表示されるキャラクタ(CGキャラクタ)に反映されて、チャット参加者同士の感情を推測しながら、チャットが行えるように構成されている。
【0021】
(身体情報反映チャット用サーバの構成)
身体情報反映チャット用サーバ3は、ネットワークを介してアクセスしてくる身体情報反映チャット用クライアント5から送信されるテキストデータ、感情表現データに基づいて、仮想空間上にチャットルーム(チャット参加者がCGキャラクタとなって集う場所)を開設してチャットを行うもので、主制御部7と、記憶部9と、送受信部11とを備えている。
【0022】
主制御部7は、身体情報反映チャット用サーバ3の制御を司るもので、CPU、メインメモリ等から構成され、参加者キャラクタ登録設定手段7aと、感情表現パラメータ分析手段7bと、テキストデータ付与手段7cと、キャラクタ生成手段7dと、動きデータ生成手段7eと、キャラクタ修正手段7fとを備えている。なお、これら7a〜7fは、主制御部7上に展開するプログラムである。
【0023】
参加者キャラクタ登録設定手段7aは、ネットワークを介して、身体情報反映チャット用クライアント5からアクセスされたチャット参加者の情報と、記憶部9に記憶されているキャラクタデータ9aとを関連付ける(結びつける)ものである。つまり、チャット参加者から送信されたチャット参加者に係る情報(以下、チャット参加者情報という)を送受信部11で受信し、記憶部9に記憶している複数のキャラクタデータを、ネットワークを介して身体情報反映チャット用クライアント5の表示画面に表示させ、チャット参加者の嗜好に基づき選択させた後、選択されたキャラクタとチャット参加者情報とを関連付けて、記憶部9に記憶するものである。
【0024】
なお、チャット参加者情報は、IPアドレス等の身体情報反映チャット用クライアント5に関する機器情報と、チャット参加者の年齢、性別、職業、住所、趣味、特技等の個人情報とを含むものである。
【0025】
感情表現パラメータ分析手段7bは、身体情報反映チャット用クライアント5から送信された感情表現パラメータと、予め記憶している感情表現パラメータの基準値(以下、感情表現パラメータ基準値という)とを比較して、各クライアント5から送信された感情表現パラメータを分析するものである。感情表現パラメータは、チャット参加者の脳波、心拍数、血圧を組み合わせたものであり、これらに基づいて推測されるチャット参加者の感情を表現したものといえるものである。感情表現パラメータ基準値は、チャット参加者の感情を推測する基準となる値であり、例えば、血圧、脈拍が一定値以下で、脳波波形が一定である場合(計測される脳波に激しい起伏が存在しない場合)、チャット参加者には表情なし(感情変化なし)といった指標となるものである。この感情表現パラメータ基準値とCGキャラクタの表情との関係については、後記する(図4を参照して説明する)。
【0026】
テキストデータ付与手段7cは、身体情報反映チャット用クライアント5のチャット参加者が入力したテキストデータを、キャラクタ生成手段7dで生成されるキャラクタの発話する発話データに変換して、当該キャラクタにテキストデータ(発話データ)を付与するものである。このテキストデータ付与手段7cは、各身体情報反映チャット用クライアント5から入力されたテキストデータを、入力された順番に順次、発話データに変換し、各クライアント5を利用するチャット利用者が参加者キャラクタ登録設定手段7aによって選択したキャラクタに対応させて、発話データを付与していくものである。
【0027】
また、このテキストデータ付与手段7cには、図示を省略した音声合成機能を有しており、この音声合成機能は、記憶部9に記憶される音声合成用データ(単語および単語の発話時間が記録されているデータ群、図示せず)に基づいて、テキストデータを音声合成し、音声合成した音声合成データを、参加者キャラクタ登録設定手段7aによって選択したキャラクタに対応させて付加するものである。
【0028】
キャラクタ生成手段7dは、参加者キャラクタ登録設定手段7aで選択されたキャラクタ(CGキャラクタ)をベースにして、テキストデータ付与手段7cで生成された発話データを付与した表示キャラクタを生成するものである。このキャラクタ生成手段7dでは、参加者キャラクタ登録設定手段7aで選択されたキャラクタに応じて、キャラクタの表情の描画程度(例えば、チャット参加者が怒っていると推測されるときの、眉のつりあげ角度や、口部の曲げ具合等)を一定の範囲で調整するデフォルメ機能を有しており、このデフォルメ機能を活用すれば、チャット参加者の感覚に即したより豊かな感情表現をキャラクタに表現させることができる。
【0029】
動きデータ生成手段7eは、感情表現パラメータ分析手段7bで分析した分析結果(感情パラメータ基準値と比較した比較結果)に基づいて、キャラクタ生成手段7dで生成した表示キャラクタに、動きを付加する動きデータを生成するものである。例えば、感情表現パラメータ分析手段7bで感情表現パラメータによって推測されるチャット参加者の感情が「喜んでいる(笑っている)」と分析された場合、この動きデータ生成手段7eで、表示キャラクタの肩部を上下に軽く揺らす動作をさせる動作データが生成される。
【0030】
キャラクタ修正手段7fは、動作データ生成手段7eで生成された動きデータに基づいて、キャラクタ生成手段7dで生成された表示キャラクタを修正するものである。このキャラクタ修正手段7fで修正された表示キャラクタが、特許請求の範囲の請求項に記載したチャット参加者身体情報反映キャラクタに相当するものである。このキャラクタ修正手段7fで修正された表示キャラクタ(チャット参加者身体情報反映キャラクタ)が送受信部11から各身体情報反映チャット用クライアント5に送信される。
【0031】
このキャラクタ修正手段7fは、キャラクタの表情、キャラクタの首の向き、キャラクタの胴体部の動きを修正するのみではなく、チャットルーム上におけるキャラクタの立ち位置も修正することができるものである。例えば、チャットルーム上に3人のキャラクタ(キャラクタA、キャラクタB、キャラクタC:チャット参加者A、チャット参加者B、チャット参加者C)が入室していた際に、キャラクタAとキャラクタBとの間で、ある話題について議論が白熱してしまい、キャラクタCが議論に参加できずにいる場合、キャラクタC(チャット参加者C)がつまらなくしている態度を表現するために、自動的に(任意に)チャットルームの片隅に追いやられるといったキャラクタCの立つ位置の修正を行うこと(演出を付加すること)も可能である。
【0032】
記憶部9は、ハードディスク等の記憶媒体によって構成されるもので、キャラクタデータ9aと、チャットテキストデータ9bと、感情表現パラメータデータ9cとを記憶しているものである。
【0033】
キャラクタデータ9aは、参加者キャラクタ登録設定手段7aで選択されるキャラクタの様々な顔の形状データ(面長、卵形、四角顔等)と、様々な体型(やせた体型、太った体型等)の胴体(胴部)データからなるものである。各顔データ、各胴体データには、チャット参加者の好みに対応するように、複数のカラーバリエーション(微妙な色違い、例えば、白っぽい顔、日焼けした顔等)が存在している。
【0034】
ここで補足しておくと、このキャラクタデータ9aに含まれるキャラクタそれぞれに、テキストデータ付与手段7cで発話データが付与されたものが表示キャラクタとなり、さらに、動きデータ生成手段7eで生成された動きデータに基づいて、キャラクタ修正手段7fで修正が施された(チャット参加者の身体情報(感情)が反映された)ものがチャット参加者身体情報反映キャラクタとなる。
【0035】
チャットテキストデータ9bは、身体情報反映チャット用クライアント5から入力されたテキストデータを入力された順に整理したものである。また、チャットテキストデータ9bには、身体情報反映チャット用クライアント5で、テキストデータが入力された時刻に関する時刻情報が含まれている。
【0036】
感情表現パラメータデータ9cは、身体情報反映チャット用クライアント5から送信された感情表現パラメータを、テキストデータと関連付けてなるものである。つまり、この感情表現パラメータデータ9cは、身体情報反映チャット用クライアントの使用者であるチャット参加者が、どういったテキストデータを入力したときに生じた感情変化であるかが明確になるように(対応するように)、時刻情報を含めて記憶されているものである。例えば、チャットルームにキャラクタA(チャット参加者A)、キャラクタB(チャット参加者B)が入室後、10秒の時点で、キャラクタA(チャット参加者A)が喋った内容(テキストデータ)によって、血圧が80(mmHg)から90(mmHg)に上昇したといったことが明確になるように感情表現パラメータデータ9cは構成されている。
【0037】
送受信部11は、入出力ポートに相当するもので、ルータやハブ等に接続されて、インターネット等のネットワークに接続しており、当該ネットワークを介して、データ(テキストデータおよび感情表現パラメータ(受信)、チャット参加者身体情報反映キャラクタ(送信))を送受信するものである。なお、この送受信部11が特許請求の範囲の請求項に記載した受信手段と送信手段とに相当するものである。
【0038】
なお、この実施の形態では、チャット参加者の登録によって設定されるキャラクタの選択、テキストデータを発話データにして付与したキャラクタの生成、キャラクタを動かす動作データの生成、この動作データに基づくキャラクタの修正は、集中的に身体情報反映チャット用サーバ3で処理し、各クライアント5(5a、5b、5c、・・・5n)に送信する構成としているが、発話データおよび動きデータを各クライアント5(5a、5b、5c、・・・5n)に送信し、クライアント5(5a、5b、5c、・・・5n)側でキャラクタの修正を行うようにする構成であってもよい。
【0039】
また、この身体情報反映チャット用サーバ3には、チャット参加者の身体情報が経過時間に伴って変化した場合、当該身体情報の各時点の値により、チャット利用者の感情を類推する、図示を省略した感情類推手段を備えている。この感情類推手段で、チャット参加者の入力されたテキストデータ(発話データ)によって変化したチャット参加者の感情の推移を類推することができる。この類推された結果を記憶しておけば、チャット終了後に、各チャット参加者は、どんなテキストデータ(どんな情報)に対して、それぞれのチャット参加者がどのような感情を生じたかを知ることができ、また、感情の推移によって、チャット参加者の性格等を知ること(想像すること)ができる。
【0040】
さらに、この身体情報反映チャット用サーバ3には、感情表現パラメータをチャットに利用するかどうか(感情表現可または感情表現不可)を選択できる感情表現出力制御手段(図示せず)が備えられている。これによって、チャット参加者は自らの感情を、他のチャット参加者に知られたくない場合に、この感情表現出力制御手段で「感情表現不可」を選択することで、各クライアント5に備えられる表示画面に表示されるキャラクタの感情が表現されることを中止することができる(つまり、どんな発話データを発していても無表情)。ただし、この場合には、感情表現出力制御手段によって「感情表現不可」が機能していることが他のチャット参加者にわかるように、例えば、キャラクタの胴体部における衣服の色が変化したり、「感情表現不可」のサイン(例えば、キャラクタの頭部に表示札)がキャラクタに付加されたりする仕組みになっている。
【0041】
この身体情報反映チャット用サーバ3によれば、参加者キャラクタ登録設定手段7aで、チャット参加者とキャラクタとが関連付けられ、送信受信部11でテキストデータと感情表現パラメータとが受信される。感情表現パラメータ分析手段7bで、予め設定した感情表現パラメータの基準値と、受信した感情表現パラメータとが比較され、比較された比較結果に基づいて、感情表現パラメータが分析される。キャラクタ生成手段7dで、参加者キャラクタ登録設定手段7aにて関連付けられている(選択されている)キャラクタが発話する(会話する)発話データがテキストデータに基づいて生成され、この発話データを話す動作をするキャラクタが生成される。動きデータ生成手段7eで、感情表現パラメータ分析手段にて分析された分析結果に基づいてキャラクタの動きに関する動きデータが生成され、この動きデータに基づいて、キャラクタ生成手段7dにて生成されたキャラクタ(キャラクタの表情、動き等)がキャラクタ修正手段7fで修正され、送受信部11で送信される。このため、このキャラクタ(チャット参加者身体情報反映キャラクタ)を受信した側では、このキャラクタに、当該チャット参加者の身体情報から類推される感情の推移が適宜、テキストデータ(発話データ)と共に表現されるので、チャット参加者のリアルタイムの感情、本音をチャットに反映させることができる。
【0042】
(身体情報反映チャット用クライアントの構成)
身体情報反映チャット用クライアント5は、身体情報反映チャット用サーバ3にネットワークを介してアクセスする端末であり、当該クライアント5の利用者であるチャット参加者が入力するチャットの内容であるテキストデータと共に、チャット参加者の身体情報から導いた(類推した)感情表現パラメータを身体情報反映チャット用サーバ3に送信するもので、送受信部13と、主制御部15と、記憶部17と、表示出力部19とを備えている。
【0043】
なお、この身体情報反映チャット用クライアント5は、チャット参加者の身体情報を計測する脳波計21aと、心拍数計21bと、血圧計21cとに接続され、これらの計測計21から計測データが入力される構成となっている。
【0044】
送受信部13は、入出力ポートに相当するもので、ルータやハブ等に接続されて、インターネット等のネットワークに接続しており、当該ネットワークを介して、データ(テキストデータおよび感情表現パラメータ(受信)、チャット参加者身体情報反映キャラクタ(送信))を送受信するものである。
【0045】
主制御部15は、身体情報反映チャット用クライアント5の制御を司るもので、CPU、メインメモリ等から構成され、脳波計測手段15aと、心拍数計測手段15bと、血圧計測手段15cと、身体情報処理手段15dを備えている。なお、これら15a〜15dは、主制御部15上に展開するプログラムである。
【0046】
脳波計測手段15aは、脳波計21aで計測されたチャット参加者の脳波を処理するもので、計測されたチャット参加者の脳波を脳波データとして、身体情報処理手段15dに出力するものである。
【0047】
心拍数計測手段15bは、心拍数計21bで計測されたチャット参加者の心拍数を処理するもので、計測されたチャット参加者の心拍数を心拍数データとして、身体情報処理手段15dに出力するものである。
【0048】
血圧計測手段15cは、血圧計21cで計測されたチャット参加者の血圧値を処理するもので、計測されたチャット参加者の血圧値を血圧値データとして、身体情報処理手段15dに出力するものである。
【0049】
身体情報処理手段15dは、脳波計測手段15a、心拍数計測手段15bおよび血圧計測手段15cで処理された脳波データ、心拍数データおよび血圧値データ(以下、これらを総括して計測データという)に基づいて、チャット参加者の身体情報を組み合わせた感情表現パラメータを生成し、この感情表現パラメータを送受信部13に出力するものである。この実施の形態では、感情表現パラメータは、脳波データ、心拍数データおよび血圧値データの3個のデータからなるチャット参加者の身体の状態を示す情報である。
【0050】
また、この感情表現パラメータは、この実施の形態で、身体情報反映チャット用クライアント5から身体情報反映チャット用サーバ3がネットワーク上で開設しているチャットルームにアクセスしている間は、間断なく送受信部13から送信されている。なお、身体情報反映チャット用クライアント5および身体情報反映チャット用サーバ3の実際のデータ処理能力を考慮して(特に、処理能力が低い場合)一定間隔(例えば、30秒ごと)で感情表現パラメータを送受信部13から送信する構成としてもよい。
【0051】
記憶部17は、脳波計21a、心拍数計21bおよび血圧計21cで計測され、脳波計測手段15a、心拍数計測手段15bおよび血圧計測手段15cで処理された計測データ(脳波データ、心拍数データおよび血圧値データ)を記憶するものである。
【0052】
表示出力部19は、一般的なCRT、液晶等の表示画面と、スピーカ等の音声出力装置等によって構成されており、身体情報反映チャット用サーバから送信されたチャット参加者身体情報反映キャラクタおよび音声合成データを表示出力するものである。この表示出力部19が特許請求の範囲の請求項に記載した表示手段に相当するものである。
【0053】
また、この身体情報反映チャット用クライアント5には、テキストデータを入力したり、身体情報反映チャット用サーバ3の参加者キャラクタ登録設定手段7aで提示される複数のキャラクタを選択したりするための入力部(図示せず)が備えられている。この入力部(図示せず)は、一般的なキーボード、マウス等からなるものである。
【0054】
この身体情報反映チャット用クライアント5によれば、身体情報処理手段15dで、チャット利用者の身体情報、つまり、脳波計21aで計測され、脳波計測手段15aで処理されたチャット利用者の脳波データ、心拍数計21bで計測され、心拍数計測手段15bで処理されたチャット利用者の心拍数、血圧計21cで計測され、血圧計測手段15cで処理されたチャット利用者の血圧値データに基づいて、感情表現パラメータが生成される。そして、チャット参加者が入力した、チャットの内容であるテキストデータと共に、感情表現パラメータが送受信部13で送信される。その後、表示出力部19でチャット参加者を模式的に(仮想的に)描画したチャット参加者身体情報反映キャラクタが表示される。このため、チャット参加者身体情報反映キャラクタに、当該チャット参加者の身体情報から類推される感情の推移が適宜、テキストデータ(発話データ)と共に表現されるので、チャット参加者のリアルタイムの感情、本音をチャットに反映させることができる。
【0055】
(身体情報反映チャットシステムの動作)
次に、図2に示すシーケンスチャートを参照して、身体情報反映チャットシステム1の動作を説明する(適宜、図1参照)。
まず、チャットに参加することを希望する身体情報反映チャット用クライアント5aの利用者(チャット参加者となる)は、身体情報反映チャット用クライアント5aから身体情報反映チャット用サーバ3がネットワーク上で開設しているチャットルームにアクセスし、チャットするための前段階の準備としてキャラクタの登録を要求する(A1)。
【0056】
すると、身体情報反映チャット用サーバ3では、参加者キャラクタ登録設定手段7aで、チャット参加者のキャラクタ登録処理を実行する(B1)。このキャラクタ登録処理は、チャット参加者の個人情報とクライアント5aに関する機器情報とからなるチャット参加者情報をチャット参加者が入力すると共に、参加者キャラクタ登録設定手段7aによって提示される複数のキャラクタからチャット参加者が好みのキャラクタを選択することによって実行される。
【0057】
そして、チャット参加者は、脳波計21a、心拍数計21bおよび血圧計21cを装着して、身体情報反映チャット用クライアント5aに備えられる入力部(図示せず)で、テキストデータを入力する。すると、身体情報反映チャット用クライアント5aでは、脳波計21a、心拍数計21bおよび血圧計21cで計測され、脳波計測手段15a、心拍数計測手段15および血圧計測手段15cで処理された脳波データ、心拍数データおよび血圧値データが身体情報処理手段15dで感情表現パラメータとされる。
【0058】
入力部(図示せず)で入力されたテキストデータと、身体情報処理手段15dで処理された感情表現パラメータとが身体情報反映チャット用サーバ3に送信される(A2)。なお、チャット参加者がチャットルームにアクセスした後、脳波計21a、心拍数計21bおよび血圧計21cを装着せずに、入力部(図示せず)でテキストデータを入力しようとすると、「テキストデータ入力不可の旨」のエラー表示が表示出力部19になされる。各計測計21a、21b、21cの装着が身体情報反映チャット用クライアント5の主制御部15で確認された場合、エラー表示は解除される。
【0059】
またさらに、各計測計21a、21b、21cの装着が身体情報反映チャット用クライアント5の主制御部15で確認された後、身体情報である脳波データ、心拍数データおよび血圧値データを感情表現パラメータとして、身体情報反映チャット用サーバ3で利用するかどうかを、サーバ3側に備えられる感情表現出力制御手段(図示せず)によって制御する(選択する)ことができる。
【0060】
身体情報反映チャット用サーバ3では、身体情報反映チャット用クライアント5aから送信されたテキストデータおよび感情表現パラメータを送受信部11で受信すると、まず、感情表現出力制御手段(図示せず)で感情表現可または感情表現不可がクライアント5a側に提示され、この結果に基づき、感情表現パラメータを感情表現パラメータ分析手段7bで分析される(B2)。なお、このシーケンスチャートでは、身体情報反映チャット用クライアント5a側で感情表現可が選択されたものとして説明している。
【0061】
そして、身体情報反映チャット用サーバ3のテキストデータ付与手段7cでテキストデータが発話データに変換され(B3)、さらにテキストデータ付与手段7cに含まれている音声合成機能でテキストデータが音声合成データに変換される。さらに、キャラクタ生成手段7dで、参加者キャラクタ登録設定手段7aにて選択されたキャラクタに発話データおよび音声合成データが付加された表示キャラクタが生成される(B4)。
【0062】
さらにまた、動きデータ生成手段7eで、感情表現パラメータ分析手段7bにて分析された分析結果に基づいて、表示キャラクタの動きデータが生成される(B5)。そして、キャラクタ修正手段7fで、動きデータ生成手段7eにて生成された動きデータに基づいて、表示キャラクタの表情、動作が修正されたチャット参加者身体情報反映キャラクタが生成される(B6)。その後、このチャット参加者身体情報反映キャラクタが送受信部13から身体情報反映チャット用クライアント5aに送信される。
【0063】
なお、この図2に示したシーケンスチャートでは、身体情報反映チャット用クライアント5aしか示していないが、実際には複数のクライアント5が存在し、これら複数のクライアント5(5a、5b、5c・・・5n)がチャットルームにアクセスすることでチャットが成立している。以上のような動作が身体情報反映チャット用クライアント5からテキストデータが送信される毎に繰り返し実行される。
【0064】
また、チャット参加者が一旦テキストデータを入力して、チャットに参加した後(チャットルームに入室した後)にテキストデータを入力してこない場合、キャラクタ生成手段7dで生成されたキャラクタは、発話データを発することなく、チャットルームに存在し続けることになる。但し、身体情報反映チャット用クライアント5から感情表現パラメータが送信されてくるので、表示されている表示キャラクタの表情や動作は逐一変化することになる。
【0065】
この身体情報反映チャットシステム1の動作によれば、身体情報反映チャット用クライアント5aのチャット参加者や図示を省略した他の身体情報反映チャット用クライアント5b、5c・・・5nのチャット参加者は、身体情報(脳波、心拍数、血圧)を計測して、感情表現パラメータとして、計測した身体情報と共に、チャットの内容となるテキストデータを身体情報反映チャット用サーバ3に送信することで、チャット参加者が選択したキャラクタに表情および動作を伴った発話データ(音声合成データ)を言わせることができ、チャット参加者のリアルタイムの感情、本音(身体情報から推測されるチャット参加者の気持ち)をチャットに反映させることができる。
【0066】
(身体情報反映チャット用クライアントにおける表示例)
次に、図3を参照して、身体情報反映チャット用クライアント5の表示出力部19の表示画面に表示されるキャラクタ(チャット参加者身体情報反映キャラクタ)の表示例を説明する。
【0067】
この図3は、あるチャットルームに3人のチャット参加者(3体のチャット参加者身体情報反映キャラクタ、ここでは3体のCGキャラクタ(C1、C2、C3))が入室して会話を行っている状態を示したものである。この表示画面では、図3中、上方にCGキャラクタを表示する部分が備えられ、中程に、チャットのテキストデータを表示する部分が備えられ、下方に端末(身体情報反映チャット用クライアント5)のユーザ(チャット参加者)が入力したテキストデータを表示する部分(テキストを入力する部分)が備えられている。
【0068】
また、CGキャラクタC1のハンドルネームは“太郎”であり、CGキャラクタC2のハンドルネームは“次郎”であり、CGキャラクタC3のハンドルネームは“三郎”である。この図3に示したように、CGキャラクタC1“太郎”(チャット参加者)は、テキストデータ中の「むかつく」から連想(類推)できるように、腹をたてており、CGキャラクタC1“太郎”の表情も腹をたてているのが明確となるように、目尻がつり上がっており、口元がへの字にきつく結ばれている。
【0069】
また、CGキャラクタC2“次郎”(チャット参加者)は、テキストデータ中の「どういうやつなの?」等から連想(類推)できるように、話の聞き手側に回っており、感情表現がほとんどなされない(C2は無表情)。さらに、CGキャラクタC3“三郎”(チャット参加者)は、テキストデータ中の「時々いるよね、そういうやつ。」から連想(類推)できるように、客観的にC1の意見を聞き流しており、CGキャラクタC3“三郎”の表情は、他人の不幸を喜ぶかの如く目尻が下がっており、口元に笑みが含まれている。
【0070】
(CGキャラクタの表情と感情表現パラメータとの関係について)
次に、図4を参照して、CGキャラクタ(チャット参加者身体情報反映キャラクタ)と感情表現パラメータとの関係について説明する。図4は、血圧の数値・心拍数・脳波状態によるCGキャラクタの表情と動作の遷移の例を図示したものである。この図4で示している血圧(血圧値データ)、心拍数(心拍数データ)、脳波(脳波データ)の組み合わせ(1)〜(6)が感情表現パラメータ基準値の一例である。
【0071】
(1)は、血圧が110(mmHg)未満、心拍数70(回/分)未満、脳波がアルファー波の場合、落ち着いている普通の表情を示しており、胴体部(体)に動きはない。すなわち、目尻が水平で、口元も明確に表示されないCGキャラクタとなる。
【0072】
(2)は、血圧が110〜140(mmHg)、心拍数70〜90(回/分)、脳波がベータ波の場合、イライラしている険しい表情を示しており、胴体部(体)を小刻みに揺する動作をする。すなわち、目尻がつり上がり、口元も明確に表示されたCGキャラクタとなる。
【0073】
(3)は、血圧が140(mmHg)以上、心拍数80(回/分)以上、脳波がベータ波またはガンマ波の場合、怒っている怒りの表情を示しており、胴体部(体)を喋るとき(発話データを発するとき)に上下に揺する動作をする。すなわち、眉がつり上がり、目元もくっきりとしてつり上がり、口元もへの字に表示されたCGキャラクタとなる。
【0074】
(4)は、血圧が120(mmHg)未満、心拍数80(回/分)未満、脳波がアルファー波またはベータ波の場合、笑っている機嫌がいい表情を示しており、胴体部(体)に動きはない。すなわち、目尻がへの字で、口元も逆への字に表示されたCGキャラクタとなる。
【0075】
(5)は、血圧が120〜150(mmHg)、心拍数90(回/分)以上、脳波がガンマ波の場合、緊張している表情を示しており、胴体部(体)に動きはない。すなわち、目尻がつり上がり、口元も波状の曲線に表示され、頬部に冷や汗が表示されたCGキャラクタとなる。
【0076】
(6)は、血圧が110(mmHg)未満、心拍数70(回/分)未満、脳波がシータ波の場合、居眠りしている表情を示しており、胴体部(体)に動きはない。すなわち、眉、目尻共に水平に表示されたCGキャラクタとなる。
【0077】
これらに示したように、感情表現パラメータによって、CGキャラクタ(チャット参加者身体情報反映キャラクタ)の表情、動作は、人間の表情、動作を模したものとして表現することができる。
【0078】
以上、一実施形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。
例えば、身体情報反映チャット用サーバ3の各構成の処理を一つずつの情報処理過程ととらえた身体情報反映チャット方法とみなすことや、各構成の処理を汎用のコンピュータ言語で記述した身体情報反映チャット用プログラムとみなすことも可能である。これらの場合、身体情報反映チャット用サーバ3と同様の効果を得ることができる。
【0079】
【発明の効果】
請求項1、3、5記載の発明によれば、チャット参加者とキャラクタとが関連付けられ、チャットが開始されると、テキストデータと感情表現パラメータとが受信される。そして、予め設定した感情表現パラメータの基準値と、受信した感情表現パラメータとが比較され、比較された比較結果に基づいて、感情表現パラメータが分析される。キャラクタが発話する(会話する)発話データがテキストデータに基づいて生成され、この発話データを話す動作をするキャラクタが生成され分析結果に基づいてキャラクタの動きに関する動きデータが生成され、この動きデータに基づいて、キャラクタが修正され、送信される。このため、このキャラクタを受信した側では、このキャラクタに、当該チャット参加者の身体情報から類推される感情の推移が適宜表示されるので、チャット参加者のリアルタイムの感情、本音(感情表現パラメータによって推測される感情)をチャットに反映させることができる。
【0080】
請求項2記載の発明によれば、チャット参加者の現時点の感情が類推される。
そして、例えば、この類推された結果を記憶しておけば、チャット終了後に、各チャット参加者は、どんなテキストデータ(どんな情報)に対して、それぞれのチャット参加者がどのような感情を生じたかを知ることができ、また、感情の推移によって、チャット参加者の性格等を知ること(想像すること)ができる。
【0081】
請求項4記載の発明によれば、チャット利用者の身体情報基づいて、感情表現パラメータが生成される。そして、チャット参加者が入力した、チャットの内容であるテキストデータと共に、感情表現パラメータが送信される。その後、チャット参加者を描画したキャラクタが表示される。このキャラクタの表示によってチャット参加者のリアルタイムの感情、本音(感情表現パラメータによって推測される感情)をチャットに反映させることができる。
【図面の簡単な説明】
【図1】本発明による一実施の形態である身体情報反映チャットシステムのブロック図である。
【図2】図1に示した身体情報反映チャットシステムの動作を説明したシーケンスチャートである。
【図3】身体情報反映チャット用クライアントの表示画面に表示されるキャラクタの表示例を示した図である。
【図4】血圧の数値・心拍数・脳波状態によるCGキャラクタの表情と動作の遷移の例を示した図である。
【符号の説明】
1 身体情報反映チャットシステム
3 身体情報反映チャット用サーバ
5 身体情報反映チャット用クライアント
7、15 主制御部
7a 参加者キャラクタ登録設定手段
7b 感情表現パラメータ分析手段
7c テキストデータ付与手段
7d キャラクタ生成手段
7e 動きデータ生成手段
7f キャラクタ修正手段
9、17 記憶部
9a キャラクタデータ
9b チャットテキストデータ
9c 感情表現パラメータデータ
11、13 送受信部
15a 脳波計測手段
15b 心拍数計測手段
15c 血圧計測手段
19 表示出力部
21 計測計

Claims (5)

  1. ネットワークを介してチャットを行う際に、このチャットに参加しているチャット参加者の身体情報を、当該チャット参加者のキャラクタに反映させてチャットを行う装置を、
    前記チャット参加者と前記キャラクタとを関連付ける参加者キャラクタ登録設定手段、
    前記チャット参加者が入力したテキストデータおよび少なくとも血圧、心拍数、脳波の一つを計測したチャット参加者の身体情報を組み合わせた感情表現パラメータを受信する受信手段、
    予め設定した感情表現パラメータの基準値と前記受信手段で受信した感情表現パラメータとを比較し、比較した比較結果に基づいて、感情表現パラメータを分析する感情表現パラメータ分析手段、
    前記テキストデータに基づいて、前記参加者キャラクタ登録設定手段で関連付けられた前記キャラクタが発話する発話データに変換して、当該発話データを発声するキャラクタを生成するキャラクタ生成手段、
    前記感情表現パラメータ分析手段で分析した分析結果に基づいて、前記キャラクタ生成手段で生成したキャラクタの動きに関する動きデータを生成する動きデータ生成手段、
    この動きデータ生成手段で生成した動きデータに基づいて、前記キャラクタを修正し、前記チャット参加者の身体情報の変化を当該キャラクタに反映させるキャラクタ修正手段、
    このキャラクタ修正手段で修正したチャット参加者身体情報反映キャラクタを前記チャット参加者に送信する送信手段、
    として機能させることを特徴とする身体情報反映チャット用プログラム。
  2. 前記チャット参加者の前記身体情報が経過時間の変化に伴って、当該身体情報の各時点の値により前記感情表現パラメータが変化した場合、この感情表現パラメータの変化と、前記感情表現パラメータの基準値との比較に基づいて前記チャット利用者の感情を類推する感情類推手段を有することを特徴とする請求項1に記載の身体情報反映チャット用プログラム。
  3. ネットワークを介してチャットを行う際に、このチャットに参加しているチャット参加者の身体情報を、当該チャット参加者のキャラクタに反映させてチャットを行う身体情報反映チャット用サーバであって、
    前記チャット参加者と前記キャラクタとを関連付ける参加者キャラクタ登録設定手段と、
    前記チャット参加者が入力したテキストデータおよび少なくとも血圧、心拍数、脳波の一つを計測したチャット参加者の身体情報を組み合わせた感情表現パラメータを受信する受信手段と、
    予め設定した感情表現パラメータの基準値と前記受信手段で受信した感情表現パラメータとを比較し、比較した比較結果に基づいて、感情表現パラメータを分析する感情表現パラメータ分析手段と、
    前記テキストデータに基づいて、前記参加者キャラクタ登録設定手段で関連付けられた前記キャラクタが発話する発話データに変換して、当該発話データを発声するキャラクタを生成するキャラクタ生成手段と、
    前記感情表現パラメータ分析手段で分析した分析結果に基づいて、前記キャラクタ生成手段で生成したキャラクタの動きに関する動きデータを生成する動きデータ生成手段と、
    この動きデータ生成手段で生成した動きデータに基づいて、前記キャラクタを修正し、前記チャット参加者の身体情報の変化を当該キャラクタに反映させるキャラクタ修正手段と、
    このキャラクタ修正手段で修正したチャット参加者身体情報反映キャラクタを前記チャット参加者に送信する送信手段と、
    を備えることを特徴とする身体情報反映チャット用サーバ。
  4. 請求項3に記載の身体情報反映チャット用サーバにネットワークを介してアクセスし、チャットを行う身体情報反映チャット用クライアントであって、
    脳波計測計、心拍数計測計、血圧計測計の少なくとも一つによって計測される当該クライアントを利用するチャット利用者の身体情報を処理し、この身体情報を組み合わせて当該チャット利用者の感情を示す基準になる感情表現パラメータとする身体情報処理手段と、
    この身体情報処理手段で処理された感情表現パラメータと、前記チャットの内容であり、前記チャット参加者が入力したテキストデータとを前記身体情報反映チャット用サーバに送信する送信手段と、
    前記身体情報反映チャット用サーバから送信される当該チャット参加者のキャラクタを表示する表示手段と、
    を備えることを特徴とする身体情報反映チャット用クライアント。
  5. ネットワークを介してチャットを行う際に、このチャットに参加しているチャット参加者の身体情報を、当該チャット参加者のキャラクタに反映させてチャットを行う身体情報反映チャット方法であって、
    前記チャット参加者と前記キャラクタとを関連付ける参加者キャラクタ登録設定ステップと、
    前記チャット参加者が入力したテキストデータおよび少なくとも血圧、心拍数、脳波の一つを計測したチャット参加者の身体情報を組み合わせた感情表現パラメータを受信する受信ステップと、
    予め設定した感情表現パラメータの基準値と前記受信ステップにて受信した感情表現パラメータとを比較し、比較した比較結果に基づいて、感情表現パラメータを分析する感情表現パラメータ分析ステップと、
    前記テキストデータに基づいて、前記参加者キャラクタ登録設定手段で関連付けられた前記キャラクタが発話する発話データに変換して、当該発話データを発声するキャラクタを生成するキャラクタ生成ステップと、
    前記感情表現パラメータ分析ステップにて分析した分析結果に基づいて、前記キャラクタ生成ステップにて生成したキャラクタの動きに関する動きデータを生成する動きデータ生成ステップと、
    この動きデータ生成ステップにて生成した動きデータに基づいて、前記キャラクタを修正し、前記チャット参加者の身体情報の変化を当該キャラクタに反映させるキャラクタ修正ステップと、
    このキャラクタ修正ステップにて修正したチャット参加者身体情報反映キャラクタを前記チャット参加者に送信する送信ステップと、
    を含むことを特徴とする身体情報反映チャット方法。
JP2002352953A 2002-12-04 2002-12-04 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法 Pending JP2004185437A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002352953A JP2004185437A (ja) 2002-12-04 2002-12-04 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002352953A JP2004185437A (ja) 2002-12-04 2002-12-04 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法

Publications (1)

Publication Number Publication Date
JP2004185437A true JP2004185437A (ja) 2004-07-02

Family

ID=32754406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002352953A Pending JP2004185437A (ja) 2002-12-04 2002-12-04 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法

Country Status (1)

Country Link
JP (1) JP2004185437A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176816A (ja) * 2004-10-12 2008-07-31 Samsung Electronics Co Ltd 健康状態によるアバター映像の生成方法及び装置
JP2008293401A (ja) * 2007-05-28 2008-12-04 Nomura Research Institute Ltd 仮想空間提供装置、仮想空間管理方法及びコンピュータプログラム
JP2011523486A (ja) * 2008-05-27 2011-08-11 クゥアルコム・インコーポレイテッド ユーザのステータスを示すためにアバタステータスを自動的に更新するための方法およびシステム
KR20120021985A (ko) * 2010-08-24 2012-03-09 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法
JP2015028686A (ja) * 2013-07-30 2015-02-12 カシオ計算機株式会社 ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラム
JP2016143386A (ja) * 2015-02-05 2016-08-08 任天堂株式会社 プログラム、通信端末及び表示方法
JP2016149158A (ja) * 2016-04-28 2016-08-18 カシオ計算機株式会社 ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラム
JP2017102897A (ja) * 2016-09-20 2017-06-08 株式会社コロプラ アバター表示システム、ユーザ端末、及びプログラム
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2018135057A1 (ja) * 2017-01-20 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019024748A (ja) * 2017-07-27 2019-02-21 株式会社バンダイナムコエンターテインメント 画像生成装置及びプログラム
JP2020052775A (ja) * 2018-09-27 2020-04-02 株式会社コロプラ プログラム、仮想空間の提供方法および情報処理装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190034A (ja) * 2000-12-20 2002-07-05 Sony Corp 情報処理装置および方法、並びに記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190034A (ja) * 2000-12-20 2002-07-05 Sony Corp 情報処理装置および方法、並びに記録媒体

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9101261B2 (en) 2004-10-12 2015-08-11 Samsung Electronics Co., Ltd. Method, medium, and apparatus generating health state based avatars
JP2008176816A (ja) * 2004-10-12 2008-07-31 Samsung Electronics Co Ltd 健康状態によるアバター映像の生成方法及び装置
JP2008293401A (ja) * 2007-05-28 2008-12-04 Nomura Research Institute Ltd 仮想空間提供装置、仮想空間管理方法及びコンピュータプログラム
JP2011523486A (ja) * 2008-05-27 2011-08-11 クゥアルコム・インコーポレイテッド ユーザのステータスを示すためにアバタステータスを自動的に更新するための方法およびシステム
JP2014059894A (ja) * 2008-05-27 2014-04-03 Qualcomm Incorporated ユーザのステータスを示すためにアバタステータスを自動的に更新するための方法およびシステム
KR101689713B1 (ko) * 2010-08-24 2016-12-26 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
KR20120021985A (ko) * 2010-08-24 2012-03-09 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法
JP2015028686A (ja) * 2013-07-30 2015-02-12 カシオ計算機株式会社 ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラム
JP2016143386A (ja) * 2015-02-05 2016-08-08 任天堂株式会社 プログラム、通信端末及び表示方法
US10097492B2 (en) 2015-02-05 2018-10-09 Nintendo Co., Ltd. Storage medium, communication terminal, and display method for enabling users to exchange messages
JP2016149158A (ja) * 2016-04-28 2016-08-18 カシオ計算機株式会社 ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラム
JP2017102897A (ja) * 2016-09-20 2017-06-08 株式会社コロプラ アバター表示システム、ユーザ端末、及びプログラム
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018089227A (ja) * 2016-12-06 2018-06-14 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2018135057A1 (ja) * 2017-01-20 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11368664B2 (en) 2017-01-20 2022-06-21 Sony Corporation Information processing apparatus, information processing method, and program
JP2019024748A (ja) * 2017-07-27 2019-02-21 株式会社バンダイナムコエンターテインメント 画像生成装置及びプログラム
JP2020052775A (ja) * 2018-09-27 2020-04-02 株式会社コロプラ プログラム、仮想空間の提供方法および情報処理装置

Similar Documents

Publication Publication Date Title
CN108886532B (zh) 用于操作个人代理的装置和方法
US6909453B2 (en) Virtual television phone apparatus
JP4085926B2 (ja) 情報処理端末及び通信システム
EP3951604A1 (en) Communication assistance system, communication assistance method, communication assistance program, and image control program
Bente et al. Virtual gestures: embodiment and nonverbal behavior in computer-mediated communication
JP2004185437A (ja) 身体情報反映チャット用プログラム、身体情報反映チャット用サーバ、身体情報反映チャット用クライアントおよび身体情報反映チャット方法
JP2004310034A (ja) 対話エージェントシステム
JP2003248841A (ja) バーチャルテレビ通話装置
JP7193015B2 (ja) コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
WO2020215590A1 (zh) 智能拍摄设备及其基于生物特征识别的场景生成方法
US11341619B2 (en) Method to provide a video with a computer-modified visual of a desired face of a person
KR20220127471A (ko) 가상현실을 이용한 심리 상담 제공 장치, 방법 및 프로그램
CN112364971A (zh) 会话控制方法、装置及电子设备
Aneja et al. Understanding conversational and expressive style in a multimodal embodied conversational agent
Picard et al. Affective intelligence—the missing link?
Ochs et al. Model of the perception of smiling virtual character
Gan et al. Design and user experience analysis of AR intelligent virtual agents on smartphones
Ehret et al. Who's next? Integrating Non-Verbal Turn-Taking Cues for Embodied Conversational Agents
JP2021086415A (ja) 仮想人物対話システム、映像生成方法、映像生成プログラム
JP2017162268A (ja) 対話システムおよび制御プログラム
JP2003108502A (ja) 身体性メディア通信システム
JP2021051693A (ja) 発話システム、発話推薦装置、発話推薦プログラムおよび発話推薦方法
WO2022025024A1 (ja) 反応解析システムおよび反応解析装置
Baloup et al. Non-isomorphic interaction techniques for controlling avatar facial expressions in vr
WO2020194828A1 (ja) 情報処理システム、情報処理装置、および情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080304