JP3786345B2 - Kansei sharing system - Google Patents

Kansei sharing system Download PDF

Info

Publication number
JP3786345B2
JP3786345B2 JP2001121672A JP2001121672A JP3786345B2 JP 3786345 B2 JP3786345 B2 JP 3786345B2 JP 2001121672 A JP2001121672 A JP 2001121672A JP 2001121672 A JP2001121672 A JP 2001121672A JP 3786345 B2 JP3786345 B2 JP 3786345B2
Authority
JP
Japan
Prior art keywords
dancer
content
sensitivity
evaluation
sensibility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001121672A
Other languages
Japanese (ja)
Other versions
JP2002319027A (en
Inventor
隆洋 中井
眞 蓼沼
育生 原田
直人 樋川
良太郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2001121672A priority Critical patent/JP3786345B2/en
Publication of JP2002319027A publication Critical patent/JP2002319027A/en
Application granted granted Critical
Publication of JP3786345B2 publication Critical patent/JP3786345B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

【0001】
【産業上の利用分野】
この発明は、人間の身体表現に基づいて決定される感性に応じて、募集された音楽と映像ならびに身体映像を用いたマルチメディア表現を変化させて出力し、そのマルチメディア表現を評価する、新規な感性共有システムに関する。
【0002】
【従来の技術】
人間の身体表現の物理量に基づいて分類された人間の感性に応じて、音楽と映像を用いたマルチメディア表現を変化させることによって、感性を表現するシステムの例が、平成12年10月5日付で出願された特願平2000−306079号〔A36B 24/00〕に開示されている。この従来技術では、感性を表すマルチメディア表現はシステム側が予め用意した音楽コンテンツおよび映像コンテンツによって行われている。
【0003】
【発明が解決しようとする課題】
従来の技術においては、システムの管理者が追加/変更するコンテンツによってのみマルチメディア表現が可能であり、被験者の感性表現を支援する環境および効果(マルチメディアを構成するコンテンツ)の多様性に限界があり、時間の経過とともに飽きがきて陳腐化するという問題があった。また、視聴者の感性はマルチメディア表現に反映されえなかった。
【0004】
それゆえに、この発明の主たる目的は、広く応募した多様性のあるマルチメディア表現によって人間の感性表現を行うことができる、感性共有システムを提供することである。
【0005】
【課題を解決するための手段】
この発明に従う感性共有システムは、応募された複数のコンテンツを登録するデータベース、複数の被験者の表現から複数の被験者の感性をそれぞれ検出する感性検出手段、データベースに登録された複数のコンテンツのうち感性検出手段によって検出された複数の感性に適合するコンテンツと複数の被験者の表現とを含む複合コンテンツを出力する出力手段、感性検出手段によって検出された複数の感性が互いに近似する程度を示す協調度を検出する協調度検出手段、および複合コンテンツを形成するコンテンツの出力態様を協調度検出手段によって検出された協調度に基づいて変化させる変化手段を備える
【0006】
【作用】
複数のコンテンツはデータベースに登録される。感性検出手段は、複数の被験者の表現から複数の被験者の感性をそれぞれ検出し、出力手段は、データベースに登録された複数のコンテンツのうち感性検出手段によって検出された複数の感性に適合するコンテンツと複数の被験者の表現とを含む複合コンテンツを出力する。感性検出手段によって検出された複数の感性が互いに近似する程度を示す協調度は、検出手段によって検出される。複合コンテンツを形成するコンテンツの出力態様は、協調度検出手段によって検出された協調度に基づいて、変化手段によって変化される。
【0007】
なお、被験者の表現は被験者自身の身体表現であることが望ましい。
【0008】
この発明の1つの局面では、受付手段は複合コンテンツの評価結果を受け付け、選別手段は複合コンテンツの評価結果に基づいてデータベースに登録されたコンテンツの選別を行う。なお、受付手段は複合コンテンツに含まれるコンテンツ毎の評価結果を受け付けることが望ましい。
【0011】
その他の好ましい実施例では、コンテンツには映像および音楽が含まれ、出力態様変化手段は協調度が所定の閾値を超えたときに空間共有性の高い映像と協調状態の感性に対応する音楽とを出力する。
【0012】
出力手段は同一のコンテンツを含む複合コンテンツを複数回にわたって出力し、選別手段は同一コンテンツを含む複合コンテンツに対する複数回の評価結果に基づいて選別を行う。なお、同一のコンテンツに合わせて表現をする被験者必ずしも同一人物ではなくてもよい。
【0013】
【発明の効果】
この発明によれば、広く募集したコンテンツによって、被験者の感性にふさわしいマルチメディア表現(複合コンテンツによる表現)が行われる。したがって、多様性のあるマルチメディア表現によって被験者の感性表現を行うことができる
【0014】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0015】
【実施例】
[実施例1]
図1は本発明の感性共有システム1の全体構成を示しており、同図を参照して、この実施例の感性共有システム1の全体の動作を司る中央装置10は、インターネットのような通信ネットワーク100に接続される。通信ネットワーク100には、中央装置10のほかに、イベント管理者のパーソナルコンピュータ(以下単に「PC」と表記)40,音楽コンテンツ提供者のPC50,映像コンテンツ提供者のPC60,ダンサー(被験者)AのPC70およびダンサーBのPC80,ならびに視聴者のPC90がそれぞれ接続される。PC70およびPC80にはカメラ72およびカメラ82がそれぞれ接続されている。なお、音楽コンテンツ提供者のPC50,映像コンテンツ提供者のPC60および視聴者のPC90は複数接続されてもよい。また、ダンサーのPCもPC70およびPC80の2つに限るものではない。
【0016】
中央装置10は具体的には、図2に示すように構成されている。図2に示すように、バス32にメモリ14,サウンドボード20,グラフィックボード22,データベース24,スピーカ26,モニタ28および通信回線30が接続され、これらは同じくバス32に接続されたCPU12によって制御される。また、通信回路30は外部のネットワークに接続される。
【0017】
イベント管理者は感性共有システムを用いてインターネット上で「感性表現仮想ダンス大会」を開催する。イベント管理者はダンス大会の開催に先立ってダンス大会のホームページ上に募集要領を公表し、ダンサー,音楽コンテンツおよび映像コンテンツの募集を行う。ダンサーはダンス大会でダンスを行う人員である。音楽コンテンツおよび映像コンテンツはダンサーの表現する感性に基づいて再生されるコンテンツであるが、詳細については後述する。
【0018】
このダンス大会では、予め募集されたダンサーAおよびダンサーBがカメラ72およびカメラ82の前で身体動作(踊り)を行うことによって各自の感性を表現する。カメラ72およびカメラ82によって撮影されたダンス映像は、たとえば(1/30)秒のフレームレートでPC60およびPC80に取り込まれ、リアルタイムで通信ネットワーク100を経由して中央装置10にディジタルデータとして送られる。このときネットワークの許容伝送速度が小さければ、必要に応じて送信側および受信側にPCに内蔵可能なたとえばMPEG2,MPEG4などの符号化/復号化転送ボードを用いて帯域圧縮されたディジタルデータとして送受信する。なお、ダンサーは予めダンス映像を録画しておき、この映像を再生して中央装置10に送信するようにしてもよい。
【0019】
送信された複数のダンス映像はたとえば(1/30)秒毎にリアルタイムで中央装置10によって取り込まれる。中央装置10では、取り込んだそれぞれのダンス映像からダンサーの感性を表すパラメータとして「時性」,「力性」および「空間性」が求められる。また、ダンス映像からはダンスをしているダンサーの人物画像も抽出される。ここで、「時性」とはダンサーの身体の運動、リズムに関連するパラメータを意味し、「力性」とは身体動作の加速度に関連するパラメータで、「空間性」は身体の空間的な広がりに関連するパラメータである。図3を参照して、「時性」は、ダンサーのシルエット画像の重心座標(Xc,Yc)の1次微分によって求められ、「力性」は、重心座標(Xc,Yc)の2次微分によって求められる。また、「空間性」は、ダンサーのシルエット画像がそのシルエット画像に外接する矩形(幅Xs、高さYsの矩形)に占める割合から求められる。
【0020】
こうして3つのパラメータが得られると、中央装置10はその時点の3つのパラメータに統計解析を施し、ダンサーの感性を推定する。統計解析の手段としてはニューラルネットワークあるいは重回帰分析が適用できる。推定される感性は、“Natural”,“Happy”,“Dynamic”,“Flowing”,“Sharp”,“Lonely”,“Solemn”の7つの感性カテゴリが予め準備されており、ニューラルネットワークあるいは重回帰分析の結果が最も高い値となる感性カテゴリが当該ダンサーの感性(主要感性)として選択される。なお、ニューラルネットワークあるいは重回帰解析によってもとまる7つの感性カテゴリの値を「感性ベクトル」と呼ぶ。
【0021】
中央装置10は、それぞれのダンサーの感性を推定すると共に、それぞれのダンサーの感性の純度および協調度を決定する。感性の純度とは主要感性の値が他の6つの感性の値に占める割合であり、“0.0”〜“1.0”の間の値である。つまり、純度が高いほどダンサーの感性が当該感性のカテゴリによく適合していることを示している。協調度とはそれぞれのダンサーの感性がどれほど近いかを表し、それぞれのダンサーの感性ベクトルに基づいて決定される。中央装置10は、これらの(1/30)秒毎に決定される感性,純度,協調度をたとえば2小節に相当する時間(120ビート/分のリズムで計れば秒間)にわたって時間方向に平滑化することにより、この間の感性および協調度を特定する。
【0022】
そして、特定された感性および協調度にふさわしい音楽コンテンツおよび映像コンテンツ(背景コンテンツ)をデータベース24から選び出し、各参加者、すなわちイベント管理者,視聴者,音楽コンテンツ提供者,映像コンテンツ提供者,ダンサーAおよびダンサーBのPCにディジタルデータとして送信する。このとき配信する映像は、図4に示すようにデータベース24から読み出した背景映像の上に、参加しているダンサー全員の人物画像をオーバレイしたものである。なお、背景映像もダンサーの人物画像も(1/30)秒のフレームレートを持つ動画である。
【0023】
ここで、データベース24には音楽コンテンツ提供者および映像コンテンツ提供者から募集した音楽コンテンツおよび映像コンテンツが蓄積されている。音楽コンテンツ提供者は上述の7つの感性に対応して、通常状態(協調度が一定レベルに達していない状態)の7種類および協調状態(協調度が一定レベルに達している状態)の7種類さらに、ダンス大会導入用の1つ合わせて計15種類の音楽コンテンツを応募し、これらがデータベース24に蓄積される。音楽コンテンツはたとえば16秒分とすることができ、16秒以上の再生はこれを繰り返して再生する。同様に映像コンテンツ提供者は通常状態,協調状態およびダンス大会導入用の計15種類の映像コンテンツを応募する。このようにして、感性共有システム10のデータベース24には15種類の音楽コンテンツおよび映像コンテンツが複数セット蓄積されている。映像コンテンツも同様に16秒分とし、16秒以上の再生はこれを繰り返し再生する。音楽コンテンツおよび映像コンテンツの応募方法としては、FTPプロトコルを用いてファイルを転送する方法が考えられる。
【0024】
感性共有システムは、参加しているダンサーの全員、あるいはダンス大会趣旨によってはたとえば最もよく協調している2人の協調状態が所定の時間継続するか、もしくはダンス開始から所定の時間が経過するとダンスを終了させる。
【0025】
ダンスが終了すると感性共有システムはイベント管理者のPC40からの指示に従って視聴者に対してダンスの評価を求める。このとき、視聴者は音楽コンテンツの評価,映像コンテンツの評価,音楽コンテンツおよび映像コンテンツの総合評価を行うとともに、ダンサーに順位付けをして評価する。なお、視聴者が行う音楽コンテンツの評価および映像コンテンツの評価は、上述の15種類のコンテンツを1セットとするセット毎の評価である。通信ネットワーク100を介して視聴者による各評価が転送されると中央装置10は項目ごとに評価を集計し、その集計結果をイベント管理者のPC40,視聴者のPC90,ダンサーAのPC70およびダンサーBのPC80に出力する。集計結果は次のダンスが開始されるまで表示される。
【0026】
集計結果を参照することによって、ダンサーはより好ましいダンス動作を会得するための参考とし、またコンテンツ提供者はより好ましいコンテンツを提供するための参考とすることができる。さらに、データベース24に蓄積された音楽コンテンツおよび映像コンテンツは集計結果によって上述の15種類のコンテンツを1セットとするセット単位で選別され、より好ましい音楽コンテンツのセットおよび映像コンテンツのセットのみがデータベース24に残される。
【0027】
なお、ダンサーの数は、人物画像をPCに表示する必要から一度に5人程度までとすることが望ましい。だだし、この実施例ではダンサーは2人として説明する。
【0028】
つぎに本発明感性共有システム1の全体動作について説明する。図8〜図14は中央装置10が行う処理を示しており、図8および図9に示すルーチンは、カメラ(カメラ72およびカメラ82)から出力された撮影画像信号に基づいてダンサー(ダンサーAおよびダンサーB)の感性ベクトルを推定するためのルーチンである。なお、図8および図9の各ルーチンは同期を取ることなく個別に実行される。図10〜図14に示すルーチンは、推定されたダンサーの感性ベクトルに基づいて出力する音楽コンテンツおよび映像コンテンツ(マルチメディア表現)を制御するためのルーチンである。
【0029】
まず、図8を参照してステップS1aではダンスゲーム開始の初期化処理を行い、ステップS3aではシステム起動から(1/30)秒が経過したかどうか判断する。(1/30)秒が経過していると、ステップS5aでカメラ72からの撮影画像信号を受信し、ステップS7aで撮影画像信号に背景画像以外にダンサーAの人物画像が含まれているかどうかを判断する。この判断にはたとえばクロマキー技術が適用できる。
【0030】
撮影画像信号に背景画像しか含まれていなければ、ステップS7aからステップS3aに戻り、次の撮影画像信号の取り込みに備える。一方、撮影画像信号に背景画像以外の何らかの被写体画像が含まれておれば、その被写体画像はダンサーAの人物画像とみなしてステップS9aに進む。
【0031】
ステップS9aでは、取り込まれた撮影画像信号から人物画像を抽出し、抽出された人物画像から図3に示すシルエット画像を作成する。続くステップS11aでは作成されたシルエット画像から重心座標(Xc,Yc)とシルエット画像の面積Hsとを求め、求められた重心座標(Xc,Yc)および面積Hsに数1に従う演算を施す。これによって、ダンサーAについて「時性」,「力性」および「空間性」の3つのパラメータが測定される。
【0032】
【数1】

Figure 0003786345
【0033】
「時性」は、重心座標を1次微分することによって、つまり(1/30)秒前の重心座標と現時点の重心座標の差分を(1/30)秒で割り算することによって、求められる。「力性」は、重心座標を2次微分することによって、つまり前回の1次微分値と今回の1次微分値との差分を(1/30)秒で割り算することによって求められる。「空間性」は、シルエット画像の面積をこのシルエット画像に外接する矩形の面積で割り算することによって求められる。
【0034】
ステップS13aでは、測定された「時性」,「力性」および「空間性」の3つのパラメータに基づいて、ダンサーAの感性ベクトルを推定する。すなわち、“Natural”,“Happy”,“Dynamic”,“Flowing”,“Sharp”,“Lonely”および“Solemn”の7種類の感性に対応する7つの重回帰式の右辺に、ステップS11aで求めたダンサーAの3つのパラメータを代入する。これによって、ダンサーAについて推定された7次元感性ベクトルの各要素が、7つの重回帰式の左辺に現れる。上述のように、この感性ベクトルの各要素は、ダンサーAのダンス映像から推定された7種類の感性の得点を示す。推定された感性ベクトル値は、メモリ14のデータ記憶領域16a(図2参照)に格納される。
【0035】
ステップS15aではゲーム終了フラグFの状態を判別する。ゲーム終了フラグFは、後述するステップS25(図10参照)でリセットされ、ステップS61(図11)でセットされる。ゲーム終了フラグFがリセット状態であれば、次の(1/30)秒後のダンサーAの撮影画像信号を取り込むべくステップS3aに戻る。一方、ゲーム終了フラグFがセット状態であれば、ステップS17aに進む。ステップS17aでは、イベント管理者によってダンス大会(イベント)終了のシステム指示が与えられたかどうかをチェックする。ダンス大会終了のシステム指示が与えられていなければ、次のゲーム開始に備えるべくステップS1aに戻る。一方、ダンス大会終了のシステム指示が与えられると、このルーチンを終了する。
【0036】
図9は、カメラ82から取り込んだダンサーBの撮影画像信号を処理するーチンであるが、図8および図9を比較すれば分かるように、このルーチンは図8に示すルーチンと同様であるため、詳しい説明は省略する。
【0037】
異なる点は、ステップS1bにおいてダンサーB用のデータ記憶領域16bがクリアされる点、およびステップS13bにおいてダンサーBのダンス映像から推定された感性ベクトル値がデータ記憶領域16bに格納される点である。なお、図8および図9に示すルーチンは、互いに同期をとられることなく独立して実行されるが、データ記憶領域16aおよび16bには、常に最新の推定感性ベクトルが残される。
【0038】
つぎに、図10〜図14を参照して、映像コンテンツおよび音楽コンテンツを制御するための処理について説明する。まず、ステップS21で、データ記憶領域16cのクリアを含むイベント開始用の初期化を行い、次にステップS23で導入用の背景画像(イベント開催タイトル)と導入用の音楽とを配信するとともに、モニタ28およびスピーカ26から出力する。つぎにステップS25においてデータ記憶領域16a,データ記憶領域16b,カウンタ18aおよびカウンタ18bのクリアおよびゲーム終了フラグFのクリアを含むダンスゲーム開始用の初期化処理を行う。
【0039】
ステップS27では今回のダンスゲームのマルチメディア表現に使用する音楽コンテンツおよび映像コンテンツの決定を行う。ここで決定される音楽コンテンツおよび映像コンテンツは、上述の通り7つの感性に対応して、通常状態(協調度が一定レベルに達していない状態)および協調状態(協調度が一定レベルに達している状態)さらに、ダンス大会導入用の計15種類を1セットとする音楽コンテンツおよび映像コンテンツである。これらの音楽コンテンツおよび映像コンテンツは音楽コンテンツ提供者および映像コンテンツ提供者からそれぞれ提供されたコンテンツであり、データベース24に蓄積されているものから選択される。選択の方法は、ランダムに選択する方法もあるが、後述するようにコンテンツに対する評価が高いものから順に選択するようにしてもよい。なお、ステップS27では前回と同様の音楽コンテンツおよび映像コンテンツを複数回にわたって選択するようにしてもよい。こうすることによって、同じ音楽コンテンツと映像コンテンツとが異なるダンサーによってマルチメディア表現される。したがって、音楽コンテンツおよび映像コンテンツの評価のダンサーによる偏りを回避することができる。
【0040】
使用する音楽コンテンツおよび映像コンテンツが決定すると、ステップS29でゲーム開始のタイトル文字(映像)および音声の配信を行い、ステップS31では、今回のダンス大会に参加するダンサーの名前,音楽コンテンツの制作者名および映像コンテンツの制作者名を発表する文字(映像)および音声の配信を行う。さらに、ステップS33ではゲーム導入用の背景映像コンテンツおよび音楽コンテンツの配信を行う。
【0041】
ステップS35では起動から(1/30)秒が経過したかどうか判断し、YESであれば、参加する全てのダンサー(ダンサーAおよびダンサーB)が存在するかどうかをステップS37で判断する。この判断は、ダンサーAおよびダンサーBの両方の感性ベクトル値がデータ記憶領域16aおよびデータ記憶領域16bに存在するか、ならびにダンサーAおよびダンサーBの人物画像が存在するかどうかによって行う。
【0042】
最初の(1/30)秒が経過した直後のステップS37では、ダンサーAおよびダンサーBのいずれの感性ベクトル値も存在しないおそれがある。また、一方のダンサーが登場し、このダンサーの感性ベクトルが得られたとしても、他方のダンサーが登場せず、このダンサーの感性ベクトルが得られていないおそれもある。このような場合、ステップS37からステップS39に進み、存在するダンサーの人物画像のみをすでに出力されている導入用背景画像にオーバレイする。オーバレイ処理が完了すると、ステップS35に戻る。
【0043】
したがって、ダンサーAおよびダンサーBのいずれも登場していなければ、導入用背景画像だけが配信される。この状態でダンサーAが先に登場したときは、ダンサーAの人物映像が導入用背景画像の向かって右半分にオーバレイされる。ただし、いずれの場合でも、配信された導入用音楽が流れ続ける。
【0044】
オーバレイ処理は、次のようにして実行される。中央装置10は、グラフィックボード22を備えており、CG(Computer Graphics)処理によって作成された背景画像などのCG画像信号と、カメラ72およびカメラ82から取り込んだ撮影画像(図8のステップS5aおよび図9のステップS5bにて(1/30)秒毎に取り込んだ撮影画像信号)とがグラフィックボード22に供給される。グラフィックボード22は、導入用背景画像の上にダンサーAの人物画像をオーバレイしたり、人物画像をシルエット化したり、さらには人物画像のシルエット部分を別の模様で表すなどの特殊効果を与えたりすることができる。中央装置10は、このようなグラフィックボード22に対して合成用の画像ソースおよび合成方法を指定し、かつグラフィックボード22上の対応出力を選択すれば、指定された要領で作成された合成画像信号が(1/30)秒のフレームレートでグラフィックボード22から出力され通信回路30を介して配信される。ステップS39の処理は、具体的には、グラフィックボード22に対して合成用画像ソースおよび合成方法を指定し、グラフィックボード22上の対応出力を選択する処理である。
【0045】
ダンサーAおよびダンサーBが登場するとステップS37でYESと判断されてステップS41に進み、データ記憶領域16aおよびデータ記憶領域16bに格納されている最新の感性ベクトルに基づいてダンサーAおよびダンサーBの主要感性を決定するとともに、決定された主要感性の出現回数をカウントする。主要感性は、感性ベクトルを形成する7つの要素のうち、最大値を示す要素に対応する感性である。主要感性の出現回数は、ダンサーAおよびダンサーBについて個別に用意された7つのカウンタ18a−1〜18a−7および18b−1〜18b−7によってカウントされる。つまり、カウンタ18a−1〜18a−7がダンサーAによって表現される7つの感性にそれぞれ割り当てられ、カウンタ18b−1〜18b−7がダンサーBによって表現される7つの感性にそれぞれ割り当てられ、そして決定された主要感性に対応するカウンタがインクリメントされる。
【0046】
ダンサーAの最新の感性ベクトルMAおよびダンサーBの最新の感性ベクトルMBを数2によって定義したとき、仮に数3が成立すると、ダンサーAの主要感性は番号2に対応する感性すなわち“Happy”と決定され、ダンサーBの主要感性は番号6に対応する感性すなわち“Lonely”と決定される。なお、最大値が複数存在した場合は、小さい番号に対応する感性が主要感性とされる。
【0047】
【数2】
Figure 0003786345
【0048】
【数3】
Figure 0003786345
【0049】
続くステップS43では、最新の感性ベクトルの純度をダンサーAおよびダンサーBの各々について求める。純度は、主要感性を示す要素の値(主要感性の得点)の絶対値を感性ベクトルの長さで割り算することによって求められ、算出された数値は“0.0”〜“1.0”間で変化する。ダンサーAの純度をPAと定義し、ダンサーBの純度をPBと定義すれば、PAおよびPBは数4に従って算出される。算出された純度は、データ記憶領域16cに蓄積される。
【0050】
【数4】
Figure 0003786345
【0051】
ステップS45では、最新の感性ベクトルに基づいて、ダンサーAおよびダンサーBの間の感性協調度を次のようにして算出する。まず、ダンサーAの最新の感性ベクトルMAおよびダンサーBの最新の感性ベクトルMBを正規化して正規化感性ベクトルMNAおよびMNBを求める。正規化感性ベクトルとは、推定した感性ベクトルの全要素に関する平均値が0.0となり、分散値が1.0になるように修正した感性ベクトルのことである。数2によって定義される感性ベクトルMAおよびMBに対して、正規化感性ベクトルMNAおよびMNBは数5によって定義される。
【0052】
【数5】
Figure 0003786345
【0053】
A−およびσMAは、ダンサーAの感性ベクトルMAの全要素(7つの感性の得点)に関する平均値と分散値である。またIは7次元の単位ベクトル、すなわちI=(1,1,1,1,1,1,1)である。ダンサーBの正規化感性ベクトルMNBも同様に求められる。
【0054】
次に正規化感性ベクトルMNAおよびMNBを用いて、ダンサーAおよびダンサーBの間の感性協調度Hを数6にて求める。
【0055】
【数6】
Figure 0003786345
【0056】
ここで、MNAkおよびMNBkはそれぞれ正規化感性ベクトルMNAおよびMNBの第k番目の要素を示し、したがって第1項は、ダンサーAおよびダンサーBの正規化感性ベクトルMNAおよびMNBの類似の度合いを評価する量である。またW1はこの評価量に対する重みである。この評価量は、正規化感性ベクトルMNAおよびMNBの差分ベクトルの長さの2乗でもあり、2つの正規化ベクトルが近ければ近いほど、その値は0に近づく。
【0057】
また第2項は、感性ベクトルMAを形成する全要素の平均値と感性ベクトルMBを形成する全要素の平均値との近さを評価する量である。ただし、全要素の平均値が持つ意味は分散が大きいほど薄くなると考え、平均値をそれぞれの標準偏差(分散値の平方根)で除している。またW2はこの評価量に対する重みである。この評価量も、感性ベクトルMAの平均値と感性ベクトルMBの平均値とがこの意味で近ければ近いほど0に近づく。
【0058】
第3項は、感性ベクトルMAを形成する全要素の分散値と感性ベクトルMBを形成する全要素の分散値との近さを評価する量であり、W3はこの評価量に対する重みである。この評価量も、感性ベクトルMAの分散値と感性ベクトルMBの分散値とが近ければ近いほど0に近づく。
【0059】
こうして求められた感性協調度も、データ記憶領域16cに蓄積される。なお、ダンサーAおよびダンサーBの間の感性協調度を評価するにあたり、第2項および第3項の評価量も使用しているのは、第1項に示す正規化感性ベクトルの近さだけではなく、正規化前の感性ベクトルの全要素に関する平均値や分散値の差異も有効であると考えられるためである。
【0060】
ステップS47では、2小節期間が経過したかどうかを判断する。この期間は、たとえば120ビート/秒のリズムで計れば4秒に相当する。ここでNOであればステップS35に戻り、上述のステップS35〜S45の処理を繰り返す。これによって、カウンタ18a−1〜18a−7および18b−1〜18b−7が更新され、ダンサーAおよびダンサーBの純度および感性協調度がデータ記憶領域16cに蓄積されていく。
【0061】
4秒が経過するとステップS49に進み、最近4秒間にカウントされた各主要感性の出現回数に基づいてダンサーAおよびダンサーBの最大優勢感性を決定する。つまり、カウンタ18a−1〜18a−7のうち最大値を示すカウンタに対応する感性をダンサーAの最大優勢感性として決定し、カウンタ18b−1〜18b−7のうち最大値を示すカウンタに対応する感性をダンサーBの最大優勢感性として決定する。ステップS51では、カウンタ18a−1〜18a−7および18b−1〜18b−7をリセットする。また、4秒という時間を計測するためのカウンタも、このステップでクリアする。
【0062】
ステップS53では最新の4秒間に算出された純度を数7に従って時間方向に平滑化し、ステップS55では最新の4秒間に算出された協調度を数8に従って時間方向に平滑化する。なお、数7および数8による平滑化処理は、移動平均を求める処理である。
【0063】
【数7】
Figure 0003786345
【0064】
【数8】
Figure 0003786345
【0065】
ステップS57では、スピーカ26およびモニタ28から出力するとともに視聴者に配信する映像コンテンツおよび音楽コンテンツ(マルチメディア表現)を図13および図14に示すサブルーチンに従って変化させる。
【0066】
ステップS59では、1ゲームに相当する時間が経由したか、あるいはダンサーAおよびダンサーBによる感性表現がゴールに達したかどうかを判断する。そして、いずれの条件も満たされていなければステップS35に戻り、次の4秒間について上述と同じ処理を繰り返す。一方、いずれかの条件が満たされると、ステップ61でゲーム終了フラグFをセットしてからステップS63に進み、ゲーム終了画面と音声を配信する。
【0067】
ゲームが終了すると、ステップS65でダンス,音楽コンテンツ,映像コンテンツならびに音楽コンテンツおよび映像コンテンツの総合についての評価を受け付けるための評価受付用画面および音楽を配信する。そして、ステップS67で一定時間が経過したかどうかを判断し、一定期間が経過しない間はステップS69で視聴者達のPC90から送信される評価を受け付ける。このとき視聴者は、全ダンサーのダンスの評価を全ダンサーに順位を付けて評価する。また、音楽コンテンツ,映像コンテンツならびに音楽コンテンツおよび映像コンテンツの総合評価をたとえば5段階の値をつけて評価する。一定期間が経過すると、ステップS71で評価受付締め切りの画面および音楽を配信して評価の受け付けを終了する。評価の受付が終了すると、ステップS73では受け付けた各評価データの集計を行い集計結果をデータベース24に蓄積する。このときの音楽コンテンツ映像コンテンツおよび総合コンテンツの集計結果は、たとえば5段階で評価された評価値の平均値である。そして、ステップS75では集計結果を表示するための画面と音楽とを視聴者のPC90をはじめとする参加者全員のPCに配信する。このとき、視聴者のPC90をはじめとする参加者全員のPCのモニタおよび中央装置10のモニタ28には図7に示すような画面が表示される。図7に示すように、ダンサー評価表示部92にはダンサーの優劣が順位で示され、サウンド評価表示部94,ビジュアル評価表示部96およびサウンドアンドビジュアル評価表示部98にはそれぞれ、音楽コンテンツの評価,映像コンテンツの評価ならびに音楽コンテンツおよび映像コンテンツの総合評価が5段階のゲージで表示される。
【0068】
本発明感性共有システム1によれば、参加ダンサーはこのような評価を受けることによって、より好ましいダンス動作を会得するための参考とすることができ、音楽コンテンツ提供者および映像コンテンツの提供者はより好ましいコンテンツを提供するための参考とすることができる。また、データベース24に蓄積される音楽コンテンツおよび映像コンテンツへの評価は、データベース24に蓄積される音楽コンテンツおよび映像コンテンツの洗練にも利用される。つまり、データベースに蓄積される膨大な音楽コンテンツおよび映像コンテンツのうち、視聴者による評価が一定値に満たないものは削除することにより、より好ましい音楽コンテンツおよび映像コンテンツが残り、より洗練されたデータベース24が出来上がる。データベース24の洗練の方法としては、たとえば評価値が所定の値以上である音楽コンテンツおよび映像コンテンツを残す方法、音楽については評価値が上位1000個の音楽コンテンツを残し、映像については、評価値の上位200個の映像コンテンツを残す方法などが考えられる。
【0069】
今回のダンスに対する評価が終了すると、ステップS77でイベント管理者からダンス大会終了のシステム指示が出されているかどうかを判断する。ここでダンス大会終了のシステム指示が出されていなければ、次のゲームのための動作に入るべくステップS25に戻る。一方、システム終了指示が出されていれば、処理を終了する。
【0070】
続いて、図13および図14に示すサブルーチンと図4〜図6に示す表示例を参照して、具体的なマルチメディア表現とゲーム性について説明する。このサブルーチンへの到達時点で、たとえばダンサーAの最大優勢感性が“Happy”であり、ダンサーBについての最大優勢感性が“Lonely”であり、ダンサーAの純度の方がダンサーBの純度より高く、さらに両者の協調度がある閾値よりも悪かったとする。このときは、ステップS91における感性一致の条件およびステップS93における協調度の条件のいずれも満たされず、ステップS95に進む。なお、よく協調している状態を一般には協調度が高いというが、数6による協調度Hは、よく調和していればいるほど数値Hは0に近づく量であるため、ここでは混乱を避けるべく、よく協調していればいるほど協調度が良いといい、その逆の状態を協調度が悪いという表現を用いる。
【0071】
ステップS95では、ダンサーAおよびダンサーBの最大優勢感性に対応する背景画像コンテンツをデータベース24から読み出す。今の場合、ダンサーAの背景画像としては、ダンサーAの最大優勢感性“Happy”を連想させるような画像(たとえば図4において画面右側に示す6角形の模様がピンク色に輝きながらリズミカルに順番に大きくなるような画像)が選ばれる。またダンサーBの背景画像としては、ダンサーBの最大優勢感性“Lonely”を連想させるような画像(たとえば図4において画面左側に示すダークブルーの雨だれ模様がゆっくりと降下するような画像)が選ばれる。もちろん、このような背景画像に限らず、“Happy”側には華やかな花模様をさらに追加したり、“Lonely”側には風にそよぐ白黒の草花を追加してさらに寂しさを表現するようにしてもよい。背景画像は映像コンテンツの提供者から募集した映像から選ばれるため、これらの背景画像による感性の表現は映像コンテンツの提供者の感性がいかんなく発揮されたものとなる。
【0072】
ステップS97〜S101では、ダンサーAの純度に応じた態様で、ダンサーAの人物映像を背景画像にオーバレイする。具体的には、ダンサーAの純度が閾値以上であれば、ステップS97からステップS101に進み、ダンサーAの人物画像をシルエット化したり、人物画像の輪郭内に特定の模様を表示した特殊効果画像を画面左側の背景画像にオーバレイする。また、ダンサーAの純度が閾値よりも低ければ、ステップS97からステップS99に進み、ダンサーAの実写画像を画面左側の背景画像にオーバレイする。ダンサーBについても、ステップS103〜S107で同様の処理を実行する。図4の表示例では、ダンサーAおよびダンサーBの純度がいずれも閾値よりも低く、それゆえ両者とも実写画像が背景画像にオーバレイされている。
【0073】
以上のステップS95〜S107の処理によって背景画像および人物画像がグラフィックボード22に設定されると、ステップS109でグラフィックボード22上の今回対応出力を選択する。これによって、図4に示すような分割画像が作成され視聴者のPC90をはじめとする参加者全員のPCに配信される。なお、図13および図14に示すサブルーチンは4秒毎にしか実行されないので、ダンサーAおよびダンサーBの背景画像コンテンツや人物画像輪郭内の模様も4秒毎にしか切り換えられない。しかし、グラフィックボード22の使用によって、オーバレイ表示された各ダンサーの実写人物画像やその輪郭画像および背景画像は(1/30)秒のフレームレートで変化する。
【0074】
ステップS111では、ダンサーAの純度およびダンサーBの純度を互いに比較し、比較結果に応じてステップS113またはステップS115の処理を行う。つまり、ダンサーAの純度の方が大きければ、ステップS115でダンサーAの最大優勢感性に対応する音楽コンテンツをデータベース24から読み出す。一方、ダンサーBの最大優勢感性の方が大きければ、ステップS113でダンサーBの最大優勢感性に対応する音楽コンテンツをデータベース24から読み出す。なお、各々の純度が等しければ、ダンサーAの最大優勢感性が優先される。
【0075】
ステップS117ではサウンドボード20の今回用の対応出力を選択し、これによって設定された音楽コンテンツがスピーカ20から出力されるとともに視聴者のPC90をはじめとする参加者全員のPCに配信される。今の場合は、ダンサーAの純度の方が高いので、ダンサーAの最大優勢感性“Happy”を連想させるような明るいにぎやかな音楽が選ばれる。ステップS117の処理を終えると、上階層のルーチンに戻る。
【0076】
上記のような状況下では、ダンサーBは、早い段階でダンサーAの感性に合わせるように表現内容を変更し、ダンサーAおよびダンサーBのペアとして感性(お互いの最大優勢感性)を一致させると同時にその協調度を上げていく。また、ダンス大会の趣旨によっては、ダンサーBはあくまでも自分が表現している感性にこだわり、一定時間内にその純度を上げて、音楽を自分のダンスに合ったものに変えるべくダンサーAと競争してもよい。
【0077】
上記のような状態の後、何回目かにこのサブルーチンに移行したときに、ダンサーAおよびダンサーBの最大優勢感性が“Happy”として一致し、かつ両者間の協調度がある閾値に達していると、ステップS91およびS93のいずれにおいてもYESと判断され、図14のステップS119を経てステップS121に進む。ステップS121では、まずダンサーAおよびダンサーBが一致して表現している最大優勢感性に対応する背景画像コンテンツをデータベース24から読み出し、これを画面一杯に広がる一つの背景画像としてグラフィックボード22に設定する。今の場合は、図5に示すように“Happy”を示す背景画像が画面一杯に広げられる。
【0078】
続くステップS123〜S133では、上述のステップS97〜S107と同様の処理を行い、ダンサーAおよびダンサーBの人物画像を純度に応じた態様で背景画像にオーバレイする。図5に示す表示例では、ダンサーAについては、純度が閾値以上となり、人物画像のシルエット部分を別の模様で表すなどの特殊効果を与えた特殊効果画像が背景画像にオーバレイされる。一方、ダンサーBについては、純度は閾値よりも低く、実写画像が背景画像にオーバレイされる。
【0079】
ステップS135では、グラフィックボード22上の今回対応出力を選択し、これによって図5に示す画像が実際にモニタ28に表示されるとともに視聴者のPC90をはじめとする参加者全員のPCに配信される。上述のように、背景画像や人物画像輪郭内の模様が示す感性は4秒毎にしか更新されないが、オーバレイされた各ダンサーの人物画像やその輪郭画像および背景画像は(1/30)秒のフレームレートで変化する。
【0080】
ステップS137では、ダンサーAおよびダンサーBが一致して表現している最大優勢感性に合致した音楽コンテンツをデータベース24から読み出し、サウンドボード20に設定する。続くステップS139ではサウンドボード20上の今回対応出力を選択し、これによって一致感性に応じた音楽がスピーカ20から出力されるとともに視聴者のPC90をはじめとする参加者全員のPCに配信される。今の場合は、一致感性“Happy”を連想させるような明るいにぎやかな音楽が選ばれ、さらにたとえばオーケストラによるメロディが追加される。つまり、図4に示す分割画像の段階の音楽よりもさらに盛り上がった感じの音楽が出力される。ステップS139の処理を終えると、上階層のルーチンに復帰する。
【0081】
上記のような状況の後、ダンサーAおよびダンサーBの感性が一致しかつ両者の協調度が閾値より良かったかまたは閾値と等しい状態が32秒間以上継続すると、ステップS119からステップS141に進む。このステップに進むのは、このゲームの終了段階である。ステップS141ではダンサーAおよびダンサーBの高い空間共有性を表す模様(図6における同心円状に重なった模様)を背景画像に追加し、続くステップS143では“ゴール!”という文字を画面一杯にオーバレイする。そして、ステップS145でグラフィックボード22上の対応出力を選択するとともに参加者全員のPCに向けて配信する。これによって、図6に示すように、ダンサーAおよびダンサーBを取り巻く渦巻き模様が“Happy”に対応した背景画像に追加され、かつ“ゴール!”という文字が画面一杯に表示される。ダンサーおよび観客は、この画面表示によって、ゲーム終了段階を知り、かつ満足感を得る。
【0082】
ステップS147では、ダンサーAおよびダンサーBが一致して表現している最大優勢感性に合致したオーケストラによる追加メロディーコンテンツ,派手な効果音コンテンツ,“ゴール!”という音声コンテンツなどをデータベース24から読み出し、サウンドボード20に設定する。ステップS149では、サウンドボード20上の対応出力を選択し、これによって図5に示す表示段階の音楽よりもさらに盛り上がった音楽が配信されるとともにスピーカ26から出力される。
【0083】
続いて、図15に示すルーチンを参照して、データベース24に蓄積された音楽コンテンツおよび映像コンテンツの選別方法について説明する。ところで、音楽コンテンツおよび映像コンテンツの評価は、ダンサーのダンスの上手下手によって影響を受けると考えられる。そのため、異なるダンサーで複数回の評価を得た後に、音楽コンテンツおよび映像コンテンツをデータベース24に残すかどうかの選別を行う。したがって、15種類1セットの音楽コンテンツおよび映像コンテンツには複数の評価結果データが付随することになる。
【0084】
まず、ステップS151ではデータベース24に15種類からなるコンテンツのセットがあるかどうかを判断する。コンテンツありと判断すると、ステップS153においてコンテンツに付随している評価結果データを取得する。そして、ステップS155で当該コンテンツは3回以上の評価を得ているかどうか、つまり評価結果データが3つ以上存在するかどうかを判断する。評価回数が3回よりも少ないときにはステップS151に戻って次のコンテンツが存在するかどうかを判断する。一方、評価回数が3回以上であるときにはステップS157でたとえば3回の評価結果の平均値を算出し、算出された平均値が所定の閾値以上であるかどうかを判断する。そして、評価結果の平均値が所定の閾値よりも小さいときにはステップS159において当該コンテンツをデータベース24から削除する。なお、ここでの削除は15種類を1セットとするセット単位で行われる。つまり、ステップS159では15個のコンテンツが同時に削除される。一方、評価結果の平均値が所定の閾値以上であるときには、ステップS159での削除処理をスキップしてステップS151に戻る。このようにして、データベース24には視聴者の評価が所定のレベルに達している音楽コンテンツおよび映像コンテンツのみが残される。
【0085】
以上説明したように、実施例1の感性共有システムでは、まず音楽コンテンツ提供者および映像コンテンツ提供者から音楽コンテンツおよび映像コンテンツの提供を受けて中央装置10のデータベース24に蓄積する。そして、各々のダンサーが行う身体表現から感性を推測し、その感性および感性の協調度に応じた音楽コンテンツおよび映像コンテンツをデータベース24から読み出してマルチメディア表現による感性表現を行う。視聴者はマルチメディア表現に対する表現を評価し、その評価結果はデータベース24に蓄積される。データベース24に蓄積された音楽コンテンツおよび映像コンテンツは視聴者による評価が高いものだけが残され、それ以外は削除される。
【0086】
したがって、多様なマルチメディア表現によってダンサーの感性を表現できる。また、マルチメディア表現にはダンサー以外にダンサーと同じ空間に居合わせないコンテンツの提供者や視聴者の感性までが含まれることになり、より大規模な集団の感性表現の共有が実現される。さらに、視聴者の評価に基づいてデータベースが洗練されることによりダンサーの身体動作による感性表現を支援する環境および効果(マルチメディア表現)が自動的に改善される。
[実施例2]
実施例1の感性共有システムでは、ダンスの終了後に視聴者による評価を行っているが、実施例2の感性共有システムではダンスの途中にも評価を行いその評価結果をリアルタイムで視聴者のPC90をはじめとする参加者全員のPCに表示する。
【0087】
実施例2においてもカメラから出力された撮影画像信号に基づいて各ダンサーの感性ベクトルを推定するルーチンが存在するが、実施例1の図8および図9と同じであるため説明を省略する。
【0088】
図16〜図21を参照して、推定されたダンサーの感性ベクトルに基づいてマルチメディア表現(出力する音楽コンテンツおよび映像コンテンツ)の変化を制御するルーチンについて説明する。図16および図17ならびに実施例1の図10および図11を比較すると分かるように、各ダンサーの感性ベクトルから、感性ベクトル純度の移動平均の算出(図17のステップS193)および感性協調度の移動平均の算出(図17のステップS195)を行うまでの処理は実施例1と同じである。実施例1と異なる点は、ステップS199〜ステップS211、つまりダンスのゲーム中において32秒ごとに視聴者からのマルチメディア表現に対する評価を受け付ける点、および受け付けた評価の集計結果をマルチメディア表現の制御処理(ステップS197)内で視聴者のPC90をはじめとする参加者全員のPCに向けて配信する点である。また、ダンスゲームの終了後(図18のステップS213でYES)にマルチメディア表現に対する評価を受け付け、受け付けた評価の集計結果を視聴者のPC90をはじめとする参加者全員のPCに向けて配信する点は実施例1と同じである。なお、ダンスゲーム中に集計された評価結果はデータベース24には蓄積されず、ダンス終了後の評価結果のみがデータベース24に蓄積される。したがって、データベース24に蓄積された音楽コンテンツおよび映像コンテンツの選別には、ダンス終了後の評価結果のみが使用される。
【0089】
まず、ステップS197で一度目のマルチメディア表現の制御処理を終えた後、ステップS199で32秒が経過したか、つまりダンス開始から32秒が経過したかどうかを判断する。32秒が経過していないときにはステップS175に戻るが、32秒が経過しているときにはステップS201以下で評価の受付処理を行う。まず、ステップS201で評価受付用の画面を映像コンテンツの一部に入れて配信する。つぎに、ステップS203で一定時間が経過しているかどうかを判断する。一定時間が経過していない間はステップS205で評価の受付を行う。このとき視聴者は、全てのダンサーのダンスの評価を各ダンサーに順位をつけて評価し、音楽コンテンツ,映像コンテンツならびに音楽コンテンツおよび映像コンテンツの総合評価についてはたとえば5段階の値をつけて評価する。そして一定時間が経過するとステップS207では評価受付締切用の画面を映像コンテンツの一部に入れて配信する。ステップS209では、受け付けた評価データの集計を行い、ステップS211では、集計結果データをデータ記憶領域16cに格納する。よって、データ記憶領域16cに格納された集計結果データは評価の集計を行うごとに更新される。こうして得られた集計結果はマルチメディア表現の制御処理(ステップS197)内でオーバレイされた人物画像および背景画像とともに視聴者のPC90をはじめとする参加者全員のPCに配信される。なお、ここでの集計結果はデータベース24には蓄積されない。
【0090】
つぎに、図19〜図21を参照して図17のステップS197におけるマルチメディア表現の制御処理について説明する。図13および図14ならびに図19〜図21を比較すると分かるように、実施例2のマルチメディア表現の制御処理は、図19のステップS269および図21のステップS297において評価の集計結果データ画像を人物画像および背景画像にオーバレイする点を除いて実施例1のマルチメディア表現の制御処理と同じである。
【0091】
つまり、ダンサーの感性が一致しない場合(ステップS251においてNO)もしくは感性が一致するが感性の協調度が閾値より小さい場合(ステップS251においてYESかつステップS253においてNO)は、ステップS255で各ダンサーの最大優勢感性に対応する背景画像がデータベース24から読み出され、読み出された背景画像にステップS257〜ステップS267において各ダンサーの人物画像(実写画像もしくは特殊効果画像)がオーバレイされる。そして、このオーバレイされた画像にステップS269ではさらに、評価の集計結果データ画像がオーバレイされ、このような画像が視聴者のPC90をはじめとする参加者全員のPCに配信される。なお、集計結果データ画像は、データ記憶領域16cに格納された集計結果データに基づいて作成される。1度目のマルチメディア表現の制御処理の時点では、データ記憶領域16cに集計結果データが格納されていないので、視聴者のPC90をはじめとする参加者全員のPCには図に示すように集計結果データはブランクの状態となる。2度目以降の集計結果データの表示では、図7に示すようにダンサー評価表示部92にダンサーの優劣が順位で示され、サウンド評価表示部94,ビジュアル評価表示部96およびサウンドアンドビジュアル評価表示部98にそれぞれ、音楽コンテンツの評価,映像コンテンツの評価ならびに音楽コンテンツおよび映像コンテンツの総合評価が5段階のゲージで表示される。
【0092】
また、ダンサーの感性が一致し、かつ感性協調度が閾値以上でありさらに感性の一致の継続が32秒より短い場合(ステップS251においてYESでかつステップS253においてYESかつステップS281においてNO)にも同様の処理を行う。つまり、ステップS283で一致する感性に対応する背景画像がデータベース24から読み出され、読み出された背景画像にステップS285〜ステップS295において各ダンサーの人物画像(実写画像もしくは特殊効果画像)がオーバレイされる。そして、ステップS297ではさらに評価の集計結果データ画像がオーバレイされる。こうした画像が視聴者のPC90をはじめとする参加者全員のPCに配信される。
【0093】
なお、データベース24に蓄積された音楽コンテンツおよび映像コンテンツの選別処理は実施例1で示した処理を同じであるため、説明を省略する。
【0094】
以上説明したように実施例2の感性共有システムでは、ダンスの途中においても視聴者によるマルチメディア表現に対する評価がリアルタイムで表示される。したがって、ダンサーはダンスの途中で表示される評価を参考にしてよりよいダンスを目指すことができ、視聴者はより大きな臨場感を得ることができる。
【0095】
なお、この発明の実施例は実施例1および実施例2の実施形態に限るものではなく、種々に変更して実施してもよい。たとえば、視聴者の評価があるレベル以上になっている間は、第2の映像コンテンツとして、画面に華やかさや派手さを与えるような模様(たとえば光り輝く半透明な模様)を画面全体にオーバレイするようにしてもよい。また、この第2の映像コンテンツも、イベント管理者の指揮のもと予め募集するようにしてもよい。
【0096】
さらに、データベース24に蓄積された音楽コンテンツおよび映像コンテンツの洗練方法としては評価値が上位の幾つかを残すこととしたが、評価値はあるコンテンツとダンサーとの組み合わせにおいてのみ高得点となる場合もあるので、単純に評価値の合計点で選別するのではなく、統計的分析を行って交互作用が有意となる高得点な組み合わせを残すようにしてもよい。
【0097】
また、ある時期にのみ高得点が得られるコンテンツやダンスも存在し得る。そこで、統計的分析の結果、年代との交互作用が有意となる高得点な組み合わせを残すようにしてもよい。このようにすれば時代の流れを示す貴重なデータベースを得ることができる。
【0098】
さらに、ダンス大会で採用する音楽コンテンツおよび映像コンテンツの決定方法としては、過去に規定回数以上データベース24から捨てられた(削除)経験のある提供者のコンテンツは採用しない方法もある。逆に、一定回数以上データベースに蓄積された実績を持つコンテンツの提供者のコンテンツを優先的に使用する方法もある。
【0099】
また、実施例1および実施例2においては、応募されたコンテンツを音楽コンテンツおよび映像コンテンツとし、被験者(ダンサー)の表現をダンスによる身体表現としたが、コンテンツの内容および被験者の表現はこれに限るものではなく、コンテンツを詞および曲とし、被験者の表現を歌とすることもできる。
【図面の簡単な説明】
【図1】この発明の感性共有システムの一実施例の全体構成を示す図解図である。
【図2】中央装置の構成例を示すブロック図である。
【図3】図1の実施例の動作の一部を示す図解図である。
【図4】ダンサーの感性協調度が悪いときに表示される画像を示す図解図である。
【図5】ダンサーの感性協調度が良いときに表示される画像を示す図解図である。
【図6】ゴールに達したときに表示される画像を示す図解図である。
【図7】評価を公表するときに表示される画像を示す図解図である。
【図8】ダンサーAの感性を推定するときの動作を示す図解図である。
【図9】ダンサーBの感性を推定するときの動作を示す図解図である。
【図10】マルチメディア表現を変化させるときの動作の一部を示すフロー図である。
【図11】マルチメディア表現を変化させるときの動作の他の一部を示すフロー図である。
【図12】マルチメディア表現を変化させるときの動作の他の一部を示すフロー図である。
【図13】マルチメディア表現を変化させるときの動作の他の一部を示すフロー図である。
【図14】マルチメディア表現を変化させるときの動作の他の一部を示すフロー図である。
【図15】データベースを洗練させるときの動作を示すフロー図である。
【図16】マルチメディア表現を変化させるときの動作の一部を示すフロー図である。
【図17】マルチメディア表現を変化させるときの動作の他の一部を示すフロー図である。
【図18】マルチメディア表現を変化させるときの動作の他の一部を示すフロー図である。
【図19】マルチメディア表現を変化させるときの動作の他の一部を示すフロー図である。
【図20】マルチメディア表現を変化させるときの動作の他の一部を示すフロー図である。
【図21】マルチメディア表現を変化させるときの動作の他の一部を示すフロー図である。[0001]
[Industrial application fields]
This invention changes the multimedia expression using the solicited music and video and the body image according to the sensitivity determined based on the human body expression, and evaluates the multimedia expression. Related to a sensibility sharing system
[0002]
[Prior art]
An example of a system that expresses sensibility by changing multimedia expression using music and video according to human sensibility classified based on physical quantity of human body expression is October 5, 2000 Japanese Patent Application No. 2000-306079 [A36B 24/00] filed in Japan. In this prior art, multimedia expression representing sensitivity is performed by music content and video content prepared in advance by the system.
[0003]
[Problems to be solved by the invention]
In the conventional technology, multimedia expression is possible only by contents added / changed by the system administrator, and there is a limit to the diversity of environments and effects (contents constituting multimedia) that support the emotional expression of the subject. There was a problem of getting tired over time. Also, the viewer's sensitivity could not be reflected in the multimedia expression.
[0004]
  Therefore, the main purpose of the present invention is to express human sensibility with diverse multimedia expressions that have been widely applied.I can,It is to provide a sensitivity sharing system.
[0005]
[Means for Solving the Problems]
  This inventionKansei sharing system according toIs a database that registers multiple submitted content,pluralFrom the subject's expressionpluralSubject's sensitivityRespectivelySensitivity detection means to detect,Fits multiple sensibilities detected by the sensibility detection means among multiple contents registered in the databaseContent andpluralSubject's expression andincludingOutput means for outputting composite content, A cooperation degree detection means for detecting a degree of cooperation indicating a degree to which a plurality of sensibilities detected by the sensitivity detection means approximate each other, and a cooperation level detected by the cooperation degree detection means for an output mode of the content forming the composite content Change means to change based onWith.
[0006]
[Action]
  A plurality of contents are registered in the database. The sensibility detecting means detects the sensibilities of the plurality of subjects from the expressions of the plurality of subjects, and the output means is content that matches the sensibilities detected by the sensibility detecting means among the plurality of contents registered in the database. Output composite content including multiple subjects' expressions. The degree of cooperation indicating the degree to which a plurality of sensibilities detected by the sensibility detection means approximate each other is detected by the detection means. The output mode of the content forming the composite content is changed by the changing unit based on the cooperation level detected by the cooperation level detecting unit.
[0007]
The expression of the subject is preferably the body expression of the subject.
[0008]
In one aspect of the present invention, the accepting unit accepts the composite content evaluation result, and the selecting unit selects the content registered in the database based on the composite content evaluation result. Note that it is desirable that the accepting unit accepts an evaluation result for each content included in the composite content.
[0011]
In another preferred embodiment, the content includes video and music, and the output mode changing means outputs a video with high spatial sharing and music corresponding to the sensitivity of the cooperative state when the degree of cooperation exceeds a predetermined threshold. Output.
[0012]
The output unit outputs the composite content including the same content a plurality of times, and the selection unit performs the selection based on the evaluation results of the composite content including the same content a plurality of times. It should be noted that the subject who expresses according to the same content is not necessarily the same person.
[0013]
【The invention's effect】
  According to the present invention, multimedia expression (expression by composite contents) suitable for the sensibility of the subject is performed by widely recruited contents. Therefore, it is possible to express the sensibility of the subject with a variety of multimedia expressions.
[0014]
The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0015]
【Example】
[Example 1]
FIG. 1 illustrates the present invention.Kansei sharing system 1The entire configuration is shown, and with reference to FIG.Central device 10 that controls the overall operation of 1Are connected to a communication network 100 such as the Internet. The communication network 100 includesCentral device10, a personal computer (hereinafter simply referred to as “PC”) 40 of the event manager, a PC 50 of the music content provider, a PC 60 of the video content provider, a PC 70 of the dancer (subject) A and a PC 80 of the dancer B, and Each viewer's PC 90 is connected. A camera 72 and a camera 82 are connected to the PC 70 and the PC 80, respectively. Note that a plurality of music content provider PCs 50, video content provider PCs 60, and viewer PCs 90 may be connected. Also, the number of PCs of dancers is not limited to two, PC70 and PC80.
[0016]
Central deviceSpecifically, reference numeral 10 is configured as shown in FIG. As shown in FIG. 2, the memory 14, the sound board 20, the graphic board 22, the database 24, the speaker 26, the monitor 28, and the communication line 30 are connected to the bus 32, and these are controlled by the CPU 12 also connected to the bus 32. TheThe communication circuit 30 is connected to an external network.
[0017]
Event manager is Kansei Sharing System1To hold a “Kansei Express Virtual Dance Competition” on the Internet. Prior to holding the dance competition, the event manager will publish the recruitment guidelines on the dance competition website and recruit dancers, music content and video content. Dancers are people who dance at dance competitions. The music content and the video content are content that is reproduced based on the sensibility expressed by the dancer. Details will be described later.
[0018]
In this dance competition, dancers A and B recruited in advance express their sensibilities by performing physical movements (dances) in front of the camera 72 and the camera 82. Dance images taken by the camera 72 and the camera 82 are taken into the PC 60 and the PC 80, for example, at a frame rate of (1/30) second, and via the communication network 100 in real time.Central device10 is sent as digital data. At this time, if the allowable transmission speed of the network is low, transmission / reception is performed as digital data that has been band-compressed using an encoding / decoding transfer board such as MPEG2 or MPEG4 that can be incorporated in the PC on the transmission side and reception side as required. To do. The dancer records a dance video in advance and plays this video.Central device10 may be transmitted.
[0019]
The multiple dance images sent are in real time every (1/30) seconds, for example.Central device10 is taken in.Central device10, “temporality”, “power” and “spatialness” are required as parameters representing the sensibility of the dancer from each captured dance image. In addition, a dancer's portrait image is also extracted from the dance video. Here, “temporality” means a parameter related to the movement and rhythm of the dancer's body, “power” is a parameter related to the acceleration of the body movement, and “spatiality” is a spatial characteristic of the body. This is a parameter related to spread. Referring to FIG. 3, “time” is obtained by the first derivative of the center of gravity (Xc, Yc) of the dancer's silhouette image, and “power” is the second derivative of the center of gravity (Xc, Yc). Sought by. The “spatiality” is obtained from the ratio of the dancer's silhouette image to the rectangle (width Xs, height Ys rectangle) circumscribing the silhouette image.
[0020]
When three parameters are obtained in this way,Central device10 performs statistical analysis on the three parameters at that time, and estimates the sensitivity of the dancer. As a means for statistical analysis, neural network or multiple regression analysis can be applied. Estimated sensibilities are “Natural”, “Happy”, “Dynamic”, “Flowing”, “Sharp”, “Lonely”, and “Solemn”. The sensitivity category having the highest analysis result is selected as the sensitivity (main sensitivity) of the dancer. The values of seven sensitivity categories obtained by neural network or multiple regression analysis are called “sensitivity vectors”.
[0021]
Central device10 estimates the sensitivity of each dancer and determines the purity and cooperation of each dancer's sensitivity. Sensitivity purity is the ratio of the primary sensitivity value to the other six sensitivity values, and is a value between “0.0” and “1.0”. In other words, the higher the purity, the better the sensitivity of the dancer fits the sensitivity category. The degree of cooperation represents how close the sensitivity of each dancer is, and is determined based on the sensitivity vector of each dancer.Central device10 represents the sensitivity, purity, and cooperation determined every (1/30) seconds, for example, by measuring the time corresponding to 2 bars (120 beats / minute rhythm).4By smoothing in the time direction over a period of seconds), the sensitivity and the degree of cooperation during this period are specified.
[0022]
Then, music content and video content (background content) suitable for the specified sensitivity and cooperation are selected from the database 24, and each participant, that is, event manager, viewer, music content provider, video content provider, dancer A, is selected. And transmitted to the PC of Dancer B as digital data. The video to be distributed at this time is obtained by overlaying the person images of all the participating dancers on the background video read from the database 24 as shown in FIG. Note that both the background image and the dancer's portrait image are moving images having a frame rate of (1/30) seconds.
[0023]
Here, in the database 24, music content and video content recruited from music content providers and video content providers are stored. The music content provider responds to the above seven sensibilities with seven types of normal states (in which the degree of cooperation has not reached a certain level) and seven types of cooperative states (in which the degree of cooperation has reached a certain level). In addition, a total of 15 types of music contents are applied for introduction of the dance competition, and these are accumulated in the database 24. The music content can be, for example, 16 seconds, and reproduction for 16 seconds or more is repeated. Similarly, the video content provider applies for 15 types of video content for the normal state, the cooperative state, and the dance tournament introduction. In this way, the database 24 of the sensibility sharing system 10 stores a plurality of sets of 15 kinds of music content and video content. Similarly, the video content is set to 16 seconds, and playback for 16 seconds or longer is repeated. As an application method for music content and video content, a method of transferring a file using the FTP protocol is conceivable.
[0024]
Kansei sharing system1Are all participating dancers or dance competitionsofFor example, depending on the purpose, the dance is ended when the cooperative state of the two people who cooperate best is continued for a predetermined time or when a predetermined time elapses from the start of the dance.
[0025]
Kansei sharing system when the dance is over1Asks the viewer to evaluate the dance according to the instruction from the event manager's PC 40. At this time, the viewer performs evaluation of music content, evaluation of video content, comprehensive evaluation of music content and video content, and ranks and evaluates dancers. Note that the evaluation of the music content and the evaluation of the video content performed by the viewer are evaluations for each set in which the 15 types of content described above are set as one set. When each evaluation by the viewer is transferred via the communication network 100Central device10 totals the evaluation for each item, and outputs the totaled results to the event manager's PC 40, the viewer's PC 90, the dancer A's PC 70, and the dancer B's PC 80. The counting result is displayed until the next dance starts.
[0026]
By referring to the counting results, the dancer can be a reference for acquiring a more preferable dance action, and the content provider can be a reference for providing a more preferable content. Further, the music content and the video content stored in the database 24 are selected in units of the above-mentioned 15 types of content as a set according to the total result, and only the more preferable music content set and video content set are stored in the database 24. Left behind.
[0027]
The number of dancers is preferably about 5 at a time because it is necessary to display human images on the PC. However, in this embodiment, two dancers are described.
[0028]
NextThe overall operation of the sensibility sharing system 1 of the present invention will be described. 8 to 14 show processing performed by the central apparatus 10.The routines shown in FIGS. 8 and 9 are routines for estimating the sensitivity vector of dancers (dancers A and B) based on the captured image signals output from the cameras (camera 72 and camera 82). Note that the routines of FIGS. 8 and 9 are individually executed without synchronization. The routine shown in FIGS. 10 to 14 is a routine for controlling music content and video content (multimedia expression) to be output based on the estimated dancer's sensitivity vector.
[0029]
First, referring to FIG. 8, in step S1a, an initialization process for starting a dance game is performed, and in step S3a, it is determined whether (1/30) seconds have elapsed since the system was started. If (1/30) seconds have elapsed, a captured image signal from the camera 72 is received in step S5a, and it is determined in step S7a whether a human image of dancer A is included in the captured image signal in addition to the background image. to decide. For example, chroma key technology can be applied to this determination.
[0030]
If only the background image is included in the photographed image signal, the process returns from step S7a to step S3a to prepare for the capture of the next photographed image signal. On the other hand, if any subject image other than the background image is included in the captured image signal, the subject image is regarded as a person image of the dancer A and the process proceeds to step S9a.
[0031]
In step S9a, a person image is extracted from the captured image signal, and a silhouette image shown in FIG. 3 is created from the extracted person image. In the subsequent step S11a, the center-of-gravity coordinates (Xc, Yc) and the area Hs of the silhouette image are obtained from the created silhouette image, and an operation according to Equation 1 is performed on the obtained center-of-gravity coordinates (Xc, Yc) and area Hs. As a result, the three parameters of “time”, “power” and “spatial” are measured for the dancer A.
[0032]
[Expression 1]
Figure 0003786345
[0033]
“Time” is obtained by first-order differentiation of the center-of-gravity coordinates, that is, by dividing the difference between the center-of-gravity coordinates before (1/30) seconds and the current center-of-gravity coordinates by (1/30) seconds. “Power” is obtained by second-order differentiation of the barycentric coordinates, that is, by dividing the difference between the previous primary differential value and the current primary differential value by (1/30) seconds. “Spatialness” is obtained by dividing the area of a silhouette image by the area of a rectangle circumscribing the silhouette image.
[0034]
In step S13a, the sensitivity vector of the dancer A is estimated based on the measured three parameters of “time”, “power”, and “spatial”. That is, in step S11a, the right side of seven multiple regression equations corresponding to the seven types of sensitivity of “Natural”, “Happy”, “Dynamic”, “Flowing”, “Sharp”, “Lonely”, and “Solemn” is obtained in step S11a. Substitute the three parameters of dancer A. As a result, each element of the 7-dimensional sensitivity vector estimated for the dancer A appears on the left side of the seven multiple regression equations. As described above, each element of the sensitivity vector indicates seven types of sensitivity scores estimated from the dance video of the dancer A. The estimated sensitivity vector value is stored in the data storage area 16a of the memory 14 (see FIG. 2).
[0035]
In step S15a, the state of the game end flag F is determined. The game end flag F is reset in step S25 (see FIG. 10) described later, and is set in step S61 (FIG. 11). If the game end flag F is in the reset state, the process returns to step S3a in order to capture the captured image signal of the dancer A after the next (1/30) second. On the other hand, if the game end flag F is in the set state, the process proceeds to step S17a. In step S17a, it is checked whether or not the event manager gives a system instruction to end the dance tournament (event). If the system instruction for the end of the dance competition is not given, the process returns to step S1a to prepare for the start of the next game. On the other hand, when a system instruction for the end of the dance competition is given, this routine is terminated.
[0036]
FIG. 9 processes the captured image signal of dancer B captured from the camera 82LeAlthough this routine is similar to the routine shown in FIG. 8, as will be understood by comparing FIG. 8 and FIG. 9, detailed description thereof is omitted.
[0037]
The difference is that the data storage area 16b for the dancer B is cleared in step S1b, and the sensitivity vector value estimated from the dance video of the dancer B is stored in the data storage area 16b in step S13b. Although the routines shown in FIGS. 8 and 9 are executed independently without being synchronized with each other, the latest estimated sensitivity vector is always left in the data storage areas 16a and 16b.
[0038]
Next, processing for controlling video content and music content will be described with reference to FIGS. First, in step S21, initialization for event start including clearing of the data storage area 16c is performed. Next, in step S23, a background image for introduction (event holding title) and music for introduction are distributed, and the monitor 28 and the speaker 26. Next, in step S25, initialization processing for starting a dance game including clearing the data storage area 16a, the data storage area 16b, the counter 18a and the counter 18b, and clearing the game end flag F is performed.
[0039]
In step S27, music content and video content used for multimedia expression of the current dance game are determined. The music content and the video content determined here correspond to the seven sensibilities as described above, and the normal state (the degree of cooperation does not reach a certain level) and the cooperative state (the degree of cooperation reaches a certain level). (Status) Furthermore, music content and video content with a total of 15 types for introducing a dance competition as one set. These music content and video content are content provided from a music content provider and a video content provider, respectively, and are selected from those stored in the database 24. There is also a method of selecting at random, but it will be described later.likeYou may make it select in an order from the thing with high evaluation with respect to a content. In step S27, the same music content and video content as the previous time may be selected a plurality of times. By doing so, the same music content and video content are expressed in multimedia by different dancers. Therefore, it is possible to avoid bias by dancers in the evaluation of music content and video content.
[0040]
When the music content and video content to be used are determined, the title character (video) and audio for starting the game are distributed in step S29. In step S31, the name of the dancer participating in this dance competition, the name of the creator of the music content It also distributes text (video) and audio that announces the name of the creator of the video content. Furthermore, in step S33, background video content and music content for game introduction are distributed.
[0041]
In step S35, it is determined whether (1/30) seconds have elapsed since the start. If YES, it is determined in step S37 whether all the dancers (dancers A and B) who participate are present. This determination is made based on whether the sensitivity vector values of both the dancer A and the dancer B exist in the data storage area 16a and the data storage area 16b, and whether person images of the dancer A and the dancer B exist.
[0042]
In step S37 immediately after the first (1/30) second has passed, there is a possibility that neither of the sensitivity vector values of the dancer A and the dancer B exists. Further, even if one dancer appears and the sensitivity vector of this dancer is obtained, the other dancer does not appear and the sensitivity vector of this dancer may not be obtained. In such a case, the process proceeds from step S37 to step S39, and only the existing dancer's person image is overlaid on the already-introduced background image. When the overlay process is completed, the process returns to step S35.
[0043]
Therefore, if neither dancer A nor dancer B appears, only the introduction background image is distributed. When dancer A first appears in this state, dancer A's person video is overlaid on the right half of the introduction background image. However, in any case, the distributed music for introduction continues to flow.
[0044]
The overlay process is executed as follows.Central device10 includes a graphic board 22, a CG image signal such as a background image created by CG (Computer Graphics) processing, and a captured image captured from the camera 72 and the camera 82 (steps S 5 a in FIG. 8 and FIG. 9). In step S5b, the captured image signal (captured every (1/30) second) is supplied to the graphic board 22. The graphic board 22 provides a special effect such as overlaying the person image of the dancer A on the background image for introduction, making the person image a silhouette, and further expressing the silhouette portion of the person image with a different pattern. be able to.Central device10 designates the image source and composition method for composition for such a graphic board 22 and selects the corresponding output on the graphic board 22, the composite image signal created in the designated manner is ( It is output from the graphic board 22 at a frame rate of 1/30) second and distributed via the communication circuit 30. Specifically, the process of step S39 is a process of designating a synthesis image source and a synthesis method for the graphic board 22 and selecting a corresponding output on the graphic board 22.
[0045]
When dancer A and dancer B appear, YES is determined in step S37, and the process proceeds to step S41. Based on the latest sensitivity vectors stored in the data storage area 16a and the data storage area 16b, the main sensitivity of dancer A and dancer B And the number of appearances of the determined main sensibility is counted. The main sensibility is the sensibility corresponding to the element showing the maximum value among the seven elements forming the sensibility vector. The number of appearances of the main sensibility is counted by seven counters 18a-1 to 18a-7 and 18b-1 to 18b-7 separately prepared for the dancer A and the dancer B. That is, the counters 18a-1 to 18a-7 are respectively assigned to the seven sensibilities represented by the dancer A, and the counters 18b-1 to 18b-7 are respectively assigned to the seven sensibilities represented by the dancer B and are determined. The counter corresponding to the main sentiment is incremented.
[0046]
Dancer A's latest sensitivity vector MAAnd dancer B's latest sensitivity vector MBIs defined by equation (2), if equation (3) is established, the primary sensitivity of dancer A is determined as the sensitivity corresponding to number 2, that is, “Happy”, and the primary sensitivity of dancer B is determined as the sensitivity corresponding to number 6, ie, “Lonely” Is determined. When there are a plurality of maximum values, the sensitivity corresponding to the smaller number is the main sensitivity.
[0047]
[Expression 2]
Figure 0003786345
[0048]
[Equation 3]
Figure 0003786345
[0049]
In subsequent step S43, the purity of the latest sensitivity vector is obtained for each of dancer A and dancer B. The purity is obtained by dividing the absolute value of the element value indicating the main sensitivity (the score of the main sensitivity) by the length of the sensitivity vector, and the calculated numerical value is between “0.0” and “1.0”. It changes with. The purity of dancer A is PAAnd the purity of dancer B is PBPAAnd PBIs calculated according to Equation 4. The calculated purity is accumulated in the data storage area 16c.
[0050]
[Expression 4]
Figure 0003786345
[0051]
In step S45, based on the latest sensibility vector, the sensibility cooperation between dancer A and dancer B is calculated as follows. First, dancer A's latest sensitivity vector MAAnd dancer B's latest sensitivity vector MBNormalized sensitivity vector MNAAnd MNBAsk for. The normalized sensitivity vector is a sensitivity vector that has been corrected so that the average value for all elements of the estimated sensitivity vector is 0.0 and the variance value is 1.0. Kansei vector M defined by Equation 2AAnd MB, Normalized sensitivity vector MNAAnd MNBIs defined by equation (5).
[0052]
[Equation 5]
Figure 0003786345
[0053]
MA− And σMAIs the sensitivity vector M of dancer AAThe average value and the variance value for all elements (score of 7 sensibilities). I is a 7-dimensional unit vector, that is, I = (1,1,1,1,1,1,1). Dancer B's normalized sensitivity vector MNBIs also required.
[0054]
Next, normalized sensitivity vector MNAAnd MNBIs used to obtain the sensibility coordination degree H between the dancer A and the dancer B using Equation (6).
[0055]
[Formula 6]
Figure 0003786345
[0056]
Where MNAkAnd MNBkAre normalized sensitivity vectors MNAAnd MNB, So the first term is the normalized sensitivity vector M of dancer A and dancer BNAAnd MNBThis is an amount for evaluating the degree of similarity. W1Is a weight for this evaluation quantity. This evaluation quantity is the normalized sensitivity vector MNAAnd MNBThis is also the square of the length of the difference vector, and the closer the two normalized vectors are, the closer the value is to zero.
[0057]
The second term is the sensitivity vector MAThe average value of all the elements that form and the sensitivity vector MBIs an amount that evaluates the closeness to the average value of all the elements forming. However, the meaning of the average value of all elements is considered to be thinner as the variance is larger, and the average value is divided by the respective standard deviations (square roots of the variance values). W2Is a weight for this evaluation quantity. This evaluation quantity is also expressed by the sensitivity vector MAMean value and sensitivity vector MBThe closer it is to the average value of, the closer it is to 0.
[0058]
The third term is the sensitivity vector MAOf variance and sensitivity vector M of all elements formingBIs an amount for evaluating the closeness to the variance value of all elements formingThreeIs a weight for this evaluation quantity. This evaluation quantity is also expressed by the sensitivity vector MAVariance value and sensitivity vector MBThe closer to the variance value, the closer to 0.
[0059]
The degree of emotional cooperation obtained in this way is also accumulated in the data storage area 16c. When evaluating the degree of emotional cooperation between dancer A and dancer B, the evaluation quantities of the second and third terms are also used only by the proximity of the normalized sensitivity vector shown in the first term. This is because the difference between the average value and the variance value regarding all elements of the sensitivity vector before normalization is considered to be effective.
[0060]
In step S47, it is determined whether or not two bar periods have elapsed. For example, this period corresponds to 4 seconds when measured at a rhythm of 120 beats / second. If “NO” here, the process returns to the step S35 to repeat the processes of the above-described steps S35 to S45. As a result, the counters 18a-1 to 18a-7 and 18b-1 to 18b-7 are updated, and the purity and sensitivity cooperation degree of the dancers A and B are accumulated in the data storage area 16c.
[0061]
When 4 seconds have elapsed, the process proceeds to step S49, and the maximum dominant sensibility of dancers A and B is determined based on the number of appearances of the main sensibilities counted in the last 4 seconds. That is, the sensitivity corresponding to the counter indicating the maximum value among the counters 18a-1 to 18a-7 is determined as the maximum dominant sensitivity of the dancer A and corresponds to the counter indicating the maximum value among the counters 18b-1 to 18b-7. Sensitivity is determined as the maximum dominant sensitivity of Dancer B. In step S51, the counters 18a-1 to 18a-7 and 18b-1 to 18b-7 are reset. Also, the counter for measuring the time of 4 seconds is cleared at this step.
[0062]
In step S53, the purity calculated in the latest 4 seconds is smoothed in the time direction according to Equation 7, and in step S55, the degree of cooperation calculated in the latest 4 seconds is smoothed in the time direction according to Equation 8. In addition, the smoothing process by Formula 7 and Formula 8 is a process which calculates | requires a moving average.
[0063]
[Expression 7]
Figure 0003786345
[0064]
[Equation 8]
Figure 0003786345
[0065]
In step S57, the video content and music content (multimedia expression) output from the speaker 26 and the monitor 28 and distributed to the viewer are changed according to the subroutines shown in FIGS.
[0066]
In step S59, it is determined whether a time corresponding to one game has passed, or whether the emotional expression by dancer A and dancer B has reached the goal. If neither condition is satisfied, the process returns to step S35, and the same process as described above is repeated for the next 4 seconds. On the other hand, if any one of the conditions is satisfied, the game end flag F is set in step 61, and then the process proceeds to step S63 to distribute the game end screen and sound.
[0067]
When the game ends, in step S65, an evaluation reception screen and music for receiving an evaluation of dance, music content, video content, and the overall content of the music content and video content are distributed. Then, in step S67, it is determined whether or not a certain period of time has elapsed, and an evaluation transmitted from the viewer's PC 90 is accepted in step S69 while the certain period has not elapsed. At this time, the viewer ranks and evaluates the dance evaluations of all dancers. Further, the overall evaluation of the music content, the video content, and the music content and the video content is evaluated by assigning, for example, five levels. When a certain period of time has elapsed, in step S71, an evaluation acceptance deadline screen and music are distributed, and the acceptance of the evaluation is terminated. When the acceptance of the evaluation is finished, in step S73, the received evaluation data is totaled and the total result is stored in the database 24. Music content at this time,Video contentAnd comprehensive contentIs an average value of evaluation values evaluated in five stages, for example. In step S75, the screen and music for displaying the counting result are distributed to the PCs of all the participants including the viewer's PC 90. At this time, the PC monitors of all the participants including the viewer's PC 90 andCentral deviceA screen as shown in FIG. 7 is displayed on the ten monitors 28. As shown in FIG. 7, the dancer evaluation display unit 92 indicates the superiority or inferiority of the dancers, and the sound evaluation display unit 94, the visual evaluation display unit 96, and the sound and visual evaluation display unit 98 each evaluate the music content. , Video content evaluation and overall evaluation of music content and video content are displayed in a five-stage gauge.
[0068]
According to the sensitivity sharing system 1 of the present invention, the participating dancers receive such an evaluation,It can be used as a reference for acquiring a more preferable dance operation, and a music content provider and a video content provider can be used as a reference for providing more preferable content. The evaluation of the music content and video content stored in the database 24 is also used to refine the music content and video content stored in the database 24. In other words, among the enormous music content and video content stored in the database, by deleting those whose evaluation by the viewer does not reach a certain value, more preferable music content and video content remain, and the more sophisticated database 24 Is completed. As a method of refining the database 24, for example, a method of leaving music content and video content whose evaluation value is equal to or higher than a predetermined value, a music content having the top 1000 evaluation values is left for music, and an evaluation value is set for video. A method of leaving the top 200 video contents can be considered.
[0069]
When the evaluation for the current dance is completed, it is determined in step S77 whether an event manager has issued a system instruction to end the dance competition. If the system instruction for the end of the dance tournament has not been issued, the process returns to step S25 to start the operation for the next game. On the other hand, if a system termination instruction has been issued, the process is terminated.
[0070]
Next, specific multimedia expressions and game characteristics will be described with reference to the subroutines shown in FIGS. 13 and 14 and the display examples shown in FIGS. At the time of reaching this subroutine, for example, dancer A has a maximum dominance sensitivity of “Happy”, dancer B has a dominance sensitivity of “Lonely”, and the purity of dancer A is higher than that of dancer B. Further assume that the degree of cooperation between the two is worse than a certain threshold. At this time, neither the sensitivity matching condition in step S91 nor the cooperation degree condition in step S93 is satisfied, and the process proceeds to step S95. In general, a well-coordinated state is said to have a high degree of cooperation. However, since the degree of cooperation H according to Equation 6 is such that the more well-coordinated, the numerical value H is closer to 0, so avoid confusion. Therefore, it is said that the better the cooperation is, the better the cooperation is, and the opposite state is the expression that the cooperation is bad.
[0071]
In step S95, the background image content corresponding to the maximum sensibility of dancers A and B is read from the database 24. In this case, as a background image of dancer A, an image reminiscent of dancer A's maximum sensibility “Happy” (for example, the hexagonal pattern shown on the right side of the screen in FIG. A large image) is selected. As the background image of dancer B, an image reminiscent of dancer B's maximum dominance sensation “Lonely” is selected (for example, an image in which the dark blue raindrop pattern shown on the left side of the screen in FIG. 4 descends slowly). . Of course, not only background images like this, but also add a gorgeous floral pattern on the “Happy” side, or add black and white flowers that sway in the wind on the “Lonely” side to express more loneliness. It may be. Since the background image is selected from videos recruited from video content providers, the expression of sensibility by these background images is the one that the sensibility of the video content provider is fully exhibited.
[0072]
In steps S97 to S101, the person video of the dancer A is overlaid on the background image in a manner corresponding to the purity of the dancer A. Specifically, if the purity of the dancer A is equal to or greater than the threshold value, the process proceeds from step S97 to step S101, and a special effect image in which a dancer A person image is silhouetted or a specific pattern is displayed in the outline of the person image is displayed. Overlay the background image on the left side of the screen. If the purity of the dancer A is lower than the threshold value, the process proceeds from step S97 to step S99, and the live-action image of the dancer A is overlaid on the background image on the left side of the screen. For the dancer B, the same processing is executed in steps S103 to S107. In the display example of FIG. 4, the purity of both dancer A and dancer B is lower than the threshold value, and therefore the actual image is overlaid on the background image in both cases.
[0073]
When the background image and the person image are set on the graphic board 22 by the processes in steps S95 to S107, the current corresponding output on the graphic board 22 is selected in step S109. As a result, a divided image as shown in FIG. 4 is created and distributed to the PCs of all the participants including the viewer's PC 90. Since the subroutines shown in FIGS. 13 and 14 are executed only every 4 seconds, the background image contents of dancers A and B and the patterns in the outline of the person image can be switched only every 4 seconds. However, by using the graphic board 22, the live-action person image displayed on the overlay, its outline image, and the background image change at a frame rate of (1/30) seconds.
[0074]
In step S111, the purity of dancer A and the purity of dancer B are compared with each other, and the process of step S113 or step S115 is performed according to the comparison result. That is, if the purity of the dancer A is greater, the music content corresponding to the maximum sensibility of the dancer A is read from the database 24 in step S115. On the other hand, if the maximum predominance sensitivity of dancer B is larger, the music content corresponding to the maximum predominance sensitivity of dancer B is read from database 24 in step S113. If each purity is equal, priority is given to the dominance sensitivity of dancer A.
[0075]
In step S117, the corresponding output for the current time on the sound board 20 is selected, and the music content set thereby is output from the speaker 20 and distributed to the PCs of all the participants including the viewer's PC 90. In this case, since the purity of dancer A is higher, bright and lively music reminiscent of dancer A's greatest sensibility “Happy” is selected. When the process of step S117 is completed, the process returns to the upper hierarchy routine.
[0076]
Under the circumstances described above, dancer B changes the expression content to match the sensitivity of dancer A at an early stage, and at the same time matches the sensibility (mutual dominance sensitivity of each other) as a pair of dancer A and dancer B. Increase the degree of cooperation. Also, depending on the purpose of the dance competition, Dancer B will be particular about the sensibility she is expressing, and will compete with Dancer A to increase its purity within a certain period of time and change the music to suit her dance. May be.
[0077]
When this subroutine is entered several times after the above state, the maximum predominance sensitivity of dancers A and B agrees as “Happy”, and the degree of cooperation between the two reaches a certain threshold. Then, YES is determined in both steps S91 and S93, and the process proceeds to step S121 via step S119 in FIG. In step S121, first, the background image content corresponding to the maximum sensibility expressed by the dancer A and the dancer B is read from the database 24, and this is set on the graphic board 22 as one background image that fills the screen. . In this case, as shown in FIG. 5, the background image indicating “Happy” is expanded to fill the screen.
[0078]
In subsequent steps S123 to S133, processing similar to that in steps S97 to S107 described above is performed, and the person images of dancer A and dancer B are overlaid on the background image in a manner corresponding to the purity. In the display example shown in FIG. 5, for the dancer A, the purity is equal to or higher than the threshold value, and a special effect image having a special effect such as representing the silhouette portion of the person image with another pattern is overlaid on the background image. On the other hand, for the dancer B, the purity is lower than the threshold value, and the photographed image is overlaid on the background image.
[0079]
In step S135, the current corresponding output on the graphic board 22 is selected, whereby the image shown in FIG. 5 is actually displayed on the monitor 28 and distributed to the PCs of all the participants including the viewer's PC 90. . As described above, the sensitivity shown by the pattern in the background image or the outline of the person image is updated only every 4 seconds, but the overlaid person image, the outline image, and the background image of (1/30) second are displayed. Varies with frame rate.
[0080]
In step S137, the music content that matches the maximum predominance sensitivity expressed by the dancer A and the dancer B is read from the database 24 and set in the sound board 20. In the subsequent step S139, the current corresponding output on the sound board 20 is selected, and thereby music corresponding to the matching feeling is output from the speaker 20 and distributed to all the participants' PCs including the viewer's PC 90. In this case, a bright and lively music reminiscent of the matching feeling “Happy” is selected, and for example, an orchestra melody is added. In other words, music that is more exciting than the music in the divided image stage shown in FIG. 4 is output. When the process of step S139 is completed, the process returns to the upper-level routine.
[0081]
After the situation as described above, when the sensibility of dancer A and dancer B matches and the degree of cooperation between the two is better than or equal to the threshold, the process proceeds from step S119 to step S141. It is the end stage of this game that proceeds to this step. In step S141, a pattern representing the high spatial sharing of dancers A and B (the pattern concentrically overlapping in FIG. 6) is added to the background image, and in the subsequent step S143, the characters “goal!” Are overlaid on the entire screen. . In step S145, the corresponding output on the graphic board 22 is selected and distributed to the PCs of all participants. As a result, as shown in FIG. 6, a spiral pattern surrounding dancer A and dancer B is added to the background image corresponding to “Happy”, and the letters “Goal!” Are displayed on the entire screen. Dancers and spectators know the game end stage and get satisfaction from this screen display.
[0082]
In step S147, the additional melody content, the flashy sound effect content, the audio content “Goal!”, Etc. by the orchestra that matches the maximum dominance sensitivity expressed by dancer A and dancer B are read from database 24, and the sound is read. Set to board 20. In step S149, the corresponding output on the sound board 20 is selected, and thereby music that is more exciting than the music at the display stage shown in FIG.
[0083]
Next, a method for selecting music content and video content stored in the database 24 will be described with reference to the routine shown in FIG. By the way, it is considered that the evaluation of music content and video content is influenced by the dancers' skill. Therefore, after obtaining a plurality of evaluations by different dancers, it is selected whether or not the music content and the video content are left in the database 24. Therefore, a plurality of evaluation result data are attached to 15 types of music content and video content.
[0084]
First, in step S151, it is determined whether or not there is a set of 15 types of contents in the database 24. If it is determined that there is content, evaluation result data attached to the content is acquired in step S153. In step S155, it is determined whether or not the content has been evaluated three times or more, that is, whether or not there are three or more evaluation result data. When the number of evaluations is less than 3, the process returns to step S151 to determine whether the next content exists. On the other hand, when the number of evaluations is three or more, for example, an average value of three evaluation results is calculated in step S157, and it is determined whether or not the calculated average value is equal to or greater than a predetermined threshold value. Then, when the average value of the evaluation results is smaller than the predetermined threshold value, the content is deleted from the database 24 in step S159. The deletion here is performed in units of 15 sets of 15 types. That is, in step S159, 15 contents are deleted simultaneously. On the other hand, when the average value of the evaluation results is equal to or greater than the predetermined threshold, the deletion process in step S159 is skipped and the process returns to step S151. In this way, only music content and video content whose viewer evaluation has reached a predetermined level are left in the database 24.
[0085]
As described above, the sensitivity sharing system of the first embodiment1In the first place, we received music content and video content from music content providers and video content providers.Central device 10Accumulate in database 24. Then, the sensibility is inferred from the body expression performed by each dancer, and the music content and the video content corresponding to the sensibility and the degree of cooperation of the sensibility are read from the database 24 and the sensibility expression by the multimedia expression is performed. The viewer evaluates the expression for the multimedia expression, and the evaluation result is stored in the database 24. Only the music content and video content stored in the database 24 are highly evaluated by the viewer, and the rest are deleted.
[0086]
Therefore, the dancer's sensibility can be expressed by various multimedia expressions. In addition, the multimedia expression includes the sensitivity of content providers and viewers who are not in the same space as the dancer, in addition to the dancer, so that a larger group of emotional expressions can be shared. Furthermore, the environment and effects (multimedia expression) that support the emotional expression by the body movement of the dancer are automatically improved by refining the database based on the viewer's evaluation.
[Example 2]
Kansei sharing system of embodiment 11Then, the evaluation by the viewer is performed after the end of the dance.1Then, evaluation is performed during the dance, and the evaluation result is displayed in real time on the PCs of all the participants including the viewer's PC90.
[0087]
Even in the second embodiment, there is a routine for estimating the sensitivity vector of each dancer based on the photographed image signal output from the camera. However, the routine is the same as that in FIGS.
[0088]
With reference to FIGS. 16-21, the routine which controls the change of multimedia expression (the music content and video content to output) based on the estimated dancer's sensitivity vector is demonstrated. As can be seen by comparing FIG. 16 and FIG. 17 and FIG. 10 and FIG. 11 of the first embodiment, the moving average of the sensitivity vector purity is calculated from the sensitivity vector of each dancer (step S193 in FIG. 17) and the sensitivity cooperation degree is shifted. The processing until the calculation of the average (step S195 in FIG. 17) is the same as that in the first embodiment. The difference from the first embodiment is that Steps S199 to S211, that is, the point where a viewer evaluates the multimedia expression every 32 seconds during the dance game, and the tabulated result of the received evaluation is the control of the multimedia expression. In the process (step S197), distribution is made to the PCs of all the participants including the viewer's PC90. Also, after the dance game is over (YES in step S213 in FIG. 18), an evaluation for the multimedia expression is accepted, and the total result of the received evaluations is distributed to the PCs of all the participants including the viewer's PC90. The point is the same as in the first embodiment. Note that the evaluation results collected during the dance game are not stored in the database 24, but only the evaluation results after the end of the dance are stored in the database 24. Therefore, only the evaluation result after the end of the dance is used to select the music content and the video content stored in the database 24.
[0089]
First, after finishing the first multimedia expression control process in step S197, it is determined in step S199 whether 32 seconds have elapsed, that is, whether 32 seconds have elapsed since the start of dance. When 32 seconds have not elapsed, the process returns to step S175, but when 32 seconds have elapsed, evaluation acceptance processing is performed in step S201 and thereafter. First, in step S201, an evaluation acceptance screen is distributed in a part of video content. Next, in step S203, it is determined whether or not a certain time has elapsed. While the predetermined time has not elapsed, an evaluation is accepted in step S205. At this time, the viewer ranks and evaluates the dance evaluations of all dancers and evaluates the overall evaluation of music content, video content, and music content and video content, for example, with five levels. . When a predetermined time has elapsed, in step S207, an evaluation acceptance deadline screen is inserted into a part of the video content and distributed. In step S209, the received evaluation data is tabulated, and in step S211, the tabulation result data is stored in the data storage area 16c. Therefore, the aggregation result data stored in the data storage area 16c is updated every time the evaluation is aggregated. The total results thus obtained are distributed to the PCs of all the participants including the viewer's PC 90 together with the person image and background image overlaid in the multimedia expression control process (step S197). Note that the totaling results here are not accumulated in the database 24.
[0090]
Next, the multimedia expression control process in step S197 of FIG. 17 will be described with reference to FIGS. As can be seen from a comparison of FIGS. 13 and 14 and FIGS. 19 to 21, the multimedia expression control process of the second embodiment is performed by converting the evaluation summary result data image into the person in step S 269 in FIG. 19 and step S 297 in FIG. Except for the overlay on the image and the background image, this is the same as the multimedia expression control process of the first embodiment.
[0091]
In other words, if the sensibilities of the dancers do not match (NO in step S251), or if the sensibility matches but the cooperation level of the sensibility is smaller than the threshold (YES in step S251 and NO in step S253), the maximum of each dancer in step S255. A background image corresponding to the predominance sensibility is read from the database 24, and a person image (actual image or special effect image) of each dancer is overlaid on the read background image in steps S257 to S267. In step S 269, the evaluation result data image is further overlaid on the overlaid image, and such an image is distributed to the PCs of all the participants including the viewer's PC 90. The aggregation result data image is created based on the aggregation result data stored in the data storage area 16c. Since the total result data is not stored in the data storage area 16c at the time of the first multimedia expression control process, all the participants' PCs including the viewer's PC 90 are not shown in FIG.4As shown in FIG. 4, the total result data is in a blank state. In the second and subsequent tabulation result data display, as shown in FIG. 7, the dancer evaluation display unit 92 indicates the superiority or inferiority of the dancers, and the sound evaluation display unit 94, visual evaluation display unit 96, and sound and visual evaluation display unit. In 98, the evaluation of the music content, the evaluation of the video content, and the overall evaluation of the music content and the video content are displayed in a five-stage gauge.
[0092]
The same applies when the dancers' sensibility matches and the sensibility cooperation level is equal to or greater than the threshold and the sensibility matching is shorter than 32 seconds (YES in step S251, YES in step S253, and NO in step S281). Perform the process. That is, a background image corresponding to the sensibility that matches in step S283 is read out from the database 24, and a person image (actual image or special effect image) of each dancer is overlaid on the read background image in steps S285 to S295. The In step S297, the evaluation result data image is further overlaid. Such images are distributed to the PCs of all the participants including the viewer's PC90.
[0093]
Note that the selection process of the music content and the video content stored in the database 24 is the same as the process shown in the first embodiment, and thus the description thereof is omitted.
[0094]
As described above, the sensitivity sharing system of the second embodiment1In the middle of the dance, the evaluation of the multimedia expression by the viewer is displayed in real time. Therefore, the dancer can aim for a better dance with reference to the evaluation displayed during the dance, and the viewer can obtain a greater sense of realism.
[0095]
In addition, the Example of this invention is not restricted to embodiment of Example 1 and Example 2, You may implement in various changes. For example, while the viewer's evaluation is above a certain level, as the second video content, a pattern that gives the screen gorgeousness or flashiness (for example, a shining translucent pattern) is overlaid on the entire screen. It may be. This second video content may also be recruited in advance under the direction of the event manager.
[0096]
Further, as a method for refining music content and video content stored in the database 24, the evaluation value is left in the top, but there are cases where the evaluation value is a high score only for a combination of a certain content and a dancer. Therefore, instead of simply selecting by the total score of the evaluation values, statistical analysis may be performed to leave a high-scoring combination in which the interaction is significant.
[0097]
There may also be content and dance that can be scored high only at certain times. Therefore, as a result of statistical analysis, a high-score combination in which the interaction with the age becomes significant may be left. In this way, a valuable database showing the flow of the times can be obtained.
[0098]
Further, as a method of determining music content and video content to be adopted in a dance competition, there is a method in which content of a provider who has been discarded (deleted) from the database 24 a predetermined number of times in the past is not adopted. Conversely, there is also a method of preferentially using content of a content provider who has a record of being accumulated in the database more than a certain number of times.
[0099]
In the first and second embodiments, the applied content is music content and video content, and the expression of the subject (dancer) is body expression by dance. However, the content of the content and the expression of the subject are limited to this. Instead of things, the content can be lyrics and songs, and the subject's expression can be songs.
[Brief description of the drawings]
FIG. 1 of the present inventionKansei sharing systemIt is an illustration figure which shows the whole structure of one Example.
[Figure 2]Central deviceIt is a block diagram which shows the example of a structure.
FIG. 3 is an illustrative view showing a part of the operation of the embodiment of FIG. 1;
FIG. 4 is an illustrative view showing an image displayed when a dancer's sensibility cooperation level is bad.
FIG. 5 is an illustrative view showing an image displayed when a dancer's Kansei cooperation level is good.
FIG. 6 is an illustrative view showing an image displayed when a goal is reached.
FIG. 7 is an illustrative view showing an image displayed when an evaluation is published.
FIG. 8 When estimating the sensitivity of dancer AMovementIt is an illustration figure which shows work.
FIG. 9 When estimating the sensitivity of dancer BMovementIt is an illustration figure which shows work.
FIG. 10 When changing the multimedia expressionMovementIt is a flowchart which shows a part of work.
FIG. 11 When changing the multimedia expressionMovementIt is a flowchart which shows the other part of work.
FIG. 12 When changing the multimedia expressionMovementIt is a flowchart which shows the other part of work.
FIG. 13: When changing the multimedia expressionMovementIt is a flowchart which shows the other part of work.
FIG. 14 When changing multimedia expressionMovementIt is a flowchart which shows the other part of work.
FIG. 15: When refining a databaseMovementIt is a flowchart which shows work.
FIG. 16 When changing multimedia expressionMovementIt is a flowchart which shows a part of work.
FIG. 17: When changing the multimedia expressionMovementIt is a flowchart which shows the other part of work.
FIG. 18: When changing the multimedia expressionMovementIt is a flowchart which shows the other part of work.
FIG. 19: When changing the multimedia expressionMovementIt is a flowchart which shows the other part of work.
FIG. 20: When changing the multimedia expressionMovementIt is a flowchart which shows the other part of work.
FIG. 21: When changing the multimedia expressionMovementIt is a flowchart which shows the other part of work.

Claims (7)

応募された複数のコンテンツを登録するデータベース、
複数の被験者の表現から前記複数の被験者の感性をそれぞれ検出する感性検出手段、
前記データベースに登録された複数のコンテンツのうち前記感性検出手段によって検出された複数の感性に適合するコンテンツと前記複数の被験者の表現とを含む複合コンテンツを出力する出力手段
前記感性検出手段によって検出された複数の感性が互いに近似する程度を示す協調度を検出する協調度検出手段、および
前記複合コンテンツを形成するコンテンツの出力態様を前記協調度検出手段によって検出された協調度に基づいて変化させる変化手段を備える感性共有システム。
A database for registering multiple submitted content,
Sensitive detection means for detecting each of the sensibility of the plurality of subjects from representations of a plurality of subjects,
Output means for outputting a composite content including a plurality of sensibilities detected by the sensibility detection means among a plurality of contents registered in the database and expressions of the plurality of subjects ;
A degree-of-cooperation detecting means for detecting a degree of cooperation indicating a degree to which a plurality of sensibilities detected by the sensibility detecting means approximate each other; and
Comprises change means for changing, based an output mode of the content that forms the composite content in cooperative degree detected by the cooperative degree detecting means, sensitive sharing system.
前記被験者の表現は身体表現である、請求項1記載の感性共有システム。  The sensitivity sharing system according to claim 1, wherein the expression of the subject is a body expression. 前記複合コンテンツの評価結果を受け付ける受付手段、および
前記評価結果に基づいて前記データベースに登録された前記コンテンツを選別する選別手段をさらに備える、請求項1または2記載の感性共有システム。
The sensitivity sharing system according to claim 1, further comprising: a reception unit that receives the evaluation result of the composite content; and a selection unit that selects the content registered in the database based on the evaluation result.
前記評価結果は前記複合コンテンツに含まれる前記コンテンツ毎の評価である、請求項記載の感性共有システム。The sensitivity sharing system according to claim 3 , wherein the evaluation result is an evaluation for each of the contents included in the composite content. 前記出力手段は同じコンテンツを含む前記複合コンテンツを複数回にわたって出力し、
前記選別手段は前記同じコンテンツを含む複合コンテンツに対する複数回の前記評価結果に基づいて選別を行う、請求項3または4記載の感性共有システム。
The output means outputs the composite content including the same content multiple times,
The sensibility sharing system according to claim 3 or 4 , wherein the selection means performs selection based on the evaluation results obtained a plurality of times for the composite content including the same content.
前記コンテンツは映像および音楽を含み、
記変化手段は、前記協調度が閾値を超えたとき空間共有性の高い映像と協調状態の感性に対応する音楽とを出力する、請求項1ないし5のいずれかに記載の感性共有システム。
The content includes video and music,
Before SL change means outputs the music corresponding to the sensitivity of the coordination state space shared highly video when the cooperative degree exceeds a threshold value, sensibility sharing system according to any one of claims 1 to 5 .
前記同じコンテンツに合わせて表現をする被験者は必ずしも一致しない、請求項記載の感性共有システム。The sensitivity sharing system according to claim 6 , wherein subjects who express in accordance with the same content do not necessarily match.
JP2001121672A 2001-04-19 2001-04-19 Kansei sharing system Expired - Fee Related JP3786345B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001121672A JP3786345B2 (en) 2001-04-19 2001-04-19 Kansei sharing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001121672A JP3786345B2 (en) 2001-04-19 2001-04-19 Kansei sharing system

Publications (2)

Publication Number Publication Date
JP2002319027A JP2002319027A (en) 2002-10-31
JP3786345B2 true JP3786345B2 (en) 2006-06-14

Family

ID=18971495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001121672A Expired - Fee Related JP3786345B2 (en) 2001-04-19 2001-04-19 Kansei sharing system

Country Status (1)

Country Link
JP (1) JP3786345B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6844349B2 (en) * 2017-03-15 2021-03-17 富士通株式会社 Presentation evaluation system, evaluation terminal, evaluation method, display method, evaluation program and display program
JP7027300B2 (en) * 2018-12-14 2022-03-01 ヤフー株式会社 Information processing equipment, information processing methods and information processing programs

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100278690B1 (en) * 1998-11-30 2001-01-15 정진택 Coupling device of connector and circuit board for electrical connector
JP2001014349A (en) * 1999-06-28 2001-01-19 Nippon Telegr & Teleph Corp <Ntt> Rating system for collaboration information filtering

Also Published As

Publication number Publication date
JP2002319027A (en) 2002-10-31

Similar Documents

Publication Publication Date Title
US10967272B2 (en) Virtual performance system
US8491387B2 (en) Apparatus and method for classifying groups of users
EP1324269B1 (en) Image processing apparatus, image processing method, record medium, computer program, and semiconductor device
AU2022287604A1 (en) Adapting a virtual reality experience for a user based on a mood improvement score
JP6701416B1 (en) Video distribution system, server, video distribution method for server, video distribution program, and video distribution method for user device
CN116782986A (en) Identifying a graphics interchange format file for inclusion with content of a video game
Donatiello et al. Exploiting immersive virtual reality for fashion gamification
JP3786345B2 (en) Kansei sharing system
JP3403393B2 (en) Kansei expression system and Kansei expression method
Lin et al. The effects of virtual characters on audiences’ movie experience
JP2015220651A (en) Try-on simulation experience system, control method for the same, and computer program
CN114418696A (en) Online VR intelligent display method and system for household goods and computer storage medium
JP7406578B2 (en) Information processing system, information processing device, information processing program, and information processing method
WO2022102550A1 (en) Information processing device and information processing method
JP3403378B2 (en) Kansei expression system
CN117785099A (en) Display equipment and virtual-real interaction method
JP2023136814A (en) Control program of terminal device, terminal device, method of controlling terminal device, control program of server device, server device, and method of controlling server device
CN117993991A (en) Virtual clothes changing display method and device and electronic equipment
JPH10165653A (en) Game device using image of player

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060316

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees