JP3403393B2 - Kansei expression system and Kansei expression method - Google Patents

Kansei expression system and Kansei expression method

Info

Publication number
JP3403393B2
JP3403393B2 JP2001058356A JP2001058356A JP3403393B2 JP 3403393 B2 JP3403393 B2 JP 3403393B2 JP 2001058356 A JP2001058356 A JP 2001058356A JP 2001058356 A JP2001058356 A JP 2001058356A JP 3403393 B2 JP3403393 B2 JP 3403393B2
Authority
JP
Japan
Prior art keywords
cooperation
subject
sensitivity
degree
purity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001058356A
Other languages
Japanese (ja)
Other versions
JP2002259970A (en
Inventor
眞 蓼沼
隆洋 中井
育生 原田
良太郎 鈴木
直人 桶川
真緒 牧野
正之 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2001058356A priority Critical patent/JP3403393B2/en
Publication of JP2002259970A publication Critical patent/JP2002259970A/en
Application granted granted Critical
Publication of JP3403393B2 publication Critical patent/JP3403393B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、感性表現システ
ムまたは感性表現方法に関し、特にたとえば、被験者の
感性に対応するマルチメディア表現を出力する、感性表
現システムまたは感性表現方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a Kansei expression system or Kansei expression method, and more particularly to a Kansei expression system or Kansei expression method for outputting a multimedia expression corresponding to the Kansei of a subject.

【0002】[0002]

【従来の技術】従来のこの種の感性表現システムの一例
が、2000年10月5日付けで特許出願された特願平
2000−306079号に開示されている。この従来
技術は、ダンスをしている被験者の身体表現から時性,
力性および空間性を表す3つのパラメータを計測し、計
測されたパラメータに基づいて被験者の感性を推定し、
そして推定された感性に応じてマルチメディア表現(た
とえば被験者の前面に置かれた大画面スクリーンおよび
音響システムによって表現される映像コンテンツおよび
音楽コンテンツ)を変化させるものである。被験者は、
自分のダンスを通して感性を表現することによって、マ
ルチメディア表現のリードやマルチメディア表現とのイ
ンタラクションが可能となる。
2. Description of the Related Art An example of a conventional emotion expression system of this type is disclosed in Japanese Patent Application No. 2000-306079 filed on Oct. 5, 2000. This conventional technique is based on the temporal expression from the body expression of the dancing subject,
Three parameters representing power and spatiality are measured, and the subject's sensitivity is estimated based on the measured parameters.
Then, the multimedia expression (for example, the video content and the music content expressed by the large screen screen and the sound system placed in front of the subject) is changed according to the estimated sensitivity. The subject is
By expressing your sensibility through your own dance, you can lead the multimedia expression and interact with it.

【0003】[0003]

【発明が解決しようとする課題】しかし、従来技術で
は、複数の被験者が同時にダンスを演じて各々の感性を
表現しても、表現された各々の感性に応じてマルチメデ
ィア表現を変化させることはできなかった。また、複数
の被験者が協調して同一種類の感性を表現できたとして
も、感性が協調している状態を検出することができず、
協調状態にふさわしいマルチメディア表現を出力するこ
ともできなかった。
However, in the prior art, even if a plurality of subjects perform dance at the same time to express their respective sensibilities, it is not possible to change the multimedia expression in accordance with the respective expressed sensitivities. could not. Further, even if a plurality of test subjects can express the same kind of sensibilities in cooperation, it is not possible to detect the state in which the sensibilities are cooperative,
It was not possible to output a multimedia expression suitable for the cooperative state.

【0004】それゆえに、この発明の主たる目的は、複
数人が表現した感性に応じた多様なマルチメディア表現
を出力できる、感性表現システムを提供することであ
る。
Therefore, a main object of the present invention is to provide a kansei expression system capable of outputting various multimedia expressions corresponding to sensibilities expressed by a plurality of people.

【0005】[0005]

【課題を解決するための手段】第1の発明は、複数の被
験者の身体表現の物理量に基づいて各々の被験者毎に感
性ベクトルを推定する推定手段、推定手段から得られる
複数の感性ベクトルに基づいて協調度を算出する協調度
算出手段、および協調度算出手段によって算出された協
調度に基づいてマルチメディア表現を変化させる変化手
段を備える、感性表現システムである。
According to a first aspect of the present invention , a feeling for each subject is calculated based on physical quantities of body expressions of a plurality of subjects .
Estimating means for estimating the sex vector , obtained from the estimating means
A kansei expression system comprising: a cooperation degree calculating means for calculating a cooperation degree based on a plurality of affective vectors ; and a changing means for changing a multimedia expression based on the cooperation degree calculated by the cooperation degree calculating means.

【0006】第2の発明は、被験者の感性に対応するマ
ルチメディア表現を出力する感性表現システムの感性表
現方法であって、複数の被験者の身体表現の物理量に基
づいて各々の被験者毎に感性ベクトルを推定し、推定さ
れた各々の複数の感性ベクトルに基づいて協調度を算出
し、そして算出された協調度に基づいてマルチメディア
表現を変化させる、感性表現方法である。
A second aspect of the present invention is a kansei expression method for a kansei expression system that outputs a multimedia expression corresponding to the kansei of a subject, and the kansei vector for each subject is based on the physical quantities of the body expressions of a plurality of subjects. Is calculated, the degree of cooperation is calculated based on each estimated plurality of affective vectors , and the multimedia expression is changed based on the calculated degree of cooperation.

【0007】[0007]

【作用】第1の発明においては、複数の被験者の感性
ベクトルは、各々の被験者の身体表現の物理量に基づい
て推定手段によって推定される。推定された各々の感性
ベクトルに基づく協調度は協調度算出手段によって算出
され、変化手段は、算出された協調度に基づいてマルチ
メディア表現を変化させる。これによって、複数人が表
現した感性に応じた多様なマルチメディア表現が出力さ
れる。
According to the first aspect of the invention, the sensitivity of each of a plurality of subjects
The vector is estimated by the estimation means based on the physical quantity of the body expression of each subject. Each estimated sensitivity
The vector-based degree of cooperation is calculated by the degree-of-cooperation calculating means, and the changing means changes the multimedia expression based on the calculated degree of cooperation. As a result, various multimedia expressions corresponding to the sensibilities expressed by a plurality of people are output.

【0008】好ましい実施例では、マルチメディア表現
は次のようにして変化される。協調度が閾値より悪けれ
ば、被験者の数に相当する複数の画像が第1表示手段に
よって画面に分割表示される。また、協調度が閾値と同
じか閾値よりも良くなると、1つの画像が第2表示手段
によって画面に全面表示される。
In the preferred embodiment, the multimedia presentation is modified as follows. If the degree of cooperation is lower than the threshold value, a plurality of images corresponding to the number of subjects are divided and displayed on the screen by the first display means. When the degree of cooperation is equal to or better than the threshold value, one image is entirely displayed on the screen by the second display means.

【0009】なお、協調度が閾値と同じか閾値よりも良
い状態が所定時間継続したときに、空間共有性を示す特
定画像を第2表示手段によって表示してもよい。
The specific image showing space sharing may be displayed by the second display means when the degree of cooperation is equal to or better than the threshold for a predetermined time.

【0010】他の好ましい実施例では、協調度が閾値よ
り悪いとき、いずれかの被験者の感性に対応する音楽が
第1出力手段によって出力される。協調度が閾値と同じ
か閾値よりも良くなると、協調状態の感性に対応する音
楽が第2出力手段によって出力される。
In another preferred embodiment, when the degree of cooperation is lower than the threshold value, the music corresponding to the sensitivity of any one of the subjects is output by the first output means. When the degree of cooperation is equal to or better than the threshold value, the music corresponding to the sensitivity of the cooperation state is output by the second output means.

【0011】その他の好ましい実施例では、感性は複数
種類存在し、推定手段は、被験者の主要感性を推定す
る。このとき、推定された主要感性の純度が純度算出手
段によって算出される。なお、純度算出手段は、好まし
くは、主要感性の絶対値が複数種類の感性の絶対値の
和に占める割合を純度として算出する。
In another preferred embodiment, there are plural kinds of sensibilities, and the estimating means estimates the main sensation of the subject. At this time, the purity of the estimated main sensitivity is calculated by the purity calculating means. The purity calculating means preferably calculates, as the purity, the ratio of the absolute value of the main affectiveness to the total sum of the absolute values of the multiple types of affectiveness.

【0012】マルチメディア表現を変化させるために、
被験者を示す人物画像を算出された純度に応じた態様で
表示してもよい。このとき、さらに好ましくは、被験者
の実写画像および特殊効果を施された輪郭画像のいずれ
か一方が、純度に応じて表示される。
In order to change the multimedia presentation,
You may display the person image which shows a test subject in the aspect according to the calculated purity. At this time, more preferably, one of the photographed image of the subject and the contour image subjected to the special effect is displayed according to the purity.

【0013】さらに、いずれかの被験者の主要感性に対
応する音楽を、算出された純度に基づいて出力するよう
にしてもよい。このとき、ある実施例では、純度が最も
高い主要感性に対応する音楽が出力され、他の実施例で
は、純度がM(M:整数)番目に高い主要感性によって
リズム系が決定され、純度がN(N:整数)番目に高い
主要感性によってメロディ系が決定される。
Furthermore, music corresponding to the main sensitivity of any one of the subjects may be output based on the calculated purity. At this time, in one embodiment, the music corresponding to the main sensitivity having the highest purity is output, and in another embodiment, the rhythm system is determined by the main sensitivity having the Mth (M: integer) highest purity and the purity is determined. The melody system is determined by the Nth (N: integer) highest primary sensitivity.

【0014】さらにその他の好ましい実施例では、算
手段は、各々の感性ベクトルを正規化した正規化感性ベ
クトルの類似度、各々の感性ベクトルを形成する要素の
平均値の近さ、および各々の感性ベクトルを形成する要
素の分散値の近さに基づいて、協調度を算出する。
[0014] In yet another preferred embodiment, calculation detecting means, each of the similarity-sensitive vector normalized normalized sensitivity vector, closeness of the mean values of the elements forming each of the sensitive vector, and each The degree of cooperation is calculated based on the closeness of the variance values of the elements forming the affective vector.

【0015】第2の発明においては、複数の被験者の身
体表現の物理量に基づいて各々の被験者の感性ベクト
が推定され、推定された各々の感性ベクトルに基づい
協調度が算出される。マルチメディア表現は、算出さ
れた協調度に基づいて変化される。
[0015] In the second invention, sensitivity of each of each subject based on the physical quantity of physical expression of a plurality of subjects vectors
Le is estimated, based on the sensitivity vector of each estimated
And the degree of cooperation is calculated. The multimedia representation is changed based on the calculated degree of cooperation.

【0016】[0016]

【発明の効果】これらの発明によれば、各々の被験者に
ついて推定された感性の協調度に基づいてマルチメディ
ア表現を変化させるようにしたため、被験者の感性に応
じた多様なマルチメディア表現が可能となる。
EFFECTS OF THE INVENTION According to these inventions, the multimedia expression is changed based on the degree of affective cooperation estimated for each subject. Therefore, various multimedia expressions according to the subject's sensitivity are possible. Become.

【0017】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行なう以下の実施例の
詳細な説明から一層明らかとなろう。
The above-mentioned objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

【0018】[0018]

【実施例】・第1実施例 図1は、本発明の一実施例である協調型感性表現システ
ム10の構成を示しており、このシステム10は、スタ
ジオSでダンスを踊る被験者AおよびBをそれぞれ撮影
するカメラ12aおよび12bを含む。被験者Aおよび
Bは必ずしも同一のスタジオSに存在する必要はない
が、ここではまず基本的な実施例として、同一のスタジ
オS内に存在している場合について説明する。
First Embodiment FIG. 1 shows the configuration of a collaborative emotional expression system 10 which is an embodiment of the present invention. This system 10 includes subjects A and B who dance in a studio S. It includes cameras 12a and 12b for taking images, respectively. The subjects A and B do not necessarily need to be present in the same studio S, but here, as a basic example, a case where they are present in the same studio S will be described.

【0019】まず概略動作を説明する。図1において、
カメラ12aおよび12bの各々は、被験者AおよびB
を(1/30)秒のフレームレートで撮影し、撮影画像
信号をコンピュータ14に与える。コンピュータ14
は、被験者Aの撮影画像信号および被験者Bの撮影画像
信号を(1/15)秒毎に独立にかつ並行してサンプリ
ングする。そして、サンプリングした各々の撮影画像信
号に基づいて被験者AおよびBの感性を個別に推定する
とともに、推定されたそれぞれの感性の純度および被験
者A・B間の感性の協調度を算出する。コンピュータ1
4はさらに、推定された各々の感性の純度および感性協
調度にふさわしい映像コンテンツおよび音楽コンテンツ
をデータベース16から読み出し、読み出された映像コ
ンテンツおよび音楽コンテンツをモニタ18およびスピ
ーカ20からそれぞれ出力する。
First, the general operation will be described. In FIG.
Each of the cameras 12a and 12b has subjects A and B
Is photographed at a frame rate of (1/30) second, and a photographed image signal is given to the computer 14. Computer 14
Samples the captured image signal of the subject A and the captured image signal of the subject B every (1/15) seconds independently and in parallel. Then, the sensitivities of the subjects A and B are individually estimated based on the sampled photographed image signals, and the estimated sensibility of the sensations and the degree of cooperation of the sensitivities between the subjects A and B are calculated. Computer 1
Further, 4 reads out from the database 16 the video content and the music content suitable for the estimated sensitivity and the degree of sensitivity cooperation, and outputs the read video content and the music content from the monitor 18 and the speaker 20, respectively.

【0020】コンピュータ14が推定する感性とは、予
め種類分けされた“Natural”、“Happy”,“Dynami
c”,“Flowing”,“Sharp”,“Lonely”および“Sol
emn”の7種類の感性について、それぞれの感性らしさ
を示す得点である。したがって、推定された感性は、7
個の要素をもつ7次元ベクトルによって表される。以下
では、推定された感性を感性ベクトルと呼ぶ場合もあ
る。
The sensibilities estimated by the computer 14 are "Natural", "Happy", and "Dynami" which are classified in advance.
c ”,“ Flowing ”,“ Sharp ”,“ Lonely ”and“ Sol
It is a score indicating the sensitivity of each of the seven types of "emn". Therefore, the estimated sensitivity is 7
It is represented by a 7-dimensional vector with elements. Hereinafter, the estimated sensitivity may be referred to as a sensitivity vector.

【0021】コンピュータ14は、このような感性ベク
トルを次のような方法で推定する。まず被験者Aおよび
Bの身体表現の物理量に基づいて、被験者AおよびBの
時性,力性および空間性の3つのパラメータを被験者毎
に独立にかつ並行して求める。ここで、時性とは被験者
の身体の運動やリズムに関連するパラメータを意味し、
力性とは被験者の身体動作の加速度に関連するパラメー
タを意味し、空間性とは被験者の身体の空間的な広がり
に関連するパラメータを意味する。
The computer 14 estimates such a sensitivity vector by the following method. First, based on the physical quantities of the body expressions of the subjects A and B, the three parameters of the subjects A and B, which are temporality, power, and spatiality, are determined independently and in parallel for each subject. Here, temporality means a parameter related to the movement or rhythm of the subject's body,
The force means a parameter related to the acceleration of the body motion of the subject, and the spatial property means a parameter related to the spatial spread of the body of the subject.

【0022】図2を参照して、時性は、被験者のシルエ
ット画像から求めた重心座標(Xc,Yc)の1次微分
によって求められる。また、力性は、重心座標(Xc,
Yc)の2次微分によって求められる。さらに、空間性
は、被験者のシルエット画像の面積が当該シルエット画
像に外接する矩形(幅Xs、高さYsの矩形)の面積に
占める割合から求められる。
With reference to FIG. 2, the temporality is obtained by the first derivative of the barycentric coordinates (Xc, Yc) obtained from the silhouette image of the subject. Also, the force is the barycentric coordinate (Xc,
It is obtained by the second derivative of Yc). Further, the spatial property is obtained from the ratio of the area of the subject's silhouette image to the area of a rectangle (a rectangle having a width Xs and a height Ys) circumscribing the silhouette image.

【0023】コンピュータ14は続いて、被験者Aおよ
びBについて個別に求められた3つのパラメータに対し
て、重回帰分析による統計解析を施す。これによって、
被験者AおよびBの感性ベクトルが推定される。こうし
て感性ベクトルが推定された後に、推定した感性および
感性協調度に適した映像コンテンツおよび音楽コンテン
ツを出力することは、すでに述べたとおりである。
The computer 14 subsequently performs a statistical analysis by multiple regression analysis on the three parameters individually determined for the subjects A and B. by this,
The affective vectors of subjects A and B are estimated. As described above, after the sensitivity vector is estimated, the video content and the music content suitable for the estimated sensitivity and the degree of affective cooperation are output.

【0024】重回帰分析による統計解析では、まず感性
ベクトルを推定するためのベースとなる教師データが必
要になる。この教師データは予め次のようにして求めら
れる。ある被験者、たとえば感性表現に優れたプロのダ
ンサーに上記の7種類の感性を表現する7種類のダンス
をカメラ12a(あるいはカメラ12b)の前で一定時
間踊らせ、カメラ12aから出力された撮影画像信号
(ダンス映像)を記録する。次に、記録されたダンス映
像を再生し、次の2つの処理を行なう。
In the statistical analysis by the multiple regression analysis, first, teacher data as a base for estimating the sensitivity vector is required. This teacher data is obtained in advance as follows. A photographed image output from the camera 12a by subjecting a certain subject, for example, a professional dancer excellent in sensibility expression, to dance the 7 kinds of dances expressing the 7 kinds of sensibilities in front of the camera 12a (or the camera 12b) for a certain period of time. Record the signal (dance video). Next, the recorded dance video is reproduced and the following two processes are performed.

【0025】1つ目の処理では、各々の感性を表現する
ダンス映像を数十名の生徒に見せ、各々のダンス映像が
7種類のいずれの感性を示すかを答えさせる。これによ
って、各々のダンス映像が示す感性についての投票率が
求められる。投票率は、7種類の感性に対応する7つの
数値からなる。この7つの数値は、ダンス映像が7種類
の感性をどの程度含むかを表す実測値であり、これが7
次元ベクトルの実測値を形成する数値となる。
In the first process, several tens of students are shown a dance image expressing each sensitivity, and they are asked to answer which of the seven types of sensitivity each dance image shows. With this, the voting rate for the sensitivity of each dance image is obtained. The voting rate consists of seven numbers corresponding to seven kinds of sensibility. These seven numerical values are actual measurement values indicating how much the dance image includes seven kinds of sensibilities, and this is 7
It is a numerical value that forms the actual measurement value of the dimension vector.

【0026】2つ目の処理では、各々のダンス映像から
ダンサーのシルエット画像が抽出され、抽出されたシル
エット画像から重心座標とシルエット画像の面積とが測
定され、そして、重心画像および面積の測定値から時
性,力性および空間性の3つのパラメータが算出され
る。算出された各々のパラメータは、時間方向の平滑化
が施される。具体的には、各パラメータがたとえば2小
節に相当する時間にわたる加重平均が施され、各パラメ
ータの加重平均値は2小節期間毎に算出される。なお、
2小節期間は、120ビート/秒のリズムで計れば4秒
に相当する。
In the second process, the silhouette image of the dancer is extracted from each dance image, the barycentric coordinates and the area of the silhouette image are measured from the extracted silhouette image, and the barycentric image and the measured value of the area are measured. From this, three parameters of temporality, power and spatiality are calculated. Each calculated parameter is smoothed in the time direction. Specifically, each parameter is weighted averaged over a time period corresponding to, for example, two measures, and the weighted average value of each parameter is calculated every two measures period. In addition,
The two-bar period corresponds to 4 seconds when measured with a rhythm of 120 beats / second.

【0027】こうして7種類のダンス映像の各々につい
て得られた7次元ベクトル実測値と、各々のダンス映像
について2小節期間毎に測定された3つの加重平均値と
が、教師データとなる。
The 7-dimensional vector actual measurement value obtained for each of the seven types of dance images and the three weighted average values measured for each two-measure period for each dance image serve as teacher data.

【0028】教師データが得られると、3つの加重平均
値を説明変数とし、7次元ベクトル実測値を目的変数と
して、最小2乗法によって、各々の感性についての重回
帰式が定められる。すなわち、重回帰分析によって、7
種類の感性にそれぞれ対応する7つの重回帰式が求めら
れる。求められた7つの重回帰式の右辺(説明変数側)
に別途撮影された身体動作に基づく3つのパラメータを
代入すると、左辺(目的変数側)には、その身体動作が
得たであろう7つの感性の投票率の推定値が得られる。
この7次元ベクトルの各要素は、その身体動作から推定
された各感性らしさの得点とみなすことができるので、
この左辺の値からなる7次元ベクトルでもって、その身
体動作によって表現された感性を示す感性ベクトルの推
定値とする。このような7つの重回帰式は、コンピュー
タ14に保持される。
When the teacher data is obtained, the multiple regression equation for each sensitivity is determined by the least squares method using the three weighted average values as explanatory variables and the seven-dimensional vector measured value as an objective variable. That is, by multiple regression analysis, 7
Seven multiple regression equations corresponding to each type of sensitivity are obtained. Right side of the obtained 7 multiple regression equations (explanatory variable side)
By substituting the three parameters based on the body motion separately photographed into, on the left side (objective variable side), the estimated values of the voting rates of the seven sensibilities that the body motion would have been obtained.
Since each element of this 7-dimensional vector can be regarded as a score of each sensitivity-likeness estimated from the body motion,
The 7-dimensional vector composed of the values on the left side is used as the estimated value of the affective vector representing the affectiveness expressed by the body motion. Such seven multiple regression equations are stored in the computer 14.

【0029】この協調型感性表現システム10が起動し
た状態で、被験者AおよびBがスタジオS内でダンスを
すると、コンピュータ14は、カメラ12aおよび12
bから出力された撮影画像信号に基づいて時性,力性お
よび空間性の3つのパラメータを算出し、算出されたパ
ラメータを上述の7つの重回帰式の右辺に代入する。こ
れによって、左辺には、被験者AおよびBによって表現
された感性を示す7次元の感性ベクトルの値を個別に得
る。
When the subjects A and B dance in the studio S while the cooperative emotional expression system 10 is activated, the computer 14 causes the cameras 12a and 12 to operate.
Three parameters of temporality, power, and spatiality are calculated based on the photographed image signal output from b, and the calculated parameters are substituted into the right side of the above seven multiple regression equations. As a result, on the left side, the values of the seven-dimensional affective vectors expressing the affectiveness expressed by the subjects A and B are individually obtained.

【0030】次に、コンピュータ14の具体的な動作を
図6〜図11に示すフロー図を用いて説明する。図6に
示すルーチンは、カメラ12aから出力された撮影画像
信号に基づいて被験者Aの感性ベクトルを推定するため
のルーチンであり、図7に示すルーチンは、カメラ12
bから出力された撮影画像信号に基づいて被験者Bの感
性ベクトルを推定するためのルーチンであり、そして図
8〜図11に示すルーチンは、推定された被験者Aおよ
びBの感性ベクトルに基づいてモニタ18およびスピー
カ20から出力する映像コンテンツおよび音楽コンテン
ツ(マルチメディア表現)を制御するためのルーチンで
ある。なお、図6のルーチン,図7のルーチン,図8〜
図9のルーチンの3つのルーチンは、同時に起動し、か
つ互いに並行して実行される。
Next, the specific operation of the computer 14 will be described with reference to the flow charts shown in FIGS. The routine shown in FIG. 6 is a routine for estimating the sensitivity vector of the subject A based on the captured image signal output from the camera 12a, and the routine shown in FIG.
b is a routine for estimating the emotional vector of the subject B based on the captured image signal output from b, and the routine shown in FIGS. 8 to 11 is a monitor based on the estimated emotional vectors of the subjects A and B. 18 is a routine for controlling video content and music content (multimedia expression) output from the speaker 18 and the speaker 20. The routine of FIG. 6, the routine of FIG.
The three routines in FIG. 9 are activated at the same time and are executed in parallel with each other.

【0031】まず図6を参照して、ステップS1aでは
被験者A用のデータ記憶領域141aのクリアを含む初
期化処理を行ない、ステップS3aではシステム起動か
ら(1/15)秒が経過したかどうか判断する。(1/
15)秒が経過すると、ステップS5aでカメラ12a
からの撮影画像信号を取り込み、続いてステップS7a
で撮影画像信号にスタジオの背景画像以外の被写体画像
が含まれているかどうかを判断する。この判断は、たと
えばクロマキー技術によって行なう。
First, referring to FIG. 6, in step S1a, initialization processing including clearing the data storage area 141a for the subject A is performed, and in step S3a, it is determined whether (1/15) seconds have elapsed from system startup. To do. (1 /
15) After the lapse of seconds, the camera 12a is operated at step S5a.
The photographed image signal from is taken in, and then step S7a
At, it is determined whether the captured image signal includes a subject image other than the studio background image. This determination is made, for example, by the chroma key technique.

【0032】撮影画像信号に背景画像しか含まれていな
ければ、ステップS7aからステップS3aに戻り、次
の撮影画像信号の取り込みに備える。一方、撮影画像信
号に背景画像以外の何らかの被写体画像が含まれておれ
ば、その被写体画像は被験者Aの人物画像とみなしてス
テップS9aに進む。
If the captured image signal includes only the background image, the process returns from step S7a to step S3a to prepare for the next captured image signal. On the other hand, if the captured image signal includes any subject image other than the background image, the subject image is regarded as the human image of the subject A, and the process proceeds to step S9a.

【0033】ステップS9aでは、取り込まれた撮影画
像信号から人物画像を抽出し、抽出された人物画像から
シルエット画像を作成する。続くステップS11aでは
作成されたシルエット画像から重心座標(Xc,Yc)
とシルエット画像の面積Hsとを求め、求められた重心
座標(Xc,Yc)および面積Hsに数1に従う演算を
施す。これによって、被験者Aについて時性,力性およ
び空間性の3つのパラメータが測定される。
In step S9a, a person image is extracted from the captured image signal, and a silhouette image is created from the extracted person image. In the subsequent step S11a, the center of gravity coordinates (Xc, Yc) are calculated from the created silhouette image.
And the area Hs of the silhouette image are calculated, and the calculated barycentric coordinates (Xc, Yc) and the area Hs are calculated according to Equation 1. With this, three parameters of the subject A, that is, temporality, power, and spatiality are measured.

【0034】[0034]

【数1】 [Equation 1]

【0035】時性は、重心座標を1次微分することによ
って、つまり(1/15)秒前の重心座標と現時点の重
心座標の差分を(1/15)秒で割り算することによっ
て、求められる。力性は、重心座標を2次微分すること
によって、つまり前回の1次微分値と今回の1次微分値
との差分を(1/15)秒で割り算することによって求
められる。空間性は、シルエット画像の面積をこのシル
エット画像に外接する矩形の面積で割り算することによ
って求められる。
The time property is obtained by first-order differentiating the barycentric coordinates, that is, by dividing the difference between the barycentric coordinates (1/15) seconds before and the current barycentric coordinates by (1/15) seconds. . The force is obtained by second-order differentiating the barycentric coordinates, that is, by dividing the difference between the previous first-order differential value and the current first-order differential value by (1/15) seconds. Spatiality is obtained by dividing the area of the silhouette image by the area of the rectangle circumscribing the silhouette image.

【0036】ステップS13aでは、測定された時性,
力性および空間性の3つのパラメータに基づいて、被験
者Aの感性ベクトルを推定する。すなわち、“Natura
l”,“Happy”,“Dynamic”,“Flowing”,“Shar
p”,“Lonely”および“Solemn”の7種類の感性に対
応する7つの重回帰式の右辺に、ステップS11aで求
めた被験者Aの3つのパラメータを代入する。これによ
って、被験者Aについて推定された7次元感性ベクトル
の各要素が、7つの重回帰式の左辺に現れる。上述のよ
うに、この感性ベクトルの各要素は、被験者Aのダンス
映像から推定された7種類の感性の得点を示す。推定さ
れた感性ベクトル値は、データ記憶領域141aに格納
される。
In step S13a, the measured time,
The affective vector of the subject A is estimated based on the three parameters of force and spatiality. That is, “Natura
l ”,“ Happy ”,“ Dynamic ”,“ Flowing ”,“ Shar
Substituting the three parameters of the subject A obtained in step S11a into the right side of the seven multiple regression equations corresponding to the seven types of sensibilities of "p", "Lonely", and "Solemn". Each element of the 7-dimensional affective vector appears on the left side of the 7 multiple regression equations.As described above, each element of the affective vector indicates the score of 7 kinds of affectiveness estimated from the dance video of the subject A. The estimated affective vector value is stored in the data storage area 141a.

【0037】ステップS15aではゲーム終了フラグF
の状態を判別する。ゲーム終了フラグFは、後述するス
テップS21(図8)でリセットされ、ステップS51
(図9)でセットされる。ゲーム終了フラグFがリセッ
ト状態であれば、次の(1/15)秒後の被験者Aの撮
影画像信号を取り込むべくステップS3aに戻る。一
方、ゲーム終了フラグFがセット状態であれば、ステッ
プS17aに進む。ステップS17aでは、オペレータ
によってシステム終了指示が与えられたかどうかをチェ
ックする。システム終了指示が与えられていなければ、
次のゲーム開始に備えるべくステップS1aに戻る。一
方、システム終了指示が与えられると、このルーチンを
終了する。
In step S15a, the game end flag F
Determine the state of. The game end flag F is reset in step S21 (FIG. 8) described later, and the step S51
(Fig. 9). If the game end flag F is in the reset state, the process returns to step S3a to capture the photographed image signal of the subject A after the next (1/15) seconds. On the other hand, if the game end flag F is in the set state, the process proceeds to step S17a. In step S17a, it is checked whether the operator has given a system termination instruction. If no system termination instruction is given,
The process returns to step S1a to prepare for the start of the next game. On the other hand, when the system termination instruction is given, this routine is terminated.

【0038】図7は、カメラ12bから取り込んだ被験
者Bの撮影画像信号を処理するスーチンであるが、図6
および図7を比較すれば分かるように、このルーチンは
図6に示すルーチンと同様であるため、詳しい説明は省
略する。
FIG. 7 shows Sutin for processing the photographed image signal of the subject B captured from the camera 12b.
As can be seen by comparing FIG. 7 and FIG. 7, this routine is similar to the routine shown in FIG.

【0039】異なる点は、ステップS1bにおいて被験
者B用のデータ記憶領域141bがクリアされる点、お
よびステップS13bにおいて被験者Bのダンス映像か
ら推定された感性ベクトル値がデータ記憶領域141b
に格納される点である。なお、図6および図7に示すル
ーチンは、互いに同期をとられることなく独立して実行
されるが、データ記録領域141aおよび141bに
は、常に最新の推定感性ベクトルが残される。
The difference is that the data storage area 141b for the subject B is cleared in step S1b, and the sensitivity vector value estimated from the dance image of the subject B in step S13b is the data storage area 141b.
Is the point stored in. Note that the routines shown in FIGS. 6 and 7 are independently executed without being synchronized with each other, but the latest estimated affective vector is always left in the data recording areas 141a and 141b.

【0040】次に図8〜図11を参照して、映像コンテ
ンツおよび音楽コンテンツを制御するための処理につい
て説明する。まず、ステップS21で、データ記憶領域
141cのクリアを含む初期化を行ない、次にステップ
S23で導入用の背景画像と導入用の音楽とをモニタ1
8およびスピーカ20から出力する。ステップS25で
は起動から(1/15)秒が経過したかどうか判断し、
YESであれば、被験者AおよびBの両方がスタジオS
に存在するかどうかをステップS27で判断する。この
判断は、被験者AおよびBの両方の感性ベクトル値がデ
ータ記憶領域141aおよび141bに存在するかどう
かによって行なう。
Next, the processing for controlling the video content and the music content will be described with reference to FIGS. First, in step S21, initialization including clearing the data storage area 141c is performed, and then in step S23, the background image for introduction and the music for introduction are monitored 1
8 and the speaker 20. In step S25, it is determined whether (1/15) seconds have elapsed from the start,
If YES, both subject A and B are in studio S
It is determined in step S27 whether or not it exists. This determination is made based on whether or not the sensitivity vector values of both subjects A and B exist in the data storage areas 141a and 141b.

【0041】最初の(1/15)秒が経過した直後のス
テップS25では、被験者AおよびBのいずれの感性ベ
クトル値も存在しないおそれがある。また、一方の被験
者がスタジオSに登場し、この被験者の感性ベクトルが
得られたとしても、他方の被験者がスタジオSに登場せ
ず、この被験者の感性ベクトルが得られていないおそれ
もある。このような場合、ステップS27からステップ
S29に進み、スタジオに存在する被験者の人物画像の
みをすでに出力されている導入用背景画像にオーバレイ
する。オーバレイ処理が完了すると、ステップS25に
戻る。
In step S25 immediately after the first (1/15) second has elapsed, there is a possibility that neither the sensitivity vector values of the subjects A and B exist. Moreover, even if one subject appears in the studio S and the sensitivity vector of this subject is obtained, the other subject does not appear in the studio S, and the sensitivity vector of this subject may not be obtained. In such a case, the process proceeds from step S27 to step S29, and only the human image of the subject existing in the studio is overlaid on the background image for introduction already output. When the overlay process is completed, the process returns to step S25.

【0042】したがって、被験者AおよびBのいずれも
スタジオSに登場していなければ、導入用背景画像だけ
がモニタ18から出力される。この状態で被験者Aが先
にスタジオSに登場したときは、被験者Aの人物映像が
導入用背景画像の向かって右半分にオーバレイされる。
ただし、いずれの場合でも、スピーカ20からは導入用
音楽が出力され続ける。
Therefore, if neither subject A nor B has appeared in the studio S, only the background image for introduction is output from the monitor 18. When the subject A first appears in the studio S in this state, the human image of the subject A is overlaid on the right half of the introduction background image.
However, in any case, the introduction music is continuously output from the speaker 20.

【0043】オーバレイ処理は、次のようにして実行さ
れる。コンピュータ14は、グラフィックボード143
を備えており、CG(Computer Graphic)処理によって
作成された背景画像などのCG画像信号と、カメラ12
aおよび12bから取り込んだ撮影画像(図6ステップ
S5aおよび図7ステップS5bにて(1/15)秒毎
に取り込んだ撮影画像信号)とがグラフィックボード1
43に供給される。グラフィックボード143は、導入
用背景画像の上に被験者Aの人物画像をオーバレイした
り、人物画像をシルエット化したり、さらには人物画像
のシルエット部分を別の模様で表すなどの特殊効果を与
えたりすることができる。コンピュータ14は、このよ
うなグラフィックボード143に対して合成用の画像ソ
ースおよび合成方法を指定し、かつグラフィックボード
143上の対応出力を選択すれば、指定された要領で作
成された合成画像信号が(1/30)秒のフレームレー
トでグラフィックボード143からモニタ18に出力さ
れる。ただし、その合成画像中の背景画像は(1/3
0)秒のフレームレートで変化する動画であるが、人物
画像は(1/15)秒のフレームレートで変化する動画
となる。したがって、ステップS29の処理は、具体的
には、グラフィックボード143に対して合成用画像ソ
ースおよび合成方法を指定し、グラフィックボード14
3上の対応出力を選択する処理である。
The overlay process is executed as follows. The computer 14 has a graphic board 143.
And a camera 12 and a CG image signal such as a background image created by CG (Computer Graphic) processing.
The captured images captured from a and 12b (the captured image signals captured every (1/15) second in step S5a in FIG. 6 and step S5b in FIG. 7) are the graphic board 1
43. The graphic board 143 overlays the person image of the subject A on the introduction background image, makes the person image a silhouette, and gives a special effect such as expressing the silhouette portion of the person image with another pattern. be able to. If the computer 14 designates an image source for synthesizing and a synthesizing method for such a graphic board 143 and selects a corresponding output on the graphic board 143, the synthesized image signal created in the designated manner is obtained. It is output from the graphic board 143 to the monitor 18 at a frame rate of (1/30) second. However, the background image in the composite image is (1/3
Although it is a moving image that changes at a frame rate of 0) seconds, a person image becomes a moving image that changes at a frame rate of (1/15) seconds. Therefore, in the process of step S29, specifically, the image source for synthesizing and the synthesizing method are specified for the graphic board 143, and
It is a process of selecting the corresponding output on the item No. 3.

【0044】ステップS27でYESと判断されるとス
テップS31に進み、データ記憶領域141aおよび1
41bに格納されている最新の感性ベクトルに基づいて
被験者AおよびBの主要感性を決定するとともに、決定
された主要感性の出現回数をカウントする。主要感性
は、感性ベクトルを形成する7つの要素のうち、最大値
を示す要素に対応する感性である。主要感性の出現回数
は、被験者AおよびBについて個別に用意された7つの
カウンタ142a−1〜142a−7および142b−
1〜142b−7によってカウントされる。つまり、カ
ウンタ142a−1〜142a−7が被験者Aによって
表現される7つの感性にそれぞれ割り当てられ、カウン
タ142a−1〜142a−7が被験者Bによって表現
される7つの感性にそれぞれ割り当てられ、そして決定
された主要感性に対応するカウンタがインクリメントさ
れる。
If YES is determined in the step S27, the process proceeds to a step S31, and the data storage areas 141a and 141a
Based on the latest emotional vector stored in 41b, the main emotions of the subjects A and B are determined, and the number of appearances of the determined main emotions is counted. The main sensitivity is the sensitivity corresponding to the element showing the maximum value among the seven elements forming the sensitivity vector. The number of appearances of the main sensibilities is seven counters 142a-1 to 142a-7 and 142b-, which are individually prepared for subjects A and B.
Counted by 1-142b-7. That is, the counters 142a-1 to 142a-7 are respectively assigned to the seven sensibilities expressed by the subject A, the counters 142a-1 to 142a-7 are respectively assigned to the seven sensitivities expressed by the subject B, and the determination is made. The counter corresponding to the obtained main sensitivity is incremented.

【0045】被験者Aの最新の感性ベクトルMAおよび
被験者Bの最新の感性ベクトルMBを数2によって定義
したとき、仮に数3が成立すると、被験者Aの主要感性
は番号2に対応する感性すなわち“Happy”と決定さ
れ、被験者Bの主要感性は番号6に対応する感性すなわ
ち“Lonely”と決定される。なお、最大値が複数存在し
た場合は、小さい番号に対応する感性が主要感性とされ
る。
When the latest affective vector M A of the subject A and the latest affective vector M B of the subject B are defined by the formula 2, if the formula 3 is established, the main affectiveness of the subject A is the sensitivity corresponding to the number 2. It is determined to be “Happy”, and the main affectiveness of the subject B is determined to be the affectiveness corresponding to the number 6, that is, “Lonely”. If there are a plurality of maximum values, the sensitivity corresponding to the smaller number is regarded as the main sensitivity.

【0046】[0046]

【数2】 [Equation 2]

【0047】[0047]

【数3】 [Equation 3]

【0048】続くステップS33では、最新の感性ベク
トルの純度を被験者AおよびBの各々について求める。
純度は、主要感性を示す要素の値(主要感性の得点)の
絶対値を感性ベクトルの長さで割り算することによって
求められ、算出された数値は“0.0”〜“1.0”間
で変化する。被験者Aの純度をPAと定義し、被験者B
の純度をPBと定義すれば、PAおよびPBは数4に従っ
て算出される。算出された純度は、データ記憶領域14
1cに蓄積される。
In the following step S33, the latest sensitivity vector purity is obtained for each of the subjects A and B.
Purity is obtained by dividing the absolute value of the value of the element indicating the main affectiveness (score of the main affectiveness) by the length of the affective vector, and the calculated numerical value is between "0.0" and "1.0". Changes. The purity of subject A is defined as P A, and subject B
If the purity of P is defined as P B , P A and P B are calculated according to Equation 4. The calculated purity is stored in the data storage area 14
It is stored in 1c.

【0049】[0049]

【数4】 [Equation 4]

【0050】ステップS35では、最新の感性ベクトル
に基づいて、被験者AおよびBの間の感性協調度を次の
ようにして算出する。まず、被験者Aの最新の感性ベク
トルMAおよび被験者Bの最新の感性ベクトルMBを正規
化して正規化感性ベクトルM NAおよびMNBを求める。正
規化感性ベクトルとは、推定した感性ベクトルの全要素
に関する平均値が0.0となり、分散値が1.0になる
ように修正した感性ベクトルである。数2によって定義
される感性ベクトルMAおよびMBに対して、正規化感性
ベクトルMNAおよびMNBは数5によって定義される。
In step S35, the latest sensitivity vector
Based on the following, the degree of affective cooperation between subjects A and B is
Calculate in this way. First, the latest sensitivity of subject A
Tol MAAnd the latest sensitivity vector M of subject BBThe regular
Normalized Kansei vector M NAAnd MNBAsk for. Positive
Normalized affective vector is all the elements of the estimated affective vector.
The average value for is 0.0 and the variance is 1.0
This is the modified sensitivity vector. Defined by the number 2
Sensitivity vector MAAnd MBAgainst, normalized sensitivity
Vector MNAAnd MNBIs defined by equation 5.

【0051】[0051]

【数5】 [Equation 5]

【0052】MA−およびσMAは、被験者Aの感性ベク
トルMAの全要素(7つの感性の得点)に関する平均値
と分散値である。またIは7次元の単位ベクトル、すな
わちI=(1,1,1,1,1,1,1)である。被験者Bの正規化
感性ベクトルMNBも同様に求められる。次に正規化感性
ベクトルMNAおよびMNBを用いて、被験者AおよびBの
間の感性協調度Hを数6にて求める。
M A − and σ MA are an average value and a variance value with respect to all elements (scores of seven sensibilities) of the sensitivity vector M A of the subject A. I is a seven-dimensional unit vector, that is, I = (1,1,1,1,1,1,1,1). The normalized sensitivity vector M NB of the subject B is also obtained in the same manner. Next, using the normalized affective vectors M NA and M NB , the affective cooperation degree H between the subjects A and B is calculated by the equation 6.

【0053】[0053]

【数6】 [Equation 6]

【0054】ここで、MNAkおよびMNBkはそれぞれ正規
化感性ベクトルMNAおよびMNBの第k番目の要素を示
し、したがって第1項は、被験者AおよびBの正規化感
性ベクトルMNAおよびMNBの類似の度合いを評価する量
である。またW1はこの評価量に対する重みである。こ
の評価量は、正規化感性ベクトルMNAおよびMNBの差分
ベクトルの長さの2乗でもあり、2つの正規化ベクトル
が近ければ近いほど、その値は0に近づく。
[0054] Here, M NAk and M NBk each represent the k-th element of the normalized sensitivity vector M NA and M NB, therefore the first term, the normalization of the subject A and B-sensitive vector M NA and M It is an amount to evaluate the degree of similarity of NB . W 1 is a weight for this evaluation amount. This evaluation amount is also the square of the length of the difference vector between the normalized sensitivity vectors M NA and M NB , and the closer the two normalized vectors are, the closer the value is to 0.

【0055】また第2項は、感性ベクトルMAを形成す
る全要素の平均値と感性ベクトルMBを形成する全要素
の平均値との近さを評価する量である。ただし、全要素
の平均値が持つ意味は分散が大きいほど薄くなると考
え、平均値をそれぞれの標準偏差(分散値の平方根)で
除している。またW2はこの評価量に対する重みであ
る。この評価量も、感性ベクトルMAの平均値と感性ベ
クトルMBの平均値とがこの意味で近ければ近いほど0
に近づく。
The second term is an amount for evaluating the closeness between the average value of all the elements forming the sensitivity vector M A and the average value of all the elements forming the sensitivity vector M B. However, the significance of the average value of all elements is that the larger the variance is, the thinner it is, and the average value is divided by each standard deviation (square root of variance value). W 2 is a weight for this evaluation amount. Also in this evaluation amount, the closer the average value of the sensitivity vector M A and the average value of the sensitivity vector M B are in this sense, the closer to 0
Approach.

【0056】第3項は、感性ベクトルMAを形成する全
要素の分散値と感性ベクトルMBを形成する全要素の分
散値との近さを評価する量であり、W3はこの評価量に
対する重みである。この評価量も、感性ベクトルMA
分散値と感性ベクトルMBの分散値とが近ければ近いほ
ど0に近づく。
The third term is an amount for evaluating the closeness between the variance value of all the elements forming the sensitivity vector M A and the variance value of all the elements forming the sensitivity vector M B , and W 3 is this evaluation amount. Is a weight for. This evaluation amount also approaches 0 as the variance value of the sensitivity vector M A and the variance value of the sensitivity vector M B are closer to each other.

【0057】こうして求められた感性協調度も、データ
記憶領域141cに蓄積される。なお、被験者Aおよび
Bの間の感性協調度を評価するにあたり、第2項および
第3項の評価量も使用しているのは、第1項に示す正規
化感性ベクトルの近さだけではなく、正規化前の感性ベ
クトルの全要素に関する平均値や分散値の差異も有効で
あると考えられるためである。
The degree of affective cooperation thus obtained is also stored in the data storage area 141c. When evaluating the degree of affective cooperation between subjects A and B, the evaluation quantities of the second term and the third term are also used not only in the proximity of the normalized affective vector shown in the first term. This is because it is considered that the difference between the average value and the variance value of all the elements of the sensitivity vector before normalization is also effective.

【0058】ステップS37では、2小節期間が経過し
たかどうかを判断する。この期間は、たとえば120ビ
ート/秒のリズムで計れば4秒に相当する。ここでNO
であればステップS25に戻り、上述のステップS31
〜S35の処理を繰り返す。これによって、カウンタ1
42a−1〜142a−7および142b−1〜142
b−7が更新され、被験者AおよびBの純度および感性
協調度がデータ記憶領域141cに蓄積されていく。
In step S37, it is determined whether the two-bar period has elapsed. This period corresponds to 4 seconds when measured with a rhythm of 120 beats / second, for example. NO here
If so, the process returns to step S25 and the above-mentioned step S31.
~ The process of S35 is repeated. This makes counter 1
42a-1 to 142a-7 and 142b-1 to 142
b-7 is updated, and the purities and the degree of affective cooperation of the subjects A and B are accumulated in the data storage area 141c.

【0059】4秒が経過するとステップS39に進み、
最近4秒間にカウントされた各主要感性の出現回数に基
づいて被験者AおよびBの最大優勢感性を決定する。つ
まり、カウンタ142a−1〜142a−7のうち最大
値を示すカウンタに対応する感性を被験者Aの最大優勢
感性として決定し、カウンタ142b−1〜142b−
7のうち最大値を示すカウンタに対応する感性を被験者
Bの最大優勢感性として決定する。ステップS41で
は、カウンタ142a−1〜142a−7および142
b−1〜142b−7をリセットする。また、4秒とい
う時間を計測するためのカウンタも、このステップでク
リアする。
When 4 seconds have passed, the process proceeds to step S39,
The maximum predominant sensibility of subjects A and B is determined based on the number of appearances of each main sensibility counted in the last 4 seconds. That is, the sensitivity corresponding to the counter showing the maximum value among the counters 142a-1 to 142a-7 is determined as the maximum dominant sensitivity of the subject A, and the counters 142b-1 to 142b- are determined.
The sensitivity corresponding to the counter showing the maximum value out of 7 is determined as the maximum dominant sensitivity of the subject B. In step S41, the counters 142a-1 to 142a-7 and 142 are
Reset b-1 to 142b-7. Also, the counter for measuring the time of 4 seconds is cleared in this step.

【0060】ステップ43では最新の4秒間に算出され
た純度を数7に従って時間方向に平滑化し、ステップS
45では最新の4秒間に算出された協調度を数8に従っ
て時間方向に平滑化する。なお、数7および数8による
平滑化処理は、移動平均を求める処理である。
In step 43, the purity calculated in the latest 4 seconds is smoothed in the time direction according to equation 7, and step S
At 45, the degree of cooperation calculated in the latest 4 seconds is smoothed in the time direction according to equation (8). In addition, the smoothing process by the formulas 7 and 8 is a process of obtaining a moving average.

【0061】[0061]

【数7】 [Equation 7]

【0062】[0062]

【数8】 [Equation 8]

【0063】ステップS47では、モニタ18およびス
ピーカ20から出力される映像コンテンツおよび音楽コ
ンテンツ(マルチメディア表現)を図10および図11
に示すサブルーチンに従って変化させる。
In step S47, the video content and music content (multimedia expression) output from the monitor 18 and the speaker 20 are shown in FIGS.
Change according to the subroutine shown in.

【0064】ステップS49では、1ゲームに相当する
時間が経由したか、あるいは被験者AおよびBによる感
性表現がゴールに達したかどうかを判断する。そして、
いずれの条件も満たされていなければステップS25に
戻り、次の4秒間について上述と同じ処理を繰り返す。
一方、いずれかの条件が満たされると、ステップ51で
ゲーム終了フラグFをセットしてからステップS53に
進み、オペレータからシステム終了指示が出されている
かどうかを判断する。ここでシステム終了指示が出され
ていなければ、次のゲームのための動作に入るべくステ
ップS21に戻る。一方、システム終了指示が出されて
いれば、処理を終了する。
In step S49, it is determined whether the time corresponding to one game has passed, or whether the emotional expressions by the subjects A and B have reached the goal. And
If none of the conditions are satisfied, the process returns to step S25, and the same processing as described above is repeated for the next 4 seconds.
On the other hand, if any of the conditions is satisfied, the game end flag F is set in step 51 and then the process proceeds to step S53 to determine whether or not a system end instruction has been issued by the operator. If the system termination instruction has not been issued, the process returns to step S21 to start the operation for the next game. On the other hand, if the system termination instruction has been issued, the processing is terminated.

【0065】続いて、図10および図11に示すサブル
ーチンと図3〜図5に示す表示例を参照して、具体的な
マルチメディア表現とゲーム性について説明する。この
サブルーチンへの到達時点で、たとえば被験者Aの最大
優勢感性が“Happy”であり、被験者Bについての最大
優勢感性が“Lonely”であり、被験者Aの純度の方が被
験者Bの純度より高く、さらに両者の協調度がある閾値
よりも悪かったとする。このときは、ステップS61に
おける感性一致の条件およびステップS63における協
調度の条件のいずれも満たされず、ステップS65に進
む。なお、よく協調している状態を一般には協調度が高
いというが、数6による協調度Hは、よく協調していれ
ばいるほど数値Hは0に近づく量であるため、ここでは
混乱を避けるべく、よく協調していればいるほど協調度
が良いといい、その逆の状態を協調度が悪いという表現
を用いる。
Next, with reference to the subroutines shown in FIGS. 10 and 11 and the display examples shown in FIGS. 3 to 5, specific multimedia expressions and game characteristics will be described. At the time when this subroutine is reached, for example, subject A's maximum dominant sensation is "Happy", subject B's maximum dominant sensation is "Lonely", and subject A's purity is higher than subject B's purity. Furthermore, it is assumed that the degree of cooperation between the two is worse than a certain threshold. At this time, neither the sensitivity matching condition in step S61 nor the cooperation degree condition in step S63 is satisfied, and the process proceeds to step S65. It should be noted that the state of good cooperation is generally said to have a high degree of cooperation, but the degree of cooperation H according to equation 6 is such that the more the well cooperated , the numerical value H approaches 0, so avoid confusion here. Therefore, the better the degree of cooperation, the better the degree of cooperation, and the opposite state is used as the expression of poor degree of cooperation.

【0066】ステップS65では、被験者AおよびBの
最大優勢感性に対応する背景画像コンテンツをデータベ
ース16から読み出す。今の場合、被験者Aの背景画像
としては、被験者Aの最大優勢感性“Happy”を連想さ
せるような画像(たとえば図3において画面右側に示す
6角形の模様がピンク色に輝きながらリズミカルに順番
に大きくなるような画像)が選ばれる。また被験者Bの
背景画像としては、被験者Bの最大優勢感性“Lonely”
を連想させるような画像(たとえば図3において画面左
側に示すダークブルーの雨だれ模様がゆっくりと降下す
るような画像)が選ばれる。もちろん、このような背景
画像に限らず、“Happy”側には華やかな花模様をさら
に追加したり、“Lonely”側には風にそよぐ白黒の草花
を追加してさらに寂しさを表現するようにしてもよい。
In step S65, the background image content corresponding to the maximum sensitivities of the subjects A and B is read from the database 16. In this case, as the background image of the subject A, an image reminiscent of the subject's maximum dominant sensation “Happy” (for example, the hexagonal pattern shown on the right side of the screen in FIG. A large image is selected. Also, as the background image of the subject B, the maximum dominant sensitivity of the subject B is “Lonely”.
(For example, an image in which the dark blue raindrop pattern shown on the left side of the screen in FIG. 3 slowly drops) is selected. Of course, not only this background image, but also add a gorgeous flower pattern on the "Happy" side, and add a black and white flower that flutters in the wind to the "Lonely" side to express even more loneliness. You may

【0067】ステップS67〜S71では、被験者Aの
純度に応じた態様で、被験者Aの人物映像を背景画像に
オーバレイする。具体的には、被験者Aの純度が閾値以
上であれば、ステップS67からステップS69に進
み、被験者Aの人物画像をシルエット化したり、人物画
像の輪郭内に特定の模様を表示した特殊効果画像を画面
向かって右側の背景画像にオーバレイする。また、被験
者Aの純度が閾値よりも低ければ、ステップS67から
S71に進み、被験者Aの実写画像を画面向かって右側
の背景画像にオーバレイする。被験者Bについても、ス
テップS73〜S77で同様の処理を実行する。図3の
表示例では、被験者AおよびBの純度がいずれも閾値よ
りも低く、それゆえ両者とも実写画像が背景画像にオー
バレイされている。
In steps S67 to S71, the human image of the subject A is overlaid on the background image in a manner according to the purity of the subject A. Specifically, if the purity of the subject A is equal to or higher than the threshold value, the process proceeds from step S67 to step S69, the person image of the subject A is made into a silhouette, or a special effect image in which a specific pattern is displayed in the contour of the person image is displayed. screen
Overlays the background image on the right . If the purity of the subject A is lower than the threshold, the process proceeds from step S67 to S71, and the photographed image of the subject A is overlaid on the background image on the right side of the screen . For subject B, the same processing is executed in steps S73 to S77. In the display example of FIG. 3, the purities of the subjects A and B are both lower than the threshold value, and therefore, in both of them, the photographed image is overlaid on the background image.

【0068】以上のステップS65〜S77の処理によ
って背景画像および人物画像がグラフィックボード14
3に設定されると、ステップS79でグラフィックボー
ド143上の今回対応出力を選択する。これによって、
図3に示すような分割画像がモニタ18に表示される。
なお、図10および図11に示すサブルーチンは4秒毎
にしか実行されないので、被験者AおよびBの背景画像
コンテンツや人物画像輪郭内の模様も4秒毎にしか切り
換えられない。しかし、グラフィックボード143の使
用によって、オーバレイ表示された各被験者の実写人物
画像やその輪郭画像は(1/15)秒のフレームレート
で変化し、また背景画像は(1/30)秒のフレームレ
ートで変化する。
The background image and the person image are displayed on the graphic board 14 by the above-described steps S65 to S77.
When set to 3, the current corresponding output on the graphic board 143 is selected in step S79. by this,
A divided image as shown in FIG. 3 is displayed on the monitor 18.
Since the subroutines shown in FIGS. 10 and 11 are executed only every 4 seconds, the background image contents of the subjects A and B and the pattern in the outline of the person image can be switched only every 4 seconds. However, due to the use of the graphic board 143, the real-life portrait image of each subject and the outline image thereof displayed in the overlay change at a frame rate of (1/15) seconds, and the background image changes at a frame rate of (1/30) seconds. Changes.

【0069】ステップS81では、被験者Aの純度およ
び被験者Bの純度を互いに比較し、比較結果に応じてス
テップS83またはS85の処理を行なう。つまり、被
験者Aの純度の方が大きければ、ステップS83で被験
者Aの最大優勢感性に対応する音楽コンテンツをデータ
ベース16から読み出し、読み出した音楽コンテンツを
サウンドボード144に設定する。一方、被験者Bの最
大優勢感性の方が大きければ、ステップS85で被験者
Bの最大優勢感性に対応する音楽コンテンツをデータベ
ース16から読み出し、読み出した音楽コンテンツをサ
ウンドボード144に設定する。なお、各々の純度が等
しければ、被験者Aの最大優勢感性が優先される。
In step S81, the purities of the subject A and the subject B are compared with each other, and the process of step S83 or S85 is performed according to the comparison result. That is, if the purity of the subject A is higher, the music content corresponding to the maximum dominant sensitivity of the subject A is read from the database 16 and the read music content is set on the sound board 144 in step S83. On the other hand, if the subject B's maximum dominant sensation is greater, the music content corresponding to the subject B's maximum dominant sensitivity is read from the database 16 and the read music content is set in the sound board 144. If the purities are equal, the subject A's maximum predominant sensitivity is prioritized.

【0070】ステップS87ではサウンドボード144
の今回用の対応出力を選択し、これによって設定された
音楽コンテンツがスピーカ20から出力される。今の場
合は、被験者Aの純度の方が高いので、被験者Aの最大
優勢感性“Happy”を連想させるような明るいにぎやか
な音楽が選ばれる。ステップS87の処理を終えると、
上階層のルーチンに戻る。
In step S87, the sound board 144
The corresponding output for this time is selected, and the music content set by this is output from the speaker 20. In the present case, since the purity of the subject A is higher, the bright and lively music that is associated with the maximum dominant sensitivity "Happy" of the subject A is selected. When the process of step S87 is completed,
Return to the upper level routine.

【0071】上記のような状況下では、被験者Bは、あ
くまでも自分が表現している感性にこだわり、一定時間
内にその純度を上げて、音楽を自分のダンスに合ったも
のに変えるべく被験者Aと競争してもよい。また、被験
者Bは、早い段階で被験者Aの感性に合わせるように表
現内容を変更し、被験者AおよびBのペアとして感性
(お互いの最大優勢感性)を一致させると同時にその協
調度を上げていってもよい。
Under the circumstances as described above, the subject B is to pay attention to the sensibilities expressed by him and to raise the purity within a certain period of time to change the music to the one suited to his dance. You may compete with. Also, the subject B changes the expression content so as to match the sensitivity of the subject A at an early stage, and matches the sensitivities (maximum dominant sensitivities of each other) as a pair of the subjects A and B, and at the same time increases the degree of cooperation. May be.

【0072】上記のような状態の後、何回目かにこのサ
ブルーチンに移行したときに、被験者AおよびBの最大
優勢感性が“Happy”として一致し、かつ両者間の協調
度がある閾値に達していると、ステップS61およびS
63のいずれにおいてもYESと判断され、図11のス
テップS89を経てステップS91に進む。ステップS
91では、まず被験者AおよびBが一致して表現してい
る最大優勢感性に対応する背景画像コンテンツをデータ
ベース16から読み出し、これを画面一杯に広がる一つ
の背景画像としてグラフィックボード143に設定す
る。今の場合は、図4に示すように“Happy”を示す背
景画像が画面一杯に広げられる。
After the above-described state, the maximum dominant sensitivities of the test subjects A and B coincide with each other as "Happy" and the degree of cooperation between the subjects reaches a certain threshold value when the process shifts to this subroutine several times. Then steps S61 and S
In any of 63, YES is determined, and the process proceeds to step S91 through step S89 in FIG. Step S
In 91, first, the background image contents corresponding to the maximum dominant sensation expressed by the subjects A and B are read out from the database 16 and set on the graphic board 143 as one background image that spreads over the entire screen. In this case, as shown in FIG. 4, the background image showing “Happy” is expanded to fill the screen.

【0073】続くステップS93〜S103では、上述
のステップS67〜S77と同様の処理を行ない、被験
者AおよびBの人物画像を純度に応じた態様で背景画像
にオーバレイする。図4に示す表示例では、被験者Aに
ついては、純度が閾値以上となり、特殊効果画像が背景
画像にオーバレイされる。一方、被験者Bについては、
純度は閾値よりも低く、実写画像が背景画像にオーバレ
イされる。
In subsequent steps S93 to S103, the same processes as those in steps S67 to S77 described above are performed, and the human images of the subjects A and B are overlaid on the background image in a manner according to the purity. In the display example shown in FIG. 4, the purity of the subject A is equal to or higher than the threshold value, and the special effect image is overlaid on the background image. On the other hand, for subject B,
The purity is lower than the threshold value, and the photographed image is overlaid on the background image.

【0074】ステップS105では、グラフィックボー
ド143上の今回対応出力を選択し、これによって図4
に示す画像が実際にモニタ18に表示される。上述のよ
うに、背景画像や人物画像輪郭内の模様が示す感性は4
秒毎にしか更新されないが、オーバレイされた各被験者
の人物画像やその輪郭画像は(1/15)秒のフレーム
レートで変化し、また背景画像は(1/30)秒のフレ
ームレートで変化する。
In step S105, the output corresponding to this time on the graphic board 143 is selected.
The image shown in is actually displayed on the monitor 18. As described above, the sensitivity of the pattern in the background image or the outline of the person image is 4
Although it is updated only every second, the overlayed human image of each subject and its outline image change at a frame rate of (1/15) seconds, and the background image changes at a frame rate of (1/30) seconds. .

【0075】ステップS107では、被験者AおよびB
が一致して表現している最大優勢感性に合致した音楽コ
ンテンツをデータベース16から読み出し、サウンドボ
ード144に設定する。続くステップS109ではサウ
ンドボード144上の今回対応出力を選択し、これによ
って一致感性に応じた音楽がスピーカ20から出力され
る。今の場合は、一致感性“Happy”を連想させるよう
な明るいにぎやかな音楽が選ばれ、さらにたとえばオー
ケストラによるメロディが追加される。つまり、図3に
示す分割画像の段階の音楽よりもさらに盛り上がった感
じの音楽が出力される。ステップS109の処理を終え
ると、上階層のルーチンに復帰する。
At step S107, subjects A and B are examined.
Is read out from the database 16 and set in the sound board 144. In the following step S109, the output corresponding to this time on the sound board 144 is selected, and the music corresponding to the matching sensitivity is output from the speaker 20. In the present case, bright and lively music that reminds us of the matching sensitivity "Happy" is selected, and, for example, a melody by an orchestra is added. In other words, music that is more exciting than the music at the stage of the divided image shown in FIG. 3 is output. When the process of step S109 is completed, the process returns to the upper layer routine.

【0076】上記のような状況の後、被験者AおよびB
の感性が一致しかつ両者の協調度が閾値より良かったか
または閾値と等しい状態が32秒間以上継続すると、ス
テップS89からステップS111に進む。このステッ
プに進むのは、このゲームの終了段階である。ステップ
S111では被験者AおよびBの空間共有性を表す模様
を背景画像に追加し、続くステップS113では“ゴー
ル!”という文字を画面一杯にオーバレイする。そし
て、ステップS115でグラフィックボード143上の
対応出力を選択する。これによって、図5に示すよう
に、被験者AおよびBを取り巻く渦巻き模様が“Happ
y”に対応した背景画像に追加され、かつ“ゴール!”
という文字が画面一杯に表示される。被験者および観客
は、この画面表示によって、ゲーム終了段階を知り、か
つ満足感を得る。
After the above situation, subjects A and B
If the sensibilities of the two match and the degree of cooperation between the two is better than the threshold value or equal to the threshold value continues for 32 seconds or more, the process proceeds from step S89 to step S111. Proceeding to this step is the ending stage of this game. In step S111, a pattern indicating the space sharing of the subjects A and B is added to the background image, and in the subsequent step S113, the characters "goal!" Are overlaid on the entire screen. Then, in step S115, the corresponding output on the graphic board 143 is selected. As a result, as shown in FIG. 5, the spiral pattern surrounding the subjects A and B becomes “Happ
Added to the background image corresponding to "y", and "Goal! ”
Is displayed on the full screen. From this screen display, the test subject and the spectator know the end stage of the game and are satisfied.

【0077】ステップS117では、被験者AおよびB
が一致して表現している最大優勢感性に合致したオーケ
ストラによる追加メロディーコンテンツ,派手な効果音
コンテンツ,“ゴール!”という音声コンテンツなどを
データベース16から読み出し、サウンドボード144
に設定する。ステップS119では、サウンドボード1
44上の対応出力を選択し、これによって図4に示す表
示段階の音楽よりもさらに盛り上がった音楽がスピーカ
20から出力される。 ・第2実施例 第1実施例では、オーバレイされる人物画像の表示態様
を、純度が低いときは実写画像とし、純度が高くなると
シルエット画像などの特殊効果画像としている。これを
逆にして、純度が低いときはシルエット画像などの特殊
効果画像を表示し、純度が高くなると実写画像を表示す
るようにしてもよい。 ・第3実施例 また、第1実施例および第2実施例では、オーバレイさ
れる人物画像の表示態様を純度に応じて変化させるよう
にしているが、人物画像に加えて、背景画像も純度に応
じて変化させてもよい。具体的には、“Happy”の純度
が高くなるほど華やかな花模様を背景画像上に数多く表
示したり、楽しげなマスコットキャラクタを背景画像上
に数多く表示してもよい。また、協調度が閾値より悪い
とき、分割表示されている映像の面積を純度に応じてワ
イプ状に変化させてもよい。この場合、たとえば、図3
に示す画像において“Happy”の純度が高い場合に、“H
appy”側の画像の幅を広げるような表示態様が考えられ
る。もちろん、第1実施例または第2実施例における表
現態様と併せてこのような処理を行なってもよく、いず
れかの表現態様と選択的に行なってもよい。 ・第4実施例 また、第1実施例では、被験者AおよびBの協調度があ
る閾値より悪いときに純度の高い方の推定感性に対応す
る音楽コンテンツを出力するようにしているが、たとえ
ば、最も純度の高い推定感性によりリズム系を決め、2
番目に純度の高い推定感性によりメロディ系を決めるよ
うにしてもよい。 ・第5実施例 また第1実施例では、純度に応じて人物画像または背景
画像の表示態様を変化させているが、純度に代えて、協
調度のレベルに応じて人物映像や背景画像の表示態様を
変化させるようにしてもよい。さらに、第1実施例〜第
3実施例では、純度に応じて音楽を変化させているが、
単に被験者Aの感性によってリズム系を決め、被験者B
の感性によってメロディ系を決めるようにしてもよい。 ・第6実施例 さらに、第1実施例では、被験者はAおよびBの2人し
か存在しないが、被験者は3人以上であってもかまわな
い。その場合、カメラおよび感性推定プログラムを被験
者の数だけ用意し、感性ベクトルの推定,最大優勢感性
の決定,純度の算出を各々の被験者について行なう点は
上述と同じでよいが、協調度の算出については、いくつ
かの方法が考えられる。
At step S117, subjects A and B are examined.
The sound board 144 reads the additional melody content by the orchestra that matches the maximum predominant sensation expressed by matching
Set to. In step S119, the sound board 1
The corresponding output on 44 is selected, whereby the music that is more exciting than the music at the display stage shown in FIG. 4 is output from the speaker 20. Second Example In the first example, the display mode of the overlaid person image is a real image when the purity is low, and a special effect image such as a silhouette image when the purity is high. By reversing this, a special effect image such as a silhouette image may be displayed when the purity is low, and a live-action image may be displayed when the purity is high. Third Embodiment Further, in the first and second embodiments, the display mode of the overlaid person image is changed according to the purity, but in addition to the person image, the background image also has the purity. It may be changed accordingly. Specifically, as the purity of “Happy” becomes higher, a number of gorgeous flower patterns may be displayed on the background image, or a number of happy mascot characters may be displayed on the background image. Further, when the degree of cooperation is lower than the threshold value, the area of the dividedly displayed image may be changed to a wipe shape according to the purity. In this case, for example, in FIG.
If the purity of “Happy” is high in the image shown in
A display mode in which the width of the image on the "appy" side is widened is conceivable. Of course, such processing may be performed in combination with the expression mode in the first or second embodiment. Fourth Embodiment In the first embodiment, when the degree of cooperation between the subjects A and B is worse than a certain threshold value, the music content corresponding to the estimated sensitivity having a higher purity is output. However, for example, the rhythm system is determined by the estimated sensitivity with the highest purity.
The melody system may be determined based on the second highest estimated sensitivity. In the fifth embodiment and the first embodiment, the display mode of the person image or the background image is changed according to the purity, but instead of the purity, the display of the person image or the background image is performed according to the level of the degree of cooperation. The mode may be changed. Furthermore, in the first to third embodiments, the music is changed according to the purity,
The rhythm system is determined simply by subject A's sensitivity, and subject B
The melody system may be determined according to the sensitivity of. Sixth Embodiment Furthermore, in the first embodiment, there are only two test subjects A and B, but the test subjects may be three or more. In that case, it is the same as the above point that the camera and the sensitivity estimation program are prepared for each subject, and the sensitivity vector is estimated, the maximum dominant sensitivity is determined, and the purity is calculated for each subject. There are several possible methods.

【0078】たとえば、複数の被験者のどのペアについ
ても数6に従って協調度を算出し、算出された複数の協
調度のうち、最も悪い協調度を今回の全体の協調度とし
てもよい。こうすることで、協調度が閾値より悪いペア
がいる限りゴール到達状態にはならず、全てのペアの協
調度が閾値より良くなって初めてゴールに至るゲームと
なる。
For example, the degree of cooperation may be calculated for any pair of a plurality of subjects according to the equation 6, and the worst degree of cooperation among the calculated plurality of degrees of cooperation may be the overall degree of cooperation at this time. In this way, the game does not reach the goal state as long as there is a pair whose degree of cooperation is lower than the threshold, and the goal is reached only when the degree of cooperation of all pairs is higher than the threshold.

【0079】また、たとえばどのペアについても数6に
従って協調度を算出し、算出された協調度の総和(全体
協調度)を閾値と比較するようにしてもよい。こうする
ことで、協調度が閾値より悪いペアがいたとしても、残
りのペアの協調度が良ければ、協調度が悪いペアを別の
ペアが手助けすることによって全員でゴールに達すると
いうゲームになる。
Alternatively, for example, the degree of cooperation may be calculated for each pair according to the equation 6, and the sum of the calculated degrees of cooperation (overall degree of cooperation) may be compared with a threshold value. By doing this, even if there is a pair whose coordination is worse than the threshold, if the remaining pairs are good, another pair will help each other to reach the goal. .

【0080】さらに、どのペアについても数6に従って
協調度を算出し、算出された協調度のうち最も良い協調
度を出しているペアが一定時間継続して協調状態を続け
たときに、ベストカップル決定としてゴールに至るとい
うゲームとしてもよい。
Further, the degree of cooperation is calculated for each pair according to the equation 6, and when the pair having the best degree of cooperation among the calculated degrees of cooperation continues to be in a cooperative state for a certain period of time, the best couple is calculated. It may be a game of reaching a goal as a decision.

【0081】なお、以上の変形例では、参加者はあらか
じめペアを組むことなく、各々1人で参加している場合
を想定していたが、あらかじめペアを組んで参加し、各
ペア間での協調度の優劣を競うようにしてもよい。ま
た、いずれの変形例においても、閾値よりも良い協調度
となった後は、たとえば最も協調度の良いペアの感性に
合った映像コンテンツおよび音楽コンテンツを出力すれ
ばよい。 ・第7実施例 第1実施例〜第6実施例では、各被験者が同一のスタジ
オ内にいる場合について説明をしたが、各被験者は必ず
しも同一のスタジオにて参加する必要はなく、参加者人
数によっては、いくつかの場所に分かれたスタジオを使
用してもよい。この場合、各スタジオ内には被験者毎に
カメラが設置され、各スタジオの正面には大画面モニタ
とスピーカとが設置される。コンピュータは1つだけ用
意され、このコンピュータと各々のスタジオのカメラ,
大画面モニタおよびスピーカは、映像・音楽信号伝達用
ケーブルで接続される。こうすることで、各被験者は1
つの大きなスタジオで参加しているかのようにゲームを
楽しむことができる。 ・第8実施例 また各被験者は、必ずしも複数のスタジオ内にてダンス
をする必要はなく、ネットワークで接続されたコンピュ
ータ環境を利用してもよい。このとき、各々の被験者
は、カメラを備えた自分のパーソナルコンピュータの前
でダンスをし、ダンス映像はインターネットを通じてセ
ンターのコンピュータに送られる。コンピュータは、各
被験者の感性を推定して任意のペアの協調度を算出し、
ベストカップルの感性に対応する映像コンテンツおよび
音楽コンテンツを各被験者のパーソナルコンピュータに
送信する。また、この映像コンテンツと音楽コンテンツ
とをセンターに設置した大画面モニタとスピーカに出力
すれば、センターにて参加している被験者や視聴者(観
客)も同時に楽しむことができる。
In the above modification, it was assumed that the participants did not form a pair in advance, but participated in one person each. However, they formed a pair in advance and participated in each pair. You may make it compete for superiority or inferiority of the degree of cooperation. Further, in any of the modified examples, after the degree of cooperation is better than the threshold value, for example, video content and music content that match the sensitivity of the pair with the best degree of cooperation may be output. Seventh Example In the first to sixth examples, the case where each subject is in the same studio has been described, but each subject does not necessarily have to participate in the same studio, and the number of participants In some cases, studios in several locations may be used. In this case, a camera is installed for each subject in each studio, and a large-screen monitor and a speaker are installed in front of each studio. There is only one computer, this computer and the camera of each studio,
The large screen monitor and the speaker are connected by a cable for transmitting video / music signals. By doing this, each subject will get 1
You can enjoy the game as if you were in one big studio. Eighth Example Each subject does not necessarily have to dance in a plurality of studios and may use a computer environment connected by a network. At this time, each test subject dances in front of his / her own personal computer equipped with a camera, and the dance image is sent to the center computer via the Internet. The computer estimates the sensitivity of each subject and calculates the degree of cooperation of any pair,
The video contents and music contents corresponding to the sensibilities of the best couple are transmitted to the personal computer of each subject. Further, if the video content and the music content are output to a large-screen monitor and a speaker installed in the center, the test subjects and viewers (spectators) participating in the center can enjoy them at the same time.

【0082】以上の説明から分かるように、これらの実
施例によれば、各々の被験者の感性に基づいてマルチメ
ディア表現を変化させるようにしたため、各々の被験者
が同時に感性表現を楽しむことができる。また、各被験
者の感性の純度や感性協調度を評価するようにしたた
め、純度の高い被験者の感性に応じたマルチメディア表
現や、各被験者の協調状態を示すマルチメディア表現を
出力することができ、出力にゲーム性を持たせることが
できる。したがって、この実施例は、一つのゲーム設備
としてゲームセンター内に設置してもよいし、一つのア
トラクション設備として、イベント会場などの人の集ま
る場所に設置してもよい。また、コンピュータネットワ
ークと各所に配置された大画面ディスプレイを用いて、
感性協調型ダンス大会なる一大イベントを世界的規模で
開催することも可能となる。
As can be seen from the above description, according to these embodiments, the multimedia expression is changed based on the sensitivity of each subject, so that each subject can enjoy the emotional expression at the same time. In addition, since it is configured to evaluate the sensitivity of each subject and the degree of affective cooperation, it is possible to output a multimedia expression according to the sensitivity of the subject with high purity and a multimedia expression indicating the cooperation state of each subject. The output can be game-like. Therefore, this embodiment may be installed in the game center as one game facility, or may be installed as one attraction facility in a place where people gather, such as an event venue. Also, using a computer network and a large screen display placed in various places,
It is also possible to hold a big event, which is a sensational cooperative dance competition, on a global scale.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例の構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【図2】図1の実施例の動作の一部を示す図解図であ
る。
FIG. 2 is an illustrative view showing a part of the operation of the embodiment in FIG.

【図3】被験者の感性協調度が悪いときにモニタに表示
される画像を示す図解図である。
FIG. 3 is an illustrative view showing an image displayed on a monitor when a subject's degree of affective cooperation is poor.

【図4】被験者の感性協調度が良いときにモニタに表示
される画像を示す図解図である。
FIG. 4 is an illustrative view showing an image displayed on a monitor when the degree of emotional cooperation of the subject is good.

【図5】ゴールに到達したときにモニタに表示される画
像を示す図解図である。
FIG. 5 is an illustrative view showing an image displayed on a monitor when a goal is reached.

【図6】被験者Aの感性を推定するときのCPUの動作
を示すフロー図である。
FIG. 6 is a flowchart showing the operation of the CPU when estimating the subject A's sensitivity.

【図7】被験者Bの感性を推定するときのCPUの動作
を示すフロー図である。
FIG. 7 is a flowchart showing the operation of the CPU when estimating the sensitivity of subject B.

【図8】マルチメディア表現を変化させるときのCPU
の動作の一部を示すフロー図である。
FIG. 8: CPU when changing multimedia expression
6 is a flowchart showing a part of the operation of FIG.

【図9】マルチメディア表現を変化させるときのCPU
の動作の他の一部を示すフロー図である。
FIG. 9: CPU when changing multimedia expression
6 is a flowchart showing another part of the operation of FIG.

【図10】マルチメディア表現を変化させるときのCP
Uの動作のその他の一部を示すフロー図である。
FIG. 10: CP when changing multimedia expression
It is a flowchart which shows a part of other operation | movement of U.

【図11】マルチメディア表現を変化させるときのCP
Uの動作のさらにその他の一部を示すフロー図である。
FIG. 11: CP when changing multimedia expression
It is a flowchart which shows a further another part of operation | movement of U.

【符号の説明】[Explanation of symbols]

10…協調型感性表現システム 12a,12b…カメラ 14…コンピュータ 16…データベース 18…モニタ 20…スピーカ 10 ... Collaborative Kansei expression system 12a, 12b ... cameras 14 ... Computer 16 ... Database 18 ... Monitor 20 ... speaker

フロントページの続き (72)発明者 原田 育生 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール知能映像 通信研究所内 (72)発明者 鈴木 良太郎 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール知能映像 通信研究所内 (72)発明者 桶川 直人 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール知能映像 通信研究所内 (72)発明者 牧野 真緒 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール知能映像 通信研究所内 (72)発明者 井上 正之 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール知能映像 通信研究所内 (56)参考文献 岩舘,イメージ表現の研究,電子情報 通信学会技術研究報告(HCS99−40〜 53),1999年10月21日,Vol.99,N o.384,pp.87−94 (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 A63B 69/00 G06T 1/00 H04N 7/18 JICSTファイル(JOIS)Front Page Continuation (72) Inventor Ikuo Harada 2-2, Hikaridai, Seika-cho, Soraku-gun, Kyoto Prefecture 2nd, ATR Intelligent Video Communications Laboratories (72) Ryotaro Suzuki, Hikaru-cho, Seiraku-cho, Kyoto Prefecture 2-chome, Taiwan 2-Intelligent Video Communications Laboratory, Inc. (72) Naoto Okegawa, 2-chome, 2-chome, Hikaridai, Seika-cho, Soraku-gun, Kyoto Prefecture (72) Mao Makino 2-2 Kodai, Seika-cho, Soraku-gun, Kyoto Prefecture 2 TIR Intelligent Video Communications Laboratories, Inc. (72) Masayuki Inoue 2-chome, 2-chome, Seika-cho, Soraku-gun, Kyoto Prefecture Address 2 Intelligent Video Communications Laboratory, Inc. (56) References Iwadate, Research on Image Representation, IEICE Technical Report (HCS99-40-53), October 21, 1999, Vol. 99, No. 384, pp. 87-94 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 7 /00-7/60 A63B 69/00 G06T 1/00 H04N 7/18 JISST file (JOIS)

Claims (13)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数の被験者の身体表現の物理量に基づい
て各々の前記被験者毎に感性ベクトルを推定する推定手
段、 前記推定手段から得られる複数の感性ベクトルに基づい
協調度を算出する協調度算出手段、および前記協調度
算出手段によって算出された協調度に基づいてマルチメ
ディア表現を変化させる変化手段を備える、感性表現シ
ステム。
1. Estimating means for estimating a sensitivity vector for each subject based on physical quantities of body expressions of a plurality of subjects, based on a plurality of sensitivity vectors obtained from the estimating means
A kansei expression system comprising: a cooperation degree calculating means for calculating a cooperation degree according to the above; and a changing means for changing the multimedia expression based on the cooperation degree calculated by the cooperation degree calculating means.
【請求項2】前記変化手段は、前記協調度が閾値より悪
いとき前記被験者の数に相当する複数の画像を画面に分
割表示する第1表示手段、および前記協調度が前記閾値
より良いか前記閾値と等しいとき1つの画像を前記画面
に全面表示する第2表示手段を含む、請求項1記載の感
性表現システム。
2. The first changing means for dividing and displaying a plurality of images corresponding to the number of the subjects on the screen when the degree of cooperation is worse than a threshold value, and whether the degree of cooperation is better than the threshold value. The emotional expression system according to claim 1, further comprising: second display means for displaying one image on the entire screen when it is equal to a threshold value.
【請求項3】前記第2表示手段は前記協調度が前記閾値
より良いか前記閾値と等しい状態が所定時間継続したと
きに空間共有性を示す特定画像を表示する、請求項2記
載の感性表現システム。
3. The emotional expression according to claim 2, wherein the second display unit displays a specific image showing space sharing when the degree of cooperation is better than the threshold value or equal to the threshold value continues for a predetermined time. system.
【請求項4】前記変化手段は、前記協調度が閾値より悪
いときいずれかの前記被験者の感性に対応する音楽を出
力する第1出力手段、および前記協調度が前記閾値より
良いか等しいとき協調状態の感性に対応する前記音楽を
出力する第2出力手段を含む、請求項1ないし3のいず
れかに記載の感性表現システム。
4. The first changing means outputs the music corresponding to the sensitivity of any one of the subjects when the degree of cooperation is worse than a threshold value, and the changing means cooperates when the degree of cooperation is better than or equal to the threshold value. 4. The kansei expression system according to claim 1, further comprising a second output unit that outputs the music corresponding to the sensibility of the state.
【請求項5】記推定手段は前記被験者の主要感性を推
定し、 前記主要感性の純度を算出する純度算出手段をさらに備
える、請求項1ないし3のいずれかに記載の感性表現シ
ステム。
5. A pre-Symbol estimating means estimates the primary sensitivity of the subject, further comprising the purity calculation means for calculating a purity of major sensitivity, sensitive expression system according to any one of claims 1 to 3.
【請求項6】前記純度算出手段は前記主要感性の絶対値
が複数種類の感性の総和に占める割合を前記純度として
算出する、請求項5記載の感性表現システム。
6. The purity calculating means is an absolute value of the main sensitivity.
There is calculated the percentage of the sum of the double several sensitive as the purity, sensibility expression system of claim 5, wherein.
【請求項7】前記変化手段は前記純度に応じた態様で前
記被験者を示す人物画像を表示する第3表示手段を含
む、請求項5記載の感性表現システム。
7. The emotional expression system according to claim 5, wherein the changing means includes a third display means for displaying a person image showing the subject in a manner according to the purity.
【請求項8】前記第3表示手段は前記純度に応じて前記
被験者の実写画像および特殊効果が施された輪郭画像の
いずれか一方を表示する、請求項7記載の感性表現シス
テム。
8. The emotional expression system according to claim 7, wherein the third display means displays either one of a photographed image of the subject and a contour image on which a special effect is applied according to the purity.
【請求項9】前記変化手段は前記純度に基づいていずれ
かの前記被験者の前記主要感性に対応する音楽を出力す
る第3出力手段を含む、請求項5ないし8のいずれかに
記載の感性表現システム。
9. The affective expression according to claim 5, wherein the changing means includes third output means for outputting music corresponding to the main affection of any one of the subjects based on the purity. system.
【請求項10】前記第3出力手段は、前記純度が最も高
い前記主要感性に対応する前記音楽を出力する、請求項
9記載の感性表現システム。
10. The emotion expression system according to claim 9, wherein the third output means outputs the music corresponding to the main emotion having the highest purity.
【請求項11】前記第3出力手段は、前記純度がM
(M:整数)番目に高い前記主要感性によってリズム系
を決定し、前記純度がN(N:整数)番目に高い前記主
要感性によってメロディ系を決定する、請求項9記載の
感性表現システム。
11. The third output means has the purity of M.
The sensation expression system according to claim 9, wherein a rhythm system is determined by the (M: integer) second highest sensitivity, and a melody system is determined by the N (N: integer) highest purity.
【請求項12】記協調度算出手段は、前記複数の被験
者各々の前記感性ベクトルを正規化した正規化感性ベク
トルの類似度、各々の前記感性ベクトルを形成する前記
要素の平均値の近さ、および各々の前記感性ベクトルを
形成する前記要素の分散値の近さに基づいて、前記協調
度を算出する、請求項1ないし11のいずれかに記載の
感性表現システム。
12. Before SL cooperative calculating means, closeness of the mean values of the elements forming the similarity, each of said sensitive vector of the plurality of normalized sensitivity vector the sensitivity vector normalized subjects each , And the affective expression system according to any one of claims 1 to 11, wherein the degree of cooperation is calculated based on the closeness of the variance value of the elements forming each of the affective vectors.
【請求項13】被験者の感性に対応するマルチメディア
表現を出力する感性表現システムの感性表現方法であっ
、 複数の前記被験者の身体表現の物理量に基づいて各々の
前記被験者毎に感性ベクトルを推定し、 推定された各々の複数の感性ベクトルに基づいて協調度
を算出し、そして算出された前記協調度に基づいて前記
マルチメディア表現を変化させる、感性表現方法。
13. A kansei expression method of a kansei expression system for outputting a multimedia expression corresponding to a subject's sensibility.
Then , the affective vector is estimated for each of the subjects based on the physical quantities of the body expressions of the plurality of subjects, the degree of cooperation is calculated based on the estimated plurality of affective vectors , and the calculated cooperation is calculated. A Kansei expression method for changing the multimedia expression based on the degree.
JP2001058356A 2001-03-02 2001-03-02 Kansei expression system and Kansei expression method Expired - Fee Related JP3403393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001058356A JP3403393B2 (en) 2001-03-02 2001-03-02 Kansei expression system and Kansei expression method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001058356A JP3403393B2 (en) 2001-03-02 2001-03-02 Kansei expression system and Kansei expression method

Publications (2)

Publication Number Publication Date
JP2002259970A JP2002259970A (en) 2002-09-13
JP3403393B2 true JP3403393B2 (en) 2003-05-06

Family

ID=18918089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001058356A Expired - Fee Related JP3403393B2 (en) 2001-03-02 2001-03-02 Kansei expression system and Kansei expression method

Country Status (1)

Country Link
JP (1) JP3403393B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023234019A1 (en) * 2022-05-31 2023-12-07 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岩舘,イメージ表現の研究,電子情報通信学会技術研究報告(HCS99−40〜53),1999年10月21日,Vol.99,No.384,pp.87−94

Also Published As

Publication number Publication date
JP2002259970A (en) 2002-09-13

Similar Documents

Publication Publication Date Title
Egan et al. An evaluation of Heart Rate and ElectroDermal Activity as an objective QoE evaluation method for immersive virtual reality environments
US11640672B2 (en) Method and system for wireless ultra-low footprint body scanning
CN105593862B (en) The activity recognition reminded with activity
US20020097247A1 (en) Image processor, image processing method, recording medium, computer program and semiconductor device
JP7342366B2 (en) Avatar generation system, avatar generation method, and program
CN109448131B (en) Kinect-based virtual piano playing system construction method
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
WO2021039857A1 (en) Video generation device
JP3403363B2 (en) 3D continuous motion verification system
JP3403393B2 (en) Kansei expression system and Kansei expression method
KR20020011851A (en) Simulation game system using machine vision and pattern-recognition
JP2020017871A (en) Information processing apparatus, moving image distribution method, and moving image distribution program
KR20220069355A (en) Smart mirror for managing a body shape
JP3786345B2 (en) Kansei sharing system
JP3403378B2 (en) Kansei expression system
Cui et al. Exercising at home: Real-time interaction and experience sharing using avatars
TW202241342A (en) Content evaluation device, content evaluation method, and content evaluation program
Lin et al. The effects of virtual characters on audiences’ movie experience
CN110009560B (en) Image processing apparatus
KR200239844Y1 (en) Simulation game system using machine vision and pattern-recognition
JP2018036853A (en) Impression evaluation method of illumination
WO2022102550A1 (en) Information processing device and information processing method
KR100607046B1 (en) Image processing method for bodily sensitive game and game method using same
JP2004094337A (en) Human body model generation system for aging effect prediction
Ortmann Towards Facial Expression Recognition in Immersive Virtual Reality with EmojiRain

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030212

LAPS Cancellation because of no payment of annual fees