JP6417232B2 - 映像評価装置およびそのプログラム - Google Patents
映像評価装置およびそのプログラム Download PDFInfo
- Publication number
- JP6417232B2 JP6417232B2 JP2015022807A JP2015022807A JP6417232B2 JP 6417232 B2 JP6417232 B2 JP 6417232B2 JP 2015022807 A JP2015022807 A JP 2015022807A JP 2015022807 A JP2015022807 A JP 2015022807A JP 6417232 B2 JP6417232 B2 JP 6417232B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- subjective evaluation
- subjective
- biological signal
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 498
- 230000010354 integration Effects 0.000 claims description 48
- 238000005259 measurement Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 2
- 210000004556 brain Anatomy 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 5
- 238000004497 NIR spectroscopy Methods 0.000 description 4
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000012886 linear function Methods 0.000 description 4
- 229910052760 oxygen Inorganic materials 0.000 description 4
- 239000001301 oxygen Substances 0.000 description 4
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000002490 cerebral effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000013421 nuclear magnetic resonance imaging Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Description
しかし、主観評価は、評価者が自ら感じていること(内観)を、自らで数値的に答えるというところに大きな問題がある。なぜなら、測定対象と測定器が、同じ評価者の中に存在すると解釈でき、正確に内観を数値化することは、評価者個人の特性や能力に関ってしまうからである。
そこで、近年は、内観を評価者に答えてもらうのではなく、評価者の生体信号を計測し、客観的に内観を推定する手法が開示されている(例えば、特許文献1〜9参照)。
この生体信号による内観の推定は、例えば、評価者の脳波等の生体信号を計測し、人の集中度、リラックスの状態等、予め決められた生体信号のパターンが出現するか否かにより行われている。
すなわち、従来の手法のように、評価者の生体信号そのものだけを利用しても、映像コンテンツの内容を考慮した評価を行うことは困難であるという問題がある。
この主観評価推定モデルは、生体信号データから主観評価値を求める関数であって、時系列の個々の生体信号データを重み付け加算して主観評価値を演算するための時系列のサンプル数に対応したパラメータで特定される。なお、このパラメータは、複数の学習被験者によって測定された生体信号データと主観評価値とに対して、例えば、最小二乗法を用いることで求めることができる。
これによって、映像評価装置は、計測チャンネルごとに、主観評価推定モデルを学習することができる。
そして、映像評価装置は、主観評価推定手段によって、主観評価推定モデルを用いて、計測チャンネルごとに、第2生体信号入力手段で入力された生体信号データから推定対象被験者の主観評価値を演算により求める。
これによって、映像評価装置は、評価項目ごとに、推定対象被験者が感じている(内観した)主観評価値を推定することができる。
なお、本発明は、コンピュータを、第1生体信号入力手段、主観評価入力手段、主観評価推定モデル生成手段、第2生体信号入力手段、主観評価推定手段および主観評価統合手段として機能させるための映像評価プログラムで実現することもできる。
本発明によれば、予め複数の評価項目に対する学習被験者の主観評価によって、映像コンテンツ視聴中における学習被験者の生体信号との関係を学習することができる。そのため、本発明は、推定対象被験者の映像コンテンツの主観評価を、推定対象被験者の生体信号のみで推定することができる。
また、本発明は、従来のような特定の生体信号と主観評価とを対応付けるのではなく、学習によって、任意の生体信号と、評価軸を任意の項目で設定可能な複数の評価項目に対する主観評価とを関連付けるため、任意の映像コンテンツに対する任意の評価軸による主観評価の推定を行うことができる。
〔映像評価装置の概要〕
最初に、図1を参照して、本発明の実施形態に係る映像評価装置1の概要について説明する。
映像評価装置1は、放送番組等の映像コンテンツを視聴中の複数の被験者の生体信号と、その被験者が複数の評価項目で当該映像コンテンツを主観評価した結果(学習用主観評価値)とから当該映像コンテンツに対する生体信号と主観評価との関係を学習し、その学習結果に基づいて、他の被験者の生体信号から、当該映像コンテンツに対する主観評価を推定するものである。ここで、学習段階における被験者を学習被験者といい、推定段階における被験者を推定対象被験者という。
そして、映像評価装置1は、取得した生体信号と主観評価値との関係、すなわち、被験者の映像コンテンツ視聴中の脳波等の生体信号と、被験者の映像コンテンツに対する評価(主観評価値)との関係を学習する。
ここで、被験者(学習被験者Hs、推定対象被験者Ht)が視聴する映像コンテンツや映像コンテンツを提示する映像システム(モニタM等)は同一である。また、複数の学習被験者Hs,Hs,…に対して行う評価項目の内容は同一である。
以下、このように、学習と推定により、推定対象被験者Htの主観評価値を推定する映像評価装置1の構成および動作について説明を行う。
まず、図2を参照して、本発明の第1実施形態に係る映像評価装置1の構成について説明する。
図2に示すように、映像評価装置1は、事前の学習段階において、推定段階で使用する学習結果(主観評価推定モデル)を学習するための構成として、学習用生体信号入力手段10と、学習用生体信号記憶手段11と、学習用主観評価入力手段12と、学習用主観評価記憶手段13と、主観評価推定モデル生成手段14と、主観評価推定モデル記憶手段15と、推定段階において、推定対象被験者の主観評価値を推定するための構成として、推定用生体信号入力手段20と、主観評価推定手段21と、主観評価統合手段22と、を備える。
例えば、生体信号測定装置としてfMRI装置を用いることで、学習用生体信号入力手段10は、機能的核磁気共鳴画像法(fMRI:Magnetic Resonance Imaging)により計測される画像の輝度データとして脳血中酸素依存信号を取得することができる。
また、例えば、生体信号測定装置として脳波計を用いることで、被験者の頭皮上等に置いた電極で計測される電位データとして脳波を取得することができる。
また、例えば、生体信号測定装置としてサーモグラフィを用いることで、熱分布を示す画像データとして体表温度を取得することができる。
また、学習用生体信号入力手段10は、生体信号データに対して平滑化処理等を行うことで、データのノイズを除去することが好ましい。
このように、学習用生体信号入力手段10は、正規化処理、ノイズ除去等を行った生体信号データを、学習用生体信号記憶手段11に書き込み記憶する。
ここでは、学習用生体信号記憶手段11に記憶される生体信号データを計測した学習被験者の数をN人とする。また、ここで、チャンネルの識別子をc、学習被験者の識別子をi(1≦i≦N)、映像コンテンツの視聴時刻をt(1≦t≦T)としたとき、学習用生体信号記憶手段11に記憶される時系列の生体信号データ(生体信号時系列)xc iは、以下の式(1)に示すT次元ベクトルで表すことができる。
すなわち、生体信号データxc iは、学習被験者iが映像コンテンツ視聴中に、最初に計測されたxc i,1から、順次、時系列に計測されたxc i,Tまでの生体信号データで構成される。
また、学習用生体信号記憶手段11には、学習用生体信号入力手段10によって、学習被験者とチャンネルとが対応付けて記憶されているため、ここでは、チャンネルcに対応する複数の学習被験者の生体信号データを、以下の式(2)の生体信号行列Xcで表すこととする。
この学習用主観評価入力手段12は、入力した主観評価値を、学習被験者に対応付けて学習用主観評価記憶手段13に書き込み記憶する。
また、学習用主観評価入力手段12は、入力した主観評価値である数値をそのまま用いてもよいし、ある閾値を超えれば“1”、超えていなければ“0”のように、量子化を行った数値を用いてもよい。
ここで、評価項目の数をNq個とし、学習被験者の識別子をi(1≦i≦N)としたとき、学習用主観評価記憶手段13に記憶される主観評価値yiは、以下の式(3)に示すNq次元ベクトルで表すことができる。
すなわち、主観評価推定モデル生成手段14は、主観評価値を推定する推定対象被験者iのj番目の評価項目に対する推定主観評価値をyi,jとしたとき、チャンネルcの生体信号時系列xc i(前記式(1)参照)から、推定主観評価値yi,jを推定する以下の式(5)に示すような関数fcを、主観評価推定モデルとして生成する。
関数fcを線形関数であるとすると、前記式(4)の主観評価値行列Yのj番目の列(j番目の評価項目に対するN人の学習被験者の主観評価値に相当)をyj 〜としたとき、yj 〜および前記式(2)の生体信号行列Xcは、以下の式(6)のように表すことができる。
この主観評価推定モデル生成手段14は、式(6)のwj,cおよびbj,cを求めることで、前記式(5)の関数fcを特定することができる。
なお、このwj,cおよびbj,cは、種々の手法によって求めることができる。例えば、最小二乗法を用いて解く場合、以下の式(7)とすると、以下の式(8)に示すように、前記式(6)を変形することで、wj,c −、すなわち、wj,cおよびbj,cを求めることができる。
この主観評価推定モデル生成手段14は、生成したチャンネルごとのモデル(主観評価推定モデル)を、主観評価推定モデル記憶手段15に書き込み記憶する。
すなわち、主観評価推定モデル生成手段14は、主観評価推定モデルとして、前記式(5)に示すチャンネルcごとの関数fcを主観評価推定モデル記憶手段15に記憶する。より具体的には、主観評価推定モデル生成手段14は、関数fcを特定するパラメータベクトルwj,cおよび補正項bj,cを、チャンネルcに対応付けて、主観評価推定モデル記憶手段15に記憶する。
なお、ここでは、主観評価推定モデルを、線形関数でモデル化したが、非線形関数でモデル化しても構わない。
これによって、主観評価推定モデル記憶手段15には、チャンネルごとに、生体信号データと、主観評価値とを関連付けることが可能な主観評価推定モデルが記憶されることになる。
なお、推定用生体信号入力手段20は、対象とする被験者と、数値化した生体信号の出力先とが異なるだけで、学習用生体信号入力手段10と同様の機能を有する。すなわち、推定用生体信号入力手段20は、チャンネルごとの生体信号を、時系列信号として数値化し、その数値化した生体信号データを、主観評価推定手段21に出力する。
ここでは、チャンネルの識別子をc、映像コンテンツの視聴時刻をt(1≦t≦T)としたとき、推定用生体信号入力手段20から出力される生体信号データ(生体信号時系列)xc newを、以下の式(9)と表すこととする。
すなわち、主観評価推定手段21は、前記式(9)に示した推定対象被験者の生体信号データxc newから、以下の式(10)に示す演算を行うことで、チャンネルcごとに、すべての評価項目j(1≦j≦Nq:Nqは評価項目の総数)についての主観評価値yc new,j 〜を推定する。
この主観評価推定手段21は、推定したチャンネルごとの主観評価値yc new,j 〜を、主観評価統合手段22に出力する。
具体的には、主観評価統合手段22は、評価項目の内で主観評価値として連続値を用いた評価項目については、その評価項目に対してチャンネルごとに推定されたすべての主観評価値の平均値を演算し、推定対象被験者の推定主観評価値とする。
そして、主観評価統合手段22は、評価項目に対する評価値として、推定主観評価値を外部に出力する。
そのため、映像評価装置1は、推定対象被験者の生体信号から、映像コンテンツまたは映像コンテンツを提示する映像システムを客観的に高い精度で評価することができる。
なお、映像評価装置1は、コンピュータを、前記した構成の各手段として機能させるためのプログラム(映像評価プログラム)で動作させることができる。
次に、図3および図4を参照して、本発明の第1実施形態に係る映像評価装置1の動作について説明する。ここでは、図3で映像評価装置1の学習段階の動作、図4で学習段階の後に行われる映像評価装置1の推定段階の動作について説明する。
まず、図3を参照(構成については、適宜図2参照)して、映像評価装置1の学習段階の動作について説明する。
映像評価装置1は、学習用生体信号入力手段10によって、外部に接続された生体信号測定装置(不図示)を介して、生体信号を計測するチャンネルごとに、学習被験者の生体信号を入力する(ステップS1)。
そして、映像評価装置1は、主観評価推定モデル生成手段14によって、ステップS6で生成された主観評価推定モデルを、主観評価推定モデル記憶手段15に書き込み記憶する(ステップS7)。
次に、図4を参照(構成については、適宜図2参照)して、映像評価装置1の推定段階の動作について説明する。
映像評価装置1は、推定用生体信号入力手段20によって、外部に接続された生体信号測定装置(不図示)を介して、生体信号を計測するチャンネルごとに、主観評価値を推定する対象である推定対象被験者の生体信号を、時系列信号(生体信号データ)として入力する(ステップS21)。
次に、図5を参照して、本発明の第2実施形態に係る映像評価装置1Bの構成について説明する。
さらに、映像評価装置1Bは、映像コンテンツに対する主観評価を推定する際に、当該主観評価に最も貢献した(影響を与えた)映像コンテンツのシーンを同定する機能を有する。
なお、主観評価統合手段22B、推定モデル統合手段23および主観評価関連シーン同定手段24以外の構成は、図2で説明した映像評価装置1と同一の構成であるため、同一の符号を付して説明を省略する。
さらに、主観評価統合手段22Bは、チャンネルごとに推定された主観評価値を統合して推定主観評価値を求めるとともに、推定主観評価値の推定に貢献の度合いが大きいチャンネルを特定する機能を有する。
このとき、主観評価統合手段22Bは、平均値(推定主観評価値)に近い主観評価値を推定したチャンネルを、近い順から予め定めた個数(M個)分選択する。
このとき、主観評価統合手段22Bは、最も頻度の高い数値(推定主観評価値)と一致する主観評価値を推定したチャンネルを選択する。
この主観評価統合手段22Bは、評価項目に対して統合された推定主観評価値を外部に出力するとともに、選択したチャンネルの集合(チャンネルの識別子の集合)を推定モデル統合手段23に出力する。
ここで、主観評価推定モデルである前記式(5)に示す関数fcにおいて、関数fcを線形関数としたとき、主観評価推定モデルのパラメータは、前記式(6)におけるT×1次元のパラメータベクトルwj,cである。なお、前記式(6)における補正項bj,cは、定数項であるため、モデルパラメータからは除外する。
すなわち、推定モデル統合手段23は、主観評価統合手段22Bで選択された評価項目jに対するチャンネルの集合をCjとしたとき、以下の式(11)に示す演算により、評価項目jに対する主観評価推定モデルのパラメータ(モデルパラメータ)wjを求める。なお、Mは選択したチャンネルの数である。
ここで、評価項目jに対するモデルパラメータwjは、T次元のベクトル、すなわち、映像コンテンツの視聴時刻t(1≦t≦T)に対応するベクトルである。
また、主観評価値の推定値は、前記式(10)に示したように、計測した生体信号データとモデルパラメータとの積和演算により求められた結果である。そのため、モデルパラメータwjの要素のうちで、絶対値が“0”に近いものは、推定主観評価値に対する貢献の度合いが小さく、絶対値が大きいものは、推定主観評価値に対する貢献の度合いが大きいといえる。
そこで、主観評価関連シーン同定手段24は、所定の閾値に基づいて、モデルパラメータwjの要素の絶対値と閾値とを比較し、閾値を上回る要素番号の集合Stを求める。
例えば、主観評価関連シーン同定手段24は、閾値thを、以下の式(12)により求める。
このように、主観評価関連シーン同定手段24が求めた閾値を上回る要素番号の集合Stは、各要素番号が、映像コンテンツの視聴時刻tに相当するため、主観評価の推定に貢献度の高いシーンを示す番号(フレーム番号)の集合といえる。
この主観評価関連シーン同定手段24は、求めた要素番号の集合Stを、主観評価の推定に貢献度の高いシーン(主観評価関連シーン)として、外部に出力する。
そのため、映像評価装置1Bは、映像コンテンツのシーンが視聴者に与える影響を評価することができる。
なお、映像評価装置1Bは、コンピュータを、前記した構成の各手段として機能させるためのプログラム(映像評価プログラム)で動作させることができる。
次に、本発明の第2実施形態に係る映像評価装置1Bの動作について説明する。なお、映像評価装置1Bの学習段階の動作は、図3で説明した映像評価装置1の動作と同じであるため、説明を省略する。ここでは、図6を参照(構成については、適宜図5参照)して、映像評価装置1Bの推定段階の動作について説明する。
図6において、ステップS21からS23までの動作は、図4で説明した映像評価装置1の動作と同じであるため、説明を省略する。
これによって、映像評価装置1Bは、学習段階で学習されたモデル(主観評価推定モデル)から、映像コンテンツを視聴した推定対象被験者の評価項目に対する主観評価値を推定することができるとともに、評価項目に対して推定した主観評価値に貢献している映像コンテンツのシーンを特定することができる。
10 学習用生体信号入力手段(第1生体信号入力手段)
11 学習用生体信号記憶手段
12 学習用主観評価入力手段
13 学習用主観評価記憶手段
14 主観評価推定モデル生成手段
15 主観評価推定モデル記憶手段
20 推定用生体信号入力手段(第2生体信号入力手段)
21 主観評価推定手段
22,22B 主観評価統合手段
23 推定モデル統合手段
24 主観評価関連シーン同定出手段
Claims (8)
- 予め複数の学習被験者により学習した主観評価推定モデルによって、映像コンテンツを視聴した推定対象被験者の主観評価を推定する映像評価装置であって、
前記映像コンテンツ視聴中に、前記学習被験者の複数の部位ごとの計測チャンネルで計測された生体信号を、時系列の数値である生体信号データとして入力する第1生体信号入力手段と、
前記映像コンテンツに対する予め定めた複数の評価項目に対して、前記学習被験者が評価した数値化された評価結果である主観評価値を入力する主観評価入力手段と、
前記複数の学習被験者を対象とした前記計測チャンネルごとの時系列の生体信号データと前記複数の評価項目に対する主観評価値とから、前記計測チャンネルごとに、前記生体信号データから前記主観評価値を求める関数を、前記主観評価推定モデルとして生成する主観評価推定モデル生成手段と、
前記映像コンテンツを視聴する前記推定対象被験者の前記計測チャンネルで計測された生体信号を、時系列の数値である生体信号データとして入力する第2生体信号入力手段と、
前記主観評価推定モデルを用いて、前記計測チャンネルごとに、前記第2生体信号入力手段で入力された生体信号データから前記推定対象被験者の主観評価値を演算により求める主観評価推定手段と、
この主観評価推定手段で求められた主観評価値を予め定めた演算により前記計測チャンネル分統合することで、前記評価項目ごとに、前記推定対象被験者の推定主観評価値を求める主観評価統合手段と、
を備えることを特徴とする映像評価装置。 - 前記主観評価統合手段は、前記評価項目の内で主観評価値として連続値を用いた評価項目について、前記主観評価推定手段で演算により求められた前記計測チャンネルごとのすべての主観評価値の平均値を演算し、前記推定主観評価値とすることを特徴とする請求項1に記載の映像評価装置。
- 前記主観評価統合手段は、前記評価項目の内で主観評価値として離散値を用いた評価項目について、前記主観評価推定手段で演算により求められた前記計測チャンネルごとの主観評価値で最も頻度の高い数値を前記推定主観評価値とすることを特徴とする請求項1に記載の映像評価装置。
- 前記主観評価推定モデル生成手段は、前記計測チャンネルごとに、前記学習被験者の時系列の生体信号データを重み付け加算して前記主観評価値を演算するための前記時系列のサンプル数に対応した重み係数を、前記関数のパラメータとして生成することを特徴とする請求項1から請求項3のいずれか一項に記載の映像評価装置。
- 前記主観評価推定手段で演算された主観評価値のうちで、前記推定主観評価値に予め定めた範囲で近似する主観評価値を演算した前記主観評価推定モデルである関数のパラメータを平均化することで、前記評価項目ごとに、前記計測チャンネル分の主観評価推定モデルを統合する推定モデル統合手段と、
この推定モデル統合手段で統合された前記評価項目ごとの主観評価推定モデルの前記時系列のサンプル数に対応したパラメータの大きさが予め定めた閾値よりも大きい時点のシーンを、前記映像コンテンツにおける前記評価項目の評価に貢献するシーンとして同定する主観評価関連シーン同定手段と、
そ備えることを特徴とする請求項4に記載の映像評価装置。 - 前記主観評価統合手段は、前記評価項目の内で主観評価値として連続値を用いた評価項目について、さらに、前記推定主観評価値に近い主観評価値を推定した計測チャンネルを、近い順から予め定めた個数分選択し、
前記推定モデル統合手段は、前記選択された計測チャンネルに対応する前記主観評価推定モデルの関数のパラメータを平均化することを特徴とする請求項5に記載の映像評価装置。 - 前記主観評価統合手段は、前記評価項目の内で主観評価値として離散値を用いた評価項目について、さらに、前記推定主観評価値と一致する主観評価値を推定した計測チャンネルを選択し、
前記推定モデル統合手段は、前記選択された計測チャンネルに対応する前記主観評価推定モデルのパラメータを平均化することを特徴とする請求項5に記載の映像評価装置。 - コンピュータを、請求項1から請求項7のいずれか一項に記載の映像評価装置として機能させるための映像評価プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015022807A JP6417232B2 (ja) | 2015-02-09 | 2015-02-09 | 映像評価装置およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015022807A JP6417232B2 (ja) | 2015-02-09 | 2015-02-09 | 映像評価装置およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016146075A JP2016146075A (ja) | 2016-08-12 |
JP6417232B2 true JP6417232B2 (ja) | 2018-10-31 |
Family
ID=56686337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015022807A Active JP6417232B2 (ja) | 2015-02-09 | 2015-02-09 | 映像評価装置およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6417232B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018088186A1 (ja) * | 2016-11-08 | 2018-05-17 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
JP2018149081A (ja) * | 2017-03-13 | 2018-09-27 | オムロン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005128884A (ja) * | 2003-10-24 | 2005-05-19 | Sony Corp | 情報コンテンツの編集装置及び編集方法 |
JP5635859B2 (ja) * | 2010-09-27 | 2014-12-03 | Necパーソナルコンピュータ株式会社 | 編集装置、制御方法及びプログラム |
JP5624512B2 (ja) * | 2011-05-02 | 2014-11-12 | パナソニック株式会社 | コンテンツ評価装置、方法、及びそのプログラム |
US20120324491A1 (en) * | 2011-06-17 | 2012-12-20 | Microsoft Corporation | Video highlight identification based on environmental sensing |
JP5937829B2 (ja) * | 2012-01-25 | 2016-06-22 | 日本放送協会 | 視聴状況認識装置及び視聴状況認識プログラム |
JP5775837B2 (ja) * | 2012-03-02 | 2015-09-09 | 日本電信電話株式会社 | 興味度合い推定装置、方法及びプログラム |
JP6226288B2 (ja) * | 2013-04-09 | 2017-11-08 | パナソニックIpマネジメント株式会社 | 印象評価装置及び印象評価方法 |
JP6151573B2 (ja) * | 2013-05-31 | 2017-06-21 | 日本放送協会 | 視聴状態推定装置及びそのプログラム |
-
2015
- 2015-02-09 JP JP2015022807A patent/JP6417232B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016146075A (ja) | 2016-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Keil et al. | Committee report: publication guidelines and recommendations for studies using electroencephalography and magnetoencephalography | |
Auranen et al. | Bayesian analysis of the neuromagnetic inverse problem with ℓp-norm priors | |
JP6884344B2 (ja) | 脳内ネットワークの活動推定システム、脳内ネットワークの活動推定方法、脳内ネットワークの活動推定プログラム、および、学習済み脳活動推定モデル | |
Shukla et al. | Efficient wavelet-based artifact removal for electrodermal activity in real-world applications | |
US20240057888A1 (en) | Method And System For Determining Brain-State Dependent Functional Areas Of Unitary Pooled Activity And Associated Dynamic Networks With Functional Magnetic Resonance Imaging | |
US20180103887A1 (en) | Method for sampling cerebral insular cortex activity | |
US20180279935A1 (en) | Method and system for detecting frequency domain cardiac information by using pupillary response | |
Salleh et al. | Acoustic cardiac signals analysis: a Kalman filter–based approach | |
JP6417232B2 (ja) | 映像評価装置およびそのプログラム | |
Qayyum et al. | Assessment of physiological states from contactless face video: a sparse representation approach | |
Escalona-Vargas et al. | Selection of reference channels based on mutual information for frequency-dependent subtraction method applied to fetal biomagnetic signals | |
JP6154728B2 (ja) | 視聴状態推定装置およびそのプログラム | |
CN111938671A (zh) | 一种基于多维度内感知特征的焦虑特质量化方法 | |
JP6259353B2 (ja) | 映像評価装置及びそのプログラム | |
KR102317713B1 (ko) | 기능적 연결성을 사용한 피험자 내 및 피험자 간 변동성 기반 예측 모델 생성 방법 및 그 장치 | |
Zhao et al. | NIRS-ICA: a MATLAB toolbox for independent component analysis applied in fNIRS studies | |
Wang et al. | Causality analysis of fMRI data based on the directed information theory framework | |
TW202111617A (zh) | 區域性腦年齡預測之方法、非暫時性電腦可讀媒體及設備 | |
KR101878359B1 (ko) | 정보기술을 이용한 다중지능 검사 장치 및 방법 | |
Shen et al. | Spatial–temporal modelling of fMRI data through spatially regularized mixture of hidden process models | |
Heravi et al. | Recurrence quantification analysis of electrooculography signal to a control question test: A new approach for the detection of deception | |
KR101213677B1 (ko) | 점진적 em pca를 이용한 결측값 대치 시스템 | |
US11768258B2 (en) | Signal separating apparatus, signal separating method, and non-transitory recording medium | |
JP2021087761A (ja) | 信号分離装置、プログラムおよび信号分離方法 | |
Cerquera et al. | Nonlinear Recurrent Dynamics and Long-Term Nonstationarities in EEG Alpha Cortical Activity: Implications for Choosing Adequate Segment Length in Nonlinear EEG Analyses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181005 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6417232 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |