JP2020009027A - ライブ演出システム、およびライブ演出方法 - Google Patents

ライブ演出システム、およびライブ演出方法 Download PDF

Info

Publication number
JP2020009027A
JP2020009027A JP2018127833A JP2018127833A JP2020009027A JP 2020009027 A JP2020009027 A JP 2020009027A JP 2018127833 A JP2018127833 A JP 2018127833A JP 2018127833 A JP2018127833 A JP 2018127833A JP 2020009027 A JP2020009027 A JP 2020009027A
Authority
JP
Japan
Prior art keywords
biological information
live
visual effect
control device
ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018127833A
Other languages
English (en)
Other versions
JP7216394B2 (ja
Inventor
亮太 堀江
Ryota Horie
亮太 堀江
将平 小林
Shohei Kobayashi
将平 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Institute of Technology
Original Assignee
Shibaura Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shibaura Institute of Technology filed Critical Shibaura Institute of Technology
Priority to JP2018127833A priority Critical patent/JP7216394B2/ja
Publication of JP2020009027A publication Critical patent/JP2020009027A/ja
Application granted granted Critical
Publication of JP7216394B2 publication Critical patent/JP7216394B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ライブの視聴において、演者と複数の観客の相互作用から生じる一体感を感じる体験を得ることができるライブ演出システム、およびライブ演出方法を提供することを目的とする。【解決手段】n個(nは2以上の整数)の生体情報測定部であって、ライブに参加するn人それぞれが装着し、生体情報を測定する生体情報測定部と、n個の生体情報測定部それぞれが測定した生体情報と閾値とを比較した結果に基づいて演出効果を生成し、生成した演出効果を、n人に共有させる制御装置と、を備えるライブ演出システム。【選択図】図1

Description

本発明は、ライブ演出システム、およびライブ演出方法に関する。
近年、頭部に表示装置を装着するヘッドマウントディスプレイ(Head Mounted Display)の開発が進められている。そして、このようなヘッドマウントディスプレイは、VR(ヴァーチャルリアリティ)に応用されつつあり、例えばゲームやスポーツの観戦への用途への開発が進められている。
また、近年、脳活動を測定した信号から信号処理や情報処理により操作命令を抽出して、機器操作やコンピュータ入力を行うブレイン‐コンピュータ・インタフェース(BCI)技術が研究開発されている。なかでも脳波を用いた非侵襲BCI技術は、外科手術を要せず日常で使用できる技術として期待されている。
BCIとして脳波を用いる例としては、ヘッドマウントディスプレイでVRライブ視聴時の脳波に応じてライブに視覚的効果を生成させるエンターテイメントシステムの開発が行われている(例えば非特許文献1参照)。非特許文献1に記載のシステムでは、ユーザの脳波に連動して仮想ライブ映像に視覚的エフェクトを出現させで仮想ライブシステムを実現している。
また、コンピュータ・インタフェースに心拍を用いる例としては、ユーザが画像を見た時の心拍に基づいて、画像に対する処理を行う画像処理装置が提案されている(例えば特許文献1参照)。
今後、ヘッドマウントディスプレイによる仮想ライブシステムは、自宅にいながらライブ参加ができ、コンサート施設の不足や、コンサート施設バリアフリー化の遅れの問題を解決することが期待されている。また、仮想ライブシステムは、新しいライブ・コンサートの形として期待される。
特開2015−50614号公報
和田みなみ,渡部恵梨,堀江亮太、「没入型ヘッドマウントディスプレイと生体信号を用いた仮想ライブ体験システムの開発」、電子情報通信学会技術研究報告、Vol.116、no,520、MBE2016−102、pp.95−98、2017年3月
しかしながら、従来のライブ体験システムの視聴では、ライブに参加をすることで、演者と複数の観客の相互作用から生じる一体感を感じる体験が得られにくいという課題があった。
本発明は、上記の問題点に鑑みてなされたものであって、ライブの視聴において、演者と複数の観客の相互作用から生じる一体感を感じる体験を得ることができるライブ演出システム、およびライブ演出方法を提供することを目的とする。
上記目的を達成するため、本発明の一態様に係るライブ演出システムは、n個(nは2以上の整数)の生体情報測定部であって、ライブに参加するn人それぞれが装着し、生体情報を測定する生体情報測定部と、前記n個の前記生体情報測定部それぞれが測定した前記生体情報と閾値とを比較した結果に基づいて演出効果を生成し、生成した前記演出効果を、前記n人に共有させる制御装置と、を備える。
また、本発明の一態様に係るライブ演出システムにおいて、前記制御装置は、前記n個の前記生体情報測定部それぞれが測定した前記生体情報毎に、前記生体情報と前記閾値とを比較した結果に基づいて前記演出効果を生成するようにしてもよい。
また、本発明の一態様に係るライブ演出システムにおいて、前記制御装置は、前記n個の前記生体情報測定部それぞれが測定した前記生体情報の平均値と閾値とを比較した結果に基づいて前記演出効果を生成するようにしてもよい。
また、本発明の一態様に係るライブ演出システムにおいて、前記制御装置は、前記n個の前記生体情報測定部それぞれが測定した前記生体情報の最大値と閾値とを比較した結果に基づいて前記演出効果を生成するようにしてもよい。
また、本発明の一態様に係るライブ演出システムにおいて、前記制御装置は、前記n個の前記生体情報測定部それぞれが測定した前記生体情報のうち上位m(mは2以上かつn以下の整数)個の平均値と閾値とを比較した結果に基づいて前記演出効果を生成するようにしてもよい。
また、本発明の一態様に係るライブ演出システムにおいて、前記制御装置は、前記n個の生体情報測定部を装着した人がいる領域を複数の領域に分け、複数の前記領域毎に前記演出効果を生成するようにしてもよい。
また、本発明の一態様に係るライブ演出システムにおいて、前記閾値は複数であり、
前記生体情報に基づく値が第1の値以上且つ第2の値未満である第1の閾値の範囲の場合に第1の前記演出効果を生成し、前記生体情報に基づく値が第2の値以上である第2の閾値以上の場合に第2の前記演出効果を生成するようにしてもよい。
また、本発明の一態様に係るライブ演出システムにおいて、前記生体情報は、脳波であり、前記制御装置は、前記脳波から少なくともα波成分とβ波成分とを抽出し、前記β波成分を前記α波成分で除算してβ/α比を算出し、算出した前記β/α比と前記閾値とを比較した結果に基づいて前記演出効果を生成するようにしてもよい。
また、本発明の一態様に係るライブ演出システムにおいて、前記生体情報は、心拍であり、前記制御装置は、現時点より前の時点で計測した心拍数と、前記現時点で測定した心拍数との増加分が閾値以上に上昇したときに前記演出効果を生成するようにしてもよい。
また、本発明の一態様に係るライブ演出システムにおいて、前記演出効果は、画像、映像、音響信号、匂い、振動、光のうちのすくなくとも1つであるようにしてもよい。
上記目的を達成するため、本発明の一態様に係るライブ演出方法は、ライブに参加するn人(nは2以上の整数)それぞれが装着されるn個の生体情報測定部が、生体情報を測定するステップと、制御装置が、前記n個の前記生体情報測定部それぞれが測定した前記生体情報と閾値とを比較した結果に基づいて演出効果を生成し、生成した前記演出効果を、前記ライブに参加する複数の人に共有させるステップと、を含む。
本発明によれば、ライブの視聴において、演者と複数の観客の相互作用から生じる一体感を感じる体験を得ることができるライブ演出システム、およびライブ演出方法を提供することができる。
第1実施形態に係るライブ演出システムの概要を示す図である。 第1実施形態に係るライブ演出システムの構成例を示すブロック図である。 第1実施形態に係る脳波計、VRHMDおよびスピーカーをユーザが装着した例を示す図である。 脳波の周波数成分例を示す図である。 VRHMDで仮想ライブ映像の試聴時の脳波におけるβ/α比の例を示す図である。 視覚効果無しの場合であり、安静時のβ/α比と仮想ライブ映像の視聴時のβ/α比の例を示す図である。 視覚効果有りの場合であり、安静時のβ/α比と仮想ライブ映像の視聴時のβ/α比の例を示す図である。 12人の被験者それぞれが安静時に注視点を1分間見ているときのβα比の平均値を示す図である。 第1実施形態に係る視覚効果画像を付加する処理手順例のシーケンス図である。 第1実施形態に係る複数の閾値の範囲と視覚効果画像の例を示す図である。 視覚効果画像が付加されていない仮想ライブ映像のみの画像である。 β/α比が1.35以上1.4未満で再生される視覚効果画像の例を示す図である。 β/α比が1.4以上1.5未満で再生される視覚効果画像の例を示す図である。 β/α比が1.5以上1.6未満で再生される視覚効果画像の例を示す図である。 β/α比が1.6以上で再生される視覚効果画像の例を示す図である。 第1実施形態に係る脳波のβ/α比と視覚効果生成指示の生成結果を示す図である。 第2実施形態に係るライブ演出システムの構成例を示すブロック図である。 第2実施形態に係る視覚効果画像を付加する処理手順例のシーケンス図である。 第2実施形態に係る脳波のβ/α比と、脳波のβ/α比の平均値と、視覚効果生成指示の生成結果を示す図である。 第2実施形態の変形例に係る視覚効果画像を付加する処理手順例のシーケンス図である。 視覚効果を介した複数ユーザの脳波間に生じる集団的振る舞いの予想図である。 第3実施形態に係るライブ演出システムの構成例を示すブロック図である。 心拍変動から生成した視覚効果生成指示の生成例を示す図である。 第1実施形態のライブ演出システムの実装例を示す図である。 第2実施形態のライブ演出システムの実装例を示す図である。
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。
<第1実施形態>
第1実施形態では、ユーザの生体情報として脳波を用いる例を説明する。
まず、実施形態のライブ演出システムの概要について説明する。
図1は、本実施形態に係るライブ演出システム1の概要を示す図である。本実施形態では、VRHMD(Virtual Reality Head Mounted Display;ヴァーチャル・リアリティ・ヘッドマウントディスプレイ)と脳波計を装着した複数のユーザが同時にVRライブを試聴する。なお、視聴の際、複数のユーザは同じ空間にいなくてもよい。制御装置は、複数のユーザから取得した脳波に基づいて、複数視聴者の相互作用を解析する。そして、制御装置は解析した結果に基づいて視覚効果を生成して、VRライブの画像に視覚効果を合成する。
なお、以下の説明において、脳波計は、少なくとも脳波のα波とβ波を計測する。
[ライブ演出システムの構成例]
次に、ライブ演出システムの構成例を説明する。
図2は、本実施形態に係るライブ演出システム1の構成例を示すブロック図である。図2に示すように、ライブ演出システム1は、脳波計10a、10b,10c,・・・(生体情報測定部)、制御装置20、VRHMD30a、30b,30c,・・・、スピーカー40a、40b,40c,・・・を備えている。
また、制御装置20は、脳波取得部201(生体情報取得部)、脳波処理部202、記憶部203、視覚効果処理部204、画像処理部205、素材格納部206、ライブ映像生成部207、および音声出力部208を備える。
なお、以下の説明において、脳波計10a,10b,10c,・・・のうち1つを特定しない場合は、脳波計10(生体情報測定部)という。また、VRHMD30a,30b,30c,・・・のうち1つを特定しない場合は、VRHMD30という。また、スピーカー40a,40b,40c,・・・のうち1つを特定しない場合は、スピーカー40という。
第1のユーザは、脳波計10aとVRHMD30aとスピーカー40aを装着する。第2のユーザは、脳波計10bとVRHMD30bとスピーカー40bを装着する。第3のユーザは、脳波計10cとVRHMD30cとスピーカー40cを装着する。
脳波計10は、電極を有する。脳波計10の電極は、ユーザの頭部の所定位置に装着される。脳波計10は、計測した脳波に脳波計10の識別情報を付加して制御装置20に出力する。なお、脳波計10と制御装置20とは、有線によって接続されていてもよく、無線によって接続されていてもよい。
VRHMD30は、表示部、画像処理部、光学系等を有する。VRHMD30は、制御装置20が出力する画像信号を生成する。なお、制御装置20とVRHMD30とは、有線によって接続されていてもよく、無線によって接続されていてもよい。
スピーカー40は、制御装置20が出力する音響信号を生成する。スピーカー40は、ヘッドフォン、イヤフォン等であってもよい。スピーカー40がヘッドフォンまたはイヤフォンの場合、VRHMD30とスピーカー40とが一体に構成されていてもよい。なお、制御装置20とスピーカー40とは、有線によって接続されていてもよく、無線によって接続されていてもよい。
制御装置20は、複数のユーザから取得した脳波に基づいて、複数視聴者の相互作用を解析する。制御装置20は、解析した結果に基づいて視覚効果を生成して、VRライブの画像に視覚効果を合成した画像をVRHMD30に出力する。また、制御装置20は、音響信号をスピーカー40に出力する。
脳波取得部201は、複数の脳波計10それぞれが出力した脳波を取得し、取得した脳波を脳波処理部202に出力する。なお、脳波には、当該脳波を出力した脳波計10の識別情報が付与されている。
脳波処理部202は、脳波取得部201が出力する脳波に対してフーリエ変換を行って、α波の成分とβ波の成分を抽出する。脳波処理部202は、抽出したα波の成分とβ波の成分を用いてβ/α比を、脳波計10毎に算出する。脳波処理部202は、算出した脳波計10毎のβ/α比を視覚効果処理部204に出力する。
記憶部203は、β波とα波との比であるβ/α比における閾値を記憶する。記憶部203は、画像処理部205が視覚効果の生成に用いる画像を記憶する。
視覚効果処理部204は、記憶部203が記憶する閾値を用いて、脳波処理部202が出力する脳波計10毎のβ/α比を統合的に判定して、判定した結果に基づいて視覚効果生成指示を生成する。視覚効果処理部204は、生成した視覚効果生成指示を画像処理部205に出力する。なお、視覚効果生成指示の生成方法については後述する。
画像処理部205は、視覚効果処理部204が出力する視覚効果生成指示に基づいて、記憶部203が記憶する画像を用いて、視覚効果画像(演出効果)を生成する。画像処理部205は、生成した視覚効果画像をライブ映像生成部207に出力する。なお、視覚効果画像については後述する。
素材格納部206は、VRHMD30に配信される仮想ライブ映像を作成する際に使用される素材のデータを格納する。素材のデータには、キャラクターの画像データ、ステージの画像データ、ステージ上の機材の画像データ、演奏に使用される音響信号が含まれる。
ライブ映像生成部207は、素材格納部206が格納する素材のデータを用いてリアルタイム演算によりライブ映像を生成し、生成したライブ映像に、画像処理部205が出力する視覚効果画像を付加した画像をVRHMD30に配信する。
音声出力部208は、素材格納部206が格納する素材のデータに含まれる音響信号をスピーカー40に配信する。
なお、上述した構成一例であり、これに限らない。例えば、VRHMD30が、脳波計10と制御装置20とスピーカー40を備えていてもよい。または、VRHMD30が、制御装置20を備えていてもよい。
[脳波計10、VRHMD30およびスピーカー40の装着例]
次に、脳波計10、VRHMD30およびスピーカー40をユーザが装着した例を説明する。
図3は、本実施形態に係る脳波計10、VRHMD30およびスピーカー40をユーザが装着した例を示す図である。図3に示すように、VRHMD30およびスピーカー40は、ユーザの頭部に装着される。また、脳波計10は、一方の電極がユーザの頭部の所定位置(国際10−20法のFp1とFp2との間の位置)に装着され、他方の電極がユーザの耳たぶに装着される。
なお、図3に示した脳波計10とVRHMD30とスピーカー40の形状等は一例であり、これに限らない。また、上述した脳波電極の数や装着位置についても一例であり、これに限らない。
[脳波のβ/α比の処理]
次に、β波とα波との比であるβ/α比の処理について説明する。
まず、脳波の周波数成分例を説明する。
図4は、脳波の周波数成分例を示す図である。図4において、横軸は周波数[Hz]であり、縦軸は振幅である。
また、α波は約8〜13[Hz]帯の成分であり、β波は約14〜19[Hz]帯の成分である。
次に、β/α比の例を説明する。
図5は、VRHMDで仮想ライブ映像の試聴時の脳波におけるβ/α比の例を示す図である。図5において、横軸は時間[s]であり、縦軸はβ/α比である。図5に示す例では、1人の被験者のβ/α比を示している。また、図5の例は、1秒の窓を1/16秒毎に更新している。符号g1は、時刻に対するβ/α比の変化である。また、閾値を超えた後、2秒間、視覚効果画像をVRHMDに配信する動画に付加した。
図5に示すように、β/α比は時刻の変化に対して揺らぎがある。
このため、特定の閾値を超えてからの2秒間と、比較するために閾値を超える前2秒間の合計4秒間を切り出して、β/α比の時系列に対して加算平均を行って分析を行った。
図6は、視覚効果無しの場合であり、安静時のβ/α比と仮想ライブ映像の視聴時のβ/α比の例を示す図である。なお、図6の閾値は1.1である。図7は、視覚効果有りの場合であり、安静時のβ/α比と仮想ライブ映像の視聴時のβ/α比の例を示す図である。
図6と図7において、横軸は時刻[s]であり、縦軸はβ/α比である。図6(A)と図7(A)は、仮想ライブ映像の試聴時のβ/α比の加算平均である。図6(A)の太線g21と図7(A)の太線g31は平均値である。図6(B)と図7(B)は、安静時のβ/α比の加算平均である。図6(B)の太線g22と図7(B)の太線g32は平均値である。
図6(C)と図7(C)は、仮想ライブ映像の試聴時と安静時それぞれの平均値を重ねて表示した図である。なお、図7の閾値は1.4である。なお、図6(B)と図7(B)において、平常状態で線が少ないのは、平常時の計測を1分間として行ったためであり、さらに平常状態のため平均的にβ/α比が低かったためである。
図7(C)に示すように閾値を超えたときに視覚効果を付加した場合は、図6(C)に示すように視覚効果を与えない場合と比較して、安静時と仮想ライブ映像の視聴時とのβ/α比の差の開きが持続する時間が長くなる。
次に、閾値の求め方の例を説明する。
図8は、12人の被験者それぞれが安静時に注視点を1分間見ているときのβ/α比の平均値を示す図である。図8において、横軸は被験者の番号であり、縦軸はβ/α比である。図8に示した例のように、12人の被験者全員の安静時のβ/α比に著しい差が見られなかった。
ここで、図8の12人の被験者に対して、安静時と仮想ライブ映像の試聴時のβ/α比について、閾値を1.0から1.5まで0.1毎にt検定を行った。この結果、閾値1.1と1.2と1.3では有意な差は確認できなかった。閾値1.4の場合は、視覚効果画像を付加した後、1秒間のβ/α比の平均が有意に高いことが確認できた(p<0.05)。
この実験結果例では、閾値1.4以上の際に付加する視覚効果では、β/α比の閾値を超えた後の振る舞いが安静時のより高まることが期待できる。
このように、本実施形態では、例えば実験により閾値を予め設定しておく。そして本実施形態では、β/α比が閾値を超えたときに、仮想ライブ映像に視覚効果画像を付加する。
[視覚効果画像を付加する処理手順]
次に、視覚効果画像を付加する処理例を説明する。
図9は、本実施形態に係る視覚効果画像を付加する処理手順例のシーケンス図である。なお、図9に示す例では、視聴者が3人の例を示しているが、視聴者は2人以上であればよい。また、図9に示す例では、第1の視聴者が、VRHMD30a(図2)と脳波計10a(図2)とスピーカー40a(図2)を装着している。第2の視聴者が、VRHMD30b(図2)と脳波計10b(図2)とスピーカー40b(図2)を装着している。第3の視聴者が、VRHMD30c(図2)と脳波計10c(図2)とスピーカー40c(図2)を装着している。
(ステップS1)視聴者が装着する各機器(VRHMD30と脳波計10とスピーカー40)と制御装置20とは、仮想ライブ映像の配信前に登録処理またはペアリング処理を行う。
(ステップS2)制御装置20のライブ映像生成部207は、仮想ライブ映像をリアルタイムで生成し、生成した仮想ライブ映像をVRHMD30aとVRHMD30bとVRHMD30cに配信する。
(ステップS3)制御装置20の脳波取得部201は、脳波計10aと脳波計10bと脳波計10cそれぞれから脳波を取得する。
(ステップS4)制御装置20の脳波処理部202は、各視聴者の脳波からα波の成分とβ波の成分を抽出して、視聴者毎にβ/α比を算出する。続けて、脳波処理部202は、視聴者毎にβ/α比と閾値とを比較する。
(ステップS5)制御装置20の視覚効果処理部204は、視聴者毎にβ/α比と閾値とを比較した結果、β/α比が閾値以上の視聴者がいた場合、その視聴者毎に視覚効果生成指示を生成する。例えば、第1の視聴者のβ/α比が閾値以上の場合、視覚効果処理部204は、第1の視聴者に対する視覚効果生成指示を生成する。また、第1の視聴者のβ/α比が閾値以上であり第3視聴者のβ/α比が閾値以上の場合、視覚効果処理部204は、第1の視聴者に対する視覚効果生成指示と第3の視聴者に対する視覚効果生成指示を生成する。なお、閾値は、例えば1.4である。
(ステップS6)制御装置20の画像処理部205は、視覚効果処理部204が出力する視覚効果生成指示に基づいて視覚効果画像を生成する。例えば、第1の視聴者のβ/α比が視覚効果生成指示の場合、画像処理部205は、第1の視聴者に基づく視覚効果画像を生成する。また、第1の視聴者の視覚効果生成指示と第3視聴者の視覚効果生成指示の場合、画像処理部205は、第1の視聴者に基づく視覚効果画像と第3の視聴者に基づく視覚効果画像を生成する。
(ステップS7)制御装置20のライブ映像生成部207は、仮想ライブ映像をリアルタイムに生成し、生成したライブ映像に画像処理部205が出力する視覚効果画像を付加した映像を、VRHMD30aとVRHMD30bとVRHMD30cに配信する。
[閾値が複数の例]
なお、図9に示した例では、閾値が1つの例を示したが、閾値は2つ以上であってもよい。また、閾値は所定の範囲の値であってもよい。図10は、本実施形態に係る複数の閾値の範囲と視覚効果画像の例を示す図である。
図10に示すように、β/α比が第1の閾値の範囲内(例えば1.35以上1.4未満)の場合、画像処理部205は、小さな星の画像(第1の視覚効果画像)を生成するようにしてもよい。β/α比が第2の閾値の範囲内(例えば1.4以上1.5未満)の場合、画像処理部205は、大きな星の画像(第2の視覚効果画像)を生成してもよい。β/α比が第3の閾値の範囲内(例えば1.5以上1.6未満)の場合、画像処理部205は、ハートの画像(第3の視覚効果画像)を生成するようにしてもよい。β/α比が第4の閾値の範囲内(例えば1.6以上)の場合、画像処理部205は、桜の花びらの画像(第4の視覚効果画像)を生成するようにしてもよい。
[視覚効果画像の例]
次に、視覚効果画像の例を、図11〜図15を用いて説明する。
図11は、視覚効果画像が付加されていない仮想ライブ映像のみの画像である。仮想ライブ映像は、ライブ映像をCG(コンピュータグラフィック)で作成したものであり、演奏に合わせてライティングの画像が変化しアーティストの画像も変化する。
図12は、β/α比が1.35以上1.4未満で再生される視覚効果画像の例を示す図である。図12に示す例では、β/α比が1.35以上1.4未満のとき、符号g101が示すように小さな星の画像が視覚効果画像として表示される。
図13は、β/α比が1.4以上1.5未満で再生される視覚効果画像の例を示す図である。図13に示す例では、β/α比が1.4以上1.5未満のとき、符号g111が示すように、図13より大きな星の画像が視覚効果画像として表示される。
図14は、β/α比が1.5以上1.6未満で再生される視覚効果画像の例を示す図である。図14に示す例では、β/α比が1.5以上1.6未満のとき、符号g121が示すように、ハートの画像が視覚効果画像として表示される。
図15は、β/α比が1.6以上で再生される視覚効果画像の例を示す図である。図15に示す例では、β/α比が1.6以上のとき、符号g131が示すように、桜の花びらの画像が視覚効果画像として表示される。
本実施形態では、複数の視聴者それぞれが装着するVRHMD30に、β/α比の大きさに基づいて図12〜図15の視覚効果画像が配信され共有される。
次に、本実施形態を適用した場合のβ/α比と視覚効果生成指示の生成結果例を説明する。
図16は、本実施形態に係る脳波のβ/α比と視覚効果生成指示の生成結果を示す図である。図16(A)は第1方式の脳波のβ/α比を示す図であり、図16(B)は視覚効果生成指示の生成結果を示す図である。図16(A)において、横軸は経過時間[s]であり、縦軸はβ/α比である。図16(B)において、横軸は経過時間[s]であり、縦軸は視覚効果生成指示である。
なお、図16に示す例では、視聴者毎に視覚効果画像の色を変えている。視聴者4(user 4)のβ/α比に基づく視覚効果画像の色はピンクであり、視聴者5(user 5)のβ/α比に基づく視覚効果画像の色は橙であり、視聴者6(user 6)のβ/α比に基づく視覚効果画像の色は赤である。
また、図16(B)において、「弱」とは、β/α比の閾値が1.35以上1.4未満である。「中」とは、β/α比の閾値が1.4以上1.5未満である。「強1」とは、β/α比の閾値が1.5以上1.6未満である。「強2」とは、β/α比の閾値が1.6以上である。
図16に示す例では、例えば経過時間が0〜20秒の期間、視聴者4のみβ/α比が閾値を超えているため、視聴者4のβ/α比に基づいて視覚効果生成指示が生成され、視聴者4に視覚効果画像が提供される。これに加えて、本実施形態では、この視聴者4のβ/α比に基づく視覚効果画像が、視聴者5と視聴者6にも提供される。この場合、経過時間が0〜20秒の期間、例えば視聴者5と視聴者6は、発生した視覚効果画像の色によって視聴者4によって視覚効果画像が付加されたことを知ることができる。
このように、本実施形態では、1人の視聴者によって発生した視覚効果画像を全被験者が共有することによって、β/α比の閾値を超えていない視聴者5や視聴者6のβ/α比に影響を与えている。ここで、3人の被験者は仮想ライブ映像を同時に視聴しているため、他の被験者の視覚効果画像が発生していることは、その被験者が仮想ライブ映像に集中していることになる。このため、実際のコンサート会場にいる場合と同様、他の視聴者に基づく視覚効果画像によって、他の視聴者が盛り上っている影響を受ける効果が期待できる。
例えば、図16に示した実験に参加した視聴者にアンケートを行った結果、以下のような回答を得た。
アンケートの結果、「視覚効果画像を共有しない場合と比較して、本実施形態の方が面白さ、没入感、一体感を感じた」という回答が得られた。また、「すべての視聴者の視覚効果画像が同じタイミングで再生したことで一体感を感じた」、「他の視聴者の視覚効果画像が見ることができるので一体感を感じた」という意見が得られた。さらに、「他の人の視覚効果画像が出ると自分のも出ていた気がしたので一体感があった」という意見があり、他の人の視覚効果画像を見ることでコンサートに対する集中度(β/α比)が向上する可能性が示唆された。
以上のように、本実施形態では、複数の視聴者に仮想ライブ映像を配信した際、複数の視聴者それぞれから、精神的盛り上がりに応じたβ/α比を測定し、その上昇に連動して仮想ライブ映像に視覚効果画像(視覚的エフェクト)を出現させるようにした。そして、本実施形態では、各視聴者のβ/α比の上昇で出現した視覚効果画像を全視聴者が共有して視聴できるようにしたので、全視聴者に対して盛り上がりの伝播を実現することができる。
これにより、本実施形態によれば、各視聴者の一人では得られないβ/α比の上昇を誘発し、仮想ライブの一体感の実感を実現する。
なお、上述したβ/α比の閾値または閾値の範囲の値は一例であり、これにかぎられない。脳波計10や使用環境や視聴者に応じた値であればよい。
また、図11〜図15で示した仮想ライブ映像や視覚効果画像は一例であり、これに限らない。
また、上述した例では、視聴者の視覚効果画像の色を異なるようにする例を説明したが、これに限らない。複数の視聴者に対応する視覚効果画像の色は同じであってもよい。また、視聴者の視覚効果画像を異なるようにしてもよい。この場合、制御装置20は、視聴者毎に視覚効果画像を紐付けてもよく、あるいは紐付けなくてもよい。紐付けない場合、制御装置20は、β/α比が閾値を複数の視聴者が超えたとき、第1の視聴者に第1の視覚効果画像を割り当て、第2の視聴者に第2の視覚効果画像を割り当てるようにしてもよい。また、制御装置20は、視聴者によって視聴位置を異ならせ視覚効果をその方向に生成するようにしてもよい。
[第1変形例]
なお、視覚効果処理部204は、複数視聴者の中に一人でも気持ちの高まりがあれば視覚効果画像を生成して、全ての視聴者に提供するようにしてもよい。具体的には、視覚効果処理部204は、視聴者の中のβ/α比の最大値が閾値を超えた場合に視覚効果画像を生成する。この処理は、一人の熱狂的な視聴者が、会場全体の盛り上がりを牽引する状況に相当する。なお、視聴者全員に対する閾値と、視聴者の中のβ/α比の最大値を比較する閾値とは同じであっても異なっていてもよい。
[第2変形例]
または、視覚効果処理部204は、視聴者の中から脳波を評価する人数を上位数名に限定するようにしてもよい。この場合、視覚効果処理部204は、複数の視聴者の上位数名に気持ちの高まりがあれば視覚効果画像を生成するようにしてもよい。具体的には、視覚効果処理部204は、上位数名のβ/α比が閾値を超えた場合に視覚効果画像を生成するようにしてもよい。この処理は、ファンクラブ会員のような一部の視聴者が、会場の盛り上がりを牽引する状況に相当する。
[第3変形例]
視覚効果処理部204は、ライブの序盤、中盤、および終盤に応じて「閾値」および「視覚効果画像」のうち少なくとも1つを変化させるようにしてもよい。
視覚効果処理部204は、上述した第1変形例から第3変形例の手法を組み合わせたり切り替えて使用するようにしてもよい。
<第2実施形態>
第1実施形態では、視聴者の脳波毎のβ/α比と閾値とを比較して、比較した結果に基づく視覚効果画像を全ての視聴者で共有する例を説明した。
本実施形態では、全ての視聴者の脳波のβ/α比を平均化し、平均化したβ/α比と閾値とを比較して、比較した結果に基づく視覚効果画像を全ての視聴者で共有する例を説明する。
図17は、本実施形態に係るライブ演出システム1Aの構成例を示すブロック図である。図17に示すように、ライブ演出システム1Aは、脳波計10a、10b,10c,・・・、制御装置20A、VRHMD30a、30b,30c,・・・、スピーカー40a、40b,40c,・・・を備えている。
また、制御装置20Aは、脳波取得部201、脳波処理部202A、記憶部203、視覚効果処理部204A、画像処理部205、素材格納部206、ライブ映像生成部207、および音声出力部208を備える。
なお、第1実施形態のライブ演出システム1と同様の機能を有する機能部には同じ符号を用いて、説明を省略する。
脳波処理部202Aは、脳波取得部201が出力する脳波に対してフーリエ変換を行って、α波の成分とβ波の成分を抽出する。脳波処理部202Aは、抽出したα波の成分とβ波の成分を用いてβ/α比を、脳波計10毎に算出する。脳波処理部202Aは、算出した全てのβ/α比の平均値を算出する。脳波処理部202Aは、β/α比の平均値を視覚効果処理部204Aに出力する。
視覚効果処理部204Aは、記憶部203が記憶する閾値を用いて、脳波処理部202Aが出力するβ/α比の平均値を統合的に判定して、判定した結果に基づいて視覚効果生成指示を生成する。視覚効果処理部204Aは、生成した視覚効果生成指示を画像処理部205に出力する。
[視覚効果画像を付加する処理手順]
次に、視覚効果画像を付加する処理例を説明する。
図18は、本実施形態に係る視覚効果画像を付加する処理手順例のシーケンス図である。なお、図18に示す例では、視聴者が3人の例を示しているが、視聴者は2人以上であればよい。また、図18に示す例では、第1の視聴者が、VRHMD30a(図2)と脳波計10a(図2)とスピーカー40a(図2)を装着している。第2の視聴者が、VRHMD30b(図2)と脳波計10b(図2)とスピーカー40b(図2)を装着している。第3の視聴者が、VRHMD30c(図2)と脳波計10c(図2)とスピーカー40c(図2)を装着している。
また、図9と同じ処理については同じ符号を用いて説明を省略する。
(ステップS1〜S3)ライブ演出システム1Aは、ステップS1〜S3の処理を行う。
(ステップS101)制御装置20Aの脳波処理部202Aは、各視聴者の脳波からα波の成分とβ波の成分を抽出して、視聴者毎にβ/α比を算出する。続けて、脳波処理部202Aは、全てのβ/α比の平均値を算出する。
(ステップS102)制御装置20Aの脳波処理部202Aは、β/α比の平均値と閾値とを比較する。
(ステップS103)制御装置20Aの視覚効果処理部204Aは、β/α比の平均値と閾値とを比較した結果、β/α比の平均値が閾値以上の場合、視覚効果生成指示を生成する。なお、閾値は、例えば1.4である。
(ステップS6〜S7)ライブ演出システム1Aは、ステップS6〜S7の処理を行う。
なお、図18の処理においても、閾値は複数であってもよく、閾値は所定範囲の値であってもよい。
次に、本実施形態を適用した場合のβ/α比と視覚効果生成指示の生成結果例を説明する。
図19は、本実施形態に係る脳波のβ/α比と、脳波のβ/α比の平均値と、視覚効果生成指示の生成結果を示す図である。図19(A)は第2方式の脳波のβ/α比を示す図であり、図19(B)は図19(A)のβ/α比の平均値を示す図であり、図19(C)は視覚効果生成指示の生成結果を示す図である。図19(A)と図19(B)において、横軸は経過時間[s]であり、縦軸はβ/α比である。図19(C)において、横軸は経過時間[s]であり、縦軸は視覚効果生成指示である。なお、3人の視聴者は、図16に示した視聴者4〜6と同じである。
なお、図19に示す例では、全ての被験者提供するに視覚効果画像の色はピンクである。
本実施形態では、図19(B)に示すように3人の視聴者のβ/α比が平均値化される。このため、図19(C)に示すように閾値を超えている回数は、第1実施形態に示した図16(B)と比較して少なくなっている。しかしながら、本実施形態では、3人の視聴者のβ/α比が閾値を超えるタイミングがそろったときに視覚効果画像が発生している。このため、本実施形態では、一体感を感じ、第1実施形態に比べて仮想ライブ映像により集中することが期待される。
例えば、図19に示した実験に参加した視聴者にアンケートを行った結果、以下のような回答を得た。
アンケートの結果、「視覚効果画像が出現したとき一体感を感じた」、「視覚効果画像が出ると達成感があった」との回答が得られた。このように本実施形態では、視聴者全員が協力をして視覚効果画像を再生したという達成感を得られることで、一体感を感じたことが示唆される。このため、本実施形態は、全員が盛り上がらないと視覚効果画像が提供されないため、ライブ会場で演奏者が観客全員を盛り上げたいときに、全観客が協力して視覚効果画像を再生させることで、目標を達成させる場合などに適している。
このように、本実施形態では、複数の視聴者のβ/α比の上昇の統合演算の結果により出現する視覚効果画像(視覚的エフェクト)を全視聴者が見ることで全視聴者が一体となった盛り上がりを実現する。これにより、本実施形態によれば、各視聴者の一人では得られないβ/α比の上昇を誘発し、仮想ライブの一体感の実感を実現することができる。
[第1変形例]
上述した例では、全ての視聴者のβ/α比の平均値を求める例を説明したが、これに限らない。脳波処理部202Aは、複数の視聴者のβ/αの極大値を求め、求めた極大値と閾値とを比較するようにしてもよい。
なお、「複数の視聴者のβ/αの極大値」とは、例えば、過去数秒の時間窓を設定し、その時間窓の中での最大値を求めたものである。複数の視聴者のβ/α比の瞬時値を用いると、複数の視聴者間でβ/α比が揃って上昇するときのタイミングの一致が厳しくなる。このため、時間窓での最大値を用いることで、複数の視聴者間でβ/α比が揃って上昇するタイミングの一致を緩和できる。
図20は、本実施形態の変形例に係る視覚効果画像を付加する処理手順例のシーケンス図である。なお、図20に示す例では、図18と同様に視聴者が3人の例を示しているが、視聴者は2人以上であればよい。また、図9または図18と同じ処理については同じ符号を用いて説明を省略する。
(ステップS1〜S3)ライブ演出システム1Aは、ステップS1〜S3の処理を行う。
(ステップS201)制御装置20Aの脳波処理部202Aは、各視聴者の脳波からα波の成分とβ波の成分を抽出して、視聴者毎にβ/α比を算出する。続けて、脳波処理部202Aは、全てのβ/α比の極大値を算出する。
(ステップS202)制御装置20Aの脳波処理部202Aは、β/α比の極大値と閾値とを比較する。
(ステップS203)制御装置20Aの視覚効果処理部204Aは、β/α比の極大値と閾値とを比較した結果、β/α比の極大値が閾値以上の場合、視覚効果生成指示を生成する。なお、閾値は、例えば1.4である。
(ステップS6〜S7)ライブ演出システム1Aは、ステップS6〜S7の処理を行う。
なお、図20の処理においても、閾値は複数であってもよく、閾値は所定範囲の値であってもよい。
変形例によっても、第2実施形態と同様の効果を得ることができる。ライブの演出者や出演者は、第1実施形態の手法、第1実施形態の変形例の手法、第2実施形態の手法、第2実施形態の変形例の手法の中から、演出に応じて1つを選択して設定してもよく、ライブの途中で切り替えてもよい。
[第2変形例]
視覚効果処理部204Aは、視聴者の中から脳波を評価する人数を上位数名に限定するようにしてもよい。この場合、視覚効果処理部204Aは、複数の視聴者の上位数名の平均値が閾値を超えた場合に視覚効果画像を生成するようにしてもよい。この処理は、ファンクラブ会員のような一部の視聴者が、会場の盛り上がりを牽引する状況に相当する。
なお、第1実施形態と第2実施形態では、生体情報として脳波のβ/α比を用いる例を説明したが、これに限らない。脳波において用いる成分はα波の成分とβ波の成分に限らず、他の成分(例えばγ波の成分やθ波の成分(4〜7Hz)も用いてもよい。なお、本実施形態では、α波の成分とβ波の成分との比を用いる例を説明したが、α波の成分とβ波の成分との差を用いてもよく、この場合は視聴者毎にこの差を正規化して用いてもよい。
なお、第1実施形態と第2実施形態では、閾値を予め設定しておく例を説明したが、これに限らない。例えば、仮想ライブ映像の配信中に、視聴者全員のβ/α比の平均値における極大値、または視聴者のうちの任意のβ/α比における極大値に基づいて閾値を脳波処理部202(または202A)が設定するようにしてもよい。
視覚効果処理部204(または204A)は、視覚効果画像の生成を、各視聴者のβ/α比や、複数の視聴者のβ/α上昇の統合演算結果に対して、確率的な決定を用いる等、閾値処理以外の方法で視覚効果生成を決定するようにしてもよい。さらに、視覚効果処理部204(または204A)は、演出効果の生成に用いる閾値や確率的な決定を、楽曲の進行に合わせて変更してもよい。
<複数の視聴者の脳波を用いた一体感のあるライブ演出のしくみ>
ここで、複数の視聴者の脳波を用いた一体感のあるライブ演出のしくみについて説明する。
上述した複数の視聴者の脳波を用いた一体感のあるライブ演出のしくみでは、いずれの実施形態でも、以下の段階のフィードバック構造がある。
段階1;ライブの楽曲進行による各ユーザのβ/α比の上昇
段階2;各ユーザのβ/α比が統合的に判定され視覚効果が出現
段階3;視覚効果による各ユーザのβ/α比の上昇
段階4;視覚効果の出現
段階5;視覚効果の視聴による各ユーザのβ/α比の上昇
段階5以降、段階2に続く
これはダイナミカルシステム(力学系理論)の抽象的な数理モデルである「大域結合写像」の構造に相当する。大域結合写像は、個々の構成要素がそれらの変動を統合したフィードバックを入力として受ける集団のモデルであり、個々の要素の変動が一様に同期、部分的に同期、各パターンをカオス的に遍歴するといった集団的振る舞いが生成することが知られている。
実施形態では、各ユーザと脳反応によるβ/α比の変動が個々の構成要素とその変動に対応し、各ユーザのβ/α比を統合的に判定し視覚効果生成コマンドを生成することがフィードバックに相当する。
ライブ演出システム1(1A)を使用する状況では、各ユーザのβ/α比の変動に大域結合写像で知られるような集団的振る舞いが生じる、視聴者の一人では得られないβ/α比上昇による仮想ライブの一体感の実感を実現することができる。
<大域結合写像による数理モデル化とシミュレーション>
次に、大域結合写像による数理モデル化とシミュレーションについて説明する。
上述した大域結合写像として集団的振る舞いが生成される具体例として、各ユーザのβ/α比の変動を「楽曲進行と視覚効果の入力により上昇し、上昇しきると減衰する」Integrate−And−Fireでモデル化し、これらβ/α比の平均値がフィードバック入力となる大域結合写像をモデル化し、数値シミュレーションを行った。
図21は、視覚効果を介した複数ユーザの脳波間に生じる集団的振る舞いの予想図である。図21において、横軸は、経過時間である。また、縦軸は、視聴に用いた楽曲信号、視覚効果画像の有無、および視聴者の番号を示している。また、符号g301が示す領域は、各視聴者のβ/α比の経過時間における変化を示している。また、符号301における階調は、符号g321に示すようにβ/α比である。また、符号g311は、楽曲信号におけるサビの期間を表している。
図21に示すように、ユーザのβ/α比が同期して上昇し持続する様子が見られた。また、楽曲進行で上昇した後、視覚効果を介して同期した上昇が繰り返される様子が見られた。
このように本発明で提案するシステムは大域結合写像による数理モデルをシミュレーションすることで、生成される集団的振る舞いを予想でき、「各ユーザから送信されたβ/α比を統合的に判定する」の設計に利用できる。
なお、上述した数理モデルは一例であり、数理モデルはこれに限らない。
<第3実施形態>
第1実施形態と第2実施形態では、生体情報として脳波を用いる例を説明したが、これに限らない。実施形態では、生体情報として、心拍を用いる例を説明する。
図22は、本実施形態に係るライブ演出システム1Bの構成例を示すブロック図である。図22に示すように、ライブ演出システム1Bは、生体情報測定部50a、50b,50c,・・・、制御装置20B、表示装置60a、60b,60c,・・・、スピーカー40a、40b,40c,・・・を備えている。以下、生体情報測定部50a、50b,50c,・・・のうち1つを特定しない場合、生体情報測定部50という。また、表示装置60a、60b,60c,・・・のうち1つを特定しない場合、表示装置60という。
また、制御装置20Bは、生体情報取得部201B、生体情報処理部202B、記憶部203、視覚効果処理部204、画像処理部205、素材格納部206、ライブ映像生成部207、および音声出力部208を備える。
なお、第1実施形態のライブ演出システム1と同様の機能を有する機能部には同じ符号を用いて、説明を省略する。また、図22は、第1実施形態のライブ演出システム1に本実施形態を適用した例であるが、本実施形態を第2実施形態のライブ演出システム1Aに適用することも可能である。
生体情報測定部50は、心拍計である。生体情報測定部50は、例えばスマートウォッチが有するセンサであってもよい。生体情報測定部50は、測定した生体情報に生体情報測定部50の識別情報を付与して制御装置20Bに出力する。なお、生体情報測定部50と制御装置20Bとは、有線によって接続されていてもよく、無線によって接続されていてもよい。
表示装置60は、VRHMDであり、表示部、画像処理部、光学系等を有する。表示装置60は、制御装置20Bが出力する画像信号を生成する。なお、制御装置20Bと表示装置60とは、有線によって接続されていてもよく、無線によって接続されていてもよい。
生体情報取得部201Bは、複数の生体情報測定部50それぞれが出力した生体情報を取得し、取得した生体情報を生体情報処理部202Bに出力する。なお、生体情報には、当該脳波を出力した生体情報測定部50の識別情報が付与されている。
生体情報処理部202Bは、生体情報取得部201Bが出力する生体情報から心拍変動を算出する。生体情報処理部202Bは、算出した心拍変動を視覚効果処理部204Bに出力する。
記憶部203Bは、画像処理部205が視覚効果の生成に用いる画像を記憶する。
視覚効果処理部204Bは、記憶部203Bが記憶する閾値を用いて、生体情報処理部202Bが出力する心拍変動が上昇した場合に視覚効果生成指示を生成する。視覚効果処理部204Bは、生成した視覚効果生成指示を画像処理部205に出力する。
心拍変動の指標としては、数十秒から数分間の心拍数を用いて算出されるRRI(R−R Interva;R波の間隔)、SDNN(Standard Deviation of the NN intervals;RRIの標準偏差)、RRV(R−R Variation;RRIの分散とRRIの平均値の2乗の比)、RMSSD(Root Mean Square of Successive Differences;隣接するRRIの差の2乗)、NN50(隣接するRRIの差が50msを超える総数)、pNN50(隣接するRRIの差が50msを超える割合)、LF(心拍変動のパワースペクトルの0.05Hzから0.15Hzの低周波帯の成分)、HF(心拍変動のパワースペクトルの0.15〜0.40Hzの高周波帯の成分)、HF/LF(LFとHFとの比)などが考えられる。
なお、これらの心拍変動は、心電図を用いて計測してもよく、スマートウォッチなどの脈波計測から近似的に計算して用いてもよい。
ここで、心拍変動から視覚効果生成指示を生成する手法例を説明する
図23は、心拍変動から生成した視覚効果生成指示の生成例を示す図である。図23において、横軸は時間であり、縦軸は心拍による視覚効果の生成指示、心拍数である。
生体情報取得部201Bは、心拍数[bpm]を例えば20ms刻みで値を取得する。なお、例えば参考文献1のようにスマートウォッチから取得した情報に基づいて心拍数を算出する場合は、拍動が得られる度に心拍数が算出される。このような場合、サンプリング周期は、心拍間隔と同じで約1秒前後で一定ではない。
そして、生体情報処理部202Bは、前回した計測値と比較して心拍数の増加分が閾値より上昇したときに視覚効果生成指示を生成する。なお、心拍変動から視覚効果生成指示を生成する手法は、例えば以下の参考文献1参照。
参考文献1;和田みなみ,渡部恵梨,堀江亮太,「没入型ヘッドマウントディスプレイと生体信号を用いた仮想ライブ体験システムの開発」,電子情報通信学会技術研究報告,116(520,MBE2016-102)巻,pp.95-98,2017
なお、上述した心拍変動から視覚効果生成指示を生成する手法は一例であり、これに限らない。例えば心拍は、第2実施形態と同様に、視聴者全員の平均値であってもよく、あるいは視聴者全員のうちの任意の視聴者の心拍であってもよい。
制御装置20Bは、第1実施形態と同様に視聴者毎に生成した視覚効果画像を全ての視聴者に提供する。これにより、本実施形態では、生体情報として心拍を用いることで、第1実施形態と同様の効果を得ることができる。
または、制御装置20Bは、第2実施形態と同様に複数の視聴者の心拍に基づいて生成した視覚効果画像を全ての視聴者に提供する。これにより、本実施形態では、生体情報として心拍を用いることで、第2実施形態と同様の効果を得ることができる。
なお、上述した例では、生体情報として心拍を用いる例を説明したが、生体情報は例えば発汗等、心拍以外であってもよい。
なお、生体信号の特徴量の処理方法は、第1実施形態、第2実施形態、第3実施形態で説明した処理方法には限らない。例えば、生体信号の閾値処理をして演出効果を生成するとき、瞬時値だけではなく、瞬時値の値を時間で累積した値を用いて処理するようにしてもよい。ここで、累積値は、閾値を超えて演出効果を生成したら、閾値以下の値(ゼロなど)にリセットされる。
<他の実施例>
第1実施形態、第2実施形態、第3実施形態では、視聴者がVRHMDを装着する例を説明したが、これに限らない。視聴者は、例えばスクリーンや実際にライブ会場にいてライブを実際に見るようにしてもよい。また、視聴者は、これら特記した会場ではなく『ネットワークを介して自宅のPCやスマートデバイスで視聴している視聴者』であってもよい。
[第1実施例]
ライブ演出システムの構成は、第3実施形態のライブ演出システム1B(図22)と同様である。以下の例において、生体情報測定部50は、脳波計である。表示装置60は、例えばライブ映像が配信される会場に設置されているスクリーンである。また、生体情報処理部202Bと脳波処理部202(図2)(または脳波処理部202A(図17))と同様の処理を行い、視覚効果処理部204Bは、視覚効果処理部204と同様の処理を行う。なお、表示装置60は、少なくとも1つあればよい。
この第1実施例では、ライブが行われる際に、コンサート会場から配信されるライブ映像を、各地の会場に集まっている視聴者がスクリーンによって視聴する。会場で視聴している視聴者は生体情報測定部50を装着している。制御装置20Bは、複数の生体情報測定部50に基づいて視覚効果生成指示し、生成した視覚効果生成指示に基づいて視覚効果画像を生成する。制御装置20Bは、生成した視覚効果画像を配信されたライブ映像に付与してスクリーンである表示装置60に表示させる。
以上のように、第1実施例によれば、会場にいる視聴者の生体情報に基づいて、スクリーンに表示されるライブ映像に視覚効果画像を付与できるので、会場にいす視聴者との一体感を体験することが出来る。なお、第1実施例においても、生体情報は心拍であってもよい。
[第2実施例]
第1実施例では、ライブ会場が1つの例を説明したが、ライブ会場は複数であってもよい。この場合、例えば、表示装置60aが第1のライブ会場に設置され、表示装置60bが第2のライブ会場に設置され、表示装置60cが第3のライブ会場に設置される。制御装置20Bは、第1実施形態と同様に、複数の視聴者毎に視覚効果画像を生成して全ての視聴者に提供してもよい。または、制御装置20Bは、第2実施形態と同様に、複数のライブ会場にいる全ての視聴者の生体情報に基づいて視覚効果画像を生成して全ての視聴者に提供してもよい。あるいは、制御装置20Bは、ライブ会場毎に処理するようにしてもよい。
ここで、ライブ会場毎に処理する例を説明する。以下の例では生体情報が脳波であるとする。まず、制御装置20Bは、各ライブ会場にいる視聴者が装着する生体情報測定部50から情報を取得することで、生体情報測定部50とライブ会場とを紐付ける。
制御装置20Bは、第1のライブ会場の視聴者それぞれの脳波を取得し、取得した脳波のβ/α比に平均値を算出する。制御装置20Bは、算出したβ/α比に平均値に基づいて第1のライブ会場に対する視覚効果画像を生成する。同様に、制御装置20Bは、第2のライブ会場から取得した脳波のβ/α比に平均値を算出し、算出したβ/α比に平均値に基づいて第2のライブ会場に対する視覚効果画像を生成する。制御装置20Bは、第3のライブ会場から取得した脳波のβ/α比に平均値を算出し、算出したβ/α比に平均値に基づいて第3のライブ会場に対する視覚効果画像を生成する。
これにより、第2実施例によれば、複数のライブ会場にライブ映像を配信する場合、会場毎に異なる視覚効果画像を提供することができる。これにより、会場毎に一体感を生み出すことが出来、かつ会場毎に発生する視覚効果画像によって盛り上がりを競うことができる。
[第3実施例]
ライブ会場が1つであっても、1つの会場を複数のエリアに分けて処理を行うようにしてもよい。例えば、来場会場がアリーナクラスの場合もある。このような場合、制御装置20Bは、アリーナ席のエリア(第1エリア)、1階席のエリア(第2エリア)、2階席のエリア(第3エリア)等にエリアを分割するようにしてもよい。
制御装置20Bは、第1実施形態と同様に、この3つのエリアにいる視聴者毎に視覚効果画像を生成して全ての視聴者に提供してもよい。または、制御装置20Bは、第2実施形態と同様に、複数のエリアにいる全ての視聴者の生体情報に基づいて視覚効果画像を生成して全ての視聴者に提供してもよい。あるいは、制御装置20Bは、エリア毎に処理するようにしてもよい。
ここで、エリア毎に処理する例を説明する。以下の例では生体情報が脳波であるとする。まず、制御装置20Bは、各エリアにいる視聴者が装着する生体情報測定部50から情報を取得することで、生体情報測定部50とエリアとを紐付ける。例えば、エリア毎に生体情報測定部50をオン状態にすることで紐付けるようにしてもよい。
制御装置20Bは、第1エリアの視聴者それぞれの脳波を取得し、取得した脳波のβ/α比に平均値を算出する。制御装置20Bは、算出したβ/α比に平均値に基づいて第1エリアに対する視覚効果画像を生成する。同様に、制御装置20Bは、第2エリアから取得した脳波のβ/α比に平均値を算出し、算出したβ/α比に平均値に基づいて第2エリアに対する視覚効果画像を生成する。制御装置20Bは、第3エリアから取得した脳波のβ/α比に平均値を算出し、算出したβ/α比に平均値に基づいて第3エリアに対する視覚効果画像を生成する。
これにより、第3実施例によれば、配信先であるライブ会場にライブ映像を配信する場合、会場のエリア毎に異なる視覚効果画像を提供することができる。これにより、第3実施例では、会場毎に一体感を生み出すことが出来、かつエリア毎に発生する視覚効果画像によって盛り上がりを競うことができる。
[第4実施例]
第1実施例、第2実施例、および第3実施例では、ライブ映像をライブ会場に配信する例を説明したが、これに限らない。コンサート会場に、上述した第1実施形態、第2実施形態、および第3実施形態を適用してもよい。
この場合、コンサート会場に来ている観客が視聴者である。表示装置60(図22)は、コンサート会場に設置されるスクリーンであってもよく、ライティング装置等であってもよい。スピーカー40は、コンサート会場に設置されるスピーカーである。観客に生体情報測定部50を装着してもらうことで、制御装置20Bが観客の生体情報を取得する。そして、制御装置20Bは、取得した生体情報に基づいて視覚効果画像を生成する。この場合も、制御装置20Bは、第1実施形態のように観客毎に視覚効果画像を生成してもよく、第2実施形態と同様に全ての観客の生体情報の脳波のβ/α比に平均値に基づいて視覚効果画像を生成するようにしてもよい。あるいは、制御装置20Bは、コンサート会場を複数のエリアに分割して第3実施例と同様にエリア毎のβ/α比に平均値に基づいてエリア毎に視覚効果画像を生成するようにしてもよい。
これにより、第4実施例によれば、コンサート会場において観客の反応に基づく視覚効果画像を観客全てに提供することができる。これにより、観客の一体感を生み出すことができる。
また、第4実施例では、コンサート会場をエリアに分けた場合、エリア毎に異なる視覚効果画像を提供することができる。これにより、第4実施例では、エリア毎に一体感を生み出すことが出来、かつエリア毎に発生する視覚効果画像によって盛り上がりを競うことができる。
また、第1実施例〜第4実施例では、ライブ会場、ライブビューイング会場、コンサート会場での使用について説明したが、これに限らない。これら多様な、各地のライブ会場、ライブビューイング会場、コンサート会場で視聴している視聴者、またはPC(パーソナルコンピュータ(含むノートパソコン、タブレット端末)やスマートデバイスで視聴している個人視聴者、そして演者や演出者における、生体信号全による演出効果が、ネットワークを介して互いに共有され、「生体信号で世界を繋げるライブ」が可能となる。
[第5実施例]
上述した実施形態、実施例では、視聴者全てに生体情報測定部50を装着する例を説明したが、これに限らない。例えば、視聴者の中から特定の人のみが生体情報測定部50を装着するようにしてもよい。特定の人は、演出を行う人でもよく、またはコンサートの進行に影響を与える親衛隊的な人であってもよい。
この場合、制御装置20Bは、生体情報測定部50を装着している視聴者にアバターを割り当てるようにしてもよい。そして、生体情報測定部50は、さらにジェスチャーセンサを備え、視聴者の動作を制御装置20Bに出力するようにしてもよい。制御装置20Bは、センサが出力する計測値に基づいて視聴者の動作を求め、求めた視聴者の動作に基づいてアバターを操作して視覚効果画像を生成するようにしてもよい。
[第6実施例]
上述した実施形態、実施例では、視聴者に生体情報測定部50を装着する例を説明したが、演者が装着するようにしてもよい。
この場合、制御装置20Bは、演者が装着する生体情報測定部50の生体情報に基づいて視覚効果画像を生成し、観客が装着する生体情報測定部50の生体情報に基づいて視覚効果画像を生成するようにしてもよい。なお、演者が装着する生体情報測定部50は、ジェスチャーセンサを含む。
そして、制御装置20Bは、演者にアバターを割り当て、ジェスチャーセンサの出力に基づいて演者に対応するアバターの動作を制御して視覚効果画像を生成するようにしてもよい。これにより、演者が操作する演者のキャラクターの動きや、演者の生体信号で生成された視覚効果を、視聴者が見ることができる。なお、制御装置20Bは、演者の動作に応じてアバターやキャラクターを生成して、スクリーン等へ投影するだけではなく、人間の演者の映像に視覚効果を重ねるように投影するようにしてもよい。この場合、制御装置20Bは、演者の動作を検出する撮影部を更に備え、撮影された画像を画像解析して、演者の映像に視覚効果を重ねるように投影するようにしてもよい。
また、制御装置20Bは、視聴者に基づく視覚効果画像を視聴者のアバターから生成し、これを演者から見ることができるようにしてもよい。もしくは、制御装置20Bは、視聴者と演者の生体信号を総合的に判断して視覚効果を生成するようにしてもよい。また、制御装置20Bは、視聴者によって視聴位置を異ならせ視覚効果がその方向に生成するようにしてもよい。
[第7実施例]
なお、上述した実施形態、実施例では、生体情報に基づいて視覚効果画像を生成して、生成した視覚効果画像を視聴者や観客に提供する例を説明したが、これに限らない。
制御装置20(または20A、20B)は、生体情報に基づいて演出効果を生成し、生成した演出効果を視聴者や観客に提供するようにしてもよい。演出効果は、例えば、音響信号、匂い、振動、および光(ライティング)、拡張現実(AR)や複合現実(MR)による演出効果のうちの少なくとも1つである。
[第8実施例]
第1実施形態で説明したライブ演出システムの実装例を説明する。
図24は、第1実施形態のライブ演出システムの実装例を示す図である。図24に示すようにライブ演出システム1Cは、複数の脳波計10(生体情報測定部)、複数の第1制御装置70、複数のVRHMD30、複数の第2制御装置80、およびサーバ90を備える。視聴者毎に、脳波計10と第1制御装置と第2制御装置とVRHMD30を備える。
第1制御装置70は、スマートフォンやタブレット端末等の携帯端末である。制御装置20の脳波取得部201と脳波処理部202の機能部の処理を行う。第1制御装置70は、脳波計10から受信した脳波データからα波成分とβ波成分を抽出してβ/α比を算出する。第1制御装置70は、算出したβ/α比を、第2制御装置80へ送信する。
第2制御装置80は、例えばパーソナルコンピュータである。第2制御装置80は、処理部81と仮想ライブ部(クライアント)82を備える。仮想ライブ部82は、通信部を含んで構成されている。処理部81は、制御装置20(図1)の記憶部203、および視覚効果処理部204の機能部の処理を行う。仮想ライブ部82は、画像処理部205、ライブ映像生成部207、および音声出力部208の機能部の処理を行う。処理部81は、受信したβ/α比と閾値と比較して視覚効果生成指示を生成し、生成した視覚効果生成指示を仮想ライブ部82に出力する。仮想ライブ部82は、視覚効果生成指示をサーバ90に送信する。
サーバ90は、仮想ライブ部91と記憶部92を含んで構成させる。仮想ライブ部91は、通信部を含んで構成されている。仮想ライブ部91は、視覚効果生成指示を受信すると、視覚効果画像を再生し、視覚効果生成決定情報を全ての第2制御装置80それぞれの仮想ライブ部82に送信する。
第2制御装置80の仮想ライブ部82は、視覚効果生成決定情報を受信すると、視覚効果画像を再生する。なお、視聴者毎に視覚効果画像の色を分けるようにしてもよい。第2制御装置80は、映像をVRHMD30上で再生する。
第2制御装置80は、映像の再生と並行して、第1制御装置70から受信したβ/α比をサーバ90に送信する。
サーバ90は、視聴者毎のβ/α比を記憶部92に記録する。
以上の処理により、サーバ90側で第2制御装置80から受信したβ/α比に基づいた視覚効果再生を決定し、かつ視聴者のβ/α比集中度の記録が可能となる。
なお、上述した各装置の構成と処理は一例であり、これに限らない。第1制御装置70と第2制御装置80とサーバ90とは、図2に示したように1つの装置であってもよい。または、第1制御装置70と第2制御装置80が1つの装置であってもよい。あるいは、第2制御装置80とサーバ90とが1つの装置であってもよい。第2制御装置80とサーバ90とが1つの装置の場合、この装置が複数の第1制御装置70からのβ/α比を受信して処理する。
[第9実施例]
第2実施形態で説明したライブ演出システムの実装例を説明する。
図25は、第2実施形態のライブ演出システムの実装例である。図25に示すようにライブ演出システム1Cは、複数の脳波計10、複数の第1制御装置70、複数のVRHMD30、複数の第2制御装置80D、およびサーバ90Dを備える。視聴者毎に、脳波計10と第1制御装置と第2制御装置とVRHMD30を備える。なお、図24に示したライブ演出システム1Cと同様の機能を有する構成要素には同じ符号を用いて、説明を省略する。
第2制御装置80Dは、例えばパーソナルコンピュータである。第2制御装置80Dは、処理部81Dと仮想ライブ部(クライアント)82を備える。仮想ライブ部82は、通信部を含んで構成されている。処理部81Dは、受信したβ/α比をサーバ90Dに送信する。
サーバ90Dは、仮想ライブ部91Dと記憶部92と処理部93を含んで構成させる。仮想ライブ部91Dは、通信部を含んで構成されている。処理部93は、通信部を含んで構成されている。処理部93は、第2制御装置80Dから受信したβ/α比と閾値とを比較し、比較した結果に基づいて視覚効果生成指示を生成する。処理部93は、生成した視覚効果生成指示を第2制御装置80Dの仮想ライブ部82Dに出力する。
第2制御装置80Dの仮想ライブ部82Dは、視覚効果生成指示に対応した視覚効果生成情報を、サーバ90上の仮想ライブ部91Dに送信する。
サーバ90Dの仮想ライブ部91Dは、視覚効果生成情報を受信すると、視覚効果画像を再生し、視覚効果生成決定情報を第2制御装置80Dの仮想ライブ部82Dに送信する。
第2制御装置80Dの仮想ライブ部82Dは、視覚効果生成決定情報を受信すると、視覚効果画像を再生する。第2制御装置80Dは、映像をVRHMD30上で再生する。
以上の処理により、サーバ90D側で、第2制御装置80Dの視聴者のβ/α比の統合演算に基づいた視覚効果再生を決定し、かつ視聴者のβ/α比集中度の記録が可能となる。
なお、上述した各装置の構成と処理は一例であり、これに限らない。第1制御装置70と第2制御装置80Dとサーバ90Dとは、図17に示したように1つの装置であってもよい。または、第1制御装置70と第2制御装置80Dが1つの装置であってもよい。あるいは、第2制御装置80Dとサーバ90Dとが1つの装置であってもよい。第2制御装置80Dとサーバ90Dとが1つの装置の場合、この装置が複数の第1制御装置70からのβ/α比を受信して処理する。
以上のように、各実施形態、各実施例で説明した複数の視聴者が脳波を介してVR環境のライブに参加することでライブ参加の一体感が得られるシステムは、複数の視聴者が脳波を介してVR環境のライブに参加することでライブ参加の一体感が得られる。このため、複数の視聴者が脳波を介してVR環境のライブに参加することでライブ参加の一体感が得られるシステムは、今後のエンターテイメントの新しい形を提供することができる。また、ライブ演出システム1(または1A、1B)は、エンターテイメントに応用される効果が期待される。
また、ライブ演出システム1(または1A、1B)は、視聴者や観客に脳波測定のみを要するため、四肢障がい者が能動的に参加でき、ライブ参加の一体感が得られる新しい仮想ライブのしくみを提供することができる。このため、ライブ演出システム1(または1A、1B)は、バリアフリーなエンターテイメントの実現に応用される効果も期待される。
なお、上述した実施形態や実施例では、コンサートへの適用例を説明したが、ライブ演出システム1(または1A,1B,1C,1D)の適用は、これに限らない。ライブ演出システム1(または1A,1B,1C,1D)は、例えば、講演会(TEDスピーチをイメージ)や、新商品の発表会でのスピーチや、学校等での授業などへ適用することも可能である。
なお、本発明における制御装置20(または20A、20B)の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより制御装置20(または20A、20B)が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
1,1A,1B,1C,1D…ライブ演出システム、10,10a,10b,10c,・・・…脳波計、20,20A…制御装置、201…脳波取得部、201B…生体情報取得部、202,202A…脳波処理部、202B…生体情報処理部、203,203B…記憶部、204,204A,204B…視覚効果処理部、205…画像処理部、206…素材格納部、207…ライブ映像生成部、208…音声出力部、30,30a,30b,30c,・・・…VRHMD、40,40a,40b,40c,・・・…スピーカー、50,50a,50b,50c,・・・…生体情報測定部、70…第1制御装置、80,80D…第2制御装置、81,81D…処理部、82…仮想ライブ部、90,90D…サーバ、91,91D…仮想ライブ部、92…記憶部、93…処理部

Claims (11)

  1. n個(nは2以上の整数)の生体情報測定部であって、ライブに参加するn人それぞれが装着し、生体情報を測定する生体情報測定部と、
    前記n個の前記生体情報測定部それぞれが測定した前記生体情報と閾値とを比較した結果に基づいて演出効果を生成し、生成した前記演出効果を、前記n人に共有させる制御装置と、
    を備えるライブ演出システム。
  2. 前記制御装置は、前記n個の前記生体情報測定部それぞれが測定した前記生体情報毎に、前記生体情報と前記閾値とを比較した結果に基づいて前記演出効果を生成する、請求項1に記載のライブ演出システム。
  3. 前記制御装置は、前記n個の前記生体情報測定部それぞれが測定した前記生体情報の平均値と閾値とを比較した結果に基づいて前記演出効果を生成する、請求項1に記載のライブ演出システム。
  4. 前記制御装置は、前記n個の前記生体情報測定部それぞれが測定した前記生体情報の最大値と閾値とを比較した結果に基づいて前記演出効果を生成する、請求項1に記載のライブ演出システム。
  5. 前記制御装置は、前記n個の前記生体情報測定部それぞれが測定した前記生体情報のうち上位m(mは2以上かつn以下の整数)個の平均値と閾値とを比較した結果に基づいて前記演出効果を生成する、請求項1に記載のライブ演出システム。
  6. 前記制御装置は、前記n個の生体情報測定部を装着した人がいる領域を複数の領域に分け、複数の前記領域毎に前記演出効果を生成する、請求項1から請求項5のいずれか1項に記載のライブ演出システム。
  7. 前記閾値は複数であり、
    前記生体情報に基づく値が第1の値以上且つ第2の値未満である第1の閾値の範囲の場合に第1の前記演出効果を生成し、前記生体情報に基づく値が第2の値以上である第2の閾値以上の場合に第2の前記演出効果を生成する、請求項1から請求項6のいずれか1項に記載のライブ演出システム。
  8. 前記生体情報は、脳波であり、
    前記制御装置は、前記脳波から少なくともα波成分とβ波成分とを抽出し、前記β波成分を前記α波成分で除算してβ/α比を算出し、算出した前記β/α比と前記閾値とを比較した結果に基づいて前記演出効果を生成する、請求項1から請求項7のいずれか1項に記載のライブ演出システム。
  9. 前記生体情報は、心拍であり、
    前記制御装置は、現時点より前の時点で計測した心拍数と、前記現時点で測定した心拍数との増加分が閾値以上に上昇したときに前記演出効果を生成する、請求項1から請求項7のいずれか1項に記載のライブ演出システム。
  10. 前記演出効果は、画像、映像、音響信号、匂い、振動、光のうちのすくなくとも1つである、請求項1から請求項9のいずれか1項に記載のライブ演出システム。
  11. ライブに参加するn人(nは2以上の整数)それぞれが装着されるn個の生体情報測定部が、生体情報を測定するステップと、
    制御装置が、前記n個の前記生体情報測定部それぞれが測定した前記生体情報と閾値とを比較した結果に基づいて演出効果を生成し、生成した前記演出効果を、前記ライブに参加する複数の人に共有させるステップと、
    を含むライブ演出方法。
JP2018127833A 2018-07-04 2018-07-04 ライブ演出システム、およびライブ演出方法 Active JP7216394B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018127833A JP7216394B2 (ja) 2018-07-04 2018-07-04 ライブ演出システム、およびライブ演出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018127833A JP7216394B2 (ja) 2018-07-04 2018-07-04 ライブ演出システム、およびライブ演出方法

Publications (2)

Publication Number Publication Date
JP2020009027A true JP2020009027A (ja) 2020-01-16
JP7216394B2 JP7216394B2 (ja) 2023-02-01

Family

ID=69151617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018127833A Active JP7216394B2 (ja) 2018-07-04 2018-07-04 ライブ演出システム、およびライブ演出方法

Country Status (1)

Country Link
JP (1) JP7216394B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059784A1 (ja) * 2020-09-18 2022-03-24 株式会社Jvcケンウッド 情報提供装置、情報提供方法及びプログラム
WO2022190917A1 (ja) * 2021-03-09 2022-09-15 ソニーグループ株式会社 情報処理装置、情報処理端末、情報処理方法、およびプログラム
WO2022230137A1 (ja) * 2021-04-28 2022-11-03 株式会社I’mbesideyou 動画像分析システム
WO2023037606A1 (ja) * 2021-09-07 2023-03-16 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
WO2023042436A1 (ja) * 2021-09-16 2023-03-23 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
KR20240117576A (ko) 2021-12-27 2024-08-01 알프스 알파인 가부시키가이샤 배포 시스템, 배포 방법 및 프로그램
JP7543356B2 (ja) 2022-09-21 2024-09-02 株式会社コロプラ プログラムおよび情報処理システム
JP7567311B2 (ja) 2020-09-18 2024-10-16 株式会社Jvcケンウッド 情報提供装置、情報提供方法及びプログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005058449A (ja) * 2003-08-12 2005-03-10 Sony Corp 感情の可視化装置および感情の可視化方法、感情の可視化出力物
JP2005303722A (ja) * 2004-04-13 2005-10-27 Nippon Telegr & Teleph Corp <Ntt> 一体感を伝える通信システム
JP2007121798A (ja) * 2005-10-31 2007-05-17 Denso Corp 車両用表示装置
JP2011182109A (ja) * 2010-02-26 2011-09-15 Sony Corp コンテンツ再生装置
JP2012113589A (ja) * 2010-11-26 2012-06-14 Nec Corp 行動促進装置、行動促進方法およびプログラム
WO2016009865A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置及び方法、表示制御装置及び方法、再生装置及び方法、プログラム、並びに情報処理システム
US20160027209A1 (en) * 2014-07-25 2016-01-28 mindHIVE Inc. Real-time immersive mediated reality experiences
JP2016051675A (ja) * 2014-09-02 2016-04-11 カシオ計算機株式会社 演出制御システム、通信端末および演出制御装置
WO2016088566A1 (ja) * 2014-12-03 2016-06-09 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP2017219919A (ja) * 2016-06-03 2017-12-14 エスディーテック株式会社 イベント盛況度解析システム、サーバ、生体情報取得装置、イベント盛況度解析方法及びプログラム
JP2018094326A (ja) * 2016-12-16 2018-06-21 株式会社バンダイナムコエンターテインメント イベント制御システム、イベント通知システム及びプログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005058449A (ja) * 2003-08-12 2005-03-10 Sony Corp 感情の可視化装置および感情の可視化方法、感情の可視化出力物
JP2005303722A (ja) * 2004-04-13 2005-10-27 Nippon Telegr & Teleph Corp <Ntt> 一体感を伝える通信システム
JP2007121798A (ja) * 2005-10-31 2007-05-17 Denso Corp 車両用表示装置
JP2011182109A (ja) * 2010-02-26 2011-09-15 Sony Corp コンテンツ再生装置
JP2012113589A (ja) * 2010-11-26 2012-06-14 Nec Corp 行動促進装置、行動促進方法およびプログラム
WO2016009865A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置及び方法、表示制御装置及び方法、再生装置及び方法、プログラム、並びに情報処理システム
US20160027209A1 (en) * 2014-07-25 2016-01-28 mindHIVE Inc. Real-time immersive mediated reality experiences
JP2016051675A (ja) * 2014-09-02 2016-04-11 カシオ計算機株式会社 演出制御システム、通信端末および演出制御装置
WO2016088566A1 (ja) * 2014-12-03 2016-06-09 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP2017219919A (ja) * 2016-06-03 2017-12-14 エスディーテック株式会社 イベント盛況度解析システム、サーバ、生体情報取得装置、イベント盛況度解析方法及びプログラム
JP2018094326A (ja) * 2016-12-16 2018-06-21 株式会社バンダイナムコエンターテインメント イベント制御システム、イベント通知システム及びプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059784A1 (ja) * 2020-09-18 2022-03-24 株式会社Jvcケンウッド 情報提供装置、情報提供方法及びプログラム
JP7567311B2 (ja) 2020-09-18 2024-10-16 株式会社Jvcケンウッド 情報提供装置、情報提供方法及びプログラム
WO2022190917A1 (ja) * 2021-03-09 2022-09-15 ソニーグループ株式会社 情報処理装置、情報処理端末、情報処理方法、およびプログラム
WO2022230137A1 (ja) * 2021-04-28 2022-11-03 株式会社I’mbesideyou 動画像分析システム
WO2023037606A1 (ja) * 2021-09-07 2023-03-16 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
WO2023042436A1 (ja) * 2021-09-16 2023-03-23 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
KR20240117576A (ko) 2021-12-27 2024-08-01 알프스 알파인 가부시키가이샤 배포 시스템, 배포 방법 및 프로그램
JP7543356B2 (ja) 2022-09-21 2024-09-02 株式会社コロプラ プログラムおよび情報処理システム

Also Published As

Publication number Publication date
JP7216394B2 (ja) 2023-02-01

Similar Documents

Publication Publication Date Title
JP7216394B2 (ja) ライブ演出システム、およびライブ演出方法
JP6923245B2 (ja) 観衆ベースのハプティック
Van Dyck et al. The impact of the bass drum on human dance movement
Stienstra et al. Embodying complexity through movement sonification: case study on empowering the speed-skater
CN111936036A (zh) 使用生物特征传感器数据检测神经状态来指导现场娱乐
Chen et al. Exploring the design space for multi-sensory heart rate feedback in immersive virtual reality
Kobayashi et al. The effects of spatialized sounds on the sense of presence in auditory virtual environments: a psychological and physiological study
Matsuda et al. Enhancing virtual walking sensation using self-avatar in first-person perspective and foot vibrations
Kim et al. A tactile glove design and authoring system for immersive multimedia
Yan et al. Enhancing audience engagement in performing arts through an adaptive virtual environment with a brain-computer interface
Munoz-Gonzalez et al. A multiplayer vr live concert with information exchange through feedback modulated by eeg signals
Robinson et al. All the feels: Introducing biometric data to online gameplay streams
Mullen et al. MindMusic: playful and social installations at the interface between music and the brain
Grandchamp et al. The brainarium: an interactive immersive tool for brain education, art, and neurotherapy
Garner et al. Applications of virtual reality
Tennent et al. The machine in the ghost: augmenting broadcasting with biodata
Yan et al. Exploring audience response in performing arts with a brain-adaptive digital performance system
Burger et al. See how it feels to move: relationships between movement characteristics and perception of emotions in dance
Zioga et al. Enheduanna–A Manifesto of Falling: first demonstration of a live brain-computer cinema performance with multi-brain BCI interaction for one performer and two audience members
WO2022190919A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230009322A1 (en) Information processing device, information processing terminal, and program
May et al. Designing Access in Sound Art Exhibitions: Centering Deaf Experiences in Musical Thinking
US20230033892A1 (en) Information processing device and information processing terminal
Park et al. Research Trends in Virtual Reality Music Concert Technology: A Systematic Literature Review
Meng et al. Towards enhancing a recorded concert experience in virtual reality by visualizing the physiological data of the audience

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230113

R150 Certificate of patent or registration of utility model

Ref document number: 7216394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150