JP2016197350A - 情報伝送装置、行動体感システム、情報伝送方法および行動体感方法 - Google Patents

情報伝送装置、行動体感システム、情報伝送方法および行動体感方法 Download PDF

Info

Publication number
JP2016197350A
JP2016197350A JP2015077243A JP2015077243A JP2016197350A JP 2016197350 A JP2016197350 A JP 2016197350A JP 2015077243 A JP2015077243 A JP 2015077243A JP 2015077243 A JP2015077243 A JP 2015077243A JP 2016197350 A JP2016197350 A JP 2016197350A
Authority
JP
Japan
Prior art keywords
control signal
performer
actor
wearable device
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015077243A
Other languages
English (en)
Inventor
浩章 稲田
Hiroaki Inada
浩章 稲田
馨 板垣
Kaoru Itagaki
馨 板垣
Original Assignee
シャープ株式会社
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社, Sharp Corp filed Critical シャープ株式会社
Priority to JP2015077243A priority Critical patent/JP2016197350A/ja
Publication of JP2016197350A publication Critical patent/JP2016197350A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】演技者の能動的な行動を、複数の観客に体感として伝える。【解決手段】情報伝送装置(40)は、センシングされた演技者行動の情報を取得する取得部(41)と、演技者行動に応じた感覚刺激を装着者に与える動作をウェアラブル機器(1)にさせる制御信号を生成する制御信号生成部(43)と、制御信号を、複数のウェアラブル機器にブロードキャスト送信する送信部(44)とを備える。【選択図】図3

Description

本発明は、情報伝送装置、および、行動を他者に体感させるシステムに関する。

従来より、コンサート会場の雰囲気を再現する試みがなされてきた。

特許文献1には、コンサートの参加者の生体情報(筋電、体表温度、皮膚発汗、皮膚抵抗、脈、呼吸、マイクロバイブレーション、心電、心拍、または血圧)をオーディオ情報に多重して伝送する技術が記載されている。特許文献1には、これにより、伝送先においてコンサート会場の雰囲気を再現することが記載されている。

特許第4391091号公報(2009年12月24日発行)

従来の上記技術では、伝送される参加者の生体情報は、自律的な生体反応に基づいたものである。そのため、例えば、舞台上の演技者(歌手または演奏者等)が演出として能動的に行う行動を、コンサート会場の観客に体感させることはできない。すなわち、演技者が意図的にコンサート会場の複数の観客に体感を与えることはできない。

本発明は、演技者の能動的な行動を、ウェアラブル機器の複数の装着者に体感として伝えることを目的とする。

本発明の一態様に係る情報伝送装置は、センシングされた演技者の能動的な動作または発声の情報を演技者行動の情報として取得する取得部と、上記演技者行動に応じた触覚または視覚に対する感覚刺激をウェアラブル機器の装着者に与える動作を該ウェアラブル機器にさせる制御信号を生成する制御信号生成部と、上記制御信号を、複数の上記ウェアラブル機器にブロードキャスト送信する送信部とを備える。

本発明の一態様に係る情報伝送方法は、センシングされた演技者の能動的な動作または発声の情報を演技者行動の情報として取得する取得ステップと、上記演技者行動に応じた触覚または視覚に対する感覚刺激をウェアラブル機器の装着者に与える動作を該ウェアラブル機器にさせる制御信号を生成する制御信号生成ステップと、上記制御信号を、複数の上記ウェアラブル機器にブロードキャスト送信する送信ステップとを含む。

本発明の一態様に係る行動体感方法は、演技者の能動的な動作または発声を演技者行動としてセンシングし、上記演技者行動に応じた動作をウェアラブル機器にさせる制御信号を生成し、上記制御信号を、複数の上記ウェアラブル機器にブロードキャスト送信し、上記ウェアラブル機器によって、上記制御信号に応じた触覚または視覚に対する感覚刺激を上記ウェアラブル機器の装着者に与えさせる。

本発明の一態様によれば、演技者の行動を複数の装着者が同時に体感することができる。それゆえ、装着者に演技者および他の装着者との一体感を感じさせ、臨場感を増幅させることができる。

本発明の一実施形態で用いられるウェアラブル機器がユーザの身体に装着された状態を示す断面図である。 本発明の一実施形態を適用したコンサート会場の様子を示す図である。 本発明の一実施形態に係る行動体感システムの構成を示すブロック図である。 上記行動体感システムの情報伝送装置の制御フローを示す図である。 上記行動体感システムのウェアラブル機器の制御フローを示す図である。

以下、本発明の実施の形態について、詳細に説明する。なお、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付記し、適宜その説明を省略する。

〔実施形態1〕
以下の各実施形態において、ウェアラブル機器1は、ユーザの手首に装着可能な腕輪型の機器として説明する。なお、ウェアラブル機器1は、ユーザの足首に装着可能な足輪(アンクレット)型、ヘッドフォン型、ヘッドバンド型、指輪型等のユーザの身体に装着可能な機器全般であってもよい。

(ウェアラブル機器1の概要)
図1は、本実施形態で用いられるウェアラブル機器1がユーザの身体(腕10)に装着された状態を示す断面図である。図1に示すように、ウェアラブル機器1は、バンド2、バルーン3、マイクロブロア4、センサ5および振動部6を備えている。バンド2は、ユーザの身体である腕(手首)10にウェアラブル機器1を保持するものであり、バンド2には、バルーン3、マイクロブロア4、センサ5および振動部6が配置されている。

バルーン3は、膨張および収縮可能な風船型の部材であり、バルーン3内に流体(例えば空気)が注入されることにより膨張し、バルーン3内から流体が排出することにより収縮する。例えば、マイクロブロア4は、センサ5による検出結果に応じてバルーン3内にある流体の量を調節する。センサ5は、ウェアラブル機器1を装着しているユーザの腕(身体)10と振動部6との密着度を検出するものであり、例えば、センサ5はバルーン3の内部における圧力値を検出する圧力センサである。

振動部6は、ウェアラブル機器1を装着しているユーザの身体(腕10)に振動を与えるものである。振動部6は、図示の様に、腕10を挟んでバルーン3の反対側の位置に配置され、振動部6の個数は、複数であってもよく1つであってもよい。振動部6が複数個ある場合、複数の振動部6は、互いに振動を与えない程度に離れて配置されている。

図1の(a)は、バルーン3が膨張する前におけるウェアラブル機器1を示す断面図である。図1の(a)に示すように、バンド2は、腕10の外周に対してゆとりのある長さを有しているため、振動部6は腕10と密着していない状態である。例えば、ユーザがウェアラブル機器1を腕10に装着した直後において、ウェアラブル機器1は、図1の(a)に示す状態にある。

図1の(b)は、バルーン3が膨張した後におけるウェアラブル機器1を示す断面図である。図1の(b)に示すように、バルーン3は、図1の(a)に示すバルーン3の状態から膨張している。このため、振動部6は腕10と密着している状態である。それゆえ、振動部6が振動する場合、振動部6の振動は、腕10に確実に伝達されるという効果を奏する。

また、バルーン3の膨張の程度は、センサ5が検出する圧力値に基づいて、振動部6が腕10に密着する程度に、かつバンド2が腕10を過度に締め付けない程度に調節される。このため、腕10の太さに個人差があったとしても、バルーン3の膨張の程度を調節することにより、振動部6は腕10に対して一定の圧力で密着することが可能となる。

ウェアラブル機器1は、無線通信のためのアンテナ(図示せず)を備える。ウェアラブル機器1は、ランプ(発光ダイオード)または表示画面等を含む表示部(図示せず)を備えてもよい。

(行動体感システムの概要)
図2は、本実施形態を適用したコンサート会場(ライブコンサート会場)の様子を示す図である。ステージ20の上に演技者21がおり、ステージ20の前には複数の観客22がいる。ここでは、演技者21は歌手であるとして説明するが、演技者21は、例えば、演奏者、演劇等の演者、またはダンサー等、ステージ20上で演技を行う出演者であってもよい。観客22は、その演技を観覧または聴取する者である。本実施形態では、演技者21の能動的な動作または発声に対応した感覚刺激を、演技者21による演出として、観客22が共有できるようにする。

コンサート会場には、情報伝送装置40が配置されている。演技者21の動作は、モーションセンサ31、圧力センサ32、および/またはカメラ33によって演技者行動としてセンシングされる。一方、観客22のそれぞれは、ウェアラブル機器1を装着している。情報伝送装置40は、コンサート会場内のモーションセンサ31、圧力センサ32、カメラ33、マイク34およびウェアラブル機器1と通信可能である。

演技者21は、1つ以上のモーションセンサ31を装着してもよい。モーションセンサ31は、演技者21の動きをセンシングするものであり、例えばモーションセンサ31として加速度センサを用いることができる。モーションセンサ31は、取得した動きの情報を情報伝送装置40に送信する。

圧力センサ32は、例えば、演技者21が握る(所持する)マイク34に設けられていてもよいし、演技者21が装着する腕輪型のウェアラブル機器に設けられていてもよい。圧力センサ32は、圧力センサ32が設けられた装置(マイクまたはウェアラブル機器)を握るという演技者21の動作をセンシングする。圧力センサ32は、取得した圧力の情報を情報伝送装置40に送信する。

カメラ33は、モーションキャプチャにおいてマーカーを検出するトラッカーとして機能する。演技者21が体の各部に装着したマーカー33aをカメラ33によって撮影することにより、演技者21の体の各部の動きの情報が得られる。カメラ33は、取得した動画像またはマーカー33aの動きの情報を、情報伝送装置40に送信する。複数のカメラ33が用いられてもよいし、カメラと被写体の奥行きを測定する深度センサとが組み合わされて用いられてもよい。なお、カメラ33の代わりに、モーションキャプチャを行う他の装置を用いてもよい。

マイク34は、演技者21が発した声をスピーカを通して観客22に伝える他、演技者21が発した声を演技者行動としてセンシングする声帯センサとして機能する。マイク34は、取得した音声の情報を、情報伝送装置40に送信する。

上記全ての機器(モーションセンサ31、圧力センサ32、カメラ33、およびマイク34)が設けられている必要はなく、演技者21の動作または発声をセンシングするために例えばいずれか1つの機器を設けてもよい。

(行動体感システムの構成)
図3は、本実施形態に係る行動体感システム30の構成を示すブロック図である。行動体感システム30は、情報伝送装置40およびウェアラブル機器1を備える。また、行動体感システム30は、演技者21の動作または発声をセンシングするセンサとして、モーションセンサ31、圧力センサ32、カメラ33、およびマイク34を備える。

情報伝送装置40は、取得部41、分析部42、制御信号生成部43、および送信部44を備える。また、情報伝送装置40は、無線通信のためのアンテナ(図示せず)を備える。取得部41は、有線または無線を介して、各種センサ(モーションセンサ31、圧力センサ32、カメラ33、およびマイク34)から演技者21の演技者行動(動作または発声)の情報を取得する。取得部41は、取得した演技者行動の情報を分析部42に出力する。

分析部42は、センシングによって得られた演技者行動の情報から、演技者行動がどのような行動であったかを特定する。分析部42は、演技者行動がどのような行動であったかを示す情報を制御信号生成部43に出力する。

例えば、分析部42は、演技者21の腕に装着されたモーションセンサ31から得られた測定値から、腕の動きを特定する。例えば、分析部42は、演技者行動が、「腕を横に振る」「腕を上げる」または「腕をある方向に向ける」等のいずれに該当するかを特定する。分析部42は、例えば、得られた測定値と、既知の行動について事前に得られた測定値とを比較することで、演技者行動がどのような行動であるかを判定することができる。

また、例えば、分析部42は、圧力センサ32から得られた測定値から、圧力センサ32が設けられた機器が握られたか否かを判定する。これにより、分析部42は、演技者行動が「機器を握る」に該当するかを特定する。分析部42は、例えば、得られた測定値と所定の閾値とを比較することで、演技者行動が「握る」という行動であるかを判定することができる。

また、例えば、分析部42は、カメラ33から得られた動画像から、演技者21に装着された複数のマーカーの動きを特定することで、演技者21の体の各部の動きを特定する。例えば、分析部42は、演技者行動が、「腕を横に振る」「足を上げる」および/または「ジャンプする」等に該当するか特定する。動画像から動きを分析する技術としては、公知のモーションキャプチャ技術を利用することができる。

また、例えば、分析部42は、マイク34から得られた音声の情報から、演技者21がどのような言葉を発したかを特定する。例えば、分析部42は、演技者行動が、所定の言葉(文字列)を発するものに該当するかを特定する。音声の情報から発された言葉を分析する技術としては、公知の音声認識技術を利用することができる。

制御信号生成部43は、特定された演技者行動に応じて、ウェアラブル機器1に特定の動作をさせるための制御信号(コマンド)を生成する。なお、ここでのウェアラブル機器1の特定の動作は、触覚または視覚に対する感覚刺激を装着している観客22(装着者)に与えさせる動作である。例えば、制御信号生成部43は、ある演技者行動「腕を横に振る」に対応して、ウェアラブル機器1の振動部6をあるリズム(振動パターン)で断続的に振動させる制御信号を生成する。一方、制御信号生成部43は、別の演技者行動「腕を上げる」に対応して、振動部6を別のリズムで断続的に(または別の周波数で)振動させる制御信号を生成する。例えば、制御信号生成部43は、演技者行動に応じてバルーン3が異なる圧力値になるように、マイクロブロア4を動作させる制御信号を生成してもよい。このように、制御信号生成部43は、異なる演技者行動に対してはウェアラブル機器1に異なる動作をさせるように、制御信号を生成する。制御信号生成部43は、生成した制御信号を送信部44に出力する。

また、例えば、制御信号生成部43は、異なる演技者行動に対して、ウェアラブル機器1の異なる動作機構を動作させてもよい。例えば、制御信号生成部43は、ある演技者行動「腕を横に振る」に対応して、ウェアラブル機器1の振動部6を断続的に振動させる制御信号を生成する。一方、制御信号生成部43は、別の演技者行動「腕を上げる」に対応して、バルーン3を膨張させる制御信号を生成する。

また、例えば、制御信号生成部43は、異なる演技者行動に対して、ウェアラブル機器1の複数の動作機構の異なる組み合わせを動作させてもよい。例えば、制御信号生成部43は、ある演技者行動「腕を横に振る」に対応して、ウェアラブル機器1の振動部6を振動させ、かつ、バルーン3を膨張させる制御信号を生成する。一方、制御信号生成部43は、別の演技者行動「腕を上げる」に対応して、バルーン3を膨張させ、かつ、ウェアラブル機器1の表示部を点灯させる制御信号を生成する。なお、演技者行動に応じて、振動部6の振動パターン、バルーン3の膨張の度合い、ならびに、表示部の点灯期間、色、または点灯強度を異ならせてもよい。

また、例えば、演技者行動をセンシングしたセンサの種類に応じて、動作させる動作機構を異ならせてもよい。例えば、制御信号生成部43は、モーションセンサ31でセンシングされた演技者行動に応じて、ウェアラブル機器1の振動部6を振動させ、かつ、バルーン3を膨張させる制御信号を生成する。なお、振動パターンおよび膨張の度合いは、演技者行動に応じて異ならせてもよい。一方、制御信号生成部43は、別のセンサである圧力センサ32でセンシングされた演技者行動に応じて、バルーン3を膨張させ、かつ、ウェアラブル機器1の表示部を点灯させる制御信号を生成する。

送信部44は、受け取った制御信号を、無線によって複数の観客22が所持(装着)する複数のウェアラブル機器1に一斉にブロードキャスト送信する。制御信号がブロードキャストされる範囲は、例えば使用する無線通信に応じた通信可能な範囲(コンサート会場内等)である。

ウェアラブル機器1は、受信部11、動作制御部12を備える。ウェアラブル機器1は、触覚または視覚に対して感覚刺激を観客に与える動作機構として、バルーン3、マイクロブロア4、振動部6、および表示部13を備える。各ウェアラブル機器1の受信部11は、無線によって情報伝送装置40から制御信号を受信する。受信部11は、受け取った制御信号を動作制御部12に出力する。

動作制御部12は、受け取った制御信号にしたがって、感覚刺激を与える各動作機構の動作を制御する。例えば、制御信号がバルーン3を膨張させることを指示するものである場合、動作制御部12は、バルーン3の内部圧力が制御信号に指定される圧力になるように、マイクロブロア4を動作させる。マイクロブロア4は、流体をバルーン3に注入することにより、バルーン3の内部圧力を指定された圧力に維持する。また、例えば、制御信号が振動部6を振動させることを指示するものである場合、動作制御部12は、制御信号に指定される振動パターンおよび周波数で振動部6を振動させる。また、例えば、制御信号が表示部13の表示を指示するものである場合、動作制御部12は、制御信号に指定される点灯期間、色、または点灯強度等で表示部13を点灯(表示)させる。制御信号が複数の動作機構の動作を指示するものである場合、同様に、動作制御部12は、制御信号にしたがってそれぞれの動作機構を動作させる。

(情報伝送装置の制御フロー)
図4は、情報伝送装置40の制御フローを示す図である。情報伝送装置40は、センシングのタイミングに合わせて、例えば所定の期間毎に、図4に示す処理を開始する。情報伝送装置40の取得部41は、所定の期間毎に、モーションセンサ31、圧力センサ32、カメラ33、および/またはマイク34からセンシングされた演技者行動の情報を取得する(S1)。

分析部42は、取得された演技者行動の情報から、演技者行動がどのような行動であったかを特定する(S2)。その際、分析部42は、複数の種類のセンサに基づく演技者行動の情報から、演技者行動がどのような行動であったかを特定してもよい。例えば、分析部42は、モーションセンサ31と、カメラ33との情報から、演技者21の動きを特定してもよい。

演技者行動が特定の行動Aである場合(S3でYes)、制御信号生成部43は、ウェアラブル機器1の動作機構に特定の動作aをさせるための制御信号を生成する(S4)。なお、特定の動作aには複数の動作機構の動作が含まれていてもよい。

演技者行動が特定の行動Aではなく特定の行動Bである場合(S3でNoかつS5でYes)、同様に、制御信号生成部43は、ウェアラブル機器1の動作機構に特定の動作bをさせるための制御信号を生成する(S6)。このように、制御信号生成部43は、対応する動作が設定されている特定の行動について、同様の判定を行う(S7、S8)。

演技者行動が、対応する動作が設定されている特定の行動のいずれでもない場合(S7でNo)、制御信号生成部43は処理を終了する。または、制御信号生成部43は、特定の動作を終了する制御信号を生成してもよい。

送信部44は、生成された制御信号を、複数のウェアラブル機器1に対して送信する(S9)。

(ウェアラブル機器の制御フロー)
図5は、ウェアラブル機器1の制御フローを示す図である。ウェアラブル機器1は、情報伝送装置40から制御信号を受信すると、図5に示す処理を開始する。制御信号がバルーン3を膨張(または収縮)させることを指示するものである場合(S11でYes)、動作制御部12は、マイクロブロア4を動作させることにより、バルーン3を膨張させる(S12)。その際、動作制御部12は、制御信号に指定された期間、圧力、およびON/OFFのタイミング(リズム)等にしたがってマイクロブロア4を動作させる。

制御信号がバルーン3を膨張(または収縮)させることを指示するものではない場合(S11でNo)、S12の処理はスキップされる。

制御信号が振動部6を振動させることを指示するものである場合(S13でYes)、動作制御部12は、振動部6を振動させる(S14)。その際、動作制御部12は、制御信号に指定された期間、周波数、およびON/OFFのタイミング(リズム)等にしたがって振動部6を動作させる。例えば、演技者21の「突く」という行動に対して、ウェアラブル機器1は、振動部6を短期間強く振動させることにより、観客22に衝撃を感じさせてもよい。

制御信号が振動部6を振動させることを指示するものではない場合(S13でNo)、S14の処理はスキップされる。

制御信号が表示部13の表示を変更(点灯)することを指示するものである場合(S15でYes)、動作制御部12は、表示部13の表示(点灯)を変更する(S16)。その際、動作制御部12は、制御信号に指定された期間、色、およびON/OFFのタイミング(リズム)等にしたがって表示部13の表示を変更する。これにより、ブロードキャストされた制御信号を受け取った複数の観客22のウェアラブル機器1の表示または点灯状態が同じように変化する。そのため、演技者21の行動に対応して観客22の視覚に対する感覚刺激を与えることができる。

制御信号が表示部13の表示を変更することを指示するものではない場合(S15でNo)、S16の処理はスキップされる。

(効果)
本実施形態の行動体感システム30によれば、演技者21の行動(能動的な動作または発声)に対応した動作を行わせる制御信号が、リアルタイムで複数の観客22のウェアラブル機器1にブロードキャスト送信される。例えば、演技者21の「握る」という行動に対して、ウェアラブル機器1は、バルーン3を膨張させることにより、ウェアラブル機器1を装着した部分に圧力を加える。これにより、観客22に「握られている」と感じさせることができる。それゆえ、演技者21の種々の行動を、大勢の観客22が一斉に感覚刺激として体感することができる。そのため、例えばコンサート会場等において、観客22に演技者21および他の観客22との一体感を感じさせる(共有させる)ことができる。広いコンサート会場であっても、行動体感システム30によって、観客22は、聞こえる音楽および目で見える演技者21の姿と合わせて、演技者21の行動を体感できるため、観客22が感じる臨場感を増幅させることができる。

〔実施形態2〕
本実施形態では、複数の観客22を複数のグループに分け、グループ毎にウェアラブル機器1に異なる動作をさせる点が、上述の実施形態とは異なる。各ウェアラブル機器1には、あらかじめ異なる識別子(ID)が設定される。1つのグループに属する複数の観客22のウェアラブル機器1には同じIDが設定される。例えば、観客22は、コンサート会場における複数のブロック(区画)に対応した複数のグループに分類される。

情報伝送装置40の制御信号生成部43は、演技者21の演技者行動に応じて、IDを指定する情報を含む制御信号を生成する。例えば、制御信号生成部43は、特定の行動Aに対して、ID「XXX1」を指定し、かつ、ウェアラブル機器1に特定の動作aをさせるための制御信号を生成する。また、制御信号生成部43は、特定の行動Bに対して、ID「XXX2」を指定し、かつ、ウェアラブル機器1に特定の動作aをさせるための制御信号を生成する。また、制御信号生成部43は、特定の行動Cに対して、ID「XXX3」を指定し、かつ、ウェアラブル機器1に特定の動作cをさせるための制御信号を生成する。特定の行動Aと特定の行動Bとでは、同じ特定の動作aを行わせる対象(グループ)が異なる。特定の行動Aと特定の行動Cとでは、異なる対象(グループ)に異なる動作を行わせる。

また、例えば、制御信号生成部43は、特定の行動Aに対して、ID「XXX1」を指定し、かつ、ウェアラブル機器1に特定の動作aをさせるための制御信号と、ID「XXX4」を指定し、かつ、ウェアラブル機器1に特定の動作dをさせるための制御信号とを生成してもよい。これにより、例えば、演技者21に対する観客22の位置(近いまたは遠い)に応じて、感覚刺激の強さを変えることにより、体感の強さを調整することができる。

送信部44は、IDを指定する情報を含む制御信号を、複数の端末に対してブロードキャスト送信する。そのため、例えば、ID「XXX1」を指定する制御信号は、ID「XXX1」が設定されたウェアラブル機器1だけでなく、ID「XXX2」および「XXX3」が設定されたウェアラブル機器1にも送信される。

ウェアラブル機器1の受信部11は、受信した制御信号に含まれるIDの情報が、自機に設定されたIDと一致する場合、制御信号を動作制御部12に出力する。一方、受信した制御信号に含まれるIDの情報が、自機に設定されたIDと一致しない場合、受信部11は、制御信号を動作制御部12には出力しない。これにより、ウェアラブル機器1は、対応するIDを指定する制御信号に対してのみ、制御信号に対応した動作を行うことができる。それゆえ、行動体感システム30は、グループ毎に、演技者行動に応じた動作を行わせることで、グループ毎に観客22の体感を制御することができる。

なお、コンサート会場の映像と制御信号とを、遠隔地のライブビューイング会場に伝送し、ライブビューイング会場の複数の観客が装着するウェアラブル機器1に制御信号をブロードキャスト送信してもよい。これにより、遠隔地の観客にも演技者21およびコンサート会場の観客22との一体感を感じさせることができる。なお、ライブビューイング会場に限らず、任意の場所で演技者21の演技を生中継で見るまたは聴く観客が装着するウェアラブル機器1に制御信号をブロードキャスト送信してもよい。

〔実施形態3〕
上述の実施形態の行動体感システム30において、演技者21の動作をセンシングするためのセンサとして、演技者21が操作可能なスイッチを設けてもよい。例えば、近接スイッチ、リミットスイッチ、またはボタン式スイッチ等の物体の位置を検知するスイッチを用いることができる。情報伝送装置40の取得部41は、スイッチの信号を取得し、スイッチの信号を分析部42に出力する。分析部42は、スイッチがONにされたか否かに基づいて、演技者21がスイッチを押す行動を行ったか判定する。

制御信号生成部43は、例えば、スイッチを押すという演技者行動に対応して、ウェアラブル機器1に特定の動作をさせるための制御信号を生成する。特定の動作は、上述した動作でもよいし、例えばウェアラブル機器1から観客22の装着部分に弱い電流を流すことで感覚刺激を与えてもよい。

〔ソフトウェアによる実現例〕
情報伝送装置40およびウェアラブル機器1の制御ブロック(特に取得部41、分析部42、制御信号生成部43、送信部44、受信部11、および動作制御部12)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。

後者の場合、情報伝送装置40およびウェアラブル機器1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。

〔まとめ〕
本発明の態様1に係る情報伝送装置(40)は、センシングされた演技者(21)の能動的な動作または発声の情報を演技者行動の情報として取得する取得部(41)と、上記演技者行動に応じた触覚または視覚に対する感覚刺激をウェアラブル機器(1)の装着者に与える動作を該ウェアラブル機器にさせる制御信号を生成する制御信号生成部(43)と、上記制御信号を、複数の上記ウェアラブル機器にブロードキャスト送信する送信部(44)とを備える。

上記の構成によれば、演技者の行動に対応した動作をウェアラブル機器に行わせる制御信号が、複数のウェアラブル機器にブロードキャスト送信される。そのため、演技者の行動を複数の装着者が同時に体感することができる。それゆえ、装着者に演技者および他の装着者との一体感を感じさせ、臨場感を増幅させることができる。なお、上記装着者は、上記演技者の演技を見るまたは聴く観客であってもよい。

本発明の態様2に係る情報伝送装置では、上記態様1において、上記演技者の能動的な動作を上記演技者行動とてもよい。

上記の構成によれば、装着者は、演出として行われる演技者の能動的な動作を体感することができる。

本発明の態様3に係る行動体感システムは、上記態様1または2の情報伝送装置と、上記演技者の能動的な動作または発声を上記演技者行動としてセンシングするセンサ(モーションセンサ31、圧力センサ32、カメラ33、またはマイク34)と、上記制御信号に応じた感覚刺激を上記装着者に与える上記ウェアラブル機器とを含む。

本発明の態様4に係る行動体感システムでは、上記態様3において、上記ウェアラブル機器は、上記装着者の触覚に対する上記感覚刺激を与える構成であってもよい。

上記の構成によれば、装着者は演技者の動きを体で体感することができる。

本発明の態様5に係る行動体感システムでは、上記態様4において、上記演技者の握る動作に対応して、腕輪型の上記ウェアラブル機器によって、上記装着者が上記ウェアラブル機器を装着した部分に圧力を加える構成であってもよい。

上記の構成によれば、演技者の握るという行動に対して、装着者は握られるという対応する体感を得ることができる。それゆえ、装着者に演技者との一体感を感じさせることができる。

本発明の態様6に係る行動体感システムでは、上記態様3から5において、上記センサとして上記演技者に装着されたまたは所持されたモーションセンサまたは圧力センサによって、上記演技者の能動的な動作を上記演技者行動としてセンシングする構成であってもよい。

上記の構成によれば、モーションセンサまたは圧力センサによって、演技者の動きを感知することができる。

本発明の態様7に係る情報伝送方法は、センシングされた演技者の能動的な動作または発声の情報を演技者行動の情報として取得する取得ステップと、上記演技者行動に応じた触覚または視覚に対する感覚刺激をウェアラブル機器の装着者に与える動作を該ウェアラブル機器にさせる制御信号を生成する制御信号生成ステップと、上記制御信号を、複数の上記ウェアラブル機器にブロードキャスト送信する送信ステップとを含む。

本発明の態様8に係る行動体感方法は、演技者の能動的な動作または発声を演技者行動としてセンシングし、上記演技者行動に応じた動作をウェアラブル機器にさせる制御信号を生成し、上記制御信号を、複数の上記ウェアラブル機器にブロードキャスト送信し、上記ウェアラブル機器によって、上記制御信号に応じた触覚または視覚に対する感覚刺激を上記ウェアラブル機器の装着者に与えさせる。

本発明の各態様に係る行動体感システムは、コンピュータによって実現してもよく、この場合には、コンピュータを上記行動体感システムが備える各部(ソフトウェア要素)として動作させることにより上記行動体感システムの一部をコンピュータにて実現させる行動体感システムの制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。

本発明は、演技者の行動を観客に体感させるための情報伝送装置およびシステムに利用することができる。

1 ウェアラブル機器
3 バルーン
4 マイクロブロア
6 振動部
11 受信部
12 動作制御部
13 表示部
21 演技者
22 観客
30 行動体感システム
31 モーションセンサ
32 圧力センサ
33 カメラ
33a マーカー
34 マイク
40 情報伝送装置
41 取得部
42 分析部
43 制御信号生成部
44 送信部

Claims (9)

  1. センシングされた演技者の能動的な動作または発声の情報を演技者行動の情報として取得する取得部と、
    上記演技者行動に応じた触覚または視覚に対する感覚刺激をウェアラブル機器の装着者に与える動作を該ウェアラブル機器にさせる制御信号を生成する制御信号生成部と、
    上記制御信号を、複数の上記ウェアラブル機器にブロードキャスト送信する送信部とを備えることを特徴とする情報伝送装置。
  2. 上記演技者の能動的な動作を上記演技者行動とすることを特徴とする請求項1に記載の情報伝送装置。
  3. 上記装着者は、上記演技者の演技を見るまたは聴く観客であることを特徴とする請求項1または2に記載の情報伝送装置。
  4. 請求項1から3のいずれか一項に記載の情報伝送装置と、
    上記演技者の能動的な動作または発声を上記演技者行動としてセンシングするセンサと、
    上記制御信号に応じた感覚刺激を上記装着者に与える上記ウェアラブル機器とを含むことを特徴とする行動体感システム。
  5. 上記ウェアラブル機器は、上記装着者の触覚に対する上記感覚刺激を与えることを特徴とする請求項4に記載の行動体感システム。
  6. 上記演技者の握る動作に対応して、腕輪型の上記ウェアラブル機器によって、上記装着者が上記ウェアラブル機器を装着した部分に圧力を加えることを特徴とする請求項5に記載の行動体感システム。
  7. 上記センサとして上記演技者に装着されたまたは所持されたモーションセンサまたは圧力センサによって、上記演技者の能動的な動作を上記演技者行動としてセンシングすることを特徴とする請求項4から6のいずれか一項に記載の行動体感システム。
  8. センシングされた演技者の能動的な動作または発声の情報を演技者行動の情報として取得する取得ステップと、
    上記演技者行動に応じた触覚または視覚に対する感覚刺激をウェアラブル機器の装着者に与える動作を該ウェアラブル機器にさせる制御信号を生成する制御信号生成ステップと、
    上記制御信号を、複数の上記ウェアラブル機器にブロードキャスト送信する送信ステップとを含むことを特徴とする情報伝送方法。
  9. 演技者の能動的な動作または発声を演技者行動としてセンシングし、
    上記演技者行動に応じた動作をウェアラブル機器にさせる制御信号を生成し、
    上記制御信号を、複数の上記ウェアラブル機器にブロードキャスト送信し、
    上記ウェアラブル機器によって、上記制御信号に応じた触覚または視覚に対する感覚刺激を上記ウェアラブル機器の装着者に与えさせることを特徴とする行動体感方法。
JP2015077243A 2015-04-03 2015-04-03 情報伝送装置、行動体感システム、情報伝送方法および行動体感方法 Pending JP2016197350A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015077243A JP2016197350A (ja) 2015-04-03 2015-04-03 情報伝送装置、行動体感システム、情報伝送方法および行動体感方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015077243A JP2016197350A (ja) 2015-04-03 2015-04-03 情報伝送装置、行動体感システム、情報伝送方法および行動体感方法

Publications (1)

Publication Number Publication Date
JP2016197350A true JP2016197350A (ja) 2016-11-24

Family

ID=57358130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015077243A Pending JP2016197350A (ja) 2015-04-03 2015-04-03 情報伝送装置、行動体感システム、情報伝送方法および行動体感方法

Country Status (1)

Country Link
JP (1) JP2016197350A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019035350A1 (ja) * 2017-08-14 2019-02-21 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027453A (ja) * 2000-07-05 2002-01-25 Hitachi Ltd コンサート臨場感補助システム
JP2004219914A (ja) * 2003-01-17 2004-08-05 Sony Corp 情報伝送方法、情報伝送装置、情報記録方法、情報記録装置、情報再生方法、情報再生装置および記録媒体
JP2005250148A (ja) * 2004-03-04 2005-09-15 Yamaha Corp 楽器及び前記楽器を用いた合奏システム並びに楽器間でのコミュニケーションツール。
US20120092146A1 (en) * 2009-12-11 2012-04-19 Gwangju Institute Of Science And Technology Method for expressing haptic information using control information, and system for transmitting haptic information
JP2014179984A (ja) * 2013-03-14 2014-09-25 Immersion Corp グループイベント時のハプティック効果のブロードキャスト

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027453A (ja) * 2000-07-05 2002-01-25 Hitachi Ltd コンサート臨場感補助システム
JP2004219914A (ja) * 2003-01-17 2004-08-05 Sony Corp 情報伝送方法、情報伝送装置、情報記録方法、情報記録装置、情報再生方法、情報再生装置および記録媒体
JP2005250148A (ja) * 2004-03-04 2005-09-15 Yamaha Corp 楽器及び前記楽器を用いた合奏システム並びに楽器間でのコミュニケーションツール。
US20120092146A1 (en) * 2009-12-11 2012-04-19 Gwangju Institute Of Science And Technology Method for expressing haptic information using control information, and system for transmitting haptic information
JP2014179984A (ja) * 2013-03-14 2014-09-25 Immersion Corp グループイベント時のハプティック効果のブロードキャスト

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019035350A1 (ja) * 2017-08-14 2019-02-21 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Similar Documents

Publication Publication Date Title
JP6530490B2 (ja) 取り外し可能なモジュールを備える運動バンド
US10216474B2 (en) Variable computing engine for interactive media based upon user biometrics
US10582328B2 (en) Audio response based on user worn microphones to direct or adapt program responses system and method
US10426216B2 (en) Vibrating footwear device and entertainment system for use therewith
JP6600634B2 (ja) ユーザが制御可能な聴覚環境のカスタマイズのためのシステム及び方法
US10417923B2 (en) Systems, apparatuses, and methods for memory recall and reactivation by targeted stimulation
KR101687623B1 (ko) 휴대용 음향기기
US20160310698A1 (en) Dream Enhancement Apparatus and Method
US10412478B2 (en) Reproduction of ambient environmental sound for acoustic transparency of ear canal device system and method
US10206042B2 (en) 3D sound field using bilateral earpieces system and method
KR20150032183A (ko) 동기화된 운동 버디 헤드폰
JP6664069B2 (ja) 触覚コンテンツを伴う視点動画を記録及び再生するシステム並びに方法
CN102647944B (zh) 耳鸣治疗系统和方法
US20140348367A1 (en) Activity monitoring & directing system
WO2014171200A1 (ja) 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム
US7732694B2 (en) Portable music player with synchronized transmissive visual overlays
KR101630864B1 (ko) 감정을 전달하는 방법 및 시스템
JP2020091904A (ja) システムおよびコントローラ
US20160296799A1 (en) Wearable detector for the detection of parameters related to a physical activity
US6360615B1 (en) Wearable effect-emitting strain gauge device
US8093995B2 (en) Method and apparatus for distributing haptic synchronous signals
US7980998B2 (en) Training and instructing support device
JP5056067B2 (ja) 居眠り警報装置
US6888457B2 (en) Monitoring of user response to performances
US6885304B2 (en) Monitoring of crowd response to performances

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190618