JP7420099B2 - 視聴方法 - Google Patents

視聴方法 Download PDF

Info

Publication number
JP7420099B2
JP7420099B2 JP2021038455A JP2021038455A JP7420099B2 JP 7420099 B2 JP7420099 B2 JP 7420099B2 JP 2021038455 A JP2021038455 A JP 2021038455A JP 2021038455 A JP2021038455 A JP 2021038455A JP 7420099 B2 JP7420099 B2 JP 7420099B2
Authority
JP
Japan
Prior art keywords
tactile sensation
user
character
display device
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021038455A
Other languages
English (en)
Other versions
JP2022138528A (ja
Inventor
悠二 米原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyoda Gosei Co Ltd
Original Assignee
Toyoda Gosei Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Gosei Co Ltd filed Critical Toyoda Gosei Co Ltd
Priority to JP2021038455A priority Critical patent/JP7420099B2/ja
Publication of JP2022138528A publication Critical patent/JP2022138528A/ja
Application granted granted Critical
Publication of JP7420099B2 publication Critical patent/JP7420099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、視聴方法に関する。
表示装置に表示された動画を視聴するユーザーの動画への没入感を高めるための技術が知られている。例えば、特許文献1には、ユーザーに対して、表示装置に表示されたキャラクターとの接触を擬似的に実感させることによって動画への没入感を高める技術が開示されている。上記技術においては、握手をする相手の握る力を反映させてユーザーの手を握る握手デバイスを用いることにより、遠隔地にいる他者により操作されている表示装置に表示されたキャラクターとの仮想的な握手を実現している。動画を視聴するユーザーは、視覚情報及び聴覚情報に加えて、握手デバイスを介した触感情報である触感を認識することができる。これにより、ユーザーの動画への没入感が高められる。
特開2000-250688号公報
動画の表示に用いる表示装置としては、例えばヘッドマウントディスプレイ等の頭部装着型の表示装置、並びにタブレット端末及び携帯端末のディスプレイや設置型のディスプレイ等の頭部非装着型の表示装置が挙げられる。頭部非装着型の表示装置は、頭部装着型の表示装置と比較して、ユーザーにかかる肉体的な負担が小さいという利点がある。その一方、頭部非装着型の表示装置は、表示された動画以外の視覚情報が遮断される頭部装着型の表示装置と比較して、没入感を高めることが難しいという問題がある。
上記課題を解決する視聴方法は、非装着型の表示装置に表示されたキャラクターの動画を視聴するユーザーの手に対して、触感提示装置によって前記キャラクターに基づく触感を提示するための視聴方法であって、前記表示装置に表示された前記動画を視聴する第1ステップと、前記キャラクターに基づく触感を体感する第2ステップとを備え、前記第2ステップは、前記触感提示装置における触感を提示する提示部を、前記表示装置の表示面に正対する前記ユーザーから視認できない位置に配置した状態として実行される。
第1ステップにおいて、ユーザーは、動画の視聴に熱中するにしたがって、自身が動画の中の仮想世界に存在しているような感覚を覚える。ユーザーの動画への没入感を高めるためには、仮想世界に存在しているような感覚を持続させることが重要である。上記構成では、表示装置の表示面に正対するユーザーから視認できない位置に触感提示装置の提示部を配置している。
そのため、動画に熱中しているユーザーが第2ステップにおいてキャラクターに基づく触感を体感する際に、自身の手が触感提示装置の提示部に触れている状態を視認することを抑制できる。これにより、ユーザーは、仮想世界に存在しているような感覚を維持したまま、キャラクターに基づく触感を体感することができる。この場合、ユーザーに対して、触感提示装置から提示される触感をより生々しく感じさせること、つまり、キャラクターに実際に触れているように感じさせることができる。その結果、ユーザーの動画への没入感が向上する。
前記第2ステップにおいて、前記触感提示装置は、前記ユーザーから視認し難くなるように前記触感提示装置を遮蔽する遮蔽物を前記ユーザーとの間に挟んで配置されることが好ましい。前記遮蔽物は、例えば、前記表示装置である。
上記構成によれば、表示装置の表示面に正対するユーザーが触感提示装置を視認できない状況を容易に実現できる。特に、表示装置を遮蔽物とした場合には、遮蔽物を別途、用意する必要がなく、上記の状況をより容易に実現できる。
前記第2ステップにおいて、前記ユーザーの手の位置を示すアイコンを前記表示装置に表示し、前記アイコンは、前記ユーザーの手の位置と前記触感提示装置との位置関係を、前記キャラクターと当該アイコンとの位置関係として示していることが好ましい。
上記構成によれば、表示装置の表示面に正対するユーザーから視認できない位置に配置された触感提示装置に対して、ユーザーの手を位置させることが容易である。また、自身の手の動きに連動するアイコンが表示装置に表示に表示されることにより、自身が動画の中の仮想世界に存在しているような感覚が強まり、ユーザーの動画への没入感が更に向上する。
前記触感提示装置の前記提示部は、前記ユーザーの手に装着される非透明のグローブの内部に配置されていることが好ましい。
上記構成によれば、第2ステップにおいてユーザーの手に触感を提示する際の手の位置を自由に設定できる。
前記第2ステップにおいて、前記キャラクターの一部が前記表示装置の画面外に切れた動画が表示され、前記表示装置の画面外に切れている前記キャラクターの一部が位置する仮想位置に前記ユーザーの手を位置させた場合に、前記キャラクターに基づく触感が提示されることが好ましい。
上記構成によれば、ユーザーは、第2ステップにおいて、キャラクターの特定部位の感触を体感した際に、画面外に切れているキャラクターの特定部位を想像によって補完する。これにより、ユーザーの動画への没入感が更に向上する。
上記課題を解決する視聴システムは、非装着型の表示装置に表示されたキャラクターの動画を視聴するための視聴システムであって、前記表示装置と、前記動画を視聴するユーザーの手の位置情報を取得する位置検出装置と、前記ユーザーの手に触感を提示する触感提示装置と、前記位置検出装置の検出結果に基づいて、前記キャラクターに基づく触感を前記ユーザーの手に提示するように前記触感提示装置を制御する触感制御部とを備え、前記触感提示装置における触感を提示する提示部は、前記表示装置の表示面に正対する前記ユーザーから視認できない位置に配置されている。
本発明によれば、非装着型の表示装置に表示された動画を視聴するユーザーの動画への没入感を高めることができる。
第1実施形態の視聴システムの説明図。 第1実施形態の視聴システムの配置図。 第1実施形態の触感提示装置の説明図。 誘電エラストマーアクチュエータの断面構造を示す断面図。 第1実施形態の第2ステップにおける表示面の説明図。 第1実施形態の第2ステップにおけるユーザーの動作を示す説明図。 第2実施形態の触感提示装置の説明図。 第2実施形態の第2ステップにおける表示面及びユーザーの動作を示す説明図。 変更例の第2ステップにおける表示面の説明図。 変更例の第2ステップにおけるユーザーの動作を示す説明図。
(第1実施形態)
以下、視聴システム10の第1実施形態を説明する。以下では、一例として、配信者によってライブ配信された動画であって、配信者の動きに基づいて生成されたキャラクターCのアニメーションを含む動画を視聴する視聴システム10について説明する。
配信者の動きに基づいてキャラクターCのアニメーションを生成し、生成したキャラクターCのアニメーションを含む動画をライブ配信する動画配信システムは、従来公知のシステムを用いることができる。キャラクターCの種類は特に限定されるものではなく、例えば、人、人以外の生物、アバター、架空の生物及び物体のいずれであってもよい。
図1及び図2に示すように、視聴システム10は、ライブ配信された動画を表示する表示面11aを有する表示装置11を備えている。表示装置11は、頭部非装着型の表示装置であり、机などのテーブルTの上に設置して用いられる。頭部非装着型の表示装置11としては、例えば、タブレット端末及び携帯端末のディスプレイ、設置型のディスプレイが挙げられる。タブレット端末及び携帯端末のディスプレイは、スタンド等を用いて、テーブルTの上に立てた状態として使用する。
視聴システム10は、ライブ配信された動画のキャラクターCと対話するための音響装置12を備えている。音響装置12としては、マイク付きイヤホン等の従来公知の機器を用いることができる。
視聴システム10は、表示装置11に表示された動画を視聴するユーザーAの手A1に触感を提示する触感提示装置13を備えている。触感提示装置13は、テーブルTの上において、表示装置11の表示面11aに対して反対側となる位置に配置されている。換言すると、触感提示装置13は、表示面11aに正対するユーザーAから見て、表示装置11の奥側に配置されている。
図3に示すように、触感提示装置13は、台座21と、台座21の上面に設けられた提示部22と、駆動装置23とを備えている。提示部22は、ウレタン等の軟質材料からなる軟質層22aと、軟質層22aの上面に配置される単数又は複数の振動子22bと、振動子22bを覆う被覆層22cとを備えている。振動子22bは、シート状の誘電エラストマーアクチュエータ(DEA:Dielectric Elastomer Actuator)である。
振動子22bとしてのDEAは、提示部22の表面に触れたユーザーAに対して、DEAの伸縮等の変形に基づく振動等を特定の触感として認識させる。軟質層22aは、DEAの変形に追従して変形する層である。DEAと台座21との間に軟質層22aを配置することにより、DEAの変形が台座21によって制限されることを抑制できる。以下、DEAの構造について説明する。
図4に示すように、振動子22bとしてのDEAは、誘電エラストマーからなるシート状の誘電層30と、誘電層30の厚さ方向の両側に配置された電極層としての正極電極31及び負極電極32とが複数積層された多層構造体である。DEAの最外層には絶縁層33が積層されている。DEAは、正極電極31と負極電極32との間に直流電圧が印加されると、印加電圧の大きさに応じて、誘電層30が厚さ方向に圧縮されるとともに誘電層30の面に沿った方向であるDEAの面方向に伸張するように変形する。
誘電層30を構成する誘電エラストマーは特に限定されるものではなく、公知のDEAに用いられる誘電エラストマーを用いることができる。上記誘電エラストマーとしては、例えば、架橋されたポリロタキサン、シリコーンエラストマー、アクリルエラストマー、ウレタンエラストマーが挙げられる。これら誘電エラストマーのうちの一種を用いてもよいし、複数種を併用してもよい。誘電層30の厚さは、例えば、20~200μmである。
正極電極31及び負極電極32を構成する材料としては、例えば、導電エラストマー、カーボンナノチューブ、ケッチェンブラック(登録商標)、金属蒸着膜が挙げられる。上記導電エラストマーとしては、例えば、絶縁性高分子及び導電性フィラーを含有する導電エラストマーが挙げられる。
上記絶縁性高分子としては、例えば、架橋されたポリロタキサン、シリコーンエラストマー、アクリルエラストマー、ウレタンエラストマーが挙げられる。これら絶縁性高分子のうちの一種を用いてもよいし、複数種を併用してもよい。上記導電性フィラーとしては、例えば、ケッチェンブラック(登録商標)、カーボンブラック、銅や銀等の金属粒子が挙げられる。これら導電性フィラーのうちの一種を用いてもよいし、複数種を併用してもよい。正極電極31及び負極電極32の厚さは、例えば、0.1~100μmである。
絶縁層33を構成する絶縁エラストマーは特に限定されるものではなく、公知のDEAの絶縁部分に用いられる公知の絶縁エラストマーを用いることができる。上記絶縁エラストマーとしては、例えば、架橋されたポリロタキサン、シリコーンエラストマー、アクリルエラストマー、ウレタンエラストマーが挙げられる。これら絶縁エラストマーのうちの一種を用いてもよいし、複数種を併用してもよい。絶縁層33の厚さは、例えば、1~100μmである。
駆動装置23は、後述する制御信号に基づく波形の電圧をバッテリ等の電源(図示略)から振動子22bに印加する。
図1及び図2に示すように、視聴システム10は、ユーザーAの手A1の位置情報を取得する位置検出装置14を備えている。位置検出装置14は、触感提示装置13の提示部22を基準とする特定範囲内に位置するユーザーAの手A1の位置を検知する。位置検出装置14としては、例えば、光学式、機械式、磁気式等の従来公知のモーションキャプチャ装置、変位センサ、接触センサを用いることができる。位置検出装置14は、ユーザーAの手A1の位置を非接触にて検出する非接触型の位置検出装置であることが好ましい。
図1に示すように、視聴システム10は、コンピュータ装置15を備えている。コンピュータ装置15は、通信部41と、記憶部42と、CPU43とを備えている。
通信部41は、例えば、広域通信網としてのインターネットNT1を介して、配信者側の端末H(以下、配信端末Hと記載する。)と通信を行うための通信インターフェースである。通信部41は、例えば、直接インターネットNT1と繋がるように移動通信システムに対応するものであってもよいし、インターネットNT1に繋がっている機器と通信を行うものであってもよい。なお、広域通信網とは任意であり、例えば電話回線でもよい。
記憶部42には、配信端末Hからライブ配信された動画を視聴するための視聴用プログラムが記憶されている。視聴用プログラムは、例えば、アプリケーションプログラムである。また、記憶部42には、触感提示装置13により提示される触感の種類と、任意の触感を提示するように触感提示装置13を動作させるための制御信号と、後述する特定動作及び特定部位C1とが紐づけられた触感情報が記憶されている。上記制御信号は、触感提示装置13を駆動するための電圧波形を示す信号である。なお、触感提示装置13により提示される触感の種類としては、例えば、ハイタッチの触感、握手の触感、くすぐられる触感、鼓動の触感が挙げられる。
CPU43は、記憶部42に記憶されている視聴用プログラムを用いて各種処理を実行する。CPU43は、視聴制御部43aと、触感制御部43bとを備えている。視聴制御部43aは、配信端末Hからライブ配信された動画を表示装置11及び音響装置12に出力するとともに、ユーザーAの音声に基づく情報を配信者側へ送信するための視聴制御を行う。
触感制御部43bは、触感提示装置13を通じて、表示装置11に表示されているキャラクターCに基づく触感をユーザーAの手A1に提示するための触感制御を行う。図5に示すように、触感制御部43bは、表示装置11に表示されているキャラクターCが、予め設定されている特定動作を行った場合に、位置検出装置14から出力される検知結果に基づいて、ユーザーAの手A1の位置を示すアイコンA2を、表示装置11に表示されている動画に重ねて表示する。
このとき、アイコンA2は、ユーザーAの手A1の位置が触感提示装置13の提示部22に近づくにしたがって、表示装置11に表示されているキャラクターCの特定部位C1に近づくように表示される。つまり、アイコンA2は、ユーザーAの手A1の位置と触感提示装置13の提示部22との位置関係を、キャラクターCの特定部位C1とアイコンA2との位置関係として示す。
上記の特定動作及び特定部位C1は、記憶部42に記憶されている触感の種類ごとに予め設定されている。上記の特定動作及び特定部位C1は、特に限定されるものではなく、適宜設定することができる。第1実施形態では、一例として、画面越しにハイタッチを行うための動作、具体的には、図5に示すように、顔の横に片手を移動させて掌を正面に向ける動作を特定動作として説明する。この場合、顔の横に位置させた掌の位置が特定部位C1になる。
触感制御部43bは、ユーザーAの動作に基づく所定のタイミングにおいて、キャラクターCが行った特定動作に対応する触感を提示するように触感提示装置13を動作させるための制御信号を触感提示装置13に出力する。
次に、第1実施形態の視聴システム10を用いた視聴方法について説明する。視聴システム10は、配信端末Hからライブ配信された動画の視聴に係る各種の処理を実行することにより、後述する第1ステップ及び第2ステップを行うように構成されている。
第1ステップは、ライブ配信された動画を対話可能な状態で視聴するステップである。ユーザーAは、第1ステップにおいて、キャラクターCとの視覚的及び聴覚的なコミュニケーションを体感する。
第1ステップでは、コンピュータ装置15に接続される入力装置(図示略)を通じたユーザーAの操作が行われる。入力装置としては、マウスやキーボード等の公知の機器を用いることができる。視聴制御部43aは、上記のユーザーAの操作に基づいて、配信端末Hからライブ配信された動画を受信するとともに、受信した動画を表示装置11に表示させる。第1ステップにおいて、ユーザーAは、表示装置11及び音響装置12を介してキャラクターCの情報を取得する。したがって、第1ステップは、キャラクターCとの視覚的及び聴覚的なコミュニケーションを体感するステップになる。
第2ステップは、動画のキャラクターCに基づく触感を体感するステップである。ユーザーAは、第2ステップにおいて、キャラクターCとの触覚的なコミュニケーションを体感する。
図5に示すように、第2ステップは、動画内のキャラクターCが特定動作を行ったタイミングにて実行される。キャラクターCによる特定動作が行われた場合、触感制御部43bは、ユーザーAの手A1の位置を示すアイコンA2を、表示装置11に表示されている動画に重ねて表示する。アイコンA2が表示されたことに基づいて、ユーザーAは、触覚を通じてコミュニケーションを取ることのできる状態(以下、触感提示状態と記載する。)であることを把握する。
図6に示すように、触感提示状態を把握したユーザーAは、自身の手A1を触感提示装置13の提示部22に近づける動作を行う。位置検出装置14は、提示部22に近づけられたユーザーAの手A1の位置を検知し、その検知結果を触感制御部43bへと出力する。図5に示すように、触感制御部43bは、入力された検知結果に基づいて、表示装置11に表示されているアイコンA2の位置を、ユーザーAの手A1の位置に合わせて移動させる。
ユーザーAは、触感提示装置13の近傍にて自身の手A1を動かすことによりアイコンA2を操作し、アイコンA2をキャラクターCの特定部位C1へと移動させる。アイコンA2は、ユーザーAの手A1の位置と触感提示装置13の提示部22との位置関係が、キャラクターCの特定部位C1とアイコンA2との位置関係となるように表示されている。そのため、アイコンA2をキャラクターCの特定部位C1へと移動させるように手A1を動かすことにより、手A1を触感提示装置13の提示部22に位置させることができる。
ユーザーAの手A1が触感提示装置13の提示部22に接触すると、ユーザーAの手A1が接触したことを示す接触信号が触感提示装置13から触感制御部43bへ出力される。触感制御部43bに接触信号が入力されると、触感制御部43bは、記憶部42の触感情報からハイタッチに紐づけられた制御信号を読み出し、当該制御信号を触感提示装置13へと出力する。そして、入力された制御信号に基づいて触感提示装置13が動作する。これにより、触感提示装置13の提示部22に触れているユーザーAの手A1に対して、ハイタッチの触感、例えば、掌を軽く叩かれたような触感が提示される。その結果、ユーザーAは、キャラクターCとハイタッチをした感覚を得ることができる。
次に、第1実施形態の作用について説明する。
第1ステップにおいて、ユーザーAは、動画の視聴に熱中するにしたがって、自身が動画の中の仮想世界に存在しているような感覚、具体的には、キャラクターCと直接、対話しているような感覚を覚える。ユーザーAの動画への没入感を高めるためには、仮想世界に存在しているような感覚を持続させることが重要である。
ここで、第1実施形態では、表示面11aに正対するユーザーAから見て、表示装置11の奥側に触感提示装置13を配置している。そのため、動画に熱中しているユーザーAが第2ステップにおいてキャラクターCに基づく触感を体感する際に、自身の手A1が触感提示装置13に触れている状態を視認することを抑制できる。つまり、キャラクターCではなく、触感提示装置13に触れているという現実を認識してしまうことを抑制できる。
これにより、ユーザーAは、仮想世界に存在しているような感覚を維持したまま、キャラクターCに基づく触感を体感することができる。この場合、ユーザーAに対して、触感提示装置13から提示される触感をより生々しく感じさせること、つまり、キャラクターCに実際に触れているように感じさせることができる。その結果、ユーザーAの動画への没入感が向上する。
次に、第1実施形態の効果について記載する。
(1)視聴システム10を用いた視聴方法は、非装着型の表示装置11に表示されたキャラクターCの動画を視聴するユーザーAの手A1に対して、触感提示装置13によってキャラクターCに基づく触感を提示する。当該視聴方法は、表示装置11に表示された動画を視聴する第1ステップと、キャラクターCに基づく触感を体感する第2ステップとを備える。第2ステップは、表示装置11の表示面11aに正対するユーザーAから視認できない位置に触感提示装置13を配置した状態として実行される。
上記構成によれば、動画の視聴に熱中するユーザーAに対して、仮想世界に存在しているような感覚を維持したまま、キャラクターCに基づく触感を体感させることができる。これにより、ユーザーAは、キャラクターCに実際に触れているように感じることができる。その結果、ユーザーAの動画への没入感が向上する。
(2)第2ステップにおいて、触感提示装置13は、ユーザーAから視認し難くなるように触感提示装置13を遮蔽する遮蔽物としての表示装置11をユーザーAとの間に挟んで配置される。
上記構成によれば、表示装置11の表示面11aに正対するユーザーAが触感提示装置13を視認できない状況を容易に実現できる。特に、表示装置11を遮蔽物とすることにより、遮蔽物を別途、用意する必要がなく、上記の状況をより容易に実現できる。
(3)第2ステップにおいて、ユーザーAの手A1の位置を示すアイコンA2を表示装置11に表示している。アイコンA2は、ユーザーAの手A1の位置と触感提示装置13との位置関係を、キャラクターCとアイコンA2との位置関係として示している。
上記構成によれば、表示装置11の表示面11aに正対するユーザーAから視認できない位置に配置された触感提示装置13にユーザーAの手A1を位置させることが容易である。また、自身の手A1の動きに連動するアイコンA2が表示装置11に表示に表示されることにより、自身が動画の中の仮想世界に存在しているような感覚が強まり、ユーザーAの動画への没入感が更に向上する。
(第2実施形態)
以下、視聴システム10の第2実施形態を説明する。第2実施形態の視聴システム10は、触感提示装置13の構成が第1実施形態と相違しており、以下では、第1実施形態との相違点を中心に説明する。なお、第1実施形態と同一又は対応する構成については、同一の符号を付すことにより重複する説明を省略する。また、第2実施形態においても、画面越しにハイタッチを行うための動作を特定動作として説明する。
図7に示すように、第2実施形態の触感提示装置13は、ユーザーAの手A1に装着される非透明のグローブGの内部に配置される振動子22bと、駆動装置23とを備えている。グローブGは、伸縮可能な軟質材料により構成されている。グローブGを構成する軟質材料としては、例えば、シリコーンやウレタン等のエラストマー、ストレッチ生地が挙げられる。振動子22bはシート状のDEAである。
グローブGの内部に配置される振動子22bの数及びその配置は特に限定されるものではなく、適宜設定することができる。一例として、図7では、手A1の指先が触れる部分及び指の付け根が触れる部分に振動子22bを配置している。なお、第2実施形態の触感提示装置13において、触感を提示する提示部は、振動子22bの表面である。
また、第2実施形態では、位置検出装置14は、ユーザーAの胴体と表示装置11との間におけるユーザーAの手A1の位置情報を取得するように配置されている。
次に、第2実施形態の視聴システム10を用いた視聴方法について説明する。視聴システム10は、配信端末Hからライブ配信された動画の視聴に係る各種の処理を実行することにより、第1ステップ及び第2ステップを行うように構成されている。
第1ステップは、第1実施形態の第1ステップと同様である。
第2ステップは、動画のキャラクターCに基づく触感を体感するステップである。ユーザーAは、第2ステップにおいて、キャラクターCとの触覚的なコミュニケーションを体感する。
図8に示すように、第2ステップは、動画内のキャラクターCが特定動作を行ったタイミングにて実行される。キャラクターCの特定動作を視認することに基づいて、ユーザーAは、触覚を通じてコミュニケーションを取ることのできる触感提示状態であることを把握する。
触感提示状態を把握したユーザーAは、表示装置11の表示面11aにおけるキャラクターCの特定部位C1が表示されている部分に自身の手A1を近接させる動作を行う。このとき、位置検出装置14は、ユーザーAの手A1の位置を検知し、その検知結果を触感制御部43bへと出力する。触感制御部43bは、位置検出装置14の検出結果に基づいて、表示面11aにおける特定部位C1を表示している部分に対して予め設定された基準距離以内に位置しているか否かを判定する。そして、上記判定が肯定である場合、触感制御部43bは、記憶部42の触感情報からハイタッチに紐づけられた制御信号を読み出し、当該制御信号を触感提示装置13へと出力する。そして、入力された制御信号に基づいて触感提示装置13が動作する。
次に、第2実施形態の作用について説明する。
第2実施形態では、触感提示装置13の提示部である振動子22bの表面を、ユーザーAの手A1に装着される非透明のグローブGの内部に配置している。そのため、動画に熱中しているユーザーAが第2ステップにおいてキャラクターCに基づく触感を体感する際に、自身の手A1が触感提示装置13に触れている状態を視認することを抑制できる。これにより、第1実施形態と同様に、ユーザーAは、仮想世界に存在しているような感覚を維持したまま、キャラクターCに基づく触感を体感することができる。その結果、ユーザーAの動画への没入感が向上する。
次に、第2実施形態の効果について記載する。第2実施形態では、上記(1)の効果に加えて、下記の(4)の効果が得られる。
(4)触感提示装置13の提示部は、ユーザーAの手A1に装着されるグローブGの内部に配置されている。
上記構成によれば、第2ステップにおいてユーザーAの手A1に触感を提示する際の手A1の位置を自由に設定できる。例えば、上記実施形態のように、表示装置11の表示面11aの正面に手A1が位置している状態にて、ユーザーAの手A1に触感を提示することができる。この場合、表示装置11に表示されているキャラクターC及び自身の手A1が共に視界に入っている状態でキャラクターCに基づく触感を体感することができる。そのため、ユーザーAの動画への没入感が更に向上する。
なお、上記実施形態は、以下のように変更して実施することができる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・第1実施形態において、ユーザーAから視認し難くなるように触感提示装置13を遮蔽する遮蔽物は、表示装置11に限定されない。例えば、表示装置11とは別にテーブルTの上に配置される板状の遮蔽物であってもよいし、触感提示装置13を覆う箱状の遮蔽物であってもよい。また、触感提示装置13を配置する位置は、表示装置11の奥側に限定されない。例えば、テーブルTの下に触感提示装置13を配置し、テーブルTの天板部分を遮蔽物としてもよい。
・第1実施形態において、ユーザーAの手A1の位置を示すアイコンA2を表示装置11に表示しなくてもよい。この場合、例えば、キャラクターCの音声や表示装置11に表示される文字によって、触感提示状態であることをユーザーAに把握させることが好ましい。
・第2実施形態において、表示装置11に表示されているキャラクターCの特定部位C1を表示装置11の表示面11aの外側である画面外に設定してもよい。
例えば、図9に示すように、キャラクターCの一部が表示装置11の画面外に切れた動画を表示する。例えば、キャラクターCの右手の手首から先の部分が画面の上部に切れた状態になる動作を特定動作とする。そして、表示装置11の画面外に切れているキャラクターCの掌が位置していると仮想される画面外の仮想位置を特定部位C1に設定する。
図10に示すように、ユーザーAは、画面外の特定部位C1に自身の手A1を近接させる動作を行う。これにより、触感提示装置13が動作し、ユーザーAの手A1にキャラクターCに基づく触感が提示される。この場合、ユーザーAは、第2ステップにおいて、キャラクターCの特定部位C1の感触を体感した際に、画面外に切れているキャラクターCの特定部位C1を想像によって補完する。これにより、ユーザーAの動画への没入感が更に向上する。
・第2ステップにおいて、触感提示状態となる契機は、キャラクターCが特定動作を行うことに限定されない。例えば、配信者の操作に基づいて触感提示状態となるように構成してもよい。例えば、ライブ配信中の配信者は、鼓動等の登録済み触感を任意に選択し、選択した触感を触感提示装置13により再生させる又は再生可能な状態とするための操作を行う。つまり、配信者は、触感提示装置13を通じて任意の触感をユーザーAに伝達する操作、即ち、触感伝送を行う。この触感伝送自体を契機として触感提示状態となるように視聴システム10を構成する。また、ライブ配信中の配信者の音声や動作による誘導を契機として触感提示状態となるように視聴システム10を構成してもよい。
・第2ステップにおいて、触感提示装置13からユーザーAの手A1に触感が提示されるタイミングは、ユーザーAの手A1が触感提示装置13の提示部22に接触したタイミングに限定されない。例えば、ユーザーAの手A1を触感提示装置13の提示部22に接触させた状態とした後、ライブ配信中の配信者が触感伝送の操作を行ったときに触感を提示してもよい。
また、表示装置11の画面内に触覚提示に用いるアイコンなどの触覚用表示部を設け、ユーザーAの手A1の位置を示すアイコンA2及びキャラクターCの手などの一部が共に触覚用表示部に触れたとき、つまり、触覚用表示部にてユーザーAとキャラクターCとが擬似的に触れ合ったときに触感を提示してもよい。この場合、アイコンA2は、ユーザーAの手A1の位置と触感提示装置13の提示部22との位置関係を、触覚用表示部とアイコンA2との位置関係として示す。
・第1ステップは、キャラクターCの動画を単純に視聴するのみであってもよく、キャラクターCとの対話可能な状態であるか否かは特に限定されない。
・表示装置11に表示されるキャラクターCの動画は、ライブ配信の動画に限定されない。例えば、AIによりキャラクターCが動作及び応答する動画であってもよいし、キャラクターCが予めプログラムされた動作を行う動画であってもよい。
・第1実施形態の触感提示装置13に用いられる振動子22bをその他の振動子に変更してもよい。その他の振動子としては、例えば、イオン交換ポリマーメタル複合体(IPMC:Ionic Polymer Metal Composite)等の他の電場応答性高分子アクチュエータ(EPA:Electroactive Polymer Actuator)、偏心モータ、リニア共振アクチュエータ、ボイスコイルアクチュエータ、ピエゾアクチュエータが挙げられる。また、第2実施形態の触感提示装置13をシート状のDEAに代えて、イオン交換ポリマーメタル複合体(IPMC:Ionic Polymer Metal Composite)等の他の電場応答性高分子アクチュエータとしてもよい。
A…ユーザー
A1…手
A2…アイコン
C…キャラクター
G…グローブ
10…視聴システム
11…表示装置
11a…表示面
13…触感提示装置
14…位置検出装置
22…提示部
43b…触感制御部

Claims (2)

  1. 非装着型の表示装置に表示されたキャラクターの動画を視聴するユーザーの手に対して、触感提示装置によって前記キャラクターに基づく触感を提示するための視聴方法であって、
    前記表示装置に表示された前記動画を視聴する第1ステップと、
    前記キャラクターに基づく触感を体感する第2ステップとを備え、
    前記第2ステップは、前記触感提示装置における触感を提示する提示部を、前記表示装置の表示面に正対する前記ユーザーから視認できない位置に配置した状態として実行され
    前記第2ステップにおいて、前記触感提示装置は、前記ユーザーから視認し難くなるように前記触感提示装置を遮蔽する遮蔽物を前記ユーザーとの間に挟んで配置され、
    前記遮蔽物は、前記表示装置であり、
    前記第2ステップにおいて、前記ユーザーの手の位置を示すアイコンを前記表示装置に表示し、
    前記アイコンは、前記ユーザーの手の位置と前記触感提示装置との位置関係を、前記キャラクターと当該アイコンとの位置関係として示していることを特徴とする視聴方法。
  2. 非装着型の表示装置に表示されたキャラクターの動画を視聴するユーザーの手に対して、触感提示装置によって前記キャラクターに基づく触感を提示するための視聴方法であって、
    前記表示装置に表示された前記動画を視聴する第1ステップと、
    前記キャラクターに基づく触感を体感する第2ステップとを備え、
    前記第2ステップは、前記触感提示装置における触感を提示する提示部を、前記表示装置の表示面に正対する前記ユーザーから視認できない位置に配置した状態として実行され
    前記触感提示装置の前記提示部は、前記ユーザーの手に装着される非透明のグローブの内部に配置され、
    前記第2ステップにおいて、前記キャラクターの一部が前記表示装置の画面外に切れた動画が表示され、
    前記表示装置の画面外に切れている前記キャラクターの一部が位置する仮想位置に前記ユーザーの手を位置させた場合に、前記キャラクターに基づく触感が提示されることを特徴とする視聴方法。
JP2021038455A 2021-03-10 2021-03-10 視聴方法 Active JP7420099B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021038455A JP7420099B2 (ja) 2021-03-10 2021-03-10 視聴方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021038455A JP7420099B2 (ja) 2021-03-10 2021-03-10 視聴方法

Publications (2)

Publication Number Publication Date
JP2022138528A JP2022138528A (ja) 2022-09-26
JP7420099B2 true JP7420099B2 (ja) 2024-01-23

Family

ID=83399051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021038455A Active JP7420099B2 (ja) 2021-03-10 2021-03-10 視聴方法

Country Status (1)

Country Link
JP (1) JP7420099B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330582A (ja) 2002-05-14 2003-11-21 Univ Waseda 視覚及び触覚を利用した感覚呈示装置
JP2012005773A (ja) 2010-06-28 2012-01-12 Taito Corp ゲーム装置
WO2014119383A1 (ja) 2013-01-29 2014-08-07 日本電気株式会社 触力覚提示装置、触力覚提示システム、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330582A (ja) 2002-05-14 2003-11-21 Univ Waseda 視覚及び触覚を利用した感覚呈示装置
JP2012005773A (ja) 2010-06-28 2012-01-12 Taito Corp ゲーム装置
WO2014119383A1 (ja) 2013-01-29 2014-08-07 日本電気株式会社 触力覚提示装置、触力覚提示システム、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
JP2022138528A (ja) 2022-09-26

Similar Documents

Publication Publication Date Title
JP6703044B2 (ja) 視線に応じた触覚効果を提供するシステム、方法及び電子装置
KR100877067B1 (ko) 햅틱 버튼 및 이를 이용한 햅틱 기기
US20190138100A1 (en) Input apparatus and control method for input apparatus
US9814975B2 (en) Gaming device with haptic effect isolated to user input elements
US10293249B2 (en) Haptic peripheral having a deformable substrate configured for amplified deformation
US20120194460A1 (en) Tactile sensation providing apparatus and control method for tactile sensation providing apparatus
WO2016138209A1 (en) Overlaying of haptic effects
JP2016015140A (ja) 静電触覚効果を提供する表面要素のためのシステム及び方法
JP2013508913A (ja) 屈曲アセンブリおよび触覚フィードバックのための固定具
KR102401922B1 (ko) 손가락 누르기 입력 이벤트들 동안 손가락 감각들을 수정하기 위한 시스템들
US20120154133A1 (en) Haptic feedback case for electronic equipment
JP2018063709A (ja) ウェアラブル装置又はハンドヘルド装置を介して静電触覚効果を提供するためのシステム及び方法
US11809629B1 (en) Wearable electronic device for inducing transient sensory events as user feedback
Kim et al. Extending “out of the body” tactile phantom sensations to 2D and applying it to mobile interaction
JP7420099B2 (ja) 視聴方法
KR20060075135A (ko) 촉감장치와 그를 이용한 촉감마우스
US20210117001A1 (en) Haptic feedback capturing device and a method thereof
Lee et al. Mobile gesture interaction using wearable tactile displays
TW201126377A (en) Electroactive polymer transducers for tactile feedback devices
CN212379815U (zh) 基于线性马达的新型电磁触觉模拟反馈装置
EP3264747A1 (en) Display device, display method and program
JP2011187087A (ja) 入力装置および入力装置の制御方法
WO2023037463A1 (ja) 触感提示装置
KR20200129454A (ko) 이동 진동파를 제공할 수 있는 vr 또는 게임 컨트롤러 및 그 제어 방법, 이를 구비한 vr 시스템
KR20120070504A (ko) 전자기기용 촉각 피드백 케이스

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R151 Written notification of patent or utility model registration

Ref document number: 7420099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151