JP7140237B2 - 振動体感装置 - Google Patents
振動体感装置 Download PDFInfo
- Publication number
- JP7140237B2 JP7140237B2 JP2021095089A JP2021095089A JP7140237B2 JP 7140237 B2 JP7140237 B2 JP 7140237B2 JP 2021095089 A JP2021095089 A JP 2021095089A JP 2021095089 A JP2021095089 A JP 2021095089A JP 7140237 B2 JP7140237 B2 JP 7140237B2
- Authority
- JP
- Japan
- Prior art keywords
- vibration
- vibrating
- user
- audio signal
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Details Of Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
- User Interface Of Digital Computer (AREA)
Description
、より迫力のある演奏を楽しむことができる。一方、ヘッドホン、イヤホン又は小径のス
ピーカで音を再生する場合においては、音圧まで再現することは困難である。そこで、手
軽に臨場感が高いオーディオ再生環境を構築することが望まれる。
装置が記載されている。
ち音源方向も再現したコンテンツが増加しており、単にオーディオ信号に合わせて振動を
発生させるだけでは、かえって臨場感を欠くことになりかねない。
備え、音源とユーザとの相対的な位置に基づいて振動させる前記振動部を決定し、前記オ
ーディオ信号で表される音の大きさに応じた大きさの振動信号を、前記決定した振動部に
出力する振動体感装置を提供する。
限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。
また、一部の構成要素を用いない場合もある。
<実施形態を用いたシステム>
図1は、実施形態に係る振動体感装置を用いたシステムの一例を模式的に示す図である
。
ンテンツを再生するコンテンツ出力装置110と、を含む。
されるが、これらに限定されない。映像は、2D又は3Dの動画像又は静止画像が例示さ
れる。
むものとする。一例として、オブジェクトベースオーディオ(オブジェクトオーディオと
も言う)データは、各々のオブジェクトの動き及び音量の変化等のデータを含んでおり、
AVアンプ等は、スピーカの位置や数にあわせて最適なレンダリングを行い、最終的な音
を再生する。
示されるが、これらに限定されない。
ンピュータ又は据置型ゲーム機と、AVアンプと、表示装置と、音声出力装置と、の組み
合わせが例示される。コンテンツプレーヤは、Blu-ray(登録商標)プレーヤが例
示されるが、これに限定されない。表示装置は、VRヘッドマウントディスプレイ(以下
、VRHMDと言う)、テレビジョン装置又はプロジェクタが例示されるが、これらに限
定されない。音声出力装置は、スピーカ、ヘッドホン又はイヤホンが例示されるが、これ
らに限定されない。
3と、センサ部114と、通信部115と、記録媒体読取部116と、を含む。
して、処理部111に出力する。ネットワークNは、有線であっても良いし、無線であっ
ても良い。
って、処理部111に出力する。記録媒体117は、Blu-ray(登録商標)ディス
クが例示されるが、これに限定されない。
力する。ユーザUの向いている方向は、ユーザUの顔が向いている方向又はユーザUの身
体が向いている方向が例示されるが、これに限定されない。
ン又はタブレットの画像表示側に搭載された前面カメラ(インカメラ)が例示されるが、
これに限定されない。
れたカメラ又はビーコンが例示されるが、これに限定されない。
部112に表示させる。処理部111は、CPU(Central Processing Unit)が例示
されるが、これに限定されない。
ォン若しくはタブレットに搭載された表示パネル、又は、スマートフォン若しくはタブレ
ットに接続されたVRHMD、テレビジョン装置若しくはプロジェクタが例示されるが、
これらに限定されない。
、テレビジョン装置又はプロジェクタが例示されるが、これらに限定されない。
声出力部113に出力させる。
ォン若しくはタブレットに搭載されたスピーカ、又は、スマートフォン若しくはタブレッ
トに接続されたヘッドホン又はイヤホンが例示されるが、これらに限定されない。
ヘッドホン又はイヤホンが例示されるが、これらに限定されない。
、コンテンツデータに含まれるオーディオデータをそのままオーディオ信号S1として振
動体感装置1に送信しても良い。
データに含まれるオーディオデータの内の低音成分だけをオーディオ信号S1として振動
体感装置1に送信しても良い。
定められたカットオフ周波数を有するローパスフィルタに通過させた後の信号を、オーデ
ィオ信号S1として振動体感装置1に送信しても良い。
含まれている場合には、予め定められた周波数以下の低音を発するオブジェクトのオーデ
ィオデータだけをオーディオ信号S1として振動体感装置1に送信しても良い。
ィオデータが含まれている場合には、サブウーファーを駆動するためのオーディオデータ
をオーディオ信号S1として振動体感装置1に送信しても良い。
動体感装置1に出力する。音源位置情報S2は、スピーカが音を発する方向の情報を含ん
でも良い。
タが含まれている場合には、複数のオブジェクトの位置情報を音源位置情報S2として振
動体感装置1に送信しても良い。
して振動体感装置1に送信しても良い。支配的なオブジェクトとは、最も信号レベルが高
いオブジェクトが例示される。
複数のオブジェクトの平均的な位置情報を音源位置情報S2として振動体感装置1に送信
しても良い。平均的な位置情報は、複数の物体の質量及び位置関係から重心を算出するよ
うに、質量を信号レベルに置き換えて算出しても良い。信号レベルは、単位時間毎の信号
レベルの平均値を用いても良い。
置情報だけを音源位置情報S2として振動体感装置1に送信しても良い。
ている方向を表す情報であるユーザ位置情報S3を、振動体感装置1に出力する。なお、
ユーザUの位置及び向いている方向は、オブジェクトが位置する空間内での絶対的な位置
及び方向であっても良いし、オブジェクトとユーザUとの相対的な位置及び方向であって
も良い。
<実施形態>
[構成]
図2は、実施形態に係る振動体感装置の構成を示す図である。振動体感装置1は、オー
ディオ信号取得部11と、音源位置情報取得部12と、ユーザ位置情報取得部13と、振
動部位算出部14と、振動信号生成部15と、複数の振動部16と、を含む。複数の振動
部16は、ユーザUの身体の複数の部位に夫々装着される。
る。図3は、ユーザUを正面から見た図である。図4は、ユーザUを背面から見た図であ
る。
に取り付けられている。そして、ユーザUが、ベスト20を着用している。これにより、
複数の振動部16は、ユーザUに装着されている。なお、実施形態では、複数の振動部1
6がベスト20に取り付けられていることとしたが、これに限定されない。複数の振動部
16は、バンド、ベルト、腹巻等に取り付けられて、ユーザUに装着されても良い。
好ましい。軸21は、ユーザUが直立した場合に、頭頂と両足間とを結ぶ線が例示される
が、これに限定されない。
に装着され、他の1個の振動部16がユーザUの背部に装着されることが好ましい。或い
は、1個の振動部16がユーザUの右脇腹に装着され、他の1個の振動部16がユーザU
の左脇腹に装着されることが好ましい。
Uの腹部と背部と右脇腹と左脇腹とに夫々装着されることが好ましい。
方向に沿って複数の振動部16が配置されることが好ましい。例えば、図3では、ユーザ
Uの身体の中央腹部には、軸21の延在方向に沿って3個の振動部16を含む振動部群1
6aが配置されている。そして、振動体感装置1は、例えば、オブジェクトの位置がユー
ザUの位置よりも高い場合に、振動部群16aの中で最も高い位置に配置されている振動
部16a1を最も強く振動させることが好ましい。例えば、振動体感装置1は、オブジェ
クトが飛行機である場合に、振動部群16aの中で最も高い位置に配置されている振動部
16a1を最も強く振動させることが好ましい。これにより、ユーザUは、臨場感をより
感じることができる。
構成することが例示されるが、これらに限定されない。
3、振動部位算出部14及び振動信号生成部15は、ベスト20に取り付けられていても
良いし、ベスト20に取り付けられず、複数の振動部16と分離していても良い。
ツ出力装置110から取得して、振動信号生成部15に出力する。
て、振動部位算出部14に出力する。
得して、振動部位算出部14に出力する。
与えるユーザUの部位を表す部位情報S4を算出し、振動信号生成部15に出力する。
的な位置関係から、オブジェクトが音を発する方向を算出する。次に、振動部位算出部1
4は、ユーザUが向いている方向とオブジェクトが音を発する方向とから、振動が伝わる
べき方向を算出する。
力部112は、テレビジョン装置である。
部112に正対している。つまり、ユーザUが向いている方向33は、Y軸方向である。
オブジェクト31は、ユーザUから見て、斜め右前の方向に位置している。オブジェクト
31は、Y軸方向と逆の方向32に、音を発する。この場合、振動部位算出部14は、オ
ブジェクト31からユーザUに向かう方向34を、振動が伝わるべき方向として算出する
。そして、振動部位算出部14は、方向33と方向34とがなす角度θに基づいて、ユー
ザUの右腹部35を、振動を与える部位として算出する。再び図3を参照すると、振動体
感装置1は、ユーザUの右腹部に配置された、3個の振動部16を含む振動部群16bを
振動させる。
い部位を、振動を与える部位として算出しても良い。再び図5を参照すると、ユーザUの
身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの右腹部35である。従
って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い
、ユーザUの右腹部35を、振動を与える部位として算出しても良い。
する部位を、振動を与える部位として算出しても良い。再び図5を参照すると、ユーザU
の身体の部位の内でオブジェクト31に対向する部位は、ユーザUの右腹部35である。
従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向す
る、ユーザUの右腹部35を、振動を与える部位として算出しても良い。
す状態から、ユーザUが、方向33をXY平面に垂直な方向を軸として、矢印36で示す
ように180度回転させた状態を示す図である。
る方向33は、Y軸方向と逆の方向である。オブジェクト31は、ユーザUから見て、斜
め左後の方向に位置している。オブジェクト31は、Y軸方向と逆の方向32に、音を発
する。この場合、振動部位算出部14は、オブジェクト31からユーザUに向かう方向3
4を、振動が伝わるべき方向として算出する。そして、振動部位算出部14は、方向33
と方向34とがなす角度θに基づいて、ユーザUの左背部37を、振動を与える部位とし
て算出する。再び図4を参照すると、振動体感装置1は、ユーザUの左背部に配置された
、3個の振動部16を含む振動部群16dを振動させる。
い部位を、振動を与える部位として算出しても良い。再び図6を参照すると、ユーザUの
身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの左背部37である。従
って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い
、ユーザUの左背部37を、振動を与える部位として算出しても良い。
する部位を、振動を与える部位として算出しても良い。再び図6を参照すると、ユーザU
の身体の部位の内でオブジェクト31に対向する部位は、ユーザUの左背部37である。
従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向す
る、ユーザUの左背部37を、振動を与える部位として算出しても良い。
ンツデータは、マルチカメラアングルを有するものとする。そして、図7は、図5に示す
状態から、ユーザUが、コンテンツ出力装置110を操作して、カメラアングルを時計回
りに移動させた状態を示す図である。カメラアングルを時計回りに移動させると、オブジ
ェクト31は、ユーザUから見て、X方向と逆の方向38に移動する。
3は、Y軸方向である。オブジェクト31は、ユーザUから見て、斜め左前の方向に位置
している。オブジェクト31は、Y軸方向と逆の方向39に、音を発する。この場合、振
動部位算出部14は、オブジェクト31からユーザUに向かう方向40を、振動が伝わる
べき方向として算出する。そして、振動部位算出部14は、方向33と方向40とがなす
角度θに基づいて、ユーザUの左腹部41を、振動を与える部位として算出する。再び図
3を参照すると、振動体感装置1は、ユーザUの左腹部に配置された、3個の振動部16
を含む振動部群16cを振動させる。
い部位を、振動を与える部位として算出しても良い。再び図7を参照すると、ユーザUの
身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの左腹部41である。従
って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い
、ユーザUの左腹部41を、振動を与える部位として算出しても良い。
する部位を、振動を与える部位として算出しても良い。再び図7を参照すると、ユーザU
の身体の部位の内でオブジェクト31に対向する部位は、ユーザUの左腹部41である。
従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向す
る、ユーザUの左腹部41を、振動を与える部位として算出しても良い。
力部112は、VRHMDである。
ら見て、斜め右前の方向に位置している。オブジェクト31は、Y軸方向と逆の方向32
に、音を発する。この場合、振動部位算出部14は、オブジェクト31からユーザUに向
かう方向34を、振動が伝わるべき方向として算出する。そして、振動部位算出部14は
、方向33と方向34とがなす角度θに基づいて、ユーザUの右腹部35を、振動を与え
る部位として算出する。再び図3を参照すると、振動体感装置1は、ユーザUの右腹部に
配置された、3個の振動部16を含む振動部群16bを振動させる。
い部位を、振動を与える部位として算出しても良い。再び図8を参照すると、ユーザUの
身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの右腹部35である。従
って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い
、ユーザUの右腹部35を、振動を与える部位として算出しても良い。
する部位を、振動を与える部位として算出しても良い。再び図8を参照すると、ユーザU
の身体の部位の内でオブジェクト31に対向する部位は、ユーザUの右腹部35である。
従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向す
る、ユーザUの右腹部35を、振動を与える部位として算出しても良い。
す状態から、ユーザUが、方向33をXY平面に垂直な方向を軸として、矢印36で示す
ように180度回転させた状態を示す図である。
ユーザUから見て、斜め左後の方向に位置している。オブジェクト31は、Y軸方向と逆
の方向32に、音を発する。この場合、振動部位算出部14は、オブジェクト31からユ
ーザUに向かう方向34を、振動が伝わるべき方向として算出する。そして、振動部位算
出部14は、方向33と方向34とがなす角度θに基づいて、ユーザUの左背部37を、
振動を与える部位として算出する。再び図4を参照すると、振動体感装置1は、ユーザU
の左背部に配置された、3個の振動部16を含む振動部群16dを振動させる。
い部位を、振動を与える部位として算出しても良い。再び図9を参照すると、ユーザUの
身体の部位の内でオブジェクト31に最も近い部位は、ユーザUの左背部37である。従
って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に最も近い
、ユーザUの左背部37を、振動を与える部位として算出しても良い。
する部位を、振動を与える部位として算出しても良い。再び図9を参照すると、ユーザU
の身体の部位の内でオブジェクト31に対向する部位は、ユーザUの左背部37である。
従って、振動部位算出部14は、ユーザUの身体の部位の内でオブジェクト31に対向す
る、ユーザUの左背部37を、振動を与える部位として算出しても良い。
像出力部112がスマートフォン又はタブレットに搭載された表示パネルの場合も、同様
である。
きさに応じた大きさの振動信号S5を、部位情報S4で表される部位に装着されている1
つ又は複数の振動部16に、出力する。
信号生成部15は、複数の極値50の複数の絶対値51を算出する。そして、振動信号生
成部15は、複数の絶対値51に予め定められたゲインを乗じることにより、パルス状の
振動信号S5を生成する。従って、振動信号S5のパルスのタイミングは、オーディオ信
号S1の複数の極値50のタイミングと同じになる。振動信号生成部15は、振動信号S
5を、部位情報S4で表される部位に装着されている1つ又は複数の振動部16に、出力
する。振動信号S5が供給された1つ又は複数の振動部16は、振動信号S5の大きさに
応じた強さで振動する。
は、音の大きさに応じた強さの振動をユーザUに与えることができる。従って、ユーザU
は、臨場感をより感じることができる。
50を算出しても良い。振動信号生成部15は、オーディオ信号S1にヒルベルト変換を
実施することにより、包絡線を算出しても良い。
に通過させないで出力した場合には、オーディオ信号S1を、予め定められたカットオフ
周波数を有するローパスフィルタに通過させても良い。
S5を出力する時間を変更することで、振動部16を振動させる時間を変更しても良い。
例えば、振動信号生成部15は、極値50と極値50との間の時間長が長い場合は、振動
信号S5を出力する時間を長く変更することで、振動部16を振動させる時間を長く変更
しても良い。また、振動信号生成部15は、極値50と極値50との間の時間長が短い場
合は、振動信号S5を出力する時間を短く変更することで、振動部16を振動させる時間
を短く変更しても良い。
ースによる振動時間は長くなる。従って、ユーザUは、再現性の高い音圧を体感すること
ができ、臨場感をより感じることができる。
いる1つ又は複数の振動部16にも、振動信号S5を出力しても良い。この場合、振動信
号生成部15は、部位情報S4で表される部位からの距離に応じて、振動信号S5の振幅
を小さくすると好適である。
動信号生成部15は、オーディオ信号S1で表される音の大きさに応じた大きさの振動信
号S5を、振動部群16aに出力する。加えて、振動信号生成部15は、部位情報S4で
表される部位からの距離に応じて振幅を小さくした振動信号S5を、右腹部に装着された
振動部群16b及び左腹部に装着された振動部群16cにも出力すると良い。
じて振幅を小さくした振動信号S5を、右脇部、左脇部、右背面部、左背面部及び中央背
面部に装着された振動部群に出力しても良い。
の振動部16は、部位情報S4で表される部位に装着されている1つ又は複数の振動部1
6からの距離に応じて、部位情報S4で表される部位に装着されている1つ又は複数の振
動部16よりも弱い振動をユーザUに与える。従って、ユーザUは、複数の部位で異なる
大きさの振動を与えられるので、臨場感をより感じることができる。
S5の振幅に応じた強さの振動を発生する。
[動作]
図11は、実施形態の振動体感装置の動作を示すフローチャートである。振動体感装置
1は、予め定められた周期で、図11に示す処理を実行する。
部111から取得し、振動信号生成部15に出力する。
11から取得し、振動部位算出部14に出力する。
部111から取得し、振動部位算出部14に出力する。
情報S3に基づいて、振動を与えるユーザUの部位を表す部位情報S4を算出し、振動信
号生成部15に出力する。
の大きさに応じた大きさの振動信号S5を、1つ又は複数の振動部16に、出力する。
で、振動信号S5の振幅に応じた強さの振動を発生する。
った場合に、振動を中止しても良い。これにより、ユーザUと異なる人に振動が伝わらな
いようにすることができる。
ら、1つ又は複数の振動部16が振動を開始し、ユーザUが振動を体感するまでの遅延時
間を処理部111に出力しても良い。そして、処理部111が、音声出力部113からの
音声の出力を遅延時間だけ遅らせると良い。これにより、音声出力部113から出力され
る音声と、1つ又は複数の振動部16で発生される振動と、を同期させることができる。
これにより、ユーザUは、臨場感をより感じることができる。
[効果]
以上説明したように、本実施形態によれば、オブジェクト31とユーザUとの位置関係
に応じたユーザUの身体の部位に、振動を与えることができる。これにより、ユーザUの
臨場感を高めることができる。
ユーザ位置情報取得部、14 振動部位算出部、15 振動信号生成部、16 振動部、
16a,16b,16c,16d 振動部群、20 ベスト、31 オブジェクト、10
0 システム、110 コンテンツ出力装置、111 処理部、112 映像出力部、1
13 音声出力部、114 センサ部、115 通信部、116 記録媒体読取部、11
7 記録媒体、120 サーバ。
Claims (8)
- 複数の振動部と、
オーディオ信号を取得する、オーディオ信号取得部と、
を備え、
音源とユーザとの相対的な位置に基づいて振動させる前記振動部を決定し、
前記オーディオ信号で表される音の大きさに応じた大きさの振動信号を、前記決定した振動部に出力する
振動体感装置であって、
前記決定した振動部を第1の振動部とし、前記決定した振動部と異なる振動部を第2の振動部とし、前記第1の振動部と前記第2の振動部との距離に基づいて、前記第2の振動部に出力する振動信号の大きさを決定する振動体感装置。 - 複数の振動部と、
オーディオ信号を取得する、オーディオ信号取得部と、
を備え、
音源とユーザとの相対的な位置に基づいて振動させる前記振動部を決定し、
前記オーディオ信号で表される音の大きさに応じた大きさの振動信号を、前記決定した振動部に出力する
振動体感装置であって、
前記決定した振動部を第1の振動部とし、前記決定した振動部と異なる振動部を第2の振動部とし、前記第1の振動部と前記第2の振動部との距離が遠いほど、前記第2の振動部に出力する振動信号の大きさを小さくする振動体感装置。 - 複数の振動部と、
オーディオ信号を取得する、オーディオ信号取得部と、
を備え、
音源とユーザとの相対的な位置に基づいて振動させる前記振動部を決定し、
前記オーディオ信号で表される音の大きさに応じた大きさの振動信号を、前記決定した振動部に出力する
振動体感装置であって、
前記音源が複数の場合、最も信号レベルが高い前記音源の位置を用いる振動体感装置。 - 複数の振動部と、
オーディオ信号を取得する、オーディオ信号取得部と、
を備え、
音源とユーザとの相対的な位置に基づいて振動させる前記振動部を決定し、
前記オーディオ信号で表される音の大きさに応じた大きさの振動信号を、前記決定した振動部に出力する
振動体感装置であって、
前記音源が複数の場合、各音源の平均的な位置を用いる振動体感装置。 - 複数の振動部と、
オーディオ信号を取得する、オーディオ信号取得部と、
を備え、
音源とユーザとの相対的な位置に基づいて振動させる前記振動部を決定し、
前記オーディオ信号で表される音の大きさに応じた大きさの振動信号を、前記決定した振動部に出力する
振動体感装置であって、
前記オーディオ信号の包絡線に基づいて複数の極値を算出し、極値と極値との間の時間長に応じて、前記振動信号を出力する時間を変更する振動体感装置。 - 複数の振動部と、
オーディオ信号を取得する、オーディオ信号取得部と、
を備え、
音源とユーザとの相対的な位置に基づいて振動させる前記振動部を決定し、
前記オーディオ信号で表される音の大きさに応じた大きさの振動信号を、前記オーディオ信号の極値のタイミングを用いて新たに生成し、前記決定した振動部に出力する
振動体感装置。 - 前記音源が音を発する方向と前記ユーザが向いている方向とに基づいて、振動させる前記振動部を決定する、請求項1から6のいずれか1項に記載の振動体感装置。
- 前記音源が音を発する方向と前記ユーザが向いている方向とがなす角度に基づいて、振動させる前記振動部を決定する、請求項1から7のいずれか1項に記載の振動体感装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021095089A JP7140237B2 (ja) | 2017-12-28 | 2021-06-07 | 振動体感装置 |
JP2022142034A JP7476930B2 (ja) | 2017-12-28 | 2022-09-07 | 振動体感装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017252982A JP6927029B2 (ja) | 2017-12-28 | 2017-12-28 | 振動体感装置 |
JP2021095089A JP7140237B2 (ja) | 2017-12-28 | 2021-06-07 | 振動体感装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017252982A Division JP6927029B2 (ja) | 2017-12-28 | 2017-12-28 | 振動体感装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022142034A Division JP7476930B2 (ja) | 2017-12-28 | 2022-09-07 | 振動体感装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021145373A JP2021145373A (ja) | 2021-09-24 |
JP7140237B2 true JP7140237B2 (ja) | 2022-09-21 |
Family
ID=67307432
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017252982A Active JP6927029B2 (ja) | 2017-12-28 | 2017-12-28 | 振動体感装置 |
JP2021095089A Active JP7140237B2 (ja) | 2017-12-28 | 2021-06-07 | 振動体感装置 |
JP2022142034A Active JP7476930B2 (ja) | 2017-12-28 | 2022-09-07 | 振動体感装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017252982A Active JP6927029B2 (ja) | 2017-12-28 | 2017-12-28 | 振動体感装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022142034A Active JP7476930B2 (ja) | 2017-12-28 | 2022-09-07 | 振動体感装置 |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP6927029B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7192813B2 (ja) * | 2020-03-12 | 2022-12-20 | 株式会社豊田中央研究所 | ユーザインターフェース装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005349155A (ja) | 2004-06-09 | 2005-12-22 | Sds:Kk | 音源方向検知伝達装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08116581A (ja) * | 1994-02-28 | 1996-05-07 | Bodeisonitsuku Kk | 装着型体感振動装置 |
JP4484570B2 (ja) * | 2004-04-14 | 2010-06-16 | 富士ゼロックス株式会社 | 音響情報処理装置、音響情報提供方法 |
US9786201B2 (en) * | 2014-05-16 | 2017-10-10 | Not Impossible LLC | Wearable sound |
EP3037918A1 (en) * | 2014-12-23 | 2016-06-29 | Thomson Licensing | System and method for localizing haptic effects on a body |
JP6571701B2 (ja) * | 2017-02-02 | 2019-09-04 | 日本電信電話株式会社 | 体感装置、およびその方法 |
-
2017
- 2017-12-28 JP JP2017252982A patent/JP6927029B2/ja active Active
-
2021
- 2021-06-07 JP JP2021095089A patent/JP7140237B2/ja active Active
-
2022
- 2022-09-07 JP JP2022142034A patent/JP7476930B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005349155A (ja) | 2004-06-09 | 2005-12-22 | Sds:Kk | 音源方向検知伝達装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7476930B2 (ja) | 2024-05-01 |
JP6927029B2 (ja) | 2021-08-25 |
JP2019121813A (ja) | 2019-07-22 |
JP2022172315A (ja) | 2022-11-15 |
JP2021145373A (ja) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10390139B2 (en) | Apparatus and methods for audio-tactile spatialization of sound and perception of bass | |
US11263879B2 (en) | Tactile transducer with digital signal processing for improved fidelity | |
JP7270820B2 (ja) | 空間化オーディオを用いた複合現実システム | |
US9968846B2 (en) | Information processing apparatus, storage medium having stored therein information processing program, information processing system, and information processing method | |
US10062247B2 (en) | Vibration generation system, storage medium having stored therein vibration generation program, and vibration generation method | |
US10796540B2 (en) | Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method | |
CN109691141B (zh) | 空间化音频系统以及渲染空间化音频的方法 | |
CN107277736B (zh) | 模拟系统、声音处理方法及信息存储介质 | |
JP6246922B2 (ja) | 音響信号処理方法 | |
JP2014083205A (ja) | 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 | |
JP5647138B2 (ja) | 情報処理システムへのユーザーインターフェースを提供する方法および装置 | |
JP2014090251A (ja) | 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 | |
JP7476930B2 (ja) | 振動体感装置 | |
JP2009177574A (ja) | ヘッドホン | |
JP5860629B2 (ja) | 音源定位制御プログラムおよび音源定位制御装置 | |
KR102036021B1 (ko) | 입체 음향을 제공하는 스피커 장치 | |
JP2018143479A (ja) | ゲームプログラム及びゲームシステム | |
JP3573797B2 (ja) | ステレオ音声再生装置 | |
JP2018064216A (ja) | 力覚データ生成装置、電子機器、力覚データ生成方法、および制御プログラム | |
JP6506486B2 (ja) | 仮想現実画像提供装置および仮想現実画像提供用プログラム | |
US20100135509A1 (en) | Zeleny sonosphere | |
JP2022173870A (ja) | 鑑賞システム、鑑賞装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210630 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7140237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |