JPWO2020090223A1 - 情報処理装置、情報処理方法及び記録媒体 - Google Patents
情報処理装置、情報処理方法及び記録媒体 Download PDFInfo
- Publication number
- JPWO2020090223A1 JPWO2020090223A1 JP2020554791A JP2020554791A JPWO2020090223A1 JP WO2020090223 A1 JPWO2020090223 A1 JP WO2020090223A1 JP 2020554791 A JP2020554791 A JP 2020554791A JP 2020554791 A JP2020554791 A JP 2020554791A JP WO2020090223 A1 JPWO2020090223 A1 JP WO2020090223A1
- Authority
- JP
- Japan
- Prior art keywords
- timing
- reproduction
- information processing
- user
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 106
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000033001 locomotion Effects 0.000 claims abstract description 106
- 230000007704 transition Effects 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 22
- 230000000694 effects Effects 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 9
- 230000009191 jumping Effects 0.000 claims description 5
- 238000005562 fading Methods 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 description 53
- 238000000034 method Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 230000001133 acceleration Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000005484 gravity Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000002238 attenuated effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
- G10H1/42—Rhythm comprising tone forming circuits
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/46—Volume control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
- G10H2210/391—Automatic tempo adjustment, correction or control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/201—User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/395—Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Electrophonic Musical Instruments (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Circuit For Audible Band Transducer (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
Description
1.はじめに
2.構成例
3.技術的特徴
3.1.基本処理
3.2.変形例
4.ハードウェア構成例
5.まとめ
(1)概要
本開示の一実施形態に係る情報処理装置は、コンテンツの再生を制御する機能を有する装置である。コンテンツは、効果音、音楽、画像、映画、又はゲーム等の、音、画像、及び/又は触覚刺激により構成されるデータである。以下、図1を参照しながら、本開示の一実施形態に係る情報処理装置の概要を説明する。
・第1のユースケース
第1のユースケースは、ユーザがキャラクターになりきって楽しむユースケースである。ユーザは、普段装着している、又はテーマパーク等で貸与されたヘッドホン(情報処理装置1に相当)を装着する。そして、ユーザが特定のエリアに入ったり、ヘッドホンに接続されたスマートフォンのアプリケーションが起動されたりした場合に、ユーザの移動動作に連動して足音が出力される。例えば、キャラクターがロボットである場合には機械が軋むような足音が出力され、キャラクターが小動物である場合には軽く弾むような足音が出力される。このように、キャラクターに応じた足音が提示されることで、ユーザは、キャラクターになりきって楽しむことが可能となる。
第2のユースケースは、ユーザが仮想空間を楽しむユースケースである。ユーザは、ヘッドホン付きのHMD(情報処理装置1に相当)を装着する。HMDは、透過性の表示装置により実空間に仮想オブジェクトを重畳して表示することでAR(Augmented Reality)体験をユーザに提供し得る。また、HMDは、非透過性の表示装置により仮想空間を表示することでVR(Virtual Reality)体験をユーザに提供し得る。例えば、HMDは、ユーザが仮想空間のうち水がたまっている領域を歩くと、水を踏むような足音を出力する。このように、仮想空間に応じた足音が提示されることで、ユーザは、仮想空間により没入することが可能となる。
図3は、本実施形態に係る情報処理装置1の論理的な機能構成の一例を示すブロック図である。図3に示すように、情報処理装置1は、第1のセンサ部10、出力部20、記憶部30及び制御部40を含む。
第1のセンサ部10は、ユーザの移動動作に関する情報をセンシングする機能を有する。とりわけ、第1のセンサ部10のユーザの体の動きをセンシングする機能を有する。例えば、第1のセンサ部10は、加速度センサ、及びジャイロセンサを含み、移動動作における体の上下運動及び着地時の衝撃等を示すセンサ情報をセンシングする。他にも、第1のセンサ部10は、手の動き又は頭の動き等の、ユーザの体の各部位の動きをセンシングしてもよい。第1のセンサ部10は、センシングの結果得られたセンサ情報を、制御部40に出力する。
出力部20は、制御部40による制御に基づいてコンテンツを出力する機能を有する。例えば、出力部20は、画像を出力する表示装置、音を出力する音出力装置、及び/又は触覚刺激を出力する触覚刺激出力装置を含む。表示装置は、例えば、ディスプレイ、プロジェクタ、又は網膜投影装置により実現される。音出力装置は、例えば、ヘッドホン、イヤホン、又はヘッドホンにより実現される。触覚刺激出力装置は、例えば、偏心モータ、低周波出力装置、又は電気刺激出力装置により実現される。
記憶部30は、情報処理装置1による情報処理に用いられる情報を記憶する機能を有する。例えば、記憶部30は、出力部20から出力されるコンテンツを記憶する。他にも、記憶部30は、コンテンツの再生制御のための各種設定情報を記憶する。
制御部40は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する機能を有する。図3に示すように、制御部40は、検出部41、予測部42及び再生制御部43を含む。
検出部41は、ユーザの移動動作に関するセンサ情報に基づいて、ユーザの移動動作における状態を検出する機能を有する。例えば、検出部41は、移動動作における所定状態のタイミングを検出する。所定状態のタイミングは、例えば、歩行動作若しくは走行動作において着地するタイミング、又はジャンプ動作における最高地点に到達するタイミングである。なお、ジャンプ動作における最高地点とは、地面から足、頭部又は重心等の身体の任意の部位までの距離が最大になる状態を指す。もちろん、所定状態は、これらの例に限定されず、移動動作における任意の状態を含み得る。例えば、検出部41は、重力方向の加速度等を示すセンサ情報の時系列推移、又はINS(inertial navigation system)演算等のセンサ情報に基づく演算結果の時系列推移に基づいて、移動動作における所定状態のタイミングを検出する。他にも、検出部41は、移動動作の停止、及び進行方向の変更等の、多様な状態を検出し得る。また、検出部41は、移動動作の大きさ(歩いている又は走っている等)の度合いを、センサ情報の振幅及び/又は周期等に基づいて検出し得る。検出部41は、検出結果を示す情報を再生制御部43に出力する。なお、センサ情報は、センサから得られる生データであってもよいし、生データに対し平均又は外れ値の除去等の所定の処理が適用された処理結果であってもよい。また、タイミングとは、時刻を指していてもよいし、所定時刻からの経過時間を指していてもよいし、これらの値に所定の処理が適用された処理結果であってもよい。
予測部42は、ユーザの移動動作に関するセンサ情報に基づいて、移動動作における所定状態のタイミングを予測する機能を有する。即ち、予測部42は、検出部41により検出されるタイミングを、検出部41により検出されるよりも前に予測する機能を有する。例えば、予測部42は、センサ情報、INS演算等のセンサ情報に基づく演算結果、及び/又は検出部41による検出結果に基づいて、移動動作における所定状態のタイミングを予測する。
再生制御部43は、予測部42による予測結果に基づいて、出力部20によるコンテンツの再生を制御する機能を有する。例えば、再生制御部43は、記憶部30に記憶されたコンテンツを、予測部42による予測結果に応じた再生パラメータで再生する。再生パラメータは、例えば、再生対象のコンテンツの識別情報、再生タイミング、音量、及びエフェクト等を含む。さらに、再生制御部43は、検出部41による検出結果に基づいて、コンテンツを制御してもよい。例えば、再生制御部43は、記憶部30に記憶されたコンテンツを、検出部41による検出結果、及び予測部42による予測結果に応じた再生パラメータで再生する。
<3.1.基本処理>
(1)所定状態のタイミングの予測
・検出結果の時系列推移を利用した予測
所定状態のタイミングは、センサ情報に基づいて検出された所定状態のタイミングの時間間隔の時系列推移に基づいて予測されてもよい。例えば、予測部42は、過去の着地タイミングの時間間隔の平均値を前回の着地タイミングに加算することで、次回の着地タイミングを予測することができる。通常、歩行は規則的な運動であるためである。
所定状態のタイミングは、センサ情報の時系列推移に基づいて予測されてもよい。例えば、予測部42は、センサ情報の時系列推移が示す傾向に基づいて、次回の着地タイミングを予測する。
所定状態のタイミングは、センサ情報の時系列推移の予測結果又はセンサ情報に基づく演算結果の時系列推移の予測結果に基づいて予測されてもよい。例えば、予測部42は、センサ情報又はセンサ情報に基づく演算結果の時系列推移を予測し、その予測結果に基づいて次回の着地のタイミングを予測する。時系列推移の予測には、例えば、RNN(recurrent neural network)等の任意のモデルが用いられ得る。また、予測の対象は、センサ情報そのものであってもよいし、上述した重力方向のベクトルと加速度センサの値の内積、又は上述したノルムであってもよい。
以上説明した予測技術は、適宜組み合わせて用いられてもよい。例えば、各々の予測結果が予測精度に応じて重み付け平均されることで、最終的な予測結果が得られてもよい。
再生制御部43は、予測された所定状態のタイミングでコンテンツを再生する。再生制御部43は、予測された所定状態のタイミングよりも前にコンテンツを読み出しておき、当該タイミングにおいてコンテンツの再生を開始する。さらに、再生制御部43は、再生制御部43は、予測された所定状態となるタイミングよりも前に音の再生を開始してもよい。例えば、再生制御部43は、予測された所定状態となるタイミングに最大音量が再生されるように、アタック区間(音の立ち上がりから最大音量に至るまでの区間)の分、予測された所定状態となるタイミングに先行して音の再生を開始する。これにより、ユーザの状態が所定状態となるタイミングと同じタイミングで、当該所定状態に応じたコンテンツを提示することが可能となる。なお、音は、音の立ち上がりからアタック区間を経て最大音量に達し、その後減衰して消える。詳しくは、音は、時間方向に順にアタック区間、ディケイ(Decay)区間、サステイン(Sustain)区間、及びリリース(Release)区間を含む。ディケイ区間は、最大音量から音量が減衰していく区間である。サステイン区間は、ディケイ区間を経て減衰した音量が継続する区間である。リリース区間は、音量が減衰して消えるまでの区間である。
図5は、本実施形態に係る情報処理装置1により実行されるコンテンツの再生制御処理の流れの一例を示すフローチャートである。図5に示すように、まず、第1のセンサ部10は、ユーザの歩行時のセンサ情報を取得する(ステップS102)。次いで、予測部42は、センサ情報に基づいて、次の着地時刻を予測する(ステップS104)。次に、再生制御部43は、予測された着地時刻に足音を再生する(ステップS106)。次いで、第1のセンサ部10は、ユーザの歩行時のセンサ情報をさらに取得する(ステップS108)。次に、検出部41は、ユーザが歩行を停止するか否かを検出する(ステップS110)。例えば、検出部41は、ユーザの着地、又はユーザが歩行を停止しそうな状態にあるか否かを検出する。そして、着地が実際に検出される又は歩行を継続していることが検出される等、ユーザが歩行を停止しないことが検出された場合(ステップS110/NO)、再生制御部43は、足音の再生を継続する(ステップS112)。その後、処理はステップS108に戻る。一方で、着地が検出されない又は歩行を停止しようとしていることが検出される等、ユーザが歩行を停止することが検出された場合(ステップS110/YES)、再生制御部43は、足音をフェードアウトさせる等、足音の再生を停止する(ステップS114)。
(1)信頼度に応じた再生制御
再生制御部43は、センサ情報の信頼度に基づいてコンテンツの再生を制御してもよい。
再生制御部43は、ユーザのユーザ情報又はユーザに対応するキャラクターのキャラクター情報に基づいて、コンテンツの再生を制御してもよい。ここでのコンテンツの再生制御としては、再生するコンテンツの選択、音量の制御、及びエフェクトの適用等が挙げられる。
ユーザ情報は、ユーザの体力、動作の変化の大きさ、動作強度、及び動作継続時間等の、ユーザの状態を示す情報を含み得る。キャラクター情報は、例えば、キャラクターの体力、動作の変化の大きさ、動作強度、及び動作継続時間等の、キャラクターの状態を示す情報を含み得る。
ユーザ情報は、ユーザの年齢、性別、身長、体重、及び携行品等の、ユーザの属性を示す情報を含み得る。ユーザの属性を示す情報は、ユーザにより入力されてもよいし、歩き方等に基づいて認識されてもよい。キャラクター情報は、キャラクターの年齢、性別、身長、体重、装備品及び種族等の、キャラクターの属性を示す情報を含み得る。キャラクターの属性を示す情報は、ゲーム又はVRコンテンツ等のコンテンツ内の設定情報に基づき取得される。
ユーザ情報は、ユーザの地理的位置情報、ユーザが位置する地理的エリアを示す情報、ユーザが位置する建物内の部屋を示す情報、及び高度等の、ユーザの位置を示す情報を含み得る。キャラクター情報は、仮想空間におけるキャラクターの地理的位置情報、キャラクターが位置する地理的エリアを示す情報、キャラクターが位置する建物内の部屋を示す情報、及び高度等のキャラクターの位置を示す情報を含み得る。
ここで、図7を参照しながら、ユーザの位置を示す情報を取得するための構成を説明する。図7は、本実施形態に係る情報処理装置1の論理的な構成の他の一例を示すブロック図である。図7に示す情報処理装置1は、図3に示した構成要素に加えて、第2のセンサ部11及び位置情報取得部44を含む。
第2のセンサ部11は、ユーザの位置に関する情報をセンシングする機能を有する。例えば、第2のセンサ部11は、ユーザの周囲の撮像画像を撮像する撮像装置、周囲と信号を送受信する無線通信装置、GNSS(Global Navigation Satellite System)装置、地磁気センサ、又は照度センサ等を含み得る。第2のセンサ部11は、センシングの結果得られたセンサ情報を、制御部40に出力する。
位置情報取得部44は、第2のセンサ部11により得られたセンサ情報に基づいて、ユーザの位置を示す情報を取得する機能を有する。例えば、位置情報取得部44は、ユーザの周囲の撮像画像に基づくSLAM(Simultaneous Localization and Mapping)演算の結果、周囲から受信したビーコン、GNSS情報、又は地磁気情報に基づいて、ユーザの位置を示す情報を取得する。位置情報取得部44は、照度情報に基づいて、屋内か屋外かを示す情報を取得してもよい。他にも、位置情報は、例えば、ユーザ又はイベントの運営係員により手動で入力されてもよい。
再生制御部43は、位置情報取得部44により取得された位置情報にさらに基づいて、コンテンツの再生を制御する。例えば、再生制御部43は、記憶部30に記憶されたコンテンツを、位置情報取得部44により取得された位置情報に応じた再生パラメータで再生する。例えば、再生制御部43は、砂漠が重畳されたエリアにユーザが位置すれば砂の音を再生し、水が重畳されたエリアにユーザが位置すれば水の音を再生する。
検出部41は、着地を検出する間隔を、ユーザの状態に応じて制御してもよい。詳しくは、検出部41は、ユーザの移動動作が大きい場合には短い間隔での着地の検出を許容する一方で、ユーザの動作が少ない場合には短い間隔での着地の検出を許容しない。
再生制御部43は、検出部41による検出結果に基づいて、音源(即ち、音楽)の再生パラメータを制御してもよい。詳しくは、再生制御部43は、移動動作の大きさの検出結果に基づいて、音量、再生速度、ローパスフィルタのカットオフ周波数、及びパン等を設定する。例えば、再生制御部43は、ユーザがゆっくり歩いている場合に、テンポが遅い音源を小さい音量で再生する。一方で、再生制御部43は、ユーザが走っている場合に、テンポが速い音源を大きい音量で再生する。これにより、ユーザは、演奏技術を持っていなくても、あたかも音楽を演奏しているかのような感覚を得ることができ、高い音楽体験を享受することができる。また、ユーザが激しく動くことでより盛り上がる音楽が再生されるので、ランニング又はウォーキングが促進される。
再生制御部43は、音源を再生し、再生中の音源の拍と、移動動作における所定状態のタイミングとが整合する場合に、コンテンツ(より正確には、再生中の音源とは異なるコンテンツ)の再生を制御してもよい。ここでの所定の状態のタイミングは、検出部41により検出されたタイミングであってもよいし、予測部42により予測されたタイミングであってもよい。例えば、再生制御部43は、再生中の音源の拍と予測された着地のタイミングとが整合する場合に限定して、足音を再生する。これにより、ユーザは音楽との一体感を覚えることができるので、ユーザ体験を向上させることができる。
再生制御部43は、音源を再生し、再生中の音源の拍と、移動動作における所定状態のタイミングとが整合する場合に、再生中の音源の小節が切り替わるタイミングで、再生中の音源又は他の音源の再生を制御してもよい。ここでの所定の状態のタイミングは、検出部41により検出されたタイミングであってもよいし、予測部42により予測されたタイミングであってもよい。例えば、再生制御部43は、再生中の音源の拍と検出又は予測された着地のタイミングとが整合する場合、再生中の音源の小節が切り替わるタイミングで、他の音源の再生を開始したり、再生中の音源の再生を停止したり、再生中の音源にエフェクトを適用したりする。適用され得るエフェクトとしては、リバーブ等の音を不明瞭化するエフェクト、及び高音域の強調等の音を明瞭化するエフェクトが挙げられる。なお、再生の開始は音量を0から上げることとして捉えられてもよく、再生の停止は音量を0にすることとして捉えられてもよい。
最後に、図13を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図13は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図13に示す情報処理装置900は、例えば、図3及び図7に示した情報処理装置1を実現し得る。本実施形態に係る情報処理装置1による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
以上、図1〜図13を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態に係る情報処理装置1は、ユーザの移動動作に関するセンサ情報に基づいて予測される、移動動作における所定状態のタイミングの予測結果に基づいて、コンテンツの再生を制御する。実際に移動動作における所定状態が検出されるよりも前に、予測結果に応じたコンテンツの再生制御を開始することができるので、ユーザの体の動きに応じたリアルタイムなコンテンツの提供が可能となる。例えば、情報処理装置1は、ユーザの歩行動作における着地タイミングの予測結果に基づいて、着地タイミングよりも早めに足音の再生処理を開始する。これにより、実際の着地タイミングと足音の再生タイミングとのタイムラグの発生を防止することが可能となる。
(1)
ユーザの移動動作に関するセンサ情報に基づいて予測される、前記移動動作における所定状態のタイミングの予測結果に基づいて、コンテンツの再生を制御する再生制御部、を備える情報処理装置。
(2)
前記所定状態のタイミングは、前記センサ情報に基づいて検出された前記所定状態のタイミングの時間間隔の時系列推移に基づいて予測される、前記(1)に記載の情報処理装置。
(3)
前記所定状態のタイミングは、前記センサ情報の時系列推移に基づいて予測される、前記(1)又は(2)に記載の情報処理装置。
(4)
前記所定状態のタイミングは、前記センサ情報の時系列推移の予測結果又は前記センサ情報に基づく演算結果の時系列推移の予測結果に基づいて予測される、前記(1)〜(3)のいずれか一項に記載の情報処理装置。
(5)
前記再生制御部は、
予測された前記所定状態のタイミングで前記コンテンツを再生し、
予測された前記所定状態のタイミングで実際に前記所定状態となることが前記センサ情報により検出されない場合、前記コンテンツの再生を制御する、
前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記再生制御部は、前記コンテンツの再生を停止する、音量を下げる、又は前記コンテンツに所定のエフェクトを適用する、前記(5)に記載の情報処理装置。
(7)
前記所定のエフェクトは、ぼかし、又はフェードアウトである、前記(6)に記載の情報処理装置。
(8)
前記再生制御部は、前記センサ情報の信頼度に基づいて前記コンテンツの再生を制御する、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記再生制御部は、前記信頼度が所定の閾値よりも高い場合にアタックが強い音を出力し、前記信頼度が前記所定の閾値よりも低い場合にアタックが弱い音を出力する、前記(8)に記載の情報処理装置。
(10)
前記所定状態のタイミングは、歩行動作若しくは走行動作において着地するタイミング、又はジャンプ動作における最高地点に到達するタイミングである、前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記再生制御部は、前記ユーザのユーザ情報、又は前記ユーザに対応するキャラクターのキャラクター情報に基づいて、前記コンテンツの再生を制御する、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記ユーザ情報は、前記ユーザの属性、状態、又は位置の少なくともいずれかを含む、前記(11)に記載の情報処理装置。
(13)
前記コンテンツは、音を含み、
前記ユーザの状態は、前記センサ情報が示す前記ユーザの前記移動動作の変化の大きさを含む、
前記(12)に記載の情報処理装置。
(14)
前記キャラクター情報は、前記キャラクターの属性、状態、又は位置の少なくともいずれかを含む、前記(11)に記載の情報処理装置。
(15)
前記再生制御部は、前記コンテンツの再生パラメータを変更後、所定時間経過するまで前記再生パラメータの再度の変更を抑制する、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記再生制御部は、音源を再生し、再生中の前記音源の拍と、予測された前記所定状態のタイミングとが整合する場合に、前記コンテンツの再生を制御する、前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記再生制御部は、音源を再生し、再生中の前記音源の拍と、前記所定状態のタイミングとが整合する場合に、再生中の前記音源の小節が切り替わるタイミングで、再生中の前記音源又は他の音源の再生を制御する、前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記再生制御部は、マルチトラック音源を再生し、再生中の前記マルチトラック音源の拍と、前記所定状態のタイミングとが整合する場合、再生中の前記マルチトラック音源の小節が切り替わるタイミングで、前記マルチトラック音源に含まれる複数のトラックの再生を制御する、前記(17)に記載の情報処理装置。
(19)
ユーザの移動動作に関するセンサ情報に基づいて予測される、前記移動動作における所定状態のタイミングの予測結果に基づいて、コンテンツの再生を制御すること、を含む、プロセッサにより実行される情報処理方法。
(20)
コンピュータを、
ユーザの移動動作に関するセンサ情報に基づいて予測される、前記移動動作における所定状態のタイミングの予測結果に基づいて、コンテンツの再生を制御する再生制御部、として機能させるためのプログラムが記録された記録媒体。
10 第1のセンサ部
11 第2のセンサ部
20 出力部
30 記憶部
40 制御部
41 検出部
42 予測部
43 再生制御部
44 位置情報取得部
Claims (20)
- ユーザの移動動作に関するセンサ情報に基づいて予測される、前記移動動作における所定状態のタイミングの予測結果に基づいて、コンテンツの再生を制御する再生制御部、を備える情報処理装置。
- 前記所定状態のタイミングは、前記センサ情報に基づいて検出された前記所定状態のタイミングの時間間隔の時系列推移に基づいて予測される、請求項1に記載の情報処理装置。
- 前記所定状態のタイミングは、前記センサ情報の時系列推移に基づいて予測される、請求項1に記載の情報処理装置。
- 前記所定状態のタイミングは、前記センサ情報の時系列推移の予測結果又は前記センサ情報に基づく演算結果の時系列推移の予測結果に基づいて予測される、請求項1に記載の情報処理装置。
- 前記再生制御部は、
予測された前記所定状態のタイミングで前記コンテンツを再生し、
予測された前記所定状態のタイミングで実際に前記所定状態となることが前記センサ情報により検出されない場合、前記コンテンツの再生を制御する、
請求項1に記載の情報処理装置。 - 前記再生制御部は、前記コンテンツの再生を停止する、音量を下げる、又は前記コンテンツに所定のエフェクトを適用する、請求項5に記載の情報処理装置。
- 前記所定のエフェクトは、ぼかし、又はフェードアウトである、請求項6に記載の情報処理装置。
- 前記再生制御部は、前記センサ情報の信頼度に基づいて前記コンテンツの再生を制御する、請求項1に記載の情報処理装置。
- 前記再生制御部は、前記信頼度が所定の閾値よりも高い場合にアタックが強い音を出力し、前記信頼度が前記所定の閾値よりも低い場合にアタックが弱い音を出力する、請求項8に記載の情報処理装置。
- 前記所定状態のタイミングは、歩行動作若しくは走行動作において着地するタイミング、又はジャンプ動作における最高地点に到達するタイミングである、請求項1に記載の情報処理装置。
- 前記再生制御部は、前記ユーザのユーザ情報、又は前記ユーザに対応するキャラクターのキャラクター情報に基づいて、前記コンテンツの再生を制御する、請求項1に記載の情報処理装置。
- 前記ユーザ情報は、前記ユーザの属性、状態、又は位置の少なくともいずれかを含む、請求項11に記載の情報処理装置。
- 前記コンテンツは、音を含み、
前記ユーザの状態は、前記センサ情報が示す前記ユーザの前記移動動作の変化の大きさを含む、
請求項12に記載の情報処理装置。 - 前記キャラクター情報は、前記キャラクターの属性、状態、又は位置の少なくともいずれかを含む、請求項11に記載の情報処理装置。
- 前記再生制御部は、前記コンテンツの再生パラメータを変更後、所定時間経過するまで前記再生パラメータの再度の変更を抑制する、請求項1に記載の情報処理装置。
- 前記再生制御部は、音源を再生し、再生中の前記音源の拍と、予測された前記所定状態のタイミングとが整合する場合に、前記コンテンツの再生を制御する、請求項1に記載の情報処理装置。
- 前記再生制御部は、音源を再生し、再生中の前記音源の拍と、前記所定状態のタイミングとが整合する場合に、再生中の前記音源の小節が切り替わるタイミングで、再生中の前記音源又は他の音源の再生を制御する、請求項1に記載の情報処理装置。
- 前記再生制御部は、マルチトラック音源を再生し、再生中の前記マルチトラック音源の拍と、前記所定状態のタイミングとが整合する場合、再生中の前記マルチトラック音源の小節が切り替わるタイミングで、前記マルチトラック音源に含まれる複数のトラックの再生を制御する、請求項17に記載の情報処理装置。
- ユーザの移動動作に関するセンサ情報に基づいて予測される、前記移動動作における所定状態のタイミングの予測結果に基づいて、コンテンツの再生を制御すること、を含む、プロセッサにより実行される情報処理方法。
- コンピュータを、
ユーザの移動動作に関するセンサ情報に基づいて予測される、前記移動動作における所定状態のタイミングの予測結果に基づいて、コンテンツの再生を制御する再生制御部、として機能させるためのプログラムが記録された記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018206671 | 2018-11-01 | ||
JP2018206671 | 2018-11-01 | ||
PCT/JP2019/034883 WO2020090223A1 (ja) | 2018-11-01 | 2019-09-05 | 情報処理装置、情報処理方法及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020090223A1 true JPWO2020090223A1 (ja) | 2021-10-21 |
JP7363804B2 JP7363804B2 (ja) | 2023-10-18 |
Family
ID=70463942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020554791A Active JP7363804B2 (ja) | 2018-11-01 | 2019-09-05 | 情報処理装置、情報処理方法及び記録媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210366450A1 (ja) |
JP (1) | JP7363804B2 (ja) |
DE (1) | DE112019005499T5 (ja) |
WO (1) | WO2020090223A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112020000591T5 (de) * | 2019-01-30 | 2021-12-23 | Sony Group Corporation | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium, in dem ein programm geschrieben ist |
JP2023148749A (ja) * | 2022-03-30 | 2023-10-13 | 株式会社栗本鐵工所 | 入出力装置 |
JP2023148748A (ja) * | 2022-03-30 | 2023-10-13 | 株式会社栗本鐵工所 | 入出力装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195059A (ja) * | 2000-01-11 | 2001-07-19 | Yamaha Corp | 演奏インターフェイス |
JP2003305278A (ja) * | 2002-04-15 | 2003-10-28 | Sony Corp | 情報処理装置及び情報処理方法、記憶媒体、並びにコンピュータ・プログラム |
JP2005156641A (ja) * | 2003-11-20 | 2005-06-16 | Sony Corp | 再生態様制御装置及び再生態様制御方法 |
JP2006202396A (ja) * | 2005-01-20 | 2006-08-03 | Sony Corp | コンテンツ再生装置およびコンテンツ再生方法 |
JP2008242063A (ja) * | 2007-03-27 | 2008-10-09 | Yamaha Corp | 音楽再生制御装置 |
US20150182149A1 (en) * | 2013-12-27 | 2015-07-02 | Simbionics | Methods for optimally matching musical rhythms to physical and physiologic rhythms |
WO2018186178A1 (ja) * | 2017-04-04 | 2018-10-11 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007250053A (ja) | 2006-03-15 | 2007-09-27 | Sony Corp | コンテンツ再生装置およびコンテンツ再生方法 |
US9595932B2 (en) * | 2013-03-05 | 2017-03-14 | Nike, Inc. | Adaptive music playback system |
-
2019
- 2019-09-05 DE DE112019005499.6T patent/DE112019005499T5/de active Pending
- 2019-09-05 US US17/287,374 patent/US20210366450A1/en active Pending
- 2019-09-05 JP JP2020554791A patent/JP7363804B2/ja active Active
- 2019-09-05 WO PCT/JP2019/034883 patent/WO2020090223A1/ja active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195059A (ja) * | 2000-01-11 | 2001-07-19 | Yamaha Corp | 演奏インターフェイス |
JP2003305278A (ja) * | 2002-04-15 | 2003-10-28 | Sony Corp | 情報処理装置及び情報処理方法、記憶媒体、並びにコンピュータ・プログラム |
JP2005156641A (ja) * | 2003-11-20 | 2005-06-16 | Sony Corp | 再生態様制御装置及び再生態様制御方法 |
JP2006202396A (ja) * | 2005-01-20 | 2006-08-03 | Sony Corp | コンテンツ再生装置およびコンテンツ再生方法 |
JP2008242063A (ja) * | 2007-03-27 | 2008-10-09 | Yamaha Corp | 音楽再生制御装置 |
US20150182149A1 (en) * | 2013-12-27 | 2015-07-02 | Simbionics | Methods for optimally matching musical rhythms to physical and physiologic rhythms |
WO2018186178A1 (ja) * | 2017-04-04 | 2018-10-11 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7363804B2 (ja) | 2023-10-18 |
DE112019005499T5 (de) | 2021-09-30 |
US20210366450A1 (en) | 2021-11-25 |
WO2020090223A1 (ja) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10976821B2 (en) | Information processing device, information processing method, and program for controlling output of a tactile stimulus to a plurality of tactile stimulus units | |
CN109076301B (zh) | 控制方法、虚拟现实体验提供装置以及记录介质 | |
JP6658545B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6055657B2 (ja) | ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム | |
JP6147486B2 (ja) | ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム | |
US20170216675A1 (en) | Fitness-based game mechanics | |
WO2020224322A1 (zh) | 音乐文件的处理方法、装置、终端及存储介质 | |
JP7363804B2 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
JP2018514005A (ja) | 乗り物酔いの監視及び、酔いを抑えるための追加音の付与 | |
JP6243595B2 (ja) | 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 | |
JP2017119031A (ja) | ゲーム装置及びプログラム | |
JP6354461B2 (ja) | フィードバック提供方法、システム、および解析装置 | |
JP6055651B2 (ja) | 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 | |
JP2021092822A (ja) | 信号処理装置、信号処理方法及びコンピュータプログラム | |
WO2018203453A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN114253393A (zh) | 信息处理设备、终端、方法以及计算机可读记录介质 | |
JP2010136864A (ja) | 運動支援装置 | |
WO2018092486A1 (ja) | 情報処理装置、方法及びプログラム | |
JP5318016B2 (ja) | ゲームシステム、ゲームシステムの制御方法、及びプログラム | |
JP7172999B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2019235338A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5357801B2 (ja) | ゲーム装置、ゲーム制御方法、ならびに、プログラム | |
WO2024084949A1 (ja) | 音響信号処理方法、コンピュータプログラム、及び、音響信号処理装置 | |
JP2023181567A (ja) | 情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 | |
JP2019126444A (ja) | ゲームプログラムおよびゲーム装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230918 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7363804 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |