JPWO2020054415A1 - 情報処理装置、情報処理方法、及び、記録媒体 - Google Patents

情報処理装置、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
JPWO2020054415A1
JPWO2020054415A1 JP2020546835A JP2020546835A JPWO2020054415A1 JP WO2020054415 A1 JPWO2020054415 A1 JP WO2020054415A1 JP 2020546835 A JP2020546835 A JP 2020546835A JP 2020546835 A JP2020546835 A JP 2020546835A JP WO2020054415 A1 JPWO2020054415 A1 JP WO2020054415A1
Authority
JP
Japan
Prior art keywords
vibration
user
information processing
unit
load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020546835A
Other languages
English (en)
Other versions
JP7396288B2 (ja
Inventor
洋平 福馬
洋平 福馬
亜由美 中川
亜由美 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020054415A1 publication Critical patent/JPWO2020054415A1/ja
Application granted granted Critical
Publication of JP7396288B2 publication Critical patent/JP7396288B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47CCHAIRS; SOFAS; BEDS
    • A47C7/00Parts, details, or accessories of chairs or stools
    • A47C7/62Accessories for chairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H23/00Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms
    • A61H23/02Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms with electric or magnetic drive
    • A61H23/0254Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms with electric or magnetic drive with rotary motor
    • A61H23/0263Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms with electric or magnetic drive with rotary motor using rotating unbalanced masses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/01Constructive details
    • A61H2201/0119Support for the device
    • A61H2201/0138Support for the device incorporated in furniture
    • A61H2201/0149Seat or chair

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Chair Legs, Seat Parts, And Backrests (AREA)

Abstract

本技術は、コンテンツと関連付けて提示する振動による効果を適切にユーザに与えることができるようにする情報処理装置、情報処理方法、及び、記録媒体に関する。情報処理装置は、複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する振動制御部を備える。本技術は、例えば、ユーザの体を支える装置、ユーザが装着する装置、又は、ユーザが操作する装置により振動を提示するシステムに適用できる。

Description

本技術は、情報処理装置、情報処理方法、及び、記録媒体に関し、特に、コンテンツと関連付けて振動を提示する場合に用いて好適な情報処理装置、情報処理方法、及び、記録媒体に関する。
従来、振動ユニットが一体化された椅子型の音響装置において、ユーザの性別により低音域用の振動ユニットの振動帯域を変化させることにより、良好な音響効果を得る技術が提案されている(例えば、特許文献1参照)。
また、近年、映画館等において、コンテンツに合わせて椅子を振動させることにより臨場感を高める技術が開発されている。
特開2001−285975号公報
しかしながら、コンテンツに合わせて椅子を振動させる場合、ユーザの体格や座り方等により振動の共振点が設計値からずれ、想定した効果をユーザに与えることができない恐れがある。特許文献1では、この点については、特に検討されていない。
本技術は、このような状況に鑑みてなされたものであり、コンテンツと関連付けて提示する振動による効果を適切にユーザに与えることができるようにするものである。
本技術の一側面の情報処理装置は、複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する振動制御部を備える。
本技術の一側面の情報処理方法は、情報処理装置が、複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する。
本技術の一側面の記録媒体は、複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する処理を実行させるためのプログラムが記録されている。
本技術の一側面においては、複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動が、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御される。
本技術を適用した情報処理システムの一実施の形態を示すブロック図である。 情報処理装置の構成例を示すブロック図である。 情報処理部の構成例を示すブロック図である。 振動提示装置の構成例を示すブロック図である。 座面の構成例を示すブロック図である。 振動特性解析処理を説明するためのフローチャートである。 アクチュエータの振動特性の例を示すグラフである。 振動特性データの例を示す図である。 コンテンツ提示処理の第1の実施の形態を説明するためのフローチャートである。 ユーザが座面に座る位置の例を示す図である。 各アクチュエータの負荷の推定結果を示すグラフである。 振動パターンデータの補正又は生成方法を説明するための図である。 コンテンツ提示処理の第2の実施の形態を説明するためのフローチャートである。 ユーザの姿勢の変化に伴う負荷の変化の例を示す図である。 コンテンツ提示処理の第3の実施の形態を説明するためのフローチャートである。 コンテンツ提示処理の第4の実施の形態を説明するためのフローチャートである。 ガイダンス画面の例を示す図である。 コンテンツ提示処理の第5の実施の形態を説明するためのフローチャートである。 コンテンツ提示処理の第6の実施の形態を説明するためのフローチャートである。 コンテンツ提示処理の第7の実施の形態を説明するためのフローチャートである。 振動特性データの変形例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.第5の実施の形態
6.第6の実施の形態
7.第7の実施の形態
8.変形例
9.その他
<<1.第1の実施の形態>>
まず、図1乃至図12を参照して、本技術の第1の実施の形態について説明する。
<情報処理システム10の構成例>
図1は、本技術を適用した情報処理システム10の構成例を示すブロック図である。
情報処理システム10は、映像及び音声のうちの少なくとも1つを含むコンテンツと関連付けてユーザに振動を提示することが可能なシステムである。情報処理システム1は、情報処理装置11、表示装置12、音声出力装置13、及び、振動提示装置14を備える。
情報処理装置11は、コンテンツ及び振動の提示を制御する装置である。情報処理装置11は、コンテンツデータに含まれる映像データを表示装置12に供給し、表示装置12による映像の表示を制御する。情報処理装置11は、コンテンツデータに含まれる音声データを音声出力装置13に供給し、音声出力装置13による音声の出力を制御する。情報処理装置11は、コンテンツに関連づけて振動を提示するための振動制御データを振動提示装置14に供給し、振動提示装置14による振動の提示を制御する。
表示装置12は、情報処理装置11の制御の下に、コンテンツに含まれる映像を表示する装置である。表示装置12は、特に種類が限定されるものではなく、例えば、ディスプレイ、プロジェクタ、ヘッドマウントディスプレイ等により構成される。
音声出力装置13は、情報処理装置11の制御の下に、コンテンツに含まれる音声を出力する装置である。音声出力装置13の種類は特に限定されるものではなく、例えば、スピーカ、ヘッドフォン等により構成される。
振動提示装置14は、情報処理装置11の制御の下に、ユーザの体の少なくとも一部(例えば、肩、腰、臀部等)に振動を提示する(振動を与える)装置である。振動提示装置14は、ユーザに振動を提示可能な装置であれば、特にその種類は問わない。例えば、振動提示装置14の形状は、シート状、スレート状等の任意の形状とすること可能である。また、振動提示装置14は、ユーザの体に直接接触してもよいし、衣服等を介して間接的に接触してもよい。例えば、振動提示装置14は、椅子型、座面型、ベッド型、床型等のユーザの体を支える装置、衣服型、ブレスレット型、メガネ型等のユーザが装着する装置、又は、ハンドル型、レバー型、ペダル型等のユーザが操作する装置からなる。
また、振動提示装置14は、各種のセンサを備え、各センサの検出結果を示すセンサデータを情報処理装置11に供給する。
<情報処理装置11の構成例>
図2は、情報処理装置11の構成例を示すブロック図である。
情報処理装置11は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、バス104、入出力インタフェース105、入力部106、出力部107、記憶部108、通信部109、及び、ドライブ110を備える。CPU101、ROM102、及び、RAM103は、バス104により相互に接続されている。バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及び、ドライブ110が接続されている。
入力部106は、例えば、入力スイッチ、ボタン、マイクロフォン、カメラ等を備える。
出力部107は、例えば、ディスプレイ、スピーカ等を備える。なお、例えば、図1の表示装置12、音声出力装置13、及び、振動提示装置14は、それぞれ情報処理装置11の一部として出力部107に設けることも可能である。
記憶部108は、例えば、ハードディスクや不揮発性のメモリ等を備える。
通信部109は、例えば、ネットワークインタフェース等を備える。通信部109は、表示装置12、音声出力装置13、及び、振動提示装置14と通信を行う。なお、通信部109の通信方式には、任意の方式を用いることが可能である。例えば、通信部109の通信方式は、有線通信又は無線通信のいずれでもよいし、通信部109が、複数の通信方式に対応していてもよい。
ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、又は、半導体メモリなどのリムーバブルメディア111を駆動する。
なお、以下、情報処理装置11において、バス104及び入出力インタフェース105の記載を適宜省略する。例えば、CPU101と通信部109が、バス104及び入出力インタフェース105を介してデータの授受を行う場合、単にCPU101と通信部109がデータの授受を行うと記載する。
<情報処理部151の構成例>
図3は、情報処理装置11のCPU101が所定の制御プログラムを実行することにより実現される情報処理部151の構成例を示すブロック図である。なお、図3では、ROM102、RAM103、バス104、及び、入出力インタフェース105の図示を省略している。
情報処理部151は、解析部161及び出力制御部162を備える。
解析部161は、振動提示装置14の振動特性、及び、情報処理システム10を使用するユーザのユーザ特性の解析を行う。解析部161は、振動特性解析部171及びユーザ特性解析部172を備える。
振動特性解析部171は、振動提示装置14から供給されるセンサデータ等に基づいて、振動提示装置14の振動特性の解析を行う。
ユーザ特性解析部172は、入力部106から供給される入力データ、及び、振動提示装置14から供給されるセンサデータ等に基づいて、ユーザ特性の解析を行う。例えば、ユーザ特性解析部172は、ユーザにより振動提示装置14が備える複数の振動提示部にかかる負荷の推定又は検出を行う。
出力制御部162は、コンテンツ及びコンテンツに対応する振動の出力の制御を行う。出力制御部162は、表示制御部181、音声制御部182、及び、振動制御部183を備える。
表示制御部181は、表示装置12による映像の表示を制御する。例えば、表示制御部181は、外部から与えられるコンテンツデータから映像データを抽出し、必要に応じて映像データの加工及び補正等を行う。また、例えば、表示制御部181は、音声制御部182及び振動制御部183と同期を取りながら、通信部109を介して表示装置12に映像データを供給し、映像データに基づく映像を表示装置12に表示させる。
音声制御部182は、音声出力装置13による音声の出力を制御する。例えば、音声制御部182は、外部から与えられるコンテンツデータから音声データを抽出し、必要に応じて音声データの加工及び補正等を行う。また、例えば、音声制御部182は、表示制御部181及び振動制御部183と同期を取りながら、通信部109を介して音声出力装置13に音声データを供給し、音声データに基づく音声を音声出力装置13に出力させる。
振動制御部183は、ユーザの特性、及び、振動提示装置14が備える複数の振動提示部の位置に基づいて、各振動提示部がそれぞれコンテンツと関連付けて提示する振動を個別に制御する。例えば、振動制御部183は、外部から与えられる振動データ、及び、触覚情報データベースに基づいて、振動制御データを生成する。なお、振動データ及び触覚情報データベースの詳細は後述する。振動制御部183は、表示制御部181及び音声制御部182と同期を取りながら、通信部109を介して振動提示装置14に振動制御データを供給し、振動制御データに基づく振動を振動提示装置14に提示させる。
なお、コンテンツデータ及び振動データは、例えば、記憶部108又はリムーバブルメディア111に格納することにより、情報処理部151に与えるようにしてもよいし、通信部109を介して、外部のサーバ等から情報処理部151に与えるようにしてもよい。同様に、触覚情報データベースは、例えば、記憶部108又はリムーバブルメディア111に格納することにより、情報処理部151に与えるようにしてもよいし、通信部109を介して、外部のサーバ等から情報処理部151に与えるようにしてもよい。
また、振動データは、例えば、コンテンツデータに含めるようにしてもよいし、コンテンツデータとは別に提供されるようにしてもよい。
なお、以下、振動データがコンテンツデータと別に提供される例について説明する。また、以下、コンテンツデータ及び振動データがリムーバブルメディア111に格納されており、触覚情報データベースが記憶部108に格納されている場合の例について説明する。
<振動提示装置14の構成例>
図4は、図1の振動提示装置14の機能の構成例を示すブロック図である。
振動提示装置14は、通信部201、振動提示部202−1乃至振動提示部202−n、及び、センシング部203を備える。
通信部201は、例えば、ネットワークインタフェース等を備える。通信部109は、情報処理装置11の通信部109と同様の通信方式に対応し、通信部109と通信を行う。
振動提示部202−1乃至振動提示部202−nは、情報処理装置11から供給される振動制御データに基づいて、それぞれ個別にユーザに振動を提示する。
なお、以下、振動提示部202−1乃至振動提示部202−nを個々に区別する必要がない場合、単に振動提示部202と称する。
センシング部203は、振動提示部202の振動特性の解析に用いるデータを検出するセンサを備える。例えば、センシング部203は、圧力センサ、重力センサ、加速度センサ等を備える。センシング部203は、検出結果を示すセンサデータを、通信部201を介して情報処理装置11に送信する。
<振動提示装置14の具体例>
図5は、振動提示装置14の具体例である座面241の構成例を示す模式図である。
座面241は、例えば、椅子の一部を構成するか、又は、椅子の上に設けられる。
座面241の内部には、アクチュエータ251−1乃至アクチュエータ251−9が、3行×3列に整列して並べられている。アクチュエータ251−1乃至アクチュエータ251−9は、図4の振動提示装置14の振動提示部202−1乃至振動提示部202−nに対応する。
なお、図4の下側が座面241の前側であり、上側が座面241の後ろ側である。従って、アクチュエータ251−1乃至アクチュエータ251−3が最前列となり、アクチュエータ251−7乃至アクチュエータ251−9が最後列となる。また、アクチュエータ251−1、アクチュエータ251−4、及び、アクチュエータ251−7が右端の列となり、アクチュエータ251−3、アクチュエータ251−6、及び、アクチュエータ251−9が左端の列となる。
なお、以下、振動提示装置14として座面241を用いる場合を例に挙げて説明する。また、以下、アクチュエータ251−1乃至アクチュエータ251−9を個々に区別する必要がない場合、単に、アクチュエータ251と称する。
<情報処理システム10の処理>
次に、図6乃至図12を参照して、情報処理システム10の処理について説明する。
<振動特性解析処理>
まず、図6のフローチャートを参照して、情報処理システム10により実行される振動特性解析処理について説明する。
ステップS1において、情報処理システム10は、アクチュエータ251の振動特性を測定する。
ここで、アクチュエータ251の振動特性とは、アクチュエータ251が発生する振動の振幅及び周波数により表される周波数特性である。そして、アクチュエータ251の振動特性は、アクチュエータ251にかかる負荷(圧力)により変化する。
例えば、図7は、アクチュエータ251の振動特性の負荷による変化の例を示すグラフである。横軸は振動の周波数を示し、縦軸は振動の加速度を示している。
例えば、所定の体重(以下、標準体重と称する)の人が座面241の上に座っている場合に所定の入力データを入力したときのアクチュエータ251の振動特性が、曲線C1のように設計されているものとする。
この場合、例えば、標準体重より軽い人が座面241の上に座ったとき、アクチュエータ251の負荷は軽くなる。その結果、アクチュエータ251の振動特性は、曲線C2のように変化する。すなわち、振動の加速度が最大となる周波数(共振点)が高周波側に移動する。
一方、例えば、標準体重より重い人が座面241の上に座った場合、アクチュエータ251の負荷は重くなる。その結果、アクチュエータ251の振動特性は、曲線C3のように変化する。すなわち、振動の共振点が低周波側に移動する。
そこで、例えば、振動特性解析部171は、座面241のセンシング部203からのセンサデータに基づいて、所定の入力データをアクチュエータ251に入力した状態で、アクチュエータ251の負荷を変化させながら、アクチュエータ251が発生する振動の共振点を測定する。
ステップS2において、情報処理システム10は、振動特性データを生成する。
例えば、振動特性解析部171は、ステップS1の測定結果に基づいて、アクチュエータ251の振動特性を複数のパターンに分類する。例えば、振動特性解析部171は、アクチュエータ251による振動の共振点の測定結果に基づいて、アクチュエータ251の振動特性を複数のパターンに分類する。そして、振動特性解析部171は、アクチュエータ251の振動特性パターンの分類結果を示す振動特性データを生成する。
図8は、振動特性データの例を示している。この例では、アクチュエータ251の負荷により、アクチュエータ251の振動特性が複数のパターンに分類されている。例えば、アクチュエータ251の振動特性は、負荷(圧力)が1から10パスカルの範囲においてパターンAに分類されている。すなわち、負荷が1から10パスカルの範囲において、アクチュエータ251による振動の共振点はほぼ同様になる。また、例えば、アクチュエータ251の振動特性は、負荷が10から11パスカルの範囲においてパターンBに分類されている。すなわち、負荷が10から11パスカルの範囲において、アクチュエータ251による振動の共振点はほぼ同様になる。その他の図示を省略した負荷の範囲においても、アクチュエータ251の負荷に基づいて、アクチュエータ251の振動特性のパターンが分類される。
振動特性解析部171は、振動特性データを記憶部108に記憶させる。
なお、各アクチュエータ251の特性が同様である場合、例えば、各アクチュエータ251共通の振動特性データが生成される。一方、各アクチュエータ251の特性が異なる場合、例えば、アクチュエータ251毎にそれぞれ振動特性データが生成される。なお、以下では、各アクチュエータ251の特性が同様である場合について説明する。
その後、振動特性解析処理は終了する。
なお、以上の説明では、振動特性解析部171が振動特性データを生成する例を示したが、例えば、ユーザが、アクチュエータ251の振動特性の測定結果に基づいて振動特性データを生成するようにしてもよい。
<コンテンツ提示処理>
次に、図9のフローチャートを参照して、情報処理システムにより実行されるコンテンツ提示処理について説明する。
ステップS101において、ユーザ特性解析部172は、ユーザ情報を取得する。ユーザ情報は、例えば、入力部106により入力され、ユーザ特性解析部172に供給される。
ユーザ情報は、例えば、ユーザの身体的特徴に関連する情報を含む。ユーザの身体的特徴に関連する情報は、例えば、身長、体重、画像等の身体的特徴を直接表す情報であってもよいし、性別、年代等の身体的特徴の推定に用いることが可能な情報であってもよい。また、ユーザの画像は、カラー画像、赤外線画像、3D画像等、ユーザの身体的特徴が分かる画像であれば、特に種類は問わない。
ステップS102において、ユーザ特性解析部172は、各アクチュエータ251の負荷を推定する。
図10のA及びBは、ユーザが座面241に座る位置の例を示している。図10のAは、ユーザが子供の場合の例を示しており、図10のBは、ユーザが大人の場合の例を示している。
ユーザが子供の場合、体が小さいため、座面241の前方に座る傾向がある。従って、ユーザの体が座面241に触れる位置は、座面241の前方の範囲261となる。そのため、座面241の後方のアクチュエータ251−7乃至アクチュエータ251−9には、ほとんど体重がかからなくなる。
一方、ユーザが大人の場合、ユーザの体が座面241に触れる位置は、範囲261より大きい範囲262となる。従って、座面241全体にユーザの体重がかかるようになる。ただし、ユーザの体重は各アクチュエータ251に均等にかからずに、各アクチュエータ251の位置によりバラツキが生じる。
そこで、例えば、ユーザ特性解析部172は、取得したユーザ情報に基づいて、ユーザが座面241の上に座る位置、及び、座面241にかかるユーザの体重の分布を推定する。そして、ユーザ特性解析部172は、座面241にかかるユーザの体重の分布に基づいて、各アクチュエータ251の負荷を推定する。
図11は、各アクチュエータ251の負荷の推定結果を示すグラフである。縦軸は負荷(圧力)を示し、各棒グラフは、各アクチュエータ251の負荷の推定値を示している。
ステップS103において、ユーザ特性解析部172は、各アクチュエータ251の振動特性を推定する。具体的には、ユーザ特性解析部172は、各アクチュエータ251の負荷の推定結果、及び、記憶部108に記憶されている振動特性データに基づいて、各アクチュエータ251の振動特性パターンを推定する。すなわち、ユーザ特性解析部172は、振動特性データに基づいて、各アクチュエータ251の負荷の推定値に対応する振動特性パターンを求める。ユーザ特性解析部172は、各アクチュエータ251の振動特性パターンを示す振動特性マップを生成し、出力制御部162に供給する。
ステップS104において、振動制御部183は、各アクチュエータ251の振動特性に基づいて、振動制御データを生成する。具体的には、振動制御部183は、コンテンツとともに提示する振動を示す振動データを、ドライブ110を介してリムーバブルメディア111から読み出す。
振動データは、例えば、コンテンツのシーン毎に提示する振動の種類(以下、振動パターンと称する)が示されている。なお、コンテンツのシーンの分割方法は任意である。また、例えば、1つのシーンにおいて複数の振動パターンが組み合わせて提示されてもよい。さらに、必ずしも全てのシーンで振動が提示されるとは限らず、振動が提示されないシーンが存在する場合もある。以下、振動が提示されるシーンを振動提示シーンと称する。
また、振動制御部183は、振動データに基づいて、各シーンの振動パターンに対応する振動パターンデータを、記憶部108に記憶されている触覚情報データベースから読み出す。
触覚情報データベースには、各振動パターンに対応する振動パターンデータが格納されている。振動パターンデータは、例えば、対応する振動パターンの振動を実現するために各アクチュエータ251に入力する入力データを含んでいる。従って、振動パターンデータに含まれる各入力データをそれぞれ各アクチュエータ251に入力することにより、各アクチュエータ251が振動し、対応する振動パターンに対応する振動が実現される。
なお、振動パターンデータに含まれる各アクチュエータ251の入力データは、必ずしも同じデータであるとは限らない。例えば、ユーザの体の部位毎に異なる振動を与える場合、各アクチュエータ251の入力データは異なるデータとなる。
次に、振動制御部183は、例えば、振動特性マップに基づいて、各シーンの振動パターンデータを補正する。例えば、振動制御部183は、各シーンの振動パターンデータに含まれる各アクチュエータ251への入力データを、各アクチュエータ251の振動特性パターンに基づいて補正する。
例えば、各アクチュエータ251への入力データは、所定の振動特性パターン(以下、基本振動特性パターンと称する)を対象に設計されている。従って、振動制御部183は、振動特性パターンが基本振動特性パターンと異なるアクチュエータ251への入力データを、振動特性パターンが基本振動特性パターンである場合と同様の振動が出力されるように補正する。
例えば、図12のAに模式的に示されるように、左側の入力データの波形の振幅及び周波数が、右側の入力先のアクチュエータ251の振動特性パターンに基づいて補正される。これにより、ユーザによる負荷により各アクチュエータ251の振動特性が変化しても、各アクチュエータ251により提示される振動は、ほとんど変化せずに同様となる。
なお、例えば、各振動パターンデータに対応する各アクチュエータ251の入力データを、振動特性パターン毎に複数用意するようにしてもよい。そして、例えば、振動制御部183は、図12のBに模式的に示されるように、各アクチュエータ251の振動特性パターンに対応する入力データをそれぞれ触覚情報データベースから読み出し、読み出した各アクチュエータ251の入力データに基づいて、振動パターンデータを生成するようにしてもよい。
そして、振動制御部183は、各振動提示シーンの振動パターンデータを含む振動制御データを生成する。これにより、コンテンツの提示前に振動制御データが生成される。
ステップS105において、情報処理システム10は、振動制御データに基づいて、コンテンツともに振動を提示する。
具体的には、表示制御部181、音声制御部182、及び、振動制御部183は、互いに同期しながら、以下の処理を行う。
表示制御部181は、提示するコンテンツのコンテンツデータに含まれる映像データを、ドライブ110を介してリムーバブルメディア111から読み出し、通信部109を介して、表示装置12に供給する。表示装置12は、映像データに基づく映像を表示する。
音声制御部182は、提示するコンテンツのコンテンツデータに含まれる音声データを、ドライブ110を介してリムーバブルメディア111から読み出し、通信部109を介して、音声出力装置13に供給する。音声出力装置13は、音声データに基づく音声を出力する。
振動制御部183は、通信部109を介して、振動制御データを座面241に供給する。座面241の各アクチュエータ251は、各振動提示シーンにおいて、そのシーンの振動パターンデータに含まれる入力データに基づいて、それぞれ振動する。
これにより、ユーザに対してコンテンツと関連付けて振動が提示される。
その後、コンテンツ提示処理は終了する。
以上のように、ユーザの特性、及び、各アクチュエータ251の位置に基づいて、より具体的には、ユーザにより各アクチュエータ251にかかる負荷に基づいて、各アクチュエータ251により提示される振動が補正される。すなわち、ユーザにより各アクチュエータ251にかかる負荷による振動特性の変化に基づいて、各アクチュエータ251により提示される振動が補正(制御)される。これにより、提示される振動の個人差が小さくなり、ユーザの違いに関わらず、設計値に近い振動がユーザに提示されるようになる。その結果、振動によるユーザ体験の個人差が小さくなり、適切な効果をユーザに与えることができる。
また、アクチュエータ251の共振点を検出するオートレゾナンスは、時間がかかる処理である。また、全てのアクチュエータ251のオートレゾナンスを実行するとなると、さらに時間がかかる。
一方、事前にアクチュエータ251の振動特性の解析を行い、解析結果を示す振動特性データ、及び、各アクチュエータ251の負荷に基づいて、各アクチュエータ251の振動特性を推定することにより、処理時間が短縮される。
<<2.第2の実施の形態>>
次に、図13及び図14を参照して、本技術の第2の実施の形態について説明する。
第2の実施の形態は、第1の実施の形態と比較して、コンテンツ提示処理が異なる。
<コンテンツ提示処理>
ここで、図13のフローチャートを比較して、第2の実施の形態におけるコンテンツ提示処理について説明する。
ステップS151において、図9のステップS101の処理と同様に、ユーザ情報が取得される。
ステップS152において、ユーザ特性解析部172は、シーンの種類毎に各アクチュエータ251の負荷を推定する。
通常、ユーザは、コンテンツの視聴中に、コンテンツの内容により姿勢を変える。
例えば、前方からゾンビが襲ってくる、銃で撃たれる等の前方から刺激が与えられるようなシーンでは、ユーザが仰け反り、重心が後ろに移動すると想定される。これにより、例えば、図14のAの範囲271に負荷が集中し、後ろ2列のアクチュエータ251への負荷が増加し、前1列のアクチュエータ251への負荷が減少すると想定される。
また、例えば、左方向からゾンビが襲ってくる等の左方向から刺激が与えられるシーンや、左方向に急カーブする等の左方向に重心がかかるようなシーンでは、ユーザが左方向に体を動かし、重心が左方向に移動すると想定される。これにより、例えば、図14のBの範囲272に負荷が集中し、左2列のアクチュエータ251への負荷が増加し、右1列のアクチュエータ251への負荷は減少すると想定される。
このように、コンテンツの内容によりユーザの姿勢が変化することにより、アクチュエータ251の負荷の分布が変化する。そして、各アクチュエータ251の負荷の変化に伴い、各アクチュエータ251の振動特性も変化する。
そこで、ユーザ特性解析部172は、シーンの種類毎に一般的なユーザの姿勢の変化(ユーザの動き)を想定し、想定した姿勢に基づいて、各アクチュエータ251の負荷を推定する。
なお、シーンの種類の分類方法は任意である。ただし、ユーザがとる姿勢の傾向に基づいて、シーンの種類を分類することが望ましい。すなわち、各種類のシーン毎に、ユーザがとる姿勢の傾向が明確に現れるように、シーンの種類を分類することが望ましい。
具体的には、ユーザ特性解析部172は、図9のステップS101と同様の処理により、ユーザの標準的な姿勢における各アクチュエータ251の負荷を推定する。
また、ユーザ特性解析部172は、標準的な姿勢における各アクチュエータ251の負荷を基準にして、シーンの種類毎に想定されるユーザの姿勢に基づいて、シーンの種類毎に各アクチュエータ251の負荷を推定する。
ここで、シーンの種類毎に想定されるユーザの姿勢は、一般的なユーザを対象にしたものであり、例えば、事前に実験やシミュレーション等により設定される。なお、例えば、年齢、性別等によりユーザを複数のグループに分類し、グループ毎にシーンの種類毎のユーザの姿勢を推定するようにしてもよい。
ステップS153において、ユーザ特性解析部172は、シーンの種類毎に各アクチュエータ251の振動特性を推定する。具体的には、ユーザ特性解析部172は、シーンの種類毎の各アクチュエータ251の負荷に基づいて、図9のステップS103と同様の処理により、シーンの種類毎に振動特性マップを生成する。
ステップS154において、ユーザ特性解析部172は、シーンの種類毎の各アクチュエータ251の振動特性に基づいて、振動制御データを生成する。具体的には、ユーザ特性解析部172は、図9のステップS104と同様の処理により、振動制御データを生成する。ただし、ユーザ特性解析部172は、各振動提示シーンの振動パターンデータを、そのシーンの種類に対応する振動特性マップを用いて補正又は生成する。
ステップS155において、図9のステップS105の処理と同様に、振動制御データに基づいて、コンテンツとともに振動が提示される。
以上のように、コンテンツのシーン毎に各アクチュエータ251の負荷が推定され、推定された負荷に基づいて、各アクチュエータ251により提示される振動が補正される。より具体的には、シーンの種類毎に想定されるユーザの姿勢に基づいて、各アクチュエータ251の負荷が推定され、推定された負荷に基づいて、各アクチュエータ251により提示される振動が補正される。これにより、提示される振動の個人差がさらに小さくなり、ユーザや姿勢の違いに関わらず、設計値に近い振動がユーザに提示されるようになる。その結果、振動によるユーザ体験の個人差がさらに小さくなり、より適切な効果をユーザに与えることができる。
<<3.第3の実施の形態>>
次に、図15を参照して、本技術の第3の実施の形態について説明する。
第3の実施の形態は、第1及び第2の実施の形態と比較して、コンテンツ提示処理が異なる。
<コンテンツ提示処理>
ここで、図15のフローチャートを参照して、第3の実施の形態におけるコンテンツ提示処理について説明する。
ステップS201において、情報処理装置11は、各アクチュエータ251の負荷を検出する。例えば、コンテンツを視聴するユーザが、座面241の上に座り、自然な姿勢をとる。ユーザ特性解析部172は、この状態において、座面241のセンシング部203からのセンサデータに基づいて、各アクチュエータ251の負荷を検出する。
その後、ステップS202乃至ステップS204において、図9のステップS103乃至ステップS105と同様の処理が実行され、コンテンツ提示処理は終了する。
以上のように、実際にコンテンツを視聴するユーザにより各アクチュエータ251にかかる負荷が検出され、その結果に基づいて、各アクチュエータ251により提示される振動が補正される。これにより、提示される振動の個人差がより小さくなる。
<<4.第4の実施の形態>>
次に、図16及び図17を参照して、本技術の第4の実施の形態について説明する。
第4の実施の形態は、第1乃至第3の実施の形態と比較して、コンテンツ提示処理が異なる。
<コンテンツ提示処理>
ここで、図16のフローチャートを参照して、第4の実施の形態におけるコンテンツ提示処理について説明する。
ステップS251において、情報処理装置11は、ユーザの姿勢毎に各アクチュエータ251の負荷を検出する。
例えば、まず、図15のステップS201と同様の処理により、コンテンツを視聴するユーザが自然な姿勢で座面241の上に座った状態において、各アクチュエータ251の負荷が検出される。
次に、例えば、情報処理システム10は、ユーザにガイダンスを与え、座面241の上に座ったまま様々な姿勢をとってもらう。
例えば、表示装置12は、通信部109を介した表示制御部181の制御の下に、図17のA乃至Cに示されるようなガイダンス画面を表示し、ユーザに様々な姿勢をとってもらう。図17のAは、後ろに重心をかけるように指示するガイダンス画面の例である。図17のBは、座面241が設けられた椅子の背もたれに深く寄りかかるように指示するガイダンス画面の例である。図17のCは、座面241が設けられた椅子の前の机の上に両手を置くように指示するガイダンス画面の例である。
ユーザ特性解析部172は、各姿勢において、座面241のセンシング部203からのセンサデータに基づいて、各アクチュエータ251の負荷を検出する。
ステップS252において、ユーザ特性解析部172は、ユーザの姿勢毎に各アクチュエータ251の振動特性を推定する。すなわち、ユーザ特性解析部172は、各姿勢における各アクチュエータ251の負荷の検出値に基づいて、図9のステップS103と同様の処理により、ユーザの姿勢毎に振動特性マップを生成する。
ステップS253において、ユーザ特性解析部172は、ユーザの姿勢毎の各アクチュエータ251の振動特性に基づいて、振動制御データを生成する。具体的には、ユーザ特性解析部172は、図9のステップS104と同様の処理により、振動制御データを生成する。ただし、ユーザ特性解析部172は、振動提示シーン毎に、そのシーンの種類において想定されるユーザの姿勢に対応する振動特性マップを用いて、振動パターンデータを補正又は生成する。
ステップS254において、図9のステップS105の処理と同様に、振動制御データに基づいて、コンテンツとともに振動が提示される。
以上のように、実際にコンテンツを視聴するユーザの姿勢毎に各アクチュエータ251にかかる負荷が検出され、その結果に基づいて、各アクチュエータ251により提示される振動が補正される。これにより、提示される振動において、ユーザ及び姿勢の違いによる差がより小さくなる。
<<5.第5の実施の形態>>
次に、図18を参照して、本技術の第5の実施の形態について説明する。
第5の実施の形態は、第1乃至第4の実施の形態と比較して、コンテンツ提示処理が異なる。
<コンテンツ提示処理>
ここで、図18のフローチャートを参照して、第5の実施の形態におけるコンテンツ提示処理について説明する。
ステップS301において、情報処理装置11は、シーンの種類毎に各アクチュエータ251の負荷を検出する。
例えば、情報処理装置11の記憶部108には、キャリブレーション用コンテンツを提示するためのコンテンツデータが記憶されている。キャリブレーション用コンテンツは、例えば、各種類のシーンのサンプル映像及びサンプル音声を含むコンテンツである。
そして、表示装置12は、通信部109を介した表示制御部181の制御の下に、キャリブレーション用コンテンツの映像を表示する。音声出力装置13は、通信部109を介した音声制御部182の制御の下に、キャリブレーション用コンテンツの音声を出力する。
ユーザ特性解析部172は、座面241のセンシング部203からのセンサデータに基づいて、各種類のシーンが提示されたときにユーザにより各アクチュエータ251にかかる負荷を検出する。すなわち、ユーザ特性解析部172は、シーンの種類毎に各アクチュエータ251の負荷を検出する。
その後、ステップS302乃至ステップS304において、図13のステップS153乃至ステップS155と同様の処理が実行される。
以上のように、実際にコンテンツを視聴するユーザが各種類のシーンを視聴した状態において各アクチュエータ251にかかる負荷が検出され、その結果に基づいて、各アクチュエータ251により提示される振動が補正される。これにより、提示される振動において、ユーザ及びシーンの違いによる差がより小さくなる。
<<6.第6の実施の形態>>
次に、図19を参照して、本技術の第6の実施の形態について説明する。
第6の実施の形態は、第1乃至第5の実施の形態と比較して、コンテンツ提示処理が異なる。
<コンテンツ提示処理>
ここで、図19のフローチャートを参照して、第6の実施の形態におけるコンテンツ提示処理について説明する。
ステップS351において、図16のステップS251の処理と同様に、ユーザの姿勢毎に各アクチュエータ251の負荷が検出される。
ステップS352において、図16のステップS252の処理と同様に、ユーザの姿勢毎に各アクチュエータ251の振動特性が推定される。
ステップS353において、情報処理システム10は、コンテンツの提示を開始する。
具体的には、表示制御部181、音声制御部182、及び、振動制御部183は、互いに同期しながら、以下の処理を開始する。
表示制御部181は、提示するコンテンツデータに含まれる映像データを、ドライブ110を介してリムーバブルメディア111から読み出し、通信部109を介して、表示装置12に供給する処理を開始する。表示装置12は、映像データに基づく映像の表示を開始する。
音声制御部182は、提示するコンテンツデータに含まれる音声データを、ドライブ110を介してリムーバブルメディア111から読み出し、通信部109を介して、音声出力装置13に供給する処理を開始する。音声出力装置13は、音声データに基づく音声の出力を開始する。
振動制御部183は、コンテンツに関連づけて提示する振動を示す振動データを、ドライブ110を介してリムーバブルメディア111から読み出す処理を開始する。
ステップS354において、振動制御部183は、振動データに基づいて、振動を提示するタイミングであるかを判定する。振動を提示するタイミングであると判定された場合、処理はステップS355に進む。
ステップS355において、振動制御部183は、次の振動提示シーンにおけるユーザの姿勢を推定する。
例えば、振動制御部183は、次の振動提示シーンの種類に基づいて、ユーザの姿勢を推定する。
例えば、振動制御部183は、次の振動提示シーンが、これまでに提示したことがない種類のシーンである場合、その種類の振動提示シーンに対してユーザがとると事前に想定した姿勢を、次の振動提示シーンにおけるユーザの姿勢として推定する。
一方、振動制御部183は、次の振動提示シーンが、これまでに表示したことがある種類のシーンである場合、その種類のシーンにおいて過去にユーザがとった姿勢の履歴に基づいて、次の振動提示シーンにおけるユーザの姿勢を推定する。これにより、ユーザが想定される姿勢と異なる姿勢をとる場合にも、ユーザの姿勢を正確に推定することが可能になる。
ステップS356において、振動制御部183は、推定した姿勢に基づいて、振動制御データを生成する。具体的には、振動制御部183は、推定した姿勢に対応する振動特性マップに基づいて、図9のステップS104と同様の処理により、次の振動提示シーンの振動パターンデータを補正又は生成する。振動制御部183は、補正又は生成した振動パターンデータを含む振動制御データを生成する。すなわち、この実施の形態では、コンテンツの提示中に振動制御データが動的に生成される。
ステップS357において、情報処理システム10は、振動制御データに基づいて振動を提示する。具体的には、振動制御部183は、次の振動提示シーンにおいて、表示制御部181及び音声制御部182と同期しながら、通信部109を介して、振動制御データを座面241に供給する。座面241の各アクチュエータ251は、振動制御データに含まれる振動パターンデータ内の各入力データに基づいて、それぞれ振動を提示する。
これにより、振動提示シーンにおいて、映像及び音声とともに振動が提示される。
その後、処理はステップS358に進む。
一方、ステップS354において、振動を提示するタイミングでないと判定された場合、ステップS355乃至ステップS357の処理はスキップされ、処理はステップS358に進む。
ステップS358において、出力制御部162は、コンテンツが終了したか否かを判定する。まだコンテンツが終了していないと判定された場合、処理はステップS354に戻る。
その後、ステップS358において、コンテンツが終了したと判定されるまで、ステップS354乃至ステップS358の処理が繰り返し実行される。
一方、ステップS358において、コンテンツが終了したと判定された場合、コンテンツ提示処理は終了する。
以上のように、実際にコンテンツを視聴するユーザが各種類のシーンを視聴した状態において各アクチュエータ251にかかる負荷が検出されるとともに、ユーザがとる姿勢がリアルタイムに推定され、その結果に基づいて、各アクチュエータ251により提示される振動が補正される。これにより、提示される振動において、ユーザ及びシーンの違いによる差がより小さくなる。
<<7.第7の実施の形態>>
次に、図20を参照して、本技術の第7の実施の形態について説明する。
第7の実施の形態は、第1乃至第6の実施の形態と比較して、コンテンツ提示処理が異なる。
<コンテンツ提示処理>
ここで、図20のフローチャートを参照して、第7の実施の形態におけるコンテンツ提示処理について説明する。
ステップS401において、図19のステップS353の処理と同様に、コンテンツの提示が開始される。
ステップS402において、図19のステップS354の処理と同様に、振動を提示するタイミングであるか否かが判定される。振動を提示するタイミングであると判定された場合、処理はステップS403に進む。
ステップS403において、図15のステップS201の処理と同様に、各アクチュエータ251の負荷が検出される。
ステップS404において、図15のステップS202の処理と同様に、各アクチュエータ251の振動特性が推定され、振動特性マップが生成される。
ステップS405において、振動制御部183は、各アクチュエータ251の振動特性に基づいて、振動制御データを生成する。具体的には、振動制御部183は、生成された振動特性マップに基づいて、図9のステップS104と同様の処理により、次の振動提示シーンの振動パターンデータを補正又は生成する。振動制御部183は、補正又は生成した振動パターンデータを含む振動制御データを生成する。すなわち、この実施の形態では、コンテンツの提示中に振動制御データが動的に生成される。
ステップS406において、図19のステップS357の処理と同様に、振動制御データに基づいて振動が提示される。
その後、処理はステップS407に進む。
一方、ステップS402において、振動を提示するタイミングでないと判定された場合、ステップS403乃至ステップS406の処理はスキップされ、処理はステップS407に進む。
ステップS407において、図19のステップS358の処理と同様に、コンテンツが終了したか否かが判定される。まだコンテンツが終了していないと判定された場合、処理はステップS402に戻る。
その後、ステップS407において、コンテンツが終了したと判定されるまで、ステップS402乃至ステップS407の処理が繰り返し実行される。
一方、ステップS407において、コンテンツが終了したと判定された場合、コンテンツ提示処理は終了する。
以上のように、各アクチュエータ251の負荷がリアルタイムに検出され、検出結果に基づいて、各アクチュエータ251により提示される振動が補正される。これにより、提示される振動において、ユーザ及び姿勢の違いによる差がより小さくなる。
<<8.変形例>>
以下、上述した本技術の実施の形態の変形例について説明する。
例えば、図21に示されるように、負荷だけでなく、共振点に基づいて、アクチュエータ251の振動特性パターンを分類するようにしてもよい。すなわち、負荷と共振点の組合せに基づいて、アクチュエータ251の振動特性パターンを分類するようにしてもよい。
この場合、例えば、ユーザが座面241の上に座った状態において、各アクチュエータ251の負荷に加えて、共振点が検出される。そして、負荷と共振点の組合せに基づいて、各アクチュエータ251の振動特性のパターンが推定される。これにより、より正確な各アクチュエータ251の振動特性に基づいて、各アクチュエータ251が提示する振動を補正することができる。
また、例えば、実際にコンテンツを視聴するユーザが各姿勢をとった状態において、図6の振動特性解析処理を実行し、振動特性データを生成するようにしてもよい。
この場合、例えば、ユーザの姿勢及びアクチュエータ251の位置により、振動特性パターンが分類される。例えば、アクチュエータ251−1乃至アクチュエータ251−9の各姿勢における振動特性パターンが、振動特性データに定義される。従って、ユーザの姿勢及びアクチュエータ251の位置により、各アクチュエータ251の振動特性パターンが特定される。これにより、より正確な各アクチュエータ251の振動特性に基づいて、各アクチュエータ251が提示する振動を補正することができる。
さらに、例えば、図19の第6の実施の形態において、ユーザを撮影した画像等に基づいて、ユーザの姿勢を検出し、検出した姿勢に基づいて、振動制御データを生成するようにしてもよい。
また、例えば、各アクチュエータ251の負荷を、圧力以外の方法により検出するようにしてもよい。例えば、各アクチュエータ251にサイン波の入力データを入力し、その状態における各アクチュエータ251の加速度に基づいて、各アクチュエータ251の負荷を検出するようにしてもよい。
さらに、例えば、振動データが、各振動提示シーンにおける各アクチュエータ251の入力データを含むようにしてもよい。そして、例えば、ユーザ特性解析部172が、振動特性マップに基づいて、振動データに含まれる各アクチュエータ251の入力データを補正することにより、振動制御データを生成するようにしてもよい。
また、情報処理システム10の構成は、変更することが可能である。例えば、情報処理装置11が、振動提示装置14を備えるようにしてもよい。また、例えば、振動提示装置14が、情報処理装置11の機能の全部又は一部を備えるようにしてもよい。例えば、振動提示装置14が、図3の解析部161及び振動制御部183を備えるようにしてもよい。
さらに、例えば、各アクチュエータ251の負荷に基づいて、各アクチュエータ251を移動させ、配置を変更することにより、各アクチュエータ251が提示する振動を補正するようにしてもよい。例えば、ユーザが座面241の上に座った状態において、各アクチュエータ251が、負荷が想定した範囲内となる位置に移動される。
また、例えば、各アクチュエータ251の振動及び位置の両方を制御することにより、各アクチュエータ251が提示する振動を補正するようにしてもよい。
さらに、提示するコンテンツは、必ずしも映像及び音声の両方を含む必要はなく、一方のみを含でいてもよい。
<<9.その他>>
<ソフトウエアの提供方法等>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、情報処理装置11にインストールされる。
例えば、情報処理装置11では、CPU101が、記憶部108に記録されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
情報処理装置11(CPU101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
情報処理装置11では、プログラムは、リムーバブルメディア111をドライブ210に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、情報処理装置11が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する振動制御部を
備える情報処理装置。
(2)
前記振動制御部は、前記ユーザにより各前記振動提示部にかかる負荷に基づいて、各前記振動提示部が提示する振動を制御する
前記(1)に記載の情報処理装置。
(3)
各前記振動提示部の負荷の解析を行うユーザ特性解析部を
さらに備える前記(2)に記載の情報処理装置。
(4)
前記ユーザ特性解析部は、前記ユーザに関するユーザ情報に基づいて、各前記振動提示部の負荷を推定する
前記(3)に記載の情報処理装置。
(5)
前記ユーザ特性解析部は、前記ユーザ情報に基づいて、前記コンテンツのシーン毎に各前記振動提示部の負荷を推定し、
前記振動制御部は、前記コンテンツのシーン毎に、各前記振動提示部の負荷に基づいて、各前記振動提示部が提示する振動を制御する
前記(4)に記載の情報処理装置。
(6)
前記ユーザ特性解析部は、前記コンテンツのシーンの種類に基づいて、各前記振動提示部の負荷を推定する
前記(5)に記載の情報処理装置。
(7)
前記ユーザ情報は、前記ユーザの身体的特徴に関連する情報を含む
前記(4)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記ユーザ特性解析部は、センサデータに基づいて、各前記振動提示部の負荷を検出する
前記(3)に記載の情報処理装置。
(9)
前記ユーザ特性解析部は、前記ユーザの各姿勢における各前記振動提示部の負荷を検出し、
前記振動制御部は、前記ユーザの姿勢に基づいて、各前記振動提示部が提示する振動を制御する
前記(8)に記載の情報処理装置。
(10)
前記ユーザ特性解析部は、前記コンテンツの各シーンに対する前記ユーザの姿勢を推定し、
前記振動制御部は、推定された前記ユーザの姿勢に基づいて、各前記振動提示部が提示する振動を制御する
前記(9)に記載の情報処理装置。
(11)
前記ユーザ特性解析部は、前記コンテンツのシーンの種類毎に各前記振動提示部の負荷を検出し、
前記振動制御部は、前記コンテンツのシーン毎に、各前記振動提示部の負荷に基づいて、各前記振動提示部が提示する振動を制御する
前記(8)に記載の情報処理装置。
(12)
前記ユーザ特性解析部は、各前記振動提示部の負荷に基づいて、各前記振動提示部の振動特性を推定し、
前記振動制御部は、各前記振動提示部の振動特性に基づいて、各前記振動提示部が提示する振動を制御する
前記(3)乃至(11)のいずれかに記載の情報処理装置。
(13)
各前記振動提示部の振動特性の解析を行う振動特性解析部を
さらに備え、
前記ユーザ特性解析部は、各前記振動提示部の負荷、及び、各前記振動提示部の振動特性の解析結果に基づいて、各前記振動提示部の振動特性を推定する
前記(12)に記載の情報処理装置。
(14)
前記振動制御部は、前記コンテンツの提示前に、各前記振動提示部の負荷の解析結果に基づいて、各前記振動提示部が提示する振動の制御に用いる振動制御データを生成する
前記(3)乃至(13)のいずれかに記載の情報処理装置。
(15)
前記振動制御部は、各前記振動提示部が提示する振動の振幅及び周波数を制御する
前記(1)乃至(14)のいずれかに記載の情報処理装置。
(16)
前記コンテンツは、映像及び音声のうち少なくとも1つを含む
前記(1)乃至(15)のいずれかに記載の情報処理装置。
(17)
複数の前記振動提示部を備える振動提示装置は、前記ユーザの体を支える装置、前記ユーザが装着する装置、又は、前記ユーザが操作する装置である
前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
前記振動提示装置を
さらに備える前記(17)に記載の情報処理装置。
(19)
情報処理装置が、
複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する
情報処理方法。
(20)
複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する
処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
10 情報処理システム, 11 情報処理装置, 12 表示装置, 13 音声出力装置, 14 振動提示装置, 101 CPU, 151 情報処理部, 161 解析部, 162 出力制御部, 171 振動特性解析部, 172 ユーザ特性解析部, 181 表示制御部, 182 音声制御部, 183 振動制御部, 202−1乃至202−n 振動提示部, 203 センシング部, 241 座面, 251−1乃至251−9 アクチュエータ

Claims (20)

  1. 複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する振動制御部を
    備える情報処理装置。
  2. 前記振動制御部は、前記ユーザにより各前記振動提示部にかかる負荷に基づいて、各前記振動提示部が提示する振動を制御する
    請求項1に記載の情報処理装置。
  3. 各前記振動提示部の負荷の解析を行うユーザ特性解析部を
    さらに備える請求項2に記載の情報処理装置。
  4. 前記ユーザ特性解析部は、前記ユーザに関するユーザ情報に基づいて、各前記振動提示部の負荷を推定する
    請求項3に記載の情報処理装置。
  5. 前記ユーザ特性解析部は、前記ユーザ情報に基づいて、前記コンテンツのシーン毎に各前記振動提示部の負荷を推定し、
    前記振動制御部は、前記コンテンツのシーン毎に、各前記振動提示部の負荷に基づいて、各前記振動提示部が提示する振動を制御する
    請求項4に記載の情報処理装置。
  6. 前記ユーザ特性解析部は、前記コンテンツのシーンの種類に基づいて、各前記振動提示部の負荷を推定する
    請求項5に記載の情報処理装置。
  7. 前記ユーザ情報は、前記ユーザの身体的特徴に関連する情報を含む
    請求項4に記載の情報処理装置。
  8. 前記ユーザ特性解析部は、センサデータに基づいて、各前記振動提示部の負荷を検出する
    請求項3に記載の情報処理装置。
  9. 前記ユーザ特性解析部は、前記ユーザの各姿勢における各前記振動提示部の負荷を検出し、
    前記振動制御部は、前記ユーザの姿勢に基づいて、各前記振動提示部が提示する振動を制御する
    請求項8に記載の情報処理装置。
  10. 前記ユーザ特性解析部は、前記コンテンツの各シーンに対する前記ユーザの姿勢を推定し、
    前記振動制御部は、推定された前記ユーザの姿勢に基づいて、各前記振動提示部が提示する振動を制御する
    請求項9に記載の情報処理装置。
  11. 前記ユーザ特性解析部は、前記コンテンツのシーンの種類毎に各前記振動提示部の負荷を検出し、
    前記振動制御部は、前記コンテンツのシーン毎に、各前記振動提示部の負荷に基づいて、各前記振動提示部が提示する振動を制御する
    請求項8に記載の情報処理装置。
  12. 前記ユーザ特性解析部は、各前記振動提示部の負荷に基づいて、各前記振動提示部の振動特性を推定し、
    前記振動制御部は、各前記振動提示部の振動特性に基づいて、各前記振動提示部が提示する振動を制御する
    請求項3に記載の情報処理装置。
  13. 各前記振動提示部の振動特性の解析を行う振動特性解析部を
    さらに備え、
    前記ユーザ特性解析部は、各前記振動提示部の負荷、及び、各前記振動提示部の振動特性の解析結果に基づいて、各前記振動提示部の振動特性を推定する
    請求項12に記載の情報処理装置。
  14. 前記振動制御部は、前記コンテンツの提示前に、各前記振動提示部の負荷の解析結果に基づいて、各前記振動提示部が提示する振動の制御に用いる振動制御データを生成する
    請求項3に記載の情報処理装置。
  15. 前記振動制御部は、各前記振動提示部が提示する振動の振幅及び周波数を制御する
    請求項1に記載の情報処理装置。
  16. 前記コンテンツは、映像及び音声のうち少なくとも1つを含む
    請求項1に記載の情報処理装置。
  17. 複数の前記振動提示部を備える振動提示装置は、前記ユーザの体を支える装置、前記ユーザが装着する装置、又は、前記ユーザが操作する装置である
    請求項1に記載の情報処理装置。
  18. 前記振動提示装置を
    さらに備える請求項17に記載の情報処理装置。
  19. 情報処理装置が、
    複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する
    情報処理方法。
  20. 複数の振動提示部がそれぞれコンテンツと関連付けてユーザに提示する振動を、前記ユーザの特性及び各前記振動提示部の位置に基づいて、個別に制御する
    処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2020546835A 2018-09-11 2019-08-28 情報処理装置、情報処理方法、及び、記録媒体 Active JP7396288B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018169813 2018-09-11
JP2018169813 2018-09-11
PCT/JP2019/033639 WO2020054415A1 (ja) 2018-09-11 2019-08-28 情報処理装置、情報処理方法、及び、記録媒体

Publications (2)

Publication Number Publication Date
JPWO2020054415A1 true JPWO2020054415A1 (ja) 2021-09-09
JP7396288B2 JP7396288B2 (ja) 2023-12-12

Family

ID=69777582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020546835A Active JP7396288B2 (ja) 2018-09-11 2019-08-28 情報処理装置、情報処理方法、及び、記録媒体

Country Status (5)

Country Link
US (1) US12053101B2 (ja)
JP (1) JP7396288B2 (ja)
CN (1) CN112673334B (ja)
DE (1) DE112019004540T5 (ja)
WO (1) WO2020054415A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102151083B1 (ko) * 2019-12-10 2020-09-02 손범수 압력 감지식 안마 의자 시스템
WO2022102307A1 (ja) * 2020-11-10 2022-05-19 ソニーグループ株式会社 信号処理装置、信号処理方法、信号処理システム
WO2023018309A1 (en) * 2021-08-13 2023-02-16 Samsung Electronics Co., Ltd. A method and an apparatus for generating localized vibrations

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008217A1 (ja) * 2016-07-07 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE36699E (en) * 1992-12-30 2000-05-16 Murayama; Ronald K. Sonic dental device
JP2001285975A (ja) 2000-03-30 2001-10-12 Sony Corp 音響装置
KR100840591B1 (ko) * 2007-02-22 2008-06-23 주식회사 티에스메디텍 음파 진동형 운동 기능을 갖는 의자
JP4623119B2 (ja) * 2008-03-31 2011-02-02 パナソニック電工株式会社 マッサージ機
US9466187B2 (en) * 2013-02-04 2016-10-11 Immersion Corporation Management of multiple wearable haptic devices
US9652945B2 (en) 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
JP6664069B2 (ja) 2013-12-31 2020-03-13 イマージョン コーポレーションImmersion Corporation 触覚コンテンツを伴う視点動画を記録及び再生するシステム並びに方法
US9946348B2 (en) * 2014-03-21 2018-04-17 Immersion Corporation Automatic tuning of haptic effects
CN104731333B (zh) 2015-03-25 2018-11-09 联想(北京)有限公司 一种可穿戴式电子设备
CN105306982A (zh) 2015-05-22 2016-02-03 维沃移动通信有限公司 移动终端界面图像的感官反馈方法及其移动终端
EP3099030A1 (en) 2015-05-26 2016-11-30 Thomson Licensing Method and device for encoding/decoding a packet comprising data representative of a haptic effect
EP3118723A1 (en) * 2015-07-13 2017-01-18 Thomson Licensing Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace)
CN106843475A (zh) 2017-01-03 2017-06-13 京东方科技集团股份有限公司 一种实现虚拟现实交互的方法及系统
US10661682B2 (en) * 2018-07-17 2020-05-26 Honda Motor Co., Ltd. Vehicle seat haptic system and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008217A1 (ja) * 2016-07-07 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
DE112019004540T5 (de) 2021-08-05
US12053101B2 (en) 2024-08-06
US20210186219A1 (en) 2021-06-24
WO2020054415A1 (ja) 2020-03-19
CN112673334B (zh) 2024-06-25
JP7396288B2 (ja) 2023-12-12
CN112673334A (zh) 2021-04-16

Similar Documents

Publication Publication Date Title
JP7396288B2 (ja) 情報処理装置、情報処理方法、及び、記録媒体
JP6923245B2 (ja) 観衆ベースのハプティック
CN114885274B (zh) 空间化音频系统以及渲染空间化音频的方法
Burton et al. Frequency dependence of human response to wind-induced building motion
CN110178158A (zh) 信息处理装置、信息处理方法和程序
JP2017199017A (ja) 模擬地震被害の仮想現実体験システム、模擬地震被害の仮想現実体験方法
US11770669B2 (en) Audio personalisation method and system
JP6218197B1 (ja) 模擬地震被害の実現象データ生成システム、模擬地震被害の実現象データ生成方法
JP2016513991A (ja) ハプティックアクチュエータ制御パラメータを有するオーディオビジュアルコンテンツのアイテムを再生するための方法、および方法を実施するデバイス
JP6882785B2 (ja) 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム
EP3075163A1 (en) Method for generating haptic coefficients using an autoregressive model, signal and device for reproducing such coefficients
Peksi et al. A unity based platform for individualized hrtf research and development: From on-the-fly fast acquisition to spatial audio renderer
JP2022173870A (ja) 鑑賞システム、鑑賞装置及びプログラム
JP6475921B2 (ja) 通信ユニット
JP5614422B2 (ja) 運動支援装置、運動支援方法、及び、プログラム
JP2020042557A (ja) 盛り上がり促進システム
WO2024079910A1 (ja) コンテンツ再生装置、振動制御信号生成装置、サーバ装置、振動制御信号生成方法、コンテンツ再生システム、及び設計支援装置
JP7072706B1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
CN117980047A (zh) 信息处理装置、信息处理系统以及信息处理方法
WO2024150544A1 (ja) 音響装置、音響処理方法及び音響処理プログラム
JP5583066B2 (ja) 映像コンテンツ生成装置およびコンピュータプログラム
GB2600932A (en) Audio personalisation method and system
JP2022032480A (ja) 会議評価装置、うなずき検出装置、会議評価システム、及び会議評価プログラム
JP2024017905A (ja) 触覚提示装置及びプログラム
CN118661219A (zh) 信息处理装置、信息处理方法及程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R151 Written notification of patent or utility model registration

Ref document number: 7396288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151