JP2017182130A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2017182130A
JP2017182130A JP2016063386A JP2016063386A JP2017182130A JP 2017182130 A JP2017182130 A JP 2017182130A JP 2016063386 A JP2016063386 A JP 2016063386A JP 2016063386 A JP2016063386 A JP 2016063386A JP 2017182130 A JP2017182130 A JP 2017182130A
Authority
JP
Japan
Prior art keywords
user
information processing
processing apparatus
video
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016063386A
Other languages
English (en)
Inventor
高橋 慧
Kei Takahashi
高橋  慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016063386A priority Critical patent/JP2017182130A/ja
Priority to PCT/JP2017/002197 priority patent/WO2017168998A1/ja
Priority to US16/076,076 priority patent/US11360545B2/en
Publication of JP2017182130A publication Critical patent/JP2017182130A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】映像の視聴により引き起こされる酔いを緩和する。【解決手段】表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御する制御部と、を備える、情報処理装置。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、一人称視点の画像の提示により、ユーザに対して、他のユーザとの間で視界を共有する等のような、様々な体験を提供するための仕組みが検討されている。例えば、特許文献1には、頭部に装着された撮像装置で撮像される映像を他の装置へと送信し、当該他の装置を介して他のユーザに当該映像を提示することにより、複数のユーザ間での空間の共有を可能とするための技術の一例が開示されている。
国際公開第2015/122108号
一方で、ユーザに対して、例えば、当該ユーザの視点とは異なる他の視点からの映像を提示するような状況下では、提示される映像と頭部の動きとの間のズレ等のように、視覚と身体感覚との間にズレが生じ、ユーザは酔ったような感覚に陥る場合がある。
そこで、本開示では、映像の視聴により引き起こされる酔いを緩和することが可能な、情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御する制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、コンピュータシステムが、表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御すること、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータシステムに、表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御すること、を実行させる、プログラムが提供される。
以上説明したように本開示によれば、映像の視聴により引き起こされる酔いを緩和することが可能な、情報処理装置、情報処理方法、及びプログラムが提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図である。 同実施形態に係る情報処理システムにおいて適用される出力デバイスの一例について説明するための説明図である。 同実施形態に係る情報処理システムの概要について説明するための説明図である。 同実施形態に係る情報処理システムの一連の処理の流れの一例について説明するための説明図である。 同実施形態に係る出力デバイスの構成の一例について説明するための説明図である。 同実施形態に係る出力デバイスによるユーザへの力覚提示の一例について説明するための説明図である。 同実施形態に係る出力デバイスによるユーザへの力覚提示の他の一例について説明するための説明図である。 同実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。 同実施形態に係る情報処理システムの一連の処理の流れの一例について説明するための説明図である。 変形例1に係る出力デバイスの構成の一例について説明するための説明図である。 変形例1に係る出力デバイスの構成の他の一例について説明するための説明図である。 変形例3に係る情報処理システム1の概要について説明するための説明図である。 同実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システムの概要
1.1.システムの概略構成
1.2.処理の一例
2.映像酔いに関する検討
3.技術的特徴
3.1.力覚提示のための構成
3.2.機能構成
3.3.処理
4.変形例
4.1.変形例1:力覚提示のための構成の変形例
4.2.変形例2:情報の報知を利用した制御の一例
4.3.変形例3:VRへの応用例
5.ハードウェア構成
6.むすび
<<1.システムの概要>>
<1.1.システムの概略構成>
まず、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明する。図1は、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図である。図1に示すように、本実施形態に係る情報処理システム1は、撮像デバイス40と、情報処理装置10及び20と、出力デバイス30とを含む。また、情報処理システム1は、コンテンツサーバ80を含んでもよい。情報処理装置10及び20のそれぞれと、コンテンツサーバ80とは、ネットワークN11を介して互いに情報を送受信可能に接続されている。なお、ネットワークN11の種別は特に限定されない。具体的な一例として、ネットワークN11は、Wi−Fi(登録商標)規格に基づくネットワークのような、所謂無線のネットワークにより構成されていてもよい。また、他の一例として、ネットワークN11は、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)等により構成されていてもよい。また、ネットワークN11は、複数のネットワークを含んでもよく、一部が有線のネットワークとして構成されていてもよい。
撮像デバイス40は、撮像部41を含み、当該撮像部41によりユーザUaの周囲の環境の画像(例えば、動画像や静止画像)を撮像する。特に、本実施形態に係る撮像デバイス40は、所謂頭部装着型のウェアラブルデバイスとして構成され、当該撮像デバイス40を装着したユーザUaの頭部に対して所定の位置に撮像部41を保持する。撮像部41は、例えば、撮像素子と、当該撮像素子に対して被写体像を結像するための光学系(例えば、レンズ等)を含む。撮像素子としては、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等が挙げられる。
また、撮像デバイス40は、例えば、ユーザUaを基準として互いに異なる方向を撮像するように設けられた複数の撮像部41(例えば、撮像部41a及び41b)を含んでもよい。このような構成に基づき、複数の撮像部41それぞれにより撮像された画像を、当該複数の撮像部41それぞれの画角に応じて画像処理等により合成することで、所謂全天周画像のように、各撮像部41の画角よりもより広い範囲が撮像された画像を取得することが可能となる。なお、この場合には、複数の撮像部41それぞれは、より広角のレンズが装着されているとよりよく、ユーザUaを基準とした各方向の画像が、当該複数の撮像部41のうち少なくともいずれかにより撮像されるように、当該複数の撮像部41が配置されているとよい。なお、以降の説明では、本実施形態に係る情報処理システム1の特徴をよりわかりやすくするために、複数の撮像部41a及び41bそれぞれにより撮像された画像に基づき全天周画像を合成する場合に着目して説明するが、必ずしも同態様のみに限定されるものではない。
また、撮像デバイス40は、例えば、無線または有線の通信経路を介して、ユーザUaが保持する情報処理装置10と互いに情報を送受信可能に構成されている。このような構成に基づき、撮像デバイス40は、撮像部41a及び41bそれぞれにより撮像された画像を情報処理装置10に送信する。
情報処理装置10は、撮像デバイス40から、撮像部41a及び41bそれぞれにより撮像された画像を取得する。情報処理装置10は、撮像部41a及び41bそれぞれにより撮像された画像を合成することで全天周画像を生成する。なお、このとき情報処理装置10は、ユーザUaの頭部の回転等に伴う視点の位置や向きの変化を認識し、当該視点の位置や向きの変化に伴う画像の回転が抑制されるように、全天周画像を生成してもよい。なお、視点の位置や向きの変化については、例えば、撮像デバイス40に加速度センサや角速度センサを設けることで、当該センサの検知結果に基づき、当該撮像デバイス40の位置や姿勢の変化として認識することが可能である。また、他の一例として、撮像部41a及び41bそれぞれにより撮像された画像に対して、画像解析処理を施すことで、視点の位置や向きの変化が認識されてもよい。
そして、情報処理装置10は、生成した全天周画像を、ネットワークN11を介してコンテンツサーバ80に送信する。
なお、情報処理装置10のうち少なくとも一部の構成が、撮像デバイス40に設けられていてもよい。例えば、全天周画像を生成するための構成が撮像デバイス40に設けられていてもよい。また、情報処理装置10と撮像デバイス40とが一体的に構成されていてもよい。
コンテンツサーバ80は、ユーザUaが保持する情報処理装置10から、撮像デバイス40による撮像結果に基づく画像(全天周画像)を、ネットワークN11を介して取得し、取得した当該画像を他のユーザ(例えば、ユーザUb)が保持する情報処理装置20に配信する。また、コンテンツサーバ80は、情報処理装置10から取得した画像を、例えば、記憶部85に一時的または恒久的に記憶し、当該記憶部85に記憶された当該画像を、情報処理装置20に配信してもよい。このような構成により、撮像デバイス40による撮像結果に基づく画像を、ユーザUaが保持する情報処理装置10から、他のユーザUbが保持する情報処理装置20に、同期的または非同期的に伝送することが可能となる。
出力デバイス30は、ディスプレイ等の表示部31を備えた所謂頭部装着型の表示装置(HMD:Head Mounted Display)として構成されており、当該出力デバイス30を装着したユーザ(例えば、ユーザUb)に対して、当該表示部31を介して映像を提示する。
例えば、図2は、本実施形態に係る情報処理システムにおいて適用される出力デバイス30の一例について説明するための説明図である。図2に示すように、出力デバイス30は、ユーザの頭部に装着されることで、当該ユーザの眼前に、画像を表示するための表示部(例えば、表示パネル)を保持するように構成されている。
なお、出力デバイス30として適用可能な頭部装着型の表示装置(HMD)には、所謂、没入型HMD、シースルー型HMD、ビデオシースルー型HMD、及び網膜投射型HMDが含まれる。
没入型HMDは、ユーザの頭部または顔部に装着された場合に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。そのため、没入型HMDを装着したユーザは、外部の風景(即ち、現実世界の風景)を直接視野に入れることが困難であり、表示部に表示された映像のみが視界に入ることとなる。このような構成により、没入型HMDは、画像を視聴しているユーザに対して没入感を与えることが可能となる。なお、図2に示す出力デバイス30は、没入型HMDに相当する。
シースルー型HMDは、例えば、ハーフミラーや透明な導光板を用いて、透明な導光部等からなる虚像光学系をユーザの眼前に保持し、当該虚像光学系の内側に画像を表示させる。そのため、シースルー型HMDを装着したユーザは、虚像光学系の内側に表示された画像を視聴している間も、外部の風景を視野に入れることが可能となる。なお、シースルー型HMDの具体的な一例として、メガネのレンズに相当する部分を虚像光学系として構成した、所謂メガネ型のウェアラブルデバイスが挙げられる。
ビデオシースルー型HMDは、没入型HMDと同様に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。一方で、ビデオシースルー型HMDは、周囲の風景を撮像するための撮像部を有し、当該撮像部により撮像されたユーザの視線方向の風景の画像を表示部に表示させる。このような構成により、ビデオシースルー型HMDを装着したユーザは、外部の風景を直接視野に入れることは困難ではあるが、表示部に表示された画像により、外部の風景を確認することが可能となる。
網膜投射型HMDは、ユーザの眼前に投影部が保持されており、当該投影部からユーザの眼に向けて、外部の風景に対して画像が重畳するように当該画像が投影される。より具体的には、網膜投射型HMDでは、ユーザの眼の網膜に対して、投影部から画像が直接投射され、当該画像が網膜上で結像する。このような構成により、近視や遠視のユーザの場合においても、より鮮明な映像を視聴することが可能となる。また、網膜投射型HMDを装着したユーザは、投影部から投影される画像を視聴している間も、外部の風景を視野に入れることが可能となる。
また、本実施形態に係る出力デバイス30は、例えば、加速度センサや、角速度センサ(ジャイロセンサ)等の検知部が設けられ、当該出力デバイス30を装着したユーザUbの頭部の動き(頭部の姿勢)を検知可能に構成されていてもよい。具体的な一例として、出力デバイス30は、ユーザの頭部の動きとして、ヨー(yaw)方向、ピッチ(pitch)方向、及びロール(roll)方向それぞれの成分を検出してもよい。なお、出力デバイス30は、ユーザUbの頭部の動きの検知結果を情報処理装置20に通知してもよい。
情報処理装置20は、ネットワークN11を介してコンテンツサーバ80から、撮像デバイス40による撮像結果に基づく画像(例えば、全天周画像)を取得する。そして、情報処理装置20は、取得した画像を出力デバイス30の表示部31に表示させる。このような構成により、出力デバイス30を装着したユーザUbは、例えば、当該出力デバイス30の表示部31を介して、撮像デバイス40を装着したユーザUaの周囲の環境の映像を視聴することが可能となる。
また、情報処理装置20は、ユーザUbの頭部の動き(頭部の姿勢)の検知結果の通知を出力デバイス30から受けてもよい。このような構成により、情報処理装置20は、ユーザUbの頭部の動きに基づき、当該ユーザUbの視点の位置や向きの変化(以降では、総じて「視点の変化」と称する場合がある)を認識し、認識した視点の変化に応じた映像を、出力デバイス30(表示部31)を介してユーザUbに提示してもよい。
例えば、図3は、本実施形態に係る情報処理システム1の概要について説明するための説明図であり、ユーザUbの視点の変化に応じた映像を提示するため動作の一例を示している。図3に示す例では、全天周画像のように、ユーザUbの視野よりも広く展開された画像v0を、ユーザUbが見回すように視点を移動させながら、出力デバイス30(図示しない)を介して参照する態様を模擬した場合の一例を示している。なお、画像v0は、動画像であってもよいし、静止画像であってもよい。
具体的には、情報処理装置20は、ユーザUbの頭部の動きを検出することで、ユーザの視点の変化を認識する。そして、情報処理装置20は、ユーザUaの視野よりも広く展開された画像v0のうち、認識した視点の位置や向きに応じた部分の部分画像v11を、あらかじめ設定された視野角に基づき抽出し、抽出した部分画像v11を、出力デバイス30を介してユーザUbに提示する。即ち、図3に示された部分画像v11は、出力デバイス30の表示部31に提示される画像を模式的に示している。
なお、部分画像v11を抽出するための視野角は、固定であってもよいし、ユーザ操作等に基づき変更できるようにしてもよい。例えば、部分画像v11中の一部をさらに拡大してユーザUbに提示する場合には、情報処理装置20は、視野角をより狭く設定することで、画像v0に対する部分画像v11の大きさが相対的に小さくなるように制御してもよい。
また、ユーザUbの頭部の動きを検出する方法については、出力デバイス30に設けられた各種センサの検出結果に基づく方法には限定されない。例えば、ユーザUbの頭部の動きを検出する構成を、出力デバイス30の外部に設けてもよい。具体的な一例として、出力デバイス30の外部に設けられた撮像装置によりユーザUbの画像を撮像し、撮像された画像を解析することで、当該ユーザUbの頭部の動きを検出してもよい。また、他の一例として、出力デバイス30の外部に所謂光センサのような各種センサを設け、当該センサによりユーザUbをセンシングすることで、当該ユーザUbの頭部の動きを検出してもよい。
以上のような構成により、ユーザUbは、自身の視点を移動させながら見回すように画像v0を参照することで、あたかもその場にいるかのような臨場感あふれる画像を体験することが可能となる。そのため、例えば、画像v0として、前述した撮像デバイス40による撮像結果に基づく画像(全天周画像)が提示されることで、ユーザUbは、あたかも撮像デバイス40を装着したユーザUaと空間を共有しているような体験を得ることが可能となる。
なお、情報処理装置20のうち少なくとも一部の構成が、出力デバイス30に設けられていてもよい。例えば、全天周画像から、ユーザUbの視点の位置や向きに応じた部分画像を抽出し、抽出した部分画像を表示部31に提示するための構成が、出力デバイス30に設けられていてもよい。また、情報処理装置20と出力デバイス30とが一体的に構成されていてもよい。
なお、上記に説明した例では、撮像デバイス40による撮像結果に基づく画像(全天周画像)が、コンテンツサーバ80を介して、情報処理装置10から情報処理装置20に送信される例について説明したが、必ずしも同構成のみには限定されない。例えば、撮像デバイス40による撮像結果に基づく画像が、コンテンツサーバ80を介さずに、情報処理装置10から情報処理装置20に対して直接送信される構成であってもよい。
<1.2.処理の一例>
ここで、図4を参照して、上述した情報処理システム1の一連の処理の流れの一例について、特に、情報処理装置10及び20の動作に着目して説明する。図4は、本実施形態に係る情報処理システム1の一連の処理の流れの一例について説明するための説明図である。なお、本説明では、情報処理システム1の特徴をよりわかりやすくするために、情報処理装置10と情報処理装置20とが、コンテンツサーバ80を介さずに直接情報を送受信する場合の動作に着目して説明する。
図4に示すように、ユーザUaが保持する情報処理装置10は、撮像デバイス40から、撮像部41a及び41bそれぞれにより撮像された画像を取得する(S101)。そして、情報処理装置10は、撮像部41a及び41bそれぞれにより撮像された画像を合成することで全天周画像を生成する(S103)。なお、このとき情報処理装置10は、ユーザUaの頭部の回転等に伴う視点の位置や向きの変化を認識し、当該視点の位置や向きの変化に伴う画像の回転が抑制されるように、全天周画像を生成してもよい(S105)。なお、視点の位置や向きの変化の認識方法については前述したため、ここでの説明は省略する。そして、情報処理装置10は、生成した全天周画像を、ネットワークN11を介してユーザUbが保持する情報処理装置20に送信する(S107)。
情報処理装置20は、ネットワークN11を介して情報処理装置10から、撮像デバイス40による撮像結果に基づく全天周画像を受信する(S109)。また、情報処理装置20は、出力デバイス30から、当該出力デバイス30を装着したユーザUbの頭部の動きの検知結果に関する通知を受け、当該通知に基づき、ユーザUbの頭部の位置及び姿勢(換言すると、ユーザUbの視点の位置や向きの変化)を認識する(S111)。そして、情報処理装置20は、情報処理装置10から受信した全天周画像から、認識したユーザUbの頭部の位置及び姿勢に応じた部分画像を抽出し、抽出した部分画像を出力デバイス30の表示部31を介してユーザUbに提示する(S113)。
以上のような構成により、ユーザUbは、あたかも撮像デバイス40を装着したユーザUaと空間を共有しているような体験を得ることが可能となる。以上、図4を参照して、上述した情報処理システム1の一連の処理の流れの一例について、特に、情報処理装置10及び20の動作に着目して説明した。
<<2.映像酔いに関する検討>>
続いて、映像酔いが発生するメカニズムの概要について説明したうえで、本実施形態に係る情報処理システムの課題について整理する。
映像酔いが発生するメカニズムについて説明するために、まず、人体が運動を知覚するメカニズムについて説明する。物体の運動は、一般的には、併進運動と回転運動に分離することが可能である。人体の内部においては、前庭及び三半規管において、これらの運動に伴う回転や振動が平衡感覚として知覚される。ここで、並進運動について着目すると、一定速度で移動している状況下では、前庭及び三半規管は刺激されず、並進運動の速度が変化した場合、即ち、加速度が与えられた場合に運動が知覚されるようになっている。より具体的には、加速度が与えられることで前庭内に慣性力が働き、この力が当該前庭により知覚される。
次いで、酔いのメカニズムについて説明する。人間が実際に運動を行う際には、視覚、平衡感覚、皮膚感覚、及び身体感覚等の各種感覚により各種情報の知覚を行っている。具体的な一例として、視覚からは速度と加速度の情報が知覚される。また、平衡感覚からは加速度の情報が知覚される。また、身体感覚により、筋肉の収縮や自身の動き、外から押されている力等が知覚される。脳は、これらの感覚(換言すると、知覚された各情報)に基づき、実際の速度と加速度を認識する。
一方で、これらの感覚のうち一部が、失われたり、他の感覚との間で整合性が取れなくなると、酔いが引き起こされる。具体的な一例として、実際には移動していないにも関わらず激しく加速したり回転するような映像を視聴すると、人間の脳は、運動しているのか否かの判断がつかず、このような状態を酔いとして知覚する。
なお、酔いという現象は、特に回転運動の不整合に対して顕著に表れる傾向にあるが、並進運動においても急な加減速の不整合に伴い引き起こされる場合がある。具体的な一例として、急に加速するような状況下では、人間の平衡感覚は大きな加速度を知覚する。これに対して、映像のみが加速し、平衡感覚や身体感覚に移動が知覚されない場合には、視覚と、平衡感覚や身体感覚との間の不整合に伴い、酔いが引き起こされる。
映像に起因する酔いを緩和するためには、主に、2つのアプローチが考えられる。1つ目のアプローチとしては、映像の動きを遅くすることで、予期される視覚と平衡感覚との間のズレをより小さく方法が挙げられる。より具体的には、加速するような映像においては、加速度をより小さくすることで、酔いを緩和することが可能となる。
2つ目のアプローチとしては、提示される映像に応じた感覚を、当該映像を視聴するユーザに提示する方法が挙げられる。より具体的には、人間の触覚や力覚に対して力を提示することで、身体感覚と映像表現との間の差を埋めて、酔いを緩和することが可能となる。
本開示では、上述した2つ目のアプローチに基づき、映像を視聴するユーザに対して当該映像に応じた力覚を提示することで、当該映像の視聴に伴い引き起こされる酔いを緩和するための仕組みを提案する。以降では、本実施形態に係る情報処理システム1についてより詳しく説明する。
<<3.技術的特徴>>
本実施形態に係る情報処理システム1の技術的特徴について説明する。
<3.1.力覚提示のための構成>
前述したように、本実施形態に係る情報処理システム1では、映像を視聴するユーザに対して力覚を提示することで、当該映像の視聴に伴い引き起こされる酔いを緩和する。そのため、本実施形態に係る出力デバイス30には、当該出力デバイスを装着するユーザに対して、映像に応じた力覚を提示するための構成が設けられている。そこで、図5を参照して、本実施形態に係る出力デバイス30の構成の一例について、特に、当該出力デバイスを装着するユーザに対して力覚を提示するための構成に着目して説明する。図5は、本実施形態に係る出力デバイス30の構成の一例について説明するための説明図である。なお、図5は、出力デバイス30を鉛直上方から見た場合の概略的な構成を模式的に示しており、特に図面の下方向が、出力デバイス30を装着したユーザの前方に相当する。より具体的には、図5では、z方向として示した図面の上下方向が、出力デバイス30を装着したユーザの前後に相当し、x方向として示した図面の左右方向が、当該ユーザの左右に相当する。また、y方向として示した図面の奥行き方向については、当該ユーザの上下に相当する。なお、以降の説明では、特に図5に示す出力デバイス30を示す場合には、「出力デバイス30a」と称する場合がある。
図5に示すように、出力デバイス30aは、当該出力デバイス30aをユーザの頭部に装着するための支持部351を備える。具体的には、支持部351は、出力デバイス30aがユーザの頭部に装着されたときに、当該頭部の前後左右を覆うように構成されており、当該ユーザの眼前に表示部31を保持する。支持部351のうち、ユーザの頭部に当接する内側面は、弾性材料等のように伸縮可能な材料により形成されている。また、支持部351は、出力デバイス30aが装着された頭部に対して、互いに異なる方向に位置するように、複数の力覚提示部353を支持する。なお、力覚提示部353の詳細については後述する。例えば、図5に示す例では、支持部351は、出力デバイス30aが装着された頭部の前後左右にそれぞれに対応する位置に、力覚提示部353を支持している。なお、以降の説明では、前後左右それぞれに対応する力覚提示部353を明示的に区別して示す場合には、それぞれを力覚提示部353a、353b、353c、及び353dと称する。
力覚提示部353は、例えば、ソレノイドコイル、モータ、または空気圧等により伸縮可能に構成されており、伸長することで支持部351の内側面352に対して、出力デバイス30aの外側から内側に向けて圧力をかける。これにより、内側面352のうち、力覚提示部353が伸長した部分が内側に向けて部分的に膨張し、ユーザの頭部を外側から部分的に圧迫する。このような構成により、力覚提示部353は、出力デバイス30aを装着したユーザの頭部に対して圧力を提示する。
例えば、図6は、本実施形態に係る出力デバイス30aによるユーザへの力覚提示の一例について説明するための説明図である。具体的には、図6は、ユーザUaに装着された撮像デバイス40により当該ユーザUaの周囲の全天周画像を撮像し、撮像された当該全天周画像を、出力デバイス30aを介してユーザUbに提示する場合の一例を示している。なお、図6に示す例では、ユーザUaが前方を向いた状態で当該前方に向けて移動を開始し(即ち、併進運動を開始し)、ユーザUbは、ユーザUaと同様の方向(即ち、ユーザUaの前方)を向いている状態を示している。
図6に示すような状況下では、例えば、ユーザUaが前方に向けて移動を開始すると、当該前方への移動に伴い、前方に向けて加速するような映像が、出力デバイス30aを介してユーザUbに提示される。このとき、出力デバイス30aは、例えば、撮像デバイス40に設けられた各種センサ等の検知部による検知結果に基づき、ユーザUaの頭部の位置や姿勢の変化(換言すると、ユーザUaの頭部に加わる加速度)を認識し、当該認識結果に応じて、ユーザUbの頭部に対して力覚を提示する。
具体的には、出力デバイス30aは、ユーザUaの頭部が、ユーザUbに対して前方に向けて移動していることを認識した場合には、力覚提示部353bを伸長させてユーザUbの頭部後方を押圧することで、当該頭部に対して前方に向けた力覚を提示する。このような構成により、ユーザUbの頭部が、出力デバイス30aにより後方から前方に向けて押され、当該頭部に対して前方に向けた加速度が加えられる。これにより、ユーザUbに提示された、前方に向けて移動するような映像に対して、連動するように前方に向けた加速度が提示されることとなり、当該映像の視聴に伴い引き起こされる酔いを緩和することが可能となる。
なお、本実施形態に係る情報処理システム1においては、ユーザUaの視点の向きに関わらず、ユーザUbは、自身の視点の向き(換言すると、頭部の向き)を適宜変えることで、当該ユーザUaの周囲の映像を見回すように視聴することが可能である。そのため、ユーザUbに対して提示される映像は、ユーザUaの視点の向きと、ユーザUbの視点の向きとの間の相対的な関係に応じて変わることとなる。このような状況を鑑み、出力デバイス30aは、ユーザUaの視点の向きと、ユーザUbの視点の向きとの間の相対的な関係に応じて、当該ユーザUbに対して提示する力覚の方向を制御してもよい。
例えば、図7は、本実施形態に係る出力デバイス30aによるユーザへの力覚提示の他の一例について説明するための説明図である。図7に示す例では、図6に示す例と同様に、撮像デバイス40によりユーザUaの周囲の全天周画像を撮像し、撮像された当該全天周画像を、出力デバイス30aを介してユーザUbに提示する。なお、図7に示す例では、ユーザUaが前方を向いた状態で当該前方に向けて移動を開始し(即ち、併進運動を開始し)、ユーザUbは、ユーザUaの左方向を向いている状態を示している。
図7に示すような状況下では、例えば、ユーザUaが前方に向けて移動を開始すると、当該前方への移動に伴い、ユーザUbには、左方向から右方向に向けて加速するような映像が出力デバイス30aを介して提示され。このとき、出力デバイス30aは、ユーザUaの頭部が、ユーザUbに対して右方向に向けて移動していることを認識することとなる。
この場合には、出力デバイス30aは、力覚提示部353cを伸長させてユーザUbの頭部左方向を押圧することで、当該頭部に対して右方向に向けた力覚を提示する。このような構成により、ユーザUbの頭部が、出力デバイス30aにより左方向から右方向に向けて押され、当該頭部に対して右方向に向けた加速度が加えられる。これにより、ユーザUbに提示された、右方向に向けて移動するような映像に対して、連動するように右方向に向けた加速度が提示されることとなり、当該映像の視聴に伴い引き起こされる酔いを緩和することが可能となる。
なお、ユーザUbの頭部に対して、力覚提示部353が設けられている方向とは異なる方向に向けた力覚を提示する場合には、複数の力覚提示部353を駆動させればよい。例えば、ユーザUbの頭部に対して、右後方から左前方に向けた力覚を提示する場合には、当該頭部に対して、後方に位置する力覚提示部353bと、右方向に位置する力覚提示部353dとを駆動させればよい。
また、撮像デバイス40により撮像された全天周画像が、出力デバイス30aに転送され提示されるまでの間に、当該転送や画像処理等に伴う遅延が生じる場合がある。前述したように、映像の視聴に伴う酔いは、視覚と、平衡感覚や身体感覚との間の不整合に伴い引き起こされる。即ち、出力デバイス30aによる力覚の提示は、映像の提示と連動していることが望ましい。そのため、転送や画像処理等に伴い映像の提示に遅延が生じるような状況下では、出力デバイス30aは、映像の提示の遅延にあわせて、力覚の提示も遅延させるとよい。
また、図5に示す例では、出力デバイス30aが装着された頭部の前後左右にそれぞれに対応する位置に、各力覚提示部353が支持された構成の一例を示した。一方で、ユーザの頭部に対して所望の方向に向けた力覚を提示することが可能であれば、力覚提示部353が支持される位置は、必ずしも図5に示す例には限定されない。具体的な一例として、ユーザの頭部に対して、右前方、左前方、右後方、及び左後方のそれぞれに対応する位置に、力覚提示部353が支持されていてもよい。このような場合には、例えば、右後方及び左後方に指示された力覚提示部353を駆動することで、ユーザの頭部に対して、後方から前方に向けた力覚を提示することが可能である。
以上、図5を参照して、本実施形態に係る出力デバイス30の構成の一例について、特に、当該出力デバイスを装着するユーザに対して力覚を提示するための構成に着目して説明した。
なお、上記では主に力覚を提示する場合に着目して説明したが、例えば、ユーザの触覚や平衡感覚等の他の感覚を刺激することで、映像の視聴に伴う酔いを緩和してもよい。なお、以降の説明では、触覚、力覚、平衡感覚等を総じて「触力覚」とも称する。また、ユーザに対して触力覚を提示するための構成についても限定されないことは言うまでもない。例えば、振動や圧力等を機械的に加える等の所謂機械刺激により、ユーザに触力覚を提示してもよい。また、他の一例として、ユーザに接する電極に電流を流す等の所謂電気刺激により、ユーザに触力覚を提示してもよい。なお、ユーザに触力覚を提示するための一例については、別途変形例としても後述する。
<3.2.機能構成>
続いて、図8を参照して、本実施形態に係る情報処理システム1の機能構成の一例について説明する。図8は、本実施形態に係る情報処理システム1の機能構成の一例を示したブロック図である。
図1を参照して説明したように、本実施形態に係る情報処理システム1は、撮像デバイス40と、情報処理装置10及び20と、出力デバイス30とを含む。また、情報処理システム1は、コンテンツサーバ80を含んでもよい。また、情報処理装置10及び20のそれぞれと、コンテンツサーバ80とは、ネットワークN11を介して互いに情報を送受信可能に接続されている。
まず、撮像デバイス40の構成に着目する。図8に示すように、撮像デバイス40は、複数の撮像部41(即ち、撮像部41a及び41b)と、検知部43とを含む。なお、図8に示す例では、撮像デバイス40が、2つの撮像部41a及び41bを含む場合について示しているが、必ずしも撮像デバイス40が含む撮像部41の数を限定するものではない。即ち、撮像デバイス40は、3以上の撮像部41を含んでもよい。
撮像部41a及び41bのそれぞれは、撮像デバイス40の周囲の画像(即ち、当該撮像デバイスを装着するユーザUaの周囲の画像)を撮像し、撮像した画像を情報処理装置10に出力する。
検知部43は、例えば、加速度センサや角速度センサ(ジャイロセンサ)から成り、撮像デバイス40の位置や姿勢の変化を検知し、検知結果を情報処理装置10に出力する。
次いで、情報処理装置10の構成に着目する。情報処理装置10は、通信部101と、認識部103と、画像合成部105とを含む。
通信部101は、情報処理装置10内の各構成が、ネットワークN11を介して外部装置(例えば、コンテンツサーバ80や情報処理装置20)と通信を行うための通信インターフェースである。なお、通信部101の構成は、ネットワークN11の種別に応じて適宜変更することが可能である。例えば、ネットワークN11が、無線のネットワークの場合には、通信部101は、ベースバンド(BB)プロセッサやRF回路等を含んでもよい。なお、以降の説明では、情報処理装置10内の各構成が、ネットワークN11を介して外部装置と情報の送受信を行う場合には、特に説明が無い場合においても、通信部101を介して当該情報の送受信を行うものとする。
認識部103は、検知部43から撮像デバイス40の位置や姿勢の変化の検知結果を取得し、取得した検知結果に基づき当該撮像デバイス40を装着するユーザUaの頭部の位置や姿勢(換言すると、視点の位置や向き)を認識する。そして、認識部103は、ユーザUaの頭部の位置や姿勢の認識結果を示す情報を画像合成部105に出力する。
画像合成部105は、複数の撮像部41それぞれから、当該撮像部41により撮像された画像を取得する。画像合成部105は、複数の撮像部41それぞれにより撮像された画像を、各撮像部41の撮像方向と当該撮像部41の画角とに応じて合成することで、各撮像部41の画角よりもより広い範囲が撮像された画像(例えば、全天周画像)を生成する。なお、以降の説明では、本実施形態に係る情報処理システム1の特徴をよりわかりやすくするために、画像合成部105が、全天周画像を生成するものとして説明するが、当該画像合成部105が生成する画像は、必ずしも全天周画像(即ち、前後左右360度にわたって映像が提示された画像)のみには限定されない。
なお、画像合成部105により生成された全天周画像は、ユーザUaの頭部の姿勢の変化に応じて回転する。そのため、画像合成部105は、ユーザUaの頭部の姿勢の変化に応じた当該全天周画像の回転を、画像処理により抑制してもよい。具体的には、画像合成部105は、認識部103から、ユーザUaの頭部の位置や姿勢の認識結果を示す情報を取得する。画像合成部105は、当該認識結果を示す情報に基づき、ユーザUaの頭部の回転(即ち、当該ユーザUaの視点の向きの変化)を認識し、当該回転の認識結果に基づき、生成した全天周画像に対して当該回転を打ち消すように画像処理を施すことで、ユーザUaの頭部の回転に伴う当該全天周画像の回転を抑制すればよい。
また、画像合成部105は、ユーザUaの頭部の位置や姿勢の認識結果を示す情報に基づき、当該頭部に対して加わる加速度の向きや大きさを示す情報を、加速度情報として算出する。なお、このとき画像合成部105は、ユーザUaの頭部の動きのうち、上述した回転運動の成分を除いた他の成分(即ち、並進運動の成分)についてのみを考慮して加速度情報を算出してもよい。
そして、画像合成部105は、生成した全天周画像に対して、算出した加速度情報を関連付けて、当該全天周画像を、ネットワークN11を介して接続されたコンテンツサーバ80に送信する。
なお、上述した撮像デバイス40及び情報処理装置10による、ユーザUaの周囲の画像(例えば、全天周画像)の取得に係る処理や、当該画像の送信に係る処理のそれぞれが実行されるタイミングは特に限定されない。具体的な一例として、撮像デバイス40及び情報処理装置10は、リアルタイムで、ユーザUaの周囲の画像を撮像し、撮像した画像に基づき全天周画像を生成して、当該全天周画像をコンテンツサーバ80に送信してもよい。また、他の一例として、撮像デバイス40及び情報処理装置10は、所望のタイミング(例えば、ユーザUaからの操作を受けたタイミング)で、ユーザUaの周囲の画像を撮像し、撮像した画像に基づき全天周画像を生成してもよい。この場合には、情報処理装置10は、全天周画像の生成に同期して当該全天周画像をコンテンツサーバ80に送信してもよいし、全天周画像の生成に対して非同期的に当該全天周画像をコンテンツサーバ80に送信してもよい。
続いて、コンテンツサーバ80の構成に着目する。コンテンツサーバ80は、通信部801と、コンテンツ制御部803とを含む。また、コンテンツサーバ80は、記憶部85に対してアクセス可能に構成されていてもよい。
通信部801は、コンテンツサーバ80内の各構成が、ネットワークN11を介して外部装置(例えば、情報処理装置10及び20)と通信を行うための通信インターフェースである。なお、通信部801は、前述した通信部101と同様の構成をとり得る。また、以降の説明では、コンテンツサーバ80内の各構成が、ネットワークN11を介して外部装置と情報の送受信を行う場合には、特に説明が無い場合においても、通信部801を介して当該情報の送受信を行うものとする。
コンテンツ制御部803は、ネットワークN11を介して接続された情報処理装置10から、当該情報処理装置10により生成され、ユーザUaの頭部に対して加わる加速度の向きや大きさを示す加速度情報が関連付けられた全天周画像(即ち、ユーザUaの周囲の画像)を取得する。また、コンテンツ制御部803は、情報処理装置10から取得した全天周画像(即ち、加速度情報が関連付けられた全天周画像)を、他の情報処理装置20に配信する。また、コンテンツ制御部803は、情報処理装置10から取得した全天周画像を、記憶部85に一時的または恒久的に記憶し、当該記憶部85に記憶された当該全天周画像を情報処理装置20に配信してもよい。記憶部85は、所謂ストレージ装置やデータベース(DB)として構成されており、上述した全天周画像等のような各種データを記憶するための構成である。なお、記憶部85は、コンテンツサーバ80に含まれていてもよい。このような構成により、コンテンツ制御部803は、情報処理装置10から取得した全天周画像を、他の情報処理装置20に、同期的または非同期的に伝送することが可能となる。
続いて、出力デバイス30の構成に着目する。出力デバイス30は、表示部31と、検知部33と、体感導入部35とを含む。なお、表示部31は、図1及び図2を参照して説明した表示部31に相当する。また、体感導入部35は、出力デバイス30を装着しているユーザUbに対して力覚を提示するための構成であり、図5に示す出力デバイス30aにおける力覚提示部353a〜353dに相当する。
また、検知部33は、例えば、加速度センサや角速度センサ(ジャイロセンサ)から成り、出力デバイス30の位置や姿勢の変化を検知し、検知結果を情報処理装置20に出力する。
次いで、情報処理装置20の構成に着目する。情報処理装置20は、通信部201と、解析部203と、表示制御部205と、力覚制御部207とを含む。
通信部201は、情報処理装置20内の各構成が、ネットワークN11を介して外部装置(例えば、コンテンツサーバ80や情報処理装置10)と通信を行うための通信インターフェースである。なお、通信部201は、前述した通信部101及び801と同様の構成をとり得る。また、以降の説明では、情報処理装置20内の各構成が、ネットワークN11を介して外部装置と情報の送受信を行う場合には、特に説明が無い場合においても、通信部201を介して当該情報の送受信を行うものとする。
解析部203は、ユーザUbに対して提示する全天周画像をコンテンツサーバ80から取得する。なお、当該全天周画像には、当該全天周画像の生成元である情報処理装置10による、当該情報処理装置10を保持するユーザUaの頭部に対して加わった加速度の向きや大きさを示す加速度情報が関連付けられている。また、解析部203は、検知部33から出力デバイス30の位置や姿勢の変化の検知結果を取得し、取得した検知結果に基づき当該出力デバイス30を装着するユーザUbの頭部の位置や姿勢(換言すると、視点の位置や向き)を認識する。
そして、解析部203は、取得した全天周画像と、ユーザUbの頭部の位置や姿勢の認識結果を示す情報とを、表示制御部205に出力する。
また、解析部203は、全天周画像に関連付けられた加速度情報に基づき、ユーザUaの頭部に加わった加速度の向きや大きさを認識する。当該認識結果を利用することで、解析部203は、ユーザUa(即ち、撮像デバイス40を装着したユーザ)の頭部(視点)の位置及び姿勢うち少なくともいずれかに対する、ユーザUb(即ち、出力デバイス30を装着したユーザ)の頭部(視点)の位置及び姿勢のうち少なくともいずれかの相対的な変化を認識する。即ち、解析部203は、ユーザUaの頭部に加わった加速度を、ユーザUbの頭部に対して模擬する場合における、当該ユーザUbの頭部に対して加える加速度の向きや大きさを示す加速度情報を算出することが可能となる。
そして、解析部203は、ユーザUbの頭部に対して加える加速度の向きや大きさを示す加速度情報を、力覚制御部207に出力する。
表示制御部205は、解析部203から、取得された全天周画像と、ユーザUbの頭部の位置や姿勢の認識結果を示す情報とを取得する。表示制御部205は、当該認識結果を示す情報に基づき、取得した全天周画像から、ユーザUbの頭部の位置や姿勢(即ち、視点の位置や向き)に応じた部分画像を、あらかじめ設定された視野角に基づき抽出する。そして、表示制御部205は、抽出した部分画像を表示部31に表示させる。このような構成により、情報処理装置20は、ユーザUaの周囲が撮像された全天周画像から、ユーザUbの頭部の位置や姿勢に応じた方向の部分画像を当該ユーザUbに提示することが可能となる。
力覚制御部207は、解析部203から、ユーザUbの頭部に対して加える加速度の向きや大きさを示す加速度情報を取得する。そして、力覚制御部207は、当該加速度情報が示す加速度の向きや大きさに応じて、体感導入部35を駆動させることで、ユーザUbに対して力覚を提示する。このような構成により、情報処理装置20は、表示部31を介してユーザUbに提示された画像に連動するように、当該ユーザUbに対して力覚を提示することが可能となる。
なお、上述した出力デバイス30及び情報処理装置20による、コンテンツサーバ80からの全天周画像の取得に係る処理と、当該全天周画像の提示や力覚の提示に係る処理とのそれぞれが実行されるタイミングは特に限定されない。具体的な一例として、出力デバイス30及び情報処理装置20は、コンテンツサーバ80からの全天周画像の取得に係る処理と、当該全天周画像の提示や力覚の提示に係る処理とを同期的に実行してもよいし、非同期的に実行してもよい。
また、情報処理装置20が、出力デバイス30を装着するユーザUbに対して提示する力覚の方向や大きさ(換言すると、ユーザUbの頭部に加える加速度の向きや大きさ)を認識できれば、情報処理装置10から送信される全天周画像に関連付けられる情報の内容は特に限定されない。具体的な一例として、情報処理装置10は、ユーザUaの頭部の位置や姿勢の認識結果を示す情報を、送信対象となる全天周画像に関連付けてもよい。この場合には、例えば、情報処理装置20が、情報処理装置10から取得した当該情報に基づき、ユーザUaの頭部に対して加わった加速度の向きや大きさを算出すればよい。
また、他の一例として、情報処理装置20は、全天周画像に対して画像解析を施すことで、当該全天周画像の撮像元である撮像デバイス40の位置や姿勢の変化(ひいては、ユーザUaの頭部の位置や姿勢の変化)を間接的に認識してもよい。この場合には、情報処理装置20には、全天周画像のみが送信されてもよい。
また、提示された力覚の感じ方は、ユーザによって異なる場合が想定される。そのため、情報処理装置20は、出力デバイス30を装着するユーザを認識し、認識したユーザに応じて当該ユーザに提示する力覚の大きさ(即ち、加速度の大きさ)を変更してもよい。また、映像の提示対象となるユーザが複数人であってもよい。この場合には、情報処理装置20は、各ユーザが装着する出力デバイス30それぞれについて、装着者であるユーザを認識し、認識結果に応じた強さで対応する出力デバイス30に力覚を提示させればよい。なお、ユーザを認識する方法については、種々の方法を選択的に適用することが可能であるが、一般的に知られているため詳細な説明は省略する。
また、提示された力覚の感じ方は、ユーザに装着された出力デバイス30の種類や、当該出力デバイス30の装着状態に応じても異なる場合がある。このような場合には、情報処理装置20は、出力デバイス30の種類や、当該出力デバイス30の装着状態を認識し、認識結果に応じてユーザに提示する力覚の大きさを制御すればよい。
また、他の一例として、ユーザは行動状態に応じても、提示された力覚の感じ方が異なる場合がある。より具体的には、ユーザは、歩いている状態では、停まっている状態に比べて力覚を感じにくくなる場合がある。そのため、例えば、情報処理装置20は、加速度センサや角速度センサ等によりユーザの所定の部位の動きを検知することで、当該ユーザの行動を認識し、認識結果に応じて当該ユーザに提示する力覚の大きさを制御してもよい。
また、上述した各構成の処理を実現することが可能であれば、本実施形態に係る情報処理システム1の機能構成は、必ずしも図8に示した例のみは限定されない。例えば、前述したように、情報処理装置10の一部の構成が撮像デバイス40側に設けられていてもよいし、撮像デバイス40と情報処理装置10とが一体的に構成されていてもよい。同様に、情報処理装置20の一部の構成が出力デバイス30に設けられていてもよいし、出力デバイス30と情報処理装置20とが一体的に構成されていてもよい。また、情報処理装置10は、生成した全天周画像を、コンテンツサーバ80を介さずに、情報処理装置20に対して直接送信してもよい。
以上、図8を参照して、本実施形態に係る情報処理システム1の機能構成の一例について説明した。
<3.3.処理>
続いて、図9を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例として、特に、出力デバイス30を装着したユーザに対して映像に連動するように力覚を提示する場合の一例について説明する。図9は、本実施形態に係る情報処理システム1の一連の処理の流れの一例について説明するための説明図である。なお、本説明では、図4を参照して説明した例と同様に、情報処理システム1の特徴をよりわかりやすくするために、情報処理装置10と情報処理装置20とが、コンテンツサーバ80を介さずに直接情報を送受信する場合の動作に着目して説明する。
図9に示すように、ユーザUaが保持する情報処理装置10は、撮像デバイス40から、撮像部41a及び41bそれぞれにより撮像された画像を取得する(S201)。また、情報処理装置10は、撮像デバイス40から、検知部43により検知された、当該撮像デバイス40の位置や姿勢の変化の検知結果を取得する。そして、情報処理装置10は、取得した検知結果に基づき当該撮像デバイス40を装着するユーザUaの頭部の位置や姿勢(換言すると、視点の位置や向き)を認識する。また、このとき情報処理装置10は、ユーザUaの頭部の位置や姿勢の認識結果を示す情報に基づき、当該頭部に対して加わる加速度の向きや大きさを示す情報を、加速度情報として算出する(S203)。
次いで、情報処理装置10は、撮像部41a及び41bそれぞれにより撮像された画像を合成することで全天周画像を生成する(S205)。また、このとき情報処理装置10は、ユーザUaの頭部の位置や姿勢の認識結果に基づき、当該頭部の回転(換言すると、視点の位置や向きの変化)に伴う画像の回転が抑制されるように、全天周画像を生成してもよい(S207)。そして、情報処理装置10は、生成した全天周画像に対して、ユーザUaの頭部に対して加わる加速度の向きや大きさを示す加速度情報を関連付けて、当該全天周画像を、ネットワークN11を介してユーザUbが保持する情報処理装置20に送信する(S209)。
情報処理装置20は、ネットワークN11を介して情報処理装置10から、撮像デバイス40による撮像結果に基づく全天周画像を受信する(S109)。なお、当該全天周画像には、ユーザUaの頭部に対して加わった加速度の向きや大きさを示す加速度情報が関連付けられている。また、情報処理装置20は、出力デバイス30から、当該出力デバイス30を装着したユーザUbの頭部の動きの検知結果に関する通知を受け、当該通知に基づき、ユーザUbの頭部の位置及び姿勢(換言すると、ユーザUbの視点の位置や向きの変化)を認識する(S113)。次いで、情報処理装置20は、情報処理装置10から受信した全天周画像から、認識したユーザUbの頭部の位置及び姿勢に応じた部分画像を抽出し、抽出した部分画像を出力デバイス30の表示部31を介してユーザUbに提示する(S215)。
また、情報処理装置20は、全天周画像に関連付けられた加速度情報に基づき、ユーザUaの頭部に加わった加速度の向きや大きさを認識する。次いで、情報処理装置20は、当該認識結果に基づき、ユーザUaの頭部に加わった加速度を、ユーザUbの頭部に対して模擬する場合における、当該ユーザUbの頭部に対して加える加速度の向きや大きさを示す加速度情報を算出する。そして、情報処理装置20は、算出した加速度情報に基づき、出力デバイス30の体感導入部35を駆動することで、当該出力デバイス30を装着したユーザUbに対して力覚を提示する。以上のような制御により、情報処理装置20は、表示部31を介してユーザUbに提示された画像に連動するように、当該ユーザUbに対して力覚を提示することが可能となる。
以上、図9を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例として、特に、出力デバイス30を装着したユーザに対して映像に連動するように力覚を提示する場合の一例について説明した。
<<4.変形例>>
続いて、本実施形態の変形例について説明する。
<4.1.変形例1:力覚提示のための構成の変形例>
まず、変形例1として、出力デバイス30の構成の一例について、特に、当該出力デバイス30を装着するユーザに対して力覚を提示するための構成に着目して説明する。
例えば、図10は、変形例1に係る出力デバイス30の構成の一例について説明するための説明図である。なお、図10は、図5と同様に、出力デバイス30を鉛直上方から見た場合の概略的な構成を模式的に示しており、特に図面の下方向が、出力デバイス30を装着したユーザの前方に相当する。即ち、図10におけるx方向、y方向、及びz方向は、図5におけるx方向、y方向、及びz方向に対応している。また、以降の説明では、特に図10に示す出力デバイス30を示す場合には、「出力デバイス30b」と称する場合がある。
図10に示すように、出力デバイス30bは、当該出力デバイス30bをユーザの頭部に装着するための支持部354を備える。具体的には、支持部354は、出力デバイス30bがユーザの頭部に装着されたときに、当該頭部の前後左右を覆うように構成されており、当該ユーザの眼前に表示部31を保持する。また、支持部354は、出力デバイス30bが装着された頭部に対して、互いに異なる方向に位置するように、複数の振動部355を支持する。なお、振動部355の詳細については後述する。例えば、図10に示す例では、支持部354は、出力デバイス30bが装着された頭部の前後左右にそれぞれに対応する位置に、振動部355を支持している。なお、以降の説明では、前後左右それぞれに対応する振動部355を明示的に区別して示す場合には、それぞれを振動部355a、355b、355c、及び355dと称する。
振動部355は、例えば、アクチュエータ等のような振動子を含んで構成されており、印可される電圧に応じて振動する。このような構成に基づき、振動部355a〜355dのうち、少なくとも一部の振動部355を駆動させることで、ユーザの頭部に対して所望の方向に向けた力覚の提示を模擬することが可能となる。具体的な一例として、ユーザの頭部に対して、後方から前方に向けた力覚を模擬する場合には、当該頭部の前方に位置する振動部355aを駆動させればよい。同様に、ユーザの頭部に対して、左方向から右方向に向けた力覚の提示を模擬する場合には、当該頭部の右方向に位置する振動部355dを駆動させればよい。
また、ユーザの頭部に対して、振動部355が設けられている方向とは異なる方向に向けた力覚の提示を模擬する場合には、複数の振動部355を駆動させればよい。具体的な一例として、ユーザの頭部に対して、右後方から左前方に向けた力覚の提示を模擬する場合には、当該頭部に対して、前方に位置する振動部355aと、左方向に位置する振動部355cとを駆動させればよい。
また、駆動する振動部355の組み合わせやタイミングを制御することで、ユーザの頭部に対して多様な力覚を模擬することも可能である。具体的な一例として、全ての振動部355を駆動させることで、ユーザの頭部に対する衝撃の提示を模擬することが可能である。
また、他の一例として、頭部を基準として互いに異なる方向に位置する振動部355の駆動タイミングを制御することで、頭部を突き抜けるような衝撃(振動)の提示を模擬することも可能である。具体的な一例として、ユーザの頭部に対して、前方から後方に向けて突き抜けるような衝撃(振動)の提示を模擬する場合には、体感させる衝撃の伝搬速度に応じたタイミングで、前方に位置する振動部355aを駆動した後に、後方に位置する振動部355bを駆動させればよい。
また、複数の振動部355それぞれを回転方向に沿った順序で順次駆動するように各振動部355の駆動タイミングを制御することで、ユーザの頭部を回転させるような力覚の提示を模擬することも可能である。具体的な一例として、ユーザの頭部を右方向に向けて回転させるように力覚の提示を模擬する場合には、右回りの方向に沿って、振動部355a、355d、355b、355c、355a、…といった順序で、複数の振動部355を駆動させればよい。
また、図11は、変形例1に係る出力デバイス30の構成の他の一例について説明するための説明図である。なお、以降の説明では、特に図11に示す出力デバイス30を示す場合には、「出力デバイス30c」と称する場合がある。
出力デバイス30cは、装着部356と、可動ウェイト357とを含む。装着部356は、ユーザの頭部に出力デバイス30cを装着するための構成であり、可動ウェイト357を物理的に移動可能に支持する。このような構成に基づき、出力デバイス30cは、ユーザの頭部に対して可動ウェイト357を相対的に移動させて重心の位置を制御することで、当該頭部に対して力覚を提示する。
なお、図11では図示を省略しているが、装着部356は、出力デバイス30cを装着したユーザの眼前に表示部31を保持するように構成されていてもよい。
以上、変形例1として、図10及び図11を参照して、出力デバイス30の構成の一例について、特に、当該出力デバイス30を装着するユーザに対して力覚を提示するための構成に着目して説明した。なお、上述した出力デバイス30の構成はあくまで一例であり、当該出力デバイス30を装着したユーザに対して力覚を提示することが可能であれば、その構成は上述した例のみには限定されない。
<4.2.変形例2:情報の報知を利用した制御の一例>
続いて、変形例2として、図1を参照しながら、撮像デバイス40を装着するユーザUaに対して情報を報知することで、出力デバイスを装着するユーザUbが、撮像デバイス40により撮像された映像をより快適に視聴するための仕組みの一例について説明する。
まず、撮像デバイス40を装着するユーザUaの動きに応じて、当該ユーザUaに対してフィードバックを行う場合の一例について説明する。具体的には、ユーザUaが急加速や急減速を行っているような状況のように、当該ユーザUaの動きが過度に激しい場合には、撮像デバイス40により撮像される映像は、当該映像を鑑賞する他のユーザUbに対して不快感を与える場合がある。そこで、変形例2に係る情報処理システム1では、撮像デバイス40を装着するユーザUaの頭部の動きを監視することで、監視結果に応じて、例えば、ユーザUaの動作により映像を視聴する他のユーザUbに不快感を与える可能性があることを当該ユーザUaに報知する。
より具体的には、ユーザUaが保持する情報処理装置10は、撮像デバイス40の位置や姿勢の変化の検知結果に基づき、ユーザUaの頭部の動き(例えば、頭部に加わる加速度)を監視する。そして、情報処理装置10は、ユーザUaの頭部に対して加わる加速度の大きさが閾値を超えた場合には、撮像デバイス40を介してユーザUaに情報を報知する。このような構成により、情報処理装置10は、例えば、ユーザUaに対して、映像を視聴する他のユーザUbに不快感を与える可能性があることを報知する。これにより、例えば、ユーザUaが自主的に動作を遅くする等の効果が期待される。
なお、ユーザUaに対して情報を報知することが可能であれば、その方法は特に限定されない。具体的な一例として、ユーザUaに対して、振動や音響(効果音)により情報が報知されるようにシステムが構成されていてもよい。なお、この場合には、ユーザUaが保持する装置(例えば、撮像デバイス40や情報処理装置10)に対して、必要に応じて振動を提示するためのアクチュエータや、音響を出力するためのスピーカ等を設ければよい。もちろん、ユーザUaが保持する装置の表示部に報知情報を表示させることで、当該ユーザUaに対して情報を報知してもよい。
また、ユーザUaとユーザUbとがリアルタイムでコミュニケーションをとり得る状況の場合には、当該コミュニケーションを制御することで、ユーザUaに対して情報が報知されてもよい。具体的な一例として、ユーザUaとユーザUbとが音声通話を行っている状況下では、システムは、ユーザUaの動きが過度に激しい場合には、ユーザUbからの音声に対して加工を加えて聞き取り難くすることで、ユーザUaの注意を引く等の制御を行ってもよい。
また、ユーザUaが保持する情報処理装置10は、ユーザUaに対する情報の報知を、当該ユーザUaが装着する撮像デバイス40により撮像された映像を視聴する他のユーザUbの属性に応じて制御してもよい。
具体的な一例として、情報処理装置10は、映像を視聴するユーザUbが酔いやすい場合には、ユーザUaに対して情報を報知する頻度がより高くなるように制御してもよい。この場合には、情報処理装置10は、例えば、ユーザUaの頭部に対して加わる加速度値に応じて、情報を報知するか否かを判断するための閾値をより低く設定すればよい。一方で、情報処理装置10は、映像を視聴するユーザUbが酔いにくい場合には、ユーザUaに対して情報を報知する頻度がより低くなるように制御してもよい。この場合には、情報処理装置10は、例えば、ユーザUaの頭部に対して加わる加速度値に応じて、情報を報知するか否かを判断するための閾値をより高く設定すればよい。
なお、情報処理装置10が、ユーザUbが酔いやすいか否かを判断するための方法については特に限定されない。具体的な一例として、情報処理装置10は、ユーザUbが装着した生体センサから当該ユーザUbの生体情報を取得することで、当該ユーザUbが酔いやすいか否かを認識してもよい。また、他の一例として、ユーザUbが、酔いを知覚した場合に、例えば、当該ユーザUbが保持する情報処理装置20を介して、情報処理装置10に対して通知を行うための仕組みを設けてもよい。この場合には、情報処理装置10は、通知を受けたタイミングや、当該タイミングにおける映像のブレの大きさを検知し、当該検知結果に応じて、ユーザUaに対して情報を報知するか否かを判断するための閾値を設定すればよい。
また、前述した例では、撮像デバイス40により撮像されたユーザUaの周囲の映像を、ユーザUbのみが視聴する場合に着目して説明した。一方で、当該映像を複数のユーザが視聴するような状況も想定され得る。このような場合には、情報処理装置10は、例えば、映像を視聴する複数のユーザのうち最も酔いやすいユーザにあわせて、撮像デバイス40を装着するユーザUaに対して情報を報知するか否かを判断するための閾値を設定してもよい。
また、情報処理装置10は、映像を視聴するユーザの趣向に応じて、撮像デバイス40を装着するユーザUaに情報を報知する頻度を制御してもよい。具体的な一例として、情報処理装置10は、映像を視聴するユーザUbが各箇所の映像を丹念に見たがる傾向にある場合には、ユーザUaに対して情報を報知する頻度がより高くなるように制御してもよい。映像を視聴するユーザUbの趣向を認識する方法については、特に限定されない。具体的な一例として、ユーザUbによる映像の視聴状況の監視結果に基づき、当該ユーザUbの趣向が認識されてもよい。
次いで、撮像デバイス40により撮像された映像を、出力デバイス30を装着したユーザUbがリアルタイムで視聴するような状況を想定し、ユーザUbの状況に応じた報知情報を、ユーザUaに対してフィードバックする場合の一例について説明する。出力デバイス30を装着したユーザUbが視聴できる映像は、当該映像の撮像元である撮像デバイス40を装着したユーザUaの位置に応じて制限される場合がある。このような状況を想定し、例えば、ユーザUbの意図に応じて報知情報をユーザUaに対して報知することで、当該ユーザUaに対して移動を促してもよい。
例えば、システムは、ユーザUbの頭部の動き(換言すると、視点の変化)を検知し、検知結果に応じた報知情報をユーザUaに報知してもよい。具体的には、ユーザUbが保持する情報処理装置20は、出力デバイス30の位置や姿勢の変化の検知結果に基づき、当該出力デバイス30を装着するユーザUbの頭部の動きを認識し、認識結果を示す情報をユーザUaが保持する情報処理装置10に送信してもよい。情報処理装置10は、情報処理装置20から送信される情報に基づき、ユーザUbの頭部の動きを認識し、例えば、ユーザUbの頭部がユーザUaの頭部とは異なる方向を向いている等、当該認識結果が所定の条件を満たす場合に、ユーザUaに対して情報を報知してもよい。
なお、ユーザUaに対して情報を報知する方法については特に限定されない。例えば、ユーザUaが装着する撮像デバイス40に対して、出力デバイス30と同様に力覚を提示するための構成を設けることで、力覚提示によりユーザUaに対して情報を報知してもよい。より具体的には、情報処理装置10は、情報処理装置20から取得した情報に基づき、当該ユーザUbの頭部に対して加わった加速度の向きや大きさを認識し、ユーザUaの頭部に対して同様の加速度を加えるように撮像デバイス40の動作(特に、力覚提示のための構成の動作)を制御してもよい。なお、力覚提示のための構成は特に限定されないことは言うまでもない。具体的な一例として、図5に示す出力デバイス30aと同様の構成に基づき、ユーザUaの頭部に対して直接力覚が提示されてもよい。また、他の一例として、図10に示す出力デバイス30bと同様の構成に基づき、ユーザUaの頭部に対する力覚の提示が振動により模擬されてもよい。
また、ユーザUaに対して、音響により情報を報知してもよい。例えば、ユーザUaとユーザUbとが音声通話を行っている状況下では、情報処理装置10は、ユーザのUbの頭部の動きに応じて、ユーザUaに対する当該ユーザUbの音声の提示方法を制御してもよい。より具体的な一例として、情報処理装置10は、ユーザのUbの頭部の動きに応じた方向から当該ユーザUbの音声が到来するような状態が模擬されるように、ユーザUaが保持する装置の音響デバイス(例えば、撮像デバイス40に設けられたスピーカ等)の動作を制御してもよい。もちろん、ユーザUaが保持する装置の表示部に報知情報を表示させることで、当該ユーザUaに対して情報を報知してもよい。
以上、変形例2として、図1を参照しながら、撮像デバイス40を装着するユーザUaに対して情報を報知することで、出力デバイスを装着するユーザUbが、撮像デバイス40により撮像された映像をより快適に視聴するための仕組みの一例について説明した。
<4.3.変形例3:VRへの応用例>
次いで、変形例3として、本実施形態に係る情報処理システム1をVR(Virtual Reality)に応用する場合の一例について説明する。
前述したように、本実施形態に係る情報処理システム1では、出力デバイス30を装着したユーザUbに対して、ユーザUbの視点とは異なる他の視点からの映像を提示し、当該映像の提示に連動するように力覚を提示する。このような構成により、本実施形態に係る情報処理システム1は、映像の視聴に伴い引き起こされる酔いを緩和する。
一方で、ユーザUbに対して提示される映像は、前述した実施形態のように、実空間を撮像した画像のみには限定されない。例えば、本実施形態に係る情報処理システム1は、仮想空間内の映像を一人称視点の画像としてユーザUbに提示してもよい。このように、仮想空間内の映像をユーザUbに提示する場合においても、当該映像が急激に加減速するような状況下では、ユーザUbは酔いを知覚する場合がある。そのため、本実施形態に係る情報処理システム1は、例えば、出力デバイス30を装着したユーザUbに対して、仮想空間内の映像を提示し、当該映像の提示に連動するように力覚を提示することで、当該映像の視聴に伴い引き起こされる酔いを緩和してもよい。
また、仮想空間内の映像を提示するような状況下では、ユーザが肉眼で実空間を視認する場合とは異なる態様で、仮想空間内の映像を視聴することが可能な場合も想定され、このような場合においても状況に応じて力覚をユーザに提示してもよい。具体的な一例として、ズームイン及びズームアウト等のように視聴する映像の拡大率を制御するような状況が挙げられる。
例えば、図12は、変形例3に係る情報処理システム1の概要について説明するための説明図であり、仮想空間内の仮想オブジェクトM11をユーザが視認している状況下で、当該仮想オブジェクトM11を拡大表示した場合の一例を模擬的に示している。図12において、参照符号U11は、仮想空間内に設定されたユーザの視点の位置を模式的に示している。また、参照符号R11は、位置U11に設定された視点から視聴可能な範囲(即ち、視野)を模式的に示している。
ここで、ユーザが、仮想空間内の位置U11に設定された視点から仮想オブジェクトM11を視認している状況下において、当該仮想オブジェクトM11を拡大表示したものとする。この場合には、視野内に占める仮想オブジェクトM11の範囲がより広くなるように制御されることとなる。そのため、ユーザは、仮想空間内の位置U11に設定された視点が、仮想オブジェクトM11に向かって移動(並進運動)するような映像を視認することとなる。例えば、参照符号U13は、仮想オブジェクトM11を拡大表示した場合における疑似的な視点の位置を模式的に示している。また、参照符号R13は、位置U13に設定された視点U13からの視野を模式的に示している。
そこで、情報処理システム1は、ユーザが拡大率を制御した場合には、画像の拡大に伴う疑似的な視点の移動を算出し、当該視点の移動に応じた力覚を提示してよい。例えば、図12に示す例では、情報処理システム1は、仮想オブジェクトM11の拡大表示に伴い、位置U11に設定された視点が、位置U13に疑似的に移動したものと認識する。そして、情報処理システム1は、位置U11から位置U13への視点の移動に伴い、仮想空間内においてユーザの頭部に対して疑似的に加わる加速度の向きや大きさを算出し、算出結果に応じて、出力デバイス30を介してユーザに力覚を提示してもよい。
なお、図12に示す例では、所謂ズームインに相当する操作が行われた場合に着目して説明したが、ズームアウトに相当する操作が行われた場合についても同様の思想に基づき、加速度が算出され、算出結果に基づき力覚が提示されればよい。具体的には、仮想オブジェクトM11を縮小表示するような状況下では、ユーザは、当該仮想オブジェクトM11から離間する方向(即ち、後方)に向けて移動するような映像を視認することとなる。そのため、この場合には、情報処理システム1は、ユーザの頭部に対して後方に向けて加速度が加えられるように、出力デバイス30を介してユーザに力覚を提示すればよい。
なお、上記に説明した例はあくまで一例であり、上記に説明した例のみに限定するものではない。例えば、加減速するような映像を提示するような状況下では、仮想空間内において実際に視点が移動していない場合においても、上述したように疑似的な視点の移動を算出することで、当該映像に連動するように力覚を提示することが可能である。
以上、変形例3として、本実施形態に係る情報処理システム1をVRに応用する場合の一例について説明した。
<<5.ハードウェア構成>>
次に、図13を参照しながら、前述した情報処理装置10及び20、出力デバイス30、並びに撮像デバイス40のように、本実施形態に係る情報処理システム1を構成する情報処理装置900のハードウェア構成について、詳細に説明する。図13は、本開示の一実施形態に係る情報処理システム1を構成する情報処理装置900のハードウェア構成の一構成例を示す機能ブロック図である。
本実施形態に係る情報処理システム1を構成する情報処理装置900は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インターフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。なお、図6を参照して前述した、認識部103、画像合成部105、解析部203、表示制御部205、及び力覚制御部207は、例えば、CPU901により実現され得る。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インターフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。なお、図6を参照して前述した表示部31は、例えば、出力装置917により実現され得る。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア又はBlu−ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。なお、図6を参照して前述した通信部101及び201は、例えば、通信装置925により実現され得る。
以上、本開示の実施形態に係る情報処理システム1を構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図13では図示しないが、本実施形態に係る情報処理システム1を構成する情報処理装置900に対応する各種の構成を当然備える。
なお、上述のような本実施形態に係る情報処理システム1を構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。なお、単数のコンピュータ、または、複数のコンピュータが連携するものを、「コンピュータシステム」とも称する。
<<6.むすび>>
以上説明したように、本実施形態に係る情報処理システム1では、情報処理装置20は、ユーザUbに対して映像を提示するような状況下において、当該映像を提示するための視点の動きの変化に応じて、直接的または間接的に検出された加速度を示す情報を取得する。そして、情報処理装置20は、ユーザの所定の部位(例えば、頭部)に対して力覚を提示するための体感導入部35の動作を、当該加速度を示す情報に基づき制御する。このような構成により、ユーザに対して提示された映像に連動するように、当該ユーザの所定の部位に対して加速度が加えられることとなるため、当該映像の視聴に伴い引き起こされる酔いを緩和することが可能となる。
なお、上記では、主にユーザの頭部に対して加速度を加える例について説明したが、ユーザに提示した映像に連動するように当該ユーザの身体感覚を刺激することが可能であれば、加速度が加えられる部位は、必ずしも頭部には限定されない。また、ユーザに提示した映像に連動するように力覚を提示することが可能であれば、当該ユーザに提示される映像は必ずしも全天周映像には限られない。例えば、撮像デバイス40を装着したユーザUaと同様の視点(視野)に基づく映像を、出力デバイス30を装着したユーザUbに提示してもよい。この場合には、ユーザUaの視点の位置や向きの変化に応じて、ユーザUbに対して力覚が提示されればよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御する制御部と、
を備える、情報処理装置。
(2)
前記提示映像の変化に関する情報は、前記提示映像を生成するための視点の動きに関する情報を含む
前記(1)に記載の情報処理装置。
(3)
前記提示映像の変化に関する情報は、前記視点の動きに応じて直接的または間接的に検出された加速度を示す加速度情報を含む
前記(2)に記載の情報処理装置。
(4)
前記提示映像は、前記第1のユーザとは異なる第2のユーザが保持する外部装置に設けられた撮像部の撮像により生成され、
前記制御部は、前記体感提示部の動作を、前記加速度情報に基づき制御する、
前記(3)に記載の情報処理装置。
(5)
前記加速度情報は、前記外部装置に設置される加速度センサの検出結果に基づき生成される、前記(4)に記載の情報処理装置。
(6)
前記加速度情報は、前記撮像部の撮像により生成される映像を解析することにより得られる、前記(4)に記載の情報処理装置。
(7)
前記提示映像は、前記第1のユーザの視点の位置及び姿勢のうち少なくともいずれかの検出結果に応じた情報に基づき提示される映像を含む、
前記(4)に記載の情報処理装置。
(8)
前記制御部は、
前記第1のユーザの視点の位置及び姿勢のうち少なくともいずれかと、
前記第2のユーザの視点の位置及び姿勢のうち少なくともいずれかと、
に基づき、
前記頭部または前記頸部に対して前記機械刺激または前記電気刺激が提示されるように前記体感提示部の動作を制御する、
前記(7)に記載の情報処理装置。
(9)
前記制御部は、前記第1のユーザの視点の位置及び姿勢のうち少なくともいずれかに対する、前記第2のユーザの視点の位置及び姿勢のうち少なくともいずれかの相対的な変化に基づき、前記頭部または前記頸部に対して前記機械刺激または前記電気刺激を提示する方向を制御する、前記(8)に記載の情報処理装置。
(10)
前記第1のユーザの視点の位置及び姿勢のうち少なくともいずれかの検知結果を示す情報を、前記外部装置に送信する通信部を備える、前記(4)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記視点は、仮想空間内の映像を前記提示映像として前記第1のユーザに提示するために、当該仮想空間に設定された視点である、前記(3)に記載の情報処理装置。
(12)
前記制御部は、前記仮想空間内における前記視点の仮想的な変化に応じた前記加速度の変化に基づき、前記体感提示部の動作を制御する、前記(11)に記載の情報処理装置。
(13)
前記制御部は、前記仮想空間内の映像を提示するための拡大率の変化に基づく前記視点の仮想的な変化に応じた前記加速度の変化に基づき、前記体感提示部の動作を制御する、前記(12)に記載の情報処理装置。
(14)
前記表示部は、前記第1のユーザの頭部に対して所定の位置関係となるように支持され、
前記提示映像は、前記第1のユーザの視点の位置及び向きうち少なくともいずれかの変化を検知する検知部の検知結果に応じて前記表示部に表示され、
前記制御部は、前記表示部に表示された前記提示映像と前記機械刺激または前記電気刺激とが連動するように、前記体感提示部の動作を制御する、
前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
コンピュータシステムが、
表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御すること、
を含む、情報処理方法。
(16)
コンピュータシステムに、
表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御すること、
を実行させる、プログラム。
1 情報処理システム
10 情報処理装置
101 通信部
103 認識部
105 画像合成部
20 情報処理装置
201 通信部
203 解析部
205 表示制御部
207 力覚制御部
30 出力デバイス
31 表示部
33 検知部
35 体感導入部
40 撮像デバイス
41a、41b 撮像部
43 検知部
80 コンテンツサーバ
85 記憶部

Claims (16)

  1. 表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御する制御部と、
    を備える、情報処理装置。
  2. 前記提示映像の変化に関する情報は、前記提示映像を生成するための視点の動きに関する情報を含む
    請求項1に記載の情報処理装置。
  3. 前記提示映像の変化に関する情報は、前記視点の動きに応じて直接的または間接的に検出された加速度を示す加速度情報を含む
    請求項2に記載の情報処理装置。
  4. 前記提示映像は、前記第1のユーザとは異なる第2のユーザが保持する外部装置に設けられた撮像部の撮像により生成され、
    前記制御部は、前記体感提示部の動作を、前記加速度情報に基づき制御する、
    請求項3に記載の情報処理装置。
  5. 前記加速度情報は、前記外部装置に設置される加速度センサの検出結果に基づき生成される、請求項4に記載の情報処理装置。
  6. 前記加速度情報は、前記撮像部の撮像により生成される映像を解析することにより得られる、請求項4に記載の情報処理装置。
  7. 前記提示映像は、前記第1のユーザの視点の位置及び姿勢のうち少なくともいずれかの検出結果に応じた情報に基づき提示される映像を含む、
    請求項4に記載の情報処理装置。
  8. 前記制御部は、
    前記第1のユーザの視点の位置及び姿勢のうち少なくともいずれかと、
    前記第2のユーザの視点の位置及び姿勢のうち少なくともいずれかと、
    に基づき、
    前記頭部または前記頸部に対して前記機械刺激または前記電気刺激が提示されるように前記体感提示部の動作を制御する、
    請求項7に記載の情報処理装置。
  9. 前記制御部は、前記第1のユーザの視点の位置及び姿勢のうち少なくともいずれかに対する、前記第2のユーザの視点の位置及び姿勢のうち少なくともいずれかの相対的な変化に基づき、前記頭部または前記頸部に対して前記機械刺激または前記電気刺激を提示する方向を制御する、請求項8に記載の情報処理装置。
  10. 前記第1のユーザの視点の位置及び姿勢のうち少なくともいずれかの検知結果を示す情報を、前記外部装置に送信する通信部を備える、請求項4に記載の情報処理装置。
  11. 前記視点は、仮想空間内の映像を前記提示映像として前記第1のユーザに提示するために、当該仮想空間に設定された視点である、請求項3に記載の情報処理装置。
  12. 前記制御部は、前記仮想空間内における前記視点の仮想的な変化に応じた前記加速度の変化に基づき、前記体感提示部の動作を制御する、請求項11に記載の情報処理装置。
  13. 前記制御部は、前記仮想空間内の映像を提示するための拡大率の変化に基づく前記視点の仮想的な変化に応じた前記加速度の変化に基づき、前記体感提示部の動作を制御する、請求項12に記載の情報処理装置。
  14. 前記表示部は、前記第1のユーザの頭部に対して所定の位置関係となるように支持され、
    前記提示映像は、前記第1のユーザの視点の位置及び向きうち少なくともいずれかの変化を検知する検知部の検知結果に応じて前記表示部に表示され、
    前記制御部は、前記表示部に表示された前記提示映像と前記機械刺激または前記電気刺激とが連動するように、前記体感提示部の動作を制御する、
    請求項1に記載の情報処理装置。
  15. コンピュータシステムが、
    表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御すること、
    を含む、情報処理方法。
  16. コンピュータシステムに、
    表示部を介して第1のユーザに提示される提示映像の変化に関する情報に基づいて、前記第1のユーザの頭部または頸部に対して機械刺激または電気刺激を提示する体感提示部の動作を制御すること、
    を実行させる、プログラム。
JP2016063386A 2016-03-28 2016-03-28 情報処理装置、情報処理方法、及びプログラム Pending JP2017182130A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016063386A JP2017182130A (ja) 2016-03-28 2016-03-28 情報処理装置、情報処理方法、及びプログラム
PCT/JP2017/002197 WO2017168998A1 (ja) 2016-03-28 2017-01-24 情報処理装置、情報処理方法、及びプログラム
US16/076,076 US11360545B2 (en) 2016-03-28 2017-01-24 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016063386A JP2017182130A (ja) 2016-03-28 2016-03-28 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2017182130A true JP2017182130A (ja) 2017-10-05

Family

ID=59962979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016063386A Pending JP2017182130A (ja) 2016-03-28 2016-03-28 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11360545B2 (ja)
JP (1) JP2017182130A (ja)
WO (1) WO2017168998A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107765861A (zh) * 2017-12-07 2018-03-06 保定迈拓港湾科技发展股份有限公司 一种防止虚拟现实设备对人体产生眩晕感的方法及装置
WO2019188229A1 (ja) 2018-03-26 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020090477A1 (ja) * 2018-11-01 2020-05-07 株式会社ソニー・インタラクティブエンタテインメント Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム
WO2023286343A1 (ja) * 2021-07-12 2023-01-19 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023079748A1 (ja) * 2021-11-08 2023-05-11 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019152980A (ja) * 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US12079923B2 (en) * 2020-03-30 2024-09-03 Sony Group Corporation Method for changing viewpoint in virtual space

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064639A (ja) 2002-07-31 2004-02-26 Canon Inc 画像通信システムおよび情報処理方法
JP5228307B2 (ja) * 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
JP2008188121A (ja) 2007-02-01 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> 電気刺激装置、刺激電流制御方法
US8159458B2 (en) * 2007-12-13 2012-04-17 Apple Inc. Motion tracking user interface
WO2009112971A2 (en) * 2008-03-10 2009-09-17 Koninklijke Philips Electronics N.V. Video processing
US20100123776A1 (en) * 2008-11-18 2010-05-20 Kimberly-Clark Worldwide, Inc. System and method for observing an individual's reaction to their environment
JP2010197234A (ja) 2009-02-25 2010-09-09 Kyushu Institute Of Technology 視覚無しでの方向誘導システム
WO2010101641A2 (en) 2009-03-05 2010-09-10 Infoscitex Corporation Galvanic vestibular stimulation system and method of use for simulation, directional cueing, and alleviating motion-related sickness
JP2014164028A (ja) 2013-02-22 2014-09-08 Casio Comput Co Ltd 撮像装置および撮影パラメータの切り替え方法ならびにプログラム
US20150015707A1 (en) * 2013-07-10 2015-01-15 Subc Control Limited Telepresence method and system for tracking head movement of a user
US9672649B2 (en) * 2013-11-04 2017-06-06 At&T Intellectual Property I, Lp System and method for enabling mirror video chat using a wearable display device
WO2015122108A1 (ja) 2014-02-17 2015-08-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN105094310B (zh) * 2014-05-09 2019-08-16 梦工厂动画公司 虚拟现实驾乘系统中减少晕车的方法和系统
JP6339887B2 (ja) * 2014-07-24 2018-06-06 シャープ株式会社 画像表示装置
US9999835B2 (en) * 2015-02-05 2018-06-19 Sony Interactive Entertainment Inc. Motion sickness monitoring and application of supplemental sound to counteract sickness
WO2017150795A1 (en) * 2016-02-29 2017-09-08 Samsung Electronics Co., Ltd. Video display apparatus and method for reducing vr sickness

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107765861A (zh) * 2017-12-07 2018-03-06 保定迈拓港湾科技发展股份有限公司 一种防止虚拟现实设备对人体产生眩晕感的方法及装置
CN107765861B (zh) * 2017-12-07 2023-04-14 河北迈拓港湾数字信息股份有限公司 一种防止虚拟现实设备对人体产生眩晕感的方法及装置
WO2019188229A1 (ja) 2018-03-26 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR20200133338A (ko) 2018-03-26 2020-11-27 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
US11480787B2 (en) 2018-03-26 2022-10-25 Sony Corporation Information processing apparatus and information processing method
WO2020090477A1 (ja) * 2018-11-01 2020-05-07 株式会社ソニー・インタラクティブエンタテインメント Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム
JPWO2020090477A1 (ja) * 2018-11-01 2021-09-24 株式会社ソニー・インタラクティブエンタテインメント Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム
US11687159B2 (en) 2018-11-01 2023-06-27 Sony Interactive Entertainment Inc. VR sickness reduction system, head-mounted display, VR sickness reduction method, and program
JP7382954B2 (ja) 2018-11-01 2023-11-17 株式会社ソニー・インタラクティブエンタテインメント Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム
WO2023286343A1 (ja) * 2021-07-12 2023-01-19 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023079748A1 (ja) * 2021-11-08 2023-05-11 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ

Also Published As

Publication number Publication date
US20210191504A1 (en) 2021-06-24
WO2017168998A1 (ja) 2017-10-05
US11360545B2 (en) 2022-06-14

Similar Documents

Publication Publication Date Title
WO2017168998A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102427212B1 (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
EP3253468B1 (en) Motion sickness monitoring and application of supplemental sound to counteract sickness
EP2957991B1 (en) Method and system for reducing motion sickness in virtual reality systems
JP6642430B2 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
CN111937045B (zh) 信息处理装置、信息处理方法和记录介质
US10628114B2 (en) Displaying images with integrated information
CN106817913A (zh) 头戴式显示器、移动信息终端、图像处理装置、显示控制程序、显示控制方法和显示系统
WO2017126433A1 (ja) 情報処理装置およびユーザガイド提示方法
US20210081047A1 (en) Head-Mounted Display With Haptic Output
US20210082187A1 (en) Haptic simulation of motion in virtual reality
Peterson Virtual Reality, Augmented Reality, and Mixed Reality Definitions
JPWO2018216402A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019150880A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2017064926A1 (ja) 情報処理装置及び情報処理方法
WO2019244716A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6969577B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11550397B1 (en) Systems and methods for simulating a sensation of expending effort in a virtual environment
EP3910403A1 (en) Gaze tracking apparatus and systems
US20240184368A1 (en) Information processing apparatus, information processing method, and program
JP2024107935A (ja) プログラム