JPWO2020095368A1 - 情報処理システム、表示方法およびコンピュータプログラム - Google Patents

情報処理システム、表示方法およびコンピュータプログラム Download PDF

Info

Publication number
JPWO2020095368A1
JPWO2020095368A1 JP2020556391A JP2020556391A JPWO2020095368A1 JP WO2020095368 A1 JPWO2020095368 A1 JP WO2020095368A1 JP 2020556391 A JP2020556391 A JP 2020556391A JP 2020556391 A JP2020556391 A JP 2020556391A JP WO2020095368 A1 JPWO2020095368 A1 JP WO2020095368A1
Authority
JP
Japan
Prior art keywords
user
image
virtual reality
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020556391A
Other languages
English (en)
Other versions
JP6979539B2 (ja
Inventor
浩司 大畑
浩司 大畑
元彦 穐山
元彦 穐山
晴子 柘植
晴子 柘植
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2020095368A1 publication Critical patent/JPWO2020095368A1/ja
Application granted granted Critical
Publication of JP6979539B2 publication Critical patent/JP6979539B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Toys (AREA)
  • Position Input By Displaying (AREA)

Abstract

属性取得部38は、現実空間においてユーザの行動に反応して作動する第1オブジェクトに関する属性情報を外部装置から取得する。画像生成部50は、仮想現実空間においてユーザの行動に反応して作動する第2オブジェクトを示すオブジェクト画像を含む仮想現実画像であって、属性取得部38により取得された属性情報に応じて第2オブジェクトが動作する仮想現実画像を生成する。画像出力部52は、画像生成部50により生成された仮想現実画像を表示装置に表示させる。

Description

本発明は、データ処理技術に関し、特に情報処理システム、表示方法およびコンピュータプログラムに関する。
ヘッドマウントディスプレイにパノラマ画像を表示し、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると視線方向に応じたパノラマ画像が表示されるようにしたシステムが開発されている。ヘッドマウントディスプレイを利用することで、仮想現実空間への没入感を高めることができる。
国際公開第2017/110632号
仮想現実空間をユーザに体験させる様々なアプリケーションが提供されている中、仮想現実空間を視聴するユーザにエンタテインメント性が高い視聴体験を提供することが求められている。
本発明はこうした課題に鑑みてなされたものであり、1つの目的は、仮想現実空間を視聴するユーザにエンタテインメント性が高い視聴体験を提供することにある。
上記課題を解決するために、本発明のある態様の情報処理システムは、現実空間においてユーザの行動に反応して作動する第1オブジェクトに関する属性情報を外部装置から取得する取得部と、仮想現実空間においてユーザの行動に反応して作動する第2オブジェクトを示すオブジェクト画像を含む仮想現実画像であって、取得部により取得された属性情報に応じて第2オブジェクトが動作する仮想現実画像を生成する生成部と、生成部により生成された仮想現実画像を表示装置に表示させる出力部と、を備える。
本発明の別の態様は、表示方法である。この方法は、現実空間においてユーザの行動に反応して作動する第1オブジェクトに関する属性情報を外部装置から取得するステップと、仮想現実空間においてユーザの行動に反応して作動する第2オブジェクトを示すオブジェクト画像を含む仮想現実画像であって、取得するステップで取得された属性情報に応じて第2オブジェクトが動作する仮想現実画像を生成するステップと、生成するステップで生成された仮想現実画像を表示装置に表示させるステップと、をコンピュータが実行する。
なお、以上の構成要素の任意の組合せ、本発明の表現を、装置、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、上記情報処理装置の機能を含むヘッドマウントディスプレイなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、仮想現実空間を視聴するユーザにエンタテインメント性が高い視聴体験を提供することができる。
実施例に係るエンタテインメントシステムの構成を示す図である。 図1のHMDの外観形状を示す図である。 図1のHMDの機能ブロックを示すブロック図である。 図1の情報処理装置の機能ブロックを示すブロック図である。 VR画像の例を示す図である。 VR画像の例を示す図である。
まず、実施例のエンタテインメントシステムの概要を説明する。実施例のエンタテインメントシステムは、映画やコンサート、アニメーション、ゲーム映像等の映像コンテンツを再生する仮想現実空間をユーザの頭部に装着されたヘッドマウントディスプレイ(以下「HMD」とも呼ぶ。)に表示させる情報処理システムである。以下、特に断らない限り、実施例における「画像」は、動画像と静止画の両方を含み得る。
実施例の仮想現実空間は、ロビーとスクリーンルームを含む仮想的な映画館(以下「VR映画館」とも呼ぶ。)である。ロビーには、映像コンテンツの視聴権利(すなわちチケット)を購入するためのチケットカウンターや、物品や食品を購入可能な売店が設置される。スクリーンルームには、映像コンテンツが再生表示されるスクリーンや、ユーザを含む視聴者が着座する座席が設置される。
ロビーおよびスクリーンルームには、ユーザのアバター、ユーザのフレンドのアバター、ユーザのペット、ダミーのキャラクタ(すなわちNPC(Non Player Character))が表示される。フレンドは、ユーザに招待され、ユーザのセッション(「ゲームセッション」とも呼ばれる。)に参加する。ユーザは、スクリーンルームにおいて、フレンド、ペット、ダミーキャラクタとともに映像コンテンツを視聴する。また、ユーザは、自身のセッションに参加したフレンドとのボイスチャットが可能である。
図1は、実施例に係るエンタテインメントシステム1の構成を示す。エンタテインメントシステム1は、情報処理装置10、HMD100、入力装置16、撮像装置14、出力装置15を備える。入力装置16は、ユーザが手指で操作する情報処理装置10のコントローラである。出力装置15は、画像を表示するテレビまたはモニターである。
情報処理装置10は、VR映画館を示す仮想3次元空間の映像(以下「VR画像」とも呼ぶ。)をHMD100に表示させるための各種データ処理を実行する。情報処理装置10は、HMD100の姿勢情報に応じてユーザの視線方向を検出し、その視線方向に応じたVR画像をHMD100に表示させる。情報処理装置10は、PCであってもよく、ゲーム機であってもよい。
撮像装置14は、HMD100を装着したユーザを含むユーザ周辺の空間を所定の周期で撮像するカメラ装置である。撮像装置14はステレオカメラであって、撮像画像を情報処理装置10に供給する。後述するがHMD100にはユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、情報処理装置10は、撮像画像に含まれるマーカの位置にもとづいてHMD100の動き(例えば位置、姿勢およびそれらの変化)を検出する。
なお、HMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、HMD100は、姿勢センサで検出されたセンサデータをHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、HMD100の動きを情報処理装置10が検出できるのであれば、どのようなトラッキング手法を採用してもよい。
ユーザはHMD100で画像を見るため、HMD100を装着したユーザにとって出力装置15は必ずしも必要ではないが、出力装置15を用意することで、別のユーザが出力装置15の表示画像を見ることができる。情報処理装置10は、HMD100を装着したユーザが見ている画像と同じ画像を出力装置15に表示させてもよいが、別の画像を表示させてもよい。たとえばHMD100を装着したユーザと、別のユーザ(フレンド等)とが一緒に映像コンテンツを視聴する場合、出力装置15からは、別のユーザの視点からの映像コンテンツが表示されてもよい。
AP17は、無線アクセスポイントおよびルータの機能を有する。情報処理装置10は、AP17とケーブルで接続してもよく、既知の無線通信プロトコルで接続してもよい。情報処理装置10は、AP17を介して、外部ネットワーク上の配信サーバ3に接続される。配信サーバ3は、所定のストリーミングプロトコルにしたがって、種々の映像コンテンツのデータを情報処理装置10に送信する。
実施例のエンタテインメントシステム1は、ペットロボット5とペット管理サーバ7をさらに備える。ペットロボット5は、犬や猫等の動物を模した形状の公知のエンタテインメントロボットである。ペットロボット5は、現実空間においてユーザと触れ合い、また、ユーザの行動に反応して行動(作動)する第1オブジェクトとして位置づけられる。
また、ペットロボット5は、視覚・聴覚・触覚として機能する各種センサを備える。また、ペットロボット5には、感情を再現するプログラムがインストールされる。ペットロボット5に内蔵されたCPUがこのプログラムを実行することにより、ペットロボット5は、同じ操作や刺激に対して、そのときの機嫌や成長度合いに応じた反応を示す。ペットロボット5は、長く稼働する間に、それまでの扱い状況に応じて、次第に個性を有するようになる。
また、ペットロボット5は、ユーザと触れ合った実績や、行動の履歴、感情の推移等を含むデータ(以下「学習データ」とも呼ぶ。)を記憶する。ペットロボット5は、自機の学習データをペット管理サーバ7にも保存する。ペット管理サーバ7は、ペットロボット5の動作状態等を管理する情報処理装置であり、ペットロボット5の学習データを記憶する機能を備える。
図2は、図1のHMD100の外観形状を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。
出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよく、外付けのヘッドホンが接続されるように構成されてもよい。
筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置14により撮影されて、情報処理装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置14に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信プロトコルで接続されてもよい。HMD100は、姿勢センサが検出したセンサデータを情報処理装置10に送信し、また情報処理装置10で生成された画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示する。
図3は、図1のHMD100の機能ブロックを示すブロック図である。本明細書のブロック図で示す複数の機能ブロックは、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムをCPUが実行すること等によって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者に理解されるところであり、いずれかに限定されるものではない。
制御部120は、画像データ、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。
通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。
制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサデータや、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。
図4は、図1の情報処理装置10の機能ブロックを示すブロック図である。情報処理装置10は、コンテンツ記憶部20、ペット記憶部22、来訪頻度記憶部24、操作検出部30、コンテンツ取得部32、感情送信部34、フレンド通信部36、属性取得部38、他者検出部40、動作決定部42、行動実績送信部44、姿勢検出部46、感情取得部48、画像生成部50、画像出力部52、コントローラ制御部54を備える。
図4に示す複数の機能ブロックのうち少なくとも一部は、コンピュータプログラム(実施例では映像視聴アプリケーション)のモジュールとして実装されてもよい。映像視聴アプリケーションは、DVD等の記録メディアに格納されてもよく、情報処理装置10は、記録メディアから映像視聴アプリケーションを読み出してストレージに記憶してもよい。また、情報処理装置10は、ネットワーク上のサーバから映像視聴アプリケーションをダウンロードしてストレージに記憶してもよい。情報処理装置10のCPUまたはGPUは、映像視聴アプリケーションをメインメモリに読み出して実行することにより、各機能ブロックの機能を発揮してもよい。
コンテンツ記憶部20は、配信サーバ3から提供された映像コンテンツのデータを一時的に記憶する。ペット記憶部22は、仮想現実空間(実施例ではVR映画館)に登場してユーザのペットとして振る舞う第2オブジェクト(以下「VRペット」とも呼ぶ。)に関する属性情報を記憶する。VRペットは、VR映画館においてユーザ(ユーザのアバター)と触れ合い、ユーザ(ユーザのアバター)の行動に反応して行動(作動)する第2オブジェクトである。VRペットに関する属性情報は、ユーザの名前、VRペットの名前、VRペットの画像データ、VRペットがユーザと触れ合った実績、ユーザおよびVRペットの行動の履歴、VRペットの感情の推移等を含む。
来訪頻度記憶部24は、ユーザが仮想現実空間(実施例ではVR映画館)を訪れた頻度に関するデータを記憶する。実施例の来訪頻度記憶部24は、ユーザがVR映画館を前回訪れてから、今回訪れるまでの間隔(すなわち来訪しなかった期間)を示すデータを記憶する。このデータは、ユーザが映像視聴アプリケーションを前回起動してから、今回起動するまでの間隔とも言える。変形例として、来訪頻度記憶部24は、所定の単位期間(例えば1週間)におけるユーザの来訪回数(直近の来訪回数でもよく、平均回数でもよい)を記憶してもよい。
操作検出部30は、入力装置16に入力され、入力装置16から通知されたユーザの操作を検出する。操作検出部30は、検出したユーザ操作を他の機能ブロックに通知する。映像視聴アプリケーションの実行時に入力されうるユーザ操作は、ユーザが抱く感情の種類を示す操作を含む。実施例では、ユーザが楽しいと感じていることを示すボタン操作(以下「ファンボタン操作」とも呼ぶ。)と、ユーザが悲しいと感じていることを示すボタン操作(以下「サッドボタン操作」とも呼ぶ。)を含む。
感情送信部34は、入力されたユーザ操作が示すユーザの感情を示すデータ(以下「感情データ」とも呼ぶ。)を配信サーバ3へ送信する。例えば、感情送信部34は、ファンボタン操作が入力された場合、ユーザが楽しいと感じていることを示す感情データを送信し、サッドボタン操作が入力された場合、ユーザが悲しいと感じていることを示す感情データを送信する。
コンテンツ取得部32は、配信サーバ3が提供する複数種類の映像コンテンツのうちユーザ操作により指定された映像コンテンツのデータを配信サーバ3から取得し、コンテンツ記憶部20に格納する。例えば、コンテンツ取得部32は、ユーザにより指定された映画の提供を配信サーバ3に要求し、配信サーバ3からストリーミング送信された上記映画の映像データをコンテンツ記憶部20に格納する。
フレンド通信部36は、ユーザ操作に応じて、ユーザのフレンドの情報処理装置と通信する。例えば、フレンド通信部36は、ユーザのセッションに招待する内容、言い換えれば、ユーザのセッションへの参加を促す内容のメッセージを、配信サーバ3を介してフレンドの情報処理装置へ送信する。
属性取得部38は、ペットロボット5に関する属性情報を外部装置から取得する。実施例では、属性取得部38は、映像視聴アプリケーションの起動時にペットロボット5の学習データを配信サーバ3に要求する。配信サーバ3は、ペットロボット5から送信されてペット管理サーバ7に登録されたペットロボット5の学習データをペット管理サーバ7から取得する。属性取得部38は、ペットロボット5の学習データを配信サーバ3から取得し、動作決定部42に渡す。
他者検出部40は、撮像装置14から出力された撮像画像を参照し、その撮像画像にHMD100を頭部に装着したユーザとは異なる人物が出現した場合、そのことを検出する。例えば、他者検出部40は、撮像画像にユーザと異なる人物が映らない状態から、撮像画像にユーザと異なる人物が映る状態に変化した場合、ユーザと異なる人物がユーザの近傍位置に出現したことを検出する。他者検出部40は、公知の輪郭検出技術を用いて撮像画像に映る人物を検出してもよい。
動作決定部42は、VR映画館でのVRペットの行動、言い換えれば動作を決定する。例えば、ユーザ(ユーザのアバター)がVR映画館のロビーに入場した場合、動作決定部42は、VRペットの動作として、しっぽを振ってユーザを歓迎する動作を決定してもよい。また、操作検出部30によりファンボタン操作が検出された場合、動作決定部42は、楽しいことを表現する動作を決定してもよい。また、操作検出部30によりサッドボタン操作が検出された場合、動作決定部42は、悲しいことを表現する動作を決定する。
また、不図示の音声検出部によりユーザが「来い」と発声したことが検出される(もしくは所定のボタン操作が入力される)と、動作決定部42は、VRペットの動作として、ユーザに近づく動作を決定してもよい。また、音声検出部によりユーザが「お座り」と発声したことが検出される(もしくは所定のボタン操作が入力される)と、動作決定部42は、VRペットの動作として、お座りする動作を決定してもよい。
また、動作決定部42は、属性取得部38により取得されたペットロボット5の属性情報(例えば学習データ)に応じて、VRペットの行動および動作を決定する。例えば、動作決定部42は、ペットロボット5の最近の機嫌(良いまたは悪い)に対応する行動をVRペットの行動として決定してもよい。また、動作決定部42は、学習データが示すペットの名前を取得し、不図示の音声検出部によりペットの名前が呼ばれたことが検出された場合、その呼びかけに反応する動作を決定してもよい。また、学習データは、ペットロボット5が学習した芸(お手、お座り、伏せ等)の情報を含んでもよい。動作決定部42は、ユーザによる入力装置16の操作や、ユーザの発声に応じた芸をするようVRペットの動作を決定してもよい。
また、動作決定部42は、来訪頻度記憶部24に記憶されたユーザの来訪頻度に関するデータをもとにVRペットの動作を変化させる。実施例では、来訪頻度が相対的に高い場合、具体的には、前回来訪から今回来訪までの間隔が所定の閾値未満(例えば1週間未満)である場合、動作決定部42は、VRペットの動作として、ユーザ(ユーザのアバター)に対して親近感を示す動作を決定する。親近感を示す動作は、(1)走ってユーザに近づき、跳ね回ること、(2)ユーザの指示にすぐに反応すること、(3)ファンボタン操作またはサッドボタン操作に対して特別な動作を行うこと、のいずれかまたは組合せであってもよい。
一方、ユーザの来訪頻度が相対的に低い場合、具体的には、前回来訪から今回来訪までの間隔が所定の閾値以上(例えば1週間以上)である場合、動作決定部42は、VRペットの動作として、ユーザ(ユーザのアバター)に対して疎遠であることを示す動作を決定する。疎遠であることを示す動作は、(1)1回の呼びかけでは反応しないこと、(2)ユーザの指示(コマンド)に応答しないこと(無視すること)、(3)ユーザに近寄らないこと、(4)ユーザから顔を背けること、のいずれかまたは組合せであってもよい。
また、動作決定部42は、他者検出部40によりユーザと異なる人物がユーザの近傍位置に出現したことが検出された場合、そのことをユーザに知らせるための特殊な注意喚起動作をVRペットの動作として決定する。注意喚起動作は、(1)ユーザの周囲や背後に向かって吠えること、(2)ユーザの服を噛んで引っ張ること、のいずれかまたは組合せであってもよい。
行動実績送信部44は、動作決定部42により決定されたVRペットの行動であって、VR画像に表示されたVRペットの行動に関するデータ(以下「VR行動履歴」とも呼ぶ。)を配信サーバ3へ送信する。配信サーバ3は、情報処理装置10から送信されたVR行動履歴を、ペット管理サーバ7を介してペットロボット5に記憶させる。ペット管理サーバ7は、ペットロボット5の学習データに、VR行動履歴を記録させてもよい。
姿勢検出部46は、撮像装置14から出力された撮像画像と、HMD100の姿勢センサ124から出力された姿勢情報とをもとに、公知のヘッドトラッキング技術を用いて、HMD100の位置および姿勢を検出する。言い換えれば、姿勢検出部46は、HMD100を装着したユーザの頭部の位置および姿勢を検出する。
感情取得部48は、ユーザと同一のセッションで同一の映像コンテンツを視聴する1人以上の他のユーザの感情(楽しさ、悲しさ等)を示す感情データを配信サーバ3から取得する。コントローラ制御部54は、感情取得部48により取得された感情データをもとに、ユーザおよび他のユーザの特定の感情の度合いが所定の閾値以上に達した場合、その特定の感情に対応付けられた態様で入力装置16を振動させる。
例えば、ユーザおよび他のユーザが抱く楽しさの感情が所定の閾値以上に達した場合、コントローラ制御部54は、楽しさに対応付けられた態様で入力装置16を振動させてもよい。例えば、律動的に振動させてもよい。一方、ユーザおよび他のユーザが抱く悲しみの感情が所定の閾値以上に達した場合、コントローラ制御部54は、悲しみに対応付けられた態様で入力装置16を振動させてもよい。例えば、ゆっくりと長く振動させてもよい。
画像生成部50は、操作検出部30により検出されたユーザ操作に応じて、VR映画館のVR画像を生成する。また、画像生成部50は、姿勢検出部46により検出されたHMD100の位置および姿勢に整合する内容のVR画像を生成する。画像出力部52は、画像生成部50により生成されたVR画像のデータをHMD100へ出力し、そのVR画像をHMD100に表示させる。
具体的には、画像生成部50は、VRペット画像を含むVR画像であって、動作決定部42により決定された態様でVRペット画像が動作するVR画像を生成する。例えば、画像生成部50は、VR空間へのユーザの来訪頻度に応じた態様でVRペット画像が動作するVR画像を生成する。また、他者検出部40によりユーザに対する他者の接近が検出された場合、画像生成部50は、そのことをユーザに知らせる態様でVRペット画像が動作するVR画像を生成する。
また、画像生成部50は、コンテンツ記憶部20に記憶された映像コンテンツの画像(言い換えれば再生結果)を含むVR画像を生成する。また、画像生成部50は、ユーザのセッションにフレンドが参加した場合、フレンドのアバター画像を含むVR画像を生成する。また、画像生成部50は、感情取得部48により取得された感情データに応じてVR画像を変化させる。
以上の構成によるエンタテインメントシステム1の動作を説明する。
ユーザは、情報処理装置10において映像視聴アプリケーションを起動する。情報処理装置10の画像生成部50は、VR映画館のロビーの空間を示すVR画像であって、ユーザのVRペット画像を含むVR画像をHMD100に表示させる。
情報処理装置10の属性取得部38は、ペット管理サーバ7に登録されたペットロボット5に関する属性情報を、配信サーバ3を介して取得する。情報処理装置10の動作決定部42は、ペットロボット5の属性情報に応じて、VRペットの動作態様を決定する。画像生成部50は、動作決定部42により決定された態様にてVRペット画像が動作するVR画像を表示させる。実施例のエンタテインメントシステム1によると、現実空間におけるペットロボット5の属性を引き継いだVRペットをユーザに提供でき、エンタテインメント性が高いVR視聴体験をユーザに提供できる。
また、動作決定部42は、VR映画館へのユーザの来訪頻度に応じて、VRペットの動作態様を変化させることにより、ユーザに対するVRペットの親密度合いを変化させる。これにより、現実のペットに近い動作をVRペットに実現させ、また、VR映画館へのユーザの来訪を促進することができる。
ユーザは、ロビーでチケットを購入後、VRペットともにスクリーンルームに入場可能となる。図5はVR画像の例を示す。同図のVR画像300は、VR映画館のスクリーンルームを示している。スクリーンルームには、映像コンテンツが上映されるスクリーン302と、ダミーキャラクタ304、他のユーザを示す他ユーザアバター306が配置される。また、ユーザの隣の席にはユーザのVRペット308が着座する。なお、情報処理装置10のコンテンツ取得部32は、ユーザと同じ映像コンテンツを同時に視聴する他のユーザの情報をサーバから取得し、画像生成部50は、取得された情報に応じて、他ユーザアバター306をVR画像に含めてもよい。
図6もVR画像の例を示す。同図のVR画像300では、スクリーン302に映像コンテンツが上映されている。腕310は、一人称視点から見えるユーザの腕に対応する画像である。情報処理装置10の画像生成部50は、ユーザからファンボタン操作が入力されると、腕310を上げ、または拍手する等、楽しさを表現する態様でユーザのアバター画像を動作させる。一方、ユーザからサッドボタン操作が入力されると、腕310で顔を覆い、または泣く等、悲しみを表現する態様でユーザのアバター画像を動作させる。
情報処理装置10の動作決定部42は、ファンボタン操作およびサッドボタン操作に応じて、VRペットの動作を決定する。例えば、ファンボタン操作が入力された場合、動作決定部42は、喜びを表現する動作(元気にしっぽを振る等)を決定してもよい。一方、サッドボタン操作が入力された場合、動作決定部42は、悲しみを表現する動作(元気なく伏せる等)を決定してもよい。
また、情報処理装置10の感情送信部34は、ユーザの感情データを配信サーバ3へ送信し、配信サーバ3は、ユーザと同じ映像コンテンツを視聴している他のユーザ(フレンド等)の情報処理装置へその感情データを配信する。情報処理装置10の感情取得部48は、他のユーザの感情データを配信サーバ3から受け付ける。画像生成部50は、感情データが示す感情を表現するように他ユーザアバター306を動作させる。これにより、他のユーザの感情をユーザに認識させ、また、他のユーザの感情に共感させることでVR空間への没入感を一層高めることができる。
既述したように、情報処理装置10の感情取得部48は、ユーザと同じ映像コンテンツを視聴している他のユーザの感情データを取得する。画像生成部50は、ユーザおよび他のユーザが抱きうる複数種類の感情に対応する複数のメーター画像をVR画像に表示させてもよい。例えば、画像生成部50は、楽しさに対応するメーター画像と、悲しみに対応するメーター画像をスクリーンルームのステージや天井等に表示させてもよい。画像生成部50は、ユーザおよび他のユーザが抱く各感情の度合い(例えばファンボタン操作の回数や、サッドボタン操作の回数)に応じて、各感情のメーター画像の態様を変化させてもよい。このようなメーター画像により、同じ映像コンテンツを視聴する視聴者全体の感情の傾向(雰囲気)をユーザに分かり易く提示することができる。
また、画像生成部50は、ユーザおよび他のユーザの特定の感情の度合いが所定の閾値以上に達した場合、その特定の感情に対応付けられた態様のVR画像を表示させてもよい。例えば、画像生成部50は、ユーザおよび他のユーザが抱く楽しさが所定の閾値以上に達した場合、スクリーンルームの一部(スクリーンの周辺や天井等)を暖色系の色彩(オレンジや黄色等)に変化させてもよい。上記閾値は、ファンボタン操作の回数が所定の閾値以上に達したことでもよく、同じ映像コンテンツを視聴する視聴者の過半数がファンボタン操作を入力したことでもよい。
一方、ユーザおよび他のユーザが抱く悲しみが所定の閾値以上に達した場合、画像生成部50は、スクリーンルームの一部(スクリーンの周辺や天井等)を寒色系の色彩(青や紫等)に変化させてもよい。上記閾値は、サッドボタン操作の回数が所定の閾値以上に達したことでもよく、同じ映像コンテンツを視聴する視聴者の過半数がサッドボタン操作を入力したことでもよい。
また、動作決定部42は、ユーザおよび他のユーザの特定の感情の度合いが所定の閾値以上に達した場合、その特定の感情に対応付けられた行動を、VRペットの行動として決定してもよい。例えば、ユーザおよび他のユーザが抱く楽しさが所定の閾値以上に達した場合、動作決定部42は、喜びを表現する動作(元気にしっぽを振る等)を決定してもよい。一方、動作決定部42は、ユーザおよび他のユーザが抱く悲しみが所定の閾値以上に達した場合、悲しみを表現する動作(元気なく伏せる等)を決定してもよい。
なお、ロビーにおいて、ユーザは、フレンドを自身のセッションに招待するメニューを選択できる。情報処理装置10のフレンド通信部36は、上記メニューが選択された場合、ユーザのセッションにフレンドを招待する旨のメッセージをフレンドの情報処理装置(不図示)へ送信する。フレンド通信部36は、フレンドの情報処理装置から送信された、フレンドがユーザのセッションに参加した旨の通知を受け付ける。画像生成部50は、フレンドのアバター画像をロビーおよびスクリーンルームのVR画像に表示させる。
この場合、配信サーバ3は、情報処理装置10への映像コンテンツの配信と、フレンドの情報処理装置への同映像コンテンツの配信とを同期させる。ユーザとフレンドは、現実に同じ場所にいるかのように、同じ映像コンテンツを同時に視聴することができる。
情報処理装置10の行動実績送信部44は、仮想映画館におけるVRペットの行動内容を示すVR行動履歴を、配信サーバ3を介してペットロボット5に反映する。これにより、仮想現実空間におけるVRペットの行動を、現実空間におけるペットロボット5の行動に反映させることができる。例えば、VR行動履歴が、ユーザとVRペットとの親密な行動を示す場合、現実空間におけるペットロボット5にもユーザに対して親密に振る舞わせることができる。
なお、VR行動履歴は、VRペットの行動に代えて、または、VRペットの行動とともに、ユーザの行動に関するデータを含んでもよい。これにより、仮想現実空間でのVRペットに対するユーザの行動(なでる、遊ぶ等)の実績を現実空間におけるペットロボット5の行動に反映させることができる。例えば、仮想現実空間でユーザがVRペットに触れ合うことにより、現実空間におけるユーザとペットロボット5との親密度を向上させることができる。
VR画像をHMD100に表示中に、情報処理装置10の他者検出部40が、ユーザに対する他者の接近を検出すると、動作決定部42は、そのことをユーザに知らせるための注意喚起動作をVRペットの動作として決定する。画像生成部50は、VRペットがユーザに注意喚起するVR画像をHMD100に表示させる。図1に示すように、HMD100を装着したユーザは、自身の周囲を確認することが困難になるが、VRペットによる注意喚起動作により、ユーザは周囲に注意を向け、また、必要に応じて他者に声を掛けることができる。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
第1変形例を説明する。エンタテインメントシステム1は、フリーマッチングにより、映像視聴アプリケーションを使用する複数のユーザを同一のゲームセッションに収容し、複数のユーザに同一の映像コンテンツを同時に視聴させてもよい。例えば、映像コンテンツが、PV(プロモーションビデオ)区間と、本体区間(映画の本編等)を含む場合、映像コンテンツの開始からPV区間が終了するまでの間(本体区間の開始前)に、同一映像コンテンツのチケットを購入したユーザを同一のゲームセッションに収容してもよい。
この場合、情報処理装置10のコンテンツ取得部32は、同一のゲームセッションに収容された他のユーザに関する情報(アバターの種類や、席の情報、感情データ等)を配信サーバ3から取得してもよい。画像生成部50は、他のユーザのアバター画像を含むVR画像(スクリーンルーム画像)を生成してもよい。
第2変形例を説明する。上記実施例では、情報処理装置10は、ペットロボット5に関する属性情報を、ペット管理サーバ7および配信サーバ3を経由して取得した。変形例として、情報処理装置10は、ペットロボット5とP2P(ピアツーピア)通信し、属性情報をペットロボット5から直接取得してもよい。
第3変形例を説明する。上記実施例では、現実空間においてユーザの行動に反応して行動する第1オブジェクトとして、ペットロボットを例示した。実施例に記載の技術は、ペットロボットに限らず、現実空間においてユーザの行動に反応して行動する種々のオブジェクトに適用可能である。例えば、第1オブジェクトは、人型ロボットであってもよく、人間と対話可能な電子機器(スマートスピーカー等)であってもよい。また、第1オブジェクトは、現実の動物のペット(「リアルペット」と呼ぶ。)であってもよい。この場合、ユーザは、リアルペットに関する属性情報を情報処理装置10に入力してもよく、または、所定の電子機器を使用して配信サーバ3に登録してもよい。
第4変形例を説明する。仮想現実空間においてユーザの行動に反応して行動する第2オブジェクトは、ユーザのペットに限らず、アニメ漫画やゲーム等に登場するキャラクタであってもよい。情報処理装置10は、複数種類のペットやキャラクタの中からやり取りを行うペットまたはキャラクタをユーザに無料または有料にて選択させ、選択されたペットまたはキャラクタを仮想現実空間に登場させる切替部(および購入部)をさらに備えてもよい。情報処理装置10の画像生成部50は、ユーザがロビーに入場した際に、ユーザにより選択されたペットまたはキャラクタを含むVR画像を表示させてもよい。
上記実施例で情報処理装置10が備えた機能の少なくとも一部を、配信サーバ3が備えてもよく、HMD100が備えてもよい。また、上記実施例で情報処理装置10が備えた機能は、複数のコンピュータが連携することにより実現されてもよい。
上述した実施例および変形例の任意の組み合わせもまた本開示の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。
1 エンタテインメントシステム、 3 配信サーバ、 5 ペットロボット、 10 情報処理装置、 14 撮像装置、 24 来訪頻度記憶部、 38 属性取得部、 40 他者検出部、 42 動作決定部、 44 行動実績送信部、 50 画像生成部、 52 画像出力部、 100 HMD。
この発明は、仮想現実空間の画像を生成するシステムに適用できる。

Claims (7)

  1. 現実空間においてユーザの行動に反応して作動する第1オブジェクトに関する属性情報を外部装置から取得する取得部と、
    仮想現実空間においてユーザの行動に反応して作動する第2オブジェクトを示すオブジェクト画像を含む仮想現実画像であって、前記取得部により取得された属性情報に応じて前記第2オブジェクトが動作する仮想現実画像を生成する生成部と、
    前記生成部により生成された仮想現実画像を表示装置に表示させる出力部と、
    を備えることを特徴とする情報処理システム。
  2. 前記第1オブジェクトはロボットであり、
    前記取得部は、前記第1オブジェクトから送信された属性情報を取得することを特徴とする請求項1に記載の情報処理システム。
  3. 仮想現実空間におけるユーザと前記第2オブジェクトの少なくとも一方の行動に関するデータを外部装置へ送信することにより、仮想現実空間での行動を前記第1オブジェクトに反映させる送信部をさらに備えることを特徴とする請求項2に記載の情報処理システム。
  4. ユーザが仮想現実空間を訪れた頻度に関するデータを記憶する記憶部と、
    仮想現実空間における前記オブジェクト画像の動作を決定し、前記頻度に関するデータをもとに前記オブジェクト画像の動作を変化させる決定部と、をさらに備えることを特徴とする請求項1から3のいずれかに記載の情報処理システム。
  5. ヘッドマウントディスプレイを装着したユーザを含む空間を撮像する撮像部をさらに備え、
    前記生成部は、前記ヘッドマウントディスプレイに表示させる仮想現実画像を生成し、前記撮像部により撮像された画像にユーザとは異なる人物が出現した場合、そのことをユーザに知らせる態様で前記オブジェクト画像が動作する仮想現実画像を生成することを特徴とする請求項1から4のいずれかに記載の情報処理システム。
  6. 現実空間においてユーザの行動に反応して作動する第1オブジェクトに関する属性情報を外部装置から取得するステップと、
    仮想現実空間においてユーザの行動に反応して作動する第2オブジェクトを示すオブジェクト画像を含む仮想現実画像であって、前記取得するステップで取得された属性情報に応じて前記第2オブジェクトが動作する仮想現実画像を生成するステップと、
    前記生成するステップで生成された仮想現実画像を表示装置に表示させるステップと、
    をコンピュータが実行することを特徴とする表示方法。
  7. 現実空間においてユーザの行動に反応して作動する第1オブジェクトに関する属性情報を外部装置から取得する機能と、
    仮想現実空間においてユーザの行動に反応して作動する第2オブジェクトを示すオブジェクト画像を含む仮想現実画像であって、前記取得する機能により取得された属性情報に応じて前記第2オブジェクトが動作する仮想現実画像を生成する機能と、
    前記生成する機能により生成された仮想現実画像を表示装置に表示させる機能と、
    をコンピュータに実現させるためのコンピュータプログラム。
JP2020556391A 2018-11-06 2018-11-06 情報処理システム、表示方法およびコンピュータプログラム Active JP6979539B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/041231 WO2020095368A1 (ja) 2018-11-06 2018-11-06 情報処理システム、表示方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2020095368A1 true JPWO2020095368A1 (ja) 2021-09-02
JP6979539B2 JP6979539B2 (ja) 2021-12-15

Family

ID=70611781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020556391A Active JP6979539B2 (ja) 2018-11-06 2018-11-06 情報処理システム、表示方法およびコンピュータプログラム

Country Status (3)

Country Link
US (1) US20210397245A1 (ja)
JP (1) JP6979539B2 (ja)
WO (1) WO2020095368A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240051147A1 (en) * 2021-01-05 2024-02-15 Sony Group Corporation Entertainment system and robot
EP4306192A1 (en) * 2021-03-09 2024-01-17 Sony Group Corporation Information processing device, information processing terminal, information processing method, and program
CN117797477A (zh) * 2022-09-23 2024-04-02 腾讯科技(深圳)有限公司 虚拟对象的生成方法、装置、设备、介质和程序产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10328416A (ja) * 1997-05-28 1998-12-15 Sony Corp 提供媒体、並びに共有仮想空間提供装置および方法
WO2000066239A1 (fr) * 1999-04-30 2000-11-09 Sony Corporation Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2016198180A (ja) * 2015-04-08 2016-12-01 株式会社コロプラ 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120184A (ja) * 2000-10-17 2002-04-23 Human Code Japan Kk ネットワーク上のロボット動作制御システム
JP4546125B2 (ja) * 2004-03-24 2010-09-15 公立大学法人会津大学 インターフェース提示方法及びインターフェース提示システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10328416A (ja) * 1997-05-28 1998-12-15 Sony Corp 提供媒体、並びに共有仮想空間提供装置および方法
WO2000066239A1 (fr) * 1999-04-30 2000-11-09 Sony Corporation Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2016198180A (ja) * 2015-04-08 2016-12-01 株式会社コロプラ 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム

Also Published As

Publication number Publication date
US20210397245A1 (en) 2021-12-23
WO2020095368A1 (ja) 2020-05-14
JP6979539B2 (ja) 2021-12-15

Similar Documents

Publication Publication Date Title
US10636217B2 (en) Integration of tracked facial features for VR users in virtual reality environments
JP7419460B2 (ja) Vr観戦のための拡大された視野再レンダリング
JP6792044B2 (ja) ヘッドマウントディスプレイによって提示されるパーソナル空間コンテンツの制御
US11079999B2 (en) Display screen front panel of HMD for viewing by users viewing the HMD player
JP6770178B2 (ja) Hmdユーザを現実世界空間内で安全に案内するために、仮想現実シーンにおいて対話型コンテンツを提供する方法
JP6679747B2 (ja) 仮想現実(vr)ユーザインタラクティブ性に関連付けられた仮想現実環境の観戦
JP6929380B2 (ja) Vr環境への第2の画面の仮想ウィンドウ
US10262461B2 (en) Information processing method and apparatus, and program for executing the information processing method on computer
JP6298561B1 (ja) ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
JP6321150B2 (ja) 三次元ゲームプレイの共有
WO2020138107A1 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
US10545339B2 (en) Information processing method and information processing system
CN109069933A (zh) 在vr环境中的观众视角
WO2019234879A1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6298563B1 (ja) ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置
JP2020039029A (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
JP6979539B2 (ja) 情報処理システム、表示方法およびコンピュータプログラム
US20190005731A1 (en) Program executed on computer for providing virtual space, information processing apparatus, and method of providing virtual space
JP2021518778A (ja) 非同期仮想現実インタラクション
JP6947661B2 (ja) ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
JP2019012509A (ja) ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置
JP7379427B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7232765B2 (ja) シミュレーション方法とシステム

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20210105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211115

R150 Certificate of patent or registration of utility model

Ref document number: 6979539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150