JP2018109835A5 - - Google Patents

Download PDF

Info

Publication number
JP2018109835A5
JP2018109835A5 JP2016256772A JP2016256772A JP2018109835A5 JP 2018109835 A5 JP2018109835 A5 JP 2018109835A5 JP 2016256772 A JP2016256772 A JP 2016256772A JP 2016256772 A JP2016256772 A JP 2016256772A JP 2018109835 A5 JP2018109835 A5 JP 2018109835A5
Authority
JP
Japan
Prior art keywords
virtual space
position information
virtual
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016256772A
Other languages
English (en)
Other versions
JP6761340B2 (ja
JP2018109835A (ja
Filing date
Publication date
Application filed filed Critical
Priority to JP2016256772A priority Critical patent/JP6761340B2/ja
Priority claimed from JP2016256772A external-priority patent/JP6761340B2/ja
Priority to PCT/JP2017/047250 priority patent/WO2018124280A1/ja
Publication of JP2018109835A publication Critical patent/JP2018109835A/ja
Publication of JP2018109835A5 publication Critical patent/JP2018109835A5/ja
Application granted granted Critical
Publication of JP6761340B2 publication Critical patent/JP6761340B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (12)

  1. オブジェクトが配置される仮想空間の設定処理を行う仮想空間設定部と、
    前記仮想空間において、ユーザに対応するユーザ移動体を移動させる処理を行う移動体処理部と、
    前記仮想空間において仮想カメラから見える画像の描画処理を行う表示処理部と、
    を含み、
    前記仮想空間設定部は、
    前記仮想空間として、第1の仮想空間と、前記第1の仮想空間に対して特異点を介して結びつけられる第2の仮想空間とを設定し、
    前記表示処理部は、
    所与の切替条件が成立する前においては、
    前記ユーザ移動体又は前記仮想カメラの位置情報を、前記第1の仮想空間の位置情報として設定し、第1の描画処理として、前記第1の仮想空間の画像に加えて前記第2の仮想空間の画像を描画する処理を行って、前記特異点に対応する領域に前記第2の仮想空間の画像が表示される画像を生成し、
    前記ユーザ移動体又は前記仮想カメラが前記特異点に対応する場所を第1の進行方向で通過することで前記切替条件が成立した場合には、
    前記ユーザ移動体又は前記仮想カメラの前記位置情報を、前記第2の仮想空間の位置情報として設定し、第2の描画処理として、前記第2の仮想空間の画像に加えて前記第1の仮想空間の画像を描画する処理を行って、前記特異点に対応する領域に前記第1の仮想空間の画像が表示される画像を生成し、
    前記表示処理部は、
    前記仮想カメラの視線方向が、前記第1の進行方向の反対方向側を向いた場合に、前記特異点に対応する領域に前記第1の仮想空間の画像が表示される画像を生成し、
    前記表示処理部は、
    前記ユーザ移動体又は前記仮想カメラが前記特異点に対応する場所を通過することで前記切替条件が成立した場合に、前記ユーザ移動体又は前記仮想カメラの前記位置情報を、第3の仮想空間の位置情報として設定し、第3の描画処理として、少なくとも前記第3の仮想空間の画像を描画する処理を行うことを特徴とするシミュレーションシステム。
  2. 請求項において、
    前記表示処理部は、
    複数の前記ユーザがプレイする場合に、複数の前記ユーザに対応する複数の前記ユーザ移動体又は複数の前記仮想カメラが前記特異点に対応する場所を通過して前記第1の仮想空間に戻ったことを条件に、前記第3の描画処理を許可することを特徴とするシミュレーションシステム。
  3. 請求項1又は2において、
    前記表示処理部は、
    前記ユーザ移動体又は前記仮想カメラが、前記第1の進行方向とは異なる第2の進行方向で前記特異点を通過した場合には、前記ユーザ移動体又は前記仮想カメラの前記位置情報を、前記第1の仮想空間の位置情報として設定し、前記第1の描画処理として、少なくとも前記第1の仮想空間の画像を描画する処理を行うことを特徴とするシミュレーションシステム。
  4. 請求項1乃至のいずれかにおいて、
    前記表示処理部は、
    前記ユーザの入力情報又はセンサの検出情報に基づいて、前記切替条件が成立したか否かを判断することを特徴とするシミュレーションシステム。
  5. 請求項1乃至のいずれかにおいて、
    前記ユーザが移動する実空間のプレイフィールドには、前記特異点に対応する物体が配置されており、
    前記表示処理部は、
    前記ユーザが前記実空間において前記物体の場所を通過した場合に、前記ユーザ移動体又は前記仮想カメラが、前記特異点に対応する場所を通過したと判断することを特徴とするシミュレーションシステム。
  6. 請求項1乃至のいずれかにおいて、
    前記表示処理部は、
    前記特異点を設定又は非設定にする処理を行うことを特徴とするシミュレーションシステム。
  7. 請求項1乃至のいずれかにおいて、
    前記ユーザに仮想現実を体験させるための体感装置を制御する体感装置制御部を含み、
    前記体感装置制御部は、
    前記切替条件が成立していない場合の前記体感装置の制御と、前記切替条件が成立した場合の前記体感装置の制御を異ならせることを特徴とするシミュレーションシステム。
  8. 請求項1乃至のいずれかにおいて、
    複数の前記ユーザがプレイする場合に、実空間でのユーザ間の衝突の報知情報の出力処理を行う報知処理部を含むことを特徴とするシミュレーションシステム。
  9. 請求項1乃至のいずれかにおいて、
    実空間での前記ユーザの位置情報を取得する情報取得部を含み、
    前記移動体処理部は、
    取得された前記位置情報に基づいて、前記ユーザ移動体を移動させる処理を行い、
    前記表示処理部は、
    前記ユーザが装着する頭部装着型表示装置の表示画像を生成し、
    前記表示処理部は、
    前記切替条件が成立する前においては、
    前記実空間での前記ユーザの前記位置情報により特定される前記ユーザ移動体又は前記仮想カメラの前記位置情報を、前記第1の仮想空間の位置情報として設定し、
    前記切替条件が成立した場合には、
    前記実空間での前記ユーザの前記位置情報により特定される前記ユーザ移動体又は前記仮想カメラの前記位置情報を、前記第2の仮想空間の位置情報として設定することを特徴とするシミュレーションシステム。
  10. 実空間でのユーザの位置情報を取得する情報取得部と、
    オブジェクトが配置される仮想空間の設定処理を行う仮想空間設定部と、
    取得された前記位置情報に基づいて、前記仮想空間において、ユーザに対応するユーザ移動体を移動させる処理を行う移動体処理部と、
    前記仮想空間において仮想カメラから見える画像の描画処理を行い、前記ユーザが装着する頭部装着型表示装置に表示する画像を生成する表示処理部と、
    を含み、
    前記仮想空間設定部は、
    前記仮想空間として、第1の仮想空間と、前記第1の仮想空間に対して特異点を介して結びつけられる第2の仮想空間とを設定し、
    所与の切替条件が成立する前においては、
    前記実空間での前記ユーザの前記位置情報により特定される前記ユーザ移動体又は前記仮想カメラの前記位置情報を、前記第1の仮想空間の位置情報として設定し、第1の描画処理として、少なくとも前記第1の仮想空間の画像を描画する処理を行い、
    前記ユーザ移動体又は前記仮想カメラが前記特異点に対応する場所を第1の進行方向で通過することで前記切替条件が成立した場合には、
    前記実空間での前記ユーザの前記位置情報により特定される前記ユーザ移動体又は前記仮想カメラの前記位置情報を、前記第2の仮想空間の位置情報として設定し、第2の描画処理として、少なくとも前記第2の仮想空間の画像を描画する処理を行い、
    前記表示処理部は、
    前記ユーザ移動体又は前記仮想カメラが前記特異点に対応する場所を通過することで前記切替条件が成立した場合に、前記ユーザ移動体又は前記仮想カメラの前記位置情報を、第3の仮想空間の位置情報として設定し、第3の描画処理として、少なくとも前記第3の仮想空間の画像を描画する処理を行うことを特徴とするシミュレーションシステム。
  11. オブジェクトが配置される仮想空間の設定処理を行う仮想空間設定部と、
    前記仮想空間において、ユーザに対応するユーザ移動体を移動させる処理を行う移動体処理部と、
    前記仮想空間において仮想カメラから見える画像の描画処理を行う表示処理部として、
    コンピュータを機能させ、
    前記仮想空間設定部は、
    前記仮想空間として、第1の仮想空間と、前記第1の仮想空間に対して特異点を介して結びつけられる第2の仮想空間とを設定し、
    前記表示処理部は、
    所与の切替条件が成立する前においては、
    前記ユーザ移動体又は前記仮想カメラの位置情報を、前記第1の仮想空間の位置情報として設定し、第1の描画処理として、前記第1の仮想空間の画像に加えて前記第2の仮想空間の画像を描画する処理を行って、前記特異点に対応する領域に前記第2の仮想空間の画像が表示される画像を生成し、
    前記ユーザ移動体又は前記仮想カメラが前記特異点に対応する場所を第1の進行方向で通過することで前記切替条件が成立した場合には、
    前記ユーザ移動体又は前記仮想カメラの前記位置情報を、前記第2の仮想空間の位置情報として設定し、第2の描画処理として、前記第2の仮想空間の画像に加えて前記第1の仮想空間の画像を描画する処理を行って、前記特異点に対応する領域に前記第1の仮想空間の画像が表示される画像を生成し、
    前記表示処理部は、
    前記仮想カメラの視線方向が、前記第1の進行方向の反対方向側を向いた場合に、前記特異点に対応する領域に前記第1の仮想空間の画像が表示される画像を生成し、
    前記表示処理部は、
    前記ユーザ移動体又は前記仮想カメラが前記特異点に対応する場所を通過することで前記切替条件が成立した場合に、前記ユーザ移動体又は前記仮想カメラの前記位置情報を、第3の仮想空間の位置情報として設定し、第3の描画処理として、少なくとも前記第3の仮想空間の画像を描画する処理を行うことを特徴とするプログラム。
  12. 実空間でのユーザの位置情報を取得する情報取得部と、
    オブジェクトが配置される仮想空間の設定処理を行う仮想空間設定部と、
    取得された前記位置情報に基づいて、前記仮想空間において、ユーザに対応するユーザ移動体を移動させる処理を行う移動体処理部と、
    前記仮想空間において仮想カメラから見える画像の描画処理を行い、前記ユーザが装着する頭部装着型表示装置に表示する画像を生成する表示処理部として、
    コンピュータを機能させ、
    前記仮想空間設定部は、
    前記仮想空間として、第1の仮想空間と、前記第1の仮想空間に対して特異点を介して結びつけられる第2の仮想空間とを設定し、
    所与の切替条件が成立する前においては、
    前記実空間での前記ユーザの前記位置情報により特定される前記ユーザ移動体又は前記
    仮想カメラの前記位置情報を、前記第1の仮想空間の位置情報として設定し、第1の描画処理として、少なくとも前記第1の仮想空間の画像を描画する処理を行い、
    前記ユーザ移動体又は前記仮想カメラが前記特異点に対応する場所を第1の進行方向で通過することで前記切替条件が成立した場合には、
    前記実空間での前記ユーザの前記位置情報により特定される前記ユーザ移動体又は前記仮想カメラの前記位置情報を、前記第2の仮想空間の位置情報として設定し、第2の描画処理として、少なくとも前記第2の仮想空間の画像を描画する処理を行い、
    前記表示処理部は、
    前記ユーザ移動体又は前記仮想カメラが前記特異点に対応する場所を通過することで前記切替条件が成立した場合に、前記ユーザ移動体又は前記仮想カメラの前記位置情報を、第3の仮想空間の位置情報として設定し、第3の描画処理として、少なくとも前記第3の仮想空間の画像を描画する処理を行うことを特徴とするプログラム。
JP2016256772A 2016-12-28 2016-12-28 シミュレーションシステム及びプログラム Active JP6761340B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016256772A JP6761340B2 (ja) 2016-12-28 2016-12-28 シミュレーションシステム及びプログラム
PCT/JP2017/047250 WO2018124280A1 (ja) 2016-12-28 2017-12-28 シミュレーションシステム、画像処理方法及び情報記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016256772A JP6761340B2 (ja) 2016-12-28 2016-12-28 シミュレーションシステム及びプログラム

Publications (3)

Publication Number Publication Date
JP2018109835A JP2018109835A (ja) 2018-07-12
JP2018109835A5 true JP2018109835A5 (ja) 2020-02-06
JP6761340B2 JP6761340B2 (ja) 2020-09-23

Family

ID=62709645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016256772A Active JP6761340B2 (ja) 2016-12-28 2016-12-28 シミュレーションシステム及びプログラム

Country Status (2)

Country Link
JP (1) JP6761340B2 (ja)
WO (1) WO2018124280A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163977B (zh) * 2018-07-13 2024-04-12 腾讯数码(天津)有限公司 多世界虚拟场景中的虚拟通道渲染方法及装置
US11335071B2 (en) 2018-08-02 2022-05-17 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method for augmented reality images based on object interaction
JP7317024B2 (ja) * 2018-08-23 2023-07-28 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JPWO2020158440A1 (ja) 2019-01-30 2021-12-02 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラムを記載した記録媒体
US10978019B2 (en) 2019-04-15 2021-04-13 XRSpace CO., LTD. Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
JP7351638B2 (ja) 2019-04-23 2023-09-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像表示システム、および情報提示方法
US20220291744A1 (en) * 2019-09-03 2022-09-15 Sony Group Corporation Display processing device, display processing method, and recording medium
EP3968143A1 (en) 2020-09-15 2022-03-16 Nokia Technologies Oy Audio processing
JP7467810B2 (ja) 2021-05-07 2024-04-16 Kyoto’S 3D Studio株式会社 複合現実感提供システムおよび複合現実感提供方法
JP7324469B2 (ja) 2021-06-28 2023-08-10 グリー株式会社 情報処理システム、情報処理方法、情報処理プログラム
JP6989199B1 (ja) * 2021-10-06 2022-01-05 クラスター株式会社 情報処理装置
JP7449508B2 (ja) 2022-07-14 2024-03-14 グリー株式会社 情報処理システム、情報処理方法、及びプログラム
WO2024101038A1 (ja) * 2022-11-11 2024-05-16 株式会社Nttドコモ アバター移動装置
WO2024111123A1 (ja) * 2022-11-25 2024-05-30 株式会社Abal 仮想空間体感システム及び仮想空間体感方法
KR20240084992A (ko) * 2022-12-07 2024-06-14 삼성전자주식회사 가상 공간들로 진입하기 위한 시각적 객체들을 표시하기 위한 웨어러블 장치 및 그 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4642538B2 (ja) * 2005-04-20 2011-03-02 キヤノン株式会社 画像処理方法および画像処理装置
JP2016062486A (ja) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法

Similar Documents

Publication Publication Date Title
JP2018109835A5 (ja)
JP2018081644A5 (ja)
US10324293B2 (en) Vision-assisted input within a virtual world
JP2018180655A5 (ja)
RU2016116990A (ru) Устройство обработки информации, способ обработки информации и программа
JP2013003647A5 (ja)
JP2019083033A (ja) 仮想現実環境においてナビゲートする方法、システム、および装置
JP2016154018A5 (ja) グラフィカルユーザインターフェースとの物理的相互作用を解釈するためのデバイス、方法及びコンピュータ可読媒体
JP2013235373A5 (ja)
JP2013105253A5 (ja)
JP2018049591A5 (ja) 画像処理装置、画像処理方法及びプログラム
JP2016512626A5 (ja)
KR20140040246A (ko) 컴퓨터 비젼 애플리케이션들에서 상호작용 반경을 확대하기 위한 제스쳐-제어 기법
JP2018046448A5 (ja)
JP2013178636A5 (ja)
JP2015046732A5 (ja)
JP2009110304A5 (ja)
JP2017515101A5 (ja)
JP2017046196A5 (ja)
JP2018073172A5 (ja)
JP2019152903A5 (ja) 情報処理装置および情報処理方法
JP2015119338A5 (ja) 表示制御装置、表示装置、撮像システム、表示制御方法、及びプログラム
JP2017191492A5 (ja)
JP2020068513A5 (ja) 画像処理装置およびその制御方法、プログラム
KR102561274B1 (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법