JPWO2018012628A1 - 画像表示装置及び画像表示システム - Google Patents

画像表示装置及び画像表示システム Download PDF

Info

Publication number
JPWO2018012628A1
JPWO2018012628A1 JP2018527690A JP2018527690A JPWO2018012628A1 JP WO2018012628 A1 JPWO2018012628 A1 JP WO2018012628A1 JP 2018527690 A JP2018527690 A JP 2018527690A JP 2018527690 A JP2018527690 A JP 2018527690A JP WO2018012628 A1 JPWO2018012628 A1 JP WO2018012628A1
Authority
JP
Japan
Prior art keywords
display device
image display
image
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018527690A
Other languages
English (en)
Other versions
JP6400879B2 (ja
Inventor
英起 多田
英起 多田
玲志 相宅
玲志 相宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NURVE, INC.
Original Assignee
NURVE, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NURVE, INC. filed Critical NURVE, INC.
Application granted granted Critical
Publication of JP6400879B2 publication Critical patent/JP6400879B2/ja
Publication of JPWO2018012628A1 publication Critical patent/JPWO2018012628A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

個別の表示装置によって画像を見ているユーザとの間で容易にコミュニケーションを取ることができる画像表示装置等を提供する。画像表示装置は、通信ネットワークを介してサーバからデータを取得するデータ取得部と、表示部と、該表示部における画像表示を制御する表示制御部と、当該画像表示装置の位置の変化及び向きを判定する位置及び向き判定部と、該判定の結果に基づいて位置及び向きに関する情報を生成して送信する位置関連情報生成部と、他の画像表示装置から送信された位置及び向きに関する情報を取得する位置関連情報取得部とを備え、表示制御部は、サーバから取得したデータに基づいて表示部に画像を表示させると共に位置及び向き判定部の判定結果に基づいて上記画像を変化させ、さらに、他の画像表示装置から送信された位置及び向きに関する情報に基づき該情報の送信元に表示されている画像に関する情報を表示部に表示させる。

Description

本発明は、通信ネットワークによって接続された複数の画像表示装置間における画像表示技術に関する。
近年、仮想現実(バーチャルリアリティ、以下「VR」とも記す)の表示技術が、ゲームやエンターテインメント、学習支援、職業訓練等の様々な分野で利用されている。VRにおいては、通常、ヘッドマウントディスプレイ(以下、「HMD」とも記す)と呼ばれるメガネ型又はゴーグル型の表示装置が用いられる。ユーザは、HMDを頭部に装着し、HMDに内蔵された画面を両眼で見ることにより、立体感のある画像を認識することができる。HMDにはジャイロセンサや加速度センサが内蔵されており、これらのセンサにより検出されたユーザの頭部の動きに応じて、画面に表示される画像が変化する。それにより、ユーザは、あたかも3次元的に表示された画像(仮想空間)の中に入り込んだような体験をすることができる。
VRに関連する技術として、例えば特許文献1には、サーバと、教育者用コンピュータと、複数の学習者用コンピュータとをインターネットの如き回線で接続し、サーバから仮想3次元映像の人物映像及び背景映像を学習者に提供し、これを3次元の仮想現実環境として再生し、また教育者においては学習者と同一視点で、また学習者や教育者をコンピュータグラフィック映像と関連づけて表示出力する語学教育装置が開示されている。この特許文献1においては、教育者及び学習者にヘッドマウントディスプレイ及びマイク付ヘッドフォンを装着させることにより、集合型教室の3次元映像を再現し、臨場感のある雰囲気で学習させることとしている。
特開2004−61783号公報
最近では、VRをユーザに個別に体験させるだけでなく、同じ現実空間において複数のユーザに同時に体験させることにより、VRと共に場の雰囲気を共有させる試みも行われている。具体的には、現実のライブ会場でVRのコンサートを鑑賞させる、現実のスタジアムでVRのスポーツを観戦させる、不動産屋を訪れた家族にVRにより物件を内見させる、といった例が挙げられる。これらの場合、同伴者や同じ会場に居合わせたユーザ同士で場の雰囲気を共有することにより、VRのリアル感がさらに高められることが期待されている。
しかし、ユーザは、HMD等の個別の表示装置を装着している間、現実空間に対する視界を遮断されているため、同じ現実空間にいる他のユーザの位置や顔の向きをほとんど把握することができない。そのため、例えば複数のユーザが同じ仮想空間を同時に見ていたとしても、他のユーザが仮想空間内の何に注目しているかということを把握することが困難である。それにより、同じ現実空間にいながら、隣の席に座ったユーザ同士で会話が噛み合わない、隣のユーザが驚きの声を上げても何に驚いているのかわからず、話題を共有できないなど、他のユーザとのコミュニケーションが取り難いという問題が生じる。その結果、目の前で繰り広げられる仮想空間の光景と、現実空間における他人とのコミュニケーションとの間にギャップが生じ、かえってVRへの没入感を低減させてしまうおそれがある。
本発明は上記に鑑みてなされたものであって、HMD等の個別の表示装置によって画像を見ているユーザとの間で容易にコミュニケーションを取ることができる画像表示装置及び画像表示システムを提供することを目的とする。
上記課題を解決するために、本発明の一態様である画像表示装置は、複数の画像表示装置と、通信ネットワークを介して前記複数の画像表示装置に画像を表示させるためのデータを配信するサーバと、を備える画像表示システムにおいて用いられる画像表示装置であって、前記サーバから前記データを取得するデータ取得部と、前記データに基づいて画像を表示する表示部と、前記表示部における画像表示を制御する表示制御部と、当該画像表示装置の位置の変化及び向きを判定する位置及び向き判定部と、前記位置及び向き判定部による判定結果に基づいて当該画像表示装置の位置及び向きに関する情報を生成して送信する位置関連情報生成部と、前記複数の画像表示装置のうち当該画像表示装置以外の少なくとも1つの画像表示装置から送信された該少なくとも1つの画像表示装置の位置及び向きに関する情報を取得する位置関連情報取得部と、を備え、前記表示制御部は、前記データ取得部が取得した前記データに基づいて前記表示部に画像を表示させると共に、前記位置及び向き判定部による判定結果に基づき、当該画像表示装置の位置及び向きに応じて前記画像を変化させ、さらに、前記位置関連情報が取得した前記位置及び向きに関する情報に基づき、前記少なくとも1つの画像表示装置に表示されている画像に関する情報を前記表示部に表示させるものである。
上記画像表示装置において、前記表示制御部は、当該画像表示装置の位置及び向きに応じて変化するように表示される画像内の一部の領域に、前記少なくとも1つの画像表示装置に表示されている画像をそれぞれ表示させても良い。
上記画像表示装置において、前記表示制御部は、当該画像表示装置の位置及び向きに応じて変化するように表示される画像のうち、前記少なくとも1つの画像表示装置に表示されている画像に対応する領域に特定の色又はパターンを付して表示しても良い。
上記画像表示装置において、前記表示制御部は、当該画像表示装置の位置及び向きに応じて変化するように表示される画像に対し、前記少なくとも1つの画像表示装置に表示されている画像に対応する領域を示すオブジェクトを表示しても良い。
上記画像表示装置において、前記データは、前記画像表示装置において2次元の画像を表示するためのデータを含んでも良い。
上記画像表示装置において、前記データは、前記画像表示装置において3次元の仮想空間を再現するためのデータを含んでも良い。
上記画像表示装置において、前記データは、前記画像表示装置においてコンピュータグラフィックスを表示するためのモデリングデータを含んでも良い。
上記画像表示装置は、当該画像表示装置をユーザの頭部に装着するためのホルダーをさらに備えても良い。
本発明の別の態様である画像表示システムは、複数の画像表示装置と、通信ネットワークを介して前記複数の画像表示装置に画像表示をさせるためのデータを配信するサーバと、を備え、前記サーバは、前記データを記憶する記憶部と、前記複数の画像表示装置の各々に前記データを配信するデータ配信部と、を有し、前記複数の画像表示装置の各々は、前記サーバから前記データを取得するデータ取得部と、前記データに基づいて画像を表示する表示部と、前記表示部における画像表示を制御する表示制御部と、当該画像表示装置の位置の変化及び向きを判定する位置及び向き判定部と、前記位置及び向き判定部による判定結果に基づいて当該画像表示装置の位置及び向きに関する情報を生成して送信する位置関連情報生成部と、前記複数の画像表示装置のうち当該画像表示装置以外の少なくとも1つの画像表示装置から送信された該少なくとも1つの画像表示装置の位置及び向きに関する情報を取得する位置関連情報取得部と、を有し、前記表示制御部は、前記データ取得部が取得した前記データに基づいて前記表示部に画像を表示させると共に、前記位置及び向き判定部による判定結果に基づき、当該画像表示装置の位置及び向きに応じて前記画像を変化させ、さらに、前記位置関連情報が取得した前記位置及び向きに関する情報に基づき、前記少なくとも1つの画像表示装置に表示されている画像に関する情報を前記表示部に表示させるものである。
上記画像表示システムにおいて、前記サーバは、前記複数の画像表示装置を連携させるための設定情報を格納するデータベースをさらに有し、前記データ配信部は、前記設定情報に基づいて、前記複数の画像表示装置のうちの2つ以上の画像表示装置に対して前記データを同期配信し、前記2つ以上の画像表示装置の各々が有する前記位置関連情報生成部は、当該2つ以上の画像表示装置の間で前記位置及び向きに関する情報を送信し合っても良い。
上記画像表示システムにおいて、前記通信ネットワークを介して前記サーバ及び前記複数の画像表示装置のうちの少なくとも1つと接続された少なくとも1つの第2の画像表示装置をさらに備え、前記少なくとも1つの第2の画像表示装置の各々は、前記サーバから前記データを取得する第2のデータ取得部と、前記データに基づいて画像を表示する第2の表示部と、前記第2の表示部における画像表示を制御する第2の表示制御部と、前記複数の画像表示装置のうちの少なくとも1つの画像表示装置から送信された該少なくとも1つの画像表示装置の位置及び向きに関する情報を取得する第2の位置関連情報取得部と、を有し、前記第2の表示制御部は、前記第2のデータ取得部が取得した前記データに基づいて前記第2の表示部に画像を表示させると共に、前記第2の位置関連情報取得部が取得した前記位置及び向きに関する情報に基づき、該情報の送信元の画像表示装置に表示されている画像に関する情報を前記第2の表示部に表示させても良い。
本発明のさらに別の態様である画像表示システムは、少なくとも1つの第1の画像表示装置と、前記第1の画像表示装置と異なる少なくとも1つの第2の画像表示装置と、通信ネットワークを介して前記少なくとも第1及び第2の画像表示装置に画像表示をさせるためのデータを配信するサーバと、を備え、前記サーバは、前記データを記憶する記憶部と、前記少なくとも第1及び第2の画像表示装置の各々に前記データを配信するデータ配信部と、を有し、前記少なくとも1つの第1の画像表示装置は、前記サーバから前記データを取得する第1のデータ取得部と、前記データに基づいて画像を表示する第1の表示部と、前記第1の表示部における画像表示を制御する第1の表示制御部と、当該第1の画像表示装置の位置の変化及び向きを判定する位置及び向き判定部と、前記位置及び向き判定部による判定結果に基づいて当該第1の画像表示装置の位置及び向きに関する情報を生成して送信する位置関連情報生成部と、を有し、前記少なくとも1つの第2の画像表示装置は、前記サーバから前記データを取得する第2のデータ取得部と、前記データに基づいて画像を表示する第2の表示部と、前記第2の表示部における画像表示を制御する第2の表示制御部と、前記少なくとも1つの第1の画像表示装置から送信された前記位置及び向きに関する情報を取得する位置関連情報取得部と、を有し、前記第1の表示制御部は、前記第1のデータ取得部が取得した前記データに基づいて前記第1の表示部に画像を表示させると共に、前記位置及び向き判定部による判定結果に基づき、当該第1の画像表示装置の位置及び向きに応じて前記画像を変化させ、前記第2の表示制御部は、前記第2のデータ取得部が取得した前記データに基づいて前記第2の表示部に画像を表示させると共に、前記位置関連情報取得部が取得した前記位置及び向きに関する情報に基づき、前記第1の画像表示装置に表示されている画像に関する情報を前記第2の表示部に表示させるものである。
本発明によれば、画像表示装置に画像を表示すると共に、この画像に対し、当該画像表示装置とは別の画像表示装置から送信された位置及び向きに関する情報に基づき、別の画像表示装置において表示されている画像に関する情報を表示させるので、当該画像表示装置のユーザは、別の画像表示装置のユーザが認識している画像を把握することができる。従って、HMD等の個別の表示装置によって画像を見ているユーザとの間で容易にコミュニケーションを取ることが可能となる。
本発明の実施形態に係る画像表示装置の概略構成を示す模式図である。 図1に示すサーバの概略構成を示すブロック図である。 図1に示すVR表示装置の概略構成を示すブロック図である。 複数のユーザにVR表示装置を装着させた状態を示す模式図である。 図3に示す表示部に表示される画面を例示する模式図である。 図5に示す画像から再現される仮想空間を例示する模式図である。 図1に示す表示装置の概略構成を示すブロック図である。 図1に示すVR表示装置及びサーバの動作を示すフローチャートである。 図8に示す画像の表示処理の詳細を示すフローチャートである。 互いに連携された2つのVR表示装置の一方において再現される仮想空間の例を示す模式図である。 互いに連携された2つのVR表示装置の他方において再現される仮想空間の例を示す模式図である。 3つのVR表示装置を連携させる場合における画像の表示方法を例示する模式図である。 図1に示すVR表示装置及び表示装置における表示処理の詳細を示すフローチャートである。 図1に示す表示装置に表示される画面の例を示す模式図である。
以下、本発明の実施形態に係る表示装置について、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。
(実施形態)
図1は、本発明の一実施形態に係る画像表示システムの概略構成を示す模式図である。図1に示すように、本実施形態に係る画像表示システム1は、ユーザに視聴させる静止画又は動画(以下、これらをまとめてコンテンツという)を表示するための各種データを配信するサーバ10と、サーバ10から受信したデータをもとに画像を表示するバーチャルリアリティ(以下「VR」と記す)表示装置20a、20b、…及び表示装置30とを備える。なお、図1においては表示装置30を1つのみ示しているが、表示装置30を複数設けても良い。これらのサーバ10、複数のVR表示装置20、及び表示装置30は、通信ネットワークNを介して互いに接続されている。以下、複数のVR表示装置20a、20b、…を総称してVR表示装置20とも記す。また、VR表示装置20及び表示装置30を総称して表示端末ということもある。
通信ネットワークNとしては、例えばインターネット回線や電話回線、LAN、専用線、移動体通信網、WiFi(Wireless Fidelity)、ブルートゥース(登録商標)等の通信回線、又はこれらの組み合わせが用いられる。通信ネットワークNは、有線、無線、又はこれらの組み合わせのいずれであっても良い。
図2は、図1に示すサーバ10の概略構成を示すブロック図である。ここで、サーバ10は、必ずしも1台のコンピュータで構成する必要はなく、例えば、通信ネットワークNに接続された複数のコンピュータによってサーバ10を構成しても良い。図2に示すように、サーバ10は、通信部11と、記憶部12と、演算部13とを備える。
通信部11は、サーバ10を通信ネットワークNに接続し、通信ネットワークNに接続された他の機器との間で通信を行うインタフェースである。通信部11は、例えばソフトモデム、ケーブルモデム、無線モデム、ADSLモデム等を用いて構成される。
記憶部12は、例えばROMやRAMといった半導体メモリやハードディスク等のコンピュータ読取可能な記憶媒体であり、プログラム記憶部121と、コンテンツデータ記憶部122と、コンテンツデータベース(DB)123と、ユーザ情報データベース(DB)124とを含む。
プログラム記憶部121は、オペレーティングシステムプログラム及びドライバプログラムに加えて、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を格納する。具体的には、プログラム記憶部121は、複数のVR表示装置20や表示装置30に画像を表示させるための各種データを同期配信することにより、これらの表示端末の間でVRを同期して表示させる一連の動作を演算部13に実行させるためのプログラムを記憶している。
コンテンツデータ記憶部122は、立体視による3次元的な画像(仮想空間)を再現するVRや、360度の画角を有する動画などの種々のコンテンツをVR表示装置20や表示装置30に表示させるためのデータを記憶している。具体的には、2次元又は3次元の画像(静止画又は動画)を表示するための画像データ、コンピュータグラフィックス(以下「CG」と記す)を構成するためのモデリングデータ(例えばポリゴンデータ)、画像やCGと共に出力させる効果音等の音声データ等が挙げられる。ここで、ポリゴンデータとは、CGにおいて、三角形や四角形等の多角形の組み合わせにより物体を再現する際に用いられる要素を表すデータのことである。以下、VR表示装置20又は表示装置30におけるコンテンツの再生に用いられる画像データ、CG用のモデリングデータ、音声データ等を総称してコンテンツデータという。
コンテンツデータベース123は、コンテンツデータ記憶部122に記憶されているコンテンツデータを管理するための各種情報を格納する。具体的には、コンテンツを識別するための識別子や、コンテンツデータ記憶部122における各種コンテンツデータの記憶領域を示すアドレス等を格納している。
ユーザ情報データベース124は、当該画像表示システム1を利用するユーザに関する情報を格納する。具体的には、ユーザを識別するためのユーザID及び認証用のパスコード、ユーザが使用する表示端末を識別するための端末情報等を格納している。
また、ユーザ情報データベース124は、ユーザが使用する表示端末同士を連携させるための設定情報を格納する。ここで、連携とは、識別子が共通するコンテンツのコンテンツデータをサーバ10から同期して配信することにより、複数の表示端末間で同じ画像を同じタイミングで表示させると共に、画像を表示している間、複数の表示端末間で互いの位置や向き等に関する情報を共有させることである。なお、本明細書において、同じタイミング又は同時とは、コンテンツデータを配信する際に生じる遅延時間程度の誤差を含むものとする。ユーザ情報データベース124は、連携させる複数の端末装置の端末情報に対し、連携させる旨を示すフラグを付加することにより、これらの端末装置のグループ設定を行う。
これらのコンテンツデータベース123に格納される情報や、ユーザ情報データベース124に格納される情報は、サーバ10の管理者が、サーバ10を操作することにより、或いは別のコンピュータから通信ネットワークNを介してサーバ10にアクセスすることにより随時、追加・変更・削除することができる。また、表示端末同士を連携させるための設定情報については、VR表示装置20側から変更することも可能である。
演算部13は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部121に記憶された各種プログラムを読み込むことにより、サーバ10の各部を統括的に制御すると共に、コンテンツデータを各VR表示装置20及び表示装置30に配信するための各種制御を実行する。詳細には、演算部13は、端末情報取得部131と、連携設定部132と、データ配信部133とを有する。
端末情報取得部131は、表示端末(VR表示装置20、表示装置30)がサーバ10にアクセスしてきた際に、これらの各表示端末を識別するための端末情報を取得する。本実施形態においては、端末情報として、各表示端末に割り当てられたインターネットプロトコル(IP)アドレスを取得する。
連携設定部132は、ユーザ情報データベース124に格納された情報に基づいて、複数の表示端末を連携させるための設定を行う。詳細には、連携設定部132は、複数の表示端末から識別子が共通するコンテンツを要求された場合、これらの表示端末のうち、ユーザ情報データベース124において同じグループとして設定されている2つ以上の表示端末に対して互いの端末情報を送信する。
データ配信部133は、表示端末からコンテンツを要求された場合に、要求されたコンテンツに対応するコンテンツデータをコンテンツデータ記憶部122から読み出し、端末情報取得部131が取得した端末情報に基づいて、要求元の表示端末に配信する。なお、コンテンツデータの配信方式は、ストリーミング方式であっても良いし、ダウンロード方式であっても良く、ネットワークの状況に応じて適宜選択しても良い。
図3は、図1に示すVR表示装置20の概略構成を示すブロック図である。VR表示装置20は、サーバ10から配信されるコンテンツデータに基づいて画像を表示する画像表示装置であり、通信部21と、記憶部22と、入力部23と、表示部24と、音声出力部25と、動き検出部26と、演算部27とを備える。
図4は、一例として2人のユーザ2a、2bにVR表示装置20a、20bをそれぞれ装着させた様子を示す模式図である。VR表示装置20は、ヘッドマウントディスプレイとも呼ばれ、図4に示すように、ユーザ2a、2bの頭部に、ユーザの左右の眼を覆うように装着されて用いられる。VR表示装置20の内部には、ユーザの左右の眼に対応する位置に2つのレンズが配置され、これらのレンズの先に表示部24が配置されている。
図5は、表示部24に表示される画像を例示する模式図である。図6は、図5に示す画像から再現される仮想空間を例示する模式図である。仮想空間を再現する場合、図5に示すように、表示部24の画面は2つの領域24a、24bに分けられ、これらの領域24a、24bに、互いに視差が設けられた2つの画像がそれぞれ表示される。ユーザは、VR表示装置20に内蔵された2つのレンズを介して領域24a、24bを左右の眼でそれぞれ見ることにより、図6に示すような仮想空間を3次元的に認識することができる。
なお、VR表示装置20は、立体視による3次元画像の表示が可能な装置であるが、サーバ10からコンテンツデータとして2次元画像表示用のデータが配信された場合には、一般的な表示装置と同様に、2次元画像を表示部24に表示する。
再び図3を参照すると、通信部21は、VR表示装置20を通信ネットワークNに接続し、通信ネットワークNに接続された他の機器との間で通信を行うインタフェースである。通信部21は、例えばソフトモデム、ケーブルモデム、無線モデム、ADSLモデム等を用いて構成される。
記憶部22は、例えばROMやRAMといった半導体メモリ等のコンピュータ読取可能な記憶媒体である。記憶部22は、オペレーティングシステムプログラム及びドライバプログラムに加えて、サーバ10から配信されるコンテンツデータに基づいて画像を表示するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶するプログラム記憶部221を含む。なお、コンテンツデータがサーバ10からダウンロード方式で配信される場合には、コンテンツデータを記憶するコンテンツデータ記憶部を記憶部22に設けても良い。
入力部23は、例えば操作ボタン、スライドスイッチ、タッチセンサ等の入力デバイスであり、ユーザによる入力操作に応じた指示信号を演算部27に入力する。なお、VR表示装置20に対する入力操作は、入力部23を用いて行う他、VR表示装置20に直接又は通信ネットワークNを介して接続されたコンピュータ等により行っても良い。
表示部24は、例えば液晶又は有機EL(エレクトロルミネッセンス)によって形成された表示パネル及び駆動部を含むディスプレイであり、演算部27による制御の下で画像を表示する。
音声出力部25は、サーバ10から配信されるコンテンツデータに含まれる音声データに基づいて、効果音等を出力する。
動き検出部26は、例えばGPSセンサ、ジャイロセンサ、及び加速度センサ等を含み、VR表示装置20の動き、即ち位置の変化や向きを表す検出信号を出力する。
演算部27は、例えばCPUやGPUを用いて構成され、プログラム記憶部221に記憶されたプログラムを読み込むことにより、VR表示装置20の各部を統括的に制御すると共に、コンテンツの画像を表示するための各種演算処理を実行する。詳細には、演算部27は、コンテンツデータ取得部271と、位置及び向き判定部272と、CG構成部273と、連携判定部274と、位置関連情報生成部275と、位置関連情報取得部276と、表示制御部277とを有する。
コンテンツデータ取得部271は、入力部23に対する入力操作(又は、直接若しくは間接的に接続されたコンピュータ等からの入力操作)に従って、ユーザ所望のコンテンツに対応する識別子をサーバ10に送信することによりコンテンツデータを要求し、サーバ10から配信されるコンテンツデータを取得する。
位置及び向き判定部272は、動き検出部26から出力される検出信号に基づいて、VR表示装置20の位置の変化及び向きを判定する。詳細には、位置及び向き判定部272は、動き検出部26が検出した加速度の向き及び大きさ、並びに、角加速度の向き及び大きさに基づいて、VR表示装置20の変位及び向きを算出する。これにより、VR表示装置20の初期座標に対する相対座標及びVR表示装置20の向き(言い換えると、ユーザの位置や視線方向)を特定することができる。
CG構成部273は、サーバ10から配信されるコンテンツデータに含まれるモデリングデータ(例えばポリゴンデータ)及び位置及び向き判定部272による判定結果を用いて、ユーザの位置や視線方向に応じたCGを構成するための演算処理を行う。
連携判定部274は、当該VR表示装置20(例えばVR表示装置20a)と、通信ネットワークNを介して接続された他の表示端末(例えばVR表示装置20bや表示装置30)とを連携させるか否かを判定する。
位置関連情報生成部275は、位置及び向き判定部272による判定結果に基づいて、当該VR表示装置20(例えばVR表示装置20a)の位置及び向きに関する情報(以下、位置関連情報ともいう)を生成し、連携している他のVR表示装置20(例えばVR表示装置20b)や表示装置30に送信する。
位置関連情報取得部276は、連携している他のVR表示装置20から送信された位置関連情報を受信し、表示制御部277に入力する。
表示制御部277は、サーバ10から配信されるコンテンツデータに基づいて表示部24に画像を表示させると共に、位置及び向き判定部272による判定結果に基づいて、表示された画像を変化させるための制御を行う。詳細には、表示制御部277は、コンテンツデータに含まれる画像データに基づく画像に対し、CG構成部273が構成したCGを合成した合成画像を表示部24に表示させることにより仮想空間を再現する。また、表示制御部277は、位置及び向き判定部272による判定の結果、ユーザが移動したり、視線方向を変えたと判断される場合に、表示部24に表示させる画像のフレームの位置や角度等を変更したり、領域24a、24b(図5参照)間における視差を変化させることにより奥行き感を変更したりする。
表示制御部277は、ローカル画面制御部277a及び共有画面制御部277bを含む。ローカル画面制御部277aは、当該VR表示装置20(例えばVR表示装置20a)の位置及び向きの判定結果に基づいて、当該VR表示装置20のユーザ(例えばユーザ2a)の視点から仮想空間を見た場合の画像を表示する制御を行う。
他方、共有画面制御部277bは、当該VR表示装置20と連携している他のVR表示装置20(例えばVR表示装置20b)の位置及び向きの判定結果に基づいて、他のVR表示装置20のユーザ(例えばユーザ2b)の視点から同じ仮想空間を見た場合の画像を当該VR表示装置20(VR表示装置20a)の表示部24の一部に表示させる制御を行う。
なお、VR表示装置20としては、筐体内に図3に示す各機能部が収納され、且つ、VR表示装置20をユーザの頭部に装着するためのホルダーが一体化されたVR専用のヘッドマウントディスプレイを用いても良いし、汎用の表示装置を用いても良い。例えば、スマートフォン、携帯情報端末(PDA)、携帯型ゲーム装置等の汎用の表示装置をヘッドマウントディスプレイ用のホルダーに取り付けることによってVR表示装置20を構成することもできる。
図7は、図1に示す表示装置30の概略構成を示すブロック図である。表示装置30は、例えば、双方向の通信機能が設けられたテレビや、パブリックビューイングなどに用いられる大型の画面を有する第2の画像表示装置であり、サーバ10から配信されるコンテンツデータに基づいて画像を表示する。
図7に示すように、表示装置30は、通信部31と、記憶部32と、入力部33と、表示部34と、音声出力部35と、演算部36とを備える。
通信部31は、表示装置30を通信ネットワークNに接続し、サーバ10やその他の機器との間で通信を行うインタフェースである。
記憶部32は、例えばROMやRAMといった半導体メモリ等のコンピュータ読取可能な記憶媒体であり、オペレーティングシステムプログラム及びドライバプログラムに加えて、サーバ10から配信されるコンテンツデータに基づいて画像を表示するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶するプログラム記憶部321を含む。なお、コンテンツデータがサーバ10からダウンロード方式で配信される場合には、コンテンツデータを記憶するコンテンツデータ記憶部を記憶部32に設けても良い。
入力部33は、操作ボタンや、キーボード、マウス、タッチパネル等の入力デバイスであり、ユーザによる入力操作に応じた指示信号を演算部36に入力する。なお、表示装置30に対する入力操作は、入力部33を用いて行う他、表示装置30に直接又は通信ネットワークNを介して接続されたコンピュータ等により行っても良い。
表示部34は、例えば液晶ディスプレイや有機ELディスプレイである。
音声出力部35は、コンテンツデータに含まれる音声データに基づいて効果音等を出力するスピーカである。
演算部36は、例えばCPUやGPUを用いて構成され、プログラム記憶部321に記憶された各種プログラムを読み込むことにより、表示装置30の各部を統括的に制御する。詳細には、演算部36は、コンテンツデータ取得部361と、CG構成部362と、連携判定部363と、位置関連情報取得部364と、表示制御部365とを備える。
コンテンツデータ取得部361は、サーバ10から配信されるコンテンツデータを取得する。
CG構成部362は、サーバ10から配信されるコンテンツデータに含まれるモデリングデータ(例えばポリゴンデータ)を用いてCGを構成するための演算処理を行う。
連携判定部363は、当該表示装置30を、通信ネットワークNを介して接続された1つ以上のVR表示装置20と連携させるか否かを判定する。
位置関連情報取得部364は、連携しているVR表示装置20から送信された位置関連情報を受信し、表示制御部365に入力する。
表示制御部365は、サーバ10から配信されるコンテンツデータに基づいて画像を表示部34に表示させると共に、連携しているVR表示装置20から送信される位置関連情報に基づいて、表示部34に画像を表示させる。表示制御部365は、メイン画面制御部365a及び共有画面制御部365bを含む。
メイン画面制御部365aは、コンテンツデータに含まれる画像データに基づく画像に対し、CG構成部362が構成したCGを合成した合成画像を表示部34に表示させる。表示部34に表示させる画像は、当該表示装置30の視聴者に3D観覧用の偏光メガネをかけさせて立体視させることにより仮想空間を再現するための画像であっても良いし、この仮想空間を2次元平面又は曲面に投影した画像であっても良い。
共有画面制御部365bは、当該表示装置30と連携している1つ以上のVR表示装置20の位置及び向きの判定結果に基づいて、各VR表示装置20のユーザの視点から上記仮想空間を見た場合の画像を表示部34の一部に表示させる制御を行う。
次に、本実施形態に係る画像表示システム1の動作について説明する。図8は、画像表示システム1のうちサーバ10及びVR表示装置20の動作を示すフローチャートである。なお、図8においては、1つのVR表示装置20の動作のみを示しているが、複数のVR表示装置20の各々は図8に示すフローに従って並行して動作する。以下においては、VR表示装置20に3次元の仮想空間を再現するための画像を表示させる場合を説明するが、VR表示装置20に表示させる画像としては、2次元的な画像であっても良いし、動画又は静止画のいずれであっても良い。
まず、ステップS20において、VR表示装置20がサーバ10にアクセスし、ユーザID及びパスコードを送信すると、サーバ10は、受信したユーザID及びパスコードにより認証を行う(ステップS10)。この認証に成功すると、サーバ10は、アクセスしてきたVR端末装置20の端末情報(例えばIPアドレス)を取得する(ステップS11)。
ステップS21において、VR表示装置20は、サーバ10に対してコンテンツを要求する。詳細には、VR表示装置20は、ユーザによる操作入力に従い、ユーザ所望のコンテンツを識別するための識別子を含む要求信号を送信する。
ステップS12において、サーバ10は、コンテンツの要求信号を受信する。続くステップS13において、サーバ10は、複数のVR表示装置20から識別子が共通するコンテンツが要求されたか否かを判定する。
識別子が共通するコンテンツの要求があった場合(ステップS13:Yes)、サーバ10は、共通のコンテンツを要求した複数のVR表示装置20のうち、連携させるVR表示装置20に対して互いの端末情報を送信する(ステップS14)。即ち、各端末情報を、当該端末情報の取得元のVR表示装置20以外のVR表示装置20に送信する。例えば、図4に示すVR表示装置20a、20bを連携させる場合、サーバ10は、VR表示装置20aにVR表示装置20bの端末情報を送信し、VR表示装置20bにVR表示装置20aの端末情報を送信する。
ここで、連携させるVR表示装置20は、サーバ10において適宜設定することができる。一例として、識別子が共通するコンテンツを要求してきた複数のVR表示装置20を全て連携させることとしても良い。また、別の例として、識別子が共通するコンテンツを要求してきた複数のVR表示装置20のうち、ユーザ情報データベース124(図2参照)において予め同じグループに設定されているVR表示装置20を連携させることとしても良い。なお、後述するように、サーバ10において連携させる設定がなされていても、VR表示装置20側で連携を拒否することもできる。
他方、識別子が共通するコンテンツの要求がない場合(ステップS13:No)、サーバ10の動作はそのままステップS15に移行する。
VR表示装置20は、他のVR表示装置20の端末情報を受信すると(ステップS22:Yes)、当該他のVR表示装置20と連携するか否かを選択する(ステップS23)。この選択は、ユーザによる操作入力に従って行われる。
他のVR表示装置20との連携が選択された場合(ステップS23:Yes)、続くステップS24において、VR表示装置20は、当該他のVR表示装置20の端末情報を連携先として保持する。例えば、VR表示装置20aにおいてVR表示装置20bと連携することが選択された場合、VR表示装置20aはVR表示装置20bの端末情報を保持する。なお、VR表示装置20において、他のVR表示装置20との連携を拒否できない設定にしておいても良く、この場合、VR表示装置20の動作は、ステップS22の後ステップS24に直接移行する。
他方、ステップS22において他のVR表示装置20の端末情報を受信しなかった場合(ステップS22:No)、又は、ステップS23において他のVR表示装置20との連携が選択されなかった場合(ステップS23:No)、VR表示装置20の動作はそのままステップS25に移行する。
ステップS15において、サーバ10は、要求されたコンテンツのコンテンツデータを要求元のVR表示装置20に配信する。このとき、サーバ10は、連携された複数のVR表示装置20に対して共通のコンテンツデータを同期して配信する。これに応じて、VR表示装置20はコンテンツデータを受信し、受信したコンテンツデータに基づいて画像を表示する(ステップS25)。なお、ストリーミング方式でコンテンツデータが配信される場合、VR表示装置20においてはコンテンツデータの受信と該コンテンツデータに基づく画像表示とが並行して行われる。その後、サーバ10及びVR表示装置20の動作は終了する。
次に、ステップS25における表示処理について詳しく説明する。
ステップS23において連携が選択されなかった場合、即ち、VR表示装置20(例えばVR表示装置20a)が他のVR表示装置20(例えばVR表示装置20b)の端末情報を保持していない場合、これらのVR表示装置20(VR表示装置20a、20b)は、サーバ10から配信されるコンテンツデータに基づいて、単独で画像表示を行う。
それに対し、ステップS23において連携が選択された場合、VR表示装置20は、連携している他のVR表示装置20との間で情報を共有しながら画像表示を行う。図9は、この場合におけるVR表示装置20の動作を示すフローチャートである。以下においては、連携された2つのVR表示装置20をそれぞれ、VR表示装置(1)、VR表示装置(2)として説明する。なお、3つ以上のVR表示装置が連携している場合であっても、各VR表示装置の動作は、以下に説明するVR表示装置(1)又は(2)と同様である。
まず、VR表示装置(1)とVR表示装置(2)とが連携されると、VR表示装置(1)及びVR表示装置(2)は互いに、位置情報及び向き情報を送受信する(ステップS30、S40)。即ち、自身の位置情報及び向き情報を送信すると共に、相手の位置情報及び向き情報を受信する。ここでの位置情報は、仮想空間における位置を表すものであり、各VR表示装置(1)、(2)は、ユーザによる入力操作に従い、仮想空間に設定される座標軸における座標を、自身の初期座標として設定する。また、向き情報については、加速度センサ及びジャイロセンサ等を用いて取得することができる。VR表示装置(1)、(2)は、このようにして設定及び取得した位置情報及び向き情報を互いに送受信する。なお、位置情報及び向き情報の送受信は、VR表示装置(1)とVR表示装置(2)との間で通信ネットワークNを介して直接行っても良いし、サーバ10を介して間接的に行っても良い。
サーバ10からのコンテンツデータの配信が始まると、VR表示装置(1)、(2)は、受信したコンテンツデータに基づいて画像表示を開始する(ステップS31、S41)。図10は、VR表示装置(1)における画像表示により再現される仮想空間の例を示し、図11は、VR表示装置(2)における画像表示により再現される仮想空間の例を示している。
図10に示すように、VR表示装置(1)において再現される仮想空間v1の一部には、VR表示装置(2)において再現されている仮想空間v2の画像が表示されるウィンドウ(画像表示領域)w1が設けられている。初期状態において、このウィンドウw1に表示される画像は、サーバ10からVR表示装置(1)に配信されるコンテンツデータと、ステップS30においてVR表示装置(2)から受信した位置情報及び向き情報とに基づいて生成される。なお、ウィンドウw1に表示される画像は、仮想空間v2を縮小して3次元的に再現するための画像であっても良いし、仮想空間v2を平面に投影した2次元画像であっても良い。
また、図11に示すように、VR表示装置(2)において再現される仮想空間v2の一部には、VR表示装置(1)において再現されている仮想空間v1の画像が表示されるウィンドウ(画像表示領域)w2が設けられている。初期状態において、このウィンドウw2に表示される画像は、サーバ10からVR表示装置(2)に配信されるコンテンツデータと、ステップS40においてVR表示装置(1)から受信した位置情報及び向き情報とに基づいて生成される。なお、ウィンドウw2に表示される画像は、仮想空間v1を縮小して3次元的に再現するための画像であっても良いし、仮想空間v1を平面に投影した2次元画像であっても良い。
ステップS32において、VR表示装置(1)の位置及び向き判定部272(図3参照)は、自身の位置又は向きに変化があったか否かを判定する。即ち、VR表示装置(1)を装着したユーザが移動したり、視線方向を変化させたりしたか否かを判定する。
位置又は向きに変化があった場合(ステップS32:Yes)、VR表示装置(1)は、位置又は向きの変化に応じて、表示部24に表示する画像(ローカル画面)を変更して表示する(ステップS33)。詳細には、位置及び向き判定部272が、動き検出部26(例えば、GPSセンサ、加速度センサ、ジャイロセンサ等)が検出したVR表示装置(1)の現実空間における動きに関する情報(位置座標、加速度の向きや大きさ等)を仮想空間における動きに関する情報(同上)に換算し、ローカル画面制御部277aが、換算された仮想空間における動きに関する情報に応じて図10に示す仮想空間v1内のオブジェクトのフレームや向き、奥行き感等が変化するように、表示部24に表示させる画像を変化させる。
続くステップS34において、VR表示装置(1)は、ステップS32における判定結果に基づいて、VR表示装置(1)の位置及び向きに関する情報(位置関連情報)を生成してVR表示装置(2)に送信する(ステップS34)。詳細には、位置関連情報生成部275が、位置及び向き判定部272によって得られたVR表示装置(1)の仮想空間における動きに関する情報を位置関連情報としてVR表示装置(2)に送信する。他方、ステップS32において位置及び向きのいずれも変化していないと判定された場合(ステップS32:No)、VR表示装置(1)の動作はそのままステップS35に移行する。
VR表示装置(2)は、VR表示装置(1)から位置関連情報を受信すると(ステップS42:Yes)、受信した位置関連情報に基づいて、図11に示すウィンドウw2(共有画面)内の画像を変更して表示する(ステップS43)。変更後のウィンドウw2に表示される画像は、サーバ10からVR表示装置(2)に配信されるコンテンツデータと、VR表示装置(1)から送信される位置関連情報とに基づいて生成される。これにより、VR表示装置(1)を装着したユーザの移動や視線方向の変化が、ウィンドウw2に反映される。なお、ステップS42において位置関連情報を受信しない場合(ステップS42:No)、VR表示装置(2)の動作はそのままステップS44に移行する。
ステップS44において、VR表示装置(2)の位置及び向き判定部272は、自身の位置又は向きに変化があったか否かを判定する。即ち、VR表示装置(2)を装着したユーザが移動したり、視線方向を変化させたりしたか否かを判定する。位置又は向きに変化があった場合(ステップS44:Yes)、VR表示装置(2)は、位置又は向きの変化に応じて図11に示す仮想空間v2が変化するように、表示部24に表示する画像(ローカル画面)を変更して表示する(ステップS45)。なお、表示部24の変更表示動作の詳細は、ステップS33と同様である。
続くステップS46において、VR表示装置(2)は、ステップS44における判定結果に基づいて、VR表示装置(2)の位置関連情報をVR表示装置(1)に送信する(ステップS46)。なお、位置関連情報の送信動作の詳細は、ステップS34と同様である。また、ステップS44において位置及び向きのいずれも変化していないと判定された場合(ステップS44:No)、VR表示装置(2)の動作はそのままステップS47に移行する。
VR表示装置(1)は、VR表示装置(2)から位置関連情報を受信すると(ステップS35:Yes)、受信した位置関連情報に基づいて、図10に示すウィンドウw1(共有画面)内の画像を変更して表示する(ステップS36)。変更後のウィンドウw1に表示される画像は、サーバ10からVR表示装置(1)に配信されるコンテンツデータと、VR表示装置(2)から送信される位置関連情報とに基づいて生成される。これにより、VR表示装置(2)を装着したユーザの移動や視線方向の変化が、ウィンドウw1に反映される。なお、ステップS35において位置関連情報を受信しない場合(ステップS35:No)、VR表示装置(1)の動作はそのままステップS38に移行する。
サーバ10からのコンテンツデータの配信が終了すると(ステップS37:Yes、S47:Yes)、VR表示装置(1)、(2)は画像の表示を終了する(ステップS38、S48)。他方、サーバ10からのコンテンツデータの配信が終了しない場合(ステップS37:No、S47:No)、VR表示装置(1)、(2)の動作はそれぞれステップS32、S42に戻る。
ここで、上記実施形態においては、2つのVR表示装置(1)、(2)を連携させた場合を説明したが、3つ以上のVR表示装置を連携させる場合であっても同様にして画像を表示すれば良い。例えば図12は、3つのVR表示装置を連携させる場合における画像の表示方法を例示する模式図である。この場合、各VR表示装置において再現される仮想空間v3に、自身以外のVR表示装置において再現されている仮想空間の画像が表示されるウィンドウw3、w4を設ければ良い。
次に、VR表示装置20と表示装置30とを連携させる場合における画像の表示処理について説明する。図13は、VR表示装置20及び表示装置30における画像の表示処理の詳細を示すフローチャートである。ここで、図13においては、1つのVR表示装置20の動作のみを示しているが、複数のVR表示装置20が表示装置30と連携している場合であっても、図13に示すフローに従って各VR表示装置20が並行に動作する。なお、複数のVR表示装置20間では図9に示す動作が実行される。
画像表示に先立って、表示装置30は、図8に示すVR表示装置と同様にサーバ10にアクセスし、コンテンツを要求すると共に、連携するVR表示装置20の端末情報を取得する。
VR表示装置20と表示装置30とが連携されると、VR表示装置20は表示装置30に位置情報及び向き情報を送信する(ステップS50)。VR表示装置20が送信する位置情報及び向き情報の詳細は、ステップS30、S40と同様である。続くステップS51〜S54の動作は、図9に示すステップS31〜S34と同様である。
ステップS60において、表示装置30は、VR表示装置20から位置情報及び向き情報を受信する。続いてサーバ10からのコンテンツデータの配信が始まると、表示装置30は、受信したコンテンツデータに基づいて画像表示を開始する(ステップS61)。図14は、表示装置30に表示される画面の例を示す模式図である。図14に示すように、表示装置30に表示される画面の一部には、連携している1つ以上(図14においては4つ)のVR表示装置20において再現されている仮想空間の画像が表示されるウィンドウw5〜w8が設けられている。初期状態において、これらのウィンドウw5〜w8に表示される画像は、サーバ10から表示装置30に配信されるコンテンツデータと、連携している各VR表示装置20から送信される位置情報及び向き情報とに基づいて生成される。
表示装置30は、VR表示装置20から位置関連情報を受信すると(ステップS62:Yes)、受信した位置関連情報に基づいて、図14に示すウィンドウw5〜w8(共有画面)内の画像を変更して表示する(ステップS63)。変更後のウィンドウw5〜w8に表示される画像は、サーバ10から表示装置30に配信されるコンテンツデータと、VR表示装置20から送信される位置関連情報とに基づいて生成される。これにより、VR表示装置20を装着したユーザの移動や視線方向の変化が、ウィンドウw5〜w8に反映される。なお、ステップS62において位置関連情報を受信しない場合(ステップS62:No)、表示装置30の動作はそのままステップS64に移行する。
サーバ10からのコンテンツデータの配信が終了すると(ステップS55:Yes、ステップS64:Yes)、VR表示装置20及び表示装置30は画像の表示を終了する(ステップS56、S65)。他方、サーバ10からのコンテンツデータの配信が終了しない場合(ステップS55:No、ステップS64:No)、VR表示装置20及び表示装置30の動作はそれぞれステップS52、S62に戻る。
以上説明したように、本実施形態によれば、連携された複数のVR表示装置20の間で、それぞれのVR表示装置20において再現されている仮想空間の画像を表示し合うので、VR表示装置20を装着した各ユーザは、仮想空間において他のユーザが現在どこに視線を向けて何を見ているのかを把握することができる。従って、ユーザは、ヘッドマウントディスプレイにより現実空間に対する視界が遮断されている場合であっても、他のユーザがどこに視線を向けて何に着目しているかを把握することができ、お互いの状況を理解し、互いにコミュニケーションを取ることが可能となる。
また、本実施形態によれば、VR表示装置20と表示装置30とを連携させ、VR表示装置20において再現されている仮想空間の画像を表示装置30に表示するので、表示装置30の視聴者は、VR表示装置20を装着したユーザが現在どこに視線を向けて何を着目しているのかを把握することができる。
これにより、VR表示装置20を装着したユーザ同士による1対1のコミュニケーションや、複数のユーザ間でのコミュニケーションが可能となる。また、VR表示装置20を装着した1人又は複数のユーザと表示装置30を視聴する多数の視聴者とのコミュニケーションも可能となる。それにより、同じVRのコンテンツを鑑賞しているユーザ同士や、同じコンテンツを大画面等で鑑賞している視聴者との間で、場の雰囲気を共有し易くなり、一体感を高め、リアルな感覚を増加させることが可能となる。
また、本実施形態によれば、VR表示装置20同士の間や、VR表示装置20と表示装置30との間では、位置関連情報を送受信するだけなので、コンテンツデータそのものを送受信する場合と比較してデータ転送量を大幅に抑制することができ、共有画面(ウィンドウw1〜w8)のリアルタイムな表示が可能となる。
ここで、上記実施形態においては、VR表示装置20において、3次元の仮想空間を再現するための画像を表示する場合を説明したが、VR表示装置20において表示される画像はこれに限定されない。例えば、360度の画角を有する画像(動画又は静止画)の一部を表示部24に表示し、VR表示装置20の動きに応じて表示部24に表示される画像のフレームや角度を変更することとしても良い。
(変形例1)
上記実施形態においては、VR表示装置20及び表示装置30の画面内にウィンドウw1〜w8を設け、これらのウィンドウw1〜w8に、連携先のVR表示装置20において再現されている仮想空間の画像を表示することとした。しかし、これ以外の方法によって、連携先のVR表示装置20において再現されている仮想空間を示すこととしても良い。例えば、VR表示装置20aとVR表示装置20bとが連携している場合において、一方のVR表示装置20aにおいて再現されている仮想空間に対し、他方のVR表示装置20bから送信された位置関連情報に基づき、該VR表示装置20bにおいて再現されている仮想空間(言い換えると、ユーザが視線を向けている方向)の画像領域を特定の色に着色し、又は特定のパターンを付して表示しても良い。或いは、該画像領域を枠で囲んだり、該画像領域を矢印で指すなど、該画像領域を示すオブジェクトを表示しても良い。これにより、VR表示装置20a、20bのユーザはお互いに、相手が仮想空間内で何に着目しているかといった情報を共有することができる。
(変形例2)
上記実施形態においては、位置関連情報の送受信を、連携された表示端末同士(VR表示装置20同士、又は、VR表示装置20と表示装置30)の間で、通信ネットワークNを介して直接行うこととした。しかし、これらの表示端末間での位置関連情報の送受信を、サーバ10を介して行うこととしても良い。この場合、各表示端末は、自身の位置や向きに変化があったときに、位置関連情報をサーバ10に送信し、サーバ10は、受信した位置関連情報を、連携された表示端末のうち、位置関連情報の送信元の表示端末以外の表示端末に送信する。
(変形例3)
上記実施形態においては、サーバ10において複数の表示端末に対して予めグループ設定しておき、同じグループに設定された複数の表示端末から識別子が共通するコンテンツが要求された場合に、これらの表示端末を連携させることとした。しかし、複数の表示端末の連携方法はこれに限定されない。例えば、連携させる複数の表示端末を強制的に連携させるように、サーバ10において設定しておいても良い。一例として、連携させる表示端末のIPレンジを指定することにより、スポーツライブ会場などにおいて来場者に使用させる多数のVR表示装置20を一斉に連携させたり、VRによる不動産物件の内見サービスに訪れた家族連れに使用させる複数のVR表示装置20を随時連携させたりすることも可能である。
(変形例4)
上記実施形態においては、VR表示装置20の動き(位置及び向きの変化)を、VR表示装置20が内蔵する動き検出部26によって検出することとしたが、現実空間に配置されたカメラによってユーザの動きを検出するモーションキャプチャシステム(例えばKINECT(登録商標))を用いても良い。この場合、モーションキャプチャシステムによって検出されたユーザの現実空間における実際の動きを、仮想空間における位置情報や動き情報に反映させる。
(変形例5)
上記実施形態においては、サーバ10と、複数のVR表示装置20と、1つ以上の表示装置30とによって画像表示システム1を構成することとしたが、サーバ10と複数のVR表示装置20のみによって画像表示システムを構成しても良い。或いは、サーバ10と1つのVR表示装置20と表示装置30とによって画像表示システムを構成しても良い。この場合、VR表示装置20において位置関連情報取得部276を省略しても良い。
本発明は、上記実施形態並びに変形例1〜5に限定されるものではなく、上記実施形態並びに変形例1〜5に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、実施形態並びに変形例1〜5に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、実施形態並びに変形例1〜5に示した構成要素を適宜組み合わせて形成しても良い。
1 画像表示システム
2a、2b ユーザ
10 サーバ
11、21、31 通信部
12、22、32 記憶部
13、27、36 演算部
20、20a、20b VR表示装置
23、33 入力部
24、34 表示部
24a、24b 領域
25、35 音声出力部
26 動き検出部
30 表示装置
121、221、321 プログラム記憶部
122 コンテンツデータ記憶部
123 コンテンツデータベース(DB)
124 ユーザ情報データベース(DB)
131 端末情報取得部
132 連携設定部
133 データ配信部
271、361 コンテンツデータ取得部
272 位置及び向き判定部
273、364 CG構成部
274、363 連携判定部
275 位置関連情報生成部
276、364 位置関連情報取得部
277、365 表示制御部
277a ローカル画面制御部
277b、365b 共有画面制御部
365a メイン画面制御部

Claims (12)

  1. 複数の画像表示装置と、通信ネットワークを介して前記複数の画像表示装置に画像を表示させるためのデータを配信するサーバと、を備える画像表示システムにおいて用いられる画像表示装置であって、
    前記サーバから前記データを取得するデータ取得部と、
    前記データに基づいて画像を表示する表示部と、
    前記表示部における画像表示を制御する表示制御部と、
    当該画像表示装置の位置の変化及び向きを判定する位置及び向き判定部と、
    前記位置及び向き判定部による判定結果に基づいて当該画像表示装置の位置及び向きに関する情報を生成して送信する位置関連情報生成部と、
    前記複数の画像表示装置のうち当該画像表示装置以外の少なくとも1つの画像表示装置から送信された該少なくとも1つの画像表示装置の位置及び向きに関する情報を取得する位置関連情報取得部と、
    を備え、
    前記表示制御部は、前記データ取得部が取得した前記データに基づいて前記表示部に画像を表示させると共に、前記位置及び向き判定部による判定結果に基づき、当該画像表示装置の位置及び向きに応じて前記画像を変化させ、さらに、前記位置関連情報が取得した前記位置及び向きに関する情報に基づき、前記少なくとも1つの画像表示装置に表示されている画像に関する情報を前記表示部に表示させる、
    画像表示装置。
  2. 前記表示制御部は、当該画像表示装置の位置及び向きに応じて変化するように表示される画像内の一部の領域に、前記少なくとも1つの画像表示装置に表示されている画像をそれぞれ表示させる、請求項1に記載の画像表示装置。
  3. 前記表示制御部は、当該画像表示装置の位置及び向きに応じて変化するように表示される画像のうち、前記少なくとも1つの画像表示装置に表示されている画像に対応する領域に特定の色又はパターンを付して表示する、請求項1に記載の画像表示装置。
  4. 前記表示制御部は、当該画像表示装置の位置及び向きに応じて変化するように表示される画像に対し、前記少なくとも1つの画像表示装置に表示されている画像に対応する領域を示すオブジェクトを表示する、請求項1に記載の画像表示装置。
  5. 前記データは、前記画像表示装置において2次元の画像を表示するためのデータを含む、請求項1〜4のいずれか1項に記載の画像表示装置。
  6. 前記データは、前記画像表示装置において3次元の仮想空間を再現するためのデータを含む、請求項1〜4のいずれか1項に記載の画像表示装置。
  7. 前記データは、前記画像表示装置においてコンピュータグラフィックスを表示するためのモデリングデータを含む、請求項1〜6のいずれか1項に記載の画像表示装置。
  8. 当該画像表示装置をユーザの頭部に装着するためのホルダーをさらに備える、請求項1〜7のいずれか1項に記載の画像表示装置。
  9. 複数の画像表示装置と、
    通信ネットワークを介して前記複数の画像表示装置に画像表示をさせるためのデータを配信するサーバと、
    を備え、
    前記サーバは、
    前記データを記憶する記憶部と、
    前記複数の画像表示装置の各々に前記データを配信するデータ配信部と、
    を有し、
    前記複数の画像表示装置の各々は、
    前記サーバから前記データを取得するデータ取得部と、
    前記データに基づいて画像を表示する表示部と、
    前記表示部における画像表示を制御する表示制御部と、
    当該画像表示装置の位置の変化及び向きを判定する位置及び向き判定部と、
    前記位置及び向き判定部による判定結果に基づいて当該画像表示装置の位置及び向きに関する情報を生成して送信する位置関連情報生成部と、
    前記複数の画像表示装置のうち当該画像表示装置以外の少なくとも1つの画像表示装置から送信された該少なくとも1つの画像表示装置の位置及び向きに関する情報を取得する位置関連情報取得部と、
    を有し、
    前記表示制御部は、前記データ取得部が取得した前記データに基づいて前記表示部に画像を表示させると共に、前記位置及び向き判定部による判定結果に基づき、当該画像表示装置の位置及び向きに応じて前記画像を変化させ、さらに、前記位置関連情報が取得した前記位置及び向きに関する情報に基づき、前記少なくとも1つの画像表示装置に表示されている画像に関する情報を前記表示部に表示させる、
    画像表示システム。
  10. 前記サーバは、前記複数の画像表示装置を連携させるための設定情報を格納するデータベースをさらに有し、
    前記データ配信部は、前記設定情報に基づいて、前記複数の画像表示装置のうちの2つ以上の画像表示装置に対して前記データを同期配信し、
    前記2つ以上の画像表示装置の各々が有する前記位置関連情報生成部は、当該2つ以上の画像表示装置の間で前記位置及び向きに関する情報を送信し合う、
    請求項9に記載の画像表示システム。
  11. 前記通信ネットワークを介して前記サーバ及び前記複数の画像表示装置のうちの少なくとも1つと接続された少なくとも1つの第2の画像表示装置をさらに備え、
    前記少なくとも1つの第2の画像表示装置の各々は、
    前記サーバから前記データを取得する第2のデータ取得部と、
    前記データに基づいて画像を表示する第2の表示部と、
    前記第2の表示部における画像表示を制御する第2の表示制御部と、
    前記複数の画像表示装置のうちの少なくとも1つの画像表示装置から送信された該少なくとも1つの画像表示装置の位置及び向きに関する情報を取得する第2の位置関連情報取得部と、
    を有し、
    前記第2の表示制御部は、前記第2のデータ取得部が取得した前記データに基づいて前記第2の表示部に画像を表示させると共に、前記第2の位置関連情報取得部が取得した前記位置及び向きに関する情報に基づき、該情報の送信元の画像表示装置に表示されている画像に関する情報を前記第2の表示部に表示させる、
    請求項9又は10に記載の画像表示システム。
  12. 少なくとも1つの第1の画像表示装置と、
    前記第1の画像表示装置と異なる少なくとも1つの第2の画像表示装置と、
    通信ネットワークを介して前記少なくとも第1及び第2の画像表示装置に画像表示をさせるためのデータを配信するサーバと、
    を備え、
    前記サーバは、
    前記データを記憶する記憶部と、
    前記少なくとも第1及び第2の画像表示装置の各々に前記データを配信するデータ配信部と、
    を有し、
    前記少なくとも1つの第1の画像表示装置は、
    前記サーバから前記データを取得する第1のデータ取得部と、
    前記データに基づいて画像を表示する第1の表示部と、
    前記第1の表示部における画像表示を制御する第1の表示制御部と、
    当該第1の画像表示装置の位置の変化及び向きを判定する位置及び向き判定部と、
    前記位置及び向き判定部による判定結果に基づいて当該第1の画像表示装置の位置及び向きに関する情報を生成して送信する位置関連情報生成部と、
    を有し、
    前記少なくとも1つの第2の画像表示装置は、
    前記サーバから前記データを取得する第2のデータ取得部と、
    前記データに基づいて画像を表示する第2の表示部と、
    前記第2の表示部における画像表示を制御する第2の表示制御部と、
    前記少なくとも1つの第1の画像表示装置から送信された前記位置及び向きに関する情報を取得する位置関連情報取得部と、
    を有し、
    前記第1の表示制御部は、前記第1のデータ取得部が取得した前記データに基づいて前記第1の表示部に画像を表示させると共に、前記位置及び向き判定部による判定結果に基づき、当該第1の画像表示装置の位置及び向きに応じて前記画像を変化させ、
    前記第2の表示制御部は、前記第2のデータ取得部が取得した前記データに基づいて前記第2の表示部に画像を表示させると共に、前記位置関連情報取得部が取得した前記位置及び向きに関する情報に基づき、前記第1の画像表示装置に表示されている画像に関する情報を前記第2の表示部に表示させる、
    画像表示システム。



JP2018527690A 2016-07-15 2017-07-14 画像表示装置及び画像表示システム Active JP6400879B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016140751 2016-07-15
JP2016140751 2016-07-15
PCT/JP2017/025785 WO2018012628A1 (ja) 2016-07-15 2017-07-14 画像表示装置及び画像表示システム

Publications (2)

Publication Number Publication Date
JP6400879B2 JP6400879B2 (ja) 2018-10-03
JPWO2018012628A1 true JPWO2018012628A1 (ja) 2018-12-06

Family

ID=60952388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527690A Active JP6400879B2 (ja) 2016-07-15 2017-07-14 画像表示装置及び画像表示システム

Country Status (5)

Country Link
US (1) US10493360B2 (ja)
EP (1) EP3496044A4 (ja)
JP (1) JP6400879B2 (ja)
CN (1) CN109478342B (ja)
WO (1) WO2018012628A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180113109A (ko) * 2017-04-05 2018-10-15 삼성전자주식회사 전자 장치 및 전자 장치의 화면 표시 방법
US11455974B2 (en) 2018-02-06 2022-09-27 Sony Corporation Image processing device, image processing method, and image provision system for the display of viewpoint images of a shared environment
JP7057197B2 (ja) * 2018-04-12 2022-04-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7275480B2 (ja) * 2018-05-31 2023-05-18 凸版印刷株式会社 Vrにおける多人数同時操作システム、方法、およびプログラム
CN113168007B (zh) * 2018-09-25 2023-09-15 奇跃公司 用于增强现实的系统和方法
JP7553521B2 (ja) 2022-09-12 2024-09-18 本田技研工業株式会社 情報処理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149581A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 複数のユーザによる仮想空間共有システム
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
WO2006043473A1 (ja) * 2004-10-21 2006-04-27 Mediaseek Inc. 同期通信方法および同期通信装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US6514083B1 (en) * 1998-01-07 2003-02-04 Electric Planet, Inc. Method and apparatus for providing interactive karaoke entertainment
JP2004061783A (ja) 2002-07-29 2004-02-26 Fujitsu Ltd 語学教育装置
KR101591579B1 (ko) * 2011-03-29 2016-02-18 퀄컴 인코포레이티드 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
JP5372212B2 (ja) * 2012-05-25 2013-12-18 株式会社コナミデジタルエンタテインメント ゲームシステム、それに用いられる制御方法及びコンピュータプログラム
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
CN104007946B (zh) * 2014-05-12 2017-03-29 可牛网络技术(北京)有限公司 多个用户的显示画面的展示方法和装置
CN104168315B (zh) * 2014-08-08 2018-07-06 三星电子(中国)研发中心 一种全视角平滑的沉浸式显示方法和系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149581A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 複数のユーザによる仮想空間共有システム
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
WO2006043473A1 (ja) * 2004-10-21 2006-04-27 Mediaseek Inc. 同期通信方法および同期通信装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
""VR(仮想現実)で賃貸物件の内見ができる「VR賃貸TM」提供を開始"", [ONLINE], JPN7018003051, 14 June 2016 (2016-06-14), ISSN: 0003872732 *
小林稔, 外1名: ""「場」の通信を目指す仮想共有環境"", 画像ラボ, vol. 第13巻, 第12号, JPN6017030209, 1 December 2002 (2002-12-01), JP, pages 29 - 33, ISSN: 0003872731 *
根津禎: ""VRシステムが1人1台に ゲーム用HMDが起爆剤"", 日経エレクトロニクス, vol. 第1144号, JPN6017030211, 29 September 2014 (2014-09-29), JP, pages 28 - 35, ISSN: 0003872729 *
湯本貢司, 外2名: ""大規模仮想環境における共同注意を支援する視覚化手法の提案"", 電子情報通信学会技術研究報告, vol. 第108巻, 第226号, JPN6017030207, 25 September 2008 (2008-09-25), JP, pages 79 - 84, ISSN: 0003872730 *

Also Published As

Publication number Publication date
CN109478342B (zh) 2020-03-10
US20190143211A1 (en) 2019-05-16
WO2018012628A1 (ja) 2018-01-18
JP6400879B2 (ja) 2018-10-03
US10493360B2 (en) 2019-12-03
CN109478342A (zh) 2019-03-15
EP3496044A1 (en) 2019-06-12
EP3496044A4 (en) 2019-10-09

Similar Documents

Publication Publication Date Title
JP6400879B2 (ja) 画像表示装置及び画像表示システム
US11265603B2 (en) Information processing apparatus and method, display control apparatus and method, reproducing apparatus and method, and information processing system
US10515485B2 (en) Scanning display system in head-mounted display for virtual reality
RU2621644C2 (ru) Мир массового одновременного удаленного цифрового присутствия
US20200349751A1 (en) Presentation interface and immersion platform
US10359988B2 (en) Shared experience of virtual environments
US20230128659A1 (en) Three-Dimensional Modeling Inside a Virtual Video Conferencing Environment with a Navigable Avatar, and Applications Thereof
CN114236837A (zh) 用于显示交互式增强现实展示的系统、方法和介质
KR101839122B1 (ko) 다중 사용자의 현실 공간상 위치와 연동하는 다중 접속 가상공간 제공 시스템 및 다중 접속 가상공간에서 3d 가상현실 영상을 제공하는 방법
JP2017511615A (ja) 物理的場所間のビデオ対話
JP6739611B1 (ja) 授業システム、視聴端末、情報処理方法及びプログラム
JPWO2018225218A1 (ja) 情報処理装置および画像生成方法
US11900530B1 (en) Multi-user data presentation in AR/VR
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
KR20220160699A (ko) 내비게이션 가능한 아바타들이 있는 웹 기반 화상 회의 가상 환경 및 그 응용들
CN109996060B (zh) 一种虚拟现实影院系统及信息处理方法
KR101839118B1 (ko) 다중 사용자의 현실 공간상 위치와 연동하는 다중 접속 가상공간 제공 시스템
JP7465737B2 (ja) 授業システム、視聴端末、情報処理方法及びプログラム
TW202029779A (zh) 虛擬實境影像播放方法及使用其之程式
US20190012470A1 (en) Systems and methods for determining values of conditions experienced by a user, and using the values of the conditions to determine a value of a user permission to apply to the user
JP2020145654A (ja) 動画表示システム、情報処理装置および動画表示方法
US12101197B1 (en) Temporarily suspending spatial constraints
JP7560166B1 (ja) 仮想空間展示システム
WO2023233849A1 (ja) 情報処理装置、情報処理方法及び記録媒体
CN116069974A (zh) 一种虚拟现实设备及视频播放方法

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20180707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180707

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180707

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180905

R150 Certificate of patent or registration of utility model

Ref document number: 6400879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250