JP7275480B2 - Multiplayer Simultaneous Operation System, Method, and Program in VR - Google Patents

Multiplayer Simultaneous Operation System, Method, and Program in VR Download PDF

Info

Publication number
JP7275480B2
JP7275480B2 JP2018104829A JP2018104829A JP7275480B2 JP 7275480 B2 JP7275480 B2 JP 7275480B2 JP 2018104829 A JP2018104829 A JP 2018104829A JP 2018104829 A JP2018104829 A JP 2018104829A JP 7275480 B2 JP7275480 B2 JP 7275480B2
Authority
JP
Japan
Prior art keywords
information
viewpoint
virtual space
screen
tablet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018104829A
Other languages
Japanese (ja)
Other versions
JP2019211835A (en
Inventor
裕輔 竹原
克則 石川
友 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2018104829A priority Critical patent/JP7275480B2/en
Publication of JP2019211835A publication Critical patent/JP2019211835A/en
Application granted granted Critical
Publication of JP7275480B2 publication Critical patent/JP7275480B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、複数の者が同時に仮想空間内で各自の視点を動かしながらバーチャルリアリティ(VR)を体験することができる技術に関する。 The present invention relates to a technology that allows a plurality of people to simultaneously experience virtual reality (VR) while moving their viewpoints in a virtual space.

従来、巨大スクリーンやヘッドマウントディスプレイなどに映し出された3次元コンピュータグラフィックス(以下、3DCGとも言う)や実写による映像を見ることによって、それらの映像により表現される仮想空間内にあたかも実際にいるかのような感覚を得ることができるバーチャルリアリティ(以下、VRとも言う)の技術が開発されている。 Conventionally, by viewing three-dimensional computer graphics (hereinafter also referred to as 3DCG) or live-action images projected on a giant screen or head-mounted display, it is possible to feel as if one is actually in the virtual space represented by those images. A virtual reality (hereinafter also referred to as VR) technology has been developed that can provide such a feeling.

多数の者が巨大スクリーンに映し出された映像を見ることでVRを体験できる手法(以下、シアター型VRとも言う)では、VRを体験する者(以下、観客とも言う)たちは同一のスクリーンを見ている。そして、仮想空間内を観客たちに紹介する者(以下、ナビゲータとも言う)は、ゲームパッドなどのコントローラを操作して、レンダリングするための仮想空間内の視点の位置や向きを動かしている。 In a method in which a large number of people can experience VR by watching images projected on a huge screen (hereinafter also referred to as theater type VR), the people who experience VR (hereinafter also referred to as spectators) are watching the same screen. ing. A person who introduces the virtual space to the audience (hereinafter also referred to as a navigator) operates a controller such as a game pad to change the position and orientation of the viewpoint in the virtual space for rendering.

ところで、シアター型VRにおいて、ナビゲータがコントローラを操作するのではなく、観客にコントローラを操作させて仮想空間内を自由に移動する体験をさせることがある。観客は、コントローラを操作して、自分が行きたい場所へ仮想空間内の視点の位置を動かしたり、自分が見たい方向へ仮想空間内の視点の向きを動かしたりすることができる。 By the way, in theater-type VR, the controller is not operated by the navigator, but the audience is made to operate the controller and experience moving freely in the virtual space. The spectator can operate the controller to move the position of the viewpoint in the virtual space to the place he or she wants to go, or move the direction of the viewpoint in the virtual space to the direction in which the spectator wants to see.

しかしながら、観客が動かしている仮想空間内の視点に基づいてレンダリングされた映像は、巨大スクリーン(つまり、1つのスクリーン)上に映し出される。このように観客がコントローラを操作しているときに映像を映し出せるスクリーンが1つだけなので、観客たちは、1人ずつしかコントローラを操作することができない。そのため、すべての観客がコントローラの操作を体験するには時間がかかり、コントローラの操作を体験できる観客の人数に制限を設けなければならなかった。 However, images rendered based on the viewpoint in the virtual space that the spectator is moving are displayed on a giant screen (ie, one screen). Since there is only one screen on which images can be projected while the spectators are operating the controllers, the spectators can only operate the controllers one by one. Therefore, it takes time for all spectators to experience the operation of the controller, and the number of spectators who can experience the operation of the controller has to be limited.

そこで、本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、多数の観客が同時に仮想空間内で各自の視点の位置や向きを動かしながらVRを体験することができるシステム、方法、およびプログラムを提供することにある。 Therefore, the present invention has been made in view of such problems, and its purpose is to allow a large number of spectators to experience VR while simultaneously moving the positions and directions of their respective viewpoints in a virtual space. It is to provide a system, method, and program capable of

このような目的を達成するために、本発明の第1の態様は、装置である。この装置は、第1の操作装置から、仮想空間内の第1の視点の位置および向きの少なくとも一方の情報を取得する第1の視点取得部と、第2の操作装置から、仮想空間内の第2の視点の位置および向きの少なくとも一方の情報を取得する第2の視点取得部と、前記第1の視点についての情報の少なくとも一部に基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部に基づいてレンダリングされた映像の上に重畳して表示する、レンダリング部と、を備える。 To achieve these ends, a first aspect of the invention is an apparatus. This device has a first viewpoint acquisition unit that acquires at least one of information on the position and orientation of a first viewpoint in the virtual space from the first operation device; a second viewpoint acquisition unit that acquires information on at least one of a position and an orientation of a second viewpoint; and an image rendered based on at least part of the information about the first viewpoint; and a rendering unit that superimposes and displays an image rendered based on at least part of the information about.

本発明の第2の態様は、方法である。この方法は、第2の操作装置から、第2の表示装置のための仮想空間内の第2の視点の位置および向きの少なくとも一方の情報を取得するステップと、第1の表示装置のための仮想空間内の第1の視点の位置および向きの少なくとも一方の情報の少なくとも一部に基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部に基づいてレンダリングされた映像の上に重畳して、前記第2の表示装置に表示するステップと、を含む。 A second aspect of the invention is a method. This method comprises the steps of: acquiring information on at least one of the position and orientation of a second viewpoint in virtual space for the second display device from the second operating device; an image rendered based on at least part of information about at least one of the position and orientation of a first viewpoint in virtual space, and an image rendered based on at least part of information about the second viewpoint superimposed thereon and displayed on the second display device.

本発明の第3の態様は、プログラムである。このプログラムは、コンピュータに第2の態様の方法を実行させるプログラムである。 A third aspect of the present invention is a program. This program is a program that causes a computer to execute the method of the second aspect.

本発明によれば、各観客は、各観客が所持するタブレット上で、各観客が動かしている仮想空間内の視点の位置や向きに基づいてレンダリングされた映像を見ることによって、VRを体験することができる。 According to the present invention, each spectator experiences VR by viewing images rendered on a tablet possessed by each spectator based on the position and orientation of the viewpoint in the virtual space being moved by each spectator. be able to.

本発明の一実施形態にかかる多人数同時操作装置を含む全体の概要図である。1 is an overall schematic diagram including a multi-person simultaneous operation device according to an embodiment of the present invention; FIG. 本発明の一実施形態にかかる多人数同時操作装置の機能ブロック図である。1 is a functional block diagram of a multi-person simultaneous operation device according to an embodiment of the present invention; FIG. 本発明の一実施形態にかかる多人数同時操作装置のスクリーンに表示される映像の例である。It is an example of an image displayed on the screen of the multi-person simultaneous operation device according to one embodiment of the present invention. 本発明の一実施形態にかかる多人数同時操作装置における写真撮影の処理の流れを示すシーケンス図である。FIG. 4 is a sequence diagram showing the flow of photographing processing in the multi-person simultaneous operation device according to the embodiment of the present invention; 本発明の一実施形態にかかる多人数同時操作装置における映像中継の処理の流れを示すシーケンス図である。FIG. 5 is a sequence diagram showing the flow of video relay processing in the multi-user simultaneous operation device according to the embodiment of the present invention; 本発明の一実施形態にかかる多人数同時操作装置におけるドローンアイコンの表示の処理の流れを示すシーケンス図である。FIG. 10 is a sequence diagram showing the flow of drone icon display processing in the multi-person simultaneous operation device according to the embodiment of the present invention;

最初に、本明細書で利用する用語について説明する。「仮想空間」とは、巨大スクリーン上などに映し出された映像により表現される仮想の空間である。「レンダリング」とは、仮想空間内の視点(仮想のカメラとも言う)の位置および向きと、仮想空間内の光源の情報と、仮想空間内のオブジェクトの情報とに基づいて、画像を作り出すことを言う。つまり、仮想空間内に配置された仮想のカメラが撮影する画像がレンダリングされる。また、本明細書において、「画像」は、「静止画像」と「映像(動画像とも言う)」との両方を含む。 First, terms used in this specification will be explained. A “virtual space” is a virtual space represented by an image projected on a giant screen or the like. "Rendering" refers to creating an image based on the position and orientation of a viewpoint (also called a virtual camera) in virtual space, light source information in virtual space, and object information in virtual space. To tell. That is, an image captured by a virtual camera placed in the virtual space is rendered. Also, in this specification, "image" includes both "still image" and "video (also referred to as moving image)".

以下、図面を参照しながら、本発明の実施形態について詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態にかかる多人数同時操作装置100を含む全体の概要図である。全体の概要図には、多人数同時操作装置100、観客たちが見る1つのスクリーン111、ナビゲータが操作するコントローラ112、観客たちが各々に1台ずつ所持する複数のタブレット120が含まれている。なお、スクリーン111とコントローラ112とを併せて、多人数観賞用装置とも呼ぶ。また、タブレット120を個人観賞用装置とも呼ぶ。また、多人数同時操作装置100と、スクリーン111と、コントローラ112と、タブレット120とを併せて、多人数同時操作システムとも呼ぶ。多人数同時操作装置100は、複数の観客が同時に仮想空間内で各自の視点の位置や向きを動かしながらVRを体験できるようにするための装置である。具体的には、多人数同時操作装置100は、コントローラ112やタブレット120から取得した仮想空間内の視点の位置や向きの情報に基づいてレンダリングして、レンダリングした画像を、スクリーン111上に投影するためのプロジェクタ(図示せず)へ送ったり、タブレット120へ送信したりことができる(後述するように、タブレット120がレンダリングするようにすることもできる)。後で、図2を参照しながら、多人数同時操作装置100の詳細を説明する。以下、スクリーン111、コントローラ112、タブレット120の詳細を説明する。 FIG. 1 is an overall schematic diagram including a multi-person simultaneous operation device 100 according to one embodiment of the present invention. The overall schematic diagram includes a multi-person simultaneous operation device 100, one screen 111 viewed by spectators, a controller 112 operated by a navigator, and a plurality of tablets 120 held by each spectator. The screen 111 and the controller 112 are collectively called a multi-person viewing device. The tablet 120 is also called a personal viewing device. The multi-person simultaneous operation device 100, the screen 111, the controller 112, and the tablet 120 are collectively referred to as a multi-person simultaneous operation system. The multi-person simultaneous operation device 100 is a device that allows a plurality of spectators to simultaneously experience VR while moving the positions and orientations of their respective viewpoints in a virtual space. Specifically, the multi-user simultaneous operation device 100 performs rendering based on information about the position and orientation of the viewpoint in the virtual space acquired from the controller 112 and the tablet 120, and projects the rendered image on the screen 111. , or to the tablet 120 (which can also be rendered by the tablet 120, as described below). Details of the multi-person simultaneous operation device 100 will be described later with reference to FIG. Details of the screen 111, the controller 112, and the tablet 120 will be described below.

なお、本発明では、タブレット120がレンダリングするようにしてもよいし、多人数同時操作装置100がレンダリングするようにしてもよい。 In the present invention, rendering may be performed by the tablet 120, or rendering may be performed by the multi-user simultaneous operation device 100. FIG.

スクリーン(メインスクリーン)111は、多人数同時操作装置100が生成したVRのための映像(つまり、多人数同時操作装置100がレンダリングした画像)を映し出すための表示装置である。例えば、観客席にいる観客たちが、正面に設置された1つの巨大なスクリーン111を見ることによって、VRを体験することができる。例えば、スクリーン111は、プロジェクタスクリーンである。つまり、プロジェクタ(図示せず)が、多人数同時操作装置100から映像を取得して、その映像をスクリーン111上に投影する。なお、スクリーン111は、ディスプレイ、モニタなどの任意の表示装置とすることができる。 A screen (main screen) 111 is a display device for displaying video for VR generated by the multi-user simultaneous operating device 100 (ie, an image rendered by the multi-user simultaneous operating device 100). For example, spectators in the audience seats can experience VR by looking at one huge screen 111 installed in front. For example, screen 111 is a projector screen. That is, a projector (not shown) acquires an image from the multi-user simultaneous operation device 100 and projects the image on the screen 111 . Note that the screen 111 can be any display device such as a display or a monitor.

コントローラ112は、多人数同時操作装置100に対して、仮想空間内の視点の位置および向きの少なくとも一方を指示するための操作装置である。例えば、ナビゲータが、コントローラ112を操作して、スクリーン111上に映し出される映像をレンダリングするための仮想空間内の視点の位置および向きの少なくとも一方を動かすことができる。コントローラ112は、ナビゲータによって入力された視点の位置および向きの少なくとも一方の情報を、無線通信などを介して多人数同時操作装置100へ送ることができる。例えば、コントローラ112は、ゲームパッドである。なお、コントローラ112は、マウス、キーボードなどの任意の操作装置とすることができる。あるいは、コントローラ112は、以下に説明するようなタブレットとすることができる。 The controller 112 is an operation device for instructing the multi-person simultaneous operation device 100 at least one of the position and orientation of the viewpoint in the virtual space. For example, a navigator can manipulate the controller 112 to move the position and/or orientation of a viewpoint in virtual space for rendering an image projected on the screen 111 . The controller 112 can send information on at least one of the position and direction of the viewpoint input by the navigator to the multi-user simultaneous operation device 100 via wireless communication or the like. For example, controller 112 is a gamepad. Note that the controller 112 can be any operating device such as a mouse and a keyboard. Alternatively, controller 112 can be a tablet as described below.

タブレット(セカンドスクリーン)120は、タブレット120が生成したVRのための映像(つまり、タブレット120自身がレンダリングした画像)または多人数同時操作装置100が生成したVRのための映像(つまり、多人数同時操作装置100がレンダリングした画像)を映し出す表示装置の機能と、タブレット120自身に対してまたは多人数同時操作装置100に対して視点の位置および向きの少なくとも一方を指示する操作装置の機能とを有するコンピュータである。例えば、観客たちは、ナビゲータなどから配布されたタブレット120を利用することができる。タブレット120は、観客によってタブレット120に入力された視点の位置および向きの少なくとも一方の情報に基づいてタブレット120自身がレンダリングした画像を、タブレット120の画面上に表示することができる。あるいは、タブレット120は、無線通信などを介して多人数同時操作装置100から、多人数同時操作装置100がレンダリングした画像を受信して、その画像をタブレット120の画面上に表示することができる。また、タブレット120は、観客によって入力された視点の位置および向き少なくとも一方の情報を、無線通信などを介して多人数同時操作装置100へ送信することができる。例えば、観客は、タブレット120の画面上に表示されるGUI(グラフィカルユーザインタフェース)によるコントローラを操作したり、タブレット120に内蔵された加速度センサやジャイロスコープを用いたり(つまり、タブレット120自体を動かしたり)することによって、タブレット120の画面上に映し出される映像をレンダリングするための仮想空間内の視点の位置および向きを動かすことができる。なお、タブレット120は、ヘッドマウントディスプレイとすることができる。ヘッドマウントディスプレイは、両眼、単眼、非透過型、透過型などの任意のヘッドマウントディスプレイであってよい。 The tablet (second screen) 120 displays an image for VR generated by the tablet 120 (that is, an image rendered by the tablet 120 itself) or an image for VR generated by the multi-user simultaneous operation device 100 (that is, a multi-user simultaneous display). and an operating device function of instructing at least one of the viewpoint position and orientation to the tablet 120 itself or to the multi-user simultaneous operating device 100. It's a computer. For example, spectators can use tablets 120 distributed by navigators or the like. The tablet 120 can display on the screen of the tablet 120 an image rendered by the tablet 120 based on information on at least one of the viewpoint position and orientation input to the tablet 120 by the spectator. Alternatively, the tablet 120 can receive an image rendered by the multi-user simultaneous manipulation device 100 from the multi-user simultaneous manipulation device 100 via wireless communication or the like, and display the image on the screen of the tablet 120 . In addition, the tablet 120 can transmit information on at least one of the viewpoint position and orientation input by the audience to the multi-user simultaneous operation device 100 via wireless communication or the like. For example, the spectator operates a controller using a GUI (graphical user interface) displayed on the screen of the tablet 120, uses an acceleration sensor or gyroscope built in the tablet 120 (that is, moves the tablet 120 itself). ), the position and orientation of the viewpoint in the virtual space for rendering the image projected on the screen of the tablet 120 can be changed. Note that the tablet 120 can be a head-mounted display. The head-mounted display may be any head-mounted display such as binocular, monocular, non-transmissive, and transmissive.

図2は、本発明の一実施形態にかかる多人数同時操作装置の機能ブロック図である。多人数同時操作装置100は、メインスクリーン視点取得部201、セカンドスクリーン視点取得部202、メインスクリーンレンダリング部203、セカンドスクリーンレンダリング部204、写真撮影部205、写真表示部206、映像表示部207、ドローン表示部208、撮影情報格納部209、写真格納部210を含む。多人数同時操作装置100は、プロセッサおよびメモリを含む1または複数のコンピュータである。また、多人数同時操作装置100は、メインスクリーン視点取得部201、セカンドスクリーン視点取得部202、メインスクリーンレンダリング部203、セカンドスクリーンレンダリング部204、写真撮影部205、写真表示部206、映像表示部207、ドローン表示部208を動作させるためのプログラム、または、後述する処理フローを実行するためのプログラム、を格納した記憶媒体を含む。 FIG. 2 is a functional block diagram of a multi-person simultaneous operation device according to one embodiment of the present invention. The multi-person simultaneous operation device 100 includes a main screen viewpoint acquisition unit 201, a second screen viewpoint acquisition unit 202, a main screen rendering unit 203, a second screen rendering unit 204, a photographing unit 205, a photograph display unit 206, an image display unit 207, and a drone. It includes a display unit 208 , a shooting information storage unit 209 and a photo storage unit 210 . The multi-manipulator 100 is one or more computers including processors and memory. The multi-person simultaneous operation device 100 also includes a main screen viewpoint acquisition unit 201 , a second screen viewpoint acquisition unit 202 , a main screen rendering unit 203 , a second screen rendering unit 204 , a photographing unit 205 , a photograph display unit 206 , and an image display unit 207 . , a storage medium storing a program for operating the drone display unit 208 or a program for executing a processing flow to be described later.

メインスクリーン視点取得部201は、コントローラ112から、ナビゲータによって入力された視点の位置および向きの少なくとも一方の情報を取得することができる。また、メインスクリーン視点取得部201は、コントローラ112から、ナビゲータによって入力された仮想空間内の状況(例えば、照明、時刻、天候など)を示す視点以外の情報を取得することができる。つまり、ナビゲータは、コントローラ112を用いて、仮想空間内の状況を変更することができる。メインスクリーン視点取得部201は、取得した情報をメモリ(図示せず)に格納することができる。 The main screen viewpoint acquisition unit 201 can acquire information on at least one of the position and direction of the viewpoint input by the navigator from the controller 112 . Also, the main screen viewpoint acquisition unit 201 can acquire information other than the viewpoint indicating the situation in the virtual space (for example, lighting, time, weather, etc.) input by the navigator from the controller 112 . In other words, the navigator can use the controller 112 to change the situation in the virtual space. The main screen viewpoint acquisition unit 201 can store the acquired information in a memory (not shown).

セカンドスクリーン視点取得部202は、タブレット120から、観客によって入力された視点の位置および向きの少なくとも一方の情報を取得することができる。また、セカンドスクリーン視点取得部202は、タブレット120から、観客によって入力された仮想空間内の状況(例えば、照明、時刻、天候など)を示す視点以外の情報を取得することができる。つまり、観客は、タブレット120を用いて、仮想空間内の状況を変更することができる。セカンドスクリーン視点取得部202は、取得した情報をメモリ(図示せず)に格納することができる。 The second screen viewpoint acquisition unit 202 can acquire information on at least one of the position and orientation of the viewpoint input by the audience from the tablet 120 . Also, the second screen viewpoint acquisition unit 202 can acquire information other than the viewpoint indicating the situation in the virtual space (for example, lighting, time, weather, etc.) input by the audience from the tablet 120 . In other words, the audience can use the tablet 120 to change the situation in the virtual space. The second screen viewpoint acquisition unit 202 can store the acquired information in a memory (not shown).

メインスクリーンレンダリング部203は、メインスクリーン視点取得部201が取得した視点の位置および向きの情報と、仮想空間内の視点以外の情報(例えば、照明、時刻、天候など)とに基づいて画像を作り出し(つまり、レンダリングする)、VRのための映像を生成することができる。メインスクリーンレンダリング部203は、生成したVRのための映像を、例えば、プロジェクタへ送ることができる。そして、プロジェクタが、メインスクリーンレンダリング部203から取得した映像をスクリーン111上に投影する。なお、メインスクリーンレンダリング部203は、取得した視点の位置および向きの情報の両方を使用してもよいし、一方のみを使用してもよい。 The main screen rendering unit 203 creates an image based on the viewpoint position and orientation information acquired by the main screen viewpoint acquisition unit 201 and information other than the viewpoint in the virtual space (eg, lighting, time, weather, etc.). (i.e., render) to generate images for VR. The main screen rendering unit 203 can send the generated video for VR to, for example, a projector. Then, the projector projects the image acquired from the main screen rendering unit 203 onto the screen 111 . It should be noted that the main screen rendering unit 203 may use both of the acquired viewpoint position and orientation information, or may use only one of them.

セカンドスクリーンレンダリング部204は、セカンドスクリーン視点取得部202が取得した視点の位置および向きの情報と、仮想空間内の視点以外の情報(例えば、照明、時刻、天候など)とに基づいて画像を作り出し(つまり、レンダリングする)、VRのための映像を生成することができる。セカンドスクリーンレンダリング部204は、生成したVRのための映像を、タブレット120へ送信することができる。前述したように、タブレット120がレンダリングするようにすることもでき、その場合は、セカンドスクリーンレンダリング部204はレンダリングする必要がない。なお、セカンドスクリーンレンダリング部204は、取得した視点の位置および向きの情報の両方を使用してもよいし、一方のみを使用してもよい。 The second screen rendering unit 204 creates an image based on the viewpoint position and orientation information acquired by the second screen viewpoint acquisition unit 202 and information other than the viewpoint in the virtual space (for example, lighting, time, weather, etc.). (i.e., render) to generate images for VR. The second screen rendering unit 204 can transmit the generated video for VR to the tablet 120 . As noted above, tablet 120 may render, in which case second screen renderer 204 need not render. It should be noted that the second screen rendering unit 204 may use both the obtained viewpoint position and orientation information, or may use only one of them.

ここで、メインスクリーン(スクリーン111)に映し出される映像により表現される仮想空間と、セカンドスクリーン(タブレット120)に映し出される映像により表現される仮想空間との関係について説明する。メインスクリーン(スクリーン111)に映し出される映像により表現される仮想空間とセカンドスクリーン(タブレット120)に映し出される映像により表現される仮想空間は、同一の空間を表している。例えば、ナビゲータがメインスクリーン(スクリーン111)上で仮想空間内を観客たちに紹介している途中で、その時にメインスクリーン(スクリーン111)上で映し出されている仮想空間と同一の空間を同一の状況(例えば、照明、時刻、天候など)でセカンドスクリーン(タブレット120)上にも映し出すようにすることができる。そのため、観客は、メインスクリーン(スクリーン111)上ではナビゲータが動かす視点に基づいて仮想空間を見ることができ、かつ、セカンドスクリーン(タブレット120)上では、メインスクリーン(スクリーン111)と同一の仮想空間を、観客自身が動かす視点に基づいて見ることができる。つまり、観客は、メインスクリーン(スクリーン111)で見ていた仮想空間内を自由に移動する体験をすることができる。 Here, the relationship between the virtual space represented by the image projected on the main screen (screen 111) and the virtual space represented by the image projected on the second screen (tablet 120) will be described. The virtual space represented by the image projected on the main screen (screen 111) and the virtual space represented by the image projected on the second screen (tablet 120) represent the same space. For example, while the navigator is introducing the inside of the virtual space to the audience on the main screen (screen 111), the same space as the virtual space projected on the main screen (screen 111) at that time is displayed in the same situation. (eg, lighting, time of day, weather, etc.) can also be projected on the second screen (tablet 120). Therefore, on the main screen (screen 111), the audience can see the virtual space based on the viewpoint moved by the navigator, and on the second screen (tablet 120), the same virtual space as the main screen (screen 111) can be viewed. can be seen based on the viewpoint that the spectator himself moves. In other words, the audience can experience moving freely in the virtual space viewed on the main screen (screen 111).

図2に戻る。写真撮影部205は、観客にタブレット120で仮想空間内の写真を撮影させることができる。すなわち、現実の空間内の光景を撮影するのではなく、仮想空間内の光景を撮影することができる。具体的には、写真撮影部205は、観客がセカンドスクリーン(タブレット120)で仮想空間内を自由に移動する体験をしているときに、観客が希望する視点から見た仮想空間内の光景をスナップ写真として撮影することができる。 Return to FIG. The photographing unit 205 can allow the audience to photograph the virtual space with the tablet 120 . That is, it is possible to shoot a scene in a virtual space instead of shooting a scene in a real space. Specifically, the photographing unit 205 captures the scene in the virtual space seen from the viewpoint desired by the spectator while the spectator experiences moving freely in the virtual space on the second screen (tablet 120). It can be taken as a snapshot.

<撮影情報の蓄積>
写真撮影部205は、タブレット120から、仮想空間内の写真を撮影するよう求める指示を受信することができる。例えば、観客は、タブレット120の画面上に表示されるシャッターボタンを押下する。そうすると、タブレット120は、写真撮影部205へ、仮想空間内の写真を撮影するよう求める指示を送信することができる。また、写真撮影部205は、仮想空間内の写真を撮影するよう求める指示を受信した時にタブレット120に映し出されている映像をレンダリングするための仮想空間内の視点の位置および向きの少なくとも一方の情報(つまり、セカンドスクリーン視点取得部202がタブレット120から取得した、その時点での視点の位置および向きの少なくとも一方の情報)を、撮影情報格納部209に格納することができる。また、写真撮影部205は、仮想空間内の写真を撮影するよう求める指示を受信した時にタブレット120に映し出されている映像をレンダリングするための仮想空間の視点以外の情報(つまり、セカンドスクリーン視点取得部202がタブレット120から取得した、その時点での仮想空間の視点以外の情報)を、撮影情報格納部209に格納することができる。例えば、レンダリングするための仮想空間の視点以外の情報とは、仮想空間内の照明、時刻、天候といった光源やオブジェクトに影響を与える情報である。
<Accumulation of shooting information>
The photographing unit 205 can receive an instruction from the tablet 120 to take a photograph in the virtual space. For example, the spectator presses a shutter button displayed on the screen of tablet 120 . Then, tablet 120 can transmit an instruction to take a picture of the virtual space to photographing unit 205 . Further, when the photographing unit 205 receives an instruction to take a photograph in the virtual space, the photographing unit 205 provides information on at least one of the position and orientation of the viewpoint in the virtual space for rendering the image displayed on the tablet 120. (That is, at least one of the position and direction of the viewpoint at that point in time obtained by the second screen viewpoint obtaining unit 202 from the tablet 120 ) can be stored in the shooting information storage unit 209 . In addition, when the photographing unit 205 receives an instruction to take a photograph in the virtual space, the photographing unit 205 provides information other than the viewpoint of the virtual space for rendering the image displayed on the tablet 120 (that is, acquisition of the second screen viewpoint). (information other than the point of view of the virtual space at that point in time acquired by the unit 202 from the tablet 120 ) can be stored in the imaging information storage unit 209 . For example, information other than the viewpoint of the virtual space for rendering is information that affects light sources and objects in the virtual space, such as illumination, time of day, and weather.

<写真の生成>
写真撮影部205は、撮影情報格納部209に格納されている視点の位置および向きの情報、および、仮想空間内の照明、時刻、天候といった光源やオブジェクトに影響を与える情報に基づいてレンダリングすることができる。なお、写真撮影部205は、格納されている視点の位置および向きの情報の両方を使用してもよいし、一方のみを使用してもよい。写真撮影部205は、レンダリングした結果を、画像(例えば、テクスチャ画像)として写真格納部210に格納することができる。このように、写真撮影部205は、観客がシャッターボタンを押下した時にタブレット120に映し出されていた映像の静止画像(写真)を生成することができる。
<Photo generation>
The photographing unit 205 performs rendering based on the information on the position and direction of the viewpoint stored in the photographing information storage unit 209, and the information that affects the light source and objects such as lighting, time, and weather in the virtual space. can be done. Note that the photographing unit 205 may use both the stored viewpoint position and orientation information, or may use only one of them. The photographing unit 205 can store the rendered result in the photograph storage unit 210 as an image (for example, a texture image). In this way, the photographing unit 205 can generate a still image (photograph) of the image displayed on the tablet 120 when the audience presses the shutter button.

撮影情報格納部209は、上でも説明したように、観客がシャッターボタンを押下した時の、仮想空間内の視点の位置および向きの情報、および、仮想空間内の照明、時刻、天候といった光源やオブジェクトに影響を与える情報を格納している。 As described above, the photographing information storage unit 209 stores information about the position and orientation of the viewpoint in the virtual space when the audience presses the shutter button, and light sources such as lighting, time, and weather in the virtual space. Contains information that affects an object.

写真格納部210は、上でも説明したように、観客がシャッターボタンを押下した時にタブレット120に映し出されていた映像の静止画像(写真)を、例えば、テクスチャ画像として格納している。 As described above, the photograph storage unit 210 stores a still image (photograph) of an image displayed on the tablet 120 when the audience presses the shutter button, for example, as a texture image.

写真表示部206は、写真格納部210に格納されている写真を、メインスクリーン(スクリーン111)上で表示することができる。具体的には、写真表示部206は、写真格納部210に格納されている1または複数の写真を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。また、写真表示部206は、その写真を撮影したタブレット120を所持する観客の氏名やIDなどの情報を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。この場合、多人数同時操作装置100は、事前に、各タブレット120を所持する観客の氏名やIDなどの情報を取得しておく。 The photo display unit 206 can display photos stored in the photo storage unit 210 on the main screen (screen 111). Specifically, the photo display unit 206 displays one or a plurality of photos stored in the photo storage unit 210 so as to be superimposed on part of the video for VR projected on the main screen (screen 111). can do. In addition, the photo display unit 206 superimposes information such as the name and ID of the spectator holding the tablet 120 who took the photo on a part of the video for VR displayed on the main screen (screen 111). can be displayed. In this case, the multi-user simultaneous operation device 100 acquires information such as the names and IDs of the spectators possessing each tablet 120 in advance.

このように、観客がセカンドスクリーン(タブレット120)で仮想空間内を自由に移動する体験をしているときに撮影された写真が、メインスクリーン(スクリーン111)上に表示される。そのため、観客は、他の観客たちが仮想空間内でどのような光景を撮影したのかを知ることができる。なお、多人数同時操作装置100は、写真格納部210内の静止画像(写真)を任意のコンピュータ(例えば、観客のスマートフォンやパーソナルコンピュータなど)へ送信することができる。あるいは、多人数同時操作装置100は、写真格納部210内の静止画像(写真)を任意のプリンタで印刷して出力させることができる。 In this way, a photograph taken while the spectator is experiencing free movement in the virtual space on the second screen (tablet 120) is displayed on the main screen (screen 111). Therefore, the spectators can know what kind of scene other spectators have photographed in the virtual space. Note that the multi-person simultaneous operation device 100 can transmit still images (photographs) in the photo storage unit 210 to arbitrary computers (for example, spectator's smart phones, personal computers, etc.). Alternatively, the multi-user simultaneous operation device 100 can print and output the still images (photographs) in the photo storage section 210 with an arbitrary printer.

映像表示部207は、1または複数の観客がセカンドスクリーン(タブレット120)で見ている映像を、メインスクリーン(スクリーン111)上で表示することができる。具体的には、映像表示部207は、セカンドスクリーンレンダリング部204が生成したVRのための映像(つまり、多人数同時操作装置100がレンダリングした画像)またはタブレット120が生成したVRのための映像(つまり、タブレット120がレンダリングした画像)を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。また、映像表示部207は、その映像を映し出しているタブレット120を所持する観客の氏名やIDなどの情報を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。この場合、多人数同時操作装置100は、事前に、各タブレット120を所持する観客の氏名やIDなどの情報を取得しておく。なお、逆も可能であり、映像表示部207は、メインスクリーンレンダリング部203が生成したVRのための映像を、セカンドスクリーン(タブレット120)に映し出されているVRのための映像の一部分に重畳して表示することができる。 The video display unit 207 can display the video that one or more spectators are watching on the second screen (tablet 120) on the main screen (screen 111). Specifically, the image display unit 207 displays the image for VR generated by the second screen rendering unit 204 (that is, the image rendered by the multi-user simultaneous operation device 100) or the image for VR generated by the tablet 120 ( That is, the image rendered by the tablet 120) can be superimposed and displayed on part of the video for VR projected on the main screen (screen 111). In addition, the video display unit 207 superimposes information such as the name and ID of the spectator holding the tablet 120 displaying the video on a portion of the VR video displayed on the main screen (screen 111). can be displayed. In this case, the multi-user simultaneous operation device 100 acquires information such as the names and IDs of the spectators possessing each tablet 120 in advance. The reverse is also possible, and the image display unit 207 superimposes the VR image generated by the main screen rendering unit 203 on a part of the VR image displayed on the second screen (tablet 120). can be displayed.

このように、観客がセカンドスクリーン(タブレット120)で仮想空間内を自由に移動する体験をしているときに見ている映像が、メインスクリーン(スクリーン111)上に中継される。そのため、観客は、他の観客たちがどのような映像を見ているかを知ることができる。 In this way, the video that the audience sees while experiencing free movement in the virtual space on the second screen (tablet 120) is relayed on the main screen (screen 111). Therefore, the audience can know what kind of images other audiences are watching.

ドローン表示部208は、仮想空間内で各観客が移動している様子を示すアイコンを、メインスクリーン(スクリーン111)上で表示することができる。具体的には、ドローン表示部208は、仮想空間内で、タブレット120が指示している視点の位置に、アイコン(例えば、仮想のドローン)を配置することができる。また、ドローン表示部208は、配置したアイコン(例えば、仮想のドローン)の向きを、タブレット120が指示している視点の向きに一致させることができる。そして、メインスクリーンレンダリング部203は、アイコン(例えば、仮想のドローン)が配置された仮想空間をレンダリングすることができる。また、ドローン表示部208は、アイコン(例えば、仮想のドローン)に対応するタブレット120を所持する観客の氏名やIDなどの情報を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。この場合、多人数同時操作装置100は、事前に、各タブレット120を所持する観客の氏名やIDなどの情報を取得しておく。なお、ドローン表示部208は、セカンドスクリーン(タブレット120)上で、メインスクリーン(スクリーン111)上に表示されているアイコン(例えば、仮想のドローン)を表示することもできる。また、ドローン表示部208は、セカンドスクリーン(タブレット120)上で、コントローラ112によって指示されている視点の位置および向きを示すアイコン(例えば、仮想のドローン)を表示することができる。 The drone display unit 208 can display on the main screen (screen 111) an icon showing how each spectator is moving in the virtual space. Specifically, the drone display unit 208 can place an icon (for example, a virtual drone) at the position of the viewpoint indicated by the tablet 120 in the virtual space. Further, the drone display unit 208 can match the orientation of the arranged icon (for example, virtual drone) with the orientation of the viewpoint indicated by the tablet 120 . Then, the main screen rendering unit 203 can render a virtual space in which icons (for example, virtual drones) are arranged. In addition, the drone display unit 208 displays information such as the name and ID of the spectator who owns the tablet 120 corresponding to the icon (for example, virtual drone), and displays the video for VR displayed on the main screen (screen 111). can be displayed superimposed on a part of In this case, the multi-user simultaneous operation device 100 acquires information such as the names and IDs of the spectators possessing each tablet 120 in advance. Note that the drone display unit 208 can also display an icon (for example, a virtual drone) displayed on the main screen (screen 111) on the second screen (tablet 120). Also, the drone display unit 208 can display an icon (eg, a virtual drone) indicating the position and orientation of the viewpoint indicated by the controller 112 on the second screen (tablet 120).

このように、観客がセカンドスクリーン(タブレット120)で仮想空間内を自由に移動する体験をしているときの視点の位置および向きを示すドローンのアイコンが、メインスクリーン(スクリーン111)上に表示される。そのため、観客は、他の観客たちが仮想空間内のどこにいるのかを知ることができる。さらに、観客は、他の観客たちが仮想空間内のどこで写真を撮影したのかを知ることができる。 In this way, a drone icon is displayed on the main screen (screen 111) that indicates the position and orientation of the viewpoint when the audience is experiencing free movement in the virtual space on the second screen (tablet 120). be. Therefore, the spectator can know where the other spectators are in the virtual space. Furthermore, the spectator can know where other spectators took pictures in the virtual space.

図3は、本発明の一実施形態にかかる多人数同時操作装置のスクリーン111に表示される映像の例である。図3のメインスクリーン111には、メインスクリーンレンダリング部203が生成したVRのための映像が映し出される。また、図3のメインスクリーンでは、写真格納部210に格納されている1または複数の写真301が、メインスクリーンレンダリング部203が生成したVRのための映像の一部分に重畳して表示されうる。また、図3のメインスクリーンでは、タブレット120またはセカンドスクリーンレンダリング部204が生成したVRのための1または複数の映像302が、メインスクリーンレンダリング部203が生成したVRのための映像の一部分に重畳して表示されうる。また、図3のメインスクリーンでは、1または複数のドローンアイコン303が表示されうる。 FIG. 3 is an example of an image displayed on the screen 111 of the multi-person simultaneous operation device according to one embodiment of the present invention. An image for VR generated by the main screen rendering unit 203 is displayed on the main screen 111 in FIG. Also, on the main screen of FIG. 3, one or more photos 301 stored in the photo storage unit 210 may be superimposed on a portion of the video for VR generated by the main screen rendering unit 203 and displayed. In the main screen of FIG. 3, one or a plurality of images 302 for VR generated by the tablet 120 or the second screen rendering unit 204 are superimposed on a part of the images for VR generated by the main screen rendering unit 203. can be displayed as Also, one or more drone icons 303 may be displayed on the main screen of FIG.

図4は、本発明の一実施形態にかかる多人数同時操作装置における写真撮影の処理の流れを示すシーケンス図である。タブレット120は、観客によって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。なお、タブレット120は、観客によって入力された仮想空間の視点以外の情報(例えば、照明、時刻、天候など)も、多人数同時操作装置100へ送信し続けるようにしてよい。また、コントローラ112は、ナビゲータによって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。なお、コントローラ112は、ナビゲータによって入力された仮想空間の視点以外の情報(例えば、照明、時刻、天候など)も、多人数同時操作装置100へ送信し続けるようにしてよい。 FIG. 4 is a sequence diagram showing the flow of photographing processing in the multi-person simultaneous operation device according to one embodiment of the present invention. It is assumed that the tablet 120 continues to transmit information on at least one of the viewpoint position and orientation input by the audience to the multi-user simultaneous operation device 100 . Note that the tablet 120 may continue to transmit information other than the viewpoint of the virtual space input by the audience (for example, lighting, time, weather, etc.) to the multi-user simultaneous operation device 100 . It is also assumed that the controller 112 continues to transmit information on at least one of the position and direction of the viewpoint input by the navigator to the multi-user simultaneous operation device 100 . Note that the controller 112 may continue to transmit information other than the viewpoint of the virtual space input by the navigator (for example, lighting, time of day, weather, etc.) to the multi-user simultaneous operation device 100 .

ステップ401(S401)で、タブレット120は、仮想空間内の写真を撮影するよう求める指示を、多人数同時操作装置100へ送信する。
ステップ402(S402)で、多人数同時操作装置100は、S401の時点でタブレット120上に映し出されている映像をレンダリングするための仮想空間内の視点の位置および向きの情報を格納する。なお、多人数同時操作装置100は、S401の時点でタブレット120上に映し出されている映像をレンダリングするための仮想空間の視点以外の情報(例えば、照明、時刻、天候など)も格納するようにしてよい。
ステップ403(S403)で、多人数同時操作装置100は、S402で格納した視点の位置および向きなどに基づいてレンダリングする。その後、多人数同時操作装置100は、レンダリングした結果を、画像(例えば、テクスチャ画像)として格納する。
ステップ404(S404)で、多人数同時操作装置100は、コントローラ112から受信し続けている視点の位置および向きに基づいてレンダリングする。そして、多人数同時操作装置100は、レンダリングした映像の上に、S403で格納した画像(例えば、テクスチャ画像)を重畳して表示する。
At step 401 (S401), the tablet 120 transmits an instruction to the multi-user simultaneous operation device 100 to take a picture in the virtual space.
At step 402 (S402), the multi-user simultaneous operation device 100 stores information on the position and orientation of the viewpoint in the virtual space for rendering the image displayed on the tablet 120 at the time of S401. Note that the multi-user simultaneous operation device 100 stores information (for example, lighting, time, weather, etc.) other than the viewpoint of the virtual space for rendering the image displayed on the tablet 120 at the time of S401. you can
At step 403 (S403), the multi-user simultaneous operation device 100 performs rendering based on the viewpoint position and orientation stored at S402. After that, the multi-user simultaneous manipulation device 100 stores the rendering result as an image (for example, a texture image).
At step 404 ( S<b>404 ), the multi-player simultaneous control device 100 renders based on the viewpoint position and orientation that it continues to receive from the controller 112 . Then, the multi-user simultaneous operation device 100 superimposes and displays the image (for example, texture image) stored in S403 on the rendered image.

図5は、本発明の一実施形態にかかる多人数同時操作装置における映像中継の処理の流れを示すシーケンス図である。タブレット120は、観客によって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。また、コントローラ112は、ナビゲータによって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。 FIG. 5 is a sequence diagram showing the flow of video relay processing in the multi-user simultaneous operation device according to the embodiment of the present invention. It is assumed that the tablet 120 continues to transmit information on at least one of the viewpoint position and orientation input by the audience to the multi-user simultaneous operation device 100 . It is also assumed that the controller 112 continues to transmit information on at least one of the position and direction of the viewpoint input by the navigator to the multi-user simultaneous operation device 100 .

ステップ501(S501)で、多人数同時操作装置100は、タブレット120から受信し続けている視点の位置および向きに基づいてレンダリングする。あるいは、多人数同時操作装置100は、タブレット120から、タブレット120がレンダリングした映像を受信する。また、多人数同時操作装置100は、コントローラ112から受信し続けている視点の位置および向きに基づいてレンダリングする。
ステップ502(S502)で、多人数同時操作装置100は、S501でコントローラ112からの視点の位置および向きに基づいてレンダリングした映像の上に、S501でタブレット120からの視点の位置および向きに基づいてレンダリングした映像またはタブレット120がレンダリングした映像を、重畳して表示する。同時に、多人数同時操作装置100は、タブレット120上に、S501でタブレット120からの視点の位置および向きに基づいてレンダリングした映像を映し出す(タブレット120がレンダリングする場合は、本処理は必要ない)。
At step 501 ( S<b>501 ), the multi-user simultaneous manipulation device 100 renders based on the viewpoint position and orientation that it continues to receive from the tablet 120 . Alternatively, multi-user simultaneous operation device 100 receives images rendered by tablet 120 from tablet 120 . Also, the multi-user simultaneous manipulation device 100 renders based on the viewpoint position and orientation that it continues to receive from the controller 112 .
At step 502 (S502), the multi-user simultaneous operation device 100 renders the rendered image based on the position and orientation of the viewpoint from the controller 112 at S501, and renders the image based on the position and orientation of the viewpoint from the tablet 120 at S501. The rendered image or the image rendered by the tablet 120 is superimposed and displayed. At the same time, the multi-user simultaneous operation device 100 projects the rendered image on the tablet 120 in S501 based on the position and orientation of the viewpoint from the tablet 120 (this process is not necessary when the tablet 120 renders).

図6は、本発明の一実施形態にかかる多人数同時操作装置におけるドローンアイコンの表示の処理の流れを示すシーケンス図である。タブレット120は、観客によって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。また、コントローラ112は、ナビゲータによって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。 FIG. 6 is a sequence diagram showing the flow of drone icon display processing in the multi-user simultaneous operation device according to the embodiment of the present invention. It is assumed that the tablet 120 continues to transmit information on at least one of the viewpoint position and orientation input by the audience to the multi-user simultaneous operation device 100 . It is also assumed that the controller 112 continues to transmit information on at least one of the position and direction of the viewpoint input by the navigator to the multi-user simultaneous operation device 100 .

ステップ601(S601)で、多人数同時操作装置100は、仮想空間内で、タブレット120が指示している視点の位置に、アイコン(例えば、仮想のドローン)を配置する。また、多人数同時操作装置100は、配置したアイコン(例えば、仮想のドローン)の向きを、タブレット120が指示している視点の向きに一致させる。
ステップ602(S602)で、多人数同時操作装置100は、コントローラ112からの視点の位置および向きに基づいて、S601でアイコン(例えば、仮想のドローン)が配置された仮想空間をレンダリングする。
ステップ603(S603)で、多人数同時操作装置100は、スクリーン111上にS602でレンダリングした映像を映し出す。なお、S603に加えてまたはS603の代わりに、多人数同時操作装置100が、セカンドスクリーン(タブレット120)上で、コントローラ112によって指示されている視点の位置および向きを示すアイコン(例えば、仮想のドローン)を表示するようにしてもよい。
At step 601 (S601), the multi-user simultaneous operation device 100 arranges an icon (for example, a virtual drone) at the position of the viewpoint indicated by the tablet 120 in the virtual space. Also, the multi-user simultaneous operation device 100 matches the orientation of the arranged icon (for example, virtual drone) with the orientation of the viewpoint indicated by the tablet 120 .
At step 602 (S602), the multi-user simultaneous operating device 100 renders the virtual space in which the icon (for example, virtual drone) is placed at S601 based on the position and orientation of the viewpoint from the controller 112. FIG.
At step 603 (S603), the multi-user simultaneous operation device 100 displays the image rendered at S602 on the screen 111. FIG. In addition to or instead of S603, the multi-user simultaneous operation device 100 displays an icon (for example, virtual drone ) may be displayed.

<視点の位置の連動>
観客がタブレット120を用いて視点の位置と向きの両方を動かすのではなく、視点の向きだけを動かすことができるようにしてもよい。例えば、タブレット120は、コントローラ112から取得した視点の位置の情報と、タブレット120から取得した視点の向きの情報とに基づいてレンダリングして、タブレット120に映し出すVRのための映像を生成することができる。あるいは、多人数同時操作装置100は、コントローラ112から取得した視点の位置の情報と、タブレット120から取得した視点の向きの情報とに基づいてレンダリングして、タブレット120に映し出すVRのための映像を生成することができる。そのため、観客たちは、同じ位置からそれぞれ異なる方向を向いて写真を撮影することができる。
<Linkage of viewpoint position>
Instead of using the tablet 120 to move both the position and orientation of the viewpoint, the spectator may be able to move only the orientation of the viewpoint. For example, the tablet 120 can generate an image for VR to be displayed on the tablet 120 by performing rendering based on viewpoint position information obtained from the controller 112 and viewpoint orientation information obtained from the tablet 120 . can. Alternatively, the multi-user simultaneous operation device 100 renders based on the viewpoint position information obtained from the controller 112 and the viewpoint direction information obtained from the tablet 120, and displays an image for VR on the tablet 120. can be generated. Therefore, spectators can take pictures from the same position facing different directions.

<タブレットの活用>
なお、観客に配布したタブレット120を以下のように活用することもできる。多人数同時操作装置100は、事前に取得しておいた観客の属性(例えば、母国語など)に基づいて、タブレット120上に、ナビゲータが話している説明の字幕を表示することができる。また、多人数同時操作装置100は、タブレット120上に、補足の説明文や画像を表示することができる。多人数同時操作装置100は、タブレット120がアラート音を鳴らすことによって、観客にタブレット120を見るよう注意を促すことができる。
<Use of tablets>
Note that the tablets 120 distributed to the audience can also be utilized as follows. The multi-person simultaneous operation device 100 can display subtitles of explanations spoken by the navigator on the tablet 120 based on the attributes of the audience acquired in advance (for example, native language). In addition, the multi-user simultaneous operation device 100 can display supplementary explanations and images on the tablet 120 . The multi-user simultaneous operation device 100 can prompt the audience to look at the tablet 120 by causing the tablet 120 to emit an alert sound.

なお、本発明では、タブレット120が、多人数同時操作装置100の少なくとも一部の機能を有するようにしてもよい。前述したように、タブレット120が、多人数同時操作装置100のセカンドスクリーン視点取得部202およびセカンドスクリーンレンダリング部204の機能を有して、タブレット120がレンダリングするようにすることができる。また、タブレット120が、多人数同時操作装置100のメインスクリーン視点取得部201およびメインスクリーンレンダリング部203の機能を有して、タブレット120がレンダリングするようにしてもよい。また、タブレット120が、写真撮影部205、写真表示部206、映像表示部207、ドローン表示部208、撮影情報格納部209、写真格納部210の機能を有して、タブレット120が写真撮影、映像中継、ドローンアイコンの表示の処理を実行するようにしてもよい。 Note that, in the present invention, the tablet 120 may have at least some of the functions of the multi-user simultaneous operation device 100 . As described above, the tablet 120 may have the functionality of the second screen viewpoint acquisition unit 202 and the second screen rendering unit 204 of the multi-user simultaneous control device 100 so that the tablet 120 renders. Alternatively, the tablet 120 may have the functions of the main screen viewpoint acquisition unit 201 and the main screen rendering unit 203 of the multi-user simultaneous operation device 100, and the tablet 120 may render. Further, the tablet 120 has the functions of a photographing unit 205, a photograph display unit 206, a video display unit 207, a drone display unit 208, a photographing information storage unit 209, and a photograph storage unit 210. It is also possible to execute processing for relaying and displaying a drone icon.

このように、本発明では、複数の観客が同時に仮想空間内で各自の視点の位置や向きを動かしながらVRを体験することができる。 Thus, according to the present invention, a plurality of spectators can simultaneously experience VR while moving the positions and directions of their viewpoints in the virtual space.

ここまで、本発明の実施形態について説明したが、上記実施形態はあくまで一例であり、本発明は上述した実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。 Although the embodiments of the present invention have been described so far, the above-described embodiments are merely examples, and the present invention is not limited to the above-described embodiments, and can be implemented in various forms within the scope of the technical idea thereof. It goes without saying that it is good.

また、本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。 Moreover, the scope of the invention is not limited to the illustrated and described exemplary embodiments, but includes all embodiments that achieve equivalent effects for which the invention is intended. Furthermore, the scope of the invention is not limited to the combination of inventive features defined by each claim, but may be defined by any desired combination of the particular features of each of the disclosed features. .

100 多人数同時操作装置
111 スクリーン(メインスクリーン)
112 コントローラ
120 タブレット(セカンドスクリーン)
201 メインスクリーン視点取得部
202 セカンドスクリーン視点取得部
203 メインスクリーンレンダリング部
204 セカンドスクリーンレンダリング部
205 写真撮影部
206 写真表示部
207 映像表示部
208 ドローン表示部
209 撮影情報格納部
210 写真格納部
301 写真
302 映像
303 ドローンアイコン
100 multi-person simultaneous operation device 111 screen (main screen)
112 controller 120 tablet (second screen)
201 Main screen viewpoint acquisition unit 202 Second screen viewpoint acquisition unit 203 Main screen rendering unit 204 Second screen rendering unit 205 Photo shooting unit 206 Photo display unit 207 Video display unit 208 Drone display unit 209 Shooting information storage unit 210 Photo storage unit 301 Photo 302 Image 303 Drone icon

Claims (6)

メインスクリーンおよびセカンドスクリーンに映し出された仮想空間内を紹介される複数の観客が使用する各々の第1の操作装置から、前記仮想空間内の第1の視点の位置および向きの少なくとも一方の情報と前記仮想空間内の状況を示す視点以外の第1の情報とを取得する第1の視点取得部と、
前記仮想空間内を前記複数の観客に紹介する者が使用する第2の操作装置から、前記仮想空間内の第2の視点の位置および向きの少なくとも一方の情報と前記仮想空間内の状況を示す視点以外の第2の情報とを取得する第2の視点取得部と、
前記第1の視点についての情報の少なくとも一部と前記第1の情報とに基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部と前記第2の情報とに基づいてレンダリングされた映像の上に重畳して前記メインスクリーンに表示する、表示部と
を備えたことを特徴とする装置。
information on at least one of the position and orientation of the first viewpoint in the virtual space from each first operating device used by a plurality of spectators introduced in the virtual space projected on the main screen and the second screen; a first viewpoint acquisition unit that acquires first information other than a viewpoint indicating a situation in the virtual space ;
Information on at least one of the position and orientation of a second viewpoint in the virtual space and the situation in the virtual space are indicated from a second operating device used by a person who introduces the virtual space to the plurality of spectators. a second viewpoint acquisition unit that acquires second information other than the viewpoint ;
an image rendered based on at least part of the information about the first viewpoint and the first information , based on at least part of the information about the second viewpoint and the second information and a display unit for superimposing a rendered image and displaying it on the main screen.
前記第1の操作装置から、前記仮想空間内の写真を撮影するよう求める指示を受信し、
前記仮想空間内の写真を撮影するよう求める指示を受信した時の、前記仮想空間内の前記第1の視点の位置および向きの少なくとも一方の情報と前記第1の情報とを格納し、
前記格納した第1の視点についての情報の少なくとも一部と前記第1の情報とに基づいてレンダリングした静止画像を写真として格納する
ようにさらに構成され、
前記第1の視点についての情報の少なくとも一部と前記第1の情報とに基づいてレンダリングされた画像は、前記写真である
ことを特徴とする請求項1に記載の装置。
receiving an instruction to take a picture in the virtual space from the first operation device;
storing information of at least one of the position and orientation of the first viewpoint in the virtual space and the first information when an instruction to take a picture in the virtual space is received;
further configured to store as a photograph a still image rendered based on at least a portion of the stored information about the first viewpoint and the first information ;
2. The apparatus of claim 1, wherein the image rendered based on at least part of the information about the first viewpoint and the first information is the photograph.
前記取得した第1の視点についての情報の少なくとも一部に基づいて前記仮想空間内にアイコンを配置する
ようにさらに構成され、
前記第2の視点についての情報の少なくとも一部と前記第2の情報とに基づいてレンダリングされた映像の上に重畳して前記アイコンが配置された前記仮想空間内の映像が前記メインスクリーンに表示される
ことを特徴とする請求項1または2に記載の装置。
further configured to place an icon in the virtual space based on at least part of the obtained information about the first viewpoint;
An image in the virtual space in which the icon is superimposed on an image rendered based on at least part of the information about the second viewpoint and the second information is displayed on the main screen. 3. Apparatus according to claim 1 or 2, characterized in that:
装置が実行する方法であって、
仮想空間内を複数の観客に紹介する者が使用する第2の操作装置から、第2の表示装置のための前記仮想空間内の第2の視点の位置および向きの少なくとも一方の情報と前記仮想空間内の状況を示す視点以外の第2の情報とを取得するステップと、
前記仮想空間内を紹介される前記複数の観客が使用する各々の第1の表示装置のための前記仮想空間内の第1の視点の位置および向きの少なくとも一方の情報の少なくとも一部と前記仮想空間内の状況を示す視点以外の第1の情報とに基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部と第2の情報とに基づいてレンダリングされた映像の上に重畳して、前記第2の表示装置に表示するステップであって、前記第2の表示装置は、1つのスクリーンを含む、ステップと
を含むことを特徴とする方法。
A method performed by an apparatus comprising:
Information on at least one of the position and orientation of the second viewpoint in the virtual space for the second display device and the virtual a step of obtaining second information other than the viewpoint indicating the situation in the space ;
at least part of information of at least one of the position and orientation of a first viewpoint in the virtual space for each of the first display devices used by the plurality of spectators introduced in the virtual space and the virtual space; An image rendered based on first information other than a viewpoint indicating a situation in space is superimposed on an image rendered based on at least part of the information about the second viewpoint and the second information. and displaying on the second display device, the second display device comprising a single screen.
請求項4に記載の方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the method according to claim 4. 第1の装置と、第2の装置と、メインスクリーンと、多人数同時操作装置とからなる多人数同時操作システムであって、
前記多人数同時操作システムは、
前記メインスクリーンおよびセカンドスクリーンに映し出された仮想空間内を紹介される複数の観客が使用する各々の前記第1の装置から、前記仮想空間内の第1の視点の位置および向きの少なくとも一方の情報と前記仮想空間内の状況を示す視点以外の第1の情報とを取得し、前記第1の装置が前記セカンドスクリーンを含み、
前記仮想空間内を前記複数の観客に紹介する者が使用する前記第2の装置から、前記仮想空間内の第2の視点の位置および向きの少なくとも一方の情報と前記仮想空間内の状況を示す視点以外の第2の情報とを取得し、
前記第1の視点についての情報の少なくとも一部と前記第1の情報とに基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部と前記第2の情報とに基づいてレンダリングされた映像の上に重畳して前記メインスクリーンに表示する
ように構成されたことを特徴とする多人数同時操作システム。
A multi-person simultaneous operation system comprising a first device, a second device, a main screen, and a multi-person simultaneous operation device,
The multi-person simultaneous operation system includes:
Information on at least one of the position and orientation of the first viewpoint in the virtual space from each of the first devices used by the plurality of spectators introduced in the virtual space projected on the main screen and the second screen. and first information other than a viewpoint indicating a situation in the virtual space , the first device including the second screen,
Information on at least one of the position and orientation of a second viewpoint in the virtual space and the situation in the virtual space are displayed from the second device used by the person who introduces the virtual space to the plurality of spectators. Acquiring second information other than the viewpoint ,
an image rendered based on at least part of the information about the first viewpoint and the first information , based on at least part of the information about the second viewpoint and the second information A multi-person simultaneous operation system characterized by being constructed so as to be superimposed on a rendered image and displayed on the main screen.
JP2018104829A 2018-05-31 2018-05-31 Multiplayer Simultaneous Operation System, Method, and Program in VR Active JP7275480B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104829A JP7275480B2 (en) 2018-05-31 2018-05-31 Multiplayer Simultaneous Operation System, Method, and Program in VR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104829A JP7275480B2 (en) 2018-05-31 2018-05-31 Multiplayer Simultaneous Operation System, Method, and Program in VR

Publications (2)

Publication Number Publication Date
JP2019211835A JP2019211835A (en) 2019-12-12
JP7275480B2 true JP7275480B2 (en) 2023-05-18

Family

ID=68846762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104829A Active JP7275480B2 (en) 2018-05-31 2018-05-31 Multiplayer Simultaneous Operation System, Method, and Program in VR

Country Status (1)

Country Link
JP (1) JP7275480B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230222738A1 (en) * 2020-05-25 2023-07-13 Sony Group Corporation Information processing apparatus, information processing method, and program
JP2022041258A (en) 2020-08-31 2022-03-11 株式会社Jvcケンウッド Terminal device, method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318664A (en) 2000-05-08 2001-11-16 Toppan Printing Co Ltd Video display system
JP2003178331A (en) 2001-12-12 2003-06-27 Canon Inc Image information processor and processing method
JP2013210990A (en) 2012-02-29 2013-10-10 Jvc Kenwood Corp Image processor, image processing method and image processing program
WO2014115393A1 (en) 2013-01-24 2014-07-31 ソニー株式会社 Image display apparatus, image display method, and image display system
WO2016002445A1 (en) 2014-07-03 2016-01-07 ソニー株式会社 Information processing device, information processing method, and program
WO2017191700A1 (en) 2016-05-02 2017-11-09 株式会社ソニー・インタラクティブエンタテインメント Image generation device, image generation method, and program
WO2018012628A1 (en) 2016-07-15 2018-01-18 ナーブ株式会社 Image display device and image display system
JP6330089B1 (en) 2017-06-30 2018-05-23 株式会社コロプラ Program executed on computer to provide virtual space, information processing apparatus, and method for providing virtual space

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318664A (en) 2000-05-08 2001-11-16 Toppan Printing Co Ltd Video display system
JP2003178331A (en) 2001-12-12 2003-06-27 Canon Inc Image information processor and processing method
JP2013210990A (en) 2012-02-29 2013-10-10 Jvc Kenwood Corp Image processor, image processing method and image processing program
WO2014115393A1 (en) 2013-01-24 2014-07-31 ソニー株式会社 Image display apparatus, image display method, and image display system
WO2016002445A1 (en) 2014-07-03 2016-01-07 ソニー株式会社 Information processing device, information processing method, and program
WO2017191700A1 (en) 2016-05-02 2017-11-09 株式会社ソニー・インタラクティブエンタテインメント Image generation device, image generation method, and program
WO2018012628A1 (en) 2016-07-15 2018-01-18 ナーブ株式会社 Image display device and image display system
JP6330089B1 (en) 2017-06-30 2018-05-23 株式会社コロプラ Program executed on computer to provide virtual space, information processing apparatus, and method for providing virtual space

Also Published As

Publication number Publication date
JP2019211835A (en) 2019-12-12

Similar Documents

Publication Publication Date Title
CN110382066B (en) Mixed reality observer system and method
JP6812803B2 (en) Information processing equipment, information processing methods, and programs
RU2621644C2 (en) World of mass simultaneous remote digital presence
Fineschi et al. A 3D virtual tour of the Santa Maria della Scala Museum Complex in Siena, Italy, based on the use of Oculus Rift HMD
JP7249755B2 (en) Image processing system, its control method, and program
JP7378243B2 (en) Image generation device, image display device, and image processing method
JP6739611B1 (en) Class system, viewing terminal, information processing method and program
WO2020194821A1 (en) Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data
US20200349749A1 (en) Virtual reality equipment and method for controlling thereof
JP7275480B2 (en) Multiplayer Simultaneous Operation System, Method, and Program in VR
US20080158242A1 (en) Virtual image preservation
CN110730340B (en) Virtual audience display method, system and storage medium based on lens transformation
JP2020042362A (en) Control device and control method thereof
JP2022032483A (en) Image processing apparatus, image processing method, and program
JP6635573B2 (en) Image processing system, image processing method, and program
JP6454883B1 (en) Content distribution system, content distribution method, and content distribution program
KR20110006976A (en) Mutimedia syncronization control system for display space from experience space
JP7296735B2 (en) Image processing device, image processing method and program
WO2022230718A1 (en) Information processing device, information processing method, and program
KR20160136160A (en) Virtual Reality Performance System and Performance Method
CN114286077B (en) Virtual reality device and VR scene image display method
JP2002271694A (en) Image processing method, image processing unit, studio device, storage medium and program
JP6921204B2 (en) Information processing device and image output method
WO2022259480A1 (en) Video processing device, video processing method, and video processing program
JP2019146148A (en) Content distribution system, content distribution method, and content distribution program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230316

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230316

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7275480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150