JP7275480B2 - Multiplayer Simultaneous Operation System, Method, and Program in VR - Google Patents
Multiplayer Simultaneous Operation System, Method, and Program in VR Download PDFInfo
- Publication number
- JP7275480B2 JP7275480B2 JP2018104829A JP2018104829A JP7275480B2 JP 7275480 B2 JP7275480 B2 JP 7275480B2 JP 2018104829 A JP2018104829 A JP 2018104829A JP 2018104829 A JP2018104829 A JP 2018104829A JP 7275480 B2 JP7275480 B2 JP 7275480B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- viewpoint
- virtual space
- screen
- tablet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、複数の者が同時に仮想空間内で各自の視点を動かしながらバーチャルリアリティ(VR)を体験することができる技術に関する。 The present invention relates to a technology that allows a plurality of people to simultaneously experience virtual reality (VR) while moving their viewpoints in a virtual space.
従来、巨大スクリーンやヘッドマウントディスプレイなどに映し出された3次元コンピュータグラフィックス(以下、3DCGとも言う)や実写による映像を見ることによって、それらの映像により表現される仮想空間内にあたかも実際にいるかのような感覚を得ることができるバーチャルリアリティ(以下、VRとも言う)の技術が開発されている。 Conventionally, by viewing three-dimensional computer graphics (hereinafter also referred to as 3DCG) or live-action images projected on a giant screen or head-mounted display, it is possible to feel as if one is actually in the virtual space represented by those images. A virtual reality (hereinafter also referred to as VR) technology has been developed that can provide such a feeling.
多数の者が巨大スクリーンに映し出された映像を見ることでVRを体験できる手法(以下、シアター型VRとも言う)では、VRを体験する者(以下、観客とも言う)たちは同一のスクリーンを見ている。そして、仮想空間内を観客たちに紹介する者(以下、ナビゲータとも言う)は、ゲームパッドなどのコントローラを操作して、レンダリングするための仮想空間内の視点の位置や向きを動かしている。 In a method in which a large number of people can experience VR by watching images projected on a huge screen (hereinafter also referred to as theater type VR), the people who experience VR (hereinafter also referred to as spectators) are watching the same screen. ing. A person who introduces the virtual space to the audience (hereinafter also referred to as a navigator) operates a controller such as a game pad to change the position and orientation of the viewpoint in the virtual space for rendering.
ところで、シアター型VRにおいて、ナビゲータがコントローラを操作するのではなく、観客にコントローラを操作させて仮想空間内を自由に移動する体験をさせることがある。観客は、コントローラを操作して、自分が行きたい場所へ仮想空間内の視点の位置を動かしたり、自分が見たい方向へ仮想空間内の視点の向きを動かしたりすることができる。 By the way, in theater-type VR, the controller is not operated by the navigator, but the audience is made to operate the controller and experience moving freely in the virtual space. The spectator can operate the controller to move the position of the viewpoint in the virtual space to the place he or she wants to go, or move the direction of the viewpoint in the virtual space to the direction in which the spectator wants to see.
しかしながら、観客が動かしている仮想空間内の視点に基づいてレンダリングされた映像は、巨大スクリーン(つまり、1つのスクリーン)上に映し出される。このように観客がコントローラを操作しているときに映像を映し出せるスクリーンが1つだけなので、観客たちは、1人ずつしかコントローラを操作することができない。そのため、すべての観客がコントローラの操作を体験するには時間がかかり、コントローラの操作を体験できる観客の人数に制限を設けなければならなかった。 However, images rendered based on the viewpoint in the virtual space that the spectator is moving are displayed on a giant screen (ie, one screen). Since there is only one screen on which images can be projected while the spectators are operating the controllers, the spectators can only operate the controllers one by one. Therefore, it takes time for all spectators to experience the operation of the controller, and the number of spectators who can experience the operation of the controller has to be limited.
そこで、本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、多数の観客が同時に仮想空間内で各自の視点の位置や向きを動かしながらVRを体験することができるシステム、方法、およびプログラムを提供することにある。 Therefore, the present invention has been made in view of such problems, and its purpose is to allow a large number of spectators to experience VR while simultaneously moving the positions and directions of their respective viewpoints in a virtual space. It is to provide a system, method, and program capable of
このような目的を達成するために、本発明の第1の態様は、装置である。この装置は、第1の操作装置から、仮想空間内の第1の視点の位置および向きの少なくとも一方の情報を取得する第1の視点取得部と、第2の操作装置から、仮想空間内の第2の視点の位置および向きの少なくとも一方の情報を取得する第2の視点取得部と、前記第1の視点についての情報の少なくとも一部に基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部に基づいてレンダリングされた映像の上に重畳して表示する、レンダリング部と、を備える。 To achieve these ends, a first aspect of the invention is an apparatus. This device has a first viewpoint acquisition unit that acquires at least one of information on the position and orientation of a first viewpoint in the virtual space from the first operation device; a second viewpoint acquisition unit that acquires information on at least one of a position and an orientation of a second viewpoint; and an image rendered based on at least part of the information about the first viewpoint; and a rendering unit that superimposes and displays an image rendered based on at least part of the information about.
本発明の第2の態様は、方法である。この方法は、第2の操作装置から、第2の表示装置のための仮想空間内の第2の視点の位置および向きの少なくとも一方の情報を取得するステップと、第1の表示装置のための仮想空間内の第1の視点の位置および向きの少なくとも一方の情報の少なくとも一部に基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部に基づいてレンダリングされた映像の上に重畳して、前記第2の表示装置に表示するステップと、を含む。 A second aspect of the invention is a method. This method comprises the steps of: acquiring information on at least one of the position and orientation of a second viewpoint in virtual space for the second display device from the second operating device; an image rendered based on at least part of information about at least one of the position and orientation of a first viewpoint in virtual space, and an image rendered based on at least part of information about the second viewpoint superimposed thereon and displayed on the second display device.
本発明の第3の態様は、プログラムである。このプログラムは、コンピュータに第2の態様の方法を実行させるプログラムである。 A third aspect of the present invention is a program. This program is a program that causes a computer to execute the method of the second aspect.
本発明によれば、各観客は、各観客が所持するタブレット上で、各観客が動かしている仮想空間内の視点の位置や向きに基づいてレンダリングされた映像を見ることによって、VRを体験することができる。 According to the present invention, each spectator experiences VR by viewing images rendered on a tablet possessed by each spectator based on the position and orientation of the viewpoint in the virtual space being moved by each spectator. be able to.
最初に、本明細書で利用する用語について説明する。「仮想空間」とは、巨大スクリーン上などに映し出された映像により表現される仮想の空間である。「レンダリング」とは、仮想空間内の視点(仮想のカメラとも言う)の位置および向きと、仮想空間内の光源の情報と、仮想空間内のオブジェクトの情報とに基づいて、画像を作り出すことを言う。つまり、仮想空間内に配置された仮想のカメラが撮影する画像がレンダリングされる。また、本明細書において、「画像」は、「静止画像」と「映像(動画像とも言う)」との両方を含む。 First, terms used in this specification will be explained. A “virtual space” is a virtual space represented by an image projected on a giant screen or the like. "Rendering" refers to creating an image based on the position and orientation of a viewpoint (also called a virtual camera) in virtual space, light source information in virtual space, and object information in virtual space. To tell. That is, an image captured by a virtual camera placed in the virtual space is rendered. Also, in this specification, "image" includes both "still image" and "video (also referred to as moving image)".
以下、図面を参照しながら、本発明の実施形態について詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施形態にかかる多人数同時操作装置100を含む全体の概要図である。全体の概要図には、多人数同時操作装置100、観客たちが見る1つのスクリーン111、ナビゲータが操作するコントローラ112、観客たちが各々に1台ずつ所持する複数のタブレット120が含まれている。なお、スクリーン111とコントローラ112とを併せて、多人数観賞用装置とも呼ぶ。また、タブレット120を個人観賞用装置とも呼ぶ。また、多人数同時操作装置100と、スクリーン111と、コントローラ112と、タブレット120とを併せて、多人数同時操作システムとも呼ぶ。多人数同時操作装置100は、複数の観客が同時に仮想空間内で各自の視点の位置や向きを動かしながらVRを体験できるようにするための装置である。具体的には、多人数同時操作装置100は、コントローラ112やタブレット120から取得した仮想空間内の視点の位置や向きの情報に基づいてレンダリングして、レンダリングした画像を、スクリーン111上に投影するためのプロジェクタ(図示せず)へ送ったり、タブレット120へ送信したりことができる(後述するように、タブレット120がレンダリングするようにすることもできる)。後で、図2を参照しながら、多人数同時操作装置100の詳細を説明する。以下、スクリーン111、コントローラ112、タブレット120の詳細を説明する。
FIG. 1 is an overall schematic diagram including a multi-person
なお、本発明では、タブレット120がレンダリングするようにしてもよいし、多人数同時操作装置100がレンダリングするようにしてもよい。
In the present invention, rendering may be performed by the
スクリーン(メインスクリーン)111は、多人数同時操作装置100が生成したVRのための映像(つまり、多人数同時操作装置100がレンダリングした画像)を映し出すための表示装置である。例えば、観客席にいる観客たちが、正面に設置された1つの巨大なスクリーン111を見ることによって、VRを体験することができる。例えば、スクリーン111は、プロジェクタスクリーンである。つまり、プロジェクタ(図示せず)が、多人数同時操作装置100から映像を取得して、その映像をスクリーン111上に投影する。なお、スクリーン111は、ディスプレイ、モニタなどの任意の表示装置とすることができる。
A screen (main screen) 111 is a display device for displaying video for VR generated by the multi-user simultaneous operating device 100 (ie, an image rendered by the multi-user simultaneous operating device 100). For example, spectators in the audience seats can experience VR by looking at one
コントローラ112は、多人数同時操作装置100に対して、仮想空間内の視点の位置および向きの少なくとも一方を指示するための操作装置である。例えば、ナビゲータが、コントローラ112を操作して、スクリーン111上に映し出される映像をレンダリングするための仮想空間内の視点の位置および向きの少なくとも一方を動かすことができる。コントローラ112は、ナビゲータによって入力された視点の位置および向きの少なくとも一方の情報を、無線通信などを介して多人数同時操作装置100へ送ることができる。例えば、コントローラ112は、ゲームパッドである。なお、コントローラ112は、マウス、キーボードなどの任意の操作装置とすることができる。あるいは、コントローラ112は、以下に説明するようなタブレットとすることができる。
The
タブレット(セカンドスクリーン)120は、タブレット120が生成したVRのための映像(つまり、タブレット120自身がレンダリングした画像)または多人数同時操作装置100が生成したVRのための映像(つまり、多人数同時操作装置100がレンダリングした画像)を映し出す表示装置の機能と、タブレット120自身に対してまたは多人数同時操作装置100に対して視点の位置および向きの少なくとも一方を指示する操作装置の機能とを有するコンピュータである。例えば、観客たちは、ナビゲータなどから配布されたタブレット120を利用することができる。タブレット120は、観客によってタブレット120に入力された視点の位置および向きの少なくとも一方の情報に基づいてタブレット120自身がレンダリングした画像を、タブレット120の画面上に表示することができる。あるいは、タブレット120は、無線通信などを介して多人数同時操作装置100から、多人数同時操作装置100がレンダリングした画像を受信して、その画像をタブレット120の画面上に表示することができる。また、タブレット120は、観客によって入力された視点の位置および向き少なくとも一方の情報を、無線通信などを介して多人数同時操作装置100へ送信することができる。例えば、観客は、タブレット120の画面上に表示されるGUI(グラフィカルユーザインタフェース)によるコントローラを操作したり、タブレット120に内蔵された加速度センサやジャイロスコープを用いたり(つまり、タブレット120自体を動かしたり)することによって、タブレット120の画面上に映し出される映像をレンダリングするための仮想空間内の視点の位置および向きを動かすことができる。なお、タブレット120は、ヘッドマウントディスプレイとすることができる。ヘッドマウントディスプレイは、両眼、単眼、非透過型、透過型などの任意のヘッドマウントディスプレイであってよい。
The tablet (second screen) 120 displays an image for VR generated by the tablet 120 (that is, an image rendered by the
図2は、本発明の一実施形態にかかる多人数同時操作装置の機能ブロック図である。多人数同時操作装置100は、メインスクリーン視点取得部201、セカンドスクリーン視点取得部202、メインスクリーンレンダリング部203、セカンドスクリーンレンダリング部204、写真撮影部205、写真表示部206、映像表示部207、ドローン表示部208、撮影情報格納部209、写真格納部210を含む。多人数同時操作装置100は、プロセッサおよびメモリを含む1または複数のコンピュータである。また、多人数同時操作装置100は、メインスクリーン視点取得部201、セカンドスクリーン視点取得部202、メインスクリーンレンダリング部203、セカンドスクリーンレンダリング部204、写真撮影部205、写真表示部206、映像表示部207、ドローン表示部208を動作させるためのプログラム、または、後述する処理フローを実行するためのプログラム、を格納した記憶媒体を含む。
FIG. 2 is a functional block diagram of a multi-person simultaneous operation device according to one embodiment of the present invention. The multi-person
メインスクリーン視点取得部201は、コントローラ112から、ナビゲータによって入力された視点の位置および向きの少なくとも一方の情報を取得することができる。また、メインスクリーン視点取得部201は、コントローラ112から、ナビゲータによって入力された仮想空間内の状況(例えば、照明、時刻、天候など)を示す視点以外の情報を取得することができる。つまり、ナビゲータは、コントローラ112を用いて、仮想空間内の状況を変更することができる。メインスクリーン視点取得部201は、取得した情報をメモリ(図示せず)に格納することができる。
The main screen
セカンドスクリーン視点取得部202は、タブレット120から、観客によって入力された視点の位置および向きの少なくとも一方の情報を取得することができる。また、セカンドスクリーン視点取得部202は、タブレット120から、観客によって入力された仮想空間内の状況(例えば、照明、時刻、天候など)を示す視点以外の情報を取得することができる。つまり、観客は、タブレット120を用いて、仮想空間内の状況を変更することができる。セカンドスクリーン視点取得部202は、取得した情報をメモリ(図示せず)に格納することができる。
The second screen
メインスクリーンレンダリング部203は、メインスクリーン視点取得部201が取得した視点の位置および向きの情報と、仮想空間内の視点以外の情報(例えば、照明、時刻、天候など)とに基づいて画像を作り出し(つまり、レンダリングする)、VRのための映像を生成することができる。メインスクリーンレンダリング部203は、生成したVRのための映像を、例えば、プロジェクタへ送ることができる。そして、プロジェクタが、メインスクリーンレンダリング部203から取得した映像をスクリーン111上に投影する。なお、メインスクリーンレンダリング部203は、取得した視点の位置および向きの情報の両方を使用してもよいし、一方のみを使用してもよい。
The main
セカンドスクリーンレンダリング部204は、セカンドスクリーン視点取得部202が取得した視点の位置および向きの情報と、仮想空間内の視点以外の情報(例えば、照明、時刻、天候など)とに基づいて画像を作り出し(つまり、レンダリングする)、VRのための映像を生成することができる。セカンドスクリーンレンダリング部204は、生成したVRのための映像を、タブレット120へ送信することができる。前述したように、タブレット120がレンダリングするようにすることもでき、その場合は、セカンドスクリーンレンダリング部204はレンダリングする必要がない。なお、セカンドスクリーンレンダリング部204は、取得した視点の位置および向きの情報の両方を使用してもよいし、一方のみを使用してもよい。
The second
ここで、メインスクリーン(スクリーン111)に映し出される映像により表現される仮想空間と、セカンドスクリーン(タブレット120)に映し出される映像により表現される仮想空間との関係について説明する。メインスクリーン(スクリーン111)に映し出される映像により表現される仮想空間とセカンドスクリーン(タブレット120)に映し出される映像により表現される仮想空間は、同一の空間を表している。例えば、ナビゲータがメインスクリーン(スクリーン111)上で仮想空間内を観客たちに紹介している途中で、その時にメインスクリーン(スクリーン111)上で映し出されている仮想空間と同一の空間を同一の状況(例えば、照明、時刻、天候など)でセカンドスクリーン(タブレット120)上にも映し出すようにすることができる。そのため、観客は、メインスクリーン(スクリーン111)上ではナビゲータが動かす視点に基づいて仮想空間を見ることができ、かつ、セカンドスクリーン(タブレット120)上では、メインスクリーン(スクリーン111)と同一の仮想空間を、観客自身が動かす視点に基づいて見ることができる。つまり、観客は、メインスクリーン(スクリーン111)で見ていた仮想空間内を自由に移動する体験をすることができる。 Here, the relationship between the virtual space represented by the image projected on the main screen (screen 111) and the virtual space represented by the image projected on the second screen (tablet 120) will be described. The virtual space represented by the image projected on the main screen (screen 111) and the virtual space represented by the image projected on the second screen (tablet 120) represent the same space. For example, while the navigator is introducing the inside of the virtual space to the audience on the main screen (screen 111), the same space as the virtual space projected on the main screen (screen 111) at that time is displayed in the same situation. (eg, lighting, time of day, weather, etc.) can also be projected on the second screen (tablet 120). Therefore, on the main screen (screen 111), the audience can see the virtual space based on the viewpoint moved by the navigator, and on the second screen (tablet 120), the same virtual space as the main screen (screen 111) can be viewed. can be seen based on the viewpoint that the spectator himself moves. In other words, the audience can experience moving freely in the virtual space viewed on the main screen (screen 111).
図2に戻る。写真撮影部205は、観客にタブレット120で仮想空間内の写真を撮影させることができる。すなわち、現実の空間内の光景を撮影するのではなく、仮想空間内の光景を撮影することができる。具体的には、写真撮影部205は、観客がセカンドスクリーン(タブレット120)で仮想空間内を自由に移動する体験をしているときに、観客が希望する視点から見た仮想空間内の光景をスナップ写真として撮影することができる。
Return to FIG. The photographing
<撮影情報の蓄積>
写真撮影部205は、タブレット120から、仮想空間内の写真を撮影するよう求める指示を受信することができる。例えば、観客は、タブレット120の画面上に表示されるシャッターボタンを押下する。そうすると、タブレット120は、写真撮影部205へ、仮想空間内の写真を撮影するよう求める指示を送信することができる。また、写真撮影部205は、仮想空間内の写真を撮影するよう求める指示を受信した時にタブレット120に映し出されている映像をレンダリングするための仮想空間内の視点の位置および向きの少なくとも一方の情報(つまり、セカンドスクリーン視点取得部202がタブレット120から取得した、その時点での視点の位置および向きの少なくとも一方の情報)を、撮影情報格納部209に格納することができる。また、写真撮影部205は、仮想空間内の写真を撮影するよう求める指示を受信した時にタブレット120に映し出されている映像をレンダリングするための仮想空間の視点以外の情報(つまり、セカンドスクリーン視点取得部202がタブレット120から取得した、その時点での仮想空間の視点以外の情報)を、撮影情報格納部209に格納することができる。例えば、レンダリングするための仮想空間の視点以外の情報とは、仮想空間内の照明、時刻、天候といった光源やオブジェクトに影響を与える情報である。
<Accumulation of shooting information>
The photographing
<写真の生成>
写真撮影部205は、撮影情報格納部209に格納されている視点の位置および向きの情報、および、仮想空間内の照明、時刻、天候といった光源やオブジェクトに影響を与える情報に基づいてレンダリングすることができる。なお、写真撮影部205は、格納されている視点の位置および向きの情報の両方を使用してもよいし、一方のみを使用してもよい。写真撮影部205は、レンダリングした結果を、画像(例えば、テクスチャ画像)として写真格納部210に格納することができる。このように、写真撮影部205は、観客がシャッターボタンを押下した時にタブレット120に映し出されていた映像の静止画像(写真)を生成することができる。
<Photo generation>
The photographing
撮影情報格納部209は、上でも説明したように、観客がシャッターボタンを押下した時の、仮想空間内の視点の位置および向きの情報、および、仮想空間内の照明、時刻、天候といった光源やオブジェクトに影響を与える情報を格納している。
As described above, the photographing
写真格納部210は、上でも説明したように、観客がシャッターボタンを押下した時にタブレット120に映し出されていた映像の静止画像(写真)を、例えば、テクスチャ画像として格納している。
As described above, the
写真表示部206は、写真格納部210に格納されている写真を、メインスクリーン(スクリーン111)上で表示することができる。具体的には、写真表示部206は、写真格納部210に格納されている1または複数の写真を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。また、写真表示部206は、その写真を撮影したタブレット120を所持する観客の氏名やIDなどの情報を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。この場合、多人数同時操作装置100は、事前に、各タブレット120を所持する観客の氏名やIDなどの情報を取得しておく。
The
このように、観客がセカンドスクリーン(タブレット120)で仮想空間内を自由に移動する体験をしているときに撮影された写真が、メインスクリーン(スクリーン111)上に表示される。そのため、観客は、他の観客たちが仮想空間内でどのような光景を撮影したのかを知ることができる。なお、多人数同時操作装置100は、写真格納部210内の静止画像(写真)を任意のコンピュータ(例えば、観客のスマートフォンやパーソナルコンピュータなど)へ送信することができる。あるいは、多人数同時操作装置100は、写真格納部210内の静止画像(写真)を任意のプリンタで印刷して出力させることができる。
In this way, a photograph taken while the spectator is experiencing free movement in the virtual space on the second screen (tablet 120) is displayed on the main screen (screen 111). Therefore, the spectators can know what kind of scene other spectators have photographed in the virtual space. Note that the multi-person
映像表示部207は、1または複数の観客がセカンドスクリーン(タブレット120)で見ている映像を、メインスクリーン(スクリーン111)上で表示することができる。具体的には、映像表示部207は、セカンドスクリーンレンダリング部204が生成したVRのための映像(つまり、多人数同時操作装置100がレンダリングした画像)またはタブレット120が生成したVRのための映像(つまり、タブレット120がレンダリングした画像)を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。また、映像表示部207は、その映像を映し出しているタブレット120を所持する観客の氏名やIDなどの情報を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。この場合、多人数同時操作装置100は、事前に、各タブレット120を所持する観客の氏名やIDなどの情報を取得しておく。なお、逆も可能であり、映像表示部207は、メインスクリーンレンダリング部203が生成したVRのための映像を、セカンドスクリーン(タブレット120)に映し出されているVRのための映像の一部分に重畳して表示することができる。
The
このように、観客がセカンドスクリーン(タブレット120)で仮想空間内を自由に移動する体験をしているときに見ている映像が、メインスクリーン(スクリーン111)上に中継される。そのため、観客は、他の観客たちがどのような映像を見ているかを知ることができる。 In this way, the video that the audience sees while experiencing free movement in the virtual space on the second screen (tablet 120) is relayed on the main screen (screen 111). Therefore, the audience can know what kind of images other audiences are watching.
ドローン表示部208は、仮想空間内で各観客が移動している様子を示すアイコンを、メインスクリーン(スクリーン111)上で表示することができる。具体的には、ドローン表示部208は、仮想空間内で、タブレット120が指示している視点の位置に、アイコン(例えば、仮想のドローン)を配置することができる。また、ドローン表示部208は、配置したアイコン(例えば、仮想のドローン)の向きを、タブレット120が指示している視点の向きに一致させることができる。そして、メインスクリーンレンダリング部203は、アイコン(例えば、仮想のドローン)が配置された仮想空間をレンダリングすることができる。また、ドローン表示部208は、アイコン(例えば、仮想のドローン)に対応するタブレット120を所持する観客の氏名やIDなどの情報を、メインスクリーン(スクリーン111)に映し出されているVRのための映像の一部分に重畳して表示することができる。この場合、多人数同時操作装置100は、事前に、各タブレット120を所持する観客の氏名やIDなどの情報を取得しておく。なお、ドローン表示部208は、セカンドスクリーン(タブレット120)上で、メインスクリーン(スクリーン111)上に表示されているアイコン(例えば、仮想のドローン)を表示することもできる。また、ドローン表示部208は、セカンドスクリーン(タブレット120)上で、コントローラ112によって指示されている視点の位置および向きを示すアイコン(例えば、仮想のドローン)を表示することができる。
The
このように、観客がセカンドスクリーン(タブレット120)で仮想空間内を自由に移動する体験をしているときの視点の位置および向きを示すドローンのアイコンが、メインスクリーン(スクリーン111)上に表示される。そのため、観客は、他の観客たちが仮想空間内のどこにいるのかを知ることができる。さらに、観客は、他の観客たちが仮想空間内のどこで写真を撮影したのかを知ることができる。 In this way, a drone icon is displayed on the main screen (screen 111) that indicates the position and orientation of the viewpoint when the audience is experiencing free movement in the virtual space on the second screen (tablet 120). be. Therefore, the spectator can know where the other spectators are in the virtual space. Furthermore, the spectator can know where other spectators took pictures in the virtual space.
図3は、本発明の一実施形態にかかる多人数同時操作装置のスクリーン111に表示される映像の例である。図3のメインスクリーン111には、メインスクリーンレンダリング部203が生成したVRのための映像が映し出される。また、図3のメインスクリーンでは、写真格納部210に格納されている1または複数の写真301が、メインスクリーンレンダリング部203が生成したVRのための映像の一部分に重畳して表示されうる。また、図3のメインスクリーンでは、タブレット120またはセカンドスクリーンレンダリング部204が生成したVRのための1または複数の映像302が、メインスクリーンレンダリング部203が生成したVRのための映像の一部分に重畳して表示されうる。また、図3のメインスクリーンでは、1または複数のドローンアイコン303が表示されうる。
FIG. 3 is an example of an image displayed on the
図4は、本発明の一実施形態にかかる多人数同時操作装置における写真撮影の処理の流れを示すシーケンス図である。タブレット120は、観客によって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。なお、タブレット120は、観客によって入力された仮想空間の視点以外の情報(例えば、照明、時刻、天候など)も、多人数同時操作装置100へ送信し続けるようにしてよい。また、コントローラ112は、ナビゲータによって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。なお、コントローラ112は、ナビゲータによって入力された仮想空間の視点以外の情報(例えば、照明、時刻、天候など)も、多人数同時操作装置100へ送信し続けるようにしてよい。
FIG. 4 is a sequence diagram showing the flow of photographing processing in the multi-person simultaneous operation device according to one embodiment of the present invention. It is assumed that the
ステップ401(S401)で、タブレット120は、仮想空間内の写真を撮影するよう求める指示を、多人数同時操作装置100へ送信する。
ステップ402(S402)で、多人数同時操作装置100は、S401の時点でタブレット120上に映し出されている映像をレンダリングするための仮想空間内の視点の位置および向きの情報を格納する。なお、多人数同時操作装置100は、S401の時点でタブレット120上に映し出されている映像をレンダリングするための仮想空間の視点以外の情報(例えば、照明、時刻、天候など)も格納するようにしてよい。
ステップ403(S403)で、多人数同時操作装置100は、S402で格納した視点の位置および向きなどに基づいてレンダリングする。その後、多人数同時操作装置100は、レンダリングした結果を、画像(例えば、テクスチャ画像)として格納する。
ステップ404(S404)で、多人数同時操作装置100は、コントローラ112から受信し続けている視点の位置および向きに基づいてレンダリングする。そして、多人数同時操作装置100は、レンダリングした映像の上に、S403で格納した画像(例えば、テクスチャ画像)を重畳して表示する。
At step 401 (S401), the
At step 402 (S402), the multi-user
At step 403 (S403), the multi-user
At step 404 ( S<b>404 ), the multi-player
図5は、本発明の一実施形態にかかる多人数同時操作装置における映像中継の処理の流れを示すシーケンス図である。タブレット120は、観客によって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。また、コントローラ112は、ナビゲータによって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。
FIG. 5 is a sequence diagram showing the flow of video relay processing in the multi-user simultaneous operation device according to the embodiment of the present invention. It is assumed that the
ステップ501(S501)で、多人数同時操作装置100は、タブレット120から受信し続けている視点の位置および向きに基づいてレンダリングする。あるいは、多人数同時操作装置100は、タブレット120から、タブレット120がレンダリングした映像を受信する。また、多人数同時操作装置100は、コントローラ112から受信し続けている視点の位置および向きに基づいてレンダリングする。
ステップ502(S502)で、多人数同時操作装置100は、S501でコントローラ112からの視点の位置および向きに基づいてレンダリングした映像の上に、S501でタブレット120からの視点の位置および向きに基づいてレンダリングした映像またはタブレット120がレンダリングした映像を、重畳して表示する。同時に、多人数同時操作装置100は、タブレット120上に、S501でタブレット120からの視点の位置および向きに基づいてレンダリングした映像を映し出す(タブレット120がレンダリングする場合は、本処理は必要ない)。
At step 501 ( S<b>501 ), the multi-user
At step 502 (S502), the multi-user
図6は、本発明の一実施形態にかかる多人数同時操作装置におけるドローンアイコンの表示の処理の流れを示すシーケンス図である。タブレット120は、観客によって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。また、コントローラ112は、ナビゲータによって入力された視点の位置および向き少なくとも一方の情報を、多人数同時操作装置100へ送信し続けているとする。
FIG. 6 is a sequence diagram showing the flow of drone icon display processing in the multi-user simultaneous operation device according to the embodiment of the present invention. It is assumed that the
ステップ601(S601)で、多人数同時操作装置100は、仮想空間内で、タブレット120が指示している視点の位置に、アイコン(例えば、仮想のドローン)を配置する。また、多人数同時操作装置100は、配置したアイコン(例えば、仮想のドローン)の向きを、タブレット120が指示している視点の向きに一致させる。
ステップ602(S602)で、多人数同時操作装置100は、コントローラ112からの視点の位置および向きに基づいて、S601でアイコン(例えば、仮想のドローン)が配置された仮想空間をレンダリングする。
ステップ603(S603)で、多人数同時操作装置100は、スクリーン111上にS602でレンダリングした映像を映し出す。なお、S603に加えてまたはS603の代わりに、多人数同時操作装置100が、セカンドスクリーン(タブレット120)上で、コントローラ112によって指示されている視点の位置および向きを示すアイコン(例えば、仮想のドローン)を表示するようにしてもよい。
At step 601 (S601), the multi-user
At step 602 (S602), the multi-user
At step 603 (S603), the multi-user
<視点の位置の連動>
観客がタブレット120を用いて視点の位置と向きの両方を動かすのではなく、視点の向きだけを動かすことができるようにしてもよい。例えば、タブレット120は、コントローラ112から取得した視点の位置の情報と、タブレット120から取得した視点の向きの情報とに基づいてレンダリングして、タブレット120に映し出すVRのための映像を生成することができる。あるいは、多人数同時操作装置100は、コントローラ112から取得した視点の位置の情報と、タブレット120から取得した視点の向きの情報とに基づいてレンダリングして、タブレット120に映し出すVRのための映像を生成することができる。そのため、観客たちは、同じ位置からそれぞれ異なる方向を向いて写真を撮影することができる。
<Linkage of viewpoint position>
Instead of using the
<タブレットの活用>
なお、観客に配布したタブレット120を以下のように活用することもできる。多人数同時操作装置100は、事前に取得しておいた観客の属性(例えば、母国語など)に基づいて、タブレット120上に、ナビゲータが話している説明の字幕を表示することができる。また、多人数同時操作装置100は、タブレット120上に、補足の説明文や画像を表示することができる。多人数同時操作装置100は、タブレット120がアラート音を鳴らすことによって、観客にタブレット120を見るよう注意を促すことができる。
<Use of tablets>
Note that the
なお、本発明では、タブレット120が、多人数同時操作装置100の少なくとも一部の機能を有するようにしてもよい。前述したように、タブレット120が、多人数同時操作装置100のセカンドスクリーン視点取得部202およびセカンドスクリーンレンダリング部204の機能を有して、タブレット120がレンダリングするようにすることができる。また、タブレット120が、多人数同時操作装置100のメインスクリーン視点取得部201およびメインスクリーンレンダリング部203の機能を有して、タブレット120がレンダリングするようにしてもよい。また、タブレット120が、写真撮影部205、写真表示部206、映像表示部207、ドローン表示部208、撮影情報格納部209、写真格納部210の機能を有して、タブレット120が写真撮影、映像中継、ドローンアイコンの表示の処理を実行するようにしてもよい。
Note that, in the present invention, the
このように、本発明では、複数の観客が同時に仮想空間内で各自の視点の位置や向きを動かしながらVRを体験することができる。 Thus, according to the present invention, a plurality of spectators can simultaneously experience VR while moving the positions and directions of their viewpoints in the virtual space.
ここまで、本発明の実施形態について説明したが、上記実施形態はあくまで一例であり、本発明は上述した実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。 Although the embodiments of the present invention have been described so far, the above-described embodiments are merely examples, and the present invention is not limited to the above-described embodiments, and can be implemented in various forms within the scope of the technical idea thereof. It goes without saying that it is good.
また、本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。 Moreover, the scope of the invention is not limited to the illustrated and described exemplary embodiments, but includes all embodiments that achieve equivalent effects for which the invention is intended. Furthermore, the scope of the invention is not limited to the combination of inventive features defined by each claim, but may be defined by any desired combination of the particular features of each of the disclosed features. .
100 多人数同時操作装置
111 スクリーン(メインスクリーン)
112 コントローラ
120 タブレット(セカンドスクリーン)
201 メインスクリーン視点取得部
202 セカンドスクリーン視点取得部
203 メインスクリーンレンダリング部
204 セカンドスクリーンレンダリング部
205 写真撮影部
206 写真表示部
207 映像表示部
208 ドローン表示部
209 撮影情報格納部
210 写真格納部
301 写真
302 映像
303 ドローンアイコン
100 multi-person
112
201 Main screen
Claims (6)
前記仮想空間内を前記複数の観客に紹介する者が使用する第2の操作装置から、前記仮想空間内の第2の視点の位置および向きの少なくとも一方の情報と前記仮想空間内の状況を示す視点以外の第2の情報とを取得する第2の視点取得部と、
前記第1の視点についての情報の少なくとも一部と前記第1の情報とに基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部と前記第2の情報とに基づいてレンダリングされた映像の上に重畳して前記メインスクリーンに表示する、表示部と
を備えたことを特徴とする装置。 information on at least one of the position and orientation of the first viewpoint in the virtual space from each first operating device used by a plurality of spectators introduced in the virtual space projected on the main screen and the second screen; a first viewpoint acquisition unit that acquires first information other than a viewpoint indicating a situation in the virtual space ;
Information on at least one of the position and orientation of a second viewpoint in the virtual space and the situation in the virtual space are indicated from a second operating device used by a person who introduces the virtual space to the plurality of spectators. a second viewpoint acquisition unit that acquires second information other than the viewpoint ;
an image rendered based on at least part of the information about the first viewpoint and the first information , based on at least part of the information about the second viewpoint and the second information and a display unit for superimposing a rendered image and displaying it on the main screen.
前記仮想空間内の写真を撮影するよう求める指示を受信した時の、前記仮想空間内の前記第1の視点の位置および向きの少なくとも一方の情報と前記第1の情報とを格納し、
前記格納した第1の視点についての情報の少なくとも一部と前記第1の情報とに基づいてレンダリングした静止画像を写真として格納する
ようにさらに構成され、
前記第1の視点についての情報の少なくとも一部と前記第1の情報とに基づいてレンダリングされた画像は、前記写真である
ことを特徴とする請求項1に記載の装置。 receiving an instruction to take a picture in the virtual space from the first operation device;
storing information of at least one of the position and orientation of the first viewpoint in the virtual space and the first information when an instruction to take a picture in the virtual space is received;
further configured to store as a photograph a still image rendered based on at least a portion of the stored information about the first viewpoint and the first information ;
2. The apparatus of claim 1, wherein the image rendered based on at least part of the information about the first viewpoint and the first information is the photograph.
ようにさらに構成され、
前記第2の視点についての情報の少なくとも一部と前記第2の情報とに基づいてレンダリングされた映像の上に重畳して前記アイコンが配置された前記仮想空間内の映像が前記メインスクリーンに表示される
ことを特徴とする請求項1または2に記載の装置。 further configured to place an icon in the virtual space based on at least part of the obtained information about the first viewpoint;
An image in the virtual space in which the icon is superimposed on an image rendered based on at least part of the information about the second viewpoint and the second information is displayed on the main screen. 3. Apparatus according to claim 1 or 2, characterized in that:
仮想空間内を複数の観客に紹介する者が使用する第2の操作装置から、第2の表示装置のための前記仮想空間内の第2の視点の位置および向きの少なくとも一方の情報と前記仮想空間内の状況を示す視点以外の第2の情報とを取得するステップと、
前記仮想空間内を紹介される前記複数の観客が使用する各々の第1の表示装置のための前記仮想空間内の第1の視点の位置および向きの少なくとも一方の情報の少なくとも一部と前記仮想空間内の状況を示す視点以外の第1の情報とに基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部と第2の情報とに基づいてレンダリングされた映像の上に重畳して、前記第2の表示装置に表示するステップであって、前記第2の表示装置は、1つのスクリーンを含む、ステップと
を含むことを特徴とする方法。 A method performed by an apparatus comprising:
Information on at least one of the position and orientation of the second viewpoint in the virtual space for the second display device and the virtual a step of obtaining second information other than the viewpoint indicating the situation in the space ;
at least part of information of at least one of the position and orientation of a first viewpoint in the virtual space for each of the first display devices used by the plurality of spectators introduced in the virtual space and the virtual space; An image rendered based on first information other than a viewpoint indicating a situation in space is superimposed on an image rendered based on at least part of the information about the second viewpoint and the second information. and displaying on the second display device, the second display device comprising a single screen.
前記多人数同時操作システムは、
前記メインスクリーンおよびセカンドスクリーンに映し出された仮想空間内を紹介される複数の観客が使用する各々の前記第1の装置から、前記仮想空間内の第1の視点の位置および向きの少なくとも一方の情報と前記仮想空間内の状況を示す視点以外の第1の情報とを取得し、前記第1の装置が前記セカンドスクリーンを含み、
前記仮想空間内を前記複数の観客に紹介する者が使用する前記第2の装置から、前記仮想空間内の第2の視点の位置および向きの少なくとも一方の情報と前記仮想空間内の状況を示す視点以外の第2の情報とを取得し、
前記第1の視点についての情報の少なくとも一部と前記第1の情報とに基づいてレンダリングされた画像を、前記第2の視点についての情報の少なくとも一部と前記第2の情報とに基づいてレンダリングされた映像の上に重畳して前記メインスクリーンに表示する
ように構成されたことを特徴とする多人数同時操作システム。 A multi-person simultaneous operation system comprising a first device, a second device, a main screen, and a multi-person simultaneous operation device,
The multi-person simultaneous operation system includes:
Information on at least one of the position and orientation of the first viewpoint in the virtual space from each of the first devices used by the plurality of spectators introduced in the virtual space projected on the main screen and the second screen. and first information other than a viewpoint indicating a situation in the virtual space , the first device including the second screen,
Information on at least one of the position and orientation of a second viewpoint in the virtual space and the situation in the virtual space are displayed from the second device used by the person who introduces the virtual space to the plurality of spectators. Acquiring second information other than the viewpoint ,
an image rendered based on at least part of the information about the first viewpoint and the first information , based on at least part of the information about the second viewpoint and the second information A multi-person simultaneous operation system characterized by being constructed so as to be superimposed on a rendered image and displayed on the main screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104829A JP7275480B2 (en) | 2018-05-31 | 2018-05-31 | Multiplayer Simultaneous Operation System, Method, and Program in VR |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104829A JP7275480B2 (en) | 2018-05-31 | 2018-05-31 | Multiplayer Simultaneous Operation System, Method, and Program in VR |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019211835A JP2019211835A (en) | 2019-12-12 |
JP7275480B2 true JP7275480B2 (en) | 2023-05-18 |
Family
ID=68846762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018104829A Active JP7275480B2 (en) | 2018-05-31 | 2018-05-31 | Multiplayer Simultaneous Operation System, Method, and Program in VR |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7275480B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230222738A1 (en) * | 2020-05-25 | 2023-07-13 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
JP2022041258A (en) | 2020-08-31 | 2022-03-11 | 株式会社Jvcケンウッド | Terminal device, method, and program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001318664A (en) | 2000-05-08 | 2001-11-16 | Toppan Printing Co Ltd | Video display system |
JP2003178331A (en) | 2001-12-12 | 2003-06-27 | Canon Inc | Image information processor and processing method |
JP2013210990A (en) | 2012-02-29 | 2013-10-10 | Jvc Kenwood Corp | Image processor, image processing method and image processing program |
WO2014115393A1 (en) | 2013-01-24 | 2014-07-31 | ソニー株式会社 | Image display apparatus, image display method, and image display system |
WO2016002445A1 (en) | 2014-07-03 | 2016-01-07 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2017191700A1 (en) | 2016-05-02 | 2017-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device, image generation method, and program |
WO2018012628A1 (en) | 2016-07-15 | 2018-01-18 | ナーブ株式会社 | Image display device and image display system |
JP6330089B1 (en) | 2017-06-30 | 2018-05-23 | 株式会社コロプラ | Program executed on computer to provide virtual space, information processing apparatus, and method for providing virtual space |
-
2018
- 2018-05-31 JP JP2018104829A patent/JP7275480B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001318664A (en) | 2000-05-08 | 2001-11-16 | Toppan Printing Co Ltd | Video display system |
JP2003178331A (en) | 2001-12-12 | 2003-06-27 | Canon Inc | Image information processor and processing method |
JP2013210990A (en) | 2012-02-29 | 2013-10-10 | Jvc Kenwood Corp | Image processor, image processing method and image processing program |
WO2014115393A1 (en) | 2013-01-24 | 2014-07-31 | ソニー株式会社 | Image display apparatus, image display method, and image display system |
WO2016002445A1 (en) | 2014-07-03 | 2016-01-07 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2017191700A1 (en) | 2016-05-02 | 2017-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device, image generation method, and program |
WO2018012628A1 (en) | 2016-07-15 | 2018-01-18 | ナーブ株式会社 | Image display device and image display system |
JP6330089B1 (en) | 2017-06-30 | 2018-05-23 | 株式会社コロプラ | Program executed on computer to provide virtual space, information processing apparatus, and method for providing virtual space |
Also Published As
Publication number | Publication date |
---|---|
JP2019211835A (en) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110382066B (en) | Mixed reality observer system and method | |
JP6812803B2 (en) | Information processing equipment, information processing methods, and programs | |
RU2621644C2 (en) | World of mass simultaneous remote digital presence | |
Fineschi et al. | A 3D virtual tour of the Santa Maria della Scala Museum Complex in Siena, Italy, based on the use of Oculus Rift HMD | |
JP7249755B2 (en) | Image processing system, its control method, and program | |
JP7378243B2 (en) | Image generation device, image display device, and image processing method | |
JP6739611B1 (en) | Class system, viewing terminal, information processing method and program | |
WO2020194821A1 (en) | Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data | |
US20200349749A1 (en) | Virtual reality equipment and method for controlling thereof | |
JP7275480B2 (en) | Multiplayer Simultaneous Operation System, Method, and Program in VR | |
US20080158242A1 (en) | Virtual image preservation | |
CN110730340B (en) | Virtual audience display method, system and storage medium based on lens transformation | |
JP2020042362A (en) | Control device and control method thereof | |
JP2022032483A (en) | Image processing apparatus, image processing method, and program | |
JP6635573B2 (en) | Image processing system, image processing method, and program | |
JP6454883B1 (en) | Content distribution system, content distribution method, and content distribution program | |
KR20110006976A (en) | Mutimedia syncronization control system for display space from experience space | |
JP7296735B2 (en) | Image processing device, image processing method and program | |
WO2022230718A1 (en) | Information processing device, information processing method, and program | |
KR20160136160A (en) | Virtual Reality Performance System and Performance Method | |
CN114286077B (en) | Virtual reality device and VR scene image display method | |
JP2002271694A (en) | Image processing method, image processing unit, studio device, storage medium and program | |
JP6921204B2 (en) | Information processing device and image output method | |
WO2022259480A1 (en) | Video processing device, video processing method, and video processing program | |
JP2019146148A (en) | Content distribution system, content distribution method, and content distribution program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220825 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230316 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230316 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7275480 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |