JP6389540B2 - Movie data generation device, display system, display control device, and program - Google Patents

Movie data generation device, display system, display control device, and program Download PDF

Info

Publication number
JP6389540B2
JP6389540B2 JP2017019441A JP2017019441A JP6389540B2 JP 6389540 B2 JP6389540 B2 JP 6389540B2 JP 2017019441 A JP2017019441 A JP 2017019441A JP 2017019441 A JP2017019441 A JP 2017019441A JP 6389540 B2 JP6389540 B2 JP 6389540B2
Authority
JP
Japan
Prior art keywords
image
moving image
superimposed
moving
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017019441A
Other languages
Japanese (ja)
Other versions
JP2018129576A (en
Inventor
誠司 藤田
誠司 藤田
和夫 五十嵐
和夫 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2017019441A priority Critical patent/JP6389540B2/en
Publication of JP2018129576A publication Critical patent/JP2018129576A/en
Application granted granted Critical
Publication of JP6389540B2 publication Critical patent/JP6389540B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動画データ生成装置、表示システム、表示制御装置、及びプログラムに関する。   The present invention relates to a moving image data generation device, a display system, a display control device, and a program.

スマートフォン等の携帯端末を着脱可能に保持して、この携帯端末により画像表示するHMD(ヘッドマウントディスプレイ)が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2016−206512号公報
There has been known an HMD (head mounted display) that holds a portable terminal such as a smartphone in a detachable manner and displays an image on the portable terminal (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-2006-206512

HMDによってVR(Virtual Reality)画像を適切に視聴できるようにする技術が望まれていた。   There has been a demand for a technique that enables a VR (Virtual Reality) image to be appropriately viewed by the HMD.

本発明の第1の態様によれば、動画データ生成装置が提供される。動画データ生成装置は、動画構成画像内の第1領域にVR画像を含み、動画構成画像内の第1領域以外の第2領域にVR画像に重畳する重畳画像を含む動画データを生成する動画データ生成部を備えてよい。動画データ生成装置は、動画データ生成部によって生成された動画データを送信する動画データ送信部を備えてよい。   According to the first aspect of the present invention, a moving image data generation device is provided. The moving image data generating device generates moving image data that includes a VR image in a first region in a moving image constituent image, and includes moving image data including a superimposed image that is superimposed on the VR image in a second region other than the first region in the moving image constituent image. A generation unit may be provided. The moving image data generation device may include a moving image data transmission unit that transmits the moving image data generated by the moving image data generation unit.

上記VR画像は、球体へのテクスチャマッピングで表示するための画像であってよく、上記重畳画像は、上記球体の内側に位置する平面へのマッピングで表示するための画像であってよい。上記VR画像は、球体へのテクスチャマッピングで表示するための画像であってよく、上記重畳画像は、上記球体の一部へのテクスチャマッピングで表示するための画像であってよい。上記VR画像は、球体へのテクスチャマッピングで表示するための画像であってよく、上記重畳画像は、上記VR画像の上位レイヤに配置して表示するための画像であってよい。上記VR画像は、半球へのテクスチャマッピングで表示するための画像であってよい。   The VR image may be an image to be displayed by texture mapping to a sphere, and the superimposed image may be an image to be displayed by mapping to a plane located inside the sphere. The VR image may be an image for display by texture mapping on a sphere, and the superimposed image may be an image for display by texture mapping on a part of the sphere. The VR image may be an image to be displayed by texture mapping onto a sphere, and the superimposed image may be an image to be arranged and displayed on an upper layer of the VR image. The VR image may be an image for display by texture mapping onto a hemisphere.

上記VR画像は、右目用画像及び左目用画像を含む立体画像であってよい。上記VR画像は、パノラマ画像であってよい。上記重畳画像は、複数の画像を含んでよい。上記複数の画像は、一の画像を分割した複数の分割画像であってよい。上記動画データ生成部は、上記第1領域に上記右目用画像と上記左目用画像とを横方向に隣接させて配置し、上記第2領域に上記重畳画像を分割した複数の分割画像を横方向に隣接させて配置することによって上記動画データを生成してよい。上記動画構成画像のアスペクト比と上記VR画像のアスペクト比とは異なってよい。上記動画構成画像のアスペクト比は、16:9であってよく、上記VR画像のアスペクト比は、2:1であってよい。上記動画構成画像の解像度は3840×2160であってよく、上記VR画像の解像度は3840×1920であってよい。   The VR image may be a stereoscopic image including a right eye image and a left eye image. The VR image may be a panoramic image. The superimposed image may include a plurality of images. The plurality of images may be a plurality of divided images obtained by dividing one image. The moving image data generation unit arranges the right-eye image and the left-eye image adjacent to each other in the horizontal direction in the first area, and horizontally generates a plurality of divided images obtained by dividing the superimposed image in the second area. The moving image data may be generated by arranging the video data adjacent to each other. The aspect ratio of the moving image constituent image may be different from the aspect ratio of the VR image. The moving image constituent image may have an aspect ratio of 16: 9, and the VR image may have an aspect ratio of 2: 1. The resolution of the moving image constituent image may be 3840 × 2160, and the resolution of the VR image may be 3840 × 1920.

本発明の第2の態様によれば、コンピュータを、上記動画データ生成装置として機能させるためのプログラムが提供される。   According to the 2nd aspect of this invention, the program for functioning a computer as said moving image data generation apparatus is provided.

本発明の第3の態様によれば、上記動画データ生成装置と、上記動画データ生成装置によって生成された動画データを表示するよう制御する表示制御装置とを備える表示システムが提供される。   According to a third aspect of the present invention, there is provided a display system including the moving image data generation device and a display control device that controls to display the moving image data generated by the moving image data generation device.

本発明の第4の態様によれば、表示制御装置が提供される。表示制御装置は、動画構成画像内の第1領域にVR画像を含み、動画構成画像内の前記第1領域以外の第2領域にVR画像に重畳する重畳画像を含む動画データを受信する動画データ受信部を備えてよい。表示制御装置は、VR画像を球体にテクスチャマッピングし、重畳画像をVR画像に重畳して表示するよう制御する表示制御部を備えてよい。   According to a fourth aspect of the present invention, a display control device is provided. The display control device receives the moving image data including the VR image in the first region in the moving image composition image and including the superimposed image to be superimposed on the VR image in the second region other than the first region in the moving image composition image. A receiving unit may be provided. The display control apparatus may include a display control unit that performs texture mapping of the VR image on the sphere and controls the superimposed image to be displayed on the VR image.

上記表示制御部は、上記VR画像を球体にテクスチャマッピングしてよく、上記重畳画像を上記球体の内側に位置する平面にマッピングしてよい。上記表示制御部は、上記VR画像を球体にテクスチャマッピングしてよく、上記重畳画像を上記球体の一部にテクスチャマッピングしてよい。上記表示制御部は、上記VR画像を球体にテクスチャマッピングしてよく、上記重畳画像を上記VR画像の上位レイヤに配置して表示してよい。上記表示制御部は、上記VR画像を半球にテクスチャマッピングしてよい。   The display control unit may texture-map the VR image on a sphere, and may map the superimposed image on a plane located inside the sphere. The display control unit may texture-map the VR image to a sphere, and texture-map the superimposed image to a part of the sphere. The display control unit may texture-map the VR image on a sphere, and may display the superimposed image arranged on an upper layer of the VR image. The display control unit may texture-map the VR image to a hemisphere.

上記表示制御装置は、入力を受け付ける入力受付部と、上記入力受付部に対する入力に応じて、上記重畳画像を上記球体の内側に位置する平面にマッピングするか、上記重畳画像を上記球体の一部にテクスチャマッピングするか、上記重畳画像を上記VR画像の上位レイヤに配置して表示するかを選択する選択部とをさらに備えてよい。上記重畳画像は、複数の画像を含んでよく、上記表示制御部は、上記複数の画像を上記VR画像に重畳して表示するよう制御してよい。上記重畳画像は、一の画像を分割した複数の分割画像であってよく、上記表示制御部は、上記重畳画像から分割した上記複数の分割画像を上記VR画像に重畳して表示するよう制御してよい。上記表示制御部は、上記重畳画像から分割した上記複数の分割画像を結合した結合画像を上記VR画像に重畳して表示してよい。   The display control device maps the superimposed image to a plane located inside the sphere, or maps the superimposed image to a part of the sphere according to an input to the input receiving unit that receives input and the input to the input receiving unit. And a selection unit that selects whether to perform texture mapping or to display the superimposed image arranged on an upper layer of the VR image. The superimposed image may include a plurality of images, and the display control unit may perform control so that the plurality of images are superimposed on the VR image. The superimposed image may be a plurality of divided images obtained by dividing one image, and the display control unit performs control so as to superimpose and display the plurality of divided images divided from the superimposed image on the VR image. It's okay. The display control unit may superimpose and display a combined image obtained by combining the plurality of divided images divided from the superimposed image on the VR image.

本発明の第5の態様によれば、コンピュータを、上記表示制御装置として機能させるためのプログラムが提供される。   According to the fifth aspect of the present invention, there is provided a program for causing a computer to function as the display control device.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

表示システム100の一例を概略的に示す。An example of display system 100 is shown roughly. 動画データ生成装置200の機能構成の一例を概略的に示す。An example of functional composition of animation data generation device 200 is shown roughly. HMD300の機能構成の一例を概略的に示す。An example of functional composition of HMD300 is shown roughly. 動画データ生成部210による動画構成画像610の生成処理を概略的に示す。The production | generation process of the moving image structure image 610 by the moving image data generation part 210 is shown roughly. HMD300による動画データ表示処理の一例を概略的に示す。An example of animation data display processing by HMD300 is shown roughly. 動画データ生成部210による動画構成画像620の生成処理を概略的に示す。The production | generation process of the moving image structure image 620 by the moving image data generation part 210 is shown roughly. HMD300による動画データ表示処理の一例を概略的に示す。An example of animation data display processing by HMD300 is shown roughly. HMD300に装着されるスマートフォンとして機能するコンピュータ900のハードウエア構成の一例を概略的に示す。An example of the hardware constitutions of the computer 900 which functions as a smart phone with which HMD300 is mounted | worn is shown roughly. 動画データ生成装置200として機能するコンピュータ1000のハードウエア構成の一例を概略的に示す。An example of the hardware constitutions of the computer 1000 which functions as the moving image data generation apparatus 200 is shown schematically.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、表示システム100の一例を概略的に示す。表示システム100は、動画データ生成装置200及びHMD300を備える。動画データ生成装置200は、VR動画を含む動画データを生成して、ネットワーク10を介してHMD300に送信する。HMD300は、動画データ生成装置200から受信した動画データを、HMD300の装着者であるユーザ40に対して表示する。HMD300は、表示制御装置の一例であってよい。ここでは、スマートフォンを装着するタイプのHMD300を主に例に挙げて説明する。   FIG. 1 schematically illustrates an example of a display system 100. The display system 100 includes a moving image data generation device 200 and an HMD 300. The moving image data generation device 200 generates moving image data including a VR moving image and transmits the moving image data to the HMD 300 via the network 10. The HMD 300 displays the moving image data received from the moving image data generation device 200 to the user 40 who is a wearer of the HMD 300. The HMD 300 may be an example of a display control device. Here, the type of HMD 300 to which a smartphone is attached will be mainly described as an example.

ネットワーク10は、任意のネットワークであってよい。例えば、ネットワーク10は、電話網を含む。例えば、ネットワーク10は、インターネットを含む。例えば、ネットワーク10は、LAN(Local Area Network)を含む。   The network 10 may be any network. For example, the network 10 includes a telephone network. For example, the network 10 includes the Internet. For example, the network 10 includes a LAN (Local Area Network).

VR動画とは、ユーザ40が現実の場所とは異なる場所にいるかのような表示をユーザ40に対して行うための動画であってよい。例えば、VR動画は、HMD300によって球体の内側にテクスチャマッピングされ、HMD300は、ユーザ40が球体の中心点に位置するものとみなして、球体にテクスチャマッピングしたVR画像の一部をユーザ40の姿勢に応じて表示する。   The VR moving image may be a moving image for displaying on the user 40 as if the user 40 is in a place different from the actual place. For example, the VR video is texture-mapped inside the sphere by the HMD 300, and the HMD 300 assumes that the user 40 is located at the center point of the sphere, and a part of the VR image texture-mapped to the sphere is set to the posture of the user 40. Display accordingly.

動画データ生成装置200は、カメラシステム20によって撮影され、生成されたVR動画を、ネットワーク10を介して受信してよい。カメラシステム20は、1又は複数のカメラを有する。カメラシステム20は、例えば1又は複数の魚眼レンズカメラを有する。   The moving image data generation device 200 may receive the VR moving image captured and generated by the camera system 20 via the network 10. The camera system 20 has one or a plurality of cameras. The camera system 20 has, for example, one or a plurality of fisheye lens cameras.

カメラシステム20は、例えば、複数の魚眼レンズカメラによって撮影された画像をステッチングして射影変換を施すことによって、いわゆるエクイレクタングラー形式のVR動画を生成する。カメラシステム20が、複数の魚眼レンズカメラによって撮影された画像を動画データ生成装置200に送信し、動画データ生成装置200が当該画像に対してステッチング及び射影変換を施してVR画像を生成してもよい。また、カメラシステム20は、例えば、一の魚眼レンズカメラによって撮影された、画角が180度以上の画像をVR画像として取得してもよい。   The camera system 20 generates, for example, a so-called equirectangular VR video by stitching images taken by a plurality of fisheye lens cameras and performing projective transformation. Even if the camera system 20 transmits images captured by a plurality of fisheye lens cameras to the moving image data generation device 200, the moving image data generation device 200 performs stitching and projective conversion on the images to generate a VR image. Good. In addition, the camera system 20 may acquire, for example, an image with a field angle of 180 degrees or more, which is captured by one fisheye lens camera, as a VR image.

本実施形態に係る動画データ生成装置200は、VR動画と、VR動画に重畳する重畳動画とを含む動画データを生成する。動画データ生成装置200は、複数の動画構成画像のそれぞれにVR画像及び重畳画像を含めた動画データを生成してよい。動画構成画像とは、例えば、フレームである。動画構成画像は、フィールドであってもよい。   The moving image data generation device 200 according to the present embodiment generates moving image data including a VR moving image and a superimposed moving image that is superimposed on the VR moving image. The moving image data generation device 200 may generate moving image data including a VR image and a superimposed image in each of a plurality of moving image constituent images. The moving image constituent image is, for example, a frame. The moving image constituent image may be a field.

動画データ生成装置200は、VR動画の内容に関連する重畳動画を動画データに含めてよい。例えば、動画データ生成装置200は、野球及びバスケット等のスポーツの観客席の最前列に配置されたカメラによって撮影され、生成されたVR動画と、当該スポーツのテレビ中継画像とを含む動画データを生成する。また、例えば、動画データ生成装置200は、スポーツに関するVR動画と、当該スポーツに関する広告画像とを含む動画データを生成する。   The moving image data generation device 200 may include a superimposed moving image related to the content of the VR moving image in the moving image data. For example, the moving image data generation device 200 generates moving image data including a VR moving image captured and generated by a camera arranged in the front row of a sports spectator seat such as baseball and basketball, and a television relay image of the sports. To do. In addition, for example, the moving image data generation device 200 generates moving image data including a VR moving image related to sports and an advertisement image related to the sports.

動画データ生成装置200は、画像提供装置30から重畳画像を受信してよい。動画データ生成装置200は、例えば、表示対象のVR画像が決定した場合に、当該VR画像に関連する重畳画像を画像提供装置30に要求することによって、当該VR画像に関連する重畳画像を画像提供装置30から受信してよい。画像提供装置30は、テレビ中継画像及び広告画像等の任意の画像を格納していてよい。   The moving image data generation device 200 may receive a superimposed image from the image providing device 30. For example, when the VR image to be displayed is determined, the moving image data generation device 200 provides the superimposed image related to the VR image by requesting the image providing device 30 for the superimposed image related to the VR image. You may receive from the apparatus 30. The image providing device 30 may store arbitrary images such as a television relay image and an advertisement image.

HMD300は、動画データ生成装置200から受信した動画データに含まれるVR動画に、当該動画データに含まれる重畳画像を重畳して表示する。例えば、HMD300は、スポーツの観客席の最前列に配置されたカメラによって撮影され、生成されたVR画像に、当該スポーツのテレビ中継画像を重畳して表示する。これにより、観客席の最前列でスポーツを観戦しつつ、手元のテレビでテレビ中継も閲覧するという閲覧環境をユーザ40に提供することができる。また、例えば、HMD300は、スポーツの観客席の最前列に配置されたカメラによって撮影され、生成されたVR画像に、当該スポーツに関する広告画像を重畳して表示する。これにより、観客席の最前列でスポーツを観戦しつつ、当該スポーツに関連するグッズ等の広告を閲覧するという閲覧環境をユーザ40に提供することができる。   The HMD 300 superimposes and displays the superimposed image included in the moving image data on the VR moving image included in the moving image data received from the moving image data generation device 200. For example, the HMD 300 captures and displays a television broadcast image of the sport superimposed on the generated VR image, which is taken by a camera arranged in the front row of the sport spectator seat. Accordingly, it is possible to provide the user 40 with a viewing environment in which the user watches the sports in the front row of the spectator seat and also browses the television broadcast on the television at hand. Further, for example, the HMD 300 displays an advertisement image related to the sport superimposed on the generated VR image, which is shot by a camera arranged in the front row of the sport spectator seat. Accordingly, it is possible to provide the user 40 with a browsing environment for browsing advertisements such as goods related to the sport while watching the sport in the front row of the audience seats.

図2は、動画データ生成装置200の機能構成の一例を概略的に示す。動画データ生成装置200は、VR画像格納部202、重畳画像格納部204、VR画像取得部206、重畳画像取得部208、動画データ生成部210、及び動画データ送信部212を備える。   FIG. 2 schematically illustrates an example of a functional configuration of the moving image data generation device 200. The moving image data generation apparatus 200 includes a VR image storage unit 202, a superimposed image storage unit 204, a VR image acquisition unit 206, a superimposed image acquisition unit 208, a moving image data generation unit 210, and a moving image data transmission unit 212.

VR画像格納部202は、VR動画を格納する。VR画像格納部202は、カメラシステム20によって生成されたVR動画を格納してよい。VR画像格納部202は、カメラシステム20によって撮影された画像から、動画データ生成装置200が生成したVR動画を格納してもよい。VR画像格納部202は、動画データ生成装置200がネットワーク10を介して任意の装置から受信したVR画像を格納してもよい。VR画像格納部202は、動画データ生成装置200が記憶媒体から読み出したVR動画を格納してもよい。   The VR image storage unit 202 stores VR moving images. The VR image storage unit 202 may store a VR moving image generated by the camera system 20. The VR image storage unit 202 may store a VR moving image generated by the moving image data generation device 200 from an image captured by the camera system 20. The VR image storage unit 202 may store a VR image received by the moving image data generation device 200 from an arbitrary device via the network 10. The VR image storage unit 202 may store a VR moving image read from the storage medium by the moving image data generation device 200.

VR動画は、例えば、右目用画像及び左目用画像を含む立体動画である。VR動画は、パノラマ動画であってもよい。VR動画は、複数のVR画像によって構成される。VR画像は、例えば、右目用画像及び左目用画像を含む立体画像である。VR画像は、パノラマ画像であってもよい。   The VR moving image is a three-dimensional moving image including a right eye image and a left eye image, for example. The VR video may be a panoramic video. A VR video is composed of a plurality of VR images. The VR image is, for example, a stereoscopic image including a right eye image and a left eye image. The VR image may be a panoramic image.

重畳画像格納部204は、重畳画像を格納する。重畳画像格納部204は、画像提供装置30から受信した重畳画像を格納してよい。重畳画像格納部204は、動画データ生成装置200がネットワーク10を介して任意の装置から受信した重畳画像を格納してもよい。重畳画像格納部204は、動画データ生成装置200が記憶媒体から読み出した重畳画像を格納してもよい。   The superimposed image storage unit 204 stores a superimposed image. The superimposed image storage unit 204 may store the superimposed image received from the image providing device 30. The superimposed image storage unit 204 may store a superimposed image received from an arbitrary device by the moving image data generation device 200 via the network 10. The superimposed image storage unit 204 may store the superimposed image read from the storage medium by the moving image data generation device 200.

VR画像取得部206は、VR画像格納部202からVR動画を取得する。VR画像取得部206は、動画データ生成部210からの要求に対応するVR動画をVR画像格納部202から取得してよい。   The VR image acquisition unit 206 acquires a VR moving image from the VR image storage unit 202. The VR image acquisition unit 206 may acquire a VR moving image corresponding to the request from the moving image data generation unit 210 from the VR image storage unit 202.

重畳画像取得部208は、重畳画像格納部204から重畳画像を取得する。重畳画像取得部208は、動画データ生成部210からの要求に対応する重畳画像を重畳画像格納部204から取得してよい。   The superimposed image acquisition unit 208 acquires a superimposed image from the superimposed image storage unit 204. The superimposed image acquisition unit 208 may acquire a superimposed image corresponding to the request from the moving image data generation unit 210 from the superimposed image storage unit 204.

動画データ生成部210は、VR画像取得部206が取得したVR画像と、重畳画像取得部208が取得した重畳画像とを含む動画データを生成する。動画データ生成部210は、HMD300からの要求に応じて、当該要求に対応するVR画像及び重畳画像をVR画像取得部206及び重畳画像取得部208から受信して、動画データを生成してよい。   The moving image data generation unit 210 generates moving image data including the VR image acquired by the VR image acquisition unit 206 and the superimposed image acquired by the superimposed image acquisition unit 208. In response to a request from the HMD 300, the moving image data generation unit 210 may receive a VR image and a superimposed image corresponding to the request from the VR image acquisition unit 206 and the superimposed image acquisition unit 208, and generate moving image data.

動画データ送信部212は、動画データ生成部210によって生成された動画データを送信する。動画データ送信部212は、HMD300に対して動画データを送信してよい。   The moving image data transmission unit 212 transmits the moving image data generated by the moving image data generation unit 210. The moving image data transmission unit 212 may transmit moving image data to the HMD 300.

図3は、HMD300の機能構成の一例を概略的に示す。HMD300は、動画データ受信部302、動画データ分割部304、表示制御部306、表示部308、入力受付部310、及び選択部312を備える。HMD300がこれらのすべての構成を備えることは必須とは限らない。これらの構成は、HMD300に装着されたスマートフォンの構成であってよい。   FIG. 3 schematically shows an example of the functional configuration of the HMD 300. The HMD 300 includes a moving image data receiving unit 302, a moving image data dividing unit 304, a display control unit 306, a display unit 308, an input receiving unit 310, and a selecting unit 312. It is not essential that the HMD 300 has all of these configurations. These configurations may be the configuration of a smartphone attached to the HMD 300.

動画データ受信部302は、動画データ送信部212によって送信された動画データを受信する。動画データ受信部302は、例えば、ユーザ40から受け付けた要求を動画データ生成装置200に送信して、当該要求に応じて動画データ生成装置200が送信した動画データを受信する。   The moving image data receiving unit 302 receives the moving image data transmitted by the moving image data transmitting unit 212. For example, the moving image data receiving unit 302 transmits a request received from the user 40 to the moving image data generation device 200 and receives the moving image data transmitted by the moving image data generation device 200 in response to the request.

動画データ分割部304は、動画データ受信部302が受信した動画データを分割する。動画データ分割部304は、動画データをVR画像と、重畳画像とに分割してよい。また、動画データ分割部304は、重畳画像を複数の分割画像に分割してよい。   The moving image data dividing unit 304 divides the moving image data received by the moving image data receiving unit 302. The moving image data dividing unit 304 may divide moving image data into a VR image and a superimposed image. The moving image data dividing unit 304 may divide the superimposed image into a plurality of divided images.

表示制御部306は、動画データ分割部304によって分割されたVR画像を球体にテクスチャマッピングして、表示部308に表示させる。表示制御部306は、例えば、VR画像を半球にテクスチャマッピングして、表示部308に表示させてよい。   The display control unit 306 texture maps the VR image divided by the moving image data division unit 304 onto a sphere and causes the display unit 308 to display the VR image. For example, the display control unit 306 may texture-map the VR image into a hemisphere and display the VR image on the display unit 308.

表示制御部306は、重畳画像500をVR画像に重畳させて、表示部308に表示させてよい。表示制御部306は、重畳画像500を分割した複数の分割画像を、VR画像に重畳させて表示部308に表示させてよい。表示制御部306は、複数の分割画像を、VR画像の異なる位置に重畳させて表示部308に表示させてよい。表示制御部306は、重畳画像500を分割した複数の分割画像を結合した結合画像を、VR画像に重畳させて表示部308に表示させてよい。   The display control unit 306 may superimpose the superimposed image 500 on the VR image and display it on the display unit 308. The display control unit 306 may cause the display unit 308 to display a plurality of divided images obtained by dividing the superimposed image 500 on the VR image. The display control unit 306 may display a plurality of divided images on the display unit 308 by superimposing them on different positions of the VR image. The display control unit 306 may cause the display unit 308 to display a combined image obtained by combining a plurality of divided images obtained by dividing the superimposed image 500 on the VR image.

表示制御部306は、VR画像をテクスチャマッピングした球体の内側に位置する平面に重畳画像500をマッピングして、表示部308に表示させてよい。これにより、VR空間にディスプレイが浮いているような表示を提供できる。表示制御部306は、VR画像をテクスチャマッピングした球体の一部に重畳画像500をテクスチャマッピングして、表示部308に表示させてもよい。これにより、VR画像内にディスプレイをはめ込んだような表示を提供できる。表示制御部306は、VR画像の上位レイヤに重畳画像500を配置して、表示部308に表示させてもよい。これにより、VR画像とは明確に区別した形態のディスプレイが存在するような表示を提供できる。   The display control unit 306 may map the superimposed image 500 on a plane located inside the sphere obtained by texture mapping the VR image and display the superimposed image 500 on the display unit 308. Thereby, it is possible to provide a display as if the display is floating in the VR space. The display control unit 306 may texture-map the superimposed image 500 on a part of a sphere obtained by texture-mapping a VR image and display the superimposed image 500 on the display unit 308. Thereby, it is possible to provide a display in which a display is fitted in the VR image. The display control unit 306 may arrange the superimposed image 500 on the upper layer of the VR image and display it on the display unit 308. Thereby, it is possible to provide a display in which a display having a form clearly distinguished from the VR image exists.

入力受付部310は、ユーザ40からの入力を受け付ける。入力受付部310は、例えば、VR画像をテクスチャマッピングした球体の内側に位置する平面に重畳画像500をマッピングするか、VR画像をテクスチャマッピングした球体の一部に重畳画像500をテクスチャマッピングするか、VR画像の上位レイヤに重畳画像500を配置して表示するかを選択する入力を受け付ける。   The input receiving unit 310 receives an input from the user 40. For example, the input receiving unit 310 maps the superimposed image 500 on a plane located inside the sphere obtained by texture mapping the VR image, or performs texture mapping of the superimposed image 500 on a part of the sphere obtained by texture mapping the VR image, An input for selecting whether to display the superimposed image 500 on the upper layer of the VR image is received.

選択部312は、入力受付部310に対する入力に応じて、VR画像をテクスチャマッピングした球体の内側に位置する平面に重畳画像500をマッピングするか、VR画像をテクスチャマッピングした球体の一部に重畳画像500をテクスチャマッピングするか、VR画像の上位レイヤに重畳画像500を配置して表示するかを選択する。動画データ分割部304は、選択部312による選択に応じて、動画データからVR画像及び重畳画像500を分割してよい。表示制御部306は、選択部312による選択に応じて、VR画像に重畳画像500を重畳して表示部308に表示させてよい。   The selection unit 312 maps the superimposed image 500 on a plane located inside the sphere on which the VR image is texture-mapped, or the superimposed image on a part of the sphere on which the VR image is texture-mapped, according to an input to the input receiving unit 310. Whether to perform texture mapping 500 or to display the superimposed image 500 on the upper layer of the VR image is selected. The moving image data dividing unit 304 may divide the VR image and the superimposed image 500 from the moving image data in accordance with the selection by the selection unit 312. The display control unit 306 may display the superimposed image 500 on the VR image on the display unit 308 according to the selection by the selection unit 312.

図4は、動画データ生成部210による動画構成画像610の生成処理を概略的に示す。ここでは、アスペクト比が16:9の動画構成画像610に対して、アスペクト比がそれぞれ1:1の右目用画像410及び左目用画像420を配置する場合を例に挙げて説明する。図4では、具体例として、動画構成画像610の解像度が3840×2160であり、右目用画像410及び左目用画像420の解像度が1920×1920であり、重畳画像500の解像度が1280×720である場合を示す。   FIG. 4 schematically shows a generation process of the moving image composition image 610 by the moving image data generation unit 210. Here, a case will be described as an example where a right-eye image 410 and a left-eye image 420 having an aspect ratio of 1: 1 are arranged with respect to a moving image composition image 610 having an aspect ratio of 16: 9. In FIG. 4, as a specific example, the resolution of the moving image constituent image 610 is 3840 × 2160, the resolution of the right-eye image 410 and the left-eye image 420 is 1920 × 1920, and the resolution of the superimposed image 500 is 1280 × 720. Show the case.

動画データ生成部210は、重畳画像取得部208が取得した重畳画像500を分割して、それぞれ解像度が1280×240の分割画像510、分割画像520、及び分割画像530を生成する。動画データ生成部210は、右目用画像410及び左目用画像420を、動画構成画像610内の第1領域612に横方向に隣接させて配置する。動画データ生成部210は、動画構成画像610内の第1領域612以外の第2領域614に分割画像510、分割画像520、及び分割画像530を横方向に隣接させて配置する。   The moving image data generation unit 210 divides the superimposed image 500 acquired by the superimposed image acquisition unit 208, and generates a divided image 510, a divided image 520, and a divided image 530 each having a resolution of 1280 × 240. The moving image data generation unit 210 arranges the right-eye image 410 and the left-eye image 420 adjacent to the first region 612 in the moving image composition image 610 in the horizontal direction. The moving image data generation unit 210 arranges the divided image 510, the divided image 520, and the divided image 530 in the second region 614 other than the first region 612 in the moving image constituent image 610 so as to be adjacent in the horizontal direction.

上述の処理により、動画データ生成部210は、動画構成画像610を生成する。動画データ生成部210は、複数の動画構成画像610について同様の処理を行うことによって、複数の動画構成画像610から構成される動画データを生成する。動画データ生成部210は、動画構成画像610内の右目用画像410、左目用画像420、分割画像510、分割画像520、及び分割画像530の配置構成を示す付加データを動画データに含めてよい。   Through the above processing, the moving image data generation unit 210 generates the moving image composition image 610. The moving image data generation unit 210 generates moving image data including a plurality of moving image configuration images 610 by performing the same processing on the plurality of moving image configuration images 610. The moving image data generation unit 210 may include additional data indicating the arrangement configuration of the right-eye image 410, the left-eye image 420, the divided image 510, the divided image 520, and the divided image 530 in the moving image constituent image 610 in the moving image data.

図5は、HMD300による動画データ表示処理の一例を概略的に示す。ここでは、動画データ受信部302が、動画データ生成装置200によって生成された、複数の動画構成画像610から構成された動画データを受信した場合の表示処理について説明する。   FIG. 5 schematically shows an example of the moving image data display process performed by the HMD 300. Here, a display process when the moving image data receiving unit 302 receives moving image data composed of a plurality of moving image constituent images 610 generated by the moving image data generation device 200 will be described.

動画データ分割部304は、動画データに含まれる付加データを参照して、動画構成画像610から、右目用画像410、左目用画像420、及び重畳画像500を分割する。また、動画データ分割部304は、付加データを参照して、重畳画像500を分割画像510、分割画像520、及び分割画像530に分割する。   The moving image data dividing unit 304 divides the right-eye image 410, the left-eye image 420, and the superimposed image 500 from the moving image constituent image 610 with reference to the additional data included in the moving image data. The moving image data dividing unit 304 divides the superimposed image 500 into a divided image 510, a divided image 520, and a divided image 530 with reference to the additional data.

表示制御部306は、付加データを参照して、分割画像510、分割画像520、及び分割画像530を結合した結合画像540を生成する。表示制御部306は、右目用画像410を半球710にテクスチャマッピングし、左目用画像420を半球720にテクスチャマッピングする。また、表示制御部306は、結合画像540を右目用画像410及び左目用画像420に重畳させる。   The display control unit 306 generates a combined image 540 obtained by combining the divided image 510, the divided image 520, and the divided image 530 with reference to the additional data. The display control unit 306 texture maps the right eye image 410 to the hemisphere 710 and texture maps the left eye image 420 to the hemisphere 720. In addition, the display control unit 306 superimposes the combined image 540 on the right eye image 410 and the left eye image 420.

表示制御部306は、例えば、半球710の内側に位置する平面と、半球720の内側に位置する平面とに、結合画像540をマッピングする。また、表示制御部306は、半球710の一部と、半球720の一部とに結合画像540をテクスチャマッピングしてもよい。また、表示制御部306は、半球710及び半球720の上位レイヤに結合画像540を配置してもよい。   For example, the display control unit 306 maps the combined image 540 on a plane located inside the hemisphere 710 and a plane located inside the hemisphere 720. Further, the display control unit 306 may texture-map the combined image 540 on a part of the hemisphere 710 and a part of the hemisphere 720. In addition, the display control unit 306 may arrange the combined image 540 on the upper layer of the hemisphere 710 and the hemisphere 720.

表示制御部306は、半球710にテクスチャマッピングした右目用画像410と、半球720にテクスチャマッピングした左目用画像420と、これらに重畳した結合画像540とを表示部308に表示させてよい。   The display control unit 306 may cause the display unit 308 to display the right-eye image 410 texture-mapped to the hemisphere 710, the left-eye image 420 texture-mapped to the hemisphere 720, and the combined image 540 superimposed thereon.

図4及び図5において示したように、本実施形態に係る表示システム100は、アスペクト比が16:9の動画構成画像610に、アスペクト比がそれぞれ1:1の右目用画像410及び左目用画像420を最大限収まるように配置し、その余剰領域に重畳画像500を分割した分割画像510、分割画像520、及び分割画像530を配置した動画データを生成する。そして、右目用画像410及び左目用画像420をそれぞれ半球710及び半球720にテクスチャマッピングし、分割画像510、分割画像520、及び分割画像530を結合した結合画像540右目用画像410及び左目用画像420に重畳して表示させる。   As shown in FIGS. 4 and 5, the display system 100 according to the present embodiment includes a moving image constituent image 610 having an aspect ratio of 16: 9, a right-eye image 410 and a left-eye image having an aspect ratio of 1: 1, respectively. The moving image data is generated by arranging the divided image 510, the divided image 520, and the divided image 530 obtained by dividing the superimposed image 500 in the surplus area. Then, the right-eye image 410 and the left-eye image 420 are texture-mapped to the hemisphere 710 and the hemisphere 720, respectively, and the combined image 540 that combines the divided image 510, the divided image 520, and the divided image 530, and the right-eye image 410 and the left-eye image 420. Superimposed on the display.

このように、右目用画像410及び左目用画像420を半球にテクスチャマッピングすることによって、全球にテクスチャマッピングするのに比べてそれぞれの解像度を高めることができる。また、半球にテクスチャマッピングすべくアスペクト比を1:1とした右目用画像410及び左目用画像420が最大限収まるように動画構成画像610に配置することによって、解像度を高めることができる。さらに、右目用画像410及び左目用画像420を配置した余剰領域に重畳画像500を分割して配置することによって、余剰領域を有効に活用することができ、リソースの有効活用を実現することができる。   Thus, by performing texture mapping of the right-eye image 410 and the left-eye image 420 to the hemisphere, the respective resolutions can be increased compared to texture mapping to the entire sphere. Further, the resolution can be increased by arranging the right-eye image 410 and the left-eye image 420 having the aspect ratio of 1: 1 in the moving image composing image 610 so that the texture mapping is performed on the hemisphere. Further, by dividing and arranging the superimposed image 500 in the surplus area where the right-eye image 410 and the left-eye image 420 are arranged, the surplus area can be used effectively, and effective use of resources can be realized. .

なお、ここでは、動画データに付加データが含まれる場合を例に挙げて説明したが、これに限らない。動画データ生成装置200とHMD300とが、動画構成画像610のフォーマットを予め把握しておいてもよい。   Here, the case where the additional data is included in the moving image data has been described as an example, but the present invention is not limited to this. The moving image data generation device 200 and the HMD 300 may grasp the format of the moving image composition image 610 in advance.

また、ここでは、右目用画像410及び左目用画像420を動画構成画像610の上側に配置し、分割画像510、分割画像520、及び分割画像530を動画構成画像610の下側に配置する例を挙げて説明したが、これに限らない。右目用画像410、左目用画像420、分割画像510、分割画像520及び分割画像530に配置は任意の配置であってもよい。例えば、右目用画像410及び左目用画像420を動画構成画像610の下側に配置し、分割画像510、分割画像520、及び分割画像530を動画構成画像610の上側に配置してもよい。また、重畳画像500の分割数は3つに限らず、他の数であってもよい。   In this example, the right-eye image 410 and the left-eye image 420 are arranged on the upper side of the moving image composition image 610, and the divided image 510, the divided image 520, and the divided image 530 are arranged on the lower side of the moving image composition image 610. Although it has been described, it is not limited to this. Arrangements in the right-eye image 410, the left-eye image 420, the divided image 510, the divided image 520, and the divided image 530 may be arbitrary. For example, the right-eye image 410 and the left-eye image 420 may be disposed below the moving image composition image 610, and the divided image 510, the divided image 520, and the divided image 530 may be disposed above the moving image composition image 610. Further, the number of divisions of the superimposed image 500 is not limited to three and may be other numbers.

また、ここでは、結合画像540を2次元画像とする場合を例に挙げて説明したが、これに限らず、結合画像540を3次元画像、すなわち、立体画像としてもよい。例えば、動画データ生成装置200が、右目用の重畳画像と左目用の重畳画像とをそれぞれ分割した分割画像を含む動画データを生成し、HMD300が、右目用の結合画像と左目用の結合画像とを生成して、右目用の結合画像を右目用画像410に重畳させ、左目用の結合画像を左目用画像420に重畳させるようにしてもよい。これにより、例えば、観客席の最前列でスポーツを観戦しつつ、手元で立体画像を閲覧するといった閲覧環境を提供することができる。   Here, the case where the combined image 540 is a two-dimensional image has been described as an example. However, the present invention is not limited thereto, and the combined image 540 may be a three-dimensional image, that is, a stereoscopic image. For example, the moving image data generation device 200 generates moving image data including divided images obtained by dividing a right eye superimposed image and a left eye superimposed image, and the HMD 300 generates a right eye combined image and a left eye combined image. And the combined image for the right eye may be superimposed on the image for the right eye 410, and the combined image for the left eye may be superimposed on the image for the left eye 420. Accordingly, for example, it is possible to provide a viewing environment in which a stereoscopic image is viewed at hand while watching a sport in the front row of the audience seat.

図6は、動画データ生成部210による動画構成画像620の生成処理を概略的に示す。ここでは、アスペクト比が16:9の動画構成画像620に対して、アスペクト比が2:1のパノラマ画像430を配置する場合を例に挙げて説明する。図4では、具体例として、動画構成画像620の解像度が3840×2160であり、パノラマ画像430の解像度が3840×1920であり、重畳画像500の解像度が1280×720である場合を示す。   FIG. 6 schematically shows a generation process of the moving image composition image 620 by the moving image data generation unit 210. Here, a case where a panoramic image 430 having an aspect ratio of 2: 1 is arranged with respect to a moving image composition image 620 having an aspect ratio of 16: 9 will be described as an example. In FIG. 4, as a specific example, a case where the resolution of the moving image constituent image 620 is 3840 × 2160, the resolution of the panoramic image 430 is 3840 × 1920, and the resolution of the superimposed image 500 is 1280 × 720 is shown.

動画データ生成部210は、重畳画像取得部208が取得した重畳画像500を分割して、それぞれ解像度が1280×240の分割画像510、分割画像520、及び分割画像530を生成する。動画データ生成部210は、パノラマ画像430を、動画構成画像620内の第1領域622に配置する。動画データ生成部210は、動画構成画像620内の第1領域622以外の第2領域624に分割画像510、分割画像520、及び分割画像530を横方向に隣接させて配置する。   The moving image data generation unit 210 divides the superimposed image 500 acquired by the superimposed image acquisition unit 208, and generates a divided image 510, a divided image 520, and a divided image 530 each having a resolution of 1280 × 240. The moving image data generation unit 210 arranges the panoramic image 430 in the first area 622 in the moving image constituent image 620. The moving image data generation unit 210 arranges the divided image 510, the divided image 520, and the divided image 530 in the second region 624 other than the first region 622 in the moving image constituent image 620 adjacent to each other in the horizontal direction.

上述の処理により、動画データ生成部210は、動画構成画像620を生成する。動画データ生成部210は、複数の動画構成画像620について同様の処理を行うことによって、複数の動画構成画像620から構成される動画データを生成する。動画データ生成部210は、動画構成画像620内のパノラマ画像430、分割画像510、分割画像520、及び分割画像530の配置構成を示す付加データを動画データに含めてよい。   Through the above processing, the moving image data generation unit 210 generates the moving image composition image 620. The moving image data generation unit 210 generates moving image data composed of a plurality of moving image composition images 620 by performing the same processing on the plurality of moving image composition images 620. The moving image data generation unit 210 may include additional data indicating the arrangement configuration of the panoramic image 430, the divided image 510, the divided image 520, and the divided image 530 in the moving image constituent image 620 in the moving image data.

図7は、HMD300による動画データ表示処理の一例を概略的に示す。ここでは、動画データ受信部302が、動画データ生成装置200によって生成された、複数の動画構成画像620から構成された動画データを受信した場合の表示処理について説明する。   FIG. 7 schematically shows an example of the moving image data display process by the HMD 300. Here, a display process when the moving image data receiving unit 302 receives moving image data composed of a plurality of moving image composition images 620 generated by the moving image data generation device 200 will be described.

動画データ分割部304は、動画データに含まれる付加データを参照して、動画構成画像620から、パノラマ画像430及び重畳画像500を分割する。また、動画データ分割部304は、付加データを参照して、重畳画像500を分割画像510、分割画像520、及び分割画像530に分割する。   The moving image data dividing unit 304 divides the panoramic image 430 and the superimposed image 500 from the moving image constituent image 620 with reference to the additional data included in the moving image data. The moving image data dividing unit 304 divides the superimposed image 500 into a divided image 510, a divided image 520, and a divided image 530 with reference to the additional data.

表示制御部306は、付加データを参照して、分割画像510、分割画像520、及び分割画像530を結合した結合画像540を生成する。表示制御部306は、パノラマ画像430を全球730にテクスチャマッピングする。また、表示制御部306は、結合画像540を、パノラマ画像430に重畳させる。   The display control unit 306 generates a combined image 540 obtained by combining the divided image 510, the divided image 520, and the divided image 530 with reference to the additional data. The display control unit 306 texture maps the panoramic image 430 to the whole globe 730. In addition, the display control unit 306 superimposes the combined image 540 on the panoramic image 430.

表示制御部306は、例えば、全球730の内側に位置する平面に、結合画像540をマッピングする。また、表示制御部306は、全球730の一部に結合画像540をテクスチャマッピングしてもよい。また、表示制御部306は、全球730の上位レイヤに結合画像540を配置してもよい。   For example, the display control unit 306 maps the combined image 540 on a plane located inside the whole sphere 730. Further, the display control unit 306 may texture-map the combined image 540 on a part of the whole globe 730. In addition, the display control unit 306 may arrange the combined image 540 on the upper layer of the whole globe 730.

表示制御部306は、全球730にテクスチャマッピングしたパノラマ画像430と、パノラマ画像430に重畳した結合画像540とを表示部308に表示させてよい。   The display control unit 306 may cause the display unit 308 to display the panoramic image 430 texture-mapped on the whole globe 730 and the combined image 540 superimposed on the panoramic image 430.

図6及び図7において示したように、本実施形態に係る表示システム100は、アスペクト比が16:9の動画構成画像620に、アスペクト比が2:1のパノラマ画像430を最大限収まるように配置し、その余剰領域に重畳画像500を分割した分割画像510、分割画像520、及び分割画像530を配置した動画データを生成する。そして、パノラマ画像430を全球730にテクスチャマッピングし、分割画像510、分割画像520、及び分割画像530を結合した結合画像をパノラマ画像430に重畳して表示させる。   As shown in FIGS. 6 and 7, the display system 100 according to the present embodiment allows a panoramic image 430 with an aspect ratio of 2: 1 to be accommodated to the maximum extent in a moving image constituent image 620 with an aspect ratio of 16: 9. The moving image data in which the divided image 510, the divided image 520, and the divided image 530 obtained by arranging and dividing the superimposed image 500 in the surplus area are generated is generated. Then, the panorama image 430 is texture-mapped to the whole globe 730, and the divided image 510, the divided image 520, and the combined image obtained by combining the divided images 530 are displayed superimposed on the panoramic image 430.

エクイレクタングラー形式のパノラマ画像のアスペクト比は、2:1である場合が多いが、本実施形態に係る表示システム100によれば、エクイレクタングラー形式のパノラマ画像を最大限収まるように動画構成画像620に配置することによって、パノラマ画像の解像度を高めることができる。さらに、パノラマ画像を配置した余剰領域に、重畳画像500を分割して配置することによって、余剰領域を有効に活用することができ、リソースの有効活用を実現することができる。   In many cases, the aspect ratio of the equirectangular panoramic image is 2: 1. However, according to the display system 100 according to the present embodiment, the moving image constituent image is set so that the equirectangular panoramic image can be accommodated to the maximum extent. By disposing at 620, the resolution of the panoramic image can be increased. Furthermore, by dividing and arranging the superimposed image 500 in the surplus area where the panoramic image is arranged, the surplus area can be used effectively, and effective use of resources can be realized.

上記実施形態において、重畳画像500を分割した分割画像510、分割画像520、分割画像530を重畳する位置、及び分割画像510、分割画像520、及び分割画像530を結合した結合画像540を重畳する位置は、任意の方法で決定されてよい。例えば、デフォルトによって重畳位置が設定されていてよい。また、ユーザ40による設定に従って決定されてもよい。また、動画データ生成装置200によって決定されてもよい。この場合、例えば、動画データ生成装置200は、動画データに重畳位置の情報を含めてHMD300に送信する。   In the above embodiment, the divided image 510 obtained by dividing the superimposed image 500, the divided image 520, the position where the divided image 530 is superimposed, and the position where the divided image 510, the divided image 520, and the combined image 540 obtained by combining the divided images 530 are superimposed. May be determined in any manner. For example, the superposition position may be set by default. Further, it may be determined according to the setting by the user 40. Further, it may be determined by the moving image data generation device 200. In this case, for example, the moving image data generation apparatus 200 transmits the moving image data to the HMD 300 including the information on the superimposed position.

図4〜図7では、動画構成画像のアスペクト比が16:9であり、VR画像のアスペクト比が2:1である場合を例に挙げて説明したが、これに限らない。動画構成画像のアスペクト比と、VR画像のアスペクト比とが異なれば、他の比率であってもよい。   4 to 7, the case where the aspect ratio of the moving image constituent image is 16: 9 and the aspect ratio of the VR image is 2: 1 has been described as an example. However, the present invention is not limited thereto. Other ratios may be used as long as the aspect ratio of the moving image constituent image is different from the aspect ratio of the VR image.

図8は、HMD300に装着されるスマートフォンとして機能するコンピュータ900のハードウエア構成の一例を概略的に示す。本実施形態に係るコンピュータ900は、SoC910、メインメモリ922、フラッシュメモリ924、アンテナ932、アンテナ934、ディスプレイ940、マイク942、スピーカ944、USBポート952、及びカードスロット954を備える。   FIG. 8 schematically illustrates an example of a hardware configuration of a computer 900 that functions as a smartphone attached to the HMD 300. The computer 900 according to this embodiment includes an SoC 910, a main memory 922, a flash memory 924, an antenna 932, an antenna 934, a display 940, a microphone 942, a speaker 944, a USB port 952, and a card slot 954.

SoC910は、メインメモリ922及びフラッシュメモリ924に格納されたプログラムに基づいて動作し、各部の制御を行う。アンテナ932は、いわゆるセルラーアンテナである。アンテナ934は、いわゆるWiFi(登録商標)アンテナである。SoC910は、アンテナ932及びアンテナ934を用いて、各種通信機能を実現してよい。SoC910は、例えば、アンテナ932又はアンテナ934を用いてSoC910が使用するプログラムを受信して、フラッシュメモリ924に格納してよい。   The SoC 910 operates based on a program stored in the main memory 922 and the flash memory 924, and controls each unit. The antenna 932 is a so-called cellular antenna. The antenna 934 is a so-called WiFi (registered trademark) antenna. The SoC 910 may realize various communication functions using the antenna 932 and the antenna 934. For example, the SoC 910 may receive a program used by the SoC 910 using the antenna 932 or the antenna 934 and store the program in the flash memory 924.

SoC910は、ディスプレイ940を用いて各種表示機能を実現してよい。ディスプレイ940は、表示部308の一例であってよい。SoC910は、マイク942を用いて各種音声入力機能を実現してよい。SoC910は、スピーカ944を用いて各種音声出力機能を実現してよい。   The SoC 910 may realize various display functions using the display 940. The display 940 may be an example of the display unit 308. The SoC 910 may implement various voice input functions using the microphone 942. The SoC 910 may implement various audio output functions using the speaker 944.

USBポート952は、USB接続を実現する。カードスロット954は、SDカード等の各種カードとの接続を実現する。SoC910は、USBポート952に接続された機器又はメモリと、カードスロット954に接続されたカードとから、SoC910が使用するプログラムを受信して、フラッシュメモリ924に格納してよい。   The USB port 952 implements USB connection. The card slot 954 realizes connection with various cards such as an SD card. The SoC 910 may receive a program used by the SoC 910 from a device or memory connected to the USB port 952 and a card connected to the card slot 954 and store the program in the flash memory 924.

コンピュータ900にインストールされ、コンピュータ900を本実施形態に係るスマートフォンとして機能させるプログラムは、SoC910等に働きかけて、コンピュータ900を、スマートフォンの各部としてそれぞれ機能させてよい。これらのプログラムに記述された情報処理は、コンピュータ900に読込まれることにより、ソフトウエアと上述した各種のハードウエア資源とが協働した具体的手段である動画データ受信部302、動画データ分割部304、表示制御部306、入力受付部310、及び選択部312として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有のスマートフォンが構築される。   A program that is installed in the computer 900 and causes the computer 900 to function as a smartphone according to the present embodiment may work on the SoC 910 or the like to cause the computer 900 to function as each unit of the smartphone. The information processing described in these programs is read by the computer 900, whereby the moving image data receiving unit 302, the moving image data dividing unit, which are specific means in which the software and the various hardware resources described above cooperate with each other. 304, functions as a display control unit 306, an input reception unit 310, and a selection unit 312. And the specific smart phone according to the intended use is constructed | assembled by implement | achieving the calculation or processing of the information according to the intended use of the computer 900 in this embodiment by these specific means.

上記実施形態では、HMD300がスマートフォンを装着するタイプである場合を主に例に挙げて説明したが、これに限らない。HMD300そのものが、動画データ受信部302、動画データ分割部304、表示制御部306、表示部308、入力受付部310、及び選択部312として機能してもよい。   In the above-described embodiment, the case where the HMD 300 is a type to which a smartphone is attached has been mainly described as an example, but the present invention is not limited thereto. The HMD 300 itself may function as the moving image data receiving unit 302, the moving image data dividing unit 304, the display control unit 306, the display unit 308, the input receiving unit 310, and the selection unit 312.

図9は、動画データ生成装置200として機能するコンピュータ1000のハードウエア構成の一例を概略的に示す。本実施形態に係るコンピュータ1000は、ホストコントローラ1092により相互に接続されるCPU1010、RAM1030、及びグラフィックコントローラ1085を有するCPU周辺部と、入出力コントローラ1094によりホストコントローラ1092に接続されるROM1020、通信I/F1040、ハードディスクドライブ1050、DVDドライブ1070及び入出力チップ1080を有する入出力部を備える。   FIG. 9 schematically illustrates an exemplary hardware configuration of a computer 1000 that functions as the moving image data generation apparatus 200. The computer 1000 according to this embodiment includes a CPU peripheral unit including a CPU 1010, a RAM 1030, and a graphic controller 1085 that are connected to each other by a host controller 1092; a ROM 1020 that is connected to the host controller 1092 by an input / output controller 1094; An input / output unit having F1040, hard disk drive 1050, DVD drive 1070, and input / output chip 1080 is provided.

CPU1010は、ROM1020及びRAM1030に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィックコントローラ1085は、CPU1010などがRAM1030内に設けたフレーム・バッファ上に生成する画像データを取得し、ディスプレイ1090上に表示させる。これに代えて、グラフィックコントローラ1085は、CPU1010などが生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The CPU 1010 operates based on programs stored in the ROM 1020 and the RAM 1030 and controls each unit. The graphic controller 1085 acquires image data generated by the CPU 1010 or the like on a frame buffer provided in the RAM 1030 and displays the image data on the display 1090. Alternatively, the graphic controller 1085 may include a frame buffer that stores image data generated by the CPU 1010 or the like.

通信I/F1040は、有線又は無線によりネットワークを介して他の装置と通信する。また、通信I/F1040は、通信を行うハードウエアとして機能する。ハードディスクドライブ1050は、CPU1010が使用するプログラム及びデータを格納する。DVDドライブ1070は、DVD−ROM1072からプログラム又はデータを読み取り、RAM1030を介してハードディスクドライブ1050に提供する。   The communication I / F 1040 communicates with other devices via a network by wire or wireless. The communication I / F 1040 functions as hardware that performs communication. The hard disk drive 1050 stores programs and data used by the CPU 1010. The DVD drive 1070 reads a program or data from the DVD-ROM 1072 and provides it to the hard disk drive 1050 via the RAM 1030.

ROM1020は、コンピュータ1000が起動時に実行するブート・プログラム及びコンピュータ1000のハードウエアに依存するプログラムなどを格納する。入出力チップ1080は、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポートなどを介して各種の入出力装置を入出力コントローラ1094へと接続する。   The ROM 1020 stores a boot program executed when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like. The input / output chip 1080 connects various input / output devices to the input / output controller 1094 via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like.

RAM1030を介してハードディスクドライブ1050に提供されるプログラムは、DVD−ROM1072、又はICカードなどの記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM1030を介してハードディスクドライブ1050にインストールされ、CPU1010において実行される。   A program provided to the hard disk drive 1050 via the RAM 1030 is stored in a recording medium such as a DVD-ROM 1072 or an IC card and provided by a user. The program is read from the recording medium, installed in the hard disk drive 1050 via the RAM 1030, and executed by the CPU 1010.

コンピュータ1000にインストールされ、コンピュータ1000を動画データ生成装置200として機能させるプログラムは、CPU1010などに働きかけて、コンピュータ1000を、動画データ生成装置200の各部としてそれぞれ機能させてよい。これらのプログラムに記述された情報処理は、コンピュータ1000に読込まれることにより、ソフトウエアと上述した各種のハードウエア資源とが協働した具体的手段であるVR画像格納部202、重畳画像格納部204、VR画像取得部206、重畳画像取得部208、動画データ生成部210、及び動画データ送信部212として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1000の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の動画データ生成装置200が構築される。   A program that is installed in the computer 1000 and causes the computer 1000 to function as the moving image data generation device 200 may work on the CPU 1010 or the like to cause the computer 1000 to function as each unit of the moving image data generation device 200. The information processing described in these programs is read by the computer 1000, so that the VR image storage unit 202, the superimposed image storage unit, which are specific means in which the software and the various hardware resources described above cooperate. 204, a VR image acquisition unit 206, a superimposed image acquisition unit 208, a moving image data generation unit 210, and a moving image data transmission unit 212. The specific moving image data generating apparatus 200 corresponding to the purpose of use is constructed by realizing calculation or processing of information according to the purpose of use of the computer 1000 in this embodiment by these specific means.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 ネットワーク、20 カメラシステム、30 画像提供装置、100 表示システム、200 動画データ生成装置、202 VR画像格納部、204 重畳画像格納部、206 VR画像取得部、208 重畳画像取得部、210 動画データ生成部、212 動画データ送信部、300 HMD、302 動画データ受信部、304 動画データ分割部、306 表示制御部、308 表示部、310 入力受付部、312 選択部、410 右目用画像、420 左目用画像、430 パノラマ画像、500 重畳画像、510 分割画像、520 分割画像、530 分割画像、540 結合画像、610 動画構成画像、620 動画構成画像、710 半球、720 半球、730 全球、900 コンピュータ、910 SoC、922 メインメモリ、924 フラッシュメモリ、932 アンテナ、934 アンテナ、940 ディスプレイ、942 マイク、944 スピーカ、952 USBポート、954 カードスロット、1000 コンピュータ、1010 CPU、1020 ROM、1030 RAM、1040 通信I/F、1050 ハードディスクドライブ、1070 DVDドライブ、1072 DVD−ROM、1080 入出力チップ、1085 グラフィックコントローラ、1090 ディスプレイ、1092 ホストコントローラ、1094 入出力コントローラ 10 network, 20 camera system, 30 image providing device, 100 display system, 200 moving image data generating device, 202 VR image storage unit, 204 superimposed image storage unit, 206 VR image acquisition unit, 208 superimposed image acquisition unit, 210 moving image data generation Unit, 212 video data transmission unit, 300 HMD, 302 video data reception unit, 304 video data division unit, 306 display control unit, 308 display unit, 310 input reception unit, 312 selection unit, 410 right eye image, 420 left eye image 430 panoramic image, 500 superimposed image, 510 divided image, 520 divided image, 530 divided image, 540 combined image, 610 moving image component image, 620 moving image component image, 710 hemisphere, 720 hemisphere, 730 whole ball, 900 computer, 910 SoC, 922 Mei Memory, 924 Flash memory, 932 antenna, 934 antenna, 940 display, 942 microphone, 944 speaker, 952 USB port, 954 card slot, 1000 computer, 1010 CPU, 1020 ROM, 1030 RAM, 1040 communication I / F, 1050 hard disk drive 1070 DVD drive, 1072 DVD-ROM, 1080 input / output chip, 1085 graphic controller, 1090 display, 1092 host controller, 1094 input / output controller

Claims (18)

動画構成画像内の第1領域にVR画像を含み、前記動画構成画像内の前記第1領域以外の第2領域に前記VR画像に重畳する重畳画像を含む動画データを生成する動画データ生成部と、
前記動画データ生成部によって生成された前記動画データを送信する動画データ送信部と
を備え、
前記動画データは、前記VR画像及び前記重畳画像のみによって構成されており、
前記VR画像は、右目用画像及び左目用画像を含む立体画像であり、
前記動画データ生成部は、前記第1領域に前記右目用画像と前記左目用画像とを横方向に隣接させて配置し、前記第2領域に前記重畳画像を分割した複数の分割画像を横方向に隣接させて配置することによって前記動画データを生成する、動画データ生成装置。
A moving image data generating unit that generates a moving image data including a VR image in a first region in the moving image constituent image and including a superimposed image to be superimposed on the VR image in a second region other than the first region in the moving image constituent image; ,
A moving image data transmission unit that transmits the moving image data generated by the moving image data generation unit,
The moving image data is composed only of the VR image and the superimposed image,
The VR image is a stereoscopic image including a right-eye image and a left-eye image,
The moving image data generation unit arranges the right-eye image and the left-eye image adjacent to each other in the horizontal direction in the first region, and horizontally generates a plurality of divided images obtained by dividing the superimposed image in the second region. A moving image data generation device that generates the moving image data by arranging the image data adjacent to each other.
前記VR画像は、球体へのテクスチャマッピングで表示するための画像であり、
前記重畳画像は、前記球体の内側に位置する平面へのマッピングで表示するための画像である、請求項1に記載の動画データ生成装置。
The VR image is an image for display by texture mapping to a sphere,
The moving image data generation device according to claim 1, wherein the superimposed image is an image to be displayed by mapping to a plane located inside the sphere.
前記VR画像は、球体へのテクスチャマッピングで表示するための画像であり、
前記重畳画像は、前記球体の一部へのテクスチャマッピングで表示するための画像である、請求項1に記載の動画データ生成装置。
The VR image is an image for display by texture mapping to a sphere,
The moving image data generation device according to claim 1, wherein the superimposed image is an image to be displayed by texture mapping onto a part of the sphere.
前記VR画像は、半球へのテクスチャマッピングで表示するための画像である、請求項1から3のいずれか一項に記載の動画データ生成装置。   4. The moving image data generation device according to claim 1, wherein the VR image is an image to be displayed by texture mapping onto a hemisphere. 5. 前記動画構成画像のアスペクト比と前記VR画像のアスペクト比とは異なる、請求項4に記載の動画データ生成装置。   The moving image data generation device according to claim 4, wherein an aspect ratio of the moving image constituent image is different from an aspect ratio of the VR image. 前記動画構成画像のアスペクト比は、16:9であり、
前記VR画像のアスペクト比は、2:1である、請求項5に記載の動画データ生成装置。
The aspect ratio of the moving image constituent image is 16: 9,
The moving image data generation device according to claim 5, wherein an aspect ratio of the VR image is 2: 1.
前記動画構成画像の解像度は3840×2160であり、
前記VR画像の解像度は3840×1920である、請求項5又は6に記載の動画データ生成装置。
The resolution of the moving image constituent image is 3840 × 2160,
The moving image data generation device according to claim 5 or 6, wherein the resolution of the VR image is 3840 x 1920.
コンピュータを、請求項1からのいずれか一項に記載の動画データ生成装置として機能させるためのプログラム。 The program for functioning a computer as a moving image data generation apparatus as described in any one of Claim 1 to 7 . 請求項1からのいずれか一項に記載の動画データ生成装置と、
前記動画データ生成装置によって生成された動画データを表示するよう制御する表示制御装置と
を備える、表示システム。
The moving image data generation device according to any one of claims 1 to 7 ,
A display control device that controls to display the moving image data generated by the moving image data generation device.
動画構成画像内の第1領域にVR画像を含み、前記動画構成画像内の前記第1領域以外の第2領域に前記VR画像に重畳する重畳画像を含む動画データを受信する動画データ受信部と、
前記VR画像を球体にテクスチャマッピングし、前記重畳画像を前記VR画像に重畳して表示するよう制御する表示制御部と
を備え、
前記動画データは、前記VR画像及び前記重畳画像のみによって構成されており、
前記VR画像は、右目用画像及び左目用画像を含む立体画像であり、
前記重畳画像は、一の画像を分割した複数の分割画像を含み、
前記第1領域には前記右目用画像と前記左目用画像とが横方向に隣接して配置されており、前記第2領域には前記複数の分割画像が横方向に隣接して配置されており、
前記表示制御部は、前記右目用画像及び前記左目用画像を前記球体にテクスチャマッピングし、前記複数の分割画像を前記VR画像に重畳して表示するよう制御する、表示制御装置。
A moving picture data receiving unit for receiving moving picture data including a VR image in a first area in the moving picture constituent image and including a superimposed image to be superimposed on the VR image in a second area other than the first area in the moving picture constituent image; ,
A display control unit configured to texture-map the VR image on a sphere and control to display the superimposed image superimposed on the VR image;
The moving image data is composed only of the VR image and the superimposed image,
The VR image is a stereoscopic image including a right-eye image and a left-eye image,
The superimposed image includes a plurality of divided images obtained by dividing one image,
In the first area, the right-eye image and the left-eye image are arranged adjacent to each other in the horizontal direction, and in the second area, the plurality of divided images are arranged adjacent to each other in the horizontal direction. ,
The display control unit is configured to perform texture mapping of the right-eye image and the left-eye image on the sphere, and to control to display the plurality of divided images superimposed on the VR image.
前記表示制御部は、前記VR画像を球体にテクスチャマッピングし、前記重畳画像を前記球体の内側に位置する平面にマッピングする、請求項10に記載の表示制御装置。 The display control apparatus according to claim 10 , wherein the display control unit texture maps the VR image to a sphere and maps the superimposed image to a plane located inside the sphere. 前記表示制御部は、前記VR画像を球体にテクスチャマッピングし、前記重畳画像を前記球体の一部にテクスチャマッピングする、請求項10に記載の表示制御装置。 The display control apparatus according to claim 10 , wherein the display control unit texture maps the VR image to a sphere and texture maps the superimposed image to a part of the sphere. 前記表示制御部は、前記VR画像を半球にテクスチャマッピングする、請求項10から12のいずれか一項に記載の表示制御装置。 The display control apparatus according to any one of claims 10 to 12 , wherein the display control unit texture-maps the VR image to a hemisphere. 前記動画構成画像のアスペクト比と前記VR画像のアスペクト比とは異なる、請求項13に記載の表示制御装置。 The display control apparatus according to claim 13 , wherein an aspect ratio of the moving image constituent image is different from an aspect ratio of the VR image. 前記動画構成画像のアスペクト比は、16:9であり、
前記VR画像のアスペクト比は、2:1である、請求項14に記載の表示制御装置。
The aspect ratio of the moving image constituent image is 16: 9,
The display control apparatus according to claim 14 , wherein an aspect ratio of the VR image is 2: 1.
前記動画構成画像の解像度は3840×2160であり、
前記VR画像の解像度は3840×1920である、請求項14又は15に記載の表示制御装置。
The resolution of the moving image constituent image is 3840 × 2160,
Resolution of the VR image is 3840 × 1920, the display control device according to claim 14 or 15.
前記表示制御部は、前記重畳画像から分割した前記複数の分割画像を結合した結合画像を前記VR画像に重畳して表示する、請求項10から16のいずれか一項に記載の表示制御装置。 The display control device according to any one of claims 10 to 16 , wherein the display control unit superimposes and displays a combined image obtained by combining the plurality of divided images divided from the superimposed image on the VR image. コンピュータを、請求項10から17のいずれか一項に記載の表示制御装置として機能させるためのプログラム。 A program for causing a computer to function as the display control device according to any one of claims 10 17.
JP2017019441A 2017-02-06 2017-02-06 Movie data generation device, display system, display control device, and program Active JP6389540B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017019441A JP6389540B2 (en) 2017-02-06 2017-02-06 Movie data generation device, display system, display control device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017019441A JP6389540B2 (en) 2017-02-06 2017-02-06 Movie data generation device, display system, display control device, and program

Publications (2)

Publication Number Publication Date
JP2018129576A JP2018129576A (en) 2018-08-16
JP6389540B2 true JP6389540B2 (en) 2018-09-12

Family

ID=63173259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017019441A Active JP6389540B2 (en) 2017-02-06 2017-02-06 Movie data generation device, display system, display control device, and program

Country Status (1)

Country Link
JP (1) JP6389540B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7403581B2 (en) 2022-05-23 2023-12-22 ソフトバンク株式会社 systems and devices

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007150747A (en) * 2005-11-28 2007-06-14 Matsushita Electric Ind Co Ltd Receiving apparatus and main line image distribution apparatus
JP2011109398A (en) * 2009-11-17 2011-06-02 Sony Corp Image transmission method, image receiving method, image transmission device, image receiving device, and image transmission system
EP2334088A1 (en) * 2009-12-14 2011-06-15 Koninklijke Philips Electronics N.V. Generating a 3D video signal
ITTO20110439A1 (en) * 2011-05-17 2012-11-18 Sisvel Technology Srl METHOD FOR GENERATING, TRANSMITTING AND RECEIVING STEREOSCOPIC IMAGES, AND RELATED DEVICES
WO2016129549A1 (en) * 2015-02-12 2016-08-18 株式会社コロプラ Device and system for viewing content using head-mounted display

Also Published As

Publication number Publication date
JP2018129576A (en) 2018-08-16

Similar Documents

Publication Publication Date Title
US11558431B2 (en) Communication terminal, communication system, communication method, and display method
US10979751B2 (en) Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication
CN106210861B (en) Method and system for displaying bullet screen
CN107590771B (en) 2D video with options for projection viewing in modeled 3D space
CN108292489A (en) Information processing unit and image generating method
US9363496B2 (en) Moving image generation device
WO2022002181A1 (en) Free viewpoint video reconstruction method and playing processing method, and device and storage medium
JP2019054488A (en) Providing apparatus, providing method, and program
JP6126271B1 (en) Method, program, and recording medium for providing virtual space
WO2018175335A1 (en) Method and system for discovering and positioning content into augmented reality space
EP3683656A1 (en) Virtual reality (vr) interface generation method and apparatus
JP7196421B2 (en) Information processing device, information processing system, information processing method and program
KR102257132B1 (en) Methods, systems and media for creating and rendering immersive video content
JP2020187706A (en) Image processing device, image processing system, image processing method, and program
US11430178B2 (en) Three-dimensional video processing
JP2018033107A (en) Video distribution device and distribution method
JP2018056889A (en) Display terminal, display method, and program
JP6389540B2 (en) Movie data generation device, display system, display control device, and program
US9942540B2 (en) Method and a device for creating images
JP2017208808A (en) Method of providing virtual space, program, and recording medium
US20210037231A1 (en) Image processing apparatus, image processing method, and image processing program
US20220319102A1 (en) Information processing apparatus, method of operating information processing apparatus, and program
US20220329912A1 (en) Information processing apparatus, information processing method, and program
JP2020109955A (en) Photographing device, photographing system, image processing method, and program
CN106681674A (en) Display control method and system of virtual reality display

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180817

R150 Certificate of patent or registration of utility model

Ref document number: 6389540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350