JP7498616B2 - VR image generation device and program - Google Patents

VR image generation device and program Download PDF

Info

Publication number
JP7498616B2
JP7498616B2 JP2020125755A JP2020125755A JP7498616B2 JP 7498616 B2 JP7498616 B2 JP 7498616B2 JP 2020125755 A JP2020125755 A JP 2020125755A JP 2020125755 A JP2020125755 A JP 2020125755A JP 7498616 B2 JP7498616 B2 JP 7498616B2
Authority
JP
Japan
Prior art keywords
image
camera
past
generates
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020125755A
Other languages
Japanese (ja)
Other versions
JP2022021886A (en
Inventor
健介 久富
裕之 川喜田
利之 新井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2020125755A priority Critical patent/JP7498616B2/en
Publication of JP2022021886A publication Critical patent/JP2022021886A/en
Application granted granted Critical
Publication of JP7498616B2 publication Critical patent/JP7498616B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、VR映像生成装置及びプログラムに関する。 The present invention relates to a VR image generation device and program.

近年、報道やスポーツなどの鑑賞を目的とした実写動画のVR(Virtual Reality)が増加している。しかし、全天球のVR映像では、撮影解像度が十分でないために、ユーザが注目して見たいところの解像度が足りない場合がある。 In recent years, the use of live-action video in virtual reality (VR) for viewing news reports, sports, and other events has been increasing. However, with spherical VR video, the shooting resolution is insufficient, and the resolution of the areas that users want to focus on may not be sufficient.

一方、HMD(Head Mounted Display)などの表示装置は高画質化が進み、高解像度で表示できるものが発表されている。それにあわせてVRカメラを高画質化すると、撮影装置が大型化する。また、VRの性質上、被写体の近くにカメラを置かないと十分な解像度で撮影することができず、近くで撮影する煩雑さが普及を妨げている。 On the other hand, display devices such as HMDs (Head Mounted Displays) are becoming increasingly high quality, with some devices capable of displaying images in high resolution being announced. If VR cameras were to be made to have higher image quality in response, the size of the shooting device would increase. Furthermore, due to the nature of VR, it is not possible to shoot with sufficient resolution unless the camera is placed close to the subject, and the hassle of shooting close up is preventing its widespread use.

また、コンテンツによっては、注目箇所は全天球映像の一部であって、それ以外はその場の雰囲気を感じるために必要なことがある。 Also, depending on the content, the focal point may be only a part of the spherical image, and the rest may be necessary to get a feel for the atmosphere of the scene.

これらの理由から、注目箇所を部分的に高解像度で表示させることができるVR映像生成装置が望まれている。例えば、特許文献1には、全天球画像(360度画像)に平面画像を重畳することで、画質が低い全天球画像を平面画像で補う技術が開示されている。 For these reasons, there is a demand for a VR image generating device that can display a portion of interest in high resolution. For example, Patent Document 1 discloses a technology that compensates for a low-quality spherical image (360-degree image) with a planar image by superimposing the planar image on the spherical image.

特開2018-109946号公報JP 2018-109946 A

しかし、特許文献1には、静止画である全天球画像と平面画像とを統合する技術が開示されているものの、VR映像を生成する技術については具体的な開示がない。 However, although Patent Document 1 discloses a technique for integrating a still spherical image with a planar image, it does not specifically disclose any technique for generating VR video.

かかる事情に鑑みてなされた本発明の目的は、部分的に高解像度なVR映像を生成することが可能なVR映像生成装置及びプログラムを提供することにある。 In view of the above, the object of the present invention is to provide a VR image generation device and program capable of generating partially high-resolution VR images.

一実施形態に係るVR映像生成装置は、VRカメラにより撮影されたVR映像と、2Dカメラにより前記VRカメラよりも狭い範囲を高い解像度で撮影された2D映像とを入力し、前記2D映像がマッピングされたVR映像を生成するVR映像生成装置であって、同位置且つ同タイミングで撮影された前記VR映像及び前記2D映像を入力し、前記VR映像から前記VRカメラの姿勢を示す第1姿勢情報を生成し、前記2D映像から前記2Dカメラの姿勢を示す第2姿勢情報、及び前記2Dカメラのレンズの特性を示すレンズ特性情報を生成するキャリブレーション部と、前記第1姿勢情報、前記第2姿勢情報、及び前記レンズ特性情報に基づいて、前記2D映像を前記VR映像にマッピングした合成映像を生成する映像合成部と、前記合成映像の現フレームの撮影方向を第1フレームの撮影方向に一致させたVR映像を生成する回転補正部と、を備える。 A VR image generating device according to one embodiment receives a VR image captured by a VR camera and a 2D image captured by a 2D camera at a higher resolution in a range narrower than that of the VR camera, and generates a VR image onto which the 2D image is mapped. The device includes a calibration unit that receives the VR image and the 2D image captured at the same position and timing, generates first orientation information indicating the orientation of the VR camera from the VR image, and generates second orientation information indicating the orientation of the 2D camera and lens characteristic information indicating the characteristics of the lens of the 2D camera from the 2D image, an image synthesis unit that generates a synthetic image by mapping the 2D image onto the VR image based on the first orientation information, the second orientation information, and the lens characteristic information, and a rotation correction unit that generates a VR image by matching the shooting direction of the current frame of the synthetic image with the shooting direction of the first frame.

また、一実施形態に係るVR映像生成装置は、VRカメラにより撮影されたVR映像と、2Dカメラにより前記VRカメラよりも狭い範囲を高い解像度で撮影された2D映像とを入力し、前記2D映像がマッピングされたVR映像を生成するVR映像生成装置であって、同位置且つ同タイミングで撮影された前記VR映像及び前記2D映像を入力し、前記VR映像から前記VRカメラの姿勢を示す第1姿勢情報を生成し、前記2D映像から前記2Dカメラの姿勢を示す第2姿勢情報、及び前記2Dカメラのレンズの特性を示すレンズ特性情報を生成するキャリブレーション部と、前記第2姿勢情報及び前記レンズ特性情報から、前記2D映像の前フレーム及び現フレームの位置を合わせた上で、現フレームにおいて前フレームとの差分が閾値以下の領域を静止画像として抽出する静止領域抽出部と、前記第1姿勢情報、前記第2姿勢情報、及び前記レンズ特性情報に基づいて、前記静止画像を順次前記VR映像にマッピングした合成映像を生成する映像合成部と、前記合成映像の現フレームの撮影方向を第1フレームの撮影方向に一致させたVR映像を生成する回転補正部と、を備える。 In one embodiment, a VR image generating device inputs a VR image captured by a VR camera and a 2D image captured by a 2D camera with a higher resolution in a narrower range than the VR camera, and generates a VR image onto which the 2D image is mapped. The VR image generating device includes: a calibration unit that inputs the VR image and the 2D image captured at the same position and timing, generates first orientation information indicating the orientation of the VR camera from the VR image, and generates second orientation information indicating the orientation of the 2D camera and lens characteristic information indicating the characteristics of the lens of the 2D camera from the 2D image; a still area extraction unit that aligns the positions of a previous frame and a current frame of the 2D image from the second orientation information and the lens characteristic information, and extracts an area in the current frame where the difference from the previous frame is equal to or less than a threshold as a still image; an image synthesis unit that generates a synthetic image by sequentially mapping the still images onto the VR image based on the first orientation information, the second orientation information, and the lens characteristic information; and a rotation correction unit that generates a VR image by matching the shooting direction of the current frame of the synthetic image with the shooting direction of the first frame.

さらに、一実施形態において、前記VRカメラ及び前記2Dカメラは、撮影時に接続部を介して固定されてもよい。 Furthermore, in one embodiment, the VR camera and the 2D camera may be fixed via a connection part during shooting.

また、一実施形態に係るVR映像生成装置は、VRカメラにより現在撮影された現在VR映像と、過去に生成された過去VR画像とを入力し、前記過去VR画像がマッピングされたVR映像を生成するVR映像生成装置であって、前記過去VR画像は、2Dカメラにより前記VRカメラよりも狭い範囲を高い解像度で過去に撮影された2D映像をマッピングすることにより生成された画像であり、前記現在VR映像及び前記過去VR画像を入力し、前記現在VR映像から前記VRカメラの姿勢を示す第1姿勢情報を生成し、前記過去VR画像から、該過去VR画像を撮影したと仮定した仮想的なVRカメラの姿勢を示す第3姿勢情報を生成するキャリブレーション部と、前記第1姿勢情報及び前記第3姿勢情報に基づいて、前記現在VR映像を前記過去VR画像と撮影方向が一致するように補正した補正VR映像を生成する回転補正部と、ユーザの指示に基づいて、ディスプレイに表示させる前記現在VR映像及び前記過去VR画像を切り替える表示切替部と、を備える。 In one embodiment, the VR image generating device inputs a current VR image currently captured by a VR camera and a past VR image generated in the past, and generates a VR image onto which the past VR image is mapped, the past VR image being an image generated by mapping a 2D image captured in the past by a 2D camera with a higher resolution over a narrower range than the VR camera. The VR image generating device includes a calibration unit that inputs the current VR image and the past VR image, generates first orientation information from the current VR image that indicates the orientation of the VR camera, and generates third orientation information from the past VR image that indicates the orientation of a virtual VR camera that is assumed to have captured the past VR image; a rotation correction unit that generates a corrected VR image by correcting the current VR image so that the shooting direction matches that of the past VR image based on the first orientation information and the third orientation information; and a display switching unit that switches between the current VR image and the past VR image to be displayed on a display based on a user instruction.

さらに、一実施形態において、前記過去VR画像を生成する過去VR画像生成装置は、前記2D映像を入力し、前記2D映像から前記2Dカメラの姿勢を示す第2姿勢情報、及び前記2Dカメラのレンズの特性を示すレンズ特性情報を生成するキャリブレーション部と、前記第2姿勢情報及び前記レンズ特性情報から、前記2D映像の前フレーム及び現フレームの位置を合わせた上で、現フレームにおいて前フレームとの差分が閾値以下の領域を静止画像として抽出する静止領域抽出部と、前記第2姿勢情報及び前記レンズ特性情報に基づいて、前記静止画像を順次マッピングすることにより前記過去VR画像を生成する映像合成部と、を備えてもよい。 Furthermore, in one embodiment, the past VR image generating device that generates the past VR image may include a calibration unit that inputs the 2D video and generates from the 2D video second attitude information indicating the attitude of the 2D camera and lens characteristic information indicating the characteristics of the lens of the 2D camera, a still area extraction unit that aligns the positions of the previous frame and the current frame of the 2D video from the second attitude information and the lens characteristic information and extracts an area in the current frame where the difference from the previous frame is equal to or less than a threshold as a still image, and an image synthesis unit that generates the past VR image by sequentially mapping the still images based on the second attitude information and the lens characteristic information.

また、一実施形態係るプログラムは、コンピュータを、上記VR映像生成装置として機能させる。 In one embodiment, the program causes a computer to function as the VR image generation device.

本発明によれば、部分的に高解像度なVR映像を生成することが可能となる。 The present invention makes it possible to generate partially high-resolution VR images.

第1の実施形態に係るVR映像生成装置の構成例を示すブロック図である。1 is a block diagram showing an example of the configuration of a VR video generation device according to a first embodiment. FIG. 接続部により一体化されたVRカメラ及び2Dカメラ一例を示す図である。FIG. 1 is a diagram showing an example of a VR camera and a 2D camera integrated by a connection portion. 第2の実施形態に係るVR映像生成装置の構成例を示すブロック図である。FIG. 11 is a block diagram showing an example of the configuration of a VR video generation device according to a second embodiment. 第3の実施形態に係るVR映像生成装置が入力する過去VR画像を生成する過去VR画像生成装置の構成例を示すブロック図である。A block diagram showing an example configuration of a past VR image generation device that generates past VR images input by a VR video generation device according to a third embodiment. 第3の実施形態に係るVR映像生成装置の構成例を示すブロック図である。A block diagram showing an example of the configuration of a VR video generation device according to a third embodiment.

以下、実施形態について、図面を参照して詳細に説明する。 The following describes the embodiments in detail with reference to the drawings.

(第1の実施形態)
まず、第1の実施形態に係るVR映像生成装置について説明する。図1に、第1の実施形態に係るVR映像生成装置10を備えるVR映像生成システム1の構成例を示す。
First Embodiment
First, a description will be given of a VR video generation device according to the first embodiment. Fig. 1 shows an example of the configuration of a VR video generation system 1 including a VR video generation device 10 according to the first embodiment.

VR映像生成システム1は、VRカメラ31と、2Dカメラ32と、接続部33と、VR映像記憶部41と、2D映像記憶部42と、VR映像生成装置10と、特徴点位置情報記憶部21と、第1フレーム姿勢記憶部22と、を備える。なお、図1に記載の複数の記憶部は、適宜統合して、より少ない数の記憶部としてもよいが、説明の便宜上それぞれ分けて記載している。 The VR video generation system 1 includes a VR camera 31, a 2D camera 32, a connection unit 33, a VR video storage unit 41, a 2D video storage unit 42, a VR video generation device 10, a feature point position information storage unit 21, and a first frame attitude storage unit 22. Note that the multiple storage units shown in FIG. 1 may be appropriately integrated into a smaller number of storage units, but are shown separately for ease of explanation.

VRカメラ31は、複数のカメラを搭載しており、複数のカメラで撮影した映像をスティッチング(統合)してVR映像を生成する。そして、VRカメラ31は、生成したVR映像をVR映像記憶部41に出力する。VR映像は、例えば全天球映像であるが、360度未満の広視野映像であってもよい。 The VR camera 31 is equipped with multiple cameras and stitches (integrates) images captured by the multiple cameras to generate VR images. The VR camera 31 then outputs the generated VR images to the VR image storage unit 41. The VR images are, for example, spherical images, but may also be wide-field images of less than 360 degrees.

2Dカメラ32は、VRカメラ31よりも狭い範囲を高い画素密度(解像度)で撮影するカメラである。2Dカメラ32は、レンズが取り付けられており、2次元の映像を撮影して、2D映像を2D映像記憶部42に出力する。レンズはズームレンズであってもよいし、単焦点レンズであってもよい。2Dカメラ32の画素数は必ずしもVRカメラ31より大きくなくてもよく、2Dカメラ32のほうが狭い範囲を撮影するため、VRカメラ31より画素密度が高くなる。 The 2D camera 32 is a camera that captures a narrower range than the VR camera 31 at a higher pixel density (resolution). The 2D camera 32 is fitted with a lens, captures two-dimensional images, and outputs the 2D images to the 2D image storage unit 42. The lens may be a zoom lens or a single-focus lens. The number of pixels in the 2D camera 32 does not necessarily need to be greater than that of the VR camera 31, and because the 2D camera 32 captures a narrower range, it has a higher pixel density than the VR camera 31.

VRカメラ31及び2Dカメラ32は、撮影時には、相対的な位置関係が変わらないように、接続部(例えば、バー)33を介して固定され、一体化される。図2に、接続部33により一体化されたVRカメラ31及び2Dカメラ32の一例を示す。VRカメラ31が固定された2Dカメラ32は、回転運動と並進運動を伴ってもよい。 The VR camera 31 and the 2D camera 32 are fixed and integrated via a connection part (e.g., a bar) 33 so that their relative positional relationship does not change when shooting. Figure 2 shows an example of the VR camera 31 and the 2D camera 32 integrated by the connection part 33. The 2D camera 32 to which the VR camera 31 is fixed may perform rotational and translational motion.

VR映像生成装置10は、VRカメラ31により撮影されたVR映像と、2Dカメラ32により撮影された2D映像とを入力し、2D映像がマッピングされたVR映像を生成する。VR映像生成装置10が出力するVR映像は、VR映像に高解像度の2D映像がマッピングされているため、部分的に高解像度なVR映像となっている。本明細書では、この部分的に高解像度なVR映像を、「部分高解像度VR映像」と称する。 The VR image generating device 10 inputs VR images captured by the VR camera 31 and 2D images captured by the 2D camera 32, and generates VR images onto which the 2D images are mapped. The VR images output by the VR image generating device 10 are partially high-resolution VR images, since high-resolution 2D images are mapped onto the VR images. In this specification, this partially high-resolution VR image is referred to as a "partial high-resolution VR image."

VR映像生成装置10は、収録映像を入力する場合には、VR映像記憶部41からVR映像を入力し、2D映像記憶部42から2D映像を入力する。また、VR映像生成装置10がカメラのライブ出力を入力する場合には、VR映像生成システム1はVR映像記憶部41及び2D映像記憶部42を備えている必要はなく、VR映像生成装置10はVRカメラ31から直接VR映像を入力し、2Dカメラ32から直接2D映像を入力する。 When inputting recorded video, the VR video generation device 10 inputs VR video from the VR video storage unit 41 and inputs 2D video from the 2D video storage unit 42. Also, when the VR video generation device 10 inputs live output from a camera, the VR video generation system 1 does not need to be equipped with the VR video storage unit 41 and the 2D video storage unit 42, and the VR video generation device 10 inputs VR video directly from the VR camera 31 and inputs 2D video directly from the 2D camera 32.

VR映像生成装置10は、キャリブレーション部11と、映像合成部12と、回転補正部13と、を備える。VR映像生成装置10は、ワークステーションであってもよいし、ASIC(Application Specific Integrated Circuit),FPGA(field-programmable gate array)などによるハードウェアであってもよい。 The VR image generating device 10 includes a calibration unit 11, an image synthesis unit 12, and a rotation correction unit 13. The VR image generating device 10 may be a workstation, or may be hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).

キャリブレーション部11は、同位置且つ同タイミングで撮影されたVR映像及び2D映像を入力する。同じタイミングで撮影するために、カチンコなどの音をベースにフレームを合わせてもよいし、タイムコードを用いてもよい。また、タイミングを厳密に合わせるために、同期信号をVRカメラ及び2Dカメラ32に入力してもよい。 The calibration unit 11 inputs VR video and 2D video captured at the same position and timing. To capture images at the same timing, the frames may be aligned based on the sound of a clapperboard or the like, or a time code may be used. In addition, to precisely align the timing, a synchronization signal may be input to the VR camera and 2D camera 32.

キャリブレーション部11は、SLAM(Simultaneous Localization and Mapping)技術を用いて、VR映像からVRカメラ31の姿勢を求め、VRカメラ31の姿勢を示す第1姿勢情報を生成する。そして、キャリブレーション部11は、VR映像及び第1姿勢情報を映像合成部12に出力する。SLAM技術としては、例えばOpenVSLAMなどのツールが挙げられる。第1姿勢情報には、位置OVR及び方向(回転行列RVR)が含まれる。 The calibration unit 11 uses a SLAM (Simultaneous Localization and Mapping) technique to obtain the orientation of the VR camera 31 from the VR video and generate first orientation information indicating the orientation of the VR camera 31. Then, the calibration unit 11 outputs the VR video and the first orientation information to the video synthesis unit 12. An example of the SLAM technique is a tool such as OpenVSLAM. The first orientation information includes a position O VR and a direction (rotation matrix R VR ).

また、キャリブレーション部11は、SLAM技術を用いて、2D映像から2Dカメラ32の姿勢及び2Dカメラ32のレンズの特性を求め、2Dカメラ32の姿勢を示す第2姿勢情報、及び2Dカメラ32のレンズの特性を示すレンズ特性情報を生成する。そして、キャリブレーション部11は、2D映像、第2姿勢情報、及びレンズ特性情報を映像合成部12に出力する。第2姿勢情報には、位置O2D、並進ベクトルT2D、及び方向(回転行列R2D)が含まれる。レンズ特性情報には、歪係数κ1,κ2、カメラの焦点距離F、及び撮像センサの中心位置Cu,Cvが含まれる。キャリブレーション部11は、VRカメラ31及び2Dカメラ32の姿勢を、同じ座標系で取得する。 Furthermore, the calibration unit 11 uses SLAM technology to obtain the attitude of the 2D camera 32 and the characteristics of the lens of the 2D camera 32 from the 2D video, and generates second attitude information indicating the attitude of the 2D camera 32 and lens characteristic information indicating the characteristics of the lens of the 2D camera 32. Then, the calibration unit 11 outputs the 2D video, the second attitude information, and the lens characteristic information to the video synthesis unit 12. The second attitude information includes a position O 2D , a translation vector T 2D , and a direction (rotation matrix R 2D ). The lens characteristic information includes distortion coefficients κ 1 , κ 2 , a focal length F of the camera, and center positions C u , C v of the image sensor. The calibration unit 11 acquires the attitudes of the VR camera 31 and the 2D camera 32 in the same coordinate system.

また、キャリブレーション部11は、キャリブレーション処理を行う際に抽出した2D映像及びVR映像の特徴点の位置を示す特徴点位置情報を生成し、特徴点位置情報記憶部21に記憶させる。特徴点は、SIFT(Scale-Invariant Feature Transform)、ORB(Oriented FAST and Rotated BRIEF)などの既存の技術により、抽出することができる。 The calibration unit 11 also generates feature point position information indicating the positions of feature points of the 2D and VR images extracted during the calibration process, and stores the information in the feature point position information storage unit 21. The feature points can be extracted using existing techniques such as SIFT (Scale-Invariant Feature Transform) and ORB (Oriented FAST and Rotated BRIEF).

さらに、キャリブレーション部11は、第1フレームにおけるVRカメラ31の姿勢を示す第1フレーム姿勢情報を、第1フレーム姿勢記憶部22に記憶させる。また、キャリブレーション部11は、前フレームのVRカメラ31に対する2Dカメラ32の方向情報を保存しておき、その周辺のみに対して特徴点を抽出し、マッチングの探索範囲を限定することで、キャリブレーションの処理時間の短縮と精度向上を図ることができる。 The calibration unit 11 also stores first frame orientation information indicating the orientation of the VR camera 31 in the first frame in the first frame orientation storage unit 22. The calibration unit 11 also saves directional information of the 2D camera 32 relative to the VR camera 31 in the previous frame, extracts feature points only in its surroundings, and limits the matching search range, thereby shortening the processing time for calibration and improving accuracy.

映像合成部12は、VR映像及び2D映像とともに、第1姿勢情報、第2姿勢情報、及びレンズ特性情報を入力し、該3つの情報に基づいて、2D映像をVR映像にマッピング(上書き)した合成映像を生成する。そして、映像合成部12は、第1姿勢情報及び合成映像を回転補正部13に出力する。例えば、映像合成部12は、プログラムにより、第1姿勢情報、第2姿勢情報、及びレンズ特性情報を反映した仮想的な投射機を仮想空間に設置し、該投射機により投射して、球体内側表面上のテクスチャを上書きすることにより合成映像を生成する。 The image synthesis unit 12 inputs the first attitude information, the second attitude information, and the lens characteristic information along with the VR image and the 2D image, and generates a synthetic image by mapping (overwriting) the 2D image onto the VR image based on these three pieces of information. The image synthesis unit 12 then outputs the first attitude information and the synthetic image to the rotation correction unit 13. For example, the image synthesis unit 12 uses a program to place a virtual projector that reflects the first attitude information, the second attitude information, and the lens characteristic information in the virtual space, and projects from the projector to overwrite the texture on the inner surface of the sphere, thereby generating a synthetic image.

あるいは、映像合成部12は、球体上の画素の位置W=(X,Y,Z)から、次式(1)を用いて2D映像の該当の画素の座標(u,v)を求めて、そのRGB値を球体内側表面上のテクスチャのRGB値に置き換えることにより合成映像を生成する。zは光学主点から撮像面までの距離であり、R2Dは回転行列であり、T2Dは並進ベクトルである。Aはカメラパラメータであり、次式(2)で表される。aは画像のアスペクト比(縦/横)である。Cu,Cvは撮像センサの中心位置である。 Alternatively, the image synthesis unit 12 obtains the coordinates (u, v) of the corresponding pixel in the 2D image from the position W = (X, Y, Z) of the pixel on the sphere using the following formula (1), and generates a synthetic image by replacing the RGB values with the RGB values of the texture on the inner surface of the sphere. z is the distance from the optical principal point to the imaging surface, R 2D is a rotation matrix, and T 2D is a translation vector. A is a camera parameter and is expressed by the following formula (2). a is the aspect ratio (length/width) of the image. Cu and Cv are the center positions of the imaging sensor.

Figure 0007498616000001
Figure 0007498616000001

この映像合成部12の処理により、回転運動に合わせて、2D映像がマッピングされる位置が移動し、2Dカメラ32のズーム操作に合わせてマッピングするエリアが拡大縮小される。 By processing this image synthesis unit 12, the position where the 2D image is mapped moves in accordance with the rotational movement, and the area to be mapped is enlarged or reduced in accordance with the zoom operation of the 2D camera 32.

また、映像合成部12は、球体内側上のVR映像と2D映像との境界を滑らかにするために、2Dカメラ32の四辺近傍の映像をVR映像とブレンドしてもよい。 The image synthesis unit 12 may also blend images near the four sides of the 2D camera 32 with the VR image to smooth the boundary between the VR image and the 2D image on the inside of the sphere.

回転補正部13は、映像合成部12から第1姿勢情報及び合成映像を入力するとともに、特徴点位置情報記憶部21から特徴点位置情報を読み込み、第1フレーム姿勢記憶部22から第1フレームにおけるVRカメラ31の姿勢情報を読み込む。回転補正部13は、これらの情報から、合成映像の第1フレームと現フレームとの回転差分Rdを算出し、現フレームに対して回転差分Rdの逆行列を乗じ、合成映像の現フレームの撮影方向を第1フレームの撮影方向に一致させる。そして、回転補正部13は、球体の映像を正距投影方式の2D映像に変換する。回転補正部13は、上記処理を次以降のフレームについても繰り返し実施することで、部分高解像度VR映像を生成する。 The rotation correction unit 13 inputs the first orientation information and the composite image from the image composition unit 12, reads the feature point position information from the feature point position information storage unit 21, and reads the orientation information of the VR camera 31 in the first frame from the first frame orientation storage unit 22. From these pieces of information, the rotation correction unit 13 calculates the rotation difference Rd between the first frame and the current frame of the composite image, multiplies the current frame by the inverse matrix of the rotation difference Rd , and matches the shooting direction of the current frame of the composite image with the shooting direction of the first frame. Then, the rotation correction unit 13 converts the spherical image into a 2D image of an equidistant projection method. The rotation correction unit 13 repeatedly performs the above process on the next and subsequent frames to generate a partial high-resolution VR image.

回転補正部13による処理を行わない場合、VRカメラ31が搭載された2Dカメラ32を回転して撮影すると、2Dカメラ32の中心が常に表示側の中央になって、VR映像が回転してしまう。結果的に、ユーザの頭部運動と関係なく映像が回転するため、ユーザに不快感を生じさせるおそれがある。そこで、回転補正部13の処理を行うことにより、VR映像の方向を固定した状態で、相対的に2D映像側が動く映像を生成することができる。回転補正部13の処理により、2Dカメラ32のズーム動作に伴って拡大・縮小する形で表示させることも可能となる。 If the processing by the rotation correction unit 13 is not performed, when the 2D camera 32 mounted with the VR camera 31 is rotated to capture an image, the center of the 2D camera 32 will always be the center of the display side, and the VR image will rotate. As a result, the image rotates regardless of the user's head movement, which may cause discomfort to the user. Therefore, by performing processing by the rotation correction unit 13, it is possible to generate an image in which the 2D image moves relatively while keeping the orientation of the VR image fixed. Processing by the rotation correction unit 13 also makes it possible to display the image in a form that enlarges and shrinks in accordance with the zoom operation of the 2D camera 32.

上述したように、VR映像生成装置10は、VRカメラよりも高解像度の2Dカメラにより撮影された2D映像をVR映像にマッピングする。そのため本実施形態によれば、注目すべき被写体を高画質で表示させることができる。換言すれば、全天球映像のうち、2Dカメラで撮影している領域は、全天球のうちでも注目すべき領域と重なることが多く、その部分を高解像度化して表示させることができる。また、撮影時の製作者の意図を高解像度部分に集約することができ、映像制作側の制作意図や視線誘導をユーザに無理なく伝えることができる。 As described above, the VR image generating device 10 maps 2D images captured by a 2D camera with a higher resolution than the VR camera onto the VR image. Therefore, according to this embodiment, it is possible to display a notable subject in high image quality. In other words, the area of the omnidirectional image captured by the 2D camera often overlaps with a notable area of the omnidirectional image, and this part can be displayed in high resolution. In addition, the intention of the creator at the time of shooting can be concentrated in the high-resolution part, and the production intention and gaze guidance of the video production side can be conveyed to the user without difficulty.

また、従来のように、VRカメラ及び2Dカメラを別々に設置して撮影した場合、フレームごとにVRカメラ及び2Dカメラのカメラパラメータを求める必要があるため、撮影時の負担が大きくなる。この点、本実施形態では、VRカメラ31及び2Dカメラ32を接続部33で固定するなどの方法により、同位置で撮影を行う。そのため本実施形態によれば、撮影ポジションが1か所で済み、新たなVRカメラの設営は不要となり、従来の撮影フローから大きく変わらないため、撮影時の負担増加を抑制することができる。また、フレームごとにVRカメラ31及び2Dカメラ32のカメラパラメータ(カメラ位置及び姿勢、並びにレンズ特性)を求める必要がなく、2Dカメラ32のレンズ特性のパラメータのみを求めればよく、高速化が図れる。 In addition, when a VR camera and a 2D camera are installed separately and photographed as in the past, the camera parameters of the VR camera and the 2D camera must be calculated for each frame, which increases the burden during photographing. In this regard, in this embodiment, photographing is performed at the same position by fixing the VR camera 31 and the 2D camera 32 with the connection part 33, for example. Therefore, according to this embodiment, only one photographing position is required, and there is no need to set up a new VR camera, and since there is no significant change from the conventional photographing flow, it is possible to suppress an increase in the burden during photographing. In addition, there is no need to calculate the camera parameters (camera position and attitude, and lens characteristics) of the VR camera 31 and the 2D camera 32 for each frame, and only the parameters of the lens characteristics of the 2D camera 32 need to be calculated, which increases the speed.

(第2の実施形態)
次に、第2の実施形態に係るVR映像生成装置について説明する。
Second Embodiment
Next, a VR image generation device according to a second embodiment will be described.

図3に、第2の実施形態に係るVR映像生成装置10aを備えるVR映像生成システム2の構成例を示す。VR映像生成システム2は、VRカメラ31と、2Dカメラ32と、接続部33と、VR映像記憶部41と、2D映像記憶部42と、VR映像生成装置10aと、特徴点位置情報記憶部21と、第1フレーム姿勢記憶部22と、を備える。なお、図3に記載の複数の記憶部は、適宜統合して、より少ない数の記憶部としてもよいが、説明の便宜上それぞれ分けて記載している。第1の実施形態と同一の構成については、同一の参照番号を付して適宜説明を省略する。 Figure 3 shows an example configuration of a VR video generation system 2 including a VR video generation device 10a according to the second embodiment. The VR video generation system 2 includes a VR camera 31, a 2D camera 32, a connection unit 33, a VR video storage unit 41, a 2D video storage unit 42, the VR video generation device 10a, a feature point position information storage unit 21, and a first frame attitude storage unit 22. Note that the multiple storage units shown in Figure 3 may be appropriately integrated into a smaller number of storage units, but are shown separately for ease of explanation. The same reference numbers are used for the same configuration as in the first embodiment, and explanations are omitted as appropriate.

VR映像生成装置10aは、キャリブレーション部11aと、映像合成部12aと、回転補正部13aと、静止領域抽出部14と、を備える。VR映像生成装置10aは、第1の実施形態のVR映像生成装置10と比較して、更に静止領域抽出部14を備える点が相違する。VR映像生成装置10aは、ワークステーションであってもよいし、ASIC,FPGAなどによるハードウェアであってもよい。 The VR image generating device 10a includes a calibration unit 11a, an image synthesis unit 12a, a rotation correction unit 13a, and a still area extraction unit 14. The VR image generating device 10a differs from the VR image generating device 10 of the first embodiment in that it further includes a still area extraction unit 14. The VR image generating device 10a may be a workstation, or may be hardware such as an ASIC or FPGA.

キャリブレーション部11aは、第1の実施形態のキャリブレーション部11と同様に、VRカメラ31の姿勢示す第1姿勢情報、2Dカメラ32の姿勢を示す第2姿勢情報、2Dカメラ32のレンズの特性を示すレンズ特性情報、及び特徴点位置情報を生成する。そして、キャリブレーション部11aは、VR映像及び第1姿勢情報を映像合成部12aに出力し、2D映像、第2姿勢情報、及びレンズ特性情報を静止領域抽出部14に出力し、特徴点情報を特徴点位置情報記憶部21に記憶させる。 Similar to the calibration unit 11 of the first embodiment, the calibration unit 11a generates first posture information indicating the posture of the VR camera 31, second posture information indicating the posture of the 2D camera 32, lens characteristic information indicating the characteristics of the lens of the 2D camera 32, and feature point position information. Then, the calibration unit 11a outputs the VR video and the first posture information to the video synthesis unit 12a, outputs the 2D video, the second posture information, and the lens characteristic information to the still area extraction unit 14, and stores the feature point information in the feature point position information storage unit 21.

静止領域抽出部14は、第2姿勢情報及びレンズ特性情報から、2D映像の前フレーム及び現フレームの位置を合わせた上で、現フレームにおいて前フレームとの差分が閾値以下の領域(動きのない領域)を静止画像として抽出し、第2姿勢情報及びレンズ特性情報とともに映像合成部12aに出力する。 The still region extraction unit 14 aligns the positions of the previous and current frames of the 2D video from the second orientation information and the lens characteristic information, extracts the region in the current frame where the difference from the previous frame is equal to or less than a threshold (a region with no movement) as a still image, and outputs this to the image synthesis unit 12a together with the second orientation information and the lens characteristic information.

また、静止領域抽出部14は、2D映像の現フレームの画像、姿勢情報、及びレンズ特性情報を前フレーム情報として、前フレーム情報記憶部23に記憶させる。なお、第1フレームについては、前フレームがないのでこの処理を行わない。 The still region extraction unit 14 also stores the image, posture information, and lens characteristic information of the current frame of the 2D video as previous frame information in the previous frame information storage unit 23. Note that this process is not performed for the first frame, as there is no previous frame.

映像合成部12aは、VR映像、第1姿勢情報(位置と回転)、2D映像、第2姿勢情報、及びレンズ特性情報を入力する。映像合成部12aは、静止画像を順次マッピングして上書きしたマッピングVR画像を生成し、マッピングVR画像記憶部24に記憶させる。すなわち、映像合成部12aは、マッピングVR画像記憶部24からこれまでにマッピングされたマッピングVR画像を読み込み、入力された第2姿勢情報、及びレンズ特性情報をもとに、静止画像をマッピングVR画像にマッピングし、マッピングVR画像記憶部24に再度書き込む。そして、映像合成部12aは、キャリブレーション部11から入力したVR映像に、マッピングVR画像を合成(上書き)した合成映像を生成し、合成映像及び第1姿勢情報を回転補正部13aに出力する。なお、映像合成部12aは、すでに一度上書きしたところは、2回目からは上書きせずに、各画素において保存しておき、それを時間経過において、順次繰り返し再生、又は順再生と逆再生の混合により、動画化することも可能である。つまり、ある画素に対して、複数マッピングされる場合には、そのマッピングされたRGB値を順次再生すると、簡易的に動画化することができる。ただし、順番に再生していき、最後までいったら初めに戻って再生をし直すと、頭出しによるショック(非連続性)が発生するので、最後まで再生したら逆再生(巻き戻し再生)し、頭まで再生したらまた順再生するというようにすると、ショックのない連続的な動画を再生することができる。 The image synthesis unit 12a inputs the VR image, the first attitude information (position and rotation), the 2D image, the second attitude information, and the lens characteristic information. The image synthesis unit 12a generates a mapping VR image by sequentially mapping and overwriting the still images, and stores the mapping VR image in the mapping VR image storage unit 24. That is, the image synthesis unit 12a reads the mapping VR image that has been mapped so far from the mapping VR image storage unit 24, maps the still images to the mapping VR image based on the input second attitude information and lens characteristic information, and writes it again in the mapping VR image storage unit 24. Then, the image synthesis unit 12a generates a composite image by synthesizing (overwriting) the mapping VR image with the VR image input from the calibration unit 11, and outputs the composite image and the first attitude information to the rotation correction unit 13a. Note that the image synthesis unit 12a does not overwrite the already overwritten part from the second time onwards, but stores it in each pixel, and it is also possible to animate it by sequentially repeating playback or mixing forward playback and reverse playback over time. In other words, if multiple mappings are made to a pixel, playing the mapped RGB values in sequence can easily create a video. However, if you play them in sequence, go back to the beginning when it reaches the end, and start playing again, a shock (discontinuity) will occur due to the beginning of the video, so if you play to the end, play in reverse (rewind), play to the beginning, and then play forward again, you can play a continuous video without any shocks.

回転補正部13aは、第1の実施形態と同様にして部分高解像度VR映像を生成し、外部に出力する。 The rotation correction unit 13a generates a partial high-resolution VR image in the same manner as in the first embodiment and outputs it to the outside.

本実施形態においては、VRカメラ31を搭載した2Dカメラ32は、回転運動だけを行い、大きな並進運動を伴わないことを前提とする。並進運動を伴うと2D映像が幾何変換されるため、現フレーム以外のフレームから抽出した静止画像が現フレームのVR映像にマッチングしなくなるためである。 In this embodiment, it is assumed that the 2D camera 32 equipped with the VR camera 31 only performs rotational motion and does not perform large translational motion. This is because if translational motion is performed, the 2D image is geometrically transformed, and still images extracted from frames other than the current frame will no longer match the VR image of the current frame.

第1の実施形態では、高解像度化される領域は、2Dカメラ32で撮影した領域に限定される。一方、本実施形態では、2D映像から静止領域を抽出する処理を加えているため、現フレーム以外のフレームから静止領域をVR映像にマッピングすることで、現フレームにおいて2Dカメラ32が撮影していない領域も高解像度化することができる。 In the first embodiment, the area to be made high resolution is limited to the area captured by the 2D camera 32. On the other hand, in the present embodiment, a process is added to extract still areas from the 2D video, so that areas not captured by the 2D camera 32 in the current frame can also be made high resolution by mapping still areas from frames other than the current frame onto the VR video.

(第3の実施形態)
次に、第3の実施形態に係るVR映像生成装置について説明する。
Third Embodiment
Next, a VR image generation device according to a third embodiment will be described.

図4及び図5に、第3の実施形態に係るVR映像生成装置10bを備えるVR映像生成システム3の構成例を示す。本実施形態では、図4に示す過去VR画像生成装置50により過去VR画像を生成した後に、図5に示すVR映像生成装置10bにより過去VR画像を用いて部分高解像度VR映像を生成する。 Figures 4 and 5 show an example configuration of a VR video generation system 3 including a VR video generation device 10b according to the third embodiment. In this embodiment, after a past VR image is generated by a past VR image generation device 50 shown in Figure 4, a partial high-resolution VR image is generated using the past VR image by a VR video generation device 10b shown in Figure 5.

VR映像生成システム3は、2Dカメラ32と、2D映像記憶部42と、過去VR画像生成装置50と、特徴点位置情報記憶部61と、前フレーム情報記憶部62と、マッピングVR画像記憶部63と、過去VR画像記憶部64と、VRカメラ31と、VR映像記憶部41と、VR映像生成装置10bと、入力I/F81と、ヘッドマウントディスプレイ82と、頭部方向検出センサ83と、を備える。なお、図4,5に記載の複数の記憶部は、適宜統合して、より少ない数の記憶部としてもよいが、説明の便宜上それぞれ分けて記載している。第1の実施形態と同一の構成については、同一の参照番号を付して適宜説明を省略する。 The VR video generation system 3 includes a 2D camera 32, a 2D video storage unit 42, a past VR image generation device 50, a feature point position information storage unit 61, a previous frame information storage unit 62, a mapping VR image storage unit 63, a past VR image storage unit 64, a VR camera 31, a VR video storage unit 41, a VR video generation device 10b, an input I/F 81, a head mounted display 82, and a head direction detection sensor 83. Note that the multiple storage units shown in Figures 4 and 5 may be appropriately integrated to form a smaller number of storage units, but are described separately for ease of explanation. The same reference numbers are used for the same configuration as in the first embodiment, and explanations are omitted as appropriate.

まず、図4を参照して、過去VR画像生成装置50について説明する。2Dカメラ32は、ズームレンズ又は単焦点レンズが取り付けられている。2Dカメラ32は、さまざまな方向に向けて撮影した2D映像を2D映像記憶部42に記憶させる。本実施形態では、2Dカメラ32は、回転運動のみを伴い、大きな並進運動を伴っていないことを前提とする。 First, the past VR image generation device 50 will be described with reference to FIG. 4. The 2D camera 32 is equipped with a zoom lens or a single focus lens. The 2D camera 32 stores 2D images captured in various directions in the 2D image storage unit 42. In this embodiment, it is assumed that the 2D camera 32 only involves rotational movement and does not involve large translational movement.

過去VR画像生成装置50は、2D映像記憶部42から、さまざまな方向に向けて撮影された2D映像を入力し、静止領域を抽出した上でスティッチングしてVR画像を生成する。 The past VR image generating device 50 inputs 2D images captured in various directions from the 2D image storage unit 42, extracts still areas, and stitches them together to generate a VR image.

過去VR画像生成装置50は、キャリブレーション部51と、静止領域抽出部52と、映像合成部53と、を備える。過去VR画像生成装置50は、ワークステーションであってもよいし、ASIC,FPGAなどによるハードウェアであってもよい。 The past VR image generating device 50 includes a calibration unit 51, a still area extraction unit 52, and a video synthesis unit 53. The past VR image generating device 50 may be a workstation, or may be hardware such as an ASIC or FPGA.

キャリブレーション部51は、2D映像記憶部42から2D映像を入力する。キャリブレーション部51は、SLAM技術を用いて、2D映像から2Dカメラ32の姿勢を示す第2姿勢情報、及び2Dカメラ32のレンズの特性を示すレンズ特性情報を生成し、2D映像、第2姿勢情報、及びレンズ特性情報を静止領域抽出部52に出力する。また、キャリブレーション部51は、キャリブレーション処理を行う際に抽出した特徴点の位置を特徴点位置情報記憶部61に記憶させる。本実施形態の場合、映像合成部53においてフレームごとに画像をマッピングしていくが、特徴点位置情はフレーム間の画像の相対位置を出すために用いられる。なお、映像(画像群)が一括で入力される場合には、フレームの位置関係が分かるので、特徴点位置情は不要になる。 The calibration unit 51 inputs the 2D video from the 2D video storage unit 42. The calibration unit 51 uses SLAM technology to generate second attitude information indicating the attitude of the 2D camera 32 from the 2D video, and lens characteristic information indicating the characteristics of the lens of the 2D camera 32, and outputs the 2D video, the second attitude information, and the lens characteristic information to the still area extraction unit 52. The calibration unit 51 also stores the positions of the feature points extracted when performing the calibration process in the feature point position information storage unit 61. In this embodiment, the image synthesis unit 53 maps images for each frame, and the feature point position information is used to determine the relative positions of the images between frames. Note that when the video (image group) is input all at once, the positional relationship between the frames is known, and therefore the feature point position information is not necessary.

静止領域抽出部52は、2D映像、第2姿勢情報、及びレンズ特性情報を入力するとともに、1つ前のフレームの2D映像、第2姿勢情報、及びレンズ特性情報を前フレーム情報記憶部62に出力する。静止領域抽出部52は、新たなフレームの2D映像、第2姿勢情報及びレンズ特性情報を入力すると、前フレーム情報記憶部62から、前フレームの2D映像、第2姿勢情報、及びレンズ特性情報を読み込む。静止領域抽出部52は、第2姿勢情報及びレンズ特性情報から、2D映像の前フレーム及び現フレームの位置を合わせた上で、現フレームにおいて前フレームとの差分が閾値以下の領域を静止画像として抽出し、カメラ姿勢情報及びレンズ特性情報とともに映像合成部53に出力する。なお、第1フレームに対しては前フレームがないので、この処理は行わない。 The still area extraction unit 52 inputs the 2D video, the second orientation information, and the lens characteristic information, and outputs the 2D video, the second orientation information, and the lens characteristic information of the previous frame to the previous frame information storage unit 62. When the still area extraction unit 52 inputs the 2D video, the second orientation information, and the lens characteristic information of a new frame, it reads the 2D video, the second orientation information, and the lens characteristic information of the previous frame from the previous frame information storage unit 62. The still area extraction unit 52 aligns the positions of the previous and current frames of the 2D video from the second orientation information and the lens characteristic information, extracts an area of the current frame where the difference from the previous frame is equal to or less than a threshold as a still image, and outputs this to the image synthesis unit 53 together with the camera orientation information and the lens characteristic information. Note that this process is not performed for the first frame because there is no previous frame.

映像合成部53は、マッピングVR画像記憶部63から、前フレームまでのマッピングVR画像を読み込む。映像合成部53は、静止領域抽出部52から、静止画像、第2姿勢情報、及びレンズ特性情報を入力し、第2姿勢情報及びレンズ特性情報に基づいて、静止画像を順次マッピングすることにより過去VR画像を生成する。具体的には、映像合成部53は、マッピングVR画像記憶部63から読み込んだマッピングVR画像に静止画像をマッピング(上書き)する。映像合成部53は、すべてのフレームについて処理を終えたら、最終的なマッピングVR画像を過去VR画像として過去VR画像記憶部64に記憶させる。すでに一度上書きしたところは、2回目からは上書きせずに、各画素において保存しておき、それを時間経過において、順次繰り返し再生、又は順再生と逆再生の混合により動画化することも可能である。 The video synthesis unit 53 reads mapping VR images up to the previous frame from the mapping VR image storage unit 63. The video synthesis unit 53 inputs still images, second attitude information, and lens characteristic information from the still area extraction unit 52, and generates a past VR image by sequentially mapping the still images based on the second attitude information and lens characteristic information. Specifically, the video synthesis unit 53 maps (overwrites) still images onto the mapping VR images read from the mapping VR image storage unit 63. When the video synthesis unit 53 has completed processing for all frames, it stores the final mapping VR image in the past VR image storage unit 64 as a past VR image. Anything that has already been overwritten once is not overwritten from the second time onwards, but is saved in each pixel, and it is also possible to play it repeatedly in sequence over time, or to animate it by mixing forward and reverse playback.

次に、図5を参照して、VR映像生成装置10bについて説明する。VR映像生成装置10bは、VRカメラ31により現在撮影された現在VR映像と、過去に生成された過去VR画像とを入力し、過去VR画像がマッピングされたVR映像を生成する。 Next, the VR image generating device 10b will be described with reference to FIG. 5. The VR image generating device 10b receives a current VR image currently captured by the VR camera 31 and a past VR image generated in the past, and generates a VR image onto which the past VR image is mapped.

VRカメラ31は、複数のカメラが搭載されており、該複数のカメラで同じタイミングで撮影した映像をスティッチング(統合)したVR映像を生成し、VR映像記憶部41に出力する。VRカメラ31による撮影は、2Dカメラ32と同じ位置で撮影することを前提とする。 The VR camera 31 is equipped with multiple cameras, and stitches together (integrates) images captured by the multiple cameras at the same time to generate VR images, which are then output to the VR image storage unit 41. It is assumed that the VR camera 31 captures images from the same position as the 2D camera 32.

VR映像生成装置10bは、キャリブレーション部11bと、回転補正部13bと、表示切替部15と、を備える。VR映像生成装置10bは、ワークステーションであってもよいし、ASIC,FPGAなどによるハードウェアであってもよい。 The VR image generating device 10b includes a calibration unit 11b, a rotation correction unit 13b, and a display switching unit 15. The VR image generating device 10b may be a workstation, or may be hardware such as an ASIC or FPGA.

キャリブレーション部11bは、VRカメラ31で撮影された現在のVR映像(現在VR映像)、及び過去VR画像生成装置50により生成された過去VR画像を入力する。キャリブレーション部11bは、SLAM技術を用いて、現在VR映像からVRカメラ31の姿勢を求め、VRカメラ31の姿勢を示す第1姿勢情報を生成する。また、キャリブレーション部11bは、SLAM技術を用いて、過去VR画像から、該過去VR画像を撮影したと仮定した仮想的なVRカメラの姿勢を求め、仮想的なVRカメラの姿勢を示す第3姿勢情報を生成する。そして、キャリブレーション部11bは、現在VR映像、過去VR画像、第1姿勢情報、及び第3姿勢情報を、回転補正部13bに出力する。 The calibration unit 11b inputs the current VR image (current VR image) captured by the VR camera 31 and the past VR image generated by the past VR image generation device 50. The calibration unit 11b uses SLAM technology to determine the attitude of the VR camera 31 from the current VR image and generates first attitude information indicating the attitude of the VR camera 31. The calibration unit 11b also uses SLAM technology to determine the attitude of a virtual VR camera that is assumed to have captured the past VR image from the past VR image and generates third attitude information indicating the attitude of the virtual VR camera. The calibration unit 11b then outputs the current VR image, the past VR image, the first attitude information, and the third attitude information to the rotation correction unit 13b.

回転補正部13bは、キャリブレーション部11bから、現在VR映像、過去VR画像、第1姿勢情報、及び第3姿勢情報を入力する。回転補正部13bは、第1姿勢情報及び第3姿勢情報に基づいて、過去VR画像から見た現在VR映像の回転差分Rdを算出する。そして、回転補正部13bは、現在VR映像に回転差分Rdの逆補正Rd -1を施し、現在VR映像を過去VR画像と撮影方向が一致するように補正して補正VR映像を生成する。そして、回転補正部13bは、補正VR映像及び過去VR画像を、表示切替部15に出力する。 The rotation correction unit 13b inputs the current VR video, the past VR image, the first attitude information, and the third attitude information from the calibration unit 11b. The rotation correction unit 13b calculates a rotation difference Rd of the current VR video as viewed from the past VR image based on the first attitude information and the third attitude information. The rotation correction unit 13b then applies an inverse correction Rd -1 of the rotation difference Rd to the current VR video, corrects the current VR video so that the shooting direction of the current VR video matches that of the past VR image, and generates a corrected VR video. The rotation correction unit 13b then outputs the corrected VR video and the past VR image to the display switching unit 15.

ヘッドマウントディスプレイ(HMD)82は、右目用及び左目用に表示する2枚のディスプレイと、それぞれ用に2枚の凸レンズで構成された装置であり、ユーザの頭に固定される表示デバイスである。2枚のディスプレイの代わりに、1枚のディスプレイを左右に分割して構成してもよい。 The head mounted display (HMD) 82 is a display device that is fixed to the user's head and is made up of two displays for the right and left eyes, with two convex lenses for each. Instead of two displays, a single display may be split into left and right halves.

頭部方向検出センサ83は、HMD82に取り付けられ、HMD82を装着したユーザの頭部の正面方向を検出するためのセンサである。頭部の正面方向の検出方法には、加速度センサや周囲に配置されたカメラからHMD82上のマーカを検出して求める方法や、HMDに82に設置されたカメラから外の映像を取得して検出する方法などがある。 The head direction detection sensor 83 is attached to the HMD 82 and is a sensor for detecting the forward direction of the head of the user wearing the HMD 82. Methods for detecting the forward direction of the head include a method of detecting a marker on the HMD 82 using an acceleration sensor or a camera placed around the device, and a method of obtaining and detecting an external image from a camera installed on the HMD 82.

入力I/F81は、ユーザからVR映像生成装置10bに対する指示を受け付けるインターフェースであり、具体的には上下左右方向に移動可能なレバーや、ボタンなどである。入力I/F81は、レバーの上下左右の方向、レバーの位置、ボタンのオン/オフ状態など、ユーザの指示を示す制御信号を表示切替部15に出力する。 The input I/F 81 is an interface that accepts instructions from the user to the VR image generating device 10b, and specifically includes a lever that can be moved in the up, down, left, and right directions, as well as buttons. The input I/F 81 outputs control signals to the display switching unit 15 that indicate user instructions, such as the up, down, left, and right directions of the lever, the position of the lever, and the on/off state of a button.

表示切替部15は、球面の中心部分に左目用と右目用の映像をレンダリングする2つの仮想カメラを瞳間隔分離して設置して、頭部方向検出センサ83により検出された頭部方向に該当する方向の映像をレンダリングする。 The display switching unit 15 installs two virtual cameras at the center of the sphere with a pupil distance separation to render images for the left and right eyes, and renders images in the direction corresponding to the head direction detected by the head direction detection sensor 83.

表示切替部15は、入力I/F81から入力された制御信号(すなわち、ユーザの指示)に基づいてHMD82に表示させる現在VR映像及び過去VR画像を切り替える。過去VR画像はVRカメラ31よりも解像度の高い2Dカメラ32で撮影された画像であるため、表示切替部15がHMD82に表示させる映像は部分高解像度VR映像となる。なお、表示切替部15は、第1フレームで入力された過去VR画像を図示しない記憶部に記憶しておき、第2フレーム以降は該記憶部から読み込むようにしてもよい。 The display switching unit 15 switches between the current VR video and the past VR image to be displayed on the HMD 82 based on a control signal (i.e., a user's instruction) input from the input I/F 81. Since the past VR image is an image captured by the 2D camera 32, which has a higher resolution than the VR camera 31, the video that the display switching unit 15 displays on the HMD 82 is a partial high-resolution VR video. The display switching unit 15 may store the past VR image input in the first frame in a storage unit (not shown), and read it from the storage unit from the second frame onwards.

表示切替部15は、例えば同一の球面を仮想空間内に重ねて配置し、現在VR映像を一方の球面の内側にマッピングし、過去VR画像を他方の球面の内側にマッピングする。表示切替部15は、現在VR映像及び過去VR画像をそれぞれ可視状態及び不可視状態に切替え可能であり、初期状態では全天球の半分を現在VR映像、残り半分を過去VR画像としてもよい。例えば、ユーザは全天球を回転させることで見たい領域を選択することができ、この場合には、表示切替部15は、入力I/F81から入力された回転指示に基づいて全天球を回転させる。 The display switching unit 15, for example, arranges identical spheres in a virtual space, overlapping them, and maps the current VR image onto the inside of one sphere and the past VR image onto the inside of the other sphere. The display switching unit 15 can switch the current VR image and the past VR image between a visible state and an invisible state, respectively, and in the initial state, half of the celestial sphere may be the current VR image and the other half the past VR image. For example, the user can select the area he or she wants to view by rotating the celestial sphere, and in this case, the display switching unit 15 rotates the celestial sphere based on a rotation instruction input from the input I/F 81.

他の表示切替方法として、表示切替部15は、全天球において現在VR映像を可視状態にしておき、入力I/F81からレバーの位置とボタンのオン制御を受けて、該当方向の球体の領域について、過去VR画像及び現在VR映像の可視・不可視状態を反転することで、ユーザの感覚として、はけでなぞった領域だけ過去VR画像が見えるように、表示切替を行ってもよい。その他、表示切替部15は、初めに全天球において現在VR映像を可視状態にしておき、入力I/F81から入力されたボタンのオン/オフ制御に従って、オン状態のときに現在VR映像を可視状態とし、オフ状態のときに過去VR画像を可視状態とすることで、全天球において現在VR映像及び過去VR画像の表示切替を行ってもよい。 As another display switching method, the display switching unit 15 may make the current VR video visible in the celestial sphere, and in response to the lever position and button on control from the input I/F 81, invert the visible/invisible state of the past VR image and the current VR video for the area of the sphere in the corresponding direction, thereby performing display switching so that the user feels that only the area traced with the brush is visible to the past VR image. In addition, the display switching unit 15 may first make the current VR video visible in the celestial sphere, and in accordance with the button on/off control input from the input I/F 81, make the current VR video visible when the button is on, and make the past VR image visible when the button is off, thereby performing display switching between the current VR video and the past VR image in the celestial sphere.

また、表示切替部15は、入力I/F81の特定のボタンを押されたことを検知すると、双眼鏡で覗いたように、視線方向の映像を拡大して出力する機能を備えていてもよい。視線方向の映像が高解像度化されていれば、ユーザは臨場感を持って視聴することができる。 The display switching unit 15 may also have a function of enlarging and outputting an image in the line of sight, as if viewed through binoculars, when it detects that a specific button on the input I/F 81 has been pressed. If the image in the line of sight is high resolution, the user can view it with a sense of realism.

本実施形態によれば、HMD82を装着したユーザが入力I/F81を操作し、現在VR映像と、過去に同じ撮影位置で撮影された過去VR画像とを切り替え表示することができる。これにより、例えば、同じ視点の過去と現在の景色の違いを比較表示することができる。第2の実施形態では、VR映像生成装置10aは2D映像を順次上書きしていくので逐次高精細領域が拡大する形となるが、本実施形態では、VR映像生成装置10bは最初から2Dカメラ32で撮影されたすべての領域において高精細なVR映像を生成することができる。 According to this embodiment, a user wearing the HMD 82 can operate the input I/F 81 to switch between the current VR video and a past VR image captured in the same shooting position in the past. This makes it possible, for example, to display a comparison of the difference between past and present scenery from the same viewpoint. In the second embodiment, the VR video generation device 10a sequentially overwrites the 2D video, so that the high-definition area gradually expands, but in this embodiment, the VR video generation device 10b can generate high-definition VR video in all areas captured by the 2D camera 32 from the beginning.

<プログラム>
上記のVR映像生成装置10,10a,10bとして機能させるために、プログラム命令を実行可能なコンピュータを用いることも可能である。コンピュータは、VR映像生成装置10,10a,10bの各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのプロセッサによってこのプログラムを読み出して実行する。これらの処理内容の一部はハードウェアで実現されてもよい。ここで、コンピュータは、汎用コンピュータ、専用コンピュータ、ワークステーション、PC(Personal Computer)、電子ノートパッドなどであってもよい。プログラム命令は、必要なタスクを実行するためのプログラムコード、コードセグメントなどであってもよい。プロセッサは、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などであってもよい。
<Program>
A computer capable of executing program instructions can be used to function as the VR image generation devices 10, 10a, and 10b. The computer stores a program describing the processing contents for realizing each function of the VR image generation devices 10, 10a, and 10b in the storage unit of the computer, and reads and executes the program by the processor of the computer. A part of the processing contents may be realized by hardware. Here, the computer may be a general-purpose computer, a dedicated computer, a workstation, a PC (Personal Computer), an electronic notepad, or the like. The program instructions may be a program code, a code segment, or the like for executing a required task. The processor may be a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or the like.

VR映像生成装置10として機能させるためのプログラムは、例えば、同位置且つ同タイミングで撮影されたVR映像及び2D映像を入力し、VR映像からVRカメラの姿勢を示す第1姿勢情報を生成し、2D映像から2Dカメラの姿勢を示す第2姿勢情報、及び2Dカメラのレンズの特性を示すレンズ特性情報を生成するステップと、第1姿勢情報、第2姿勢情報、及びレンズ特性情報に基づいて、2D映像をVR映像にマッピングした合成映像を生成するステップと、合成映像の現フレームの撮影方向を第1フレームの撮影方向に一致させたVR映像を生成するステップと、をコンピュータに実行させる。 A program for functioning as the VR image generating device 10 causes a computer to execute the steps of, for example, inputting VR image and 2D image captured at the same position and timing, generating first orientation information indicating the orientation of the VR camera from the VR image, and generating second orientation information indicating the orientation of the 2D camera and lens characteristic information indicating the characteristics of the lens of the 2D camera from the 2D image, generating a composite image by mapping the 2D image onto the VR image based on the first orientation information, second orientation information, and lens characteristic information, and generating a VR image in which the shooting direction of the current frame of the composite image is aligned with the shooting direction of the first frame.

VR映像生成装置10aとして機能させるためのプログラムは、例えば、同位置且つ同タイミングで撮影されたVR映像及び2D映像を入力し、VR映像からVRカメラの姿勢を示す第1姿勢情報を生成し、2D映像から2Dカメラの姿勢を示す第2姿勢情報、及び2Dカメラのレンズの特性を示すレンズ特性情報を生成するステップと、第2姿勢情報及びレンズ特性情報から、2D映像の前フレーム及び現フレームの位置を合わせた上で、現フレームにおいて前フレームとの差分が閾値以下の領域を静止画像として抽出するステップと、第1姿勢情報、第2姿勢情報、及びレンズ特性情報に基づいて、静止画像を順次VR映像にマッピングした合成映像を生成するステップと、合成映像の現フレームの撮影方向を第1フレームの撮影方向に一致させたVR映像を生成するステップと、をコンピュータに実行させる。 A program for functioning as the VR image generating device 10a causes a computer to execute the following steps, for example: inputting VR images and 2D images captured at the same position and timing; generating first orientation information indicating the orientation of the VR camera from the VR images; generating second orientation information indicating the orientation of the 2D camera from the 2D images and lens characteristic information indicating the characteristics of the lens of the 2D camera; aligning the positions of the previous and current frames of the 2D images from the second orientation information and lens characteristic information, and extracting an area in the current frame where the difference from the previous frame is equal to or less than a threshold as a still image; generating a composite image by sequentially mapping the still images onto the VR image based on the first orientation information, second orientation information, and lens characteristic information; and generating a VR image in which the shooting direction of the current frame of the composite image is aligned with the shooting direction of the first frame.

VR映像生成装置10bとして機能させるためのプログラムは、例えば、現在VR映像及び過去VR画像を入力し、現在VR映像からVRカメラの姿勢を示す第1姿勢情報を生成し、過去VR画像から2Dカメラの姿勢を示す第2姿勢情報を生成するステップと、現在VR映像を過去VR画像と撮影方向が一致するように補正した補正VR映像を生成するステップと、ユーザの指示に基づいて、ディスプレイに表示させる現在VR映像及び過去VR画像を切り替えるステップと、をコンピュータに実行させる。 A program for functioning as VR video generation device 10b causes a computer to execute the following steps, for example: inputting a current VR video and a past VR image, generating first orientation information indicating the orientation of the VR camera from the current VR video, and generating second orientation information indicating the orientation of the 2D camera from the past VR image; generating a corrected VR video in which the current VR video is corrected so that the shooting direction matches that of the past VR image; and switching between the current VR video and the past VR image to be displayed on the display based on a user instruction.

また、このプログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。このような記録媒体を用いれば、プログラムをコンピュータにインストールすることが可能である。ここで、プログラムが記録された記録媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROM、DVD-ROMなどの記録媒体であってもよい。また、このプログラムは、ネットワークを介したダウンロードによって提供することもできる。 The program may also be recorded on a computer-readable recording medium. Using such a recording medium, the program can be installed on a computer. Here, the recording medium on which the program is recorded may be a non-transient recording medium. The non-transient recording medium is not particularly limited, and may be, for example, a CD-ROM, DVD-ROM, or other recording medium. The program may also be provided by downloading via a network.

上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形又は変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。 The above-mentioned embodiment has been described as a representative example, but it will be apparent to those skilled in the art that many modifications and substitutions can be made within the spirit and scope of the present invention. Therefore, the present invention should not be interpreted as being limited by the above-mentioned embodiment, and various modifications or changes are possible without departing from the scope of the claims. For example, it is possible to combine multiple configuration blocks shown in the configuration diagram of the embodiment into one, or to divide one configuration block.

また、第1の実施形態に係るVR映像生成装置10、及び第2の実施形態に係るVR映像生成装置10aにおいても、第3の実施形態と同様に、入力I/F81から制御信号を入力し、制御信号に基づいて2Dカメラ32で撮影した高解像度領域を拡大し、HMD82に表示する機能を備えていてもよい。これにより、使用中のHMD82の解像度が十分でない場合でも、ユーザは高解像度化された映像を、臨場感を持って視聴することができる。 Furthermore, the VR image generating device 10 according to the first embodiment and the VR image generating device 10a according to the second embodiment may also have a function of inputting a control signal from the input I/F 81, enlarging the high-resolution area captured by the 2D camera 32 based on the control signal, and displaying it on the HMD 82, as in the third embodiment. This allows the user to view high-resolution images with a sense of realism, even if the resolution of the HMD 82 in use is insufficient.

1,2,3 VR映像生成システム
10,10a,10b VR映像生成装置
11,11a,11b キャリブレーション部
12,12a,12b 映像合成部
13 回転補正部
14 静止領域抽出部
15 表示切替部
21 特徴点位置情報記憶部
22 第1フレーム姿勢記憶部
23 前フレーム情報記憶部
24 マッピングVR画像記憶部
31 VRカメラ
32 2Dカメラ
33 接続部
41 VR映像記憶部
42 2D映像記憶部
50 過去VR画像生成装置
51 キャリブレーション部
52 静止領域抽出部
53 映像合成部
61 特徴点位置情報記憶部
62 前フレーム情報記憶部
63 マッピングVR画像記憶部
64 過去VR画像記憶部
81 入力I/F
82 ヘッドマウントディスプレイ
83 頭部方向検出センサ
1, 2, 3 VR image generation system 10, 10a, 10b VR image generation device 11, 11a, 11b Calibration section 12, 12a, 12b Image synthesis section 13 Rotation correction section 14 Still area extraction section 15 Display switching section 21 Feature point position information storage section 22 First frame attitude storage section 23 Previous frame information storage section 24 Mapping VR image storage section 31 VR camera 32 2D camera 33 Connection section 41 VR image storage section 42 2D image storage section 50 Past VR image generation device 51 Calibration section 52 Still area extraction section 53 Image synthesis section 61 Feature point position information storage section 62 Previous frame information storage section 63 Mapping VR image storage section 64 Past VR image storage section 81 Input I/F
82 Head mounted display 83 Head direction detection sensor

Claims (6)

VRカメラにより撮影されたVR映像と、2Dカメラにより前記VRカメラよりも狭い範囲を高い解像度で撮影された2D映像とを入力し、前記2D映像がマッピングされたVR映像を生成するVR映像生成装置であって、
同位置且つ同タイミングで撮影された前記VR映像及び前記2D映像を入力し、前記VR映像から前記VRカメラの姿勢を示す第1姿勢情報を生成し、前記2D映像から前記2Dカメラの姿勢を示す第2姿勢情報、及び前記2Dカメラのレンズの特性を示すレンズ特性情報を生成するキャリブレーション部と、
前記第1姿勢情報、前記第2姿勢情報、及び前記レンズ特性情報に基づいて、前記2D映像を前記VR映像にマッピングした合成映像を生成する映像合成部と、
前記合成映像の現フレームの撮影方向を第1フレームの撮影方向に一致させたVR映像を生成する回転補正部と、
を備える、VR映像生成装置。
A VR image generating device that receives a VR image captured by a VR camera and a 2D image captured by a 2D camera with a higher resolution and a range narrower than that of the VR camera, and generates a VR image onto which the 2D image is mapped,
a calibration unit that inputs the VR image and the 2D image captured at the same position and timing, generates first orientation information indicating an orientation of the VR camera from the VR image, and generates second orientation information indicating an orientation of the 2D camera from the 2D image and lens characteristic information indicating characteristics of the lens of the 2D camera;
an image synthesis unit that generates a synthetic image by mapping the 2D image onto the VR image based on the first posture information, the second posture information, and the lens characteristic information;
a rotation correction unit that generates a VR image by aligning a shooting direction of a current frame of the composite image with a shooting direction of a first frame;
A VR image generating device comprising:
VRカメラにより撮影されたVR映像と、2Dカメラにより前記VRカメラよりも狭い範囲を高い解像度で撮影された2D映像とを入力し、前記2D映像がマッピングされたVR映像を生成するVR映像生成装置であって、
同位置且つ同タイミングで撮影された前記VR映像及び前記2D映像を入力し、前記VR映像から前記VRカメラの姿勢を示す第1姿勢情報を生成し、前記2D映像から前記2Dカメラの姿勢を示す第2姿勢情報、及び前記2Dカメラのレンズの特性を示すレンズ特性情報を生成するキャリブレーション部と、
前記第2姿勢情報及び前記レンズ特性情報から、前記2D映像の前フレーム及び現フレームの位置を合わせた上で、現フレームにおいて前フレームとの差分が閾値以下の領域を静止画像として抽出する静止領域抽出部と、
前記第1姿勢情報、前記第2姿勢情報、及び前記レンズ特性情報に基づいて、前記静止画像を順次前記VR映像にマッピングした合成映像を生成する映像合成部と、
前記合成映像の現フレームの撮影方向を第1フレームの撮影方向に一致させたVR映像を生成する回転補正部と、
を備える、VR映像生成装置。
A VR image generating device that receives a VR image captured by a VR camera and a 2D image captured by a 2D camera with a higher resolution and a range narrower than that of the VR camera, and generates a VR image onto which the 2D image is mapped,
a calibration unit that receives the VR image and the 2D image captured at the same position and timing, generates first orientation information indicating an orientation of the VR camera from the VR image, and generates second orientation information indicating an orientation of the 2D camera from the 2D image and lens characteristic information indicating characteristics of the lens of the 2D camera;
a still region extraction unit that aligns positions of a previous frame and a current frame of the 2D video based on the second orientation information and the lens characteristic information, and extracts, as a still image, a region in the current frame where a difference between the current frame and the previous frame is equal to or smaller than a threshold;
an image synthesis unit that generates a synthetic image by sequentially mapping the still images onto the VR image based on the first attitude information, the second attitude information, and the lens characteristic information;
a rotation correction unit that generates a VR image by aligning a shooting direction of a current frame of the composite image with a shooting direction of a first frame;
A VR image generating device comprising:
前記VRカメラ及び前記2Dカメラは、撮影時に接続部を介して固定される、請求項1又は2に記載のVR映像生成装置。 The VR image generating device according to claim 1 or 2, wherein the VR camera and the 2D camera are fixed via a connection part during shooting. VRカメラにより現在撮影された現在VR映像と、過去に生成された過去VR画像とを入力し、前記過去VR画像がマッピングされたVR映像を生成するVR映像生成装置であって、
前記過去VR画像は、2Dカメラにより前記VRカメラよりも狭い範囲を高い解像度で過去に撮影された2D映像をマッピングすることにより生成された画像であり、
前記現在VR映像及び前記過去VR画像を入力し、前記現在VR映像から前記VRカメラの姿勢を示す第1姿勢情報を生成し、前記過去VR画像から、該過去VR画像を撮影したと仮定した仮想的なVRカメラの姿勢を示す第3姿勢情報を生成するキャリブレーション部と、
前記第1姿勢情報及び前記第3姿勢情報に基づいて、前記現在VR映像を前記過去VR画像と撮影方向が一致するように補正した補正VR映像を生成する回転補正部と、
ユーザの指示に基づいて、ディスプレイに表示させる前記現在VR映像及び前記過去VR画像を切り替える表示切替部と、
を備える、VR映像生成装置。
A VR image generating device that receives a current VR image currently captured by a VR camera and a past VR image generated in the past, and generates a VR image onto which the past VR image is mapped, comprising:
The past VR image is an image generated by mapping a 2D image captured in the past by a 2D camera at a higher resolution in an area narrower than the VR camera,
a calibration unit that receives the current VR video and the past VR image, generates first orientation information from the current VR video that indicates an orientation of the VR camera, and generates third orientation information from the past VR image that indicates an orientation of a virtual VR camera that was assumed to have captured the past VR image;
a rotation correction unit that generates a corrected VR image by correcting the current VR image so that a shooting direction of the current VR image coincides with a shooting direction of the past VR image based on the first attitude information and the third attitude information;
a display switching unit that switches between the current VR video and the past VR image to be displayed on a display based on an instruction from a user;
A VR image generating device comprising:
前記過去VR画像を生成する過去VR画像生成装置は、
前記2D映像を入力し、前記2D映像から前記2Dカメラの姿勢を示す第2姿勢情報、及び前記2Dカメラのレンズの特性を示すレンズ特性情報を生成するキャリブレーション部と、
前記第2姿勢情報及び前記レンズ特性情報から、前記2D映像の前フレーム及び現フレームの位置を合わせた上で、現フレームにおいて前フレームとの差分が閾値以下の領域を静止画像として抽出する静止領域抽出部と、
前記第2姿勢情報及び前記レンズ特性情報に基づいて、前記静止画像を順次マッピングすることにより前記過去VR画像を生成する映像合成部と、
を備える、請求項4に記載のVR映像生成装置。
A past VR image generating device for generating the past VR image includes:
a calibration unit that receives the 2D image and generates, from the 2D image, second posture information indicating a posture of the 2D camera and lens characteristic information indicating characteristics of a lens of the 2D camera;
a still region extraction unit that aligns positions of a previous frame and a current frame of the 2D video based on the second orientation information and the lens characteristic information, and extracts, as a still image, a region in the current frame where a difference between the current frame and the previous frame is equal to or smaller than a threshold;
an image synthesis unit that generates the past VR image by sequentially mapping the still images based on the second attitude information and the lens characteristic information;
The VR image generating device according to claim 4 .
コンピュータを、請求項1から5のいずれか一項に記載のVR映像生成装置として機能させるためのプログラム。 A program for causing a computer to function as a VR image generating device according to any one of claims 1 to 5.
JP2020125755A 2020-07-22 2020-07-22 VR image generation device and program Active JP7498616B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020125755A JP7498616B2 (en) 2020-07-22 2020-07-22 VR image generation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020125755A JP7498616B2 (en) 2020-07-22 2020-07-22 VR image generation device and program

Publications (2)

Publication Number Publication Date
JP2022021886A JP2022021886A (en) 2022-02-03
JP7498616B2 true JP7498616B2 (en) 2024-06-12

Family

ID=80220689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020125755A Active JP7498616B2 (en) 2020-07-22 2020-07-22 VR image generation device and program

Country Status (1)

Country Link
JP (1) JP7498616B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068928A1 (en) 2015-10-21 2017-04-27 ソニー株式会社 Information processing device, control method therefor, and computer program
WO2018003938A1 (en) 2016-06-30 2018-01-04 アイキューブド研究所株式会社 Video signal processing device, video signal processing method, and program
WO2018117099A1 (en) 2016-12-20 2018-06-28 国立大学法人 東京大学 Image processing device and program
JP2018109946A (en) 2016-12-28 2018-07-12 株式会社リコー Display device, program, and method for display
JP2019121858A (en) 2017-12-28 2019-07-22 キヤノン株式会社 Electronic device and control method thereof
JP2019164782A (en) 2018-03-15 2019-09-26 株式会社リコー Image processing apparatus, image capturing system, image processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068928A1 (en) 2015-10-21 2017-04-27 ソニー株式会社 Information processing device, control method therefor, and computer program
WO2018003938A1 (en) 2016-06-30 2018-01-04 アイキューブド研究所株式会社 Video signal processing device, video signal processing method, and program
WO2018117099A1 (en) 2016-12-20 2018-06-28 国立大学法人 東京大学 Image processing device and program
JP2018109946A (en) 2016-12-28 2018-07-12 株式会社リコー Display device, program, and method for display
JP2019121858A (en) 2017-12-28 2019-07-22 キヤノン株式会社 Electronic device and control method thereof
JP2019164782A (en) 2018-03-15 2019-09-26 株式会社リコー Image processing apparatus, image capturing system, image processing method, and program

Also Published As

Publication number Publication date
JP2022021886A (en) 2022-02-03

Similar Documents

Publication Publication Date Title
EP3198866B1 (en) Reconstruction of three-dimensional video
EP3007038B1 (en) Interaction with three-dimensional video
CN106133794B (en) Information processing method, information processing apparatus, and program
JP4733651B2 (en) Position detection apparatus, position detection method, and position detection program
JP5835384B2 (en) Information processing method, information processing apparatus, and program
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
CN107844190B (en) Image display method and device based on virtual reality VR equipment
KR20100043139A (en) Image processing device, dynamic image reproduction device, and processing method and program in them
JP6310898B2 (en) Image processing apparatus, information processing apparatus, and image processing method
JP7353782B2 (en) Information processing device, information processing method, and program
JP7267753B2 (en) Control device, control method, and program
JP5847610B2 (en) Computer graphics image processing system and method using AR technology
JP2008217593A (en) Subject area extraction device and subject area extraction program
JP6350695B2 (en) Apparatus, method, and program
JP5986039B2 (en) Video display method and video display program
JP7498616B2 (en) VR image generation device and program
JP6583486B2 (en) Information processing method, information processing program, and information processing apparatus
JP6128185B2 (en) Apparatus, method, and program
JP7011728B2 (en) Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method
JP2019204560A (en) program
WO2024070124A1 (en) Imaging device, method for controlling imaging device, program, and storage medium
JP2019062302A (en) Image processing system, image display unit and image processing program
JP2023042257A (en) Image processing device, image processing method and program
JP2016021267A (en) Device, method, and program
JP2017224330A (en) Device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240531

R150 Certificate of patent or registration of utility model

Ref document number: 7498616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150