JP7400407B2 - Communication terminal, photographing system, image processing method and program - Google Patents
Communication terminal, photographing system, image processing method and program Download PDFInfo
- Publication number
- JP7400407B2 JP7400407B2 JP2019215657A JP2019215657A JP7400407B2 JP 7400407 B2 JP7400407 B2 JP 7400407B2 JP 2019215657 A JP2019215657 A JP 2019215657A JP 2019215657 A JP2019215657 A JP 2019215657A JP 7400407 B2 JP7400407 B2 JP 7400407B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- angle
- video
- narrow
- still image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 69
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000000034 method Methods 0.000 claims description 134
- 238000003384 imaging method Methods 0.000 claims description 90
- 238000012545 processing Methods 0.000 claims description 59
- 238000006243 chemical reaction Methods 0.000 claims description 35
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 72
- 238000003860 storage Methods 0.000 description 59
- 230000006870 function Effects 0.000 description 43
- 230000008569 process Effects 0.000 description 40
- 230000008859 change Effects 0.000 description 15
- 238000009826 distribution Methods 0.000 description 14
- 230000009466 transformation Effects 0.000 description 14
- 230000015654 memory Effects 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 10
- 238000012546 transfer Methods 0.000 description 9
- 239000007787 solid Substances 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003702 image correction Methods 0.000 description 3
- 238000010521 absorption reaction Methods 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、通信端末、撮影システム、画像処理方法及びプログラムに関するものである。 The present invention relates to a communication terminal, a photographing system, an image processing method, and a program.
回転台を用いたパン・チルト及びズームレンズで構成されるカメラシステムの代わりに魚眼レンズなどを使用して被写体を撮影して得られた画像のデータを配信し、その画像から受信側のビューアーで部分画像を生成して表示する技術、すなわち電子的にパン・チルト・ズーム(PTZ)する技術が既に知られている。 Instead of a camera system consisting of a pan/tilt and zoom lens using a rotating table, a fisheye lens etc. is used to photograph the subject, and the image data obtained is distributed. Techniques for generating and displaying images, ie electronic pan-tilt-zoom (PTZ) techniques, are already known.
ところが、被写体を撮影して得た画像のデータを配信する技術では、注目されていない領域の画像のデータも配信するため、データ通信量が多くなる問題がある。 However, the technology that distributes image data obtained by photographing a subject has the problem of increasing the amount of data communication because it also distributes image data of areas that are not attracting attention.
これに対して、通信量を減らすべく、撮影装置が、広角画像の全体を縮小した低精細な全体画像と、広角画像内の注目する領域である高精細な部分画像のデータとを配信し、受信側で全体画像に部分画像を嵌め込み合成する技術が開示されている(特許文献1参照)。 On the other hand, in order to reduce the amount of communication, the photographing device delivers a low-definition overall image that is a reduced version of the entire wide-angle image, and data of a high-definition partial image that is the area of interest within the wide-angle image. A technique has been disclosed in which a partial image is inserted and synthesized into the entire image on the receiving side (see Patent Document 1).
しかしながら、全体画像及び部分画像が動画の場合、全体画像を低精細にしても、データ通信量を減らすことは難しい。一方で、閲覧者は常に動画を入念に閲覧するわけではなく、注目した動画が再生された時に、部分画像だけでも入念に閲覧することができればよいというニーズがある。 However, when the entire image and partial images are moving images, it is difficult to reduce the amount of data communication even if the entire image is made low-definition. On the other hand, viewers do not always carefully view videos, and there is a need to be able to carefully view only partial images when a video of interest is played.
本発明は、上述した事情に鑑みてなされたもので、全体画像等の広角動画及び部分画像等の狭角動画のデータ通信量を抑制しながらも、部分画像の精細度をできるだけ下げないようにして閲覧者がよりはっきりと注目する領域を閲覧することができるようにすることを目的とする。 The present invention has been made in view of the above-mentioned circumstances, and is designed to suppress the amount of data communication for wide-angle videos such as whole images and narrow-angle videos such as partial images, while preventing the reduction in definition of partial images as much as possible. The purpose is to enable the viewer to view the area of interest more clearly.
請求項1に係る発明は、被写体を撮影することで所定の精細度の動画データを得る撮影装置が送信した前記動画データを受信して動画を表示する通信端末であって、前記所定の精細度の動画データ、狭角動画のデータである狭角動画データ、及び前記動画データの精細度より高精細である静止画データを受信する受信手段と、前記動画データに係る動画の全て又は一部である広角動画を表示手段に表示する表示制御手段と、前記表示手段に表示されている前記広角動画を拡大する操作を受け付ける受付手段と、を有し、前記受付手段が所定の拡大を受け付けた場合に、前記表示制御手段は、前記広角動画と、前記静止画データに係る静止画であり前記広角動画より狭角である狭角静止画と、前記広角動画よりも狭角で高精細であって且つ前記狭角静止画よりも広角で低精細である狭角動画のデータである前記狭角動画データと、に基づき、前記受付手段が前記所定の拡大としての第1の所定の拡大を受け付けた場合に、前記広角動画と前記狭角動画とが合成された状態で前記表示手段に表示し、さらに、前記受付手段が前記第1の所定の拡大よりも拡大された第2の所定の拡大を受け付けた場合に、前記広角動画と前記狭角静止画とが合成された状態で前記表示手段に表示することを特徴とする通信端末である。 The invention according to claim 1 is a communication terminal that displays a moving image by receiving the moving image data transmitted by a photographing device that obtains moving image data of a predetermined definition by photographing a subject, receiving means for receiving video data , narrow-angle video data that is data of a narrow-angle video, and still image data whose definition is higher than that of the video data; A display control means for displaying a certain wide-angle video on a display means, and a reception means for accepting an operation to enlarge the wide-angle video displayed on the display means, and when the reception means accepts a predetermined enlargement. Preferably, the display control means displays the wide-angle video, a narrow-angle still image that is a still image related to the still image data and has a narrower angle than the wide-angle video, and a narrow-angle still image that has a narrower angle and higher definition than the wide-angle video. and the accepting means accepts the first predetermined enlargement as the predetermined enlargement based on the narrow-angle video data, which is data of a narrow-angle video having a wider angle and lower definition than the narrow-angle still image. In this case, the wide-angle video and the narrow-angle video are displayed in a combined state on the display means, and the reception means further displays a second predetermined enlargement that is larger than the first predetermined enlargement. The communication terminal is characterized in that when the communication terminal receives the communication terminal, the wide-angle moving image and the narrow- angle still image are displayed in a combined state on the display means.
以上説明したように本発明の実施形態によれば、全体画像等の広角動画及び部分画像等の狭角動画のデータ通信量を抑制しながらも、部分画像の精細度をできるだけ下げないようにして閲覧者がよりはっきりと注目する領域を閲覧することができるようになるという効果を奏する。 As explained above, according to the embodiments of the present invention, while suppressing the amount of data communication for wide-angle videos such as whole images and narrow-angle videos such as partial images, the definition of partial images is not lowered as much as possible. This has the effect that the viewer can more clearly view the area of interest.
以下、図面を用いて、本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
〔実施形態の概要〕
以下、本実施形態の概要について説明する。
[Overview of embodiment]
An overview of this embodiment will be described below.
図1乃至図6を用いて、全天球画像の生成方法について説明する。 A method for generating a spherical image will be described with reference to FIGS. 1 to 6.
まず、図1を用いて、全天球撮影装置1の外観を説明する。全天球撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は全天球撮影装置1の右側面図であり、図1(b)は全天球撮影装置1の正面図であり、図1(c)は全天球撮影装置1の上面図であり、図1(d)は全天球撮影装置1の底面図である。 First, the appearance of the omnidirectional photographing device 1 will be explained using FIG. 1. The spherical photographing device 1 is a digital camera for obtaining photographed images that are the basis of a spherical (360°) panoramic image. Note that FIG. 1(a) is a right side view of the omnidirectional imaging device 1, FIG. 1(b) is a front view of the omnidirectional imaging device 1, and FIG. 1(c) is a right side view of the omnidirectional imaging device 1. 1, and FIG. 1(d) is a bottom view of the omnidirectional photographing device 1.
図1(a),図1(b),図1(c),図1(d)に示されているように、全天球撮影装置1の上部には、正面側(前側)に魚眼レンズ102a及び背面側(後側)に魚眼レンズ102bが設けられている全天球撮影装置1の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれ魚眼レンズ102a、102bを介して被写体(風景を含む)を撮影することで、半球画像(画角180°以上)を得ることができる。全天球撮影装置1の正面側と反対側の面には、シャッターボタン115aが設けられている。また、全天球撮影装置1の側面には、電源ボタン115b、Wi-Fi(Wireless Fidelity)ボタン115c及び撮影モード切替ボタン115dが設けられている。シャッターボタン115a、電源ボタン115b及びWi-Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮影モード切替ボタン115dは、押下される度に、静止画の撮影モード、動画の撮影モード及び動画の配信モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi-Fiボタン115c及び撮影モード切替ボタン115dは、操作部115の一種であり、操作部115は、これらのボタンに限られない。 As shown in FIGS. 1(a), 1(b), 1(c), and 1(d), the upper part of the omnidirectional photographing device 1 has a fisheye lens 102a on the front side (front side). Inside the omnidirectional photographing device 1, which is provided with a fisheye lens 102b on the back side (rear side), image sensors (image sensors) 103a and 103b, which will be described later, are provided. By photographing objects (including landscapes) using the camera, a hemispherical image (angle of view of 180° or more) can be obtained. A shutter button 115a is provided on the surface opposite to the front side of the omnidirectional photographing device 1. Furthermore, a power button 115b, a Wi-Fi (Wireless Fidelity) button 115c, and a shooting mode switching button 115d are provided on the side surface of the omnidirectional shooting device 1. The shutter button 115a, the power button 115b, and the Wi-Fi button 115c are all turned on and off each time they are pressed. Further, each time the shooting mode switching button 115d is pressed, the shooting mode for still images, the shooting mode for moving images, and the mode for distributing moving images are switched. Note that the shutter button 115a, the power button 115b, the Wi-Fi button 115c, and the shooting mode switching button 115d are a type of operation section 115, and the operation section 115 is not limited to these buttons.
また、全天球撮影装置1の底部150の中央には、カメラ用三脚に全天球撮影装置1を取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、 Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(High-Definition Multimedia Interface)端子が設けられている。なお、HDMIは登録商標である。 Furthermore, a tripod screw hole 151 is provided at the center of the bottom portion 150 of the omnidirectional photographing device 1 for attaching the omnidirectional photographing device 1 to a camera tripod. Furthermore, a Micro USB (Universal Serial Bus) terminal 152 is provided on the left end side of the bottom portion 150. An HDMI (High-Definition Multimedia Interface) terminal is provided on the right end side of the bottom portion 150. Note that HDMI is a registered trademark.
次に、図2を用いて、全天球撮影装置1の使用状況を説明する。なお、図2は、全天球撮影装置1の使用イメージ図である。全天球撮影装置1は、図2に示されているように、例えば、利用者が手に持って利用者の周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれ利用者の周りの被写体が撮像されることで、2つの半球画像を得ることができる。 Next, using FIG. 2, the usage status of the omnidirectional photographing device 1 will be explained. Note that FIG. 2 is an image diagram of how the omnidirectional photographing device 1 is used. As shown in FIG. 2, the omnidirectional photographing device 1 is used, for example, by a user while holding it in his or her hand to photograph objects around the user. In this case, two hemispherical images can be obtained by capturing images of objects around the user using the imaging device 103a and the imaging device 103b shown in FIG. 1, respectively.
次に、図3及び図4を用いて、全天球撮影装置1で撮影された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は全天球撮影装置1で撮影された半球画像(前側)、図3(b)は全天球撮影装置1で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。 Next, using FIGS. 3 and 4, an outline of the process from which an equirectangular projection image EC and a celestial sphere image CE are created from an image photographed by the celestial sphere photographing device 1 will be explained. In addition, FIG. 3(a) is a hemispherical image (front side) taken by the omnidirectional imaging device 1, FIG. 3(b) is a hemispherical image (rear side) taken by the omnidirectional imaging device 1, and FIG. c) is a diagram showing an image expressed by equirectangular projection (hereinafter referred to as "equirectangular projection image"). FIG. 4(a) is a conceptual diagram showing a state where a sphere is covered by an equirectangular projection image, and FIG. 4(b) is a diagram showing a spherical image.
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、全天球撮影装置1によって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。 As shown in FIG. 3A, the image obtained by the image sensor 103a becomes a hemispherical image (front side) curved by a fisheye lens 102a, which will be described later. Further, as shown in FIG. 3(b), the image obtained by the image sensor 103b becomes a hemispherical image (rear side) curved by a fisheye lens 102b, which will be described later. The hemisphere image (front side) and the hemisphere image (rear side) inverted by 180 degrees are combined by the omnidirectional imaging device 1, and as shown in FIG. 3(c), an equirectangular projection is performed. Image EC is created.
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用されるグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。本実施形態において、特段の説明がない限り、「画像」と示した場合には「静止画」と「動画」の両方が含まれる。 Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), the equirectangular projection image is pasted to cover the spherical surface, as shown in Figure 4(a). A spherical image CE as shown in b) is created. In this way, the spherical image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. Note that OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the omnidirectional image CE may be a still image or a moving image. In this embodiment, unless otherwise specified, "image" includes both "still image" and "video".
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。 As described above, since the spherical image CE is an image pasted to cover a spherical surface, it feels strange when viewed by humans. Therefore, by displaying a predetermined area (hereinafter referred to as a "predetermined area image") of a part of the spherical image CE as a flat image with less curvature, it is possible to perform a display that does not give a sense of discomfort to humans. This will be explained using FIGS. 5 and 6.
なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見る閲覧者の視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像が、三次元の立体球CSで表わされている。このように生成された全天球画像CEが、立体球CSであるとすると、図5に示されているように、仮想カメラICは、全天球画像CEの内部に位置することになる。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの画角を含む位置座標(x(rH),y(rV),画角α(angle))を示す所定の領域情報によって特定される。なお、所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。ここで、所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。 Note that FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the viewer who views the spherical image CE displayed as a three-dimensional solid sphere. Further, FIG. 6(a) is a three-dimensional perspective view of FIG. 5, and FIG. 6(b) is a diagram showing a predetermined area image when displayed on a display. Further, in FIG. 6(a), the omnidirectional image shown in FIG. 4 is represented by a three-dimensional solid sphere CS. If the spherical image CE generated in this way is a three-dimensional sphere CS, the virtual camera IC will be located inside the spherical image CE, as shown in FIG. The predetermined area T in the spherical image CE is the imaging area of the virtual camera IC, and the position coordinates (x(rH), y (rV), angle of view α (angle)). Note that zooming of the predetermined area T can be expressed by expanding or contracting the range (circular arc) of the angle of view α. Furthermore, zooming of the predetermined area T can also be expressed by moving the virtual camera IC closer to or farther away from the omnidirectional image CE. Here, the predetermined area image Q is an image of the predetermined area T in the omnidirectional image CE.
そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト設定)された所定の領域情報によって表された所定領域画像である。なお、所定領域画像は、所定の領域情報、仮想カメラICの位置座標ではなく、所定領域Tである仮想カメラICの撮影領域(X,Y,Z)によって示されてもよい。 The predetermined area image Q shown in FIG. 6(a) is displayed on a predetermined display as an image of the imaging area of the virtual camera IC, as shown in FIG. 6(b). The image shown in FIG. 6(b) is a predetermined area image represented by predetermined area information that is initially set (default setting). Note that the predetermined area image may be indicated by the imaging area (X, Y, Z) of the virtual camera IC, which is the predetermined area T, instead of the predetermined area information or the position coordinates of the virtual camera IC.
図7は、部分画像パラメータの概略を説明する図である。ここでは、全天球画像の一部を指定する方法について説明する。全天球画像においては部分画像の中心点CPを、撮影するカメラ(ここでは、仮想カメラIC)の方向で表すことが可能である。全天球画像である全体画像の中心を全体画像正面として方位角を「aa」、仰角を「ea」とする。また、部分画像の範囲を表すために、例えば対角方向の画角である対角画角αを用いて表す。また、縦横方向の範囲を表すために、画像のアスペクト比(幅w÷高さh)で表すことが可能である。ここでは範囲を表すために対角画角とアスペクトを用いたが、縦画角と横画角や縦画角とアスペクト比などを用いてもよい。また、方位角、仰角のほか回転角も用いてもよい。 FIG. 7 is a diagram illustrating an outline of partial image parameters. Here, a method for specifying a part of the spherical image will be explained. In a spherical image, the center point CP of a partial image can be expressed by the direction of the camera that takes the image (here, the virtual camera IC). The center of the entire image, which is a spherical image, is the front of the entire image, and the azimuth angle is "aa" and the elevation angle is "ea". Further, in order to express the range of the partial image, it is expressed using, for example, a diagonal angle of view α, which is an angle of view in a diagonal direction. Further, in order to represent the range in the vertical and horizontal directions, it is possible to represent the image aspect ratio (width w÷height h). Here, the diagonal angle of view and aspect are used to express the range, but vertical angle of view and horizontal angle of view, vertical angle of view and aspect ratio, etc. may also be used. Further, in addition to the azimuth angle and the elevation angle, a rotation angle may also be used.
〔撮影システムの概略〕
まずは、図8を用いて、本実施形態の撮影システムの構成の概略について説明する。図8は、本実施形態の撮影システムの構成の概略図である。
[Outline of the shooting system]
First, the outline of the configuration of the imaging system of this embodiment will be described using FIG. 8. FIG. 8 is a schematic diagram of the configuration of the imaging system of this embodiment.
図8に示されているように、本実施形態の撮影システムは、全天球撮影装置1、仲介端末3、スマートフォン5及び画像管理システム7によって構成されている。なお、本実施形態の撮影システムでは、例えば、スマートフォン5の利用者A(閲覧者又は操作者ともいう)の所定の操作によって、全天球撮影装置1が遠隔操作される形態を取っている。 As shown in FIG. 8, the photographing system of this embodiment includes a spherical photographing device 1, an intermediary terminal 3, a smartphone 5, and an image management system 7. In addition, in the photographing system of this embodiment, the omnidirectional photographing device 1 is remotely controlled by a predetermined operation by a user A (also referred to as a viewer or an operator) of the smartphone 5, for example.
これらのうち、全天球撮影装置1は、上述のように、被写体や風景等を撮影して全天球(パノラマ)画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。この全天球撮影装置1は、本実施形態では広角画像を動画撮影して配信するストリーム動画配信サービスを行う撮影装置として機能することができる。また、全天球撮影装置1は、後述するようにスマートフォン5によって取得された静止画要求(所定の操作に基づく要求の一例)が画像管理システム7(画像管理装置の一例)に送信されると、画像管理システム7から送信された静止画データ要求に基づいて静止画データを生成し、画像管理システム7に送信する機能を有する。 Among these, the spherical photographing device 1 is a special digital camera for photographing objects, scenery, etc. to obtain two hemispherical images that are the basis of a spherical (panoramic) image, as described above. . In this embodiment, the omnidirectional photographing device 1 can function as a photographing device that performs a stream video distribution service in which wide-angle images are photographed and distributed. Further, as will be described later, the omnidirectional photographing device 1 receives a still image request acquired by the smartphone 5 (an example of a request based on a predetermined operation) and sends it to the image management system 7 (an example of an image management device). , has a function of generating still image data based on a still image data request transmitted from the image management system 7 and transmitting it to the image management system 7.
仲介端末3は、インターネット等の通信ネットワーク100に直接通信できる通信端末の一例である。仲介端末3は、通信ネットワーク100に直接通信できない全天球撮影装置1と近距離無線通信を行うことで、全天球撮影装置1と画像管理システム7との通信を仲介する役割を果たす。近距離無線通信は、例えば、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)等の技術を利用して行われる通信である。図8では、仲介端末3は全天球撮影装置1が設置されるドングルレシーバーのように使用されている。 The intermediary terminal 3 is an example of a communication terminal that can directly communicate with a communication network 100 such as the Internet. The intermediary terminal 3 performs short-range wireless communication with the omnidirectional imaging device 1 that cannot directly communicate with the communication network 100, thereby acting as an intermediary for communication between the omnidirectional imaging device 1 and the image management system 7. Near field communication is, for example, communication performed using technologies such as Wi-Fi, Bluetooth (registered trademark), and NFC (Near Field Communication). In FIG. 8, the intermediary terminal 3 is used like a dongle receiver in which the omnidirectional photographing device 1 is installed.
スマートフォン5は、有線又は無線により、通信ネットワーク100を介して画像管理システム7と通信することができる。また、スマートフォン5では、自装置に設けられた後述のディスプレイ517に、全天球撮影装置1から取得した画像を表示することができる。 The smartphone 5 can communicate with the image management system 7 via the communication network 100 by wire or wirelessly. Furthermore, the smartphone 5 can display images acquired from the omnidirectional photographing device 1 on a display 517, which will be described later, provided on the smartphone 5.
画像管理システム7は、コンピュータによって構築されており、スマートフォン5からの動画や静止画の要求を、仲介端末3を介して全天球撮影装置1に伝える。また、画像管理システム7は、全天球撮影装置1から仲介端末3を介して送られて来た動画データ及び静止画データを、スマートフォン5に送信する。 The image management system 7 is constructed by a computer, and transmits a request for a moving image or a still image from the smartphone 5 to the omnidirectional photographing device 1 via the intermediary terminal 3. Further, the image management system 7 transmits the video data and still image data sent from the omnidirectional photographing device 1 via the intermediary terminal 3 to the smartphone 5.
なお、図1では、全天球撮影装置1、仲介端末3の組が1つしか表されていないが、複数の組を用いてもよい。また、スマートフォン5も1つしか表されていないが、複数用いてもよい。スマートフォン5は、通信端末の一例である。通信端末には、スマートフォン5の他に、PC(Personal Computer)、スマートウォッチ、ゲーム機器、カーナビゲーション端末等も含まれる。更に、画像管理システム7は、単一だけでなく複数のコンピュータによって構築されていてもよい。 Although FIG. 1 shows only one set of the omnidirectional photographing device 1 and the intermediary terminal 3, a plurality of sets may be used. Further, although only one smartphone 5 is shown, a plurality of smartphones 5 may be used. The smartphone 5 is an example of a communication terminal. Communication terminals include, in addition to the smartphone 5, a PC (Personal Computer), a smart watch, a game device, a car navigation terminal, and the like. Furthermore, the image management system 7 may be constructed not only by a single computer but also by a plurality of computers.
〔実施形態のハードウェア構成〕
次に、図9及び図12を用いて、本実施形態の全天球撮影装置1、仲介端末3、スマートフォン5及び画像管理システム7のハードウェア構成を詳細に説明する。
[Hardware configuration of embodiment]
Next, the hardware configurations of the omnidirectional photographing device 1, the intermediary terminal 3, the smartphone 5, and the image management system 7 of this embodiment will be described in detail using FIGS. 9 and 12.
<全天球撮影装置のハードウェア構成>
まず、図9を用いて、全天球撮影装置1のハードウェア構成を説明する。図9は、全天球撮影装置のハードウェア構成図である。以下では、全天球撮影装置1は、2つの撮像素子を使用した4πラジアンの撮影が可能な全天球(全方位)撮影装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に全天球撮影装置1と同じ機能を有するようにしてもよい。
<Hardware configuration of spherical imaging device>
First, the hardware configuration of the omnidirectional photographing device 1 will be explained using FIG. 9. FIG. 9 is a hardware configuration diagram of the omnidirectional photographing device. In the following, the spherical photographing device 1 is assumed to be a spherical (omnidirectional) photographing device capable of photographing at 4π radians using two image sensors, but any number of image sensors may be used. Also, it does not necessarily have to be a device exclusively for omnidirectional photography, but by attaching an aftermarket omnidirectional imaging unit to a normal digital camera, smartphone, etc., it is possible to have substantially the same functions as the omnidirectional photography device 1. You can also do this.
図9に示されているように、全天球撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120及び端子121によって構成されている。 As shown in FIG. 9, the omnidirectional photographing device 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM ( Read Only Memory) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I/F 116, communication unit 117, antenna 117a, electronic compass 118, gyro sensor 119, acceleration sensor 120 and a terminal 121.
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Among these, the imaging unit 101 includes wide-angle lenses (so-called fisheye lenses) 102a and 102b each having an angle of view of 180° or more for forming a hemispherical image, and two imaging units provided corresponding to each wide-angle lens. It includes elements 103a and 103b. The image sensors 103a and 103b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images formed by fisheye lenses 102a and 102b into electrical signal image data and output the image data. It has a timing generation circuit that generates horizontal or vertical synchronization signals and pixel clocks, and a group of registers in which various commands and parameters necessary for the operation of this image sensor are set.
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、電子コンパス118、ジャイロセンサ119、加速度センサ120及び端子121なども接続される。 The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I/F bus. On the other hand, the imaging elements 103a and 103b of the imaging unit 101 are connected to the imaging control unit 105 via a serial I/F bus (such as an I2C bus). The image processing unit 104, the imaging control unit 105, and the sound processing unit 109 are connected to the CPU 111 via a bus 110. Further, the bus 110 is also connected to a ROM 112, an SRAM 113, a DRAM 114, an operation unit 115, a network I/F 116, a communication unit 117, an electronic compass 118, a gyro sensor 119, an acceleration sensor 120, a terminal 121, and the like.
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているような正距円筒射影画像のデータを作成する。 The image processing unit 104 takes in image data output from the image sensors 103a and 103b through the parallel I/F bus, performs predetermined processing on each image data, and then synthesizes these image data. , create equirectangular cylindrical projection image data as shown in FIG. 3(c).
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 Generally, the imaging control unit 105 uses the I2C bus to set commands and the like in register groups of the imaging devices 103a and 103b, using the imaging control unit 105 as a master device and the imaging devices 103a and 103b as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to take in status data and the like of the register groups of the imaging elements 103a and 103b, and sends it to the CPU 111.
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。全天球撮影装置1によっては、ディスプレイ(例えば、スマートフォン5のディスプレイ517)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/秒)によって連続して行われる。 Further, the imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Depending on the omnidirectional photographing device 1, it may have a preview display function or a function corresponding to video display on a display (for example, the display 517 of the smartphone 5). In this case, image data is continuously output from the image sensors 103a and 103b at a predetermined frame rate (frames/second).
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球撮影装置1にはディスプレイが設けられていないが、表示部を設けてもよい。 The imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 103a and 103b in cooperation with the CPU 111, as will be described later. Note that in this embodiment, the omnidirectional photographing device 1 is not provided with a display, but may be provided with a display section.
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in sound data output from the microphone 108 through the I/F bus, and performs predetermined processing on the sound data.
CPU111は、全天球撮影装置1の全体の動作を制御すると共に必要な処理を実行する。なお、CPU111は、単一でも複数でもよい。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 111 controls the overall operation of the omnidirectional photographing device 1 and executes necessary processing. Note that the CPU 111 may be a single CPU or a plurality of CPUs. ROM112 stores various programs for CPU111. The SRAM 113 and DRAM 114 are work memories that store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data that is being processed by the image processing unit 104 and data of processed equirectangular projection images.
操作部115は、シャッターボタン115aなどの操作ボタンの総称である。利用者は、操作部115を操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 115 is a general term for operation buttons such as the shutter button 115a. The user inputs various shooting modes, shooting conditions, etc. by operating the operation unit 115.
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン5等の外部端末(装置)に送信されたりする。 The network I/F 116 is a general term for interface circuits (USB I/F, etc.) with external media such as an SD card, a personal computer, and the like. Further, the network I/F 116 may be wireless or wired. The data of the equirectangular projection image stored in the DRAM 114 may be recorded on an external media via this network I/F 116, or may be transferred to an external terminal (device) such as a smartphone 5 via the network I/F 116 as necessary. ).
通信部117は、全天球撮影装置1に設けられたアンテナ117aを介して、Wi-Fi、NFC、Bluetooth等の近距離無線通信技術によって、スマートフォン5等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン5等の外部端末(装置)に送信することができる。 The communication unit 117 communicates with an external terminal (device) such as a smartphone 5 via an antenna 117a provided in the omnidirectional photographing device 1 using short-range wireless communication technology such as Wi-Fi, NFC, or Bluetooth. . This communication unit 117 can also transmit the data of the equirectangular projection image to an external terminal (device) such as the smartphone 5.
電子コンパス118は、地球の磁気から全天球撮影装置1の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the direction of the omnidirectional photographing device 1 from the earth's magnetism and outputs direction information. This orientation information is an example of related information (metadata) in accordance with Exif, and is used for image processing such as image correction of a captured image. Note that the related information also includes data such as the date and time when the image was taken and the data capacity of the image data.
ジャイロセンサ119は、全天球撮影装置1の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 The gyro sensor 119 is a sensor that detects changes in angle (roll angle, pitch angle, yaw angle) accompanying movement of the omnidirectional imaging device 1. A change in angle is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of a captured image.
加速度センサ120は、3軸方向の加速度を検出するセンサである。全天球撮影装置1は、加速度センサ120が検出した加速度に基づいて、自装置(全天球撮影装置1)の姿勢(重力方向に対する角度)を算出する。全天球撮影装置1に、ジャイロセンサ119と加速度センサ120の両方が設けられることによって、画像補正の精度が向上する。 The acceleration sensor 120 is a sensor that detects acceleration in three axial directions. The omnidirectional imaging device 1 calculates the attitude (angle with respect to the direction of gravity) of its own device (the omnidirectional imaging device 1) based on the acceleration detected by the acceleration sensor 120. By providing the omnidirectional photographing device 1 with both the gyro sensor 119 and the acceleration sensor 120, the accuracy of image correction is improved.
端子121は、例えば、Micro USB用の凹状の端子が使用される。 As the terminal 121, for example, a concave terminal for Micro USB is used.
<仲介端末のハードウェア構成>
次に、図10を用いて、仲介端末3のハードウェア構成を説明する。なお、図10は、
無線通信機能を有したクレードルの場合の仲介端末3のハードウェア構成図である。
<Hardware configuration of intermediary terminal>
Next, the hardware configuration of the intermediary terminal 3 will be explained using FIG. 10. Note that FIG.
It is a hardware configuration diagram of the intermediary terminal 3 in the case of a cradle having a wireless communication function.
図10に示されているように、仲介端末3は、仲介端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305を備えている。 As shown in FIG. 10, the intermediary terminal 3 operates according to the control of the CPU 301 which controls the entire operation of the intermediary terminal 3, the ROM 302 which stores basic input/output programs, the RAM 303 used as a work area for the CPU 301, and the CPU 301. It is equipped with an EEPROM (Electrically Erasable and Programmable ROM) 304 that reads or writes data, and a CMOS sensor 305 as an image sensor that images a subject and obtains image data under the control of the CPU 301.
なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム及び種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。 Note that the EEPROM 304 stores an operating system (OS) executed by the CPU 301, other programs, and various data. Further, a CCD sensor may be used instead of the CMOS sensor 305.
更に、仲介端末3は、アンテナ313a、このアンテナ313aを利用して無線通信信号により、通信ネットワーク100を介して画像管理システム7と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって仲介端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及び上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。 Furthermore, the intermediary terminal 3 includes an antenna 313a, a communication unit 313 that communicates with the image management system 7 via the communication network 100 by using a wireless communication signal using the antenna 313a, and a GPS (Global Positioning Systems) satellite or indoor GPS. A GPS receiving section 314 receives a GPS signal including location information (latitude, longitude, and altitude) of the intermediary terminal 3 using an IMES (Indoor MEssaging System), and an address bus and an address bus for electrically connecting each of the above sections. A bus line 310 such as a data bus is provided.
<スマートフォンのハードウェア構成>
次に、図11を用いて、スマートフォンのハードウェアについて説明する。図11は、スマートフォンのハードウェア構成図である。図11に示されているように、スマートフォン5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、撮像素子I/F513a、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。
<Hardware configuration of smartphone>
Next, the hardware of the smartphone will be explained using FIG. 11. FIG. 11 is a hardware configuration diagram of the smartphone. As shown in FIG. 11, the smartphone 5 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, a CMOS sensor 505, an image sensor I/F 513a, an acceleration/direction sensor 506, a media I/F 508, and a GPS receiver 509. There is.
これらのうち、CPU501は、スマートフォン5全体の動作を制御する。なお、CPU501は、単一でも複数でもよい。ROM502は、CPU501やIPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ505は、CPU501の制御に従って被写体(主に自画像)を撮影し画像データを得る。撮像素子I/F513aは、CMOSセンサ512の駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(
憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。
Among these, the CPU 501 controls the operation of the smartphone 5 as a whole. Note that the CPU 501 may be a single CPU or a plurality of CPUs. The ROM 502 stores programs used to drive the CPU 501, such as the CPU 501 and an IPL (Initial Program Loader). RAM 503 is used as a work area for CPU 501. The EEPROM 504 reads or writes various data such as smartphone programs under the control of the CPU 501. The CMOS sensor 505 photographs a subject (mainly a self-portrait) under the control of the CPU 501 and obtains image data. The image sensor I/F 513a is a circuit that controls driving of the CMOS sensor 512. The acceleration/direction sensor 506 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect geomagnetism. The media I/F 508 reads or writes data to or from the recording medium 507 such as a flash memory.
control). GPS receiving section 509 receives GPS signals from GPS satellites.
また、スマートフォン5は、遠距離通信回路511、アンテナ511a、CMOSセンサ512、撮像素子I/F513b、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519a及びタッチパネル521を備えている。 The smartphone 5 also includes a long-distance communication circuit 511, an antenna 511a, a CMOS sensor 512, an image sensor I/F 513b, a microphone 514, a speaker 515, a sound input/output I/F 516, a display 517, an external device connection I/F 518, and a short distance It includes a communication circuit 519, an antenna 519a of the short-range communication circuit 519, and a touch panel 521.
これらのうち、遠距離通信回路511は、インターネット等の通信ネットワークを介して、他の機器と通信する回路である。CMOSセンサ512は、CPU501の制御に従って被写体を撮影して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513bは、CMOSセンサ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、Wi-Fi、NFC、Bluetooth等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、スマートフォン5を操作する入力手段の一種である。 Among these, the long distance communication circuit 511 is a circuit that communicates with other devices via a communication network such as the Internet. The CMOS sensor 512 is a type of built-in imaging means that photographs a subject and obtains image data under the control of the CPU 501. The image sensor I/F 513b is a circuit that controls driving of the CMOS sensor 512. The microphone 514 is a type of built-in sound collecting means for inputting audio. The sound input/output I/F 516 is a circuit that processes input and output of sound signals between the microphone 514 and the speaker 515 under the control of the CPU 501. The display 517 is a type of display means such as a liquid crystal or organic EL display that displays an image of a subject, various icons, and the like. External device connection I/F 518 is an interface for connecting various external devices. The short-range communication circuit 519 is a communication circuit such as Wi-Fi, NFC, or Bluetooth. The touch panel 521 is a type of input means by which the user operates the smartphone 5 by pressing the display 517.
また、スマートフォン5は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The smartphone 5 also includes a bus line 510. The bus line 510 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 501.
<画像管理システムのハードウェア構成>
次に、図12を用いて、画像管理システムのハードウェア構成について説明する。図1
2は、画像管理システムのハードウェア構成図である。
<Hardware configuration of image management system>
Next, the hardware configuration of the image management system will be described using FIG. 12. Figure 1
2 is a hardware configuration diagram of the image management system.
図12は、画像管理システム7のハードウェア構成図である。図12に示されているように、画像管理システム7は、コンピュータによって構築されており、図12に示されているように、CPU701、ROM702、RAM703、HD704、HDD(Hard Disk Drive)コントローラ705、ディスプレイ708、メディアI/F707、ネットワークI/F709、バス710、キーボード711、マウス712及びDVD-RW(Digital Versatile Disk Rewritable)ドライブ714を備えている。 FIG. 12 is a hardware configuration diagram of the image management system 7. As shown in FIG. As shown in FIG. 12, the image management system 7 is constructed by a computer, and includes a CPU 701, ROM 702, RAM 703, HD 704, HDD (Hard Disk Drive) controller 705, It includes a display 708, a media I/F 707, a network I/F 709, a bus 710, a keyboard 711, a mouse 712, and a DVD-RW (Digital Versatile Disk Rewritable) drive 714.
これらのうち、CPU701は、画像管理システム7全体の動作を制御する。ROM702は、IPL等のCPU701の駆動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。HD704は、プログラム等の各種データを記憶する。HDDコントローラ705は、CPU701の制御にしたがってHD704に対する各種データの読み出し又は書き込みを制御する。ディスプレイ708は、カーソル、メニュー、ウィンドウ、文字又は画像などの各種情報を表示する。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。ネットワークI/F709は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。バス710は、図12に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Among these, the CPU 701 controls the operation of the entire image management system 7. The ROM 702 stores programs used to drive the CPU 701 such as IPL. RAM 703 is used as a work area for CPU 701. The HD 704 stores various data such as programs. The HDD controller 705 controls reading and writing of various data to the HD 704 under the control of the CPU 701. The display 708 displays various information such as a cursor, menu, window, characters, or images. A media I/F 707 controls reading or writing (storage) of data to a recording medium 706 such as a flash memory. The network I/F 709 is an interface for data communication using the communication network 100. The bus 710 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 701 shown in FIG. 12.
また、キーボード711は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。マウス712は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD-RWドライブ714は、着脱可能な記録媒体の一例としてのDVD-RW713に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RWに限らず、DVD-RやBlu-ray Disc(ブルーレイディスク)等であってもよい。 Further, the keyboard 711 is a type of input means that includes a plurality of keys for inputting characters, numerical values, various instructions, and the like. The mouse 712 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 714 controls reading and writing of various data on a DVD-RW 713, which is an example of a removable recording medium. Note that the disc is not limited to DVD-RW, but may be DVD-R, Blu-ray Disc, or the like.
〔実施形態の機能構成〕
次に、図13乃至図16を用いて、本実施形態の機能構成について説明する。なお、仲介端末3は、全天球撮影装置1と画像管理システム7とも通信を仲介するための送受信部が主機能であるため、説明を省略する。
[Functional configuration of embodiment]
Next, the functional configuration of this embodiment will be explained using FIGS. 13 to 16. Note that the main function of the intermediary terminal 3 is a transmitting/receiving section for intermediating communication between the omnidirectional photographing device 1 and the image management system 7, and therefore a description thereof will be omitted.
<全天球撮影装置の機能構成>
図13は、本実施形態の全天球撮影装置の機能ブロック図である。全天球撮影装置1は、送受信部11、部分画像パラメータ作成部12、撮像制御部13、撮像部14a,14b、画像処理部15、一時記憶部16、精細度変更部17、射影方式変換部18、結合部19、動画符号化部20a、静止画符号化部20b、受付部22、判断部25及び静止画記憶部29を有している。このうち、精細度変更部17は、低精細変更部17a及び低精細変更部17bを有している。低精細変更部17aは、一時記憶部16に記憶された超高精細な動画データに対して、精細度を低下させた全体動画(低精細)を生成する。一方、低精細変更部17bは、一時記憶部16に記憶された超高精細な動画データに対して、以下に説明する射影方式変換部18から送られた出力画像を低精細変更部17aよりも精細度を低下させる割合を少なくした(低精細変更部17aよりも相対的に高精細にした)部分動画(高精細)として生成する。なお、低精細変更部17aは第1の低精細変更部の一例であり、低精細変更部17bは第2の低精細変更部の一例である。射影方式変換部18は、一時記憶部16に記憶された超高精細な動画データに対して、射影方式変換させた部分静止画(超高精細)を生成する。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された全天球撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。また、全天球撮影装置1は、SRAM113によって実現された閾値管理部1001を有している。上述したように、低精細変更部17a及び低精細変更部17bを含む精細度変換と射影方式変換部18で示される射影方式変換については、機能の配置を分けて記載しているが、これらは通常は一緒に行われるのが一般的であるため、同じブロック内に記載しても構わない。本実施例では、機能を明確に区別するために便宜上図13のように記載しているにすぎない。なお、図13に示した機能ブロック図で、点線は動画配信及び記録時において機能する各機能ブロックを示し、実線は動画再生時において機能する各ブロックを示し、太線は動画配信及び記録並びに動画再生の両方で機能する各ブロックを示すものとして便宜上書き分けている。
<Functional configuration of spherical photography device>
FIG. 13 is a functional block diagram of the omnidirectional photographing device of this embodiment. The omnidirectional photographing device 1 includes a transmitting/receiving section 11, a partial image parameter creation section 12, an imaging control section 13, imaging sections 14a and 14b, an image processing section 15, a temporary storage section 16, a definition change section 17, and a projection method conversion section. 18, a combining section 19, a moving image encoding section 20a, a still image encoding section 20b, a receiving section 22, a determining section 25, and a still image storage section 29. Among these, the definition change section 17 includes a low definition change section 17a and a low definition change section 17b. The low-definition changing unit 17a generates an entire video (low-definition) in which the definition is lowered for the ultra-high-definition video data stored in the temporary storage unit 16. On the other hand, the low-definition changing unit 17b converts the output image sent from the projection method converting unit 18, which will be described below, to the ultra-high-definition video data stored in the temporary storage unit 16. It is generated as a partial video (high definition) with a reduced rate of reduction in definition (relatively higher definition than the low definition changing section 17a). Note that the low-definition change section 17a is an example of a first low-definition change section, and the low-definition change section 17b is an example of a second low-definition change section. The projection method conversion unit 18 generates a partial still image (ultra high definition) by converting the projection method from the ultra high definition video data stored in the temporary storage unit 16. Each of these parts is realized by one of the components shown in FIG. 9 operating in response to an instruction from the CPU 111 according to a program for the spherical photographing device developed from the SRAM 113 onto the DRAM 114. It is a function or means. The omnidirectional photographing device 1 also includes a threshold management section 1001 implemented by an SRAM 113. As mentioned above, the definition conversion including the low-definition changing section 17a and the low-definition changing section 17b and the projection method conversion shown by the projection method converting section 18 are described separately in terms of functional arrangement; Since they are usually performed together, they may be written in the same block. In this embodiment, the functions are simply illustrated as shown in FIG. 13 for convenience in order to clearly distinguish the functions. In the functional block diagram shown in FIG. 13, dotted lines indicate each functional block that functions during video distribution and recording, solid lines indicate each block that functions during video playback, and thick lines indicate video distribution, recording, and video playback. For convenience, they are written separately to indicate each block that functions in both.
(水平垂直画角閾値情報)
閾値管理部1001には、図16(a)に示されているように、水平垂直画角閾値情報が、例えば工場出荷前から記憶されている。なお、図16(a)は水平垂直画角閾値情報の概念図、図16(b)は水平画角と垂直画角の説明図である。なお、図16(a)は、水平垂直画角閾値情報は、テーブル形式で表されているが、これに限らず、テーブル形式で表すようにしなくてもよい。
(Horizontal/vertical angle of view threshold information)
As shown in FIG. 16A, the threshold management unit 1001 stores horizontal and vertical view angle threshold information, for example, before shipment from the factory. Note that FIG. 16(a) is a conceptual diagram of the horizontal and vertical viewing angle threshold information, and FIG. 16(b) is an explanatory diagram of the horizontal viewing angle and the vertical viewing angle. Note that although the horizontal and vertical view angle threshold information is expressed in a table format in FIG. 16A, the information is not limited to this and need not be expressed in a table format.
図16(a)に示されているように、水平垂直画角閾値情報は、全天球撮影装置1の最大撮影解像度(横W×縦H)の候補の列、利用者(閲覧者)によって設定されるスマートフォン5で表示可能な最大表示解像度(横W’×縦H’)の候補の列、全天球撮影装置1から画像管理システム7を介してスマートフォン5に送信するか否かの判断に使用される画像の水平画角(AH)×垂直画角(AV)の各閾値が関連付けて管理されている。 As shown in FIG. 16(a), the horizontal/vertical angle of view threshold information is determined by a column of candidates for the maximum imaging resolution (width W x height H) of the omnidirectional imaging device 1, and by the user (viewer). A row of candidates for the maximum display resolution (horizontal W' x vertical H') that can be displayed on the smartphone 5 to be set, and a determination as to whether to transmit it from the omnidirectional photographing device 1 to the smartphone 5 via the image management system 7 Each threshold value of the horizontal angle of view (AH) x the vertical angle of view (AV) of the image used for the image is managed in association with each other.
ここで、図16(b)を用いて、水平画角(AH)と垂直画角(AV)について説明する。なお、図16(b)において、中心点CP、方位角「aa」、仰角「ea」は、図7と同じであるため、説明を省略する。全天球画像(動画、静止画)においては矩形の部分画像(動画、静止画)の一フレーム全領域のサイズを、撮影するカメラ(ここでは、仮想カメラIC)の方向で表すことが可能である。部分画像の横の長さを仮想カメラICからの水平画角(AH)で表し、部分画像の縦の長さを仮想カメラICからの水平画角(AH)で表すことができる。 Here, the horizontal angle of view (AH) and the vertical angle of view (AV) will be explained using FIG. 16(b). Note that in FIG. 16(b), the center point CP, the azimuth angle "aa", and the elevation angle "ea" are the same as those in FIG. 7, so their explanations will be omitted. In a spherical image (video, still image), the size of the entire area of one frame of a rectangular partial image (video, still image) can be expressed in terms of the direction of the shooting camera (here, the virtual camera IC). be. The horizontal length of the partial image can be expressed by the horizontal angle of view (AH) from the virtual camera IC, and the vertical length of the partial image can be expressed by the horizontal angle of view (AH) from the virtual camera IC.
水平画角(AH)と垂直画角(AV)は変換元の解像度と変換後の解像度の差がなくなる画角で、判断部25の判断に用いられる。この画角は次の(式1)及び(式2)で求めることができる。 The horizontal angle of view (AH) and the vertical angle of view (AV) are angles of view at which there is no difference between the original resolution and the converted resolution, and are used for determination by the determination unit 25. This angle of view can be determined using the following (Equation 1) and (Equation 2).
AH=(360/W)*W’ ・・・(式1)
AV=(180/H)*(H’/2) ・・・(式2)
なお、全天球撮影装置1の最大撮影解像度が(W:4000,H:2000)であっても、全天球撮影装置1は図16に示されている各設定パターンを示す水平垂直画角閾値情報を管理している。但し、この場合、全天球撮影装置1は、図16において、設定1と設定2のパターンしか参照しない。同じく、利用者によって設定されるスマートフォン5での最大表示解像度が(W’:1920,H’:1080)であっても、全天球撮影装置1は図16に示されている各設定パターンを示す水平垂直画角閾値情報を管理している。
AH=(360/W)*W'...(Formula 1)
AV=(180/H)*(H'/2)...(Formula 2)
Note that even if the maximum imaging resolution of the omnidirectional imaging device 1 is (W: 4000, H: 2000), the omnidirectional imaging device 1 has a horizontal and vertical angle of view that shows each setting pattern shown in FIG. Manages threshold information. However, in this case, the omnidirectional photographing device 1 only refers to the patterns of settings 1 and 2 in FIG. 16. Similarly, even if the maximum display resolution of the smartphone 5 set by the user is (W': 1920, H': 1080), the spherical photographing device 1 will not accept each setting pattern shown in FIG. It manages horizontal and vertical viewing angle threshold information.
例えば、全天球撮影装置1の最大撮影解像度の横×縦が4000×2000の場合であって、利用者によってスマートフォン5から全天球撮影装置1に対して、横×縦が1920×1080の解像度の画像(動画、静止画)のデータを要求するように設定されていた場合の条件(C1)下では、判断部25は、指示データによって要求された部分画像の画角が横172.8°かつ縦48.6°で示される閾値の未満の場合に、射影方式変換部18に超高精細な静止画像のデータへの射影方式変換を行わせないと判断する。 For example, if the maximum imaging resolution of the spherical imaging device 1 is 4000 x 2000, and the user sends a request from the smartphone 5 to the spherical imaging device 1 with a width x 1080 resolution. Under the condition (C1) where the setting is made to request image data (moving images, still images) with a resolution of If the angle is less than the threshold value represented by 48.6° and 48.6° vertically, it is determined that the projection method conversion unit 18 is not allowed to perform projection method conversion to ultra-high-definition still image data.
(全天球撮影装置の各機能構成)
次に、図13を用いて、全天球撮影装置1の各機能構成について更に詳細に説明する。
(Each functional configuration of the spherical photography device)
Next, each functional configuration of the omnidirectional photographing device 1 will be described in more detail using FIG. 13.
送受信部11は、全天球撮影装置1の外部に対して画像データを送信したり、外部からデータを受信したりする。例えば、画像データとしては、超高精細の部分静止画、高精細の部分動画、低精細の全体動画の各データがある。また、送受信部11は、後述の指示データを受信したり、後述の部分画像パラメータを送信したりする。 The transmitting/receiving unit 11 transmits image data to the outside of the omnidirectional photographing device 1 and receives data from the outside. For example, the image data includes ultra-high-definition partial still images, high-definition partial moving images, and low-definition whole moving images. The transmitting/receiving unit 11 also receives instruction data, which will be described later, and transmits partial image parameters, which will be described later.
なお、本実施形態では、3段階の精細度の画像が取り扱われるため、最も精細度が高い画像、次に精細度が高い画像、最も精細度が低い画像について、便宜的にそれぞれ「超高精細」、「高精細」、「低精細」と示して区別する。よって、例えば、本実施形態の「超高精細」が、一般的な超高精細を意味するものではない。 In addition, in this embodiment, since images with three levels of definition are handled, the image with the highest definition, the image with the second highest definition, and the image with the lowest definition are respectively classified as "ultra high definition" for convenience. ”, “high definition”, and “low definition”. Therefore, for example, "ultra high definition" in this embodiment does not mean general ultra high definition.
部分画像パラメータ作成部12は、スマートフォン5から画像管理システム7を介して送られて来た指示データに基づいて部分画像パラメータを作成する。この指示データは、スマートフォン5の受付部52で利用者の操作によって受け付けられ、後述の重畳領域を特定するための指示を示すデータである。 The partial image parameter creation unit 12 creates partial image parameters based on instruction data sent from the smartphone 5 via the image management system 7. This instruction data is received by the user's operation at the reception unit 52 of the smartphone 5, and is data indicating an instruction for specifying a superimposed area, which will be described later.
撮像制御部13は、撮像部14a,14bの画像データの出力タイミングの同期をとる指示を出力する。また、撮像制御部13は、外部(例えば、GPS衛星)から取得した時刻情報を入力して、再生中の動画から静止画を生成する際のタイミング管理を行う機能も有している。このタイミング管理については、後述する部分静止画の生成に関するシーケンス図とあわせて説明する。 The imaging control unit 13 outputs an instruction to synchronize the output timing of image data of the imaging units 14a and 14b. The imaging control unit 13 also has a function of inputting time information acquired from the outside (eg, a GPS satellite) and managing timing when generating a still image from the moving image being played. This timing management will be explained in conjunction with a sequence diagram related to generation of partial still images, which will be described later.
撮像部14a,14bは、それぞれ、撮像制御部13からの指示に従って被写体等を撮像し、例えば、図3(a),(b)に示されているように、全天球画像データの元になる半球画像データを出力する。 The imaging units 14a and 14b respectively image a subject etc. according to instructions from the imaging control unit 13, and, for example, as shown in FIGS. 3(a) and 3(b), based on spherical image data. Outputs hemispherical image data.
画像処理部15は、撮像部14a,14bで得られた2つの半球画像データを正距円筒射影方式の画像である正距円筒射影画像のデータに合成変換する。つまり、画像処理部15は、被写体を撮影して得た所定の精細度の動画データから全天球画像データを生成する全天球画像生成手段の一例である。 The image processing section 15 synthesizes and converts the two hemispherical image data obtained by the imaging sections 14a and 14b into equirectangular projection image data, which is an equirectangular projection image. In other words, the image processing unit 15 is an example of a spherical image generation unit that generates spherical image data from moving image data of a predetermined definition obtained by photographing a subject.
一時記憶部16は、画像処理部15で合成変換された正距円筒射影画像のデータを一時的に記憶するバッファの役割を果たす。なお、この状態の正距円筒射影画像は超高精細である。 The temporary storage unit 16 serves as a buffer that temporarily stores the data of the equirectangular projection image synthesized and transformed by the image processing unit 15. Note that the equirectangular projection image in this state is extremely high definition.
精細度変更部17は、送受信部11で受信されたスマートフォン5からの指示データに従って、正距円筒射影画像を画像の縮小等により、超高精細画像(ここでは動画)から低精細画像(動画)及び低精細画像よりも相対的に高精細な画像(動画)に変更する。これにより、低精細な正距円筒射影画像(ここでは、全体動画)が生成される。なお、精細度変更部17は、変更手段の一例である。 The definition change unit 17 converts the equirectangular projection image from an ultra-high-definition image (here, a video) to a low-definition image (video) by reducing the size of the equirectangular cylindrical projection image according to the instruction data from the smartphone 5 received by the transmitting/receiving unit 11. and change the low-definition image to a relatively high-definition image (video). As a result, a low-definition equirectangular projection image (here, the entire moving image) is generated. Note that the definition changing unit 17 is an example of a changing means.
射影方式変換部18は、送受信部11で受信した指示データ及び動画データ要求に従って、即ち、全体画像の一部分の画像である部分画像の方向、画角及びアスペクト、並びに画像管理システム7を介してスマートフォン5へ送信する画像データのサイズに従って、正距円筒射影方式を透視射影方式に射影方式変換する。これにより、超高精細な状態のままで部分画像(ここでは、部分動画)が生成される。このように、精細度変更部17から出力される全体画像データは、射影方式変換部18から出力される部分画像データよりも精細度(又は解像度)が低い。即ち、射影方式変換部18から出力される部分画像データは、精細度変更部17から出力される全体画像データよりも精細度(解像度)が高い。 The projection method conversion unit 18 converts the smartphone according to the instruction data and video data request received by the transmission/reception unit 11, that is, the direction, angle of view, and aspect of a partial image that is a partial image of the entire image, and the image management system 7. The projection method is converted from the equirectangular cylindrical projection method to the perspective projection method according to the size of the image data to be transmitted to 5. As a result, a partial image (here, a partial video) is generated while maintaining ultra-high definition. In this way, the overall image data output from the definition changing unit 17 has a lower definition (or resolution) than the partial image data output from the projection method converting unit 18. That is, the partial image data output from the projection method converter 18 has a higher definition (resolution) than the entire image data output from the definition change unit 17.
更に、射影方式変換部18は、送受信部11で受信した指示データ及び静止画データ要求に従って、即ち、全体画像の一部分の画像である部分画像の方向、画角及びアスペクト、並びに画像管理システム7を介してスマートフォン5へ送信する画像データのサイズに従って、正距円筒射影方式を透視射影方式に射影方式変換する。これにより、超高精細な状態のままで部分画像(ここでは、部分静止画)が生成される。本実施形態では、射影方式変換部18によって生成される部分動画及び部分静止画の元になる画像は、同じく超高精細であるが、この射影方式変換部18で部分動画及び部分静止画の精細度を区別するように精細度を変えてもよい。 Furthermore, the projection method converter 18 converts the direction, angle of view, and aspect of the partial image, which is a partial image of the entire image, and the image management system 7, according to the instruction data and still image data request received by the transmitter/receiver 11. The projection method is converted from the equirectangular cylindrical projection method to the perspective projection method according to the size of the image data to be transmitted to the smartphone 5 via the smartphone 5. As a result, a partial image (here, a partial still image) is generated in an ultra-high definition state. In this embodiment, the original images of the partial moving images and partial still images generated by the projection method converter 18 are also ultra-high definition; The degree of definition may be changed to distinguish between degrees.
ここで、超高精細の画像として、例えば、2K、4K、8Kのいずれかの正距円筒射影画像が出力される場合について説明する。これらの超高精細の正距円筒射影画像のデータに基づき、射影方式変換部18から出力される部分画像データは、正距円筒射影画像の解像度(2K、4K、8Kのいずれか)のままで、所定の射影方式に変換されたデータである。一方、精細度変更部17から出力される全体画像データは、1K、2K、4Kなど、正距円筒射影画像よりも相対的に低精細(低解像度)のデータである。 Here, a case will be described in which, for example, a 2K, 4K, or 8K equirectangular projection image is output as an ultra-high-definition image. Based on the data of these ultra-high-definition equirectangular projection images, the partial image data output from the projection method conversion unit 18 remains at the resolution (either 2K, 4K, or 8K) of the equirectangular projection image. , is data converted into a predetermined projection method. On the other hand, the entire image data output from the definition change unit 17 is data of relatively lower definition (lower resolution) than the equirectangular projection image, such as 1K, 2K, 4K, etc.
結合部19は、精細度変更部17で変更された低精細な全体動画の各フレームと、射影方式変換部18で変換された超高精細な部分動画の各フレームを、図20に示されているように、縦の解像度を半分に圧縮することで、それぞれのフレームの精細度を下げて一フレームに結合する。これにより、部分動画は、全体動画よりは精細度が高いが、部分静画よりは精細度が低くなる。このように各フレームの精細度を下げて一フレームにすることで、データ通信量を抑制することができる。更に、結合される2つのフレームは、一時記憶部16に記憶されていた同じ正距円射影画像から生成されているため、結合される2つのフレームを関連付けるためのメタデータ等を利用しなくても、同じタイミングで撮影されて生成された2つのフレームを関連付けることができる。 The combining unit 19 combines each frame of the low-definition whole video changed by the definition change unit 17 and each frame of the ultra-high-definition partial video converted by the projection method converter 18, as shown in FIG. By compressing the vertical resolution in half, the definition of each frame is lowered and combined into one frame. As a result, the partial video has higher definition than the entire video, but lower definition than the partial still image. By lowering the definition of each frame into one frame in this way, it is possible to suppress the amount of data communication. Furthermore, since the two frames to be combined are generated from the same equirectangular projection image stored in the temporary storage unit 16, there is no need to use metadata or the like to associate the two frames to be combined. It is also possible to associate two frames captured and generated at the same timing.
動画符号化部20aは、結合部19によって結合された全体動画及び部分動画のフレームデータを符号化する。静止画符号化部20bは、部分静止画のデータを符号化する。なお、動画符号化部20aは、例えば、GPSの時計機能により得られる時刻情報を用いて全天球撮影装置1の時刻管理を行うことができる。 The video encoding unit 20a encodes the frame data of the entire video and partial videos combined by the combination unit 19. The still image encoding unit 20b encodes data of partial still images. Note that the video encoding unit 20a can manage the time of the omnidirectional photographing device 1 using, for example, time information obtained by a GPS clock function.
受付部22は、利用者が各種要求を行う際に全天球撮影装置の操作部115に対して行う操作を受け付ける。 The reception unit 22 receives operations performed by the user on the operation unit 115 of the omnidirectional photographing device when making various requests.
判断部25は、全体動画の一部の領域である部分画像の一フレームの全領域が、閾値管理部1001で管理されている水平垂直画角閾値情報(図16参照)の所定の閾値で示される所定領域よりも小さいか否かを判断する。そして、小さい場合に、判断部25は、射影方式変換部18に超高精細な静止画のデータを射影方式変換させないようにする。また、大きい場合に、判断部25は、射影方式変換部18に超高精細な静止画のデータを射影方式変換させるようにする。 The determining unit 25 determines whether the entire area of one frame of the partial image, which is a partial area of the entire video, is indicated by a predetermined threshold of the horizontal/vertical view angle threshold information (see FIG. 16) managed by the threshold managing unit 1001. It is determined whether the area is smaller than a predetermined area. If the difference is smaller, the determining unit 25 prevents the projection method conversion unit 18 from converting the ultra-high definition still image data into the projection method. If the difference is large, the determining unit 25 causes the projection method conversion unit 18 to convert the ultra-high-definition still image data into a projection method.
例えば、全天球撮影装置1の最大撮影解像度の横×縦が4000×2000の場合であって、利用者によってスマートフォン5から全天球撮影装置1に対して、スマートフォン5における最大表示解像度の横×縦が1920×1080に設定されていた場合の条件(C1)下で、指示データによって要求されている画像の横の画角が172.8°未満かつ縦の画角が48.6°未満の場合に、判断部25は、射影方式変換部18に超高精細な静止画のデータを射影方式変換させないと判断する。このように、スマートフォン5から要求された画像の解像度(精細度)が低い場合に、全天球撮影装置1は、高精細な部分動画のデータを送っても、又は超高精細な部分静止画のデータを送っても、利用者はスマートフォン5で高精細な部分動画と超高精細な部分静止画の区別を付けづらいため、全天球撮影装置1は、わざわざ超高精細な部分静止画のデータを送る必要はないからである。なお、閾値の範囲に示した「未満」は「以下」としてもよい。 For example, if the maximum imaging resolution of the spherical photographing device 1 is 4000 x 2000, the user may send a message from the smartphone 5 to the spherical photographing device 1 in the horizontal direction of the maximum display resolution on the smartphone 5. × Under the condition (C1) when the height is set to 1920 x 1080, the horizontal angle of view of the image requested by the instruction data is less than 172.8° and the vertical angle of view is less than 48.6° In this case, the determining unit 25 determines not to cause the projection method conversion unit 18 to convert the ultra-high definition still image data into a projection method. In this way, when the resolution (definition) of the image requested by the smartphone 5 is low, the omnidirectional photographing device 1 sends data of a high-definition partial video or an ultra-high-definition partial still image. Even if the data of This is because there is no need to send data. Note that "less than" shown in the threshold range may also be "less than or equal to".
一方、上記と同じ条件(C1)下で、指示データによって要求されている画像の横の画角が172.8°超又は縦の画角が48.6°超の場合に、判断部25は、射影方式変換部18に超高精細な静止画のデータを射影方式変換させると判断する。この場合、スマートフォン5が、高精細な部分動画を超高精細な静止画に切り替えて表示することで、利用者(閲覧者ともいう)は注目する領域をよりはっきりと(鮮明に)閲覧することができるため、入念に閲覧することができる。なお、閾値の範囲に示した「超」は「以上」としてもよい。 On the other hand, under the same condition (C1) as above, if the horizontal angle of view of the image requested by the instruction data exceeds 172.8° or the vertical angle of view exceeds 48.6°, the determination unit 25 , it is determined that the projection method converter 18 should convert the ultra-high definition still image data into a projection method. In this case, the smartphone 5 switches and displays a high-definition partial video to an ultra-high-definition still image, allowing the user (also referred to as a viewer) to view the area of interest more clearly (clearly). This allows for careful viewing. Note that "exceeding" shown in the threshold range may also be "greater than".
<スマートフォンの機能構成>
図14は、本実施形態のスマートフォンの機能ブロック図である。スマートフォン5は、送受信部51、受付部52、動画復号化部53a、静止画復号化部53b、重畳表示制御部63(重畳領域作成部54、画像作成部55、画像重畳部56、射影変換部57、表示制御部58)、再生時間管理部59、再生用フレーム抽出部60、重畳画像判断部61及び記憶制御部62を有している。これら各部は、図11に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたスマートフォン用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。ここで、スマートフォン用プログラムに従ったCPU501からの命令によって機能する重畳表示制御部63は、動画に静止画を重畳させて表示する機能を備え、重畳表示制御手段の一例である。この重畳表示制御部63は、重畳領域作成部54、画像作成部55、画像重畳部56、射影変換部57及び表示制御部58を纏めた各機能を有している。なお、図14に示した機能ブロック図で、点線は動画配信及び記録時において機能する各機能ブロックを示し、実線は動画再生時において機能する各ブロックを示し、太線は動画配信及び記録並びに動画再生の両方で機能する各ブロックを示すものとして便宜上書き分けている。
<Functional configuration of smartphone>
FIG. 14 is a functional block diagram of the smartphone of this embodiment. The smartphone 5 includes a transmitting/receiving section 51, a reception section 52, a video decoding section 53a, a still image decoding section 53b, a superimposed display control section 63 (superimposed area creation section 54, image creation section 55, image superimposition section 56, projective conversion section 57, a display control section 58), a reproduction time management section 59, a reproduction frame extraction section 60, a superimposed image determination section 61, and a storage control section 62. Each of these units is a function or means realized by one of the components shown in FIG. 11 operating in response to an instruction from the CPU 501 according to a smartphone program loaded from the EEPROM 504 onto the RAM 503. . Here, the superimposed display control unit 63, which functions according to instructions from the CPU 501 according to a smartphone program, has a function of superimposing and displaying a still image on a moving image, and is an example of a superimposed display control means. The superimposed display control section 63 has the functions of a superimposed area creation section 54, an image creation section 55, an image superimposition section 56, a projective transformation section 57, and a display control section 58. In the functional block diagram shown in FIG. 14, dotted lines indicate functional blocks that function during video distribution and recording, solid lines indicate blocks that function during video playback, and thick lines indicate video distribution, recording, and video playback. For convenience, they are written separately to indicate each block that functions in both.
(スマートフォンの各機能構成)
次に、図14を用いて、スマートフォン5の各機能構成について更に詳細に説明する。
(Each function configuration of smartphone)
Next, each functional configuration of the smartphone 5 will be described in more detail using FIG. 14.
送受信部51は、スマートフォン5の外部に対してデータを送信したり、外部からデータを受信したりする。例えば、送受信部51は、全天球撮影装置1の送受信部11から画像データを受信したり、画像管理システム7の受信部71a及び送信部71b又は全天球撮影装置1の送受信部11に対して指示データを送信したりする。つまり、送受信部51は、画像データ及び指示データに相当する所定の操作を示すデータを画像管理システム7に送受信する送信手段及び受信手段の一例である。また、送受信部51は、全天球撮影装置1の送受信部11から送られて来た画像データ(図20に示す全体動画のデータ及び部分動画データ)と部分画像パラメータとを分離する。 The transmitter/receiver 51 transmits data to the outside of the smartphone 5 and receives data from the outside. For example, the transmitting/receiving unit 51 may receive image data from the transmitting/receiving unit 11 of the spherical photographing device 1, or may be configured to and send instruction data. That is, the transmitting/receiving unit 51 is an example of a transmitting means and a receiving means that transmits and receives data indicating a predetermined operation corresponding to image data and instruction data to and from the image management system 7. Further, the transmitting/receiving unit 51 separates the image data (whole video data and partial video data shown in FIG. 20) sent from the transmitting/receiving unit 11 of the omnidirectional photographing device 1 from partial image parameters.
受付部52は、利用者から、部分画像の方向、画角及びアスペクト、並びにスマートフォン5で受信する画像データのサイズの指定操作を受け付ける。また、受付部52は、利用者から、スマートフォン5における最大表示解像度(図16の横W’×縦H’参照)の設定を受け付ける。この受付部52は、受付手段の一例である。 The receiving unit 52 receives from the user an operation for specifying the direction, angle of view, and aspect of the partial image, as well as the size of the image data to be received by the smartphone 5. The reception unit 52 also receives settings for the maximum display resolution of the smartphone 5 (see width W'×height H' in FIG. 16) from the user. This reception unit 52 is an example of reception means.
動画復号化部53aは、全天球撮影装置1の動画符号化部20aで符号化された低精細な全体動画及び高精細な部分動画の各データに対して、動画撮影開始時刻、対応時間情報等のメタデータとあわせた処理を行う後述の再生用フレーム抽出部60から出力された動画のデータを受信して低精細な全体動画のデータ及び高精細な部分動画のデータに復号化する。静止画復号化部53bは、全天球撮影装置1の静止画符号化部20bで符号化された超高精細な部分静止画のデータに対して、動画撮影開始時刻、対応時間情報等のメタデータとあわせた処理を行う後述の再生用フレーム抽出部60から出力された静止画のデータを受信して超高精細な部分静止画のデータに復号化する。
重畳領域作成部54は、記憶制御部62により読み出された部分画像パラメータ(メタデータ)を取得し、取得した部分画像パラメータにより指定された重畳領域を作成する。この重畳領域は、全体動画である全天球画像CE上において、部分動画(又は部分静止画)である重畳画像S及びマスク画像Mの重畳位置及び重畳範囲を示している。
The video decoding unit 53a generates video shooting start time and corresponding time information for each data of the low-definition whole video and high-definition partial video encoded by the video encoding unit 20a of the omnidirectional photographing device 1. It receives video data output from a playback frame extraction unit 60 (described later) which performs processing together with metadata such as, and decodes it into low-definition whole video data and high-definition partial video data. The still image decoding unit 53b adds metadata such as video shooting start time and corresponding time information to the ultra-high-definition partial still image data encoded by the still image encoding unit 20b of the omnidirectional photographing device 1. Still image data output from a reproduction frame extracting unit 60 (described later) that performs processing together with the data is received and decoded into ultra-high definition partial still image data.
The superimposed area creation unit 54 acquires the partial image parameters (metadata) read out by the storage control unit 62, and creates a superimposed area specified by the acquired partial image parameters. This superimposition area indicates the superimposition position and range of the superimposition image S and mask image M, which are partial moving images (or partial still images), on the spherical image CE, which is the entire moving image.
画像作成部55は、重畳領域作成部54、動画復号化部53a、静止画復号化部53b、及び重畳画像判断部61から取得した各データとそれらの重畳領域に係る情報に従って、重畳画像S及びマスク画像を作成し、低精細な全体画像から全天球画像CEを作成する。 The image creation section 55 creates a superimposed image S and a superimposed image S according to each data acquired from the superimposed region creation section 54, the moving image decoding section 53a, the still image decoding section 53b, and the superimposed image determination section 61 and information related to their superimposed regions. A mask image is created, and a celestial sphere image CE is created from the low-definition overall image.
画像重畳部56は、画像作成部55で作成された重畳画像S及びマスク画像を取得して第1の画像に第2の画像を重畳する。例えば、画像重畳部56は、全天球画像CE上の重畳領域に対して、重畳画像S及びマスク画像Mを重畳することで、最終的な全天球画像CEを作成する。 The image superimposing unit 56 acquires the superimposed image S and the mask image created by the image creating unit 55, and superimposes the second image on the first image. For example, the image superimposition unit 56 creates the final omnidirectional image CE by superimposing the superimposed image S and the mask image M on the superimposed region on the omnidirectional image CE.
射影変換部57は、画像重畳部56で作成された最終的な全天球画像CEを取得し、受付部52で受けられた利用者の指示に従って、最終的な全天球画像CEを透視射影方式の画像に変換する。この射影変換部57は、射影変換手段の一例である。 The projective transformation unit 57 obtains the final spherical image CE created by the image superimposition unit 56, and performs perspective projection on the final spherical image CE according to the user's instructions received at the reception unit 52. Convert to a method image. This projective transformation unit 57 is an example of projective transformation means.
表示制御部58は、射影変換部57で変換された透視射影方式の画像を取得し、透視射影方式に変換後の画像をディスプレイ517等に表示させる制御を行う。例えば、表示制御部58は、画像重畳部56によって第1の画像に第2の画像が重畳された状態で表示する。 The display control unit 58 acquires the perspective projection image converted by the projection conversion unit 57, and performs control to display the image after conversion into the perspective projection mode on the display 517 or the like. For example, the display control unit 58 displays the second image superimposed on the first image by the image superimposing unit 56.
再生時間管理部59は、基準となる動画再生時間を管理して再生時刻を出力する。例えば、30fps(frames per second)の動画を再生したい場合は、メタデータから取得できる動画撮影開始時刻を開始時刻とし、1秒間に1/30秒ずつ時間を増加させた時刻を30回出力する。 The playback time management unit 59 manages the reference video playback time and outputs the playback time. For example, if you want to play a video at 30fps (frames per second), the start time is the video recording start time that can be obtained from the metadata, and the time is output 30 times in increments of 1/30 seconds per second.
再生用フレーム抽出部60は、再生時間管理部59が出力する再生時刻に基づいて、再生する動画データ及び静止画データを抽出して出力する。このとき動画データは再生時刻の受信タイミングでフレーム出力される。一方、静止画データはメタデータの対応時刻情報を用いて、再生時刻以前でかつ最新の静止画ファイルを検索して出力される。このようにして、動画及び静止画を撮影した時のタイミングの関係(出力条件)を維持して動画及び静止画を再生することができる。 The reproduction frame extraction unit 60 extracts and outputs video data and still image data to be reproduced based on the reproduction time output by the reproduction time management unit 59. At this time, the video data is output as a frame at the reception timing of the playback time. On the other hand, still image data is output by searching for the latest still image file before the playback time using the corresponding time information of the metadata. In this way, it is possible to play back the videos and still images while maintaining the timing relationship (output conditions) when the videos and still images were taken.
重畳画像判断部61は、全天球撮影装置1により撮影された全体動画に対し、部分動画と部分静止画のどちらの画像を重畳表示するかを判断する。ここで重畳表示される重畳領域は、後述する全体動画及び部分動画の各データの生成及び再生の処理を示したシーケンス図に示した全体動画である全天球画像CE上において、部分動画(又は部分静止画)である重畳画像S及びマスク画像Mの重畳位置及び重畳範囲を示している。 The superimposed image determining unit 61 determines which image, a partial moving image or a partial still image, should be superimposed on the entire moving image photographed by the omnidirectional photographing device 1. The superimposed area displayed here is a partial video (or The superimposed position and superimposed range of the superimposed image S and the mask image M, which are partial still images), are shown.
記憶制御部62は、図11に示したROM502によって実現された記憶部5000に対して、動画撮影開始時刻、対応時刻情報及び部分画像パラメータ等から構成されるメタデータを含む各種データの記憶、管理を制御する。なお、メタデータは、画像管理システム7の記憶部7000にて記憶、管理されるようにしてもよい。 The storage control unit 62 stores and manages various data including metadata consisting of video shooting start time, corresponding time information, partial image parameters, etc. in the storage unit 5000 realized by the ROM 502 shown in FIG. control. Note that the metadata may be stored and managed in the storage unit 7000 of the image management system 7.
<画像管理システムの機能構成>
図15は、画像管理システムの機能ブロック図である。画像管理システム7は、受信部71a、送信部71b、動画再生用メタデータ作成部72、データ選択部73及び記憶制御部74を有している。受信部71a、送信部71b、動画再生用メタデータ作成部72、データ選択部73及び記憶制御部74は、図12に示されているネットワークI/F709が、HD704からRAM703上に展開された画像管理システム用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。なお、受信部71aはシステム側受信部の一例であり、送信部71bは、システム側送信部の一例である。また、画像管理システム7は、HD704によって実現された記憶部7000を有している。
<Functional configuration of image management system>
FIG. 15 is a functional block diagram of the image management system. The image management system 7 includes a receiving section 71a, a transmitting section 71b, a video playback metadata creation section 72, a data selection section 73, and a storage control section 74. The receiving section 71a, the transmitting section 71b, the video playback metadata creation section 72, the data selection section 73, and the storage control section 74 are configured to use the network I/F 709 shown in FIG. This is a function or means that is realized by operating according to instructions from the CPU 701 according to a management system program. Note that the receiving section 71a is an example of a system-side receiving section, and the transmitting section 71b is an example of a system-side transmitting section. The image management system 7 also includes a storage unit 7000 implemented by an HD 704.
(画像管理システムの各機能構成)
次に、図15を用いて、画像管理システム7の各機能構成について更に詳細に説明する。
(Functional configuration of image management system)
Next, each functional configuration of the image management system 7 will be described in more detail using FIG. 15.
送信部71bは、画像管理システム7の外部に対してデータを送信し、受信部71aは、外部からデータを受信する。例えば、受信部71aは、全天球撮影装置1の送受信部11から仲介端末3を介して画像データを受信し、送信部71bは、全天球撮影装置1の送受信部11に対して仲介端末3を介して指示データを送信する。また、送信部71bは、全天球撮影装置1の送受信部11から仲介端末3を介して送られて来た画像データ(図20に示す全体動画のデータ及び部分動画のデータ)や部分画像パラメータをスマートフォン5に送信する。さらに、送信部71bは、全天球撮影装置1の送受信部11から仲介端末3を介して送られ、記憶部7000に一時的に記憶された超高精細な静止画のデータをスマートフォン5に送信する。 The transmitter 71b transmits data to the outside of the image management system 7, and the receiver 71a receives data from the outside. For example, the receiving section 71a receives image data from the transmitting/receiving section 11 of the omnidirectional photographing device 1 via the intermediary terminal 3, and the transmitting section 71b sends the image data to the transmitting/receiving section 11 of the omnidirectional photographing device 1 via the intermediary terminal. The instruction data is transmitted via 3. The transmitting unit 71b also transmits image data (whole video data and partial video data shown in FIG. 20) sent from the transmitting/receiving unit 11 of the omnidirectional photographing device 1 via the intermediary terminal 3, and partial image parameters. is sent to the smartphone 5. Further, the transmitting unit 71b transmits ultra-high definition still image data sent from the transmitting/receiving unit 11 of the omnidirectional photographing device 1 via the intermediary terminal 3 and temporarily stored in the storage unit 7000 to the smartphone 5. do.
動画再生用メタデータ作成部72は、全天球撮影装置1で撮影された動画データに基づいて、後述する動画再生用メタデータを作成する。この動画再生用メタデータには、共通情報、動画情報及び少なくとも1以上の静止画情報によって構成されている。 The video playback metadata creation unit 72 creates video playback metadata, which will be described later, based on video data captured by the omnidirectional imaging device 1. This video playback metadata includes common information, video information, and at least one piece of still image information.
データ選択部73は、記憶部7000に記憶された全体動画、部分静止画及び動画再生用メタデータを含む各種データについて、それぞれどのデータを送信部71bを介して出力するかを選択する機能部である。 The data selection unit 73 is a functional unit that selects which data is to be outputted via the transmission unit 71b among various data stored in the storage unit 7000, including the entire video, partial still images, and video playback metadata. be.
記憶制御部74は、記憶部7000に対して、上述した全体動画、部分静止画及び動画再生用メタデータを含む各種データを含む各種データの記憶、管理を制御する。なお、図15に示した機能ブロック図で、点線は動画配信及び記録時において機能する各機能ブロックを示し、実線は動画再生時において機能する各ブロックを示し、太線は動画配信及び記録時並びに動画再生時の両方で機能する各ブロックを示すものとして便宜上書き分けている。 The storage control unit 74 controls the storage unit 7000 to store and manage various data including various data including the above-mentioned whole moving image, partial still image, and metadata for playing the moving image. In the functional block diagram shown in FIG. 15, dotted lines indicate functional blocks that function during video distribution and recording, solid lines indicate blocks that function during video playback, and thick lines indicate functional blocks that function during video distribution and recording. For convenience, they are written separately to indicate each block that functions in both cases during playback.
〔実施形態の処理又は動作〕
続いて、図17乃至図40を用いて、本実施形態の処理又は動作について説明する。本実施形態では、全天球撮影装置1で生成されてから配信される動画に係る全体動画及び部分動画をスマートフォン5で再生中に、閲覧者がある部分動画の1シーン又は注目する被写体をより高精細な(超高精細)な静止画で入念に閲覧する場合について説明する。これは、閲覧者にとって動画よりも静止画で確認する方がより入念に閲覧することができるためである。
[Processing or operation of embodiment]
Next, the processing or operation of this embodiment will be described using FIGS. 17 to 40. In this embodiment, while playing the entire video and partial video related to the video generated and distributed by the spherical shooting device 1 on the smartphone 5, the viewer can take a closer look at one scene of the partial video or the subject of interest. We will explain the case of carefully viewing high-definition (ultra-high definition) still images. This is because viewers can view the page more carefully when viewing still images rather than moving images.
本実施形態は、全天球撮影装置1から取得した広角動画を構成する広角画像及びその広角画像から生成した部分動画を構成する部分画像を同一のフレームに配置した動画像(動画)として記録する際に、撮影開始時刻をメタデータとして記録する。また、動画記録中に全天球撮影装置1から取得した動画よりも高解像度な部分静止画を記録する際にも、その撮影時刻をメタデータとして記録する。そして、利用者が動画と静止画を同時に(重畳させて)再生する際に、動画及び部分静止画に関するメタデータを参照してそれぞれの再生タイミングを制御することで、動画及び静止画の撮影時のタイミングの関係を維持して再生することを特徴とする。つまり、広角動画、部分動画及び部分静止画のそれぞれの撮影時刻をメタデータとして記録、管理して、動画再生時にそのメタデータを参照することで動画と静止画の再生タイミングを制御することを特徴とする。 In this embodiment, wide-angle images forming a wide-angle video acquired from the omnidirectional imaging device 1 and partial images forming a partial video generated from the wide-angle images are recorded as a moving image (moving image) arranged in the same frame. At the same time, the shooting start time is recorded as metadata. Also, when recording a partial still image with a higher resolution than the video acquired from the omnidirectional camera 1 during video recording, the shooting time is recorded as metadata. When a user plays back a video and a still image at the same time (superimposed), the system can control the playback timing of each by referring to the metadata related to the video and partial still images. It is characterized by maintaining the timing relationship of the playback. In other words, the shooting time of each wide-angle video, partial video, and partial still image is recorded and managed as metadata, and the playback timing of videos and still images is controlled by referencing the metadata when playing the video. shall be.
<全体動画及び部分動画の生成及び再生>
まずは、図17を用いて、全体動画と部分動画の各データの生成及び再生の処理について説明する。図17は、全体動画及び部分動画の各データの生成及び再生の処理を示したシーケンス図である。
<Generation and playback of whole video and partial video>
First, with reference to FIG. 17, the generation and playback process of each data of the entire video and partial video will be described. FIG. 17 is a sequence diagram showing the process of generating and reproducing each data of the entire moving image and partial moving image.
図17に示されているように、閲覧者(利用者)がスマートフォン5を操作することで、受付部22が動画の配信サービスを開始する要求を受け付ける(ステップS11)。これにより、次に、スマートフォン5の送受信部51は、画像管理システム7の受信部71aに動画データの要求を送信する(ステップS12)。この際、閲覧者が指定した部分画像パラメータも送信される。なお、送信開始のタイミングに関して、全天球撮影装置1の送受信部11が通信ネットワークの帯域制御などを行ってもよい。この帯域制御を行うことで、より安定してデータを送受信することが可能となる。 As shown in FIG. 17, when the viewer (user) operates the smartphone 5, the reception unit 22 receives a request to start a video distribution service (step S11). As a result, the transmitting/receiving unit 51 of the smartphone 5 next transmits a request for video data to the receiving unit 71a of the image management system 7 (step S12). At this time, the partial image parameters specified by the viewer are also transmitted. Note that regarding the timing of starting transmission, the transmitting/receiving unit 11 of the omnidirectional photographing device 1 may perform band control of the communication network. By performing this band control, it becomes possible to transmit and receive data more stably.
次に、画像管理システム7の送信部71bは、仲介端末3の送受信部に対して動画データの記録要求を転送する(ステップS13)。そして、仲介端末3の送受信部は、全天球撮影装置1の送受信部11に対して、動画データの記録要求を転送する(ステップS14)。 Next, the transmitter 71b of the image management system 7 transfers a video data recording request to the transmitter/receiver of the intermediary terminal 3 (step S13). Then, the transmitting/receiving section of the intermediary terminal 3 transfers the video data recording request to the transmitting/receiving section 11 of the omnidirectional photographing device 1 (step S14).
次に、全天球撮影装置1は、動画データの生成処理を行う(ステップS15)。このステップS15の処理は、後ほど詳細に説明する(図18乃至図20参照)。 Next, the omnidirectional photographing device 1 performs video data generation processing (step S15). The process of step S15 will be explained in detail later (see FIGS. 18 to 20).
次に、全天球撮影装置1の送受信部11は、仲介端末3の送受信部に対して、要求に応じた動画データを送信する(ステップS16)。この動画データには、低精細の全体動画及び高精細の部分動画の各データが含まれている。これにより、仲介端末3の送受信部は、画像管理システム7の受信部71aに動画データを転送する(ステップS17)。更に、画像管理システム7の送信部71bは、スマートフォン5の送受信部51に動画データを転送する(ステップS18)。 Next, the transmitting/receiving unit 11 of the omnidirectional photographing device 1 transmits the video data according to the request to the transmitting/receiving unit of the intermediary terminal 3 (step S16). This video data includes each data of a low-definition whole video and a high-definition partial video. Thereby, the transmitting/receiving section of the intermediary terminal 3 transfers the video data to the receiving section 71a of the image management system 7 (step S17). Further, the transmitter 71b of the image management system 7 transfers the video data to the transmitter/receiver 51 of the smartphone 5 (step S18).
次に、スマートフォン5は、動画データの再生処理を行う(ステップS19)。このステップS19の処理は、後ほど詳細に説明する(図21乃至図40参照)。 Next, the smartphone 5 performs video data playback processing (step S19). The process of step S19 will be explained in detail later (see FIGS. 21 to 40).
<全天球撮影装置の動画データの生成処理>
次に、図18乃至図20を用いて、上述のステップS15で示した全天球撮影装置の動画データの生成処理について詳細に説明する。図19は、全天球撮影装置が行う画像処理の過程における画像の概念図である。
<Video data generation process for omnidirectional imaging device>
Next, with reference to FIGS. 18 to 20, the video data generation process of the omnidirectional imaging device shown in step S15 above will be described in detail. FIG. 19 is a conceptual diagram of an image in the process of image processing performed by the omnidirectional photographing device.
画像処理部15は、撮像部14a,14bで得られた2つの半球画像データを正距円筒射影方式の画像(ここでは、動画)である正距円筒射影画像のデータに合成変換する(ステップS120)。この変換後のデータは、一旦、高精細画像の状態のままで一時記憶部16に記憶される。 The image processing unit 15 synthesizes and converts the two hemispherical image data obtained by the imaging units 14a and 14b into equirectangular projection image data, which is an equirectangular projection image (here, a moving image) (step S120). ). The data after this conversion is temporarily stored in the temporary storage unit 16 as a high-definition image.
次に、部分画像パラメータ作成部12は、スマートフォン5から送られて来た指示データに基づいて部分画像パラメータを作成する(ステップS130)。 Next, the partial image parameter creation unit 12 creates partial image parameters based on the instruction data sent from the smartphone 5 (step S130).
次に、精細度変更部17のうち低精細変更部17aは、送受信部11で受信されたスマートフォン5からの指示データに従って、超高精細画像から低精細画像に変更する(ステップS140)。これにより、低精細な正距円筒射影画像(ここでは、全体動画)が生成される。 Next, the low-definition changing unit 17a of the definition changing unit 17 changes the ultra-high definition image to a low-definition image according to the instruction data from the smartphone 5 received by the transmitting/receiving unit 11 (step S140). As a result, a low-definition equirectangular projection image (here, the entire moving image) is generated.
更に、射影方式変換部18は、送受信部11で受信した指示データに従って、即ち、全体動画の各フレームの一部の領域である部分動画の方向、部分動画のフレームの画角及びアスペクト、並びにスマートフォン5へ送信する動画データのサイズに従って、正距円筒射影方式を透視射影方式に射影方式変換して低精細画像に変更する(ステップS150)。これにより、超高精細な状態のままで部分動画が生成される。 Furthermore, the projection method conversion unit 18 converts the direction of the partial video, which is a part of each frame of the entire video, the angle of view and aspect of the frame of the partial video, and the smartphone according to the instruction data received by the transmitting/receiving unit 11. According to the size of the moving image data to be transmitted to No. 5, the projection method is converted from the equirectangular projection method to the perspective projection method, and the image is changed to a low-definition image (step S150). As a result, a partial video is generated in ultra-high definition.
次に、結合部19は、低精細な全体動画、超高精細な部分動画の各データを結合する(ステップS160)。この結合の処理については、後ほど詳細に説明する(図20参照)。 Next, the combining unit 19 combines each data of the low-definition whole video and the ultra-high-definition partial video (step S160). This combination process will be described in detail later (see FIG. 20).
ここで、図19及び図20を用いて、図18に示した処理を更に詳細に説明する。図19は、部分画像パラメータを説明する図である。 Here, the process shown in FIG. 18 will be explained in more detail using FIGS. 19 and 20. FIG. 19 is a diagram illustrating partial image parameters.
(部分画像パラメータ)
まずは、図19を用いて、部分画像パラメータについて詳細に説明する。図19(a)はステップS120による画像合成後の全体画像を示す。図19(b)は部分画像パラメータの一例を示す図である。図19(c)はステップS150により射影方式が変換された後の部分画像を示す。
(partial image parameters)
First, partial image parameters will be explained in detail using FIG. 19. FIG. 19(a) shows the entire image after image synthesis in step S120. FIG. 19(b) is a diagram showing an example of partial image parameters. FIG. 19(c) shows the partial image after the projection method has been converted in step S150.
図7で説明した方位角は図19(a)で示す正距方位図法では横方向(緯度λ)となり、図7で説明した仰角は正距円筒射影方式では縦方向(経度φ)となる。図7の対角画角及びアスペクト比を合わせて、図19(b)で示すパラメータが部分画像パラメータである。図19(c)は図19(a)の正距円筒図法上の枠で囲まれた部分を部分画像パラメータで切出した部分画像の例である。 The azimuth angle explained in FIG. 7 becomes the horizontal direction (latitude λ) in the equidistant azimuth projection method shown in FIG. 19(a), and the elevation angle explained in FIG. 7 becomes the vertical direction (longitude φ) in the equirectangular projection method. The parameters shown in FIG. 19(b), including the diagonal angle of view and aspect ratio in FIG. 7, are partial image parameters. FIG. 19(c) is an example of a partial image obtained by cutting out a portion surrounded by a frame on the equirectangular projection of FIG. 19(a) using partial image parameters.
ここで、射影方式の変換について説明する。図4(a)に示すように、正距円筒射影画像によって立体球を被うことで、全天球画像を作成している。よって、正距円筒射影画像の各画素データは、3次元の全天球画像の立体球の表面における各画素データに対応させることができる。そこで、射影方式変換部18による変換式は、正距円筒射影画像における座標を(緯度,経度)=(e,a)と表現し、3次元の立体球上の座標を直行座標(x,y,z)で表わすと、以下の(式3)で表わすことができる。
(x, y, z) = (cos(e) × cos(a), cos(e) × sin(a), sin(e)) ・・・(式3)
但し、このときの立体球の半径は1とする。
Here, the conversion of the projection method will be explained. As shown in FIG. 4(a), a celestial sphere image is created by covering a three-dimensional sphere with an equirectangular projection image. Therefore, each pixel data of the equirectangular projection image can be made to correspond to each pixel data on the surface of the three-dimensional sphere of the three-dimensional omnidirectional image. Therefore, the conversion formula by the projection method conversion unit 18 expresses the coordinates in the equirectangular projection image as (latitude, longitude) = (e, a), and the coordinates on the three-dimensional solid sphere as the orthogonal coordinates (x, y , z), it can be expressed by the following (Equation 3).
(x, y, z) = (cos(e) × cos(a), cos(e) × sin(a), sin(e)) ・・・(Equation 3)
However, the radius of the three-dimensional sphere at this time is 1.
一方で、透視射影画像である部分画像は2次元画像であるが、これを2次元の極座標(動径,偏角)=(r,a)で表現すると、動径rは対角画角に対応し、取り得る範囲は0 ≦ r ≦ tan(対角画角/2)となる。また、部分画像を2次元の直交座標系(u,v)で表わすと、極座標(動径,偏角)=(r,a)との変換関係は、以下の(式4)で表わすことができる。
u = r × cos(a), v = r × sin(a) ・・・(式4)
次に、この(式3)を3次元の座標(動径,極角,方位角)に対応させることを考える。今、立体球CSの表面のみを考えているため、3次元極座標における動径は「1」である。また、立体球CSの表面に張り付けた正距円筒射影画像を透視射影変換する射影は、立体球の中心に仮想カメラがあると考えると、上述の2次元極座標(動径,偏角)=(r,a)を使うと、以下の(式5)、(式6)で表わすことができる。
r = tan(極角) ・・・(式5)
a = 方位角 ・・・(式6)
ここで極角をtとすると、t = arctan(r)となるため、3次元極座標(動径、極角、方位角)は、(動径、極角、方位角)=(1, arctan(r), a)と表現することができる。
On the other hand, a partial image that is a perspective projection image is a two-dimensional image, but when expressed in two-dimensional polar coordinates (radius, declination) = (r, a), the radius r is the diagonal angle of view. Correspondingly, the possible range is 0 ≦ r ≦ tan (diagonal angle of view/2). Furthermore, when a partial image is represented by a two-dimensional orthogonal coordinate system (u, v), the transformation relationship with polar coordinates (radius, declination) = (r, a) can be expressed by the following (Equation 4). can.
u = r × cos(a), v = r × sin(a) ...(Equation 4)
Next, consider making this (Formula 3) correspond to three-dimensional coordinates (radius, polar angle, azimuth). Since we are currently considering only the surface of the three-dimensional sphere CS, the radius vector in the three-dimensional polar coordinates is "1". Furthermore, in the perspective projection transformation of the equirectangular projection image pasted on the surface of the three-dimensional sphere CS, assuming that the virtual camera is at the center of the three-dimensional sphere, the above-mentioned two-dimensional polar coordinates (radius, declination) = ( r, a), it can be expressed by the following (Formula 5) and (Formula 6).
r = tan(polar angle)...(Formula 5)
a = azimuth angle (Formula 6)
Here, if the polar angle is t, then t = arctan(r), so the three-dimensional polar coordinates (radius, polar angle, azimuth) are (radial, polar angle, azimuth) = (1, arctan( r), a).
また3次元極座標から、直行座標系(x,y,z)へ変換するための変換式は、以下の
(式7)で表わすことができる。
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ・・・(式7)
上記の(式7)により、正距円筒射影方式による全体画像と、透視射影方式による部分画像の相互変換ができるようになった。即ち、作成すべき部分画像の対角画角に対応する動径rを用いることで、部分画像の各画素が、正距円筒射影画像のどの座標に対応するかを表す変換マップ座標を算出でき、この変換マップ座標に基づいて、正距円筒射影画像から、透視射影画像である部分画像作成することができる。
Further, a conversion formula for converting from three-dimensional polar coordinates to a rectangular coordinate system (x, y, z) can be expressed by the following (Equation 7).
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ・・・(Equation 7)
By using the above (Equation 7), it is now possible to mutually convert the entire image by the equirectangular projection method and the partial image by the perspective projection method. That is, by using the vector radius r that corresponds to the diagonal angle of view of the partial image to be created, it is possible to calculate the transformation map coordinates that indicate which coordinates of the equirectangular projection image each pixel of the partial image corresponds to. , Based on this conversion map coordinates, a partial image, which is a perspective projection image, can be created from the equirectangular projection image.
ところで、上記射影方式の変換は、正距円筒射影画像の(緯度,経度)が(90°,0°)となる位置が、透視射影画像である部分画像の中心点となるような変換を示している。そこで、正距円筒射影画像の任意の点を注視点として透視射影変換をする場合は、正距円筒射影画像を貼り付けた立体球を回転させることで、注視点の座標(緯度、経度)が(90°,0°)の位置に配置されるような座標回転を行えばよい。 By the way, the above projection method conversion refers to a conversion in which the position where (latitude, longitude) of the equirectangular cylindrical projection image becomes (90°, 0°) becomes the center point of the partial image that is the perspective projection image. ing. Therefore, when performing perspective projection transformation with an arbitrary point of the equirectangular projection image as the point of interest, the coordinates (latitude, longitude) of the point of interest can be determined by rotating the three-dimensional sphere to which the equirectangular projection image is pasted. What is necessary is to perform coordinate rotation such that the object is placed at the position (90°, 0°).
この立体球の回転に関する変換公式は、一般の座標回転公式であるため、説明を省略する。 The transformation formula regarding the rotation of this three-dimensional sphere is a general coordinate rotation formula, so its explanation will be omitted.
(結合の処理)
次に、図20を用いて、結合部19が行うステップS160の結合の処理について説明する。図20は、全体動画と部分動画の各フレーム画像が結合された状態を示す概念図である。図20に示しているように、一枚のフレームの上部に全体画像、下部に部分画像が配置されるように結合されている。本実施形態では、一般的はHD等のアスペクトである16:9に合わせて配置されるがアスペクトは問わない。また、配置も上下に限らず左右でもよい。部分画像が複数あった場合は、例えば上半分に全体動画、下半分に部分動画個数分だけ分割して配置してもよい。全体動画と部分画像をフレーム毎に1つにまとめることにより、画像間の同期を保障することができる。また、全天球撮影装置1は、スマートフォン5に対して、全体動画データ及び部分動画データを別々に送信してもよい。
(Join processing)
Next, the combining process in step S160 performed by the combining unit 19 will be described using FIG. 20. FIG. 20 is a conceptual diagram showing a state in which frame images of the entire video and partial video are combined. As shown in FIG. 20, the images are combined so that the entire image is placed at the top of one frame and the partial image is placed at the bottom. In this embodiment, the arrangement is generally made in accordance with the aspect ratio of 16:9 for HD, etc., but the aspect ratio does not matter. Furthermore, the arrangement is not limited to the top and bottom, but may be on the left and right. If there are multiple partial images, the entire video may be placed in the upper half, and the partial images may be divided into the number of partial images in the lower half. By combining the entire moving image and partial images into one frame by frame, synchronization between images can be guaranteed. Further, the omnidirectional photographing device 1 may separately transmit the entire video data and the partial video data to the smartphone 5.
但し、全体動画及び部分動画は、縦を半分にするため、半分にしない場合に比べてそれぞれ解像度は半分に落ちる。即ち、一時記憶部16に記憶されていた超高精細画像よりは精細度が下がる。その結果、精細度は、高い順に、一時記憶部16に記憶された全体画像、射影方式変換部18によって変換された後に低精細変更部17bによって精細度変更された部分画像、及び、低精細変更部17aによって精細度変更された全体画像となる。 However, since the entire video and partial video are halved vertically, the resolution of each video is halved compared to when the video is not halved. That is, the definition is lower than the ultra-high definition image stored in the temporary storage unit 16. As a result, in descending order of definition, the whole image stored in the temporary storage unit 16, the partial image converted by the projection method conversion unit 18 and then changed in definition by the low definition change unit 17b, and the low definition changed image. The overall image is the one whose definition has been changed by the section 17a.
<スマートフォンの動画再生処理>
続いて、図21を用いて、スマートフォン5の動画データの再生処理について説明する。図21は、スマートフォンが行う画像処理の過程における画像の概念図である。図7に示された重畳領域作成部54は、図21で示されているように部分画像パラメータで指示された部分立体球PSを作成する(ステップS320)。
<Smartphone video playback processing>
Next, the video data playback process of the smartphone 5 will be described using FIG. 21. FIG. 21 is a conceptual diagram of an image in the process of image processing performed by a smartphone. The superimposed area creation unit 54 shown in FIG. 7 creates a partial three-dimensional sphere PS specified by the partial image parameters as shown in FIG. 21 (step S320).
次に、画像作成部55は、部分立体球PSに対して、透視射影方式である部分画像を重畳することで、重畳画像Sを作成する(ステップS330)。また、画像作成部55は、部分立体球PSに基づいて、マスク画像Mを作成する(ステップS340)。更に、画像作成部55は、立体球CSに対して正距円筒射影方式である全体画像を貼り付けることで全天球画像CEを作成する(ステップS350)。そして、画像重畳部56は、全天球画像CEに対して重畳S及びマスク画像Mを重畳する(ステップS360)。これにより、境目が目立たないように高精細の重畳画像Sが重畳された低精細の全天球画像CEが完成する。 Next, the image creation unit 55 creates a superimposed image S by superimposing a partial image using a perspective projection method on the partial solid sphere PS (step S330). Furthermore, the image creation unit 55 creates a mask image M based on the partial solid sphere PS (step S340). Furthermore, the image creation unit 55 creates a celestial sphere image CE by pasting the entire image, which is an equirectangular projection method, onto the three-dimensional sphere CS (step S350). Then, the image superimposition unit 56 superimposes the superposition S and the mask image M on the omnidirectional image CE (step S360). As a result, a low-definition omnidirectional image CE is completed on which the high-definition superimposed image S is superimposed so that the border is not noticeable.
次に、射影変換部57は、予め定められた仮想カメラの視線方向と画角に基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域をディスプレイ517で閲覧できるように射影変換を行う(ステップS370)。 Next, the projective transformation unit 57 converts a predetermined area in the spherical image CE on which the superimposed image S is superimposed so that it can be viewed on the display 517 based on the predetermined viewing direction and angle of view of the virtual camera. Projective transformation is performed (step S370).
図22は、部分平面から部分立体球の作成を説明する図である。通常、透視射影方式では平面に射影するため、図22(a)で示すように3次元空間上に平面で表すことが多い。本実施形態では、図22(b)のように全天球画像に合わせて球の一部である部分立体球とする。ここでは、平面から部分立体球への変換について説明する。 FIG. 22 is a diagram illustrating creation of a partial three-dimensional sphere from a partial plane. Normally, in the perspective projection method, the image is projected onto a plane, so it is often represented as a plane in a three-dimensional space, as shown in FIG. 22(a). In this embodiment, as shown in FIG. 22(b), a partial three-dimensional sphere, which is a part of a sphere, is used in accordance with the omnidirectional image. Here, the conversion from a plane to a partial three-dimensional sphere will be explained.
図22(a)で示すように適切な大きさ(画角)で配置された平面上の各点(X,Y,Z)を球面上への射影を考える。球面への射影は球の原点から各点(X,Y,Z)を通る直線と球面との交点となる。球面上の各点は原点からの距離が球の半径と等しい点である。よって球の半径を1とすると図22(b)で示される球面上の点(X’,Y’,Z’)は下記の(式8)で表される。 Consider the projection of each point (X, Y, Z) on a plane arranged at an appropriate size (angle of view) onto a spherical surface as shown in FIG. 22(a). The projection onto the spherical surface is the intersection of the spherical surface and a straight line passing from the origin of the sphere through each point (X, Y, Z). Each point on the sphere is a point whose distance from the origin is equal to the radius of the sphere. Therefore, assuming that the radius of the sphere is 1, the point (X', Y', Z') on the spherical surface shown in FIG. 22(b) is expressed by the following (Equation 8).
(X’,Y’,Z’)=(X,Y,Z)×1/√(X2+Y2+Z2)・・・(式8)
図23は、本実施形態の部分立体球作成を行わずに、全天球画像に部分画像を重畳した場合の二次元の概念図である。図24は、本実施形態の部分立体球作成を行って、全天球画像に部分画像を重畳した場合の二次元の概念図である。
(X', Y', Z')=(X, Y, Z)×1/√(X2+Y2+Z2)...(Formula 8)
FIG. 23 is a two-dimensional conceptual diagram when a partial image is superimposed on a celestial sphere image without performing the partial three-dimensional sphere creation of this embodiment. FIG. 24 is a two-dimensional conceptual diagram when a partial three-dimensional sphere is created according to this embodiment and a partial image is superimposed on a celestial sphere image.
図23(a)に示されているように、仮想カメラICが立体球CSの中心点に位置している場合を基準にすると、被写体P1は、全天球画像CE上で像P2として表され、重畳画像S上で像P3として表されている。図23(a)に示されているように、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置しているため、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。しかし、図23(b)に示されているように、仮想カメラICが立体球CSの中心点から離れると(画角αを小さくすると)、仮想カメラICと被写体P1とを結ぶ直線上に、像P2は位置しているが、像P3はやや内側に位置している。このため、仮想カメラICと被写体P1とを結ぶ直線上における重畳画像S上の像を像P3’とすると、全天球画像CEと重畳画像Sに、像P3と像P3’との間のズレ量g分のズレが生じてしまう。これにより、全天球画像CEに対して重畳画像Sがずれて表示されてしまうが、このように、重畳した表示であってもよい。 As shown in FIG. 23(a), based on the case where the virtual camera IC is located at the center point of the three-dimensional sphere CS, the subject P1 is represented as an image P2 on the spherical image CE. , is represented on the superimposed image S as an image P3. As shown in FIG. 23(a), the images P2 and P3 are located on the straight line connecting the virtual camera IC and the subject P1, so the superimposed image S is superimposed on the spherical image CE. Even if the spherical image CE and the superimposed image S are displayed in the same state, no deviation occurs between the omnidirectional image CE and the superimposed image S. However, as shown in FIG. 23(b), when the virtual camera IC moves away from the center point of the three-dimensional sphere CS (when the angle of view α is decreased), on the straight line connecting the virtual camera IC and the subject P1, The image P2 is located, but the image P3 is located slightly inside. Therefore, if the image on the superimposed image S on the straight line connecting the virtual camera IC and the subject P1 is an image P3', there is a difference between the spherical image CE and the superimposed image S between the images P3 and P3'. A deviation of the amount g will occur. As a result, the superimposed image S is displayed shifted from the omnidirectional image CE, but the superimposed image S may be displayed in a superimposed manner as described above.
これに対して、さらに、本実施形態では、部分立体球作成を行っているため、図24(a)、(b)に示されているように、重畳画像Sを全天球画像CEに沿って重畳することができる。これにより、図24(a)に示されているように、仮想カメラICが立体球CSの中心点に位置する場合だけでなく、図24(b)に示されているように、仮想カメラが立体球CSの中心点から離れた場合であっても、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置することになる。よって、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。 On the other hand, in this embodiment, since a partial 3D sphere is created, the superimposed image S is created along the omnidirectional image CE, as shown in FIGS. 24(a) and 24(b). can be superimposed. As a result, not only when the virtual camera IC is located at the center point of the three-dimensional sphere CS as shown in FIG. 24(a), but also when the virtual camera IC is located at the center point of the three-dimensional sphere CS as shown in FIG. Even if they are away from the center point of the three-dimensional sphere CS, the images P2 and P3 will be located on the straight line connecting the virtual camera IC and the subject P1. Therefore, even if the superimposed image S is displayed superimposed on the omnidirectional image CE, no deviation occurs between the omnidirectional image CE and the superimposed image S.
図25(a)は重畳表示しない場合のワイド画像の表示例、図25(b)は重畳表示しない場合のテレ画像の表示例、図25(c)は重畳表示する場合のワイド画像の表示例、図25(d)は重畳表示する場合のテレ画像の表示例を示した概念図である。なお、図中の波線は、説明の便宜上表しただけであり、実際にディスプレイ517上には表示されてもよく、表示されなくてもよい。 FIG. 25(a) is an example of a wide image displayed without superimposed display, FIG. 25(b) is an example of a tele image displayed without superimposed display, and FIG. 25(c) is an example of a wide image displayed with superimposed display. , FIG. 25(d) is a conceptual diagram showing a display example of teleimages in the case of superimposed display. Note that the wavy lines in the figure are only shown for convenience of explanation, and may or may not actually be displayed on the display 517.
図25(a)に示されているように、全天球画像CEに対して部分画像Pを重畳して表示しない場合、図25(a)における波線で示される領域まで拡大表示すると、図25(b)に示されているように、低精細の画像のままとなっており、利用者は鮮明でない画像を見ることになってしまう。これに対して、図25(c)に示されているように、全天球画像CEに対して部分画像Pを重畳して表示する場合、図25(c)における波線で示される領域まで拡大表示すると、図25(d)に示されているように、高精細の画像が表示され、利用者は鮮明な画像を見ることができる。特に、波線で示されている領域に、文字が描かれた看板等が表示されている場合、高精細な部分画像Pを重畳表示しなければ、拡大表示させても文字がぼやけてしまい、何が書かれてあるのか分からない。しかし、高精細な部分画像Pを重畳表示すれば、拡大表示させても文字が鮮明に見えるため、利用者は何が書かれているのかを把握することができる。 As shown in FIG. 25(a), when the partial image P is not displayed in a superimposed manner on the omnidirectional image CE, when the area indicated by the dotted line in FIG. 25(a) is enlarged and displayed, FIG. As shown in (b), the image remains in low definition, and the user ends up viewing an image that is not clear. On the other hand, as shown in FIG. 25(c), when displaying the partial image P superimposed on the omnidirectional image CE, the area is enlarged to the area indicated by the dotted line in FIG. 25(c). When displayed, a high-definition image is displayed, as shown in FIG. 25(d), and the user can see a clear image. In particular, when a signboard or the like with characters drawn on it is displayed in the area indicated by the wavy line, unless a high-definition partial image P is superimposed on the display, the characters will become blurry even if the image is enlarged. I don't know if it's written there. However, if high-definition partial images P are superimposed and displayed, the characters can be clearly seen even when the images are enlarged, so that the user can understand what is written.
<メタデータの構成>
続いて、本実施形態で用いられる動画再生用メタデータの構成について図26を用いて説明する。図26に示すように、動画再生用メタデータは共通情報、動画情報及び少なくとも1以上の静止画情報によって構成されている。これらのうち、共通情報には注視点情報と注目領域画角情報があり、動画配信サービス利用中に閲覧者が指定した部分パラメータから算出することができる。これらの情報は、低精細な全体動画に対して高精細な部分動画若しくは超高精細な部分静止画を重畳表示する際に用いられる情報である。
<Metadata structure>
Next, the configuration of video playback metadata used in this embodiment will be described using FIG. 26. As shown in FIG. 26, the video playback metadata includes common information, video information, and at least one piece of still image information. Among these, common information includes gaze point information and attention area view angle information, which can be calculated from partial parameters specified by the viewer while using the video distribution service. These pieces of information are used when displaying a high-definition partial video or ultra-high-definition partial still image superimposed on a low-definition overall video.
動画情報における動画識別情報は、低精細な全体画像と高精細な部分画像を含む動画を識別するための画像識別情報である。図26では、動画識別情報の一例として画像のファイル名が示されているが、画像を一意に識別するための画像IDであってもよい。 The video identification information in the video information is image identification information for identifying a video including a low-definition whole image and a high-definition partial image. In FIG. 26, the file name of the image is shown as an example of the moving image identification information, but it may also be an image ID for uniquely identifying the image.
動画情報における動画撮影開始時刻は、動画記録を開始するフレームが全天球撮影装置で撮影された時刻情報である。動画への時刻情報の付加は、例えば、H.264で符号化する場合はSEC(Supplemental Enhancement Information)のUser data unregisteredの領域を利用する。この情報は、低精細な全体動画を再生中に超高精細な部分静止画を重畳させるタイミングを決定するために用いられる。 The video shooting start time in the video information is time information when the frame at which video recording is started was shot by the omnidirectional camera. To add time information to a video, for example, when encoding with H.264, the User data unregistered area of SEC (Supplemental Enhancement Information) is used. This information is used to determine the timing to superimpose ultra-high-definition partial still images during playback of a low-definition overall video.
静止画情報における静止画識別情報は、超高精細な部分画像である静止画を識別するための画像識別情報である。図26では、静止画識別情報の一例として画像のファイル名が示されているが、画像を一意に識別するための画像IDであってもよい。 The still image identification information in the still image information is image identification information for identifying a still image that is an ultra-high definition partial image. In FIG. 26, the file name of the image is shown as an example of the still image identification information, but it may also be an image ID for uniquely identifying the image.
静止画情報における対応時刻情報は、静止画が撮影されたときの時刻情報で画像記録フォーマットとして規格されている Exif(Exchangeable image file format)に格納されている情報である。この情報は、低精細な全体動画を再生中に超高精細な部分静止画を重畳させるタイミングを決定するために用いられる。また静止画情報は、動画記録中に撮影された静止画の枚数の分だけ格納される。
<動画記録及びメタデータファイルの作成>
図27は、動画記録及びメタデータの作成の処理を示したシーケンス図である。図27に示されているように、スマートフォン5による動画再生中に閲覧者(利用者)が任意のタイミングでスマートフォン5に対して動画記録要求を示す操作をすることで、受付部22が動画記録の開始要求を受け付ける(ステップS21)。これにより、スマートフォン5の送受信部51は、画像管理システム7の受信部71aに動画データの記録要求を送信する(ステップS22)。この際、閲覧者が指定した部分画像パラメータも送信される。なお、送信開始のタイミングに関して、全天球撮影装置1の送受信部11が通信ネットワークの帯域制御などを行ってもよい。この帯域制御を行うことで、より安定してデータを送受信することが可能となる。また、閲覧者のスマートフォン5に対する操作については、スマートフォン5のディスプレイ517への一般的な操作(画像等を選択するためのタップ操作、画像等を拡大するためのピンチアウト操作、等)や所定のキーに対するキー操作などでもよい。
The corresponding time information in the still image information is time information when the still image was photographed, and is information stored in Exif (Exchangeable image file format), which is standardized as an image recording format. This information is used to determine the timing to superimpose ultra-high-definition partial still images during playback of a low-definition overall video. Still image information is stored for the number of still images taken during video recording.
<Video recording and metadata file creation>
FIG. 27 is a sequence diagram showing the process of recording a moving image and creating metadata. As shown in FIG. 27, when the viewer (user) performs an operation to request video recording on the smartphone 5 at any time during video playback on the smartphone 5, the receiving unit 22 records the video. (Step S21). Thereby, the transmitting/receiving unit 51 of the smartphone 5 transmits a video data recording request to the receiving unit 71a of the image management system 7 (step S22). At this time, the partial image parameters specified by the viewer are also transmitted. Note that regarding the timing of starting transmission, the transmitting/receiving unit 11 of the omnidirectional photographing device 1 may perform band control of the communication network. By performing this band control, it becomes possible to transmit and receive data more stably. In addition, regarding operations on the smartphone 5 by the viewer, general operations on the display 517 of the smartphone 5 (tap operation to select an image, pinch-out operation to enlarge an image, etc.) and predetermined operations It may also be a key operation on a key.
なお、次のステップS23の全天球撮影装置1によって実行される動画生成処理及びその詳細、ステップS24で実行される動画データの仲介端末3への送信並びにステップS25で実行される動画データの画像管理システム7への送信の各処理は、図17の説明で上述したステップS15、S16及びS17の内容と対応しており、動画配信の際の同様の処理が行われるため、説明を省略する。つまり、動画配信は継続されたまま、閲覧者の任意のタイミングによって動画記録要求がされた時刻からその動画の記録(録画)が開始される。 Note that the video generation process performed by the omnidirectional photographing device 1 in the next step S23 and its details, the transmission of video data to the intermediary terminal 3 performed in step S24, and the image of the video data performed in step S25 Each process of transmission to the management system 7 corresponds to the contents of steps S15, S16, and S17 described above in the explanation of FIG. 17, and the same process is performed when distributing the video, so the description will be omitted. In other words, while the video distribution continues, recording of the video starts from the time when the viewer makes a video recording request at an arbitrary timing.
続いて、画像管理システム7の記憶制御部74は、仲介端末3から受信部71aを介して動画データを受信すると、受信した動画データを記憶部7000に記憶する(ステップS26)。 Subsequently, upon receiving the video data from the intermediary terminal 3 via the receiving unit 71a, the storage control unit 74 of the image management system 7 stores the received video data in the storage unit 7000 (step S26).
さらに、画像管理システム7の記憶制御部74は、動画データの記憶開始時に重畳動画用のメタデータファイルを作成し、記憶部7000に記憶する(ステップS27)。この時点で作成されるメタデータには、前述したメタデータの構成のうち注視点情報、注目領域画角情報、動画識別情報及び動画撮影開始時刻が記憶される。また動画の記録は、閲覧者による動画記録の停止要求があるか、記憶部7000の記憶領域が不足するまで行われる。なお、記憶部7000の記憶領域が不足した場合、閲覧者や画像管理システム7の仕様、設定に応じて記憶部7000をリングバッファとして使用し、記憶した各種データを上書きするような制御がされてもよい。 Furthermore, the storage control unit 74 of the image management system 7 creates a metadata file for the superimposed video at the start of storing video data, and stores it in the storage unit 7000 (step S27). The metadata created at this point stores gaze point information, attention area view angle information, video identification information, and video shooting start time among the metadata configurations described above. Further, recording of the video continues until there is a request from the viewer to stop video recording or until the storage area of the storage unit 7000 runs out. Note that if the storage area of the storage unit 7000 is insufficient, the storage unit 7000 is controlled to be used as a ring buffer and various stored data is overwritten depending on the specifications and settings of the viewer and the image management system 7. Good too.
なお、画像管理システム7からスマートフォン5に送信される動画データの送信処理(ステップS28)及びスマートフォン5で実行される動画再生処理(ステップS29)については、上述した図17のステップS18,S19の処理と同様のため、説明を省略する。 Note that the video data transmission process (step S28) transmitted from the image management system 7 to the smartphone 5 and the video playback process (step S29) executed by the smartphone 5 are the same as the processes of steps S18 and S19 in FIG. 17 described above. Since this is the same as , the explanation will be omitted.
<部分静止画の生成及びメタデータ更新>
続いて、図28を用いて部分静止画のデータの生成及びメタデータの更新処理について説明する。図28は、静止画記録及びメタデータの更新の処理を示したシーケンス図である。
<Generation of partial still image and update of metadata>
Next, partial still image data generation and metadata update processing will be described using FIG. 28. FIG. 28 is a sequence diagram showing still image recording and metadata updating processing.
閲覧者(利用者)が図17に示されているステップS19によって、図25(c)に示されているような部分画像Pが重畳された動画を閲覧中に、更に高精細な(である)静止画として閲覧したい場合に、閲覧者(利用者)がスマートフォン5を操作することで、受付部22が部分静止画の配信サービスを開始する要求を受け付ける(ステップS31)。 In step S19 shown in FIG. 17, while the viewer (user) is viewing a video on which a partial image P as shown in FIG. 25(c) is superimposed, ) If the viewer (user) wishes to view the partial still image, the viewer (user) operates the smartphone 5, and the reception unit 22 receives a request to start a partial still image distribution service (step S31).
(静止画の生成を要求するときの操作方法)
ステップS31で、静止画の生成を要求するときに閲覧者(利用者)がスマートフォン5に対して行う操作の具体例を図29を用いて説明する。図29は、静止画の生成を要求するときの操作方法の一例を示す図である。スマートフォン5における動画配信中に、閲覧者が注目する被写体が現れたタイミングでディスプレイ517(表示画面)に対してタップ操作の繰返しやピンチアウト操作が行われると(図29(A)又は(B))、受付部52及び重畳表示制御部63は、以下の処理を行う。まず、受付部52は、閲覧者によって行われる部分動画へのタップ操作の繰返しやピンチアウト操作が所定の条件DC(拡大範囲、タップ回数等)以上に達したか否かを判断する。その後、重畳表示制御部63のうちの画像作成部55及び画像重畳部56は、スマートフォン5のディスプレイ517に表示されている部分動画中で拡大等が行われた被写体の周辺を再生中の部分動画よりもさらに高精細な部分静止画として生成し、この部分静止画を部分動画に重畳させる。
(Operation method when requesting still image generation)
A specific example of the operation that the viewer (user) performs on the smartphone 5 when requesting generation of a still image in step S31 will be described using FIG. 29. FIG. 29 is a diagram illustrating an example of an operation method when requesting generation of a still image. During video distribution on the smartphone 5, if a repeated tap operation or pinch-out operation is performed on the display 517 (display screen) at the timing when a subject of interest to the viewer appears (FIG. 29 (A) or (B)) ), the reception unit 52 and the superimposed display control unit 63 perform the following processing. First, the reception unit 52 determines whether the repeated tap operations or pinch-out operations on the partial video performed by the viewer reach a predetermined condition DC (enlargement range, number of taps, etc.). Thereafter, the image creation section 55 and the image superimposition section 56 of the superimposition display control section 63 control the partial video being played around the subject that has been enlarged, etc. in the partial video displayed on the display 517 of the smartphone 5. This partial still image is generated as a still image with even higher definition than the previous image, and this partial still image is superimposed on the partial moving image.
なお、閲覧者によるディスプレイ517に対するタップ操作の繰返しやピンチアウト操作において、受付部52が判断する際に用いる所定の条件として以下の例が挙げられる。例えば、図29(A)のようにスマートフォン5の画面に対するタップ操作が行われる場合であれば、タップされた回数やタップされた累積時間等を判断の基準としてもよい。さらに、図29(B)のようにスマートフォン5の画面に対するピンチアウト操作が行われる場合であれば、ピンチアウトによって仮想的に生成される四辺形の一方の対の辺を形成するための水平画角又は他方の対の辺を形成するための垂直画角を所定の条件としてもよい(図16参照)。これらの画角の値は、図16(a)に示されるように予め複数の組合せを有する閾値管理テーブルとして設定されてもよい。さらに、スマートフォン5のディスプレイ517に対してタップ操作やピンチアウト操作が行われ、上記所定の条件DC以上に達した時点(時刻)を、送受信部51が部分静止画生成する要求を送信するタイミング(例えば、シャッターコマンドとしてのトリガ)としてもよい。なお、スマートフォン5のディスプレイ517上に表示される被写体に対する操作例は、タップ操作、ピンチアウト操作に限られず、その他の操作によって実現されるものであってもよい。 The following examples are examples of the predetermined conditions used by the reception unit 52 to determine whether the viewer repeatedly taps or pinches out the display 517. For example, in the case where a tap operation is performed on the screen of the smartphone 5 as shown in FIG. 29(A), the number of taps, the cumulative time of taps, etc. may be used as the criterion for determination. Furthermore, if a pinch-out operation is performed on the screen of the smartphone 5 as shown in FIG. The vertical angle of view for forming the corner or the other pair of sides may be a predetermined condition (see FIG. 16). These angle of view values may be set in advance as a threshold management table having a plurality of combinations, as shown in FIG. 16(a). Further, when a tap operation or a pinch-out operation is performed on the display 517 of the smartphone 5 and the above-mentioned predetermined condition DC or more is reached, the transmitting/receiving unit 51 transmits a request to generate a partial still image (time). For example, the trigger may be a shutter command). Note that the operation example for the subject displayed on the display 517 of the smartphone 5 is not limited to a tap operation or a pinch-out operation, and may be realized by other operations.
上述した方法により、スマートフォン5の送受信部51は、画像管理システム7の受信部71aに静止画データの要求を送信する(ステップS32)。このとき、閲覧者が指定した部分画像パラメータ及び静止画データを要求したときの時刻情報も画像管理システム7の受信部71aに送信される。この静止画データを要求したときの時刻情報は、例えば、図14に示すように外部から取得した時計の時刻情報を利用してもよい。具体的には、この時計を受付部52に入力させておき、静止画データを要求するときにその時計が示す時刻情報を取得して、受付部52から送受信部51を介して全天球撮影装置1まで出力されるようにしてもよい。 Using the method described above, the transmitting/receiving unit 51 of the smartphone 5 transmits a request for still image data to the receiving unit 71a of the image management system 7 (step S32). At this time, the partial image parameters specified by the viewer and the time information when the still image data was requested are also transmitted to the receiving unit 71a of the image management system 7. The time information when the still image data is requested may be, for example, the time information of a clock obtained from the outside as shown in FIG. Specifically, this clock is input to the reception unit 52, and when requesting still image data, the time information indicated by the clock is acquired, and the reception unit 52 sends the data to the transmission/reception unit 51 to perform spherical photography. It may also be configured to output up to device 1.
次に、画像管理システム7の送信部71bは、仲介端末3の送受信部に対して静止画データの要求を転送する(ステップS33)。そして、仲介端末3の送受信部は、全天球撮影装置1の送受信部11に対して、静止画データ要求、部分画像パラメータ及び静止画データを要求したときの時刻情報を転送する(ステップS34)。全天球撮影装置1は、ステップS34を実行した時刻に係る時刻情報とスマートフォン5から送信された時刻情報を比較することで、ステップS32、S33及びS34の各処理に要する時間の合計時間、すなわちΔtd1を求めることができる。このΔtd1については、後述にて詳細を説明する。 Next, the transmitter 71b of the image management system 7 transfers a request for still image data to the transmitter/receiver of the intermediary terminal 3 (step S33). Then, the transmitting/receiving unit of the intermediary terminal 3 transfers the still image data request, partial image parameters, and time information when the still image data is requested to the transmitting/receiving unit 11 of the omnidirectional photographing device 1 (step S34). . By comparing the time information related to the time when step S34 was executed and the time information transmitted from the smartphone 5, the omnidirectional photographing device 1 determines the total time required for each process of steps S32, S33, and S34, i.e. Δtd1 can be found. This Δtd1 will be explained in detail later.
次に、全天球撮影装置1は、静止画データの生成処理を行う(ステップS35)。このステップS35の処理について、以下に説明する。 Next, the omnidirectional photographing device 1 performs still image data generation processing (step S35). The process of step S35 will be explained below.
<全天球撮影装置の静止画の生成>
次に、上述のステップS35で示した全天球撮影装置の静止画データの生成処理について詳細に説明する。
<Generation of still images from spherical imaging device>
Next, the still image data generation process of the omnidirectional photographing device shown in step S35 above will be described in detail.
全天球撮影装置1において静止画データの要求を受信した場合、静止画撮影判定を行う。これは部分画像の画角が比較的に狭い場合、元画像からの変換によって作成された部分静止画の解像度が送信中の部分動画の解像度との差がなくなるためである。この場合、図16に示されている水平垂直画角閾値情報の水平画角(AH)と垂直画角(AV)を最低画角とし、部分画像パラメータで指定された画角が、当該画角より広い場合は静止画生成処理を実行する(図18のステップS210)。 When the omnidirectional photographing device 1 receives a request for still image data, a still image photographing determination is made. This is because if the angle of view of the partial image is relatively narrow, the resolution of the partial still image created by conversion from the original image will not differ from the resolution of the partial moving image being transmitted. In this case, the horizontal angle of view (AH) and vertical angle of view (AV) of the horizontal and vertical angle of view threshold information shown in FIG. 16 are the minimum angle of view, and the angle of view specified by the partial image parameter is If it is wider, still image generation processing is executed (step S210 in FIG. 18).
より具体的には、全天球撮影装置1の送受信部11が動画データの送信中に、静止画データの要求を受信した場合、射影方式変換部18は、部分動画のデータの生成と同様に、部分静止画のデータに対し、部分画像パラメータに従って正距円筒射影方式を透視射影方式に射影方式変換を行う。この場合、生成される静止画像のサイズは可変とし、超高精細画像の解像度を維持したまま変換を行う。超高精細画像の水平解像度をW、指定された水平画角をahとすると、生成される静止画の水平解像度Wpは以下のように求めることができる。 More specifically, when the transmitting/receiving unit 11 of the omnidirectional photographing device 1 receives a request for still image data while transmitting video data, the projection method converting unit 18 performs the same process as when generating partial video data. , for data of a partial still image, a projection method is converted from an equirectangular cylindrical projection method to a perspective projection method according to the partial image parameters. In this case, the size of the generated still image is variable, and conversion is performed while maintaining the resolution of the ultra-high definition image. Assuming that the horizontal resolution of the ultra-high definition image is W and the specified horizontal angle of view is ah, the horizontal resolution Wp of the generated still image can be determined as follows.
Wp=W/360*ah ・・・(式9)
ここでのWのサイズは、全天球撮影装置1の起動時に読み込まれた水平垂直画角閾値情報(図16(a)参照)のW列から取得される。
Wp=W/360*ah...(Formula 9)
The size of W here is obtained from the W column of the horizontal/vertical angle of view threshold information (see FIG. 16(a)) read when the omnidirectional photographing device 1 is started.
同様に指定された垂直画角をavとすると、生成される静止画の垂直解像度Hpは次で
求めることができる。
Similarly, if the specified vertical angle of view is av, the vertical resolution Hp of the generated still image can be found as follows.
Hp=H/180*av ・・・(式10)
更に、静止画符号化部20bは、部分静止画のデータの符号化を行い、画像バッファに格納する。そして、送受信部11は、ステップS16,S17と同様に、上述した通信ネットワーク帯域の制御を行い、仲介端末3を介して画像管理システム7に部分静止画のデータを送信する。この場合も部分画像パラメータが送信される。
Hp=H/180*av...(Formula 10)
Furthermore, the still image encoding unit 20b encodes the data of the partial still image and stores it in the image buffer. Then, similarly to steps S16 and S17, the transmitting/receiving unit 11 controls the communication network band described above and transmits the data of the partial still image to the image management system 7 via the intermediary terminal 3. In this case as well, partial image parameters are transmitted.
次に、静止画生成時の処理について説明する。図30は、全天球撮影装置1が行う動画撮影及び静止画生成時のタイミングチャートである。図28のステップS31の処理で、閲覧者がスマートフォン5のディスプレイ517上に表示された注目する被写体に対してタップ、ピンチアウト等の所定の処理を実行すると、静止画要求の受付がされ、部分静止画の生成処理が開始される。 Next, processing at the time of still image generation will be explained. FIG. 30 is a timing chart when the omnidirectional photographing device 1 performs video shooting and still image generation. In the process of step S31 in FIG. 28, when the viewer performs a predetermined process such as tapping or pinching out on the subject of interest displayed on the display 517 of the smartphone 5, the still image request is accepted and the partial Still image generation processing is started.
(静止画撮影時に発生する遅延時間の吸収)
本実施形態の撮影システムにおいて、上述した部分静止画の生成で発生する遅延時間とその吸収方法について、図30及び図31を用いて以下に説明する。
(Absorbing delay time that occurs when shooting still images)
In the photographing system of this embodiment, the delay time that occurs in the generation of the above-described partial still image and a method for absorbing the delay time will be described below with reference to FIGS. 30 and 31.
図30において、全天球撮影装置1の撮像部14a及び撮像部14bは、時刻t1(例えば、図26のメタデータとして記憶された情報における動画撮影開始時刻t=10:00:00)から動画の撮影を開始する。その後、撮像制御部13は、Δta時間遅延後のt1+Δtaの時刻に閲覧者からの静止画要求を画像管理システム7及び仲介装置3を介して受け付けると、一時記憶部16に記憶された動画のデータから部分静止画の生成を実行する。なお、本実施形態において、撮像制御部13は、高精細な静止画を生成する際のタイミング管理手段としても機能する。 In FIG. 30, the imaging unit 14a and the imaging unit 14b of the omnidirectional imaging device 1 start moving video from time t1 (for example, video shooting start time t=10:00:00 in the information stored as metadata in FIG. 26). Start shooting. Thereafter, when the imaging control unit 13 receives a still image request from the viewer via the image management system 7 and the intermediary device 3 at time t1+Δta after a Δta time delay, the imaging control unit 13 receives the video data stored in the temporary storage unit 16. Generate a partial still image from . Note that in this embodiment, the imaging control unit 13 also functions as timing management means when generating high-definition still images.
続いて、t1+Δtb時間遅延後に閲覧者からの静止画要求の受付があると、撮像制御部13は、t1+Δtbの時刻に静止画の撮影(生成)を実行し、さらに、t1+Δtc時間遅延後に閲覧者からの静止画要求の受付があると、t1+Δtcの時刻に静止画の撮影を実行する。なお、閲覧者からの静止画要求が行われるタイミングとして、0<Δta<Δtb<Δtcの関係があるものとする。 Subsequently, when a still image request is received from the viewer after a time delay of t1+Δtb, the imaging control unit 13 captures (generates) a still image at time t1+Δtb, and further requests a still image from the viewer after a time delay of t1+Δtc. When the still image request is received, the still image is captured at time t1+Δtc. Note that the timing at which a still image request is made from a viewer is assumed to have a relationship of 0<Δta<Δtb<Δtc.
続いて、図31において、時刻t3のときに図30のタイミングで録画した部分動画の再生がスマートフォン5において開始されたとすると、(t3+Δta)の時刻から(t3+Δtb)の時刻までに静止画Aが再生される。同様に、(t3+Δtb)の時刻から(t3+Δtc)の時刻までにスマートフォン5において静止画Bが再生される。さらに同様に、(t3+Δtc)の時刻からt4の時刻までにスマートフォン5において静止画Cが再生される。なお、静止画A、B、Cは、次の静止画が再生されるタイミングで再生される静止画が切り替わってしまう。そのため、閲覧者が引き続き同じ静止画の再生を継続したい場合を考慮して、一般的な動画再生装置に設けられているような一時停止機能や巻き戻し機能をスマートフォン5に設けておいてもよい。 Next, in FIG. 31, if playback of the partial video recorded at the timing of FIG. 30 at time t3 is started on the smartphone 5, still image A is played from time (t3+Δta) to time (t3+Δtb). be done. Similarly, the still image B is played back on the smartphone 5 from time (t3+Δtb) to time (t3+Δtc). Furthermore, the still image C is similarly reproduced on the smartphone 5 from the time (t3+Δtc) to the time t4. Note that the still images A, B, and C are switched at the timing when the next still image is played. Therefore, in consideration of the case where the viewer wants to continue playing the same still image, the smartphone 5 may be provided with a pause function and a rewind function such as those provided in general video playback devices. .
本実施形態において、実際には、静止画Aの生成には本実施形態におけるシステムの処理時間(例えば、図28のステップS32,S33,S34の各処理時間の加算分)だけ遅延したときの配信動画が静止画として撮影されることになる。つまり、静止画Aの静止画データは、全天球撮影装置1が要求情報を受信した時点(スマートフォン5が要求情報を送信してからステップS32,S33,S34の各処理時間の加算分である遅延時間=Δtd1だけずれたタイミング)で得られた被写体を含む画像のデータになる。この遅延時間については、静止画B及び静止画Cの再生時においても同様である。これは、上述のExifに沿った関連情報(メタデータ)の一例として撮影時刻に関する情報が管理された状態であっても、処理時間による遅延の影響で再生される静止画とその再生タイミングにずれが生じることになる。 In this embodiment, actually, the generation of still image A is delayed by the processing time of the system in this embodiment (for example, the addition of each processing time of steps S32, S33, and S34 in FIG. 28). The video will be shot as a still image. In other words, the still image data of the still image A is obtained at the time when the omnidirectional photographing device 1 receives the request information (the sum of the processing times of steps S32, S33, and S34 after the smartphone 5 transmits the request information). This is data of an image including the subject obtained at a timing shifted by delay time = Δtd1). This delay time is the same when still images B and still images C are reproduced. Even if information about the shooting time is managed as an example of related information (metadata) according to Exif mentioned above, there is a difference between the still image being played and its playback timing due to the delay due to processing time. will occur.
そこで、遅延時間としてのΔtd1を吸収させるために、以下のような方法が考えられる。例えば、全天球撮影装置1の一時記憶部16は、その記憶領域をリングバッファとして使用して、記憶した動画データを上書きするような制御をする。この制御を前提とすれば、全天球撮影装置1の撮像制御部13は、閲覧者からの静止画要求の受付(図28のステップS31)があった任意の時刻を起点として、続くステップS32,S33及びS34に要する処理時間の合計(=Δtd1)だけ以前の時刻、すなわち、以下の式11で示される時刻、
(t1+Δta)-Δtd1・・・(式11)
まで遡った時刻(時点)の部分動画を静止画Aとして生成することが可能になる。なお、画像管理システム7の記憶制御部74が記憶部7000を用いて全天球撮影装置1の動画を管理するような撮影システムの場合は、記憶制御部74は、記憶部7000をリングバッファとして制御してもよい。
Therefore, in order to absorb the delay time Δtd1, the following method can be considered. For example, the temporary storage section 16 of the spherical photographing device 1 uses its storage area as a ring buffer to control overwriting of stored video data. Assuming this control, the imaging control unit 13 of the omnidirectional photographing device 1 starts from an arbitrary time when a still image request is received from the viewer (step S31 in FIG. 28), and performs the following step S32. , S33 and S34 (=Δtd1) before the time, that is, the time shown by the following equation 11,
(t1+Δta)−Δtd1...(Formula 11)
It becomes possible to generate a partial moving image as a still image A at a time (point in time) as far back as the current time. Note that in the case of a photographing system in which the storage control section 74 of the image management system 7 uses the storage section 7000 to manage moving images of the omnidirectional photographing device 1, the storage control section 74 uses the storage section 7000 as a ring buffer. May be controlled.
換言すれば、撮像制御部13は、閲覧者により受け付けられた操作が所定の条件を超えた時刻(例えば、閲覧者による被写体に対するピンチアウト操作によって拡大された領域が、所定の画角以上に到達した時刻)から画像管理システム7、仲介端末3及びスマートフォン5で実行される処理に要する時間だけ遡った時刻に配信されている動画を用いて静止画Aとして生成することが可能となる。但し、仲介端末3を必要としない撮影システムであれば、この仲介端末3における処理時間を無視することが可能である。上述した遅延時間の吸収に関する考え方は、静止画B及び静止画Cについても同様であり、閲覧者により注目された被写体を高精細な静止画として生成するときのタイミング遅延による影響を解消することができる。このとき、システムの時刻管理は、例えば、GPS衛星から取得した時刻情報をスマートフォン5、画像管理システム7、仲介端末3及び全天球撮影装置1にて共通使用するようにしておけば、さらに精度良くこの遅延時間の吸収処理が可能となる。 In other words, the imaging control unit 13 determines the time when the operation accepted by the viewer exceeds a predetermined condition (for example, the area enlarged by the viewer's pinch-out operation on the subject reaches a predetermined angle of view or more). It becomes possible to generate the still image A using a video that was distributed at a time that is the time required for processing performed by the image management system 7, the intermediary terminal 3, and the smartphone 5 from the time when the image management system 7, the intermediary terminal 3, and the smartphone 5 performed. However, if the imaging system does not require the intermediary terminal 3, the processing time at the intermediary terminal 3 can be ignored. The above-mentioned concept regarding absorption of delay time is the same for still images B and still images C, and it is possible to eliminate the influence of timing delay when generating a high-definition still image of the subject that has attracted the attention of the viewer. can. At this time, the time management of the system can be made even more accurate if, for example, the time information acquired from the GPS satellite is shared by the smartphone 5, the image management system 7, the intermediary terminal 3, and the omnidirectional photographing device 1. This delay time can be effectively absorbed.
このような遅延時間を吸収する仕組みを全天球撮影装置1に設けておくことで、閲覧者が注目する被写体を静止画として撮影したいタイミングの静止画を正確に撮影し、閲覧者に再生することが可能になる。 By providing a mechanism for absorbing such delay time in the omnidirectional photographing device 1, a still image of the subject of interest to the viewer can be accurately photographed at the desired timing and played back to the viewer. becomes possible.
なお、上述した制御は、スマートフォン5の再生時間管理部59で管理される基準となる動画再生時間(例えば、30fps)と、スマートフォン5(ステップS32)、画像管理システム7(ステップS33)及び仲介端末3(ステップS34)のそれぞれの処理における単位処理時間(例えば、クロック速度等)等の関係から、遅延時間Δtd1を無視するか、又は上述のような計算式に基づく遅延時間吸収処理を行うかを選択されるようにしてもよい。なお、図28に示したシーケンス図は一例であり、この処理に限定されるものではない。 Note that the above-mentioned control is based on the standard video playback time (for example, 30 fps) managed by the playback time management unit 59 of the smartphone 5, the smartphone 5 (step S32), the image management system 7 (step S33), and the intermediary terminal. Depending on the unit processing time (for example, clock speed, etc.) in each process in step S34, it is determined whether to ignore the delay time Δtd1 or to perform delay time absorption processing based on the above calculation formula. It may be selected. Note that the sequence diagram shown in FIG. 28 is an example, and the process is not limited to this.
次に、全天球撮影装置1の送受信部11は、仲介端末3の送受信部に対して、要求に応じた静止画データを送信する(ステップS36)。この静止画データは、超高精細の部分静止画のデータである。なお、静止画データの送信を開始するタイミングは、夜間などネットワークのトラフィック量が少ない時間帯や、遅延時間を測定し、所定の遅延時間より短くなる時に送信するようにしてもよい。これにより、仲介端末3の送受信部は、画像管理システム7の受信部71aに静止画データを転送する(ステップS37)。 Next, the transmitting/receiving unit 11 of the omnidirectional photographing device 1 transmits the still image data according to the request to the transmitting/receiving unit of the intermediary terminal 3 (step S36). This still image data is ultra-high definition partial still image data. Note that the still image data transmission may be started at a time when the amount of network traffic is low, such as at night, or when the delay time is measured and the delay time is shorter than a predetermined delay time. Thereby, the transmitting/receiving section of the intermediary terminal 3 transfers the still image data to the receiving section 71a of the image management system 7 (step S37).
次に、画像管理システム7の動画再生用メタデータ作成部72は、ステップS17で作成したメタデータファイルに静止画データを重畳して重畳表示用のメタデータを更新する(ステップS38)。このとき動画再生用メタデータ作成部72は、前述したメタデータの構成のうち静止画識別情報と静止画撮影時刻を記憶する。このステップS38の処理は、後ほど詳細に説明する。 Next, the video playback metadata creating unit 72 of the image management system 7 updates the metadata for superimposed display by superimposing still image data on the metadata file created in step S17 (step S38). At this time, the video playback metadata creation unit 72 stores still image identification information and still image shooting time among the metadata configurations described above. The process of step S38 will be explained in detail later.
次に、画像管理システム7の受信部71aが静止画データを受信した場合は、記憶制御部74は、記憶部7000に静止画データを記憶させる(ステップS39)。 Next, when the receiving unit 71a of the image management system 7 receives the still image data, the storage control unit 74 causes the storage unit 7000 to store the still image data (step S39).
なお、ステップS31乃至ステップS39の処理は閲覧者の指示により動画配信中に複数回実施されてもよい。また、本実施形態では閲覧者の要求毎に静止画の撮影を行っているが、一般的なデジタルカメラに搭載されているインターバル撮影機能を用いて一定時間毎に静止画の撮影を行ってもよい。さらに、ステップS38及びステップS39の処理は、互いにその順番を入れ替えて実行されてもよい。 Note that the processes from step S31 to step S39 may be performed multiple times during video distribution according to instructions from the viewer. Furthermore, in this embodiment, still images are taken at each request from the viewer, but it is also possible to take still images at regular intervals using the interval shooting function installed in general digital cameras. good. Furthermore, the processes in step S38 and step S39 may be executed with their order changed.
そして、画像管理システム7の送信部71bは、スマートフォン5の送受信部51に静止画データを転送する(ステップS40)。この際、転送開始のタイミングに関しては、全天球撮影装置1から仲介端末3を介して画像管理システムへのデータ送信と同様、通信ネットワークの帯域制御などを行う。 The transmitter 71b of the image management system 7 then transfers the still image data to the transmitter/receiver 51 of the smartphone 5 (step S40). At this time, regarding the timing of starting the transfer, band control of the communication network, etc. is performed as in the case of data transmission from the omnidirectional photographing device 1 to the image management system via the intermediary terminal 3.
次に、スマートフォン5の表示制御部58は、広角な部分動画上にこれまで重畳していた部分動画に代えて、超高精細な部分静止画を重畳してディスプレイ517上に表示させる(ステップS41)。このステップS41でスマートフォン5が行う部分静止画の表示タイミングについては、以下の2つの場合が考えられる。1つは、全天球撮影装置1が動画のライブ配信中に、スマートフォン5が配信されている動画に重畳させて超高精細な部分静止画を表示させる場合である。もう1つは、全天球撮影装置1によるライブ配信が終わり所定の時間が経過した後に、スマートフォン5がライブ配信された動画を再生し、ライブ配信中に表示されたタイミングと同じタイミングで超高精細な部分静止画を表示させる場合である。スマートフォン5の閲覧者は、これらの表示タイミングのいずれかにおいて、配信中の動画又は再生中の動画に超高精細な部分静止画を重畳させた表示画面を閲覧することが可能である。 Next, the display control unit 58 of the smartphone 5 superimposes an ultra-high-definition partial still image on the wide-angle partial video, instead of the partial video that has been superimposed so far, and displays it on the display 517 (step S41 ). Regarding the display timing of the partial still image performed by the smartphone 5 in this step S41, the following two cases can be considered. One is a case where the smartphone 5 displays an ultra-high-definition partial still image superimposed on the video being distributed while the spherical photographing device 1 is live distributing the video. The other is that after a predetermined period of time has elapsed after the live broadcast by the omnidirectional camera 1, the smartphone 5 plays back the live broadcast video and displays a super high-speed video at the same timing as that displayed during the live broadcast. This is a case where a detailed partial still image is to be displayed. At any of these display timings, the viewer of the smartphone 5 can view a display screen in which an ultra-high-definition partial still image is superimposed on the video being distributed or the video being played.
なお、上記ステップS35において、判断部25が射影方式変換部18に超高精細な静止画のデータを射影方式変換させないと判断した場合に、上記ステップS36~S37において、静止画データの代わりに、「静止画を送信しない」旨、「画角は不足している」旨等のメッセージを送信するようにしてもよい。この場合、ステップS41では、広角な部分動画上に狭角な部分動画が重畳されたままの状態で上記メッセージが表示されるようにしてもよい。 Note that if the determining unit 25 determines in step S35 that the projection format converting unit 18 is not to convert the ultra-high-definition still image data into a projection format, in steps S36 to S37, instead of the still image data, Messages such as "still images will not be transmitted" or "the viewing angle is insufficient" may be transmitted. In this case, in step S41, the message may be displayed while the narrow-angle partial video remains superimposed on the wide-angle partial video.
<メタデータの更新>
次に、上述したステップS38で示したメタデータの更新処理について詳細に説明する。
<Updating metadata>
Next, the metadata update process shown in step S38 mentioned above will be explained in detail.
配信されている動画データの記録中に画像管理システム7の受信部71aが全天球撮影装置1から仲介装置3を介して静止画データを受信した場合、記憶制御部74は、受信した静止画データを記憶部7000に記憶する。次に、画再生用メタデータ作成部72は、ステップS27で作成したメタデータファイルに対して記憶部7000に新たに記憶された静止画データ情報を追加する。このとき、画再生用メタデータ作成部72は、上述したメタデータの構造のうち静止画識別情報と静止画撮影時刻をあわせて記憶する。 When the receiving unit 71a of the image management system 7 receives still image data from the omnidirectional imaging device 1 via the intermediary device 3 during recording of distributed video data, the storage control unit 74 stores the received still image data. The data is stored in the storage unit 7000. Next, the image reproduction metadata creation unit 72 adds the still image data information newly stored in the storage unit 7000 to the metadata file created in step S27. At this time, the image playback metadata creation unit 72 stores still image identification information and still image shooting time out of the above-mentioned metadata structure.
<スマートフォンにおける静止画の再生>
次に、上述のステップS41で示したスマートフォン5の静止画データの再生処理について詳細に説明する。
<Playback of still images on smartphone>
Next, the still image data playback process of the smartphone 5 shown in step S41 above will be described in detail.
スマートフォン5では、送受信部51が全天球撮影装置1から送られてきた静止画データを部分静止画のデータと部分画像パラメータに分離する。静止画復号化部53bは、分離された後の部分静止画のデータを復号化する。 In the smartphone 5, the transmitting/receiving unit 51 separates the still image data sent from the omnidirectional photographing device 1 into partial still image data and partial image parameters. The still image decoding unit 53b decodes the separated still image data.
<動画データのダウンロード>
続いて、画像管理システム7に記憶、管理されている動画データをスマートフォン5にダウンロードする場合について図32を用いて説明する。まず閲覧者がスマートフォン5を操作することにより、全天球撮影装置1の受付部22が動画の再生要求を受け付ける(ステップS51)。これにより、スマートフォン5の送受信部51は画像管理システム7の受信部71aに記録データ要求を送信する(ステップS52)。
<Download video data>
Next, a case where video data stored and managed in the image management system 7 is downloaded to the smartphone 5 will be described using FIG. 32. First, when the viewer operates the smartphone 5, the receiving unit 22 of the omnidirectional photographing device 1 receives a video playback request (step S51). Thereby, the transmitting/receiving unit 51 of the smartphone 5 transmits a recording data request to the receiving unit 71a of the image management system 7 (step S52).
画像管理システム7の受信部71aは、記録データ要求を受信すると、記憶制御部74を介して記憶部7000から読み出された動画ファイル、静止画ファイル及び動画再生用メタデータをスマートフォン5の送受信部51に送信する(ステップS53)。 Upon receiving the recording data request, the receiving unit 71a of the image management system 7 transmits the video file, still image file, and video playback metadata read from the storage unit 7000 via the storage control unit 74 to the transmitting/receiving unit of the smartphone 5. 51 (step S53).
スマートフォン5の送受信部51が動画ファイル、静止画ファイル及び動画再生用メタデータを画像管理システム7から受信すると、記憶制御部62は、受信した動画ファイル、静止画ファイル及び動画再生用メタデータを記憶部5000に保存(ダウンロード)して、動画及び静止画の再生処理を行う(ステップS54)。 When the transmitting/receiving unit 51 of the smartphone 5 receives the video file, still image file, and video playback metadata from the image management system 7, the storage control unit 62 stores the received video file, still image file, and video playback metadata. The information is stored (downloaded) in the unit 5000, and the moving images and still images are reproduced (step S54).
(動画及び静止画再生時の表示選択)
ステップS54で上述したように、各表示パターンは、例えば、撮影システムの使用環境及び各装置の仕様等から選択的に表示制御されるようにしてもよい。
(Display selection when playing videos and still images)
As described above in step S54, each display pattern may be selectively controlled to be displayed based on, for example, the operating environment of the imaging system and the specifications of each device.
図33は、選択ボタン及び決定ボタンの一例を示す図である。図33に示すように、全体動画選択ボタン551(広角動画)、部分動画選択ボタン552(狭角動画)及び部分静止画選択ボタン553(狭角静止画)並びに決定ボタン554は、スマートフォン5に設けられてもよい。以下、全体動画を広角動画、部分動画を狭角動画、及び、部分静止画を狭角静止画と呼ぶ。なお、上述した全体動画選択ボタン551(広角動画)、部分動画選択ボタン552(狭角動画)及び部分静止画選択ボタン553(狭角静止画)は、閲覧者がスマートフォン5のディスプレイ517を操作することで、受付手段の一例である受付部52が受け付ける操作ボタンである。これらの全体動画選択ボタン551、部分動画選択ボタン552、及び、部分静止画選択ボタン553は、広角動画、部分動画及び部分静止画に係る表示形態のうち、単独又は複数の組合せ、すなわち少なくとも一つ以上が選択されてもよい。例えば、広角動画と狭角動画をディスプレイ517に表示させる場合や、狭角動画と狭角静止画をディスプレイ517に表示させる場合など、閲覧者の所望する利用形態に応じて、複数の組合せで上述した各選択ボタンが選択されてもよい。 FIG. 33 is a diagram showing an example of a selection button and a decision button. As shown in FIG. 33, a whole video selection button 551 (wide-angle video), a partial video selection button 552 (narrow-angle video), a partial still image selection button 553 (narrow-angle still image), and a determination button 554 are provided on the smartphone 5. It's okay to be hit. Hereinafter, the entire video will be referred to as a wide-angle video, the partial video will be referred to as a narrow-angle video, and the partial still image will be referred to as a narrow-angle still image. The above-described whole video selection button 551 (wide-angle video), partial video selection button 552 (narrow-angle video), and partial still image selection button 553 (narrow-angle still image) are operated by the viewer on the display 517 of the smartphone 5. This is an operation button that is accepted by the reception unit 52, which is an example of reception means. These whole video selection button 551, partial video selection button 552, and partial still image selection button 553 can be used alone or in combination, i.e., at least one of the display formats related to wide-angle video, partial video, and partial still image. The above may be selected. For example, when displaying a wide-angle video and a narrow-angle video on the display 517, or when displaying a narrow-angle video and a narrow-angle still image on the display 517, multiple combinations of the above may be used depending on the usage pattern desired by the viewer. Each selected selection button may be selected.
このような選択ボタンや決定ボタンを設けることで、動画再生中のビューアで閲覧者による被写体の拡大動作が続けられた場合の広角動画又は狭角動画の解像度に応じて、動画を優先させる(解像度を犠牲にする)か、解像度を優先させる(動画を犠牲にする)かの選択が可能なようにスマートフォン5が構成されてもよい。つまり、このような場合は、スマートフォン5は、受付部52に閲覧者が選択可能な選択部としての選択ボタンやアイコン等を設け、少なくとも1つ以上のボタンやアイコンの入力を受け付けるようにしてもよい。 By providing such selection buttons and decision buttons, priority is given to the video according to the resolution of the wide-angle video or narrow-angle video when the viewer continues to enlarge the subject in the viewer during video playback (resolution The smartphone 5 may be configured so that it is possible to select between giving priority to resolution (sacrificing video) or giving priority to resolution (sacrificing video). In other words, in such a case, the smartphone 5 may provide the reception section 52 with selection buttons, icons, etc. as a selection section that the viewer can select, and accept input from at least one button or icon. good.
また、決定ボタンを選択ボタンやアイコンの下部に設けることで、受付部52は、閲覧者により選択された機能及び機能の組合せの決定を受け付けることができる。なお、決定ボタンの操作による機能及び機能の組合せの決定以外にも、閲覧者により選択されたボタンやアイコンが所定時間表示されたら選択されたボタンやアイコンの機能を決定するようにして、閲覧者が決定ボタンの操作を省略できるように構成されてもよい。 Furthermore, by providing a determination button below the selection button or icon, the reception unit 52 can receive determination of the function and combination of functions selected by the viewer. In addition to determining functions and combinations of functions by operating the OK button, the function of the button or icon selected by the viewer is determined after the button or icon selected by the viewer is displayed for a predetermined period of time. may be configured so that the operation of the determination button can be omitted.
(重畳表示方法のパターン)
次に、上述したステップS54で行われる再生処理において、広角動画に対する狭角動画及び狭角静止画のうちの少なくとも一つを重畳させて表示する具体例及びその表示パターンについて説明する。スマートフォン5の重畳領域作成部54、画像作成部55、画像重畳部56、射影変換部57及び表示制御部58は、広角動画を再生中にその広角動画に対して高精細な狭角動画及びその狭角動画よりもさらに高精細な狭角静止画のうち少なくとも一つを重畳させてスマートフォン5のディスプレイ517に表示させる。ここで、スマートフォン用プログラムに従ったCPU501からの命令によって、重畳領域作成部54、画像作成部55、画像重畳部56、射影変換部57及び表示制御部58を纏めて重畳表示制御部63として機能させてもよい。また、この重畳表示制御部63は、重畳表示制御手段の一例である。
(Pattern of superimposed display method)
Next, a specific example of superimposing and displaying at least one of a narrow-angle video and a narrow-angle still image on a wide-angle video in the reproduction process performed in step S54 described above, and its display pattern will be described. The superimposition area creation unit 54, image creation unit 55, image superimposition unit 56, projective conversion unit 57, and display control unit 58 of the smartphone 5 create a high-definition narrow-angle video and a high-definition narrow-angle video for the wide-angle video while playing the wide-angle video. At least one narrow-angle still image with higher definition than the narrow-angle video is superimposed and displayed on the display 517 of the smartphone 5. Here, the superimposed area creation section 54, image creation section 55, image superimposition section 56, projective transformation section 57, and display control section 58 are collectively functioned as a superimposition display control section 63 according to a command from the CPU 501 according to a smartphone program. You may let them. Further, this superimposed display control section 63 is an example of superimposed display control means.
また、動画及び静止画を重畳する制御を担う重畳画像判断部61は、上述したように広角動画に対して狭角動画と狭角静止画のどちらの画像を重畳表示するかを判断する。この重畳画像判断部61は、重畳画像判断手段の一例として機能する。なお、重畳表示に関する判断実行後の重畳や表示に関する処理は、ストリーミング配信における制御と同様のため説明を省略する。 Further, the superimposed image determination unit 61, which is responsible for controlling the superimposition of moving images and still images, determines which image, a narrow-angle moving image or a narrow-angle still image, should be superimposed on a wide-angle moving image, as described above. This superimposed image determining section 61 functions as an example of superimposed image determining means. Note that the processing related to superimposition and display after the determination regarding superimposed display is performed is the same as the control in streaming distribution, so the explanation will be omitted.
続いて、重畳画像判断部61により判断される重畳(合成)画像を表示する表示方法のバリエーションについて以下に説明する。つまり、重畳画像判断部61は、受信した広角動画(全体動画)を構成する広角動画データ、狭角動画(部分動画)を構成する狭角動画データ及び狭角静止画(部分静止画)を構成する狭角静止画データのうち何れの組合せで合成するかを判断する重畳画像判断手段の機能を担う。 Next, variations of the display method for displaying the superimposed (synthesized) image determined by the superimposed image determination unit 61 will be described below. In other words, the superimposed image determination unit 61 configures wide-angle video data constituting the received wide-angle video (whole video), narrow-angle video data constituting the narrow-angle video (partial video), and narrow-angle still images (partial still images). It has the function of a superimposed image determining means that determines which combination of narrow-angle still image data to combine.
(表示方法1)
重畳画像判断部61は、閲覧者の指定する表示領域と予め指定された部分領域の情報を基に、広角動画に対し、狭角動画と狭角静止画のどちらの画像を重畳表示するかを判断する。重畳画像判断部61は、ディスプレイ517上の閲覧領域の縦の画素数をTh、部分領域の画素数をPh、閲覧領域の横の画素数をTw、部分領域の画素数をPwとすると、Ph>H’/2の場合もしくはPh>W’の場合は超高精細な静止画を重畳させ、それ以外の場合は動画を重畳させることで自動的に切り替えを行う。Ph、Pwは以下の式で近似することができる。
(Display method 1)
The superimposed image determination unit 61 determines which image, a narrow-angle video or a narrow-angle still image, should be superimposed on the wide-angle video, based on the display area specified by the viewer and the information on the pre-designated partial area. to decide. The superimposed image judgment unit 61 determines that if the number of vertical pixels in the viewing area on the display 517 is Th, the number of pixels in the partial area is Ph, the number of horizontal pixels in the viewing area is Tw, and the number of pixels in the partial area is Pw, then Ph >H'/2 or Ph>W', an ultra-high-definition still image is superimposed, and in other cases, a moving image is superimposed, thereby automatically switching. Ph and Pw can be approximated by the following equations.
P=b/a*T・・・(式12)
なお、上記式のa,b,p及びtの各パラメータは、例えば、図34に示した表示領域と注目領域を示す二次元の概念図に基づいて与えられる。このように必要となる解像度(画素数)を算出し重畳画像の切り替えを自動で行うことにより、閲覧者は表示領域の指示を行うだけで、常に最適な解像度の画像を閲覧することができる。
P=b/a*T... (Formula 12)
Note that the parameters a, b, p, and t in the above equation are given based on, for example, the two-dimensional conceptual diagram showing the display area and the attention area shown in FIG. 34. By calculating the required resolution (number of pixels) and automatically switching the superimposed images in this way, the viewer can always view images with the optimal resolution simply by specifying the display area.
(表示方法2)
一方で静止画を重畳させることで解像度が向上する条件においても動画のまま表示させた方が閲覧者にとって有益となることもある。そこで、本実施形態では、後述するように広角動画、狭角動画及び狭角静止画のうちいずれを再生させるかを選択する選択ボタン及びそれらの選択を決定する決定ボタンをスマートフォン5に設けてもよい。
(Display method 2)
On the other hand, even under conditions where the resolution can be improved by superimposing still images, it may be more beneficial for viewers to display the video as it is. Therefore, in this embodiment, as will be described later, the smartphone 5 may be provided with a selection button for selecting which of a wide-angle video, a narrow-angle video, and a narrow-angle still image to play, and a determination button for determining those selections. good.
閲覧者が解像度よりも動きを重視して閲覧したい場合は、重畳画像判断部61は、閲覧者の指示によって狭角動画と狭角静止画の表示を切り替えるように制御してもよい。 If the viewer wants to view with more emphasis on movement than resolution, the superimposed image determination unit 61 may control the display to switch between narrow-angle video and narrow-angle still images according to the viewer's instructions.
(表示方法3)
また、静止画が撮影された領域は、動画を再生する閲覧者にとっても特に詳細に見たい被写体や領域である可能性が高いため、動画の再生中に狭角静止画が存在した場合は、重畳画像判断部61は、重畳表示制御部63と連携してディスプレイ517の画面中央に静止画が表示されるよう視点を回転させてもよい。
(Display method 3)
In addition, since the area where the still image was shot is likely to be a subject or area that the viewer who plays the video particularly wants to see in detail, if a narrow-angle still image is present during video playback, The superimposed image determination unit 61 may rotate the viewpoint so that the still image is displayed at the center of the screen of the display 517 in cooperation with the superimposed display control unit 63.
(表示方法4)
また、撮影時にカメラが移動する場合は、再生時に部分静止画と全体動画がずれてしまうという課題がある。その場合は、静止画を重畳表示している期間は背景である動画も静止させて表示させてもよい。このように、静止画があるときは、重畳画像判断部61は、重畳表示制御部63と連携して静止画の方向を向いて静止画を所定時間(例えば、5秒間等の任意の設定時間又は次の静止画が表示されるまでの時間)だけ表示させるようにしてもよい。
(Display method 4)
Furthermore, if the camera moves during shooting, there is a problem that the partial still image and the entire video may be out of sync during playback. In that case, the background moving image may also be displayed in a still state during the period in which the still image is displayed in a superimposed manner. In this way, when there is a still image, the superimposed image determination unit 61 cooperates with the superimposed display control unit 63 to face the direction of the still image and display the still image for a predetermined period of time (for example, an arbitrary set period of time such as 5 seconds). Alternatively, the still image may be displayed only for a period of time until the next still image is displayed.
(動画及び静止画の表示例)
図34は、表示領域と注目領域を示す二次元の概念図である。この二次元の概念図については、上述した表示パターン1で説明したとおりである。また、図35乃至図40は、再生動画中に重畳される部分動画及び静止画の表示例及びその表示例に対応する各表示パターンを示す例である。それぞれの動画及び静止画と各表示パターンの例について、以下に説明する。
(Example of video and still image display)
FIG. 34 is a two-dimensional conceptual diagram showing the display area and the attention area. This two-dimensional conceptual diagram is as described in the display pattern 1 above. Further, FIGS. 35 to 40 are examples showing display examples of partial moving images and still images superimposed on a reproduced moving image, and display patterns corresponding to the display examples. Examples of each moving image and still image and each display pattern will be described below.
まず、図35(a)は、スマートフォン5のディスプレイ517に広角動画が再生された状態である。すなわちこの状態は、低精細な広角動画が表示された状態である。この状態で、広角動画の一部(天守閣の周辺)が閲覧者のピンチアウト操作等によって拡大されたとき、すなわち低精細な広角動画の一部が拡大されたとき、画像作成部55は、拡大された広角動画をその広角動画よりも相対的に高精細な狭角動画を生成し、画像重畳部56は、生成した狭角動画を広角動画の天守閣の付近に重畳させる。すなわちこの状態は、低精細な狭角動画と高精細な狭角動画とが重畳された状態である。その後、表示制御部58は、画像重畳部56で広角動画に重畳させた狭角動画及び射影変換部57で射影変換されたそれぞれの動画をディスプレイ517に表示させる(図35(b))。なお、図35(b)では、表示制御部58は、広角動画に重畳させた部分動画の外枠四辺を点線で表示しているが、便宜上示すものであるので、この点線は実際のディスプレイ517上に表示させなくてもよい。 First, FIG. 35(a) shows a state in which a wide-angle video is played on the display 517 of the smartphone 5. In other words, this state is a state in which a low-definition wide-angle video is displayed. In this state, when a part of the wide-angle video (around the castle tower) is enlarged by the viewer's pinch-out operation, that is, when a part of the low-definition wide-angle video is enlarged, the image creation unit 55 enlarges the video. The generated wide-angle video is used to generate a narrow-angle video with relatively higher definition than the wide-angle video, and the image superimposition unit 56 superimposes the generated narrow-angle video near the castle tower in the wide-angle video. That is, this state is a state in which a low-definition narrow-angle video and a high-definition narrow-angle video are superimposed. Thereafter, the display control unit 58 causes the display 517 to display the narrow-angle video superimposed on the wide-angle video by the image superimposing unit 56 and the video projectively transformed by the projective transform unit 57 (FIG. 35(b)). In addition, in FIG. 35(b), the display control unit 58 displays the four sides of the outer frame of the partial video superimposed on the wide-angle video with dotted lines. It does not have to be displayed on top.
次に、閲覧者によってさらに拡大操作が続けられ狭角動画の領域が所定の条件(範囲)以上に達したら、画像作成部55は、狭角動画中で拡大された画像をその狭角動画よりもさらに高精細な狭角静止画として生成し、画像重畳部56は、画像重畳部56で広角動画の天守閣の付近に狭角静止画を重畳させる。その後、表示制御部58は、広角動画に重畳させた狭角静止画を表示させる(図35(c))。すなわちこの状態は、狭角動画と拡大後の超高精細な狭角静止画とが重畳された状態である。なお、図35(c)でも、広角動画に重畳させた超高精細な狭角静止画の外枠四辺を点線で示しているが、便宜上示すものであるので、表示制御部58は、この点線を実際のディスプレイ517上に表示させなくてもよい。さらに、表示制御部58は、重畳させた狭角静止画をスマートフォン5のディスプレイ517に所定時間表示するように制御してもよい。また、上述した所定時間とは、例えば、上述した動画再生及び静止画再生時のタイミングに係る図31においては静止画A,B,C等が表示される時間を示すが、その他の方法で算出された時間でもよい。 Next, when the enlargement operation is continued by the viewer and the area of the narrow-angle video reaches a predetermined condition (range) or more, the image creation unit 55 converts the enlarged image in the narrow-angle video from the narrow-angle video. The image superimposing unit 56 superimposes the narrow-angle still image around the castle tower in the wide-angle video. After that, the display control unit 58 displays the narrow-angle still image superimposed on the wide-angle video (FIG. 35(c)). That is, this state is a state in which a narrow-angle moving image and an enlarged ultra-high-definition narrow-angle still image are superimposed. In addition, in FIG. 35(c), the four sides of the outer frame of the ultra-high-definition narrow-angle still image superimposed on the wide-angle video are shown by dotted lines, but this is shown for convenience, so the display control unit 58 does not have to be displayed on the actual display 517. Furthermore, the display control unit 58 may control the superimposed narrow-angle still image to be displayed on the display 517 of the smartphone 5 for a predetermined period of time. In addition, the above-mentioned predetermined time refers to the time during which still images A, B, C, etc. are displayed in FIG. 31, which relates to the timing of video playback and still image playback described above, for example, but is calculated by other methods. It may be the time when
一方、表示制御部58は、図35(c)の状態から、広角動画が表示されていたディスプレイ517の表示領域全てに(広角動画に代えて)超高精細な狭角静止画を表示するようにしてもよい(図35(d))。すなわちこの状態は、拡大後の超高精細な狭角静止画がスマートフォン5のディスプレイ517の表示可能領域全体に表示された状態である。 On the other hand, the display control unit 58 changes from the state shown in FIG. 35(c) to display an ultra-high-definition narrow-angle still image (instead of the wide-angle video) in the entire display area of the display 517 where the wide-angle video was being displayed. (Fig. 35(d)). That is, in this state, the enlarged ultra-high-definition narrow-angle still image is displayed in the entire displayable area of the display 517 of the smartphone 5.
以下、図36乃至図40に示した各表示パターンについて説明する。図36は、動画の拡大と動画に重畳された高精細な静止画の表示例に対応する表示パターンの一例である。図36(a)、(b)、(c)及び(d)は、図35(a)、(b)、(c)及び(d)の各表示パターンにそれぞれ対応する。詳細には、図36(a)は低精細な広角動画(広角動画WM。以下、単に広角動画という)がディスプレイ517の表示領域の全体に表示された状態の一例であり、図36(b)は低精細な広角動画と高精細な狭角動画(狭角動画NM。以下、単に狭角動画という)とが重畳された状態の一例であり、図36(c)は図36(b)の狭角動画を拡大したとき、低精細な広角動画と超高精細な狭角静止画(狭角静止画NS。以下、単に狭角静止画という)とが重畳された状態の一例である。さらに、図36(d)は、図36(b)の狭角動画を拡大したとき、超高精細な狭角静止画が狭角動画に置き換わってディスプレイ517の表示領域の全体に表示された状態の一例である。なお、低精細な広角動画が第1の画像の場合に、高精細な狭角動画又は超高精細な狭角静止画は第2の画像である。又は、高精細な狭角動画が第1の画像の場合に、超高精細な狭角静止画は第2の画像である。 Each display pattern shown in FIGS. 36 to 40 will be described below. FIG. 36 is an example of a display pattern corresponding to an enlargement of a moving image and a display example of a high-definition still image superimposed on the moving image. 36(a), (b), (c), and (d) correspond to each display pattern of FIG. 35(a), (b), (c), and (d), respectively. In detail, FIG. 36(a) is an example of a state in which a low-definition wide-angle video (wide-angle video WM; hereinafter simply referred to as wide-angle video) is displayed in the entire display area of the display 517, and FIG. 36(b) is an example of a state in which a low-definition wide-angle video and a high-definition narrow-angle video (narrow-angle video NM, hereinafter simply referred to as narrow-angle video) are superimposed, and FIG. This is an example of a state in which a low-definition wide-angle video and an ultra-high-definition narrow-angle still image (narrow-angle still image NS; hereinafter simply referred to as a narrow-angle still image) are superimposed when a narrow-angle video is enlarged. Further, FIG. 36(d) shows a state in which, when the narrow-angle video in FIG. 36(b) is enlarged, an ultra-high-definition narrow-angle still image is replaced by the narrow-angle video and displayed in the entire display area of the display 517. This is an example. Note that when a low-definition wide-angle video is the first image, a high-definition narrow-angle video or an ultra-high-definition narrow-angle still image is the second image. Alternatively, when the high-definition narrow-angle video is the first image, the ultra-high-definition narrow-angle still image is the second image.
図37は、動画の拡大と動画に重畳された高精細な静止画の表示例に関する他の表示例(表示パターン2)である。詳細には、図37(a)、(b)及び(d)は図36(a)、(b)及び(d)と同様である。図37(c)は高精細な狭角動画と超高精細な狭角静止画とが重畳された状態の一例である。 FIG. 37 is another display example (display pattern 2) regarding the enlargement of a moving image and the display example of a high-definition still image superimposed on the moving image. In detail, FIGS. 37(a), (b), and (d) are similar to FIGS. 36(a), (b), and (d). FIG. 37(c) is an example of a state in which a high-definition narrow-angle video and an ultra-high-definition narrow-angle still image are superimposed.
図38は、動画の拡大と動画に重畳された高精細な静止画の表示例に関する他の表示例(表示パターン3)である。詳細には、図38(a)、(b)及び(d)は図37(a)、(b)及び(d)と同様である。図38(c)は低精細な広角動画と高精細な狭角動画とが重畳され、さらに高精細な狭角動画と超高精細な狭角静止画とが重畳された状態の一例である。 FIG. 38 is another display example (display pattern 3) regarding the enlargement of a moving image and the display example of a high-definition still image superimposed on the moving image. In detail, FIGS. 38(a), (b) and (d) are similar to FIGS. 37(a), (b) and (d). FIG. 38(c) is an example of a state in which a low-definition wide-angle video and a high-definition narrow-angle video are superimposed, and a high-definition narrow-angle video and an ultra-high-definition narrow-angle still image are further superimposed.
図39は、動画の拡大と動画に重畳された高精細な静止画の表示例に関する他の表示例(表示パターン4)である。詳細には、図39(a)及び(b)は図38(a)及び(b)と同様である。図39(c)は高精細な狭角動画がディスプレイ517の表示領域の全体に表示された状態の一例であり、図39(d)は図39(b)の状態で高精細な狭角動画を拡大したとき、図39(c)のように高精細な狭角動画がディスプレイ517の表示領域の全体に表示された後、高精細な狭角動画と超高精細な狭角静止画とが重畳された状態の一例である。 FIG. 39 is another display example (display pattern 4) regarding the enlargement of a moving image and the display example of a high-definition still image superimposed on the moving image. In detail, FIGS. 39(a) and (b) are similar to FIGS. 38(a) and (b). 39(c) is an example of a state in which a high-definition narrow-angle video is displayed in the entire display area of the display 517, and FIG. 39(d) is an example of a state in which a high-definition narrow-angle video is displayed in the state of FIG. 39(b). When enlarged, the high-definition narrow-angle video is displayed in the entire display area of the display 517 as shown in FIG. 39(c), and then the high-definition narrow-angle video and the ultra-high-definition narrow-angle still image are This is an example of a superimposed state.
図40は、動画の拡大と動画に重畳された高精細な静止画の表示例に関する他の表示例(表示パターン5)である。詳細には、図40(a)、(b)及び(c)は図39(a)、(b)及び(c)と同様である。図40(d)は図40(b)の状態で高精細な狭角動画を拡大したとき、ディスプレイ517の表示領域の全体に表示された後、超高精細な狭角静止画が高精細な狭角動画に置き換わってディスプレイ517の表示領域の全体に表示された状態の一例である。 FIG. 40 is another display example (display pattern 5) regarding the enlargement of a moving image and the display example of a high-definition still image superimposed on the moving image. In detail, FIGS. 40(a), (b), and (c) are similar to FIGS. 39(a), (b), and (c). FIG. 40(d) shows that when a high-definition narrow-angle video is enlarged in the state of FIG. This is an example of a state where the video is displayed in the entire display area of the display 517 in place of the narrow-angle video.
重畳画像判断部61は、上述したような制御をすることで、例えば、閲覧者がスマートフォン5を利用する場合に、広角動画及び狭角動画の再生とそれらの動画に重畳される狭角静止画の生成及び再生に関して、閲覧者が望まないようなデータ通信量(高額な利用料)がかかることを抑制することも可能となる。 By performing the above-mentioned control, the superimposed image determination unit 61 controls the playback of wide-angle videos and narrow-angle videos and the narrow-angle still images superimposed on those videos, for example, when the viewer uses the smartphone 5. It is also possible to suppress the amount of data communication (expensive usage fees) that the viewer does not want in connection with the generation and reproduction of .
〔実施形態の主な効果〕
以上説明したように本実施形態によれば、全体画像等の広角動画及び部分画像等の狭角動画のデータ通信量を抑制しながらも、部分画像の精細度をできるだけ下げないようにして閲覧者がよりはっきりと注目する領域を閲覧することができるようになるという効果を奏する。
[Main effects of the embodiment]
As explained above, according to the present embodiment, while suppressing the amount of data communication for wide-angle videos such as whole images and narrow-angle videos such as partial images, the resolution of partial images is not lowered as much as possible, so that viewers can This has the effect that the area of interest can be viewed more clearly.
さらに、本実施形態によれば、通信量を減らすべく、全天球撮影装置1が、全天球画像の全体を縮小した低精細な全体画像と、全天球画像(全体画像)内の注目する領域である高精細な部分画像のデータとを配信し、受信側のスマートフォン5で全体画像に部分画像を重畳(合成)するだけでなく、低精細な全体画像と高精細な部分画像が異なる射影方式であっても、スマートフォン5で合成して表示可能であるため、射影方式に関する汎用性が高いという効果を奏する。 Furthermore, according to the present embodiment, in order to reduce the amount of communication, the omnidirectional imaging device 1 captures a low-definition overall image obtained by reducing the entire omnidirectional image, and an image of interest in the omnidirectional image (overall image). The receiving smartphone 5 not only superimposes (synthesizes) the partial image on the whole image, but also makes the low-definition whole image and the high-definition partial image different. Even if the projection method is used, it can be combined and displayed on the smartphone 5, so the projection method has a high degree of versatility.
〔補足〕
上述した実施形態では、全天球撮影装置1の判断部25は、全体動画の一部の領域である部分画像の一フレームの全領域が、閾値管理部1001で管理されている水平垂直画角閾値情報(図16参照)の所定の閾値で示される所定領域よりも小さいか否かを判断する。そして、小さい場合に、判断部25は、射影方式変換部18に超高精細な静止画のデータを射影方式変換させないようにし、大きい場合に、判断部25は、射影方式変換部18に超高精細な静止画のデータを射影方式変換させるようにしたが、これに限るものではない。例えば、小さい場合に、送受信部11が静止画記憶部29に記憶されている射影方式変換後の部分静止画のデータをスマートフォン5側に送信させない処理を行い、大きい場合に、送受信部11が静止画記憶部29に記憶されている射影方式変換後の部分静止画のデータをスマートフォン5側に送信させる処理を行うようにしてもよい。この場合、判断部25が送受信部11に送信させるか否かを指示してもよいし、判断部25が静止画記憶部29に対して、全天球撮影装置1の記憶部に記憶されている射影方式変換後の部分静止画のデータを、送受信部11側に送信させるか否かを指示してもよい。
〔supplement〕
In the embodiment described above, the determining unit 25 of the omnidirectional photographing device 1 determines that the entire area of one frame of a partial image, which is a partial area of the entire video, has a horizontal and vertical angle of view managed by the threshold management unit 1001. It is determined whether the area is smaller than a predetermined area indicated by a predetermined threshold value of threshold information (see FIG. 16). If the value is small, the determining unit 25 prevents the projection method converting unit 18 from converting the data of the ultra-high definition still image into the projection method; Although detailed still image data is converted into a projection format, the present invention is not limited to this. For example, if the size is small, the transmitting/receiving unit 11 performs processing to prevent data of the partial still image after projection method conversion stored in the still image storage unit 29 from being transmitted to the smartphone 5 side, and if the size is large, the transmitting/receiving unit 11 stops A process may be performed in which the data of the partial still image after projection method conversion stored in the image storage unit 29 is transmitted to the smartphone 5 side. In this case, the determining unit 25 may instruct the transmitting/receiving unit 11 whether to transmit or not, or the determining unit 25 may instruct the still image storage unit 29 to determine whether the still image is to be stored in the storage unit of the omnidirectional photographing device 1. It may also be possible to instruct the transmitter/receiver 11 side whether or not to transmit the data of the partial still image after projection method conversion.
また、全天球撮影装置1は撮影装置の一例であり、撮影装置には、通常の平面画像を得るデジタルカメラやスマートフォン等も含まれる。通常の平面画像を得るデジタルカメラやスマートフォンの場合、全天球画像を得るのではなく、比較的広角な画像(広角画像)を得ることができる。 Further, the omnidirectional photographing device 1 is an example of a photographing device, and photographing devices include digital cameras, smartphones, and the like that obtain ordinary planar images. In the case of a digital camera or smartphone that obtains a normal planar image, it is possible to obtain a relatively wide-angle image (wide-angle image) rather than a spherical image.
また、スマートフォン5は、通信端末又は画像処理装置の一例であり、通信端末又は画像処理装置には、タブレット型PC(Personal Computer:パーソナルコンピュータ)、ノートPC、デスクトップPC等のPCも含まれる。さらに、通信端末又は画像処理装置には、スマートウォッチ、ゲーム機器又は車両等に搭載するカーナビゲーション端末等も含まれる。 Furthermore, the smartphone 5 is an example of a communication terminal or an image processing device, and the communication terminal or image processing device includes PCs such as a tablet PC (Personal Computer), a notebook PC, and a desktop PC. Furthermore, the communication terminal or image processing device includes a smart watch, a game device, a car navigation terminal installed in a vehicle, and the like.
上記実施形態では、低精細画像として、全天球撮影装置1の撮像部14a,14bから得られた画像データの画像の全体領域である全体動画と、高精細画像として、全体領域の一部の領域である部分動画について説明したが、これに限るものではない。低精細画像は、撮像部14a,14bから得られた動画データの画像の全体領域の一部の領域A1の画像であってもよい。この場合、高精細画像は、一部の領域A1の更に一部の領域A2の画像となる。即ち、低精細な全体動画と高精細な部分動画との関係は、前者が全体動画としての広角動画であるのに対して後者が部分動画としての狭角動画である。なお、部分静止画についても、部分動画と同様の考えで、狭角静止画ということができる。なお、本実施形態において、広角画像(静止画、動画のいずれも含む)は、いわゆる広角レンズや魚眼レンズを備える撮影装置で撮影された画像の歪みが発生するような画像である。また、狭角画像(静止画、動画のいずれも含む)は、広角レンズや魚眼レンズを備える撮影装置で撮影された画像の一部で、画角が広角画像よりも狭い画角の画像である。 In the above embodiment, the low-definition image is the entire video, which is the entire region of the image data obtained from the imaging units 14a and 14b of the omnidirectional imaging device 1, and the high-definition image is the entire video, which is the entire region of the image data obtained from the imaging units 14a and 14b of the omnidirectional imaging device 1. Although the description has been made regarding a partial video that is a region, the present invention is not limited to this. The low-definition image may be an image of a part of the area A1 of the entire area of the image of the moving image data obtained from the imaging units 14a and 14b. In this case, the high-definition image is an image of a further part of the area A2 of the part of the area A1. That is, the relationship between a low-definition whole video and a high-definition partial video is that the former is a wide-angle video as a whole video, while the latter is a narrow-angle video as a partial video. Note that partial still images can also be called narrow-angle still images in the same way as partial moving images. Note that in this embodiment, the wide-angle image (including both still images and moving images) is an image that is photographed with a photographing device equipped with a so-called wide-angle lens or a fisheye lens, and in which distortion occurs. Further, a narrow-angle image (including both a still image and a moving image) is a part of an image photographed by a photographing device equipped with a wide-angle lens or a fisheye lens, and is an image whose angle of view is narrower than that of a wide-angle image.
上記実施形態では、全天球画像に平面画像を重畳する場合について説明したが、重畳は、合成の一例である。合成には、重畳の他に、貼り付け、嵌め込み、重ね合わせ等も含まれる。また、画像の合成には、第1の画像に第2の画像を合成する場合と、第2の画像に第1の画像を合成する場合が含まれる。つまり、画像の合成は、第1の画像と第2の画像とが合成されることを含む。また、上記重畳画像は、合成画像の一例である。合成画像には、重畳画像の他に、貼り付け画像、嵌め込み画像、重ね合わせ画像等も含まれる。更に、画像重畳部56は、画像合成手段の一例である。 In the above embodiment, a case has been described in which a planar image is superimposed on a spherical image, but superimposition is an example of composition. In addition to superimposition, composition also includes pasting, fitting, overlapping, and the like. Further, the combination of images includes a case where a second image is combined with a first image, and a case where a first image is combined with a second image. That is, combining images includes combining a first image and a second image. Furthermore, the superimposed image is an example of a composite image. In addition to the superimposed image, the composite image includes a pasted image, an embedded image, a superimposed image, and the like. Further, the image superimposing section 56 is an example of image compositing means.
また、正距円筒射影画像ECと平面画像Pは、両方とも静止画の場合、両方とも動画のフレームの場合、一方が静止画で他方が動画のフレームの場合のいずれであってもよい。 Furthermore, the equirectangular projection image EC and the plane image P may both be still images, both may be moving image frames, or one may be a still image and the other may be a moving image frame.
更に、上記実施形態では、射影方式変換部18は、一時記憶部16から取得した高精細の画像データをそのままの精細度で射影方式を変換しているが、これに限るものではない。例えば、低精細変更部17aから出力される全体画像データよりも高い精細度であれば、射影方式変換部18は、射影方式を変換する際に一時記憶部16から取得した画像データの精細度を低くしてもよい。つまり、射影方式変換部18から出力される画像データは、低精細変更部17aから出力される画像データよりも相対的に精細度が高くなるように制御されれば、その方法は問わない。 Furthermore, in the embodiment described above, the projection method converting unit 18 converts the projection method of the high-definition image data acquired from the temporary storage unit 16 with the same definition, but the present invention is not limited to this. For example, if the definition is higher than the overall image data output from the low-definition changing unit 17a, the projection method converting unit 18 changes the definition of the image data acquired from the temporary storage unit 16 when converting the projection method. It may be lower. In other words, any method may be used as long as the image data output from the projection method converting section 18 is controlled to have a relatively higher definition than the image data output from the low definition changing section 17a.
図13乃至図15に示されている各機能構成は、ソフトウェア機能ユニットの形で実現し、且つ、独立製品として販売または使用する場合に、コンピュータ読取り可能な記憶媒体に記憶することができる。この場合に、本実施形態の技術方案は、本質的、または従来技術に貢献する部分若しくは上記技術方案の部分はコンピュータソフトウェア製品の形で表現される。上記コンピュータソフトウェア製品は、記憶媒体に記憶され、コンピュータ装置(パーソナルコンピュータ、サーバ、或はネットワークデバイスなど)に上記各実施形態にかかる上記方法の全部或は一部のステップを実行させる複数の指令を含む。なお、上述の記憶媒体は、USBメモリ、リムーバブルディスク、ROM、RAM、磁気ディスク、あるいは光ディスクなど、プログラムコードを格納できる様々な媒体を含む。 Each of the functional configurations shown in FIGS. 13-15 can be implemented in the form of a software functional unit and stored on a computer-readable storage medium when sold or used as an independent product. In this case, the essential part of the technical solution of the present embodiment, or the part that contributes to the prior art, or the part of the technical solution described above is expressed in the form of a computer software product. The above-mentioned computer software product is stored in a storage medium and provides a plurality of instructions that cause a computer device (such as a personal computer, a server, or a network device) to perform all or some of the steps of the above-mentioned method according to each of the above embodiments. include. Note that the above-mentioned storage medium includes various media capable of storing program codes, such as a USB memory, a removable disk, a ROM, a RAM, a magnetic disk, or an optical disk.
また、上記実施形態にかかる方法は、プロセッサに適用され、またはプロセッサによって実現される。プロセッサは信号を処理する能力を持つ集積回路基板である。上記各実形態の方法の各ステップはプロセッサにおけるハードウェアである集積論理回路又はソフトウェア形式の指令によって実現される。上記プロセッサは、例えば、汎用プロセッサ、デジタル信号プロセッサ(DSP)、専用集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタ論理デバイス、ディスクリートハードウェア部品であり、上記各実施形態に開示される各方法、ステップ及び論理ボックスを実現又は実行可能なものである。汎用処理器はマイクロプロセッサ又は任意の一般処理器などである。上記各実施形態にかかる方法の各ステップは、ハードウェアであるデコーダにより実行されることで実現されてもよく、または、デコーダにおけるハードウェアとソフトウェアとの組み合わせによって実現されてもよい。ソフトウェアモジュールはランダムメモリ、フラッシュメモリ、読出し専用メモリ、プログラマブル読出し専用メモリ、あるいは電気的消去可能なプログラマブルメモリ、レジスタなど、本分野で成熟した記憶媒体に記憶される。このソフトウェアが記憶される記憶媒体を備えるメモリから、プロセッサは情報を読み取り、ハードウェアに合わせて上記方法のステップを実現させる。 Furthermore, the method according to the embodiment described above is applied to or realized by a processor. A processor is an integrated circuit board capable of processing signals. Each step of the method of each of the embodiments described above is implemented by an integrated logic circuit, which is hardware in a processor, or by instructions in the form of software. The processor may be, for example, a general purpose processor, a digital signal processor (DSP), a special purpose integrated circuit (ASIC), a field programmable gate array (FPGA) or other programmable logic device, a discrete gate or transistor logic device, a discrete hardware component. , each method, step, and logic box disclosed in each of the above embodiments can be realized or executed. A general purpose processor may be a microprocessor or any general purpose processor. Each step of the method according to each of the above embodiments may be realized by being executed by a decoder that is hardware, or may be realized by a combination of hardware and software in the decoder. The software modules are stored in art-advanced storage media, such as random memory, flash memory, read-only memory, programmable read-only memory, or electrically erasable programmable memory, registers, and the like. From the memory comprising the storage medium on which this software is stored, the processor reads information and adapts it to the hardware to implement the steps of the method.
以上に説明した実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、またはそれらの組み合わせで実現される。その中に、ハードウェアの実現に関して、処理ユニットは一つまたは複数の専用集積回路(ASIC)、デジタル信号処理プロセッサ(DSP)、デジタル信号プロセッサ(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、汎用プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、本発明の機能を実行する他の電子ユニット或いはその組合せにより実現される。また、ソフトウェアの実現に関しては、上述した機能を実現するモジュール(たとえばプロセス、関数など)により上記技術が実現される。ソフトウェアコードは、メモリに保存され、プロセッサによって実行される。なお、メモリはプロセッサの内部または外部で実現される。 The embodiments described above may be implemented in hardware, software, firmware, middleware, microcode, or a combination thereof. In terms of hardware implementation, the processing unit may include one or more special purpose integrated circuits (ASICs), digital signal processors (DSPs), digital signal processors (DSPDs), programmable logic devices (PLDs), field programmable gates. The present invention may be implemented by an array (FPGA), general purpose processor, controller, microcontroller, microprocessor, other electronic unit or combination thereof that performs the functions of the invention. Regarding software implementation, the above technology is realized by modules (eg, processes, functions, etc.) that implement the functions described above. Software code is stored in memory and executed by a processor. Note that the memory is implemented inside or outside the processor.
1 全天球撮影装置(撮影装置の一例)
5 スマートフォン(通信端末の一例、画像処理装置の一例)
7 画像管理システム(画像管理装置の一例)
13 撮像制御部(タイミング管理手段の一例)
14a 撮像部
14b 撮像部
15 画像処理部
16 一時記憶部
17 低精細変更部(変更手段の一例)
18 射影方式変換部(射影方式変換手段の一例)
19 結合部(結合手段の一例)
20a 動画符号化部
20b 静止画符号化部
51 送受信部(受信手段の一例)
52 受付部(受付手段の一例)
53a 動画復号化部
53b 静止画号化部
54 重畳領域作成部
55 画像作成部
56 画像重畳部(画像合成手段の一例)
57 射影変換部(射影変換手段の一例)
58 表示制御部(表示制御手段の一例)
59 再生時間管理部
60 再生用フレーム抽出部
61 重畳画像判断部 (重畳画像判断手段の一例)
63 重畳表示制御部(重畳表示制御手段の一例)
551 全体動画選択ボタン(選択手段の一例)
552 部分動画選択ボタン(選択手段の一例)
553 部分静止画選択ボタン(選択手段の一例)
1. Omnidirectional photography device (an example of photography device)
5 Smartphone (an example of a communication terminal, an example of an image processing device)
7 Image management system (an example of image management device)
13 Imaging control unit (an example of timing management means)
14a Imaging unit 14b Imaging unit 15 Image processing unit 16 Temporary storage unit 17 Low definition changing unit (an example of changing means)
18 Projection method conversion unit (an example of projection method conversion means)
19 Coupling part (an example of coupling means)
20a Video encoding section 20b Still image encoding section 51 Transmitting/receiving section (an example of receiving means)
52 Reception Department (an example of reception means)
53a Video decoding section 53b Still image encoding section 54 Superimposition area creation section 55 Image creation section 56 Image superimposition section (an example of image synthesis means)
57 Projective transformation unit (an example of projective transformation means)
58 Display control unit (an example of display control means)
59 Playback time management section 60 Playback frame extraction section 61 Superimposed image judgment section (an example of superimposed image judgment means)
63 Superimposed display control unit (an example of superimposed display control means)
551 Overall video selection button (an example of selection method)
552 Partial video selection button (an example of selection means)
553 Partial still image selection button (an example of selection means)
Claims (14)
前記所定の精細度の動画データ、狭角動画のデータである狭角動画データ、及び前記動画データの精細度より高精細である静止画データを受信する受信手段と、
前記動画データに係る動画の全て又は一部である広角動画を表示手段に表示する表示制御手段と、
前記表示手段に表示されている前記広角動画を拡大する操作を受け付ける受付手段と、
を有し、
前記受付手段が所定の拡大を受け付けた場合に、前記表示制御手段は、
前記広角動画と、
前記静止画データに係る静止画であり前記広角動画より狭角である狭角静止画と、
前記広角動画よりも狭角で高精細であって且つ前記狭角静止画よりも広角で低精細である狭角動画のデータである前記狭角動画データと、
に基づき、
前記受付手段が前記所定の拡大としての第1の所定の拡大を受け付けた場合に、前記広角動画と前記狭角動画とが合成された状態で前記表示手段に表示し、さらに、前記受付手段が前記第1の所定の拡大よりも拡大された第2の所定の拡大を受け付けた場合に、前記広角動画と前記狭角静止画とが合成された状態で前記表示手段に表示することを特徴とする通信端末。 A communication terminal that receives video data transmitted by a photographing device that obtains video data of a predetermined definition by photographing a subject, and displays the video,
Receiving means for receiving video data of the predetermined definition , narrow-angle video data that is narrow-angle video data, and still image data that is higher in definition than the video data;
Display control means for displaying a wide-angle video that is all or a part of the video related to the video data on a display means;
reception means for accepting an operation to enlarge the wide-angle video displayed on the display means;
has
When the accepting means accepts a predetermined enlargement, the display controlling means:
The wide-angle video;
a narrow-angle still image that is a still image related to the still image data and has a narrower angle than the wide-angle video;
The narrow-angle video data is data of a narrow-angle video that has a narrower angle and higher definition than the wide-angle video and has a wider angle and lower definition than the narrow-angle still image;
Based on
When the receiving means receives the first predetermined enlargement as the predetermined enlargement, the wide-angle video and the narrow-angle video are displayed in a composite state on the display means; When a second predetermined enlargement that is larger than the first predetermined enlargement is received, the wide-angle video and the narrow- angle still image are displayed in a combined state on the display means. communication terminal.
前記重畳画像判断手段によって合成すると判断された場合に、前記画像合成手段は、前記広角動画に前記狭角静止画を合成することを特徴とする請求項4又は5に記載の通信端末。 comprising a superimposed image determining means for determining whether to synthesize a combination of at least two of the wide-angle video, the narrow-angle video, and the narrow-angle still image according to a maximum display resolution that can be displayed by the display means;
6. The communication terminal according to claim 4 , wherein when the superimposed image determining means determines that the images should be combined, the image combining means combines the narrow-angle still image with the wide-angle moving image.
前記重畳画像判断手段によって合成すると判断された場合に、前記画像合成手段は、前記狭角動画に前記狭角静止画を合成することを特徴とする請求項7又は8に記載の通信端末。 comprising a superimposed image determining means for determining whether to synthesize a combination of at least two of the wide-angle video, the narrow-angle video, and the narrow-angle still image according to a maximum display resolution that can be displayed by the display means;
9. The communication terminal according to claim 7 , wherein when the superimposed image determining means determines that the superimposed image should be combined, the image combining means combines the narrow-angle still image with the narrow-angle moving image.
前記撮影装置によって得られた前記動画データを受信して管理する画像管理装置と、
前記画像管理装置から送信された前記動画データを受信して動画を表示する通信端末と、がネットワークを介して接続された撮影システムであって、
前記通信端末は、
前記所定の精細度の動画データ、狭角動画のデータである狭角動画データ、及び前記動画データの精細度より高精細である静止画データを受信する受信手段と、
前記動画データに係る動画の全て又は一部である広角動画を表示手段に表示させる表示制御手段と、
前記表示手段に表示されている前記広角動画を拡大する操作を受け付ける受付手段と、
を有し、
前記受付手段が所定の拡大を受け付けた場合に、前記表示制御手段は、
前記広角動画と、
前記静止画データに係る静止画であり前記広角動画より狭角である狭角静止画と、
前記広角動画よりも狭角で高精細であって且つ前記狭角静止画よりも広角で低精細である狭角動画のデータである前記狭角動画データと、
に基づき、
前記受付手段が前記所定の拡大としての第1の所定の拡大を受け付けた場合に、前記広角動画と前記狭角動画とが合成された状態で前記表示手段に表示し、さらに、前記受付手段が前記第1の所定の拡大よりも拡大された第2の所定の拡大を受け付けた場合に、前記広角動画と前記狭角静止画とが合成された状態で前記表示手段に表示することを特徴とする撮影システム。 a photographing device that obtains video data of a predetermined definition by photographing a subject;
an image management device that receives and manages the video data obtained by the photographing device;
A photographing system in which a communication terminal that receives the video data transmitted from the image management device and displays the video is connected via a network,
The communication terminal is
Receiving means for receiving video data of the predetermined definition , narrow-angle video data that is narrow-angle video data, and still image data that is higher in definition than the video data;
Display control means for displaying a wide-angle video that is all or a part of the video related to the video data on a display means;
reception means for accepting an operation to enlarge the wide-angle video displayed on the display means;
has
When the accepting means accepts a predetermined enlargement, the display controlling means:
The wide-angle video;
a narrow-angle still image that is a still image related to the still image data and has a narrower angle than the wide-angle video;
The narrow-angle video data is data of a narrow-angle video that has a narrower angle and higher definition than the wide-angle video and has a wider angle and lower definition than the narrow-angle still image;
Based on
When the receiving means receives the first predetermined enlargement as the predetermined enlargement, the wide-angle video and the narrow-angle video are displayed in a composite state on the display means; When a second predetermined enlargement that is larger than the first predetermined enlargement is received, the wide-angle video and the narrow- angle still image are displayed in a combined state on the display means. A shooting system that
前記所定の精細度の動画データ、狭角動画のデータである狭角動画データ、及び前記動画データの精細度より高精細である静止画データを受信する受信ステップと、
前記動画データに係る動画の全て又は一部である広角動画を表示手段に表示させる表示制御ステップと、
前記表示手段に表示されている前記広角動画を拡大する操作を受け付ける受付ステップと、
を有し、
前記受付ステップで所定の拡大を受け付けた場合に、前記表示制御ステップは、
前記広角動画と、
前記静止画データに係る静止画であり前記広角動画より狭角である狭角静止画と、
前記広角動画よりも狭角で高精細であって且つ前記狭角静止画よりも広角で低精細である狭角動画のデータである前記狭角動画データと、
に基づき、
前記受付ステップで前記所定の拡大としての第1の所定の拡大を受け付けた場合に、前記広角動画と前記狭角動画とが合成された状態で前記表示手段に表示し、さらに、前記受付ステップで前記第1の所定の拡大よりも拡大された第2の所定の拡大を受け付けた場合に、前記広角動画と前記狭角静止画とが合成された状態で前記表示手段に表示するステップを含む処理を実行することを特徴とする画像処理方法。 An image processing method executed by a communication terminal that receives video data transmitted by a photographing device that obtains video data of a predetermined definition by photographing a subject and displays the video, the method comprising:
a receiving step of receiving video data of the predetermined definition , narrow-angle video data that is narrow-angle video data, and still image data that is higher in definition than the video data;
a display control step of displaying a wide-angle video that is all or part of the video related to the video data on a display means;
a reception step of accepting an operation to enlarge the wide-angle video displayed on the display means;
has
When the predetermined enlargement is accepted in the accepting step, the display controlling step includes:
The wide-angle video;
a narrow-angle still image that is a still image related to the still image data and has a narrower angle than the wide-angle video;
The narrow-angle video data is data of a narrow-angle video that has a narrower angle and higher definition than the wide-angle video and has a wider angle and lower definition than the narrow-angle still image;
Based on
If the first predetermined enlargement is accepted as the predetermined enlargement in the accepting step, displaying the wide-angle video and the narrow-angle video in a combined state on the display means; If a second predetermined enlargement that is larger than the first predetermined enlargement is received, the method further includes displaying the wide-angle video and the narrow- angle still image in a combined state on the display means. An image processing method characterized by performing processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019215657A JP7400407B2 (en) | 2019-11-28 | 2019-11-28 | Communication terminal, photographing system, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019215657A JP7400407B2 (en) | 2019-11-28 | 2019-11-28 | Communication terminal, photographing system, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021087136A JP2021087136A (en) | 2021-06-03 |
JP7400407B2 true JP7400407B2 (en) | 2023-12-19 |
Family
ID=76085912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019215657A Active JP7400407B2 (en) | 2019-11-28 | 2019-11-28 | Communication terminal, photographing system, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7400407B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018110375A (en) | 2016-12-28 | 2018-07-12 | 株式会社リコー | Display device, program, and display method |
WO2018139073A1 (en) | 2017-01-24 | 2018-08-02 | シャープ株式会社 | Display control device, second display device, method for controlling display control device, and control program |
JP2019164783A (en) | 2018-03-15 | 2019-09-26 | 株式会社リコー | Image processing apparatus, image capturing system, image processing method, and program |
-
2019
- 2019-11-28 JP JP2019215657A patent/JP7400407B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018110375A (en) | 2016-12-28 | 2018-07-12 | 株式会社リコー | Display device, program, and display method |
WO2018139073A1 (en) | 2017-01-24 | 2018-08-02 | シャープ株式会社 | Display control device, second display device, method for controlling display control device, and control program |
JP2019164783A (en) | 2018-03-15 | 2019-09-26 | 株式会社リコー | Image processing apparatus, image capturing system, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021087136A (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111726520B (en) | Imaging device, imaging system, and image processing method | |
JP6756269B2 (en) | Communication terminals, image communication systems, communication methods, and programs | |
JP6805861B2 (en) | Image processing equipment, image processing system, image processing method and program | |
JP2022031324A (en) | Communication management system, communication system, communication management method and program | |
US10437545B2 (en) | Apparatus, system, and method for controlling display, and recording medium | |
JP2019047167A (en) | Imaging apparatus, image display system, operation method, program | |
JP7192592B2 (en) | Imaging device, image communication system, image processing method, program | |
JP2019054322A (en) | Communication terminal, image communication system, communication method, and program | |
JP2018110375A (en) | Display device, program, and display method | |
JP6816465B2 (en) | Image display systems, communication systems, image display methods, and programs | |
US11250540B2 (en) | Image processing apparatus, image capturing system, image processing method, and recording medium | |
US11102448B2 (en) | Image capturing apparatus, image processing system, image processing method, and recording medium | |
JP7424031B2 (en) | Communication terminal, photographing system, image processing method and program | |
JP7415544B2 (en) | Photography system and method | |
JP7400407B2 (en) | Communication terminal, photographing system, image processing method and program | |
US11533430B2 (en) | Image capturing device with display control, image communication system, and method for display control, and recording medium | |
JP2018061243A (en) | Communication terminal, display method, and program | |
JP7484237B2 (en) | Photographing device, photographing system, image processing method, and program | |
JP7205323B2 (en) | Communication terminal, image communication system, display method, and program | |
JP7354733B2 (en) | Communication terminal, image communication system, display method, and program | |
JP6992338B2 (en) | Communication system, communication management method, program, system and communication method | |
JP6233451B2 (en) | Image sharing system, communication method and program | |
JP2024137689A (en) | Display terminal, communication system, display method, and program | |
JP2019180078A (en) | Communication terminal, image communication system, display method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7400407 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |