JP2020162118A - Photographing device, photographing system, image processing method, and program - Google Patents

Photographing device, photographing system, image processing method, and program Download PDF

Info

Publication number
JP2020162118A
JP2020162118A JP2020039043A JP2020039043A JP2020162118A JP 2020162118 A JP2020162118 A JP 2020162118A JP 2020039043 A JP2020039043 A JP 2020039043A JP 2020039043 A JP2020039043 A JP 2020039043A JP 2020162118 A JP2020162118 A JP 2020162118A
Authority
JP
Japan
Prior art keywords
image
definition
moving image
angle
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020039043A
Other languages
Japanese (ja)
Inventor
敬倫 加藤
Takamichi Kato
敬倫 加藤
加藤 喜永
Yoshinaga Kato
喜永 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to CN202010171270.4A priority Critical patent/CN111726520B/en
Priority to US16/820,760 priority patent/US10939068B2/en
Priority to EP20164281.6A priority patent/EP3712839A1/en
Publication of JP2020162118A publication Critical patent/JP2020162118A/en
Priority to US17/120,829 priority patent/US11310459B2/en
Pending legal-status Critical Current

Links

Abstract

To make it possible, in a technology to display a high-definition partial image superimposed on a low-definition entire image, to reduce the amount of data communication of a wide-angle moving image of the entire image and a narrow-angle moving image of the partial image, and allow a browser to more clearly browse an area of attention while not reducing the definition of the partial image as much as possible.SOLUTION: A full spherical photographing device 1 photographing a subject to obtain moving image data with a predetermined definition changes the definition of a wide-angle moving image that is all or part of a moving image related to the moving image data with the predetermined definition to a low definition (S140), converts the projection system of a narrow-angle moving image that is a partial area of the wide-angle moving image with a higher definition than that of the wide-angle moving image after the change (S150), reduces the definition of a frame of the low-definition wide-angle moving image and a frame of the high-definition narrow-angle moving image and couples the frames into one frame (S160), and converts the projection system of a narrow-angle still image that is the partial area of a wide-angle still image as a frame of the wide-angle moving image before the change to low definition (S210).SELECTED DRAWING: Figure 18

Description

本発明は、撮影装置、撮影システム、画像処理方法、及びプログラムに関するものである。 The present invention relates to a photographing device, a photographing system, an image processing method, and a program.

回転台を用いたパン・チルト及びズームレンズで構成されるカメラシステムの代わりに魚眼レンズなどを使用して被写体を撮影して得られた広角画像のデータを配信し、その画像を受信側のビューアーで部分画像を生成して表示する電子的にパン・チルト・ズームする技術が既に知られている。 Instead of a camera system consisting of a pan / tilt and zoom lens using a turntable, a fisheye lens is used to shoot the subject and the obtained wide-angle image data is distributed, and the image is displayed on the viewer on the receiving side. An electronic pan / tilt / zoom technique for generating and displaying a partial image is already known.

ところが、被写体を撮影して得た広角画像のデータを配信する技術では、注目されていない領域の画像のデータも配信するため、データ通信量が多くなる問題がある。 However, the technique of distributing the wide-angle image data obtained by photographing the subject also distributes the image data of the area not attracting attention, so that there is a problem that the amount of data communication increases.

これに対して、通信量を減らすべく、撮影装置が、広角画像の全体を縮小した低精細な全体画像と、広角画像内の注目する領域である高精細な部分画像のデータとを配信し、受信側で全体画像に部分画像を嵌め込む技術が開示されている(特許文献1参照)。 On the other hand, in order to reduce the amount of communication, the photographing device delivers a low-definition whole image obtained by reducing the entire wide-angle image and data of a high-definition partial image which is a region of interest in the wide-angle image. A technique for fitting a partial image into an entire image on the receiving side is disclosed (see Patent Document 1).

しかしながら、全体画像及び部分画像が動画の場合、全体画像を低精細にしても、データ通信量を減らすことは難しい。一方で、閲覧者は常に動画を入念に閲覧するわけではなく、注目した動画が再生された時に、部分画像だけでも入念に閲覧することができればよいというニーズがある。 However, when the whole image and the partial image are moving images, it is difficult to reduce the amount of data communication even if the whole image has low definition. On the other hand, the viewer does not always browse the video carefully, and there is a need that the viewer should be able to carefully browse only the partial image when the video of interest is played.

本発明は、上述した事情に鑑みてなされたもので、全体画像等の広角動画及び部分画像等の狭角動画のデータ通信量を抑制しながらも、部分画像の精細度をできるだけ下げないようにして閲覧者がよりはっきりと注目する領域を閲覧することができるようにすることを目的とする。 The present invention has been made in view of the above circumstances, and while suppressing the amount of data communication of a wide-angle moving image such as a whole image and a narrow-angle moving image such as a partial image, the definition of the partial image is not lowered as much as possible. The purpose is to enable the viewer to browse the area of interest more clearly.

請求項1に係る発明は、被写体を撮影して所定の精細度の動画データを得る撮影装置であって、前記所定の精細度の動画データに係る動画の全て又は一部である広角動画を低精細に変更す変更手段と、前記広角動画の一部の領域である狭角動画を前記変更手段によって低精細に変更後の広角動画よりも高精細な状態で射影方式変換する射影方式変換手段と、前記低精細な広角動画のフレーム及び前記高精細な狭角動画のフレームのそれぞれの精細度を下げて一フレームに結合する結合手段と、を有し、前記射影方式変換手段は、前記変更手段によって低精細に変更前の広角動画のフレームとしての広角静止画の前記一部の領域である狭角静止画を前記射影方式変換することを特徴とする撮影装置である。 The invention according to claim 1 is a photographing device for photographing a subject and obtaining moving image data of a predetermined definition, and lowers a wide-angle moving image which is all or a part of the moving image related to the moving image data of the predetermined definition. A changing means for changing to fine definition, and a projection method converting means for converting a narrow-angle moving image, which is a part of the wide-angle moving image, into a higher-definition state than the wide-angle moving image after being changed to low-definition by the changing means. , The low-definition wide-angle moving image frame and the high-definition narrow-angle moving image frame are each reduced in definition and combined into one frame, and the projection method conversion means is the changing means. The imaging device is characterized in that a narrow-angle still image, which is a part of the wide-angle still image as a frame of a wide-angle moving image before being changed to low definition, is converted by the projection method.

以上説明したように本発明によれば、広角動画及び狭角動画のデータ通信量を抑制しながらも、狭角画像の精細度をできるだけ下げないようにすることで閲覧者がよりはっきりと注目する領域を閲覧することができるという効果を奏する。 As described above, according to the present invention, the viewer pays more clear attention by suppressing the data communication volume of the wide-angle moving image and the narrow-angle moving image while keeping the fineness of the narrow-angle image as low as possible. It has the effect of being able to browse the area.

(a)は全天球撮影装置の左側面図であり、(b)は全天球撮影装置の背面図であり、(c)は全天球撮影装置の平面図であり、(d)は全天球撮影装置の底面図である。(A) is a left side view of the spherical imaging device, (b) is a rear view of the spherical imaging device, (c) is a plan view of the spherical imaging device, and (d) is a plan view of the spherical imaging device. It is a bottom view of the spherical photography apparatus. 全天球撮影装置の使用イメージ図である。It is a use image figure of the spherical photography apparatus. (a)は全天球撮影装置で撮影された半球画像(前)、(b)は全天球撮影装置で撮影された半球画像(後)、(c)は正距円筒図法により表された画像を示した図である。(A) is a hemispherical image (front) taken by the spherical imaging device, (b) is a hemispherical image (rear) taken by the spherical imaging device, and (c) is represented by equirectangular projection. It is a figure which showed the image. (a)は正距円筒射影画像で球を被う状態を示した概念図、(b)は全天球画像を示した図である。(A) is a conceptual diagram showing a state of covering a sphere with an equirectangular cylindrical projection image, and (b) is a diagram showing a spherical image. 全天球画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is a figure which showed the position of the virtual camera and a predetermined area when the whole celestial sphere image is made into a three-dimensional solid sphere. (a)は図5の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されている状態を示す図である。(A) is a three-dimensional perspective view of FIG. 5, and (b) is a diagram showing a state in which an image of a predetermined area is displayed on the display of a communication terminal. 部分画像パラメータの概略を説明する図である。It is a figure explaining the outline of a partial image parameter. 本実施形態の撮影システムの構成の概略図である。It is the schematic of the structure of the imaging system of this embodiment. 全天球撮影装置のハードウェア構成図である。It is a hardware block diagram of the spherical photography apparatus. 仲介端末のハードウェア構成図である。It is a hardware configuration diagram of an intermediary terminal. スマートフォンのハードウェア構成図である。It is a hardware configuration diagram of a smartphone. 画像管理システムのハードウェア構成図である。It is a hardware block diagram of an image management system. 本実施形態の全天球撮影装置の機能ブロック図である。It is a functional block diagram of the spherical imaging apparatus of this embodiment. 本実施形態のスマートフォンの機能ブロック図である。It is a functional block diagram of the smartphone of this embodiment. 画像管理システムの機能ブロック図である。It is a functional block diagram of an image management system. (a)水平垂直画角閾値情報の概念図、(b)水平画角と垂直画角の説明図である。(A) A conceptual diagram of horizontal and vertical angle of view threshold information, and (b) an explanatory diagram of a horizontal angle of view and a vertical angle of view. 全体動画及び部分動画の各データの生成及び再生の処理を示したシーケンス図である。It is a sequence diagram which showed the process of generation and reproduction of each data of whole moving thing and partial moving thing. 全天球撮影装置が行う画像処理の過程における画像の概念図である。It is a conceptual diagram of an image in the process of image processing performed by an omnidirectional imaging apparatus. 部分画像パラメータを説明する図である。It is a figure explaining a partial image parameter. 全体動画と部分動画の各フレーム画像が結合された状態を示す概念図である。It is a conceptual diagram which shows the state which each frame image of a whole moving image and a partial moving image is combined. スマートフォンが行う画像処理の過程における画像の概念図である。It is a conceptual diagram of an image in the process of image processing performed by a smartphone. 部分平面から部分立体球の作成を説明する図である。It is a figure explaining the creation of a partial solid sphere from a partial plane. 本実施形態の部分立体球作成を行わずに、全天球画像に部分画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram in the case where the partial image is superposed on the spherical image without creating the partial three-dimensional sphere of this embodiment. 本実施形態の部分立体球作成を行って、全天球画像に部分画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram in the case where the partial three-dimensional sphere of this embodiment is created and the partial image is superposed on the spherical image. (a)重畳表示しない場合のワイド画像の表示例、(b)重畳表示しない場合のテレ画像の表示例、(c)重畳表示する場合のワイド画像の表示例、(d)重畳表示する場合のテレ画像の表示例を示した概念図である。(A) Wide image display example without superimposition display, (b) Tele image display example without superimposition display, (c) Wide image display example with superimposition display, (d) Superimposition display example It is a conceptual diagram which showed the display example of a teleimage. 部分静止画のデータの生成及び再生の処理を示したシーケンス図である。It is a sequence diagram which showed the process of data generation and reproduction of a partial still image.

以下、図面を用いて、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔実施形態の概要〕
以下、本実施形態の概要について説明する。
[Outline of Embodiment]
The outline of this embodiment will be described below.

図1乃至図6を用いて、全天球画像の生成方法について説明する。 A method of generating a spherical image will be described with reference to FIGS. 1 to 6.

まず、図1を用いて、全天球撮影装置の外観を説明する。全天球撮影装置は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は全天球撮影装置の右側面図であり、図1(b)は全天球撮影装置の正面図であり、図1(c)は全天球撮影装置の平面図であり、図1(d)は全天球撮影装置の底面図である。 First, the appearance of the spherical imaging device will be described with reference to FIG. The spherical image capturing device is a digital camera for obtaining a captured image that is the basis of a spherical (360 °) panoramic image. Note that FIG. 1A is a right side view of the spherical imaging device, FIG. 1B is a front view of the spherical imaging device, and FIG. 1C is a plan view of the spherical imaging device. FIG. 1D is a bottom view of the spherical imaging device.

図1(a),図1(b),図1(c),図1(d)に示されているように、全天球撮影装置の上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている全天球撮影装置の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮影することで、半球画像(画角180°以上)を得ることができる。全天球撮影装置の正面側と反対側の面には、シャッターボタン115aが設けられている。また、全天球撮影装置の側面には、電源ボタン115b、Wi-Fi(Wireless Fidelity)ボタン115c、及び撮影モード切替ボタン115dが設けられている。シャッターボタン115a、電源ボタン115b、及びWi-Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮影モード切替ボタン115dは、押下される度に、静止画の撮影モード、動画の撮影モード及び動画の配信モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi-Fiボタン115c、及び撮影モード切替ボタン115dは、操作部115の一種であり、操作部115は、これらのボタンに限られない。 As shown in FIGS. 1 (a), 1 (b), 1 (c), and 1 (d), the upper part of the spherical imaging device has a fisheye lens on the front side (front side). The image sensor (image sensor) 103a and 103b described later are provided inside the spherical lens 102a and the spherical lens 102b provided on the back side (rear side), respectively. A hemispherical image (angle of view of 180 ° or more) can be obtained by photographing a subject or a landscape through the lenses 102a and 102b. A shutter button 115a is provided on the surface of the spherical imaging device opposite to the front side. Further, a power button 115b, a Wi-Fi (Wireless Fidelity) button 115c, and a shooting mode switching button 115d are provided on the side surface of the spherical imaging device. The shutter button 115a, the power button 115b, and the Wi-Fi button 115c are all switched on and off each time they are pressed. Further, each time the shooting mode switching button 115d is pressed, the shooting mode of a still image, the shooting mode of a moving image, and the distribution mode of a moving image are switched. The shutter button 115a, the power button 115b, the Wi-Fi button 115c, and the shooting mode switching button 115d are a kind of operation unit 115, and the operation unit 115 is not limited to these buttons.

また、全天球撮影装置の底部150の中央には、カメラ用三脚に全天球撮影装置を取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(High-Definition Multimedia Interface)端子が設けられている。なお、HDMIは登録商標である。 Further, in the center of the bottom 150 of the spherical imaging device, a tripod screw hole 151 for attaching the spherical imaging device to the camera tripod is provided. Further, a Micro USB (Universal Serial Bus) terminal 152 is provided on the left end side of the bottom portion 150. An HDMI (High-Definition Multimedia Interface) terminal is provided on the right end side of the bottom 150. HDMI is a registered trademark.

次に、図2を用いて、全天球撮影装置の使用状況を説明する。なお、図2は、全天球撮影装置の使用イメージ図である。全天球撮影装置は、図2に示されているように、例えば、利用者が手に持って利用者の周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれ利用者の周りの被写体が撮像されることで、2つの半球画像を得ることができる。 Next, the usage status of the spherical imaging device will be described with reference to FIG. Note that FIG. 2 is an image diagram of the use of the spherical imaging device. As shown in FIG. 2, the spherical imaging device is used, for example, for a user to hold in his / her hand and photograph a subject around the user. In this case, two hemispherical images can be obtained by taking an image of a subject around the user by the image sensor 103a and the image sensor 103b shown in FIG.

次に、図3及び図4を用いて、全天球撮影装置で撮影された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は全天球撮影装置で撮影された半球画像(前側)、図3(b)は全天球撮影装置で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。 Next, with reference to FIGS. 3 and 4, the outline of the process from the image taken by the spherical imaging device to the creation of the equirectangular projection image EC and the spherical image CE will be described. Note that FIG. 3 (a) is a hemispherical image (front side) taken by the all-sky imaging device, FIG. 3 (b) is a hemispherical image (rear side) taken by the all-sky imaging device, and FIG. 3 (c). Is a diagram showing an image represented by the equirectangular projection (hereinafter, referred to as "equirectangular projection image"). FIG. 4A is a conceptual diagram showing a state of covering a sphere with an equirectangular cylindrical projection image, and FIG. 4B is a diagram showing a spherical image.

図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、全天球撮影装置によって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。 As shown in FIG. 3A, the image obtained by the image sensor 103a is a hemispherical image (front side) curved by the fisheye lens 102a described later. Further, as shown in FIG. 3B, the image obtained by the image sensor 103b is a hemispherical image (rear side) curved by the fisheye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image (rear side) inverted by 180 degrees are combined by the spherical imaging apparatus, and as shown in FIG. 3C, the equirectangular projection image. EC is created.

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。本実施形態において、特段の説明がない場合には、「画像」と示した場合には、「静止画」と「動画」の両方が含まれる。 Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 4A, the equirectangular projection image is pasted so as to cover the spherical surface, and FIG. 4 (A) An omnidirectional image CE as shown in b) is created. In this way, the spherical image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. The spherical image CE may be a still image or a moving image. In the present embodiment, unless otherwise specified, when the term "image" is used, both "still image" and "moving image" are included.

以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。 As described above, since the spherical image CE is an image pasted so as to cover the spherical surface, it gives a sense of discomfort to humans. Therefore, by displaying a part of the predetermined region of the spherical image CE (hereinafter, referred to as “predetermined region image”) as a flat image with less curvature, it is possible to display the image without giving a sense of discomfort to humans. This will be described with reference to FIGS. 5 and 6.

なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像が、三次元の立体球CSで表わされている。このように生成された全天球画像CEが、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの画角を含む位置座標(x(rH),y(rV),画角α(angle))を示す所定領域情報によって特定される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。 Note that FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined region when the spherical image is a three-dimensional three-dimensional sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the image with respect to the spherical image CE displayed as a three-dimensional three-dimensional sphere. Further, FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image when displayed on a display. Further, in FIG. 6A, the spherical image shown in FIG. 4 is represented by a three-dimensional three-dimensional sphere CS. Assuming that the spherical image CE generated in this way is a three-dimensional sphere CS, the virtual camera IC is located inside the spherical image CE as shown in FIG. The predetermined region T in the spherical image CE is a photographing region of the virtual camera IC, and the position coordinates (x (rH), y) including the angle of view of the virtual camera IC in the three-dimensional virtual space including the spherical image CE. (rV), angle of view α (angle)) is specified by the predetermined area information. The zoom of the predetermined region T can be expressed by expanding or contracting the range (arc) of the angle of view α. Further, the zoom of the predetermined area T can be expressed by moving the virtual camera IC closer to or further away from the spherical image CE. The predetermined region image Q is an image of the predetermined region T in the spherical image CE.

そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。なお、所定領域情報、仮想カメラICの位置座標ではなく、所定領域Tである仮想カメラICの撮影領域(X,Y,Z)によって示してもよい。 Then, the predetermined area image Q shown in FIG. 6A is displayed as an image of the photographing area of the virtual camera IC on the predetermined display as shown in FIG. 6B. The image shown in FIG. 6B is a predetermined area image represented by the initial setting (default) predetermined area information. It should be noted that the predetermined area information and the position coordinates of the virtual camera IC may be indicated by the photographing area (X, Y, Z) of the virtual camera IC which is the predetermined area T.

図7は、部分画像パラメータの概略を説明する図である。ここでは、全天球画像の一部を指定する方法について説明する。全天球画像においては部分画像の中心点CPを、撮影するカメラ(ここでは、仮想カメラIC)の方向で表すことが可能である。全天球画像である全体画像の中心を全体画像正面として方位角を「aa」、仰角を「ea」とする。また、部分画像の範囲を表すために、例えば対角方向の画角αを用いて表す。また、縦横方向の範囲を表すために、画像のアスペクト比(幅w÷高さh)で表すことが可能である。ここでは範囲を表すために対角画角とアスペクトを用いたが、縦画角と横画角や縦画角とアスペクト比などを用いてもよい。また、方位角、仰角のほか回転角も用いても良い。 FIG. 7 is a diagram illustrating an outline of partial image parameters. Here, a method of designating a part of the spherical image will be described. In the spherical image, the center point CP of the partial image can be represented by the direction of the camera (here, the virtual camera IC) to shoot. The center of the whole image, which is a spherical image, is the front of the whole image, the azimuth is "aa", and the elevation angle is "ea". Further, in order to represent the range of the partial image, for example, the angle of view α in the diagonal direction is used. Further, in order to represent the range in the vertical and horizontal directions, it can be represented by the aspect ratio (width w ÷ height h) of the image. Here, the diagonal angle of view and the aspect ratio are used to represent the range, but the vertical angle of view and the horizontal angle of view, the vertical angle of view and the aspect ratio, and the like may be used. In addition to the azimuth and elevation angles, the rotation angle may also be used.

〔撮影システムの概略〕
まずは、図8を用いて、本実施形態の撮影システムの構成の概略について説明する。図8は、本実施形態の撮影システムの構成の概略図である。
[Outline of shooting system]
First, the outline of the configuration of the photographing system of the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram of the configuration of the photographing system of the present embodiment.

図8に示されているように、本実施形態の撮影システムは、全天球撮影装置1、仲介端末3、スマートフォン5、及び画像管理システム7によって構成されている。 As shown in FIG. 8, the photographing system of the present embodiment includes an omnidirectional photographing device 1, an intermediary terminal 3, a smartphone 5, and an image management system 7.

これらのうち、全天球撮影装置1は、上述のように、被写体や風景等を撮影して全天球(パノラマ)画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。 Of these, the spherical imaging device 1 is a special digital camera for photographing a subject, a landscape, or the like to obtain two hemispherical images that are the basis of the spherical (panoramic) image, as described above. ..

仲介端末3は、インターネット等の通信ネットワーク100に直接通信できる通信端末の一例である。仲介端末3は、通信ネットワーク100に直接通信できない全天球撮影装置1と近距離無線通信を行うことで、全天球撮影装置1と画像管理システム7との通信を仲介する役割を果たす。近距離無線通信は、例えば、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)等の技術を利用して行われる通信である。図8では、仲介端末3は全天球撮影装置1が設置されるドングルレシーバーのように使用されている。 The intermediary terminal 3 is an example of a communication terminal capable of directly communicating with a communication network 100 such as the Internet. The intermediary terminal 3 plays a role of mediating the communication between the all-sky imaging device 1 and the image management system 7 by performing short-range wireless communication with the all-sky imaging device 1 that cannot directly communicate with the communication network 100. Short-range wireless communication is communication performed using technologies such as Wi-Fi, Bluetooth (registered trademark), and NFC (Near Field Communication). In FIG. 8, the intermediary terminal 3 is used like a dongle receiver on which the spherical imaging device 1 is installed.

スマートフォン5は、有線又は無線により、通信ネットワーク100を介して画像管理システム7と通信することができる。また、スマートフォン5では、自装置に設けられた後述のディスプレイ517に、全天球撮影装置1から取得した画像を表示することができる。 The smartphone 5 can communicate with the image management system 7 via the communication network 100 by wire or wirelessly. Further, the smartphone 5 can display the image acquired from the spherical imaging device 1 on the display 517 described later provided in the own device.

画像管理システム7は、コンピュータによって構築されており、スマートフォン5からの動画や静止画の要求を、仲介端末3を介して全天球撮影装置1に伝える。また、画像管理システム7は、全天球撮影装置1から仲介端末3を介して送られて来た動画データ及び静止画データを、スマートフォン5に送信する。 The image management system 7 is constructed by a computer, and transmits a request for a moving image or a still image from the smartphone 5 to the spherical photographing device 1 via an intermediary terminal 3. Further, the image management system 7 transmits the moving image data and the still image data sent from the all-sky photographing device 1 via the intermediary terminal 3 to the smartphone 5.

なお、図1では、全天球撮影装置1、仲介端末3の組が1つしか表されていないが、複数の組を用いてもよい。また、スマートフォン5も1つしか表されていないが、複数用いてもよい。スマートフォン5は、通信端末の一例である。通信端末には、スマートフォン5の他に、PC(Personal Computer)、スマートウォッチ、ゲーム機器、カーナビゲーション端末等も含まれる。更に、画像管理システム7は、単一だけでなく複数のコンピュータによって構築されていてもよい。 Although only one set of the spherical imaging device 1 and the intermediary terminal 3 is shown in FIG. 1, a plurality of sets may be used. Further, although only one smartphone 5 is represented, a plurality of smartphones 5 may be used. The smartphone 5 is an example of a communication terminal. In addition to the smartphone 5, the communication terminal includes a PC (Personal Computer), a smart watch, a game device, a car navigation terminal, and the like. Further, the image management system 7 may be constructed by not only a single computer but also a plurality of computers.

〔実施形態のハードウェア構成〕
次に、図9及び図12を用いて、本実施形態の全天球撮影装置1、仲介端末3、スマートフォン5、及び画像管理システム7のハードウェア構成を詳細に説明する。
[Hardware configuration of the embodiment]
Next, the hardware configurations of the spherical imaging device 1, the intermediary terminal 3, the smartphone 5, and the image management system 7 of the present embodiment will be described in detail with reference to FIGS. 9 and 12.

<全天球撮影装置のハードウェア構成>
まず、図9を用いて、全天球撮影装置1のハードウェア構成を説明する。図9は、全天球撮影装置のハードウェア構成図である。以下では、全天球撮影装置1は、2つの撮像素子を使用した4πラジアンの撮影が可能な全天球(全方位)撮影装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に全天球撮影装置1と同じ機能を有するようにしてもよい。
<Hardware configuration of spherical imaging device>
First, the hardware configuration of the spherical imaging device 1 will be described with reference to FIG. FIG. 9 is a hardware configuration diagram of the spherical imaging device. In the following, the omnidirectional imaging device 1 is an omnidirectional (omnidirectional) imaging device capable of photographing 4π radians using two image pickup elements, but the number of image pickup elements may be two or more. In addition, it does not necessarily have to be a device dedicated to omnidirectional photography, and by attaching a retrofitted omnidirectional imaging unit to a normal digital camera, smartphone, etc., it has substantially the same function as the omnidirectional photography device 1. It may be.

図9に示されているように、全天球撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120、及び端子121によって構成されている。 As shown in FIG. 9, the celestial sphere photographing apparatus 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, and a ROM ( Read Only Memory) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, Operation Unit 115, Network I / F 116, Communication Unit 117, Antenna 117a, Electronic Compass 118, Gyro Sensor 119, Acceleration Sensor It is composed of 120 and terminals 121.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Of these, the image pickup unit 101 includes wide-angle lenses (so-called fisheye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two image pickups provided corresponding to each wide-angle lens. It includes elements 103a and 103b. The image sensors 103a and 103b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images from fisheye lenses 102a and 102b into image data of electrical signals and output them. It has a timing generation circuit that generates a horizontal or vertical synchronization signal, a pixel clock, and the like, and a group of registers in which various commands and parameters necessary for the operation of this image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。 The image sensors 103a and 103b of the image pickup unit 101 are each connected to the image processing unit 104 by a parallel I / F bus. On the other hand, the image pickup elements 103a and 103b of the image pickup unit 101 are connected to the image pickup control unit 105 by a serial I / F bus (I2C bus or the like). The image processing unit 104, the image pickup control unit 105, and the sound processing unit 109 are connected to the CPU 111 via the bus 110. Further, a ROM 112, a SRAM 113, a DRAM 114, an operation unit 115, a network I / F 116, a communication unit 117, an electronic compass 118, and the like are also connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているような正距円筒射影画像のデータを作成する。 The image processing unit 104 takes in the image data output from the image pickup elements 103a and 103b through the parallel I / F bus, performs predetermined processing on each image data, and then synthesizes these image data. , Create data for a regular distance cylindrical projected image as shown in FIG. 3 (c).

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The image pickup control unit 105 generally uses the image pickup control unit 105 as a master device and the image pickup elements 103a and 103b as slave devices, and sets commands and the like in the register group of the image pickup elements 103a and 103b by using the I2C bus. Necessary commands and the like are received from the CPU 111. Further, the image pickup control unit 105 also uses the I2C bus to take in the status data of the register group of the image pickup elements 103a and 103b and send it to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。全天球撮影装置1によっては、ディスプレイ(例えば、スマートフォン5のディスプレイ517)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/秒)によって連続して行われる。 Further, the image pickup control unit 105 instructs the image pickup devices 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some spherical imaging devices 1 may have a preview display function on a display (for example, display 517 of a smartphone 5) or a function corresponding to a moving image display. In this case, the output of the image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frames / second).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球撮影装置1にはディスプレイが設けられていないが、表示部を設けてもよい。 Further, as will be described later, the image pickup control unit 105 also functions as a synchronization control means for synchronizing the output timings of the image data of the image pickup elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the spherical imaging device 1 is not provided with a display, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、全天球撮影装置1の全体の動作を制御すると共に必要な処理を実行する。なお、CPU111は、単一でも複数でもよい。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 111 controls the overall operation of the spherical imaging device 1 and executes necessary processing. The CPU 111 may be single or plural. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data in the middle of processing, and the like. In particular, the DRAM 114 stores image data during processing by the image processing unit 104 and data of the processed equirectangular projection image.

操作部115は、シャッターボタン115aなどの操作ボタンの総称である。ユーザは操作部115を操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 115 is a general term for operation buttons such as the shutter button 115a. By operating the operation unit 115, the user inputs various shooting modes, shooting conditions, and the like.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン5等の外部端末(装置)に送信されたりする。 Network I / F116 is a general term for interface circuits (USB I / F, etc.) with external media such as SD cards and personal computers. Further, the network I / F116 may be wireless or wired. The equirectangular projection image data stored in the DRAM 114 is recorded on an external medium via the network I / F116, or is recorded as necessary via an external terminal (device) such as a smartphone 5 via the network I / F116. ) Is sent.

通信部117は、全天球撮影装置1に設けられたアンテナ117aを介して、Wi-Fi、NFC、Bluetooth等の近距離無線通信技術によって、スマートフォン5等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン5等の外部端末(装置)に送信することができる。 The communication unit 117 communicates with an external terminal (device) such as a smartphone 5 by using short-range wireless communication technology such as Wi-Fi, NFC, and Bluetooth via an antenna 117a provided in the all-sky imaging device 1. .. The communication unit 117 can also transmit the equirectangular projection image data to an external terminal (device) such as a smartphone 5.

電子コンパス118は、地球の磁気から全天球撮影装置1の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the azimuth of the spherical imaging device 1 from the magnetism of the earth and outputs the azimuth information. This orientation information is an example of related information (metadata) along with Exif, and is used for image processing such as image correction of a captured image. The related information also includes each data of the shooting date and time of the image and the data capacity of the image data.

ジャイロセンサ119は、全天球撮影装置1の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 The gyro sensor 119 is a sensor that detects changes in angles (Roll angle, Pitch angle, Yaw angle) that accompany the movement of the spherical imaging device 1. The change in angle is an example of related information (metadata) along Exif, and is used for image processing such as image correction of captured images.

加速度センサ120は、3軸方向の加速度を検出するセンサである。全天球撮影装置1は、加速度センサ120が検出した加速度に基づいて、自装置(全天球撮影装置1)の姿勢(重力方向に対する角度)を算出する。全天球撮影装置1に、ジャイロセンサ119と加速度センサ120の両方が設けられることによって、画像補正の精度が向上する。 The acceleration sensor 120 is a sensor that detects acceleration in three axial directions. The spherical imaging device 1 calculates the posture (angle with respect to the direction of gravity) of its own device (omnidirectional imaging device 1) based on the acceleration detected by the acceleration sensor 120. By providing both the gyro sensor 119 and the acceleration sensor 120 in the spherical imaging device 1, the accuracy of image correction is improved.

端子121は、Micro USB用の凹状の端子である。 The terminal 121 is a concave terminal for Micro USB.

<仲介端末のハードウェア構成>
次に、図10を用いて、仲介端末3のハードウェア構成を説明する。なお、図10は、無線通信機能を有したクレードルの場合の仲介端末3のハードウェア構成図である。
<Hardware configuration of brokerage terminal>
Next, the hardware configuration of the brokerage terminal 3 will be described with reference to FIG. Note that FIG. 10 is a hardware configuration diagram of the intermediary terminal 3 in the case of a cradle having a wireless communication function.

図10に示されているように、仲介端末3は、仲介端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305を備えている。 As shown in FIG. 10, the intermediary terminal 3 follows the control of the CPU 301 that controls the operation of the entire intermediary terminal 3, the ROM 302 that stores the basic input / output program, the RAM 303 that is used as the work area of the CPU 301, and the CPU 301. It includes an EEPROM (Electrically Erasable and Programmable ROM) 304 that reads or writes data, and a CMOS sensor 305 as an image pickup element that images a subject under the control of the CPU 301 and obtains image data.

なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。 The EEPROM 304 stores an operating system (OS) executed by the CPU 301, other programs, and various data. Further, a CCD sensor may be used instead of the CMOS sensor 305.

更に、仲介端末3は、アンテナ313a、このアンテナ313aを利用して無線通信信号により、通信ネットワーク100を介して画像管理システム7と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって仲介端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。 Further, the intermediary terminal 3 is an antenna 313a, a communication unit 313 that communicates with the image management system 7 via the communication network 100 by a wireless communication signal using the antenna 313a, a GPS (Global Positioning Systems) satellite or an indoor GPS. GPS receiver 314 that receives GPS signals including the position information (latitude, longitude, and altitude) of the intermediary terminal 3 by IMES (Indoor MEssaging System), and an address bus for electrically connecting each of the above parts. And a bus line 310 such as a data bus.

<スマートフォンのハードウェア構成>
次に、図11を用いて、スマートフォンのハードウェアについて説明する。図11は、スマートフォンのハードウェア構成図である。図11に示されているように、スマートフォン5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、撮像素子I/F513a、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。
<Smartphone hardware configuration>
Next, the hardware of the smartphone will be described with reference to FIG. FIG. 11 is a hardware configuration diagram of a smartphone. As shown in FIG. 11, the smartphone 5 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, a CMOS sensor 505, an image sensor I / F 513a, an acceleration / orientation sensor 506, a media I / F 508, and a GPS receiver 509. There is.

これらのうち、CPU501は、スマートフォン5全体の動作を制御する。なお、CPU501は、単一でも複数でもよい。ROM502は、CPU501やIPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ505は、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。撮像素子I/F513aは、CMOSセンサ512の駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。 Of these, the CPU 501 controls the operation of the entire smartphone 5. The CPU 501 may be single or plural. The ROM 502 stores a program used to drive the CPU 501 such as the CPU 501 and the IPL (Initial Program Loader). The RAM 503 is used as a work area of the CPU 501. The EEPROM 504 reads or writes various data such as a smartphone program under the control of the CPU 501. The CMOS sensor 505 captures a subject (mainly a self-portrait) according to the control of the CPU 501 to obtain image data. The image sensor I / F 513a is a circuit that controls the drive of the CMOS sensor 512. The acceleration / azimuth sensor 506 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect the geomagnetism. The media I / F 508 controls reading or writing (storage) of data to a recording medium 507 such as a flash memory. The GPS receiving unit 509 receives GPS signals from GPS satellites.

また、スマートフォン5は、遠距離通信回路511、アンテナ511a、CMOSセンサ512、撮像素子I/F513b、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519a、及びタッチパネル521を備えている。 Further, the smartphone 5 includes a long-distance communication circuit 511, an antenna 511a, a CMOS sensor 512, an image pickup element I / F 513b, a microphone 514, a speaker 515, a sound input / output I / F 516, a display 517, an external device connection I / F518, and a short distance. It includes a communication circuit 519, an antenna 519a of the short-range communication circuit 519, and a touch panel 521.

これらのうち、遠距離通信回路511は、インターネット等の通信ネットワークを介して、他の機器と通信する回路である。CMOSセンサ512は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513bは、CMOSセンサ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、Wi-Fi、NFC、Bluetooth等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、スマートフォン5を操作する入力手段の一種である。 Of these, the long-distance communication circuit 511 is a circuit that communicates with other devices via a communication network such as the Internet. The CMOS sensor 512 is a kind of built-in imaging means for capturing an image of a subject and obtaining image data under the control of the CPU 501. The image sensor I / F 513b is a circuit that controls the drive of the CMOS sensor 512. The microphone 514 is a kind of built-in sound collecting means for inputting voice. The sound input / output I / F 516 is a circuit that processes sound signal input / output between the microphone 514 and the speaker 515 under the control of the CPU 501. The display 517 is a kind of display means such as a liquid crystal or an organic EL for displaying an image of a subject, various icons, and the like. The external device connection I / F518 is an interface for connecting various external devices. The short-range communication circuit 519 is a communication circuit such as Wi-Fi, NFC, and Bluetooth. The touch panel 521 is a kind of input means for operating the smartphone 5 by the user pressing the display 517.

また、スマートフォン5は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 In addition, the smartphone 5 is provided with a bus line 510. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501.

<画像管理システムのハードウェア構成>
次に、図12を用いて、画像管理システムのハードウェア構成について説明する。図12は、画像管理システムのハードウェア構成図である。
<Hardware configuration of image management system>
Next, the hardware configuration of the image management system will be described with reference to FIG. FIG. 12 is a hardware configuration diagram of the image management system.

図12は、画像管理システム7のハードウェア構成図である。図12に示されているように、画像管理システム7は、コンピュータによって構築されており、図12に示されているように、CPU701、ROM702、RAM703、HD704、HDD(Hard Disk Drive)コントローラ705、ディスプレイ708、メディアI/F707、ネットワークI/F709、データバス710、キーボード711、マウス712、及びDVD−RW(Digital Versatile Disk Rewritable)ドライブ714を備えている。 FIG. 12 is a hardware configuration diagram of the image management system 7. As shown in FIG. 12, the image management system 7 is constructed by a computer, and as shown in FIG. 12, the CPU 701, ROM 702, RAM 703, HD 704, HDD (Hard Disk Drive) controller 705, It includes a display 708, media I / F 707, network I / F 709, data bus 710, keyboard 711, mouse 712, and DVD-RW (Digital Versatile Disk Rewritable) drive 714.

これらのうち、CPU701は、画像管理システム7全体の動作を制御する。ROM702は、IPL等のCPU701の駆動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。HD704は、プログラム等の各種データを記憶する。HDDコントローラ705は、CPU701の制御にしたがってHD704に対する各種データの読み出し又は書き込みを制御する。ディスプレイ708は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。ネットワークI/F709は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。バスライン710は、図12に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Of these, the CPU 701 controls the operation of the entire image management system 7. The ROM 702 stores a program used to drive the CPU 701 such as an IPL. The RAM 703 is used as a work area for the CPU 701. The HD704 stores various data such as programs. The HDD controller 705 controls reading or writing of various data to the HD 704 according to the control of the CPU 701. The display 708 displays various information such as cursors, menus, windows, characters, or images. The media I / F 707 controls reading or writing (storage) of data to a recording medium 706 such as a flash memory. The network I / F709 is an interface for performing data communication using the communication network 100. The bus line 710 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 701 shown in FIG.

また、キーボード711は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。マウス712は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD−RWドライブ714は、着脱可能な記録媒体の一例としてのDVD−RW713に対する各種データの読み出し又は書き込みを制御する。なお、DVD−RWに限らず、DVD−RやBlu-ray Disc(ブルーレイディスク)等であってもよい。 Further, the keyboard 711 is a kind of input means including a plurality of keys for inputting characters, numerical values, various instructions and the like. The mouse 712 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 714 controls reading or writing of various data to the DVD-RW 713 as an example of the removable recording medium. In addition, it is not limited to DVD-RW, and may be DVD-R, Blu-ray Disc (Blu-ray Disc), or the like.

〔実施形態の機能構成〕
次に、図13乃至図16を用いて、本実施形態の機能構成について説明する。なお、仲介端末3は、全天球撮影装置1と画像管理システム7とも通信を仲介するための送受信部が主機能であるため、説明を省略する。
[Functional configuration of the embodiment]
Next, the functional configuration of the present embodiment will be described with reference to FIGS. 13 to 16. Since the main function of the mediation terminal 3 is a transmission / reception unit for mediating communication between the spherical imaging device 1 and the image management system 7, the description thereof will be omitted.

<全天球撮影装置の機能構成>
図13は、本実施形態の全天球撮影装置の機能ブロック図である。全天球撮影装置1は、送受信部11、部分画像パラメータ作成部12、撮影制御部13、撮像部14a,14b、画像処理部15、一時記憶部16、低精細変更部17、射影方式変換部18、結合部19、動画符号化部20a、静止画符号化部20b、受付部22、判断部25、及び静止画記憶部20を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された全天球撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。また、全天球撮影装置1は、SRAM113によって実現された閾値管理部1001を有している。
<Functional configuration of spherical imaging device>
FIG. 13 is a functional block diagram of the spherical imaging device of this embodiment. The all-sky imaging device 1 includes a transmission / reception unit 11, a partial image parameter creation unit 12, an imaging control unit 13, imaging units 14a and 14b, an image processing unit 15, a temporary storage unit 16, a low-definition changing unit 17, and a projection conversion unit. It has 18, a coupling unit 19, a moving image coding unit 20a, a still image coding unit 20b, a reception unit 22, a determination unit 25, and a still image storage unit 20. Each of these parts is realized by operating any of the components shown in FIG. 9 by a command from the CPU 111 according to a program for the spherical imaging device developed on the DRAM 113 from the SRAM 113. A function or means. Further, the spherical imaging device 1 has a threshold value management unit 1001 realized by the SRAM 113.

(水平垂直画角閾値情報)
閾値管理部1001には、図16(a)に示されているように、水平垂直画角閾値情報が、例えば工場出荷前から記憶されている。なお、図16(a)は水平垂直画角閾値情報の概念図、図16(b)は水平画角と垂直画角の説明図である。なお、図16(a)は、水平垂直画角閾値情報は、テーブル形式で表されているが、これに限らず、テーブル形式で表すようにしなくてもよい。
(Horizontal and vertical angle of view threshold information)
As shown in FIG. 16A, the threshold value management unit 1001 stores horizontal and vertical angle of view threshold value information, for example, before shipment from the factory. 16 (a) is a conceptual diagram of the horizontal and vertical angle of view threshold information, and FIG. 16 (b) is an explanatory diagram of the horizontal angle of view and the vertical angle of view. In FIG. 16A, the horizontal / vertical angle of view threshold information is represented in a table format, but the present invention is not limited to this, and the horizontal / vertical angle of view threshold information may not be represented in a table format.

図16(a)に示されているように、水平垂直画角閾値情報は、全天球撮影装置1の最大撮影解像度(横W×縦H)の候補の列、利用者(閲覧者)によって設定されるスマートフォン5での最大表示解像度(横W’×縦H’)の候補の列、全天球撮影装置1から画像管理システム7を介してスマートフォン5に送信するか否かの判断に使用される画像の水平画角(AH)×垂直画角(AV)の各閾値が関連付けて管理されている。 As shown in FIG. 16A, the horizontal / vertical angle-of-view threshold information is determined by a row of candidates for the maximum shooting resolution (horizontal W × vertical H) of the all-sky imaging device 1 and a user (viewer). A row of candidates for the maximum display resolution (horizontal W'x vertical H') on the set smartphone 5, used to determine whether or not to transmit from the all-sky photography device 1 to the smartphone 5 via the image management system 7. Each threshold of the horizontal angle of view (AH) × the vertical angle of view (AV) of the image to be created is managed in association with each other.

ここで、図16(b)を用いて、水平画角(AH)と垂直画角(AV)について説明する。なお、図16(b)において、中心点CP、方位角「aa」、仰角「ea」は、図7と同じであるため、説明を省略する。全天球画像(動画、静止画)においては矩形の部分画像(動画、静止画)の一フレーム全領域のサイズを、撮影するカメラ(ここでは、仮想カメラIC)の方向で表すことが可能である。部分画像の横の長さを仮想カメラICからの水平画角(AH)で表し、部分画像の縦の長さを仮想カメラICからの水平画角(AH)で表すことができる。 Here, the horizontal angle of view (AH) and the vertical angle of view (AV) will be described with reference to FIG. 16 (b). In FIG. 16B, the center point CP, the azimuth angle “aa”, and the elevation angle “ea” are the same as those in FIG. 7, so the description thereof will be omitted. In the spherical image (moving image, still image), the size of the entire area of one frame of the rectangular partial image (moving image, still image) can be represented by the direction of the camera (here, the virtual camera IC) to shoot. is there. The horizontal length of the partial image can be represented by the horizontal angle of view (AH) from the virtual camera IC, and the vertical length of the partial image can be represented by the horizontal angle of view (AH) from the virtual camera IC.

水平画角(AH)と垂直画角(AV)は変換元の解像度と変換後の解像度の差がなくなる画角で、判断部25の判断に用いられる。この画角は次の(式1)及び(式2)で求めることができる。 The horizontal angle of view (AH) and the vertical angle of view (AV) are angles of view that eliminate the difference between the resolution of the conversion source and the resolution after conversion, and are used for the determination of the determination unit 25. This angle of view can be obtained by the following (Equation 1) and (Equation 2).

AH = (360 / W) * W’ ・・・(式1)
AV = (180 / H) * (H’ / 2) ・・・(式2)
なお、全天球撮影装置1の最大撮影解像度が(W:4000,H:2000)であっても、全天球撮影装置1は図16に示されている各設定パターンを示す水平垂直画角閾値情報を管理している。但し、この場合、全天球撮影装置1は、図16において、設定1と設定2のパターンしか参照しない。同じく、利用者によって設定されるスマートフォン5での最大表示解像度が(W’:1920,H’:1080)であっても、全天球撮影装置1は図16に示されている各設定パターンを示す水平垂直画角閾値情報を管理している。
AH = (360 / W) * W'・ ・ ・ (Equation 1)
AV = (180 / H) * (H'/ 2) ・ ・ ・ (Equation 2)
Even if the maximum shooting resolution of the spherical imaging device 1 is (W: 4000, H: 2000), the spherical imaging device 1 has a horizontal and vertical angle of view showing each setting pattern shown in FIG. It manages threshold information. However, in this case, the spherical imaging device 1 refers only to the patterns of setting 1 and setting 2 in FIG. Similarly, even if the maximum display resolution on the smartphone 5 set by the user is (W': 1920, H': 1080), the spherical imaging device 1 sets each setting pattern shown in FIG. The horizontal and vertical angle of view threshold information shown is managed.

例えば、全天球撮影装置1の最大撮影解像度の横×縦が4000×2000の場合であって、利用者によってスマートフォン5から全天球撮影装置1に対して、横×縦が1920×1080の解像度の画像(動画、静止画)のデータを要求するように設定されていた場合の条件(設定1)下では、判断部25は、指示データによって要求された部分画像の画角が横172.8°かつ縦48.6°で示される閾値の未満の場合に、射影方式変換部18に超高精細な静止画像のデータへの射影方式変換を行わせないと判断する。 For example, in the case where the maximum shooting resolution of the spherical imager 1 is 4000 × 2000 in width × 2000, the width × length is 1920 × 1080 with respect to the spherical imager 1 from the smartphone 5 depending on the user. Under the condition (setting 1) when the data of the resolution image (moving image, still image) is set, the determination unit 25 determines that the angle of view of the partial image requested by the instruction data is horizontal 172. When it is less than the threshold value indicated by 8 ° and 48.6 ° in length, it is determined that the projection method conversion unit 18 does not perform projection method conversion to ultra-high-definition still image data.

(全天球撮影装置の各機能構成)
次に、図13を用いて、全天球撮影装置1の各機能構成について更に詳細に説明する。
(Each functional configuration of spherical imaging device)
Next, each functional configuration of the spherical imaging device 1 will be described in more detail with reference to FIG.

送受信部11は、全天球撮影装置1の外部に対して画像データを送信したり、外部からデータを受信したりする。例えば、画像データとしては、超高精細の部分静止画、高精細の部分動画、低精細の全体動画の各データがある。また、送受信部11は、後述の指示データを受信したり、後述の部分画像パラメータを送信したりする。 The transmission / reception unit 11 transmits image data to the outside of the spherical imaging device 1 and receives data from the outside. For example, the image data includes ultra-high-definition partial still images, high-definition partial moving images, and low-definition whole moving images. In addition, the transmission / reception unit 11 receives instruction data described later and transmits partial image parameters described later.

なお、本実施形態では、3段階の精細度の画像が取り扱われるため、最も精細度が高い画像、次に精細度が高い画像、最も精細度が低い画像について、便宜的にそれぞれ「超高精細」、「高精細」、「低精細」と示して区別する。よって、例えば、本実施形態の「超高精細」が、一般的な超高精細を意味するものではない。 In the present embodiment, since an image having three levels of definition is handled, the image with the highest definition, the image with the next highest definition, and the image with the lowest definition are respectively "ultra-high definition" for convenience. , "High definition", "Low definition" to distinguish. Therefore, for example, the "ultra-high definition" of the present embodiment does not mean general ultra-high definition.

部分画像パラメータ作成部12は、スマートフォン5から画像管理システム7を介して送られて来た指示データに基づいて部分画像パラメータを作成する。この指示データは、スマートフォン5の受付部52で利用者の操作によって受け付けられ、後述の重畳領域を特定するための指示を示すデータである。 The partial image parameter creation unit 12 creates partial image parameters based on the instruction data sent from the smartphone 5 via the image management system 7. This instruction data is received by the operation of the user at the reception unit 52 of the smartphone 5, and is data indicating an instruction for specifying the superimposed area described later.

撮影制御部13は、撮像部14a,14bの画像データの出力タイミングの同期をとる指示を出力する。 The photographing control unit 13 outputs an instruction for synchronizing the output timing of the image data of the imaging units 14a and 14b.

撮像部14a,14bは、それぞれ、撮影制御部13からの指示に従って被写体等を撮像し、例えば、図3(a),(b)に示されているように、全天球画像データの元になる半球画像データを出力する。 The image pickup units 14a and 14b each take an image of a subject or the like according to an instruction from the imaging control unit 13, and for example, as shown in FIGS. 3 (a) and 3 (b), based on the spherical image data. Outputs the hemispherical image data.

画像処理部15は、撮影部14a,14bで得られた2つの半球画像データを正距円筒射影方式の画像である正距円筒射影画像のデータに合成変換する。 The image processing unit 15 synthesizes and converts the two hemispherical image data obtained by the photographing units 14a and 14b into the data of the equirectangular projection image which is the image of the equirectangular projection method.

一時記憶部16は、画像処理部15で合成変換された正距円筒射影画像のデータを一時的に記憶するバッファの役割を果たす。なお、この状態の正距円筒射影画像は超高精細である。 The temporary storage unit 16 serves as a buffer for temporarily storing the data of the equirectangular projection image synthesized and converted by the image processing unit 15. The equirectangular projection image in this state is ultra-high definition.

低精細変更部17は、送受信部11で受信されたスマートフォン5からの指示データに従って、正距円筒射影画像を画像の縮小等により、超高精細画像(ここでは動画)から低精細画像(ここでは、動画)に変更する。これにより、低精細な正距円筒射影画像(ここでは、全体動画)が生成される。なお、低精細変更部17は、変更手段の一例である。 The low-definition changing unit 17 reduces the equirectangular projection image from the ultra-high-definition image (here, moving image) to the low-definition image (here, here) by reducing the image of the equirectangular projection image according to the instruction data from the smartphone 5 received by the transmitting / receiving unit 11. , Video). As a result, a low-definition equirectangular projection image (here, the entire moving image) is generated. The low-definition changing unit 17 is an example of the changing means.

射影方式変換部18は、送受信部11で受信した指示データ及び動画データ要求に従って、即ち、全体画像の一部分の画像である部分画像の方向、画角及びアスペクト、並びに画像管理システム7を介してスマートフォン5へ送信する画像データのサイズに従って、正距円筒射影方式を透視射影方式に射影方式変換する。このように部分動画データが要求された場合、射影方式変換部18は、一時記憶部16に記憶されている超高精細な全体画像よりも精細度(又は解像度)が低いが、低精細変更部17によって変更されることで得られた低精細画像よりも精細度(又は解像度)が高い高精細な状態の部分画像(ここでは、部分動画)を生成する。 The projection method conversion unit 18 follows the instruction data and video data request received by the transmission / reception unit 11, that is, the direction, angle of view and aspect of the partial image which is a part of the entire image, and the smartphone via the image management system 7. According to the size of the image data to be transmitted to 5, the normal-distance cylindrical projection method is converted into the perspective projection method. When the partial moving image data is requested in this way, the projection method conversion unit 18 has a lower definition (or resolution) than the ultra-high-definition whole image stored in the temporary storage unit 16, but the low-definition changing unit A partial image (here, a partial moving image) in a high-definition state having a higher definition (or resolution) than the low-definition image obtained by being changed by 17 is generated.

更に、射影方式変換部18は、送受信部11で受信した指示データ及び静止画データ要求に従って、即ち、全体画像の一部分の画像である部分画像の方向、画角及びアスペクト、並びに画像管理システム7を介してスマートフォン5へ送信する画像データのサイズに従って、正距円筒射影方式を透視射影方式に射影方式変換することもできる。このように部分静止画データが要求された場合、射影方式変換部18は、一時記憶部16に記憶されている超高精細な状態のままで部分画像(ここでは、部分静止画)を生成する。 Further, the projection conversion unit 18 sets the direction, angle of view and aspect of the partial image, which is a part of the entire image, and the image management system 7 according to the instruction data and still image data request received by the transmission / reception unit 11. According to the size of the image data transmitted to the smartphone 5 via the screen, the normal-distance cylindrical projection method can be converted into the perspective projection method. When the partial still image data is requested in this way, the projection method conversion unit 18 generates a partial image (here, a partial still image) in the ultra-high-definition state stored in the temporary storage unit 16. ..

以上より、低精細変更部17と射影方式変更部18の相違点は、射影方式変換を実行するか否かだけでなく、低精細変更部17から出力される全体画像(ここでは、全体動画)データは、射影方式変換部18から出力される部分画像(ここでは、部分動画及び部分静止画)データよりも精細度(又は解像度)が低い。即ち、射影方式変換部18から出力される部分画像データは、低精細変更部17から出力される全体画像データよりも精細度(又は解像度)が高い。 From the above, the difference between the low-definition change unit 17 and the projection method change unit 18 is not only whether or not the projection method conversion is executed, but also the entire image output from the low-definition change unit 17 (here, the entire moving image). The data has a lower definition (or resolution) than the partial image (here, partial moving image and partial still image) data output from the projection conversion unit 18. That is, the partial image data output from the projection method conversion unit 18 has a higher definition (or resolution) than the overall image data output from the low-definition changing unit 17.

ここで、超高精細の画像として、例えば、解像度が、2K、4K、8Kのいずれかの正距離円筒射影画像が出力される場合について説明する。これらの超高精細の正距離円筒射影画像のデータに基づき、射影方式変換部18から出力される「部分動画」データは、解像度が、1.5K、3K、6Kのいずれかの状態である。また、これらの超高精細の正距離円筒射影画像のデータに基づき、射影方式変換部18から出力される「部分静止画」データは、解像度が、2K、4K、8Kのいずれかのままの状態である。一方、低精細変更部17から出力される「全体動画」データは、解像度が、1K、2K、4Kのいずれかの状態である。 Here, as an ultra-high-definition image, for example, a case where a positive-distance cylindrical projected image having a resolution of 2K, 4K, or 8K is output will be described. Based on the data of these ultra-high-definition positive-distance cylindrical projection images, the "partial moving image" data output from the projection method conversion unit 18 has a resolution of 1.5K, 3K, or 6K. Further, the "partial still image" data output from the projection method conversion unit 18 based on the data of these ultra-high-definition regular-distance cylindrical projection images has a resolution of 2K, 4K, or 8K. Is. On the other hand, the "whole moving image" data output from the low-definition changing unit 17 has a resolution of 1K, 2K, or 4K.

結合部19は、低精細変更部17で変更された低精細な全体動画の各フレームと、射影方式変換部18で変換された高精細な部分動画の各フレームを、図20に示されているように、縦の解像度を半分に圧縮することで、それぞれのフレームの精細度を下げて一フレームに結合する。これにより、部分動画は、全体動画よりは精細度が高いが、部分静止画よりは精細度が低くなる。このように各フレームの精細度を下げて一フレームにすることで、データ通信量を抑制することができる。更に、結合される2つのフレームは、一時記憶部16に記憶されていた同じ正距円射影画像から生成されているため、結合される2つのフレームを関連付けるためのメタデータ等を利用しなくても、同じタイミングで撮影されて生成された2つのフレームを関連付けることができる。 FIG. 20 shows, in FIG. 20, each frame of the low-definition whole moving image changed by the low-definition changing unit 17 and each frame of the high-definition partial moving image converted by the projection method conversion unit 18. By compressing the vertical resolution in half, the definition of each frame is reduced and combined into one frame. As a result, the partial moving image has a higher definition than the whole moving image, but has a lower definition than the partial still image. By reducing the definition of each frame to one frame in this way, the amount of data communication can be suppressed. Furthermore, since the two frames to be combined are generated from the same azimuthal equidistant projected image stored in the temporary storage unit 16, it is not necessary to use metadata or the like for associating the two frames to be combined. Can also associate two frames shot and generated at the same timing.

動画符号化部20aは、結合部19によって結合された全体動画及び部分動画のフレームデータを符号化する。静止画符号化部20bは、部分静止画のデータを符号化する。 The moving image coding unit 20a encodes the frame data of the entire moving image and the partial moving image combined by the joining unit 19. The still image coding unit 20b encodes the data of the partial still image.

受付部22は、利用者が各種要求を行う際に全天球撮影装置の操作部115に対して行う操作を受け付ける。 The reception unit 22 receives an operation performed on the operation unit 115 of the spherical imaging device when the user makes various requests.

判断部25は、全体動画の一部の領域である部分画像の一フレームの全領域が、閾値管理部1001で管理されている水平垂直画角閾値情報(図16参照)の所定の閾値で示される所定領域よりも小さいか否かを判断する。そして、小さい場合には、判断部25は、射影方式変換部18に、超高精細な全体動画データから超高精細な部分静止画のデータを生成させないようにする。また、大きい場合には、判断部25は、射影方式変換部18に、超高精細な全体動画データから超高精細な部分静止画のデータを生成させるようにする。 The determination unit 25 indicates that the entire area of one frame of the partial image, which is a part of the entire moving image, is a predetermined threshold value of the horizontal / vertical angle-of-view threshold information (see FIG. 16) managed by the threshold value management unit 1001. Judge whether it is smaller than the predetermined area. If it is small, the determination unit 25 prevents the projection method conversion unit 18 from generating ultra-high-definition partial still image data from the ultra-high-definition overall moving image data. If it is large, the determination unit 25 causes the projection method conversion unit 18 to generate ultra-high-definition partial still image data from the ultra-high-definition overall moving image data.

例えば、全天球撮影装置1の最大撮影解像度の横×縦が4000×2000の場合であって、利用者によってスマートフォン5から全天球撮影装置1に対して、スマートフォン5における最大表示解像度の横×縦が1920×1080に設定されていた場合の条件(設定1)下で、指示データによって要求されている画像の横の画角が172.8°未満かつ縦の画角が48.6°未満の場合には、判断部25は、射影方式変換部18に超高精細な静止画のデータに射影方式変換させないと判断する。このように、スマートフォン5から要求された画像の解像度(精細度)が低い場合には、全天球撮影装置1は、高精細な部分動画のデータを送っても、又は超高精細な部分静止画のデータを送っても、利用者はスマートフォン5で高精細な部分動画と超高精細な部分静止画の区別を付けづらいため、全天球撮影装置1は、わざわざ超高精細な部分静止画のデータを送る必要はないからである。なお、閾値の範囲に示した「未満」は「以下」としてもよい。 For example, in the case where the horizontal × vertical of the maximum shooting resolution of the spherical imaging device 1 is 4000 × 2000, depending on the user, the horizontal of the maximum display resolution of the smartphone 5 with respect to the spherical imaging device 1 from the smartphone 5. Under the condition (setting 1) when the vertical angle is set to 1920 × 1080, the horizontal angle of view of the image required by the instruction data is less than 172.8 ° and the vertical angle of view is 48.6 °. If it is less than, the determination unit 25 determines that the projection method conversion unit 18 does not perform the projection method conversion to the ultra-high-definition still image data. In this way, when the resolution (definition) of the image requested from the smartphone 5 is low, the celestial sphere photographing device 1 may send high-definition partial moving image data or ultra-high-definition partial stillness. Even if image data is sent, it is difficult for the user to distinguish between a high-definition partial moving image and an ultra-high-definition partial still image on the smartphone 5, so the all-sky imaging device 1 purposely uses the ultra-high-definition partial still image. This is because there is no need to send the data of. In addition, "less than" shown in the threshold range may be "less than or equal to".

一方、上記と同じ条件(設定1)下で、指示データによって要求されている画像の横の画角が172.8°超または縦の画角が48.6°超の場合には、判断部25は、射影方式変換部18に超高精細な静止画のデータに射影方式変換させると判断する。この場合、スマートフォン5が、高精細な部分動画を超高精細な静止画に切り替えて表示することで、利用者(閲覧者)は注目する領域をよりはっきりと(鮮明に)閲覧することができるため、入念に閲覧することができる。なお、閾値の範囲に示した「超」は「以上」としてもよい。 On the other hand, under the same conditions as above (setting 1), when the horizontal angle of view of the image required by the instruction data exceeds 172.8 ° or the vertical angle of view exceeds 48.6 °, the judgment unit 25 determines that the projection method conversion unit 18 causes the projection method conversion to the ultra-high-definition still image data. In this case, the smartphone 5 switches the high-definition partial moving image to the ultra-high-definition still image and displays it, so that the user (viewer) can browse the area of interest more clearly (clearly). Therefore, it can be browsed carefully. In addition, "super" shown in the threshold range may be "greater than or equal to".

<スマートフォンの機能構成>
図14は、本実施形態のスマートフォンの機能ブロック図である。スマートフォン5は、送受信部51、受付部52、動画復号化部53a、静止画符号化部53b、重畳領域作成部54、画像作成部55、画像重畳部56、射影変換部57、及び表示制御部58を有している。これら各部は、図11に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたスマートフォン用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of smartphone>
FIG. 14 is a functional block diagram of the smartphone of the present embodiment. The smartphone 5 includes a transmission / reception unit 51, a reception unit 52, a video decoding unit 53a, a still image coding unit 53b, a superimposition area creation unit 54, an image creation unit 55, an image superimposition unit 56, a projection conversion unit 57, and a display control unit. Has 58. Each of these parts is a function or means realized by operating any of the components shown in FIG. 11 by a command from the CPU 501 according to a smartphone program developed from the EEPROM 504 to the RAM 503. ..

(スマートフォンの各機能構成)
次に、図14を用いて、スマートフォン5の各機能構成について更に詳細に説明する。
(Each function configuration of smartphone)
Next, each functional configuration of the smartphone 5 will be described in more detail with reference to FIG.

送受信部51は、スマートフォン5の外部に対してデータを送信したり、外部からデータを受信したりする。例えば、送受信部51は、全天球撮影装置1の送受信部11から画像データを受信したり、全天球撮影装置1の送受信部11に対して指示データを送信したりする。また、送受信部51は、全天球撮影装置1の送受信部11から送られて来た画像データ(図20に示す全体動画のデータ及び部分動画データ)と部分画像パラメータとを分離する。 The transmission / reception unit 51 transmits data to the outside of the smartphone 5 and receives data from the outside. For example, the transmission / reception unit 51 receives image data from the transmission / reception unit 11 of the spherical imaging device 1 or transmits instruction data to the transmission / reception unit 11 of the spherical imaging device 1. Further, the transmission / reception unit 51 separates the image data (total moving image data and partial moving image data shown in FIG. 20) sent from the transmitting / receiving unit 11 of the spherical imaging device 1 and the partial image parameters.

受付部52は、利用者から、部分画像の方向、画角及びアスペクト、並びにスマートフォン5で受信する画像データのサイズの指定操作を受け付ける。また、受付部52は、利用者から、スマートフォン5における最大表示解像度(図16の横W’×縦H’参照)の設定を受け付ける。 The reception unit 52 receives from the user an operation of specifying the direction, angle of view and aspect of the partial image, and the size of the image data received by the smartphone 5. In addition, the reception unit 52 receives from the user the setting of the maximum display resolution (see horizontal W'x vertical H'in FIG. 16) on the smartphone 5.

動画復号化部53aは、動画符号化部20aで符号化された低精細な全体動画及び高精細な部分動画の各データを復号化する。静止画復号化部53bは、静止画符号化部20bで符号化された超高精細な部分静止画のデータを復号化する。 The moving image decoding unit 53a decodes each data of the low-definition whole moving image and the high-definition partial moving image encoded by the moving image coding unit 20a. The still image decoding unit 53b decodes the data of the ultra-high-definition partial still image encoded by the still image coding unit 20b.

重畳領域作成部54は、部分画像パラメータにより指定された重畳領域を作成する。この重畳領域は、全体動画である全天球画像CE上において、部分動画(又は部分静止画)である重畳画像S及びマスク画像Mの重畳位置及び重畳範囲を示している。 The superimposition area creation unit 54 creates a superimposition area designated by the partial image parameters. This superimposing region shows the superimposition position and superimposition range of the superimposition image S and the mask image M which are partial moving images (or partial still images) on the spherical image CE which is the whole moving image.

画像作成部55は、重畳領域に従って、重畳画像S及びマスク画像を作成し、低精細な全体画像から全天球画像CEを作成する。 The image creation unit 55 creates a superimposed image S and a mask image according to the superimposed region, and creates a spherical image CE from a low-definition overall image.

画像重畳部56は、全天球画像CE上の重畳領域に対して、重畳画像S及びマスク画像Mを重畳することで、最終的な全天球画像CEを作成する。 The image superimposing unit 56 creates a final spherical image CE by superimposing the superposed image S and the mask image M on the superposed region on the spherical image CE.

射影変換部57は、受付部52で受けられた利用者の指示に従って、最終的な全天球画像CEを透視射影方式の画像に変換する。 The projective conversion unit 57 converts the final spherical image CE into a perspective projection type image according to the user's instruction received by the reception unit 52.

表示制御部58は、透視射影方式に変換後の画像をディスプレイ517等に表示させる制御を行う。 The display control unit 58 controls the display 517 or the like to display the image after conversion to the perspective projection method.

<画像管理システムの機能構成>
図15は、画像管理システムの機能ブロック図である。画像管理システム7は、送受信部71を有している。送受信部71は、図12に示されているネットワークI/Fが、HD704からRAM703上に展開された画像管理システム用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。また、画像管理システム7は、HD704によって実現された記憶部7000を有している。
<Functional configuration of image management system>
FIG. 15 is a functional block diagram of the image management system. The image management system 7 has a transmission / reception unit 71. The transmission / reception unit 71 is a function or means realized by operating the network I / F shown in FIG. 12 by a command from the CPU 701 according to a program for an image management system developed on the RAM 703 from the HD 704. is there. Further, the image management system 7 has a storage unit 7000 realized by the HD704.

(画像管理システムの機能構成)
次に、図15を用いて、画像管理システム7の機能構成について更に詳細に説明する。
(Functional configuration of image management system)
Next, the functional configuration of the image management system 7 will be described in more detail with reference to FIG.

送受信部71は、画像管理システム7の外部に対してデータを送信したり、外部からデータを受信したりする。例えば、送受信部71は、全天球撮影装置1の送受信部11から仲介端末3を介して画像データを受信したり、全天球撮影装置1の送受信部11に対して仲介端末3を介して指示データを送信したりする。また、送受信部71は、全天球撮影装置1の送受信部11から仲介端末3を介して送られて来た画像データ(図20に示す全体動画のデータ及び部分動画データ)や部分画像パラメータをスマートフォン5に送信する。更に、全天球撮影装置1の送受信部11から仲介端末3を介して送られて来た超高精細な静止画のデータを記憶部7000に一時的に記憶したり、記憶部7000から超高精細な静止画のデータを読み出してスマートフォン5に送信したりする。 The transmission / reception unit 71 transmits data to the outside of the image management system 7 and receives data from the outside. For example, the transmission / reception unit 71 receives image data from the transmission / reception unit 11 of the spherical imaging device 1 via the mediation terminal 3, or the transmission / reception unit 11 of the spherical imaging device 1 via the mediation terminal 3. Send instruction data. Further, the transmission / reception unit 71 inputs image data (total moving image data and partial moving image data shown in FIG. 20) and partial image parameters sent from the transmitting / receiving unit 11 of the spherical imaging device 1 via the intermediary terminal 3. Send to smartphone 5. Further, the ultra-high-definition still image data sent from the transmission / reception unit 11 of the all-sky imaging device 1 via the intermediary terminal 3 can be temporarily stored in the storage unit 7000, or ultra-high from the storage unit 7000. The data of a fine still image is read out and transmitted to the smartphone 5.

〔実施形態の処理又は動作〕
続いて、図17乃至図26を用いて、本実施形態の処理又は動作について説明する。本実施形態では、全天球撮影装置1で生成されてから送られて来るデータに係る全体動画及び部分動画をスマートフォン5で再生中に、閲覧者がある部分動画の1シーンをより高精細(つまり超高精細)な静止画で入念に閲覧する場合について説明する。
[Processing or operation of the embodiment]
Subsequently, the process or operation of the present embodiment will be described with reference to FIGS. 17 to 26. In the present embodiment, while the entire moving image and the partial moving image related to the data generated by the spherical imaging device 1 and then sent are being played back on the smartphone 5, one scene of the partial moving image having a viewer is displayed in higher definition ( In other words, the case of carefully viewing a still image (which is ultra-high definition) will be described.

<<全体動画及び部分動画の生成及び再生>>
まずは、図17を用いて、全体動画と部分動画の各データの生成及び再生の処理について説明する。図17は、全体動画及び部分動画の各データの生成及び再生の処理を示したシーケンス図である。
<< Generation and playback of whole video and partial video >>
First, the process of generating and reproducing the data of the whole moving image and the partial moving image will be described with reference to FIG. FIG. 17 is a sequence diagram showing a process of generating and reproducing each data of the whole moving image and the partial moving image.

図17に示されているように、閲覧者(利用者)がスマートフォン5を操作することで、受付部52が動画の配信サービスを開始する要求を受け付ける(S11)。これにより、次に、スマートフォン5の送受信部51は、画像管理システム7の送受信部71に動画データの要求を送信する(S12)。この際、閲覧者が指定した部分画像パラメータも送信される。なお、送信開始のタイミングに関して、全天球撮影装置1の送受信部11が通信ネットワークの帯域制御などを行ってもよい。この帯域制御を行うことで、より安定してデータを送受信することが可能となる。 As shown in FIG. 17, when the viewer (user) operates the smartphone 5, the reception unit 52 receives a request to start the video distribution service (S11). As a result, the transmission / reception unit 51 of the smartphone 5 next transmits a request for moving image data to the transmission / reception unit 71 of the image management system 7 (S12). At this time, the partial image parameters specified by the viewer are also transmitted. Regarding the timing of starting transmission, the transmission / reception unit 11 of the spherical imaging device 1 may control the band of the communication network. By performing this band control, it becomes possible to transmit and receive data more stably.

次に、画像管理システム7の送受信部71は、仲介端末3の送受信部に対して動画データの要求を転送する(S13)。そして、仲介端末3の送受信部は、全天球撮影装置1の送受信部11に対して、動画データ要求を転送する(S14)。 Next, the transmission / reception unit 71 of the image management system 7 transfers the request for moving image data to the transmission / reception unit of the intermediary terminal 3 (S13). Then, the transmission / reception unit of the intermediary terminal 3 transfers the moving image data request to the transmission / reception unit 11 of the spherical imaging device 1 (S14).

次に、全天球撮影装置1は、動画データの生成処理を行う(S15)。このステップS15の処理は、後ほど詳細に説明する(図18乃至図20参照)。 Next, the spherical imaging device 1 performs a moving image data generation process (S15). The process of step S15 will be described in detail later (see FIGS. 18 to 20).

次に、全天球撮影装置1の送受信部11は、仲介端末31の送受信部に対して、要求に応じた動画データを送信する(S16)。この動画データには、低精細の全体動画及び高精細の部分動画の各データが含まれている。これにより、仲介端末3の送受信部は、画像管理システム7の送受信部71に動画データを転送する(S17)。更に、画像管理システム7の送受信部71は、スマートフォン5の送受信部51に動画データを転送する(S18)。 Next, the transmission / reception unit 11 of the spherical imaging device 1 transmits moving image data in response to the request to the transmission / reception unit of the intermediary terminal 31 (S16). This moving image data includes each data of a low-definition whole moving image and a high-definition partial moving image. As a result, the transmission / reception unit of the brokerage terminal 3 transfers the moving image data to the transmission / reception unit 71 of the image management system 7 (S17). Further, the transmission / reception unit 71 of the image management system 7 transfers the moving image data to the transmission / reception unit 51 of the smartphone 5 (S18).

次に、スマートフォン5は、動画データの再生処理を行う(S19)。このステップS19の処理は、後ほど詳細に説明する(図21乃至図25参照)。 Next, the smartphone 5 performs a video data reproduction process (S19). The process of step S19 will be described in detail later (see FIGS. 21 to 25).

<全天球撮影装置の動画生成処理>
次に、図18乃至図20を用いて、上述のステップS15で示した全天球撮影装置の動画データの生成処理について詳細に説明する。図18は、全天球撮影装置が行う画像処理の過程における画像の概念図である。
<Video generation processing of spherical imaging device>
Next, with reference to FIGS. 18 to 20, the process of generating moving image data of the spherical imaging apparatus shown in step S15 will be described in detail. FIG. 18 is a conceptual diagram of an image in the process of image processing performed by the spherical imaging apparatus.

画像処理部15は、撮影部14a,14bで得られた2つの半球画像データを正距円筒射影方式の画像(ここでは、動画)である正距円筒射影画像のデータに合成変換する(S120)。この変換後のデータは、一旦、超高精細画像の状態のままで一時記憶部16に記憶される。 The image processing unit 15 synthesizes and converts the two hemispherical image data obtained by the photographing units 14a and 14b into equirectangular projection image data which is an equirectangular projection image (here, moving image) (S120). .. The converted data is temporarily stored in the temporary storage unit 16 in the state of the ultra-high-definition image.

次に、部分画像パラメータ作成部12は、スマートフォン5から送られて来た指示データに基づいて部分画像パラメータを作成する(S130)。 Next, the partial image parameter creation unit 12 creates a partial image parameter based on the instruction data sent from the smartphone 5 (S130).

次に、低精細変更部17は、送受信部11で受信されたスマートフォン5からの指示データに従って、超高精細画像から低精細画像に変更する(S140)。これにより、低精細な正距円筒射影画像(ここでは、全体動画)が生成される。 Next, the low-definition changing unit 17 changes from the ultra-high-definition image to the low-definition image according to the instruction data from the smartphone 5 received by the transmitting / receiving unit 11 (S140). As a result, a low-definition equirectangular projection image (here, the entire moving image) is generated.

更に、射影方式変換部18は、送受信部11で受信した指示データに従って、即ち、全体動画の各フレームの一部の領域である部分動画の方向、部分動画のフレームの画角及びアスペクト、並びにスマートフォン5へ送信する動画データのサイズに従って、正距円筒射影方式を透視射影方式に射影方式変換する(S150)。これにより、高精細な状態の部分動画が生成される。 Further, the projection conversion unit 18 follows the instruction data received by the transmission / reception unit 11, that is, the direction of the partial moving image which is a part of each frame of the whole moving image, the angle of view and aspect of the frame of the partial moving image, and the smartphone. According to the size of the moving image data to be transmitted to No. 5, the equirectangular projection method is converted into the perspective projection method (S150). As a result, a partial moving image in a high-definition state is generated.

次に、結合部19は、低精細な全体動画、高精細な部分動画の各データを結合する(S160)。この結合の処理については、後ほど詳細に説明する(図20参照)。 Next, the joining unit 19 combines the data of the low-definition whole moving image and the high-definition partial moving image (S160). The processing of this binding will be described in detail later (see FIG. 20).

ここで、図19及び図20を用いて、図18に示した処理を更に詳細に説明する。図19は、部分画像パラメータを説明する図である。 Here, the process shown in FIG. 18 will be described in more detail with reference to FIGS. 19 and 20. FIG. 19 is a diagram illustrating partial image parameters.

(部分画像パラメータ)
まずは、図19を用いて、部分画像パラメータについて詳細に説明する。図19(a)はS120による画像合成後の全体画像を示す。図19(b)は部分画像パラメータの一例を示す図である。図19(c)はS150により射影方式が変換された後の部分画像を示す。
(Partial image parameters)
First, the partial image parameters will be described in detail with reference to FIG. FIG. 19A shows the entire image after image composition by S120. FIG. 19B is a diagram showing an example of partial image parameters. FIG. 19C shows a partial image after the projection method has been converted by S150.

図7で説明した方位角は図19(a)で示す正距円筒図法では横方向(緯度λ)となり、図7で説明した仰角は正距円筒射影方式では縦方向(経度φ)となる。図7の対角画角及びアスペクト比を合わせて、図19(b)で示すパラメータが部分画像パラメータである。図19(c)は図19(a)の正距円筒図法上の枠で囲まれた部分を部分画像パラメータで切出した部分画像の例である。 The azimuth angle described in FIG. 7 is in the horizontal direction (latitude λ) in the equirectangular projection shown in FIG. 19A, and the elevation angle described in FIG. 7 is in the vertical direction (longitude φ) in the equirectangular projection method. The parameters shown in FIG. 19B, including the diagonal angle of view and the aspect ratio of FIG. 7, are partial image parameters. FIG. 19C is an example of a partial image obtained by cutting out a portion surrounded by a frame in the equirectangular projection of FIG. 19A with partial image parameters.

ここで、射影方式の変換について説明する。図4(a)に示すように、正距円筒射影画像によって立体球を被うことで、全天球画像を作成している。よって、正距円筒射影画像の各画素データは、3次元の全天球画像の立体球の表面における各画素データに対応させることができる。そこで、射影方式変換部18による変換式は、正距円筒射影画像における座標を(緯度,経度)=(e,a)と表現し、3次元の立体球上の座標を直行座標(x,y,z)で表わすと、以下の(式3)で表わすことができる。
(x, y, z) = (cos(ea) × cos(aa), cos(ea) × sin(aa), sin(ea)) ・・・(式3)
但し、このときの立体球の半径は1とする。
Here, the conversion of the projection method will be described. As shown in FIG. 4A, a spherical image is created by covering a three-dimensional sphere with an equirectangular projection image. Therefore, each pixel data of the equirectangular projection image can correspond to each pixel data on the surface of the three-dimensional sphere of the three-dimensional all-sky image. Therefore, in the conversion formula by the projection method conversion unit 18, the coordinates in the equirectangular projection image are expressed as (latitude, longitude) = (e, a), and the coordinates on the three-dimensional solid sphere are orthogonal coordinates (x, y). , Z) can be expressed by the following (Equation 3).
(x, y, z) = (cos (ea) × cos (aa), cos (ea) × sin (aa), sin (ea)) ・ ・ ・ (Equation 3)
However, the radius of the three-dimensional sphere at this time is 1.

一方で、透視射影画像である部分画像は2次元画像であるが、これを2次元の極座標(動径,偏角)=(r,a)で表現すると、動径rは対角画角に対応し、取り得る範囲は0 ≦ r ≦ tan(対角画角/2)となる。また、部分画像を2次元の直交座標系(u,v)で表わすと、極座標(動径,偏角)=(r,a)との変換関係は、以下の(式4)で表わすことができる。
u = r × cos(a), v = r × sin(a) ・・・(式4)
次に、この(式3)を3次元の座標(動径,極角,方位角)に対応させることを考える。今、立体球CSの表面のみを考えているため、3次元極座標における動径は「1」である。また、立体球CSの表面に張り付けた正距円筒射影画像を透視射影変換する射影は、立体球の中心に仮想カメラがあると考えると、上述の2次元極座標(動径,偏角)=(r,a)を使うと、以下の(式5)、(式6)で表わすことができる。
r = tan(極角) ・・・(式5)
a = 方位角 ・・・(式6)
ここで極角をtとすると、t = arctan(r)となるため、3次元極座標(動径、極角、方位角)は、(動径、極角、方位角)=(1, arctan(r), a)と表現することができる。
On the other hand, the partial image which is a perspective projection image is a two-dimensional image, but when this is expressed by two-dimensional polar coordinates (movement diameter, argument) = (r, a), the movement diameter r becomes a diagonal angle of view. Correspondingly, the possible range is 0 ≤ r ≤ tan (diagonal angle of view / 2). Further, when the partial image is represented by the two-dimensional Cartesian coordinate system (u, v), the conversion relationship with the polar coordinates (diameter, argument) = (r, a) can be represented by the following (Equation 4). it can.
u = r × cos (a), v = r × sin (a) ・ ・ ・ (Equation 4)
Next, consider making this (Equation 3) correspond to three-dimensional coordinates (driving diameter, polar angle, azimuth). Since we are only considering the surface of the three-dimensional sphere CS, the moving diameter in three-dimensional polar coordinates is "1". Further, considering that the virtual camera is located at the center of the three-dimensional sphere, the projection that transforms the equirectangular projection image attached to the surface of the three-dimensional sphere CS is the above-mentioned two-dimensional polar coordinates (diameter, argument) = ( Using r and a), it can be expressed by the following (Equation 5) and (Equation 6).
r = tan (extreme angle) ・ ・ ・ (Equation 5)
a = Azimuth ・ ・ ・ (Equation 6)
If the polar angle is t, then t = arctan (r), so the three-dimensional polar coordinates (diameter, polar angle, azimuth) are (diameter, polar angle, azimuth) = (1, arctan (1, arctan ( It can be expressed as r) and a).

また3次元極座標から、直行座標系(x,y,z)へ変換するための変換式は、以下の(式7)で表わすことができる。
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ・・・(式7)
上記の(式7)により、正距円筒射影方式による全体画像と、透視射影方式による部分画像の相互変換ができるようになった。即ち、作成すべき部分画像の対角画角に対応する動径rを用いることで、部分画像の各画素が、正距円筒射影画像のどの座標に対応するかを表す変換マップ座標を算出でき、この変換マップ座標に基づいて、正距円筒射影画像から、透視射影画像である部分画像作成することができる。
The conversion formula for converting from three-dimensional polar coordinates to the orthogonal coordinate system (x, y, z) can be expressed by the following (Equation 7).
(x, y, z) = (sin (t) × cos (a), sin (t) × sin (a), cos (t)) ・ ・ ・ (Equation 7)
According to the above (Equation 7), mutual conversion between the entire image by the equirectangular projection method and the partial image by the fluoroscopic projection method has become possible. That is, by using the moving diameter r corresponding to the diagonal angle of view of the partial image to be created, it is possible to calculate the conversion map coordinates representing which coordinates of the equirectangular projection image each pixel of the partial image corresponds to. , A partial image, which is a perspective projection image, can be created from the equirectangular projection image based on the transformation map coordinates.

ところで、上記射影方式の変換は、正距円筒射影画像の(緯度,経度)が(90°,0°)となる位置が、透視射影画像である部分画像の中心点となるような変換を示している。そこで、正距円筒射影画像の任意の点を注視点として透視射影変換をする場合は、正距円筒射影画像を貼り付けた立体球を回転させることで、注視点の座標(緯度、経度)が(90°,0°)の位置に配置されるような座標回転を行えば良い。 By the way, the conversion of the projection method shows a conversion in which the position where the (latitude, longitude) of the equirectangular projection image is (90 °, 0 °) becomes the center point of the partial image which is the perspective projection image. ing. Therefore, when performing perspective projection conversion with an arbitrary point of the equirectangular projection image as the gazing point, the coordinates (latitude, longitude) of the gazing point can be changed by rotating the stereosphere to which the equirectangular projection image is pasted. Coordinate rotation may be performed so that the coordinates are arranged at the position (90 °, 0 °).

この立体球の回転に関する変換公式は、一般の座標回転公式であるため、説明を省略する。 Since the transformation formula for the rotation of the solid sphere is a general coordinate rotation formula, the description thereof will be omitted.

(結合の処理)
次に、図20を用いて、結合部19が行うステップS160の結合の処理について説明する。図20は、全体動画と部分動画の各フレーム画像が結合された状態を示す概念図である。図20に示しているように、一枚のフレームの上部に全体画像、下部に部分画像が配置されるように結合されている。本実施形態では、一般的はHD等のアスペクトである16:9に合わせて配置されるがアスペクトは問わない。また、配置も上下に限らず左右でもよい。部分画像が複数あった場合は、例えば上半分に全体動画、下半分に部分動画個数分だけ分割して配置してもよい。全体動画と部分画像をフレーム毎に1つにまとめることにより、画像間の同期を保障することができる。また、全天球撮影装置1は、スマートフォン5に対して、全体動画データ及び部分動画データを別々に送信してもよい。
(Processing of join)
Next, the coupling process of step S160 performed by the coupling unit 19 will be described with reference to FIG. FIG. 20 is a conceptual diagram showing a state in which each frame image of the entire moving image and the partial moving image is combined. As shown in FIG. 20, the whole image is arranged at the upper part and the partial image is arranged at the lower part of one frame. In the present embodiment, the aspect ratio is generally arranged according to 16: 9, which is an aspect ratio such as HD, but the aspect ratio does not matter. Further, the arrangement is not limited to the top and bottom, but may be left and right. When there are a plurality of partial images, for example, the entire moving image may be arranged in the upper half, and the lower half may be divided and arranged by the number of partial moving images. By combining the entire moving image and the partial image into one for each frame, synchronization between the images can be guaranteed. Further, the spherical imaging device 1 may separately transmit the whole moving image data and the partial moving image data to the smartphone 5.

但し、全体動画及び部分動画は、縦を半分にするため、半分にしない場合に比べてそれぞれ解像度は半分に落ちる。即ち、一時記憶部16に記憶されていた超高精細画像よりは精細度が下がる。その結果、精細度は、高い順に、一時記憶部16に記憶された全体画像、射影方式変換部18によって変換された後の部分画像、及び低精細変更部17によって変換された後の全体画像となる。 However, since the entire video and the partial video are halved in height, the resolution is reduced to half as compared with the case where they are not halved. That is, the definition is lower than that of the ultra-high-definition image stored in the temporary storage unit 16. As a result, the fineness is, in descending order, the entire image stored in the temporary storage unit 16, the partial image after being converted by the projection method conversion unit 18, and the entire image after being converted by the low-definition changing unit 17. Become.

<スマートフォンの動画再生処理>
続いて、図21を用いて、スマートフォン5の動画データの再生処理について説明する。図21は、スマートフォンが行う画像処理の過程における画像の概念図である。図7に示された重畳領域作成部54は、図21で示されているように部分画像パラメータで指示された部分立体球PSを作成する(S320)。
<Video playback processing for smartphones>
Subsequently, the reproduction process of the moving image data of the smartphone 5 will be described with reference to FIG. FIG. 21 is a conceptual diagram of an image in the process of image processing performed by the smartphone. The superimposing region creating unit 54 shown in FIG. 7 creates a partial three-dimensional sphere PS instructed by the partial image parameters as shown in FIG. 21 (S320).

次に、画像作成部55は、部分立体球PSに対して、透視射影方式である部分画像を重畳することで、重畳画像Sを作成する(S330)。また、画像作成部55は、部分立体球PSに基づいて、マスク画像Mを作成する(S340)。更に、画像作成部55は、立体球CSに対して正距円筒射影方式である全体画像を貼り付けることで全天球画像CEを作成する(S350)。そして、画像重畳部56は、全天球画像CEに対して重畳画像S及びマスク画像Mを重畳する(S360)。これにより、境目が目立たないように高精細の重畳画像(ここでは、高精細な部分動画)Sが重畳された低精細の全天球画像(ここでは、低精細な全体動画)CEが完成する。 Next, the image creation unit 55 creates a superposed image S by superimposing a partial image of the perspective projection method on the partial three-dimensional sphere PS (S330). Further, the image creation unit 55 creates a mask image M based on the partial three-dimensional sphere PS (S340). Further, the image creation unit 55 creates a spherical image CE by pasting an entire image of the equirectangular projection method on the stereoscopic sphere CS (S350). Then, the image superimposing unit 56 superimposes the superposed image S and the mask image M on the spherical image CE (S360). As a result, a low-definition spherical image (here, a low-definition whole moving image) CE on which a high-definition superimposed image (here, a high-definition partial moving image) S is superimposed so that the boundary is not conspicuous is completed. ..

次に、射影変換部57は、予め定められた仮想カメラの視線方向と画角に基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域をディスプレイ517で閲覧できるように射影変換を行う(S370)。 Next, the projective conversion unit 57 enables the display 517 to view a predetermined area in the spherical image CE in which the superimposed image S is superimposed based on a predetermined line-of-sight direction and angle of view of the virtual camera. The projective transformation is performed (S370).

図22は、部分平面から部分立体球の作成を説明する図である。通常、透視射影方式では平面に射影するため、図22(a)で示すように3次元空間上に平面で表すことが多い。本実施形態では、図22(b)のように全天球画像に合わせて球の一部である部分立体球とする。ここでは、平面から部分立体球への変換について説明する。 FIG. 22 is a diagram illustrating the creation of a partial three-dimensional sphere from a partial plane. Normally, in the perspective projection method, the image is projected onto a plane, so that it is often represented by a plane on a three-dimensional space as shown in FIG. 22 (a). In the present embodiment, as shown in FIG. 22B, a partial three-dimensional sphere that is a part of the sphere is used according to the spherical image. Here, the conversion from a plane to a partial solid sphere will be described.

図22(a)で示すように適切な大きさ(画角)で配置された平面上の各点(X,Y,Z)を球面上への射影を考える。球面への射影は球の原点から各点(X,Y,Z)を通る直線と球面との交点となる。球面上の各点は原点からの距離が球の半径と等しい点である。よって球の半径を1とすると図22(b)で示される球面上の点(X’,Y’,Z’)は下記の(式8)で表される。 Consider the projection of each point (X, Y, Z) on a plane arranged with an appropriate size (angle of view) onto a spherical surface as shown in FIG. 22 (a). The projection onto the sphere is the intersection of a straight line passing through each point (X, Y, Z) from the origin of the sphere and the sphere. Each point on the sphere is a point whose distance from the origin is equal to the radius of the sphere. Therefore, assuming that the radius of the sphere is 1, the points (X', Y', Z') on the sphere shown in FIG. 22 (b) are represented by the following (Equation 8).

(X’,Y’,Z’)=(X,Y,Z)×1/√(X+Y+Z)・・・(式8)
図23は、本実施形態の部分立体球作成を行わずに、全天球画像に部分画像を重畳した場合の二次元の概念図である。図24は、本実施形態の部分立体球作成を行って、全天球画像に部分画像を重畳した場合の二次元の概念図である。
(X', Y', Z') = (X, Y, Z) x 1 / √ (X 2 + Y 2 + Z 2 ) ... (Equation 8)
FIG. 23 is a two-dimensional conceptual diagram in the case where the partial image is superimposed on the spherical image without creating the partial three-dimensional sphere of the present embodiment. FIG. 24 is a two-dimensional conceptual diagram in the case where the partial three-dimensional sphere of the present embodiment is created and the partial image is superimposed on the spherical image.

図23(a)に示されているように、仮想カメラICが立体球CSの中心点に位置している場合を基準にすると、被写体P1は、全天球画像CE上で像P2として表され、重畳画像S上で像P3として表されている。図23(a)に示されているように、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置しているため、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。しかし、図23(b)に示されているように、仮想カメラICが立体球CSの中心点から離れると(画角αを小さくすると)、仮想カメラICと被写体P1とを結ぶ直線上に、像P2は位置しているが、像P3はやや内側に位置している。このため、仮想カメラICと被写体P1とを結ぶ直線上における重畳画像S上の像を像P3’とすると、全天球画像CEと重畳画像Sに、像P3と像P3’との間のズレ量g分のズレが生じてしまう。これにより、全天球画像CEに対して重畳画像Sがズレて表示されてしまうが、このように、重畳した表示であっても良い。 As shown in FIG. 23A, the subject P1 is represented as an image P2 on the spherical image CE, based on the case where the virtual camera IC is located at the center point of the stereoscopic sphere CS. , It is represented as an image P3 on the superimposed image S. As shown in FIG. 23A, since the images P2 and P3 are located on a straight line connecting the virtual camera IC and the subject P1, the superimposed image S is superimposed on the spherical image CE. Even if the image is displayed in the above state, the spherical image CE and the superimposed image S do not deviate from each other. However, as shown in FIG. 23B, when the virtual camera IC is separated from the center point of the three-dimensional sphere CS (when the angle of view α is reduced), the virtual camera IC and the subject P1 are drawn on a straight line. The image P2 is located, but the image P3 is located slightly inward. Therefore, assuming that the image on the superimposed image S on the straight line connecting the virtual camera IC and the subject P1 is the image P3', the spherical image CE and the superimposed image S are displaced between the image P3 and the image P3'. A deviation of the amount g will occur. As a result, the superimposed image S is displayed with a deviation from the spherical image CE, but the superimposed display may be used in this way.

これに対して、さらに、本実施形態では、部分立体球作成を行っているため、図24(a)、(b)に示されているように、重畳画像Sを全天球画像CEに沿って重畳することができる。これにより、図24(a)に示されているように、仮想カメラICが立体球CSの中心点に位置する場合だけでなく、図24(b)に示されているように、仮想カメラが立体球CSの中心点から離れた場合であっても、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置することになる。よって、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。 On the other hand, in the present embodiment, since the partial three-dimensional sphere is created, the superimposed image S is aligned with the spherical image CE as shown in FIGS. 24 (a) and 24 (b). Can be superimposed. As a result, not only when the virtual camera IC is located at the center point of the three-dimensional sphere CS as shown in FIG. 24 (a), but also as shown in FIG. 24 (b), the virtual camera can be moved. Even when the image P2 and the image P3 are separated from the center point of the three-dimensional sphere CS, the image P2 and the image P3 are located on a straight line connecting the virtual camera IC and the subject P1. Therefore, even if the superposed image S is displayed in a superposed state on the spherical image CE, there is no discrepancy between the spherical image CE and the superposed image S.

図25(a)は重畳表示しない場合のワイド画像の表示例、図25(b)は重畳表示しない場合のテレ画像の表示例、図25(c)は重畳表示する場合のワイド画像の表示例、図25(d)は重畳表示する場合のテレ画像の表示例を示した概念図である。なお、図中の波線は、説明の便宜上表しただけであり、実際にディスプレイ517上には表示されてもよく、表示されなくてもよい。 FIG. 25 (a) is a display example of a wide image when the superimposed display is not performed, FIG. 25 (b) is an example of displaying a tele image when the superimposed display is not performed, and FIG. 25 (c) is an example of displaying a wide image when the superimposed display is not performed. , FIG. 25D is a conceptual diagram showing a display example of a teleimage in the case of superimposed display. The wavy lines in the figure are shown only for convenience of explanation, and may or may not be actually displayed on the display 517.

図25(a)に示されているように、全天球画像(ここでは、低精細な全体動画)CEに対して部分画像(ここでは、高精細な部分動画)Pを重畳して表示しない場合、図25(a)における波線で示される領域まで拡大表示すると、図25(b)に示されているように、低精細の画像のままとなっており、利用者は鮮明でない画像を見ることになってしまう。これに対して、図25(c)に示されているように、全天球画像CEに対して部分画像Pを重畳して表示する場合、図25(c)における波線で示される領域まで拡大表示すると、図25(d)に示されているように、高精細の画像が表示され、利用者は鮮明な画像を見ることができる。特に、波線で示されている領域に、文字が描かれた看板等が表示されている場合、高精細な部分画像Pを重畳表示しなければ、拡大表示させても文字がぼやけてしまい、何が書かれてあるのか分からない。しかし、高精細な部分画像Pを重畳表示すれば、拡大表示させても文字が鮮明に見えるため、利用者は何が書かれているのかを把握することができる。 As shown in FIG. 25 (a), the partial image (here, high-definition partial moving image) P is not superimposed and displayed on the spherical image (here, low-definition whole moving image) CE. In this case, when the image is enlarged to the area shown by the wavy line in FIG. 25 (a), the low-definition image remains as shown in FIG. 25 (b), and the user sees an unclear image. It will end up being. On the other hand, as shown in FIG. 25 (c), when the partial image P is superimposed and displayed on the spherical image CE, it is enlarged to the area shown by the wavy line in FIG. 25 (c). When displayed, as shown in FIG. 25 (d), a high-definition image is displayed, and the user can see a clear image. In particular, when a signboard or the like on which characters are drawn is displayed in the area indicated by the wavy line, the characters will be blurred even if the high-definition partial image P is not superimposed and displayed. I don't know if is written. However, if the high-definition partial image P is superimposed and displayed, the characters can be clearly seen even when enlarged and displayed, so that the user can grasp what is written.

<<部分静止画の生成及び再生>>
続いて、図26を用いて部分静止画のデータの生成及び再生の処理について説明する。図26は、部分静止画のデータの生成及び再生の処理を示したシーケンス図である。
<< Generation and playback of partial still images >>
Subsequently, the process of generating and reproducing the data of the partial still image will be described with reference to FIG. FIG. 26 is a sequence diagram showing a process of generating and reproducing data of a partial still image.

閲覧者(利用者)が図17に示されているステップS19によって、図25(c)に示されているような部分画像(ここでは、高精細な部分動画)Pが重畳された全体画像(ここでは、低精細な全体動画)を閲覧中に、部分動画を更に高精細な静止画として閲覧したい場合に、図26に示されているように、閲覧者(利用者)がスマートフォン5を操作することで、受付部52が部分静止画の配信サービスを開始する要求を受け付ける(S31)。これにより、次に、スマートフォン5の送受信部51は、画像管理システム7の送受信部71に静止画データの要求を送信する(S32)。この際、閲覧者が指定した部分画像パラメータも送信される。 The entire image (here, a high-definition partial moving image) P on which the viewer (user) superimposes a partial image (here, a high-definition partial moving image) P as shown in FIG. 25 (c) by step S19 shown in FIG. Here, when the partial moving image is to be viewed as a higher-definition still image while the low-definition whole moving image is being viewed, the viewer (user) operates the smartphone 5 as shown in FIG. By doing so, the reception unit 52 receives the request to start the distribution service of the partial still image (S31). As a result, the transmission / reception unit 51 of the smartphone 5 next transmits a request for still image data to the transmission / reception unit 71 of the image management system 7 (S32). At this time, the partial image parameters specified by the viewer are also transmitted.

次に、画像管理システム7の送受信部71は、仲介端末3の送受信部に対して静止画データの要求を転送する(S33)。そして、仲介端末3の送受信部は、全天球撮影装置1の送受信部11に対して、静止画データ要求を転送する(S34)。 Next, the transmission / reception unit 71 of the image management system 7 transfers the request for still image data to the transmission / reception unit of the intermediary terminal 3 (S33). Then, the transmission / reception unit of the intermediary terminal 3 transfers the still image data request to the transmission / reception unit 11 of the spherical imaging device 1 (S34).

次に、全天球撮影装置1は、静止画データの生成処理を行う(S35)。このステップS35の処理は、後ほど詳細に説明する。 Next, the spherical imaging device 1 performs a still image data generation process (S35). The process of this step S35 will be described in detail later.

次に、全天球撮影装置1の送受信部11は、仲介端末31の送受信部に対して、要求に応じた静止画データを送信する(S36)。この静止画データは、超高精細の部分静止画のデータである。なお、静止画データの送信を開始するタイミングは、夜間などネットワークのトラフィック量が少ない時間帯や、遅延時間を測定し、所定の遅延時間より短くなる時に送信するようにしてもよい。これにより、仲介端末3の送受信部は、画像管理システム7の送受信部71に静止画データを転送する(S37)。 Next, the transmission / reception unit 11 of the spherical imaging device 1 transmits still image data in response to the request to the transmission / reception unit of the intermediary terminal 31 (S36). This still image data is ultra-high-definition partial still image data. The timing for starting the transmission of the still image data may be a time zone when the amount of network traffic is low such as at night, or a delay time may be measured and transmitted when the delay time is shorter than a predetermined delay time. As a result, the transmission / reception unit of the intermediary terminal 3 transfers the still image data to the transmission / reception unit 71 of the image management system 7 (S37).

次に、画像管理システム7の送受信部71が、静止画データを受信した場合は、記憶部7000に静止画データを記憶させる(S38)。 Next, when the transmission / reception unit 71 of the image management system 7 receives the still image data, the storage unit 7000 stores the still image data (S38).

そして、画像管理システム7の送受信部7は、スマートフォン5の送受信部51に静止画データを転送する(S39)。この際、転送開始のタイミングに関しては、全天球撮影装置1から仲介端末3を介して画像管理システムへのデータ送信と同様、通信ネットワーク100の帯域制御などを行う。 Then, the transmission / reception unit 7 of the image management system 7 transfers the still image data to the transmission / reception unit 51 of the smartphone 5 (S39). At this time, regarding the timing of starting the transfer, the band of the communication network 100 is controlled in the same manner as the data transmission from the celestial sphere photographing apparatus 1 to the image management system via the intermediary terminal 3.

次に、スマートフォン5は、全体動画上にこれまで重畳していた高精細な部分動画に代えて、超高精細な部分静止画を重畳して表示させる(S40)。この重畳の方法は、全体動画に部分動画を重畳した場合と共通する処理を含むが、異なる処理があるため、後ほど詳細に説明する。 Next, the smartphone 5 superimposes and displays an ultra-high-definition partial still image instead of the high-definition partial moving image previously superimposed on the entire moving image (S40). This method of superimposition includes a process common to the case of superimposing a partial moving image on the whole moving image, but since there is a different processing, it will be described in detail later.

なお、上記ステップS35において、判断部25が射影方式変換部18に、超高精細な静止画のデータに射影方式変換させないと判断した場合には、上記ステップS36〜S37において、静止画データの代わりに、「静止画を送信しない」旨、「画角は不足している」旨等のメッセージを送信するようにしてもよい。この場合、ステップS40では、全体動画上に部分動画が重畳されたままの状態で上記メッセージが表示される。 If, in step S35, the determination unit 25 determines that the projection method conversion unit 18 does not perform projection conversion to ultra-high-definition still image data, the determination unit 25 replaces the still image data in steps S36 to S37. You may also send a message such as "Do not send a still image" or "Insufficient angle of view". In this case, in step S40, the above message is displayed with the partial moving image still superimposed on the whole moving image.

<全天球撮影装置の静止画の生成>
次に、上述のステップS35で示した全天球撮影装置の静止画データの生成処理について詳細に説明する。
<Generation of still images of spherical imaging device>
Next, the process of generating still image data of the spherical imaging device shown in step S35 described above will be described in detail.

全天球撮影装置1において静止画データの要求を受信した場合、静止画撮影判定を行う。これは部分画像の画角が比較的に狭い場合、元画像からの変換によって作成された部分静止画の解像度が送信中の部分動画の解像度との差がなくなるためである。この場合、図16に示されている水平垂直画角閾値情報の水平画角(AH)と垂直画角(AV)を最低画角とし、部分画像パラメータで指定された画角が、当該画角より広い場合は静止画生成処理を実行する(S210)。 When the spherical imaging device 1 receives the request for still image data, the still image imaging determination is performed. This is because when the angle of view of the partial image is relatively narrow, the resolution of the partial still image created by the conversion from the original image does not differ from the resolution of the partial moving image being transmitted. In this case, the horizontal angle of view (AH) and the vertical angle of view (AV) of the horizontal / vertical angle of view threshold information shown in FIG. 16 are set as the minimum angle of view, and the angle of view specified by the partial image parameter is the angle of view. If it is wider, the still image generation process is executed (S210).

より具体的には、全天球撮影装置1の送受信部11が動画データの送信中に、静止画データの要求を受信した場合、射影方式変換部18は、部分動画のデータの生成と同様に、超高精細の部分静止画のデータに対し、部分画像パラメータに従って正距円筒射影方式を透視射影方式に射影方式変換を行う。この場合、生成される静止画像のサイズは可変とし、超高精細画像の解像度を維持したまま変換を行う。超高精細画像の水平解像度をW、指定された水平画角をahとすると、生成される静止画の水平解像度Wpは以下のように求めることができる。 More specifically, when the transmission / reception unit 11 of the spherical imaging device 1 receives a request for still image data during transmission of moving image data, the projection method conversion unit 18 similarly generates partial moving image data. , The equirectangular projection method is converted to the perspective projection method according to the partial image parameters for the ultra-high-definition partial still image data. In this case, the size of the generated still image is variable, and the conversion is performed while maintaining the resolution of the ultra-high-definition image. Assuming that the horizontal resolution of the ultra-high-definition image is W and the specified horizontal angle of view is ah, the horizontal resolution Wp of the generated still image can be obtained as follows.

Wp= W / 360 * ah ・・・(式9)
ここでのWのサイズは、全天球撮影装置1の起動時に読み込まれた水平垂直画角閾値情報(図16(a)参照)のW列から取得される。
Wp = W / 360 * ah ・ ・ ・ (Equation 9)
The size of W here is acquired from the W column of the horizontal / vertical angle-of-view threshold information (see FIG. 16A) read when the spherical imaging device 1 is started.

同様に指定された垂直画角をavとすると、生成される静止画の垂直解像度Hpは次式で求めることができる。 Similarly, assuming that the specified vertical angle of view is av, the vertical resolution Hp of the generated still image can be obtained by the following equation.

Hp= H/180 * av ・・・(式10)
更に、静止画符号化部20bは、部分静止画のデータの符号化を行い、画像バッファに格納する。そして、送受信部11は、ステップS16,S17と同様に、上述した通信ネットワーク帯域の制御を行い、仲介端末3を介して画像管理システム7に部分静止画のデータを送信する。この場合も部分画像パラメータが送信される。
Hp = H / 180 * av ・ ・ ・ (Equation 10)
Further, the still image coding unit 20b encodes the data of the partial still image and stores it in the image buffer. Then, the transmission / reception unit 11 controls the communication network band described above in the same manner as in steps S16 and S17, and transmits the partial still image data to the image management system 7 via the intermediary terminal 3. In this case as well, the partial image parameters are transmitted.

<スマートフォンの静止画の再生>
次に、上述のステップS40で示したスマートフォン5の静止画データの再生処理について詳細に説明する。
<Playback of still images on smartphones>
Next, the reproduction process of the still image data of the smartphone 5 shown in step S40 described above will be described in detail.

スマートフォン5側では、送受信部51が全天球撮影装置1から送られてきた静止画データを通信部で受信した部分静止画のデータと部分画像パラメータに分離する。静止画復号化部53bは、分離された後の部分静止画のデータを復号化する。その後は、上述の全体動画と部分動画の各データに対する処理が、全体動画と部分静止画の各データに対する処理に置き換わっただけであるため、その説明を省略する。 On the smartphone 5 side, the transmission / reception unit 51 separates the still image data sent from the spherical imaging device 1 into the partial still image data received by the communication unit and the partial image parameters. The still image decoding unit 53b decodes the data of the partial still image after the separation. After that, since the above-mentioned processing for each data of the whole moving image and the partial moving image is only replaced with the processing for each data of the whole moving image and the partial still image, the description thereof will be omitted.

〔実施形態の主な効果〕
以上説明したように本実施形態によれば、全体動画及び部分動画のデータ通信量を抑制しながらも、部分画像の精細度をできるだけ下げないようにすることで閲覧者がよりはっきりと注目する領域を閲覧することができるという効果を奏する。
[Main effects of the embodiment]
As described above, according to the present embodiment, the area in which the viewer pays more clear attention by suppressing the data communication volume of the entire moving image and the partial moving image while keeping the fineness of the partial image as low as possible. It has the effect of being able to browse.

また、全天球撮影装置1は、超高精細の全天球画像から低精細の全体画像(ここでは、低精細の全体動画)を作成し(S140)、同じ超高精細の全天球画像から射影方式の異なる高精細の部分画像(ここでは、高精細の部分動画)を作成する(S150)。そして、全天球撮影装置1が、スマートフォン5に対して、低精細の全体画像及び高精細の部分画像の各データを送信する。これに対して、スマートフォン5は、低精細の全体画像上に高精細の部分画像を重畳して(S360)、利用者(閲覧者)が指定する視線方向及び画角に応じて射影方式を変換する(S370)。このように、全天球撮影装置1は、被写体等を撮像することによって得られた超高精細な全天球画像のうち、注目されている領域である部分画像については高精細に下げて送信し、注目されていない(全天球画像の全体を把握するための)全体画像については低精細に下げて送信し、しかも、高精細の部分画像については射影方式を変換してから送信する。更に、この送信前に、結合部19が、図20に示されているように、低精細の全体動画データ及び高精細の部分動画データの縦の解像度を半分に圧縮することで、それぞれのフレームの精細度を下げて一フレームに結合する。これにより、受信側のスマートフォン5では、従来に比べて、データ量が削減できるため、早く全体画像に部分画像を重畳した状態の全天球画像を表示させることができるという効果を奏する。 Further, the spherical image capturing device 1 creates a low-definition whole image (here, a low-definition whole moving image) from the ultra-high-definition spherical image (S140), and the same ultra-high-definition spherical image. A high-definition partial image (here, a high-definition partial moving image) having a different projection method is created from (S150). Then, the spherical imaging device 1 transmits each data of the low-definition whole image and the high-definition partial image to the smartphone 5. On the other hand, the smartphone 5 superimposes a high-definition partial image on the low-definition whole image (S360) and converts the projection method according to the line-of-sight direction and the angle of view specified by the user (viewer). (S370). In this way, the spherical imaging device 1 transmits the partial image, which is a region of interest, in the ultra-high-definition spherical image obtained by photographing the subject or the like in a high-definition manner. However, the whole image (for grasping the whole spherical image) that has not been noticed is transmitted in a low definition, and the high definition partial image is transmitted after the projection method is converted. Further, prior to this transmission, the coupling portion 19 compresses the vertical resolutions of the low-definition whole moving image data and the high-definition partial moving image data in half, as shown in FIG. Reduce the resolution of and combine into one frame. As a result, the smartphone 5 on the receiving side can reduce the amount of data as compared with the conventional case, so that it is possible to quickly display the spherical image in the state where the partial image is superimposed on the whole image.

よって、本実施形態によれば、通信量を減らすべく、全天球撮影装置1が、全天球画像の全体を縮小した低精細な全体画像と、全天球画像(全体画像)内の注目する領域である高精細な部分画像のデータとを配信し、受信側のスマートフォン5で全体画像に部分画像を合成するだけでなく、低精細な全体画像と高精細な部分画像が異なる射影方式であっても、スマートフォン5で合成して表示可能であるため、射影方式に関する汎用性が高いという効果を奏する。 Therefore, according to the present embodiment, in order to reduce the amount of communication, the whole celestial sphere photographing apparatus 1 reduces the entire celestial sphere image to a low-definition whole image and attention in the whole celestial sphere image (whole image). Not only is the data of the high-definition partial image, which is the area to be processed, distributed, and the partial image is combined with the entire image on the receiving smartphone 5, but also the low-definition overall image and the high-definition partial image are projected differently. Even if there is, since it can be combined and displayed on the smartphone 5, it has the effect of being highly versatile in terms of the projection method.

〔補足〕
上記実施形態では、判断部25は、全体動画の一部の領域である部分画像の一フレームの全領域が、閾値管理部1001で管理されている水平垂直画角閾値情報(図16参照)の所定の閾値で示される所定領域よりも小さいか否かを判断する。そして、小さい場合には、判断部25は、射影方式変換部18に対して超高精細な静止画のデータに射影方式変換させないようにし、大きい場合には、判断部25は、射影方式変換部18に対して超高精細な静止画のデータに射影方式変換させるようにしたが、これに限るものではない。例えば、小さい場合には、送受信部11が静止画記憶部29に記憶されている射影方式変換後の部分静止画のデータをスマートフォン5側に送信させない処理を行い、大きい場合には、送受信部11が静止画記憶部29に記憶されている射影方式変換後の部分静止画のデータをスマートフォン5側に送信させる処理を行うようにしてもよい。この場合、判断部25が送受信部11に送信させるか否かを指示しても良いし、判断部25が静止画記憶部29に対して、記憶部29に記憶されている射影方式変換後の部分静止画のデータを、送受信部11側に送信させるか否かを指示してもよい。
[Supplement]
In the above embodiment, the determination unit 25 determines the horizontal / vertical angle of view threshold information (see FIG. 16) in which the entire area of one frame of the partial image, which is a part of the entire moving image, is managed by the threshold management unit 1001. It is determined whether or not it is smaller than the predetermined region indicated by the predetermined threshold value. If it is small, the determination unit 25 prevents the projection method conversion unit 18 from converting the ultra-high-definition still image data into a projection method, and if it is large, the determination unit 25 determines the projection method conversion unit. 18 is converted into ultra-high-definition still image data by a projection method, but the present invention is not limited to this. For example, if it is small, the transmission / reception unit 11 performs a process that prevents the data of the partial still image after the projection method conversion stored in the still image storage unit 29 from being transmitted to the smartphone 5, and if it is large, the transmission / reception unit 11 May perform a process of transmitting the data of the partial still image after the projection method conversion stored in the still image storage unit 29 to the smartphone 5. In this case, the determination unit 25 may instruct whether or not to transmit to the transmission / reception unit 11, and the determination unit 25 tells the still image storage unit 29 after the projection method conversion stored in the storage unit 29. You may instruct whether or not to transmit the data of the partial still image to the transmission / reception unit 11.

また、全天球撮影装置1は撮影装置の一例であり、撮影装置には、通常の平面画像を得るデジタルカメラやスマートフォン等も含まれる。通常の平面画像を得るデジタルカメラやスマートフォンの場合、全天球画像を得るのではなく、比較的広角な画像(広角画像)を得ることができる。 Further, the spherical photographing device 1 is an example of a photographing device, and the photographing device includes a digital camera, a smartphone, and the like for obtaining a normal plane image. In the case of a digital camera or smartphone that obtains a normal plane image, it is possible to obtain a relatively wide-angle image (wide-angle image) instead of obtaining a spherical image.

また、スマートフォン5は、通信端末又は画像処理装置の一例であり、通信端末又は画像処理装置には、タブレット型PC(Personal Computer:パーソナルコンピュータ)、ノートPC、デスクトップPC等のPCも含まれる。また、通信端末又は画像処理装置には、スマートウォッチ、ゲーム機器、又は車両等に搭載するカーナビゲーション端末等が含まれる。 Further, the smartphone 5 is an example of a communication terminal or an image processing device, and the communication terminal or the image processing device also includes a PC such as a tablet PC (Personal Computer), a notebook PC, and a desktop PC. Further, the communication terminal or the image processing device includes a smart watch, a game device, a car navigation terminal mounted on a vehicle or the like, and the like.

上記実施形態では、低精細画像として、撮像部14a,14bから得られた画像データの画像の全体領域である全体動画と、高精細画像として、全体領域の一部の領域である部分動画について説明したが、これに限るものではない。低精細画像は、撮像部14a,14bから得られた動画データの画像の全体領域の一部の領域A1の画像であってもよい。この場合、高精細画像は、一部の領域A1の更に一部の領域A2の画像となる。即ち、低精細な全体動画と高精細な部分動画との関係は、前者が広角動画であるのに対して後者が狭角動画像である。なお、部分静止画についても、部分動画と同様の考えで、狭角静止画ということができる。また、本実施形態において、広角画像(静止画、動画のいずれも含む)は、いわゆる広角レンズや魚眼レンズを備える撮像装置で撮影された画像の歪みが発生するような画像。また、狭角画像(静止画、動画のいずれも含む)は、広角レンズや魚眼レンズを備える撮像装置で撮影された画像の一部で、画角が広角画像よりも狭い画角の画像。 In the above embodiment, as a low-definition image, an entire moving image which is an entire area of the image of the image data obtained from the imaging units 14a and 14b, and as a high-definition image, a partial moving image which is a part of the entire area will be described. However, it is not limited to this. The low-definition image may be an image of a part of the entire region A1 of the image of the moving image data obtained from the imaging units 14a and 14b. In this case, the high-definition image becomes an image of a part of the area A1 and a part of the area A2. That is, the relationship between the low-definition whole moving image and the high-definition partial moving image is that the former is a wide-angle moving image while the latter is a narrow-angle moving image. The partial still image can also be called a narrow-angle still image in the same way as the partial moving image. Further, in the present embodiment, the wide-angle image (including both a still image and a moving image) is an image in which distortion occurs in an image taken by an imaging device including a so-called wide-angle lens or a fisheye lens. A narrow-angle image (including both still images and moving images) is a part of an image taken by an image pickup device equipped with a wide-angle lens or a fisheye lens, and has a narrower angle of view than a wide-angle image.

上記実施形態では、全天球画像に平面画像を重畳する場合について説明したが、重畳は、合成の一例である。合成には、重畳の他に、貼り付け、嵌め込み、重ね合わせ等も含まれる。また、上記重畳画像は、合成画像の一例である。合成画像には、重畳画像の他に、貼り付け画像、嵌め込み画像、重ね合わせ画像等も含まれる。更に、画像重畳部56は、画像合成部の一例である。 In the above embodiment, the case where the planar image is superimposed on the spherical image has been described, but the superimposition is an example of synthesis. In addition to superposition, synthesis also includes pasting, fitting, superposition, and the like. The superimposed image is an example of a composite image. In addition to the superimposed image, the composite image also includes a pasted image, an inset image, a superposed image, and the like. Further, the image superimposition unit 56 is an example of an image composition unit.

また、正距円筒射影画像ECと平面画像Pは、両方とも静止画の場合、両方とも動画のフレームの場合、一方が静止画で他方が動画のフレームの場合のいずれであってもよい。 Further, the equirectangular projection image EC and the plane image P may be either a still image, both a moving image frame, or one still image and the other moving image frame.

更に、上記実施形態では、射影方式変換部18は、一時記憶部16から取得した高精細の画像データをそのままの精細度で射影方式を変換しているが、これに限るものではない。例えば、低精細変更部17から出力される全体画像データよりも高い精細度であれば、射影方式変換部18は、射影方式を変換する際に一時記憶部16から取得した画像データの精細度を低くしてもよい。 Further, in the above embodiment, the projection method conversion unit 18 converts the high-definition image data acquired from the temporary storage unit 16 with the same definition, but the present invention is not limited to this. For example, if the definition is higher than the overall image data output from the low-definition changing unit 17, the projection method conversion unit 18 determines the definition of the image data acquired from the temporary storage unit 16 when converting the projection method. It may be lowered.

図13及び図14に示されている各機能構成は、ソフトウェア機能ユニットの形で実現し、且つ、独立製品として販売または使用する場合に、コンピュータ読取り可能な記憶媒体に記憶することができる。この場合に、本実施形態の技術方案は、本質的、または従来技術に貢献する部分若しくは上記技術方案の部分はソフトウェア製品の形で表現される。上記コンピュータソフトウェア製品は、記憶媒体に記憶され、コンピュータ装置(パーソナルコンピュータ、サーバ、或はネットワークデバイスなど)に上記各実施形態にかかる上記方法の全部或は一部のステップを実行させる複数の指令を含む。なお、上述の記憶媒体は、USBメモリ、リムーバブルディスク、ROM、RAM、磁気ディスク、あるいは光ディスクなど、プログラムコードを格納できる様々な媒体を含む。 Each functional configuration shown in FIGS. 13 and 14 is realized in the form of a software functional unit and can be stored in a computer-readable storage medium when sold or used as an independent product. In this case, in the technical plan of the present embodiment, the essential or part that contributes to the prior art or the part of the above technical plan is expressed in the form of a software product. The computer software product is stored in a storage medium and gives a plurality of instructions to a computer device (personal computer, server, network device, etc.) to perform all or part of the steps of the above method according to each of the above embodiments. Including. The above-mentioned storage medium includes various media such as a USB memory, a removable disk, a ROM, RAM, a magnetic disk, or an optical disk, which can store a program code.

また、上記実施形態にかかる方法は、プロセッサに適用され、またはプロセッサによって実現される。プロセッサは信号を処理する能力を持つ集積回路基板である。上記各実施形態の方法の各ステップはプロセッサにおけるハードウェアである集積論理回路又はソフトウェア形式の指令によって実現される。上記プロセッサは汎用プロセッサ、デジタル信号プロセッサ(DSP)、専用集積回路(ASIC)、既製プログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタ論理デバイス、ディスクリートハードウェア部品であり、上記各実施形態に開示される各方法、ステップ及び論理ボックスを実現又は実行可能なものである。汎用処理器はマイクロプロセッサ又は任意の一般処理器などである。上記各実施形態にかかる方法の各ステップは、ハードウェアであるデコーダにより実行されることで実現されてもよく、または、デコーダにおけるハードウェアとソフトウェアとの組み合わせによって実現されても良い。ソフトウェアモジュールはランダムメモリ、フラッシュメモリ、読出し専用メモリ、プログラマブル読出し専用メモリ、あるいは電気的消去可能なプログラマブルメモリ、レジスタなど、本分野で成熟した記憶媒体に記憶される。このソフトウェアが記憶される記憶媒体を備えるメモリから、プロセッサは情報を読み取り、ハードウェアに合わせて上記方法のステップを実現させる。 Also, the method according to the above embodiment is applied to or realized by a processor. A processor is an integrated circuit board capable of processing signals. Each step of the method of each of the above embodiments is realized by an integrated logic circuit or software-type directive that is hardware in the processor. The processors are general purpose processors, digital signal processors (DSPs), dedicated integrated circuits (ASICs), off-the-shelf programmable gate arrays (FPGAs) or other programmable logic devices, discrete gate or transistor logic devices, discrete hardware components, and each of the above. Each method, step and logical box disclosed in the embodiment is feasible or feasible. The general-purpose processor may be a microprocessor or any general processor. Each step of the method according to each of the above embodiments may be realized by being executed by a decoder which is hardware, or may be realized by a combination of hardware and software in the decoder. Software modules are stored in storage media mature in the art, such as random memory, flash memory, read-only memory, programmable read-only memory, or electrically erasable programmable memory and registers. The processor reads the information from the memory including the storage medium in which the software is stored, and implements the steps of the above method according to the hardware.

以上に説明した実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、またはそれらの組み合わせで実現される。その中に、ハードウェアの実現に関して、処理ユニットは一つまたは複数の専用集積回路(ASIC)、デジタル信号処理プロセッサ(DSP)、デジタル信号プロセッサ(DSPD)、プログラム可能論理回路(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、汎用プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、本発明の機能を実行する他の電子ユニット或はその組合せにより実現される。また、ソフトウェアの実現に関しては、上述した機能を実現するモジュール(たとえばプロセス、関数など)により上記技術が実現される。ソフトウェアコードは、メモリに保存され、プロセッサによって実行される。なお、メモリはプロセッサの内部または外部で実現される。 The embodiments described above are realized by hardware, software, firmware, middleware, microcode, or a combination thereof. Among them, regarding the realization of hardware, the processing unit is one or more dedicated integrated circuits (ASIC), digital signal processing processor (DSP), digital signal processor (DSPD), programmable logic circuit (PLD), field programmable. It is implemented by a gate array (FPGA), an application specific integrated circuit, a controller, a microcontroller, a microprocessor, and other electronic units or combinations thereof that perform the functions of the present invention. Regarding the realization of software, the above technology is realized by modules (for example, processes, functions, etc.) that realize the above-mentioned functions. The software code is stored in memory and executed by the processor. The memory is realized inside or outside the processor.

1 全天球撮影装置(撮影装置の一例)
5 スマートフォン(通信端末の一例、画像処理装置の一例)
13 撮像制御部
14a 撮像部
14b 撮像部
15 画像処理部
16 一時記憶部
17 低精細変更部(変更手段の一例)
18 射影方式変換部(射影方式変換手段の一例)
19 結合部(結合手段の一例)
20a 動画符号化部
20b 静止画符号化部
22 受付部
51 送受信部
52 受付部
53a 動画復号化部
53b 静止画号化部
54 重畳領域作成部
55 画像作成部
56 画像重畳部
57 射影変換部
58 表示制御部
1 Spherical imaging device (an example of imaging device)
5 Smartphones (an example of a communication terminal, an example of an image processing device)
13 Image control unit 14a Image pickup unit 14b Image pickup unit 15 Image processing unit 16 Temporary storage unit 17 Low-definition change unit (example of change means)
18 Projection method conversion unit (an example of projection method conversion means)
19 Bonding part (example of joining means)
20a Video coding unit 20b Still image coding unit 22 Reception unit 51 Transmission / reception unit 52 Reception unit 53a Video decoding unit 53b Still image numbering unit 54 Superimposition area creation unit 55 Image creation unit 56 Image superimposition unit 57 Projection conversion unit 58 Display Control unit

特開2006−340091号公報Japanese Unexamined Patent Publication No. 2006-3400091

Claims (10)

被写体を撮影して所定の精細度の動画データを得る撮影装置であって、
前記所定の精細度の動画データに係る動画の全て又は一部である広角動画を低精細に変更す変更手段と、
前記広角動画の一部の領域である狭角動画を前記変更手段によって低精細に変更後の広角動画よりも高精細な状態で射影方式変換する射影方式変換手段と、
前記低精細な広角動画のフレーム及び前記高精細な狭角動画のフレームのそれぞれの精細度を下げて一フレームに結合する結合手段と、
を有し、
前記射影方式変換手段は、前記変更手段によって低精細に変更前の広角動画のフレームとしての広角静止画の前記一部の領域である狭角静止画を前記射影方式変換することを特徴とする撮影装置。
A shooting device that shoots a subject and obtains moving image data of a predetermined definition.
A changing means for changing a wide-angle moving image, which is all or a part of the moving image related to the moving image data of the predetermined definition, to a low definition.
A projection conversion means for converting a narrow-angle moving image, which is a part of the wide-angle moving image, into a higher-definition state than the wide-angle moving image after being changed to a low definition by the changing means.
A coupling means for lowering the definition of each of the low-definition wide-angle moving image frame and the high-definition narrow-angle moving image frame to combine them into one frame.
Have,
The imaging method conversion means is characterized in that the narrow-angle still image, which is a part of the region of the wide-angle still image as a frame of the wide-angle moving image before being changed to low definition by the changing means, is converted by the projection method. apparatus.
請求項1に記載の撮影装置であって、
画像データを管理する画像管理システムが受信するように、前記結合手段によって一フレームに結合された前記広角動画のフレームデータ及び前記狭角動画のフレームデータを送信する送信手段と、
通信端末が送信した静止画の要求を受信する受信手段と、
を有し、
前記受信手段による前記静止画の要求の受信に基づき、前記送信手段は前記画像管理システムが受信するように前記射影方式変換手段による変換後の前記狭角静止画のデータを送信することを特徴とする撮影装置。
The imaging device according to claim 1.
A transmission means for transmitting the frame data of the wide-angle moving image and the frame data of the narrow-angle moving image combined into one frame by the combining means so that the image management system that manages the image data receives the frame data.
A receiving means for receiving a request for a still image transmitted by a communication terminal, and
Have,
Based on the reception of the request for the still image by the receiving means, the transmitting means transmits the data of the narrow-angle still image after conversion by the projection conversion means so that the image management system receives the data. Shooting equipment to do.
前記狭角動画の一フレームの全領域が所定領域よりも小さい場合には、前記射影方式変換手段は、前記狭角静止画を前記射影方式変換しない、又は、前記送信手段は、前記射影方式変換手段による変換後の前記狭角静止画のデータを送信しないことを特徴とする撮影装置。 When the entire area of one frame of the narrow-angle moving image is smaller than a predetermined area, the projection method conversion means does not convert the narrow-angle still image into the projection method, or the transmission means converts the projection method. A photographing device characterized in that the data of the narrow-angle still image after conversion by means is not transmitted. 前記広角動画は、前記被写体を撮影して得られた所定の精細度の動画データのフレームの全領域によって構成されていることを特徴とする請求項1乃至3のいずれか一項に記載の撮影装置。 The shooting according to any one of claims 1 to 3, wherein the wide-angle moving image is composed of the entire area of a frame of moving image data having a predetermined definition obtained by shooting the subject. apparatus. 前記射影方式変換手段は、前記所定の精細度のままの状態で前記狭角静止画を前記射影方式変換することを特徴とする請求項1乃至4のいずれか一項に記載の撮影装置。 The photographing apparatus according to any one of claims 1 to 4, wherein the projection method conversion means converts the narrow-angle still image into the projection method while maintaining the predetermined definition. 前記撮影装置は、被写体を撮影して全天球画像データを得る全天球撮影装置であることを特徴とする請求項1乃至5のいずれか一項に記載の撮影装置。 The photographing device according to any one of claims 1 to 5, wherein the photographing device is a spherical photographing device that photographs a subject and obtains spherical image data. 請求項1乃至6のいずれか一項に記載の撮影装置と、
前記画像管理システムと、
を有することを特徴とする撮影システム。
The imaging device according to any one of claims 1 to 6.
With the image management system
A photography system characterized by having.
請求項1乃至6のいずれか一項に記載の撮影装置と、
前記画像管理システムと、
前記画像管理システムから、前記広角動画のデータ及び前記狭角動画のデータを受信して、前記広角動画上の前記一部の領域に前記狭角動画を合成して表示し、前記画像管理システムから、前記狭角静止画のデータを受信して、前記広角画像上の前記一部の領域に前記狭角画像を合成して、前記狭角動画に替えて狭角静止画を表示する通信端末と、
を有することを特徴とする撮影システム。
The imaging device according to any one of claims 1 to 6.
With the image management system
The wide-angle moving image data and the narrow-angle moving image data are received from the image management system, the narrow-angle moving image is synthesized and displayed in a part of the area on the wide-angle moving image, and the narrow-angle moving image is displayed from the image management system. With a communication terminal that receives the data of the narrow-angle still image, synthesizes the narrow-angle image with the part of the region on the wide-angle image, and displays the narrow-angle still image in place of the narrow-angle moving image. ,
A photography system characterized by having.
被写体を撮影して所定の精細度の動画データを処理する画像処理方法であって、
前記所定の精細度の動画データに係る動画の全て又は一部である広角動画を低精細に変更す変更ステップと、
前記広角動画の一部の領域である狭角動画を前記変更ステップによって低精細に変更後の広角動画よりも高精細な状態で射影方式変換する射影方式変換ステップと、
前記低精細な広角動画のフレーム及び前記高精細な狭角動画のフレームのそれぞれの精細度を下げて一フレームに結合する結合ステップと、
を実行し、
前記射影方式変換ステップは、前記変更ステップによって低精細に変更前の広角動画のフレームとしての広角静止画の前記一部の領域である狭角静止画を前記射影方式変換する処理を含むことを特徴とする画像処理方法。
It is an image processing method that shoots a subject and processes moving image data of a predetermined definition.
A change step of changing a wide-angle moving image, which is all or a part of the moving image related to the moving image data of the predetermined definition, to a low definition, and
A projection conversion step that converts a narrow-angle moving image, which is a part of the wide-angle moving image, into a higher-definition state than the wide-angle moving image after being changed to low definition by the change step,
A combination step of lowering the definition of each of the low-definition wide-angle moving image frame and the high-definition narrow-angle moving image frame to combine them into one frame.
And
The projection method conversion step includes a process of converting a narrow-angle still image, which is a part of the wide-angle still image as a frame of a wide-angle moving image before being changed to low definition by the change step, into the projection method. Image processing method.
コンピュータに、請求項10に記載の方法を実行させることを特徴とするプログラム。 A program comprising causing a computer to perform the method of claim 10.
JP2020039043A 2019-03-20 2020-03-06 Photographing device, photographing system, image processing method, and program Pending JP2020162118A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202010171270.4A CN111726520B (en) 2019-03-20 2020-03-12 Imaging device, imaging system, and image processing method
US16/820,760 US10939068B2 (en) 2019-03-20 2020-03-17 Image capturing device, image capturing system, image processing method, and recording medium
EP20164281.6A EP3712839A1 (en) 2019-03-20 2020-03-19 Image capturing device, image capturing system, image processing method, and carrier means
US17/120,829 US11310459B2 (en) 2019-03-20 2020-12-14 Image capturing device, image capturing system, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019052601 2019-03-20
JP2019052601 2019-03-20

Publications (1)

Publication Number Publication Date
JP2020162118A true JP2020162118A (en) 2020-10-01

Family

ID=72640194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020039043A Pending JP2020162118A (en) 2019-03-20 2020-03-06 Photographing device, photographing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2020162118A (en)

Similar Documents

Publication Publication Date Title
US11558431B2 (en) Communication terminal, communication system, communication method, and display method
CN111726520B (en) Imaging device, imaging system, and image processing method
JP6805861B2 (en) Image processing equipment, image processing system, image processing method and program
US11323621B2 (en) Image communication system, image capturing device, communication terminal, and mode switching method
JP2022031324A (en) Communication management system, communication system, communication management method and program
JP7192592B2 (en) Imaging device, image communication system, image processing method, program
US11250540B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2018110384A (en) Image processing apparatus, imaging system, image processing method and program
JP2018056889A (en) Display terminal, display method, and program
US11102448B2 (en) Image capturing apparatus, image processing system, image processing method, and recording medium
JP6304300B2 (en) Transmitting apparatus, communication method, program, and receiving apparatus
JP2018026642A (en) Image management system, image communication system, image management method, and program
JP7424031B2 (en) Communication terminal, photographing system, image processing method and program
JP7415544B2 (en) Photography system and method
US11533430B2 (en) Image capturing device with display control, image communication system, and method for display control, and recording medium
JP6711118B2 (en) Image management system, program and information terminal
JP6586819B2 (en) Image management system, image communication system, image management method, and program
JP2018061243A (en) Communication terminal, display method, and program
JP2020162118A (en) Photographing device, photographing system, image processing method, and program
JP7400407B2 (en) Communication terminal, photographing system, image processing method and program
JP7358938B2 (en) Communication terminal, image communication system, display method, and program
JP6992338B2 (en) Communication system, communication management method, program, system and communication method
JP6233451B2 (en) Image sharing system, communication method and program
JP2022007898A (en) Program, image communication system, display method and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240304

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402