JP2020109955A - Photographing device, photographing system, image processing method, and program - Google Patents

Photographing device, photographing system, image processing method, and program Download PDF

Info

Publication number
JP2020109955A
JP2020109955A JP2019231625A JP2019231625A JP2020109955A JP 2020109955 A JP2020109955 A JP 2020109955A JP 2019231625 A JP2019231625 A JP 2019231625A JP 2019231625 A JP2019231625 A JP 2019231625A JP 2020109955 A JP2020109955 A JP 2020109955A
Authority
JP
Japan
Prior art keywords
image
definition
data
unit
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019231625A
Other languages
Japanese (ja)
Other versions
JP7415544B2 (en
Inventor
啓一 河口
Keiichi Kawaguchi
啓一 河口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/728,156 priority Critical patent/US11250540B2/en
Publication of JP2020109955A publication Critical patent/JP2020109955A/en
Application granted granted Critical
Publication of JP7415544B2 publication Critical patent/JP7415544B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To solve the problem in which: in a conventional technology, definition is made different between an entire image and a partial image, but both images use the same projection method, which causes the problem of low versatility.SOLUTION: An entire celestial sphere photographing device 1 creates a low-definition entire image (including a low-definition partial image) from an entire celestial sphere image that is a high-definition wide-angle image (S140), and creates a high-definition partial image using different projection method from the same high-definition entire celestial sphere image (S150). The entire celestial sphere photographing device 1 transmits data of the low-definition entire image and the high-definition partial image, and thereby a smartphone 5 at a reception side cannot only composite the partial image with the entire image, but display the composite image even if the low-definition entire image and the high-definition partial image use different projection methods, which leads to an effect of high versatility on the projection method.SELECTED DRAWING: Figure 13

Description

本発明は、撮影装置、撮影システム、画像処理方法、及びプログラムに関するものである。 The present invention relates to a photographing device, a photographing system, an image processing method, and a program.

回転台を用いたパン・チルト及びズームレンズで構成されるカメラシステムの代わりに魚眼レンズなどを使用して被写体を撮影して得られた広角画像のデータを配信し、その画像を受信側のビューアーで部分画像を生成して表示する電子的にパン・チルト・ズームする技術が既に知られている。 Wide-angle image data obtained by shooting a subject using a fisheye lens instead of a camera system consisting of a pan/tilt and zoom lens using a turntable is distributed, and the image is received by a viewer on the receiving side. Electronically pan/tilt/zoom technology for generating and displaying partial images is already known.

ところが、被写体を撮影して得た広角画像のデータを配信する技術では、注目されていない領域の画像のデータも配信するため、通信量が多くなる問題がある。 However, in the technique for distributing the data of the wide-angle image obtained by photographing the subject, the data of the image of the area not being noticed is also distributed, which causes a problem that the communication amount increases.

これに対して、通信量を減らすべく、撮影装置が、広角画像の全体を縮小した低精細な全体画像と、広角画像内の注目する領域である高精細な部分画像のデータとを配信し、受信側で全体画像に部分画像を嵌め込む技術が開示されている(特許文献1参照)。 On the other hand, in order to reduce the amount of communication, the image capturing device distributes a low-definition entire image in which the entire wide-angle image is reduced, and high-definition partial image data that is a region of interest in the wide-angle image, A technique has been disclosed in which a receiving side inserts a partial image into an entire image (see Patent Document 1).

しかしながら、従来の技術では、全体画像と部分画像との間で精細を異ならせているが、同じ射影方式であるため、汎用性が低いという課題が生じる。 However, in the conventional technique, although the fineness is made different between the whole image and the partial image, the same projection method causes a problem of low versatility.

請求項1に係る発明は、被写体を撮影して所定の精細度の画像データを得る撮影装置であって、前記所定の精細度の画像データに係る画像の全て又は一部である広角画像の精細度を変更する変更手段と、前記広角画像の一部の領域である狭角画像を前記広角画像とは異なる精細度で射影方式を変換する射影方式変換手段と、を有することを特徴とする撮影装置である。 The invention according to claim 1 is a photographing apparatus for photographing a subject to obtain image data of a predetermined definition, and a fine definition of a wide-angle image which is all or part of an image related to the image data of the predetermined definition. And a projection method conversion means for converting a projection method for a narrow-angle image, which is a partial region of the wide-angle image, with a definition different from that of the wide-angle image. It is a device.

以上説明したように本発明によれば、通信量を減らすだけでなく、射影方式の汎用性を高めることができるという効果を奏する。 As described above, according to the present invention, not only the communication amount can be reduced, but also the versatility of the projection method can be enhanced.

(a)は全天球撮影装置の右側面図であり、(b)は全天球撮影装置の背面図であり、(c)は全天球撮影装置の平面図であり、(d)は全天球撮影装置の底面図である。(A) is a right side view of the spherical imaging device, (b) is a rear view of the spherical imaging device, (c) is a plan view of the spherical imaging device, (d) is. It is a bottom view of a spherical imaging device. 全天球撮影装置の使用イメージ図である。It is a usage image figure of a spherical imaging device. (a)は全天球撮影装置で撮影された半球画像(前)、(b)は全天球撮影装置で撮影された半球画像(後)、(c)は正距円筒図法により表された画像を示した図である。(A) is a hemispherical image taken by the omnidirectional imager (front), (b) is a hemispherical image taken by the omnidirectional imager (rear), and (c) is an equirectangular projection. It is the figure which showed the image. (a)は正距円筒射影画像で球を被う状態を示した概念図、(b)は全天球画像を示した図である。(A) is a conceptual diagram showing a state in which a sphere is covered with an equirectangular projection image, and (b) is a diagram showing a spherical image. 全天球画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is a figure showing the position of a virtual camera and a predetermined field when a spherical image is made into a three-dimensional solid sphere. (a)は図5の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されている状態を示す図である。FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a state in which an image of a predetermined area is displayed on the display of the communication terminal. 部分画像パラメータの概略を説明する図である。It is a figure explaining the outline of a partial image parameter. 第1の実施形態に係る撮影システムの構成の概略図である。It is a schematic diagram of a configuration of an imaging system according to the first embodiment. 全天球撮影装置1のハードウェア構成図である。It is a hardware block diagram of the omnidirectional imaging device 1. スマートフォン5のハードウェア構成図である。3 is a hardware configuration diagram of the smartphone 5. FIG. 第1の実施形態に係る全天球撮影装置の機能ブロック図である。It is a functional block diagram of the spherical imaging device which concerns on 1st Embodiment. 第1の実施形態に係るスマートフォンの機能ブロック図である。It is a functional block diagram of the smart phone concerning a 1st embodiment. 第1の実施形態に係る全天球撮影装置1が行う画像処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the image processing which the spherical imaging device 1 which concerns on 1st Embodiment performs. 部分画像パラメータを説明する図である。It is a figure explaining a partial image parameter. 全天球撮影装置1からスマートフォン5に送信される画像データの概念図である。It is a conceptual diagram of the image data transmitted from the omnidirectional imaging device 1 to the smartphone 5. 第1の実施形態に係るスマートフォン5が行う画像処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the image processing which the smart phone 5 which concerns on 1st Embodiment performs. 部分平面から部分立体球の作成を説明する図である。It is a figure explaining creation of a partial solid sphere from a partial plane. 本実施形態の部分立体球作成を行わずに、全天球画像に部分画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram at the time of superposing a partial image on a omnidirectional image, without performing partial solid-sphere creation of this embodiment. 本実施形態の部分立体球作成を行って、全天球画像に部分画像を重畳した場合の二次元の概念図である。It is a two-dimensional conceptual diagram at the time of performing partial solid sphere creation of this embodiment, and superimposing a partial image on a spherical image. (a)重畳表示しない場合のワイド画像の表示例、(b)重畳表示しない場合のテレ画像の表示例、(c)重畳表示する場合のワイド画像の表示例、(d)重畳表示する場合のテレ画像の表示例を示した概念図である。(A) Wide image display example without superimposed display, (b) Tele image display example without superimposed display, (c) Wide image display example with superimposed display, (d) Superimposed display It is a conceptual diagram which showed the example of a display of a tele image. 第2の実施形態に係る撮影システムの構成の概略図である。It is a schematic diagram of a configuration of an imaging system according to a second embodiment. 第2の実施形態に係る全天球撮影装置1aの機能ブロック図である。It is a functional block diagram of the omnidirectional imaging device 1a which concerns on 2nd Embodiment. 第2の実施形態に係るスマートフォン5a,5bの機能ブロック図である。It is a functional block diagram of smart phones 5a and 5b concerning a 2nd embodiment. 第2の実施形態に係るスマートフォン5cの機能ブロック図である。It is a functional block diagram of the smart phone 5c which concerns on 2nd Embodiment. (a)指示データ制限テーブルの概念図、(b)正距円筒射影画像の概略図である。(A) It is a conceptual diagram of an instruction data restriction table, and (b) is a schematic diagram of an equirectangular projection image. (a)指示データに制限を掛けない場合における全天球撮影装置からスマートフォンに送信される画像データの概念図、(b)指示データに制限を掛ける場合における全天球撮影装置からスマートフォンに送信される画像データの概念図である。(A) A conceptual diagram of image data transmitted from the omnidirectional imaging device to the smartphone when the instruction data is not limited, and (b) Sent from the omnidirectional imaging device when the instruction data is limited to the smartphone. It is a conceptual diagram of the image data. 第2の実施形態に係る全天球撮影装置1aが行う画像処理の過程における画像の概念図である。It is a conceptual diagram of the image in the process of the image processing which the omnidirectional imaging device 1a which concerns on 2nd Embodiment performs. (a)は制限をかけない場合の部分画像P11の表示例、(b)は制限をかけない場合の全体画像における部分画像P11以外の領域の表示例、(c)は制限をかけた場合の部分画像P21の表示例及び送信された部分画像P22の概念図、(d)は制限をかけた場合の部分画像P22における部分画像P21以外の領域の表示例である。(A) is a display example of the partial image P11 when no restriction is applied, (b) is a display example of an area other than the partial image P11 in the entire image when no restriction is applied, and (c) is a display example of when the restriction is applied. A display example of the partial image P21 and a conceptual diagram of the transmitted partial image P22, (d) is a display example of an area other than the partial image P21 in the partial image P22 when restriction is applied.

以下、図面を用いて、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔実施形態の概要〕
以下、本実施形態の概要について説明する。
[Outline of Embodiment]
The outline of this embodiment will be described below.

図1乃至図6を用いて、全天球画像の生成方法について説明する。 A method of generating a spherical image will be described with reference to FIGS. 1 to 6.

まず、図1を用いて、全天球撮影装置の外観を説明する。全天球撮影装置は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は全天球撮影装置の右側面図であり、図1(b)は全天球撮影装置の正面図であり、図1(c)は全天球撮影装置の平面図であり、図1(d)は全天球撮影装置の底面図である。 First, the external appearance of the spherical imaging device will be described with reference to FIG. The omnidirectional photographing device is a digital camera for obtaining a photographed image which is a source of a omnidirectional (360°) panoramic image. Note that FIG. 1A is a right side view of the spherical imaging device, FIG. 1B is a front view of the spherical imaging device, and FIG. 1C is a plan view of the spherical imaging device. FIG. 1D is a bottom view of the spherical imaging device.

図1(a),図1(b),図1(c),図1(d)に示されているように、全天球撮影装置の上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている全天球撮影装置の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮影することで、半球画像(画角180°以上)を得ることができる。全天球撮影装置の正面側と反対側の面には、シャッターボタン115aが設けられている。また、全天球撮影装置の側面には、電源ボタン115b、Wi-Fi(Wireless Fidelity)ボタン115c、及び撮影モード切替ボタン115dが設けられている。シャッターボタン115a、電源ボタン115b、及びWi-Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮影モード切替ボタン115dは、押下される度に、静止画の撮影モード、動画の撮影モード及び動画配信モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi-Fiボタン115c、及び撮影モード切替ボタン115dは、操作部115の一種であり、操作部115は、これらのボタンに限られない。 As shown in FIGS. 1(a), 1(b), 1(c), and 1(d), the front side (front side) of the omnidirectional imaging device has a fish-eye shape on the front side. The image pickup elements (image sensors) 103a and 103b, which will be described later, are provided inside the celestial sphere imaging device in which the lens 102a of FIG. A hemispherical image (angle of view of 180° or more) can be obtained by photographing a subject or a landscape through the lenses 102a and 102b. A shutter button 115a is provided on the surface opposite to the front side of the omnidirectional photographing device. A power button 115b, a Wi-Fi (Wireless Fidelity) button 115c, and a shooting mode switching button 115d are provided on the side surface of the omnidirectional shooting device. The shutter button 115a, the power button 115b, and the Wi-Fi button 115c are switched on and off each time they are pressed. The shooting mode switching button 115d switches between a still image shooting mode, a moving image shooting mode, and a moving image distribution mode each time the button is pressed. The shutter button 115a, the power button 115b, the Wi-Fi button 115c, and the shooting mode switching button 115d are types of the operation unit 115, and the operation unit 115 is not limited to these buttons.

また、全天球撮影装置の底部150の中央には、カメラ用三脚に全天球撮影装置を取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(High-Definition Multimedia Interface)端子が設けられている。なお、HDMIは登録商標である。 Further, a tripod screw hole 151 for attaching the omnidirectional photographing device to the tripod for camera is provided at the center of the bottom 150 of the omnidirectional photographing device. A Micro USB (Universal Serial Bus) terminal 152 is provided on the left end side of the bottom portion 150. An HDMI (High-Definition Multimedia Interface) terminal is provided on the right end side of the bottom portion 150. HDMI is a registered trademark.

次に、図2を用いて、全天球撮影装置の使用状況を説明する。なお、図2は、全天球撮影装置の使用イメージ図である。全天球撮影装置は、図2に示されているように、例えば、利用者が手に持って利用者の周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれ利用者の周りの被写体が撮像されることで、2つの半球画像を得ることができる。 Next, the use situation of the omnidirectional imaging device will be described with reference to FIG. Note that FIG. 2 is a conceptual diagram of the use of the spherical imaging device. As shown in FIG. 2, the omnidirectional photographing device is used, for example, for a user to hold in his/her hand and photograph a subject around the user. In this case, two hemispherical images can be obtained by imaging the subject around the user by the image sensor 103a and the image sensor 103b shown in FIG. 1, respectively.

次に、図3及び図4を用いて、全天球撮影装置で撮影された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は全天球撮影装置で撮影された半球画像(前側)、図3(b)は全天球撮影装置で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。 Next, with reference to FIGS. 3 and 4, the outline of the processing from the images captured by the omnidirectional imaging device to the equirectangular cylindrical projection image EC and the omnidirectional image CE will be described. It should be noted that FIG. 3A is a hemispherical image captured by the omnidirectional imaging device (front side), and FIG. 3B is a hemispherical image captured by the omnidirectional imaging device (rear side), FIG. 3C. FIG. 4 is a diagram showing an image represented by an equirectangular projection (hereinafter, referred to as “equidistant cylinder projected image”). FIG. 4A is a conceptual diagram showing a state in which a sphere is covered with an equirectangular projection image, and FIG. 4B is a diagram showing a spherical image.

図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、全天球撮影装置によって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。 As shown in FIG. 3A, the image obtained by the image sensor 103a is a hemispherical image (front side) curved by a fisheye lens 102a described later. Further, as shown in FIG. 3B, the image obtained by the image sensor 103b becomes a hemispherical image (rear side) curved by the fisheye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image inverted by 180 degrees (rear side) are combined by the omnidirectional imaging device, and as shown in FIG. An EC is created.

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。 Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), the equirectangular cylindrical projected image is pasted so as to cover the spherical surface as shown in FIG. A spherical image CE as shown in b) is created. In this way, the omnidirectional image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. OpenGL ES is a graphics library used for visualizing 2D (2-Dimensions) and 3D (3-Dimensions) data. The spherical image CE may be a still image or a moving image.

以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。 As described above, since the omnidirectional image CE is an image attached so as to cover the spherical surface, it feels strange to a human being. Therefore, by displaying a part of the predetermined area of the celestial sphere image CE (hereinafter, referred to as a “predetermined area image”) as a flat image with less curvature, it is possible to provide a display that does not make a person feel strange. This will be described with reference to FIGS. 5 and 6.

なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像が、三次元の立体球CSで表わされている。このように生成された全天球画像CEが、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの画角を含む位置座標(x(rH),y(rV),画角α(angle))を示す所定領域情報によって特定される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。 Note that FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the spherical image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the omnidirectional image CE displayed as a three-dimensional solid sphere. Further, FIG. 6A is a stereoscopic perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image when displayed on the display. Further, in FIG. 6A, the spherical image shown in FIG. 4 is represented by a three-dimensional solid sphere CS. Assuming that the spherical image CE generated in this manner is the solid sphere CS, the virtual camera IC is located inside the spherical image CE as shown in FIG. The predetermined area T in the omnidirectional image CE is a shooting area of the virtual camera IC, and the position coordinates (x(rH), y including the angle of view of the virtual camera IC in the three-dimensional virtual space including the omnidirectional image CE are included. (rV), angle of view α (angle)) is specified by the predetermined area information. The zoom of the predetermined area T can be expressed by expanding or contracting the range (arc) of the angle of view α. The zoom of the predetermined area T can also be expressed by moving the virtual camera IC closer to or further from the omnidirectional image CE. The predetermined area image Q is an image of the predetermined area T in the omnidirectional image CE.

そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。なお、所定領域情報、仮想カメラICの位置座標ではなく、所定領域Tである仮想カメラICの撮影領域(X,Y,Z)によって示してもよい。 Then, the predetermined area image Q shown in FIG. 6A is displayed as an image of the shooting area of the virtual camera IC on a predetermined display, as shown in FIG. 6B. The image shown in FIG. 6B is a predetermined area image represented by the predetermined area information that is initially set (default). The predetermined area information and the position coordinates of the virtual camera IC may be indicated by the shooting area (X, Y, Z) of the virtual camera IC, which is the predetermined area T.

図7は、部分画像パラメータの概略を説明する図である。ここでは、全天球画像の一部を指定する方法について説明する。全天球画像においては部分画像の中心点CPを、撮影するカメラの方向で表すことが可能である。全天球画像である全体画像の中心を全体画像正面として方位角を「aa」、仰角を「ea」とする。また、部分画像の範囲を表すために、例えば水平方向の画角αを用いて表す。また、縦横方向の範囲を表すために、画像のアスペクト比(幅w÷高さh)で表すことが可能である。ここでは範囲を表すために水平画角とアスペクト比を用いたが、対角画角とアスペクト比などを用いてもよい。また、方位角、仰角のほか回転角も用いても良い。 FIG. 7 is a diagram for explaining the outline of partial image parameters. Here, a method of designating a part of the spherical image will be described. In the spherical image, the center point CP of the partial image can be represented by the direction of the camera that captures the image. The azimuth angle is "aa" and the elevation angle is "ea" with the center of the whole sphere image as the front of the whole image. Further, in order to represent the range of the partial image, for example, the horizontal view angle α is used. Further, in order to represent the range in the vertical and horizontal directions, it is possible to represent the aspect ratio (width w/height h) of the image. Although the horizontal angle of view and the aspect ratio are used here to represent the range, the diagonal angle of view and the aspect ratio may be used. In addition to the azimuth angle and the elevation angle, the rotation angle may be used.

●第1の実施形態
以降、本発明の第1の実施形態について説明する。
First Embodiment Hereinafter, the first embodiment of the present invention will be described.

〔撮影システムの概略〕
まずは、図8を用いて、第1の実施形態に係る撮影システムの概略について説明する。図8は、第1の実施形態に係る撮影システムの構成の概略図である。
[Outline of shooting system]
First, the outline of the imaging system according to the first embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram of the configuration of the imaging system according to the first embodiment.

図8に示されているように、本実施形態の撮影システムは、全天球撮影装置1、及びスマートフォン5よって構成されている。利用者Yが、全天球撮影装置1及びスマートフォン5の両方を操作する。この場合、利用者Yは、スマートフォン5で表示された画像を閲覧する閲覧者でもある。 As shown in FIG. 8, the imaging system of this embodiment is configured by the omnidirectional imaging device 1 and the smartphone 5. The user Y operates both the spherical imaging device 1 and the smartphone 5. In this case, the user Y is also a viewer who browses the image displayed on the smartphone 5.

これらのうち、全天球撮影装置1は、上述のように、被写体や風景等を撮影して全天球(パノラマ)画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。 Among these, the omnidirectional photographing device 1 is a special digital camera for photographing two objects such as a subject or a landscape to obtain two hemispherical images which are the basis of the omnidirectional (panoramic) image, as described above. ..

スマートフォン5は、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)等の近距離無線通信技術を利用して、全天球撮影装置1と無線通信を行なうことができる。また、スマートフォン5では、自装置に設けられた後述のディスプレイ517に、全天球撮影装置1から取得した画像を表示することができる。 The smartphone 5 can perform wireless communication with the omnidirectional imaging device 1 by using a short-range wireless communication technology such as Wi-Fi, Bluetooth (registered trademark), NFC (Near Field Communication). Further, in the smartphone 5, the image acquired from the omnidirectional imaging device 1 can be displayed on a display 517, which will be described later, provided in the device itself.

なお、スマートフォン5は、近距離無線通信技術を利用せずに、有線ケーブルによって全天球撮影装置1と通信を行なうようにしてもよい。 Note that the smartphone 5 may communicate with the celestial sphere imaging device 1 by a wired cable without using the short-range wireless communication technology.

〔実施形態のハードウェア構成〕
次に、図9及び図10を用いて、本実施形態の全天球撮影装置1、及びスマートフォン5のハードウェア構成を詳細に説明する。
[Hardware Configuration of Embodiment]
Next, the hardware configurations of the omnidirectional imaging device 1 and the smartphone 5 according to the present embodiment will be described in detail with reference to FIGS. 9 and 10.

<全天球撮影装置1のハードウェア構成>
まず、図9を用いて、全天球撮影装置1のハードウェア構成を説明する。図9は、全天球撮影装置1のハードウェア構成図である。以下では、全天球撮影装置1は、2つの撮像素子を使用した全天球(全方位)全天球撮影装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に全天球撮影装置1と同じ機能を有するようにしてもよい。
<Hardware configuration of spherical camera 1>
First, the hardware configuration of the spherical imaging device 1 will be described with reference to FIG. 9. FIG. 9 is a hardware configuration diagram of the spherical imaging device 1. In the following, the omnidirectional imaging device 1 is an omnidirectional (omnidirectional) omnidirectional imaging device using two image pickup elements, but any number of two or more image pickup elements may be used. Further, it is not necessarily required to be a device exclusively for omnidirectional shooting, and by attaching an omnidirectional image pickup unit that is attached later to a normal digital camera or smartphone, it is possible to have substantially the same function as the omnidirectional image pickup device 1. You may

図9に示されているように、全天球撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120、及び端子121によって構成されている。 As shown in FIG. 9, the omnidirectional imaging device 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM ( Read Only Memory) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I/F 116, communication unit 117, antenna 117a, electronic compass 118, gyro sensor 119, acceleration sensor. 120 and a terminal 121.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Of these, the image pickup unit 101 includes wide-angle lenses (so-called fish-eye lenses) 102a and 102b each having a field angle of 180° or more for forming a hemispherical image, and two image pickups provided corresponding to the respective wide-angle lenses. It is provided with elements 103a and 103b. The image sensor 103a, 103b is an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor that converts an optical image of the fisheye lens 102a, 102b into image data of an electric signal and outputs the image data. It has a timing generation circuit for generating a horizontal or vertical synchronization signal, a pixel clock, etc., a register group for setting various commands and parameters necessary for the operation of the image sensor, and the like.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。 The image pickup devices 103a and 103b of the image pickup unit 101 are each connected to the image processing unit 104 by a parallel I/F bus. On the other hand, the image pickup devices 103a and 103b of the image pickup unit 101 are connected to the image pickup control unit 105 by a serial I/F bus (I2C bus or the like). The image processing unit 104, the imaging control unit 105, and the sound processing unit 109 are connected to the CPU 111 via the bus 110. Further, the bus 110 is also connected to the ROM 112, SRAM 113, DRAM 114, operation unit 115, network I/F 116, communication unit 117, electronic compass 118, and the like.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているような正距円筒射影画像のデータを作成する。 The image processing unit 104 takes in the image data output from the image pickup devices 103a and 103b through a parallel I/F bus, performs a predetermined process on each image data, and then performs a combining process on these image data. , The data of the equirectangular cylindrical projected image as shown in FIG.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The imaging control unit 105 generally sets the imaging control unit 105 as a master device and the imaging elements 103a and 103b as slave devices, and sets a command or the like in a register group of the imaging elements 103a and 103b using the I2C bus. Necessary commands and the like are received from the CPU 111. Further, the image pickup control unit 105 also uses the I2C bus to fetch status data and the like of the register group of the image pickup elements 103a and 103b and send them to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。全天球撮影装置1によっては、ディスプレイ(例えば、スマートフォン5のディスプレイ517)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/秒)によって連続して行われる。 Further, the imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Depending on the omnidirectional imaging device 1, there is a case where the display (for example, the display 517 of the smartphone 5) has a preview display function or a function corresponding to the moving image display. In this case, the output of the image data from the image pickup devices 103a and 103b is continuously performed at a predetermined frame rate (frame/second).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球撮影装置1にはディスプレイが設けられていないが、表示部を設けてもよい。 The image pickup control unit 105 also functions as a synchronization control unit that synchronizes the output timing of the image data of the image pickup devices 103a and 103b in cooperation with the CPU 111, as described later. In addition, in the present embodiment, the omnidirectional imaging device 1 is not provided with a display, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I/F bus and performs a predetermined process on the sound data.

CPU111は、全天球撮影装置1の全体の動作を制御すると共に必要な処理を実行する。なお、CPU111は、単一でも複数でもよい。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 111 controls the entire operation of the celestial sphere imaging device 1 and executes necessary processing. The CPU 111 may be single or plural. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data in the middle of processing, and the like. In particular, the DRAM 114 stores image data in the process of being processed by the image processing unit 104 and data of the processed equidistant cylindrical projection image.

操作部115は、シャッターボタン115aなどの操作ボタンの総称である。ユーザは操作部115を操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 115 is a general term for operation buttons such as the shutter button 115a. The user operates the operation unit 115 to input various shooting modes and shooting conditions.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン5等の外部端末(装置)に送信されたりする。 The network I/F 116 is a general term for interface circuits (USB I/F, etc.) with external media such as SD cards and personal computers. The network I/F 116 may be wireless or wired. The data of the equidistant cylindrical projection image stored in the DRAM 114 is recorded on an external medium via the network I/F 116, and if necessary, an external terminal (device) such as the smartphone 5 via the network I/F 116. ) Is sent to.

通信部117は、全天球撮影装置1に設けられたアンテナ117aを介して、Wi-Fi、NFC、Bluetooth等の近距離無線通信技術によって、スマートフォン5等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン5等の外部端末(装置)に送信することができる。 The communication unit 117 communicates with an external terminal (device) such as the smartphone 5 via a near-field wireless communication technology such as Wi-Fi, NFC, or Bluetooth via the antenna 117a provided in the omnidirectional imaging device 1. .. The communication unit 117 can also transmit the data of the equidistant cylindrical projected image to the external terminal (device) such as the smartphone 5.

電子コンパス118は、地球の磁気から全天球撮影装置1の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the azimuth of the celestial sphere imaging device 1 from the magnetism of the earth and outputs the azimuth information. This azimuth information is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of a captured image. It should be noted that the related information also includes each data of the image capturing date and time and the data capacity of the image data.

ジャイロセンサ119は、全天球撮影装置1の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 The gyro sensor 119 is a sensor that detects a change in angle (Roll angle, Pitch angle, Yaw angle) associated with the movement of the celestial sphere imaging device 1. The change in angle is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image.

加速度センサ120は、3軸方向の加速度を検出するセンサである。全天球撮影装置1は、加速度センサ120が検出した加速度に基づいて、自装置(全天球撮影装置1)の姿勢(重力方向に対する角度)を算出する。全天球撮影装置1に、ジャイロセンサ119と加速度センサ120の両方が設けられることによって、画像補正の精度が向上する。 The acceleration sensor 120 is a sensor that detects acceleration in three axis directions. The omnidirectional imaging device 1 calculates the attitude (angle with respect to the direction of gravity) of its own device (the omnidirectional imaging device 1) based on the acceleration detected by the acceleration sensor 120. By providing both the gyro sensor 119 and the acceleration sensor 120 in the spherical imaging device 1, the accuracy of image correction is improved.

端子121は、Micro USB用の凹状の端子である。 The terminal 121 is a concave terminal for Micro USB.

<スマートフォン5のハードウェア構成>
次に、図10を用いて、スマートフォン5のハードウェアについて説明する。図10は、スマートフォン5のハードウェア構成図である。図10に示されているように、スマートフォン5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、撮像素子I/F513a、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。
<Hardware configuration of smartphone 5>
Next, the hardware of the smartphone 5 will be described with reference to FIG. FIG. 10 is a hardware configuration diagram of the smartphone 5. As shown in FIG. 10, the smartphone 5 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, a CMOS sensor 505, an image sensor I/F 513a, an acceleration/direction sensor 506, a media I/F 508, and a GPS receiving unit 509. There is.

これらのうち、CPU501は、スマートフォン5全体の動作を制御する。なお、CPU501は、単一でも複数でもよい。ROM502は、CPU501やIPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ505は、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。撮像素子I/F513aは、CMOSセンサ512の駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。 Of these, the CPU 501 controls the operation of the entire smartphone 5. The CPU 501 may be single or plural. The ROM 502 stores programs used for driving the CPU 501 such as the CPU 501 and IPL (Initial Program Loader). The RAM 503 is used as a work area for the CPU 501. The EEPROM 504 reads or writes various data such as a smartphone program under the control of the CPU 501. The CMOS sensor 505 images a subject (mainly a self-portrait) under the control of the CPU 501 and obtains image data. The image sensor I/F 513a is a circuit that controls driving of the CMOS sensor 512. The acceleration/direction sensor 506 is various sensors such as an electronic magnetic compass that detects geomagnetism, a gyro compass, and an acceleration sensor. The media I/F 508 controls reading or writing (storage) of data with respect to the recording medium 507 such as a flash memory. The GPS receiver 509 receives GPS signals from GPS satellites.

また、スマートフォン5は、遠距離通信回路511、アンテナ511a、CMOSセンサ512、撮像素子I/F513b、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519a、及びタッチパネル521を備えている。 In addition, the smartphone 5 includes a long-distance communication circuit 511, an antenna 511a, a CMOS sensor 512, an image sensor I/F 513b, a microphone 514, a speaker 515, a sound input/output I/F 516, a display 517, an external device connection I/F 518, and a short distance. A communication circuit 519, an antenna 519a of the short-range communication circuit 519, and a touch panel 521 are provided.

これらのうち、遠距離通信回路511は、インターネット等の通信ネットワークを介して、他の機器と通信する回路である。CMOSセンサ512は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513bは、CMOSセンサ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、Wi-Fi、NFC、Bluetooth等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、スマートフォン5を操作する入力手段の一種である。 Of these, the long-distance communication circuit 511 is a circuit that communicates with other devices via a communication network such as the Internet. The CMOS sensor 512 is a kind of a built-in image pickup unit that obtains image data by capturing an image of a subject under the control of the CPU 501. The image sensor I/F 513b is a circuit that controls driving of the CMOS sensor 512. The microphone 514 is a kind of built-in sound collecting means for inputting voice. The sound input/output I/F 516 is a circuit that processes input/output of a sound signal between the microphone 514 and the speaker 515 under the control of the CPU 501. The display 517 is a kind of display means such as a liquid crystal or an organic EL that displays an image of a subject, various icons and the like. The external device connection I/F 518 is an interface for connecting various external devices. The short-range communication circuit 519 is a communication circuit such as Wi-Fi, NFC, and Bluetooth. The touch panel 521 is a type of input means for operating the smartphone 5 when the user presses the display 517.

また、スマートフォン5は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The smartphone 5 also includes a bus line 510. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501.

〔実施形態の機能構成〕
次に、図11乃至図12を用いて、本実施形態の機能構成について説明する。図11は、第1の実施形態に係る全天球撮影装置1の機能ブロック図である。図12は、第1の実施形態に係るスマートフォン5の機能ブロック図である。
[Functional Configuration of Embodiment]
Next, the functional configuration of this embodiment will be described with reference to FIGS. 11 to 12. FIG. 11 is a functional block diagram of the celestial sphere imaging device 1 according to the first embodiment. FIG. 12 is a functional block diagram of the smartphone 5 according to the first embodiment.

<全天球撮影装置1の機能構成>
全天球撮影装置1は、送受信部11、部分画像パラメータ作成部12、撮影制御部13、撮像部14a,14b、画像処理部15、一時記憶部16、低精細変更部17、射影方式変更部18、及び符号化部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された全天球撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of spherical imaging device 1>
The omnidirectional imaging device 1 includes a transmission/reception unit 11, a partial image parameter creation unit 12, an imaging control unit 13, imaging units 14a and 14b, an image processing unit 15, a temporary storage unit 16, a low definition changing unit 17, and a projection method changing unit. 18 and an encoding unit 19. Each of these units is realized by any one of the components shown in FIG. 9 being operated by an instruction from the CPU 111 according to a program for the omnidirectional image capturing device expanded from the SRAM 113 to the DRAM 114. Function or means.

送受信部11は、全天球撮影装置1の外部に対してデータを送信したり、外部からデータを受信したりする。例えば、送受信部11は、スマートフォン5の送受信部51から指示データを受信したり、スマートフォン5の送受信部51に対して画像データを送信したりする。また、送受信部11は、スマートフォン5の送受信部51に対して、画像データと部分画像パラメータをまとめて送信する。 The transmission/reception unit 11 transmits/receives data to/from the outside of the omnidirectional imaging device 1. For example, the transmission/reception unit 11 receives instruction data from the transmission/reception unit 51 of the smartphone 5, or transmits image data to the transmission/reception unit 51 of the smartphone 5. Further, the transmission/reception unit 11 collectively transmits the image data and the partial image parameters to the transmission/reception unit 51 of the smartphone 5.

部分画像パラメータ作成部12は、スマートフォン5から送受信部11を介して送られて来た指示データに基づいて部分画像パラメータを作成する。この「指示データ」は、スマートフォン5の受付部52で利用者の操作によって受け付けられ、全天球撮影装置1において後述の全体画像内の一部の領域である切出領域CAを特定するための指示を示すデータである。また、「部分画像パラメータ」は、スマートフォン5において全体画像に対する後述の重畳領域を特定するためのパラメータである。 The partial image parameter creation unit 12 creates a partial image parameter based on the instruction data sent from the smartphone 5 via the transmission/reception unit 11. This “instruction data” is accepted by the user's operation in the accepting unit 52 of the smartphone 5, and is used by the omnidirectional imaging device 1 to specify a cutout area CA that is a partial area in an overall image described later. This is data indicating an instruction. In addition, the “partial image parameter” is a parameter for specifying a later-described overlapping area for the entire image in the smartphone 5.

撮影制御部13は、撮像部14a,14bの画像データの出力タイミングの同期をとる指示を出力する。 The imaging control unit 13 outputs an instruction to synchronize the output timing of the image data of the imaging units 14a and 14b.

撮像部14a,14bは、それぞれ、撮影制御部13からの指示に従って被写体等を撮像し、例えば、図3(a),(b)に示されているように、全天球画像データの元になる半球画像データを出力する。 The image capturing units 14a and 14b respectively capture an image of a subject or the like in accordance with an instruction from the image capturing control unit 13, and, for example, as shown in FIGS. 3(a) and 3(b), based on the spherical image data. Output hemispherical image data.

画像処理部15は、撮影部14a,14bで得られた2つの半球画像データを正距円筒射影方式の画像である正距円筒射影画像のデータに合成変換(つなぎ合わせ)する。 The image processing unit 15 synthesizes (joins) the two hemispherical image data obtained by the image capturing units 14a and 14b into the data of the equidistant cylindrical projection image which is the image of the equidistant cylindrical projection method.

一時記憶部16は、画像処理部15で合成変換された正距円筒射影画像のデータを一時的に記憶するバッファの役割を果たす。なお、この状態の正距円筒射影画像は合成変換しているが撮影部14a、14bで得られた画像のため比較的高精細である。 The temporary storage unit 16 plays a role of a buffer for temporarily storing the data of the equirectangular cylindrical projected image which is synthesized and converted by the image processing unit 15. Although the equirectangular cylindrical projected image in this state is synthesized and converted, the equidistant cylindrical projected image has relatively high definition because it is an image obtained by the photographing units 14a and 14b.

低精細変更部17は、送受信部11で受信されたスマートフォン5からの指示データに従って、正距円筒射影画像を画像の縮小等により、高精細画像から低精細画像に変更する。これにより、低精細な正距円筒射影画像(全体画像)が生成される。 The low-definition changing unit 17 changes the equidistant cylindrical projected image from the high-definition image to the low-definition image by reducing the image or the like in accordance with the instruction data from the smartphone 5 received by the transmitting/receiving unit 11. As a result, a low-definition equidistant cylindrical projection image (entire image) is generated.

射影方式変換部18は、送受信部11で受信した指示データに従って、即ち、全体画像の一部分の画像である部分画像の方向、画角及びアスペクト比、並びにスマートフォン5へ送信する際の送信用の画像サイズ(図15参照)に合わせて、正距円筒射影方式を透視射影方式に射影方式変換する。これにより、高精細な状態のままで部分画像が生成される。図15では、全体画像のアスペクト比として横縦比は16:9、部分画像のアスペクト比として横縦比は16:9である。そのため、送信用画像全体の横縦比は16:18となる。
このように、低精細変更部17から出力される全体画像データは、射影方式変換部18から出力される部分画像データよりも精細度(又は解像度)が低い。即ち、射影方式変換部18から出力される部分画像データは、低精細変更部17から出力される全体画像データよりも精細度(解像度)が高い。
The projection method conversion unit 18 follows the instruction data received by the transmission/reception unit 11, that is, the direction of the partial image which is a partial image of the entire image, the angle of view and the aspect ratio, and the image for transmission when transmitting to the smartphone 5. According to the size (see FIG. 15), the equirectangular cylindrical projection method is converted into the perspective projection method. As a result, the partial image is generated in the high definition state. In FIG. 15, the aspect ratio of the entire image is 16:9, and the aspect ratio of the partial image is 16:9. Therefore, the aspect ratio of the entire transmission image is 16:18.
As described above, the whole image data output from the low definition changing unit 17 has a lower definition (or resolution) than the partial image data output from the projection method converting unit 18. That is, the partial image data output from the projection method conversion unit 18 has a higher definition (resolution) than the entire image data output from the low definition changing unit 17.

符号化部19は、全体画像及び部分画像の各データを符号化し、一時記憶する。この際に、図15に示したようじ全体画像と部分画像とを関連づける。 The encoding unit 19 encodes each data of the whole image and the partial image and temporarily stores the data. At this time, the entire toothpick image and the partial image shown in FIG. 15 are associated with each other.

ここで、高精細の画像として、例えば、2K、4K、8Kのいずれかの正距円筒射影画像が出力される場合について説明する。これらの高精細の正距円筒射影画像のデータに基づき、射影方式変換部18から出力される部分画像データは、正距円筒射影画像の解像度(2K、4K、8Kのいずれか)のままでで、所定の射影方式に変換されたデータである。一方、低精細変換部17から出力される全体画像データは、1K、2K、4Kなど、正距円筒射影画像よりも低精細(低解像度)のデータである。このように、低精細とは、当初の画像データよりも解像度が低い、また、相対的に比較した時に解像度が低いことを意味する。なお、低精細変更部17は、変更手段の一例である。 Here, a case where, for example, an equidistant cylindrical projection image of 2K, 4K, or 8K is output as the high-definition image will be described. Based on these high-definition equidistant cylindrical projection image data, the partial image data output from the projection method conversion unit 18 remains at the equidistant cylindrical projection image resolution (either 2K, 4K, or 8K). , Data converted into a predetermined projection method. On the other hand, the entire image data output from the low-definition conversion unit 17 is data of lower definition (lower resolution) than the equirectangular cylindrical projected image, such as 1K, 2K, and 4K. Thus, low definition means that the resolution is lower than the original image data, and that the resolution is relatively low when compared relatively. The low definition changing unit 17 is an example of a changing unit.

<スマートフォン5の機能構成>
スマートフォン5は、送受信部51、受付部52、復号化部53、重畳領域作成部54、画像作成部55、画像重畳部56、射影方式変換部57、及び表示制御部58を有している。これら各部は、図10に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたスマートフォン用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of smartphone 5>
The smartphone 5 includes a transmission/reception unit 51, a reception unit 52, a decoding unit 53, a superimposition region creation unit 54, an image creation unit 55, an image superposition unit 56, a projection method conversion unit 57, and a display control unit 58. Each of these units is a function or means realized by any one of the components shown in FIG. 10 being operated by an instruction from the CPU 501 according to a smartphone program expanded from the EEPROM 504 to the RAM 503. ..

(スマートフォン5の各機能構成)
次に、図12を用いて、スマートフォン5の各機能構成について更に詳細に説明する。
(Functional configuration of smartphone 5)
Next, each functional configuration of the smartphone 5 will be described in more detail with reference to FIG.

送受信部51は、スマートフォン5の外部に対してデータを送信したり、外部からデータを受信したりする。例えば、送受信部51は、全天球撮影装置1の送受信部11から画像データを受信したり、全天球撮影装置1の送受信部11に対して指示データを送信したりする。また、送受信部51は、全天球撮影装置1の送受信部11から送られて来た画像データ(全体画像データ及び部分画像データ)と部分画像パラメータとを分離する。 The transmission/reception unit 51 transmits data to the outside of the smartphone 5 and receives data from the outside. For example, the transmission/reception unit 51 receives image data from the transmission/reception unit 11 of the omnidirectional imaging device 1, or transmits instruction data to the transmission/reception unit 11 of the omnidirectional imaging device 1. Further, the transmission/reception unit 51 separates the image data (entire image data and partial image data) sent from the transmission/reception unit 11 of the omnidirectional imaging device 1 from the partial image parameter.

受付部52は、利用者から、部分画像の方向、画角及びアスペクト、並びにスマートフォン5で受信する画像データのサイズの指定操作を受け付ける。 The accepting unit 52 accepts from the user an operation of designating the direction, the angle of view and the aspect of the partial image, and the size of the image data received by the smartphone 5.

復号化部53は、符号化部19で符号化された全体画像及び部分画像の各データを復号化する。 The decoding unit 53 decodes each data of the whole image and the partial image encoded by the encoding unit 19.

重畳領域作成部54は、部分画像パラメータにより指定された重畳領域を作成する。この重畳領域は、全天球画像CE上における重畳画像S及びマスク画像Mの重畳位置及び重畳範囲を示している。 The overlapping area creating unit 54 creates an overlapping area specified by the partial image parameter. This superposition area indicates the superposition position and superposition range of the superposition image S and the mask image M on the omnidirectional image CE.

画像作成部55は、重畳領域に従って、重畳画像S及びマスク画像を作成し、低精細な全体画像から全天球画像CEを作成する。 The image creating unit 55 creates the superimposed image S and the mask image according to the overlapping region, and creates the celestial sphere image CE from the low-definition entire image.

画像重畳部56は、全天球画像CE上の重畳領域に対して、重畳画像S及びマスク画像Mを重畳することで、最終的な全天球画像CEを作成する。 The image superimposing unit 56 superimposes the superimposition image S and the mask image M on the superimposition region on the celestial sphere image CE to create a final celestial sphere image CE.

射影方式変換部57は、受付部52で受けられた利用者の指示に従って、最終的な全天球画像CEを透視射影方式の画像に変換する。 The projection method conversion unit 57 converts the final spherical image CE into an image of the perspective projection method according to the user's instruction received by the reception unit 52.

表示制御部58は、透視射影方式に変換後の画像をディスプレイ517等に表示させる制御を行う。 The display control unit 58 controls the display 517 or the like to display the image converted into the perspective projection method.

〔実施形態の処理又は動作〕
続いて、図13乃至図20を用いて、本実施形態の処理又は動作について説明する。
[Process or Operation of Embodiment]
Next, the processing or operation of this embodiment will be described with reference to FIGS. 13 to 20.

<全天球撮影装置1の処理又は動作>
まず、図13を用いて、全天球撮影装置1の処理について説明する。図13は、第1の実施形態に係る全天球撮影装置1が行う画像処理の過程における画像の概念図である。
<Processing or operation of spherical imaging device 1>
First, the processing of the omnidirectional imaging device 1 will be described with reference to FIG. FIG. 13 is a conceptual diagram of an image in the process of image processing performed by the celestial sphere imaging device 1 according to the first embodiment.

画像処理部15は、撮影部14a,14bで得られた2つの半球画像データを正距円筒射影方式の画像である正距円筒射影画像のデータに画像合成(つなぎ合わせ処理)する(S120)。この画像合成後のデータは、一旦、高精細画像の状態のままで一時記憶部16に記憶される。 The image processing unit 15 combines the two hemispherical image data obtained by the imaging units 14a and 14b with the data of the equidistant cylinder projection image which is the image of the equidistant cylinder projection method (joining process) (S120). The data after the image combination is temporarily stored in the temporary storage unit 16 in the state of the high definition image.

次に、部分画像パラメータ作成部12は、スマートフォン5から送られて来た指示データに基づいて部分画像パラメータを作成する(S130)。 Next, the partial image parameter creation unit 12 creates a partial image parameter based on the instruction data sent from the smartphone 5 (S130).

次に、低精細変更部17は、送受信部11で受信されたスマートフォン5からの指示データに従って、高精細画像から低精細画像に変更する(S140)。即ち、低精細変更部17は、スマートフォン5へ送信する画像データのサイズに合わせて正距円筒射影画像を縮小する。これにより、低精細な正距円筒射影画像(全体画像)が生成される。 Next, the low-definition changing unit 17 changes the high-definition image to the low-definition image according to the instruction data from the smartphone 5 received by the transmitting/receiving unit 11 (S140). That is, the low-definition changing unit 17 reduces the equidistant cylindrical projected image according to the size of the image data transmitted to the smartphone 5. As a result, a low-definition equidistant cylindrical projection image (entire image) is generated.

更に、射影方式変更部18は、送受信部11で受信した指示データに従って、即ち、全体画像の一部の領域である部分画像の方向、画角及びアスペクトに従うと共に、スマートフォン5へ送信する画像データのサイズに合わせて、正距円筒射影方式を透視射影方式に射影方式変換する(S150)。これにより、高精細な状態のままで部分画像が生成される。その後、送受信部11は、符号化部19によって符号化された全体画像データと部分画像データを、スマートフォン5の送受信部51に送信する。 Further, the projection method changing unit 18 follows the instruction data received by the transmitting/receiving unit 11, that is, the direction, the angle of view and the aspect of the partial image which is a partial area of the entire image, and the image data to be transmitted to the smartphone 5. According to the size, the equirectangular cylindrical projection method is converted into the perspective projection method (S150). As a result, the partial image is generated in the high definition state. After that, the transmission/reception unit 11 transmits the whole image data and the partial image data encoded by the encoding unit 19 to the transmission/reception unit 51 of the smartphone 5.

ここで、図14及び図15を用いて、図13に示した処理を更に詳細に説明する。図14は、部分画像パラメータを説明する図である。 Here, the processing shown in FIG. 13 will be described in more detail with reference to FIGS. 14 and 15. FIG. 14 is a diagram illustrating partial image parameters.

(部分画像パラメータ)
ここで、図14を用いて、部分画像パラメータについて詳細に説明する。図14(a)はS120による画像合成後の全体画像と全体画像上での部分画像の切出領域CAを示す。図14(b)は部分画像パラメータの一例を示す図である。図14(c)はS150により射影方式が変換された後の部分画像を示す。
(Partial image parameter)
Here, the partial image parameters will be described in detail with reference to FIG. FIG. 14A shows the entire image after the image combination in S120 and the cutout area CA of the partial image on the entire image. FIG. 14B is a diagram showing an example of partial image parameters. FIG. 14C shows a partial image after the projection method has been converted in S150.

図7で説明した方位角(aa)は図14(a)で示す正距方位図法では横方向(緯度λ)となり、図7で説明した仰角(ea)は正距円筒射影方式では縦方向(経度φ)となる。部分画像パラメータは、正距円筒射影画像において部分画像の領域を特定するためのパラメータである。具体的には、部分画像パラメータは、図14(b)に示されているように、中心点としての注視点CP(aa,ea)、画角α及び横(w)と縦(h)のアスペクト比を示す情報によって示されている。図14(c)は図14(a)の正距円筒図法上の枠で囲まれた部分を部分画像パラメータで切出した部分画像の例である。 The azimuth angle (aa) described in FIG. 7 is the lateral direction (latitude λ) in the equidistant azimuth projection method illustrated in FIG. 14A, and the elevation angle (ea) described in FIG. Longitude φ). The partial image parameter is a parameter for specifying the area of the partial image in the equidistant cylindrical projection image. Specifically, the partial image parameters are, as shown in FIG. 14B, the gazing point CP(aa,ea) as the center point, the angle of view α, and the horizontal (w) and vertical (h). This is indicated by the information indicating the aspect ratio. FIG. 14C is an example of a partial image in which the portion surrounded by the frame in the equirectangular projection of FIG. 14A is cut out by the partial image parameter.

ここで、射影方式の変換について説明する。図4(a)に示すように、正距円筒射影画像によって立体球を被うことで、全天球画像を作成している。よって、正距円筒射影画像の各画素データは、3次元の全天球画像の立体球の表面における各画素データに対応させることができる。そこで、射影方式変換部による変換式は、正距円筒射影画像における座標を(緯度,経度)=(e,a)と表現し、3次元の立体球上の座標を直行座標(x,y,z)で表わすと、以下の(式1)で表わすことができる。
(x, y, z) = (cos(e) × cos(a), cos(e) × sin(a), sin(e)) ・・・(式1)
但し、このときの立体球の半径は1とする。
Here, the conversion of the projection method will be described. As shown in FIG. 4A, a spherical image is created by covering a solid sphere with an equirectangular projection image. Therefore, each pixel data of the equidistant cylinder projection image can be made to correspond to each pixel data on the surface of the three-dimensional spherical image of the three-dimensional spherical image. Therefore, the conversion method by the projection method conversion unit expresses the coordinates in the equirectangular cylindrical projected image as (latitude, longitude)=(e, a), and the coordinates on the three-dimensional solid sphere as orthogonal coordinates (x, y, When expressed by z), it can be expressed by the following (formula 1).
(x, y, z) = (cos(e) × cos(a), cos(e) × sin(a), sin(e)) (Equation 1)
However, the radius of the solid sphere at this time is 1.

一方で、透視射影画像である部分画像は2次元画像であるが、これを2次元の極座標(動径,偏角)=(r,a)で表現すると、動径rは対角画角に対応し、取り得る範囲は0 ≦ r ≦ tan(対角画角/2)となる。また、部分画像を2次元の直交座標系(u,v)で表わすと、極座標(動径,偏角)=(r,a)との変換関係は、以下の(式2)で表わすことができる。
u = r × cos(a), v = r × sin(a) ・・・(式2)
次に、この(式1)を3次元の座標(動径,極角,方位角)に対応させることを考える。今、立体球CSの表面のみを考えているため、3次元極座標における動径は「1」である。また、立体球CSの表面に張り付けた正距円筒射影画像を透視射影変換する射影は、立体球の中心に仮想カメラがあると考えると、上述の2次元極座標(動径,偏角)=(r,a)を使うと、以下の(式3)、(式4)で表わすことができる。
r = tan(極角) ・・・(式3)
a = 方位角 ・・・(式4)
ここで極角をtとすると、t = arctan(r)となるため、3次元極座標(動径、極角、方位角)は、(動径、極角、方位角)=(1, arctan(r), a)と表現することができる。
On the other hand, the partial image which is a perspective projection image is a two-dimensional image, but if this is expressed by two-dimensional polar coordinates (radial radius, declination angle)=(r, a), the radial radius becomes the diagonal angle of view. Correspondingly, the possible range is 0 ≤ r ≤ tan (diagonal angle of view/2). When the partial image is represented by a two-dimensional orthogonal coordinate system (u, v), the conversion relationship with polar coordinates (radial radius, argument)=(r, a) can be represented by the following (Equation 2). it can.
u = r × cos(a), v = r × sin(a) (Equation 2)
Next, it is considered that this (Equation 1) is associated with three-dimensional coordinates (radius, polar angle, azimuth angle). Since only the surface of the solid sphere CS is considered now, the radius vector in three-dimensional polar coordinates is "1". In addition, the projection for perspective perspective transformation of the equirectangular cylindrical projection image attached to the surface of the solid sphere CS is considered to have a virtual camera at the center of the solid sphere, and the above-mentioned two-dimensional polar coordinates (radius and declination)=( Using r and a), they can be expressed by the following (formula 3) and (formula 4).
r = tan (polar angle) (Equation 3)
a = azimuth angle (Equation 4)
Here, if the polar angle is t, then t = arctan(r), so the three-dimensional polar coordinates (radial, polar, azimuth) are (radial, polar, azimuth) = (1, arctan( It can be expressed as r), a).

また3次元極座標から、直行座標系(x,y,z)へ変換するための変換式は、以下の(式5)で表わすことができる。
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ・・・(式5)
上記の(式5)により、正距円筒射影方式による全体画像と、透視射影方式による部分画像の相互変換ができるようになった。即ち、作成すべき部分画像の対角画角に対応する動径rを用いることで、部分画像の各画素が、正距円筒射影画像のどの座標に対応するかを表す変換マップ座標を算出でき、この変換マップ座標に基づいて、正距円筒射影画像から、透視射影画像である部分画像作成することができる。
A conversion formula for converting the three-dimensional polar coordinates into the orthogonal coordinate system (x, y, z) can be expressed by the following (Formula 5).
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) (Equation 5)
By the above (formula 5), it becomes possible to perform mutual conversion between the whole image by the equidistant cylindrical projection method and the partial image by the perspective projection method. That is, by using the radius vector r corresponding to the diagonal angle of view of the partial image to be created, it is possible to calculate the conversion map coordinate indicating which coordinate in the equidistant cylindrical projection image each pixel of the partial image corresponds to. A partial image that is a perspective projection image can be created from the equirectangular projection image based on the conversion map coordinates.

ところで、上記射影方式の変換は、正距円筒射影画像の(緯度,経度)が(90°,0°)となる位置が、透視射影画像である部分画像の中心点となるような変換を示している。そこで、正距円筒射影画像の任意の点を注視点として透視射影変換をする場合は、正距円筒射影画像を貼り付けた立体球を回転させることで、注視点の座標(緯度、経度)が(90°,0°)の位置に配置されるような座標回転を行えば良い。 By the way, the conversion of the projection method is a conversion in which the position where (latitude, longitude) of the equirectangular cylindrical projection image is (90°, 0°) is the center point of the partial image which is the perspective projection image. ing. Therefore, when performing perspective projection conversion with an arbitrary point of the equidistant cylindrical projection image as the gazing point, the coordinates (latitude, longitude) of the gazing point can be changed by rotating the solid sphere to which the equidistant cylindrical projection image is pasted. The coordinates may be rotated so that the coordinates are arranged at the position of (90°, 0°).

この立体球の回転に関する変換公式は、一般の座標回転公式であるため、説明を省略する。 Since the conversion formula regarding the rotation of the solid sphere is a general coordinate rotation formula, its explanation is omitted.

(送信される画像データ)
次に、図15を用いて、全天球撮影装置1からスマートフォン5に送信される画像データについて詳細に説明する。図15は、全天球撮影装置1からスマートフォン5に送信される画像データの概念図である。図15に示しているように、送信用の所定の画像サイズに合わせて、一枚の画像の上部に全体画像で下部に部分画像が配置するように関連付けられている。このように関連付けられた画像は必要に応じて、送信前にSRAM113や、DRAM114等に記憶される。本実施形態では、一般的はHD等のアスペクトである16:9に合わせて配置されるがアスペクトは問わない。また、配置も上下に限らず左右でもよい。部分画像が複数あった場合は、例えば上半分に全体画像、下半分に部分画像の個数分だけ分割して配置してもよい。全体画像と部分画像を1つにまとめることにより、画像間の同期を保障することができる。また、スマートフォン5で重畳させて表示できるのであれば、全天球撮影装置1は、スマートフォン5に対して、全体画像データ及び部分画像データを別々に送信してもよい。
(Image data to be sent)
Next, the image data transmitted from the omnidirectional imaging device 1 to the smartphone 5 will be described in detail with reference to FIG. FIG. 15 is a conceptual diagram of image data transmitted from the omnidirectional imaging device 1 to the smartphone 5. As shown in FIG. 15, according to a predetermined image size for transmission, the whole image is arranged at the upper part of one image and the partial image is arranged at the lower part thereof. The image thus associated is stored in the SRAM 113, the DRAM 114, or the like before transmission, if necessary. In the present embodiment, it is generally arranged in accordance with 16:9 which is an aspect of HD or the like, but the aspect does not matter. Further, the arrangement is not limited to the top and bottom, and may be the left and right. When there are a plurality of partial images, for example, the upper half may be divided into the entire image and the lower half may be divided into the partial images. By combining the whole image and the partial image into one, it is possible to guarantee the synchronization between the images. Further, the spherical image capturing apparatus 1 may separately transmit the whole image data and the partial image data to the smartphone 5, as long as the smartphone 5 can display the images in a superimposed manner.

<スマートフォン5の処理又は動作>
続いて、図16を用いて、スマートフォン5の処理について説明する。図16は、第1の実施形態に係るスマートフォン5が行う画像処理の過程における画像の概念図である。図12に示された重畳領域作成部54は、図16で示されているように部分画像パラメータで指示された部分立体球PSを作成する(S320)。
<Processing or operation of smartphone 5>
Next, the processing of the smartphone 5 will be described with reference to FIG. FIG. 16 is a conceptual diagram of an image in the process of image processing performed by the smartphone 5 according to the first embodiment. The superimposition region creation unit 54 shown in FIG. 12 creates the partial solid sphere PS designated by the partial image parameter as shown in FIG. 16 (S320).

次に、画像作成部55は、部分立体球PSに対して、透視射影方式である部分画像を重畳することで、重畳画像Sを作成する(S330)。また、画像作成部55は、部分立体球PSに基づいて、マスク画像Mを作成する(S340)。更に、画像作成部55は、立体球CSに対して正距円筒射影方式である全体画像を貼り付けることで全天球画像CEを作成する(S350)。そして、画像重畳部56は、全天球画像CEに対して重畳S及びマスク画像Mを重畳する(S360)。これにより、境目が目立たないように高精細の重畳画像Sが重畳された低精細の全天球画像CEが完成する。 Next, the image creating unit 55 creates the superimposed image S by superimposing the partial image of the perspective projection method on the partial solid sphere PS (S330). Further, the image creating unit 55 creates the mask image M based on the partial solid sphere PS (S340). Further, the image creating unit 55 creates the omnidirectional image CE by pasting the whole image of the equidistant cylindrical projection method on the solid sphere CS (S350). Then, the image superimposing unit 56 superimposes the superimposition S and the mask image M on the omnidirectional image CE (S360). As a result, the low-definition celestial sphere image CE on which the high-definition superimposed image S is superimposed so that the boundary is inconspicuous is completed.

次に、射影方式変換部57は、閲覧者の指定に従った仮想カメラの視線方向と画角に基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域をディスプレイ517で閲覧できるように射影変換を行う(S370)。これにより、表示制御部58は、ディスプレイ517に全天球画像CEにおける所定領域である所定領域画像Qを表示させる(S380)。 Next, the projection method conversion unit 57 causes the display 517 to display a predetermined region in the celestial sphere image CE in the state in which the superimposed image S is superimposed on the basis of the line-of-sight direction and the angle of view of the virtual camera specified by the viewer. Projective transformation is performed so that the user can browse (S370). Accordingly, the display control unit 58 causes the display 517 to display the predetermined area image Q which is the predetermined area in the omnidirectional image CE (S380).

図17は、部分平面から部分立体球の作成を説明する図である。通常、透視射影方式では平面に射影するため、図17(a)で示すように3次元空間上に平面で表すことが多い。本実施形態では、図17(b)のように全天球画像に合わせて球の一部である部分立体球とする。ここでは、平面から部分立体球への変換について説明する。 FIG. 17 is a diagram illustrating the creation of a partial solid sphere from a partial plane. Normally, in the perspective projection method, projection is performed on a plane, so that it is often represented by a plane in a three-dimensional space as shown in FIG. In the present embodiment, as shown in FIG. 17B, a partial solid sphere that is a part of the sphere is used in accordance with the spherical image. Here, conversion from a plane to a partial solid sphere will be described.

図17(a)で示すように適切な大きさ(画角)で配置された平面上の各点(X,Y,Z)を球面上への射影を考える。球面への射影は球の原点から各点(X,Y,Z)を通る直線と球面との交点となる。球面上の各点は原点からの距離が球の半径と等しい点である。よって球の半径を1とすると図17(b)で示される球面上の点(X’,Y’,Z’)は下記の(式6)で表される。 Consider the projection of each point (X, Y, Z) on a plane arranged with an appropriate size (angle of view) onto a sphere as shown in FIG. The projection on the sphere is the intersection of the sphere and the line passing from each point (X, Y, Z) from the origin of the sphere. Each point on the sphere is a point whose distance from the origin is equal to the radius of the sphere. Therefore, assuming that the radius of the sphere is 1, the point (X', Y', Z') on the spherical surface shown in FIG. 17B is represented by the following (Equation 6).

(X’,Y’,Z’)=(X,Y,Z)×1/√(X+Y+Z)・・・(式6)
図18は、本実施形態の部分立体球の作成を行わずに、全天球画像に部分画像を重畳した場合の二次元の概念図である。図19は、本実施形態の部分立体球の作成を行って、全天球画像に部分画像を重畳した場合の二次元の概念図である。
(X′,Y′,Z′)=(X,Y,Z)×1/√(X 2 +Y 2 +Z 2 )... (Equation 6)
FIG. 18 is a two-dimensional conceptual diagram in which the partial image is superimposed on the omnidirectional image without creating the partial solid sphere of the present embodiment. FIG. 19 is a two-dimensional conceptual diagram when the partial stereoscopic sphere of this embodiment is created and the partial image is superimposed on the omnidirectional image.

図18(a)に示されているように、仮想カメラICが立体球CSの中心点に位置している場合を基準にすると、被写体P1は、全天球画像CE上で像P2として表され、重畳画像S上で像P3として表されている。図18(a)に示されているように、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置しているため、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。しかし、図18(b)に示されているように、仮想カメラICが立体球CSの中心点から離れると、仮想カメラICと被写体P1とを結ぶ直線上に、像P2は位置しているが、像P3はやや内側に位置している。このため、仮想カメラICと被写体P1とを結ぶ直線上における重畳画像S上の像を像P3’とすると、全天球画像CEと重畳画像Sに、像P3と像P3’との間のズレ量g分のズレが生じてしまう。これにより、全天球画像CEに対して重畳画像Sがズレて表示されてしまう。このように、重畳した表示であっても良い。 As shown in FIG. 18A, when the virtual camera IC is located at the center point of the solid sphere CS, the subject P1 is represented as an image P2 on the omnidirectional image CE. , Is shown as an image P3 on the superimposed image S. As shown in FIG. 18A, since the images P2 and P3 are located on the straight line connecting the virtual camera IC and the subject P1, the superimposed image S is superimposed on the celestial sphere image CE. Even when displayed in the open state, the spherical image CE and the superimposed image S are not displaced. However, as shown in FIG. 18B, when the virtual camera IC is separated from the center point of the solid sphere CS, the image P2 is located on the straight line connecting the virtual camera IC and the subject P1. , The image P3 is located slightly inside. Therefore, assuming that the image on the superimposed image S on the straight line connecting the virtual camera IC and the subject P1 is an image P3′, the celestial sphere image CE and the superimposed image S are misaligned between the images P3 and P3′. A gap of the amount g occurs. As a result, the superimposed image S is displayed with a deviation from the omnidirectional image CE. In this way, the display may be superimposed.

これに対して、さらに、本実施形態では、部分立体球の作成を行っているため、図19(a)、(b)に示されているように、重畳画像Sを全天球画像CEに沿って重畳することができる。これにより、図19(a)に示されているように、仮想カメラICが立体球CSの中心点に位置する場合だけでなく、図19(b)に示されているように、仮想カメラが立体球CSの中心点から離れた場合であっても、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置することになる。よって、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。 On the other hand, further, in the present embodiment, since the partial solid sphere is created, the superimposed image S is converted into the spherical image CE as shown in FIGS. 19(a) and 19(b). Can be superimposed along. Accordingly, not only when the virtual camera IC is located at the center point of the solid sphere CS as shown in FIG. 19A, but as shown in FIG. Even if the image P2 and the image P3 are separated from the center point of the solid sphere CS, the images P2 and P3 are located on the straight line connecting the virtual camera IC and the subject P1. Therefore, even if the superimposed image S is displayed in a state of being superimposed on the omnidirectional image CE, no deviation occurs between the omnidirectional image CE and the superimposed image S.

図20(a)は重畳表示しない場合のワイド画像の表示例、図20(b)は重畳表示しない場合のテレ画像の表示例、図20(c)は重畳表示する場合のワイド画像の表示例、図20(d)は重畳表示する場合のテレ画像の表示例を示した概念図である。なお、図中の波線は、説明の便宜上表しただけであり、実際にディスプレイ517上には表示されてもよく、表示されなくてもよい。 20A is a display example of a wide image without overlay display, FIG. 20B is a display example of a tele image without overlay display, and FIG. 20C is a display example of a wide image with overlay display. 20(d) is a conceptual diagram showing a display example of a tele image in the case of superimposing display. Note that the wavy line in the figure is shown only for convenience of description, and may or may not be actually displayed on the display 517.

図20(a)に示されているように、全天球画像CEに対して部分画像Pを重畳して表示しない場合、図20(a)における波線で示される領域まで拡大表示すると、図20(b)に示されているように、低精細の画像のままとなっており、利用者は鮮明でない画像を見ることになってしまう。これに対して、図20(c)に示されているように、全天球画像CEに対して部分画像Pを重畳して表示する場合、図20(c)における波線で示される領域まで拡大表示すると、図20(d)に示されているように、高精細の画像が表示され、利用者は鮮明な画像を見ることができる。特に、波線で示されている領域に、文字が描かれた看板等が表示されている場合、高精細な部分画像Pを重畳表示しなければ、拡大表示させても文字がぼやけてしまい、何が書かれてあるのか分からない。しかし、高精細な部分画像Pを重畳表示すれば、拡大表示させても文字が鮮明に見えるため、利用者は何が書かれているのかを把握することができる。 As shown in FIG. 20A, when the partial image P is not displayed by being superimposed on the omnidirectional image CE, when the area shown by the broken line in FIG. As shown in (b), the low-definition image remains, and the user sees an unclear image. On the other hand, as shown in FIG. 20(c), when the partial image P is superimposed and displayed on the omnidirectional image CE, it is enlarged to the area indicated by the dotted line in FIG. 20(c). When displayed, a high-definition image is displayed as shown in FIG. 20D, and the user can see a clear image. In particular, when a signboard or the like in which characters are drawn is displayed in the area indicated by the wavy line, the characters will be blurred even if they are enlarged and displayed unless the high-definition partial image P is superimposed and displayed. I don't know if is written. However, when the high-definition partial image P is superimposed and displayed, the characters can be seen clearly even when enlarged and displayed, so that the user can understand what is written.

〔実施形態の主な効果〕
以上説明したように本実施形態によれば、全天球撮影装置1は、高精細の全天球画像から低精細の全体画像を作成し(S140)、同じ高精細の全天球画像から射影方式の異なる高精細の部分画像を作成する(S150)。そして、全天球撮影装置1が、スマートフォン5に対して、低精細の全体画像及び高精細の部分画像の各データを送信する。これに対して、スマートフォン5は、低精細の全体画像上に高精細の部分画像を重畳して(S360)、利用者(閲覧者)が指定する視線方向及び画角に応じて射影方式を変換する(S370)。このように、全天球撮影装置1は、被写体等を撮像することによって得られた高精細な全天球画像のうち、注目されている領域である部分画像については高精細のまま送信し、全天球画像の全体を把握するための全体画像については低精細に変換してから送信し、しかも、高精細の部分画像については射影方式を変換してから送信する。これにより、受信側のスマートフォン5では、従来に比べて、データ量が削減できるため、早く全体画像に部分画像を重畳した状態の全天球画像を表示させることができるという効果を奏する。
[Main effects of the embodiment]
As described above, according to the present embodiment, the omnidirectional imaging device 1 creates a low-definition entire image from a high-definition omnidirectional image (S140), and projects from the same high-definition omnidirectional image. High-definition partial images of different methods are created (S150). Then, the omnidirectional imaging device 1 transmits each data of the low-definition whole image and the high-definition partial image to the smartphone 5. On the other hand, the smartphone 5 superimposes the high-definition partial image on the low-definition entire image (S360) and converts the projection method according to the line-of-sight direction and the angle of view specified by the user (viewer). Yes (S370). As described above, the omnidirectional image capturing apparatus 1 transmits the high-definition omnidirectional image obtained by capturing an image of a subject or the like as a high-definition partial image that is a region of interest. The whole image for grasping the whole celestial sphere image is converted to low definition before being transmitted, and the partial image of high definition is transmitted after conversion of the projection method. As a result, in the smartphone 5 on the receiving side, the amount of data can be reduced as compared with the related art, and therefore, it is possible to quickly display the omnidirectional image in which the partial image is superimposed on the entire image.

よって、本実施形態によれば、通信量を減らすべく、全天球撮影装置1が、全天球画像の全体を縮小した低精細な全体画像と、全天球画像(全体画像)内の注目する領域である高精細な部分画像のデータとを配信し、受信側のスマートフォン5で全体画像に部分画像を合成するだけでなく、低精細な全体画像と高精細な部分画像が異なる射影方式であっても、スマートフォン5で合成して表示可能であるため、射影方式に関する汎用性が高いという効果を奏する。 Therefore, according to the present embodiment, in order to reduce the communication amount, the omnidirectional image capturing apparatus 1 reduces the entire omnidirectional image and a low-definition entire image and the attention in the omnidirectional image (overall image). The data of the high-definition partial image that is the area to be distributed is distributed, and not only the partial image is combined with the whole image by the smartphone 5 on the receiving side, but also the low-definition whole image and the high-definition partial image are projected differently. Even if there is, it can be combined and displayed on the smartphone 5, so that the versatility of the projection method is high.

●第2の実施形態
以降、本発明の第2の実施形態について説明する。
Second Embodiment Hereinafter, a second embodiment of the present invention will be described.

〔撮影システムの概略〕
まずは、図21を用いて、第2の実施形態に係る撮影システムの概略について説明する。図21は、第2の実施形態に係る撮影システムの構成の概略図である。
[Outline of shooting system]
First, the outline of the imaging system according to the second embodiment will be described with reference to FIG. FIG. 21 is a schematic diagram of the configuration of an imaging system according to the second embodiment.

図21に示されているように、本実施形態の撮影システムは、全天球撮影装置1a、及びスマートフォン5a,5b,5cよって構成されている。利用者Aは、スマートフォン5aを操作する。この場合、利用者Aは、スマートフォン5aで表示された画像を閲覧する閲覧者でもある。利用者Bは、スマートフォン5bを操作する。この場合、利用者Bは、スマートフォン5bで表示された画像を閲覧する閲覧者でもある。利用者Cは、スマートフォン5cを操作する。この場合、利用者Cは、スマートフォン5cで表示された画像を閲覧する閲覧者でもある。スマートフォン5a,5bから全天球撮影装置1aに対して、上述の指示データを送信することができるが、スマートフォン5cから全天球撮影装置1aに対して、上述の指示データを送信することはできない。 As shown in FIG. 21, the imaging system of this embodiment is configured by the omnidirectional imaging device 1a and smartphones 5a, 5b, 5c. User A operates the smartphone 5a. In this case, the user A is also a viewer who browses the image displayed on the smartphone 5a. User B operates the smartphone 5b. In this case, the user B is also a viewer who browses the image displayed on the smartphone 5b. User C operates the smartphone 5c. In this case, the user C is also a viewer who browses the image displayed on the smartphone 5c. The above-mentioned instruction data can be transmitted from the smartphones 5a and 5b to the omnidirectional image capturing apparatus 1a, but the above-mentioned instruction data cannot be transmitted from the smartphone 5c to the omnidirectional image capturing apparatus 1a. ..

また、全天球撮影装置1aは、第1の実施形態に係る全天球撮影装置1と同様のハードウェア構成であるが、後述の新たな機能構成が追加されている。スマートフォン5a,5bは、第1の実施形態に係るスマートフォン5と同様のハードウェア構成であるが、後述の新たな機能構成が追加されている。スマートフォン5cは、第1の実施形態に係るスマートフォン5と同様のハードウェア構成であるが、逆に、機能が一部削除されている。なお、図21では、同じ機能の2台のスマートフォン5a,5b、これらとは異なる機能の1台のスマートフォン5cが示されているが、あくまで一例である。よって、スマートフォン5aと同じ機能のスマートフォンが3台以上あってもよいし、スマートフォン5cと同じ機能のスマートフォンが2台以上あってもよい。 The omnidirectional imaging device 1a has the same hardware configuration as the omnidirectional imaging device 1 according to the first embodiment, but a new functional configuration described later is added. The smartphones 5a and 5b have the same hardware configuration as the smartphone 5 according to the first embodiment, but a new functional configuration described later is added. The smartphone 5c has a hardware configuration similar to that of the smartphone 5 according to the first embodiment, but conversely, a part of the function is deleted. Note that FIG. 21 shows two smartphones 5a and 5b having the same function and one smartphone 5c having a different function, but this is just an example. Therefore, there may be three or more smartphones having the same function as the smartphone 5a and two or more smartphones having the same function as the smartphone 5c.

また、全天球撮影装置1aは、第1の実施形態の全天球撮影装置1(図9参照)と同様のハードウェア構成であるため、説明を省略する。また、スマートフォン5a,5b,5cは、スマートフォン5(図10参照)と同様のハードウェア構成であるため、説明を省略する。 Further, the omnidirectional imaging device 1a has the same hardware configuration as the omnidirectional imaging device 1 (see FIG. 9) of the first embodiment, and thus the description thereof will be omitted. Further, since the smartphones 5a, 5b, 5c have the same hardware configuration as the smartphone 5 (see FIG. 10), the description will be omitted.

〔実施形態の機能構成〕
次に、図22乃至図24を用いて、本実施形態の機能構成について説明する。図22は、第2の実施形態に係る全天球撮影装置1aの機能ブロック図である。図23は、第2の実施形態に係るスマートフォン5a,5bの機能ブロック図である。図24は、第2の実施形態に係るスマートフォン5cの機能ブロック図である。
[Functional Configuration of Embodiment]
Next, the functional configuration of this embodiment will be described with reference to FIGS. 22 to 24. FIG. 22 is a functional block diagram of the celestial sphere imaging device 1a according to the second embodiment. FIG. 23 is a functional block diagram of the smartphones 5a and 5b according to the second embodiment. FIG. 24 is a functional block diagram of the smartphone 5c according to the second embodiment.

<全天球撮影装置1aの機能構成>
図22に示されているように、全天球撮影装置1aは、第1の実施形態に係る全天球撮影装置1に対して、更に、指示選択部21及び指示データ制限部22を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された全天球撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of spherical imaging device 1a>
As shown in FIG. 22, the omnidirectional imaging device 1a further includes an instruction selection unit 21 and an instruction data restriction unit 22 in addition to the omnidirectional imaging device 1 according to the first embodiment. ing. Each of these units is realized by any one of the components shown in FIG. 9 being operated by an instruction from the CPU 111 according to a program for the omnidirectional image capturing device expanded from the SRAM 113 to the DRAM 114. Function or means.

(全天球撮影装置1aの各機能構成)
次に、図22を用いて、全天球撮影装置1aの指示選択部21及び指示データ制限部22について更に詳細に説明する。
(Each functional configuration of the spherical imaging device 1a)
Next, with reference to FIG. 22, the instruction selection unit 21 and the instruction data restriction unit 22 of the omnidirectional imaging device 1a will be described in more detail.

指示選択部21は、スマートフォン5a,5bから送受信部11を介して送られて来た指示データに付加されている指示権請求データに基づき、全天球撮影装置1aが指示データを利用するか否かの選択を行う。指示権請求データは、送信元のスマートフォンからの指示データを優先して全天球撮影装置1aに利用してもらうための請求を示すデータであり、スマートフォン5a,5bを識別するための端末ID等が含まれている。例えば、指示選択部21は、全天球撮影装置1aに対して、スマートフォン5aから指示データが送られて来た直後に、スマートフォン5bからも指示データが送られて来た場合、全天球撮影装置1aは、スマートフォン5aから送られて来た指示データを利用して射影方式の変換等を行い、スマートフォン5bから送られて来た指示データを利用しない。その他、指示選択部21は、所定のスマートフォンから最初に送られて来た指示データに付加されている指示権請求データの全部又は一部(例えば、端末ID)を一時的に(例えば、30秒間)自身で保持しておき、この一時的に保持している間に、他のスマートフォンから送られて来た指示データに付加されている指示権請求データの端末IDと同じであるか否かを判断し、同じでない場合には、指示データ制限部22に対して他のスマートフォンから送られて来た指示データを利用させない等の制御を行うものである。 The instruction selection unit 21 determines whether or not the omnidirectional imaging device 1a uses the instruction data based on the instruction right request data added to the instruction data transmitted from the smartphones 5a and 5b via the transmission/reception unit 11. Make a choice. The instruction right request data is data indicating a request for prioritizing the instruction data from the transmission source smartphone to be used by the omnidirectional imaging device 1a, such as a terminal ID for identifying the smartphones 5a and 5b. It is included. For example, when the instruction selection unit 21 sends the instruction data from the smartphone 5b to the omnidirectional imaging device 1a immediately after the instruction data is sent from the smartphone 5a, the omnidirectional shooting is performed. The device 1a uses the instruction data sent from the smartphone 5a to perform the projection method conversion and the like, and does not use the instruction data sent from the smartphone 5b. In addition, the instruction selection unit 21 temporarily (for example, for 30 seconds) all or part (for example, the terminal ID) of the instruction right request data added to the instruction data first sent from a predetermined smartphone. ) Hold by yourself, and while holding this temporarily, check whether it is the same as the terminal ID of the instruction request data added to the instruction data sent from another smartphone. If it is determined that they are not the same, the instruction data restriction unit 22 is controlled not to use the instruction data sent from another smartphone.

指示データ制限部22は、指示データで示される部分画像の切出領域CAの画角が後述の送信用画像サイズ毎の閾値(横画角閾値、縦画角閾値)未満の場合は、部分画像の切出領域CAが小さくなりすぎないように、スマートフォン5a,5b,5c側で閾値の部分画像が閲覧されるように指示データに対して制限を掛ける。 When the angle of view of the cutout area CA of the partial image indicated by the instruction data is less than the threshold (horizontal angle of view threshold, vertical angle of view threshold) for each image size for transmission, which will be described later, the instruction data restriction unit 22 determines the partial image. The instruction data is restricted so that the partial images of the threshold value are browsed on the smartphone 5a, 5b, 5c side so that the cutout area CA of is not too small.

なお、第2の実施形態部分画像パラメータ作成部12は、スマートフォン5から送受信部11を介して送られて来た指示データが指示データ制限部によって制限された後の指示データに基づいて部分画像パラメータを作成する。 The partial image parameter creation unit 12 of the second embodiment uses the partial image parameters based on the instruction data after the instruction data sent from the smartphone 5 via the transmission/reception unit 11 is restricted by the instruction data restriction unit. To create.

(切出領域の縮小の制限)
ここで、図25及び図26を用いて、部分画像の切出領域CAが小さくなり過ぎることを制限することに関して説明する。なお、この制限の目的や効果については事例を用いて後述する。図25(a)は指示データ制限テーブルの概念図、(b)は正距円筒射影画像の概略図である。指示データ制限テーブルは、SRAM113に記憶されており、指示データ制限部22によって管理されている。
(Limitation of reduction of cutout area)
Here, with reference to FIG. 25 and FIG. 26, a description will be given of limiting the cutout area CA of the partial image from becoming too small. The purpose and effect of this restriction will be described later using an example. FIG. 25A is a conceptual diagram of the instruction data restriction table, and FIG. 25B is a schematic diagram of the equidistant cylindrical projection image. The instruction data restriction table is stored in the SRAM 113 and managed by the instruction data restriction unit 22.

図25(a)に示されているように、指示データ制限テーブルでは、設定1から設定4の複数の設定パターンが管理されている。設定パターン毎に、高精細画像の横画素数及び縦画素数、部分画像の横画素数及び縦画素数、並びに、高精細画像のサイズと送信用の画像サイズにおける部分画像サイズ(図15下参照)毎の部分画像の切出領域CAの画角の閾値(横画角閾値及び縦画角閾値)が関連付けて管理されている。なお、指示データの画角は横画角閾値及び縦画角閾値のいずれか一方であってもよい。図25(a)では、4つの設定パターンが示されているが、これは一例であって、1つ以上3つ以下でも、5つ以上でもよい。また、指示データ制限テーブルを利用せず、計算式を利用してもよい。ここで、具体的に設定パターン「設定1」について説明する。 As shown in FIG. 25A, the instruction data restriction table manages a plurality of setting patterns of setting 1 to setting 4. For each set pattern, the number of horizontal pixels and vertical pixels of the high-definition image, the number of horizontal pixels and vertical pixels of the partial image, and the size of the high-definition image and the partial image size in the image size for transmission (see the lower part of FIG. 15). ), the threshold value of the angle of view (horizontal view angle threshold value and vertical view angle threshold value) of the cutout area CA of each partial image is managed in association with each other. The angle of view of the instruction data may be either the horizontal angle of view threshold or the vertical angle of view threshold. In FIG. 25A, four setting patterns are shown, but this is an example, and one or more and three or less or five or more may be set. Further, a calculation formula may be used without using the instruction data restriction table. Here, the setting pattern “setting 1” will be specifically described.

例えば、一時記憶部16に記憶された高精細な正距円筒射影画像のデータが、図25(b)で示されているように、横360度、縦180度の2:1の画像であり、画像の横サイズが4000画素(pix)で縦サイズが2000画素(pix)である場合、1画素あたりの角度は0.09度(=360÷4000)である。部分画像を透視投影方式で変換されることで得られた透視射影画像とした場合、透視射影画像内の領域により画角と画素の比は一定ではないが、目安として、例えば、部分画像の横画素が1920画素の場合は、1920×0.09=172.8度となり、送信用の画像サイズの横画角の閾値が172.8度として管理される。同様に、部分画像の縦画素が1080画素の場合は、1080×0.09=97.2度となり、送信用の画像サイズの縦画角の閾値が97.2度として管理される。これにより、スマートフォン5aから全天球撮影装置1aに対して送られた指示データによって、横画角172.8度より小さい部分画像の切出領域CAを指定された場合であっても、指示データ22制限部は画角を制限して172.8度の領域を部分画像へ変換するように留める。 For example, the data of the high-definition equirectangular cylindrical projection image stored in the temporary storage unit 16 is a 2:1 image of horizontal 360 degrees and vertical 180 degrees as shown in FIG. When the horizontal size of the image is 4000 pixels (pix) and the vertical size is 2000 pixels (pix), the angle per pixel is 0.09 degrees (=360/4000). When a partial image is a perspective projection image obtained by conversion by the perspective projection method, the ratio of the angle of view and the pixel is not constant depending on the area in the perspective projection image, but as a guideline, for example, When the number of pixels is 1920, 1920×0.09=172.8 degrees, and the threshold of the horizontal field angle of the image size for transmission is managed as 172.8 degrees. Similarly, when the vertical pixel of the partial image is 1080 pixels, 1080×0.09=97.2 degrees, and the threshold of the vertical angle of view of the image size for transmission is managed as 97.2 degrees. As a result, even when the cutout area CA of the partial image smaller than the horizontal angle of view of 172.8 degrees is specified by the instruction data sent from the smartphone 5a to the celestial sphere imaging device 1a, the instruction data The 22 restriction unit restricts the angle of view so that the 172.8 degree region is converted into a partial image.

更に、図26を用いて、部分画像の切出領域CAが小さくなり過ぎることを制限する処理について詳細に説明する。図26(a)は指示データに制限を掛けない場合における全天球撮影装置からスマートフォンに送信される画像データの概念図、図26(b)は指示データに制限を掛ける場合における全天球撮影装置1aからスマートフォンに送信される画像データの概念図である。 Further, processing for limiting the cutout area CA of the partial image from becoming too small will be described in detail with reference to FIG. FIG. 26A is a conceptual diagram of image data transmitted from the omnidirectional imaging device to the smartphone when the instruction data is not restricted, and FIG. 26B is a omnidirectional image capturing when the instruction data is restricted. It is a conceptual diagram of the image data transmitted from the apparatus 1a to a smart phone.

上記第1の実施形態では、図26(a)に示されているように、低精細変更部17は、指示データに基づき、全体画像を低精細に変更する際に送信用の画像サイズに合わせて縮小する。また、全体画像としての正距円筒射影画像EC1において部分画像の切出領域CAが指定されている場合、射影方式変換部18は、全体画像から部分画像P11を抽出して射影方式を変換する際に送信用の画像サイズに合わせて拡大相当の処理を行う。 In the first embodiment, as shown in FIG. 26A, the low-definition changing unit 17 adjusts to the image size for transmission when changing the entire image to low-definition based on the instruction data. To reduce. Further, when the cutout area CA of the partial image is specified in the equidistant cylindrical projection image EC1 as the entire image, the projection method conversion unit 18 extracts the partial image P11 from the entire image and converts the projection method. Then, processing corresponding to enlargement is performed according to the image size for transmission.

これに対して、第2の実施形態では、図26(b)に示されているように、指示データによって、全体画像としての正距円筒射影画像EC1において部分画像P21が指定されている場合、低精細変更部17は、第1の実施形態と同様に、全体画像を低精細に変更する際に送信用の画像サイズに合わせて縮小する。しかし、射影方式変換部18は、送信用の画像サイズに合わせて抽出するために、送信用の画像サイズと等倍相当となる部分画像P22を抽出して射影方式を変換する。 On the other hand, in the second embodiment, as shown in FIG. 26B, when the partial image P21 is specified in the equidistant cylindrical projection image EC1 as the entire image by the instruction data, The low-definition changing unit 17 reduces the entire image according to the image size for transmission when changing the entire image to low-definition, as in the first embodiment. However, the projection method conversion unit 18 converts the projection method by extracting the partial image P22 having the same size as the transmission image size in order to extract the image according to the transmission image size.

<スマートフォン5a,5bの機能構成>
図23に示されているように、スマートフォン5a,5bは、第1の実施形態に係るスマートフォン5に対して、更に、指示権請求部59を有している。指示権請求部59は、図10に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたスマートフォン用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of smartphones 5a and 5b>
As shown in FIG. 23, the smartphones 5a and 5b further include an instruction right claiming unit 59 with respect to the smartphone 5 according to the first embodiment. The instruction right claiming unit 59 is a function realized by any of the components shown in FIG. 10 being operated by an instruction from the CPU 501 according to a smartphone program expanded from the EEPROM 504 to the RAM 503, or It is a means.

(スマートフォン5a,5bの各機能構成)
以下、第1の実施形態で説明していない指示権請求部59の機能構成についてのみ説明する。
(Each functional configuration of the smartphones 5a and 5b)
Hereinafter, only the functional configuration of the instruction right claiming unit 59 not described in the first embodiment will be described.

指示権請求部59は、受付部52が利用者からの指示を受け付けることで、優先的に全天球撮影装置1aに指示データを利用させるための指示権(指示請求権データともいう)を発行する。この発行された指示権は、送受信部51が全天球撮影装置1aへ送信する指示データに付随して送信される。図21に示されているように、複数のスマートフォン5a,5bから全天球撮影装置1aに指示データを送信するシステムの場合、指示が競合する可能性がある。そのため、第2の実施形態では、指示権の考えが導入されている。 The instruction right requesting unit 59 issues an instruction right (also referred to as instruction request right data) for preferentially causing the omnidirectional imaging device 1a to use the instruction data when the receiving unit 52 receives the instruction from the user. To do. The issued instruction right is transmitted together with instruction data that the transmitting/receiving unit 51 transmits to the celestial sphere imaging device 1a. As shown in FIG. 21, in the case of a system in which a plurality of smartphones 5a and 5b transmit instruction data to the celestial sphere imaging device 1a, instructions may conflict. Therefore, in the second embodiment, the idea of the instruction right is introduced.

<スマートフォン5cの機能構成>
図24に示されているように、スマートフォン5cは、図12に示されている第1の実施形態のスマートフォン5から、受付部52で利用者の指示を受け付けることができない点以外は同じ機能構成であるため、説明を省略する。即ち、スマートフォン5cは、スマートフォン5a,5bとは異なり、全天球撮影装置1aに対して指示データを送信する機能を有していない。そのため、スマートフォン5cは、スマートフォン5a,5bと指示が競合する可能性はない。
<Functional configuration of smartphone 5c>
As shown in FIG. 24, the smartphone 5c has the same functional configuration except that the receiving unit 52 cannot receive the user's instruction from the smartphone 5 of the first embodiment shown in FIG. Therefore, the description is omitted. That is, unlike the smartphones 5a and 5b, the smartphone 5c does not have a function of transmitting instruction data to the omnidirectional imaging device 1a. Therefore, the smartphone 5c may not conflict with the instructions of the smartphones 5a and 5b.

〔実施形態の処理又は動作〕
続いて、図27及び28を用いて、第2の実施形態の処理又は動作について説明する。なお、本実施形態では、第1の実施形態と異なる処理又は動作についてのみ説明する。
[Process or Operation of Embodiment]
Subsequently, the processing or operation of the second embodiment will be described using FIGS. 27 and 28. In addition, in this embodiment, only a process or an operation different from that of the first embodiment will be described.

<全天球撮影装置1aの処理又は動作>
まずは、図27を用いて、全天球撮影装置1aの処理又は動作を説明する。図27は、第2の実施形態に係る全天球撮影装置1aが行う画像処理の過程における画像の概念図である。
<Processing or operation of spherical imaging device 1a>
First, the processing or operation of the spherical imaging device 1a will be described with reference to FIG. FIG. 27 is a conceptual diagram of an image in the process of image processing performed by the omnidirectional imaging device 1a according to the second embodiment.

図27に示されているように、全天球撮影装置1aの指示選択部21は、スマートフォン5aから第1の指示データが送られて来て、スマートフォン5bから第2の指示データが送られて来た場合、利用する指示データを選択する(S110)。この場合、指示選択部21は、指示データに付加して送られて来た指示権請求データに基づき、利用する指示データを選択する。例えば、指示選択部21は、送受信部11で先に受信した指示データを優先して利用するために選択する。なお、指示権請求データは、スマートフォン5a,5bの各指示権請求部59が発行している。 As shown in FIG. 27, the instruction selecting unit 21 of the celestial sphere imaging device 1a receives the first instruction data from the smartphone 5a and the second instruction data from the smartphone 5b. When it comes, the instruction data to be used is selected (S110). In this case, the instruction selection unit 21 selects the instruction data to be used based on the instruction request data sent in addition to the instruction data. For example, the instruction selection unit 21 selects the instruction data previously received by the transmission/reception unit 11 for preferential use. The instruction right request data is issued by each instruction right requesting unit 59 of the smartphones 5a and 5b.

次に、指示データ制限部22は、指示データ制限部22は、指示データが送信用画像サイズの閾値未満の場合は、部分画像の切出領域CAが小さくなりすぎることを制限して、スマートフォン5a,5b,5c側で閾値の部分画像が表示されるように指示データに対して制限を掛ける(S110)。 Next, when the instruction data is less than the threshold of the image size for transmission, the instruction data restriction unit 22 limits the cutout area CA of the partial image from becoming too small, and the instruction data restriction unit 22 restricts the smartphone 5a. , 5b, 5c are limited to the instruction data so that the partial image of the threshold value is displayed (S110).

なお、これ以降は、第1の実施形態における指示データに代えて、ステップS110の処理による制限後の指示データが、ステップS130以降の処理で利用される。ここで、図28を用いて、第1の実施形態と第2の実施形態で、スマートフォンにおける表示の違いについて説明する。図28において、(a)は制限をかけない場合の部分画像P11の表示例、(b)は制限をかけない場合の全体画像における部分画像P11以外の領域の表示例、(c)は制限をかけた場合の部分画像P21の表示例及び送信された部分画像P22の概念図、(d)は制限をかけた場合の部分画像P22における部分画像P21以外の領域の表示例である。なお、図28(a),(b)は図26(a)の処理の場合の画像であり、図28(c),(d)は図26(b)の処理の場合の画像である。 After that, instead of the instruction data in the first embodiment, the instruction data after the limitation in the processing in step S110 is used in the processing in step S130 and subsequent steps. Here, the difference in display on the smartphone between the first embodiment and the second embodiment will be described with reference to FIG. 28. In FIG. 28, (a) is a display example of the partial image P11 when no restriction is applied, (b) is a display example of an area other than the partial image P11 in the entire image when no restriction is applied, and (c) is a restriction. A display example of the partial image P21 when applied and a conceptual diagram of the transmitted partial image P22, (d) is a display example of an area other than the partial image P21 in the partial image P22 when restricted. 28(a) and 28(b) are images in the case of the process of FIG. 26(a), and FIGS. 28(c) and 28(d) are images in the case of the process of FIG. 26(b).

図26(a)に示されているように、スマートフォン5において利用者Yによって部分画像P11が指定されると、スマートフォン5の表示制御部58は、全天球撮影装置1から送られて来た画像として、最初に図28(a)に示されているような所定領域画像Q11を表示させる。この最初の所定領域画像Q11は、城の天守閣の中央部分が図26(a)における部分画像P11に相当する。ここで、利用者Yが図28(a)に示されている所定領域画像における天守閣の上部を表示するための操作を行うと、表示制御部58は、図28(b)に示されているような所定領域画像Q12を表示させる。図28(b)に示されているように、天守閣の中央部分以外は、低精細な全体画像(図26(a)の正距円筒射影画像EC1に相当)の一部の拡大であるため画質が悪い。仮に、図28(b)に示されている画像を高精細で表示する場合には、スマートフォン5は全天球撮影装置1に対して、図28(b)に示されている領域を指定するための指定データを再度送信することになる。しかし、スマートフォン5が全天球撮影装置1に対して指示データを再度送信しても、遅延等により直ぐには全天球撮影装置1から更新された部分画像のデータが送られて来ないため、一時的に図28(b)に示されているような低精細な画像が表示された状態になってしまう。また、複数の利用者が各人のスマートフォンで画像を閲覧する場合、指示権を持っていない利用者が指示データで示される領域以外の領域を閲覧しようとしても、全天球撮影装置1から高精細な画像データを取得できないため、図28(b)に示されているようにスマートフォンに表示される画像は低精細になってしまう。 As shown in FIG. 26A, when the user Y specifies the partial image P11 on the smartphone 5, the display control unit 58 of the smartphone 5 is sent from the omnidirectional camera 1. As the image, first, a predetermined area image Q11 as shown in FIG. 28A is displayed. In the first predetermined area image Q11, the central portion of the castle tower corresponds to the partial image P11 in FIG. Here, when the user Y performs an operation for displaying the upper part of the castle tower in the predetermined area image shown in FIG. 28A, the display control unit 58 is shown in FIG. 28B. Such a predetermined area image Q12 is displayed. As shown in FIG. 28( b ), except for the central portion of the castle tower, the image quality is a partial enlargement of the low-definition entire image (corresponding to the equirectangular cylindrical projected image EC 1 of FIG. 26( a )). Is bad. If the image shown in FIG. 28( b) is to be displayed in high definition, the smartphone 5 designates the area shown in FIG. 28( b) for the omnidirectional camera 1. The designated data for will be transmitted again. However, even if the smartphone 5 retransmits the instruction data to the omnidirectional imaging device 1, the updated partial image data is not immediately sent from the omnidirectional imaging device 1 due to a delay or the like. A low-definition image as shown in FIG. 28B is temporarily displayed. In addition, when a plurality of users browse images on their respective smartphones, even if a user who does not have an instruction right tries to browse an area other than the area indicated by the instruction data, the celestial sphere image capturing device 1 can be used. Since fine image data cannot be obtained, the image displayed on the smartphone becomes low-definition as shown in FIG.

これに対して、図26(b)に示されているように、スマートフォン5aにおいて利用者Aが指示権を取得して部分画像P21を指定すると、全天球撮影装置1aから送られて来た画像は図28(c)の全体を示す部分画像P22であるが、スマートフォン5aの表示制御部58は、図28(c)の破線内の領域の部分画像P21を最初の所定領域画像Q21として表示させる。全天球撮影装置1aから送られて来た画像は、天守閣の全体部分である図26(b)における部分画像P22に該当する。また、最初の所定領域画像Q21は、天守閣の中央部分である図26(b)における部分画像P21に該当する。 On the other hand, as shown in FIG. 26B, when the user A obtains the instruction right and specifies the partial image P21 on the smartphone 5a, it is sent from the omnidirectional imaging device 1a. The image is the partial image P22 showing the whole of FIG. 28(c), but the display control unit 58 of the smartphone 5a displays the partial image P21 of the area within the broken line of FIG. 28(c) as the first predetermined area image Q21. Let The image sent from the omnidirectional imaging device 1a corresponds to the partial image P22 in FIG. 26(b) which is the entire part of the castle tower. The first predetermined area image Q21 corresponds to the partial image P21 in FIG. 26(b), which is the central portion of the castle tower.

ここで、スマートフォン5aが図28(c)に示されている所定領域画像Q21における天守閣の中央部を表示中に、利用者Aが天守閣の上部を表示する操作を行っても、全天球撮影装置1aから天守閣の上部の高精細な部分画像のデータが届くまでは、既に取得している図28(c)に示されている画像における天守閣の上部の領域を、図28(d)に示されているような所定領域画像Q22として表示させることで、画質が極端に悪くならない。また、利用者B,Cのいずれかが、自己のスマートフォン5b,5cで図28(c)に示されている所定領域画像における天守閣の上部を表示する操作を行うと、表示制御部58は、図28(d)に示されているような所定領域画像Q22を表示させる。図28(c)に示されているように、天守閣全体の画像が高精細な部分画像であるため、表示制御部58が、図28(d)に示されているように天守閣の上部の画像を表示させた場合であっても画質が極端に悪くならない。 Here, even if the user A performs an operation to display the upper part of the castle tower while the smartphone 5a is displaying the central part of the castle tower in the predetermined area image Q21 shown in FIG. Until the data of the high-definition partial image of the upper part of the castle tower arrives from the device 1a, the area of the upper part of the castle tower in the image already shown in FIG. 28(c) is shown in FIG. 28(d). By displaying the predetermined area image Q22 as described above, the image quality does not deteriorate extremely. Further, when one of the users B and C performs an operation of displaying the upper part of the castle tower in the predetermined area image shown in FIG. 28C with the smartphone 5b or 5c of the user, the display control unit 58 The predetermined area image Q22 as shown in FIG. 28D is displayed. As shown in FIG. 28(c), since the entire image of the castle tower is a high-definition partial image, the display control unit 58 causes the display controller 58 to display an image of the upper part of the castle tower as shown in FIG. 28(d). Even when is displayed, the image quality does not deteriorate significantly.

また、利用者Cは、指示権を取得できないスマートフォン5cを利用しているため、自己のスマートフォン5cで指定データを再度送信することができないが、既に自己のスマートフォン5cで受信されている部分画像の一部を拡大するだけで、高精細な画像を閲覧することができる。 Further, since the user C is using the smartphone 5c that cannot acquire the instruction right, he/she cannot send the designated data again with his/her own smartphone 5c, but the partial image already received by his/her own smartphone 5c cannot be displayed. High-definition images can be viewed by simply enlarging a part.

〔実施形態の主な効果〕
以上説明したように本実施形態によれば、指示データが送信用画像サイズの閾値未満の場合は、指示データ制限部22は、部分画像の切出領域CAが小さくなりすぎることを制限して、スマートフォン5a,5b,5c側で閾値の部分画像が表示されるように指示データに対して制限を掛ける。これにより、第1の実施形態の効果に加え、操作権を有する利用者Aは、指示データで示される部分画像P21を所定領域画像Q21として閲覧中に、部分画像22内における部分画像P21の周辺の領域(所定領域画像Q22)を表示させる場合には、全天球撮影装置1aから改めて高精細な部分画像のデータが送られて来る間でも、表示される所定領域画像の画質が極端に悪くならないという効果を奏する。しかも、
全天球撮影装置1aからスマートフォン5aに送信する部分画像のサイズを大きくして(データ量を増やして)高画質の領域を広げたのではないため、送信対象のデータ量を変えずに、かつ所定領域画像Q21の画質を落とさずに済むという効果を奏する。更に、操作権を有しない利用者B,Cは、全体画像内の所望の領域を閲覧中に、部分画像22内における部分画像P21の周辺の領域(所定領域画像Q22)を表示させる場合には、画質が極端に悪くならないという効果を奏する。これにより、利用者の閲覧性を向上させることができる。
[Main effects of the embodiment]
As described above, according to the present embodiment, when the instruction data is less than the threshold of the transmission image size, the instruction data restriction unit 22 restricts the cutout area CA of the partial image from becoming too small, The instruction data is restricted so that the partial images of the threshold value are displayed on the smartphone 5a, 5b, 5c side. As a result, in addition to the effect of the first embodiment, the user A who has the operation right is viewing the partial image P21 indicated by the instruction data as the predetermined area image Q21 while surrounding the partial image P21 in the partial image 22. When the area (predetermined area image Q22) is displayed, the image quality of the predetermined area image to be displayed is extremely poor even while the data of the high-definition partial image is sent again from the omnidirectional imaging device 1a. Has the effect of not becoming. Moreover,
Since the size of the partial image transmitted from the omnidirectional imaging device 1a to the smartphone 5a is not increased (the amount of data is increased) to expand the high-quality image area, the amount of data to be transmitted is not changed, and There is an effect that the image quality of the predetermined area image Q21 does not deteriorate. Further, when users B and C who do not have the operation right display the area (predetermined area image Q22) around the partial image P21 in the partial image 22 while browsing the desired area in the entire image, , The effect that the image quality is not extremely deteriorated. Thereby, the readability of the user can be improved.

●補足
なお、図11に示されている全天球撮影装置1の一部分(撮像部14a、撮像部14b、撮像制御部13、及び画像処理部15)以外の機能構成は、全天球撮影装置1内で実現せずに、別装置である画像処理サーバが実現してもよい。この場合、画像処理サーバは、全天球撮影装置1及びスマートフォン5に対してインターネット等の通信ネットワークを介してデータ通信を行う。同様に、図22に示されている全天球撮影装置1aの一部(撮像部14a、撮像部14b、撮像制御部13、及び画像処理部15)以外の機能構成は、全天球撮影装置1a内で実現せずに、別装置である画像処理サーバが実現してもよい。この場合も、画像処理サーバは、全天球撮影装置1a及びスマートフォン5a,5b,5cに対してインターネット等の通信ネットワークを介してデータ通信を行う。
[Supplement] The functional configuration other than a part (the image capturing unit 14a, the image capturing unit 14b, the image capturing control unit 13, and the image processing unit 15) of the spherical image capturing apparatus 1 illustrated in FIG. The image processing server, which is another device, may be realized instead of being realized in 1. In this case, the image processing server performs data communication with the omnidirectional imaging device 1 and the smartphone 5 via a communication network such as the Internet. Similarly, the functional configuration other than a part (the image capturing unit 14a, the image capturing unit 14b, the image capturing control unit 13, and the image processing unit 15) of the omnidirectional image capturing apparatus 1a illustrated in FIG. The image processing server, which is a separate device, may be realized instead of being realized within 1a. In this case also, the image processing server performs data communication with the omnidirectional imaging device 1a and the smartphones 5a, 5b, 5c via a communication network such as the Internet.

また、全天球撮影装置1,1aは撮影装置の一例であり、撮影装置には、通常の平面画像を得るデジタルカメラやスマートフォン等も含まれる。通常の平面画像を得るデジタルカメラやスマートフォンの場合、全天球画像を得るのではなく、比較的広角な画像(広角画像)を得ることができる。 Further, the omnidirectional imaging device 1, 1a is an example of the imaging device, and the imaging device also includes a digital camera, a smartphone, or the like that obtains a normal plane image. In the case of a digital camera or a smartphone that obtains a normal plane image, it is possible to obtain a relatively wide-angle image (wide-angle image) instead of obtaining a spherical image.

また、スマートフォン5,5a,5b,5cは、通信端末又は画像処理装置の一例であり、通信端末又は画像処理装置には、タブレット型PC(Personal Computer:パーソナルコンピュータ)、ノートPC、デスクトップPC等のPCも含まれる。また、通信端末又は画像処理装置には、スマートウォッチ、ゲーム機器、又は車両等に搭載するカーナビゲーション端末等が含まれる。 The smartphones 5, 5a, 5b, 5c are examples of communication terminals or image processing devices, and the communication terminals or image processing devices include tablet PCs (Personal Computers), notebook PCs, desktop PCs, and the like. PC is also included. The communication terminal or the image processing device includes a smart watch, a game machine, a car navigation terminal mounted on a vehicle, or the like.

上記実施形態では、低精細画像として、撮像部14a,14bから得られた画像データの画像の全体領域である全体画像と、高精細画像として、全体領域の一部の領域である部分画像について説明したが、これに限るものではない。低精細画像は、撮像部14a,14bから得られた画像データの画像の全体領域の一部の領域A1の画像であってもよい。この場合、高精細画像は、一部の領域A1の更に一部の領域A2の画像となる。即ち、低精細画像と高精細画像との関係は、前者が広角画像であるのに対して後者が狭角画像である。 In the above embodiment, a low-definition image is described as a whole image that is the entire region of the image of the image data obtained from the imaging units 14a and 14b, and a high-definition image is a partial image that is a partial region of the whole region. However, it is not limited to this. The low-definition image may be an image of a partial area A1 of the entire area of the image of the image data obtained from the imaging units 14a and 14b. In this case, the high-definition image is an image of a further partial area A2 of the partial area A1. That is, regarding the relationship between the low-definition image and the high-definition image, the former is a wide-angle image, while the latter is a narrow-angle image.

上記実施形態では、全天球画像に平面画像を重畳する場合について説明したが、重畳は、合成の一例である。合成には、重畳の他に、貼り付け、嵌め込み、重ね合わせ等も含まれる。また、上記重畳画像は、合成画像の一例である。重畳領域は、合成領域の一例である。合成画像には、重畳画像の他に、貼り付け画像、嵌め込み画像、重ね合わせ画像等も含まれる。更に、画像重畳部56は、画像合成部の一例である。 In the above embodiment, the case where the plane image is superimposed on the omnidirectional image has been described, but the superposition is an example of composition. In addition to superimposing, combining includes pasting, fitting, superimposing, and the like. The superimposed image is an example of a composite image. The overlapping area is an example of a composite area. In addition to the superimposed image, the composite image also includes a pasted image, a fitting image, a superimposed image, and the like. Further, the image superimposing unit 56 is an example of an image synthesizing unit.

また、正距円筒射影画像ECと平面画像Pは、両方とも静止画の場合、両方とも動画のフレームの場合、一方が静止画で他方が動画のフレームの場合のいずれであってもよい。 Further, both the equirectangular cylindrical projected image EC and the plane image P may be either still images, both moving image frames, one still image and the other moving image frame.

更に、上記実施形態では、射影方式変換部18は、一時記憶部16から取得した高精細の画像データをそのままの精細度で射影方式を変換しているが、これに限るものではない。例えば、低精細変更部17から出力される全体画像データよりも高い精細度であれば、射影方式変換部18は、射影方式を変換する際に一時記憶部16から取得した画像データの精細度を低くしてもよい。 Further, in the above embodiment, the projection method conversion unit 18 converts the projection method of the high definition image data acquired from the temporary storage unit 16 with the same definition, but the present invention is not limited to this. For example, if the definition is higher than the overall image data output from the low definition changing unit 17, the projection method conversion unit 18 sets the definition of the image data acquired from the temporary storage unit 16 when converting the projection method. You can lower it.

図11及び図12に示されている各機能構成は、ソフトウェア機能ユニットの形で実現し、且つ、独立製品として販売または使用する場合に、コンピュータ読取り可能な記憶媒体に記憶することができる。この場合に、本実施形態の技術方案は、本質的、または従来技術に貢献する部分若しくは上記技術方案の部分はソフトウェア製品の形で表現される。上記コンピュータソフトウェア製品は、記憶媒体に記憶され、コンピュータ装置(パーソナルコンピュータ、サーバ、或はネットワークデバイスなど)に上記各実施形態にかかる上記方法の全部或は一部のステップを実行させる複数の指令を含む。なお、上述の記憶媒体は、USBメモリ、リムーバブルディスク、ROM、RAM、磁気ディスク、あるいは光ディスクなど、プログラムコードを格納できる様々な媒体を含む。 Each functional configuration shown in FIGS. 11 and 12 is realized in the form of a software functional unit, and can be stored in a computer-readable storage medium when sold or used as an independent product. In this case, in the technical solution of the present embodiment, the essential or the part that contributes to the conventional technology or the part of the technical solution is expressed in the form of a software product. The computer software product is stored in a storage medium, and stores a plurality of instructions for causing a computer device (personal computer, server, network device, etc.) to execute all or some of the steps of the method according to each of the embodiments. Including. The above-mentioned storage medium includes various media such as a USB memory, a removable disk, a ROM, a RAM, a magnetic disk, or an optical disk, which can store the program code.

また、上記実施形態にかかる方法は、プロセッサに適用され、またはプロセッサによって実現される。プロセッサは信号を処理する能力を持つ集積回路基板である。上記各実施形態の方法の各ステップはプロセッサにおけるハードウェアである集積論理回路又はソフトウェア形式の指令によって実現される。上記プロセッサは汎用プロセッサ、デジタル信号プロセッサ(DSP)、専用集積回路(ASIC)、既製プログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタ論理デバイス、ディスクリートハードウェア部品であり、上記各実施形態に開示される各方法、ステップ及び論理ボックスを実現又は実行可能なものである。汎用処理器はマイクロプロセッサ又は任意の一般処理器などである。上記各実施形態にかかる方法の各ステップは、ハードウェアであるデコーダにより実行されることで実現されてもよく、または、デコーダにおけるハードウェアとソフトウェアとの組み合わせによって実現されても良い。ソフトウェアモジュールはランダムメモリ、フラッシュメモリ、読出し専用メモリ、プログラマブル読出し専用メモリ、あるいは電気的消去可能なプログラマブルメモリ、レジスタなど、本分野で成熟した記憶媒体に記憶される。このソフトウェアが記憶される記憶媒体を備えるメモリから、プロセッサは情報を読み取り、ハードウェアに合わせて上記方法のステップを実現させる。 Further, the method according to the above embodiments is applied to or realized by the processor. A processor is an integrated circuit board capable of processing signals. Each step of the method of each of the above-described embodiments is realized by an instruction in the form of an integrated logic circuit which is hardware in a processor or software. The processor is a general purpose processor, a digital signal processor (DSP), a dedicated integrated circuit (ASIC), an off-the-shelf programmable gate array (FPGA) or other programmable logic device, a discrete gate or transistor logic device, a discrete hardware component, each of the above The methods, steps, and logic boxes disclosed in the embodiments can be implemented or executed. A general purpose processor may be a microprocessor or any general purpose processor or the like. Each step of the method according to each of the above embodiments may be realized by being executed by a decoder that is hardware, or may be realized by a combination of hardware and software in the decoder. The software modules are stored in storage media mature in the art, such as random memory, flash memory, read only memory, programmable read only memory, or electrically erasable programmable memory, registers. From a memory with a storage medium in which this software is stored, the processor reads the information and, according to the hardware, implements the method steps.

以上に説明した実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、またはそれらの組み合わせで実現される。その中に、ハードウェアの実現に関して、処理ユニットは一つまたは複数の専用集積回路(ASIC)、デジタル信号処理プロセッサ(DSP)、デジタル信号プロセッサ(DSPD)、プログラム可能論理回路(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、汎用プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、本発明の機能を実行する他の電子ユニット或はその組合せにより実現される。また、ソフトウェアの実現に関しては、上述した機能を実現するモジュール(たとえばプロセス、関数など)により上記技術が実現される。ソフトウェアコードは、メモリに保存され、プロセッサによって実行される。なお、メモリはプロセッサの内部または外部で実現される。 The embodiments described above are realized by hardware, software, firmware, middleware, microcode, or a combination thereof. Among them, in terms of hardware implementation, the processing unit is one or more dedicated integrated circuits (ASIC), digital signal processor (DSP), digital signal processor (DSPD), programmable logic circuit (PLD), field programmable. It may be implemented by a gate array (FPGA), a general purpose processor, a controller, a microcontroller, a microprocessor, another electronic unit that performs the functions of the present invention, or a combination thereof. As for software implementation, the above technology is implemented by modules (for example, processes, functions, etc.) that implement the above-mentioned functions. The software code is stored in memory and executed by the processor. The memory is realized inside or outside the processor.

1 全天球撮影装置(撮影装置の一例)
5 スマートフォン(通信端末の一例、画像処理装置の一例)
13 撮像制御部
14a 撮像部
14b 撮像部
15 画像処理部
16 一時記憶部
17 低精細変更部(変更手段の一例)
18 射影方式変換部(射影方式変換手段の一例)
19 符号化部
21 指示選択部
22 指示データ制限部
51 送受信部
52 受付部
53 復号化部
54 重畳領域作成部
55 画像作成部
56 画像重畳部
57 射影方式変換部
58 表示制御部
59 指示権請求部
1 Spherical photographing device (an example of photographing device)
5 Smartphones (one example of communication terminal, one example of image processing device)
13 imaging control unit 14a imaging unit 14b imaging unit 15 image processing unit 16 temporary storage unit 17 low-definition changing unit (an example of changing means)
18 Projection method conversion unit (an example of projection method conversion means)
19 encoding unit 21 instruction selection unit 22 instruction data restriction unit 51 transmission/reception unit 52 reception unit 53 decoding unit 54 superimposition region creation unit 55 image creation unit 56 image superposition unit 57 projection method conversion unit 58 display control unit 59 instruction right requesting unit

特開2006−340091号公報JP, 2006-340091, A

Claims (13)

被写体を撮影して所定の精細度の画像データを得る撮影装置であって、
前記所定の精細度の画像データに係る画像の全て又は一部である広角画像の精細度を変更する変更手段と、
前記広角画像の一部の領域である狭角画像を前記広角画像とは異なる精細度で射影方式変換する射影方式変換手段と、
を有することを特徴とする撮影装置。
A photographing device for photographing a subject to obtain image data of a predetermined definition,
Changing means for changing the definition of a wide-angle image, which is all or a part of the image relating to the image data of the predetermined definition,
Projection method conversion means for converting a narrow angle image, which is a partial region of the wide angle image, with a definition different from that of the wide angle image,
An image pickup apparatus comprising:
前記変更手段は、前記所定の精細度よりも低い精細度で、前記広角画像を変更することを特徴とする請求項1に記載の撮影装置。 The photographing apparatus according to claim 1, wherein the changing unit changes the wide-angle image with a definition lower than the predetermined definition. 前記広角画像は、前記被写体を撮影した得られた前記所定の精細度の画像データに係る画像の全てである全体画像であることを特徴とする請求項1又は2に記載の撮影装置。 The image capturing apparatus according to claim 1, wherein the wide-angle image is an entire image that is all the images related to the image data of the predetermined definition obtained by capturing the subject. 前記射影方式変換手段は、前記所定の精細度は前記広角画像の精細度より高い精細度で前記射影方式を変換することを特徴とする請求項1乃至3のいずれか一項に記載の撮影装置。 4. The photographing apparatus according to claim 1, wherein the projection method conversion unit converts the projection method with a predetermined definition higher than that of the wide-angle image. .. 前記撮影装置は、被写体を撮影して全天球画像データを得る全天球撮影装置であることを特徴とする請求項1乃至4のいずれか一項に記載の撮影装置。 The photographing apparatus according to claim 1, wherein the photographing apparatus is a celestial sphere photographing apparatus that photographs a subject to obtain celestial sphere image data. 前記撮影装置は、
前記広角画像のデータ及び前記狭角画像のデータを関連づけて記憶する記憶手段を有することを特徴とする請求項1乃至5のいずれか一項に記載の撮影装置。
The photographing device is
The image capturing apparatus according to claim 1, further comprising a storage unit that stores the data of the wide-angle image and the data of the narrow-angle image in association with each other.
請求項1乃至5のいずれか一項に記載の撮影装置と、
前記撮影装置から前記広角画像のデータ及び前記狭角画像のデータを取得して、前記広角画像上の前記一部の領域に前記狭角画像を合成して表示する通信端末と、
を有することを特徴とする撮影システム。
An image capturing apparatus according to claim 1,
A communication terminal that acquires the data of the wide-angle image and the data of the narrow-angle image from the photographing device, and synthesizes and displays the narrow-angle image in the partial area on the wide-angle image,
An imaging system having:
前記撮影装置は、
前記通信端末から、前記広角画像内の前記一部の領域である合成領域を特定するための指示を示す指示データを受信する受信手段を有し、
前記指示データで示される合成領域のサイズが閾値未満の場合には、前記射影方式変換手段は、当該閾値で示される合成領域である前記狭角画像を前記射影方式変換する
ことを特徴とする請求項6に記載の撮影システム。
The photographing device is
A receiving unit that receives instruction data indicating an instruction for specifying a composite area, which is the partial area in the wide-angle image, from the communication terminal,
When the size of the synthesis area indicated by the instruction data is less than a threshold value, the projection method conversion means performs the projection method conversion on the narrow-angle image that is the combination area indicated by the threshold value. Item 6. The imaging system according to Item 6.
前記撮影装置は、
前記通信端末に対し、前記広角画像のデータ及び前記狭角画像のデータを関連づけて送信する送信手段を有することを特徴とする請求項7又は8に記載の撮影システム。
The photographing device is
9. The imaging system according to claim 7, further comprising a transmission unit that transmits the data of the wide-angle image and the data of the narrow-angle image in association with the communication terminal.
前記撮影装置は、
前記送信手段は、送信用の所定画像サイズに合わせて送信することを特徴とする請求項9に記載の撮影システム。
The photographing device is
The image capturing system according to claim 9, wherein the transmitting unit transmits the image in accordance with a predetermined image size for transmission.
前記通信端末は、スマートフォン、スマートウォッチ、PC、又はカーナビゲーション端末であることを特徴とする請求項7乃至10のいずれか一項に記載の撮影システム。 The imaging system according to claim 7, wherein the communication terminal is a smartphone, a smart watch, a PC, or a car navigation terminal. 被写体を撮影して所定の精細度の画像データを得る撮影方法であって、
前記所定の精細度の画像データに係る画像の全て又は一部である広角画像の精細度を変更する変更ステップと、
前記広角画像の一部の領域である狭角画像を前記広角画像とは異なる精細度で射影方式変換する射影方式変換ステップと、
を実行することを特徴とする撮影方法。
A photographing method for photographing a subject to obtain image data of a predetermined definition,
A changing step of changing the definition of a wide-angle image, which is all or a part of the image related to the image data of the predetermined definition,
A projection method conversion step of performing a projection method conversion of a narrow-angle image, which is a partial region of the wide-angle image, with a different definition from the wide-angle image;
A shooting method characterized by executing.
コンピュータに、請求項12に記載の方法を実行させることを特徴とするプログラム。 A program that causes a computer to execute the method according to claim 12.
JP2019231625A 2018-12-28 2019-12-23 Photography system and method Active JP7415544B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/728,156 US11250540B2 (en) 2018-12-28 2019-12-27 Image processing apparatus, image capturing system, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018247019 2018-12-28
JP2018247019 2018-12-28

Publications (2)

Publication Number Publication Date
JP2020109955A true JP2020109955A (en) 2020-07-16
JP7415544B2 JP7415544B2 (en) 2024-01-17

Family

ID=71570537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019231625A Active JP7415544B2 (en) 2018-12-28 2019-12-23 Photography system and method

Country Status (1)

Country Link
JP (1) JP7415544B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006340091A (en) 2005-06-02 2006-12-14 Canon Inc Camera server, viewer, image display system and image distribution method
JP2010283567A (en) 2009-06-04 2010-12-16 Alpine Electronics Inc Imaging apparatus and device for providing vehicle peripheral image
JP6292227B2 (en) 2013-04-30 2018-03-14 ソニー株式会社 Image processing apparatus, image processing method, and program
JP6492041B2 (en) 2016-09-07 2019-03-27 東芝テリー株式会社 Surveillance image processing apparatus and surveillance image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Also Published As

Publication number Publication date
JP7415544B2 (en) 2024-01-17

Similar Documents

Publication Publication Date Title
US11558431B2 (en) Communication terminal, communication system, communication method, and display method
US10979751B2 (en) Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication
CN111726520B (en) Imaging device, imaging system, and image processing method
US10778865B2 (en) Image processing apparatus, image processing system, and image processing method
JP2019057903A (en) Image processing apparatus, photographing system, image processing method, and program
US20190289203A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019057264A (en) Image processing apparatus, photographing system, image processing method, and program
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US11250540B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
CN111226255A (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2018110384A (en) Image processing apparatus, imaging system, image processing method and program
JP2018056889A (en) Display terminal, display method, and program
JP7326774B2 (en) Image processing system, imaging device, information processing device, image processing method and program
JP2018109946A (en) Display device, program, and method for display
JP7415544B2 (en) Photography system and method
JP2019185757A (en) Image processing device, imaging system, image processing method, and program
US11533430B2 (en) Image capturing device with display control, image communication system, and method for display control, and recording medium
JP7424031B2 (en) Communication terminal, photographing system, image processing method and program
JP2018109971A (en) Image processing device, image processing system, photographing system, image processing method, and program
JP2018157538A (en) Program, imaging system, and information processing apparatus
JP2018061243A (en) Communication terminal, display method, and program
JP2017162014A (en) Communication terminal, image communication system, display method, and program
JP7400407B2 (en) Communication terminal, photographing system, image processing method and program
JP2020162118A (en) Photographing device, photographing system, image processing method, and program
JP2022007898A (en) Program, image communication system, display method and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R151 Written notification of patent or utility model registration

Ref document number: 7415544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151